濮阳杆衣贸易有限公司

主頁 > 知識庫 > Hadoop單機版和全分布式(集群)安裝

Hadoop單機版和全分布式(集群)安裝

熱門標簽:地圖標注員都是年輕人 江蘇云電銷機器人公司 打電話機器人接我是他的秘書 河南信譽好的不封卡電話外呼系統(tǒng) 客服外呼系統(tǒng)怎么樣 如果做線上地圖標注 揭陽智能電話機器人推薦 華鋒e路航港口地圖標注 百度地圖標注錯了有責任嗎

Hadoop,分布式的大數(shù)據(jù)存儲和計算, 免費開源!有Linux基礎(chǔ)的同學(xué)安裝起來比較順風(fēng)順水,寫幾個配置文件就可以啟動了,本人菜鳥,所以寫的比較詳細。為了方便,本人使用三臺的虛擬機系統(tǒng)是Ubuntu-12。設(shè)置虛擬機的網(wǎng)絡(luò)連接使用橋接方式,這樣在一個局域網(wǎng)方便調(diào)試。單機和集群安裝相差不多,先說單機然后補充集群的幾點配置。

第一步,先安裝工具軟件
編輯器:vim

復(fù)制代碼 代碼如下:

sudo apt-get install vim

ssh服務(wù)器: openssh,先安裝ssh是為了使用遠程終端工具(putty或xshell等),這樣管理虛擬機就方便多了。
復(fù)制代碼 代碼如下:

sudo apt-get install openssh-server

第二步,一些基本設(shè)置
最好給虛擬機設(shè)置固定IP

復(fù)制代碼 代碼如下:

sudo vim /etc/network/interfaces
加入以下內(nèi)容:
iface eth0 inet static
address 192.168.0.211
gateway 192.168.0.222
netmask 255.255.255.0

修改機器名,我這里指定的名字是:hadoopmaster ,以后用它做namenode
復(fù)制代碼 代碼如下:

sudo vim /etc/hostname

修改hosts,方便應(yīng)對IP變更,也方便記憶和識別
復(fù)制代碼 代碼如下:

sudo vim /etc/hosts
加入內(nèi)容:
192.168.0.211   hadoopmaster

第三步,添加一個專門為hadoop使用的用戶

復(fù)制代碼 代碼如下:

sudo addgroup hadoop
sudo adduser -ingroup hadoop hadoop

設(shè)置hadoop用戶的sudo權(quán)限
復(fù)制代碼 代碼如下:

sudo vim /etc/sudoers

在 root ALL=(ALL:ALL)
下面加一行 hadoop ALL=(ALL:ALL)
切換到hadoop用戶 su hadoop

第四步,解壓安裝JDK,HADOOP,PIG(順便把PIG也安裝了)

復(fù)制代碼 代碼如下:

sudo tar zxvf ./jdk-7-linux-i586.tar.gz  -C /usr/local/jvm/
sudo tar zxvf ./hadoop-1.0.4.tar.gz -C /usr/local/hadoop
sudo tar zxvf ./pig-0.11.1.tar.gz -C /usr/local/pig

修改解壓后的目錄名并且最終路徑為:
復(fù)制代碼 代碼如下:

jvm: /usr/local/jvm/jdk7
hadoop: /usr/local/hadoop/hadoop (注意:hadoop所有節(jié)點的安裝路徑必須相同)
pig: /usr/local/pig

設(shè)置目錄所屬用戶
復(fù)制代碼 代碼如下:

sudo chown -R hadoop:hadoop jdk7
sudo chown -R hadoop:hadoop hadoop
sudo chown -R hadoop:hadoop pig

設(shè)置環(huán)境變量, 編輯~/.bashrc 或 ~/.profile 文件加入
復(fù)制代碼 代碼如下:

export JAVA_HOME=/usr/local/jvm/jdk7
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH
export HADOOP_INSTALL=/usr/local/hadoop/hadoop
export PATH=${HADOOP_INSTALL}/bin:$PATH
source ~/.profile 生效

第五步,.ssh無密碼登錄本機,也就是說ssh到本機不需要密碼

復(fù)制代碼 代碼如下:

ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
cat ~/.ssh/id_rsa.pub gt;gt; ~/.ssh/authorized_keys

如果不起作用請修改權(quán)限:
復(fù)制代碼 代碼如下:

chmod 700 ~/.ssh
chmod 600 ~/.ssh/authorized_keys 

authorized_keys相當于白名單,id_rsa.pub是公鑰,凡是在authorized_keys有請求者機器的公鑰時ssh服務(wù)器直接放行,無需密碼!

第六步,Hadoop必要設(shè)置
所有設(shè)置文件在hadoop/conf目錄下
1、hadoop-env.sh 找到 #export JAVA_HOME 去掉注釋#,并設(shè)置實際jdk路徑
2、core-site.xml

復(fù)制代碼 代碼如下:

property>
name>fs.default.name/name>
value>hdfs://hadoopmaster:9000/value>
/property>
property>
name>hadoop.tmp.dir/name>
value>/usr/local/hadoop/tmp/value>
/property>

3、mapred-site.xml
復(fù)制代碼 代碼如下:

property>
name>mapred.job.tracker/name>
value>hadoopmaster:9001/value>
/property>

4、hdfs-site.xml
復(fù)制代碼 代碼如下:

property>
name>dfs.name.dir/name>
value>/usr/local/hadoop/datalog1,/usr/local/hadoop/datalog2/value>
/property>
property>
name>dfs.data.dir/name>
value>/usr/local/hadoop/data1,/usr/local/hadoop/data2/value>
/property>
property>
name>dfs.replication/name>
value>1/value>
/property>

5、文件masters 和 文件slaves, 單機寫 localhost 即可

第七步,啟動Hadoop
格式化Hadoop的HDFS文件系統(tǒng)

復(fù)制代碼 代碼如下:

hadoop namenode -format

執(zhí)行Hadoop啟動腳本,如果是集群的話在master上執(zhí)行,其他slave節(jié)點Hadoop會通過ssh執(zhí)行:
復(fù)制代碼 代碼如下:

start-all.sh

執(zhí)行命令 jps 如果顯示有: Namenode,SecondaryNameNode,TaskTracker,DataNode,JobTracker等五個進程表示啟動成功了!

第八步,集群的配置
所有其他單機的安裝跟上面相同,下面只增加集群的額外配置!
最好先配置好一臺單機,其他的可以通過scp直接復(fù)制,路徑也最好相同包括java!
本例的主機列表(設(shè)置hosts):


設(shè)置ssh,讓master能夠不要密碼登錄到其他slaves上,主要用來啟動slaves

復(fù)制代碼 代碼如下:

復(fù)制hadoopmaster下id_rsa.pub到子結(jié)點:
scp ./ssh/id_rsa.pub hadoopnode1:/home/hadoop/.ssh/id_master
scp ./ssh/id_rsa.pub hadoopnode2:/home/hadoop/.ssh/id_master

分別在子結(jié)點~/.ssh/目錄下執(zhí)行:
cat ./id_master >> authorized_keys


masters文件,添加作為secondarynamenode或namenode的主機名,一行一個。
集群寫master名如:hadoopmaster
slaves文件,添加作為slave的主機名,一行一個。
集群寫子結(jié)點名:如 hadoopnode1、hadoopnode2

Hadoop管理
hadoop啟動后會啟動一個任務(wù)管理服務(wù)和一個文件系統(tǒng)管理服務(wù),是兩個基于JETTY的WEB服務(wù),所以可在線通過WEB的方式查看運行情況。
任務(wù)管理服務(wù)運行在50030端口,如 http://127.0.0.1:50030文件系統(tǒng)管理服務(wù)運行在50070端口。

參數(shù)說明:
1、dfs.name.dir:是NameNode持久存儲名字空間及事務(wù)日志的本地文件系統(tǒng)路徑。 當這個值是一個逗號分割的目錄列表時,nametable數(shù)據(jù)將會被復(fù)制到所有目錄中做冗余備份。
2、dfs.data.dir:是DataNode存放塊數(shù)據(jù)的本地文件系統(tǒng)路徑,逗號分割的列表。 當這個值是逗號分割的目錄列表時,數(shù)據(jù)將被存儲在所有目錄下,通常分布在不同設(shè)備上。
3、dfs.replication:是數(shù)據(jù)需要備份的數(shù)量,默認是3,如果此數(shù)大于集群的機器數(shù)會出錯。

您可能感興趣的文章:
  • Linux中安裝配置hadoop集群詳細步驟
  • 詳解從 0 開始使用 Docker 快速搭建 Hadoop 集群環(huán)境
  • 在Hadoop集群環(huán)境中為MySQL安裝配置Sqoop的教程
  • java結(jié)合HADOOP集群文件上傳下載
  • ol7.7安裝部署4節(jié)點hadoop 3.2.1分布式集群學(xué)習(xí)環(huán)境的詳細教程

標簽:巴彥淖爾 淘寶邀評 赤峰 馬鞍山 許昌 邵陽 婁底 金昌

巨人網(wǎng)絡(luò)通訊聲明:本文標題《Hadoop單機版和全分布式(集群)安裝》,本文關(guān)鍵詞  Hadoop,單機版,和,全,分布式,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《Hadoop單機版和全分布式(集群)安裝》相關(guān)的同類信息!
  • 本頁收集關(guān)于Hadoop單機版和全分布式(集群)安裝的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    洪洞县| 鲁山县| 满洲里市| 岚皋县| 宜川县| 茶陵县| 乌鲁木齐县| 普兰县| 泗阳县| 榆林市| 瓦房店市| 巴青县| 喀喇沁旗| 攀枝花市| 青神县| 新竹市| 江华| 长宁县| 民权县| 苏尼特右旗| 山阳县| 新宾| 西充县| 阿城市| 平度市| 嫩江县| 台中县| 伊宁县| 高邑县| 石阡县| 麻江县| 桐柏县| 准格尔旗| 西和县| 谷城县| 乌兰浩特市| 东乌| 玉山县| 永兴县| 伽师县| 临清市|