HBase完全分布式

来源:转载


一 实验环境:
hadoop:pc1,pc2,pc3,pc4
zookeeper:pc1,pc2,pc3。
Hbase:pc1,pc2,pc3(集群结构,主节点(hmaster)是pc1,从节点(region server)是pc2,pc3)。


二 修改配置文件:
1.hadoop 
hadoop-env.sh:export HADOOP_CLASSPATH=$HBASE_HOME/*:$HBASE_HOME/conf:$HADOOP_CLASSPATH(为Hbase从CLASSPATH中获取hbase-site.xml信息)
2.Hbase
在hbase-env.sh中输出ZOOKEEPER_HOME和HADOOP_HOME(因为我的hadoop和zookeeper不是/usr/lib/下的),export HBASE_MANAGES_ZK=false(不让hbase托管zookeeper)
在hbase-site.xml中,hbase.zookeeper.quorum的值为pc1,pc2,pc3(这个是zookeeper的集群),hbase.rootdir值为hdfs中根目录
在regionservers文件(存放的region server的hostname),内容修改为pc2,pc3
3.zookeeper
tickTime=2000
dataDir=/usr/lib/zookeeper/data
dataLogDir=/usr/lib/zookeeper/dataLog
clientPort=2181
initLimit=10
syncLimit=5 
server.1=pc1:2888:3888
serv er.2=pc2:2888:3888  
server.3=pc3:2888:3888
在/usr/lib/zookeeper/data中创建myid,pc1~pc3中分别填写为1,2,3


三  启动顺序:先启动Hadoop-》hbase,如果使用自己安装的zookeeper启动顺序是:Hadoop-》zookeeper-》hbase
     停止顺序:hbase->zookeeper->hadoop
1,启动hadoop。 在/mnt/xkhadoop/hadoop 下
sbin/hadoop-daemon.sh start journalnode(pc2~pc4)
sbin/hadoop-daemon.sh start namenode(pc1)
bin/hdfs namenode -bootstrapStandby(pc2)
sbin/hadoop-daemon.sh start namenode(pc2)
bin/hdfs haadmin -transitionToActive n1(pc1,讲pc1转化为active)
sbin/hadoop-daemons.sh start datanode(pc1上,启动所有的datanode)
sbin/start-yarn.sh(pc1)
sbin/mr-jobhistory-daemon.sh start historyserver(pc2)
2.启动zookeeper
/usr/lib/zookeeper/bin/zkServer.sh start(pc1~pc3)
可使用/usr/lib/zookeeper/bin/zkServer.sh status 查看zookeeper状态
3.启动hbase
(pc1~pc3上安装hbase-master.x86_64  hbase-regionserver.x86_64,可以直接使用service hbase-* start 启动master和regionserver服务)
service hbase-master start(pc1)
service hbase-regionserver start(pc2,pc3)


四 执行hbase
hbase shell






分享给朋友:
您可能感兴趣的文章:
随机阅读: