HADOOP生态圈服务启动

1.zookeeper 启动

#启动zookeper服务(搭建集群时一般所有虚拟机均要执行)
/export/servers/zookeeper-3.4.9/bin/zkServer.sh start
#查看zookeeper当前状态
/export/servers/zookeeper-3.4.9/bin/zkServer.sh status

2.mysql 启动

#启动mysql服务(mysql为hadoop生态圈的基础,必须要启动)
/etc/init.d/mysqld start

3.HADOOP 启动

#启动hadoop集群(大数据的核心,必须要启动)
cd /export/servers/hadoop-2.7.5/
#相当于启动 start-hfs.sh 和 start-yarn.sh
sbin/start-all.sh
#启动查看历史任务服务
sbin/mr-jobhistory-daemon.sh start historyserver
#查看hdfs
http://node01:50070/explorer.html#/
#查看yarn集群
http://node01:8088/cluster
#查看历史完成的任务
http://node01:19888/jobhistory

4.HIVE 启动

#hive在hadoop中有着举足轻重的地位,以下两个服务切记要开(本人已经吃了很大的亏)
#此处hive应已经配置过环境变量

#启动后可以连接到 MYSQLserver(mysql连接不上一般为此处未启动,或配置文件hive-site.xml有问题)
#客户端连接metastore服务,metastore再去连接MySQL数据库来存取元数据。有了metastore服务,就可以有多个客户端同时连接,而且这些客户端不需要知道MySQL数据库的用户名和密码,只需要连接metastore 服务即可
hive --service metastore  &
#启动后可连接到hive-metastore(此处以经常出现问题)用来对数据库进行操作
hive -- service hiveserver2 &

5.FLUME 启动

#按自己的需求更改地址和conf文件名即可,此处均使用绝对路径(本命令实际为一行,本地执行时可换为相对路径)
/export/servers/apache-flume-1.8.0-bin/bin/flume-ng agent -c conf -f /export/servers/apache-flume-1.8.0-bin/conf/netcat-logger.conf -n a1 -Dflume.root.logger=INFO,console

6.AZKABAN 启动

#集群模式启动(需先进到azkaban安装录下,我的在node02下)
#启动exec(进入到exec-server目录下)
bin/start-exec.sh 
#需手动激活 executor 进入到c-server安装目录下,节点名字按需更改
curl -G "node02:$(<./executor.port)/executor?action=activate" && echo
#启动web(进入到web-server目录下)
 bin/start-web.sh
#web查看AZKABAN
https://node02:8443

7.IMPAlA启动

#主节点node03启动以下三个服务进程
service impala-state-store start
service impala-catalog start
service impala-server start
#从节点启动node01与node02启动impala-server
service  impala-server  start
#查看impala进程是否存在
ps -ef | grep impala
#访问impalad的管理界面
http://node03:25000/
#访问statestored的管理界面
http://node03:25010/
#主节点任意目录均可启动impala(我的主节点为node03)
impala-shell

8.OOZIE启动

#oozie启动需要先开启history-server(前提hadoop已经启动)
#进入到hadoop主节点(我的在node01)
cd /export/servers/hadoop-2.7.5/
#启动 history-server(停止需把start改为stop即可)
mr-jobhistory-daemon.sh start historyserver
#通过浏览器访问 hadoop jobhistory 的 webui
http://node01:19888
#进入到oozie安装目录下
cd /export/servers/oozie-4.1.0-cdh5.14.0
#启动oozie服务(关闭只需把start改为stop即可)
bin/oozied.sh start
#浏览器页面访问 oozie
http://node03:11000/oozie/

9.HUE启动

#hue是任务调度工具,能够正确使用的前提是其他所有的框架都已正确安装
#先进入hue的安装目录(我的在node03)
cd /export/servers/hue-3.9.0-cdh5.14.0/
#启动hue
build/env/bin/supervisor
#后台启动hue
nohup build/env/bin/supervisor 2>&1 &
#页面访问路径
http://node03:8888

10.KAFKA启动

#进入kafka的安装目录(kafka为集群,依赖于zookeeper)
cd /export/servers/kafka_2.11-0.10.0.0
#前台启动
bin/kafka-server-start.sh config/server.properties
#后台启动
nohup bin/kafka-server-start.sh config/server.properties 2>&1 &
#停止服务
bin/kafka-server-stop.sh
#查看kafka进程有以下两个就OK了
2276 QuorumPeerMain
2687 Jps#输入jps
3056 Kafka

11.KAFKA-eagle启动

#进入安装kafka-eagle安装目录(我的为node03)
cd /export/servers/kafka-eagle-bin-1.3.2/kafka-eagle-web-1.3.2/bin
#启动kafka-eagle
./ke.sh start
#停止kafka-eagle
./ke.sh stop
#访问kafkaweb页面(账号:admin 密码:123456)
http://node03:8048/ke/account/signin?/ke/

12.HBASE集群启动

#hbase依赖于zookeper&hadoop,要保证这两个能正常工作
#进入habase安装目录(我的主节点设为node01,故我从node01进入)
cd /export/servers/hbase-2.0.0
#启动hbase集群
bin/start-hbase.sh
#后台启动
nohup bin/start-hbase.sh  2>&1 &
#停止hbase集群
bin/stop-hbase.sh
#单节点启动
#启动HMaster命令
bin/hbase-daemon.sh start master
#启动HRegionServer命令
bin/hbase-daemon.sh start regionserver
#启动hbase的thrift server服务(使用hue访问,必须要启动这项服务)
bin/hbase-daemon.sh start thrift  
#web页面访问
http://node01:16010/master-status
http://node02:16010/master-status
http://node03:16030/rs-status

13.KUDU集群启动

#在已经安装过kudu的机器上开启master服务(若关闭需要把start 改为 stop)
service kudu-master start 
#在已经安装过kudu的机器上开启tserver服务(若关闭需要把start 改为 stop)
service kudu-tserver start 
#进入kudu的web管理界面,查看每个机器上master相关信息(我安装了三台)
http://node01:8051/masters
http://node02:8051/masters
http://node03:8051/masters
#进入kudu的web管理界面,查看每个机器上TServer相关信息(我安装了三台)
http://node01:8051/tablet-servers
http://node02:8051/tablet-servers
http://node03:8051/tablet-servers

14.REDIS启动

#单节点启动(例:启动node1中的redis)
#先进入redis的安装目录
cd  /export/servers/redis-3.2.8/src
#启动服务
redis-server  ../redis.conf
#使用命令查看redis是否开启成功
ps -ef | grep redis
#看到以下服务即算启动成功
root     56964     1  0 10:24 ?        00:00:01 redis-server node01:6379
#使用redis客户端,先进入redis安装目录
cd /export/servers/redis-3.2.8/src
#连接客户端
redis-cli -h node01

#使用主从架构(node01:master  node02&node03:slave)
#node02&node03开启redis服务
#先进入redis的安装目录
cd  /export/servers/redis-3.2.8/src
#启动服务
redis-server  ../redis.conf
#使用命令查看redis是否开启成功
ps -ef | grep redis

#使用Sentinel(哨兵)架构
#三台服务器启动哨兵服务,先进入安装目录
cd /export/servers/redis-3.2.8
#启动哨兵服务
src/redis-sentinel sentinel.conf