常用操作
应用的Web接口
Hadoop 提供了基于 Web 的用户界面,可通过它查看您的 Hadoop 集群。Web 服务会在主节点上运行(Active NameNode或者Active ResourceManager),绑定外网IP,开放对应应用防火墙端口后可以查看。
web hdfs
可以通过在浏览器地址栏中输入 http://外网ip:50070 来查看hdfs的基本信息。
web yarn
可以通过 http://外网IP:23188/cluster 查看yarn resource manager 信息。
注解:由于resource manager可以动态切换,当节点转换为StandBy节点时,webyarn服务无法切换到active节点。
web hbase
可以通过 http://外网IP:60010/master-status 查看hbase的基本信息。
查看日志
1.查看节点上的日志
可在产品界面选择服务管理,查看相应服务运行的节点位置,登陆对应节点后进入查看所启动服务的服务日志。
各服务日志所在位置如下所示:
位置 | 说明 |
---|---|
/var/log/hadoop-hdfs | hdfs服务相关日志 |
/var/log/hadoop-yarn | yarn服务日志 |
/var/log/hadoop-yarn | yarn服务日志 |
/var/log/hbase | hbase服务日志 |
/var/log/hive | hive服务日志 |
/var/log/hue | hue服务日志 |
/var/log/zookeeper | zookeeper服务日志 |
2.提交到yarn的任务日志
用户可以在web yarn页面查看提交到yarn上的任务日志详情。由于任务日志界面需支持能访问集群各个节点,故可在云知芯云平台中的任意一台绑定外网IP的云主机或UHadoop的Master节点上,配置代理或者VPN,以便能够访问到集群中的每个节点。
a.配置vpn
可参考 配置openvpn文档配置vpn。
注解:配置完成后,可在访问端加上集群节点中最新的host文件即可(登陆集群中任意节点,查看/etc/hosts)。
b.配置Nginx反向代理
- 服务端配置
- 安装Nginx
yum install nginx -y
- 修改配置
新建/etc/nginx/conf.d/proxy.conf 文件中添加如下配置
server { listen 8889; client_body_timeout 60000; client_max_body_size 1024m; send_timeout 60000; client_header_buffer_size 16k; large_client_header_buffers 4 64k; proxy_headers_hash_bucket_size 1024; proxy_headers_hash_max_size 4096; proxy_read_timeout 60000; proxy_send_timeout 60000; location / { resolver 127.0.0.1; proxy_pass http://undefinedundefined; } }
3.启动nginx服务
service nginx restart
4.启动域名服务
service dnsmasq restart
集群节点发生变化时,需要重新启动这个服务。
- 访问端配置
1.在访问的网页端配置代理
2.配置hosts
需要在hosts中添加代理服务器的/etc/hosts文件中节点的host信息。
例如:
10.19.43.21 uhadoop-wpmitd-master1 10.19.20.134 uhadoop-wpmitd-core1 10.19.133.58 uhadoop-wpmitd-master2
用户登录web yarn页面可通过任务id 来搜索对应任务,查看任务状态,并点击任务,获取任务日志,查看详情进行分析。
3.查看hdfs上的历史日志
yarn任务的日志在任务运行结束之后会上传到hdfs上,当日志文件过大无法通过web来查看时,可以通过将日志文件从hdfs上下载下来查看。
日志文件的目录是:hdfs://Ucluster/var/log/hadoop-yarn/apps/undefined/logs
注解:undefined是当前提交用户的名。
配置NFS挂载hdfs到本地
- 1.修改配置
修改master节点下下面两个配置。
core-site.xml
> > hadoop.proxyuser.nfsserver.groups>> *>> nfsserver有哪些group的权限> >> > hadoop.proxyuser.nfsserver.hosts>> hostname>> 允许启动nfsserver的主机名> >
修改hdfs-site.xml
nfs.dump.dir /tmp/.hdfs-nfs nfs.rtmax 1048576 单次读请求最大字节数 nfs.wtmax 65536 单次写访问最大字节数 nfs.exports.allowed.hosts * rw 配置挂载主机对文件的访问权限,例如”192.168.0.0/22 rw ; host.*\.example\.com ; host1.test.org ro;”
- 2.启动nfs, 在1中配置的允许启动nfs的主机上执行下面操作
${HADOOP_HOME}/sbin/hadoop-daemon.sh start portmap *一定是root用户才有权限绑定端口。 ${HADOOP_HOME}/sbin/hadoop-daemon.sh start nfs3 *一定是hadoop用户启动,才有所有文件的访问权限。 showmount -e hostname Export list for hostname: / *
- 3.挂载
在nfs.exports.allowed.hosts允许的主机上执行
mkdir -p /data/hdfsnfs mount -t nfs -o vers=3,proto=tcp,nolock,noacl hostname:/ /data/hdfsnfs