异常信息:
问题解决方式:
/data/var/lib/zookeeper/version-2 文件夹下的文件全部删除
然后重启zookeeper,启动成功。
此角色的日志目录所在的文件系统的可用空间小于5.0吉字节。到出现故障的节点查看磁盘使用情况。
可以看到由于数据都挂载在根目录,而home、data目录却有大量空间,故在home目录下创建dfs、log,并将根目录下/dfs,/var/log下关于cdh的文件或目录mv到/home下,并做软链接,然后启动服务就ok了,记得mv前停止服务。
接下来分析,为什么 / 根目录下的磁盘空间全部使用完了。
发现以上文件目录占用磁盘大于100M,使用du -h 文件名 依次查看文件大小。
G7项目居然没做日志大小限制。如果是java开发使用log4j打印日志,可以把日志的大小限制,一共只许生成多少个文件,循环覆盖。
参考: https://www.cnblogs.com/xiaowangba/p/6314179.html
修改配置:
异常信息:
和上面问题相同,也是磁盘空间不够。
将清研日志打开查看究竟是什么日志需要打印96G大小,且不删除。
实际上两个异常原因相同。
继续往上翻日志,发现一个INFO级别的异常日志
日志显示analye8服务器被拒绝,是因为ClockOutOfSyncException异常,Reported time is too far out of sync with master Time difference of 131097ms >max allowed of 30000ms.
上环境查看各服务器的时钟是否同步。
到这,就清楚了HRegionServer 为什么被中止了,出现该问题的原因:因为整个集群时间没有统一,导致master连接slave超时,所以导致从节点的HRegionServer进程没有正常启动。
实际上analye8 时间与互联网时间一致,是其它服务器的时间跑快了
为了方便,这里将analye8 的时间往前调整三分钟,与Master保持一致。修改方式:
重启hbase服务。
至此,135集群环境所有异常修复完毕,看着干净无污染的监控界面,心情顿时开朗了。
Hive ->配置 ->搜索 sentry ->勾选Sentry ->保存更改 ->重启服务
HDFS ->配置 ->搜索 acl ->启用访问控制列表和Sentry同步 ->保存更改 ->重启服务
Hue中集成了一个安全模块用来界面化操作Sentry。设置Hue以管理Sentry权限时,请确保正确设置了用户和组。连接到Sentry的每个Hue用户必须与服务器操作系统中的用户相同,以便Sentry可以对Hue用户进行身份验证。Hue中的用户group也同样要与本地操作系统中的用户group相同。
Hue ->配置 ->搜索 sentry ->勾选Sentry ->保存更改
Sentry ->配置 ->搜索 admin ->勾选Sentry ->保存更改 ->重启服务
为Hive启用Sentry后会导致HiveServer2的部分属性无法在客户端运行时进行修改。具体受限制的属性参数如下,当然你依旧可以在HiveServer2服务端进行参数修改。
保护Hive Metastore是非常重要的。如果你的集群没有启用Kerberos,请将sentry.hive.testing.mode属性设置为true,以允许Sentry使用较弱的身份验证机制。
注意:
Cloudera强烈建议不要在生产环境中配置该参数。该参数仅适用于Sentry的测试模式,可以用于你的测试环境
Hive->配置 ->搜索 sentry-site.xml->添加下面配置 ->保存更改 ->重启服务
当HiveServer2和Beeline客户端不在同一台主机时,不能使用ADD JAR命令。作为替代的,在加载jar包时只能通过在Hive服务中配置hive.reloadable.aux.jars.path路径。启用Sentry时,创建永久函数和临时函数的过程存在一些差异。
参考:
https://www.cloudera.com/documentation/enterprise/latest/topics/sg_sentry_service_config.html
欢迎分享,转载请注明来源:夏雨云
评论列表(0条)