问题:hadoop集群datanode没有启动
解决:因为多次格式化namenode,出错了
方法:
删除各节点的data和logs目录,然后重新在主节点上进行namenode格式化
注:之前改过ID,但结果发现主节点datanode启动成功,但从节点未启动成功,可以各节点都需要改吧
记得重新格式化后,后面的hive on spark需要重新配置,因为sprk-jas文件没有了
hadoop fs -mkdir /spark-history
hadoop fs -mkdir /spark-jars
参考:
https://blog.csdn.net/qq_45069279/article/details/111559319