#手动开启FsImage目录自恢复选项
su - hdfs
hdfs dfsadmin -restoreFailedStorage true
#开启成功后NameNode后续自动FsImage Checkpoint时,会先尝试恢复FsImage目录
restoreFailedStorage is set to true
问题根因:通常为了不断地向HDFS写入新的数据,作业会打开较多的HDFS文件写入流(Stream)。但HDFS允许同时打开的文件数量是有限的,受限于DataNode参数,超过限制就会出现DataXceiver Premature EOF from inputStream异常。
解决办法:
查看DataNode日志
java.io.IOException: Xceiver count 4097 exceeds the limit of concurrent xcievers: 4096
at org.apache.hadoop.hdfs.server.datanode.DataXceiverServer.run(DataXceiverServer.java:150)