Hadoop之——SecondaryNameNode合并EditsLog文件介绍

网友投稿 297 2022-11-20

Hadoop之——SecondaryNameNode合并EditsLog文件介绍

SecondaryNameNode会周期性地将EditsLog文件进行合并,合并前提条件如下:

EditsLog文件到达某一阈值时对其进行合并每隔一段时间对其进行合并

将记录HDFS操作的EditsLog文件与其上一次合并后存在的FsImage文件合并到Fsimage.checkpoint,然后创建一个新的EditsLog文件,最后将Fsimage.checkpoint复制到NameNode节点上,复制触发的条件是core-site.xml里面有两个参数可配置:

fs.checkpoint.period 3600 fs.checkpoint.size 67108864

参数解释如下:

fs.checkpoint.period:时间间隔,默认为1小时合并一次fs.checkpoint.size:文件大小,默认为64MB,当EditsLog文件大小超过64MB,就会触发EditsLog与Fsimage文件的合并

如果NameNode损坏或丢失之后,无法启动Hadoop,这时就要人工干预恢复到SecondaryNameNode中所照的状态,这就意味着集群的数据会或多或少地丢失一些宕机时间,并且将SecondaryNameNode作为重要的NameNode来处理。这就要求,尽量避免将SecondaryNameNode和NameNode放在同一台机器上。

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:二叉树递归迭代及morris层序前中后序遍历详解
下一篇:如何为逐次逼近型ADC设计可靠的数字接口?
相关文章

 发表评论

暂时没有评论,来抢沙发吧~