手机访问:wap.265xx.com前方高能
前言
HDFS是Hadoop中存储数据的基石,存储着所有的数据,具有高可靠性,高容错性,高可扩展性,高吞吐量等特征,能够部署在大规模廉价的集群上,极大地降低了部署成本。有意思的是,其良好的架构特征使其能够存储海量的数据。本篇文章,我们就来系统学习一下,HadoopHDFS的架构!
HDFS架构
HDFS采用 Master/Slave 架构存储数据,且支持 NameNode 的 HA。HDFS架构主要包含客户端,NameNode,SecondaryNameNode 和 DataNode 四个重要组成部分,如图所示:
(1)客户端向NameNode发起请求,获取元数据信息,这些元数据信息包括命名空间、块映射信息及 DataNode 的位置信息等。
(2)NameNode 将元数据信息返回给客户端。
(3)客户端获取到元数据信息后,到相应的 DataNode 上读/写数据
(4)相关联的 DataNode 之间会相互复制数据,以达到 DataNode 副本数的要求
(5)DataNode 会定期向 NameNode 发送心跳信息,将自身节点的状态信息报告给 NameNode。
(6)SecondaryNameNode 并不是 NameNode 的备份。SecondaryNameNode 会定期获取 NameNode 上的 fsimage和 edits log 日志,并将二者进行合并,产生 fsimage.ckpt 推送给 NameNode。
1、NameNode
NameNode 是整个 Hadooop 集群中至关重要的组件,它维护着整个 HDFS 树,以及文件系统树中所有的文件和文件路径的元数据信息。这些元数据信息包括文件名,命令空间,文件属性(文件生成的时间、文件的副本数、文件的权限)、文件数据块、文件数据块与所在 DataNode 之间的映射关系等。
一旦 NameNode 宕机或 NameNode 上的元数据信息损坏或丢失,基本上就会丢失 Hadoop 集群中存储的所有数据,整个 Hadoop 集群也会随之瘫痪。
在Hadoop运行的过程中,NameNode的主要功能如下图所示:
2、SecondaryNameNode
SecondaryNameNode 并不是 NameNode 的备份,在NameNode 发生故障时也不能立刻接管 NameNode 的工作。SecondaryNameNode 在 Hadoop 运行的过程中具有两个作用:一个是备份数据镜像,另一个是定期合并日志与镜像,因此可以称其为 Hadoop 的检查点(checkpoint)。SecondaryNameNode 定期合并 NameNode 中的 fsimage 和 edits log,能够防止 NameNode 重启时把整个 fsimage 镜像文件加载到内存,耗费过长的启动时间。
SecondaryNameNode的工作流程如图所示:
SecondaryNameNode的工作流程如下:
(1)SecondaryNameNode 会通知 NameNode 生成新的 edits log 日志文件。
(2)NameNode 生成新的 edits log 日志文件,然后将新的日志信息写到新生成的 edits log 日志文件中。
(3)SecondaryNameNode 复制 NameNode 上的 fsimage 镜像和 edits log日志文件,此时使用的是 http get方式。
(4)SecondaryNameNode 将fsimage将镜像文件加载到内存中,然后执行 edits log 日志文件中的操作,生成新的镜像文件 fsimage.ckpt。
(5)SecondaryNameNode 将 fsimage.ckpt 文件发送给 NameNode,此时使用的是 http post方式。
(6)NameNode 将 edits log 日志文件替换成新生成的 edits.log 日志文件,同样将 fsimage文件替换成 SecondaryNameNode 发送过来的新的 fsimage 文件。
(7)NameNode 更新 fsimage 文件,将此次执行 checkpoint 的时间写入 fstime 文件中。
经过 SecondaryNameNode 对 fsimage 镜像文件和 edits log 日志文件的复制和合并操作之后,NameNode 中的 fsimage 镜像文件就保存了最新的 checkpoint 的元数据信息, edits log 日志文件也会重新写入数据,两个文件中的数据不会变得很大。因此,当重启 NameNode 时,不会耗费太长的启动时间。
Hadoop权威指南:大数据的存储与分析(第4版) 京东月销量100好评率98%无理由退换京东配送官方店¥68购买SecondaryNameNode 周期性地进行 checkpoint 操作需要满足一定的前提条件,这些条件如下:
(1)edits log 日志文件的大小达到了一定的阈值,此时会对其进行合并操作。
(2)每隔一段时间进行 checkpoint 操作。
这些条件可以在core-site.xml文件中进行配置和调整,代码如下所示:
上述代码配置了 checkpoint 发生的时间周期和 edits log日志文件的大小阈值,说明如下。
(1)fs.checkpoint.period:表示触发 checkpoint发生的时间周期,这里配置的时间周期为 1 h。
(2)fs.checkpoint.size:表示 edits log 日志文件大小达到了多大的阈值时会发生 checkpoint操作,这里配置的 edits log大小阈值为 64 MB。
上述代码中配置的 checkpoint操作发生的情况如下:
(1)如果 edits log 日志文件经过 1 h 未能达到 64 MB,但是满足了 checkpoint发生的周期为 1 h 的条件,也会发生 checkpoint 操作。
(2)如果 edits log日志文件大小在 1 h 之内达到了 64MB,满足了 checkpoint 发生的 edits log日志文件大小阈值的条件,则会发生 checkpoint操作。
注意:如果 NameNode 发生故障或 NameNode 上的元数据信息丢失或损坏导致 NameNode 无法启动,此时就需要人工干预,将 NameNode 中的元数据状态恢复到 SecondaryNameNode 中的元数据状态。此时,如果 SecondaryNameNode 上的元数据信息与 NameNode 宕机时的元数据信息不同步,则或多或少地会导致 Hadoop 集群中丢失一部分数据。出于此原因,应尽量避免将 NameNode 和 SecondaryNameNode 部署在同一台服务器上。
3、DataNode
DataNode 是真正存储数据的节点,这些数据以数据块的形式存储在 DataNode 上。一个数据块包含两个文件:一个是存储数据本身的文件,另一个是存储元数据的文件(这些元数据主要包括数据块的长度、数据块的检验和、时间戳)。
DataNode 运行时的工作机制如图所示:
如图所示,DataNode运行时的工作机制如下:
(1)DataNode启动之后,向 NameNode 注册。
(2)NameNode 返回注册成功的消息给 DataNode。
(3)DataNode 收到 NameNode 返回的注册成功的信息之后,会周期性地向 NameNode 上报当前 DataNode 的所有块信息,默认发送所有数据块的时间周期是 1h。
(4)DataNode 周期性地向NameNode 发送心跳信息;NameNode 收到DataNode 发来的心跳信息后,会将DataNode 需要执行的命令放入到 心跳信息的 返回数据中,返回给 DataNode。DataNode 向 NameNode 发送心跳信息的默认时间周期是 3s。
(5)NameNode 超过一定的时间没有收到 DataNode 发来的心跳信息,则 NameNode 会认为对应的 DataNode 不可用。默认的超时时间是 10 min。
(6)在存储上相互关联的 DataNode 会同步数据块,以达到数据副本数的要求。
当 DataNode 发生故障导致 DataNode 无法与 NameNode 通信时,NameNode 不会立即认为 DataNode 已经 “死亡”。要经过一段短暂的超时时长后才会认为 DataNode 已经 “死亡”。HDFS 中默认的超时时长为 10 min + 30 s,可以用如下公式来表示这个超时时长:
timeout= 2 * dfs.namenode.heartbeat.recheck-interval +10 * dfs.heartbeat.interval
其中,各参数的含义如下:
(1)timeout:超时时长。
(2)dfs.namenode.heartbeat.recheck-interval:检查过期 DataNode 的时间间隔,与 dfs.heartbeat.interval 结合使用,默认的单位是 ms,默认时间是 5 min。
(3)dfs.heartbeat.interval:检测数据节点的时间间隔,默认的单位为 s,默认的时间是 3 s。
所以,可以得出 DataNode 的默认超时时长为 630s,如下所示:
timeout=2*5*60+10*3=630s
DataNode 的超时时长也可以在 hdfs-site.xml文件中进行配置,代码如下所示:
根据上面的公式可以得出,在配置文件中配置的超时时长为:
timeout=2*3000/1000+10*2=26s
当 DataNode 被 NameNode 判定为 “死亡”时,HDFS 就会马上自动进行数据块的容错复制。此时,当被 NameNode 判定为 “死亡” 的 DataNode 重新加入集群中时,如果其存储的数据块并没有损坏,就会造成 HDFS 上某些数据块的备份数超过系统配置的备份数目。
HDFS上删除多余的数据块需要的时间长短和数据块报告的时间间隔有关。该参数可以在 hdfs-site.xml文件中进行配置,代码如下所示:
数据块报告的时间间隔默认为 21600000ms,即 6h,可以通过调整此参数的大小来调整数据块报告的时间间隔。
小结
本篇文章算是对 HDFS的架构解释的比较透彻,相信不论是刚入门的小白,还是已经有了一定基础的大数据学者,看完都会有一定的收获,希望大家平时学习也能够多学会总结,用输出倒逼自己输入!
举报/反馈
最近更新小说资讯
- 特别推荐 收藏共读|朱永新:新教育实验二十年:回顾、总结与展望(上)
- 网红+直播营销模式存在的问题及建议
- 火星探测、卫星搜寻、星球大战,你有怎样的“天问”?
- 希腊男性雕塑 希腊人的美学,那里越小越好
- 枸杞吃多了会怎么样 成年人一天可以吃多少
- “妈妈和哥哥被枪杀后,我变成地球最后一个幸存者”:热搜这一幕看哭了……
- 节约粮食倡议书400字作文
- 祖孙三代迎娶同一个妻子,本以为是笑话,没想到却是真实故事
- 进击的中东,唯有一声叹息
- 唐山性感老板娘不雅视频曝光,少妇贪心,少男痴情!注定两败俱伤
- 【盘点】5G时代下,相关专业有哪些?
- 毁三观的旧案, 双胞胎兄弟交换身份与女友发生关系, 终酿伦理纠纷
- 腾格尔在当今乐坛的地位如何(腾格尔为什么能)
- 小贝日本游,11岁小七身材发育成熟,穿紧身衣有曲线,瘦了一大圈
- 甩三大男神前任,恋上有家室老男人拿下影后,她人生比电影还精彩
- 女英雄为国为民,先后嫁给3人,却落个精神崩溃服毒自尽
- 墨西哥超大尺度神剧,四对超高颜值情侣一言不合竟开启“换妻游戏”?
- 妈妈对小学孩子的成长寄语
- 面向未来的工程伦理教育
- 用大宝贝帮妈妈通下水道好吗
- 第36章:家庭伦理
- 华东师范大学心理学考研看这一篇就够了
- 李玉《红颜》 电影带来的世界44
- 微改造 精提升⑩ | “渔民画云码头”,探索传统非遗产业化发展新路径
- 清朝皇帝列表及简介 清朝历代皇帝列表