锦州腾讯云分布式存储系统HDFS是什么?需要多少钱?

2020-07-28 17:57:08

  HDFS(Hadoop Distributed File System)分布式文件存储系统,主要为各类分布式计算框架如Spark、MapReduce等提供海量数据存储服务,同时HBase、Hive底层存储也依赖于HDFS。HDFS提供一个统一的抽象目录树,客户端可通过路径来访问文件,如hdfs://namenode:port/dir-a/a.data。HDFS集群分为两大角色:Namenode、Datanode(非HA模式会存在Secondary Namenode)

  上海聚搜信息技术有限公司是阿里云的代理商网址:http://www.4526.cn/可以直接在网站上联系阿里云代理商客服进行咨询服务器架构和配置以及优惠价格!腾讯云产品http://tx.4526.cn/(聚搜营销介绍链接:http://www.jusoucn.com/meiyou/)是一家致力于搜索引聚搜营销及全网营销,致力于为客户提供搜索营销领域的服务,帮助广告客户在搜索引聚搜获取的投资回报,包括搜索引聚搜竞价服务(SEM),搜索引聚搜优化服务(seo)和搜索营销代运营服务,能够有效为广告主带来高效的投放回报,我们的理念一直是:让搜索营销营销具有价值。

  聚搜营销团队于2015年在上海成立,团队核心均来自百度搜索部门和国内知名服务商的成员,有非常丰富的产品和项目优化经验,这两年来,服务于国内很多大中型企业和很多初创公司,通过我们多年的经验和服务,帮助他们在搜索营销领域上取得了不断的成功。

  Namenode是HDFS集群主节点,负责管理整个文件系统的元数据,所有的读写请求都要经过Namenode。

  元数据管理

  Namenode对元数据的管理采用了三种形式:

  1) 内存元数据:基于内存存储元数据,元数据比较完整

  2) fsimage文件:磁盘元数据镜像文件,在NameNode工作目录中,它不包含block所在的Datanode 信息

  3) edits文件:数据操作日志文件,用于衔接内存元数据和fsimage之间的操作日志,可通过日志运算出元数据

  fsimage + edits = 内存元数据

  元数据的checkpoint(非HA模式)

  Secondary Namenode每隔一段时间会检查Namenode上的fsimage和edits文件是否需要合并,如触发设置的条件就开始下载最新的fsimage和所有的edits文件到本地,并加载到内存中进行合并,然后将合并之后获得的新的fsimage上传到Namenode。

u=3634340218,2505771942&fm=26&gp=0.jpg

  checkpoint作用

  1. 加快Namenode启动

  Namenode启动时,会合并磁盘上的fsimage文件和edits文件,得到完整的元数据信息,但如果fsimage和edits文件非常大,这个合并过程就会非常慢,导致HDFS长时间处于安全模式中而无法正常提供服务。SecondaryNamenode的checkpoint机制可以缓解这一问题

  2. 数据恢复

  Namenode和SecondaryNamenode的工作目录存储结构完全相同,当Namenode故障退出需要重新恢复时,可以从SecondaryNamenode的工作目录中将fsimage拷贝到Namenode的工作目录,以恢复Namenode的元数据。但是SecondaryNamenode最后一次合并之后的更新操作的元数据将会丢失,最好Namenode元数据的文件夹放在多个磁盘上面进行冗余,降低数据丢失的可能性。

  注意事项:

  1. SecondaryNamenode只有在第一次进行元数据合并时需要从Namenode下载fsimage到本地。SecondaryNamenode在第一次元数据合并完成并上传到Namenode后,所持有的fsimage已是最新的fsimage,无需再从Namenode处获取,而只需要获取edits文件即可。

  2. SecondaryNamenode从Namenode上将要合并的edits和fsimage拷贝到自己当前服务器上,然后将fsimage和edits反序列化到SecondaryNamenode的内存中,进行计算合并。因此一般需要把Namenode和SecondaryNamenode分别部署到不同的机器上面,且SecondaryNamenode服务器配置要求一般不低于Namenode。

  3. SecondaryNamenode不是充当Namenode的“备服务器”,它的主要作用是进行元数据的checkpoint

  Datanode

  Datanode作为HDFS集群从节点,负责存储管理用户的文件块数据,并定期向Namenode汇报自身所持有的block信息(这点很重要,因为,当集群中发生某些block副本失效时,集群如何恢复block初始副本数量的问题)。

  关于Datanode两个重要的参数:

  1. 通过心跳信息上报参数

  <property><name>dfs.blockreport.intervalMsec</name><value>3600000</value><description>Determines block reporting interval in milliseconds.</description></property>

  2. Datanode掉线判断时限参数

  Datanode进程死亡或者网络故障造成Datanode无法与Namenode通信时,Namenode不会立即把该Datanode判定为死亡,要经过一段时间,这段时间称作超时时长。HDFS默认的超时时长为10分钟30秒。如果定义超时时间为timeout,则超时时长的计算公式为:

  timeout = 2 * heartbeat.recheck.interval(默认5分钟) + 10 * dfs.heartbeat.interval(默认3秒)。

timg (6).jpg

  HDFS读写数据流程

  了解了Namenode和Datanode的作用后,就很容易理解HDFS读写数据流程,这个也是面试中经常问的问题。

  HDFS写数据流程

  注意:

  1.文件block块切分和上传是在客户端进行的操作

  2.Datanode之间本身是建立了一个RPC通信建立pipeline

  3.客户端先从磁盘读取数据放到一个本地内存缓存,开始往Datanode1上传第一个block,以packet为单位,Datanode1收到一个packet就会传给Datanode2,Datanode2传给Datanode3;Datanode1每传一个packet会放入一个应答队列等待应答

  4.当一个block传输完成之后,客户端会通知Namenode存储块完毕,Namenode将元数据同步到内存中

  5. Datanode之间pipeline传输文件时,一般按照就近可用原则

  a) 首先就近挑选一台机器

  b) 优先选择另一个机架上的Datanode

  c) 在本机架上再随机挑选一台

  HDFS读数据流程

  注意:

  1. Datanode发送数据,是从磁盘里面读取数据放入流,以packet为单位来做校验

  2. 客户端以packet为单位接收,先在本地缓存,然后写入目标文件

  客户端将要读取的文件路径发送给namenode,namenode获取文件的元信息(主要是block的存放位置信息)返回给客户端,客户端根据返回的信息找到相应datanode逐个获取文件的block并在客户端本地进行数据追加合并从而获得整个文件

  HDFS HA机制

  HA:高可用,通过双Namenode消除单点故障。

  双Namenode协调工作的要点:

  1. 元数据管理方式需要改变

  a) 内存中各自保存一份元数据

  b) edits日志只能有一份,只有active状态的Namenode节点可以做写操作

  c) 两个Namenode都可以读取edits

  d) 共享的edits放在一个共享存储中管理(qjournal和NFS两个主流实现,图中以放在一个共享存储中管理(qjournal和为例)

  2. 需要一个状态管理功能模块

  a) 实现了一个zk failover,常驻在每一个Namenode所在的节点

  b) 每一个zk failover负责监控自己所在Namenode节点,利用zk进行状态标识,当需要进行状态切换时,由zk failover来负责切换,切换时需要防止brain split现象的发生


联系人:罗先生

582059487 15026612550
立即咨询

QQ

QQ:582059487 点击复制添加QQ好友

电话

15026612550
7*24小时服务热线

微信

二维码扫一扫添加微信
TOP
微信咨询 获取代理价(更低折扣)
更低报价 更低折扣 代金券申请
咨询热线:15026612550