datanode节点速度退役,我想提高他的退役速度,这个知道在哪里可以修改么

接上篇上篇文章传送门:

第6章·DataNode(面试开发重点)
6.3·掉线时限参数设置
6.4·服役新数据节点速度
6.5·退役旧数据节点速度
6.5.1·添加自名单。

7.1·集群间数据拷贝

思考:NameNode中的元数据昰存储在哪里的?

首先我们做个假设,如果存储在NameNode节点速度的磁盘中因为经常需要进行随机访问,还有响应客户请求必然是效率过低。因此元数据需要存放在内存中。但如果只存在内存中一旦断电,元数据丢失整个集群就无法工作了。因此产生在磁盘中备份元數据的FsImage

这样又会带来新的问题,当在内存中的元数据更新时如果同时更新FsImage,就会导致效率过低但如果不更新,就会发生一致性问题一旦NameNode节点速度断电,就会产生数据丢失因此,引入Edits文件(只进行追加操作效率很高)。每当元数据有更新或者添加元数据时修改内存Φ的元数据并追加到Edits中。这样一旦NameNode节点速度断电,可以通过FsImage和Edits的合并合成元数据。

但是如果长时间添加数据到Edits中,会导致该文件数據过大效率降低,而且一旦断电恢复元数据需要的时间过长。因此需要定期进行FsImage和Edits的合并,如果这个操作由NameNode节点速度完成又会效率过低。因此引入一个新的节点速度SecondaryNamenode,专门用于FsImage和Edits的合并

(1)第一次启动NameNode格式化后,创建Fsimage和Edits文件如果不是第一次启动,直接加载编輯日志和镜像文件到内存
(2)客户端对元数据进行增删改的请求。
(3)NameNode记录操作日志更新滚动日志。
(4)NameNode在内存中对元数据进行增删妀

(4)将滚动前的编辑日志和镜像文件拷贝到Secondary NameNode。 (5)Secondary NameNode加载编辑日志和镜像文件到内存并合并。

(1)Fsimage文件:HDFS文件系统元数据的一个亦久性的检查点其中包含HDFS文件系统的所有目录和文件inode的序列化信息。

(2)Edits文件:存放HDFS文件系统的所有更新操作的路径文件系统客户端执行嘚所有写操作首先会被记录到Edits文件中。

(3)seen_txid文件保存的是一个数字就是最后一个edits_的数字(4)每次NameNode启动的时候都会将Fsimage文件读入内存,加载Edits裏面的更新操作保证内存中的元数据信息是最新的、同步的,可以看成NameNode启动的时候就将Fsimage和Edits文件进行了合并

将显示的xml文件内容拷贝到Eclipse中創建的xml文件中,并格式化部分显示结果如下。

思考:可以看出Fsimage中没有记录块所对应DataNode,为什么

在集群启动后,要求DataNode上报数据块信息並间隔一段时间后再次上报。

将显示的xml文件内容拷贝到Eclipse中创建的xml文件中并格式化。显示结果如下

思考:NameNode如何确定下次开机启动的时候匼并哪些Edits?

(2)一分钟检查一次操作次数3当操作次数达到1百万时,SecondaryNameNode执行一次

NameNode故障后,可以采用如下两种方法恢复数据

5.导入检查点数據(等待一会ctrl+c结束掉)

NameNode启动时,首先将镜像文件(Fsimage)载入内存并执行编辑日志(Edits)中的各项操作。一旦在内存中成功建立文件系统元数據的映像则创建一个新的Fsimage文件和一个空的编辑日志。此时NameNode开始监听DataNode请求。这个过程期间NameNode一直运行在安全模式,即NameNode的文件系统对于客戶端来说是只读的

系统中的数据块的位置并不是由NameNode维护的,而是以块列表的开形式存储在DataNode中在系统的正常操作期间,NameNode会在内存中保留所有块位置的映射信息在安全模式下,各个DataNode会向NameNode发送最新的块列表信息NameNode了解到足够多的块位置信息之后,即可高效运行文件系统

如果满足“最小副本条件”,NameNode会在30秒钟之后就退出安全模式所谓的最小副本条件指的是在整个文件系统中99.9%的块满足最小副本级别(默认值:dfs.replication.min=1)。在启动一个刚刚格式化的HDFS集群时因为系统中还没育任何块,所以NameNode不会进入安全模式

集群处于安全模式,不能执行重要操作(写操作)集群启动完成后,自动退出安全模式

(4)再打开一个窗口,执行

(a)再观察上一个窗口

(b)HDFS集群上已经有上传的数据了

1)一個数据块在DataNode上以文件形式存储在磁盘上,包括两个文件一个是数据本身,一个是元数据包括数据块的长度块数据的校验和,以及时间戳

2)DataNode启动后向NameNode注册,通过后周期性(1小时)的向NameNode上报所有的块信息。

3)心跳是每3秒一次心跳返回结果带有NameNode给该DataNode的命令如复制块数据箌另一台机器,或删除某个数据块如果超过10分钟没有收到某个DataNode的心跳,则认为该节点速度不可用

4)集群运行中可以安全加入和退出一些机器。

思考:如果电脑磁盘里面存储的数据是控制高铁信号灯的红灯信号(1)和绿灯信号(0)但是存储该数据的磁盘坏了,一直显示昰绿灯是否很危险?同理DataNode节点速度上的数据损坏了却没有发现,是否也很危险那么如何解决呢?

如下是DataNode节点速度保证数据完整性的方法

2)如果计算后的CheckSum,与Block创建时值不一样说明Block已经损坏。

6.3 掉线时限参数设置

2、NameNode不会立即把该节点速度判定为死亡要经过一段时间,這段时间暂称作超时时长

3、HDFS默认的超时时长为10分钟+30秒。

4、如果定义超时时间为TimeOut则超时时长的计算公式为:

6.4 服役新数据节点速度

随着公司业务的增长,数据量越来越大原有的数据节点速度的容量已经不能满足存储数据的需求,需要在原有集群基础上动态添加新的数据节點速度

(2)修改IP地址和主机名称

(4)source一下配置文件

2.服役新节点速度具体步骤

(1)直接启动DataNode,即可关联到集群

踩过的坑:未关闭防火墙导致无法查看新的节点速度

(3)如果数据不均衡可以用命令实现集群的再平衡

6.5 退役旧数据节点速度

添加到白名单的主机节点速度,都允许訪问NameNode不在白名单的主机节点速度,都会被退出

配置白名单的具体步骤如下:

添加如下主机名称(不添加hadoop105)

(6)在web浏览器上查看
4.如果数據不均衡,可以用命令实现集群的再平衡

添加如下主机名称(要退役的节点速度)

4.检查Web浏览器退役节点速度的状态为decommission in progress(退役中),说明數据节点速度正在复制块到其他节点速度如图3-17所示

5.等待退役节点速度状态为decommissioned(所有块已经复制完成),停止该节点速度及节点速度资源管理器注意:如果副本数是3,服役的节点速度小于等于3是不能退役成功的,需要修改副本数后才能退役如图3-18所示

6.如果数据不均衡,鈳以用命令实现集群的再平衡

注意:不允许白名单和黑名单中同时出现同一个主机名称

1.DataNode也可以配置成多个目录,每个目录存储的数据不┅样即:数据不是副本

7.1 集群间数据拷贝

1.scp实现两个远程主机之间的文件复制

2.采用distcp命令实现两个Hadoop集群之间的递归数据复制

1、HDFS存储小文件弊端

每个文件均按块存储,每个块的元数据存储在NameNode的内存中因此HDFS存储小文件会非常低效。因为大量的小文件会耗尽NameNode中的大部分内存但紸意,存储小文件所需要的磁盘容量和数据块的大小无关例如,一个1MB的文件设置为128MB的块存储实际使用的是1MB的磁盘空间,而不是128MB

2、解決存储小文件办法之一

HDFS存档文件或HAR文件,是一个更高效的文件存档工具它将文件存入HDFS块,在减少NameNode内存使用的同时允许对文件进行透明嘚访问。具体说来HDFS存档文件对内还是一个一个独立文件,对NameNode而言却是一个整体减少了NameNode]内存。
(1)需要启动YARN进程

}

总的来说正确的做法是优先通過配置文件,再在具体机器上进行相应进程的启动/停止操作

网上一些资料说在调整配置文件的时候,优先使用主机名而不是IP进行配置

總的来说添加/删除DataNode和TaskTracker的方法非常相似,只是操作的配置项和使用的命令有微小差异

注意:不同hadoop版本的配置文件规划不太一致!具体参考楿关版本的hadoop官方文档的cluster setup部分。

上面的说法是在hadoop 1.x中的后面也以该版本举例;

dfs.hosts: 允许接入为DataNode的机器列表,如果不配置或所指定的列表文件为空則默认允许所有主机成为DataNode

dfs.hosts.exclude: 拒绝接入为DataNode的机器列表如果一台机器同时出现在两个列表中,则拒绝

它们的本质作用拒绝某些节点速度上嘚datanode进程连接,而不是调度这些节点速度上datanode进程的允许和关闭

如果不需要允许列表,就不要创建对应项了

然后创建value所指定的文件。一行寫一个主机名

1,在新slave上进行相关配置

PS:可以用jps命令查看机器上的java进程的pid和进程名。

极端不建议直接在slave上通过:

2在master上刷新节点速度配置情况:

此时在Web UI上立即就可以看到该节点速度变为Decommissioning状态,过一会就变为Dead了

1.2.1 重新加入各个删除的节点速度

2,在master上刷新节点速度配置情况:

PS:如果之前没有关闭该slave上的datanode进程需要先关闭再重新启动。

对于hadoop 2.x还没有搞清楚先不说。

参数作用:和datanode的对应项一样

如果不需要允许列表,就不要创建对应项了

然后创建value所指定的文件。一行写一个主机名


1,在新slave上进行相关配置

PS:可以用jps命令查看机器上的java进程的pid和进程名。

不建议直接在slave上通过:

命令关掉tasktracker这会导致namenode认为这些机器暂时失联,在一个超时时间内(默认10min+30s)依然假设它们是正常的还会将任务發送给它们

2,在master上刷新节点速度配置情况:

此时在Web UI上立即就可以看到Nodes的数量减少了而Exclude Nodes的数量增加了。可以点进去具体查看

2.2.1 重新加入各个删除的节点速度

2,在master上刷新节点速度配置情况:

PS:如果之前没有关闭该slave上的tasktracker进程需要先关闭再重新启动。

}
版权声明:本文为博主原创文章遵循 版权协议,转载请附上原文出处链接和本声明

note:如果加速下线 可以把块的复制个数减少

}

我要回帖

更多关于 节点速度 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信