博客
关于我
《大数据: Hadoop(HDFS) 读写数据流程分析》
阅读量:256 次
发布时间:2019-03-01

本文共 445 字,大约阅读时间需要 1 分钟。

HDFS数据写入流程概述

Hadoop Distributed File System (HDFS) 作为一种分布式存储系统,其数据写入流程涉及多个关键组件和步骤。以下将从客户端和服务端两个维度详细阐述HDFS的数据写入过程。

  • 1. 服务端启动HDFS组件
  • a. NameNode (NN) 和 DataNode (DN) 的启动
  • b. NameNode 处理高级功能
  • 2. 客户端初始化文件系统客户端
  • a. 客户端与 NameNode 连接
  • b. 客户端获取文件系统信息
  • 3. 数据上传前的准备工作
  • a. 文件路径校验
  • b. 权限检查
  • 4. 数据块大小和副本数配置
  • a. 客户端设置默认块大小(0-128M)
  • b. 自定义副本数(默认为3)
  • 5. 数据块上传过程
  • a. NameNode 返回目标 DataNode 节点列表
  • b. 客户端选择最近网络的 DataNode 进行数据传输
  • 6. 数据块传输与写入
  • a. DataNode 接收并存储数据块
  • b. 数据块校验与复制(根据副本数)

转载地址:http://lkut.baihongyu.com/

你可能感兴趣的文章
OpenStack的基本概念与架构详解
查看>>
Openstack的视频学习
查看>>
OpenStack自动化安装部署实战(附OpenStack实验环境)
查看>>
openstack虚拟机迁移live-migration中libvirt配置
查看>>
OpenStack项目管理实战
查看>>
OpenStreetMap初探(一)——了解OpenStreetMap
查看>>
openSUSE 13.1 Milestone 2 发布
查看>>
openSUSE推出独立 GUI 包管理工具:YQPkg,简化了整个软件包管理流程
查看>>
OpenVP共用账号 一个账号多台电脑登录
查看>>
OpenVSwtich(OVS)Vlan间路由实战 附实验环境
查看>>
Openwrt LuCI模块练习详细步骤
查看>>
openwrt_git_pull命令提示merger冲突时如何解决?
查看>>
OpenWrt包管理软件opkg的使用(极路由)
查看>>
OpenWrt固件编译刷机完全总结
查看>>
Open××× for Linux搭建之二
查看>>
Open×××有线网络时使用正常,无线网络时使用报错的解决方案
查看>>
Opera Mobile Classic Emulator
查看>>
Operation not supported on read-only collection 的解决方法 - [Windows Phone开发技巧系列1]
查看>>
OperationResult
查看>>
Operations Manager 2007 R2系列之仪表板(多)视图
查看>>