摘要(Abstract)

Hadoop分布式文件系统(HDFS)被设计成适合运行在通用硬件(commodity hardware)上的分布式文件系统。它和现有的分布式文件系统有很多共同点。但同时,它和其他的分布式文件系统的区别也是很明显的。HDFS是一个高度容错性的系统,适合部署在廉价的机器上。HDFS能提供高吞吐量的数据访问,非常适合大规模数据集上的应用。HDFS放宽了一部分POSIX约束,来实现流式读取文件系统数据的目的。HDFS在最开始是作为Apache Nutch搜索引擎项目的基础架构而开发的。HDFS是Apache Hadoop Core项目的一部分。 HDFS有着高容错性(fault-tolerant)的特点,并且设计用来部署在低廉的(low-cost)硬件上。而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求(requirements)这样可以实现流的形式访问(streaming access)文件系统中的数据。 全 称 Hadoop Distributed File System 简 称 hdfs 实 质 分布式文件系统 作 用 作为Apache Nutch的基础架构 特 点 高容错性 适 用 大规模数据集 目录 1 特点和目标 2 文件命名空间 ▪ 数据复制 ▪ 安全模式 ▪ 通信协议 3 异常处理 ▪ 可靠性 ▪ 重新复制 ▪ 数据正确性 ▪ 元数据失效 4 特点 ▪ 快照 ▪ 数据组织 ▪ 阶段状态 ▪ 流水式复制 5 可访问性 ▪ DFSShell ▪ 浏览器接口 6 存储空间回收 7 HDFS的文件读取解析 ▪ 获取文件系统对象 ▪ 打开文件 ▪ 将文件内容在标准输出显示

主题(Topic)



项目(Project)