HDFS使用

it2025-04-21  10

1  HDFS概述HDFS是Hadoop应用用到的一个最主要的分布式存储系统。一个HDFS集群主要由一个NameNode和很多个Datanode组成:Namenode管理文件系统的元数据,而Datanode存储 了实际的数据。本文档主要关注用户以及管理员怎样和HDFS进行交互。基本上,客户端联系Namenode以获取文件的元数据或修饰属性,而真正的文件I/O操作是直接和Datanode进行交互的。本文档从介绍如何安装和搭建HDFS集群入手,接着常用的文件系统命令,以及维护过程中涉及到的控制命令。2          HDFS集群部署2.1        安装1)       用户从hadoop官 方网站下载所需版本的安装文件,下载地址为:http://hadoop.apache.org/core/releases.html#Download; 本文档选取的版本为hadoop-0.19.1;2)       将下载的压缩文件解压,目录为./hadoop-0.19.1,按照附录《hdfs 测试组网方案》中系统参数配置部分,修改./hadoop-0.19.1/conf中的文件;3)       检查所有服务器上是否安装了J2sdk,要求版本为1.5及以 上;并建立安装目录到/usr/local/j2sdk的软 链接;4)       将hadoop目 录上传到所有的服务器,放置在${HADOOP_HOME}目录 下;5)       挂载namenode和secondary namenode的fsimage,editslogs备份 目录;2.2        启动1)       进入namenode的${HADOOP_HOME};2)       格式化namenode文 件系统,执行命令:bin/hadoop namenode –format;3)       启动hdfs, 执行命令:bin/start-dfs.sh。该 脚本首先启动namenode,然 后读取./conf/slaves中的datanode列表,逐个启动;最后读取./conf/masters中secondary namenode地址,启动secondary namenode。启动datanode和secondary namenode时, 脚本通过ssh从当前机器登录到其他节点的,涉及到身份验 证,需要输入相应的密码信息,比较繁琐。可参考ssh中免 密码登录解决方法。3          FS Shell使用指南调用文件系统(FS)Shell命令 应使用 bin/hadoop fs <args>的形 式。 所有 的的FS shell命令 使用URI路径 作为参数。URI格式 是scheme://authority/path。对HDFS文件系统,scheme是hdfs, 对本地文件系统,scheme是file。 其中scheme和authority参数 都是可选的,如果未加指定,就会使用配置中指定的默认scheme。 一个HDFS文件 或目录比如/parent/child可以表示成hdfs://namenode:namenodeport/parent/child, 或者更简单的/parent/child(假 设你配置文件中的默认值是namenode:namenodeport)。 大多数FS Shell命令 的行为和对应的Unix Shell命 令类似,不同之处会在下面介绍各命令使用详情时指出。出错信息会输出到stderr,其他信息输出到stdout。3.1        cat使用方法:hadoop fs -cat URI [URI …]将路 径指定文件的内容输出到stdout。示 例:         hadoop fs -cat hdfs://host1ort1/file1 hdfs://host2ort2/file2         hadoop fs -cat file:///file3 /user/hadoop/file4返回 值:成 功返回0, 失败返回-1。3.2        chgrp使用方法:hadoop fs -chgrp [-R] GROUP URI [URI …] Change group association of files. With -R, make the change recursively through the directory structure. The user must be the owner of files, or else a super-user. Additional information is in the Permissions User Guide.改变文件所属的组。使用-R将使改变在目录结构下递归进行。命令的使用者必须是文件的所有者或者超级用户。更多的信息请参见HDFS权限用户指南。3.3        chmod使用方法:hadoop fs -chmod [-R] <MODE[,MODE]... | OCTALMODE> URI [URI …]改变 文件的权限。使用-R将使改变在目录结构下递归进行。命令的使用者必须是文件的所有者或者超 级用户。更多的信息请参见HDFS权 限用户指南。3.4        chown使用方法:hadoop fs -chown [-R] [OWNER][:[GROUP]] URI [URI ]改变 文件的拥有者。使用-R将使改变在目录结构下递归进行。命令的使用 者必须是超级用户。更多的信息请参见HDFS权限用户指南。3.5        copyFromLocal使用方法:hadoop fs -copyFromLocal <localsrc> URI除了限定源路径是一个本地文件外, 和put命令相似。3.6        copyToLocal使用方法:hadoop fs -copyToLocal [-ignorecrc] [-crc] URI <localdst>除了 限定目标路径是一个本地文件外,和get命令类似。3.7        cp使用方法:hadoop fs -cp URI [URI …] <dest>将文 件从源路径复制到目标路径。这个命令允许有多个源路径,此时目标路径必须是一个目录。示 例:         hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2         hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2 /user/hadoop/dir返回 值:成功返回0, 失败返回-1。3.8        du使用方法:hadoop fs -du URI [URI …]显示 目录中所有文件的大小,或者当只指定一个文件时,显示此文件的大小。示例:hadoop fs -du /user/hadoop/dir1 /user/hadoop/file1 hdfs://hostort/user/hadoop/dir1 返回 值:成功返回0, 失败返回-1。 3.9        dus使用方法:hadoop fs -dus <args>显示 文件的大小。3.10    expunge使用方法:hadoop fs -expunge清空 回收站。请参考HDFS设计文 档以获取更多关于回收站特性的信息。3.11    get使用方法:hadoop fs -get [-ignorecrc] [-crc] <src> <localdst> 复制 文件到本地文件系统。可用-ignorecrc选项复制CRC校验失败的文件。使用-crc选项复制文件以及CRC信息。示 例:         hadoop fs -get /user/hadoop/file localfile         hadoop fs -get hdfs://hostort/user/hadoop/file localfile返回 值:成功返回0, 失败返回-1。3.12    getmerge使用方法:hadoop fs -getmerge <src> <localdst> [addnl]接受 一个源目录和一个目标文件作为输入,并且将源目录中所有的文件连接成本地目标文件。addnl是 可选的,用于指定在每个文件结尾添加一个换行符。3.13    ls使用方法:hadoop fs -ls <args>如果 是文件,则按照如下格式返回文件信息:文件名 <副 本数> 文 件大小 修改日期 修 改时间 权限 用 户ID 组ID 如果 是目录,则返回它直接子文件的一个列表,就像在Unix中一 样。目录返回列表的信息如下:目录名 <dir> 修改日期 修 改时间 权限 用 户ID 组ID 示 例:hadoop fs -ls /user/hadoop/file1 /user/hadoop/file2 hdfs://hostort/user/hadoop/dir1 /nonexistentfile 返回 值:成功返回0, 失败返回-1。 3.14    lsr使用方法:hadoop fs -lsr <args> ls命令的递归版本。类似于Unix中的ls -R。3.15    mkdir使用方法:hadoop fs -mkdir <paths> 接受 路径指定的uri作为参数,创建这些目录。其行为类似于Unix的mkdir -p,它 会创建路径中的各级父目录。示 例:         hadoop fs -mkdir /user/hadoop/dir1 /user/hadoop/dir2         hadoop fs -mkdir hdfs://host1ort1/user/hadoop/dir hdfs://host2ort2/user/hadoop/dir返回 值:成功返回0, 失败返回-1。3.16    movefromLocal使用方法:dfs -moveFromLocal <src> <dst>输出 一个”not implemented“信 息。3.17    mv使用方法:hadoop fs -mv URI [URI …] <dest>将文 件从源路径移动到目标路径。这个命令允许有多个源路径,此时目标路径必须是一个目录。不允许在不同的文件系统间移动文件。不支持文件夹重命令。示 例:         hadoop fs -mv /user/hadoop/file1 /user/hadoop/file2         hadoop fs -mv hdfs://hostort/file1 hdfs://hostort/file2 hdfs://hostort/file3 hdfs://host:port/dir1返回 值:成功返回0, 失败返回-1。3.18    put使用方法:hadoop fs -put <localsrc> ... <dst>从本 地文件系统中复制单个或多个源路径到目标文件系统。也支持从标准输入中读取输入写入目标文件系统。         hadoop fs -put localfile /user/hadoop/hadoopfile         hadoop fs -put localfile1 localfile2 /user/hadoop/hadoopdir         hadoop fs -put localfile hdfs://host:port/hadoop/hadoopfile         hadoop fs -put - hdfs://host:port/hadoop/hadoopfile 从 标准输入中读取输入。返回 值:成功返回0, 失败返回-1。3.19    rm使用方法:hadoop fs -rm URI [URI …]删除 指定的文件。只删除非空目录和文件。请参考rmr命令 了解递归删除。示 例:         hadoop fs -rm hdfs://host:port/file /user/hadoop/emptydir返回 值:成功返回0, 失败返回-1。3.20    rmr使用方法:hadoop fs -rmr URI [URI …]delete的递归版本。示 例:         hadoop fs -rmr /user/hadoop/dir         hadoop fs -rmr hdfs://host:port/user/hadoop/dir返回 值:成功返回0, 失败返回-1。3.21    setrep使用方法:hadoop fs -setrep [-R] <path>改变 一个文件的副本系数。-R选项用于递归改变目录下所有文件的副本系数。示 例:         hadoop fs -setrep -w 3 -R /user/hadoop/dir1返回 值:成功返回0, 失败返回-1。3.22    stat使用方法:hadoop fs -stat URI [URI …]返回 指定路径的统计信息。示 例:         hadoop fs -stat path返回 值:成功返回0, 失败返回-1。3.23    tail使用方法:hadoop fs -tail [-f] URI将文 件尾部1K字节的内容输出到stdout。支持-f选 项,行为和Unix中一致。示 例:         hadoop fs -tail pathname返回 值:成 功返回0, 失败返回-1。3.24    test使用方法:hadoop fs -test -[ezd] URI选 项:-e 检查文件是否存在。如果存在则返回0。-z 检查文件是否是0字 节。如果是则返回0。-d 如果路径是个目录,则返回1,否则返回0。示 例:         hadoop fs -test -e filename3.25    text使用方法:hadoop fs -text <src> 将源 文件输出为文本格式。允许的格式是zip和TextRecordInputStream。3.26    touchz使用方法:hadoop fs -touchz URI [URI …] 创建 一个0字节的空文件。示 例:         hadoop -touchz pathname返回 值:成 功返回0, 失败返回-1。4         命 令手册4.1        概述所有 的hadoop命令均由bin/hadoop脚本引发。不指定参数运行hadoop脚本会打印所有命令的描述。用法:hadoop [--config confdir] [COMMAND] [GENERIC_OPTIONS] [COMMAND_OPTIONS]Hadoop有一个选项解析框架用于解析一般的选项和运行类。命令选项        描述--config confdir        覆盖缺省配置目录。缺省是${HADOOP_HOME}/conf。GENERIC_OPTIONS        多个命令都支持的通用选项。COMMAND 命令选项S        各种各样的命令和它们的选项会在下面提到。这些命令被分为 用户命令 管理命令两组。4.1.1   常规选项下面 的选项被 dfsadmin, fs, fsck和 job支 持。 应用程序要实现 Tool来支 持 常规选项。GENERIC_OPTION        描述-conf <configuration file>        指定应用程序的配置文件。-D <property=value>        为指定property指定值value。-fs <local|namenode:port>        指定namenode。-jt <local|jobtracker:port>        指定job tracker。只适用于job。-files <逗号分隔的文件列表>        指定要拷贝到map reduce集群的文件的逗号分隔的列表。 只适用于job。-libjars <逗号分隔的jar列表>        指定要包含到classpath中的jar文件的逗号分隔的列表。 只适用于job。-archives <逗号分隔的archive列表>        指定要被解压到计算节点上的档案文件的逗号分割的列表。 只适用于job。4.2        用户命令hadoop集群用户的常用命令。4.2.1   archive创 建一个hadoop档案文件。参考 Hadoop Archives.用法:hadoop archive -archiveName NAME <src>* <dest>命令选项        描述-archiveName NAME        要创建的档案的名字。src        文件系统的路径名,和通常含正则表达的一样。dest        保存档案文件的目标目录。4.2.2   distcp递归地拷贝文件或目录。参考DistCp指南以获取等多信息。用法:hadoop distcp <srcurl> <desturl>命令选项        描述srcurl        源Urldesturl        目标Url4.2.3   fs用法:hadoop fs [GENERIC_OPTIONS] [COMMAND_OPTIONS]运行一个常规的文件系统客户 端。各种命令选项可以参考HDFS Shell指南。4.2.4   fsck运行HDFS文件系统检查工具。参考Fsck了解更多。用法:hadoop fsck [GENERIC_OPTIONS] <path> [-move | -delete | -openforwrite] [-files [-blocks [-locations | -racks]]]命令选项        描述<path>        检查的起始目录。-move        移动受损文件到/lost+found-delete        删除受损文件。-openforwrite        打印出写打开的文件。-files        打印出正被检查的文件。-blocks        打印出块信息报告。-locations        打印出每个块的位置信息。-racks        打印出data-node的网络拓扑结构。4.2.5   jar运行jar文件。用户可以把他们的Map Reduce代码捆绑到jar文件中,使用这个命令执行。用法:hadoop jar <jar> [mainClass] args...streaming作业是通过这个命令执行的。参考Streaming examples中的例子。Word count例子也是通过jar命令运行的。参考Wordcount example。4.2.6   job用于和Map Reduce作业交互和命令。用法:hadoop job [GENERIC_OPTIONS] [-submit <job-file>] | [-status <job-id>] | [-counter <job-id> <group-name> <counter-name>] | [-kill <job-id>] | [-events <job-id> <from-event-#> <#-of-events>] | [-history [all] <jobOutputDir>] | [-list [all]] | [-kill-task <task-id>] | [-fail-task <task-id>]命令选项        描述-submit <job-file>        提交作业-status <job-id>        打印map和reduce完成百分比和所有计数器。-counter <job-id> <group-name> <counter-name>        打印计数器的值。-kill <job-id>        杀死指定作业。-events <job-id> <from-event-#> <#-of-events>        打印给定范围内jobtracker接收到的事件细节。-history [all] <jobOutputDir>        -history <jobOutputDir> 打印作业的细节、失败及被杀死原因的细节。更多的关于一个作业的细 节比如成功的任务,做过的任务尝试等信息可以通过指定[all]选项查看。-list [all]        -list all显示所有作业。-list只显示将要完成的作业。-kill-task <task-id>        杀死任务。被杀死的任务不会不利于失败尝试。-fail-task <task-id>        使任务失败。被失败的任务会对失败尝试不利。4.2.7   pipes运行pipes作业。用法:hadoop pipes [-conf <path>] [-jobconf <key=value>, <key=value>, ...] [-input <path>] [-output <path>] [-jar <jar file>] [-inputformat <class>] [-map <class>] [-partitioner <class>] [-reduce <class>] [-writer <class>] [-program <executable>] [-reduces <num>]命令选项        描述-conf <path>        作业的配置-jobconf <key=value>, <key=value>, ...        增加/覆 盖作业的配置项-input <path>        输入目录-output <path>        输出目录-jar <jar file>        Jar文件名-inputformat <class>        InputFormat类-map <class>        Java Map类-partitioner <class>        Java Partitioner-reduce <class>        Java Reduce类-writer <class>        Java RecordWriter-program <executable>        可执行程序的URI-reduces <num>        reduce个数4.2.8   version打印版本信息。用法:hadoop version4.2.9   CLASSNAMEhadoop脚本可 用于调调用任何类。用法:hadoop CLASSNAME运行名字为CLASSNAME的类。4.3        管理命令hadoop集群管 理员常用的命令。4.3.1   balancer运行集群平衡工具。管理员可以 简单的按Ctrl-C来停止平衡过程。参考Rebalancer了解更多。用法:hadoop balancer [-threshold <threshold>]命令选项        描述-threshold <threshold>        磁盘容量的百分比。这会覆盖缺省的阀值。4.3.2   daemonlog获 取或设置每个守护进程的日志级别。用 法:hadoop daemonlog -getlevel <host:port> <name> 用 法:hadoop daemonlog -setlevel <host:port> <name> <level>命令选项        描述-getlevel <host:port> <name>        打印运行在<host:port>的守护进程的日志级别。这个命令内部会连接http://<host:port>/logLevel?log=<name>-setlevel <host:port> <name> <level>        设置运行在<host:port>的守护进程的日志级别。这个命令内部会连接http://<host:port>/logLevel?log=<name>4.3.3   datanode运 行一个HDFS的datanode。用法:hadoop datanode [-rollback]命令选项        描述-rollback        将datanode回滚到前一个版本。这需要在停止datanode,分发老的hadoop版本之后使用。4.3.4   dfsadmin运 行一个HDFS的dfsadmin客户端。用法:hadoop dfsadmin [GENERIC_OPTIONS] [-report] [-safemode enter | leave | get | wait] [-refreshNodes] [-finalizeUpgrade] [-upgradeProgress status | details | force] [-metasave filename] [-setQuota <quota> <dirname>...<dirname>] [-clrQuota <dirname>...<dirname>] [-help [cmd]]命令选项        描述-report        报告文件系统的基本信息和统计信息。-safemode enter | leave | get | wait        安全模式维护命令。安全模式是Namenode的一个状态,这种状态下,Namenode 1. 不接受对名字空间的更改(只读)2. 不复制或删除块Namenode会在启动时自动进入安全模式,当配置的块最小百分比数满足最小的副本数条件时,会自动离开安全模式。安全模式可以手 动进入,但是这样的话也必须手动关闭安全模式。-refreshNodes        重新读取hosts和exclude文件,更新允许连到Namenode的或那些需要退出或入编的Datanode的集合。-finalizeUpgrade        终结HDFS的升级操作。Datanode删除前一个版本的工作目录,之后Namenode也这样做。这个操作完结整个升级过程。-upgradeProgress status | details | force        请求当前系统的升级状态,状态的细节,或者强制升级操作进行。-metasave filename        保存Namenode的主要数据结构到hadoop.log.dir属性指定的目录下的<filename>文件。对于下面的每一项,<filename>中都会一行内容与之对应1. Namenode收到的Datanode的心跳信号2. 等待被复制的块3. 正在被复制的块4. 等待被删除的块-setQuota <quota> <dirname>...<dirname>        为每个目录 <dirname>设定配额<quota>。目录配额是一个长整型整数,强制限定了目录树下的名字个数。命令会在这个目录上工作良好,以下情况会报错:1. N不是一个正整数,或者2. 用户不是管理员,或者3. 这个目录不存在或是文件,或者4. 目录会马上超出新设定的配额。-clrQuota <dirname>...<dirname>        为每一个目录<dirname>清除配额设定。命令会在这个目录上工作良好,以下情况会报错:1. 这个目录不存在或是文件,或者2. 用户不是管理员。如果目录原来没有配额不会报错。-help [cmd]        显示给定命令的帮助信息,如果没有给定命令,则显示所有命令的帮 助信息。4.3.5   jobtracker运 行MapReduce job Tracker节点。用法:hadoop jobtracker4.3.6   namenode运 行namenode。有关升级,回滚,升级终结的更多信息请参考升级和回滚。用法:hadoop namenode [-format] | [-upgrade] | [-rollback] | [-finalize] | [-importCheckpoint]命令选项        描述-format        格式化namenode。它启动namenode,格式化namenode,之后关闭namenode。-upgrade        分发新版本的hadoop后,namenode应以upgrade选项启动。-rollback        将namenode回滚到前一版本。这个选项要在停止集群,分发老的hadoop版 本后使用。-finalize        finalize会删除文件系统的前一状态。最近的 升级会被持久化,rollback选项将再不可用,升级终结操作之后,它会停掉namenode。-importCheckpoint        从检查点目录装载镜像并保存到当前 检查点目录,检查点目录由fs.checkpoint.dir指定。4.3.7   secondarynamenode运 行HDFS的secondary namenode。 参考Secondary Namenode了 解更多。用法:hadoop secondarynamenode [-checkpoint [force]] | [-geteditsize]命令选项        描述-checkpoint [force]        如果EditLog的大小 >= fs.checkpoint.size,启动Secondary namenode的 检查点过程。 如果使用了-force,将不考虑EditLog的 大小。-geteditsize        打印EditLog大小。4.3.8   tasktracker运行MapReduce的task Tracker节点。用法:hadoop tasktracker

转载于:https://www.cnblogs.com/scwanglijun/p/3778890.html

最新回复(0)