2025年格式化hdfs的命令_hadoop的启动命令

格式化hdfs的命令_hadoop的启动命令总结 上传文件 put copyFromLoca moveFromLoca 下载文件 get copyToLocal moveToLocal 查看文件 text cat tail 合并文件 getmerge 命令详解 HDFS 命令基本格式 hadoop fs cmd 表格 选项名称 使用格式 含义 ls ls 查看指定路径的当前目录结构 lsr lsr

总结:

上传文件:put、copyFromLocal、moveFromLocal

下载文件:get、copyToLocal、moveToLocal

查看文件:text、cat、tail

合并文件:getmerge

命令详解

HDFS命令基本格式:hadoop fs -cmd < args >

表格:

选项名称

使用格式

含义

-ls

-ls

查看指定路径的当前目录结构

-lsr

-lsr

递归查看指定路径的目录结构

-du

-du

统计目录下个文件大小

-dus

-dus

汇总统计目录下文件(夹)大小

-count

-count [-q]

统计文件(夹)数量

-mv

-mv

移动

-cp

-cp

复制

-rm

-rm [-skipTrash]

删除文件/空白文件夹

-rmr

-rmr [-skipTrash]

递归删除

-put

-put

上传文件

-copyFromLocal

-copyFromLocal

从本地复制

-moveFromLocal

-moveFromLocal

从本地移动

-getmerge

-getmerge

合并到本地

-cat

-cat

查看文件内容

-text

-text

查看文件内容

-copyToLocal

-copyToLocal [-ignoreCrc][-crc] [hdfs源路径][linux目的路径]

从本地复制

-moveToLocal

-moveToLocal [-crc]

从本地移动

-mkdir

-mkdir

创建空白文件夹

-setrep

-setrep [-R][-w]

修改副本数量

-touchz

-touchz

创建空白文件

-stat

-stat [format]

显示文件统计信息

-tail

-tail [-f]

查看文件尾部信息

-chmod

-chmod [-R] [路径]

修改权限

-chown

-chown [-R][属主][:[属组]] 路径

修改属主

-chgrp

-chgrp [-R] 属组名称 路径

修改属组

-help

-help [命令选项]

帮助

注意:以上表格中路径包括hdfs中的路径和linux中的路径。对于容易产生歧义的地方,会特别指出“linux路径”或者“hdfs路径”。如果没有明确指出,意味着是hdfs路径。

1、创建目录命令

HDFS有一个默认的工作目录/user/USER,其中USER是用户的登录用户名。不过目录不会自动建立,需要mkdir建立它

命令格式:hadoop fs -mkdir

#在user目录下创建boy目录

hadoop fs -mkdir /user/boy

注意:支持级联创建新目录,Hadoop的mkdir命令会自动创建父目录,类似于带-p的linux命令

2、上传文件命令

put命令从本地文件系统中复制单个或多个源路径到目标文件系统,也支持从标准输入设备中读取输入并写入目标文件系统。分为本地上传和上传到HDFS中。

命令格式:hadoop fs -put filename

#放本地文件系统的一个文件进去

hadoop fs -put example.txt .

最后一个参数是句点,相当于放入了默认的工作目录,等价于hadoop fs -put example.txt /user/chen

3、上传文件到HDFS

上传文件时,文件首先复制到DataNode上,只有所有的DataNode都成功接收完数据,文件上传才是成功的。

命令格式:hadoop dfs put filename newfilename

#通过“-put 文件1 文件2 ”命令将Hadoop目录下的test1文件上传到HDFS上并重命名为test2

hadoop dfs -put test1 test2

从本地文件系统中复制单个或多个源路径到目标文件系统。也支持从标准输入中读取输入写入目标文件系统。

hadoop fs -put – hdfs://host:port/hadoop/hadoopfile

4、列出HDFS上的文件

采用-ls命令列出HDFS上的文件。在HDFS中未带参数的-ls命令没有返回任何值,它默认返回HDFS的home目录下

的内容。在HDFS中,没有当前工作目录这样一个概念,也没有cmd这样的命令。

命令格式:user@NameNode:hadoop$ bin/hadoop dfs -ls

如:

#列出HDFS当前目录下的所有文件

hadoop dfs -ls

5、列出HDFS目录下某个文档的文件

通过“-ls 文件夹名” 命令浏览HDFS下文件夹中的文件

命令格式:hadoop dfs -ls 文件夹名

浏览HDFS中in文件夹中的文件

hadoop dfs -ls in

通过该命令可以查看in文件夹中的所有文档文件

6、查看HDFS下某个文件的内容

通过“-cat 文件名”命令查看HDFS下文件夹中某个文件的内容

命令格式:hadoop$ bin/hadoop dfs -cat 文件名

#查看HDFS下in 目录中的内容

hadoop$ bin/hadoop dfs -cat in/*

通过这个命令可以查看in文件夹中所有文件的内容

7、将HDFS中的文件复制到本地系统中

通过“-get 文件按1 文件2”命令将HDFS中某目录下的文件复制到本地系统的某文件中,并对该文件重新命名。

命令格式:hadoop dfs -get 文件名 新文件名

#将HDFS中的in文件复制到本地系统并重命名为IN1

hadoop dfs -get in IN1

-get 命令与-put命令一样,既可以操作目录,也可以操作文件

8、删除HDFS下的文档

通过“-rmr 文件”命令删除HDFS下的文件

命令格式:hadoop$ bin/hadoop dfs -rmr 文件

#删除HDFS下的out文档

hadoop dfs -rmr out

-rmr 删除文档命令相当于delete的递归版本。

9、格式化HDFS

通过-format命令实现HDFS格式化

命令格式:user@NameNode:hadoop$ bin/hadoop NameNode -format

10、启动HDFS

通过运行start-dfs.sh,就可以启动HDFS了

命令格式:user@NameNode:hadoop$ bin/start-dfs.sh

11、关闭HDFS

当需要退出HDFS时,通过stop-dfs.sh 就可以关闭HDFS

命令格式:user@NameNode:hadoop$ bin/stop-dfs.sh

12、HDFS其他命令

HDFS的命令远不止这些,对于其他操作,可以通过-help commandName 命令列出清单。下面列举一些命令进行说明。

(1)chgrp改变文件所属的组命令

chgrp命令的用途是:更改文件或目录的组所有权。

语法格式:hadoop fs -charg [-R] GROUP URL …..

使用-R将使改变在目录结构下递归进行。命令的使用者必须是文件的所有者或者超级用户。

(2)chmod改变文件的权限

chmod用于改变文件或目录的访问权限,这个Linux系统管理员最常用的命令之一。

使用方法:hadoop fs -chmod [-R] …

使用-R将使改变在目录结构下递归进行。命令的使用者必须是文件的所有者或者是超级用户

(3)chown改变文件的拥有者

chown命令改变文件的拥有者。

使用方法:hadoop fs -chown [-R]….

使用-R将使改变在目录结构下递归进行。命令的使用者必须是超级用户。

(4)copyFromLocal命令

除了限定源路径是只能是一个本地文件外,其他方面和put命令相似。

使用方法:hadoop fs -copyFromLocal URI

(5)copyToLocal命令

除了限定目标路径是一个本地文件外,其他方面和get命令类似。

使用方法:hadoop fs -copyToLocal {-ignorecrc} {-crc} URI

(6)cp命令

cp命令是将文件从源路径复制到目标路径。这个命令允许有多个源路径,此时目标路径必须是一个目录。

使用方法:hadoop fs -cp URI [URI….]

hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2

hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2 /user/hadoop/dir

返回值:成功返回0 ,失败返回-1

(7)du命令

du命令显示目录中所有文件的大小,或者当只指定一个文件时,显示此文件的大小

使用方法:hadoop fs -du URI [URI……..]

hadoop fs -du /user/hadoop/dir1 /user/hadoop/file1 hdfs://host:port/user/hadoop/dir1

返回值

成功返回0,失败返回-1

(8)dus命令

dus是显示文件大小的命令。

使用方法:hadoop fs -dus

(9)expunge命令

expunge是清空回收站的命令

使用方法:hadoop fs -expunge

(10)get命令

get是复制文件到本地文件系统的命令

使用方法:hadoop fs -get [-ignorecrc] [-crc]

可用-ignorecrc选项复制CRC校验失败的文件:使用-CRC选项复制文件以及CRC信息。

hadoop fs -get /user/hadoop/file localfile

hadoop fs -get hdfs://host:port /user/hadoop/file localfile

返回值

成功返回0,失败返回-1

(11)getmerge命令

getmerge命令用于接受一个源目录和一个目标文件作为输入,并且将源目录中所有的文件合并成本地目标文件。

使用方法:hadoop fs -getmerge [addnl]

参数说明:addl是可选的,用于指定在每个文件结尾添加一个换行符;

假设在你的hdfs集群上有一个/user/hadoop/output目录

里面有作业执行的结果(多个文件组成)part-000000,part-000001,part-000002

#然后你想把所有的文件合拢来一起看 可以使用命令:

hadoop fs -getmerge /user/hadoop/output local_file

然后就可以在本地使用vi local_file查看内容了

(12)ls命令

ls命令查看当前目录下的信息

使用方法:hadoop fs -ls

如果是文件,则按照如下格式返回文件信息:

文件名 文件大小 修改日期 修改时间 权限 用户ID 组ID

如果是目录,则返回它直接子文件的一个列表,就像在UNIX中一样。目录返回i额表的信息如下:

目录名

hadoop fs -ls /user/hadoop/file1 /user/hadoop/file2

返回值

成功返回0,失败返回-1

(13)lsr命令

lsr命令是-ls命令的递归版,类似于UNIX中的ls-r。

使用方法:hadoop fs -lsr

(14)movefromLocal命令

复制一份本地文件到hdfs,当成功后,删除本地文件

使用方法:dfs -moveFromLocal

(14.5)moveToLocal命令

类似于-get,但是当复制完成后,会删除hdfs上的文件

使用方法:moveToLocal

(15)mv命令

将文件从源路径移动到目标路径。这个命令允许有多个源路径,此时目标路径必须是一个目录

使用方法:hadoop fs -mv URI [URI…..]

备注:不允许在不同的文件系统间移动文件。

hadoop fs -mv /user/hadoop/file1 /user/local/hadoop/file2

返回值

成功返回0,失败返回-1

(16)put 命令

put命令从本地文件系统中复制单个或多个源路径到目标文件系统,也支持从标准输入中读取输入写入目标文件系统

使用方法:hadoop fs -put ….

hadoop fs -put localfile /user/hadoop/hadoopfile

(17)rm命令

rm命令删除指定的文件,只删除非空目录和文件。

使用方法:hadoop fs -rm URI [URI……]

请参考rmr命令了解递归删除。

(18)rmr命令

rmr命令是delete命令的递归版本

使用方法:hadoop fs -rmr URI [URI…….]

hadoop fs -rmr /user/hadoop/dir

hadoop fs -rmr hdfs://host:port/user/hadoop/dir

返回值

成功返回0,失败返回-1

(19)setrep命令

setrep命令可以改变一个文件的副本系数。

使用方法:hadoop fs -setrep [-R]

参数说明:-R 选项用于递归改变目录下所有文件的副本系数

hadoop fs -setrep -w 3 -R /user/hadoop/dir1

返回值

成功返回0,失败返回-1

(20)stat命令

stat命令用于返回指定路径的统计信息

使用方法:hadoop fs -stat URI [URI……]

hadoop fs -stat path

返回值

成功返回0,失败返回-1

(21)tail命令

tail命令将文件尾部1KB的内容输出到stdout。支持-f选项,行为和UNIX中一致

使用方法:hadoop fs -tail [-f] URI

hadoop fs -tail pathname

返回值

成功返回0,失败返回-1

(22)test命令

test命令是检查命令,可以检查文件是否存在、文件的大小等。

使用方法:hadoop fs -test -[ezd] URI

参数说明:

-e:检查文件是否存在,如果存在则返回0。

-z:检查文件是否是0字节,如果是则返回0

-d:如果路径是一个目录,则返回1,否则返回0

hadoop fs -test -e filename

(23)text命令

text命令用于将源文件输出问文本格式

使用方法:hadoop fs -text

允许的格式是zip和TextRecordInputStream。

(24)touchz 命令

touchz命令用于创建一个0字节的空文件。

使用方法: hadoop fs -touchz URI [URI….]

hadoop -touchz pathname

返回值

成功返回0,失败返回-1

编程小号
上一篇 2025-01-19 15:57
下一篇 2025-01-19 15:46

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
如需转载请保留出处:https://bianchenghao.cn/hz/148213.html