发布于 2015-07-14 13:39:51 | 636 次阅读 | 评论: 0 | 来源: 网络整理
首先,格式化配置HDFS文件系统,打开NameNode(HDFS服务器),然后执行以下命令。
$ hadoop namenode -format
格式化HDFS后,启动分布式文件系统。以下命令将启动名称节点和数据节点的集群。
$ start-dfs.sh
加载服务器信息后,使用'ls' 可以找出文件列表中的目录,文件状态。下面给出的是ls,可以传递一个目录或文件名作为参数的语法。
$ $HADOOP_HOME/bin/hadoop fs -ls <args>
假设在本地系统,这是所谓的file.txt文件中的数据,应当保存在HDFS文件系统。按照下面给出插入在Hadoop的文件系统所需要的文件的步骤。
必须创建一个输入目录。
$ $HADOOP_HOME/bin/hadoop fs -mkdir /user/input
传输并使用本地系统put命令,Hadoop文件系统中存储的数据文件。
$ $HADOOP_HOME/bin/hadoop fs -put /home/file.txt /user/input
可以使用ls命令验证文件。
$ $HADOOP_HOME/bin/hadoop fs -ls /user/input
假设在HDFS文件名为outfile。下面给出的是一个简单的演示用于检索从Hadoop文件系统所需的文件。
最初,使用cat命令来查看来自HDFS的数据。
$ $HADOOP_HOME/bin/hadoop fs -cat /user/output/outfile
从HDFS得到文件使用get命令在本地文件系统。
$ $HADOOP_HOME/bin/hadoop fs -get /user/output/ /home/hadoop_tp/
可以使用下面的命令关闭HDFS。
$ stop-dfs.sh