From d91be5af9021a4e16bcaa1674f28ab1b3f2fc9e9 Mon Sep 17 00:00:00 2001 From: hxlong <1141741507@qq.com> Date: Wed, 14 Oct 2020 11:22:50 +0800 Subject: [PATCH] update assignment3 --- Assignment3.md | 19 ++++++++++--------- 1 file changed, 10 insertions(+), 9 deletions(-) diff --git a/Assignment3.md b/Assignment3.md index 35fe882..7ee4fb9 100644 --- a/Assignment3.md +++ b/Assignment3.md @@ -102,29 +102,29 @@ > Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。 我们可以登录Master节点通过一些基本命令操作文件,操作的命令与我们在Linux系统命令类似。 -1. 列出文件 +#### 列出文件 > hadoop fs -ls -2. 创建目录 +#### 创建目录 > hadoop fs -mkdir 接受路径指定的uri作为参数,创建这些目录。其行为类似于Unix的mkdir -p,它会创建路径中的各级父目录。 > > eg: hadoop fs -mkdir /dir1 /dir2 (该目录时被创建在HDFS文件系统中,而不是本地文件系统) -3. 上传文件 +#### 上传文件 > hadoop fs -put 从本地文件系统中上传文件到HDFS文件系统中 > > eg: hadoop fs -put /root/install-java.sh /dir1 本地文件 : /root/install-java.sh HDFS文件系统中文件夹 : /dir1 -4. 下载文件 +#### 下载文件 > hadoop fs -get 从HDFS文件系统中下载文件到本地 > > mkdir test && hadoop fs -get /dir1/install-java.sh /root/test -5. 检查文件 +#### 检查文件 > 使用方法:hadoop fs -test -[ezd] url > @@ -151,12 +151,13 @@ > 上述的操作命令我们都是在Hadoop集群上直接操作的,出于安全性考虑,通常我们在单独的机器上安装客户端进行任务提交和相关操作。 -1. 按照实验一的步骤 申请一台UHost云主机(CentOS操作系统)。 -2. 配置环境 +#### 按照实验一的步骤 申请一台UHost云主机(CentOS操作系统)。 + +#### 配置环境 > 我们需要配置云主机的环境,让能够正常访问HDFS文件系统。 - 2.1 利用安装脚本部署 +##### 利用安装脚本部署 - 在**hadoop集群的master节点**下载安装脚本: @@ -186,7 +187,7 @@ ​ `作业三要求:` -> 1. 在UHost云主机上删除作业二中创建的文件和文件夹并截图 +> 在UHost云主机上删除作业二中创建的文件和文件夹并截图 ### 四)MapReduce Job