diff --git a/Assignment3.md b/Assignment3.md
index e557b0a..c3aa2bf 100644
--- a/Assignment3.md
+++ b/Assignment3.md
@@ -11,6 +11,7 @@
- 安装Hadoop集群: `实验步骤 一)`
- 了解并学习简单的Hadoop操作 :`实验步骤 二) `
- 安装Hadoop客户端: `实验步骤 三)`
+- MapReduce Job `实验步骤 四)`
## 实验要求(仔细看)
@@ -25,7 +26,7 @@
托管Hadoop集群UHadoop 、 云主机uhost 、 基础网络unet
-## 基本知识
+## 基础知识
**Hadoop**:一个分布式系统基础架构,由Apache基金会开发。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力高速运算和存储。
@@ -42,7 +43,7 @@
#### 实验步骤
-##### 一)安装Hadoop集群
+### 一)安装Hadoop集群
1. 进入产品页面
@@ -58,9 +59,9 @@
- **节点设置不需要改变,付费方式选择按时付费**
+ **节点设置不需要改变,付费方式选择`按时`付费**
- **根据集群规模不同,所需要的部署时间会有所差异,创建时间基本在15分钟左右。初始,集群的转态是 创建/部署中 ,需等到 状态变为 运行 才能操作集群**
+ **根据集群规模不同,所需要的部署时间会有所差异,创建时间基本在`15分钟`左右。初始,集群的转态是 `创建/部署`中 ,需等到 状态变为 `运行` 才能操作集群**
@@ -90,15 +91,18 @@
`ssh root@106.75.249.169` **ip为绑定的外网IP,密码为初始创建集群时的密码**
- **利用hadoop命令查看hdfs目录信息**
+ **查看HDFS状态,节点信息**
- `hadoop fs -ls /`
+ 1. su hadoop 切换到hadoop用户
+ 2. hdfs dfsadmin -report 查看信息
- ************作业1:请将上述查看到的hdfs的目录信息截图,并插入实验报告中***************
+`**************作业1:请将上述查看到的节点信息截图,并插入实验报告中***************`
-##### 二)熟悉基本命令
+
+
+### 二)熟悉基本命令
> Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。 我们可以登录Master节点通过一些基本命令操作文件,操作的命令与我们在Linux系统命令类似。
@@ -139,7 +143,15 @@
**更多请参考: hadoop fs -help**
-##### 三) 客户端搭建
+`**************作业2:按照如下要求操作命令并截图,并插入实验报告中***************`
+
+ `作业二要求:`
+
+> 1. 在本地文件系统生成一个info.txt文件 里面内容是 :云计算实验课:学号-姓名 eg: echo "云计算实验课:0001-张三" > info.txt
+> 2. 在HDFS文件系统中创建文件夹 test, 然后将该文件上传到该文件夹中 `使用 mkdir 和 put `
+> 3. 使用cat命令查看文件内容并截图 `截图中需要包含文件夹信息`
+
+### 三) 客户端搭建
> 上述的操作命令我们都是在Hadoop集群上直接操作的,出于安全性考虑,通常我们在单独的机器上安装客户端进行任务提交和相关操作。
@@ -174,9 +186,13 @@
**同样我们可以在该UHost上执行HDFS基础操作**
- ************作业2:请将上述查看到的hdfs的目录信息截图,并插入实验报告中***************
+`**************作业3:按照如下要求操作命令并截图,并插入实验报告中***************`
+
+ `作业三要求:`
+
+> 1. 在UHost云主机上删除作业二中创建的文件和文件夹并截图
-##### 四)MapReduce Job
+### 四)MapReduce Job
> MapReduce是一种分布式计算框架 ,以一种可靠的,具有容错能力的方式并行地处理上TB级别的海量数据集。MR有两个阶段组成:Map和Reduce,用户只需实现map()和reduce()两个函数,即可实现分布式计算。