云计算课程实验
Nie możesz wybrać więcej, niż 25 tematów Tematy muszą się zaczynać od litery lub cyfry, mogą zawierać myślniki ('-') i mogą mieć do 35 znaków.

184 wiersze
7.3 KiB

  1. # Assignment 3 指南
  2. `******注意,实验结束请立即删除云主机,节省费用******`
  3. `******注意2,实验未结束且短期内不会继续实验,也请删除云主机。下次实验时重新创建******`
  4. ## 实验内容
  5. - 安装Hadoop集群: `实验步骤  一)`
  6. - 了解并学习简单的Hadoop操作 :`实验步骤  二)  `
  7. - 安装Hadoop客户端: `实验步骤 三)`
  8. ## 实验要求(仔细看)
  9. - 完成所有步骤,并在实验报告([模板下载](file/assignment3/学号-实验三.docx))中完成穿插在本指南中的作业1~作业4(只需要截图)。实验报告转成“学号-实验三.pdf”,并上传至http://113.31.104.68:3389/index.htm
  10. - 实验报告上传deadline: `10月23日 `
  11. ## 使用产品
  12. ​ 托管Hadoop集群UHadoop 、云主机uhost 、 私有网络vpc 、基础网络unet
  13. ## 需要权限
  14. ​ 托管Hadoop集群UHadoop 、 云主机uhost 、 基础网络unet
  15. ## 基本知识
  16. **Hadoop**:一个分布式系统基础架构,由Apache基金会开发。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力高速运算和存储。
  17. **Distributed**:分布式计算是利用互联网上的计算机的 CPU 的共同处理能力来解决大型计算问题的一种计算科学。
  18. **File system**:文件系统是操作系统用于明确磁盘或分区上的文件的方法和数据结构;即在磁盘上组织文件的方法。也指用于存储文件的磁盘或分区,或文件系统种类。
  19. **Hadoop 和 HDFS 的关系**
  20. - Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。
  21. - 对外部客户机而言,HDFS 就像一个传统的分级文件系统。可以创建、删除、移动或重命名文件,等等。很多时候,我们就叫它DFS(Distributed File System)。
  22. - Hadoop 是一个以一种可靠、高效、可伸缩的方式进行处理的,能够对大量数据进行分布式处理的系统框架。
  23. - HDFS是Hadoop兼容最好的标准级文件系统,因为Hadoop是一个综合性的文件系统抽象,所以HDFS不是Hadoop必需的。所以可以理解为Hadoop是一个框架,HDFS是Hadoop中的一个部件。
  24. #### 实验步骤
  25. ##### 一)安装Hadoop集群
  26. 1. ​ 进入产品页面
  27. 在“全部产品”菜单中点击“托管Hadoop集群 UHadoop” 进入产品页面。
  28. ![image-20201012151514261](img/assignment3/image-20201012151514261.png )
  29. 2. 创建集群
  30. <img src="img/assignment3/image-20201012151744399.png" alt="image-20201012151744399"/>
  31. ​ ![image-20201012152716512](img/assignment3/image-20201012152716512.png)
  32. **节点设置不需要改变,付费方式选择<font color=red>按时</font>付费**
  33. **根据集群规模不同,所需要的部署时间会有所差异,创建时间基本在<font color=red>15分钟</font>左右。初始,集群的转态是 <font color=red>创建/部署</font>中 ,需等到 状态变为 <font color=red>运行</font> 才能操作集群**
  34. 3. 管理集群
  35. **在管理页面,我们可以查看集群中节点的信息、增加/关掉 节点、 升级节点配置、查看监控信息和操作日志等**![image-20201012155134178](img/assignment3/image-20201012155134178.png)
  36. 4. 登录集群
  37. 绑定外网eip。 目前仅master节点支持绑定
  38. **基础网络 ------> 申请EIP (选择按时收费)**
  39. ​ ![image-20201012160459645](img/assignment3/image-20201012160459645.png)
  40. ​ ![image-20201012160646491](img/assignment3/image-20201012160646491.png)
  41. **管理页面 ---------> 节点管理 -------------> 绑定EIP**
  42. ​ ![image-20201012163406923](img/assignment3/image-20201012163406923.png)
  43. **本地可通过外网ssh连接登录**
  44. `ssh root@106.75.249.169` **ip为绑定的外网IP,密码为初始创建集群时的密码**
  45. **利用hadoop命令查看hdfs目录信息**
  46. `hadoop fs -ls /`
  47. <font color=red> ************作业1:请将上述查看到的hdfs的目录信息截图,并插入实验报告中*************** </font>
  48. ##### 二)熟悉基本命令
  49. > Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。 我们可以登录Master节点通过一些基本命令操作文件,操作的命令与我们在Linux系统命令类似。
  50. 1. 列出文件
  51. > hadoop fs -ls <path>
  52. 2. 创建目录
  53. > hadoop fs -mkdir <paths> 接受路径指定的uri作为参数,创建这些目录。其行为类似于Unix的mkdir -p,它会创建路径中的各级父目录。
  54. >
  55. > eg: hadoop fs -mkdir /dir1 /dir2 (该目录时被创建在HDFS文件系统中,而不是本地文件系统)
  56. 3. 上传文件
  57. > hadoop fs -put <localsrc> <dst> 从本地文件系统中上传文件到HDFS文件系统中
  58. >
  59. > eg: hadoop fs -put /root/install-java.sh /dir1 本地文件 : /root/install-java.sh HDFS文件系统中文件夹 : /dir1
  60. 4. 下载文件
  61. > hadoop fs -get <src> <localdst> 从HDFS文件系统中下载文件到本地
  62. >
  63. > mkdir test && hadoop fs -get /dir1/install-java.sh /root/test
  64. 5. 检查文件
  65. > 使用方法:hadoop fs -test -[ezd] url
  66. >
  67. > 选项:
  68. > -e 检查文件是否存在。如果存在则返回0。
  69. > -z 检查文件是否是0字节。如果是则返回0。
  70. > -d 如果路径是个目录,则返回1,否则返回0。
  71. >
  72. > 示例:
  73. >
  74. > - hadoop fs -test -e filename
  75. **更多请参考: hadoop fs -help**
  76. ##### 三) 客户端搭建
  77. > 上述的操作命令我们都是在Hadoop集群上直接操作的,出于安全性考虑,通常我们在单独的机器上安装客户端进行任务提交和相关操作。
  78. 1. 按照实验一的步骤 申请一台UHost云主机(CentOS操作系统)。
  79. 2. 配置环境
  80. > 我们需要配置云主机的环境,让能够正常访问HDFS文件系统。
  81. 2.1 利用安装脚本部署
  82. - 在**hadoop集群的master节点**下载安装脚本:
  83. ```
  84. wget "http://udata-new.ufile.ucloud.com.cn/uhadoop/install_uhadoop_client_new.sh"
  85. ```
  86. 使用方法:
  87. 在master节点/root目录下执行
  88. ```
  89. sh /root/install_uhadoop_client_new.sh client_ip client_user password port
  90. client_ip: 客户机IP (申请的UHost)
  91. client_user: 客户机上需要安装客户端的用户名
  92. password: 客户机root密码
  93. port:客户机ssh连接端口 (通常是22)
  94. ```
  95. **该脚本会自动安装java环境、hadoop环境,并修改环境变量,安装过程中,需要确认安装(y)**
  96. **安装完成后,需要在UHost云主机上执行 source ~/.bashrc 命令让修改的环境生效**
  97. **同样我们可以在该UHost上执行HDFS基础操作**
  98. <font color=red> ************作业2:请将上述查看到的hdfs的目录信息截图,并插入实验报告中*************** </font>
  99. ##### 四)MapReduce Job
  100. > MapReduce是一种分布式计算框架 ,以一种可靠的,具有容错能力的方式并行地处理上TB级别的海量数据集。MR有两个阶段组成:Map和Reduce,用户只需实现map()和reduce()两个函数,即可实现分布式计算。