云计算课程实验
Não pode escolher mais do que 25 tópicos Os tópicos devem começar com uma letra ou um número, podem incluir traços ('-') e podem ter até 35 caracteres.

278 linhas
11 KiB

há 4 anos
há 4 anos
há 4 anos
há 4 anos
há 4 anos
há 4 anos
há 4 anos
há 4 anos
há 4 anos
há 4 anos
há 4 anos
há 4 anos
há 4 anos
há 4 anos
há 4 anos
há 4 anos
há 4 anos
há 4 anos
há 4 anos
há 4 anos
há 4 anos
há 4 anos
há 4 anos
há 4 anos
  1. # Assignment 6 指南
  2. ## `******注意,实验结束请立即删除负载均衡器和所有云主机,节省费用******`
  3. ## `******注意2,实验未结束且短期内不会继续实验,也请删除负载均衡器和所有云主机。下次实验时重新创建******`
  4. ## `******提示:勤用保存镜像******`
  5. ## 实验内容
  6. - 创建负载均衡器: `实验步骤 一)`
  7. - 创建Flask App服务实例,并连接负载均衡器:`实验步骤 二)`
  8. - 进行服务器压力测试: `实验步骤 三)`
  9. ## 实验要求
  10. - 完成所有步骤,并在实验报告([模板下载](file/assignment6/学号-实验六.docx))中完成穿插在本指南中的作业1~作业4(只需要截图)。实验报告转成“学号-实验六.pdf”,并上传至http://113.31.104.68:3389/index.htm
  11. - 实验报告上传deadline: `11月20日`
  12. ## 使用UCloud产品
  13. 云主机UHost、负载均衡ULB、私有网络VPC、基础网络UNet
  14. ## 需要权限
  15. 云主机UHost、负载均衡ULB、基础网络UNet
  16. ## 基础知识
  17. `负载均衡:` load balancing,是指将用户请求按照一定的规则,分流到提供相同服务的多个服务实例上,从而减轻单点服务器的压力,是保证服务高并发高可用的技术手段之一。用户、负载均衡器和服务器实例的关系可以简化为下图。这种架构的另一个好处是可以把服务器隐藏在局域网防火墙背后,因为外网直接访问的是负载均衡器。
  18. <kbd>
  19. <img src="img/assignment6/ass6-lb.jpeg">
  20. </kbd>
  21. 负载均衡的算法有很多,常见的如轮询,ip地址哈希,最小连接数等,应对不同的需求,感兴趣的同学可以去了解一下。
  22. `压力测试:` 测试一个系统的最大抗压能力,在强负载、高并发的情况下,测试系统所能承受的最大压力,预估系统的瓶颈。例如天猫双11之前,阿里内部会对整个淘宝平台进行全链路压测,预估应对峰值交易的能力。压力测试的工具有很多,今天我们练习使用非常简单的ApacheBench(ab)对http服务器进行压测。
  23. 好,废话少说,咱们书归正传!
  24. ## 实验步骤
  25. ### 一)使用ULB创建一个外网负载均衡器。
  26. #### 1)在产品->网络中选择负载均衡ULB,然后点击创建负载均衡。
  27. #### 2)根据下图配置,选择按时付费。因为我们一会需要从外网访问Flask App,所以选择外网负载均衡。
  28. <kbd>
  29. <img src="img/assignment6/ass6-createlb.png">
  30. </kbd>
  31. #### 3)创建完毕后,记住ULB的IP地址,点击详情->VServer管理->添加VServer。这里VServer就可以看成是一个负载均衡服务器,负责分流。取任意VServer名称,其他保持默认设置,点击确定。
  32. <kbd>
  33. <img src="img/assignment6/ass6-vs.png">
  34. </kbd>
  35. #### 4)点击“服务节点”标签页,当前没有任务实际的节点提供服务。我们接下来创建一些服务节点。
  36. ### 二)使用云主机创建Flask App服务实例,并连接负载均衡器。
  37. #### 1)创建一个1核1G的云主机,绑定弹性IP,选择web型防火墙,按时付费(已经很熟练了吧 :dog: :dog:)
  38. #### 2)使用docker file创建一个Flask App的image(比如实验2中的hello world),并且暴露docker容器的5000端口(因为Flask开发模式默认端口就是5000)。创建完毕之后运行docker,将5000端口映射到云主机的80端口。
  39. ```
  40. docker run -d --rm -p 80:5000 -name myflask luxuesong/myflaskapp
  41. ```
  42. 请同学们复习一下docker的安装和使用,以及通过dockerfile创建镜像。如果你意外保存了实验二的镜像,可以从镜像创建云主机,然后直接启动并docker run。
  43. #### 3)打开浏览器,输入 `http://你的云主机外网ip`,测试app是否正常运行。正常则进入下一步。
  44. <kbd>
  45. <img src="img/assignment6/ass6-llq.jpeg">
  46. </kbd>
  47. #### 4)将云主机连到负载均衡器。回到前面添加服务节点的界面,输入端口80,则所有可添加的节点都会出现(以内网ip形式)。将你的云主机对应的内网ip,转移到待添加节点,点击确定。这时候显示健康检查“失败”,不用管它,我们在浏览器中输入 `http://你的负载均衡器ip`,奇迹发生了!我们也能访问flask app!!并且这时候健康检查也变成“正常”。
  48. <kbd>
  49. <img src="img/assignment6/ass6-addserver.jpeg">
  50. </kbd>
  51. #### 5)此时负载均衡器只连接了一个服务实例,等同于单机访问。`为步骤三做准备,请在这一步制作当前云主机的镜像`。
  52. ### 三)使用ab进行http服务器压力测试
  53. #### 1)使用步骤二)中制作的镜像,创建三个最低配置的云主机(`和之前一样,只是在云主机创建界面用“自制镜像”,并且不需要弹性ip`),可以选择三台主机一次性创建
  54. <kbd>
  55. <img src="img/assignment6/ass6-createuh.png">
  56. </kbd>
  57. #### 2)创建完毕后,使用有外网ip的那台云主机,逐个ssh到三台内网机器上(通过内网ip),然后每台机器直接启动docker服务,并运行flask app容器(因为已经全都安装并且build好了 :smiley_cat: :smiley_cat: :smiley_cat:)
  58. <kbd>
  59. <img src="img/assignment6/ass6-intra.jpeg">
  60. </kbd>
  61. <kbd>
  62. <img src="img/assignment6/ass6-intrassh.jpeg">
  63. </kbd>
  64. ##### 1.1)安装完毕后运行以下命令登录数据仓库。将相关参数替换成你的数据仓库参数。登录后将看到如下界面(我们已经在dev库中)。
  65. ```
  66. psql -h hostIP –U username -d database -p port
  67. ```
  68. ## `**************作业1:请将登录命令和登录成功界面截图,并插入实验报告***************`
  69. ##### 1.2)让我们运行几个SQL代码来实现建表,插入,查询等操作。
  70. > 复制以下sql代码,并在psql中运行(注意要包含最后的分号)
  71. ```
  72. CREATE TABLE regression (
  73. id int,
  74. y int,
  75. x1 int,
  76. x2 int
  77. );
  78. ```
  79. > 运行后我们看到如下notice,提示建表时没有使用`DISTRIBUTED BY`语句,因此Greenplum默认使用id作为分布键。这是因为greenplum是一个分布式数仓,数据会分布在不同的节点上,因此建表的时候要用`DISTRIBUTED BY`语句说明按照哪一个属性(即所谓“分布键”)对数据进行划分。由于我们没有指定,系统默认使用了第一列作为分布键。
  80. <kbd>
  81. <img src="img/assignment5/ass5-notice.jpg">
  82. </kbd>
  83. > 接着让我们在regression表中插入一些值
  84. ```
  85. INSERT INTO regression VALUES
  86. (1, 5, 2, 3),
  87. (2, 10, 7, 2),
  88. (3, 6, 4, 1),
  89. (4, 8, 3, 4);
  90. ```
  91. > 让我们查询一下regression表中的数据。你应该看到如下输出。
  92. ```
  93. SELECT * FROM regression;
  94. ```
  95. <kbd>
  96. <img src="img/assignment5/ass5-psgselect.jpg">
  97. </kbd>
  98. ##### 1.3)运行\q退出psql客户端。
  99. ## `**************作业2:请如上图一样将regression表的查询命令、输出结果和退出psql以后的界面截图,并插入实验报告***************`
  100. #### 2)使用`Python`+`psycopg2`访问。很多时候我们需要在程序中访问数据仓库,比如用Python读取DW中的数据,然后进一步操作。我们可以通过使用`psycopg2`来实现访问。运行以下命令安装`psycopg2`package。
  101. ```
  102. sudo yum install python3-devel -y
  103. sudo yum install postgresql-libs -y
  104. sudo yum install postgresql-devel -y
  105. sudo yum install gcc -y
  106. pip3 install --user psycopg2
  107. ```
  108. ##### 2.1)安装完毕后运行python3,然后import psycopg2,若没有报错,则说明psycopg2安装成功。
  109. <kbd>
  110. <img src="img/assignment5/ass5-pylog.jpg">
  111. </kbd>
  112. ##### 2.2)quit()退出python3命令行,让我们运行几个Python代码来实现建表,插入,查询等操作。
  113. > 建立createTable.py文件,并复制如下代码。其中username,password,hostIP,port都要替换成你的数据仓库参数。
  114. ```
  115. import psycopg2
  116. conn = psycopg2.connect(database="dev", user="username", password="password", host="hostIP", port="port")
  117. cur = conn.cursor()
  118. cur.execute('CREATE TABLE COMPANY (ID INT PRIMARY KEY NOT NULL,\
  119. NAME TEXT NOT NULL,\
  120. AGE INT NOT NULL,\
  121. ADDRESS CHAR(10),\
  122. SALARY REAL);')
  123. conn.commit()
  124. conn.close()
  125. ```
  126. > 运行createTable.py,如果没有报错,则说明建表成功。
  127. ```
  128. python3 createTable.py
  129. ```
  130. > 向COMPANY表中添加一些记录。建立insertTable.py文件,复制如下代码并运行。
  131. ```
  132. import psycopg2
  133. conn = psycopg2.connect(database="dev", user="username", password="password", host="hostIP", port="port")
  134. cur = conn.cursor()
  135. cur.execute("INSERT INTO COMPANY VALUES (1, 'Paul', 32, 'California', 20000.00 )");
  136. cur.execute("INSERT INTO COMPANY VALUES (2, 'Allen', 25, 'Texas', 15000.00 )");
  137. cur.execute("INSERT INTO COMPANY VALUES (3, 'Eric', 35, 'Florida', 25000.00 )");
  138. conn.commit()
  139. conn.close()
  140. ```
  141. > 让我们查询一下刚刚建的表。建立selectTable.py文件,复制如下代码并运行。
  142. ```
  143. import psycopg2
  144. conn = psycopg2.connect(database="dev", user="username", password="password", host="hostIP", port="port")
  145. cur = conn.cursor()
  146. cur.execute("SELECT id, name, address, salary from COMPANY order by id")
  147. rows = cur.fetchall()
  148. print ("ID NAME ADDRESS SALARY")
  149. for row in rows:
  150. print (row[0], "\t", row[1], "\t", row[2], "\t", row[3])
  151. conn.close()
  152. ```
  153. > 你应该会看到如下输出。
  154. <kbd>
  155. <img src="img/assignment5/ass5-pyselect.jpg">
  156. </kbd>
  157. ## `**************作业3:请将运行selectTable.py的命令和输出结果截图,并插入实验报告***************`
  158. ### 三)使用MADlib完成简单的机器学习任务(线性回归)
  159. #### 1)前面我们说过,在Greenplum中使用MADlib插件可以直接在DW中建立机器学习模型。这里我们用二)中的regression表跑一下线性回归算法。请使用psql或者psycopg2登录数仓,并运行如下命令。
  160. ```
  161. SELECT madlib.linregr_train (
  162. 'regression', -- source table
  163. 'regression_model', -- output model table
  164. 'y', -- dependent variable
  165. 'ARRAY[1, x1, x2]' -- independent variables
  166. );
  167. ```
  168. > 这里我们看到使用了MADlib的线性回归模型linregr_train来对regression表中的数据进行训练,模型输入变量为x1, x2以及偏置项,输出变量为y。训练好的模型保存在regression_model表中。
  169. ### 2)让我们看下模型表中有什么,运行以下命令
  170. ```
  171. SELECT * FROM regression_model;
  172. ```
  173. > 可能输出比较乱,你可以运行以下命令,让表的结果竖起来。
  174. ```
  175. \x
  176. SELECT * FROM regression_model;
  177. ```
  178. > 这样是不是顺眼多了 :ghost: :ghost: :ghost: 我们看到了线性回归模型的参数以及标准差,p-value等指标的值
  179. <kbd>
  180. <img src="img/assignment5/ass5-model.jpg">
  181. </kbd>
  182. ### 3)最后让我们用这个模型去做预测。我们直接在训练集上进行预测。你会看到如下输出,其中predict是预测结果,observation是原始的y值。
  183. ```
  184. \x
  185. SELECT regression.*,
  186. madlib.linregr_predict ( ARRAY[1, x1, x2], m.coef ) as predict,
  187. y as observation
  188. FROM regression, regression_model m;
  189. ```
  190. <kbd>
  191. <img src="img/assignment5/ass5-pred.jpg">
  192. </kbd>
  193. ### 4)运行\q退出psql客户端。
  194. ## `**************作业4:请如上图一样把预测结果和退出psql以后的界面一起截图,并插入实验报告***************`