云计算课程实验
You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

254 lines
10 KiB

4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
  1. # Assignment 6 指南
  2. ## `******注意,实验结束请立即删除负载均衡器和所有云主机,节省费用******`
  3. ## `******注意2,实验未结束且短期内不会继续实验,也请删除负载均衡器和所有云主机。下次实验时重新创建******`
  4. ## `******提示:勤用保存镜像******`
  5. ## 实验内容
  6. - 创建负载均衡器: `实验步骤 一)`
  7. - 创建Flask APP服务器,并连接负载均衡器:`实验步骤 二)`
  8. - 进行Flask APP服务器压力测试: `实验步骤 三)`
  9. ## 实验要求
  10. - 完成所有步骤,并在实验报告([模板下载](file/assignment6/学号-实验六.docx))中完成穿插在本指南中的作业1~作业4(只需要截图)。实验报告转成“学号-实验六.pdf”,并上传至http://113.31.104.68:3389/index.htm
  11. - 实验报告上传deadline: `11月20日`
  12. ## 使用UCloud产品
  13. 云主机UHost、负载均衡ULB、私有网络VPC、基础网络UNet
  14. ## 需要权限
  15. 云主机UHost、负载均衡ULB、基础网络UNet
  16. ## 基础知识
  17. `数据仓库:` data warehouse(缩写DW),是用于报告和数据分析的数据管理系统。
  18. `和SQL数据库的区别:` 传统的关系型数据库(如实验四中的MySQL)主要应用于基本的、日常的事务处理(Transaction Processing),例如银行交易,淘宝购物,订购车票等。而数据仓库系统主要应用于生产数据的整理和分析(Analytical Processing),通过扩展数据分析和可视化等工具,支持业务决策,例如流量分析、用户画像、统计建模等。
  19. 举个简单例子,淘宝前端(网页端、app端)每天的交易事务,都是用关系型数据库支持的。而每天的交易数据,会定时导入到后端的数据仓库(俗称ETL,Extract, Transform, Load),并根据特定业务逻辑重新整理,从而方便后端各个团队分析数据和做出业务决策。
  20. <kbd>
  21. <img src="img/assignment5/ass5-etl.jpg">
  22. </kbd>
  23. `UDW云数据仓库:` 是UCloud的DW产品,基于开源软件Greenplum(底层为PostgreSQL数据库)开发的大规模并发、完全托管的PB级数据仓库服务。支持MADlib、PostGIS等扩展工具,可以方便地支持机器学习、空间地理位置应用等数据分析任务。
  24. `MADlib:` MADlib提供了一套基于SQL的机器学习、数据挖掘和统计算法,可以在数据库引擎内大规模运行。在Greenplum中安装了MADlib插件以后,可以直接在数据仓库内进行复杂计算和数据建模等工作。
  25. 闲话少说,我们开始创建一个UDW玩玩。:ghost: :ghost: :ghost:
  26. ## 实验步骤
  27. ### 一)创建Greenplum数据仓库实例
  28. #### 1)在产品中选择云数据仓库UDW,然后点击新建数据仓库
  29. <kbd>
  30. <img src="img/assignment5/ass5-udw.jpg">
  31. </kbd>
  32. #### 2)使用默认配置,2个节点。将子网改成"DefaultNetwork",记住DB名称,端口,管理员用户名,设置管理员密码。选择按时付费,立即购买。
  33. <kbd>
  34. <img src="img/assignment5/ass5-dft.jpg">
  35. </kbd>
  36. <kbd>
  37. <img src="img/assignment5/ass5-cfg.jpg">
  38. </kbd>
  39. <kbd>
  40. <img src="img/assignment5/ass5-pay.jpg">
  41. </kbd>
  42. #### 3)支付之后,数仓创建时间从几分钟到十几分钟不等,等状态显示“运行中”,则创建完毕。记住数仓的IP地址。
  43. <kbd>
  44. <img src="img/assignment5/ass5-created.jpg">
  45. </kbd>
  46. ### 二)登录数据仓库。Greenplum数据仓库的登录有很多方式,比如用PostgreSQL客户端登录,用Greenplum客户端登录,用JDBC(在Java中使用)或者ODBC(在C/C++中使用)访问,用psycopg2(在Python中使用)访问。本实验我们完成PostgreSQL客户端和psycopg2两种方式。其余方式同学们以后可以自行尝试。
  47. #### 1)使用PostgreSQL客户端登录。创建一个最低配置的Centos云主机,选择按流量计费,20M带宽,云主机按小时付费。登录以后运行以下命令,安装PostgreSQL客户端psql。
  48. ```
  49. sudo yum install postgresql.x86_64 -y
  50. ```
  51. ##### 1.1)安装完毕后运行以下命令登录数据仓库。将相关参数替换成你的数据仓库参数。登录后将看到如下界面(我们已经在dev库中)。
  52. ```
  53. psql -h hostIP –U username -d database -p port
  54. ```
  55. <kbd>
  56. <img src="img/assignment5/ass5-psglog.jpg">
  57. </kbd>
  58. ## `**************作业1:请将登录命令和登录成功界面截图,并插入实验报告***************`
  59. ##### 1.2)让我们运行几个SQL代码来实现建表,插入,查询等操作。
  60. > 复制以下sql代码,并在psql中运行(注意要包含最后的分号)
  61. ```
  62. CREATE TABLE regression (
  63. id int,
  64. y int,
  65. x1 int,
  66. x2 int
  67. );
  68. ```
  69. > 运行后我们看到如下notice,提示建表时没有使用`DISTRIBUTED BY`语句,因此Greenplum默认使用id作为分布键。这是因为greenplum是一个分布式数仓,数据会分布在不同的节点上,因此建表的时候要用`DISTRIBUTED BY`语句说明按照哪一个属性(即所谓“分布键”)对数据进行划分。由于我们没有指定,系统默认使用了第一列作为分布键。
  70. <kbd>
  71. <img src="img/assignment5/ass5-notice.jpg">
  72. </kbd>
  73. > 接着让我们在regression表中插入一些值
  74. ```
  75. INSERT INTO regression VALUES
  76. (1, 5, 2, 3),
  77. (2, 10, 7, 2),
  78. (3, 6, 4, 1),
  79. (4, 8, 3, 4);
  80. ```
  81. > 让我们查询一下regression表中的数据。你应该看到如下输出。
  82. ```
  83. SELECT * FROM regression;
  84. ```
  85. <kbd>
  86. <img src="img/assignment5/ass5-psgselect.jpg">
  87. </kbd>
  88. ##### 1.3)运行\q退出psql客户端。
  89. ## `**************作业2:请如上图一样将regression表的查询命令、输出结果和退出psql以后的界面截图,并插入实验报告***************`
  90. #### 2)使用`Python`+`psycopg2`访问。很多时候我们需要在程序中访问数据仓库,比如用Python读取DW中的数据,然后进一步操作。我们可以通过使用`psycopg2`来实现访问。运行以下命令安装`psycopg2`package。
  91. ```
  92. sudo yum install python3-devel -y
  93. sudo yum install postgresql-libs -y
  94. sudo yum install postgresql-devel -y
  95. sudo yum install gcc -y
  96. pip3 install --user psycopg2
  97. ```
  98. ##### 2.1)安装完毕后运行python3,然后import psycopg2,若没有报错,则说明psycopg2安装成功。
  99. <kbd>
  100. <img src="img/assignment5/ass5-pylog.jpg">
  101. </kbd>
  102. ##### 2.2)quit()退出python3命令行,让我们运行几个Python代码来实现建表,插入,查询等操作。
  103. > 建立createTable.py文件,并复制如下代码。其中username,password,hostIP,port都要替换成你的数据仓库参数。
  104. ```
  105. import psycopg2
  106. conn = psycopg2.connect(database="dev", user="username", password="password", host="hostIP", port="port")
  107. cur = conn.cursor()
  108. cur.execute('CREATE TABLE COMPANY (ID INT PRIMARY KEY NOT NULL,\
  109. NAME TEXT NOT NULL,\
  110. AGE INT NOT NULL,\
  111. ADDRESS CHAR(10),\
  112. SALARY REAL);')
  113. conn.commit()
  114. conn.close()
  115. ```
  116. > 运行createTable.py,如果没有报错,则说明建表成功。
  117. ```
  118. python3 createTable.py
  119. ```
  120. > 向COMPANY表中添加一些记录。建立insertTable.py文件,复制如下代码并运行。
  121. ```
  122. import psycopg2
  123. conn = psycopg2.connect(database="dev", user="username", password="password", host="hostIP", port="port")
  124. cur = conn.cursor()
  125. cur.execute("INSERT INTO COMPANY VALUES (1, 'Paul', 32, 'California', 20000.00 )");
  126. cur.execute("INSERT INTO COMPANY VALUES (2, 'Allen', 25, 'Texas', 15000.00 )");
  127. cur.execute("INSERT INTO COMPANY VALUES (3, 'Eric', 35, 'Florida', 25000.00 )");
  128. conn.commit()
  129. conn.close()
  130. ```
  131. > 让我们查询一下刚刚建的表。建立selectTable.py文件,复制如下代码并运行。
  132. ```
  133. import psycopg2
  134. conn = psycopg2.connect(database="dev", user="username", password="password", host="hostIP", port="port")
  135. cur = conn.cursor()
  136. cur.execute("SELECT id, name, address, salary from COMPANY order by id")
  137. rows = cur.fetchall()
  138. print ("ID NAME ADDRESS SALARY")
  139. for row in rows:
  140. print (row[0], "\t", row[1], "\t", row[2], "\t", row[3])
  141. conn.close()
  142. ```
  143. > 你应该会看到如下输出。
  144. <kbd>
  145. <img src="img/assignment5/ass5-pyselect.jpg">
  146. </kbd>
  147. ## `**************作业3:请将运行selectTable.py的命令和输出结果截图,并插入实验报告***************`
  148. ### 三)使用MADlib完成简单的机器学习任务(线性回归)
  149. #### 1)前面我们说过,在Greenplum中使用MADlib插件可以直接在DW中建立机器学习模型。这里我们用二)中的regression表跑一下线性回归算法。请使用psql或者psycopg2登录数仓,并运行如下命令。
  150. ```
  151. SELECT madlib.linregr_train (
  152. 'regression', -- source table
  153. 'regression_model', -- output model table
  154. 'y', -- dependent variable
  155. 'ARRAY[1, x1, x2]' -- independent variables
  156. );
  157. ```
  158. > 这里我们看到使用了MADlib的线性回归模型linregr_train来对regression表中的数据进行训练,模型输入变量为x1, x2以及偏置项,输出变量为y。训练好的模型保存在regression_model表中。
  159. ### 2)让我们看下模型表中有什么,运行以下命令
  160. ```
  161. SELECT * FROM regression_model;
  162. ```
  163. > 可能输出比较乱,你可以运行以下命令,让表的结果竖起来。
  164. ```
  165. \x
  166. SELECT * FROM regression_model;
  167. ```
  168. > 这样是不是顺眼多了 :ghost: :ghost: :ghost: 我们看到了线性回归模型的参数以及标准差,p-value等指标的值
  169. <kbd>
  170. <img src="img/assignment5/ass5-model.jpg">
  171. </kbd>
  172. ### 3)最后让我们用这个模型去做预测。我们直接在训练集上进行预测。你会看到如下输出,其中predict是预测结果,observation是原始的y值。
  173. ```
  174. \x
  175. SELECT regression.*,
  176. madlib.linregr_predict ( ARRAY[1, x1, x2], m.coef ) as predict,
  177. y as observation
  178. FROM regression, regression_model m;
  179. ```
  180. <kbd>
  181. <img src="img/assignment5/ass5-pred.jpg">
  182. </kbd>
  183. ### 4)运行\q退出psql客户端。
  184. ## `**************作业4:请如上图一样把预测结果和退出psql以后的界面一起截图,并插入实验报告***************`