From ac6c95799139ed3ae8c1eb2b9c627b23e28ba0b1 Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?=E9=99=86=E9=9B=AA=E6=9D=BE?= Date: Fri, 3 Mar 2023 12:48:29 +0800 Subject: [PATCH] =?UTF-8?q?=E5=88=A0=E9=99=A4=20'Assignment5.md'?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- Assignment5.md | 254 --------------------------------------------------------- 1 file changed, 254 deletions(-) delete mode 100644 Assignment5.md diff --git a/Assignment5.md b/Assignment5.md deleted file mode 100644 index 62216a1..0000000 --- a/Assignment5.md +++ /dev/null @@ -1,254 +0,0 @@ -# Assignment 5 指南 - -## `******注意,实验结束请立即删除云主机和数据仓库,节省费用******` - -## `******注意2,实验未结束且短期内不会继续实验,也请删除云主机和数据仓库。下次实验时重新创建******` - - - -## 实验内容 - -- 创建Greenplum数据仓库实例: `实验步骤 一)` -- 登录数据仓库,并练习建表、插入、查找等基本操作:`实验步骤 二)` -- 使用MADlib完成简单的机器学习任务: `实验步骤 三)` - -## 实验要求(仔细看) - -- 完成所有步骤,并在实验报告([模板下载](file/assignment5/学号-实验五.docx))中完成穿插在本指南中的作业1~作业4(只需要截图)。实验报告转成“学号-实验五.pdf”,并上传至http://113.31.104.68:3389/index.htm -- 实验报告上传deadline: `11月13日` - -## 使用UCloud产品 - -云数据仓库UDW、云主机uhost、私有网络vpc、基础网络unet - -## 需要权限 - -云数据仓库UDW、云主机uhost、基础网络unet - - -## 基础知识(本实验详细知识会在数据仓库相关课程中学习,这里我们仅简单熟悉一下相关操作,你也可以去Google上Baidu一下相关知识 :ghost: :ghost: :ghost:) - - -`数据仓库:` data warehouse(缩写DW),是用于报告和数据分析的数据管理系统。 - -`和SQL数据库的区别:` 传统的关系型数据库(如实验四中的MySQL)主要应用于基本的、日常的事务处理(Transaction Processing),例如银行交易,淘宝购物,订购车票等。而数据仓库系统主要应用于生产数据的整理和分析(Analytical Processing),通过扩展数据分析和可视化等工具,支持业务决策,例如流量分析、用户画像、统计建模等。 - -举个简单例子,淘宝前端(网页端、app端)每天的交易事务,都是用关系型数据库支持的。而每天的交易数据,会定时导入到后端的数据仓库(俗称ETL,Extract, Transform, Load),并根据特定业务逻辑重新整理,从而方便后端各个团队分析数据和做出业务决策。 - - - - - - -`UDW云数据仓库:` 是UCloud的DW产品,基于开源软件Greenplum(底层为PostgreSQL数据库)开发的大规模并发、完全托管的PB级数据仓库服务。支持MADlib、PostGIS等扩展工具,可以方便地支持机器学习、空间地理位置应用等数据分析任务。 - -`MADlib:` MADlib提供了一套基于SQL的机器学习、数据挖掘和统计算法,可以在数据库引擎内大规模运行。在Greenplum中安装了MADlib插件以后,可以直接在数据仓库内进行复杂计算和数据建模等工作。 - - -闲话少说,我们开始创建一个UDW玩玩。:ghost: :ghost: :ghost: - -## 实验步骤 - -### 一)创建Greenplum数据仓库实例 - -#### 1)在产品中选择云数据仓库UDW,然后点击新建数据仓库 - - - - -#### 2)使用默认配置,2个节点。将子网改成"DefaultNetwork",记住DB名称,端口,管理员用户名,设置管理员密码。选择按时付费,立即购买。 - - - - - - - - - - - - -#### 3)支付之后,数仓创建时间从几分钟到十几分钟不等,等状态显示“运行中”,则创建完毕。记住数仓的IP地址。 - - - - -### 二)登录数据仓库。Greenplum数据仓库的登录有很多方式,比如用PostgreSQL客户端登录,用Greenplum客户端登录,用JDBC(在Java中使用)或者ODBC(在C/C++中使用)访问,用psycopg2(在Python中使用)访问。本实验我们完成PostgreSQL客户端和psycopg2两种方式。其余方式同学们以后可以自行尝试。 - -#### 1)使用PostgreSQL客户端登录。创建一个最低配置的Centos云主机,选择按流量计费,20M带宽,云主机按小时付费。登录以后运行以下命令,安装PostgreSQL客户端psql。 -``` -sudo yum install postgresql.x86_64 -y -``` - -##### 1.1)安装完毕后运行以下命令登录数据仓库。将相关参数替换成你的数据仓库参数。登录后将看到如下界面(我们已经在dev库中)。 -``` -psql -h hostIP –U username -d database -p port -``` - - - - -## `**************作业1:请将登录命令和登录成功界面截图,并插入实验报告***************` - -##### 1.2)让我们运行几个SQL代码来实现建表,插入,查询等操作。 -> 复制以下sql代码,并在psql中运行(注意要包含最后的分号) -``` -CREATE TABLE regression ( - id int, - y int, - x1 int, - x2 int -); -``` - -> 运行后我们看到如下notice,提示建表时没有使用`DISTRIBUTED BY`语句,因此Greenplum默认使用id作为分布键。这是因为greenplum是一个分布式数仓,数据会分布在不同的节点上,因此建表的时候要用`DISTRIBUTED BY`语句说明按照哪一个属性(即所谓“分布键”)对数据进行划分。由于我们没有指定,系统默认使用了第一列作为分布键。 - - - - - - -> 接着让我们在regression表中插入一些值 -``` -INSERT INTO regression VALUES - (1, 5, 2, 3), - (2, 10, 7, 2), - (3, 6, 4, 1), - (4, 8, 3, 4); -``` - -> 让我们查询一下regression表中的数据。你应该看到如下输出。 -``` -SELECT * FROM regression; -``` - - - - - -##### 1.3)运行\q退出psql客户端。 - -## `**************作业2:请如上图一样将regression表的查询命令、输出结果和退出psql以后的界面截图,并插入实验报告***************` - - -#### 2)使用`Python`+`psycopg2`访问。很多时候我们需要在程序中访问数据仓库,比如用Python读取DW中的数据,然后进一步操作。我们可以通过使用`psycopg2`来实现访问。运行以下命令安装`psycopg2`package。 -``` -sudo yum install python3-devel -y -sudo yum install postgresql-libs -y -sudo yum install postgresql-devel -y -sudo yum install gcc -y -pip3 install --user psycopg2 -``` - -##### 2.1)安装完毕后运行python3,然后import psycopg2,若没有报错,则说明psycopg2安装成功。 - - - - -##### 2.2)quit()退出python3命令行,让我们运行几个Python代码来实现建表,插入,查询等操作。 - -> 建立createTable.py文件,并复制如下代码。其中username,password,hostIP,port都要替换成你的数据仓库参数。 -``` -import psycopg2 -conn = psycopg2.connect(database="dev", user="username", password="password", host="hostIP", port="port") -cur = conn.cursor() -cur.execute('CREATE TABLE COMPANY (ID INT PRIMARY KEY NOT NULL,\ - NAME TEXT NOT NULL,\ - AGE INT NOT NULL,\ - ADDRESS CHAR(10),\ - SALARY REAL);') -conn.commit() -conn.close() -``` - -> 运行createTable.py,如果没有报错,则说明建表成功。 -``` -python3 createTable.py -``` - -> 向COMPANY表中添加一些记录。建立insertTable.py文件,复制如下代码并运行。 -``` -import psycopg2 -conn = psycopg2.connect(database="dev", user="username", password="password", host="hostIP", port="port") -cur = conn.cursor() -cur.execute("INSERT INTO COMPANY VALUES (1, 'Paul', 32, 'California', 20000.00 )"); -cur.execute("INSERT INTO COMPANY VALUES (2, 'Allen', 25, 'Texas', 15000.00 )"); -cur.execute("INSERT INTO COMPANY VALUES (3, 'Eric', 35, 'Florida', 25000.00 )"); -conn.commit() -conn.close() -``` - -> 让我们查询一下刚刚建的表。建立selectTable.py文件,复制如下代码并运行。 -``` -import psycopg2 -conn = psycopg2.connect(database="dev", user="username", password="password", host="hostIP", port="port") -cur = conn.cursor() -cur.execute("SELECT id, name, address, salary from COMPANY order by id") -rows = cur.fetchall() -print ("ID NAME ADDRESS SALARY") -for row in rows: - print (row[0], "\t", row[1], "\t", row[2], "\t", row[3]) -conn.close() -``` - -> 你应该会看到如下输出。 - - - - - -## `**************作业3:请将运行selectTable.py的命令和输出结果截图,并插入实验报告***************` - - -### 三)使用MADlib完成简单的机器学习任务(线性回归) - -#### 1)前面我们说过,在Greenplum中使用MADlib插件可以直接在DW中建立机器学习模型。这里我们用二)中的regression表跑一下线性回归算法。请使用psql或者psycopg2登录数仓,并运行如下命令。 - -``` -SELECT madlib.linregr_train ( - 'regression', -- source table - 'regression_model', -- output model table - 'y', -- dependent variable - 'ARRAY[1, x1, x2]' -- independent variables -); -``` - -> 这里我们看到使用了MADlib的线性回归模型linregr_train来对regression表中的数据进行训练,模型输入变量为x1, x2以及偏置项,输出变量为y。训练好的模型保存在regression_model表中。 - -### 2)让我们看下模型表中有什么,运行以下命令 - -``` -SELECT * FROM regression_model; -``` - -> 可能输出比较乱,你可以运行以下命令,让表的结果竖起来。 - -``` -\x - -SELECT * FROM regression_model; -``` -> 这样是不是顺眼多了 :ghost: :ghost: :ghost: 我们看到了线性回归模型的参数以及标准差,p-value等指标的值 - - - - - -### 3)最后让我们用这个模型去做预测。我们直接在训练集上进行预测。你会看到如下输出,其中predict是预测结果,observation是原始的y值。 -``` -\x - -SELECT regression.*, - madlib.linregr_predict ( ARRAY[1, x1, x2], m.coef ) as predict, - y as observation -FROM regression, regression_model m; -``` - - - - - -### 4)运行\q退出psql客户端。 - -## `**************作业4:请如上图一样把预测结果和退出psql以后的界面一起截图,并插入实验报告***************`