背景

本文示范如何使用 OpenMLDB 和 Byzer-lang 联合完成一个完整的机器学习应用。Byzer-lang 作为面向大数据和 AI 的一门语言,通过 Byzer-Notebook 和用户进行交互,用户可以轻松完成数据的抽取、ETL、特征/模型训练、保存、部署到最后预测等整个端到端的机器学习流程。

OpenMLDB 在本例中接收 Byzer 发送的指令和数据,完成数据的实时特征计算,并经特征工程处理后的数据集返回 Byzer,供其进行后续的机器学习训练和预测。

准备

心理准备:因为操作系统环境的千差万别,安装部署常常是最繁琐的和消耗时间的部分。请大家耐心准备,在遇到问题时及时寻求两个社区的帮助。

用户需要找一台 Linux 机器(虚拟机也行),然后部署如下几个应用(都很简单,基本都是下载、解压、运行即可):

  1. Byzer-lang: Byzer-lang 部署
  2. Byzer-Notebook:Byzer-Notebook 部署
  3. OpenMLDB 0.5.2:OpenMLDB 部署,注意是集群版的部署模式,并且 zk 路径要配置成 /openmldb

值得注意的是,如果没有使用对象存储这种共享存储,那么 Byzer-lang, OpenMLDB 需要部署在一台服务器,这样才能互相访问双方产出的文件。

部署时需要注意的几个小问题:

  1. 部署好 JDK8
  2. 请确保一些基础的命令,诸如有 curl、ipconfig 等命令。一般部署脚本里会用到,如果没有,按报错提示安装即可。
  3. 最好使用 bash 执行脚本而不是默认的 sh

对于最后确认是不是安装完成,可以按如下方式进行检查。

首先是检查 OpenMLDB, 用户可以在 OpenMLDB 安装目录里执行如下指令:

./bin/openmldb --zk_cluster=192.168.3.14:7181 --zk_root_path=/openmldb --role=sql_client

顺利连接上后说明是可行的,此时需要初始化一个数据库和表:

> CREATE DATABASE demo_db;
> USE demo_db;
> CREATE TABLE t1(id string, vendor_id int, pickup_datetime timestamp, dropoff_datetime timestamp, passenger_count int, pickup_longitude double, pickup_latitude double, dropoff_longitude double, dropoff_latitude double, store_and_fwd_flag string, trip_duration int);

执行完成后大概这个样子:

file

其次是检查 Byzer ,可以访问服务器的 9002 端口,如果你顺利进入 Byzer-Notebook 显示如下界面,则证明是可行的:

file

数据准备

首先,从 New York City Taxi Trip Duration 下载出租车的数据,解压得到如下数据集:

file

接着进入 Byzer-Notebook 首页,通过 上传 功能上传这个文件:

file

上传后你应该可以在 Byzer-Notebook 的文件系统里看到这个文件:

file

这样,我们数据就准备好了。

接下来,我们会分成三个步骤进行:

  1. 特征/模型训练
  2. 特征部署和模型部署
  3. 端到端的预测能力

这三个步骤对应成三个 Notebook:

file

安装 Byzer-openmldb-3.0 插件

Byzer 和 OpenMLDB 通讯需要一个 Byzer 插件,可以在 Byzer-notebook 里直接执行一条指令来安装:

!plugin app add - "byzer-openmldb-3.0";

注:如果是 sandbox 模式部署的 Byzer, 目前这个方式是无效的。

网速被限定 100k 以内,因为这个插件比较大,所以下载时间较长,需要大家耐心等待。

另外,在 Log Message 标签页会显示 下载进度信息

file

特征/模型训练部分

第一步,加载我们训练的 csv 文件看看:

``

load csv.`/tmp/upload/train.csv` 
where header="true" 
and inferSchema="true"
as taxi_csv_data;

``

执行后输出结果如下:

file

为了方便,我们把这个数据保存到数据湖里,然后再次从数据湖里加载成一张表叫 taxi_tour_table_train_simple

save overwrite taxi_csv_data 
as delta.`public.taxi_tour_table_train_simple` ;

load  delta.`public.taxi_tour_table_train_simple` 
as taxi_tour_table_train_simple;

这样我们的数据就通过 数据湖 管理起来了。数据湖具有版本管理等功能,速度相比 csv 文件也更快。

但是 OpenMLDB 并不能直接访问数据湖,所以,我们还需要把数据导出一份到文件系统中,供 OpenMLDB 使用。

save overwrite taxi_tour_table_train_simple 
as parquet.`/sample_data/data/taxi_tour_table_train_simple`;

保存完成后,在侧面的文件系统里是可以看到下列内容:

file

现在,我们需要让 OpenMLDB 把这个数据加载进去:

-- load the data to FeatureStore offline
-- /home/williamzhu/byzer-home/allwefantasy
run command as FeatureStoreExt.`` where 
zkAddress="192.168.3.14:7181"
and `sql-0`='''
SET @@execute_mode='offline';
'''
and `sql-1`='''
SET @@job_timeout=20000000;
'''
and `sql-2`='''
LOAD DATA INFILE '${HOME}/sample_data/data/taxi_tour_table_train_simple' 
INTO TABLE t1 options(format='parquet', header=true, mode='append');
'''
and db="demo_db"
and action="ddl";

点击执行后效果如下:

file

这里有点小遗憾, 测试的 OpenMLDB 版本的最后输出是一个格式化的字符串,所以显示比较凌乱。

值得注意的是,sql-2 是让 OpenMLDB 加载前面我们产生的文件,这里我们需要传递 ${HOME} 做前缀,因为 Byzer 是多租户的引擎,目录是虚拟目录,只有这样不同用户的目录才不会覆盖。OpenMLDB 要访问 Byzer 的目录,需要添加 ${HOME} 这个前缀。

注释,如果发现 ${HOME} 这个无效,请使用 Byzer Notebook 配置文件中的 notebook.user.home 进行替代。比如我实验的时候的配置是这个: notebook.user.home=/home/williamzhu/byzer-home

OpenMLDB 是异步模式的,所以系统返回给 Byzer 的是一个任务 ID 号。我们可以使用如下代码看看任务是不是完成了:

run command as FeatureStoreExt.`` where 
zkAddress="192.168.3.14:7181"
and `sql-0`='''
SET @@execute_mode='offline';
'''
and `sql-1`='''
SET @@job_timeout=20000000;
'''
and `sql-2`='''
show jobs;
'''
and db="demo_db"
and action="ddl";

!lastCommand named jobs;
select application_id, id, state,end_time  from jobs order by id desc as output;

输出结果如下:

file

可以观察下 state 状态从 Running 变成 FINISHED, 然后可以继续往下走。

数据被加载到 OpenMLDB 后,现在就可以利用它计算特征,计算的特征我们会保存到 /tmp/feature_data 目录中供 Byzer 后续建模使用。

-- compute feature with OpenMLDB
run command as FeatureStoreExt.`` where 
zkAddress="192.168.3.14:7181"
and `sql-0`='''
SET @@execute_mode='offline';
'''
and `sql-1`='''
SET @@job_timeout=20000000;
'''
and `sql-2`='''
SELECT trip_duration, passenger_count,
sum(pickup_latitude) OVER w AS vendor_sum_pl,
max(pickup_latitude) OVER w AS vendor_max_pl,
min(pickup_latitude) OVER w AS vendor_min_pl,
avg(pickup_latitude) OVER w AS vendor_avg_pl,
sum(pickup_latitude) OVER w2 AS pc_sum_pl,
max(pickup_latitude) OVER w2 AS pc_max_pl,
min(pickup_latitude) OVER w2 AS pc_min_pl,
avg(pickup_latitude) OVER w2 AS pc_avg_pl,
count(vendor_id) OVER w2 AS pc_cnt,
count(vendor_id) OVER w AS vendor_cnt
FROM t1
WINDOW w AS (PARTITION BY vendor_id ORDER BY pickup_datetime ROWS_RANGE BETWEEN 1d PRECEDING AND CURRENT ROW),
w2 AS (PARTITION BY passenger_count ORDER BY pickup_datetime ROWS_RANGE BETWEEN 1d PRECEDING AND CURRENT ROW) INTO OUTFILE '${HOME}/tmp/feature_data';
'''
and db="demo_db"
and action="ddl";

执行结果:

file

然后我们到 Byzer-Notebook 侧边的文件系统里,可以看到生成了对应的目录:

file

现在,我们可以用 Byzer 加载 OpenMLDB 产生的特征数据了:

load csv.`/tmp/feature_data` where
header="true"
and inferSchema="true"
as feature_data;

-- !desc feature_data;

执行效果如下:

file

对特征在做一些处理,比如类型转换之类的:

select *, cast(passenger_count as double) as passenger_count_d,
cast(pc_cnt as double) as pc_cnt_d, 
cast(vendor_cnt as double) as vendor_cnt_d 
from feature_data
as new_feature_data;

-- !desc new_feature_data;

file

还可以看看特征之间的关系(这是个可选步骤,需要用到 Byzer 可视化插件,用户感兴趣可以参考文章——《祝威廉:Byzer-yaml-visualiaztion 插件介绍》 ,详见知乎):

select 
passenger_count_d,
vendor_sum_pl,
vendor_max_pl,
vendor_min_pl,
vendor_avg_pl,
pc_sum_pl,
pc_max_pl,
pc_min_pl,
pc_avg_pl,
pc_cnt_d,
vendor_cnt
, trip_duration as label
from new_feature_data 
as visual_data1;

-- 每个 label 按比例抽样
run visual_data1 as RateSampler.`` where sampleRate="0.9,0.1"
as visual_data2;

-- 获得 10% 的数据
select * from visual_data2 where __split__=1 as visual_data;

!visualize visual_data '''
runtime: 
   env: source /home/williamzhu/miniconda3/bin/activate ray-1.12.0
   cache: false
control:
   ignoreSort: true
fig:
   scatter_matrix:       
      color: label
      dimensions: 
        vv_type: code
        vv_value: >- 
            ["passenger_count_d","vendor_sum_pl","pc_sum_pl"]
''';

执行结果如下:

file

最后,我们来生成最后可以给算法直接用的数据:

select vec_dense(array(
passenger_count_d,
vendor_sum_pl,
vendor_max_pl,
vendor_min_pl,
vendor_avg_pl,
pc_sum_pl,
pc_max_pl,
pc_min_pl,
pc_avg_pl,
pc_cnt_d,
vendor_cnt
)) as features, cast(trip_duration as double) as label
from new_feature_data 
as trainning_table;

执行结果如下:

file

接着我们开始训练模型,使用 线性回归 算法来训练:

train trainning_table as LinearRegression.`/model/tax-trip` where

-- once set true,every time you run this script, MLSQL will generate new directory for you model
keepVersion="true"

-- specify the test dataset which will be used to feed evaluator to generate some metrics e.g. F1, Accurate
and evaluateTable="trainning_table"

-- specify group 0 parameters
and `fitParam.0.labelCol`="label"
and `fitParam.0.featuresCol`="features"
and `fitParam.0.maxIter`="30";

模型会被保存在 /model/tax-trip 目录里。

执行结果如下:

file

到此,我们模型训练部分结束。

特征部署和模型部署

既然是端到端,那么我们肯定需要把特征和模型代码都进行部署。部署依然很简单。

第一步部署特征工程:

-- deploy feature logical for online
run command as FeatureStoreExt.`` where 
zkAddress="192.168.3.14:7181"
and `sql-0`='''
SET @@execute_mode='online';
'''
and `sql-1`='''
SET @@job_timeout=20000000;
'''
and `sql-2`='''
DEPLOY demo SELECT trip_duration, passenger_count,
sum(pickup_latitude) OVER w AS vendor_sum_pl,
max(pickup_latitude) OVER w AS vendor_max_pl,
min(pickup_latitude) OVER w AS vendor_min_pl,
avg(pickup_latitude) OVER w AS vendor_avg_pl,
sum(pickup_latitude) OVER w2 AS pc_sum_pl,
max(pickup_latitude) OVER w2 AS pc_max_pl,
min(pickup_latitude) OVER w2 AS pc_min_pl,
avg(pickup_latitude) OVER w2 AS pc_avg_pl,
count(vendor_id) OVER w2 AS pc_cnt,
count(vendor_id) OVER w AS vendor_cnt
FROM t1
WINDOW w AS (PARTITION BY vendor_id ORDER BY pickup_datetime ROWS_RANGE BETWEEN 1d PRECEDING AND CURRENT ROW),
w2 AS (PARTITION BY passenger_count ORDER BY pickup_datetime ROWS_RANGE BETWEEN 1d PRECEDING AND CURRENT ROW);
'''
and db="demo_db"
and action="ddl";

接着模拟一个线上实时数据,方便部署后的使用:

``

-- mock online data
run command as FeatureStoreExt.`` where 
zkAddress="192.168.3.14:7181"
and `sql-0`='''
SET @@execute_mode='online';
'''
and `sql-1`='''
SET @@job_timeout=20000000;
'''
and `sql-2`='''
LOAD DATA INFILE '${HOME}/sample_data/data/taxi_tour_table_train_simple' 
INTO TABLE t1 options(format='parquet', header=true, mode='append');
'''
and db="demo_db"
and action="ddl";

``

最后部署下我们的线性回归模型:

--%deployModel
--%url=http://192.168.3.14:9003

register LinearRegression.`/model/tax-trip` as tax_trip_model_predict;

这些代码都在 tax_trip_deploy.bznb 文件里:

file

好了,现在我们来验证下我们部署的 API 服务。

API 预测

这里,我们可以用 Byzer 的 Shell 插件来使用 curl 来进行预测:

!sh curl -XPOST 'http://192.168.3.14:9003/model/predict' 
-d 'dataType=row&sql=select tax_trip_model_predict(vec_dense(slice(from_json(get_json_object(string(rest_request("http://192.168.3.14:9080/dbs/demo_db/deployments/demo","POST", map("body","{\"input\":[[\"id0376262\",1,1467302350000,1467304896000,2,-73.873093,40.774097,-73.926704,40.856739,\"N\",1]]}"),map("Content-Type" , "application/json"),map())),"$.data.data[0]"),"array<double>"),2,12))) as tax_duration&data=[{doc:[]}]';

执行结果:

file

随意给一条数据,就能预测出租车的时间了。

总结

通过整合 Byzer 和 OpenMLDB,我们不但能实现端到端的机器学习流程,同时还能完成实时特征工程,而且整个流程操作起来简单高效。Byzer+OpenMLDB,未来前景不可限量。

相关链接

OpenMLDB 官网

https://openmldb.ai/

OpenMLDB github 主页

https://github.com/4paradigm/OpenMLDB

OpenMLDB 微信交流群

file