| 首页  |  资讯  |  评测  |  活动  |  学院  |  专题  |  杂志  |  产服  |  
您现在的位置:硅谷网> 资讯> 软件>

滴滴 x StarRocks:极速多维分析创造更大的业务价值

2021-09-27 16:00 作者:王鹏 来源:硅谷网综合 关注: 编辑:GuiGu 【搜索试试

滴滴集团作为生活服务领域的头部企业,正在全面测试和上线StarRocks。其中橙心优选经过一年多的数据体系建设,我们逐渐将一部分需要实时交互查询、即席查询的多维数据分析需求由ClickHouse迁移到了StarRocks中,StarRocks在稳定性、实时性方面也给了我们良好的体验,接下来以StarRocks实现的漏斗分析为例介绍StarRocks在橙心优选运营数据分析应用中的实践。

作者:王鹏 滴滴橙心优选数据架构部资深数据架构开发工程师,负责橙心优选大数据基础服务和数据应用的开发与建设

需求介绍

当前我们数据门户上的漏斗分析看板分散,每个看板通常只能支持一个场景的漏斗分析,不利于用户统一看数或横向对比等,看板无法支持自选漏斗步骤、下钻拆解等灵活分析的功能。因此,我们需要一款能覆盖更全的流量数据,支持灵活筛选维度、灵活选择漏斗,提供多种分析视角的漏斗分析工具,并定位流失人群、转化人群,从而缩小问题范围,精准找到运营策略、产品设计优化点,实现精细化运营。

技术选型

电商场景的流量日志、行为日志一般会比传统场景下的数据量大很多,因此在这样的背景下做漏斗分析给我们带来了两大技术挑战:

·日增数据量大:日增千万级数据,支持灵活选择维度,如何快速地对亿级数据量进行多维分析

·对数据分析时效性要求高:如何快速地基于亿级数据量精确去重,获取符合条件的用户数量

StarRocks与ClickHouse在橙心内部都有广泛的应用,我们也积累了丰富的经验,但StarRocks在易用性和可维护性上都比ClickHouse更胜一筹,下面这张表格是我们在使用过程中对两者功能的一个简单对比:

经过不断地对比和压测,我们最终决定使用StarRocks来存储需要进行漏斗分析的数据,因为StarRocks在SQL监控、运维方面相比ClickHouse的优势明显,而且我们可以为了满足不同的查询场景,基于漏斗分析明细表创建各种各样的物化视图,提高多维数据分析的速度。

系统架构

系统各层职责说明如下:

1、数据源:主要是web端、客户端的埋点日志,这些埋点日志源源不断地上传给我们的数据接入层

2、数据接入层:

(1)数据接入总线:提供多种数据源的接入接口,接收并校验数据,对应用层屏蔽复杂的数据格式,对埋点日志进行校验和简单地清洗、转换后,将日志数据推送到Kafka集群

(2)Kafka集群:数据接入总线与数据计算集群的中间层。数据接入总线的对应接口将数据接收并校验完成后,将数据统一推送给Kafka集群。Kafka集群解耦了数据接入总线和数据计算集群,利用Kafka自身的能力,实现流量控制,释放高峰时日志数据量过大对下游计算集群、存储系统造成的压力

3、数据计算与存储层:

(1)数据计算集群:数据存入Kafka集群后,根据不同的业务需求,使用Flink或者Spark对数据进行实时和离线ETL,并批量保存到StarRocks数据仓库

(2)StarRocks数据仓库:Spark+Flink通过流式数据处理方式将数据存入StarRocks,我们可以根据不同的业务场景在StarRocks里创建明细表、聚合表和更新表以及物化视图,满足业务方多样的数据使用要求

4、数据服务层:内部统一指标定义模型、指标计算逻辑,为各个应用方提供统一的离线查询接口和实时查询接口

5、漏斗分析系统:支持灵活创建和编辑漏斗,支持漏斗数据查看,漏斗明细数据导出

6、数据中台:围绕大数据数据生产与使用场景,提供元数据管理、数据地图、作业调度等通用基础服务,提升数据生产与使用效率

详细设计

目前,基于StarRocks的bitmap类型只能接受整型值作为输入,由于我们原始表的user_id存在字母数字混合的情况,无法直接转换成整型,因此为了支持bitmap计算,需要将当前的user_id转换成全局唯一的数字ID。我们基于Spark+Hive的方式构建了原始用户ID与编码后的整型用户ID一一映射的全局字典,全局字典本身是一张Hive表,Hive表有两个列,一个是原始值,一个是编码的Int值。以下是全局字典的构建流程:

1、将原始表的字典列去重生成临时表:

临时表定义:

create table 'temp_table'{

'user_id' string COMMENT '原始表去重后的用户ID'

}

字典列去重生成临时表:

insert overwrite table temp_table select user_id from fact_log_user_hive_table group by user_id

2、临时表和全局字典进行left join,悬空的词典项为新value,对新value进行编码并插入全局字典:

全局字典表定义:

create table 'global_dict_by_userid_hive_table'{

'user_id' string COMMENT '原始用户ID',

'new_user_id' int COMMENT '对原始用户ID编码后的整型用户ID'

}

将临时表和全局字典表进行关联,未匹配中的即为新增用户,需要分配新的全局ID,并追加到全局字典表中。全局ID的生成方式,是用历史表中当前的最大的用户ID加上新增用户的行号:

--4 更新Hive字典表

insert overwrite global_dict_by_userid_hive_table

select user_id, new_user_id from global_dict_by_userid_hive_table

--3 与历史的字段数据求并集

union all select t1.user_id,

--2 生成全局ID:用全局字典表中当前的最大用户ID加上新增用户的行号

(row_number() over(order by t1.user_id) + t2.max_id) as new_user_id

--1 获得新增的去重值集合

from

(

select user_id from temp_table

where user_id is not null

) t1

left join

(

select user_id, new_user_id, (max(new_user_id) over()) as max_id from

global_dict_by_userid_hive_table

) t2

on

t1.user_id = t2.user_id

where t2.newuser_id is null

3、原始表和更新后的全局字典表进行left join,将新增用户的ID和编码后的整型用户ID插入到原始表中:

insert overwrite fact_log_user_hive_table

select

a.user_id,

b.new_user_id

from

fact_log_user_hive_table a left join global_dict_by_userid_hive_table b

on a.user_id=b.user_id

4、创建Spark离线同步任务完成Hive原始表到StarRocks明细表的数据同步:StarRocks表fact_log_user_doris_table定义(Hive表fact_log_user_hive_table与该表的结构一致):

CREATE TABLE `fact_log_user_doris_table` (

`new_user_id` bigint(20) NULL COMMENT "整型用户id",

`user_id` varchar(65533) NULL COMMENT "用户id",

`event_source` varchar(65533) NULL COMMENT "端(1:商城小程序 2:团长小程序 3:独立APP 4:主端)",

`is_new` varchar(65533) NULL COMMENT "是否新用户",

`identity` varchar(65533) NULL COMMENT "用户身份(团长或者普通用户)",

`biz_channel_name` varchar(65533) NULL COMMENT "当天首次落地页渠道名称",

`pro_id` varchar(65533) NULL COMMENT "省ID",

`pro_name` varchar(65533) NULL COMMENT "省名称",

`city_id` varchar(65533) NULL COMMENT "城市ID",

`city_name` varchar(65533) NULL COMMENT "城市名称",

`dt` date NULL COMMENT "分区",

`period_type` varchar(65533) NULL DEFAULT "daily" COMMENT ""

) ENGINE=OLAP

DUPLICATE KEY(`index_id`, `user_id`, `biz_channel_name`, `pro_id`, `city_id`)

PARTITION BY RANGE(`dt`)(

PARTITION p20210731 VALUES [('2021-07-31'), ('2021-08-01')),

PARTITION p20210801 VALUES [('2021-08-01'), ('2021-08-02')),

PARTITION p20210802 VALUES [('2021-08-02'), ('2021-08-03')),

PARTITION p20210803 VALUES [('2021-08-03'), ('2021-08-04')),

PARTITION p20210804 VALUES [('2021-08-04'), ('2021-08-05')),

PARTITION p20210805 VALUES [('2021-08-05'), ('2021-08-06')),

PARTITION p20210806 VALUES [('2021-08-06'), ('2021-08-07')),

PARTITION p20210807 VALUES [('2021-08-07'), ('2021-08-08')),

PARTITION p20210808 VALUES [('2021-08-08'), ('2021-08-09')))

DISTRIBUTED BY HASH(`index_id`, `user_id`) BUCKETS 10

PROPERTIES (

"replication_num" = "3",

"dynamic_partition.enable" = "true",

"dynamic_partition.time_unit" = "DAY",

"dynamic_partition.time_zone" = "Asia/Shanghai",

"dynamic_partition.start" = "-2147483648",

"dynamic_partition.end" = "1",

"dynamic_partition.prefix" = "p",

"dynamic_partition.replication_num" = "-1",

"dynamic_partition.buckets" = "3",

"in_memory" = "false",

"storage_format" = "DEFAULT"

);

在这里我们使用了StarRocks的明细模型来建表,满足用户查询漏斗明细数据的使用场景,在明细表上根据不同的多维漏斗分析查询需求创建相应的物化视图,来满足用户选择不同维度查看漏斗模型每一步骤用户精确去重数量的使用场景。

5、创建bitmap_union物化视图提升查询速度,实现count(distinct)精确去重:

由于用户想要在漏斗模型上查看一些城市用户转化情况。

查询一般为:

select city_id, count(distinct new_user_id) as countDistinctByID from fact_log_user_doris_table where `dt` >= '2021-08-01' AND `dt` <= '2021-08-07' AND `city_id` in (11, 12, 13) group by city_id

针对这种根据城市求精确用户数量的场景,我们可以在明细表fact_log_user_doris_table上创建一个带 bitmap_union 的物化视图从而达到一个预先精确去重的效果,查询时StarRocks会自动将原始查询路由到物化视图表上,提升查询性能。针对这个case创建的根据城市分组,对user_id进行精确去重的物化视图如下:

create materialized view city_user_count as select city_id,bitmap_union(to_bitmap(new_user_id)) from fact_log_user_doris_table group by city_id;

在StarRocks中,count(distinct)聚合的结果和bitmap_union_count聚合的结果是完全一致的。而bitmap_union_count等于bitmap_union的结果求 count,所以如果查询中涉及到count(distinct) 则通过创建带bitmap_union聚合的物化视图方可加快查询。因为new_user_id本身是一个INT类型,所以在 StarRocks 中需要先将字段通过函数to_bitmap转换为bitmap类型然后才可以进行bitmap_union聚合。

采用这种构建全局字典的方式,我们通过每日凌晨跑Spark离线同步任务实现全局字典的更新,以及对原始表中 Value 列的替换,同时对Spark任务配置基线和数据质量报警,保障任务的正常运行和数据的准确性,确保次日运营和市场同学能看到之前的运营活动对用户转化率产生的影响,以便他们及时调整运营策略,保证日常运营活动效果。

最终效果及收益

经过产品和研发同学的共同努力,我们从需要查询的城市数量、时间跨度、数据量三个维度对精确去重功能进行优化,亿级数据量下150个城市ID精确去重查询整体耗时3秒以内,以下是漏斗分析的最终效果:

未来规划

1.完善StarRocks内部工具链的开发,同滴滴大数据调度平台和数据开发平台整合,实现MySQL、ES、Hive等数据表一键接入StarRocks。

2.StarRocks流批一体建设,由于StarRocks提供了丰富的数据模型,我们可以基于更新模型和明细模型以及物化视图构建流批一体的数据计算与存储模型,目前正在方案落地阶段,完善后会推广到橙心各个方向的数据产品上。

3.基于StarRocks On ElasticSearch的能力,实现异构数据源的统一OLAP查询,赋能不同场景的业务需求,加速数据价值产出。

后续我们也会持续关注StarRocks,在内部不断的升级迭代。期待StarRocks能提供更丰富的功能,和更开放的生态。StarRocks后续也会作为OLAP平台的重要组件,实现OLAP层的统一存储,统一分析,统一管理。

【对“滴滴 x StarRocks:极速多维分析创造更大的业务价值”发布评论】

版权及免责声明:
① 本网站部分投稿来源于“网友”,涉及投资、理财、消费等内容,请亲们反复甄别,切勿轻信。本网站部分由赞助商提供的内容属于【广告】性质,仅供阅读,不构成具体实施建议,请谨慎对待。据此操作,风险自担。
② 内容来源注明“硅谷网”及其相关称谓的文字、图片和音视频,版权均属本网站所有,任何媒体、网站或个人需经本网站许可方可复制或转载,并在使用时必须注明来源【硅谷网】或对应来源,违者本网站将依法追究责任。
③ 注明来源为各大报纸、杂志、网站及其他媒体的文章,文章原作者享有著作权,本网站转载其他媒体稿件是为传播更多的信息,并不代表赞同其观点和对其真实性负责,本网站不承担此类稿件侵权行为的连带责任。
④ 本网站不对非自身发布内容的真实性、合法性、准确性作担保。若硅谷网因为自身和转载内容,涉及到侵权、违法等问题,请有关单位或个人速与本网站取得联系(联系电话:01057255600),我们将第一时间核实处理。
广告
相关
·StarRocks开源——携手未来,星辰大海!
·滴滴出行严重违法违规收集使用个人信息被下架整
·为什么这款应用能跻身滴滴、美团等亿级APP行列
·“滴滴”品牌升级,容联云通讯协力整治刷单难题
·听歌寂寞怎么办 天天动听推出“滴滴求歌”功能
·滴滴Uber都融资了 阿里的快的却成了鸡肋
·滴滴专车被指非法运营遭多地叫停 交通部将再调研
·滴滴打车被指出租车无人接单 专车服务隐忧多
头条
滴滴出行严重违法违规收集使用个人信息被下架整改 滴滴出行严重违法违规收集使用个人信息被下架
网信中国微信公众号2021年7月4日消息:根据举报,经检测核实,滴滴出行App存在严重违……
·谷歌2021年9月份起禁止安卓2.3.7设备登录谷歌
·滴滴出行严重违法违规收集使用个人信息被下架
·微软透露对Windows10系统支持将于2025年10月
·谷歌Android 12测试版反广告跟踪设置不如iOS
·抖音、快手等App违法违规收集使用个人信息被
图文
滴滴 x StarRocks:极速多维分析创造更大的业务价值
滴滴 x StarRocks:极速多维分析创造更大的
从费控SaaS软件对比看中国智能云财务发展
从费控SaaS软件对比看中国智能云财务发展
知米背单词APP那些不为人知的小细节(图)
知米背单词APP那些不为人知的小细节(图)
Realme引入广告什么情况 Realme广告怎么设置关闭?
Realme引入广告什么情况 Realme广告怎么设
热点
·群控、云控时代即将终结,智控时代已到来
·106短信群发平台APP,致力于成为领域内佼佼者
·DT小听App:防偷拍,还是用这款国产app(图)
·软件技术行业发展变化非常快,软件人才要按需
·嗨学网一级消防可靠吗?新手妈妈亲生经历告诉
旧闻
·用友软件19亿定增计划夭折 单季巨亏股价大跌
·Mozilla:火狐OS比Android更适合低端智能手机
·浅谈ARIS流程管理工具与博阳咨询领先eBPM方法
·喜推微信小程序 帮助房产经纪人高效卖房
·“迅雷远程下载激情99小时比赛”火热开启
广告
硅谷精选
滴滴 x StarRocks:极速多维分析创造更大的业务价值
滴滴 x StarRocks:极速多维分析创造更大的业务价值
从费控SaaS软件对比看中国智能云财务发展
从费控SaaS软件对比看中国智能云财务发展
巨量引擎“新搜索”:从营销工具到营销枢纽
巨量引擎“新搜索”:从营销工具到营销枢纽
为开发者省下80%的开发工作量,Serverless真的要成为未来?
为开发者省下80%的开发工作量,Serverless真的要成为
凌华科技推出边缘视觉分析软件开发套件EVA SDK加速边缘AI视觉
凌华科技推出边缘视觉分析软件开发套件EVA SDK加速边
用友BIP自动化设计工具“码前”正式发布 聚焦人效变革
用友BIP自动化设计工具“码前”正式发布 聚焦人效变革
关于我们·About | 联系我们·contact | 加入我们·Join | 关注我们·Invest | Site Map | Tags | RSS Map
电脑版·PC版 移动版·MD版 网站热线:(+86)010-57255600
Copyright © 2007-2021 硅谷网. 版权所有. All Rights Reserved. <备案号:京ICP备12003855号-2>