首页 云计算

万亿数据下的多维实时分析系统,如何做到亚秒级响应

 导语

当业务发展到一定规模,实时数据仓库是一个必要的基础服务。从数据驱动方面考虑,多维实时数据分析系统的重要性也不言而喻。但是当数据量巨大的情况下,拿腾讯看点来说,一天上报的数据量达到万亿级的规模,要实现极低延迟的实时计算和亚秒级的多维实时查询是有技术挑战的。本文将介绍一下信息流场景下,腾讯看点的实时数据仓库和多维实时数据分析系统的技术架构。

一、可解决的痛点

可以先看一下,多维实时数据分析系统可以解决哪些痛点。比如:

推荐同学10分钟前上了一个推荐策略,想知道在不同人群的推荐效果怎么样?

运营同学想知道,在广东省的用户中,最火的广东地域内容是哪些,方便做地域Push。

审核同学想知道,过去5分钟,游戏类被举报最多的内容和账号是哪些?

老板可能想了解,过去10分钟有多少用户在看点消费了内容,对消费人群有一个宏观了解。

二、调研

在进行开发之前,我们做了这些调研。

1.离线数据分析平台能否满足这些需求,结论是不能满足。离线数据分析平台不行的原因如下:

 C侧数据上报过来,需要经过Spark的多层离线计算,最终结果出库到Mysql或者ES提供给离线分析平台查询。这个过程的延时最少3-6个小时,目前比较常见的都是提供隔天的查询,所以很多实时性要求高的业务场景都是不能满足的;  另一个问题是,腾讯看点的数据量太大,带来的不稳定性也比较大,经常会有预料不到的延迟。所以,离线分析平台是无法满足很多需求的。

2.实时数据分析平台的话,事业群内部提供了准实时数据查询的功能,底层技术用的是Kudu+Impala,Impala虽然是MPP架构的大数据计算引擎,并且访问以列式存储数据的Kudu。但是对于实时数据分析场景来说,查询响应的速度和数据的延迟都还是比较高,查询一次实时DAU,返回结果耗时至少几分钟,无法提供良好的交互式用户体验。

所以(Kudu+Impala)这种通用大数据处理框架的速度优势更多的是相比(Spark+Hdfs)这种离线分析框架来说的,对于我们这个实时性要求更高的场景,是无法满足的。

三、项目背景

经过刚才的介绍,再来看下我们这个项目的背景。

作者发文的内容被内容中心引入,经过内容审核链路,启用或者下架。启用的内容给到推荐系统和运营系统,然后推荐系统和运营系统将内容进行C侧分发。内容分发给C侧用户之后,用户会产生各种行为,曝光、点击、举报等,通过埋点上报实时接入到消息队列中。

接下来我们做了两部分工作,就是图中有颜色的这两部分。

第一部分构建了一个腾讯看点的实时数据仓库;第二部分就是基于OLAP存储引擎,开发了多维实时数据分析系统。

我们为什么要构建实时数仓,因为原始的上报数据量非常大,一天上报峰值就有上万亿条。而且上报格式混乱。缺乏内容维度信息、用户画像信息,下游没办法直接使用。而我们提供的实时数仓,是根据腾讯看点信息流的业务场景,进行了内容维度的关联,用户画像的关联,各种粒度的聚合,下游可以非常方便的使用实时数据。

四、方案选型

那就看下我们多维实时数据分析系统的方案选型,选型我们对比了行业内的领先方案,选择了最符合我们业务场景的方案。

第一块是实时数仓的选型,我们选择的是业界比较成熟的Lambda架构,他的优点是灵活性高、容错性高、成熟度高和迁移成本低;缺点是实时、离线数据用两套代码,可能会存在一个口径修改了,另一个没改的问题,我们每天都有做数据对账的工作,如果有异常会进行告警。

第二块是实时计算引擎选型,因为Flink设计之初就是为了流处理,SparkStreaming严格来说还是微批处理,Strom用的已经不多了。再看Flink具有Exactly-once的准确性、轻量级Checkpoint容错机制、低延时高吞吐和易用性高的特点,我们选择了Flink作为实时计算引擎。

第三块是实时存储引擎,我们的要求就是需要有维度索引、支持高并发、预聚合、高性能实时多维OLAP查询。可以看到,Hbase、Tdsql和ES都不能满足要求,Druid有一个缺陷,它是按照时序划分Segment,无法将同一个内容,存放在同一个Segment上,计算全局TopN只能是近似值,所以我们选择了最近两年大火的MPP数据库引擎ClickHouse。

五、设计目标与设计难点

我们多维实时数据分析系统分为三大模块:

 实时计算引擎;  实时存储引擎;  App层。

难点主要在前两个模块:实时计算引擎和实时存储引擎。

 千万级/s的海量数据如何实时接入,并且进行极低延迟维表关联;  实时存储引擎如何支持高并发写入、高可用分布式和高性能索引查询,是比较难的。

这几个模块的具体实现,看一下我们系统的架构设计。

六、架构设计

前端采用的是开源组件Ant Design,利用了Nginx服务器,部署静态页面,并反向代理了浏览器的请求到后台服务器上。

后台服务是基于腾讯自研的RPC后台服务框架写的,并且会进行一些二级缓存。

实时数仓部分,分为了接入层、实时计算层和实时数仓存储层。

 接入层主要是从千万级/s的原始消息队列中,拆分出不同行为数据的微队列,拿看点的视频来说,拆分过后,数据就只有百万级/s了;  实时计算层主要负责,多行行为流水数据进行行转列,实时关联用户画像数据和内容维度数据;  实时数仓存储层主要是设计出符合看点业务的,下游好用的实时消息队列。我们暂时提供了两个消息队列,作为实时数仓的两层。一层DWM层是内容ID-用户ID粒度聚合的,就是一条数据包含内容ID-用户ID还有B侧内容数据、C侧用户数据和用户画像数据;另一层是DWS层,是内容ID粒度聚合的,一条数据包含内容ID,B侧数据和C侧数据。可以看到内容ID-用户ID粒度的消息队列流量进一步减小到十万级/s,内容ID粒度的更是万级/s,并且格式更加清晰,维度信息更加丰富。

实时存储部分分为实时写入层、OLAP存储层和后台接口层。

 实时写入层主要是负责Hash路由将数据写入;  OLAP存储层利用MPP存储引擎,设计符合业务的索引和物化视图,高效存储海量数据;  后台接口层提供高效的多维实时查询接口。

七、实时计算

这个系统最复杂的两块,实时计算和实时存储。先介绍实时计算部分:分为实时关联和实时数仓。

1、实时高性能维表关联

实时维表关联这一块难度在于。百万级/s的实时数据流,如果直接去关联HBase,1分钟的数据,关联完HBase耗时是小时级的,会导致数据延迟严重。

我们提出了几个解决方案:

第一个是,在Flink实时计算环节,先按照1分钟进行了窗口聚合,将窗口内多行行为数据转一行多列的数据格式,经过这一步操作,原本小时级的关联耗时下降到了十几分钟,但是还是不够的。

第二个是,在访问HBase内容之前设置一层Redis缓存,因为1000条数据访问HBase是秒级的,而访问Redis是毫秒级的,访问Redis的速度基本是访问HBase的1000倍。为了防止过期的数据浪费缓存,缓存过期时间设置成24小时,同时通过监听写HBase Proxy来保证缓存的一致性。这样将访问时间从十几分钟变成了秒级。

第三个是,上报过程中会上报不少非常规内容ID,这些内容ID在内容HBase中是不存储的,会造成缓存穿透的问题。所以在实时计算的时候,我们直接过滤掉这些内容ID,防止缓存穿透,又减少一些时间。

第四个是,因为设置了定时缓存,会引入一个缓存雪崩的问题。为了防止雪崩,我们在实时计算中,进行了削峰填谷的操作,错开设置缓存的时间。

可以看到,优化前后,数据量从百亿级减少到了十亿级,耗时从小时级减少到了数十秒,减少99%。

2、下游提供服务

实时数仓的难度在于:它处于比较新的领域,并且各个公司各个业务差距比较大,怎么能设计出方便,好用,符合看点业务场景的实时数仓是有难度的。

先看一下实时数仓做了什么,实时数仓对外就是几个消息队列,不同的消息队列里面存放的就是不同聚合粒度的实时数据,包括内容ID、用户ID、C侧行为数据、B侧内容维度数据和用户画像数据等。

我们是怎么搭建实时数仓的,就是上面介绍的实时计算引擎的输出,放到消息队列中保存,可以提供给下游多用户复用。

我们可以看下,在我们建设实时数据仓库前后,开发一个实时应用的区别。没有数仓的时候,我们需要消费千万级/s的原始队列,进行复杂的数据清洗,然后再进行用户画像关联、内容维度关联,才能拿到符合要求格式的实时数据,开发和扩展的成本都会比较高,如果想开发一个新的应用,又要走一遍这个流程。有了数仓之后,如果想开发内容ID粒度的实时应用,就直接申请TPS万级/s的DWS层的消息队列。开发成本变低很多,资源消耗小很多,可扩展性也强很多。

看个实际例子,开发我们系统的实时数据大屏,原本需要进行如上所有操作,才能拿到数据。现在只需要消费DWS层消息队列,写一条Flink SQL即可,仅消耗2个cpu核心,1G内存。

可以看到,以50个消费者为例,建立实时数仓前后,下游开发一个实时应用,可以减少98%的资源消耗。包括计算资源,存储资源,人力成本和开发人员学习接入成本等等。并且消费者越多,节省越多。就拿Redis存储这一部分来说,一个月就能省下上百万人民币。

八、实时存储

介绍完实时计算,再来介绍实时存储。这块分为三个部分来介绍:

 分布式-高可用;  海量数据-写入;  高性能-查询。

1、分布式-高可用

我们这里听取的是Clickhouse官方的建议,借助ZK实现高可用的方案。数据写入一个分片,仅写入一个副本,然后再写ZK,通过ZK告诉同一个分片的其他副本,其他副本再过来拉取数据,保证数据一致性。

这里没有选用消息队列进行数据同步,是因为ZK更加轻量级。而且写的时候,任意写一个副本,其它副本都能够通过ZK获得一致的数据。而且就算其它节点第一次来获取数据失败了,后面只要发现它跟ZK上记录的数据不一致,就会再次尝试获取数据,保证一致性。

2、海量数据-写入

数据写入遇到的第一个问题是,海量数据直接写入Clickhouse的话,会导致ZK的QPS太高,解决方案是改用Batch方式写入。Batch设置多大呢,Batch太小的话缓解不了ZK的压力,Batch也不能太大,不然上游内存压力太大,通过实验,最终我们选用了大小几十万的Batch。

第二个问题是,随着数据量的增长,单QQ看点的视频内容每天可能写入百亿级的数据,默认方案是写一张分布式表,这就会造成单台机器出现磁盘的瓶颈,尤其是Clickhouse底层运用的是Mergetree,原理类似于HBase、RocketsDb的底层LSM-Tree。在合并的过程中会存在写放大的问题,加重磁盘压力。峰值每分钟几千万条数据,写完耗时几十秒,如果正在做Merge,就会阻塞写入请求,查询也会非常慢。我们做的两个优化方案:一是对磁盘做Raid,提升磁盘的IO;二是在写入之前进行分表,直接分开写入到不同的分片上,磁盘压力直接变为1/N。

第三个问题是,虽然我们写入按照分片进行了划分,但是这里引入了一个分布式系统常见的问题,就是局部的Top并非全局Top的问题。比如同一个内容ID的数据落在了不同的分片上,计算全局Top100阅读的内容ID,有一个内容ID在分片1上是Top100,但是在其它分片上不是Top100,导致汇总的时候,会丢失一部分数据,影响最终结果。我们做的优化是在写入之前加上一层路由,将同一个内容ID的记录,全部路由到同一个分片上,解决了该问题。

介绍完写入,下一步介绍Clickhouse的高性能存储和查询。

3、高性能-存储-查询

Clickhouse高性能查询的一个关键点是稀疏索引。稀疏索引这个设计就很有讲究,设计得好可以加速查询,设计不好反而会影响查询效率。我根据我们的业务场景,因为我们的查询大部分都是时间和内容ID相关的,比如说,某个内容,过去N分钟在各个人群表现如何?我按照日期,分钟粒度时间和内容ID建立了稀疏索引。针对某个内容的查询,建立稀疏索引之后,可以减少99%的文件扫描。

还有一个问题就是,我们现在数据量太大,维度太多。拿QQ看点的视频内容来说,一天流水有上百亿条,有些维度有几百个类别。如果一次性把所有维度进行预聚合,数据量会指数膨胀,查询反而变慢,并且会占用大量内存空间。我们的优化,针对不同的维度,建立对应的预聚合物化视图,用空间换时间,这样可以缩短查询的时间。

分布式表查询还会有一个问题,查询单个内容ID的信息,分布式表会将查询下发到所有的分片上,然后再返回查询结果进行汇总。实际上,因为做过路由,一个内容ID只存在于一个分片上,剩下的分片都在空跑。针对这类查询,我们的优化是后台按照同样的规则先进行路由,直接查询目标分片,这样减少了N-1/N的负载,可以大量缩短查询时间。而且由于我们是提供的OLAP查询,数据满足最终一致性即可,通过主从副本读写分离,可以进一步提升性能。

我们在后台还做了一个1分钟的数据缓存,针对相同条件查询,后台就直接返回了。

4、扩容

这里再介绍一下我们的扩容的方案,调研了业内的一些常见方案。

比如HBase,原始数据都存放在HDFS上,扩容只是Region Server扩容,不涉及原始数据的迁移。但是Clickhouse的每个分片数据都是在本地,是一个比较底层存储引擎,不能像HBase那样方便扩容。

Redis是哈希槽这种类似一致性哈希的方式,是比较经典分布式缓存的方案。Redis slot在Rehash的过程中虽然存在短暂的ask读不可用,但是总体来说迁移是比较方便的,从原h[0]迁移到h[1],最后再删除h[0]。但是Clickhouse大部分都是OLAP批量查询,不是点查,而且由于列式存储,不支持删除的特性,一致性哈希的方案不是很适合。

目前扩容的方案是,另外消费一份数据,写入新Clickhouse集群,两个集群一起跑一段时间,因为实时数据就保存3天,等3天之后,后台服务直接访问新集群。

九、成果

腾讯看点实时数据仓库:DWM层和DWS层,数据延迟1分钟。

远见多维实时数据分析系统:亚秒级响应多维条件查询请求,在未命中缓存情况下,过去30分钟的查询,99%的请求耗时在1秒内;过去24小时的查询,90%的请求耗时在5秒内,99%的请求耗时在10秒内。

 

官方微博/微信

每日头条、业界资讯、热点资讯、八卦爆料,全天跟踪微博播报。各种爆料、内幕、花边、资讯一网打尽。百万互联网粉丝互动参与,TechWeb官方微博期待您的关注。

↑扫描二维码

想在手机上看科技资讯和科技八卦吗?

想第一时间看独家爆料和深度报道吗?

请关注TechWeb官方微信公众帐号:

1.用手机扫左侧二维码;

2.在添加朋友里,搜索关注TechWeb。

手机游戏更多