|
|
|
|
移动端

SLA 99.99%以上!饿了么实时计算平台3年演进历程

今天主要给大家分享饿了么在实时计算平台方面的一些演进经验,整个实时平台经历了从无到有、快速发展、平台化的阶段,每个阶段都面临着不同的问题。

作者:倪增光来源:51CTO技术栈|2018-04-11 09:36

有奖调研 | 1TB硬盘等你拿 AI+区块链的发展趋势及应用调研


今天主要给大家分享饿了么在实时计算平台方面的一些演进经验,整个实时平台经历了从无到有、快速发展、平台化的阶段,每个阶段都面临着不同的问题。

饿了么 BDI-大数据平台研发团队目前共有 20 人左右,主要负责离线&实时 Infra 和平台工具开发。

其中包括 20+ 组件的开发和维护、2K+ Servers 运维及数据平台周边衍生工具研发&维护。离线 Infra 和平台工具这一块对外分享的比较多。

饿了么实时计算平台整体规模和架构

首先介绍下目前饿了么实时计算平台的整体规模:

  • 4 Kafka 集群,单 Kafka 高峰100wmsg/s。
  • 2 ELK 集群用来做日志检索,全网索引量 86w/s。
  • 4 Storm 集群,根据业务 SLA 进行物理拆分,全网高峰计算量 1.6kw/s。
  • 2 Spark Streaming 集群和 2 个 Flink 集群,都是 On Yarn 模式,其中 Flink 在做一些线上业务尝试。
  • 20 个以上业务方接入,共 120+ Storm 任务(包括双活 & DataPipeline 业务)、26+ Spark Streaming 任务、10+ Streaming SQL 任务,涉及实时搜索推荐、实时风控、实时监控、实时营销等项目。

饿了么实时计算平台整体架构图如下:

从上图可以看到,包括了数据采集、传输、计算、落地还有服务。组件多且系统压力大,部分业务直接应用于关键路径,要求整体的 SLA 要在 99.99% 以上。

饿了么实时计算平台演进过程

饿了么实时计算平台的演讲过程经历了几个阶段:从无到有、快速发展、平台化。

从无到有

饿了么从 2015 年 5 月份上线实时计算,这个阶段面临如下几个问题:

  • 需求少。实时业务在公司推广不够,只有一个 UBT Domain QoS 分析需求,用来计算网站错误率、HTTPCode 分布、页面加载速度等 QoS 数据。
  • 数据源单一。数据源只有用户行为 Log,缺乏订单、运单等核心 DB 数据。
  • 容量有限。集群规模不到 20 台,且和离线混部,要同时支持实时+离线需求,存在资源竞争。
  • 稳定性问题。缺乏统一的使用标准姿势,各组件应用问题也比较多。比如每种应用需要什么类型的机器、怎么样最佳化配置……同时因为使用的开源组件版本较旧,存在一些稳定性 Bug。
  • 数据延迟和数据不全。因为在初始技术选项上存在问题,在数据采集端使用了自行开发的 Python 程序。

同时使用了跨机房的传输,导致经常出现数据丢失和延迟问题。最严重时,实时的数据在高峰期要 Delay 2 个小时以上,基本不可用。

这个阶段主要解决了环境、稳定性、数据延迟和数据丢失的问题,主要做了如下工作。

针对环境和标准化问题:

  • 根据业务特点确定新机型配置(区分计算密集型、内存密集型、IO 密集型、混合密集型等)。
  • 设定各组件部署规范&参数规范,包括环境变量、内核参数、应用参数等:比如对 JVM 参数的调整、对 ZK/Kafka 的配置优化。
  • 包括硬件的标准:比如旧的 Kafka 不支持 JBOD Markdown ,因此我们会对磁盘做 RAID,增强系统的可用性。
  • 实时和离线进行拆分,独立部署,避免资源的争用。
  • 对现有组件升级,修复稳定性 Bug(比如 Storm 版本演进 0.9.4->0.9.6 到后面的 1.0.1、1.0.3)。
  • 同时基于环境的标准化和自动化考虑,引入了 Puppet 做环境配置收敛保持,Ansible 做自动化部署,并做成一键管理工具,可以快速地维护。

针对稳定性问题:

  • 在数据采集侧,为了减少对 App 端的流量消耗,同时增强整体传输的效率,在 App 端引入 Merge+Gzip,在 SDK 把多条消息 Merge 成一条压缩后发送到 Nginx Server,并在 Nginx 端用 Lua 进行解压,以 AccessLog 的方式落地。
  • 在数据传输侧,重新调研数据传输方案,考虑到团队以 Java 为技术栈,以及外部案例,引入了 Flume 作为数据采集管道。

以 Tail Log 的形式进行数据采集并 Sink 到 Kafka 集群,并基于 HDFS Sink 开发根据 EventTime 的 Partition 功能,同时 fix Backlog 和 Kafka Sink 的 Bug。

  • 在数据落地侧,为了存储中间状态结果,引入 KV 存储。最初使用单机 Redis 存储数据,set 去重,遇到了严重的性能问题,所以后面开始逐步使用 Self Sharding->Redis+Tewmproxy 的方式,但是维护成本比较高。

后面随着 Redis Cluster 稳定版 Release 开始逐步迁移到 Cluster 模式,这个阶段公司在 NoSQL 的经验一直不足,所以都是团队内部不断地摸索前进。

这个阶段实时架构如下图所示:

这个阶段整个平台研发只有 4 个人,既要负责离线、实时、平台工具的开发和维护,还要支撑业务的开发,资源比较紧张,实时方面投入捉襟见肘。

虽然解决了基本的稳定性 & 数据延迟和丢失的问题,但是整体链路 SLA 还是不高,同时还存在数据源单一、应用单一的问题。

快速发展

2016 年公司业务大力发展,实时方面的需求越来越多。SLA 不高、数据源单一、应用单一的问题亟待解决。

由于业务需求,需开发实时 Dashboard 来实时关注业务情况,涉及流量、订单、运单等重要数据,项目需要涉及不同的数据源(Log & DB &业务数据),同时要求 SLA 99.99% 以上。

为了提高整体的 SLA,同时覆盖 DB 侧的数据源,针对整个链路做了如下调整优化:

数据源方面:

  • 优化 UBT(Nginx AccessLog)传输效率,调整 Flume 和 Kafka 的 Batch 大小、增加 Flume Timeout send 功能(默认 Flume1.6.0只有 Batch 的控制,没有 Timeout 的控制,会导致低峰时消息 Delay 变大)。考虑到 Batch Size 越大吞吐量越高,相应延迟也越大,因此需要针对吞吐量 & 实时性要求做 Trade Off。

通过线上数据的分析,最终把 Batch Size 调整到 10,Timeout 调整到100ms,最终 UBT 数据链路(从采集 Server 到计算落地)延迟降低 99.9%<1s。

  • 同时为了防止异常流量导致日志收集端雪崩,引入了 Nginx 限流限速模块。
  • 为了满足 Binlog 数据采集的需求引入 OR 做解析工具,为防止 OR 异常退出导致数据丢失问题,开发基于 ZK 存储 Offset 功能,在异常 Crash 重启后继续上次的 Offset 消费即可。

计算方面:

  • 前面提到用户 Log 是合并发送,在 Kafka 中的表现是多条 Merge 成一条,应用如果需要使用的话,需要按照一定的规则 Split。

同时每个业务关注的 Type 不一样,不同的业务需要全量消费所有 Log,同时需要自行进行 Split,计算量大,维护成本比较高。

为了解决这个问题引入了双层 Kafka 结构,在第一层进行统一的 Split 和 Filter,过滤异常流量,同时分 Type 写入二层 Topic,这样每个消费方只需消费对应的数据部分即可,整体流量相关业务计算量对比之前降低了一半以上。

  • 涉及 UV 计算的场景,初始使用 Redis Set 去重,但是内存消耗过大。由于 UV 指标允许 1% 以内误差,在精度和时空效率上做 Trade Off,转而使用 Redis 的 HLL 来估算。

随着业务量的增大,Redis 的 QPS 成为瓶颈,同时 Redis 无法跨实例进行 HLL 的 Merge,又演化为基于内存的 HLL 估算和 Merge,同时使用 Redis 直接存储对象,节省百倍内存的同时,支持多维度的 Merge 操作。

  • 同时考虑到多个系统共用 ZK,ZK 可能存在比较大的压力,因此通过分析 ZK 的 Transaction Log 来确定调用分布。

比如通过分析发现 Storm Worker 的 Heartbeat 会频繁访问 ZK,因此通过增加 Heartbeat Commit 时间减少 ZK 的压力。

  • 为了减少重复的代码开发,对基础组件进行了封装:包括数据消费、去重、累加、数据写入等算子,最终减少了部分任务 50% 的代码量,提高了整体的开发效率,让用户关注业务逻辑即可。

封装组件列表

运维管理方面:

  • 为了解整体的容量情况,开发实时容量看板,通过实时获取 Zabbix Item LastValue 来监控 Storm & Redis Cluster 实时压力情况。
  • 为方便用户可以快速查看任务 Log 引入 ELK,同时在 Kafka2es 这一层引入 Hangout 替代 Flume (可支持 3x 以上性能提升)。

最终实现了 Storm Top Log->Logstash->Kafka->Hangout->ES->Kanbana 的整个 Log 链路。

整体 SLA 增强方面:

  • 数据采集侧和计算侧均引入限速 & 反压功能,防止流量暴涨导致的雪崩效应。
  • 从数据采集到数据最终落地使用双链路的方式,并采用多机房方式:比如数据采集端分布在异地两机房,使用本地计算+最终 Merge 或者数据双向传输+全量计算的方式。
  • 配合 Kafka Binlog 数据的重放和 Nginx 模拟访问,对全链路进行模拟压测,配合实时监控 & 业务表现来关注各组件的性能临界点。
  • 基于 3 的数据进行容量规划,同时做好资源的隔离。
  • 完善各层面的监控和报警策略,包括模拟用户的访问来验证链路的情况,同时为了避免口径不一致导致的数据问题,开发离线&实时数据质量对比 Report,监控数据质量问题。
  • 在业务端&后端增加降级策略,同时后端服务 Auto Failover。
  • 完善各紧急预案 SOP,并针对性演练:比如通过切断 Active 的数据落地层来确定应用是否可以 Auto Failover。
  • 数据层利用缓存,比如把一些 Storm 中间计算态数据写入 Redis 中。
  • 同时为了防止应用 Crash 导致数据断层问题,开发了补数功能,在异常恢复后可以通过离线的数据补齐历史数据。

通过上述的一系列调整,最终抗住业务几倍的流量增长,保证了整体服务的稳定性。

业务监控 Dashboard 部分示例,如下图:

这个阶段实时平台的主要用户还是大数据自身,应用架构如下:

这个阶段虽然解决了数据源单一、整体 SLA 不高的问题,但是也带来了新的问题:

  • Storm 任务越来越多、Kafka Topic 越来越多、Topic 的 Producer 端和 Consumer 各是哪些、数据量如何,同时任务维护成本也越来越高,亟需一个平台化的工具。
  • 用户的需求多样,一种引擎已经无法满足业务需求,需要多种引擎支持。
  • 由于饿了么存在多语言开发场景(Go、Python、Java、Scala 等),Storm 任务开发学习成本比较高,用户希望通过一个 SQL 即可支持部分简单场景。
  • 业务 Log 需要通过 Nginx+Flume 方式收集,需要协调 OPS 部署 Flume,而 OPS 的同学比较排斥 Flume,亟需提供一个方便开发数据写入的标准 SDK 接入姿势。
  • 之前业务数据落地仓库需要通过 Kafka->Flume->HDFS 方式,随着接入业务方变多,Flume 的维护成本越来越高,同时发生了多起 2HDFS 的 Bug 导致数据重复的问题,亟需提供一个方便维护、支持多种数据 Sink 方式、稳定的数据流通解决方案。

平台化

2017 年初各产研逐步接入实时计算,上述问题也逐渐暴露出来,平台层面亟需一个统一的方案来解决用户的痛点。

因此在年初,我们确定了“以 ERDP 实时平台为核心,打通数据采集、数据传输、数据计算、数据落地 DataPipeline 整体流程,为用户提供一个一站式的实时平台”的方向。

在此目标之上,我们做了如下的调整:

开发资源聚焦:

  • 因为负责实时平台相关的小伙伴只有 3-5 人,我们开始逐步推动部分组件接入公司统一服务(比如监控 & 报警),并将部分任务移交到应用团队 team,只保留个别实时业务和平台相关部分开发。
  • 考虑到 OR 每接入一个 DB 都需要启动 Instance,维护成本比较高,同时公司开始推动统一的 Binlog 解析工具 DRC 来做多机房间 DB 数据同步,因此我们也逐步使用 DRC 来替换 OR。

解决数据采集痛点:

  • 通过开发统一的多语言数据接入 SDK 并接入配置中心,标准化数据接入的格式,方便用户的业务数据可以快速接入,同时为了提高可用性,在 SDK 中集成了降级 & 限速功能。

解决数据传输接入痛点:

  • 参考 Flume Source->Channel->Sink 的思想,开发了基于 Storm 的 Data Pipeline 功能的组件 EDSink,可以支持多种数据写入方式,包括 2KAFKA、2ES、2HDFS、2DB。

同时高度封装,抽象出部分配置,用户只需要通过填写一部分参数就可以实现数据的落地,大大加快了数据接入的效率,同时在数据落地层面引入了熔断功能。

  • 在数据通过 EDSink 写入 HDFS 方面,打通了离线平台的调度系统和元数据管理使用,集成了建表和数据清洗功能,实现了一键化的数据落地。

目前业务 Log 通过 EDSink 接入数据仓库已经从之前的 2-3 天降低到 2 小时以内。

  • 为支持更细粒度的任务调度,在 EDSink 中集成基于 EventTime 分区功能,可以支持分钟粒度分区,结合 Spark 来支持半小时 ETL 链路的开发,小时整体链路从之前的 40min 缩短到 20min 左右即可完成。
  • 同时和 Binlog 解析工具联动打通,支持用户自助申请落地 DB 数据,目前基于此方案,团队在进行 DB 数据去 Sqoop 化,预计可大大节省线上 DB Slave 服务器成本。

提供更多的计算方式:

  • 引入 Spark Streaming 并集成到 ERDP 平台,封装基本的 Spark Streaming 算子,用户可以通过平台对 Spark Streaming 任务进行管理。
  • 考虑到需要支持部分 SQL 的需求,在 Spark Streaming、Flink、Storm CQL 等引擎中做了对比,从团队的技术栈、引擎的成熟度、稳定性等层面综合考虑最终选择了 Spark Streaming。

并基于 Spark Streaming 的 SQL 功能,为用户封装基本算子,同时支持上传 Jar 包提供 UDF 功能及 Scala 脚本支持,支持 Structured Streaming 以支持带状态的增量计算,实现用户写 SQL 即可满足实时开发的需求(目前可支持 90% 的业务场景)。

自动化&自助化便于任务和资源管理:

  • 之前用户的 Storm 任务配置更改都需要重新打包,用户管理成本比较高,因此引入 Storm Flux 功能,封装基本组件并集成到实时平台。

用户可以 0 代码生成数据 Sink,同时可以快速进行任务的开发和管理,自动生成 YML 文件降低任务的维护成本。

  • 通过打通各个资源申请流程,支持 Kafka Topic 等资源的自助化申请和自动化创建,基于 Topic 数据完善元数据的管理,为资源的核算和实时元数据血缘做数据基础。
  • 为了方便任务的监控,将 Storm,Spark Streaming,Kafka 层面监控统一入库 InfluxDB,并自动化模板生成功能,用户无需手动添加监控和报警。

任务上线后 Metric & Dashboard 自动上报和创建,通过自动采集 API 的数据写入 InfluxDB,同时做了一个标准的 Template 用来自动生成 Grafana 的监控模板。

Kafka 监控示例

通过上述一系列的调整,最终完善了整个平台,解决了用户开发成本高、接入成本高、管理成本高等痛点,最终的架构图就是文章开始的状况。

后续计划

虽然经过了一些演进,现有的平台仍然存在一些问题,比如:

  • SQL 方式覆盖场景有限。
  • 用户在引擎中选择困难,没有一个引擎可以解决大部分需求。
  • Kafka0.8.2 版本功能有限,不支持 Excatly Once,不支持 JBOD Markdown 等。
  • 实时和离线分离,数据重复建设,因为实现方式不同,实时和离线很难做到数据口径完全一致。
  • 实时业务场景在公司内覆盖不够。
  • ……

因此针对这些痛点,我们也在做如下尝试:

  • Flink 以其性能&易用性在实时计算领域开始大行其道,我们也在做一些业务试点。
  • 实时和离线融合 CEP 场景的试水。
  • Kafka 新版本的引入,包括 Qouta 限速、JBOD Markdown、Stream API、Excatly Once 等功能的支持。
  • 实时平台集成到统一的一体化平台,用户在一个平台完成实时 & 离线开发。
  • 发掘线上的业务场景,比如我们目前和策略部门合作的实时营销项目就是通过用户的行为数据来做一些策略,提高转化率。

平台化演进中的一些心得

最后说一下关于平台化演进中的心得:

  • 学会资源聚集(善于借助外力,must to have VS nice to have)。
  • MVP 最小化可行性调研(产品是迭代出来的,不是一蹴而就的,先完成后完美)。
  • 偷懒思想,不重复造轮子(他山之石可以攻玉)。
  • 赋能用户,尽量自动化&自助化(提高效率,解放生产力)。
  • 数据化运营(用数据说话)。
  • 资源隔离,重点业务的 SLA 保证(降级限流策略,反压功能等)。
  • 做好监控(全链路的监控,并做必要测试)。
  • 防范墨菲定律,及时做好容量规划 & 压测,同时不断完善 SOP。
  • 抽象思维(从一个到一类问题的抽象)。
  • 以解决实际问题为目的,而不是炫技。
  • 关注用户体验(做完了 VS 做好了)。
  • 防火胜于救火,多想几步,不断总结并完善标准 & 规划 & 流程(上线规范/ Checklist / SOP 流程等)。

【编辑推荐】

  1. 从0到1,Java Web网站架构搭建的技术演进
  2. 从架构演进的角度聊聊Spring Cloud都做了些什么?
  3. MVP“变形记”,苏宁移动开发的架构演进!
  4. “爆款”游戏吃鸡是如何诞生的?聊聊游戏服务器的架构演进
  5. 踩坑无数,美团点评高可用数据库架构演进
【责任编辑:武晓燕 TEL:(010)68476606】

点赞 0
分享:
大家都在看
猜你喜欢

读 书 +更多

C语言核心技术

在这本书中,C 语言专家 Peter Prinz和Tony Crawford为你提供大量的编程参考信息。全书叙述清晰,语句简洁,分析深刻。本书主题包括: ...

订阅51CTO邮刊

点击这里查看样刊

订阅51CTO邮刊