爱收集资源网

大数据驱动的直播体验优化

网络 2023-08-14 01:08

移动视频直播经过 2016 年的井喷期,已经进入下半场,大家的关注点已经从如何构建完善的直播平台的粗放增长阶段,转入精细化运营阶段。如何在巨大的流量、复杂的应用场景、复杂的网络条件下,持续优化用户体验,是业界十分关注的话题。快手拥有 5 亿注册用户,单个直播间人数峰值已经超过 180 万,他们针对海量用户,基于大数据技术,在首屏和流畅度优化上做了大量的探索与实践。快手直播是如何设计全链路质量监控方案、如何搭建大数据处理 Pipeline 、如何解决上映跳帧、首屏卡顿优化等问题的?本文干货满满,全面解密快手直播大数据技术架构与优化实践。

注:文章整理了快手软件工程师罗喆在 ArchSummit 深圳 2017 上的演讲,原题为《快手在大数据驱动下的直播体验优化》,感兴趣的读者可移步观看罗喆老师现场演讲视频。

1 写在前面

大家中午好,我是罗喆,来自快手,过去的一年多我在快手做直播的体验优化相关的工作。今天给大家分享的主题是快手如何在大数据的驱动下来优化直播的质量。

加入公司这一年多,公司的注册用户和日活晚上都刷新峰值,到现在,快手的注册用户已经超过 5 亿,短视频数量已经超过了 int32 所能存储的数字的上限,也就是 21 个亿,日活跃用户数也已经达到 6500 万,而且还处于高速增长的趋势之中。

快手的直播业务 2016 年初上线,我们的直播业务和别的直播平台很不一样,那就是快手的直播是面向普通人的直播,而不是只有网红大 V;快手的直播内容,也大多是常见的生活场景,非常多样化,这样的模式也决定了快手直播需要考虑的业务场景更复杂。

目前,快手的直播业务量迅速增长,单个直播间的观看人数峰值,最高时超过了百万人。(8 月 7 日,在用户“MC 天佑”的直播中,快手单个直播间同时在线人数最高超过了 180 万。)那么,我们是如何在庞大的用户基数下保证直播的流畅度呢?我将从四个方面进行解析。

快手播放量才几十什么情况_为什么快手播放量一直是1_快手播放量只有几十是不是号不正常

2 快手直播面临的挑战与解决方案

快手直播的特点和挑战

快手直播有四个显著的特点,这些特点给快手带来了机遇,也让我们面临着巨大的挑战:

数据驱动的优化方法论

针对线上错综复杂的直播体验问题,快手视频团队在实践过程中总结出了一套数据驱动的优化方法论,归纳一下有三点:

首先是区分痛点,设置优先级。把问题分为两类:可以忍受和不能忍受,不能忍受的诸如播放失败、绿屏和死机等,这种影响功能可用性的问题定位高优先级,快速处理;可以忍受的包括卡顿、清晰度、延时等能看但用户体验不好的设置普通优先级,持续优化。

其次是制定优化方案,问题出现后,定制一个合理的优化方案,这里可能涉及到多方,有快手需要解决的问题,也有 CDN 服务商需要解决的问题,需要合理的排期保证问题有序解决。

第三步是灰度验证或 AB 测试,解决问题之后通过观测全网的数据进行灰度验证,确保方案是真正有效了之后,才全量上线。

快手播放量只有几十是不是号不正常_快手播放量才几十什么情况_为什么快手播放量一直是1

快手直播全链路质量监控

这套方法论的基础是数据,那么,快手直播到底用到哪些数据,怎么判断用户的播放体验是否 OK 呢?下面先介绍一下快手的直播系统端到端的处理流程:视音频信号实时采集,经过预处理和音视频编码,封装发送到 CDN 源站,播放端从 CDN 边缘拉到数据,然后进行解码,经过音视频同步之后,给观众展现出来。

我们在推流端和播放端分别做了非常完善的质量监测体系。在推流端,数据的源头是摄像头采集到的画面和麦克风采集到的声音,不同的机型和系统,摄像头和麦克风的能力完全不同,所以我们首先对摄像头的画质、帧率、机型等关键信息进行收集;接下来是视频前处理的过程,比如去噪、美颜、特效等,这些都是非常耗 CPU 和内存资源的操作,所以这个环节对 CPU 和内存的占用做了详细的上报;前处理之后会进行视频编码,视频编码的质量影响整个视频的观看体验,对视频编码器,主要是上报了视频编码的客观质量和编码器的输出信噪比;音频数据的采集编码过程和视频类似;编码完成之后的数据会进行协议封装,然后进入帧率自适应模块,码率自适应模块的功能主要是调整输出杂讯以适应用户的网络带宽,在用户网络变差的时候,自适应模块会主动丢弃一些数据以降低对网络的压力,推流端的卡顿也主要是发生在这里,所以在这里对自适应模块的输出码率,丢帧率目,卡顿次数都做了详尽的统计;数据最后到达到 CDN 服务商的源站,CDN 服务商分配的源站节点是否合理,是否和用户在同一地域,同一运营商,都直接影响到用户的连接质量,所以源站节点的地理位置和运营商信息,也是对质量评价非常重要的信息。

我们再来看看拉流(播放)端,拉流端整体的流程和推流端是一个反过来的流程,客户端先经过 DNS 解析,连接到 CDN 的边缘节点,和推流端类似,需要对 DNS 解析时间,边缘节点的运营商、地理位置、RTT 值等关键信息进行采集;从 CDN 边缘节点拿到的 http-flv 数据会先经过解封装送到接收缓冲区,在这个阶段可以对 CDN 服务节点的首包时间,发送至接收的端到端延时进行统计;接收缓冲区的长度决定了拉流端的网络抗性,这里可以采集到卡顿的次数和时长,缓冲区本身的长度也是需要监控的点;数据从缓冲区的输出,会分别进行音频和视频的解码,经过音视频同步,进入播放环节。这里从拉流启动到播放出第一帧画面的时间就是首帧时间。

这些复杂的过程在用户点击一个直播之后,绝大部分情况下在几百毫秒以内就会完成,我们也进一步分解了首帧各个环节的时间,能够对它进行深入的分析和优化。

3 直播质量数据处理 Pipeline

在提取了详细的质量数据之后,接下来就是后端处理的事情了,我将从直播质量数据处理 Pipeline、用户体验质量数据 & 服务质量数据、数据可视化监测流程三个角度为大家全面解析快手是如何发现直播当中的问题,以及是如何解决的。

直播质量数据处理流程

快手播放量只有几十是不是号不正常_为什么快手播放量一直是1_快手播放量才几十什么情况

下图是快手现在所使用的直播数据处理 Pipeline,可以很清晰的看到整个流程为数据采集→数据缓存→数据分类处理→数据索引 / 展示。

我们具体看看这个流程的工作细节,数据从快手 APP 收集,然后经过上报服务器的简单处理之后,会存到 Kafka 的 Topic 里面,Kafka 是非常可靠的数据队列服务,只要 Kafka 的机群够多,即使部分机器宕了数据都不会丢的;接下来,Kafka 的数据会分出两条处理路径:

快手每天经过这个系统处理的直播相关的数据,在百亿条的量级,直播相关的所有的数据展示和监控都依赖于这整个 Pipeline,要在分钟级要求下,支持各种业务查询需求,保证系统的平稳运行,是很不容易的。

用户体验质量 & 服务质量

采集到了数据并且对数据进行清洗入库之后,怎么去分析数据呢?首先,我们把数据可视化的监测分为两类,一类是用户体验质量(QoE,Quality of Experience),我们把它定义为一种和用户主观感受相关的数据,如同时直播房间数、直播同时在线人数、直播跳出率等,这些数据的波动有可能是技术问题导致的,也有可能是因为直播内容不符合观众预期,可以综合反映出用户对直播体验的主观感受。并且,这几项用户体验指标反映的是整体的趋势,如果真的出现技术性的问题,靠这些指标是无法追踪问题的源头的。举例来说,如果我们发现直播同时在线观看的人数降了,但这只能说明有问题,具体问题在哪里,什么原因导致的需要通过第二类指标:服务质量(QoS, Quality of Service)数据来进一步探讨。服务质量数据是纯客观的,反映的是技术性的指标,比如这张示意图,是一个以时间维度的各 CDN 服务商的卡顿率曲线;QoE 指标的波动未必一定是 QoS 的数据波动引起的,QoS 的数据波动也不是一定会导致 QoE 数据的变化,比如卡顿率可能会上升,但是在可接受的范围内,同时在线人数不一定会有大的变化。

数据可视化监测流程

我们以下图的“进入房间人数”和“退出房间人数”分析,说明一下我们是怎样做联合 QoE 数据和 QoS 数据进行测量和分析的。首先看看 QoE 数据,左上角是快手某次直播房间的同时在线人数曲线,在直播过程中在线人数有一个“掉坑”的现象,右下角的“退出房间人数”曲线显示在九点三十多分有一个峰值,说明有大量用户退出房间,我们猜想这里可能发生了某些问题引发了观看人数的大量增加,有可能是非技术性的,比如主播做了一件事情观众们不太喜欢,会导致观众大量流失。奇怪的是,右上角的“进入房间人数”曲线显示,进入房间在同样时刻也有一个峰值,这个时候说明虽然有大量用户退出了房间,但是同时也大量的进入了该房间。这里我们可以通过 QoE 数据得出一些结论,这一次观众大量退出,应该不是由于直播内容导致的,而是快手的直播服务有问题引起的,因为观众大量退出同时也大量进入,是因为观众觉得重新打开直播可能可以解决问题,退出直播并不是因为他们不再想看这个直播了 。

为了证实这个判断,我们观测 QoS 数据曲线。图上两条曲线是所有 CDN 节点进入房间人数曲线和退出房间曲线,可以看到在用户大量退出的时候,基本上各个 CDN 节点都会有大量的退出和进入,而不是只有少数节点才有这个行为,这样就可以进一步判断应该不是个别拉流节点的问题的问题,极有可能是主播推流发生了问题。之后我们联合 CDN 把主播的录像和推流曲线拿到之后,基本上可以推测主播当时的网络发生了摇晃,导致短暂的卡顿,之后又立刻恢复,短暂的卡顿造成观众大量退出直播间。

快手播放量才几十什么情况_为什么快手播放量一直是1_快手播放量只有几十是不是号不正常

从这个例子我们可以看出 QoE 的指标是一个综合衡量指标,它很直观,虽然并不能直接对应到 QoS 服务质量指标,但我们可以通过它来全局监控,判断是技术还是内容原因出现了体验问题,如果是技术原因,我们再去详细的查看 QoS 指标的时候就可以查出问题的根源。

4 直播系统优化案例

接下来,我将通过上映跳帧优化和 httpDNS 首屏优化两个例子,以实例说明如何利用大数据做直播系统调优。

拉流端上映的过程

拉流端上映的过程,如前面所述,主要是连接 CDN 节点拉取数据,数据的解码、渲染这几个步骤。CDN 的边缘节点一般都会缓存一部分数据,便于拉流端在任何时刻开始拉流都能拉到数据。为了让用户尽可能的播放流畅,CDN 会尽量的向用户多发一些数据,有时候甚至超过播放端拉流的缓冲区,超过的这部分数据会导致的显著问题是,如果照单全收并且按照正常的速度播,会导致直播延时降低,互动效果变差。业界公认的互动直播延时标准是小于 5 秒钟,超过 5 秒评论礼物互动效果就会变差。因此我们需要在保证延迟的前提下,尽量减短首屏,提高流畅度。

如上图,拉流端接收缓冲区长度一般等同于延时,我们把它的长度设置为 5s,如果 CDN 下发的数据大于了接收缓冲区的长度,假设超过的部分是 4 秒,那么如果不做任何处理,正常播放的延时是 5 秒加 4 秒等于 9 秒,9 秒的延时在直播过程中基本上没办法做评论或者交互,体验很差。于是我们一开始尝试从客户端来单独解决这超出的部分数据导致的问题。

我们尝试了两种的解决办法:直接快进和跳帧,直接快进的方案就是将超过的部分数据快速的播放过去,视频和声音都被加速播放了,这个方案上线之后很快就收到了用户的投诉,怀疑快手的直播是假直播,真正的直播怎么会出现“快进”的现象;然后我们修改了方案,将超出的部分数据直接跳过不进行播放,但是这又带来了新的问题,直接跳帧会导致用户的声音和画面出现突变,主播可能从画面的左侧突然出现在画面的右侧,体验也不是很好。总之,只在客户端做优化无法做到体验的最优。

开播跳帧优化

为什么快手播放量一直是1_快手播放量只有几十是不是号不正常_快手播放量才几十什么情况

由于导致这个问题的真正原因是 CDN 下发数据过多引起的,为了做到最优的体验,必须和 CDN 联合优化。这时,快手的多 CDN 策略带来一个新的问题:各家 CDN 开播下发数据的策略完全不同, 在上映时下发的数据长度都不一样,很难定量的评价哪一家 CDN 做的更好一些。

于是制定统一的评价标准成为第一个要解决问题,这里快手使用“开播前 10 秒跳帧时长”作为衡量 CDN 下发数据长度的标准,具体是指拉流端播放的前 10 秒内丢弃数据的总时长。

在制定统一的评价标准之后,通过线上数据观察各家 CDN 的跳帧指标,尝试让各 CDN 优化自己的指标,尽量接近最优的那一家。但是由于各 CDN 的上映策略都大不相同,可配置参数也完全不一样,不同的 CDN 之间很难做到数据完全一致。而且显然是指标最优的 CDN 也无法将上映前 10s 调整时长调整到让快手满意的程度。于是,统一各家 CDN 开播数据下发策略成为第二个要解决的重要问题。

我们设计了一套统一的上映数据下发策略,让各家 CDN 都按照这个方案来实现。该方案总的来说遵循三个原则:1. 下发数据长度不能超过快手拉流端接受缓冲区长度 2. 必须从一个 GOP(Group of Pictures)的开始下发 3. 在不违背里面两点的情况下,下发尽可能多的数据。上图是两个根据服务端缓存的不同 GOP 结构,决定下发数据策略的实际 case,假设快手拉流端接收缓冲区长度是 5 秒:

制定了统一的上映数据下发策略之后,在多家 CDN 分别上线灰度,对比观察各家 CDN 覆盖节点和未覆盖节点的数据,然后逐步扩大灰度范围直至全量上线。对比优化前的日均值,开播前 10s 跳帧时长从 1500ms 降低至 200ms。

经过上一轮的 CDN 端优化之后,观察全网的上映跳帧数据,各家 CDN 的指标保持在相同的水平(开播 10 秒平均跳帧 200ms 左右),基本可以判断 CDN 端的优化已经到了瓶颈,客户端才能进一步优化解决掉最后的 200ms 呢?这里快手使用了缓慢快进的方案:将多余的 200ms 在用户无感知的情况下,进行加速播放,控制缓冲区的大小。只要将加速程度控制在一定范围内,用户基本是没有察觉的,而正常播放时长为 200ms 的数据,经过加速,能很快的播放完,之后就恢复成正常速度播放,这样就保证了不会再有跳帧的现象,最后的 AB TEST 数据显示上映跳帧时长完全为 0,而卡顿情况也有比较明显的降低。

在解决了上映跳帧的问题之后,我们来回顾一下上映跳帧优化的整个过程:

在这整个过程中可以明显看到对快手整个数据平台的测试监控和统计的依赖,无论是评价 CDN 的质量,还是 CDN 优化后的对比测试,客户端的 AB TEST 效果验证,都需要观察对比全网的数据,才能确认优化效果,证明确实完美解决了跳帧问题。

快手播放量只有几十是不是