最近几年各大互联网巨头频繁参与春晚发红包,争夺流量。

腾讯阿里在前几年就已经是参赛者了,而百度直到今年才开始参数,不过作为新参赛者,百度的表现却十分亮眼,在前几天的春晚红包节目中,腾讯阿里的服务器经常会出现宕机的情况,而百度今年却扛住了压力。这个时候不得不为为此事写点文字。

中国互联网说大流量,一般我们会说双十一晚上零时全民网购,全国人民一起抢购突发流量是大流量,还有就是春运12306抢票的流量。而实际上,春晚抢红包的流量才是终极BOSS。

我们看下数据。微信是装机量最大的APP了,日活高峰是9.5亿,支付宝这种日活不过2.3亿,而春晚是在短短几分钟内,有10多亿用户同时发出需求。这个强度非常之高。

2015年除夕当天,微信红包收发总量达10.1亿次,春晚全程(2月18日20:00-2月19日00:48)微信春晚摇一摇互动次数达110亿次,出现在除夕夜当天22:34出现峰值8.1亿次/分。腾讯宕机1小时。

2016年,支付宝拿下了春晚合作机会。除夕夜,支付宝出现偶尔宕机。

2018年春晚,淘宝提前推导了各种极端情况,在2017年双十一基础上再扩容3倍。结果春晚当晚登录的实际峰值超过了2017年双十一的15倍,尤其新用户的瞬时登录更是完全超出预料,经受过双十一洗礼的阿里服务器还是宕机了。

前有A、T的前车之鉴,百度今年能不能扛住,也是受到很多关注。

事实上,当晚第一轮摇一摇红包活动结束后,截至21:00,全球观众参与百度APP红包互动就已经达到了92亿次,而这才刚刚开始。史无前例的9亿红包数额、还有2019年智能机进一步普及,互联网加速下沉县城、乡镇、农村的趋势,果然都让2019人们的红包热情爆发得更加汹涌。

这些还不是全部。

任何红包类、抽奖类活动还会有一个灰色的影子参与其中,这就是中国互联网的黑产用户,中国薅羊毛党手里掌握大量虚拟资源,拼多多号称一夜损失200亿就是它们干的,它们可以在短时间内产生巨大流量,这部分流量叠加正常流量,也进一步加大了服务器的压力。

另外,因为抢红包这个东西,是有一个流程的,涉及很多外部服务,百度自己的服务器只是其中一个环节。

没下载的用户下载百度APP,没注册的注册,注册的收短信要通过电信运营商,所有网络需求都要通过硬件。APP市场的服务器,电信运营商的网络,机房、光纤等硬件,有一个环节容量不够,都可能导致宕机。

事实上,春晚当天百度的第一轮红包互动之后,苹果应用商店、华为、小米、三星几大应用商店全部挂掉,其中苹果应用商店长达12分钟不能访问,今年的流量显然远超预期。在春晚直播期间,全球观众参与百度APP红包互动活动次数达208亿次!

但是,百度扛住了。

而且,相对往年,百度今年多了很多新玩法。语音搜索、视频红包的需求消耗的资源要高于传统的抢红包并发需求。百度这次使用个性化信息流和视频技术,为每个用户定制内容,千人千面,也让流量压力倍数增长。

但面对今年如此的超级需求,百度居然能顶住,全程没有出现明显故障,不得不说,业界公认的“百度技术强”,不是一句空话,经过春晚这个流量王者的洗礼和证明,更稳了。

当然,平稳运转背后也是险象环生,百度花了相当大的力气。

在确定拿下春晚红包互动权后,百度成立了一个近千人的项目组,包括产品、研发、运营、客服以及风控,应对爆发数量的需求。

在技术方面,百度很早就落实了服务流量隔离、系统升级、专线新增以及服务器扩容等工作,提前进行了多轮全链路压力测试和多轮的方案预演。

在硬件资源上,除了常规的扩容,百度还使用专有硬件计算(特定CPU,或者GPU、FPGA等硬件),处理大规模AI计算需求;准备最大规模硬件资源,处理十亿级别并发需求。据说整个系统在内部都是全自动扩容缩容,数万台机器,相应每秒数千万的请求,并支持快速扩展支持更多请求处理。

百度的技术并不是天上掉下来的,而是百度大数据、云计算、人工智能技术多年发展积累出来的。百度在硬件上能够提供专用硬件计算,是因为百度云服务本身就提供的GPU和FPGA专用服务器,百度能有全自动扩容缩容技术,是因为百度云本身就提供弹性伸缩功能。百度云的积累是百度能够应对春晚红包的数据爆发的技术技术。

值得一提的是百度并不只是靠计算能力硬抗,百度有小程序的技术优势。百度这次的摇一摇红包和视频红包等都采用小程序开发,用小程序技术支持更灵活的开发和预加载机制,不仅能够应对更大流量更大并发,降低硬件资源消耗,提升效率,还有更好的用户体验。

在用户比往年多,玩法比往年多、AI玩法增加计算压力的地狱级别的高压环境下,百度的春晚红包没宕机,果然是闷声搞技术的公司。

« 中欧班列:打造车轮上的中国年 青云QingCloud:如何做到真正多活,不惧宕机? »