展开
返回首页
春晚“咻一咻”背后的云计算

你也许记不得谁在今年春晚上唱了什么歌,但你肯定知道“谁”在彼时人气最高:“敬业福”;你肯定不知道拿着手机“咻一咻”了多少次,支付宝却统计出一个总数:3245亿次。

这个天文数字得益于一套完整的金融级云计算、大数据与移动互联技术平台的强大支撑。春晚红包的背后是支付系统的升级,以及在“灵动”“弹性”的第三代技术架构下,支付宝实现了从互联网金融架构基础上逐步拓展出了能同时全面支持生活互动场景类业务的技术架构体系。

据支付宝官方数字,除夕第一轮“咻一咻”历时5分钟,互动次数达677亿次,仅五分钟就超过去年春晚全程的全场互动次数,而且是超后者6倍;到21点10分,前两轮“咻一咻”互动次数合计突破1808亿次,是去年春晚同期的16倍……

在马云练太极拳的雕塑旁,从用户“咻一咻”到最后资金到账的过程,被蚂蚁金服支付事业群技术部研究员倪行军描述出太极“收”与“放”的味道。

每个开奖阶段即为“收”,5分钟之内,6000万个红包花落各家。伴着清脆的一“咻”,每次点击屏幕的请求通过网络被送至“蚂蚁”的数据中心,然后服务器将该任务按照规则,交给不同的业务集群去处理。

在此阶段,技术人员将整个业务系统前置,显示出很好的“弹性”,使红包系统承担起了亿级每秒的请求处理能力,让所有用户的请求都能及时进入红包系统,并实时得到反馈。

几乎在同时,系统启动了第二阶段的任务,“放”。即把6000万个红包资金快速准确地存入中奖客户的支付宝账户内。倪行军说,6000万个红包资金需要在分钟级内到对应的6000万个客户账户,然后再将相应资金准确打入其中,完成这些巨大挑战,全靠基于多年支付金融技术发展沉淀而来的金融云平台的处理能力。

原来,当春晚红包被还原成数字世界的“0”和“1”时,其运行轨迹看起来就非常熟悉了——各种任务最终都转化成对该系统支付能力的考验。

得益于整个金融云在技术架构、设计理念上与传统银行架构的不同,系统不但处理能力可以弹性增长,而且仍保留金融级的高可靠性、准确性要求,整个过程中4场每场6000万个红包发放做到了0差错。