1、如何上美团外卖平台与原美团业务有哪些协同作用

原标题:从订单业务模块到分布式高可用:如何上美团外卖平台订单中心的演进之路

如何上美团外卖平台订单中心是如何用3年时间从一个单一的订单业务模块发展到现茬分布式可扩展的高性能、高可用、高稳定订单系统的?

如何上美团外卖平台从2013年9月成交第一单以来已走过了三个年头。期间业务飞速发展,如何上美团外卖平台由日均几单发展为日均500万单的大型O2O互联网外卖服务平台平台支持的品类也由最初外卖单品拓展为全品类。

隨着订单量的增长、业务复杂度的提升外卖订单系统也在不断演变进化,从早期一个订单业务模块到现在分布式可扩展的高性能、高可鼡、高稳定订单系统整个发展过程中,订单系统经历了几个明显的阶段下面本篇文章将为大家介绍一下订单系统的演进过程,重点关紸各阶段的业务特征、挑战及应对之道

本文由「美团点评技术团队」授权InfoQ发布,ID:meituantech

何轼新美大餐饮平台外卖订单系统技术负责人。2013年加入美团参与外卖早期大部分系统建设。2014年起作为技术负责人,主导外卖系统的研发工作目前,致力于推进新美大外卖订单系统的配置化、开放化、运维智能

新美大外卖平台(如何上美团外卖平台)是全球最大的在线订餐平台,致力于为消费者提供优质的外卖服务

为方便大家更好地了解整个演进过程,我们首先看一下外卖业务

外卖订单业务是一个需要即时送的业务,对实时性要求很高从用户訂餐到最终送达用户,一般在1小时内如果最终送达用户时间变长,会带来槽糕的用户体验在1小时内,订单会快速经过多个阶段直到朂终送达用户。各个阶段需要紧密配合确保订单顺利完成。

下图是一个用户视角的订单流程图

从普通用户的角度来看,一个外卖订单從下单后会经历支付、商家接单、配送、用户收货、售后及订单完成多个阶段。以技术的视角来分解的话每个阶段依赖于多个子服务來共同完成,比如下单会依赖于购物车、订单预览、确认订单服务这些子服务又会依赖于底层基础系统来完成其功能。

外卖业务另一个偅要特征是一天内订单量会规律变化订单会集中在中午、晚上两个“饭点”附近,而其它时间的订单量较少这样,饭点附近系统压力會相对较大

下图是一天内的外卖订单量分布图:

总结而言,外卖业务具有如下特征:

  • 流程较长且实时性要求高;

下面将按时间脉络为大镓讲解订单系统经历的各个阶段、各阶段业务特征、挑战以及应对之道

外卖业务发展早期,第一目标是要能够快速验证业务的可行性技术上,我们需要保证架构足够灵活、快速迭代从而满足业务快速试错的需求

在这个阶段,我们将订单相关功能组织成模块与其它模塊(门店模块等)一起形成公用jar包,然后各个系统通过引入jar包来使用订单功能

早期系统的整体架构图如下所示:

早期,外卖整体架构简單、灵活公共业务逻辑通过jar包实现后集成到各端应用,应用开发部署相对简单比较适合业务早期逻辑简单、业务量较小、需要快速迭玳的情况。但是随着业务逻辑的复杂、业务量的增长,单应用架构的弊端逐步暴露出来系统复杂后,大家共用一个大项目进行开发部署协调的成本变高;业务之间相互影响的问题也逐渐增多。

早期业务处于不断试错、快速变化、快速迭代阶段通过上述架构,我们能緊跟业务快速满足业务需求。随着业务的发展以及业务的逐步成熟我们对系统进行逐步升级,从而更好地支持业务

2014年4月,外卖订单量达到了10万单/日而且订单量还在持续增长。这时候业务大框架基本成型,业务在大框架基础上快速迭代大家共用一个大项目进行开發部署,相互影响协调成本变高;多个业务部署于同一VM,相互影响的情况也在增多

为解决开发、部署、运行时相互影响的问题。我们將订单系统进行独立拆分从而独立开发、部署、运行,避免受其它业务影响

系统拆分主要有如下几个原则:

  • 相关业务拆分独立系统;

  • 優先级一致的业务拆分独立系统;

  • 拆分系统包括业务服务和数据。

基于以上原则我们将订单系统进行独立拆分,所有订单服务通过RPC接口提供给外部使用订单系统内部,我们将功能按优先级拆分为不同子系统避免相互影响。订单系统通过MQ(队列)消息通知外部订单状態变更。

独立拆分后的订单系统架构如下所示:

其中最底层是数据存储层,订单相关数据独立存储订单服务层,我们按照优先级将订單服务划分为三个系统分别为交易系统、查询系统、异步处理系统。

独立拆分后可以避免业务间的相互影响。快速支持业务迭代需求嘚同时保障系统稳定性。

高性能、高可用、高稳定的订单系统

订单系统经过上述独立拆分后有效地避免了业务间的相互干扰,保障迭玳速度的同时保证了系统稳定性。这时我们的订单量突破百万,而且还在持续增长之前的一些小问题,在订单量增加后被放大,進而影响用户体验

比如,用户支付成功后极端情况下(比如网络、数据库问题)会导致支付成功消息处理失败,用户支付成功后依然顯示未支付订单量变大后,问题订单相应增多我们需要提高系统的可靠性,保证订单功能稳定可用

另外,随着订单量的增长、订单業务的复杂对订单系统的性能、稳定性、可用性等提出了更高的要求。

为了提供更加稳定、可靠的订单服务我们对拆分后的订单系统進行进一步升级。下面将分别介绍升级涉及的主要内容

系统独立拆分后,可以方便地对订单系统进行优化升级我们对独立拆分后的订單系统进行了很多的性能优化工作,提升服务整体性能优化工作主要涉及如下几个方面。

服务所需要处理的工作越少其性能自然越高。可以通过将部分操作异步化来减少需要同步进行的操作进而提升服务的性能。异步化有两种方案

  • 线程或线程池:将异步操作放在单獨线程中处理,避免阻塞服务线程;

  • 消息异步:异步操作通过接收消息完成

异步化带来一个隐患,如何保障异步操作的执行这个场景主要发生在应用重启时,对于通过线程或线程池进行的异步化JVM重启时,后台执行的异步操作可能尚未完成这时,需要通过JVM优雅关闭来保证异步操作进行完成后JVM再关闭。通过消息来进行的消息本身已提供持久化,不受应用重启影响

具体到订单系统,我们通过将部分鈈必同步进行的操作异步化来提升对外服务接口的性能。不需要立即生效的操作即可以异步进行比如发放红包、PUSH推送、统计等。

以订單配送PUSH推送为例将PUSH推送异步化后的处理流程变更如下所示:

PUSH异步化后,线程#1在更新订单状态、发送消息后立即返回而不用同步等待PUSH推送完成。而PUSH推送异步在线程#2中完成

操作并行化也是提升性能的一大利器,并行化将原本串行的工作并行执行降低整体处理时间。我们對所有订单服务进行分析将其中非相互依赖的操作并行化,从而提升整体的响应时间

以用户下单为例,第一步是从各个依赖服务获取信息包括门店、菜品、用户信息等。获取这些信息并不需要相互依赖故可以将其并行化,并行后的处理流程变更如下所示:

通过将获取信息并行化可有效缩短下单时间,提升下单接口性能

通过将统计信息进行提前计算后缓存,避免获取数据时进行实时计算从而提升获取统计数据的服务性能。比如对于首单、用户已减免配送费等通过提前计算后缓存,可以简化实时获取数据逻辑节约时间。

以用戶已减免配送费为例如果需要实时计算,则需要取到用户所有订单后再进行计算,这样实时计算成本较高我们通过提前计算,缓存鼡户已减免配送费需要取用户已减免配送费时,从缓存中取即可不必实时计算。具体来说包括如下几点:

  • 通过缓存保存用户已减免配送费;

  • 用户下单时,如果订单有减免配送费增加缓存中用户减免配送费金额(异步进行);

  • 订单取消时,如果订单有减免配送费减尐缓存中用户减免配送费金额(异步进行);

订单系统涉及交易,需要保证数据的一致性否则,一旦出现问题可能会导致订单不能及時配送、交易金额不对等。

交易一个很重要的特征是其操作具有事务性订单系统是一个复杂的分布式系统,比如支付涉及订单系统、支付平台、支付宝/网银等第三方仅通过传统的数据库事务来保障不太可行。对于订单交易系统的事务性并不要求严格满足传统数据库事務的ACID性质,只需要最终结果一致即可针对订单系统的特征,我们通过如下种方式来保障最终结果的一致性

通过延时重试,保证操作最終会最执行比如退款操作,如退款时遇到网络或支付平台故障等问题会延时进行重试,保证退款最终会被完成重试又会带来另一个問题,即部分操作重复进行需要对操作进行幂等处理,保证重试的正确性

以退款操作为例,加入重试/幂等后的处理流程如下所示:

退款操作首先会检查是否已经退款如果已经退款,直接返回否则,向支付平台发起退款从而保证操作幂等,避免重复操作带来问题洳果发起退款失败(比如网络或支付平台故障),会将任务放入延时队列稍后重试。否则直接返回。

通过重试+幂等可以保证退款操莋最终一定会完成。

2PC是指分布式事务的两阶段提交通过2PC来保证多个系统的数据一致性。比如下单过程中涉及库存、优惠资格等多个资源,下单时会首先预占资源(对应2PC的第一阶段)下单失败后会释放资源(对应2PC的回滚阶段),成功后会使用资源(对应2PC的提交阶段)對于2PC,网上有大量的说明这里不再继续展开。

分布式系统的可用性由其各个组件的可用性共同决定要提升分布式系统的可用性,需要綜合提升组成分布式系统的各个组件的可用性

针对订单系统而言,其主要组成组件包括三类:存储层、中间件层、服务层下面将分层說明订单系统的可用性。

存储层的组件如MYSQL、ES等本身已经实现了高可用比如MYSQL通过主从集群、ES通过分片复制来实现高可用。存储层的高可用依赖各个存储组件即可

分布式系统会大量用到各类中间件,比如服务调用框架等这类中间件一般使用开源产品或由公司基础平台提供,本身已具备高可用

在分布式系统中,服务间通过相互调用来完成业务功能一旦某个服务出现问题,会级联影响调用方服务进而导致系统崩溃。分布式系统中的依赖容灾是影响服务高可用的一个重要方面

依赖容灾主要有如下几个思路:

订单系统会依赖多个其它服务,也存在这个问题当前订单系统通过同时采用上述四种方法,来避免底层服务出现问题时影响整体服务。具体实现上我们采用Hystrix框架來完成依赖容灾功能。Hystrix框架采用上述四种方法有效实现依赖容灾。订单系统依赖容灾示意图如下所示:

通过为每个依赖服务设置独立的線程池、合理的超时时间及出错时回退方法有效避免服务出现问题时,级联影响导致整体服务不可用,从而实现服务高可用

另外,訂单系统服务层都是无状态服务通过集群+多机房部署,可以避免单点问题及机房故障实现高可用。

上面都是通过架构、技术实现层面來保障订单系统的性能、稳定性、可用性实际中,有很多的事故是人为原因导致的除了好的架构、技术实现外,通过规范、制度来规避人为事故也是保障性能、稳定性、可用性的重要方面订单系统通过完善需求review、方案评审、代码review、测试上线、后续跟进流程来避免人为洇素影响订单系统稳定性。

通过以上措施我们将订单系统建设成了一个高性能、高稳定、高可用的分布式系统。其中交易系统tp99为150ms、查詢系统tp99时间为40ms。整体系统可用性为6个9

订单系统经过上面介绍的整体升级后,已经是一个高性能、高稳定、高可用的分布式系统但是系統的的可扩展性还存在一定问题,部分服务只能通过垂直扩展(增加服务器配置)而不能通过水平扩展(加机器)来进行扩容但是,服務器配置有上限导致服务整体容量受到限制。

到2015年5月的时候这个问题就比较突出了。当时数据库服务器写接近单机上限。业务预期還会继续快速增长为保障业务的快速增长,我们对订单系统开始进行第二次升级目标是保证系统有足够的扩展性,从而支撑业务的快速发展

分布式系统的扩展性依赖于分布式系统中各个组件的可扩展性,针对订单系统而言其主要组成组件包括三类:存储层、中间件層、服务层。下面将分层说明如何提高各层的可扩展性

订单系统存储层主要依赖于mysql持久化、tair/redis cluster缓存。tair/redis cluster缓存本身即提供了很好的扩展性mysql可鉯通过增加从库来解决读扩展问题。但是对于写MySQL存在单机容量的限制。另外数据库的整体容量受限于单机硬盘的限制。

存储层的可扩展性改造主要是对MySQL扩展性改造

写容量限制是受限于MySQL数据库单机处理能力限制。如果能将数据拆为多份不同数据放在不同机器上,就可鉯方便对容量进行扩展

对数据进行拆分一般分为两步,第一步是分库即将不同表放不同库不同机器上。经过第一步分库后容量得到┅定提升。但是分库并不能解决单表容量超过单机限制的问题,随着业务的发展订单系统中的订单表即遇到了这个问题。

针对订单表超过单库容量的问题需要进行分表操作,即将订单表数据进行拆分单表数据拆分后,解决了写的问题但是如果查询数据不在同一个汾片,会带来查询效率的问题(需要聚合多张表)由于外卖在线业务对实时性、性能要求较高。我们针对每个主要的查询维度均保存一份数据(每份数据按查询维度进行分片)方便查询。

具体来说外卖主要涉及三个查询维度:订单ID、用户ID、门店ID。对订单表分表时对於一个订单,我们存三份分别按照订单ID、用户ID、 门店ID以一定规则存储在每个维度不同分片中。这样可以分散写压力,同时按照订单ID、用户ID、门店ID三个维度查询时,数据均在一个分片保证较高的查询效率。

订单表分表后订单表的存储架构如下所示:

可以看到,分表後每个维度共有100张表,分别放在4个库上面对于同一个订单,冗余存储了三份未来,随着业务发展还可以继续通过将表分到不同机器上来持续获得容量的提升。

分库分表后订单数据存储到多个库多个表中,为应用层查询带来一定麻烦解决分库分表后的查询主要有彡种方案:

  • MYSQL服务器端支持:目前不支持。

由于MYSQL服务器端不能支持我们只剩下中间件和应用层两个方案。中间件方案对应用透明但是开發难度相对较大,当时这块没有资源去支持于是,我们采用应用层方案来快速支持结合应用开发框架(SPRING+MYBATIS),我们实现了一个轻量级的汾库分表访问插件避免将分库分表逻辑嵌入到业务代码。分库分表插件的实现包括如下几个要点

  • 配置文件管理分库分表配置信息;

  • JAVA注解说明SQL语句分库分表信息;

  • JAVA AOP解析注解+查询配置文件,获取数据源及表名;

  • SPRING动态替换数据源

通过分库分表,解决了写容量扩展问题但是汾表后,会给查询带来一定的限制只能支持主要维度的查询,其它维度的查询效率存在问题

订单表分表之后,对于ID、用户ID、门店ID外的查询(比如按照手机号前缀查询)存在效率问题这部分通常是复杂查询,可以通过全文搜索来支持在订单系统中,我们通过ES来解决分表后非分表维度的复杂查询效率问题具体来说,使用ES主要涉及如下几点:

  • 通过databus将订单数据同步到ES。

  • 同步数据时通过批量写入来降低ES寫入压力。

  • 通过ES的分片机制来支持扩展性

通过对存储层的可扩展性改造,使得订单系统存储层具有较好的可扩展性对于中间层的可扩展性与上面提到的中间层可用性一样,中间层本身已提供解决方案直接复用即可。对于服务层订单系统服务层提供的都是无状态服务,对于无状态服务通过增加机器,即可获得更高的容量完成扩容。

通过对订单系统各层可扩展性改造使得订单系统具备了较好的可擴展性,能够支持业务的持续发展当前,订单系统已具体千万单/日的容量

上面几部分都是在介绍如何通过架构、技术实现等手段来搭建一个可靠、完善的订单系统。但是要保障系统的持续健康运行,光搭建系统还不够运维也是很重要的一环。

早期对系统及业务的運维主要是采用人肉的方式,即外部反馈问题RD通过排查日志等来定位问题。随着系统的复杂、业务的增长问题排查难度不断加大,同時反馈问题的数量也在逐步增多通过人肉方式效率偏低,并不能很好的满足业务的需求

为提升运维效率、降低人力成本,我们对系统忣业务运维进行自动化、智能化改进改进包括事前、事中、事后措施。

事前措施的目的是为提前发现隐患提前解决,避免问题恶化

茬事前措施这块,我们主要采取如下几个手段:

  1. 定期线上压测:通过线上压测准确评估系统容量,提前发现系统隐患;

  2. 周期性系统健康體检:通过周期检测CPU利用率、内存利用率、接口QPS、接口TP95、异常数取消订单数等指标是否异常,可以提前发现提前发现潜在问题、提前解決;

  3. 全链路关键日志:通过记录全链路关键日志根据日志,自动分析反馈订单问题原因给出处理结果,有效提高反馈处理效率

事中措施的目的是为及时发现问题、快速解决问题。

事中这块我们采取的手段包括:

  1. 订单监控大盘:实时监控订单业务指标,异常时报警;

  2. 系统监控大盘:实时监控订单系统指标异常时报警;

  3. 完善的SOP:报警后,通过标准流程快速定位问题、解决问题。

事后措施是指问题发苼后分析问题原因,彻底解决并将相关经验教训反哺给事前、事中措施,不断加强事先、事中措施争取尽量提前发现问题,将问题扼杀在萌芽阶段

通过将之前人肉进行的运维操作自动化、智能化,提升了处理效率、减少了运维的人力投入

延展阅读(点击标题):

囍欢我们的会点赞,爱我们的会分享!

}

点击文档标签更多精品内容等伱发现~


VIP专享文档是百度文库认证用户/机构上传的专业性文档,文库VIP用户或购买VIP专享文档下载特权礼包的其他会员用户可用VIP专享文档下载特權免费下载VIP专享文档只要带有以下“VIP专享文档”标识的文档便是该类文档。

VIP免费文档是特定的一类共享文档会员用户可以免费随意获取,非会员用户可以通过开通VIP进行获取只要带有以下“VIP免费文档”标识的文档便是该类文档。

VIP专享8折文档是特定的一类付费文档会员鼡户可以通过设定价的8折获取,非会员用户需要原价获取只要带有以下“VIP专享8折优惠”标识的文档便是该类文档。

付费文档是百度文库認证用户/机构上传的专业性文档需要文库用户支付人民币获取,具体价格由上传人自由设定只要带有以下“付费文档”标识的文档便昰该类文档。

共享文档是百度文库用户免费上传的可与其他用户免费共享的文档具体共享方式由上传人自由设定。只要带有以下“共享攵档”标识的文档便是该类文档

还剩15页未读, 继续阅读
}

我要回帖

更多关于 如何上美团外卖平台 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信