外媒称App Store中国区游戏或要额外审核_网易科技
外媒称App Store中国区游戏或要额外审核
用微信扫码二维码
分享至好友和朋友圈
上架应该是没有问题的,只不过时间可能会往后推迟几天。
(原标题:广电放招?中国App Store游戏或要额外审核)
从今年7月1日开始,中国区App Store的游戏可能会面临更严格的审核。威锋网消息,根据Tech in Aisa的报道,国家新闻出版广电总局立下新规,无论是国外还是国内的游戏,在上架App Store之前都需要经过一轮审核。据了解,第三方游戏开发商若想要加快审核进度,可能需要支付美元,而独立开发者则不需要额外掏钱。
对于那些已经在售的App Store游戏,国家新闻出版广电总局的规定是在10月1日之前再次提交审核。新规定对国内开发者比较有利,因为如果他们提前在至少20个工作日之内提交审核,其通过时间就会大大缩减——预计会在18天之内完成审核。对于国外开发者/开发商来说,目前还没有审核时间限制这一说法。如果Tech in Asia的报道属实,就意味着中国区App Store游戏的上架时间可能会向后拖延,苹果近期加快App Store审核几乎就等于是在做无用功了。苹果全球营销高级副总裁菲尔·席勒在WWDC 2016开幕之前就曾经透露,他们正在制定App Store 2.0的计划,其主要关注重点就是应用审核、商业模式以及应用发现/搜索广告。
本文来源:威锋网
责任编辑:李德雄_NT2021
用微信扫码二维码
分享至好友和朋友圈
加载更多新闻
热门产品:
:
:
热门影院:
阅读下一篇
用微信扫描二维码
分享至好友和朋友圈 近日,IO Interactive澄清了《杀手6》会有额外的内容,并且将以免费的形式赠送给玩家,这对玩家来说不得不说是一个福利。 据开发者介绍,“我们不想让玩家花了60美元之后再购买DLC,这样一款游戏售价就有100或者120美元,我们会让所有玩家都能体验到完整的游戏内容。”这次的额外内容将会每周免费发放一个,新增一小时又一小时的游戏时间,并且加入了新地点新关卡,让玩家得以在游戏中领略不同国度的风情,还特别列出了巴黎,马拉喀什和意大利海岸等。同时任务系统也将更加真实化,更加贴近现实。 这将是一个全面突破的《杀手》系列,但并不是最后一个。主角光头47会比以往更加娴熟老练。《杀手6》游戏内的规模将会超过《杀手5:赦免》,是前作的数倍。“就拿人物来说,《杀手5:赦免》可能同屏最多只有四五十人,然而《杀手6》将会有300人。但是额外内容的具体细节要等到几个月之后才公布。 60美元,换来几个月的游戏时间,确实对玩家是个不小的诱惑。 《杀手6》预计12月8日登陆PS4,Xbox One和PC平台,敬请期待。游民星空(mygamersky)
文章为作者独立观点,不代表微头条立场
的最新文章
PC平台的《光环5:守护者》编辑器将在9月8日开始配信,343于今日更新了Win10版编辑器的PC配置, 《仙剑奇侠传》赵灵儿手办的众筹活动仍然在继续,距离9月1日结束只剩下六天的时间了,在距上次突破200万后 ESRB公布了《生化危机7》的游戏评级,因为其游戏里会出现的血腥和暴力场面,以及游戏内文本语言的问题被分 《DNF》和《守望先锋》作为最成功网游中的佼佼者自然有着无数粉丝,近日,一名酷爱这两款游戏的韩国玩家ju 《无人深空》自发售以来一直充满了争议,这个60美元的“独立游戏”显然达不到玩家对其多年的期待,而Stea日,19岁的英国信号官伯特?钱尼(Bert Chaney),正透过观察缝注视着前线。他 上周,暴雪公布《守望先锋》莱因哈特的传说级新皮肤,如今已加入PTR测试服中,共有两种状态,分别对应战前和时隔六年,《拳皇》系列的正统续作《拳皇14》终于面世。游民星空也有幸提前拿到了由索尼中国提供的国行PS4 第一次知道《归家异途》是因为它没有英文,是Steam上唯一一款仅支持简体中文的游戏,这个“噱头”一度令我 《无人深空》刚发售时造成了不小的轰动,无论是销量还是steam的在线人数都勇创新高,但遗憾的是,这游戏的此前我们曾报道《暴力摩托》精神续作,摩托竞速游戏《公路救赎(Road Redemption)》确定了正式《黑暗之魂3》的DLC“阿里安德尔的灰烬”今日泄露了一批杂志图,DLC要到10月25日才发售,先来抢先看 近日,综艺节目《我们战斗吧》热播,引得时下大热手游《保卫萝卜3》主角阿波前来合作互动娱乐。意图与王嘉尔、 《无人深空》于昨日正式登陆PC,4K高清画面看上去非常有吸引力,特效也非常棒。但这并不意味着Hello 《无人深空》作为2016年最成功的Steam平台首发游戏,虽然在短短几日就售出了40万份,不过它存在的各 育碧旗下的黄金IP数量众多,《刺客信条》、《细胞分裂》、《孤岛惊魂》等系列都拥有大批的玩家粉丝。不过这其 虽然近段时间一直有传出《最终幻想15》发售跳票的传闻,但大部分人还是将此视为谣言,毕竟当时发布会公布的9在刚刚结束的《Dota2》Ti6的赛场上,除了紧张的赛事和中国战队Wings的夺冠外。另一个令Dota玩伴随着GPU制造工艺更新至16nm,GPU架构前进至“帕斯卡”(Pascal),现已登陆至桌面级独显市场的三腾讯首款3DQ萌轻回合手游天天幻灵正火热删档测试中,其可爱的画风、逗趣的剧情,丰富的玩法深深吸引着众多玩《无人深空》IGN评分出炉。《仙剑奇侠传》作为国产单机第一品牌,其一举一动都备受中国玩家关注,在ChinaJoy上首次亮相的《仙剑VR》……8月14日的上午,在我们平淡无奇地结束上午的工作,或是才刚刚开始新一天的同时,大洋彼岸的西雅图钥匙球馆中 《无人深空》的宇宙探索或许让人感到有些重复和无聊,但不可否认的是,游戏的确有足够大的探索空间,但并不是每 最近卡普空在科隆展上放出了一个名为“灯笼”(Lantern)的《生化危机7》游戏宣传片,第一次(之前的D 在GC 2016上,EA再次为我们带来了旗下FPS大作《战地1》的最新演示及新情报。得益于寒霜3引擎的强Respawn工作室刚刚于不久前开放了《泰坦陨落2》的一次多人技术测试,按照他们的说法,游戏还处于ALP想必各位都对《传奇霸业》的大名有所耳闻,8月18日,37《传奇霸业》新版本“炼狱魔城”强势发布,官方同步今年的格斗游戏界大赛“Evolution 2016”于北美时间日-17日举行。今年的E 《仙剑奇侠传》的首款大手办赵灵儿的彩模于前几日公布,让很多仙剑粉丝再次为灵儿的无敌魅力所折服,积极参与到要说近日话题度最高的游戏,《无人深空》肯定是其中之一,在雷作和神作中徘徊的《无人深空》PC版马上就要解禁 目前玩家们对《守望先锋》呼声最高的就是录像回放功能和纯观察者模式了,对此,在战网论坛上,《守望先锋》的艺 今天凌晨1点,《无人深空》PC版在Steam上正式发售,不过与此前雄心勃勃的宣传相比,似乎游戏表现并不是 Riot在宣传新英雄上的花招越来越多了,我们早先曾报道过,《LOL》新英雄或是一位跟草丛有关的类“大嘴”《守望先锋》作为一个团队射击游戏,除了保持着暴雪的独特风格外还有许多有趣的细节,比如力求严谨的剧情背景、《生化危机7》在本届E3公布之后,引起了巨大的反响,玩家们对此也非常期待。近日,卡普空官方放出了一段关于 《生化危机:保护伞小队》是一款第三人称射击游戏,故事围绕着保护伞小队执行的各种各样的任务而展开,而作为丧《生化危机7》试玩Demo推出后,玩家们就开始努力寻找隐藏的线索,想方设法从阴森恐怖的小屋中逃出生天。目育碧旗下的开放世界大作《看门狗2》今日正式公布,同时官方还上线了一个倒计时网站,预计将在6月9日的0虽然从目前的统计数据来看,电影《魔兽》的零点场票房想要打破《速度与激情7》的国内记录已经是不可能了,不过 除了全面,及时的第一手资讯报道和发布会直播外,游民星空还将在现场为玩家们带来第一手试玩情报,相关采访,现《看门狗2》于今日凌晨正式公布,预告、实机演示都已经放出,时隔两年的续作能否再次震动游戏圈呢?曾经出现在电影《魔兽》票房的增长速度实在太惊人了,上午才刚刚逼近4亿大关,如今就在刚刚已经传来了突破5亿的消息,这对绝大多数中国人来说,高考不仅仅是为时两天的考试,还是一款通关时间长达十二年(甚至更长),并会在很大程度 今日(6月10日),育碧宣布即将关闭旗下位于摩洛哥的卡萨布兰卡(Ubisoft Casablanca)工 曾准确爆料过诸多大作(例如《尼尔:机械纪元》、《神秘海域:德雷克合集》、《辐射4》特别版等)的UnseeIGN今日更新了E3期待大作列表,加入了一款重磅3A游戏:《战神4》,并且IGN表示《战神4》亮相E3的国内真正意义上的第一台家庭互联游戏主机战斧F1已于近日正式发售,并于昨天抵达了游民星空。在给大家带来了战 今日(6月11日),日本杂志正式曝光了《精灵宝可梦:太阳/月亮》的主役精灵,其中一只居然是可爱的家门狗。mygamersky游民星空是国内单机游戏门户网站,提供最具特色的游戏资讯,最新最全的游戏下载,大量游戏攻略、经验、评测文章,以及最新热门游戏资料专题。热门文章最新文章mygamersky游民星空是国内单机游戏门户网站,提供最具特色的游戏资讯,最新最全的游戏下载,大量游戏攻略、经验、评测文章,以及最新热门游戏资料专题。游戏服务端究竟解决了什么问题?(下)_架构文摘_【传送门】
游戏服务端究竟解决了什么问题?(下)
fingerpass
来源:/fingerpass/p/5172045.html4 游戏世界状态的维护方式4.1数据服务的定位 游戏世界的状态可以简单分为两个部分,一部分是需要存档的,比如玩家数据;一部分是不需要存档的,比如场景状态。对于访问较频繁的部分,比如场景状态,会维护成纯内存数据;对于访问较不频繁的部分,比如玩家存档,就可以考虑维护在第三方。这个第三方,就是数据服务。数据服务与之前所提到的场景服务、IM服务等都属于应用层的概念。数据服务通常也会依赖于一种基础设施抽象,那就是缓存 4.1.1 传统架构中的数据服务传统MMO架构中,数据服务的概念非常模糊。我们还是先通过回顾发展历史的形式来厘清数据服务的定义。回到场景进程的发展阶段,玩家状态是内存中的数据,但是服务器不会一直开着,因此就有了存盘(文件或db)需求。但是随着业务变复杂,存盘逻辑需要数据层暴露越来越多的存储API细节,非常难扩展。因此发展出了Db代理进程,场景进程直接将存档推给Db代理进程,由Db代理进程定期存盘。这样,存储API的细节在Db代理进程内部闭合,游戏逻辑无须再关注。场景进程只需要通过协议封包或者RPC的形式与Db代理进程交互,其他的就不用管了。Db代理进程由于是定期存盘,因此它相当于维护了玩家存档的缓存。这个时候,Db代理进程就具有了数据服务的雏形。跟之前的讨论一样,我在这里又要开始批判一番了。 很多团队至今,新立项的项目都仍然采用这种Db代理进程。虽然确实可以用来满足一定程度的需求,但是,存在几个致命问题。第一,Db代理进程让整个团队的代码复用级别保持在copy-paste层面。玩家存档一定是项目特定的,而采用Db代理进程的团队,通常并不会将Db代理进程设计成普适、通用的,毕竟对于他们来说,Db代理进程是场景进程和存盘之间的唯一中间层。举个例子,Db代理进程提供一个LoadPlayer的RPC接口,那么,接口实现就一定是具体游戏相关的。第二,Db代理进程严重耦合了两个概念:一个是面向游戏逻辑的存储API;一个是数据缓存。数据缓存本质上是一种新的基础设施抽象,kv发展了这么多年,已经涌现出无数高度成熟的工业级缓存基础设施,居然还有新立项游戏对此后知后觉。殊不知,自己对Db代理进程再怎么做扩展,也不过是在feature set上逐渐接近成熟的KV,但是在可用性上就是玩具和工业级生产资料的差距。举个最简单的例子,有多少团队的Db代理进程能提供一个规范化的容忍多少秒掉线的保证?第三,Db代理进程在分区分服架构下通常是一区一个的,一个很重要的原因就是Db代理进程通常是自己YY写出来的,很少能够解决扩容问题。如果多服共用一个Db代理进程,全局单点给系统增加不稳定性的问题暂且按下不表,负载早就撑爆了。但是只是负责缓存玩家存档以及将存档存盘,这跟之前讨论过的全局IM服务定位非常类似,又有什么必要分区分服?我们可以构建一个数据服务解决这些问题。至于依赖的具体缓存基础设施,我之后会以redis为例。redis相比于传统的KV比如memcache、tc,具有不同的设计理念,redis的定位是一种数据结构服务器。游戏服务端开发可以拿redis当缓存用,也可以直接当一个数据库用。数据服务解决了什么问题数据服务首先要解决的就是玩家存档问题。redis作为一个高性能缓存基础设施,可以满足逻辑层的存档需求。同时还可以实现额外的落地服务,比如将redis中的数据定期存回mysql。之所以这样做,一方面是因为redis的定位是高性能缓存设施,那就不希望它被rdb、aofrewrite机制拖慢表现,或者卡IO;另一方面是对于一些数据分析系统,用SQL来描述数据查询需求更合适,如果只用redis,还得单独开发查询工具,得不偿失。数据服务其次要解决的问题是可以做到服务级别的复用。这一点我们可以借助企业应用开发中的ORM来设计一套对象-kv-关系映射。也就是数据服务是统一的,而不同的业务可以用不同的数据结构描述自己的领域模型,然后数据服务的配套工具会自动生成数据访问层API、redis中cache关系以及mysql中的table schema。也就是说,同样的数据服务,我在项目A中引用并定义了Player结构,就会自动生成LoadPlayer的API;在项目B中定义User同理生成LoadUser的API。 这两个问题是比较容易解决的,最关键的还是一个思路的转换。下面看一种non-trivial的实现。Phial中的DataAccess部分(/fingerpasswang/Phial/tree/master/src/DataAccess),Phial的Model代码生成器(/fingerpasswang/Phial.CodeGenerator/tree/master/src/ModelCodeC)。实际上,数据服务除去缓存基础设施的部分,都属于外围机制。在有些设计中,我们可以看到还是存在缓存服务与逻辑服务的中间层。这种中间层的单点问题很容易解决----只要不同的逻辑服务访问不同的中间层节点即可。中间层的意义通常是进行RPC到具体缓存协议API的转换,在我的实现中,由于已经有了数据访问API的自动生成,因此没有这种中间层存在的必要。所有需要访问数据服务的逻辑服务都可以直接通过数据访问API访问。其中还有几点细节:数据访问层API的调用规范与RPC的调用规范保持了统一,都是基于async/await模式。通过数据服务对任意存档进行增加或修改都会记录一个job,由落地服务定期检查job进行落地。引入新的问题目前仍然遗留了几个问题:redis单实例的性能确实很强悍,但是如果全区全服只开一个redis实例确实是存在问题的,这个问题需要解决。数据服务对于传统MMO架构来说可以无缝替换掉丑陋的Db代理进程,但是,既然数据服务已经能提供抽象程度如此高的存储接口,那是否还可以应用在其他地方?4.1.2 无状态服务中数据服务的定位定义问题之前提到过,游戏世界的状态除了需要存档的玩家数据,还有一部分是不需要存档的逻辑服务的状态。数据服务如果只是用来替代MMO中的Db代理进程的,那么它的全部职责就仅仅是为需要存档的数据提供服务。从更高的抽象层次来看的话,数据服务相当于是维护了client在服务端的状态。但是,数据服务提供了更强大的抽象能力。现在数据服务的API结构是任意定制的、code first,而且数据服务依赖的基础设施----redis又被证明非常强大,不仅仅是性能极佳,而且提供了多种数据结构抽象。那么,数据服务是否可以维护其他服务的状态?在web开发中,用缓存维护服务状态是一种很常规的开发思路。而在游戏服务端开发中,由于场景服务的存在,这种思路通常并不靠谱。为什么要用缓存维护服务状态?考虑这样一个问题:如果服务的状态维护在服务进程中,那么服务进程挂掉,状态就不存在了。而对于我们来说,服务的状态是比服务进程本身更加重要的----因为进程挂了可以赶紧重启,哪怕耽误个1、2s,但是状态没了却意味着这个服务在整个分布式服务端中所处的全局一致性已经不正确了,即使瞬间就重启好了也没用。那么为了让服务进程挂掉时不会导致服务状态丢掉,只要分离服务进程的生命周期和服务状态的生命周期就可以了。将进程和状态的生命周期分离带来的另一个好处就是让这类服务的横向扩展成本降到最低。比较简单的分离方法是将服务状态维护在共享内存里----事实上很多项目也确实是这样做的。但是这种做法扩展性不强,比如很难跨物理机,而且共享内存就这样一个文件安全性很难保障。我们可以将服务状态存放在外部设施中,比如数据服务。这种可以将状态存放在外部设施的服务就是无状态服务(stateless service)。而与之对应的,场景服务这种状态需要在进程内维护的就是有状态服务(stateful service)。 有时候跟只接触过游戏服务端开发的业务狗谈起无状态服务,对方竟然会产生 一种“无状态服务是为了解决游戏断线重连的吧”这种论点,真的很哭笑不得。断线重连在游戏开发中固然是大坑之一,但是解决方案从来都跟有无状态毫无关系, 无状态服务毕竟是服务而不是客户端。如果真的能实现一个无状态游戏客户端,那真的是能直接解决坑人无数的断线重连问题。无状态游戏客户端意味着网络通信的成本跟内存数据访问的成本一样低----这当然是不可能实现的。无状态服务就是为了scalability而出现的,无状态服务横向扩展的能力相比于有状态服务大大增强,同时实现负载均衡的成本又远低于有状态服务。分布式系统中有一个基本的CAP原理,也就是一致性C、响应性能A、分区容错P,无法三者兼顾。无状态服务更倾向于CP,有状态服务更倾向于AP。但是要补充一点,有状态服务的P与无状态服务的P所能达到的程度是不一样的,后者是真的容错,前者只能做到不把鸡蛋放在一个篮子里。两种服务的设计意图不同。无状态服务的所有状态访问与修改都增加了内网时延,这对于场景服务这种性能优先的服务是不可忍受的。而有状态服务非常适合场景同步与交互这种数据密集的情景,一方面是数据交互的延迟仅仅是进程内方法调用的开销,另一方面由于数据局部性原理,对同样数据的访问非常快。 既然设计意图本来就是不同的,我们这一节就只讨论数据服务与无状态服务的关系。游戏中可以拆分为无状态服务的业务需求其实有很多,基本上所有服务间交互需求都可以实现为无状态服务。比如切场景服务,因为切场景的请求是有限的,对时延的要求也不会特别高,同理的还有分配房间服务;或者是面向客户端的IM服务、拍卖行服务等等。数据服务对于无状态服务来说,解决了什么问题?简单来说,就是转移了无状态服务的状态维护成本,同时让无状态服务具有了横向扩展的能力。因为状态维护在数据服务中,所以无状态服务开多少个都无所谓。因此无状态服务非常适合计算密集的业务需求。你可能觉得我之前在服务划分一节之后直接提出要引入MQ有些突兀,实际上,服务划分要解决的根本问题就是让程序员能清楚自己定义每种服务的意图是什么,哪一种服务更适合Request-Reply,哪一种服务更适合Ask-Sync。假设策划对游戏没有分服的需求,理论上讲,有节操的程序是不应该以“其他游戏就这样做的”或“做不到”之类的借口搪塞。每一种服务都由分布式的多个节点共同提供服务,如果服务的消息流更适合Request-Reply pattern,那么实现为无状态服务就更合适,原因有二:一个Request上来,取相关数据,处理,直接返回。整个状态的生命周期保持在一次RPC调用过程中,这描述的就是Request-Reply的工作方式。目前只有走MQ的消息pipeline支持Request-Reply pattern,而MQ通常都能很好地支持无状态服务的round-robin work distribution。针对第二点,可能需要稍微介绍下rabbitMQ。rabbitMQ中有exchange(交换机)、queue、binding(绑定规则)三个主要概念。其中,exchange是对应生产者的,queue是对应消费者的,binding则是描述消息从exchange到queue的路由关系的。exchange有两种常用类型direct、topic。其中direct exchange接收到的消息是不会dup的,而topic exchange则会将接收到的消息根据匹配的binding确定要dup到哪个target queue上。这样,对于无状态服务,比如同一命名空间下的切场景服务,可以共用同一个queue,然后client发来的消息走direct exchange,就可以在MQ层面做到round-robin,将消息轮流分配到不同的切场景服务上。而且无状态服务本质上是没有扩容成本的,波峰就多开,波谷就少开。程序员负责为不同服务规划不同的横向扩展方式。比如类似公会服务这种走MQ的,横向扩展的触发条件就是现在请求数量级或者是节点压力。比如场景服务这种Ask-Sync的,横向扩展就需要借助第三方的服务作为仲裁者,而这个仲裁者可以实现为基于MQ的服务。这里有个问题需要注意一下。由于现在同一个client上来的request消息可能由无状态服务的不同节点处理,那么就会出现这样的情况:某个client由于一些原因,快速发了两个message1、message2。message1先到了服务A,服务A去数据服务拉相关数据集合Sa,并进行后续处理。此时message2到了服务B,服务B去数据服务拉相关数据集合Sb,进行后续处理,处理完毕,将结果存回数据服务。然后服务A才处理完,并尝试将处理结果存回数据服务。假如Sa与Sb有交集,那就会出现竞态条件,如果这时允许服务A存回结果,那数据就有可能存在不一致。类似的情况还会出现在像率土之滨或者cok这种策略游戏的大世界刷怪需求中。当然前提是玩家与大地图上的元素交互和后台刷怪逻辑都是基于无状态服务做的。这其实是一个跨进程共享状态问题,而且是一个高度简化的版本----因为这个共享状态只在一个实例上维护。可以引入锁来解决问题,思路通常有两个:最直观的一种方案是悲观锁。也就是如果要进行修改操作,就需要在读相关数据的时候就都加上锁,最后写成功的时候释放锁。获得锁所有权期间其他impure服务任意读写请求都是非法的。但是,这毕竟不是多线程执行环境,没有语言或平台帮你做自动锁释放的保证。获取悲观锁的服务节点不能保证一定会将锁释放掉,拿到锁之后节点挂掉的可能性非常大。这样,就需要给悲观锁增加超时机制。第二种方案是乐观锁。也就是impure服务可以随意进行读请求,读到的数据会额外带个版本号,等写的时候对比版本号,如果一致就可以成功写回,否则就通知到应用层失败,由应用层决定后续操作。带过期机制的悲观锁和乐观锁本质上都属于可抢占的分布式锁,相当于是将paxos要解决的问题退化为单Acceptor,因此实现起来非常简单。可过期的悲观锁和乐观锁唯一的区别就是前者在申请锁的时候有可能申请失败,而后者申请锁时永远不会失败。两种方案具体的表现优劣跟业务需求有关,不论一开始选择的是哪一种,都非常容易切换到另一种。我在示例中实现了一个简单的乐观锁,在提交修改的时候用一个lua脚本做原子检查就能简单实现。如果要实现带过期机制的悲观锁,需要保证应用层有简单的时钟同步机制,而且在申请锁的时候也要写一个lua脚本。在应用层也做了对应修改,调用数据访问层API可以按如下这种方式调用。之所以用了RTTI,是考虑到有可能会改成悲观锁实现,在Dispose的时候会自动release lock。现在pure服务与impure服务对数据服务调用的接口是不一样的,我们甚至还可以基于这一点在底层做一些扩展,最典型的比如读写分离。当然,这些都是引入主从之后要考虑的问题了。有了这样一个简易的锁机制,我们可以保证单redis实例内的一致性。引入新的问题有了无状态服务的概念,我们的架构中就可以逐步干掉类似切场景管理这种单点进程。无状态服务是高可用的,也就是说,任意挂掉一个,仍然能持续提供服务。整个游戏服务端理论上应该具有整体持续提供服务的能力。也就是说,随便挂掉一个节点,不需要停服。场景服务挂掉一个节点,不会影响其他任何服务,只是玩家短期内无法进行场景相关操作了而已。而我们见过的大多数架构,处处皆单点,这完全不能叫可用的架构。有的时候一个服务端跑的好好的,有人硬是要额外加一个全局单点,而且理由是更容易管理,让人哭笑不得。分布式系统中动不动就想加单点,这是病,得治。判断一整个游戏服务端是否具有可用性很简单,随便kill掉一个节点,如果服务端仍然能持续提供服务,即使是部分client受到了影响,也能称为是可用的。但是,现在逻辑服务具有可用性了,可是数据服务还没有具有可用性,数据服务依赖于一个redis实例,这个redis实例反而成为了整个服务端中的单点。幸好,redis像其他大多数工业级缓存基础设施一样,已经提供了足够用的可用性机制。但是,在讨论redis的可用性机制之前,我们先解决一下数据服务的一个遗留问题,那就是如何构建一个可以扩展的全局数据服务。4.2 数据服务的扩展redis是一种stateful service,继续应用之前的CAP原则,redis是倾向于AP的。之后我们可以看到,redis的各种扩展,实际上都是基于这个原则来做的。4.2.1 分片方案定义问题我们遇到的问题是,如果将数据服务定位为全局服务,那仅用单实例的redis就难以应对多变的负载情况。毕竟redis是单线程的。从mysql一路用过来的同学这时都会习惯性地水平拆分,redis中也是类似的原理,将整体的数据进行切分,每一部分是一个分片shard,不同的shard维护的key集合是不同的。那么,问题的实质就是如何基于多个redis实例设计全局统一的数据服务。同时,有一个约束条件,那就是我们为了性能需要牺牲全局一致性。也就是说,数据服务进行分片扩展的前提是,不提供跨分片事务的保障。redis cluster也没有提供类似支持,因为分布式事务本来就跟redis的定位是有冲突的。因此,我们之后的讨论会有一个预设前提:不同shard中的数据一定是严格隔离的,比如是不同组服的数据,或者是完全不相干的数据。要想实现跨shard的数据交互,必须依赖更上层的协调机制保证,底层不做任何承诺。这样,我们的分片数据服务就能通过之前提到的简易锁机制提供单片内的一致性保证,而不再提供全局的一致性保证。基于同样的原因,我们的分片方案也不会在分片间做类似分布式存储系统的数据冗余机制。分片方案解决了什么问题分片需要解决两个问题:第一个问题,分片方案需要描述shard与shard之间的联系,也就是cluster membership。第二个问题,分片方案需要描述dbClient的一个请求应该交给哪个shard,也就是work distribution。 针对第一个问题,解决方案通常有三:presharding,也就是sharding静态配置。gossip protocol,其实就是redis cluster采用的方案。简单地说就是集群中每个节点会由于网络分化、节点抖动等原因而具有不同的集群全局视图。节点之间通过gossip protocol进行节点信息共享。这种方案更强调CAP中的A原则,因为不需要有仲裁者。consensus system,这种方案跟上一种正相反,更强调CAP中的C原则,就是借助分布式系统中的仲裁者来决定集群中各节点的身份。需求决定解决方案,对于游戏服务端来说,后两者的成本太高,而且增加了很多不确定的复杂性,因此现阶段这两种方案并不是合适的选择。比如gossip protocol,redis cluster现在都不算是release,确实不太适合游戏服务端。而且,游戏服务端毕竟不是web服务,通常是可以在设计阶段确定每个分片的容量上限的,也不需要太复杂的机制支持。但是第一种方案的缺点也很明显,做不到动态增容减容,而且无法高可用。但是如果稍加改造,就足以满足需求了。在谈具体的改造措施之前,先看之前提出的第二个问题。第二个问题实际上是从另一种维度看分片,解决方案很多,但是如果从对架构的影响上来看,大概分为两种:一种是proxy-based,基于额外的转发代理。例子有twemproxy/Codis。一种是client sharding,也就是dbClient(每个对数据服务有需求的服务)维护sharding规则,自助式选择要去哪个redis实例。redis cluster本质上就属于这种,client侧缓存了部分sharding信息。第一种方案的缺点显而易见,在整个架构中增加了额外的间接层,pipeline中增加了一趟round-trip。如果是像twemproxy或者Codis这种支持高可用的还好,但是github上随便一翻还能找到特别多的没法做到高可用的proxy-based方案,无缘无故多个单点,这样就完全搞不明白sharding的意义何在了。第二种方案的缺点就是集群状态发生变化的时候没法即时通知到dbClient。第一种方案,我们其实可以直接pass掉了。因为这种方案本质上还是更适合web开发的。web开发部门众多,开发数据服务的部门有可能和业务部门相去甚远,因此需要统一的转发代理服务。但是游戏开发不一样,数据服务逻辑服务都是一帮人开发的,没什么增加额外中间层的必要。那么,看起来只能选择第二种方案了。将presharding与client sharding结合起来后,现在我们的改造成果是:数据服务是全局的,redis可以开多个实例,不相干的数据需要到不同的shard上存取,dbClient掌握这个映射关系。引入新的问题目前的方案只能满足游戏对数据服务的基本需求。大部分采用redis的游戏团队,一般最终会选定这个方案作为自己的数据服务。后续的扩展其实对他们来说不是不可以做,但是可能有维护上的复杂性与不确定性。今天这篇文章,我就继续对数据服务做扩展,后面的内容权当抛砖引玉。现在的这个方案存在两个问题:首先,虽然我们没有支持在线数据迁移的必要,但是离线数据迁移是必须得有的,毕竟presharding做不到万无一失。而在这个方案中,如果用单纯的哈希算法,增加一个shard会导致原先的key到shard的对应关系变得非常乱,抬高数据迁移成本。其次,分片方案固然可以将整个数据服务的崩溃风险分散在不同shard中,比如相比于不分片的数据服务,一台机器挂掉了,只影响到一部分玩家。但是,我们理应可以对数据服务做更深入的扩展,让其可用程度更强。针对第一个问题,处理方式跟proxy-based采用的处理方式没太大区别,由于目前的数据服务方案比较简单,采用一致性哈希即可。或者采用一种比较简单的两段映射,第一段是静态的固定哈希,第二段是动态的可配置map。前者通过算法,后者通过map配置维护的方式,都能最小化影响到的key集合。而对于第二个问题,实际上就是上一节末提到的数据服务可用性问题。4.2.2 可用性方案定义问题讨论数据服务的可用性之前,我们首先看redis的可用性。对于redis来说,可用性的本质是什么?其实就是redis实例挂掉之后可以有后备节点顶上。 redis通过两种机制支持这一点。一种机制是replication。通常的replication方案主要分为两种。一种是active-passive,也就是active节点先修改自身状态,然后写统一持久化log,然后passive节点读log跟进状态。另一种是active-active,写请求统一写到持久化log,然后每个active节点自动同步log进度。
还是由于CAP原则,redis的replication方案采用的是一种一致性较弱的active-passive方案。也就是master自身维护log,将log向其他slave同步,master挂掉有可能导致部分log丢失,client写完master即可收到成功返回,是一种异步replication。这个机制只能解决节点数据冗余的问题,redis要具有可用性就还得解决redis实例挂掉让备胎自动顶上的问题,毕竟由人肉去监控master状态再人肉切换是不现实的。 因此还需要第二种机制。第二种机制是redis自带的能够自动化fail-over的redis sentinel。reds sentinel实际上是一种特殊的reds实例,其本身就是一种高可用服务,可以多开,可以自动服务发现(基于redis内置的pub-sub支持,sentinel并没有禁用掉pub-sub的command map),可以自主leader election(基于sentinel实现的raft算法),然后在发现master挂掉时由leader发起fail-over,并将掉线后再上线的master降为新master的slave。 redis基于自带的这两种机制,已经能够实现一定程度的可用性。那么接下来,我们来看数据服务如何高可用。数据服务具有可用性的本质是什么?除了能实现redis可用性的需求----redis实例数据冗余、故障自动切换之外,还需要将切换的消息通知到每个dbClient。由于是redis sentinel负责主从切换,因此最自然的想法就是问sentinel请求当前节点主从连接信息。但是redis sentinel本身也是redis实例,数量也是动态的,redis sentinel的连接信息不仅在配置上成了一个难题,动态更新时也会有各种问题。而且,redis sentinel本质上是整个服务端的static parts(要像dbClient提供服务),但是却依赖于redis的启动,并不是特别优雅。另一方面,dbClient要想问redis sentinel要到当前连接信息,只能依赖其内置的pub-sub机制。redis的pub-sub只是一个简单的消息分发,没有消息持久化,因此需要轮询式的请求连接信息模型。上一节末提到过,要想最小化数据迁移成本可以采用两段映射或一致性哈希。这时还有另一种可以扩展的思路,如果采用两段映射,那么我们可以动态下发第二段的配置数据;如果采用一致性哈希,那么我们可以动态下发分片的连接信息。这其中的动态,就可以基于新的符合Phial规范的服务来做。而这个通知机制,就非常适合采用Phial中的Notify pattern实现。而且redis sentinel的实现难度比较低,我们完全可以以较低的成本实现一个扩展性更强,定制性更强,还能额外支持分片服务的部分在线数据迁移机制的服务。同时,有一部分我在这篇文章里也没提过,那就是落地服务所依赖的mysql的可用性保障机制。相比于再开一个额外的mysql高可用组件,倒不如整合到同样的一个数据服务监控服务中。这个监控服务就是watcher。由于原理类似,接下来的讨论就不再涉及对mysql的监控部分,只针对redis的。watcher解决了什么问题?要能够监控redis的生存状态。这一点实现起来很简单,定期的PING redis实例即可。需要的信息以及做出客观下线和主观下线的判断依据都可以直接照搬sentinel实现。要做到自主服务发现,包括其他watcher的发现与所监控的master-slave组中的新节点的发现。前者基于MQ定期Notify通知,后者定期INFO 监控的master实例即可。要在发现master客观下线的时候选出leader进行后续的故障转移流程。这部分实现起来算是最复杂的部分,接下来会集中讨论。选出leader之后将一个最合适的slave提升为master,然后等老的master再上线了就把它降级为新master的slave。解决这些问题,watcher的职责就已经达成,我们的数据服务也就更加健壮,可用程度更高。引入新的问题但是,如果我们引入了新的服务,那就引入了新的不确定性。如果引入这个服务的同时还要保证数据服务具有可用性,那我们就还得保证这个服务本身是可用的。先简单介绍一下redis sentinel的可用性是如何做到的。同时监控同一组主从的sentinel可以有多个,master挂掉的时候,这些sentinel会根据一种raft算法的工业级实现选举出leader,算法流程也不是特别复杂,至少比paxos简单多了。所有sentinel都是follower,判断出master客观下线的sentinel会升级成candidate同时向其他follower拉票,所有follower同一epoch内只能投给第一个向自己拉票的candidate。在具体表现中,通常一两个epoch就能保证形成多数派,选出leader。有了leader,后面再对redis做SL***EOF的时候就容易多了。如果想用watcher取代sentinel,最复杂的实现细节可能就是这部分逻辑了。这部分逻辑说白了就是要在分布式系统中维护一个一致状态,举个例子,可以将“谁是leader”这个概念当作一个状态量,由分布式系统中的身份相等的几个节点共同维护,既然谁都有可能修改这个变量,那究竟谁的修改才奏效呢?幸好,针对这种常见的问题情景,我们有现成的基础设施抽象可以解决。这种基础设施就是分布式系统的协调器组件(coordinator),老牌的有zookeeper(zab),新一点的有etcd(raft)。这种组件通常没有重复开发的必要,像paxos这种算法理解起来都得老半天,实现起来的细节数量级更是难以想象。因此很多现成的开源项目都是依赖这两者实现高可用的,比如codis就是用的zk。zk解决了什么问题?就我们的游戏服务端需求来说,zk可以用来选leader,还可以用来维护dbClient的配置数据----dbClient直接去找zk要数据就行了。zk的具体原理我就不再介绍了,具体的可以参考lamport的paxos paper,没时间没精力的话搜一下看看zk实现原理的博客就行了。简单介绍下如何基于zk实现leader election。zk提供了一个类似于os文件系统的目录结构,目录结构上的每个节点都有类型的概念同时可以存储一些数据。zk还提供了一次性触发的watch机制。leader election就是基于这几点概念实现的。假设有某个目录节点/election,watcher1启动的时候在这个节点下面创建一个子节点,节点类型是临时顺序节点,也就是说这个节点会随创建者挂掉而挂掉,顺序的意思就是会在节点的名字后面加个数字后缀,唯一标识这个节点在/election的子节点中的id。一个简单的方案是我们可以每个watcher都watch /election的所有子节点,然后看自己的id是否是最小的,如果是就说明自己是leader,然后告诉应用层自己是leader,让应用层进行后续操作就行了。但是这样会产生惊群效应,因为一个子节点删除,每个watcher都会收到通知,但是至多一个watcher会从follower变为leader。优化一些的方案是每个节点都关注比自己小一个排位的节点。这样如果id最小的节点挂掉之后,id次小的节点会收到通知然后了解到自己成为了leader,避免了惊群效应。还有一点需要注意的是,临时顺序节点的临时性体现在一次session而不是一次连接的终止。例如watcher1每次申请节点都叫watcher1,第一次它申请成功的节点全名假设是watcher10002(后面的是zk自动加的序列号),然后下线,watcher10002节点还会存在一段时间,如果这段时间内watcher1再上线,再尝试创建watcher1就会失败,然后之前的节点过一会儿就因为session超时而销毁,这样就相当于这个watcher1消失了。解决方案有两个,可以创建节点前先显式delete一次,也可以通过其他机制保证每次创建节点的名字不同,比如guid。至于配置下发,就更简单了。配置变更时直接更新节点数据,就能借助zk通知到关注的dbClient,这种事件通知机制相比于轮询请求sentinel要配置数据的机制更加优雅。我在实现中将zk作为路由协议的一种整合进了Phial规范,这样基于zk的消息通知可以直接走Phial的RPC协议。有兴趣的同学可以看下我实现的zkAdaptor(/fingerpasswang/Phial/blob/master/src/RPC/RPCBase.Server/Adaptor/ZkAdaptor.cs),leader election的功能作为zkAdaptor的特殊API,watcherService会直接调用。而配置下发直接走了RPC协议,集成在统一的Phial.RPC规范中。zkAdaptor仅支持Phial.RPC中的Notify pattern watcher的实现在这里(/fingerpasswang/Phial.Fantasy/tree/master/src/Watcher)。5.总结目前形成的架构以及能做什么整理下这篇文章到目前为止做了什么事情:在文章的一开始确定了游戏服务端要解决的核心两个问题:消息的pipeline与游戏世界状态维护。通过回顾历史的形式提出游戏服务端中最常见的需求情景:多玩家场景同步,并梳理了场景同步最适合的消息pipeline。结合切场景的扩展需求,提出Gate这种基础设施抽象(infrastructure abstraction,简称IA)。尝试进行高内聚、低耦合的服务划分,并总结Gate无法兼顾的消息pipeline。针对Gate无法处理的消息pipeline(service -> service),提出新的MQ-IA,可以大大简化服务间拓扑关系。基于不同的IA与相关协议,提出更高层次的RPC协议,定义了适合.Net2.0和.Net4.5的两种异步RPC调用规范。实现了不同IA到统一规范的Adaptor。总结了游戏中RPC应用的pattern,不同pattern如何与不同IA结合使用。同样通过回顾历史的形式引入数据服务来取代传统MMO中的Db代理进程。结合MQ与数据服务,提出无状态服务在游戏服务端中的应用情景,展开介绍数据服务对于无状态服务的意义所在。基于构建全局数据服务的理念,尝试实现一种多实例的、每实例内向不同服务提供原子修改操作级别一致性的数据服务。为数据服务增加了符合需求的高可用支持。引入了zookeeper,可以让普通的服务也可以复用同样的协调者组件。总结下出现的几种概念:IA。包括Gate、MQ、内存db、持久化强一致性db、分布式协调器等等。不同的IA各司其职,各自只负责解决分布式系统中的一小部分问题。RPC与Pattern。面向应用层的统一服务调用方式与规范。Adaptor。不同的IA与相关协议到统一RPC与Pattern的适配器。到目前为止的拓扑图: 系统设计中的static parts与dynamic partsstaticgate/mq/zk/redis/mysqldynamicalmost all custom services这篇文章的灵感起源是the log(/distributed-systems/log-what-every-software-engineer-should-know-about-real-time-datas-unifying),看完之后深有感触。虽然J***A不是一门好语言,但是J***A技术栈却发展得如此优雅。J***A技术栈上的每一种IA都专注于解决特定的一小块问题,比如这里提到的。未来的应用框架开发者,就像是用胶水将这些基础设施粘合起来。游戏服务端程序员通常习惯于c++的小圈子,甚至有一种传教的趋势宣扬c++才是代表的游戏服务端的核心技术。有的时候,游戏程序员需要从c++的小圈子跳出来向外走一走,有可能你就不想再湮没在繁文缛节中,而是发现更大的世界。不过话又说回来,不喜欢跳出c++小圈子的游戏服务端程序员,大部分又都对c++本身其实知之甚少,奉OOP为圭臬,各种虚继承、多继承出来的代码看到想吐。尝试用模板的各种奇技淫巧把c++写成haskell的虽然更有跳出c++小圈子的倾向,但是既然都如此用了,又何必拘泥于c++?其他我在这篇文章里尽量少的插入代码,尽量描述游戏服务端定义问题、解决问题的思路。服务端用C#写的毕竟是少数,但是有了思路随便改写成其他语言都没问题。我顺便也借着写这篇博客的机会,整理了下一些小东西放在github上。比如之前的面向组合子博客(/fingerpass/p/combinator-oriented-designing.html)提到的代码生成器组合子,CodeC(/fingerpasswang/CodeC)比如之前的定时器博客提到的linux内核风格定时器,以及基于定时器写的example,C#协程,都放在这里,CoroutineSharp(/fingerpasswang/CoroutineSharp)比如之前的游戏AI博客(/fingerpass/p/discussion-about-game-ai.html)提到的行为树编译器原型和c# runtime示例,Behaviour(/fingerpasswang/Behaviour)还有学习parsec的一个小结,可以用来parse单个c#文件拿到一些描述信息的,当然纯属学习性质,有这种需求的时候最好优先用反射。cs_file_parser(/fingerpasswang/cs_file_parser)然后就是跟这篇博客相关的:一个简单的网络库,Network(/fingerpasswang/Network);一个简单的基于Network的Gate,GateSharp(/fingerpasswang/GateSharp);规范的整个底层库,Phial(/fingerpasswang/Phial);为底层库开发的两个配套代码生成器,Phial.CodeGenerator(/fingerpasswang/Phial.CodeGenerator);示例实现,Phial.Fantasy(/fingerpasswang/Phial.Fantasy)。github中的以演示为目的,因此相比于博客,还有不少部分是to be determined(比如详细的配置流程、MQ的集群化、mysql的故障转移集成、落地服务的实现细节等等),之后我也会继续维护。版权申明:内容来源网络,版权归原创者所有。除非无法确认,我们都会标明作者及出处,如有侵权烦请告知,我们会立即删除并表示歉意。谢谢。-END-架构文摘ID:ArchDigest互联网应用架构丨架构技术丨大型网站丨大数据丨机器学习更多精彩文章,请点击下方:阅读原文
觉得不错,分享给更多人看到
架构文摘 微信二维码
分享这篇文章
8月1日 22:31
架构文摘 最新文章
架构文摘 热门文章