游戏服务器最后一个玩家怎么汇总所以玩家点击的次数。比如说一个按钮只要有玩家成功点击,服务器最后一个玩家就加一

游戏服务器最后一个玩家是一個会长期运行程序,并且它还要服务于多个不定时不定点的网络请求。所以这类服务的特点是要特别关注稳定性和性能这类程序如果需要多个协作来提高承载能力,则还要关注部署和扩容的便利性;同时还需要考虑如何实现某种程度容灾需求。由于多进程协同工作吔带来了开发的复杂度,这也是需要关注的问题

功能约束,是架构设计决定性因素基于游戏业务的功能特征,对服务器最后一个玩家端系统来说有以下几个特殊的需求:

游戏和玩家的数据存储落地

对玩家交互数据进行广播和同步

重要逻辑要在服务器最后一个玩家上运算,做好验证防止外挂。

针对以上的需求特征在服务器最后一个玩家端,我们往往会关注对电脑内存和CPU的使用以求在特定业务代码丅,能尽量满足高承载低响应延迟的需求最基本的做法就是“空间换时间”,用各种缓存的方式来以求得CPU和内存空间上的平衡另外还囿一个约束:带宽。网络带宽直接限制了服务器最后一个玩家的处理能力所以游戏服务器最后一个玩家架构也必定要考虑这个因素。

    对於游戏服务端架构最重要的三个部分就是,如何使用CPU、内存、网卡的设计:

内存架构:主要决定服务器最后一个玩家如何使用内存以朂大化利用服务器最后一个玩家端内存来提高承载量,降低服务延迟

逻辑架构:设计如何使用进程、线程、协程这些对于CPU调度的方案。選择同步、异步等不同的编程模型以提高服务器最后一个玩家的稳定性和承载量。可以分区分服也可以采用世界服的方式,将相同功能模块划分到不同的服务器最后一个玩家来处理

通信模式:决定使用何种方式通讯。基于游戏类型不同采用不同的通信模式比如http,tcp,udp等。

1、卡牌等休闲游戏弱交互游戏

服务器最后一个玩家基于游戏类型不同所采用的架构也有所不同,我们先讲一下简单的模型采用http通信模式架构的服务器最后一个玩家:

服务器最后一个玩家基于游戏类型不同,所采用的架构也有所不同我们先讲一下简单的模型,采用http通信模式架构的服务器最后一个玩家:

这种服务器最后一个玩家架构和我们常用的web服务器最后一个玩家架构差不多也是采用nginx负载集群支持服务器朂后一个玩家的水平扩展,memcache做缓存唯一不同的地点不同的在于通信层需要对协议再加工和加密,一般每个公司都有自己的一套基于http的协議层框架很少采用开源框架。

长连接游戏和弱联网游戏不同的地方在于长连接中,玩家是有状态的服务器最后一个玩家可以时时和client茭互,数据的传送不像弱联网一般每次都需要重新创建一个连接,消息传送的频率以及速度上都快于弱联网游戏长链接网游的架构经過几代的迭代,类型也变得日益丰富以下为每一代服务器最后一个玩家的特点以及架构模式。

1)、第一代网游服务器最后一个玩家(单线程无阻塞)

MUD1 是一款纯文字的世界没有任何图片,但是不同计算机前的玩家可以在游戏里共同冒险、交流与以往具有网络联机功能的游戲相比, MUD1是第一款真正意义上的实时多人交互的网络游戏,它最大的特色是能够保证整个虚拟世界和玩家角色的持续发展——无论是玩家退絀后重新登录还是服务器最后一个玩家重启游戏中的场景、宝箱、怪物和谜题仍保持不变,玩家的角色也依然是上次的状态

MUDOS使用单线程无阻塞套接字来服务所有玩家,所有玩家的请求都发到同一个线程去处理主线程每隔1秒钟更新一次所有对象(网络收发,对象状态刷新地图,刷新NPC)用户使用 Telnet之类的客户端用 Tcp协议连接到 MUDOS上,使用纯文字进行游戏每条指令用回车进行分割。这样的系统在当时每台服務器最后一个玩家承载个4000人同时游戏从1991年的 MUDOS发布后,全球各地都在为他改进扩充,推出新版本

MUDOS中游戏内容通过 LPC脚本进行定制,逻辑處理采用单线程tick轮询这也是第一款服务端架构模型,后来被应用到不同游戏上后续很多游戏都是跟《UO》一样,直接在 MUDOS上进行二次开发直到 如今,一些回合制游戏以及对运算量小的游戏,依然采用这种服务器最后一个玩家架构

2) 、第二代网游服务器最后一个玩家(分區分服)

2000年左右,随着图形界面的出现游戏更多的采用图形界面与用户交互。此时随着在线人数的增加和游戏数据的增加服务器最后┅个玩家变得不抗重负。于是就有了分服模型分服模型结构如下:


分服模型是游戏服务器最后一个玩家中最典型,也是历久最悠久的模型在早期服务器最后一个玩家的承载量达到上限的时候,游戏开发者就通过架设更多的服务器最后一个玩家来解决这样提供了很多个遊戏的“平行世界”,让游戏中的人人之间的比较产生了更多的空间。其特征是游戏服务器最后一个玩家是一个个单独的世界每个服務器最后一个玩家的帐号是独立的,每台服务器最后一个玩家用户的状态都是不一样的一个服就是一个世界,大家各不牵扯

后来游戏玩家呼吁要跨服打架,于是就出现了跨服战再加上随着游戏的运行,单个服务器最后一个玩家的游戏活跃玩家越来越少所以后期就有叻服务器最后一个玩家的合并以及迁移,慢慢的以服务器最后一个玩家的开放、合并形成了一套成熟的运营手段目前多数游戏还采用分垺的结构来架设服务器最后一个玩家,多数页游还是采用这种模式

分服虽然可以解决服务器最后一个玩家扩展的瓶颈,但单台服务器最後一个玩家在以前单线程的方式来运行没办法充分利用服务器最后一个玩家资源,于是又演变出了以下2种线程模型

异步-多线程,基于烸个场景(或者房间)分配一个线程。每个场景的玩家同属于一个线程游戏的场景是固定的,不会很多如此线程的数量可以保证不會不断增大。每个场景线程同样采用tick轮询的方式,来定时更新该场景内的(对象状态刷新地图,刷新NPC)数据状态玩家如果跨场景的話,就采用投递和通知的方式告知两个场景线程,以此更新两个场景的玩家数据

多进程。由于单进程架构下总会存在承载量的极限,越是复杂的游戏其单进程承载量就越低,因此一定要突破进程的限制才能支撑更复杂的游戏。多进程系统的其他一些好处:能够利鼡上多核CPU能力、更容易进行容灾处理

多进程系统比较经典的模型是“三层架构”,比如基于之前的场景线程再做改进,把网络部分和數据库部分分离为单独的进程来处理逻辑进程专心处理逻辑任务,不合IO打交道网络IO和磁盘IO分别交由网路进程和DB进程处理。

3)、第三代网遊服务器最后一个玩家

之前的网游服务器最后一个玩家都是分区分服玩家都被划分在不同的服务器最后一个玩家上,每台服务器最后一個玩家运行的逻辑相同玩家不能在不同服务器最后一个玩家之间交互。想要更多的玩家在同一世界保持玩家的活跃度,于是就有了世堺服模型了世界服类型也有以下3种演化:

网关部分分离成单端的gate服务器最后一个玩家,DB部分分离为DB服务器最后一个玩家把网络功能单独提取出来,让用户统一去连接一个网关服务器最后一个玩家再有网关服务器最后一个玩家转发数据到后端游戏服务器最后一个玩家。而遊戏服务器最后一个玩家之间数据交换也统一连接到网管进行交换所有有DB交互的,都连接到DB服务器最后一个玩家来代理处理

有了一类型的经验,后续肯定是拆分的越细性能越好,就类似现在微服务每个相同的模块分布到一台服务器最后一个玩家处理,多组服务器最後一个玩家集群共同组成一个游戏服务端一般地,我们可以将一个组内的服务器最后一个玩家简单地分成两类:场景相关的(如:行走、战斗等)以及场景不相关的(如:公会聊天、不受区域限制的贸易等)经常可以见到的一种方案是:gate服务器最后一个玩家、场景服务器最后一个玩家、非场景服务器最后一个玩家、聊天管理器、AI服务器最后一个玩家以及数据库代理服务器最后一个玩家。如下模型:

以上中峩们简单的讲下常见服务器最后一个玩家的三种类型功能:

场景服务器最后一个玩家:它负责完成主要的游戏逻辑这些逻辑包括:角色在遊戏场景中的进入与退出、角色的行走与跑动、角色战斗(包括打怪)、任务的认领等。场景服务器最后一个玩家设计的好坏是整个游戏卋界服务器最后一个玩家性能差异的主要体现它的设计难度不仅仅在于通信模型方面,更主要的是整个服务器最后一个玩家的体系架构囷同步机制的设计

非场景服务器最后一个玩家:它主要负责完成与游戏场景不相关的游戏逻辑,这些逻辑不依靠游戏的地图系统也能正瑺进行比如公会聊天或世界聊天,之所以把它从场景服务器最后一个玩家中独立出来是为了节省场景服务器最后一个玩家的CPU和带宽资源,让场景服务器最后一个玩家能够尽可能快地处理那些对游戏流畅性影响较大的游戏逻辑

网关服务器最后一个玩家: 在类型一种的架构Φ,玩家在多个地图跳转或者场景切换的时候采用跳转的模式以此进行跳转不同的服务器最后一个玩家。还有一种方式是把这些服务器朂后一个玩家的节点都通过网关服务器最后一个玩家管理玩家和网关服务器最后一个玩家交互,每个场景或者服务器最后一个玩家切换嘚时候也有网关服务器最后一个玩家统一来交换数据,如此玩家操作会比较流畅

通过这种类型服务器最后一个玩家架构,因为压力分散了性能会有明显提升,负载也更大了包括目前一些大型的 MMORPG游戏就是采用此架构。不过每增加一级服务器最后一个玩家状态机复杂喥可能会翻倍,导致研发和找bug的成本上升这个对开发组挑战比较大,没有经验很容出错。

 魔兽世界的中无缝地图想必大家印象深刻,整个世界的移动没有像以往的游戏一样,在切换场景的时候需要loading等待而是直接行走过去,体验流畅

现在的游戏大地图采用无缝地图多數采用的是9宫格的样式来处理,由于地图没有魔兽世纪那么大所以采用单台服务器最后一个玩家多进程处理即可,不过类似魔兽世界这種大世界地图必须考虑2个问题:

1、多个地图节点如何无缝拼接,特别是当地图节点比较多的时候如何保证无缝拼接

2、如何支持动态分咘,有些区域人多有些区域人少,保证服务器最后一个玩家资源利用的最大化

为了解决这个问题比较以往按照地图来切割游戏而言,無缝世界并不存在一块地图上面的人有且只由一台服务器最后一个玩家处理了此时需要一组服务器最后一个玩家来处理,每台 Node服务器最後一个玩家用来管理一块地图区域由 NodeMaster(NM)来为他们提供总体管理。更高层次的 World则提供大陆级别的管理服务

一个 Node所负责的区域,地理上沒必要连接在一起可以统一交给一个Node去管理,而这些区块在地理上并没有联系在一起的必要性一个 Node到底管理哪些区块,可以根据游戏實时运行的负载情况定时维护的时候进行更改 NodeMaster 上面的配置。

玩家A、B、C分别代表3种不同的状态以及不同的迁移方式,我们分别来看

  • 玩镓A: 玩家A在node1地图服务器最后一个玩家上,由node1控制如果迁移到node2上,需要将其数据复制到node2上然后从node1移除。
  • 玩家B: 玩家B在node1和node2中间此时由node1和node2维护,若是从node1行走到node2的过程中会向1请求,同时向2请求待全部移动过去了再移除。
  • 玩家C:玩家C在node2地图服务器最后一个玩家上由node2控制,如果迁迻到node1上需要将其数据复制到node1上,然后从node2移除

具体魔兽世界服务器最后一个玩家的分析,篇幅过多我们以后再聊。

3、房间服务器最后┅个玩家(游戏大厅)

房间类玩法和MMORPG有很大的不同在于其在线广播单元的不确定性和广播数量很小。而且需要匹配一台房间服务器最后┅个玩家让少数人进入一个服务器最后一个玩家

这一类游戏最重要的是其“游戏大厅”的承载量,每个“游戏房间”受逻辑所限需要維持和广播的玩家数据是有限的,但是“游戏大厅”需要维持相当高的在线用户数所以一般来说,这种游戏还是需要做“分服”的典型的游戏就是《英雄联盟》这一类游戏了。而“游戏大厅”里面最有挑战性的任务就是“自动匹配”玩家进入一个“游戏房间”,这需偠对所有在线玩家做搜索和过滤

玩家先登录“大厅服务器最后一个玩家”,然后选择组队游戏的功能服务器最后一个玩家会通知参与嘚所有游戏客户端,新开一条连接到房间服务器最后一个玩家上这样所有参与的用户就能在房间服务器最后一个玩家里进行游戏交互了。

游戏行业相对于互联网应用来说其开放性和标准化并不完善,这就导致了很其他行业看游戏有一种神秘面纱隐秘而封闭。

造成这个原因有很多游戏业务的复杂性以及受众群体小是主要原因,它不像web应用天生有开源组织和社区基因的支持也没有互联网行业的如此大嘚受众面和影响力,除了一些比较出名的游戏引擎以外其他的功能组建都是有各个游戏公司基于自己业务逻辑自己搭建每个公司业务方姠不同又加大了知识的流通以及标准的建立,这对整个生态的发展已经产生了制约特别是那些想加入游戏行业的新人来说,准入门槛较高网上可找到的学习资料也很少。

这种现象目前正在发生改变除了受众群体越来越大和丰富以外,还有一些技术组织正在推进整个社區的进步

比如每年一度的unity 技术大会,以及其他优秀的开源引擎都在积极推进整个游戏社区的创建除了吸引更多优秀的技术人才和团队加入,这一切都让游戏行业变得越来越开放和规范让行业内的知识也得以流通和继承。当然了也期望每个游戏人能够加入进来,分享洎己的知识让自由开放的共享精神传承每个地方。

伴随着手游浪潮实时PK已成为很哆游戏的标配。但由于网络延迟的存在玩家本地状态、在服务器最后一个玩家的状态和在其他玩家机器上的状态,三者不可能一致同步问题本质上是一致性问题,游戏中不同玩家看到的状态需要是一致的假如游戏中A、B两个玩家移动,并同时向对方发出射击的指令如果没有合适的同步机制,那么可能出现的情况有:A屏幕显示B已经被杀死B屏幕显示A已经被杀死。因此需要有同步机制来解决由于网络延迟囷渲染延迟等造成的玩家状态不一致问题给玩家更好的游戏体验。同步机制有许多种根据游戏类型、技术条件甚至时代背景的不同,選择的同步机制也会不同同步机制的选择,还可能涉及服务器最后一个玩家架构的调整

网络游戏同步,常用的两种方案是帧同步状態同步

帧同步是同步玩家的指令,服务器最后一个玩家负责转发客户端的操作每个客户端以固定的逻辑帧执行所有客户端的操作指令,通过在严格一致的时间轴上执行同样的命令序列获得同样的结果

状态同步跟帧同步的最大区别是服务器最后一个玩家不在进行切逻辑幀,而是同步玩家状态信息比如位置、属性、跟玩法相关的数据。通常主逻辑在服务器最后一个玩家运行客户端只是作为一个显示。采用状态同步的游戏有CFM、LOL等

帧同步的网络流量较小,但防外挂、断线重连的难度比较大状态同步中服务器最后一个玩家有所有玩家的狀态,安全性较高游戏运营更可控。是否选择状态同步需要看同步的实体数量。在大场景中同步的单位比较多时,往往会放弃状态哃步比如星际争霸中玩家可操作的实体多达上百个,如采用状态同步的话网络流量将非常大

《天天酷跑》(以下简称“酷跑”)是一款横版跑酷游戏,先后推出了多种PVP玩法包括世界对战、多人战、团队赛等等。下面介绍游戏几种典型pvp玩法在服务器最后一个玩家端的同步方案和对应的架构调整

为了增加玩家之间的互动,酷跑上线3个月后规划了世界对战的玩法。具体玩法是:参与游戏的玩家两两匹配進行对战最后根据比赛分数、距离等决定胜负。

酷跑作为一个全民游戏必须考虑玩家的网络状况。下图是酷跑世界对战推出时移动游戲接入网络的统计2G/3G网络比例很高,网络质量不稳定且都是按照流量收费。游戏过程中大规模的数据同步在当时还是不适合的同时早期移动游戏的人力投入都比较小,版本迭代节奏也很快

因此世界对战玩法提出时,酷跑选择了简单的同步方案——通过TCaplus数据库(腾讯自研NOSQL数据库)来实现玩家之间的数据同步世界对战属于异步PVP,为了节省流量玩家在游戏过程中没有交互,只在重要节点同步包括匹配荿功、开局、结算、领奖,同步数据量小、协议交互频率低同时TCaplus数据库具有很高的读写性能,并且有专业的运维团队维护使得开发团隊的工作量相对较小,又能满足世界对战的同步需求

服务器最后一个玩家设计了TCaplus数据库表TB_PVPMATCH,用于记录玩家世界对战数据每次参加世界對战会在TB_PVPMATCH表中增加一条记录,记录中定义了一个status字段用于记录玩家找到对手、确认对手、付入场费、上报分数、领奖状态的变迁。

玩家匹配成功后会新增一条记录到TB_PVPMATCH表中status状态标记为初始化。匹配成功后客户端会固定每秒1次的频率发送对战状态协议到服务器最后一个玩镓,直到双方都扣入场费后开局服务器最后一个玩家收到拉取对战状态协议后,从TCaplus中获取TB_PVPMATCH表对应自己和对手的记录根据双方的状态更噺自己的记录并写入TCaplus和发送客户端。当客户端拉取的响应消息中标记入场费已扣除则开局开始游戏。

游戏结束后再次通过对战状态协議通知游戏已结束,服务器最后一个玩家获取本局游戏数据并更新到TB_PVPMATCH表对应的记录中如果对方已结束游戏,则可以直接结算如果对方還在游戏中,玩家可以选择在结算界面等待对方或直接退出下次再查看比赛结果。在结算的时候或拉取对战双方在TB_PVPMATCH表中的记录,根据雙方数据来判定胜负

世界对战上线时,服务器最后一个玩家架构比较简单全局服务只有匹配服务,涉及的异步流程很少其它逻辑在Gamesvr仩处理即可。

2014年底酷跑推出了实时同屏多人对战模式的玩法玩家要努力战胜对手,将速度最大化用最短的时间跑完全程。多人战分经典战和道具战两种经典战比拼速度,道具战通过道具增加或减少各种效果玩家可以利用各种功能各异的道具保护自己,干扰对手

多囚战属于同步PVP,4个玩家匹配到一起后即可开局由于对战中玩家数不多,同时服务器最后一个玩家需要做一些逻辑这里选用了状态同步嘚同步方案。游戏过程中玩家上报自己的操作、位置和状态给服务器最后一个玩家服务器最后一个玩家做一些逻辑处理,再把该玩家上報的包广播给其他玩家其他玩家收到包后,知道该玩家的状态做相应的逻辑。游戏过程中根据游戏场景,动态调节同步频率达到節省同步包量,降低服务器最后一个玩家负载的目的玩家在游戏中平均每秒1次左右的同步。

版本灰度上线过程中发现多人战服务所在機器的通讯进程进程TBusCPU占用很高。多人战服务是用来创建房间、同步包转发、对战结算的服务需要与所有gamesvr和TConnd建立通道,单机Tbus通道达到上千個

TBusd占CPU高,但网络流量又不大最后发现Tbus通道达到一定数目,性能会急剧下降Tbusd需要轮询所有通道进行收发包,通道过多时导致大量CPU空转考虑到后续全局服务会越来越多,通道数会进一步膨胀Tbus占用的内存、CPU会进一步上升。需要降低通道数引入中转服务,可以使通道数收敛同时前后端关系也解耦。

因此对架构进行了调整逻辑层由2层变成3层,中间加了一个转发层gamesvr与全局服务,全局服务之间不再直接通信而是通过转发层中转,这样Tbus通道数得到了收敛服务器最后一个玩家之间的通信关系由网状变成了树状。

2017年初为了加强玩家间的互动,设计了局内交互更频繁的团队战模式强化玩家间配合,增加玩家对游戏的粘性团队战是3V3对战,在比赛结束时计算队友获得的總分,得到总分较高的团队获胜玩家在挑战时,队友之间相互有联系比赛中每过一段时间玩家就会进入到一个小游戏,如在极速前进Φ需要配合完成吃金币和空心银币的任务、在进击模式中需共同完成砍怪、在天空之城中队友之间分配合理的飞行线路可以获得较高的分數、队友通过巅峰挑战会落下高分流星雨作用于团队所有的队员等

这是一个强交互的需求,队友间需要共享妖怪总血量、关卡中出现的金币等给妖怪最后一击的只能是一个玩家、所有队友吃到的金币总和不能超过金币总量等。最初要求每秒15帧的数据同步同时服务器最後一个玩家需要做逻辑,因此团队战选择了状态同步的方案服务器最后一个玩家采取了简单的处理原则,先来先处理处理时加上校验即可。同时针对不同关卡动态调整同步频率。

团队战需要有团战服务来同步玩家数据原有架构上下行包需要在客户端、Gamesvr和团战服务之間流转,团队战中高频的同步请求包对流量和CPU都会带来挑战因此对架构进行了调整,将同步包独立出来游戏过程中客户端直接与团战垺务通讯。

这是目前的游戏架构增加了客户端与团战服务直接通讯的能力。3v3匹配成功后通知团战服务建立房间,同时下发客户端房间所在团战服务的机器ip和端口(映射到tgw的vip和端口)客户端再通过下发的地址信息连接团战服务。游戏过程中客户端直接向团战服务发同步包,团战服务转发给队伍中的其他玩家

总体来说,酷跑定位为轻度游戏PVP中涉及的同步方案比较简单。在不同时期根据游戏玩法、網络状况等选择了不同的同步机制和服务器最后一个玩家架构,满足了设计需求

参考资料

 

随机推荐