假设两个2080和2080ti性能差距距较大(40%)的cpu,在相同运算量(比如打同一款游戏),相同的散热条件下发热量相同吗?

大型单机游戏I3不行的单机基本嘟是4线程起步,双核的I3虽然也有4线程但跟真正的4核比差远了 已有2次举报

暂时没有什么问题 就两张好不容噫抢到一张 o11和a11差别不是很大 也没几个人需要超频 a11足够运行现在的各类游戏了本人steam:哑剧 玩吃鸡的可以联系

1080显卡发布还是2016年的五月份,NVIDIA的遊戏显卡换代从来没有哪次像这样让人等得望眼欲穿一代显卡的正式服役周期通常是一年半,早在一年前坊间就不断爆出新显卡发布的時间结果都是"狼来了"。于是各种猜测甚嚣尘上:"老黄在憋大招""A卡不给力",现在这些都不重要了在全世界的玩家苦等了一年之后,狼嫃的来了

  8月21日的科龙游戏展上,NVIDIA正式曝光了新一代游戏显卡的旗舰与准旗舰型号真相让所有人都瞠目结舌,因为之前关于新显卡嘚一切猜测几乎都是错的连型号名称也是如此。

20连自上古时代一直传承下来的游戏专属前缀GTX也舍弃了,取而代之的叫RTX不过,笔者相信当你仔细了解完这款全新的架构之后就丝毫不再感到惊奇了,因为与架构本身相比这点儿名称上的变化实在是微不足道。

  首先來说一下RTX的由来R和T分别是光线追踪Ray Tracing的两个首字母,而X没猜错的话应该是代表Express组合起来就是"高速光线追踪"意思,喻意从这一***始NVIDIA显卡朂重要的架构、功能革新

  由于Turing架构所涉及的新技术较多,这方面的描述对于图形计算基础知识薄弱的玩家阅读起来会十分晦涩所鉯笔者将尽可能地深入浅出,挑选对玩家日后游戏体验影响重大的变革加以详细描述 觉得这部分枯燥的玩家可直接跳转到第N页游戏测试蔀分。

  Turing架构其实并不是完全陌生的去年NVIDIA发布了TITAN V时就预示了它的存在,只是这次NVIDIA换了一种方式来构建游戏产品线

  按照以往习惯,几乎每一代旗舰游戏显卡都脱胎于该架构的首款TITAN所以当去年Volta架构的TITAN V如约而至时,我们每个人都认为已经看到了未来的下一代80Ti游戏旗舰嘚长相


TITAN V相比之前的TITAN显卡是更加脱离游戏的存在

  实际上TITAN V与初代基于Kepler的GeForce GTX Titan已经相去甚远,初代Titan的定位是一款万能显卡既可作为游戏发烧伖的旗舰游戏显卡,也为专业消费者提供全双精度浮点(FP64)计算能力在TITAN V诞生之前,TITAN产品线几乎都是基于这种设计方法一颗巨大的GPU核心昰NVIDIA"高大全"设计思路的最好代表。

  而在Titan V上NVIDIA再次扩展了大核心的上限。Volta最引人注目的则是其全新的专用处理模块——Tensor Core(张量计算核心)它与Volta的其他微架构改进,以及支持深度学习和HPC(高性能计算)的软件/框架集成在一起形成有史以来最大的815mm?核心,使得该系列产品比任何时候都更接近工作站级。


第一巨核+HBM2显存意味着GV100注定与消费级无缘了

  简单算一算就知道,TITAN V的GV100核心拥有5120个流处理器与TITAN XP的GP102核心(3840个)楿比增加了三分之一,但核心面积却增加了73%再上工艺提升到了TSMC的16nmFFET提升到了12nmFFN,增加的晶体管比例更大可见在GV100上增加了许多流处理器之外嘚新功能单元,还有一部分计算功能被分配给了专用单元以提高效率

  但是追求高大全也是有代价的,较低的良率和高昂的成本使茬GV100上发展游戏消费级显卡会得不偿失,AMD的Fury就是一个典型的反例所以今天RTX 2080Ti采用的Turing架构是由GV100为蓝本发展而来的消费级专属型号。


TU102芯片透视图核心面积754mm?,整合186亿晶体管

  首先来看这次新发布的两款显卡规格,我们已经知道了作为旗舰的RTX 2080Ti采用TU-102核心保持上一代的显卡与芯片嘚规则不变,准旗舰RTX 2080则使用规模小一圈的TU-104核心它们都由TSMC的12nmFFN工艺制造。

  TU102也由6个GPC构成相比GV100每个GPC少了一组TPC,一共有36组TPC72组SM,流处理器总數为4608个ROPs总数为96个,纹理单元288个以上都是传统的参数项目,不过Turing架构还加入了可以半精度计算与深度学习的张量计算核心Tensor Core以及专用于光線追踪的RT Core此后显卡的主要核心功能单元项目又多了两个。其中Tensor Core为每个SM含8个共576个,而RT core则每个SM含一个与SM数量一致。

  此外TU-102每个SM还有2个雙精度单元共144个(有观点称双精度计算也是由CUDA完成,只是寄存器的使用逻辑不同)双精度算力为单精度的1/32,但这无关紧要除了科学計算以外,无论是游戏用的GeForce RTX 2080Ti还是专业绘图用的Quadro RTX 都对此项性能没有要求。

RTX2080Ti就像它的上代一样进行了一定的削减,共减少了4个SM流处理器總数为4352个,SM中包含或对应的其它单元也相应减少显存位宽由384bit削减至352bit。略有遗憾却符合惯例,毕竟消费级显卡是要控制成本和保证产量嘚同时也预示着不久的将来NVIDIA有可能推出比RTX 2080Ti更高阶的旗舰?

  完整的TU-104同样有6个GPC每个GPC包含4个TPC,全核一共有48个SM3072个流处理器。Tensor Core与RT Core的配比都沒变所以很容易推算出分别为384个和48个。

全新的流处理器簇单元(SM)

  Turing架构采用了新的SM设计该设计结合了早在去年Volta架构中就引入的许哆特性。每个TPC包含两个SM每个SM总共有64个FP32内核和64个INT32内核。相比之下帕斯卡架构中每个TPC只有一个SM,每个SM 128个FP32内核TPC的概念被架空了。TuringSM支持FP32和INT32操莋的并行执行独立线程调度类似于Volta GV100 GPU。

  SM被划分为四个处理块每个处理块具有16个FP32核、16个INT32核、两个张量核、一个调度器和一个调度单元。每个块包括一个新的L0指令缓存和一个64 KB寄存器文件四个处理块共享组合的96 kb L1数据高速缓存/共享存储器。传统的图形工作负载将96KB L1共享缓存划汾为64KB的专用图形着色器缓存以及32KB的纹理缓存和寄存器溢出区域计算工作负载可以将96

  Turing实现了核心执行数据通道的主要更新。现代着色器工作负载通常具有诸如FADD或FMAD之类的FP算术指令与诸如用于寻址和获取数据的整数加法、用于处理结果的浮点比较或min/max等更简单的指令的混合烸当这些非FP数学指令中的一个运行时,ATAPACH就会闲置Turing在每个CUDA核旁边添加第二个并行执行单元,该CUDA核与浮点数学并行执行这些指令


对许多工莋负载的分析显示,每100个浮点运算平均有36个整数运算

  上图为整数管道与浮点指令的混合变化,但是一些现代应用程序中通常会看箌每100个浮点指令大约有36个额外的整数管道指令。将这些指令移到一个单独的管道上就可以实现浮点的有效36%的额外吞吐量。

  Turing:SM中浮点囷整数指令的并发执行

  Turing的SM还引入了一种新的统一架构用于共享内存、L1和纹理缓存。这种统一的设计允许L1高速缓存利用资源与Pascal相比,每TPC增加2倍的命中带宽并且允许在共享内存分配没有使用所有共享内存容量时重新配置L1高速缓存以增大命中带宽。TuringL1的大小可以高达64KB与烸个SM共享内存分配的32KB相结合,或者它可以减少到32KB允许将64KB的分配用于共享内存。Turing的L2缓存容量也有所增加

  Turing SM新的L1数据缓存和共享内存子系统可显著提高性能,同时简化编程并减少达到或接近峰值应用程序性能所需的调优将L1数据缓存与共享内存结合可以减少延迟,并提供仳先前在Pascal 中使用的L1缓存实现更高的带宽

  我们都知道Volta GV100中首次引入的张量核心Tensor Core,Turing架构中的张量核心是前者的增强版本它设计增加了INT8和INT4精确模式来测算可接受的工作负载,FP16也完全支持这种工作负载的精确测算

  在基于Turing的GeForce游戏核心中引入张量内核首次将实时深度学习引叺游戏应用程序。Turing张量核心加速了NVIDIA NGX神经服务的基于AI的特性增强了图形、渲染和其他类型的客户端应用程序的效率。NGX AI特性的示例包括深度學习超级采样(DLSS)、AI绘画、AI Super Rez和AI Slow-Mo

  Turing张量核加速了神经网络训练和推理函数的核心矩阵乘法。Turing张量核特别擅长于推理计算其中有用的相关信息可以通过基于给定输入的训练有素的深层神经网络(DNN)来推断和传递。推理的例子包括识别Facebook照片中朋友的图像识别和分类自驾车中不哃类型的汽车、行人和道路危险,实时翻译人类语言以及在线零售中创建个性化的用户建议,以及社交媒体系统

  TU102包含576个张量核心:每SM八个和每个SM内的每个处理块两个。每个张量核心可以执行多达64个浮点熔点乘加(FMA)操作每个时钟周期使用FP16输入。SM中的八个张量核每個时钟周期总共执行512次FP16相乘和相加操作或者执行1024次总FP操作。新的INT8精度模式以双倍的速率运行每个时钟周期达到2048次整数运算。

首次应用GDDR6顯存

  显存子系统性能对应用加速至关重要Turing改进主显存、缓存和压缩架构,以增加显存带宽并减少访问延迟改进和增强的GPU计算特性囿助于加速游戏和许多计算密集型应用程序和算法。新的显示和视频编码/解码特性支持更高分辨率和能够HDR的显示器、更先进的VR显示器、在數据中心中增加视频流需求、8K视频制作和其他视频相关应用

  GDDR6内存子系统

  随着显示分辨率的不断增加,着色器功能和渲染技术变嘚更加复杂显存带宽和容量大小在GPU性能中起到了更大的作用。为了保持尽可能高的帧速率和计算速度GPU不仅需要更多的内存带宽,还需偠大容量的内存来维持连续计算性能

  NVIDIA与存储产业紧密合作,两年前开发出世界上第一个GDDR5X显存的GPU:GP-104紧接着又第一个开发出使用HBM2显存嘚GV-100。现在Turing再次成为首个使用GDDR6显卡的架构

  GDDR6是高带宽显存设计的最新进展。通过许多高速SerDes和RF技术的增强Turing中的GDDR6显存接口电路已经完全重噺设计,以实现速度、功率效率和噪声降低这种新的接口设计带来了许多新的电路和信号训练改进,最大限度地减少由于工艺、温度和電源电压引起的噪声和变化使用广泛的时钟门控来最小化低利用率期间的功耗,从而显著地提高了整体功率效率Turing的GDDR6内存子系统目前可實现14Gbps的速率,相对使用GDDR5X显存的Pascal架构还有20%的功耗改善

  实现这种速度增长需要端到端的优化,为了满足更高的速度要求NVIDIA特别设计了Turing的葑装和布线,将信号串扰减少40%——这是大存储系统中最严重的不稳定因素之一


GDDR6的电荷分布图,可以看到高速运行下溢出极少信号十分清晰

  为了实现14Gbps的速度,存储器子系统的每个方面也都经过精心设计以满足这种高频操作所需的苛刻标准。设计中的每一个信号都被仔细地优化以尽可能建立最干净的显存控制器连接

  在今天的PC上使用VR设备需要在头盔和系统之间连接多个电线;从显卡向头盔中的两個显示器发送图像数据的显示电缆;为头盔供电的电缆;以及传输位置传感器数据的USB连接。电缆的数量对于终端用户来说是很不舒服的這会限制了他们在戴着耳机时四处走动的能力。

  为了解决这个问题NVIDIA将其中一个视讯输出端口设计为USB-C并得到SudialLink的硬件支持,叫做VirtualLinkVirtualLink能将VR頭盔的供电、显示和回传数据整合到一个USB-C连接上。

  如果头盔的耗电在 27 瓦内使用一根 VirtualLink 就能满足包括供电、显示、控制反馈,比目前的彡根线要简单多了而它的接口同样是 USB-C。

  SLI 是 NVIDIA 在 2004 年的时候推出的多卡并行渲染技术它可以让不同的显卡一起渲染画面并合并输出,实現性能的提升早期的 SLI 根据产品定位的不同,分为需要和不需要使用桥连接器两种使用桥连接可以绕过 PCIE 总线实现更快的画面合成。


源自Tesla嘚NVLink技术支持更高的传输带宽用于高分辨率下的高刷新率

  但是就跟Pacal一样,Turing这一代也只有旗舰与准旗舰芯片支持NVLink也就是说使用TU-106芯片的RTX 2070將不会拥有NVLink接口。关于RTX 2070的情况待到不久之后显卡上市时再为大家解析

  与以前的SLI桥相比,新NVLink桥的带宽增加使得以前做不到的高端显示器应用成为可能


隔单槽和隔双槽的NVLink桥接器

什么是光线追踪,什么又是实时光线追踪

  自上世纪90年代以来,传统的3D渲染一直使用一种叫做光栅化的过程整个过程简单地描述就是光栅引擎根据顶点渲染生成的三角形以人眼所接收到的二维画面来创建需要渲染的图像,接著将纹理数据按坐标铺入该图像中的三角形得到完整的画面数据,再由ROPs将完整的画面数据填充到显示器上所看到的像素

  光栅化技術多年来一直是实时渲染的常规技术,尤其是在游戏中虽然今天许多光栅化场景看起来已经足够好了,可是基于光栅化的渲染局限性依嘫无法避免例如,仅使用光栅化呈现反射和阴影需要对需多不同视角进行假设和分析常见的情况是静态光图可能看起来是正确的,若某些东西移动光栅化的阴影经常出现混淆和光泄漏,亦或者画面上任何物体的反射只能反射出屏幕上可见的物体这些现象都有损于游戲体验的真实性,而且开发人员在光栅化的基础上重新编程修复这些BUG的代价很高

  光线跟踪技术长期以来被用于非实时绘制,它通过模拟光的物理行为来提供逼真的光照光线跟踪通过跟踪光从观看者的眼睛穿过虚拟3D场景时将采取的路径来计算像素的颜色。当它穿越场景时光可以从一个物体反射到另一个物体(引起反射),被物体阻挡(引起阴影)或者穿过透明或半透明物体(引起折射)。所有这些相互作用被组合以产生然后在屏幕上显示的像素的最终颜色

  这一种计算工作十分繁重的渲染技术,它真实地模拟场景及其对象的咣照能够实时地渲染物理上正确的反射、折射、阴影和间接照明。相比传统的光栅化渲染光线追踪技术创造的景象更符合人眼和大脑接受的视觉逻辑,视神经本身就是依靠自然界的可见光反射来识别图像的因而这项技术早就被应用在了图像渲染中,但非实时渲染而昰制作CG、电影。

  所以光线追踪与实时光线追踪是两个概念制作CG时我们有一整天的时间去渲染一帧画面,但是在游戏中一帧画面只能耗时几十分之一秒否则就会影响流畅度。在过去GPU的算力远不足以使用单个核心对游戏进行实时光线跟踪,使这项并不陌生的技术一直無法应用在游戏中于是需要30~90fps才能畅爽体验的游戏多年来一直依赖于快速的光栅化渲染,只能放弃电影般的逼真画面


星球大战光线追踪渲染演示,完全分不出哪个是电影哪个是DEMO

  直到NVIDIA Turing架构问世使通向游戏渲染技术殿堂的那条路头一次变得清晰起来。下

  面让大家再欣赏几幅加入实时光线追踪的游戏视觉体验


《战地5》光线追踪关闭


《战地5》光线追踪开启


《古墓丽影:暗影》光线追踪关闭

  NVIDIA在Turing架构嘚每个SM中新增RT Core是迈向实时光线追踪的关键,硬件加速是实现这一目标的唯一途径


层层筛选,判断光线命中了哪个三角形

  为了更好地悝解RT核的功能以及它们究竟加速了什么,笔者首先解释如何在没有专用硬件光线追踪引擎的情况下用GPU或CPU执行光线追踪基本上,BVH遍历的過程需要通过着色器操作来执行并且每光线投射数以千计的指令槽来针对BVH中的边界框交点进行测试,直到最终命中三角形并且交点处嘚颜色将被用于最终像素填充。或者如果没有三角形被击中背景颜色可以用来填充这个像素,这样就做到了模拟现实世界中人眼的视觉原理——你只能看到反射光的物体

  没有硬件加速的光线跟踪要求每条射线有数千个软件指令槽来测试BVH结构中的连续较小的边框,直箌可能碰到一个三角形这是一个海量计算的过程,使得在没有基于硬件的光线跟踪加速度的情况下无法在GPU上进行实时处理,速度奇慢無比

  Turing的RT内核可以处理所有的BVH遍历和射线-三角形相交测试,节省了SM在每条射线上花费数千个指令槽这对于整个场景来说可能是大量嘚指令。RT核心包括两个专用你单元第一个单元进行边框回归测试,第二个单元进行射线三角形相交测试SM只需要启动一个广南县探测器,RT核进行BVH遍历和射线三角形测试并向SM返回命中或不命中。于是SM可充分被释放来做其它图形计算工作

  因此RT核的Turing光线跟踪性能比上一玳Pascal依靠软程序实现的快得多。Turing可以在不同的工作负载下提供比Pascal更多的千兆射线/秒比如Pascal大约花费1.1千兆射线/秒,或者10TFLOPS/千兆射线在软件中进行咣线跟踪而Turing可以使用RT Cores进行10+千兆射线/秒,并且运行速度要快10倍

深度学习抗锯齿(DLSS)

  在现代游戏中,渲染帧不直接显示而是经过后處理图像增强步骤,结合来自多个渲染帧的输入试图去除视觉伪像,例如混叠同时保持细节。例如时间抗锯齿(TAA)是一种基于着色器的算法,该算法使用运动矢量结合两帧来确定在何处采样先前帧这是当今使用的最常见的图像增强算法之一。然而这种图像增强处悝从根本上来说是非常困难的。

  诸如此类的图像分析和优化问题没有没有干脆利落的算法解决方案唯有应用人工智能。正如图像处悝案例是深度学习的最大成功应用之一。现在深度学习已经实现了超人的能力,能够通过观察图像中的原始像素来识别狗、猫、鸟等在这种情况下,目标是结合渲染的图像基于查看原始像素,以产生高质量的结果不同的对象,但由近似的步骤完成

  为解决这┅挑战而开发的深度神经网络(DNN)被称为深度学习超级采样(DLSS)。DLSS从给定的一组输入样本中产生比TAA高得多的质量输出并可以利用此能力來提高总体性能。尽管TAA在最终目标分辨率下进行渲染减去细节,组合成每一帧DLSS允许在较少的输入样本计数下进行更快的渲染,然后推斷出在目标分辨率下与TAA相似的结果仅需一半的着色工作。

  以上为虚幻4引擎的《渗透者》DEMO测试DLSS提供了与TAA相似的图像质量,性能大大提高RTX 2080 Ti本身的强大渲染性能,加上Tensor Core进行DLSS操作带来的性能提升使4K分辨率下RTX 2080 Ti达到GTX 1080 Ti性能的2倍。

  这个结果的关键在于DLSS的学习过程DLSS有机会学***如何基于大量超高质量的采样产生应有的画面输出。64x超级采样意味不是对每个像素进行一次着色而是在像素内以64个不同的偏移进行着銫,然后组合输出产生具有理想细节和抗锯齿质量的结果图像。接下来DLSS还可以学习来匹配64xSS输出帧,通过遍历每个输入要求DLSS产生一个輸出,测量其输出和64xSS目标之间的差异并根据这些差异调整网络中的权重。在多次重复之后DLSS自己学习以产生接近64xSS质量的结果,同时学习避免影响经典抗锯齿(如TAA)的模糊、去遮挡和透明性的问题

  除了以上描述的标准DLSS模式,还有第二种模式称为DLSS 2x。在这种情况下DLSS输叺以最终的目标分辨率呈现,然后由较大的DLSS网络组合以产生接近64x超级抗锯齿的输出图像这果不可能通过任何传统手段实现的。


DLSS 2X比TAA提供了哽好的时间稳定性和图像清晰度

  RTX 2080Ti与2080的长什么样子相信大家都不陌生了从NVIDIA官方公布消息开始就有若干官图出现在各大媒体上。但官图畢竟灯光刁钻后期满满,细节看不太清楚下面就由笔者用三页的篇幅献出一套刚出炉实物图供各位鉴赏。

  由于RTX 2080Ti与2080外观几乎一模一樣所以下面以展示RTX 2080Ti为主,在两者不同的部分予以补充图片说明


NVIDIA公版旗舰使用离心式散热器几乎有20年之久


铝合金的背板与前盖在边缘汇聚为一个整体


银色的GEFORCE RTX字样用透光材质镂刻而出,内藏信仰灯

  以往离心式散热器的封闭气流通道可以直接将热量排向出机箱外尽可能降低显卡对机箱散热的要求,提高适用范围如今NVIDIA终于摒弃了这个过于苛求可靠性的思路,转而借鉴了非公版的设计思路也用起了双轴鋶扇。确实在机箱风道得当的前提下,轴流扇的散热效能明显超过尺寸受限的离心扇 更有利于Boost超频的机制充分发挥。

  或许正是因為如此NVIDIA这次才在一个型号上推出了RD和FE两种公版,前者为参考设计版Reference Design也就是指原来的公版,而后者Founders Edition则拥有更高的频率变成了NVIDIA的官方超頻版。看来老黄是铁了心要跟小伙伴们抢肉吃啦

新浪声明:新浪网登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述

好价信息来自热心值友爆料和商镓自荐经小编人工审核或小值机器人智能判断后发布。

技嘉RTX2080Ti大雕目前最顶级的非公版之一。

11G显卡三围290×134.31×59.9mm采用外部三风扇+内部热管加散热鳍片设计,背部拥有金属的保护背板核心频率1770MHz,供电方面采用8Pin+8Pin设计尾部I/O扩展包括3个DP1.4,3个HDMI2.0和一个USB-C(VirtualLink支持VR头盔)接口支持RGB灯效。除了强大的配置规格“图灵”架构最大亮点是支持“RT光线追踪技术”(Ray Tracing),可有效加速处理光线在三维环境中的传播将实时光线追踪、人工智能和可编程着色技术融于一体,处理光线的速度是帕斯卡构架产品的25倍同时让GPU作为节点处理器末帧(Final Frame)的效果渲染比用CPU作为节點的速速快了近30倍,能带来更真实震撼的光影效果

售价13499元,移动端价格下方领取元优惠券叠加,12999元包邮到手需要的可以关注下。

值伖“3c天下”爆料原文:

天猫商城技嘉大雕2080ti现售价13499叠加页面满,和满可低至12999终于再回到去年首发价格,有需要的值友可以考虑!

什么值嘚买是一家中立的消费门户网站好价信息来自热心值友爆料和商家自荐,经小编人工审核或小值机器人智能判断后发布促销折扣可能隨时变化,请值友们购买前注意核实


订单截图鼠标指向时可见

您目前有50积分,确定使用10积分兑换以下优惠券吗

此优惠券需要50积分兑换,您的积分不足请继续努力呦~

此优惠券需登记银联卡后才可领取,参加银联优购全球活动享更多优惠~

参考资料

 

随机推荐