3GO模拟飞行网|3GO Cyber Air Force

 找回密码
 注册

QQ登录

只需一步,快速开始

搜索
查看: 5674|回复: 31

ATI R520正式发布

[复制链接]
发表于 2005-10-5 23:01:19 | 显示全部楼层 |阅读模式

ATI R520正式发布

ATI  R520正式发布

 楼主| 发表于 2005-10-5 23:12:37 | 显示全部楼层
<B>ATI RADEON X1000系列技术分析</B> <P><B>全体动员——倾巢而出的X1000阵营</B></P><P>在2005年6月22日,NVIDIA发布了基于G70内核的新一代高端显示卡,自那以后,人们对ATI原定在4月份推出的下一代产品R520更显出急不可待的心情,期待这款产品能为未来的游戏体验和显示卡市场带来更多的新景象。</P><P>其实在NVIDIA GeForce 6800 Ultra发布以后,由于具备Shader Model 3.0、硬件浮点高动态范围渲染等特性,在中高端市场逐步收回了NV3X时代大片丢失的领土,然而由于“今日的高端就是明日的低端”这个规律,NVIDIA当初在高端领域丢失领土的状况转移到了700元以下的市场区间。ATI挟RADEON 9600及其嫡系的RADEON 9550在低端市场攻城略地,竟然在2004年夏季就把NVIDIA在低端市场苦心经营了数年的牢固份额迅速瓦解掉。</P><P>不过相较于RADEON 9550一片凯歌的攻城略地相比,RADEON X800、X700系列的表现并不十分理想,ATI急需R520来扭转局面。在2004年年底,ATI终于完成了首次的R520流片(taped-out),并且在2005年年初开始提供给OEM厂商测试。</P>
 楼主| 发表于 2005-10-5 23:27:18 | 显示全部楼层
<P> </P>
<P>RADEON X1000是ATI自R300以来首次大幅度改进的产品,全线产品都采用台积电90纳米工艺生产,其中的旗舰产品——RADEON X1800集成了320百万枚以上的晶体管。</P>
<P>正如你说看到的那样,ATI这次推出的R520相对于G70来说,其显著特点是流水线只有16条,但是3D内核时钟频率达到了625MHz,比G70高出45%。</P>
<P>如果不出意料的话,我们基本上可以粗略地认为:</P>
<P>X1800XT的顶点着色器性能是GeForce 7800 GTX的1.3倍</P>
<P>X1800XT像素着色器的性能是GeForce 7800 GTX的73%</P>
<P>X1800XT像素吞吐能力是是GeForce 7800 GTX的1.45倍</P>
<P>X1800XT贴图性能是GeForce 7800 GTX的97%</P>
<P>实际的情况当然要比简单的几行字复杂一些,例如G70在纹理单元和着色器运算器共享、X1000在像素着色器指令上的限制等。</P>
 楼主| 发表于 2005-10-5 23:30:32 | 显示全部楼层
<P>从架构上看三个GPU,你会发现最为奇怪的是RV530,Pixel Shader有12个,但是纹理单元居然只有4个,这样的设计看似异想天开,但是贴图性能瓶颈问题仍将是难以避免的。在关键单元数量不及对手的情况下,办法自然就是提高频率,但是提高频率不是说提高就能提高的,你必须考虑到功耗等问题,ATI看来已经在频率问题上解决的不错。</P>
 楼主| 发表于 2005-10-5 23:34:02 | 显示全部楼层
<P>RADEON X1000系的Vertex Shader架构</P><P>和XBOX 360采用的Xenos GPU不同的是,R520采用的依然是传统的Vertex Shader与Pixel Shader分离的体系结构。</P><P></P><P>从上图可以看出,R520的Vertex Shader和R420的Vertex Shader结构非常类似,采用的是128位向量ALU+32位标量ALU搭配的方式,每个周期各vertex shader能完成两条vertex shader指令,是全世界第一枚能每秒完成100亿条Vertex Shader指令的GPU;8个vertex shader每个周期一共能完成两个顶点的转换(即T&amp;L里的Transformantion)操作。</P><P>和R420不同的是,新的R520由于引入了shader model 3.0,Vertex shader也因此支持VS 3.0,包括像分支、循环、子程序等动态流控制指令都获得了支持,每条vertex shader程序长度可以长达1024条指令,加上动态流控制后程序的长度就可以看作是几乎没有限制的。</P><P>不过和NVIDIA GeForce 6和GeForce 7不同的是,ATI的这个Vertex Shader似乎缺少了一样东西——Vertex Texture Fetch(顶点纹理拾取)单元。Vertex Texture Fetch单元是实现对displacement mapping硬件加速的前提。那么R520的Vertex Shader是否真的缺少Vertex Texture Fetch而需要CPU来执行Vertex Texture Fetch呢,这个问题我们还需要进一步的求证。</P><P><I>另一个比较大的可能是ATI把Vertex Texture Fetch的动作交给了Texel Fetch单元。在GeForce 6/7上,VS和PS都有自己独立的Vertex Texture Fetch(和VS一起)或者Texel Fetch单元(和PS一起),而在R520上,Texel Fetch单元和Texture Addressing单元都被独立到一起成为了一个Texture Pool(贴图处理器集簇)。Vertex Shader和Pixel Shader<B>也许</B>都可以透过这个Texture Pool来实现Vertex Texture Fetch和Texel Fetch等纹理相关的操作,这可以看作是某种程度上的一体化Shader结构方式。</I></P><P><I>在GeForce 6/7上,Vertex Fetch单元只能执行非常基本的顶点纹理拾取操作,包括纹理双线性过滤等功能都是不支持的,需要程序员写Vetex Shader程序来模拟,而且能抓的纹理格式也非常有限(R32F和A32B32G32R32F)。<B>如果</B>,R520的确能透过Texture Pool实现Vertex Texture Fetch的话,那么R520在Vertex Texture Fetch上的<B>能力</B>将会比GF6/7大大增强,包括各种过滤操作以及纹理格式都将能获得支持。不过这一切都还只是我们的猜测。</I></P>
 楼主| 发表于 2005-10-5 23:37:47 | 显示全部楼层
<P>RADEON X1000系的Pixel Shader结构——Pixel Shader Core</P><P></P><P>表面上看的话,RADEON X1000系的Pixel Shader非常非常类似于R420,所不同的是,主要是增加了一个分支单元,并且计算精度从原来的FP24提升到了Shader Model 3.0要求的FP32。</P><P>在每个周期里,X1000系各个Pixel Shader处理器能够跑5条指令:</P><P>1条vec3 ADD指令(Vector ALU1)
1条scalar ADD指令(Scalar ALU1)
1条vec3 ADD/MUL/MADD指令(Vector ALU2)
1条scalar ADD/MUL/MADD指令(Scalar ALU2)
1条流控制指令</P><P>此外,由于采用的是R300以来就使用的独立纹理单元,因此在遇到纹理操作的时候,X1000系的Pixel Shader一共最高能执行5条Pixel Shader指令和1条纹理操作指令。相比之下,NVIDIA的GeForce 7800的Pixel Shader又如何呢?</P><P></P><P>在上图中,我们可以看到G70拥有两个能运行MADD指令的4D ALU,这两个ALU都能以4D、1D/3D或者2D/2D的方式完成指令,在运算能力上要强于R520。同样的频率下,G70的每个pixel shader能完成16FLOPS(FP32),而R520就最多只能做到12FLOPS(FP32),如果遇到相邻两条MADD指令或者相邻的MUL指令+MADD指令的话,R520就只能做到8FLOPS,是G70的1/2。此外,G70的ALU1还能够免费地执行一条FP16的nrm指令,nrm指令是用于计算法线的,对于Unreal Engine3中大量使用Normal Mapping计算有明显的加速作用。</P><P>但是和R520相比,G70又存在一个不足,那就是ALU1兼负了纹理寻址计算(例如纹理坐标透视纠正的计算),在遇到纹理操作的时候,ALU1就不能自行像素着色器指令转而执行纹理操作指令,只剩下ALU2能够跑像素着色器指令。不过现在的游戏程序中,纹理操作的指令数量基本上都是低于像素着色器指令的数量,因此NVIDIA这样的设计也不失其合理性。</P>
 楼主| 发表于 2005-10-5 23:42:39 | 显示全部楼层
<P><B>RADEON X1000系Pixel Shader结构——极线程分发处理器</B></P><P>在介绍RADEON X1000系Pixel Shader的线程技术之前,我们有必要先看看NVIDIA一年多前开始实作的SM3 GPU——GeForce 6800是长得怎样的。</P><P>按照NVIDIA在IEEE(国际电气和电子工程师协会)Hotchips 16会议上发表的论文,在GeForce 6800中,为了隐藏在显存中查找纹理所消耗的数百个时钟周期,在每个Pixel Shader(像素着色器)中都维持着供数以百计同时运作的Threading的状态(线程)(<B><I>To hide the latency of texture lookups that fetch from external memory, each fragment processor maintains state for hundreds of in-flight threads</I></B>):</P><P></P><P>上图就是在该论文中的GeForce 6800体系架构图,图中的Shader thread dispatch就是GeForce 6800的着色器线程分发器。</P><P><I>屏幕上的顶点、像素都是非常好的并行化处理对象,因此在GPU本身就是一个非常典型的多线程化处理器,每个顶点、每个像素都可以看作是一个线程(Thread)。在GeForce 6800的Vertex Shader中,每个VS都有三个Thread同时运行,而在Pixel Shader这一级则是更加庞大。</I></P><P>ATI在RADEON X1000系的产品中提出了Ultra-Threading Dispatch Processor的概念,其样式也是有点类似于GeForce 6800的概念,所不同的是ATI更愿意大方地公开了其设计的一些技术参数。</P><P></P><P>按照ATI的白皮书介绍,在R520(RADEON X1800)的Pixel Shader Engine(像素着色器引擎)中包含了一个中枢分发单元(central dispatch unit,CDU),这个CDU能够为一个Pixel Shader Processor Array(像素着色处理器矩阵)分发高达512个线程。这些像素着色处理器被按照4个一组的方式绑在一组,每个这样的组被称做Quad Pixel Shader Cores(四方像素着色器内核)。各个内核都是彼此相对自立的处理单元能够处理一个2x2的像素块。这种QUAD的设计其实是自R300就引入的,在NVIDIA的GF6、GF7上也都是类似的单元组成配置方式。</P>
 楼主| 发表于 2005-10-5 23:45:56 | 显示全部楼层
<P>一旦CDU觉知到某个QUAD处于闲置状态的时候,就会马上递交一个新的线程供其执行,这样的情况多数发生QUAD在等待数据或者完成了任务的时候。根据ATI的介绍,这样的设计可以让X1800的Pixel Shader内核维持超过90%的利用率。</P><P>为了维持高效的线程切换,ATI给X1800设计了一个大规模的、能同时读写(多端口)、高带宽的通用寄存器堆,所有的连接总线都是FP32位宽,确保Pixel Shader在任何时候都能高效地完成FP32精度计算。</P><P>ATI的Ultra-Threading设计还能够提高Pixel Shader 3.0动态分支的性能。动态分支被认为是Pixel Shader 3.0的重要新特性,可以让Pixel Shader根据计算出来的数值来跑不同的分支或者循环。如果正确使用的话,动态分支能显著地提高性能。</P><P>例如在使用shadow map的时候,如果要对阴影作边缘柔和取样,使用动态分支可以在遇到不需要作取样的像素例如的时候就跳过去,以节省大量的pixel shader计算资源。</P><P></P><P>在上图中,我们只需要对右下方遮罩中的白色区域作柔和阴影取样,而黑色的部分就可以省略掉这个柔和阴影取样步骤(这张图片左上、右上、左下三个部分都是用来算出右下方的遮罩)。和找出遮罩的动作相比,柔和阴影取样的性能开销要高得多,这样使用动态分支剔除无需计算阴影取样的像素就很划算了。</P><P>但是需要注意的是,目前GPU的Pixel Shader都是采用传统的SIMD架构,动态分支的运作往往会破坏掉程序的并行性,使得动态分支带来的益处被掩盖掉。</P><P>我们前面提到,包括R520、NV40、G70等在内的shader model 3.0 GPU都是采用QUAD组(4个pixel shader一组)搭配方式,同一个QUAD内同一个周期只能跑同一类指令,以简化控制电路。例如QUAD内的4个像素都跑add指令,那就很舒服了,Quad只需要一个周期搞定这四个像素。</P><P>但是如果这4个像素各自要跑不是同一类指令,而分别是像素A跑add指令、像素B跑mul指令、像素C跑madd指令、像素D跑sub指令的话,那么这个QUAD就需要4个周期才能完成这4个像素的处理,变成了类似SISD的样子了,性能下降到1/4,这是单周期多数据处理器跑分支的天生问题。</P><I>我们在介绍NVIDIA NV40/G70的时候就提到,Vertex Shader属于MIMD体系(多指令多数据流,虽然ALU也是SIMD,但是各ALU能独立跑不同的VS指令。NV40有6个VS,一共6个4D ALU和6个1D ALU,能够分别跑12条不同的VS指令),分支指令的开销几乎可以看成是免费的,执行效率非常高,但是其Pixel Shader的动态分支执行还是属于比较初始的阶段。</I></P>在执行动态分支上情况也是类似,如果QUAD内有两个Pixel(像素)跑的分支是一样,这个QUAD就可以看作成一个SI2D(单指令双数据流)的SIMD单元。出现SI2D的情况,理论上就意味着这个QUAD的效能降低50%。</P><I>一般来说,像阴影边缘柔和的动态分支,也就是两条分支而已(在阴影边缘内不需要取样和在阴影边缘外需要取样)。</I></P><P></P><P>上图所说的是指ATI X1000在跑分支程序的时候,能够把屏幕分成很多个4X4的小块来分别处理,在这样小的一个像素块里碰到两条不同的分支的机会就非常小,降低了出现SI2D的机会。</P>
 楼主| 发表于 2005-10-5 23:49:13 | 显示全部楼层
<P>ATI还特别提到了自己的分支单元没有占用ALU时间,在分支开销上要比传统架构低不少:</P><P></P><P>上图其实分别是NVIDIA GeForce 6800和ATI X1800的动态分支指令之一的开销比较,对应NVIDIA的编程手册,可以看出ATI所举的例子就是最花时间的“If /else / endif”指令。大家可以看到,如果跑同样的两条分支,在执行if/end/endif分支指令的时候,“传统架构”需要花20个周期才能完全跑完,而ATI的X1000系只需要14个周期。</P>
 楼主| 发表于 2005-10-5 23:53:32 | 显示全部楼层
<P>渲染后端单元(Render Back End)</P>
<P></P>
<P>其实Render Back End就是相当于NVIDIA所说的ROP(光栅操作处理器),均支持FP16帧缓存混合,不过和NVIDIA的GeForce 6/7不同的是,X1000的Render back end在执行FP16的时候还能够做多取样抗锯齿,而这是目前NVIDIA的产品所不具备的。</P>
<P>不过需要注意的是,目前的DirectX9.0c并不支持对浮点Render Target做多取样抗锯齿,因此除非DirectX9升级,否则这个特性可能无法在D3D游戏中使用。不过在OpenGL中,这个特性将完全可以实现。</P>
<P>RADEON X1800拥有16个render back end,而X1600和X1300的Render Back End都只有4个,不过RADEON X1600的Z compare单元是8个,而X1300只有4个,在进行Z/Stencil操作的时候,X1600会比X1300快一倍。</P>
<P>X1000系都支持色彩缓存压缩,以提高多取样抗锯齿时后的性能,相比之下,NVIDIA目前的GeForce 6200系列都缺乏色彩缓存压缩而只在GeForce 6600以上的产品支持。</P>
<P>双向内存读取环路与写入交叉闩</P>
<P>而在RADEON X1000系上,ATI重新起用了32位内存控制器,在RADEON X1800上,有8个32bit内存控制器,内存带宽使用效率恢复到接近GeForce 3时代的水准。</P>
<P>RADEON X1800支持DDR2、GDDR3、GDDR4内存,而第一波产品发布中最高端的RADEON X1800XT采用的是三星的K4J52324QC-BJ12 GDDR3内存颗粒,设定的内存时钟频率为750MHz(等效1500MT/s)。</P>
<P>为了充分利用高速内存的优势,ATI给RADEON X1000系设计了一个新式的环网总线架构。</P>
<P>这个环网设计前提思路是:随着GPU越来越复杂,内部需要连接到内存控制器的处理单元越来越多,如果继续维持完全采用Crossbar的设计,这些连接路由控制将会变得非常复杂,并且信号布线会越来越长和复杂。</P>
<P>更长的布线会导致延迟增加,而复杂的路由会由于线路之间的串音而降低信号品质,此外由于布线延长增加的阻抗,GPU的发热和耗电也会有所增加,这些因素都会导致难以提升GPU的时钟频率。</P>
<P></P>
<P>上图就是ATI RADEON X1800的环网拓扑图,红色的就是两条双向个256位的环路,负责把内存中的资料交付给贴图单元、顶点着色器等单元(这些对象ATI称作是内存客户端),而资料的写入操作则依然会被路由到Crossbar上来实现。</P>
<P>根据ATI的介绍,采用了这样的环路读取、Crossbar写入的设计后,内存总线的频率可以比以前的产品提高一倍,使得X1000系可以充分利用先进的内存技术。</P>
<P>此外ATI还提到,X1000系的内存仲裁器能够由驱动程序控制,可以透过驱动程序的CATALYST A.I(智能参数设定),为特定的应用程序设定仲裁优先次序,让内存控制器优先处理最迫切、对性能影响最大的数据请求。</P>
[此贴子已经被作者于2005-10-5 23:54:04编辑过]

 楼主| 发表于 2005-10-5 23:58:49 | 显示全部楼层
<P><B>采用全相联技术提高cache命中率</B></P><P>上述的内存控制技术虽然都能降低延迟,但是内存存取动作还是应该尽量避免,把重复使用的数据存放在GPU的cache内就是减少内存存取动作的重要技术。</P><P></P><P>ATI表示,在以往的GPU上采用的cache都是直接映射(direct map),即每个cache的入口都映射至一块专门确定了的图形内存区块。虽然这可以让cache的执行简单化,但是当出现内存客户端需要交换两个数据,而这两个数据刚好要位于被cache映射的同一块内存内,那么这两块数据就需要不断地将彼此挤出cache,这样的话在写数据的时候就可能会产生迟延(stall),显著降低cache的命中率,增加了内存存取的压力。</P><P>而ATI在RADEON X1800的纹理cache、z/stencil cache、色彩缓存cache上就采用了全相联的cache技术,cache不再只是映射到特定一个或者某几个的内存地址,而是任意空闲的内存。ATI表示,在任何给定的时钟频率下的内存带宽敏感型应用中(例如在高分辨率下打开全屏抗锯齿和各向异性过滤),X1800的性能都能比采用前提升25%。</P><P></P><P>纹理高速缓存命中失败率比较(X1800 VS X850,以850为基准) </P><P></P><P>Z深度值高速缓存命中失败率比较(X1800 VS X850,以850为基准)</P>
 楼主| 发表于 2005-10-6 00:03:13 | 显示全部楼层
<P><B>缓存压缩技术</B></P><P>为了提高带宽和减少存取空间,在DirectX6开始,S3 Graphics开始引入了S3TC纹理压缩技术,并成为微软DirectX的纹理压缩格式——DXTC,在那里以后几乎所有的GPU都支持DXTC纹理压缩,但是随着基于浮点纹理的高动态范围渲染流行,庞大的带宽/空间需求问题又摆在了大家面前。</P><P></P><P>ATI在RADEON X1000系上引入了对单通道纹理(例如R16F)的2:1压缩技术,不仅能支持亮度映射图(luminance map)、阴影映射图(shadow map)以及HDR纹理,ATI对此压缩技术也并到了3Dc中,并称之为3Dc+。</P><P><I>在OpenEXR.com上,也有类似的2:1压缩技术,但是是否同样的东西我们还需要确认。</I></P><P>在此之前于X800引入的3Dc其实就是Normal map压缩而已,NVIDIA在GeForce 7上也实现了该技术的支持。现在这个单通道压缩则其实和原来的3Dc并没有直接的关系,并非3Dc的升级,而应该看作是另一个纹理应用领域的压缩技术。</P><P>X1000系列同样提供了6X抗锯齿下达到6:1压缩比率的色彩缓存压缩以及改进的Hyper-Z技术。在Hyper-Z技术方面,ATI表示RADEON X1800的Hierarchical Z采用了更加精确的可见面检查算法,能比以往的RADEON GPU多剔除掉50%的隐藏面像素操作。在Z/Stencil压缩和Fast-Z方面,依然维持8:1的压缩率以及64倍的快速Z缓存清空能力</P><P><B>RADEON X1000系的画面品质改进</B></P><P>和RADEON X800系相比,ATI这次的X1000在画面品质上着重强调三方面:</P><P><B>高动态范围渲染(HDR)
全方位各向异性过滤
自适应抗锯齿(Adaptive Anti-Aliasing)</B></P><P><B>高动态范围渲染(HDR)</B></P><P>在NVIDIA的GeForce 6推出后,一个最受关注的争议就是高动态范围渲染,那么什么是高动态范围渲染。</P><P>所谓的高动态其实是相对而言的,例如在沙漠地带的昼夜温差很大,我们可以称之为高动态,在空调房内温差很小,我们可以称之为低动态。</P><P>在3D渲染中,以往的8位整数格式(RGBA8)只能表现出256:1的最亮值:最暗值动态范围,这个255:1被称作是LDR(低动态范围),如果比值高于这个范围的,就可以被称作是HDR。例如INT16的纹理可以表现65536:1,FP16可以表现两万亿比一的动态范围。</P><P>ATI表示,所有的shader model 2.0或者更高规格的GPU都可以支持64位色彩格式,不过这仅仅是满足HDR的基本条件,如果要全面释放HDR的威力,还需要额外的能力才能达成。ATI的RADEON X1000系产品支持64位浮点缓存混合、纹理过滤和多取样抗锯齿。</P><P>除了支持FP16 HDR外,ATI还支持Matrox Pahelia引入的INT10(R10:G10:B10:A2)格式,该格式提供了比一般RGBA8更高的精度(达到1024个灰阶),支持10亿色彩以及有限度的透明阶度(4级)。和传统的INT8相比,INT10能够提供4倍动态范围和精度,同时不会有多大的性能损耗和内存占用,而且该格式还支持混合操作和抗锯齿。</P><P>简而言之,就是ATI希望凭借多样化的HDR支持和丰富纹理压缩技术,在HDR应用中提供最佳的效能和画面品质。</P><P> </P>
 楼主| 发表于 2005-10-6 00:08:14 | 显示全部楼层
<P><B>全方位各向异性过滤</B></P><P>在GeForce 3/4时代,NVIDIA和ATI在画面品质上的一个争论点就是各向异性过滤的实现方式。ATI在RADEON 8500上采用了和屏幕边缘呈水平、垂直夹角的多边形作AF,并且在打开AF的时候,三线性过滤失效。而NVIDIA的GeForce 3/4则对全角度的多边形作AF处理,并且允许在打开AF的时候也打开三线性过滤。</P><P>到了GeForce FX VS RADEON 9700时代,ATI开始对45度夹角多边形也作AF处理,同时也允许打开三线性过滤,而NVIDIA则尝试引入类似ATI的AF、三线性过滤优化方式。这样的优化措施一直在不断地演进,到了RADEON X1000系上,似乎一切又恢复到可以实现高品质过滤的时代。</P><P></P><P>根据ATI介绍,在RADEON X1000上,用户可以打开名为Area Ainsotropic Fiter的全角度各向异性异性过滤。ATI表示,由于使用了先进的算法,打开该过滤模式的性能影响相当小。</P><P><B>自适应抗锯齿</B></P><P>RADEON X1000引入的自适应抗锯齿技术能够支持超级取样和多取样抗锯齿模式,并且是根据画面中不同对象的特性而自动切换不同的取样方式。</P><P>在大多数情况下,RADEON X1000会执行多取样方式进行抗锯齿处理,但是当遇到类似铁丝网、植物等由纹理经过阿尔法混合方式生成的对象时,就会切换到超级取样模式,以提高抗锯齿的品质。</P><P></P><P>类似的技术也在GeForce 7800上采用,不过ATI就特别强调RADEON X1000还能够在打开HDR的时候应用自适应抗锯齿。</P>
 楼主| 发表于 2005-10-6 00:11:16 | 显示全部楼层
<P></P><P>RADEON X1800实物图片,采用Raptor双槽散热器</P><P> </P><P> </P><P></P>
 楼主| 发表于 2005-10-6 00:14:18 | 显示全部楼层
<P> </P>
<P></P>除了上述的产品外,ATI还将推出针对CrossFire双卡并行的X1000系主卡,在实现CrossFire的时候,可以最高实现2048x1536 14X SuperAA@70Hz,这些主卡包括有两款:



<P></P>大家可以看到,RADEON X1300的CrossFire方案完全免除了连接电缆,两片卡的数据交换完全透过北桥的PCIE通道进行。另一个和RADEON X1800/X1600的CF方案不同的地方,是RADEON X1800/X1600在CF的时候可以支持双通道输出,而RADEON X1300则不行。
<p>
[此贴子已经被作者于2005-10-6 0:15:22编辑过]

您需要登录后才可以回帖 登录 | 注册

本版积分规则

QQ|小黑屋|手机版|3GO模拟飞行网|3GO Cyber Air Force ( 沪ICP备08002287号|沪ICP备14050587号 )

GMT+8, 2024-5-19 04:39

Powered by Discuz! X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表