Board logo

标题: 关于ATI和NVIDIA显卡动态显存划分技术详解! [打印本页]

作者: 合肥亮少    时间: 2011-5-16 16:04     标题: 关于ATI和NVIDIA显卡动态显存划分技术详解!

很多购买笔记本的人都会发现这样的一个小问题,比如T43中使用的显卡是X300独立64M显存,但是在系统中查看显卡属性以及参数的时候显示的是128或者256M的,再比如T60的X1400的显卡,实际独立的显存部分是128M的,但是在系统显卡属性中会显示出512M的显存,再者T61中使用的NV140M的显卡实际显存是128M独立的,但是系统显示中有512M可用。 难道这些是数据错误还是商家动手脚了,其实都不是。  真实的原因这些显卡使用了独立显存+集成显存的模式,也就是说独立显卡的基础上,要是处理数据不够,那么显卡还会从内存当中划分一部分过来,以达到最高的显示效果。

最先采用这种独立显卡+动态划分技术的是ATI,他的全称叫做HyperMemory:
最先出现在其RS480芯片组中,随后推出移动版版X300 HyperMemory中也有其身影, 这种设计大大提高了移动显卡的数据处理能力,同时也能充分利用系统资源,以及降低笔记本整体能耗,一般动态划分内存都是自动划分的,内存越大划分的越多,这个比例在出厂的时候厂家已经预先设计好了,如T43笔记本中如果是1GB的内存,那么显卡就是独立64M+集成64M=128M的显存,如果是2GB的内存,就是64M独立显卡+192集成显卡=256M显存。 如果你不想使用该技术,一般笔记本BIOS里面都能关闭此设置。注:有此功能的笔记本显卡,打开动态显存后查看笔记本电脑属性的时候,内存显示的会比正常数据少一些,如1GB内存,查看属性的时候一般显示是0.99G或者0.98G等。



其次是NVIDIA公司随后推出的Turbo Cache技术以应对ATI的相关动态划分技术:
最终的目的和上面ATI的是一样功能,主要为了增强笔记本的显卡处理能力和效果,比如一款GEFORCE 6200TC128M的显卡,实际显卡上面只有64M的显存,但是使用者能使用128M的显存,剩下64M显存需要在内存中划分过来。Turbo Cache技术需要在内存容量比较宽裕的情况下才能有效的发挥作用,假如内内存比较小,Turbo Cache技术会减少对内存的占用。
如果你的笔记本带Turbo Cache技术或者Hyper Memory技术的电脑用户来说,内存建议不低于512M的内存。






以下是转自百度百科的两种技术的详细资料:

NVIDIA-
Turbo Cache 技术:

随着nVIDIA发布首先应用Turbo Cache 技术的6200TC以来,对于这项新技术产品多方面议论纷纷,争议不断。驱动之家也对此类产品进行了综合的测评有了以下的评论。

  产品背景


PCI-E作为新一代总线技术的产生,凭自身拥有的优点和特性,被所有图形芯片厂商所看好并作为完美的下一代总线技术,并将在图形领域完全应用PCI-E 成为图形芯片厂商主流架构。AGP技术再不能满足显卡发展的要求,将被逐渐淘汰。新架构对所有显卡芯片厂商都是一个新的机遇和挑战,他们都希望充分利用这次机遇,在此次技术革新的时候,取得先机,在市场上取得领先地位。

  2004 年12月16日,图形芯片巨头nVIDIA正式发布了基于Turbo Cache技术(以下简称TC技术)的Geforce6200TC显卡。并称TC技术将成为未来显卡的一个重要发展方向。nVIDIA前脚刚刚发布 Geforce6200TC,就有许多显卡制造厂商拿出了相应的零售产品。前些时候驱动之家也对昂达闪电6200TC做了一番测试。众多媒体陆续刊登了许多相关产品的测试报告,并对TC技术做了解释。我们就来谈谈这块可以颠覆以往显卡基本设计思想和足以改变整个显卡市场产品态势的新技术。

  技术介绍

  如果你想知道TC究竟为我们带来了什么?你就必须首先从技术方面熟悉和掌握它。Turbo Cache (增强型缓存加速技术)是nVIDIA的一项软硬件一体化解决方案。官方网站的介绍也不能让我们完全了解这项专业技术,我们把它粗略解释为可以直接利用系统内存进行渲染,也就是可以大幅减少显存容量从而降低成本同时又可保持良好3D性能的技术。有测试数据表明,采用TC技术的16MB板载高速缓存的显卡, 3DMark03的测试成绩会达到2200分,远远超过其竞争对手的产品。

  为什么板载高速混存只有16MB的显卡能有这样不寻常的表现呢?

  nVIDIA 发布的内部代号为NV44的6200TC是率先应用TC技术的产品。它是NV4x家族的最新成员,它完全继承NV4X的先进架构,采用TSMC .11微米制程,完整支持DirectX9.0C,其主要技术规格跟基于NV43V的6200基本一致的。不过NV44核心频率为350Mhz,比 NV43V还要高出50Mhz。关键的不同在于TC技术能够共享系统内存带宽,通过将一部分系统内存虚拟成显存来获得最佳的显卡3D性能。一般采用TC技术的显卡都只具有16或者32MB高速缓存的版本,通过TC技术,我们可以得到128MB有效帧缓存器用于应用程序。

  既然是利用系统内存,这和以前的集成显卡又有什么区别呢?

  在nVIDIA 的官方技术说明中,内存管理技术可以“允许GPU在分配和不分配系统内存时无缝切换,并且高效的读写内存”。这个工作由驱动程序中名叫TC的管理部分执行,以分配和平衡系统及本地显存,而且它的操作级别非常高。6200TC新引入了内存管理单元(Memory Manage Unit,MMU),能够让GPU透过PCI-E总线直接对系统内存进行读取和写操作,自动把渲染结果和纹理分配在本地内存或者系统内存上。这就类似于把 CPU的内存管理器搬到了GPU里,能够把本地缓存和系统内存浑然视作一体,突破两者的物理地址,以虚拟寻址方式自由地分配帧缓存以及纹理缓存。

  比如有一台使用集成显卡的电脑有512M系统内存,如果划给集成显卡8M容量作为显存,则系统中会显示仅有504M系统内存,但使用TC技术不会导致这种情况,它不会固定的分出一块内存当作显存,它的作用主要反映在两方面:

  * 第一、 TC技术仅仅是需要占用主内存的时候才占用,MMU具有一个智能的算法来决定使用主内存和使用板载缓存的最佳途径。

  * 第二、 2D显示输出是使用板载高速缓存,因此在这种情况下不会和CPU争抢内存的控制权。

  即使显卡需要占用一部分内存,但BIOS与Windows都会认为系统仍具有512M内存。还有比起集成显卡完全依赖于系统内存的情况,TC却可以通过显卡板载的显存作为Cache来加快对系统内存的读取调用速度,为显卡性能带来明显的提升。

  所以Turbo Cache技术完全不会像整合显卡一样影响系统内存。

  很多读者都知道在AGP时代就有了类似的技术,TC又怎能称得上是新技术呢?

  当AGP技术被Intel推出时,AGP就作为降低显存容量而出现的一种技术,用更专业的说法是“寻求降低帧缓存(Framebuffer)成本的解决方案”。

  但是在AGP总线上开发的显卡为什么还是在不断的增加显存数量呢?

  有着以下的原因:

  * 一、 随着芯片制造技术的成熟,显存颗粒的价格已经大幅降低,4颗16M×16的颗粒组成的128M显存,仅比4颗8M×16颗粒组成64M显存贵2个美元

  * 二、 AGP总线带宽在3D游戏中还是不够用,AGP8X的带宽是2.1GB/s,与128bit@400MHz的显存所具有的6.4GB/s带宽相差很远。

  所以,在AGP上运用TC技术并没有凸现出什么特别的优势。

  随着PCI Express 总线的到来,其最大的优势就在于带宽的增加和灵活的扩展性能。与PCI所有设备共享同一条总线资源不同,PCI Express总线采用点对点技术,能够为每一块设备分配独享通道带宽,不需要在设备之间共享资源,充分保障各设备的带宽资源,提高数据传输速率。

  所以TC并非完全是全新的技术,TC就是充分的利用PCI-E技术这一优势,焕发出巨大的潜能。换句话说也就是PCI-E引爆了TC技术。

  如果是这样的话,6200TC 又于6200标准版有什么区别呢?

  首先NV44 6200TC屏蔽了显存控制器上的Color and Z-Compression功能,这对开启AA和AF的情况下会有一定影响。不过6200TC为Full 4管线设计,无论是基板和核心大小(Die Size)均大大小于NV43V,加上可以板载更少的显存,这样无疑为厂家降低了很多成本。

  PCI -E平台中具有8GB/s的双向带宽,因此nVIDIA进行了这样的运算:在具有32bit@350MHz帧缓存的6200TC中,GPU应该能得到8+ 2.8=10.8GB/s;而64bit@350MHz帧缓存与PCIE能为GPU提供8+2.8×2=13.6GB/s的带宽。这个数字很诱人,上文中分析过,AGP8X带宽仅有2.1GB/s,而128bit@400MHz的显存能带来6.4GB/s的带宽。凭借PCI-E,32bit@350MHz 6200TC的总带宽竟然高于128bit@400MHz独立显卡。

  但是实际情况并非这样理想:8GB/s仅是PCI-E供给GPU的带宽,内存提供给显卡的带宽自然无法达到这个数字。双通道DDR400内存的带宽为 6.4GB/s,双通道DDRII 533也不过就是8GB/s,此外还要给CPU、硬盘DMA、南桥芯片、外设等等设备分配带宽。因此,在采用TC技术上的显卡,是不可能得到理论上的带宽数值的。

  同时,内存的延迟时间也大大高于显存,内存的位数、频率也会对带宽造成直接影响。所以用户要想采用具备TurboCache技术的显卡,应尽量使内存容量增加并开启双通道模式。

  基于上述原因,6200TC对比6200标准版有一定的性能差距。许多测试结果也证明了这点。

  评论

  对于nVIDIA 这样的厂商来说,对于他们利润贡献最高的并非是某些高端的产品,那些中低端产品才是真正主力。这类产品的巨大出货量帮助nVIDIA扩大了其市场份额,同时给于企业的利润以强大支撑。GF4 MX440和前阶段的FX5200都有不俗的表现。表明低端产品的种种特性还是被大多数人所接受。nVIDIA 有理有希望利用6200TC 延续以往低端产品的势头率先抢下更多的PCI-E产品的市场占有率。按照推测,未来的PCI-E低端市场必然会被大量拥有TC技术的产品占领。ATI作为 nVIDIA的最大竞争对手当然不能放弃这块诱人的市场,ATI也开发了一个类似的技术叫做Hyper Memory, Hyper Memory和Turbo Cache一样也是从系统内存中寻址为显卡所用的一门新技术,2004年12月ATI就推出首先应用Hyper Memory技术的X300。相信基于此类技术的产品以后一定会越来越丰富,您的选择面也会越来越广。

  近年度的各种市场调查数据显示:整体PC市场集成显卡的比例在持续的增加,独立显卡的市场份额被逐渐的降低。Intel开发出的集成显卡被市场迅速接受,在台式机、笔记本上广泛采用,Intel也凭借集成显卡市场的扩大而一举成为显示芯片最大的供应商。nVIDIA推出TC技术,某种程度上就是要制止 Intel凭借集成显示卡技术进一步侵蚀其市场份额。

  PC的集成化越来越高,借助一体化的销售策略,更多的产品将会被整合化销售。声卡、网卡现在在主板上的集成度之高就很好的说明了这一问题。对于普通的客户而言,去电脑城单独购置声卡、网卡并将其装配到主板上如今已经是很少见的事例了。显卡厂商面对这些问题,也积极开发性价比更高的产品来适应广大消费者的需求。

  有一点要提示的是关于搭配系统内存的问题,在以往的测试中为了能让您的TC显卡达到128MB缓存容量,nVIDIA建议您的系统内存不要低于512MB,目前来看这点并不算苛刻。但有些人则认为这是将显卡成本直接转嫁到内存上了。实际早在2003年的7月驱动之家就进行了一次“天造地设—寻求系统和内存最佳搭配的评测”针对系统于内存的最佳搭配,并提出了测试结论:WinXP成为了主流的操作系统,软件开发平台纷纷向WinXP转移,也就为WinXP提供了最大的软件优化。许多更华丽界面和功能更强大软件的应用,使用大容量的内存(通常是512MB甚至更高)对于WinXP的使用是一定有必要的。根据目前市场的情况,使用双通道技术搭载2根256M内存的搭配方式已被相当多的消费者接受,如果暂时使用1根内存条的客户,以后再升级内存时,TC显卡借于双通道的打开,会得到进一步的性能提升,而双通道的使用也会使PC整体的性能也随之有很大提升。在日常的2D应用中,比如观看视频、浏览网页的时候,16MB 板载高速混存完全可以满足应用需求,这时候TC技术不会占用系统内存,而不会像915G等板载显卡一样,占用固定内存,从而也不会造成系统的性能衰减。


  说了那么多,如果您是一位专业游戏FANS,口袋中又有充足银两的话,想必对6200TC会透出不屑一顾的眼神。别说6200TC与6800、6600大哥级别产品拥有太大的差距,就与标准版的6200比较,拥有32M显存的6200TC在大部分测试成绩上都落后10%左右。现在市场上的6200的显卡一般报价在千元左右,而6200TC的产品定价一般在7XX,也有部分厂家打出了足够吸引消费者的6XX低价。6200TC相比于只有6200价格的75%,甚至更低。如果您不是把高端游戏体验作为主要衡量标准的话,6200TC一定是个不错的选择,TC技术的延伸会给我们带来更多基于此类技术的产品。

  伴随着PCIE的高带宽以及双通道技术,内存频率的不断提升,给与TC技术发展的空间也越来越大。因为尺寸比较小,相信在未来的移动领域也会被大范围的采用。显卡制造厂商的大力支持,更给了nVIDIA无比的信心,6200TC的推出并不光是想攻占入门级市场,它的出现,很大程度上降低了人们选择PCI- E平台的门槛,使PCI-E显卡被人接受的可能性大大增加。我们也会进一步跟进nVIDIA,对以后此方面的产品进行进一步评测。
[转自百度百科原文地址:http://baike.baidu.com/view/1373639.htm ]




ATI的HyperMemory动态划分显存技术:

HyperMemory技术的主要特点在于允许核心通过System Bus Interface利用PCI-Express总线庞大的带宽直接访问系统内存,在需要时将数据置于系统内存中进行操作,并通过新添加的Memory Controller对本地显存和系统内存的访问与操作进行协调管理,使核心能更加合理、充分地利用本地显存和系统内存的资源,达到最终扩展总显存数量的目的。根据ATI的资料,以支持HyperMemory技术的低成本版X300为例,其275MHz的64bit本地显存与64bit双通道DDR400 的系统内存合并组成的综合显示存储系统,可为核心提供12.8G/s的带宽。   

在HyperMemory出现之前,由于PCI-Express总线没有很明显的类似AGP DIME的设计,PCI-Express接口的显卡无法直接地对内存进行利用,所以往往需要通过搭配更大的本地显存来满足图形应用中对存储空间的需求。这大大增加了PCI-Express接口显卡的制造成本,同时,大容量本地显存的解决方案也并非适用于所有用户,中低端及入门级用户需要更低成本的解决方案。这种情况使得厂商很难在利润控制、性能与市场三者之间取得良好的平衡。HyperMemory技术出现后,ATI可通过它来大幅削减其PCI- Express接口显卡的本地显存容量以达到控制成本的目的,同时可通过对系统内存的调用来解决存储空间和存储性能的需求问题。   HyperMemory的第一个显著特点是对内存总线的直接完全占用。通过System Bus Interface,HyperMemory可和AGP DIME一样实现对内存总线的无延迟占用,这样可保证数据传输过程不会受到延迟期的干扰。同时,由于独占内存总线,HyperMemory可最大限度利用内存带宽进行数据传输;


HyperMemory仅在需要时才占用内存总线,在它不占用内存总线时,用户不必担心系统内存的可用容量和带宽会受到影响。 HyperMemory的另一个特点在于其本地显存仅用来存储前段和后段缓冲区以及一定量的Z-Buffer,所有的纹理信息和材质的存储几乎全部使用系统内存来完成。这与当年Intel i740的存储工作方式几乎一模一样,显存部分的主要作用在于2D应用与基本缓冲,而各种主要的3D信息则依靠核心调用系统内存来进行缓冲操作,双方很少产生干扰,基本不会发生交错等待的现象。这种分置设计还可为现有的RAMDAC工作提供合理的环境,避免发生显存调用不当导致的RAMDAC无法动作。另外,HyperMemory将主要的缓冲场所设在内存中也有利于核心获得更大的可用操作空间。现在和未来的各种3D场景将涉及到越来越多的纹理、 Shader Program、Render-Target、Z/stencil等,比如运算即时光影效果时就需对大量的Z/stencil或作参考用的多个Multi Render-Target结果进行操作。此外,每个顶点及像素上的重量、颜色、法线、纹理坐标、雾和点的大小等都会占用大量的空间。未来,某个绘图过程占用128MB的缓冲也许是很平常的事。通过HyperMemory技术的应用,核心在完成这些过程时将不必受空间因素的影响。同时,在所调用内存空间的分布方面,HyperMemory采用事先扫描内存并寻找合适空间的方式,这样做能最大限度保证内存空间的利用率,很有“见缝插针”的味道。一言以蔽之, HyperMemory的特点在于“分立”和“自由”。   

尽管HyperMemory技术具有很多独到的特点,但其所具有的缺点及负面影响也很明显。   首先,HyperMemory独占内存总线时整个系统的其他部分都无法对内存进行动作,这造成了非显示部分尤其是CPU的等待延迟,而且这种周期延迟会随着HyperMemory对内存操作复杂程度的提升而增加。由于ATI目前的核心所支持的数据请求包大小仅为32byte,过小的请求包不仅影响数据传输的有效带宽,导致HyperMemory无法充分利用PCI-Express总线庞大的数据传输能力,而且过小的不够详尽的请求描述通常意味着单次数据传输量和回应精确度的下降及传输次数的上升。HyperMemory所传输的数据越多,系统浪费的周期也就越多。这不仅直接影响了CPU运算能力的发挥,而且可能导致所有由CPU来进行的中断分配、总线控制命令等工作的延迟,从而使整个系统的工作出现一定的混乱。   

其次,由于本地显存和内存存储不同类别数据的设计,一般情况下本地显存中不会为需要进入内存中的数据开辟专门的映射区域,这导致 HyperMemory在对系统内存进行操作时会受到物理内存定址上的限制。没有映射表或指针,要进入内存进行保存的帧缓存就不得不先拷贝进显存中然后再进入内存,这不仅带来了比独立映射区大得多的空间浪费,而且多余的拷贝过程还会影响整体的存储操作效率,最终甚至影响整个渲染过程的速度。   

最后,由于ATI目前的核心缺乏对直接内存写入的支持,HyperMemory在实际渲染过程中无法对内存进行写帧缓存和写渲染操作,而 HyperMemory的设计恰恰决定了几乎所有渲染过程都必须在内存中进行,所有渲染步骤必须先经由CPU或北桥来写入内存才能开始,这不仅使得PCI -Express巨大的下行带宽毫无用武之地,而且还导致了渲染过程的周期延迟以及核心、CPU和北桥三者之间正常工作的相互干扰。核心需要进行内存渲染操作时不巧CPU在进行运算,北桥在进行数据交换,大家都很忙,怎么协调工作……工位的安排会再一次导致新延迟的出现,影响渲染过程的进行。最终,核心良好的构架受制于这些因素有可能无法将运算能力完整地发挥出来。   

尽管存在上述缺陷,但HyperMemory仍然不失为一个十分优秀的显示数据存储解决方案。它在强调成本的前提下最大限度地保留并发挥了核心的性能,同时又不会对用户的系统内存容量提出很高的要求。从这个角度讲,HyperMemory确实是一个比较成功的注重成本的技术。

[转自百度百科原文地址:http://baike.baidu.com/view/1986140.htm ]




欢迎光临 合肥本本之星 合肥Thinkpad专卖店 合肥Apple专卖店 hfthink 合肥本之星信息科技有限公司 (http://hfthink.net/) Powered by Discuz! 7.2