Mostrando las entradas con la etiqueta ATi. Mostrar todas las entradas
Mostrando las entradas con la etiqueta ATi. Mostrar todas las entradas

lunes, 14 de julio de 2008

ATi Radeon RV770 by ChileHardWare

Bueno ya hemos visto la revision a la arquitectura de nVidia la GT200 la cual ha sido muy criticada pues la competencia habi sacado semanas despues su nuevo chip que resulto ser muy competitivo en cuanto a precio/performance y este es el RV770 el cual sustituyo al bien recibido RV600 la arquitectura R700 de AMD-ATi fue sorprendente en papel pues llego a rebasar el Teraflop o calculos por segundo que puede realizar y por si fuera poco se implemento en el tope de linea la nueva memoria GDDR5 la cual sustituira a la actual GDDR4 la cual no fue bien recibida por la industria pero que al final no aportaba demasiado pues nVidia por su parte nunca fue partidario de la GDDR4 preferia seguir utilizando GDDR3 para sus soluciones graficas, en fin parace ser que al fin ATi volvio a tener la corono de las graficas y que los problemas han quedado atras pues en este año tendremos el lanzamiento de su solucion de dos nucleos la cual segun previews hace pedazos a la competencia lo cual habla de que los chicos de ATi se han puesto las pilas y han ganado terreno en cuento a miniaturizacion y han sorprendido a todos cono sus excelentes precios en sus ultimos chips de 65 y 55 nm, lo cual le ha costado un poco a nVidia como se vio en la nota anterior pero bueno veamos que tiene este chip dentro.

Arquitectura RV770

No ha pasado una semana desde que les entregamos a ustedes la primicia del lanzamiento de los nuevos GPUs de NVIDIA y nuevamente estamos haciendo un acto de presencia para traerles a ustedes la cobertura del lanzamiento del núcleo RV770 de AMD, también conocida como la serie ATI Radeon HD 4800.

¡Rompimos la barrera del Teraflop!, anuncia AMD cuando lanzó su tarjeta de cómputo AMD Firestream 9250 el mismo día de lanzamiento del GPU GT200 de NVIDIA, el cual era el objetivo principal de la segunda empresa hace un tiempo atrás en un webcast que ellos realizaron. Los rumores decían que el G92 sería el GPU encargado en llegar a esta marca, pero no fue así. Tampoco lo hizo su sucesor, el recién lanzado GT200. En la historia quedará escrito que esta marca es de color rojo y verde gracias al RV770.

Dicen que el tamaño no lo es todo y vaya que AMD lo demostró. Utilizando el proceso de manufactura más avanzado de TSMC (55nm) logró comprimir 956 millones de transistores en menos de la mitad del silicio que ocupa el GT200 de NVIDIA. Mucho mérito tiene esto, pues la empresa puede jactarse de que produce un chip relativamente económico y de consumo eléctrico mucho más racional que la bestia de 260w de su competidor.

Pero, ¿qué es un teraflop? ¿Para qué me sirve? ¿Por qué escucho rumores que el GPU de NVIDIA con menos poder de cómputo logra un mayor rendimiento en Crysis? Todas esas preguntas y muchas más serán resueltas en el siguiente análisis de su portal de tecnología favorito.

Arquitectura

Según las especificaciones técnicas de AMD, la empresa habla que su GPU posee 800 unidades de procesamiento de shaders (Shader Processing Units o SPUs) que al ser comparados con los 240 SPs de NVIDIA, nos da un 333.33% periódico más de elementos computacionales. Viendo estos números, la primera impresión que da es que el motor TeraScale (como denomina ATI a la arquitectura de su GPU) debe ser capaz de jugar Crysis a 2560x1600 con todo en máxima calidad y tener un rendimiento por encima de los 30 cuadros por segundo. Sin embargo, esto está lejos de la realidad y esto se debe a que la arquitectura de este GPU es muy diferente a la de su competidor.

Para poder entender este gráfico un poco mejor, hemos puesto algunos números que dividen el GPU en grandes bloques para así ir haciendo un análisis desmenuzado de este complejo chip.

1. Procesador de comandos y motor de configuración:

Las unidades funcionales, las cuales no han cambiado mucho desde el R600, son similares al procesador de hilos de NVIDIA, el procesador de comandos recibe las instrucciones del driver en donde se determina si lo que se va calcular son instrucciones de cómputo, pixeles, vértices o geometría para luego ser enviados al despachador de hilos (compuestos los hilos de una o más instrucciones) que envían posteriormente a los núcleos SIMD del GPU. En estas estructuras, también se encuentran algunas memorias cache para las instrucciones al igual que la unidad de Hierarchical Z (encargada de descartar los pixeles que no serán visibles en cada cuadro de animación) y teselador programable (¿inventé una palabra nueva?). Esta última unidad está siendo fuertemente promocionada por AMD como un avance único de su arquitectura pues NVIDIA no tiene dicha unidad. De las muchas innovaciones que se han presentado en el mundo de la renderización en 3D, la técnica de teselar es una de las más interesantes.

Si recuerdan ustedes algunas nociones de la técnica de renderización, sabrán que las imágenes en 3D están compuestas por polígonos, en específico triángulos. A mayor cantidad de ellos, mejor es la definición de la imagen. Sin embargo, utilizar demasiados triángulos para definir una imagen en extremo detalle puede ser muy costoso en rendimiento. La técnica de teselar permite que, usando un polígono base, éste se subdivida en muchos triángulos más. Así, con el costo de rendimiento de una imagen poco definida, se puede crear una de mucho más alta definición como lo gráfica el siguiente ejemplo que muestra la definición de imagen con distintos niveles de teselación.




Como se puede apreciar, esta técnica resulta ser muy interesante y debiese tener acogida por parte de los desarrolladores. Sin embargo, el futuro de esta técnica ha estado en veremos desde hace años, pues la primera versión de ella la introdujo ATI en la Radeon 8500 y todavía no ha logrado captar la atención de los desarrolladores. No solo esto, esta técnica no hace parte ni si quiera de DirectX 10.1, por lo que para implementarla se debe recurrir a instrucciones especificas que permiten hacerla funcional. Por eso, por mucho que AMD este promocionando esta técnica fuertemente, esta recién hará sentido cuando Microsoft termine DirectX 11 que incluye la teselación como parte de su especificación y para ello, falta mucho todavía.

2. Núcleos SIMD

En esta parte del GPU se concentra el grueso del poder de cómputo del RV770, pues es acá donde está escondido el poder de los teraflops que tanto se hace referencia. En resumen, este chip contiene en su interior 10 núcleos de instrucciones SIMD. Cada núcleo está compuesto por un conjunto de 16 stream processors (SPs) que incluyen en su interior 5 SPUs como se aprecia en el gráfico, desarrollado nuevamente gracias al Departamento Didáctico de CHW:

Su estructura y forma de funcionamiento tampoco ha variado mucho dese el R600 y el único cambio notorio es que aumentaron la cantidad de núcleos SIMD de 4 a 10. Sacando nuestra calculadora del bolsillo nuevamente podemos hacer el siguiente calculo: 10x16x5= 800 SPUs, a comparación de los 4x16x5= 320 SPUs del R600. Sin embargo, este cálculo no es compatible con el de la arquitectura GT200 en donde mencionamos que habían 10x3x8= 240 SPs. Esto se debe a que AMD considera que cada SP incluye 5 unidades de cálculo más pequeñas en su interior. Por lo tanto, la primera aproximación de equivalencia entre estas dos arquitecturas sería la siguiente:

* AMD: 10x1x16x5 (Núcleos SIMD, cantidad de núcleos SIMD, SP, SPU)

* NVIDIA: 10x3x8x1 (TPC, SM, SP, unidades de procesamiento por SP)


Como se menciono anteriormente, cada SP está compuesto por 5 unidades SPU, cuatro de ellas capaces de ejecutar una operación MAD (suma y multiplicación) y la quinta (SPU C) es una unidad que puede realizar cálculos especiales más complejas que las realizadas por los otros cuatro. Adicionalmente, cada SP tiene unos registros internos (espacio de memoria para almacenar datos compartida por todos los SPUs). Todo lo anterior se puede apreciar en el detalle de cada SP comparado con el SM de NVIDIA:

Como se puede observar, la organización del SP se asemeja mucho más a las unidades SM de NVIDIA que a sus SPs. Esta es la razón que justifica ajustar la forma como están compuestas las arquitecturas de AMD y NVIDIA.

Como 800 puede ser mayor, igual o menor a 240

Es en este punto del análisis técnico donde se debe hacer una pausa para poder comprender por qué las diferencias de rendimiento entre el RV770 y el GT200 entre lo que se aprecia en juegos y el poder teórico de computo de los GPUs, en donde en el primero NVIDIA es superior y en el segundo lo es AMD.

La primera distinción clave que hay que hacer es decir que cada SP de AMD procesa instrucciones de palabra muy larga (Very Long Instruction Word o VLIW) de ancho 5. Las instrucciones VLIW están diseñadas para aprovechar el paralelismo, al empaquetar un conjunto de hasta 5 instrucciones que no sean interdependientes entre sí (en otras palabras, ninguna de las 5 instrucciones puede depender de las otras) en una sola a ser ejecutada. El beneficio de emplear VLIW es que las unidades de cómputo son más sencillas, por lo que se requiere de menos transistores para construirlas. Sin embargo, esto trae como consecuencia que no siempre se están ejecutando 5 instrucciones en paralelo por SP por ciclo (hertz). Por lo tanto, para extraer el máximo nivel de paralelismo y por ende la eficiencia de la arquitectura, se requiere de un compilador muy sofisticado, que tenga una lógica muy avanzada que permita agrupar conjuntos de instrucciones con la menor cantidad de interdependencias posibles. Esto hace que la comunicación entre el software y el hardware de AMD sea mucho más complicada que el de NVIDIA y favorece a la segunda pues siempre será capaz de procesar una instrucción por ciclo por cada SP.

Ahondando en este estudio, como se mencionó en el análisis de la arquitectura de NVIDIA, el GPU procesa los hilos en grupos de a 32, los cuales se demoran en ser procesados 4 ciclos (dos hilos por SP). Por su parte, el RV770 es capaz de procesar un máximo de 16 hilos por núcleo SIMD (uno por cada SM) que pueden ser de un máximo de 5 instrucciones por hilo. Teniendo en cuenta las arquitecturas de cada GPU, el recién creado Departamento FLOPs y Calculadoras de Bolsillo de CHW llegó a las siguientes conclusiones:

* AMD= 10 núcleos SIMD x 16 hilos por ciclo = 160 hilos por ciclo de hasta 5 instrucciones

* NVIDIA = 3 SM x 10 TPC x (32 hilos / cada 4 ciclos) = 240 hilos por ciclo de sola una instrucción.


Lo anterior equivale a que AMD puede procesar un mínimo de 160 instrucciones por ciclo (25% superior a un G80 y 50% inferior al GT200) y un máximo de 800 instrucciones por ciclo (333% superior al GT200) a comparación de las 240 instrucciones constantes de NVIDIA. Antes de complicar más la historia, cabe aclarar que aquí se ven claramente las apuestas de cada empresa, mientras AMD optó por un GPU más sencillo en su arquitectura física (por ende, con mayores unidades de computo de menor tamaño) sacrificando la facilidad de compilación de los programas, NVIDIA opto por un GPU complejo pero mucho más sencillo de programar.

Pero esta historia todavía no termina aquí, falta el último ingrediente en esta teleserie. Si ustedes recuerdan bien, los SPs de NVIDIA corren a una frecuencia mayor al resto del GPU, por lo que aun cuando la velocidad de la Radeon HD 4870 sea de 750MHz, los SPs de la GTX 280 corren a 1296 MHz. Con esta última pieza del rompecabezas por fin podemos llegar a la mágica ecuación que permite determinar la cantidad de FLOPS (Operaciones de Punto Flotante por Segundo) que cada GPU de cada empresa afirma ser capaz de calcular (recuerden que las operaciones MAD valen por 2 FLOPS porque se calcula una suma y una multiplicación):

* AMD = (160 hilos x 5 instrucciones x750 MHz x 2 FLOPS)/10^12= 1.2 teraflops

* NVIDIA: (240 instrucciones x 1296 MHz x 2 FLOPS)/10^12 = 622.08 gigaflops


Al ver lo anterior, notamos que el resultado de NVIDIA es 2/3 de la cifra que ellos mismos indican para su GPU, equivalente a 933 gigaflops. ¿De dónde sale ese tercio adicional? Si ustedes miran la composición del SM del GT200 podrán observar que hay una unidad que se llama SFU. La SFU se encarga de muchas tareas como lo es el caso de la interpolación de valores (una función muy importante para los cálculos gráficos). Esta unidad, cuando no tiene tareas pendientes, es capaz de ejecutar una instrucción MUL (multiplicación) adicional con lo cual, en el mejor de los casos, NVIDIA procesaría 3 FLOPS por reloj, con ello llegando al valor de 933 gigaflops que ellos aseguran es capaz de procesar su GPU. Por lo que se puede ver, tanto AMD como NVDIA maquillan sus resultados con respecto a los FLOPS poniéndolas siempre en el mejor de los casos. Ahora, resulta interesante que poniendo el peor de los casos, el GT200 es casi un 260% más rápido que el RV770.

Después de este profundo y complejo análisis, cabe preguntarse, ¿Qué empresa tomó la mejor decisión? Por una parte, tenemos que el rendimiento de AMD varía mucho y no depende solo de su arquitectura sino del software que le envía instrucciones a procesar por lo que su rendimiento real es más impredecible. Sin embargo, esto ayuda a mantener a raya el tamaño y consumo del GPU lo que le permite implementar una tarjeta con dos GPUs fácilmente para competir contra la fuerza bruta del GT200 (estaríamos en presencia de una tarjeta con un mínimo de 320 instrucciones por ciclo y un máximo de 1600). Por otro lado, el GT200 tiene un rendimiento estable y predecible siempre que no depende de la forma como esté compilado el software. Esto hace que el GPU de NVIDIA sea mucho más fuerte en rendimiento medio pero a la vez hace que este sea prácticamente inmanejable en cuanto a tamaño, consumo eléctrico y costo. El as bajo la manga de una GX2 es prácticamente imposible de tener en cuenta y esto le puede pesar en contra a NVIDIA en el largo plazo.

Un último detalle a resaltar de los núcleos SIMD, es que tienen capacidad de procesar 240 gigaflops en precisión doble, (64-bit) que es considerablemente más que los 90 gigaflops que puede procesar NVIDIA. AMD no nos suministro mayor información aparte de lo mencionado, así que es poco lo que se puede saber de cómo obtienen dichos valores.

Más Arquitectura

3. Caché y Unidades de filtrado de textura

El RV770 incorpora un par de memorias caché para los núcleos SIMD (ambos de 16 KB). El primero de ellos sirve para el almacenamiento de información compartida de datos entre los SPs de AMD y el segundo es un cache compartido entre todos los 10 núcleos SIMD del GPU.

Se sigue manteniendo la proporción de una unidad de cálculo de texturas por núcleo SIMD igual que en el R600, lo que nos da un aumento de 16 a 40 unidades de direccionamiento y filtrado de texturas. Sin embargo, el ancho de banda del cache de texturas se duplico en el RV770 al igual que se duplicó el almacenamiento efectivo de ellas en el cache L1. Estas mejoras en las unidades de texturas hacen que sean mucho más eficientes que las del GT200, pues no solo procesan más texturas por segundo, sino que además lo hacen con la mitad de las que requiere NVIDIA.

4. ROPs

En el área de post-procesamiento de pixeles (ROPs) se mantuvo el mismo número de unidades con respecto al R600 (4 particiones), cada una atada a un controlador de memoria de 64-bit. Esto dista de la estrategia de NVIDIA quien agregó dos particiones ROP más con respecto a su GPU anterior. Sin embargo, puede que esto no sea muy necesario para AMD, pues desde el R600 optaron porque la resolución de las tareas de Anti-Aliasing estuvieran a cargo de los SPUs y no de unidades dedicadas para ello.

Con todo y ello, el cambio más notorio de las unidades ROP fue la inclusión de 8 unidades más de profundidad stencil (depth stencil) que permiten mejorar notablemente el rendimiento de muchos efectos de post-procesamiento tales como sombras. Junto con estas, aun cuando no detalladas por AMD, hicieron mejoras en el rendimiento de los filtros Anti-Aliasing prácticamente duplicándolo en todos los casos. También, su amplia gama de filtros Anti-Aliasing customizables fueron mejorados para evitar que los pixeles se viesen borrosos (una gran critica que se hizo en la generación R600 a los filtros CFAA). De hecho, en muestras suministradas por AMD, aseguran que sus filtros 8x MSAA y 24x CFAA, superan ampliamente al filtro 16xQ CSAA de NVIDIA y para ello, se muestra el siguiente ejemplo:

5. Controlador de memoria

Pareciese que el diseño del bus de anillo que implementaron soluciones anteriores no presentaba los beneficios que AMD esperaba, pues con la poca información que tenemos al respecto de este, todo pareciese indicar que utiliza una estructura más tradicional en donde un hub central distribuye los datos a cada controlador de memoria (4 de ellos para un ancho de banda de 256-bit total) alrededor del GPU. Sin embargo, el diseño es más inteligente que el de NVIDIA pues los controladores de memoria están puestos alrededor del motor de shaders del RV770, en vez de una ubicación central la cual resulta más compleja a la hora de distribuir los datos de forma más eficiente.


Adicionalmente, y probablemente lo más importante, es que el controlador de memoria ahora soporta las memorias gráficas más avanzadas del mercado, llamadas GDDR5. Estas memorias se caracterizan, entre otras cosas, por ofrecer mayor eficiencia en el ancho de banda, mayores velocidades de reloj y menor consumo eléctrico que diseños anteriores. No solo esto, los módulos de memoria son más pequeños, la integridad de la señal es mejor (para mayor estabilidad a altas frecuencias) y tiene mayor confiabilidad en la entrega de datos ademas de mayor tolerancia a los errores, lo que finalmente se traduce en una mejor escalada de frecuencia. Finalmente, este tipo de memorias permiten hacer diseños de las rutas que conectan las memorias con el GPU más sencillos lo que abarata los costos de desarrollo del PCB y disminuye el ruido eléctrico en este por empleo de rutas menos complejas.

Lo medular acá es que AMD opto por aumentar el ancho de banda utilizando memoria de mayor ancho de banda en vez de emplear un bus más complejo como el de NVIDIA. Esto hace que el controlador de memoria sea más sencillo, requiera de menos conexiones eléctricas y escale a mayores frecuencias pues no está al límite de la tecnología, sino que está recién en su primera etapa. Es cierto que el ancho de banda efectivo del RV770 es inferior al del GT200, pero este último está al límite de sus posibilidades y no es mucho lo que se puede mejorar por lo que AMD no tendría muchos inconvenientes en el caso de que quiera aumentarlo.

Después de este análisis en profundidad de la arquitectura, podemos resumir las características del GPU en sus versiones Radeon HD 4870 y Radeon HD 4850 a comparación de la Radeon HD 3870 y la GTX 280 en la siguiente tabla:


Stream computing, física y consumo eléctrico


NVIDIA lleva un buen tiempo anunciándole a todo pulmón a quien lo escuche con respecto a CUDA y sus bondades. De hecho, tienen una visión y una estrategia muy clara de hacia dónde quieren apuntar y lo han promovido mucho en todas sus presentaciones. Es tan así, que hacen una distinción muy clara entre el modo gráfico y el modo computo de su GPU, aparte de tener separados muchos recursos (desde pagina web hasta clases universitarias) para promover CUDA.

El caso de AMD es menos claro, es cierto, tienen casos de aplicaciones que explotan el poder de cómputo de sus GPUs, tienen herramientas de desarrollo como Brook+ y están trabajando en futuros estándares de computación en paralelo como OpenCL (Open Compute Language). Sin embargo, pareciese ser que AMD promueve este conjunto de herramientas más como por decir “nosotros también lo hacemos” que como un esfuerzo concentrado por hacer que la computación en sus GPUs despegue. Entre lo que hay en las presentaciones de AMD, la documentación para utilizar su GPU y el soporte prestado a las herramientas queda la sensación es que su estrategia no está desarrollada sino mas bien es improvisada.

Similar a lo que ocurre con las herramientas de cómputo para GPUs AMD, pasa con su soporte de física. Al igual que NVIDIA, AMD lleva años prometiendo soporte de física por medio de sus GPUs, sin embargo esto no se ha materializado. En el caso de NVIDIA, se pueden ver acciones completas como la adquisición de AGEIA, portar PhysX a CUDA, drivers beta y demostraciones. Por otro lado, AMD apenas menciona que prefiere usar Havok como motor de física y lanza una frase que no entrega muchas esperanzas al compromiso de AMD con dicha tecnología: “Exploración del soporte del GPU ATI Radeon para el soporte de productos Havok donde la carga de trabajo tome ventajas del poder de computo”. En pocas palabras, es poco lo que se ha avanzado con respecto a las promesas que la empresa ha hecho en el pasado.

Finalmente, y para terminar la revisión de la arquitectura, se debe resaltar que AMD desarrolló un GPU que aun cuando es muy poderoso, también es mucho más eficiente desde el punto de vista energético. Utilizando una mezcla de un proceso de manufactura más avanzado, una arquitectura pensada en un consumo eléctrico racional y técnicas de ahorro de energía, el RV770 se convierte en la arquitectura más eficiente y sea la solución más verde en cuanto a GPUs de alto rendimiento.

Conclusiones

La sorpresiva respuesta de NVIDIA la semana pasada al anuncio del RV770 por medio del lanzamiento de la 9800GTX+ a un precio muy bajo muestra que la empresa está muy preocupada. AMD produjo un GPU extremadamente poderoso y lo que es más relevante, a un precio muy bajo ($199 dólares por la Radeon HD 4850 y $299 dólares por la Radeon HD 4870). Estamos hablando que AMD está posicionando su último GPU como un producto de rango medio, es decir lo que hace poco tiempo era tope de línea y costaba acorde a ello, ahora se puede conseguir a precios muy asequibles. ¡Gracias AMD por ayudar a influir a la baja los precios de las tarjetas gráficas!

AMD tiene un GPU de tamaño manejable, con una arquitectura flexible (pensando en sus futuras optimizaciones) de consumo energético razonable y de bajo costo. Definido en palabras de AMD, la empresa logró avances en consumo energético, eficiencia, escalabilidad y asequibilidad en precio, mientras que NVIDIA tiene problemas en esos mismos parámetros.

El margen de maniobra de NVIDIA es mucho más reducido y su riesgosa apuesta puede poner en aprietos a la empresa, mientras que AMD, aprendiendo de la lección que le entregaron los muchos problemas en la introducción del R600, optó por replantearse el mercado y su dura competencia con NVIDIA. Concentrándose en sacar GPUs de muy alto rendimiento en la gama media a precios bajos y compitiendo en la gama alta ya sea con soluciones CrossfireX o con tarjetas de video X2, pareciese que su lectura del mercado es más acertada o por lo menos más balanceada.

Considerando los rumores que se han escuchado con respecto al R700, el cual podría tener en su interior circuitería especial que le permitiese a cada GPU comunicarse de forma más eficiente y tener cualidades como compartir el mismo banco de memoria, estaríamos frente a un producto más que competitivo con la GTX 280, pues no se limitaría a simplemente poner dos GPUs y habilitar Crossfire. Si esta solución llegase a ser superior en rendimiento a la GTX280 o un poco inferior a ella, pero a un precio más bajo, a NVIDIA le quedarían muy pocas opciones sobre la mesa con su actual arquitectura, pues su GPU está muy al límite de la tecnología en cuanto a proceso de manufactura, velocidades del GPU, controlador de memoria, consumo eléctrico y costo. De hecho, en estos momentos la arquitectura con mayor flexibilidad de la empresa es la del G92, (aunque ésta es cada vez menor pues ya de por sí es un refinamiento del G80) demostrado claramente con la rápida respuesta al lanzamiento del RV770. Pero ese lanzamiento demuestra una cosa, NVIDIA no es una empresa que cederá fácilmente en esta batalla.

Ciertamente se acercan tiempos muy interesantes pues hoy AMD con el lanzamiento de su arquitectura mostró que tienen una estrategia muy agresiva al mismo tiempo que una clara visión de futuro con respecto a los GPUs para gráficas. Se menciona esto ultimo pues en cuanto a cómputo, creemos que AMD no es muy claro en su postura y no inspira la confianza que lo hace la faceta gráfica del chip. Felicitamos a AMD por no haberse rendido en la guerra de GPUs de alto rendimiento y ofrecernos una propuesta que mantiene vivo el espíritu de la competitividad que permite que la gran mayoría de las personas puedan gozar de excelente rendimiento a precios muy bajos. Adicionalmente, tendremos una entretenida lucha de tanto AMD como NVIDIA con propuestas en tanto arquitectura como estrategias comerciales diametralmente opuestas. ¿De qué lado de la fuerza estarán ustedes en esta generación?

Nota del Autor: Pedimos disculpas por no poder ser más específicos en ciertas áreas de la arquitectura, pero la información proporcionada por AMD fué muy incompleta y se debío investigar mucho dentro de la poca información disponible de forma independiente para poder realizar este artículo.


(c) ChileHardWare URL ORIGINAL

viernes, 20 de junio de 2008

ATi HD 4850 a la venta


Pues al parecer ATi no pudo esperar mas y el dia de ayer lanzo a la venta su tarjeta de nivel medio que owneea a la 9800 GTX segun rumores pero que no alcanza a la GT200 de nvidia pero lo que ofrece es un precio mas copetitivo que la solucion de nVidia ya que esta fue lanzada la semana pasado pero a un precio poco adsequible a diferencia de la solucion de ATi que rondara los 200 dolares, en contraparte de la GT200 que rondan mas de 400 dolares, bueno la nota a continuacion de parte de fudzilla.

Debido a que ya se podía comprar la Radeon 4850 en la mayoría de los países de Europa, alguien en AMD decidió eliminar el NDA y lanzar la Radeon 4850 hoy, es decir Ahora!

Hemos aprendido que si tienes una Radeon 4850 y has obtenido alguna puntuación, a AMD no le importara si los posteamos. Sin embargo, la presentación de la Radeon 4870 se mantiene para el Miércoles 25 de este Mes, esto se ha comprobado con un alto rango de ATI / AMD, si tienes dudas habla a AMD y confírmalo xD. Miles de Radeon 4850 ya han sido vendidas en las tiendas y no hay forma de controlar esto.

Hemos aprendido que las tiendas reciben loas tarjetas de 1 a 3 semanas antes esperando el OK de ATI.

Al parecer el lanzamiento fue adelantado por la presión de los usuarios que se han dedicado a hacer llamadas y ejercer presión para que se adelante el lanzamiento ya que parece que esta serie de ATI es de lo mas deseado por su bajo precio e increíble rendimiento.

jueves, 31 de enero de 2008

ATi Radeon HD 3870 X2 (R680)

AMD hace un nuevo intento por quedarse con el trono de la tarjeta más rápida del mercado con la Radeon HD 3870X2, una placa basada en dos procesadores gráficos, un millón trescientos treinta y tres mil transistores y un gigabyte de memoria RAM.

Desde la salida al mercado de la Radeon HD 2900XT, AMD se siente en deuda. Deuda con el segmento de mercado que más orgullo trae a las compañías gráficas, el de las tarjetas de vídeo tope de linea, con precios estratosfericos y - cuando cumplen su función - rendimientos impresionantes. En su momento la Radeon HD 2900XT cargo con un estigma, y fue su gran consumo eléctrico; si bien su rendimiento era superior a la generación pasada de la misma marca, la oferta de NVIDIA tenia un mejor rendimiento, y la suma de mayor consumo y menores cuadros por segundo, la hizo un producto para olvidar rápidamente.

Más tarde, AMD logro superar su problema de consumo miniaturizando su proceso productivo y pasando de los 80nm de R600 - el procesador gráfico de la Radeon HD 2900XT - a 65nm con el RV670, un derivado de menor consumo y disipación de R600.

Sin embargo su arquitectura carece de potencia comparativa al exitoso G80 o su refresco en 65nm, G92. Por lo tanto, y ante la carencia de una nueva arquitectura, no le queda más que aumentar la frecuencia de sus procesadores gráficos e incluir dos de ellos en un mismo PCB.

Pero esto no es del todo sencillo, pensar en una tarjeta con dos procesadores gráficos es como pensar en un automóvil con dos motores. Puede ser más costoso, más pesado y más complejo, pero no necesariamente más rápido.

jueves, 10 de enero de 2008

C.E.S. Las Vegas by ChileHardWare

Bueno como ya adelantabamos en estos dias se lleva a cabo la Convecion de Electronica de Consume en la ciudad de las vegas y gratamente Chilehardware tienen la oportunidad de asistir no se si sea el unico latino pero bueno como nuevas de este evento consiguieron algunos datos sobre el nVidia Hybrid algo que AMD-ATi ya habia planteado en meses anteriores una opcion de Fusionar el chipset de la Motherboard con los graficos independientes para obtener mejor calidad grafica, como punto 2 trataron de obtener una entrevista con el CEO de AMD el tio Hector Ruiz como lo llaman nuestros amigos de HardwareCult gg pero solamente obtuvieron la entrevista con Phil Hester CTO de AMDy por ultimo en el dia 2 observaron lo que nos traera Foxconn para esta temporada.

nVidia Hybrid SLi
Ya estamos en Las Vegas, y el primero en actuar fue NVIDIA. Hoy vemos la nueva tecnologia basada en SLI, que los ingenieros de Santa Clara tienen preparado y sus implicancias en consumo y poder.

En el marco de CES, el dia de ayer, NVIDIA reunió a lo más granado de la prensa especializada para jactarse de su ultima invención, Hybrid SLI o SLI Híbrido. SLI Híbrido, como su nombre podria insinuar, no se trata de hacer una configuracion SLI – dos tarjetas gráficas trabajando por un mismo proposito – con tarjetas de video de distinto modelo, sino de tener la capacidad de ocupar el minimo de energia y sacar el mayor provecho de nuestros recursos.

SLI Híbrido consiste en dos tecnologias, que si bien tienen algo que ver entre ellas, no son lo mismo. A continuación las explicaremos para que entiendan de qué trata este último invento de NVIDIA.

GeForce Boost

GeForce Boost, se trata de combinar la potencia de un procesador gráfico integrado, con una tarjeta gráfica discreta. Tarjetas gráficas discretas, por si no han estado atentos a nuestros articulos, es una tarjeta de video de tipo expansion, es decir, una tarjeta como tal. Un gráfico integrado en tanto, se refiere a aquellas placas madres que poseen una solucion gráfica a bordo o integrada. De esta forma, en momentos que necesitemos de maximo desempeño gráfico, el sistema podrá ocupar la potencia, tanto de su solucion gráfica integrada, como de su tarjeta de video discreta, para cumplir con la misma tarea.


Esta solucion esta enfocada principalmente a mercados de entrada. Esto se debe a una razon tácnica, GeForce Boost ocupa el metodo AFR – Alternate Frame Rendering - de trabajo en equipo, el cual necesita que la potencia de ambas soluciones sea relativamente pareja, ya que de lo contrario la solucion integrada puede frenar la potencia de la discreta. De este modo, en la actualidad solo las GeForce 8500GT y 8400GS son compatibles con GeForce Boost, tambien se espera que en el futuro, nuevas tarjetas que vengan a reemplazar a las anteriormente mencionadas, sean compatibles con esta tecnologia. Por el lado de las placas madres, NVIDIA aprovecho la ocasion para anunciar sus placas madres basadas en el chipset GeForce 8200, compatible con procesadores AMD, y que pareadas con una 8500GT u 8400GS son capaces de correr GeForce Boost.

Hybrid Power

NVIDIA Hybrid Power o en español, Poder Híbrido, es probablemente la tecnologia más interesante de Hybrid SLI. El enfoque de NVIDIA es que todo chipset – incluido los tope de linea – deben poseer gráficos integrados. Esto es el pilar de Hybrid Power, ya que su esencia es "apagar" las tarjetas gráficas, cuando no necesitamos de esa potencia. Hace poco tiempo en una noticia breve mencionamos el hecho de que incluso los chipsets de gama alta para AMD traerían IGP . En ese momento la idea nos desconcertó, pero ahora tiene sentido.

En la actualidad los componentes que más potencia consumen son procesador y tarjetas gráficas. La idea de NVIDIA es reducir el consumo cuando el sistema esté por así decirlo en reposo. De este modo, cuando estemos haciendo trabajos que no necesitan de gran potencia gráfica, podemos ocupar los gráficos integrados que sus chipsets futuros incorporarán, y apagar por completo la o las tarjetas de video de nuestro sistema. Asi mismo, cuando las necesitemos, el sistema es capaz de encenderlas nuevamente y tomar provecho de su potencia.


No todas las tarjetas gráficas son compatibles con esta tecnologia. Es más, en la actualidad ninguna lo es. Lo que sucede, es que para prender y apagar una tarjeta gráfica dinamicamente, se necesita de circuiteria extra, en este caso se trata de nuevos reguladores de voltaje, que si bien son un costo marginal en el valor total de una tarjeta gráfica, en vista que estamos ante una tecnologia nueva, las tarjetas de actual generación no la poseen. Asi mismo no cualquier placa madre es compatible con esto. Por el momento NVIDIA espera lanzar productos compatibles con procesadores AMD durante el correr del primer trimestre del presente año, y para procesadores Intel, durante el segundo semestre.
Primeras Impresiones

Lo principal y probablemente más revolucionario de lo hablado por NVIDIA, es el hecho que en el futuro y a partir de ahora, todas sus logicas para placas madres poseerán gráficos integrados. Esto suena bastante coherente, considerando el hecho que tanto AMD como Intel tienen planes a futuro para incorporar gráficos en los mismos procesadores. Con esta nueva estrategia, NVIDIA anula el valor agregado que los fabricantes de procesadores pretenden entregar a sus productos, “regalando” en la actualidad, lo que los primeros quieren “regalar” en el futuro. Porque claro, estamos hablando de gráficos integrados “gratuitos”, que no involucran un costo economico extra, aunque posiblemente si, en cuanto a generacion de calor.

Por el lado de GeForce Boost, esto puede tomar especial importancia en plataformas moviles, sin embargo debemos recordar que Intel lleva la delantera no solo en procesadores, sino tambien en logicas moviles, por ende el exito total de la técnica de NVIDIA en esta arena, radica exclusivamente en que pueda mezclarse con gráficos integrados Intel.

Sin embargo hasta ahora, no vemos más que los detalles de algo anunciado en el pasado, ahora sólo es cosa de tiempo para que alguien pruebe estas letras empiricamente, y veamos que sucede cuando el momentum de la marca SLI, se aplica a algo que hasta hoy era su antónimo, la disminucion de consumo energetico.

Desde Las Vegas, ciudad del vicio, el pecado y Gil Grissom informó: JF. ¡Adelante estudios!

Entrevista con Phil Hester CTO de AMD

Pedimos una entrevista con Hector Ruiz, y nos entregaron a Phil Hester, el tope de línea o FX de la jerarquía interna de AMD cuando hablamos de tecnologia. Rendimientos, problemas, fanboys y más, desde Las Vegas, Nevada, capital mundial de todo lo que parece elegante pero no lo es.

Phil Hester es un veterano con 30 años en la industria de la tecnologia. Hoy por hoy es el CTO, Chief Technology Officer, o Director de Tecnología de AMD, y vice-presidente de la compañía. Podríamos decir que es el segundo abordo, si consideramos que Dirk Meyer y Hector Ruiz están básicamente a la par en jerarquía. Pero no estamos acá para hablar de jerarquía, sino de Phenom, Erratas y rendimientos, y cuando queremos hablar sobre estos temas, Phil es el hombre.

Puedes explicarle a nuestros lectores de que trata el bug que tiene Phenom. En nuestros laboratorios hemos intentado replicarlo sin éxito.

En general es prácticamente imposible replicar el bug TLB en una situación de usuario. La única forma de encontrarse con este error es en ambientes de servidores, donde bajo extremo estrés, con múltiples peticiones, puede manifestarse. Es algo complejo y poco realista en un escenario de escritorio.

Entonces si no es un problema mayor, ¿porque repararlo?

Queremos estar seguros que nuestros procesadores están completamente libre de errores. Por ende y aun cuando teóricamente Phenom no tiene mayores problemas con el bug TLB, lo vamos a reparar. Solo hemos podido replicar el problema en limitadas ocasiones, sin embargo mientras esa mínima posibilidad de falla exista, vamos a solucionarlo.

¿Es un problema a solucionar de primera prioridad, o solo uno más en la lista de fallas que Phenom – tal como todos los procesadores del planeta – tienen?

Es sencillo, es un bug, lo tenemos identificado, y la próxima revisión de nuestro procesadores definitivamente no lo tendrá.

¿Cuando lanzaran el Phenom 9900? Hoy por hoy prácticamente todos los medios especializados tienen uno, pero no esta disponible en el mercado.


Ese producto sera lanzado durante el segundo trimestre del presente año. Aun no estamos haciendo publica una fecha en particular.

Hablemos sobre escalada de frecuencias. ¿Cuando diseñaron Phenom, estaban esperando que su modelo tope de linea al día de lanzamiento seria de meros 2,3GHz?

Esta dentro de la cota inferior de resultados que esperábamos, aun así esta nueva arquitectura funciona extremadamente bien. Cuando diseñas una nueva arquitectura, la gente a cargo de la manufactura te entrega informes sobre como el diseño funcionara a lo largo de diversas condiciones. Cuando comienzas la fabricación en volumen, recibes la información real de como la manufactura y rendimientos resultan. En el caso de Phenom, la distribución estadística proyectada fue distinta a la real, sin embargo es algo que es solucionable con el tiempo, ajustando ratios en los transistores.

¿Que tipo de frecuencias esperan lograr con Phenom en 65nm?

No vamos a hablar sobre frecuencias especificas. La pregunta que debemos hacer es: cuanto trabajo hace un procesador en cada ciclo de reloj. Un procesador que corre a 2,5GHz puede correr más rápido que uno de 5GHz, si el primero ejecuta más del doble de instrucciones por cada ciclo. Por nuestra parte, esperamos tener el liderazgo en rendimiento.

¿Estan esperando un mayor rendimiento a igual frecuencia con Yorkfield (procesador de cuatro núcleos y 45nm de Intel)?

Si, en una comparación de manzanas con manzanas. Intel se enfoca mucho en la litografía (manufactura), deberíamos contarte una historia detallada sobre... lo que tratamos de hacer es una buena combinación entre rendimiento litográfico (productivo) y de transistores.

Lo que Intel no hace publico, es que su rendimiento de manufactura no es el mismo en un comienzo que 5 o 6 meses más tarde, porque tienen una curva de aprendizaje que recorrer. Cuando introdujeron sus transistores en 45nm, nuestros procesadores de 65nm tenían un mejor rendimiento productivo (yields), porque ellos estaban en su primera generación en 45 mientras que nosotros en nuestra tercera o cuarta en 65. A Intel le gusta decir que esta un año adelante en litografía que el resto de la industria, esa no es la forma como nosotros trabajamos. Nosotros nos preguntamos donde estamos en cuanto a rendimiento por transistor, y poniéndolo de esa forma, creemos que tenemos una diferencia tecnológica de solo 4 meses.


¿Como pretenden manejar la presión de precios que Intel puede ejercer con un producto de 45nm?

Creo que debes preguntarle a Intel que tipo de yields (rendimiento productivo) están teniendo en 45nm. Si te responden que son buenos, pregúntales porque no están despachando todos sus productos en esta tecnologia. (Nota: Mientras la entrevista se llevo a cabo, Intel anuncio 16 productos en 45nm).

¿Leíste el articulo sobre compatibilidad de Phenom en placas madres AM2 publicado por Tom´s Hardware?

No, no lo he leído.

Bueno, básicamente dice que de diez placas madres AM2 que probaron, solo dos funcionaron con Phenom.

¿Tenían las actualizaciones de BIOS?

Las ultimas que pudieron conseguir.

Lo único que he escuchado es que las BIOS no están a tiempo. La parte lógica y eléctrica de las placas madres es completamente compatible con Phenom, nosotros las hemos probado en nuestros laboratorios y funcionan bien. El punto es la coordinación en tiempo de las actualizaciones de BIOS, creo que deberías pedirle a los fabricantes las respectivas BIOS.

¿No esta AMD trabajando con los fabricantes?

Trabajamos con ellos, tenemos una plataforma que valida, el problema es que no sabemos que tipo de ciclos internos tienen ellos para sus desarrollos.

Luego del episodio en Lake Tahoe, la débil disponibilidad durante las primeras semanas y la nula disponibilidad de actualizaciones de BIOS, todo da a pensar que Phenom tuvo un lanzamiento algo apurado. ¿Crees lo mismo?

Esto tiene que ver con expectativas. En algunos momentos nos critican porque todos quieren ver nuestra ultima tecnologia lo antes posible, en esta ocasión nos critican porque fue demasiado temprano. Necesitamos encontrar el punto correcto para nuestros lanzamientos futuros.

Luego de que AMD firmara con Dell, pareciera que dejaron de lado a quienes les dieron de comer en el pasado, los entusiastas. ¿Que le dirías a ellos?

Si miramos atrás al cuarto trimestre del 2006 y el primero del 2007, nos tomo mucho trabajo fabricar en volumen para despachar productos a los OEMs (Dell y cia.). Creo que el comentario es justo, pero hoy las cosas están mucho más balanceadas.

Fabricación en volumen, ¿cuales son los planes?

Seguiremos trabajando con UMC y TSMC en el lado de gráficos y electrónica de consumo (ATi), y en el caso de procesadores centrales, continuaremos con nuestro modelo híbrido, con nuestras propias fabricas y el apoyo de Chartered. No habrá cambios en el corto ni mediano plazo, creemos que este modelo funciona muy bien.

Foxconn

Pasamos la fria tarde de Las Vegas con Peter "Shamino" Tan, renombrado entusiasta y ultima adquisicion de Foxconn. A continuacion podran ver los nuevos proyectos realmente revolucionarios que Foxconn trae para los overclockeros empedernidos.
El Foxconn Extremo

Desde hace algún tiempo, los fabricantes de placas madres y tarjetas gráficas han buscado diferenciar sus productos poniendo énfasis en sus capacidades para ser exigidos más allá de los tradicional. Esto es lo que conocemos como overclock, y si bien puede parecer algo sencillo, no siempre lo es.

Si bien muchas compañías en esta industria contratan gente que dice ser entusiasta, cuando nos reunimos con ellos, la gran mayoría solo sabe sus catálogos de memoria, pero poco entienden de las reales necesidades de sus clientes, los reales entusiastas.

Foxconn, la compañía más grande de Taiwan, un fabricante que ha puesto la mayor parte de sus esfuerzos en el mercado OEM y de ensambladores, deicidio hacer un giro, y fue así como contrato a Peter "Shamino" Tan, reconocido overclockero extremo y editor de VR-Zone, el sitio líder de hardware en Singapur, para encabezar el desarrollo de productos dedicados exclusivamente a a quienes buscan el tope del tope de linea. Sin embargo Peter no sera su única contratación, ya se habla sobre dos renombrados que se encuentran actualmente en conversaciones con Foxconn, para unirse al equipo de desarrollo y basarse en Taiwan, para desarrollar productos que escapan de lo normal.
Foxconn X48 Black Ops

La placa madre Foxconn X48 Black Ops es única en su tipo. No solo porque se trata de una tarjeta basada en el pronto a estar disponible chipset X48, el cual vendrá a ser la lógica tope de linea para procesadores Intel, sino también porque posee una BIOS comprensiva, sumamente completa, y una refrigeración sensacional.

Peter nos dio un recorrido de la BIOS, y no solo nos llamo la atencion los voltajes sumamente altos, sino que a la derecha, donde en placas madres tradicionales vemos mensajes del tipo, "vCPU: Sube y baja vCPU", nos encontramos con consejos del tipo, "Voltaje del procesador, para refrigeración por aire recomendamos no más de 1,6v; para agua no más de 1,8v...".



En cuanto al orden de la BIOS, el equipo de Foxconn, se dio el trabajo de hacerla racional. No estoy hablando de una BIOS sencilla en características, sino compleja pero ordenada. En el menu de opciones con apartados de diversos voltajes bajo el titulo, "Estos afectan el FSB" y otros bajo el titulo, "Estos afectan el CPU". De este modo permite que aquellos más aventurados puedan jugar con las variables dependiendo de que busquen como resultado.

Lo ultimo que nos llamo la atencion en la BIOS, es algo que si bien no afecta su rendimiento, le entrega un toque de humor. Dependiendo del FSB que logremos nos encontraremos con mensajes del tipo, "Rompedor de records", "Godlike", Benching Spree", entre otros.


En cuanto a la placa madre en si, nos encontramos con reguladores de voltaje digitales de ocho fases y un sistema de refrigeración bastante exótico. Se trata de un circuito de agua, que permite cuatro tipos de funcionamiento. El primero es el más conservador, el cual se trata de un sistema completamente pasivo y por ende silencioso, el segundo y algo más efectivo, es ocupar un ventilador para ayudar al sistema de cobre. Entrando a la arena más extrema, nos encontramos con la posibilidad de poner una tapa con conectores para un sistema de refrigeración liquida, y la cuarta y definitivamente más insanas, es la posibilidad de poner un accesorio incluido, que no es más que una plataforma de plástico duro para ocupar hielo seco o nitrógeno liquido. De acuerdo a Foxconn, en sus pruebas preliminares con temperaturas algo menores de 0°C, encontraron un impulso de 15-20MHz en FSB.


Foxconn F1

Foxconn F1 es el nombre clave del ultimo proyecto del equipo extremo de Foxconn. Se trata de una placa madre para procesadores Intel basada en un chipset por ahora desconocido. Lo que si sabemos es que no se trata de X38, X48 ni algo basado en servidores, lo único que nos informaron es que se trata de lógica Intel, y si entramos al campo de la especulación, creemos que posee un chip auxiliar nForce 200 para hacer lo suyo con cuatro tarjetas gráficas.


La principal novedad de esta placa madre es el hecho que es capaz de correr cuatro tarjetas ATi en modalidad CrossFire. Esto quiere decir, que ante la disponibilidad de controladores, podremos ver incluso cuatro tarjetas R680 corriendo en CrossFire para un total de ocho procesadores gráficos RV670. Sin embargo si la inspeccionamos cuidadosamente, nos vamos encontrando con pequeños detalles que pueden alegrar a varios. Si se fijan, tiene dos conectores de poder ATX, lo que permite que ocupes dos fuentes de poder en vez de una de gran tamaño y potencia. Lo otro extravagante es el sistema de refrigeración, no conformes con tener un circuito de agua, bajo el bloque de cobre nos encontramos con un panel termoeléctrico de 60 watts que permite mantener la temperatura del chipset a 15°C bajo la temperatura ambiente.

Impresiones

Ya se nota el efecto de esta nueva influencia entusiasta que Foxconn ha tenido, y la expansión de su linea Quantum Force. Si bien los productos que hoy vimos, no se encuentran aun en el mercado, y el ultimo es posible que nunca vea la luz del dia, la realidad es que hay desarrollo, y mientras exista un desarrollo, aumenta la competencia, y esto implica innovación y mejores precios. Esperemos que esta nueva camada de productos, empuje a otros fabricantes a atreverse más allá de infinitos circuitos de heatpipes o colores llamativos.



Primeras Imagenes HD 3870 X2

El futuro desarrollo de ATI estará destinado a los verdaderos entusiastas: la 3870 X2 dispone de dos GPUs integradas, algo que obviamente hace que la tarjeta sea especialmente larga.

El nuevo modelo integra dos GPUs R670 en un PCB y que hace uso de un sistema de refrigeración especial capaz de ‘aligerar’ el calor disipado que genera este monstruo. Según HotHardware, la configuración de los núcleos gráficos será similar a la de las actuales Radeon HD 3870, pero puede que en cuestión de framebuffers se diseñen modelos de hasta 2 Gbytes.

No han dado datos más concretos, pero señalan que para que nos hagamos una idea, esta tarjeta consumirá menos que una Radeon HD 2900 XT actual y que el rendimiento será equivalente e incluso superior al de una configuración CrossFire con dos 3870.

lunes, 19 de noviembre de 2007

ATi Radeon HD 3800 series RV 670 review by ChileHardware

Bueno aunque mañana es el lanzamiento mundial o la liberacion NDA en algunos paises, llega por parte de AMD/ATI la tarjeta que sera la competencia de la 8800 GT que aunque no llega a su poder en la parte economica parece ser que es su fuerte y el stock de al menos la 3850 es mejor que el de la 8800 y la 3870 y esto se debe a su produccion masiva y parece una buena opcion de compra.

Toda acción tiene una reacción, y si NVIDIA lanzó su GeForce 8800GT hace dos semanas, hoy AMD hace lo suyo con las Radeon HD 3850 y 3750, las nuevas tarjetas gráficas de gama media-alta del fabricante verde-rojo. En esta análisis veremos donde se posiciona en cuanto a rendimiento y características.
El actual mercado de las tarjetas gráficas ha estado algo movido desde la aparición de AMD dentro de la eterna guerra de NVIDIA y ATI. Las cosas parecen haber cambiado un poco, al menos en la forma en que ambas compañías enfrentan el mercado.

ATI y NVIDIA antiguamente tendían a competir con reglas claras, algunas que incluso parecían bandas de precios, aun cuando las batallas en rendimiento eran totalmente encarnizadas parecía haber un acuerdo de caballeros para nunca tocar los rangos de precio, ni las formas de llegar a los consumidores. Podía ganar una marca o la otra, pero siempre pareció no haber mucha especulación en cuanto a los precios o los segmentos a los cuales sus productos iban enfocados.

Sin embargo desde la entrada de AMD, un jugador - en este entonces - con mayor presencia que las compañías desarrolladoras de chips gráficos, las cosas han tendido a cambiar en cuanto a esta forma de funcionar.

AMD recibió a ATI cuando la ultima ya estaba desarrollando el polémico chip R600, sin embargo este no estaba libre de problemas, por un lado los secuaces rojos tenían serios problemas para sacarlo a la luz, y aun cuando lo logro finalmente, su rendimiento no lograba siquiera acercarse al de la competencia. Ante este escenario, AMD recurrió a sus mejores contactos y aun cuando perdieron la batalla del rendimiento en esa ocasión, se comenzó a esbozar una guerra no vista antes en el mercado de las tarjetas gráficas, una guerra en la cual AMD ya ha sabido pelear antes, la guerra de precios y ensambladores.

Es así como en la actualidad la linea Radeon HD 2000 no ha sido el fracaso que muchos piensan es, sino más bien, una linea que se ha vendido muy bien. No hablamos de la Radeon HD 2900 XT, ni siquiera de la Radeon HD 2600 XT, estamos hablando de los modelos de entrada, que han sido muy demandados por ensambladores como Dell, HP y Acer.

Pero ya ha pasado algún tiempo desde el lanzamiento de estas tarjetas, y hoy es hora de un refresco. Con la salida de las actuales HD38x0, AMD gracias a sus influencias como empresa de mayor envergadura, logró cerrar un acuerdo con TSMC a largo plazo, para fabricar sus GPU a un proceso de fabricación más avanzado - 55nm - esto les significa el poder generar procesadores gráficos más pequeños, con menor consumo pero fundamentalmente mas baratas, casi la mitad de lo que costo en su momento fabricar las Radeon HD 2900 XT.

Producto de esta guerra a lanzado un excelente producto como es el G92, pero sin embargo con problemas de stock, que según algunos tendrían que ver con la canibalización de sus propios productos frente a este nuevo integrante de la familia. Este es un error esperable teniendo en cuenta la poca experiencia de NVIDIA en este tipo de terrenos donde AMD ya lleva años de circo compitiendo con el más grande de todos, Intel.



Barniz Técnico

Como ya sabemos las nuevas tarjetas de ATI traen consigo un die-shrink, es decir, un cambio de proceso de fabricación a uno más pequeño, 55nm proporcionado por TSMC.
Este die-shrink mantiene la misma arquitectura con un par de cambios cosméticos bastante sutiles, sin embargo lo mas importante de este nuevo proceso de fabricación, es la disminución del tamaño del GPU, con una superficie total de 192mm2 con 666 millones de transistores, un poco menos de la mitad del R600 408mm2 de superficie y alrededor de 720 millones de transistores. G92 por su parte llega cerca de los 315mm2 de superficie con 734 millones de transistores, bastante mas grande que RV670 y por tanto mas caro de producir.

En la arquitectura del chip, nada ha cambiado mucho, sigue estando basado en una arquitectura unificada con 320 shaders processors pero con la posibilidad de poder trabajar a doble-precisión en cálculos decimales (de coma flotante) fundamental para los procesos basados en GPGPU, esto significa trabajar con datos de hasta 128 bits (precisión simple es 64-bit) por paso sin mayor esfuerzo, cosa que por el lado de NVIDIA solo G92 puede realizar pero trabajando solo con la mitad de la capacidad de proceso.

La inclusión del motor de aceleración de vídeo de alta definición por hardware UVD también viene integrado en el chip, lo cual se agradece ya que la HD2900XT carecía de esta característica y solo hacia el proceso por software.



Por otro lado la interfaz de memoria se ve disminuida en el caso de la RV670, a solo 256-bit de ancho de banda, la mitad que R600 que puede manejar hasta 512-bit, lo cual dependiendo del grado de optimización podría penalizar el rendimiento a resoluciones altas o con gran carga de filtros.

Quizás la implementación más importante a nivel de soporte en hardware es el estándar DX10.1, el que trae consigo algunas pequeñas modificaciones:

Cube Map Arrays: Permite leer y escribir múltiples Cube Maps en un solo paso, lo que permite Iluminación global compleja y dinámica en tiempo real, entre los que se cuentan efectos de calidad Ray-tracing como soft-shadows, refracciones y reflexiones transparentes de alta calidad.

Vertex Shader in & out: Dobla la cantidad de información manejada por los vertex de 16 a 32 valores por shader lo que permite mejor rendimiento en situaciones de vertex complejas.

Improved Antialiasing: Se agregan varias modificaciones que permiten estandarizar el método de aplicación de filtros para todas las GPUs, ademas de dar control sobre la programación de este para manejar los niveles de antialiasing de forma dinámica sobre una escena o parte de la pantalla, esto significara dar mejores características de filtrado dependiendo de la posición en que se encuentre el objeto pero sin perder nitidez en la imagen, ademas potencia las posibilidades para FSAA+HDR.

Puedes leer el documento DX10.1 de ATI aqui.

Sin embargo todas las modificaciones DX10.1 no son aplicables inmediatamente a los juegos actuales, primero porque la actualización para Windows Vista estará disponible para el SP1 que saldrá el próximo año y segundo por que es necesario que los desarrolladores le den soporte para empezar a ver los beneficios de esta pequeña corrección, así que en el corto plazo no esperen mucho de DX10.1.

En cuanto a los drivers, podemos agregar que ATI optimizo estas tarjetas para trabajar en 3 diferentes configuraciones de reloj para ahorrar energía, 2D, 3D de bajo requerimiento y máximo 3D aparte de dar soporte para quad-CrossFire, también permitirá tri-CrossFire, y configuraciones multiGPU con tarjetas diferentes pero de la misma familia, por lo que es posible hacer CrossFire entre la HD3850 y la HD3870.

Primera Mirada: Radeon HD 3850

La Radeon HD 3850 es un modelo de tarjeta gráfica con una solución de refrigeración que ocupa solo una ranura PCI. Esto habla bien de su generación de calor en primera instancia y debemos decir, es definitivamente un resultado más elegante que un sistema de doble ranura.

Para aquellos con buena memoria y que están al tanto de la Radeon X1900Pro, podrán notar que esta placa de vídeo - HD 3850 - es bastante similar a la primera.

En conectividad nos encontramos con la salida para televisión y con dos conectores DVI que permiten no solo conectarlo a monitores de este tipo, sino también análogos y aquellos compatibles con HDMI, mediante el uso de un adaptador.



Más atrás del sistema de refrigeración nos encontramos con un disipador para los reguladores de voltaje. Este pareciera ser pasivo en una primera instancia, pero se ve ayudado por el único ventilador incorporado en la tarjeta. Así mismo podemos notar que su diseño es bastante singular, se trata de cilindros en forma vertical, una propuesta que no veíamos desde hace ya mucho tiempo, cuando los fabricantes de sistemas de refrigeración aun estaban en etapas de desarrollo bastante tempranas.



En su reverso nos encontramos con lo de siempre, un sub-mundo de componentes soldados y un sistema de anclaje trasero para el disipador de calor.

Tal como su gemela - físicamente hablando - la Radeon HD 3850 posee dos conectores CrossFire internos. Esto le permite ser conectada con otra tarjeta, y así disfrutar el poder de dos procesadores gráficos en una sola escena.



Ya que estamos ante una muestra para prensa muy temprana, recibimos la tarjeta como es costumbre, envuelta en mucho plástico con burbujas de aire y una caja sin dinosaurios, héroes o elfas. Aun así nos encontramos con el famoso adaptador de DVI a HDMI, uno para convertir el DVI a salida análoga y un puente CrossFire. Ustedes se preguntaran, ¿porque solo un puente CrossFire cuando esta trae dos conectores para este propósito? La respuesta es sencilla, cuando compras dos tarjetas, cada una trae un conector, con eso tienes los dos necesarios para que CrossFire corra a todo su potencial.



Tanto la Radeon HD3850 como la 8800GT poseen el mismo largo y tamaño de ranura sencilla, sin embargo el diseño del disipador es algo más inteligente en el caso de ATI, ya que posee una entrada de aire un poco mas grande en relación al ventilador, lo que deja trabajar al ventilador menos forzado y aminora el ruido.



El disipador por otro lado es bastante simple, de aluminio anodizado, se ve bastante pequeño pero cumple a cabalidad su cometido manteniendo las temperaturas bajo los 60º a máxima carga incluso con overclock y manteniendo un bajo ruido.


La tarjeta desnuda se ve más simple de lo que esperábamos, a diferencia de otras tarjetas de la misma marca, pareciera todo estar dispuesto sin problemas de espacio.



Llama la atención la simplicidad del sistema de poder, solo 4 fases de poder, ademas trae consigo capacitadores tradicionales mezclados con los de estado sólido, esto seguramente se debe a la importancia del ahorro en costos pero también a que la tarjeta no requiere grandes implementaciones de poder para trabajar a sus anchas, recordemos que en el caso de la HD3850 podría funcionar incluso sin conexión externa de poder en placas con PCI-Express 2.0

En la foto también puede verse -aunque no leerse- una memoria GDDR3 de 1.1ns.



Como podemos percatarnos el GPU es bastante pequeño, el proceso a 55nm termino haciendo al chip bastante más pequeño en relación a la HD 2900 XT, sin duda AMD estará un poco más tranquilo de estar menos presionado en cuanto al costo por GPU.



Primera Mirada: Radeon HD 3870

La Radeon HD 3870 posee un sistema de refrigeración de doble ranura que se asemeja bastante a aquellos que vimos con la salida de la Radeon HD 1950XTX. Un sistema basado en heatpipes y acrílico semi-transparente bastante atractivo se encarga de enfriar no solo el procesador gráfico, sino también memorias, reguladores de voltajes y básicamente la tarjeta gráfica completa.



En conectividad nos encontramos con lo usual, dos puertos DVI - convertibles a HDMI - y una salida para televisión de alta definición. Así mismo y debido a su naturaleza de "doble ranura", nos encontramos con una rejilla que permite que el sistema de ventilación arroje el viento caliente fuera del gabinete y no contamine la temperatura al interior del mismo.





En su reverso nos encontramos con la placa de sujeción del sistema de refrigeración que en este caso solo consiste en un sistema muy sobrio ya ocupado en el pasado por el departamento gráfico de AMD. Esto permite que la tarjeta sea bastante más liviana que su hermana mayor, Radeon HD 2900 XT.



Acá pueden ver la diferencia en el reverso de la Radeon HD 3870 y la HD 2900 XT, esto equivale a bastante peso menos sobre tu gabinete.



Nuevamente la fotografía comparativa, Radeon HD 2900 XT a la izquierda y la nueva Radeon HD 3870 a la derecha.



El conector de alimentación externo de la HD 3870 es de solo 6 pines, a la derecha vemos el de la Radeon HD 2900 XT que necesita de dos conectores de 6 pines y para mayor estabilidad uno de 6 y otro de 8 pines. Como pueden ver, la reduccion en el proceso productivo se hace presente y al parecer funciona, ya que la tarjeta gráfica necesita de menor alimentación para correr adecuadamente.



Los mismos accesorios con los que nos encontramos en la Radeon HD 3850, un adaptador DVI a HDMI, uno DVI a análogo y el puente CrossFire. Los accesorios incluidos dependen exclusivamente del fabricante que elijas a la hora de llevar tu tarjeta, tal como Sapphire puede incluir dos adaptadores y tres juegos, PowerColor puede decidir incluir tres adaptadores, un chocolate y una polera.



Una vez desmontado el sistema de refrigeración, vemos que el disipador en si, el bloque metálico de contacto esta construido 100% en cobre, aun cuando no esta basado en una solución con heatpipe, esta bien hecho al igual que la refrigeración de la anterior HD2900XT, pero bastante mas simple y pequeño.

También vemos que las memorias están disipadas junto con los mosfets de las fases de poder.



Desprendiendo el disipador del plástico rojo, podemos ver la calidad de su manufactura. En verdad, las aletas son muy delgadas, maximizando la superficie.



El chip es el mismo de la HD3850, bastante pequeño para un chip de alta gama gracias a los 55nm de fabricación.



A diferencia de la HD3850, la HD3870 incorpora solo capacitadores de estado solido y 4 fases, lo que habla de que hay cambios importantes en la estructura del PCB y por tanto no están definitivamente dentro del mismo rango de precios.

Podemos ver también el conector interno de audio, hay que recordar que las tarjetas de ATI soportan completamente el estándar HDMI, por lo que son capaces de trabajar audio y vídeo por el mismo cable.



Metodología y Plataforma de Pruebas

Hardware

Intel Core 2 Extreme X6800 @ 3600MHz
Biostar TForce 965PT
Super Talent 2x1GB 1000MHz 5-5-5-15
Nvidia GeForce 8800 GT 512MB
Diamond Viper Radeon HD 2900XT 1GB
ATi Radeon HD 3870
ATi Radeon HD 3850
Hitachi Desktar 82GB SataII
Seasonic M12 750W

Software

Microsoft Windows Vista Ultimate 32-Bit
Nvidia ForceWare 169.01
ATi Catalyst 7.10
3DMark 2006
Bioshock
Crysis Demo
Company of Heroes
Medal of Honor Airborne
Rivatuner 2.06
Fraps 2.8.2
GPU-z 0.1.1

Metodología de Pruebas

Las tarjetas que estamos por revisar son tarjetas de rango alto, aun cuando podrían no ser lo máximo (ya que podría aparecer otro ejemplar con más frecuencia), estas están entre los mejores exponentes que ATI tiene para mostrar, por este motivo decidimos apuntar directamente a resoluciones altas, partiendo de 1280x1024.
Gran parte de los gamers empedernidos que querrán comprar esta vga, ya estarán equipados con un monitor que de resoluciones generosas, y por esto sumado al potencial de estas vgas a máxima exigencia es que decidimos lanzar pruebas con filtros y sin ellos, a 1280x1024, 1600x1200 y 2048x1536.

Las pruebas con filtro fueron al estándar FSAA x4 y 16x anisotrópico, sin embargo en la prueba de Crysis preferimos omitir los resultados simplemente porque el juego es completamente injugable con estas configuraciones de filtros. Si quieren un gráfico en donde ATI y NVIDIA andan entre los 2 y 3 FPS podemos enviarlo por correo.

El overclock por su parte lo probamos de forma superficial viendo la mayor frecuencia sin artifacts en el poco tiempo que hemos tenido la tarjeta en nuestras manos, de esta manera, perfectamente quien se haga de una podría estrujarle un poco mas con algo mas de tiempo.

Finalmente, notarán que de plano hemos excluído los juegos DirectX 9 y Windows XP. Mientras hace unos meses no había más que un par de títulos que utilizaban el API DirectX 10, actualmente la constelación de juegos se ha multiplicado y aunque duela, Windows Vista se convierte en la plataforma estándar para mantenerse al día en los títulos de moda.

Pruebas

3DMark debe ser para algunos el test mas importante de todos, y aun cuando pensamos que solo es referencial, de todas formas siempre lo consideramos como un test fijo dentro de nuestra suite de test.

La 8800GT saca una ventaja clara, mientras que la HD2900XT de 1GB (la más rápida de todas las R600) se empina también por encima de los nuevos modelos, esto sin duda, es por la interfaz de memoria a 512 bits que le da algo mas de aire a la HD2900, en cuanto a la 8800GT, con shaders corriendo a 1.65ghz este test se vuelve pan comido.




Company of Heroes con parche DX10 es un juego de estrategia 3D bastante demandante, tiene varios puntos de vista dentro de la batalla, pudiendo incluso mirar todo desde una perspectiva en tercera persona.

Aquí vemos como la 8800GT se despega notablemente del resto, sin embargo va perdiendo terreno a medida que aumenta la resolucion, por su lado la HD3870 logra una mejor marca que la HD2900XT lo cual es bastante bueno tomando en cuenta el precio y el consumo eléctrico.




Pero lo que más nos sorprendió fue el hecho de que la HD3850 logra casi la misma marca de la HD2900XT de 1GB que esta a un rango de precios notablemente más alto.

Con filtros se repite la dominación por parte de la 8800GT, sin embargo la HD 3850 debido a su poca memoria on-board cae inexorablemente bajo la HD2900XT que viene con 1GB en memoria.



Bioshock debe ser uno de los títulos que esta peleando fuerte como el mejor juego del año, basado en el motor del Unreal 3, tiene todo lo necesario para hacerte pasar un buen rato y con gráficas espectaculares. Aquí nuevamente vemos como domina la 8800GT y por bastante a resoluciones bajas, a partir de 1600x1200 la cosa se empareja bastante más.



La HD3870 logra superar a su anterior representante por 1 FPS, lo cual cabe perfectamente como un empate técnico, sin embargo hay que tomar en cuenta que para AMD el fabricar la HD3870 debe ser a menos de la mitad del costo de la HD2900XT de 1GB. Bajo filtros el panorama cambia notablemente, la 8800GT pierde bastante terreno, y la HD3870 logra igualar el rendimiento a partir de 1600x1200.

Por su lado la HD3850 en el interesante duelo con la HD2900XT pierde debido a su menor cantidad de memoria. Para el caso de la HD3850 es muy probable que en algún momento los fabricantes de tarjetas lancen modelos de más MB en un futuro, lo que implicaría seguramente, el igualar en rendimiento a la HD2900XT.



Medal of Honor Airborne basado en el motor Unreal 3, es un juego que vale la pena probar, más allá de la critica, es todo lo que se podría pedir de un juego de la segunda guerra, aunque un poco corto.

El terreno se pone dividido en este juego, aquí la HD2900XT es la que logra la mejor marca, superando por poco a la 8800GT, sin embargo la HD3870 logra una marca muy similar que la mantiene dentro de un rango aceptable en relación a las otras dos.
Con los resultados de la HD3850 nos damos cuenta que la diferencia en clocks son relativamente importantes en el rendimiento a 1280x1024, pero a mayor resolucion comienza a emparejarse.



Con filtros el panorama cambio radicalmente y dio resultados imprevisibles, la HD3870 logra sobre un 30% de rendimiento extra sobre la 8800GT, superando también a la HD2900XT por un margen notable, por su lado la HD3850 aun con poca memoria a bordo logra una mejor marca que la 8800GT.

Estamos investigando estos resultados para saber si el bajo rendimiento en perspectiva, de la 8800GT, se debe a problemas de drivers u otro relacionado.



Crysis debe ser el juego más esperado del año, es el primero en soportar a cabalidad DX10 e incorporar todo el eye-candy que este nuevo API proporciona, para esta prueba ocupamos el Demo de Crysis que según los desarrolladores, aun le falta en cuanto a optimización en relación a su versión final.



Aqui los resultados saltan a la Vista, la 8800GT logra una apabullante ventaja a 1280x1024, pero nuevamente a grandes resoluciones baja el rendimiento hasta quedar debajo de la HD3870.

La HD3850 por su parte con menores clocks y menor cantidad de memoria, llega a menor rendimiento a 1280x1024 y a 2048x1536 simplemente no puede mas debido claramente a su menor cantidad de memoria.

Overclock

Como el avezado lector de CHW debe saber, el overclock es una ciencia que requiere paciencia, calma y mucha iteración. Pues bien, en esta ocasión no tuvimos nada de eso, así que lo que verán en esta sección es el resultado de una aproximación preliminar del potencial de overclock de estas tarjetas. A priori, nuestro pronóstico es que, tomando en cuenta las diferencias en cuanto a la configuración de poder para ambas tarjetas, es de esperar que la HD3850 logre menores clocks que la HD3870.

Procedimos a overclockear con Rivatuner el cual detecta bastante bien las tarjetas tomando en cuenta que aun no salen al mercado, de esta manera con Rivatuner logramos con la HD3850 pasar de los referenciales 670MHz en núcleo y 1,66Ghz en memoria, a 749MHz en núcleo y 2000MHz en memoria, lo cual no deja de ser importante, especialmente para las memorias, con esto estariamos superando la frecuencia de la HD2900XT.



En lo que respecta a la Radeon HD3870, sabemos que cuenta con memorias GDDR4 de 0,8ns, por lo cual es de esperar que supere con mucho a la HD3850 y así sucede: terminamos con una frecuencia efectiva en memorias de 1242MHz, equivalente a 2484MHz en nomenclatura GDDR4. Sin embargo, como hemos dicho antes, esperaríamos que el GPU tuviera un techo similar al de la Radeon HD3850, lo que equivale a decir que la 3870 no tiene margen de overclock. Muy por el contrario, comprobamos que pese a tener el mismo núcleo y una alimentación bastante similar, la 3870 es capaz de pegarse un salto de frecuencia en GPU hasta los 843MHz, totalizando un 8,5% de aumento en GPU y un 10,3% en memoria.



Nuestros resultados: con OC, la 3850 alcanza a la 3870 y sube un 10% redondo. En cuanto a la 3870, el 8,5% de overclock en GPU y 10,3% en memorias, nos vale un aumento de casi 7% en esta prueba. Para ser una prueba preliminar, quedamos bastante satisfechos con el aumento de rendimiento bajo overclock.



Conclusión

Tal como quisimos transmitir en el review del Core 2 Extreme QX9650, hay dos peldaños en cada etapa que la hoja de ruta de una compañía traza en el tiempo. En un peldaño renuevan la arquitectura, y en el siguiente la perfeccionan. Aunque no siempre se cumple, sí hay rasgos similares en esta secuencia que pueden observarse como vimos en Intel en el paso a los 45nm, en AMD cuando pasó del core Windsor de 90nm al Brisbane de 65nm, en NVIDIA que se está mudando a los 65nm empezando con la Geforce 8800GT y hoy, en la división gráfica ATI de AMD, que debuta en el proceso de los 55nm.

Por otro lado, resulta llamativo el ciclo de miniaturización de AMD. Tenemos que en su desarrollo de CPUs AMD va a la saga de Intel, algo que pudimos ver con el Brisbane pasando a 65nm un año después de que el Presler de la firma azul se pasara a ese proceso de manufactura, y esta semana con la familia Penryn siendo pionera en 45nm. Muy por el contrario, en la miniaturización de GPUs, una vez más ATI va un paso más adelante que NVIDIA mudándose a los 55nm y, tenemos que decirlo, con bastante éxito.

Al respecto, pudimos ver que este avance en el proceso productivo influye, y mucho, en la disipación térmica. Mientras la HD2900XT era una verdadera estufa y venía con un ventilador bastante ruidoso, las HD38xx se mantienen bastante más frescas y el ruido del ventilador es completamente tolerable. Ahora bien, uno podría pensar que esto no es mérito de los 55nm sino un problema de la 2900XT, pero también hay que notar que comparando soluciones de un solo slot, la temperatura y refrigeración de la HD3850 es mejor en todo sentido que la de la 8800GT.

Hay otro aspecto que va de la mano con la reducción en el proceso productivo, y es que permite meter más transistores en menos espacio. Con núcleos de 192mm2, AMD puede sacar más procesadores gráficos por cada oblea de silicio, y esto definitivamente redunda en el precio final del producto. Ahora bien, es difícil establecer una comparación clara entre las HD38xx y su competencia directa la 8800GT, puesto que para ambas tenemos sólo precios sugeridos o valores inflados de pre-venta. Por ejemplo, para las Radeon tenemos un precio sugerido que varía en torno a los USD 250 para la 3870, y unos USD 30 menos para la 3850. En el fondo, tenemos a la hermana mayor convertida en un producto infinitamente más conveniente que la HD2900XT con ventajas claras como la decodificación UVD, la compatibilidad PCIe 2.0, DX 10.1 y Shader Model 4.1, y todo esto a un precio bastante menos que los USD 400 de la 2900.

Pero es más: mientras el precio de pre-venta de la 8800GT de 512MB bordea los USD 300, el de la 3870 está bastante ajustado al valor sugerido de USD 250. Si me dicen que el precio final terminará siendo USD 50 menos que la 8800GT cuando ambas se encuentren a plena disponibilidad bueno, yo me lo pensaría. Mal que mal, no sé si pagaría un 20% más por una tarjeta un 15% más potente.

De la misma manera, en el caso de la HD3850 estamos hablando de una tarjeta que en el mediano plazo estará en un precio algo inferior a la 8800GT de 256MB y que la ubica a mitad de camino entre ésta y la Geforce 8600GTS, en un rango medio-alto en donde NVIDIA podría verse obligada a canibalizar sus propios productos con tal de no cederle el segmento a su rival.

Por todo lo anterior, aunque el núcleo RV670 no es, ni de cerca, la bomba de rendimiento que pueda destronar a las 8800, sí se vuelve más interesante cuando la variable precio entra en competencia, siempre y cuando la 8800GT se mantenga en los valores que se han visto últimamente en e-tailers. Estamos conscientes de que esto puede deberse a su escasez y si el valor de los modelos de 512 y 256MB baja bruscamente en Diciembre el pronóstico sería muy distinto.

Tenemos que decir, llegado este punto, que el rendimiento de las nuevas estrellas de NVIDIA y ATI está sujeto, por el momento, a drivers inmaduros, y que tanto los Forceware como los Catalyst en estado beta sólo nos dan una aproximación de lo que podemos esperar.

Lo Bueno:
- Exitoso paso a los 55nm
- Disipación térmica completamente aceptable
- Soluciones de refrigeración eficientes
- Prestaciones que su antecesor inmediato no tiene
- Mejor solución para reproducción de medios gracias a UVD y HDMI con audio.
- Sujeto a los valores que veamos en el mediano plazo, podría ser una buena alternativa en precio/ rendimiento.

Lo Malo:
- A primera vista, perder contra la 8800GT no causa buena impresión.

Lo Feo:
- La Radeon HD 2900 XT que es cara, ardiente y de mediocre rendimiento.
Ninja!
Google