Mostrando las entradas con la etiqueta nVidia. Mostrar todas las entradas
Mostrando las entradas con la etiqueta nVidia. Mostrar todas las entradas

lunes, 14 de julio de 2008

nVidia GeForce GT200 by ChileHardWare

Bueno hace ya mucho que no tomammos reviews de nuestros amigos de Chilehardware XD y para que no se vea tan vacio el blog y luego de que mi cuate el pinguino nos contara la historia de Hankcock, bueno en los ultimos meses se han dado los lanzamientos mas esperados del verano para los entusiastas por lo menos, nVidia cambio de nombre a sus tradicionales series que llevaban secuencias series 4,5,6,7,8 y finalmente 9 desde la vieja Geforce 4 se habia mantenido el numero hasta la 9800 que parecia un dejavú ya que hace 3 generaciones o series Ati owneara a nVidia con ese mismo modelo y las cosas han cambiado desde entonces nVidia se habia empeñado en hacer mejores productos y ATi paraecia que luego de sus logros se durmio en sus laureles, bueno pero el punto es hace un mes mas o menos nVidia presento su nuevo chip el sucesor del no tan bien recibido por su excesivo costo el n90 pero que ya se ha devaluado por la competencia con ATi y nVidia decidio renombrar a su familia de chips y en esta ocasion en lugar de nombrarlo n100 o algo asi se ha cambiado a la familia por GT200 y con la sorpresa de la reduccion a 65nm y un buen performance pero un excesivo precio, pero bueno pasemos a conocer la arquitectura del GT200 lo bueno y lo nuevo.

Arquitectura GT200

Hoy celebramos por partida doble. Por un lado NVIDIA lanza una nueva arquitectura luego de 18 meses y por otra parte, bastante más importante, estrenamos nuevo colaborador: Nicolás Rencoret, una eminencia en el tema gráfico que nos dará una cátedra de lo que trae GT200 bajo la capota.

1.400 millones de transistores miniaturizados en un cuadrado de silicio de 576mm2 con proceso de fabricación de 65nm, muchos de ellos corriendo a más de 1200MHz, alimentados por 1GB de memoria sobre un bus de 512-bit de ancho y disipando 236w. Este es el más breve de los resúmenes de la arquitectura GT200 de NVIDIA. Sacando una calculadora y haciendo unas cuantas sumas y restas, es fácil comprender que la empresa de Santa Clara está introduciendo hoy un chip que estresa al límite muchas de las estrictas leyes de la física.

Realmente es para dejar pasmado a cualquiera que pueda comprender la magnitud de lo que pudo lograr la empresa. Por eso, hoy les mostraremos un análisis técnico detallado del desarrollo de este GPU para no solo entender que es lo que lo hace especial, sino para entender cómo ha cambiado la mentalidad de NVIDIA con todo el ruido que ha existido en el ambiente con respecto a CPUs+GPUs, Larrabees, fusiones y demás acontecimientos recientes en el mundo de los GPUs y el procesamiento de datos.

El tamaño y sus implicancias

El GPU GT200 es grande, extremadamente grande y esto combinado con el hecho de que la arquitectura de GPUs es más compleja que la de un CPU, tiene una cantidad importante de consecuencias.

Para aproximarse de mejor forma a este tema, es ideal visualizar la evolución de los GPUs y los CPUs a través del tiempo en cuanto a tamaño y densidad de componentes.



Como se puede apreciar, Intel ha sido capaz de mantener el tamaño de sus CPUs bajo control lo cual es el resultado principalmente del hecho de que son líderes en los procesos de miniaturización para la fabricación de chips, junto con el hecho de que un muy elevado porcentaje de sus transistores son empleados en memoria cache en vez de ser unidades de procesamiento. Por otro lado, a NVIDIA le ha costado controlar el tamaño de sus GPUs y sus desarrollos les están comenzando a salir un poco de las manos. La razón de esto, es que mientras más grande sea el tamaño del cuadrado de silicio, se pueden obtener menos chips por cada oblea (wafer) que se procesa. Esto es obvio, pues la oblea no ha crecido en diámetro - 300mm - en muchos años. Si para el G80 cada disco tenía 121 GPUs de 484mm², siendo que el tamaño del GT200 es ahora de 576mm², la cantidad de ellos se reduce aproximadamente a 100. Junto con esto, la cantidad de chips sin defectos o en otras palabras, su rendimiento productivo (yields) disminuye debido a que las impurezas ahora amenazan a la superficie de un circuito impreso cuya área es mayor. Por ende, la cantidad de GPUs buenos se reduce en una buena cantidad con respecto a los del G80 trayendo como resultando que el costo del GT200 sea significativamente más alto para la empresa.


Adicionalmente, la cantidad de transistores en cada procesador gráfico ha aumentado a un ritmo considerablemente más rápido que el de los CPUs como se puede ver en la tabla. Considerando que es Intel la empresa que utiliza los procesos de manufactura más modernos del mundo y no NVIDIA, se puede ver como esta última esta estresando mucho más la tecnología a su límite. Esto se demuestra de forma muy clara cuando se compara el consumo en watts de los más recientes desarrollos de ambas empresas: mientras el Intel Core 2 Extreme QX9770 consume - según documentos de la empresa - 150w, el GT200 disipa 236w, un 57% más aproximadamente. No solo esto, debido a que los transistores del GPU son en su gran mayoría unidades de procesamiento a comparación del caso de Intel en donde la mayoría se emplean en memoria cache, la cantidad de ruido eléctrico generado dentro de cada GPU está haciendo que cada vez sea más difícil que ellos logren frecuencias más elevadas.

Las consecuencias de lo anterior hacen fácil preveer que NVIDIA está llegando al límite de lo que pueden hacer en un solo chip para su siguiente generación de GPUs, tanto por factibilidad como por costos. ATI entendió esto desde hace un buen tiempo y optó por una solución inteligente: GPUs menos complejos, más económicos y más manejables, lo cual incluso les permite atacar el mercado de la gama alta de una forma más costo-eficiente empleando tarjetas de video con dos GPUs. Si se sigue la lógica, el GPU de siguiente generación de NVIDIA debería estar basado en una nueva arquitectura que diste del actual G80 y GT200. Esta nueva arquitectura debiese ser desarrollada de forma radicalmente diferente para mitigar los problemas actuales que hacen muy difícil que sea factible que nuevamente se duplique el numero de transistores (estaríamos hablando de más de 2.800 millones) y que el tamaño del chip se pueda fabricar con costos razonables. Para ello hay tres caminos posibles:

* Usar el mismo modelo de ATI, en donde la gama alta la dominan tarjetas de video con más de un GPU.
* Desarrollar las unidades funcionales de la arquitectura en varios chips como lo hacía antes 3dfx (ejemplo: un chip para shaders, otro para ROPs y otro para visualización de imágenes).
* Una nueva arquitectura muy diferente a lo que estamos acostumbrados que permita crear GPUs más poderosos con aumentos marginales en la cantidad de transistores en cada generación.

Chip con doble personalidad

Con el lanzamiento del G80, NVIDIA no solo introdujo su primer GPU con shaders unificados, sino que también invirtió fuertemente en otros usos para el increíble poder de cálculo de este. Fue así como la empresa desarrollo CUDA, una herramienta única que permite desarrollar aplicaciones que emplean lo mejor de las características de los GPUs y CPUs para que estas sean aceleradas a niveles impensados.


Para entenderlo, NVIDIA plantea el ejemplo siguiente: para valorar el mercado estadounidense de opciones (derecho a comprar o a vender un commodity en una fecha específica) completo se requieren de 600 CPUs (no especifican modelo) usando los métodos tradicionales. Con CUDA, solo se requiere un servidor con 8 núcleos y 12 GPUs (G80) para realizar los mismos cálculos. Considerando aspectos de refrigeración, mantención, espacio y costo de adquirir cada solución, se puede entender porque NVIDIA se siente muy segura de sí misma para enfrentar el futuro.

Con este ejemplo se puede entender como NVIDIA invirtió tiempo en el desarrollo el GT200 no solo como un GPU sino como un chip masivamente paralelo, (lo cual la empresa define como ‘Compute Architecture’ y ‘Graphics Architecture’) y eso lo muestra claramente la arquitectura:


Características comunes



Como se puede ver arriba el chip se divide en 4 partes principales que se explican a continuación:

1. Manejo de hilos (threads)

En la arquitectura unificada de NVIDIA no existen unidades específicas que cumplan las funciones de por ejemplo, pixel shaders o vertex shaders o cualquier otro conjunto de instrucciones. La forma como se procesan estas instrucciones es por medio de unidades que asignan hilos atadas a su característica y son enviados a los streaming processors a ser procesados. Por ejemplo, si se va a procesar un programa de pixel shader, la unidad de pixel shader crea los hilos marcados con esa función para ser procesados posteriormente. Las diferencias de esta unidad entre su modo computacional y su modo gráfico se verán en el siguiente apartado.

2. Area de procesamiento principal

La versión resumida de esta historia dice lo siguiente: en esta área del GPU se encuentran los procesadores de hilo (streaming processors o SP) que son agrupados de 8 en 8 en multiprocesdores de flujo (streaming multiprocessors o SM) los cuales incluyen elementos adicionales dependiendo de si se usa el chip en modo computacional o gráfico. Finalmente, los SMs están agrupados de a 3 en grupos de procesamiento de hilo (thread processing clusters o TPC) que adicionalmente incluyen las unidades de texturización y el cache L1 - de primer nivel - compartido. Teniendo en cuenta que hay 10 TPCs en el GPU podemos llegar a esta sencilla ecuación: 10x3x8= 240. Este número representa la cantidad de SPs (núcleos de procesamiento del GPU) que posee la arquitectura, un salto considerable con respecto a los 128 SPs (8 TPC x 2 SM x 8 SP) del G80. Como se pueden dar cuenta, este solo párrafo es para marear a cualquiera, por eso el Departamento Didáctico de CHW gasto miles de horas en Photoshop para llegar a esta obra de arte:


Si consideramos que hay 10 de estas unidades, es más fácil visualizar donde están los 240 SPs. Ahora, haremos un breve resumen de las características de todas estas unidades:

* Cada TPC usa una arquitectura de ejecución MIMD (multiple instruction multiple data). Esta es una técnica para lograr paralelismo que permite que cada SP funcione de forma asincrónica e independiente, es decir, en cualquier momento cada SP puede estar ejecutando distintas instrucciones en diferentes fragmentos de datos.
* Cada SM usa una arquitectura de ejecución SIMT (single instruction multiple thread). Esta técnica permite crear, manipular, agendar y ejecutar hilos de forma más rápida y eficiente que utilizando la técnica SIMD. Esto se da debido a que bajo SIMD, si el vector es menor al tamaño que se ha estipulado para la unidad SIMD el rendimiento se reduce. Así es que ocurre lo que es sabido del R600, el cual aun cuando según ATI dicen que tienen 320 SPs, la efectividad de ellos puede variar entre 64 y 320.

* La unidad de SIMT en cada SM crea, manipula, agenda y ejecuta hilos en grupos de a 32 de ellos lo que se llaman warps , con un máximo de 32 warps por SM (con un total de 1024 hilos por SM) a comparación de los 24 warps (768 total por SM) de 8800GTX. Al final se pueden estar manipulando simultáneamente en el chip 30720 hilos simultáneos. Con ello, aumenta la cantidad de hilos procesados por SM simplemente por ser una arquitectura más refinada aparte de su aumento en el GPU derivado de la mayor cantidad de SMs y TPCs. Adicionalmente el GPU tolera la latencia muy bien porque si un hilo se demora en accesar la memoria, se puede hacer un cambio a otro hilo sin incurrir en una penalidad de tiempo.
* Se duplica el tamaño del archivo de registro local (LRF), lo que permite que se puedan ejecutar dentro del GPU programas de shaders más grandes sin tener que hacer swap (lo que disminuye rendimiento).
* Los SPs no han cambiado en su forma de ejecutar instrucciones pues siguen ejecutando dobles operaciones MAD (sumar y multiplicar) los cuales son ayudados por unas unidades especiales (Special Function Unit o SFU) que pueden ejecutar una operación MUL (multiplicación) adicional. Sin embargo la eficiencia de ejecución de MAD + MUL si se mejoro con lo cual aumenta el poder de cómputo del GPU.
* En cada SM se incluye una unidad de instrucciones (IU) encargada que entrega las instrucciones que ella recoge del cache de instrucciones.
* Los 16KB de memoria local de cada SM son compartidos por el grupo de 8 SPs en su interior para evitar hacer búsquedas de datos fuera de la unidad.
* Algo muy interesante que NVIDIA está reconociendo es que el GPU soporta operaciones flotantes de 64-bit de precisión - llamado doble precisión - en una pasada sencilla, requeridos para muchas aplicaciones especialmente para el procesamiento de datos (modo de cómputo) que requieren resultados de alta precisión matemática. Esto sin embargo penaliza el numero de núcleos utilizables de 240 a 30 (cada SM se convierte en un núcleo) entregando 90 gigaflops los cuales equivalen a un Xeon de 8 núcleos. NVIDIA se ha caracterizado por mostrar lo poderoso que es su GPU en modo de cómputo mostrando aumentos de rendimiento con respecto a CPUs de 10, 50 y hasta 150 veces, pero acepta que la merma de rendimiento es muy considerable cuando el GT200 trabaja con precisión de 64-bit.
* Con respecto al rendimiento de texturas, el GT200 rinde de forma similar al G92 pues al igual que este, también tiene 8 unidades de direccionamiento de texturas (TA) y 8 unidades de filtrado de texturas (TF) a comparación de las 4 y 8 respectivamente del G80.


3. ROP

Para el subsistema de ROPs (encargados de hacer el procesamiento final de los pixeles) el GT200 adiciona dos particiones más de ellas con lo cual pasa a tener 8 ROPS a comparación de 6, lo que le permite procesar hasta 32 pixeles por reloj. Esto implica que técnicamente el GT200 debería tener un rendimiento superior al aplicar filtros (de alisado de lineas y anisotropico) en comparación a G80.

En la generación anterior, cada ROP estaba conectado a un canal de memoria de 64-bit, en esta generación se da el mismo caso, por lo que ahora el bus de memoria pasó de tener 384 bits a tener 512-bit.

Aparte de algunas otras optimizaciones menores para ciertos tipos de pixeles, los ROPs se mantienen estructuralmente iguales a los anteriores, lo cual implica que todos los modos de Anti-Aliasing / Alisado (MSAA, SSAA, AA de transparencia adaptiva y CSAA) que existían en la generación anterior, son soportados por el nuevo GPU, pero no se agregan nuevos modos.

4. Canales de memoria

Es interesante que NVIDIA habla de que se optimizaron las rutas críticas de memoria para que esta pueda operar a una velocidad máxima de 1,2 GHz GDDR3, algo que probablemente viene del G92 pues la velocidad de las memorias en la GeForce 8800 GTX era de 900MHz, que luego subieron a 1080MHz con la GeForce 8800 Ultra y posteriormente a 1100MHz con la GeForce 9800 GTX. Sin embargo, esto también quiere decir que el controlador de memoria está al límite de sus capacidades para GDDR3. NVIDIA cuando tuvo que decidir sobre que tecnología de memorias tendría para su siguiente GPU, decidió ser conservador manteniendo el uso de GDDR3, la cual a estas alturas está ampliamente disponible y por ende es más económica, confiando en que el mayor ancho de banda surgiría por agregar un par de controladores de memoria más en vez de depender del aumento de frecuencia de la memoria. La decisión tomada por la empresa es muy razonable pues disminuye los costos de investigación y desarrollo de un nuevo controlador de memoria, mientras se toman una mayor cantidad de tiempo en hacer las pruebas correspondientes para desarrollarlo y optimizarlo al mismo tiempo que disminuyen los costos por tarjeta de video armada.

También, NVIDIA hizo algunos ajustes en la razón o ratio de ancho de banda entre las texturas y la memoria para que esté más acorde a las cargas de trabajo actuales y futuras y así mantener a las unidades de textura siempre trabajando pues siempre los datos están disponibles.

Por otra parte, se aumentaron en 6 veces la cantidad de estructuras internas para los buffers de salida lo que hace que las operaciones de los shaders de geometría y las operaciones stream out (útiles para modo cómputo) sean considerablemente más rápidas que las del G80 y un poco más rápidas que las de la Radeon HD 3870 X2. Esto es destacable, porque en las pruebas de rendimiento que utilizaban shaders de geometría eran consistentemente más lentos los GPUs de NVIDIA. Siendo que la arquitectura del G80 tenía un rendimiento superior en todas las pruebas de rendimiento vistas en benchmarks y análisis (en donde no se emplean mucho los shaders de geometría pues estos solo fueron recién introducidos con DirectX 10 y las arquitecturas compatibles de NVIDIA y ATI) la empresa se aseguro de corregir una de las pocas cosas en la cual estaba en franca desventaja con la competencia.

Diferencias de personalidad

Como se había comentado anteriormente, el GPU puede trabajar en modo de cómputo y en modo gráfico. Ahora, eso no significa que como en el caso de la SoundBlaster X-Fi se deba cambiar de un modo a otro dependiendo de la actividad que se realice, al contrario, gracias a su arquitectura modular y paralela, el GT200 no tiene inconvenientes en procesar algunas instrucciones de cómputo y otras de gráficas (por ejemplo un juego usando 3/4 de los shaders para gráficas y el cuarto restante para cálculos de física). Esta buena noticia se debe precisamente a que se habla de una arquitectura unificada en donde un hilo de vertex shader se crea tan fácil como un hilo de cómputo. Lo que si cambia, son las unidades activas y su funcionalidad dependiendo del modo que se use, por eso acá presentamos una pequeña tabla que resume las diferencias que existen entre cada modo:

Volviendo al principio de este articulo, ahora es más fácil comprender toda esa cantidad de datos estadísticos que han determinado las capacidades del GT200. Ahora solo falta hacer un resumen de lo que es capaz de hacer el nuevo GPU de NVIDIA con respecto al G80:

El GT200 vendrá en dos versiones, el modelo GTX280 y el modelo GTX260. Al igual que en la generación pasada, la diferencia entre cada modelo radica en las velocidades de reloj, en que se deshabilitan dos TCPs completamente, lo que implica que disminuye el número de shaders y se deshabilita un ROP. Con eso se tiene lo siguiente:

Dame todo el power

Dame todo el powerComo fue comentado anteriormente, debido a la complejidad de este GPU, su consumo eléctrico esta por las nubes llegando a disipar 100 watts más que el Core 2 Extreme QX977x. Es cierto que técnicamente se puede hablar de que el rendimiento por watt fue incrementado en una buena medida con respecto al G80, pero esto no quita el hecho de que estamos frente a un GPU cuyo consumo eléctrico resulta excesivo. NVIDIA lo sabe y por ello decidió tomar cartas en el asunto e intentar reducir el consumo eléctrico del GT200 cuando este no tiene que trabajar a carga completa. Para ello, implemento una serie de tecnologías que controlan este aspecto.

Por una parte, el GPU tiene varios modos de uso que van desde 2D hasta Hybrid Power que permiten reducir drásticamente el gasto innecesario de electricidad. Los modos implementados y su consumo son:

* Hybrid power, el cual apaga el GPU por completo cuando la tarjeta está instalada en una placa madre con chipset NVIDIA que tenga un GPU integrado (Consumo: 0W)
* Idle, modo 2D (Consumo: 25W)
* Reproducción Blue-ray (Consumo: 35W)
* Full 3D (Consumo: peor de los casos 236W, pero varia de acuerdo a carga y frecuencias)


Adicionalmente, el GT200 emplea una tecnología similar a speedstep de Intel en donde el reloj y voltajes se ajustan dependiendo de la carga y uso de GPU gracias a varios monitoreadores de actividad dentro del chip. No solo esto, también se pueden apagar bloques completos del GPU cuando no están siendo utilizados.

Es bastante positivo que NVIDIA haya considerado implementar más formas de restringir el consumo eléctrico que en cualquier otro diseño previo, pues estas partes suelen ser las que más malgastan electricidad en un computador al tener un manejo muy pobre de consumo eléctrico cuando la mayoría del tiempo las funciones del GPU están sin trabajar.

NVIDIA PhysX

En febrero de este año, NVIDIA anuncio la adquisición de AGEIA, la empresa responsable del API PhysX empleado para cálculos de propiedades físicas. Esta empresa ha dado mucho que hablar con su API y su famoso acelerador de física (PPU). Aun cuando sus productos permitían nuevos niveles de realismo en los juegos y pintaban como un buenos candidatos a ser una gran tecnología, desde la fundación de la empresa era poco visible el progreso de sus desarrollos. Por una parte, aun cuando muchos juegos habían implementado el API en sus motores (ejemplo Unreal Engine 3) los efectos que lograron impresionar a muchos no hicieron actos de presencia en los juegos. Esto se debió principalmente a que los desarrolladores de juegos implementaron funcionalidad física básica pues no existía (ni existe) la masa crítica de PPUs para desgastarse en desarrollar efectos que requieran aceleración por hardware.

Esto está por cambiar con el lanzamiento del GT200, pues en pocos días verá la luz un driver para GPUs unificados con soporte para PhysX. Como fue mencionado anteriormente, una gran característica de un chip gráfico unificado es que se pueden procesar hilos de gráficos e hilos de datos simultáneamente. Siendo que los cálculos de física dependen de chips que calculan datos masivamente paralelos, los GPUs de NVIDIA son perfectos para procesarlos. NVIDIA plantea el ejemplo de que por medio del uso del GPU se pueden acelerar en más de un 1200% los cálculos físicos tales como fluidos, cuerpos blandos y telas a comparación de un Core 2 Quad.

Dos detalles muy interesantes de esta tecnología que explicó NVIDIA tienen que ver con la escalabilidad de la física presentada en pantalla y el soporte por parte de los desarrolladores. Para el primer caso, uno de los grandes interrogantes (y retos) que se tenía con respecto a la física era su escalabilidad, es decir, la posibilidad de graduar el nivel de detalle dependiendo del hardware que se tuviese disponible, tal como se ha hecho con las opciones de gráficas en los juegos. Este problema ha sido resuelto por medio de un plugin que permite crear diferentes módulos en los cuales se manipulan distintas propiedades físicas (ej. un módulo para simulación de vegetación, otro para objetos que se pueden destruir, etc.) y en donde cada módulo se puede graduar al nivel de detalle que se desee. Este elemento es muy relevante pues permite a los desarrolladores mayor flexibilidad a la hora de implementar física en los juegos para que corran en la mayor cantidad de hardware posible.

La segunda cosa interesante es que en la presentación de NVIDIA se menciona que el API de PhysX está presente en todas las consolas de última generación (Sony Playstation 3, Microsoft Xbox 360 y Nintendo Wii). Lo relevante de este dato es que dada la batalla que se va a liberar en el campo de los APIs de física (donde compite el Havok de Intel, el cual fue anunciado que será soportado por AMD) resulta de importancia crítica que exista una gran mayoría de desarrolladores que hagan sus juegos basados en una sola API para que esta gane la guerra. Por ejemplo, si EA va a utilizar física en su última versión de FIFA, lo ideal es que se pueda compartir el código entre la versión del juego para cada consola y para PC. Que mejor saber que hay un solo API para programar en múltiples plataformas disminuyendo así los costos de desarrollo de cada juego. Sin embargo, Havck es un API consolidado con mucho soporte por parte de los desarrolladores, eso sin contar que cuentan con todo el aparataje de promoción de Intel lo que hace que esta guerra sea muy dura así que cualquier ventaja que se pueda obtener es clave.

Conclusiones

Como se pudo ver, estamos en presencia de una arquitectura muy poderosa y extremadamente compleja que en el papel pareciese que rinde de forma notable. Pero así como tuvimos el agrado de analizar este nuevo GPU, también pudimos ver que estamos ante una era de grandes cambios.

Por una parte, NVIDIA está promoviendo de forma muy fuerte el poder computacional de sus 240 procesadores de shaders por medio de CUDA. Desde cálculos financieros complejos hasta un cliente de Folding@Home extremadamente rápido, pareciese que las opciones son ilimitadas.

Recuerdo que hace un par de años AMD había anunciado su plataforma abierta Torrenza que dejaba a otras empresas usar distintas tecnologías de AMD - incluyendo Hypertransport - lo que permitía agregar aceleradores especiales muy fuertemente asociados al CPU. En esas épocas la empresa nos ponía a imaginar en una placa madre con dos zócalos de CPUs AMD en donde uno efectivamente se instalaba un CPU de la empresa, mientras que en el otro se instalaba un chip acelerador. Esa brillante idea daba para todo, aceleradores de física, aceleradores de cálculos matemáticos complejos, aceleración de procesamiento de medios, en fin lo que uno quisiera. Era tan atractiva la iniciativa que poco tiempo después Intel anunciaba un proyecto similar pero basado en PCI Express 2.0 llamado Geneseo.

Pasó el tiempo y nunca se supo mucho más de ninguna de esas dos tecnologías. Mientras tanto, este año NVIDIA ha anunciado que aplicaciones tan conocidas como Photoshop utilizaran al GPU para acelerarlas, Folding@Home ya es una realidad en GPUs ATI y pronto lo será en los de NVIDIA, han anunciado productos comerciales que permiten codificar video más allá que en tiempo real con la ayuda de un GPU, pronto llegara PhysX y adicionalmente ya hay aplicaciones comerciales que requieren de cálculos matemáticos extremadamente complejos, como simulaciones sísmicas para encontrar petróleo y simulaciones de dinámica molecular entre muchas otras. Suena a lo que nos prometían y todavía no cumplen AMD e Intel, lo mejor de todo NVIDIA lo está logrando empleando una sola herramienta común CUDA. Jen-Hsun Huang tiene razón para sentirse muy confiado, el potencial de sus GPUs es enorme. Dependiendo de cómo juegue sus cartas la empresa y como reaccionen los competidores, podríamos estar ante el nacimiento de un estándar de procesamiento muy fuerte tal como lo es x86. Pero para que esto pase falta una enormidad de tiempo y hay factores mucho más terrenales que resolver ahora.

La arquitectura del GT200 probablemente puede ser una de las últimas que se puedan desarrollar como un chip monolítico. La cantidad de componentes está avanzando a un ritmo mucho más alto que su miniaturización siendo el fiel reflejo de eso el enorme tamaño del GPU. Las leyes de la física pronto alcanzarán a esta forma de desarrollar estos chips, por lo que hay que pensar diferente, muy diferente tal como lo hicieron aquellos que soñaron en que la forma ideal de procesar gráficas en tres dimensiones era por medio de chips especializados y no dependiendo del CPU u optimizaciones a este tales como MMX.

Factores de mediano plazo (para la industria tecnológica) como el mencionado anteriormente deberán ser ejecutados con precisión para que en el largo plazo, se cumplan objetivos como que CUDA y el GPU sean un estándar de la industria en cuanto a procesamiento de datos paralelos se trate. Esto para fortalecer aun más a la empresa posicionándola como una de las que más influencian el mercado de la tecnología. Estratégicamente NVIDIA ha jugado una buena mano, pero Intel y AMD tienen mucho que decir y hacen faltan muchos años para el desenlace de esta historia. Así también, falta ver si esta estrategia, de la mano con los resultados de rendimiento real del GT200 es un paso correcto hacia esa dirección y para eso, tendrán que leer nuestro análisis de rendimiento.

(c) ChileHardWare URL ORIGINAL

sábado, 23 de febrero de 2008

nVidia GeForce 9600GT G94

Hoy es el día señalado para el lanzamiento de la nueva gama de chips gráficos G-94 de NVIDIA, que competirá en la gama media con la AMD/ATI Radeon HD 3850/70 con un precio recomendado entre 170 y 190 dólares.

La unidad de procesamiento de la nueva 9600 GT corre a 650Mhz, 1625MHz para las unidades de Shaders y memoria a 1800Mhz efectivos con un ancho de banda de 57.6 GB/s y 505 millones de transistores. Tiene soporte para PCI Express 2.0, DX10 y SM 4.0, OpenGL 2.1 y PureVideo HD. En principio con 512 Mbytes de memoria GDDR3, aunque se han anunciado modelos con 256 y con 1 Gbyte.

Las primeras pruebas de rendimiento que hemos podido leer confirman que noquea sin compasión a la que podríamos considerar la tarjeta que va a sustituir, la NVIDIA 8600 GTS, empatando incluso con la 8800 GT de 256 MB y superándola con el antialising activado.

Frente a la verdadera competencia, las AMD/ATI HD 38xx, la 9600 GT supera en un 15% a la HD 3850 con la misma cantidad de memoria, 512 MB. Sin embargo se ve superada en un 5% por la HD 3870 siempre que no se active el antialising donde la NVIDIA es superior.

En definitiva, que el mercado de las gráficas de gama media (la más disputada) se anima considerablemente con la apuesta de NVIDIA y la rebaja de precios anunciada por AMD/ATI.

jueves, 10 de enero de 2008

C.E.S. Las Vegas by ChileHardWare

Bueno como ya adelantabamos en estos dias se lleva a cabo la Convecion de Electronica de Consume en la ciudad de las vegas y gratamente Chilehardware tienen la oportunidad de asistir no se si sea el unico latino pero bueno como nuevas de este evento consiguieron algunos datos sobre el nVidia Hybrid algo que AMD-ATi ya habia planteado en meses anteriores una opcion de Fusionar el chipset de la Motherboard con los graficos independientes para obtener mejor calidad grafica, como punto 2 trataron de obtener una entrevista con el CEO de AMD el tio Hector Ruiz como lo llaman nuestros amigos de HardwareCult gg pero solamente obtuvieron la entrevista con Phil Hester CTO de AMDy por ultimo en el dia 2 observaron lo que nos traera Foxconn para esta temporada.

nVidia Hybrid SLi
Ya estamos en Las Vegas, y el primero en actuar fue NVIDIA. Hoy vemos la nueva tecnologia basada en SLI, que los ingenieros de Santa Clara tienen preparado y sus implicancias en consumo y poder.

En el marco de CES, el dia de ayer, NVIDIA reunió a lo más granado de la prensa especializada para jactarse de su ultima invención, Hybrid SLI o SLI Híbrido. SLI Híbrido, como su nombre podria insinuar, no se trata de hacer una configuracion SLI – dos tarjetas gráficas trabajando por un mismo proposito – con tarjetas de video de distinto modelo, sino de tener la capacidad de ocupar el minimo de energia y sacar el mayor provecho de nuestros recursos.

SLI Híbrido consiste en dos tecnologias, que si bien tienen algo que ver entre ellas, no son lo mismo. A continuación las explicaremos para que entiendan de qué trata este último invento de NVIDIA.

GeForce Boost

GeForce Boost, se trata de combinar la potencia de un procesador gráfico integrado, con una tarjeta gráfica discreta. Tarjetas gráficas discretas, por si no han estado atentos a nuestros articulos, es una tarjeta de video de tipo expansion, es decir, una tarjeta como tal. Un gráfico integrado en tanto, se refiere a aquellas placas madres que poseen una solucion gráfica a bordo o integrada. De esta forma, en momentos que necesitemos de maximo desempeño gráfico, el sistema podrá ocupar la potencia, tanto de su solucion gráfica integrada, como de su tarjeta de video discreta, para cumplir con la misma tarea.


Esta solucion esta enfocada principalmente a mercados de entrada. Esto se debe a una razon tácnica, GeForce Boost ocupa el metodo AFR – Alternate Frame Rendering - de trabajo en equipo, el cual necesita que la potencia de ambas soluciones sea relativamente pareja, ya que de lo contrario la solucion integrada puede frenar la potencia de la discreta. De este modo, en la actualidad solo las GeForce 8500GT y 8400GS son compatibles con GeForce Boost, tambien se espera que en el futuro, nuevas tarjetas que vengan a reemplazar a las anteriormente mencionadas, sean compatibles con esta tecnologia. Por el lado de las placas madres, NVIDIA aprovecho la ocasion para anunciar sus placas madres basadas en el chipset GeForce 8200, compatible con procesadores AMD, y que pareadas con una 8500GT u 8400GS son capaces de correr GeForce Boost.

Hybrid Power

NVIDIA Hybrid Power o en español, Poder Híbrido, es probablemente la tecnologia más interesante de Hybrid SLI. El enfoque de NVIDIA es que todo chipset – incluido los tope de linea – deben poseer gráficos integrados. Esto es el pilar de Hybrid Power, ya que su esencia es "apagar" las tarjetas gráficas, cuando no necesitamos de esa potencia. Hace poco tiempo en una noticia breve mencionamos el hecho de que incluso los chipsets de gama alta para AMD traerían IGP . En ese momento la idea nos desconcertó, pero ahora tiene sentido.

En la actualidad los componentes que más potencia consumen son procesador y tarjetas gráficas. La idea de NVIDIA es reducir el consumo cuando el sistema esté por así decirlo en reposo. De este modo, cuando estemos haciendo trabajos que no necesitan de gran potencia gráfica, podemos ocupar los gráficos integrados que sus chipsets futuros incorporarán, y apagar por completo la o las tarjetas de video de nuestro sistema. Asi mismo, cuando las necesitemos, el sistema es capaz de encenderlas nuevamente y tomar provecho de su potencia.


No todas las tarjetas gráficas son compatibles con esta tecnologia. Es más, en la actualidad ninguna lo es. Lo que sucede, es que para prender y apagar una tarjeta gráfica dinamicamente, se necesita de circuiteria extra, en este caso se trata de nuevos reguladores de voltaje, que si bien son un costo marginal en el valor total de una tarjeta gráfica, en vista que estamos ante una tecnologia nueva, las tarjetas de actual generación no la poseen. Asi mismo no cualquier placa madre es compatible con esto. Por el momento NVIDIA espera lanzar productos compatibles con procesadores AMD durante el correr del primer trimestre del presente año, y para procesadores Intel, durante el segundo semestre.
Primeras Impresiones

Lo principal y probablemente más revolucionario de lo hablado por NVIDIA, es el hecho que en el futuro y a partir de ahora, todas sus logicas para placas madres poseerán gráficos integrados. Esto suena bastante coherente, considerando el hecho que tanto AMD como Intel tienen planes a futuro para incorporar gráficos en los mismos procesadores. Con esta nueva estrategia, NVIDIA anula el valor agregado que los fabricantes de procesadores pretenden entregar a sus productos, “regalando” en la actualidad, lo que los primeros quieren “regalar” en el futuro. Porque claro, estamos hablando de gráficos integrados “gratuitos”, que no involucran un costo economico extra, aunque posiblemente si, en cuanto a generacion de calor.

Por el lado de GeForce Boost, esto puede tomar especial importancia en plataformas moviles, sin embargo debemos recordar que Intel lleva la delantera no solo en procesadores, sino tambien en logicas moviles, por ende el exito total de la técnica de NVIDIA en esta arena, radica exclusivamente en que pueda mezclarse con gráficos integrados Intel.

Sin embargo hasta ahora, no vemos más que los detalles de algo anunciado en el pasado, ahora sólo es cosa de tiempo para que alguien pruebe estas letras empiricamente, y veamos que sucede cuando el momentum de la marca SLI, se aplica a algo que hasta hoy era su antónimo, la disminucion de consumo energetico.

Desde Las Vegas, ciudad del vicio, el pecado y Gil Grissom informó: JF. ¡Adelante estudios!

Entrevista con Phil Hester CTO de AMD

Pedimos una entrevista con Hector Ruiz, y nos entregaron a Phil Hester, el tope de línea o FX de la jerarquía interna de AMD cuando hablamos de tecnologia. Rendimientos, problemas, fanboys y más, desde Las Vegas, Nevada, capital mundial de todo lo que parece elegante pero no lo es.

Phil Hester es un veterano con 30 años en la industria de la tecnologia. Hoy por hoy es el CTO, Chief Technology Officer, o Director de Tecnología de AMD, y vice-presidente de la compañía. Podríamos decir que es el segundo abordo, si consideramos que Dirk Meyer y Hector Ruiz están básicamente a la par en jerarquía. Pero no estamos acá para hablar de jerarquía, sino de Phenom, Erratas y rendimientos, y cuando queremos hablar sobre estos temas, Phil es el hombre.

Puedes explicarle a nuestros lectores de que trata el bug que tiene Phenom. En nuestros laboratorios hemos intentado replicarlo sin éxito.

En general es prácticamente imposible replicar el bug TLB en una situación de usuario. La única forma de encontrarse con este error es en ambientes de servidores, donde bajo extremo estrés, con múltiples peticiones, puede manifestarse. Es algo complejo y poco realista en un escenario de escritorio.

Entonces si no es un problema mayor, ¿porque repararlo?

Queremos estar seguros que nuestros procesadores están completamente libre de errores. Por ende y aun cuando teóricamente Phenom no tiene mayores problemas con el bug TLB, lo vamos a reparar. Solo hemos podido replicar el problema en limitadas ocasiones, sin embargo mientras esa mínima posibilidad de falla exista, vamos a solucionarlo.

¿Es un problema a solucionar de primera prioridad, o solo uno más en la lista de fallas que Phenom – tal como todos los procesadores del planeta – tienen?

Es sencillo, es un bug, lo tenemos identificado, y la próxima revisión de nuestro procesadores definitivamente no lo tendrá.

¿Cuando lanzaran el Phenom 9900? Hoy por hoy prácticamente todos los medios especializados tienen uno, pero no esta disponible en el mercado.


Ese producto sera lanzado durante el segundo trimestre del presente año. Aun no estamos haciendo publica una fecha en particular.

Hablemos sobre escalada de frecuencias. ¿Cuando diseñaron Phenom, estaban esperando que su modelo tope de linea al día de lanzamiento seria de meros 2,3GHz?

Esta dentro de la cota inferior de resultados que esperábamos, aun así esta nueva arquitectura funciona extremadamente bien. Cuando diseñas una nueva arquitectura, la gente a cargo de la manufactura te entrega informes sobre como el diseño funcionara a lo largo de diversas condiciones. Cuando comienzas la fabricación en volumen, recibes la información real de como la manufactura y rendimientos resultan. En el caso de Phenom, la distribución estadística proyectada fue distinta a la real, sin embargo es algo que es solucionable con el tiempo, ajustando ratios en los transistores.

¿Que tipo de frecuencias esperan lograr con Phenom en 65nm?

No vamos a hablar sobre frecuencias especificas. La pregunta que debemos hacer es: cuanto trabajo hace un procesador en cada ciclo de reloj. Un procesador que corre a 2,5GHz puede correr más rápido que uno de 5GHz, si el primero ejecuta más del doble de instrucciones por cada ciclo. Por nuestra parte, esperamos tener el liderazgo en rendimiento.

¿Estan esperando un mayor rendimiento a igual frecuencia con Yorkfield (procesador de cuatro núcleos y 45nm de Intel)?

Si, en una comparación de manzanas con manzanas. Intel se enfoca mucho en la litografía (manufactura), deberíamos contarte una historia detallada sobre... lo que tratamos de hacer es una buena combinación entre rendimiento litográfico (productivo) y de transistores.

Lo que Intel no hace publico, es que su rendimiento de manufactura no es el mismo en un comienzo que 5 o 6 meses más tarde, porque tienen una curva de aprendizaje que recorrer. Cuando introdujeron sus transistores en 45nm, nuestros procesadores de 65nm tenían un mejor rendimiento productivo (yields), porque ellos estaban en su primera generación en 45 mientras que nosotros en nuestra tercera o cuarta en 65. A Intel le gusta decir que esta un año adelante en litografía que el resto de la industria, esa no es la forma como nosotros trabajamos. Nosotros nos preguntamos donde estamos en cuanto a rendimiento por transistor, y poniéndolo de esa forma, creemos que tenemos una diferencia tecnológica de solo 4 meses.


¿Como pretenden manejar la presión de precios que Intel puede ejercer con un producto de 45nm?

Creo que debes preguntarle a Intel que tipo de yields (rendimiento productivo) están teniendo en 45nm. Si te responden que son buenos, pregúntales porque no están despachando todos sus productos en esta tecnologia. (Nota: Mientras la entrevista se llevo a cabo, Intel anuncio 16 productos en 45nm).

¿Leíste el articulo sobre compatibilidad de Phenom en placas madres AM2 publicado por Tom´s Hardware?

No, no lo he leído.

Bueno, básicamente dice que de diez placas madres AM2 que probaron, solo dos funcionaron con Phenom.

¿Tenían las actualizaciones de BIOS?

Las ultimas que pudieron conseguir.

Lo único que he escuchado es que las BIOS no están a tiempo. La parte lógica y eléctrica de las placas madres es completamente compatible con Phenom, nosotros las hemos probado en nuestros laboratorios y funcionan bien. El punto es la coordinación en tiempo de las actualizaciones de BIOS, creo que deberías pedirle a los fabricantes las respectivas BIOS.

¿No esta AMD trabajando con los fabricantes?

Trabajamos con ellos, tenemos una plataforma que valida, el problema es que no sabemos que tipo de ciclos internos tienen ellos para sus desarrollos.

Luego del episodio en Lake Tahoe, la débil disponibilidad durante las primeras semanas y la nula disponibilidad de actualizaciones de BIOS, todo da a pensar que Phenom tuvo un lanzamiento algo apurado. ¿Crees lo mismo?

Esto tiene que ver con expectativas. En algunos momentos nos critican porque todos quieren ver nuestra ultima tecnologia lo antes posible, en esta ocasión nos critican porque fue demasiado temprano. Necesitamos encontrar el punto correcto para nuestros lanzamientos futuros.

Luego de que AMD firmara con Dell, pareciera que dejaron de lado a quienes les dieron de comer en el pasado, los entusiastas. ¿Que le dirías a ellos?

Si miramos atrás al cuarto trimestre del 2006 y el primero del 2007, nos tomo mucho trabajo fabricar en volumen para despachar productos a los OEMs (Dell y cia.). Creo que el comentario es justo, pero hoy las cosas están mucho más balanceadas.

Fabricación en volumen, ¿cuales son los planes?

Seguiremos trabajando con UMC y TSMC en el lado de gráficos y electrónica de consumo (ATi), y en el caso de procesadores centrales, continuaremos con nuestro modelo híbrido, con nuestras propias fabricas y el apoyo de Chartered. No habrá cambios en el corto ni mediano plazo, creemos que este modelo funciona muy bien.

Foxconn

Pasamos la fria tarde de Las Vegas con Peter "Shamino" Tan, renombrado entusiasta y ultima adquisicion de Foxconn. A continuacion podran ver los nuevos proyectos realmente revolucionarios que Foxconn trae para los overclockeros empedernidos.
El Foxconn Extremo

Desde hace algún tiempo, los fabricantes de placas madres y tarjetas gráficas han buscado diferenciar sus productos poniendo énfasis en sus capacidades para ser exigidos más allá de los tradicional. Esto es lo que conocemos como overclock, y si bien puede parecer algo sencillo, no siempre lo es.

Si bien muchas compañías en esta industria contratan gente que dice ser entusiasta, cuando nos reunimos con ellos, la gran mayoría solo sabe sus catálogos de memoria, pero poco entienden de las reales necesidades de sus clientes, los reales entusiastas.

Foxconn, la compañía más grande de Taiwan, un fabricante que ha puesto la mayor parte de sus esfuerzos en el mercado OEM y de ensambladores, deicidio hacer un giro, y fue así como contrato a Peter "Shamino" Tan, reconocido overclockero extremo y editor de VR-Zone, el sitio líder de hardware en Singapur, para encabezar el desarrollo de productos dedicados exclusivamente a a quienes buscan el tope del tope de linea. Sin embargo Peter no sera su única contratación, ya se habla sobre dos renombrados que se encuentran actualmente en conversaciones con Foxconn, para unirse al equipo de desarrollo y basarse en Taiwan, para desarrollar productos que escapan de lo normal.
Foxconn X48 Black Ops

La placa madre Foxconn X48 Black Ops es única en su tipo. No solo porque se trata de una tarjeta basada en el pronto a estar disponible chipset X48, el cual vendrá a ser la lógica tope de linea para procesadores Intel, sino también porque posee una BIOS comprensiva, sumamente completa, y una refrigeración sensacional.

Peter nos dio un recorrido de la BIOS, y no solo nos llamo la atencion los voltajes sumamente altos, sino que a la derecha, donde en placas madres tradicionales vemos mensajes del tipo, "vCPU: Sube y baja vCPU", nos encontramos con consejos del tipo, "Voltaje del procesador, para refrigeración por aire recomendamos no más de 1,6v; para agua no más de 1,8v...".



En cuanto al orden de la BIOS, el equipo de Foxconn, se dio el trabajo de hacerla racional. No estoy hablando de una BIOS sencilla en características, sino compleja pero ordenada. En el menu de opciones con apartados de diversos voltajes bajo el titulo, "Estos afectan el FSB" y otros bajo el titulo, "Estos afectan el CPU". De este modo permite que aquellos más aventurados puedan jugar con las variables dependiendo de que busquen como resultado.

Lo ultimo que nos llamo la atencion en la BIOS, es algo que si bien no afecta su rendimiento, le entrega un toque de humor. Dependiendo del FSB que logremos nos encontraremos con mensajes del tipo, "Rompedor de records", "Godlike", Benching Spree", entre otros.


En cuanto a la placa madre en si, nos encontramos con reguladores de voltaje digitales de ocho fases y un sistema de refrigeración bastante exótico. Se trata de un circuito de agua, que permite cuatro tipos de funcionamiento. El primero es el más conservador, el cual se trata de un sistema completamente pasivo y por ende silencioso, el segundo y algo más efectivo, es ocupar un ventilador para ayudar al sistema de cobre. Entrando a la arena más extrema, nos encontramos con la posibilidad de poner una tapa con conectores para un sistema de refrigeración liquida, y la cuarta y definitivamente más insanas, es la posibilidad de poner un accesorio incluido, que no es más que una plataforma de plástico duro para ocupar hielo seco o nitrógeno liquido. De acuerdo a Foxconn, en sus pruebas preliminares con temperaturas algo menores de 0°C, encontraron un impulso de 15-20MHz en FSB.


Foxconn F1

Foxconn F1 es el nombre clave del ultimo proyecto del equipo extremo de Foxconn. Se trata de una placa madre para procesadores Intel basada en un chipset por ahora desconocido. Lo que si sabemos es que no se trata de X38, X48 ni algo basado en servidores, lo único que nos informaron es que se trata de lógica Intel, y si entramos al campo de la especulación, creemos que posee un chip auxiliar nForce 200 para hacer lo suyo con cuatro tarjetas gráficas.


La principal novedad de esta placa madre es el hecho que es capaz de correr cuatro tarjetas ATi en modalidad CrossFire. Esto quiere decir, que ante la disponibilidad de controladores, podremos ver incluso cuatro tarjetas R680 corriendo en CrossFire para un total de ocho procesadores gráficos RV670. Sin embargo si la inspeccionamos cuidadosamente, nos vamos encontrando con pequeños detalles que pueden alegrar a varios. Si se fijan, tiene dos conectores de poder ATX, lo que permite que ocupes dos fuentes de poder en vez de una de gran tamaño y potencia. Lo otro extravagante es el sistema de refrigeración, no conformes con tener un circuito de agua, bajo el bloque de cobre nos encontramos con un panel termoeléctrico de 60 watts que permite mantener la temperatura del chipset a 15°C bajo la temperatura ambiente.

Impresiones

Ya se nota el efecto de esta nueva influencia entusiasta que Foxconn ha tenido, y la expansión de su linea Quantum Force. Si bien los productos que hoy vimos, no se encuentran aun en el mercado, y el ultimo es posible que nunca vea la luz del dia, la realidad es que hay desarrollo, y mientras exista un desarrollo, aumenta la competencia, y esto implica innovación y mejores precios. Esperemos que esta nueva camada de productos, empuje a otros fabricantes a atreverse más allá de infinitos circuitos de heatpipes o colores llamativos.



miércoles, 9 de enero de 2008

nVidia GeForce 9800 GX2


Presentada el pasado 4 de Enero y se rumora que estara disponible en el primer cuarto de este año serumora tambien que sera a finales de Febrero nVidia lanzara una grafica con un SLi integrado similar a lo que realizo en su tiempo con la 7950 GX2 todo esto para tener una configuracion que constara de 2 PCB's unidos por un SLi interno que uniran 2 GPU's G92 con 192 stream processors y 512 Mb en cada GPU para obtener 1Gb en total lo cual redituara segun palabras de nVidia en un rendimiento 30% superior al obtenido actualmente con una 8800 Ultra, esta nueva tarjeta podra soportar un Quad SLi unificando asi 2 9800 GX2 y ademas contara con las tradicionales salidas DVI pero en una posicion curiosa segun se ve en las imagenes contara con conector UVD para la codificacion de HD y se rumora que su costo aproximado sera de U$ 449 y se especula sera lanzada el 14 de Febrero



domingo, 11 de noviembre de 2007

nVidia GeForce 8800 GT review by ChileHardWare

Veamos el siguiente review por parte de ChileHardWare de esta execlente tarjeta opor lo menos eso se rumora y que arraso en sus ventas y con la falta de stock al menos en Estados Unidos.



En el siguiente análisis podrán ver de cerca la nueva GeForce 8800 GT de NVIDIA, la apuesta para aquellos que buscan alto rendimiento a un precio terrenal. Una exclusiva en español para todos los lectores de ChileHardware.

Durante los últimos días hemos estado haciendo un gran trabajo en equipo en el cual Metro viajo a Santa Clara, California, FiTo se encargo de las pruebas, Tbon saco fotografías y JF se encargo de fumar cigarros y ponerse nervioso. Todo sea para entregarles el siguiente articulo donde verán el potencial de un nuevo producto de NVIDIA.

Las estrategias de lanzamiento de las compañías de tarjetas gráficas son año a año prácticamente idénticas y muy predecibles. Todo comienza con el lanzamiento de una nueva arquitectura (i.e. GeForce 6 / 7 / 8; Radeon X, X1K, HD 2K), lo primero que veremos y el modelo mas publicitado sera el tope de linea, con un precio cercano o superior a U$500 y con un rendimiento acorde, es la punta de la flecha de una nueva arquitectura. En paralelo o solo algunas semanas mas tarde, NVIDIA y ATi, ofrecerán modelos bajos y medios para el resto del mercado. Sin embargo en un momento cuando la familia y sus procesos productivos están altamente optimizados, el panorama se pone entretenido, y es cuando es posible ofrecer productos con altísimo rendimiento - generalmente superior al tope de linea de la generación pasada - a precios terrenales. Ejemplos de esto han sido la GeForce 6800 GS y 7900 GS o Radeon X850GT y X1900GT, hoy veremos el inicio de esta era, y el primero en mover sus piezas sera NVIDIA con la GeForce 8800 GT.

Bajo el Capot

La GeForce 8800 GT comparte la misma tecnología que el resto de la serie GeForce 8, procesadores de shader unificados que son capaces de procesar vertex y pixel shaders indistintamente, y compatibilidad con DirectX 10. En el caso de esta tarjeta en particular, vemos que tiene 112 Stream Processors - el nombre que NVIDA asigno a sus procesadores de shader unificados - los cuales corren internamente a una frecuencia de 1500MHz, en tanto el resto del procesador gráfico viene configurado a 600MHz, manteniendo una proporción 1:2,5 entre frecuencias de núcleo y SP.

En el apartado memorias nos encontramos con un enlace desde procesador gráfico a estos componentes de 256-bit, y la frecuencia de los chips GDDR3 es de 900MHz. En cuanto a cantidad de memoria, NVIDIA recomienda equipar esta tarjeta con 512MB, sin embargo veremos modelos algo más económicos con 256MB y algunos más costosos con 1GB.



Sin embargo lo más novedoso y atractivo de esta tarjeta, es su proceso productivo. G92 es el primer procesador gráfico para tarjetas discretas de NVIDIA fabricado en 65nm, esto reduce costos de producción, consumo y disipación de calor. Es por esta razón que la GeForce 8800 GT es una tarjeta que puede funcionar sin problemas con un sistema de refrigeración que ocupa solo una ranura de gabinete. Su consumo global es de 110 watts y necesita de solo un conector PCIe de 6 pines, así mismo esta tarjeta se convierte en la primera aceleradora gráfica en el planeta en ser compatible con PCIe 2.0. Sin embargo no se asusten, esta tarjeta perfectamente puede funcionar en ranuras PCIe 1.1 o "tradicionales" y con el mismo rendimiento.

Otra ventaja que le entrega al procesador gráfico su nuevo proceso productivo, es que esta vez no nos encontramos con el NVIDIA I/O chip, el segundo chip encargado que hace la función de RAMDAC, llave HDCP y manejo de salida de televisión. Con esto se reduce en algo el costo de fabricación y permite que la GeForce 8800 GT se posicione como un producto con un precio muy atractivo.
Su posición en la oferta
La GeForce 8800 GT tiene como gran meta, acercar tecnología DirectX 10 con alta potencia a un precio abordable. Para esto, NVIDIA ha fijado un precio de venta de esta tarjeta en entre U$250 y U$300 dolares, lo cual la deja algunos dolares más barata que la GeForce 8800 GTS más económica, GTS 320, pero que suponemos - y ya confirmaremos - con un mejor rendimiento que cualquiera de las GTS.

En la actualidad esta tarjeta no tendría un paralelo en precio dentro de la linea Radeon, ya que la HD 2600XT promedia U$150 y la que le sigue, la escasa HD 2900 Pro tiene un precio desde los U$350. Esto estaría por cambiar, sin embargo a partir de esta semana NVIDIA se apropiaría del espacio presupuestario entre U$250 y 300 dolares.



De acuerdo a NVIDIA este año veremos un total de 17 juegos que sacan provecho de las ventajas de DirectX 10, y que básicamente la GeForce 8800 GT permitirá a aquellos que aun no han dado el paso, cambiarse a una tarjeta de alto rendimiento a un precio mediano.



Primera Mirada

Como podrán darse cuenta en las fotos, esta tarjeta es nada mas ni nada menos que el fiel modelo de referencia de NVIDIA. La tarjeta es bastante larga, 22,9 centímetros o 9 pulgadas, pero no más que la GeForce 8800 GTS, lo cual a diferencia de las hermanas mayores GTX y Ultra, permite instalarla en gabinetes medium-tower.





Donde corresponde nos encontramos con dos salidas DVI y la salida multiproposito para HDTV por componente. Estos se encuentran en la disposicion que hemos visto desde la GeForce 6800 Ultra, el conector para television y luego los dos para monitores juntos.



El ventilador a pesar de verse pequeño, no lo es, es de casi 70mm. Se encuentra escondido detrás de la carcaza metálica y a su capacidad máxima de giro es bastante más que audible, sin embargo en 3D no hemos logrado hacer que llegue a máxima carga en juegos, por lo tanto dificilmente tendremos que soportar la velocidad máxima del ventilador.

Cabe destacar que este sistema de refrigeración single-slot, carece de un sistema por heatpipes y a diferencia de lo que habíamos pensado, se calienta más de lo que quisiéramos y supera al resto de la serie GeForce 8800.



En su costado trasero vemos la toma de poder de 6 pines, lo tradicional, ademas nos percatamos de la "rejilla" que esta sobre la circuiteria de alimentación de la tarjeta. Este diseño permite que el flujo de aire del ventilador favorezca los componentes eléctricos.



El sistema de refrigeración de una sola ranura es muy similar al diseño que ATi impuso con la salida de sus Radeon X1950 Pro, con una salida de aire caliente sobre el extremo superior en forma diagonal.



Los detalles siempre pensando en los fanáticos exhibicionistas.



Para que no quede duda que estamos frente al más reciente modelo de los muchachos de Santa Clara.



Nos llama la atención la gran cantidad de tornillos necesarios para el montaje del disipador, nada menos que 12 tornillos, dos más y podemos armar un Airbus A380.



Una vez desnuda, la tarjeta nos muestra sus secretos, cabe destacar la fase de poder bastante simplificada y confirmamos la ausencia de el chip necesario para la conversión de señal analógica, presente en las antiguas G80.



A pesar de estar fabricado a 65nm, comparado con los 80nm de las antiguas G80, el G92 es bastante, bastante grande, aunque hay que tomar en cuenta que tenemos un conteo de transistores mayor, ya que el chip controlador de la señal analógica y del trabajo de aceleración de vídeo que antes se encontraba fuera de la tarjeta, ahora esta incluido en el mismo paquete.



Memorias GDDR3 Qimonda de 1ns, las cuales trabajan a una frecuencia de 900MHz nominales y 1800MHz efectivos. De acuerdo a sus especificaciones, debiesen ser posible de correr a 1000/2000MHz.



Para finalizar, les mostramos la base del disipador. Si bien la solución completa es bastante liviana, la base es de cobre, algo esperable en un producto destinado a este segmento.



Plataforma y Metodología
Plataforma de pruebas

Hardware

Intel Core 2 Extreme X6800 @ 3600MHz
Biostar TForce 965PT
Super Talent PC8000 5-5-5-15
Nvidia GeForce 8800 GT 512MB
MSI GeForce NX8800 GTS 640MB
MSI GeForce NX8800 Ultra 768MB
Hitachi Desktar 82GB SATA II
Seasonic M12 700W

Software

Microsoft Windows XP Pro SP2
Microsoft Windows Vista 32-bit
3DMark 2006
Fraps 2.8.2
GPU-z 0.0.9
Nvidia ForceWare 167.26
Bioshock
Compaby of Heroes
Lost Planet : Extreme Condition
Medal of Honor : Airborne

Metodología
Con el fin de poder aislar al máximo el rendimiento del sistema desde y hacia la tarjeta de vídeo y de este modo disminuir el cuello de botella, el procesador fue configurado a 3600MHz(400x9) y las memorias a una frecuencia de 1000MHz con latencias 5-5-5-15. Para efectos de comparación utilizaremos dos tarjetas de vídeo, una es la MSI GeForce NX8800 GTS 640MB y la MSI GeForce NX8800 Ultra, siendo ambas tarjetas superiores en el papel a la GeForce 8800GT. Respecto a las pruebas correremos unas batería de pruebas más renovada, la cual consta del infaltable 3DMark 2006 y cuatro juegos de los cuales disponemos que presentan compatibilidad tanto en DirectX 9 y DirectX 10.

Para las pruebas de overclock haremos un apartado especial donde ahondaremos en las configuraciones utilizadas y el método.

Resultados XP

Como vemos en el siguiente gráfico a la GeForce 8800 GTS le llegó su hora, la nueva 8800 GT queda por sobre su hermana mayor, algo que inicialmente se esperaba pero que es claramente abrumador al ver la diferencia que existe entre estar VGAs. También cabe destacar que el puntaje obtenido se acerca al logrado por la 8800 Ultra, una tarjeta cuyo costo es el doble de la GT, como diría un buen cazador, la 8800 GT esta acechando a su presa.



En Bioshock vemos como se comienza a desmarcar la pequeña maravilla, pudiendo jugar tranquilamente este título a resoluciones bastante altas, este también es el caso para la configuración con filtros, donde no se notan los 256-bit de la 8800 GT versus los 320-bit de la 8800 GTS 640MB.





Siendo un excelente juego de estrategia, Company of Heroes nos muestra un exceso de FPS. Es agradable tener esta jugabilidad a resoluciones anormalmente altas, como lo es 2048x1536. Esta vez y nuevamente la 8800 GTS no le puede hacer el peso a que algunos llaman "hermana menor" de la familia. La 8800 Ultra por su parte muestra que siempre puedes tener más FPS si pagas el doble de dinero. Todas las tarjetas son capaces de desplegar a una cantidad de FPS aceptable este título en configuraciones con y sin filtros, algo que actualmente solo hacen las tarjetas de vídeo más costosas del mercado.





En Lost Planet: Extreme Condition se repite el escenario antes visto, la gigante GeForce 8800 Ultra lleva la delantera, seguida de la GeForce 8800GT y finalmente la GTS. Los resultados son bastante esperables, la GT se ubica entre ambas a resoluciones bajas y medianas, sin embargo en 20x15 la 8800 Ultra se despega y muestra el porque es la tarjeta favorita de los dueños de monitores de 30".





Cuando de guerra se trata la GeForce 8800 GT va a la guerra. Lamentablemente solo la GeForce 8800 Ultra es capaz de correr este juego fluidamente con el uso de filtros a resoluciones 20x15, sin embargo cuando pasamos a 1600x1200 sin importar si tenemos filtros o no, la GeForce 8800 GT logra duplicar sus FPS y desplegarse a 39 FPS, una cifra optima siempre que no nos encontremos con grandes bajas momentáneas.






Resultados Vista

NVIDIA ha luchado contra Vista y hoy por hoy afirma que lograron un rendimiento en sus tarjetas idéntico en Vista como en XP. Esto esta lejos de ser verdad, y los únicos controladores que hoy por hoy funcionan establemente con la GeForce 8800 GT, están en estado beta. La ultima versión 169, no es capaz de ser estable en Vista y por ende lo desechamos en este articulo. Con esto pudimos solo correr dos juegos, sin embargo esperamos mostrarles algo más de este apartado con nuevos controladores cuando comparemos a esta tarjeta con su par DAAMIT al momento de disponibilidad.

En 3DMark06 se repite el escenario, sin embargo los puntajes son algo más bajo que al correrlo en Windows XP. La GeForce 8800 GT se ubica entre la Ultra y la GTS con toda comodidad y con esto demuestra que sin importar sistema operativo estamos ante una tarjeta con un impresionante ratio de rendimiento precio.




En tanto en Company of Heroes, sin filtros, vemos que el rendimiento es francamente detestable. Si bien se ubica en la misma posición que en el resto de las pruebas, su rendimiento bajo Windows Vista esta bajo el 50% que al correrlo en Windows XP. Aun queda mucho trabajo que hacer en el apartado controladores por parte del equipo de los ingenieros verdes.




Overclock

Luego de algunas pruebas, encontramos el punto ideal para esta tarjeta, 700MHz en núcleo y 2000MHz efectivos (1000MHz nominales) en las memorias. Sin embargo debemos hacer un par de comentarios al respecto. Con los resultados ya vistos en la red, y las cuatro tarjetas que tenemos en nuestro poder (probadas por distintos revisores), hemos encontrado una desviación mayor a lo usual en el overclock del núcleo. Esto es normal, pero nuevamente no usual. Por lo tanto tomen este resultado como meramente referencial. Por otro lado la GeForce 8800 GT es la tarjeta de la linea 8800 con mayor ratio entre frecuencia de núcleo y shaders, esto hace que al aumentar en un punto la frecuencia de núcleo, automáticamente se eleve en 2,5 puntos el de shaders, sin embargo existen herramientas para calibrar las frecuencias de forma independiente y podríamos ver mejores resultados ante una correcta combinacion.

El overclock en estas tarjetas es un tema tan interesante, que da para un articulo por si solo que esperamos publicar en las próximas semanas, ahí también les mostraremos algo de acción con resultados concretos en juegos y benchmarks sintéticos. Recuerden este es solo el inicio de la vida de esta tarjeta, aun queda tiempo por delante.



Conclusión

La GeForce 8800 GT es sin lugar a dudas el mejor producto gráfico de los últimos 12 meses. Mezcla todo lo que buscamos en un producto de este tipo, gran rendimiento, gran capacidad de overclock, diseño elegante (comparado con soluciones de refrigeración de doble ranura) y un precio terrenal. Es capaz de desplegar todos los juegos que probamos a 1600x1200 con filtros activados y sin mayores problemas, lo cual es bastante decir, considerando que la gran mayoría no juega a una mayor resolución, y aquellos que si, generalmente tienen el dinero como para comprar dos de estas tarjetas o un par de Ultras.

Sin embargo la GeForce 8800 GT no es perfecta. Se nota el exceso de esfuerzo puesto en mantenerla en un espacio pequeño y es por esto que su sistema de disipación no es del todo suficiente. Esta bien, exageramos, su disipación la mantendrá lejos de quemarse, sin embargo a un costo muy alto, tus oídos. Existen en la actualidad diversas soluciones para esto, siendo la más practicada y menos popular, el sistema de doble ranura a la usanza de la Radeon HD 2900 y la GeForce 8800 Ultra / GTX / GTS y GT, sin embargo y por otro lado, se pudo haber mantenido un sistema de una ranura en base a heatpipes como la GeForce 7800 GTX. Pero NVIDIA tiene una razón de peso para que la GeForce 8800 GT parezca una tarjeta humilde por fuera y es el hecho que co-exisitra con la GeForce 8800 GTS, a un precio más económico y con mayor rendimiento. ¿Parece de locos? No lo es, en la actualidad la linea GTS es un éxito en ventas, en vista de esto, NVIDIA cree que habrá inercia por un tiempo más. ¿Quien en su sano juicio compraría una GTS? Aquellos que no leen sitios de análisis, aquellos que no les interesa saber al respecto, los muchachos de TecnoSquad (que saben de calculadoras mas no de juguetes de hombres), los que leen revistas (que podrían estar 30 días sin saber que la GT existe), y tu abuela, como regalo de cumpleaños para ti.

En pocas palabras y para terminar, NVIDIA le pego el palo al gato, estamos ante un gran producto y es una compra definitivamente recomendada. Pero si eres de aquellos que se apuñalan si compran un mouse a 2 pesos y este baja a 1,9 al día siguiente, te recomendamos esperar solo un par de semanas. Se viene algo similar desde el lado verde-rojo de la fuerza que si bien, aun no sabemos como rinde, no podemos dar por perdedor automáticamente.

Lo Bueno

- Gran Rendimiento.

- Gran Rendimiento.

- Gran Rendimiento.

- Precio "moderado".

Lo Malo

- Suena bastante.

- Se calienta aun más.

Lo Feo

- Tu GeForce 8800 GTS.

Ahora, la parte favorita de nuestros lectores. Por el poder que me confiere el Escuadrón Letal de ChileHardware, un grupo de ninjas rechonchos disfrazados de ebrios, procedo a entregarle a la GeForce 8800 GT el premio Golden Core, un galardón solo para tarjetas de vídeo que rinden como el tope de linea de hace 12 meses y para los niños que se comen toda la comida y se portan bien.
Ninja!
Google