Mostrando las entradas con la etiqueta CHW. Mostrar todas las entradas
Mostrando las entradas con la etiqueta CHW. Mostrar todas las entradas

jueves, 10 de enero de 2008

C.E.S. Las Vegas by ChileHardWare

Bueno como ya adelantabamos en estos dias se lleva a cabo la Convecion de Electronica de Consume en la ciudad de las vegas y gratamente Chilehardware tienen la oportunidad de asistir no se si sea el unico latino pero bueno como nuevas de este evento consiguieron algunos datos sobre el nVidia Hybrid algo que AMD-ATi ya habia planteado en meses anteriores una opcion de Fusionar el chipset de la Motherboard con los graficos independientes para obtener mejor calidad grafica, como punto 2 trataron de obtener una entrevista con el CEO de AMD el tio Hector Ruiz como lo llaman nuestros amigos de HardwareCult gg pero solamente obtuvieron la entrevista con Phil Hester CTO de AMDy por ultimo en el dia 2 observaron lo que nos traera Foxconn para esta temporada.

nVidia Hybrid SLi
Ya estamos en Las Vegas, y el primero en actuar fue NVIDIA. Hoy vemos la nueva tecnologia basada en SLI, que los ingenieros de Santa Clara tienen preparado y sus implicancias en consumo y poder.

En el marco de CES, el dia de ayer, NVIDIA reunió a lo más granado de la prensa especializada para jactarse de su ultima invención, Hybrid SLI o SLI Híbrido. SLI Híbrido, como su nombre podria insinuar, no se trata de hacer una configuracion SLI – dos tarjetas gráficas trabajando por un mismo proposito – con tarjetas de video de distinto modelo, sino de tener la capacidad de ocupar el minimo de energia y sacar el mayor provecho de nuestros recursos.

SLI Híbrido consiste en dos tecnologias, que si bien tienen algo que ver entre ellas, no son lo mismo. A continuación las explicaremos para que entiendan de qué trata este último invento de NVIDIA.

GeForce Boost

GeForce Boost, se trata de combinar la potencia de un procesador gráfico integrado, con una tarjeta gráfica discreta. Tarjetas gráficas discretas, por si no han estado atentos a nuestros articulos, es una tarjeta de video de tipo expansion, es decir, una tarjeta como tal. Un gráfico integrado en tanto, se refiere a aquellas placas madres que poseen una solucion gráfica a bordo o integrada. De esta forma, en momentos que necesitemos de maximo desempeño gráfico, el sistema podrá ocupar la potencia, tanto de su solucion gráfica integrada, como de su tarjeta de video discreta, para cumplir con la misma tarea.


Esta solucion esta enfocada principalmente a mercados de entrada. Esto se debe a una razon tácnica, GeForce Boost ocupa el metodo AFR – Alternate Frame Rendering - de trabajo en equipo, el cual necesita que la potencia de ambas soluciones sea relativamente pareja, ya que de lo contrario la solucion integrada puede frenar la potencia de la discreta. De este modo, en la actualidad solo las GeForce 8500GT y 8400GS son compatibles con GeForce Boost, tambien se espera que en el futuro, nuevas tarjetas que vengan a reemplazar a las anteriormente mencionadas, sean compatibles con esta tecnologia. Por el lado de las placas madres, NVIDIA aprovecho la ocasion para anunciar sus placas madres basadas en el chipset GeForce 8200, compatible con procesadores AMD, y que pareadas con una 8500GT u 8400GS son capaces de correr GeForce Boost.

Hybrid Power

NVIDIA Hybrid Power o en español, Poder Híbrido, es probablemente la tecnologia más interesante de Hybrid SLI. El enfoque de NVIDIA es que todo chipset – incluido los tope de linea – deben poseer gráficos integrados. Esto es el pilar de Hybrid Power, ya que su esencia es "apagar" las tarjetas gráficas, cuando no necesitamos de esa potencia. Hace poco tiempo en una noticia breve mencionamos el hecho de que incluso los chipsets de gama alta para AMD traerían IGP . En ese momento la idea nos desconcertó, pero ahora tiene sentido.

En la actualidad los componentes que más potencia consumen son procesador y tarjetas gráficas. La idea de NVIDIA es reducir el consumo cuando el sistema esté por así decirlo en reposo. De este modo, cuando estemos haciendo trabajos que no necesitan de gran potencia gráfica, podemos ocupar los gráficos integrados que sus chipsets futuros incorporarán, y apagar por completo la o las tarjetas de video de nuestro sistema. Asi mismo, cuando las necesitemos, el sistema es capaz de encenderlas nuevamente y tomar provecho de su potencia.


No todas las tarjetas gráficas son compatibles con esta tecnologia. Es más, en la actualidad ninguna lo es. Lo que sucede, es que para prender y apagar una tarjeta gráfica dinamicamente, se necesita de circuiteria extra, en este caso se trata de nuevos reguladores de voltaje, que si bien son un costo marginal en el valor total de una tarjeta gráfica, en vista que estamos ante una tecnologia nueva, las tarjetas de actual generación no la poseen. Asi mismo no cualquier placa madre es compatible con esto. Por el momento NVIDIA espera lanzar productos compatibles con procesadores AMD durante el correr del primer trimestre del presente año, y para procesadores Intel, durante el segundo semestre.
Primeras Impresiones

Lo principal y probablemente más revolucionario de lo hablado por NVIDIA, es el hecho que en el futuro y a partir de ahora, todas sus logicas para placas madres poseerán gráficos integrados. Esto suena bastante coherente, considerando el hecho que tanto AMD como Intel tienen planes a futuro para incorporar gráficos en los mismos procesadores. Con esta nueva estrategia, NVIDIA anula el valor agregado que los fabricantes de procesadores pretenden entregar a sus productos, “regalando” en la actualidad, lo que los primeros quieren “regalar” en el futuro. Porque claro, estamos hablando de gráficos integrados “gratuitos”, que no involucran un costo economico extra, aunque posiblemente si, en cuanto a generacion de calor.

Por el lado de GeForce Boost, esto puede tomar especial importancia en plataformas moviles, sin embargo debemos recordar que Intel lleva la delantera no solo en procesadores, sino tambien en logicas moviles, por ende el exito total de la técnica de NVIDIA en esta arena, radica exclusivamente en que pueda mezclarse con gráficos integrados Intel.

Sin embargo hasta ahora, no vemos más que los detalles de algo anunciado en el pasado, ahora sólo es cosa de tiempo para que alguien pruebe estas letras empiricamente, y veamos que sucede cuando el momentum de la marca SLI, se aplica a algo que hasta hoy era su antónimo, la disminucion de consumo energetico.

Desde Las Vegas, ciudad del vicio, el pecado y Gil Grissom informó: JF. ¡Adelante estudios!

Entrevista con Phil Hester CTO de AMD

Pedimos una entrevista con Hector Ruiz, y nos entregaron a Phil Hester, el tope de línea o FX de la jerarquía interna de AMD cuando hablamos de tecnologia. Rendimientos, problemas, fanboys y más, desde Las Vegas, Nevada, capital mundial de todo lo que parece elegante pero no lo es.

Phil Hester es un veterano con 30 años en la industria de la tecnologia. Hoy por hoy es el CTO, Chief Technology Officer, o Director de Tecnología de AMD, y vice-presidente de la compañía. Podríamos decir que es el segundo abordo, si consideramos que Dirk Meyer y Hector Ruiz están básicamente a la par en jerarquía. Pero no estamos acá para hablar de jerarquía, sino de Phenom, Erratas y rendimientos, y cuando queremos hablar sobre estos temas, Phil es el hombre.

Puedes explicarle a nuestros lectores de que trata el bug que tiene Phenom. En nuestros laboratorios hemos intentado replicarlo sin éxito.

En general es prácticamente imposible replicar el bug TLB en una situación de usuario. La única forma de encontrarse con este error es en ambientes de servidores, donde bajo extremo estrés, con múltiples peticiones, puede manifestarse. Es algo complejo y poco realista en un escenario de escritorio.

Entonces si no es un problema mayor, ¿porque repararlo?

Queremos estar seguros que nuestros procesadores están completamente libre de errores. Por ende y aun cuando teóricamente Phenom no tiene mayores problemas con el bug TLB, lo vamos a reparar. Solo hemos podido replicar el problema en limitadas ocasiones, sin embargo mientras esa mínima posibilidad de falla exista, vamos a solucionarlo.

¿Es un problema a solucionar de primera prioridad, o solo uno más en la lista de fallas que Phenom – tal como todos los procesadores del planeta – tienen?

Es sencillo, es un bug, lo tenemos identificado, y la próxima revisión de nuestro procesadores definitivamente no lo tendrá.

¿Cuando lanzaran el Phenom 9900? Hoy por hoy prácticamente todos los medios especializados tienen uno, pero no esta disponible en el mercado.


Ese producto sera lanzado durante el segundo trimestre del presente año. Aun no estamos haciendo publica una fecha en particular.

Hablemos sobre escalada de frecuencias. ¿Cuando diseñaron Phenom, estaban esperando que su modelo tope de linea al día de lanzamiento seria de meros 2,3GHz?

Esta dentro de la cota inferior de resultados que esperábamos, aun así esta nueva arquitectura funciona extremadamente bien. Cuando diseñas una nueva arquitectura, la gente a cargo de la manufactura te entrega informes sobre como el diseño funcionara a lo largo de diversas condiciones. Cuando comienzas la fabricación en volumen, recibes la información real de como la manufactura y rendimientos resultan. En el caso de Phenom, la distribución estadística proyectada fue distinta a la real, sin embargo es algo que es solucionable con el tiempo, ajustando ratios en los transistores.

¿Que tipo de frecuencias esperan lograr con Phenom en 65nm?

No vamos a hablar sobre frecuencias especificas. La pregunta que debemos hacer es: cuanto trabajo hace un procesador en cada ciclo de reloj. Un procesador que corre a 2,5GHz puede correr más rápido que uno de 5GHz, si el primero ejecuta más del doble de instrucciones por cada ciclo. Por nuestra parte, esperamos tener el liderazgo en rendimiento.

¿Estan esperando un mayor rendimiento a igual frecuencia con Yorkfield (procesador de cuatro núcleos y 45nm de Intel)?

Si, en una comparación de manzanas con manzanas. Intel se enfoca mucho en la litografía (manufactura), deberíamos contarte una historia detallada sobre... lo que tratamos de hacer es una buena combinación entre rendimiento litográfico (productivo) y de transistores.

Lo que Intel no hace publico, es que su rendimiento de manufactura no es el mismo en un comienzo que 5 o 6 meses más tarde, porque tienen una curva de aprendizaje que recorrer. Cuando introdujeron sus transistores en 45nm, nuestros procesadores de 65nm tenían un mejor rendimiento productivo (yields), porque ellos estaban en su primera generación en 45 mientras que nosotros en nuestra tercera o cuarta en 65. A Intel le gusta decir que esta un año adelante en litografía que el resto de la industria, esa no es la forma como nosotros trabajamos. Nosotros nos preguntamos donde estamos en cuanto a rendimiento por transistor, y poniéndolo de esa forma, creemos que tenemos una diferencia tecnológica de solo 4 meses.


¿Como pretenden manejar la presión de precios que Intel puede ejercer con un producto de 45nm?

Creo que debes preguntarle a Intel que tipo de yields (rendimiento productivo) están teniendo en 45nm. Si te responden que son buenos, pregúntales porque no están despachando todos sus productos en esta tecnologia. (Nota: Mientras la entrevista se llevo a cabo, Intel anuncio 16 productos en 45nm).

¿Leíste el articulo sobre compatibilidad de Phenom en placas madres AM2 publicado por Tom´s Hardware?

No, no lo he leído.

Bueno, básicamente dice que de diez placas madres AM2 que probaron, solo dos funcionaron con Phenom.

¿Tenían las actualizaciones de BIOS?

Las ultimas que pudieron conseguir.

Lo único que he escuchado es que las BIOS no están a tiempo. La parte lógica y eléctrica de las placas madres es completamente compatible con Phenom, nosotros las hemos probado en nuestros laboratorios y funcionan bien. El punto es la coordinación en tiempo de las actualizaciones de BIOS, creo que deberías pedirle a los fabricantes las respectivas BIOS.

¿No esta AMD trabajando con los fabricantes?

Trabajamos con ellos, tenemos una plataforma que valida, el problema es que no sabemos que tipo de ciclos internos tienen ellos para sus desarrollos.

Luego del episodio en Lake Tahoe, la débil disponibilidad durante las primeras semanas y la nula disponibilidad de actualizaciones de BIOS, todo da a pensar que Phenom tuvo un lanzamiento algo apurado. ¿Crees lo mismo?

Esto tiene que ver con expectativas. En algunos momentos nos critican porque todos quieren ver nuestra ultima tecnologia lo antes posible, en esta ocasión nos critican porque fue demasiado temprano. Necesitamos encontrar el punto correcto para nuestros lanzamientos futuros.

Luego de que AMD firmara con Dell, pareciera que dejaron de lado a quienes les dieron de comer en el pasado, los entusiastas. ¿Que le dirías a ellos?

Si miramos atrás al cuarto trimestre del 2006 y el primero del 2007, nos tomo mucho trabajo fabricar en volumen para despachar productos a los OEMs (Dell y cia.). Creo que el comentario es justo, pero hoy las cosas están mucho más balanceadas.

Fabricación en volumen, ¿cuales son los planes?

Seguiremos trabajando con UMC y TSMC en el lado de gráficos y electrónica de consumo (ATi), y en el caso de procesadores centrales, continuaremos con nuestro modelo híbrido, con nuestras propias fabricas y el apoyo de Chartered. No habrá cambios en el corto ni mediano plazo, creemos que este modelo funciona muy bien.

Foxconn

Pasamos la fria tarde de Las Vegas con Peter "Shamino" Tan, renombrado entusiasta y ultima adquisicion de Foxconn. A continuacion podran ver los nuevos proyectos realmente revolucionarios que Foxconn trae para los overclockeros empedernidos.
El Foxconn Extremo

Desde hace algún tiempo, los fabricantes de placas madres y tarjetas gráficas han buscado diferenciar sus productos poniendo énfasis en sus capacidades para ser exigidos más allá de los tradicional. Esto es lo que conocemos como overclock, y si bien puede parecer algo sencillo, no siempre lo es.

Si bien muchas compañías en esta industria contratan gente que dice ser entusiasta, cuando nos reunimos con ellos, la gran mayoría solo sabe sus catálogos de memoria, pero poco entienden de las reales necesidades de sus clientes, los reales entusiastas.

Foxconn, la compañía más grande de Taiwan, un fabricante que ha puesto la mayor parte de sus esfuerzos en el mercado OEM y de ensambladores, deicidio hacer un giro, y fue así como contrato a Peter "Shamino" Tan, reconocido overclockero extremo y editor de VR-Zone, el sitio líder de hardware en Singapur, para encabezar el desarrollo de productos dedicados exclusivamente a a quienes buscan el tope del tope de linea. Sin embargo Peter no sera su única contratación, ya se habla sobre dos renombrados que se encuentran actualmente en conversaciones con Foxconn, para unirse al equipo de desarrollo y basarse en Taiwan, para desarrollar productos que escapan de lo normal.
Foxconn X48 Black Ops

La placa madre Foxconn X48 Black Ops es única en su tipo. No solo porque se trata de una tarjeta basada en el pronto a estar disponible chipset X48, el cual vendrá a ser la lógica tope de linea para procesadores Intel, sino también porque posee una BIOS comprensiva, sumamente completa, y una refrigeración sensacional.

Peter nos dio un recorrido de la BIOS, y no solo nos llamo la atencion los voltajes sumamente altos, sino que a la derecha, donde en placas madres tradicionales vemos mensajes del tipo, "vCPU: Sube y baja vCPU", nos encontramos con consejos del tipo, "Voltaje del procesador, para refrigeración por aire recomendamos no más de 1,6v; para agua no más de 1,8v...".



En cuanto al orden de la BIOS, el equipo de Foxconn, se dio el trabajo de hacerla racional. No estoy hablando de una BIOS sencilla en características, sino compleja pero ordenada. En el menu de opciones con apartados de diversos voltajes bajo el titulo, "Estos afectan el FSB" y otros bajo el titulo, "Estos afectan el CPU". De este modo permite que aquellos más aventurados puedan jugar con las variables dependiendo de que busquen como resultado.

Lo ultimo que nos llamo la atencion en la BIOS, es algo que si bien no afecta su rendimiento, le entrega un toque de humor. Dependiendo del FSB que logremos nos encontraremos con mensajes del tipo, "Rompedor de records", "Godlike", Benching Spree", entre otros.


En cuanto a la placa madre en si, nos encontramos con reguladores de voltaje digitales de ocho fases y un sistema de refrigeración bastante exótico. Se trata de un circuito de agua, que permite cuatro tipos de funcionamiento. El primero es el más conservador, el cual se trata de un sistema completamente pasivo y por ende silencioso, el segundo y algo más efectivo, es ocupar un ventilador para ayudar al sistema de cobre. Entrando a la arena más extrema, nos encontramos con la posibilidad de poner una tapa con conectores para un sistema de refrigeración liquida, y la cuarta y definitivamente más insanas, es la posibilidad de poner un accesorio incluido, que no es más que una plataforma de plástico duro para ocupar hielo seco o nitrógeno liquido. De acuerdo a Foxconn, en sus pruebas preliminares con temperaturas algo menores de 0°C, encontraron un impulso de 15-20MHz en FSB.


Foxconn F1

Foxconn F1 es el nombre clave del ultimo proyecto del equipo extremo de Foxconn. Se trata de una placa madre para procesadores Intel basada en un chipset por ahora desconocido. Lo que si sabemos es que no se trata de X38, X48 ni algo basado en servidores, lo único que nos informaron es que se trata de lógica Intel, y si entramos al campo de la especulación, creemos que posee un chip auxiliar nForce 200 para hacer lo suyo con cuatro tarjetas gráficas.


La principal novedad de esta placa madre es el hecho que es capaz de correr cuatro tarjetas ATi en modalidad CrossFire. Esto quiere decir, que ante la disponibilidad de controladores, podremos ver incluso cuatro tarjetas R680 corriendo en CrossFire para un total de ocho procesadores gráficos RV670. Sin embargo si la inspeccionamos cuidadosamente, nos vamos encontrando con pequeños detalles que pueden alegrar a varios. Si se fijan, tiene dos conectores de poder ATX, lo que permite que ocupes dos fuentes de poder en vez de una de gran tamaño y potencia. Lo otro extravagante es el sistema de refrigeración, no conformes con tener un circuito de agua, bajo el bloque de cobre nos encontramos con un panel termoeléctrico de 60 watts que permite mantener la temperatura del chipset a 15°C bajo la temperatura ambiente.

Impresiones

Ya se nota el efecto de esta nueva influencia entusiasta que Foxconn ha tenido, y la expansión de su linea Quantum Force. Si bien los productos que hoy vimos, no se encuentran aun en el mercado, y el ultimo es posible que nunca vea la luz del dia, la realidad es que hay desarrollo, y mientras exista un desarrollo, aumenta la competencia, y esto implica innovación y mejores precios. Esperemos que esta nueva camada de productos, empuje a otros fabricantes a atreverse más allá de infinitos circuitos de heatpipes o colores llamativos.



miércoles, 9 de enero de 2008

Consumer Electronics Show Las Vegas Day 0 by CHW

La feria de electrónica de Consumo de Las Vegas, esta lista y preparada para abrir sus puertas el día de mañana. Como siempre, ChileHardware se encuentra cubriendola en vivo y en directo, para traerte las novedades que se mostraran y lo que se discutirá en la ciudad del pecado.

CES son las siglas de Consumer Electronics Show, o Show de Electrónica de Consumo. Esta es una feria enfocada a prensa y profesionales de la industria, organizada por la CEA, Asociación de Electrónica de Consumo y en el pasado se efectuaba en Nueva York, pero desde hace algún tiempo y debido a su crecimiento, la organizacion la ha trasladado a Las Vegas, donde los grandes hoteles pueden satisfacer la demanda de habitaciones, conferencias y derivados (prostitutas, alcohol y limusinas entre otros) que ocurren a lo largo de la semana de CES.

El núcleo de este evento, es la electrónica de consumo, sin embargo bajo la definición más amplia de este concepto. En CES puedes ver lo ultimo de Toshiba, Sony y JVC, pero también hay cabida para audio de automóviles, desarrollo de variadas tecnologías, software, telefonía celular y claro, lo que más nos interesa a nosotros, componentes para computadores.

Entre los miles de expositores, se encuentran variados viejos conocidos como NVIDIA, AMD, Asus, MSI, Intel, 3DLabs, Patriot, Logitech y Seagate. Varios de ellos tienen actividades programadas que van más allá de tener un stand y mostrar sus últimos productos, y harán charlas, muestras de futuros productos y borracheras colectivas.

Tendremos especialmente nuestra atencion sobre el keynote de Paul Otellini, CEO de Intel; lo nuevo de AMD y ATi; la presentación – bajo embargo – de nuevos productos de NVIDIA y el ya tradicional keynote de Bill Gates, que de acuerdo a los rumores se trataría del ultimo que daría en esta masiva feria.

Si el año pasado la gran apuesta de los expositores fueron los discos duros de estado solido, creemos fervientemente que la tecnologia con mayor presencia este año sera DisplayPort.

Nuestra apuesta es que este año, el tema que más dará que hablar en el rubro es DisplayPort, la nueva tecnologia en conectores que viene a ser algo como el HDMI, de monitores para computadores. Pero esto es solo una especulacion, para saber si esta bien fundada o no, tendras que mantenerte al tanto de ChileHardware, que te traeremos las novedades minuto a minuto de la feria de Las Vegas.

Como Dato extra el dia 8 osea el primer dia de esta expo pues se anuncio el retiro de Billy Puertas gg aqui la noticia y el video de su ultimo dia de trabajo




lunes, 19 de noviembre de 2007

ATi Radeon HD 3800 series RV 670 review by ChileHardware

Bueno aunque mañana es el lanzamiento mundial o la liberacion NDA en algunos paises, llega por parte de AMD/ATI la tarjeta que sera la competencia de la 8800 GT que aunque no llega a su poder en la parte economica parece ser que es su fuerte y el stock de al menos la 3850 es mejor que el de la 8800 y la 3870 y esto se debe a su produccion masiva y parece una buena opcion de compra.

Toda acción tiene una reacción, y si NVIDIA lanzó su GeForce 8800GT hace dos semanas, hoy AMD hace lo suyo con las Radeon HD 3850 y 3750, las nuevas tarjetas gráficas de gama media-alta del fabricante verde-rojo. En esta análisis veremos donde se posiciona en cuanto a rendimiento y características.
El actual mercado de las tarjetas gráficas ha estado algo movido desde la aparición de AMD dentro de la eterna guerra de NVIDIA y ATI. Las cosas parecen haber cambiado un poco, al menos en la forma en que ambas compañías enfrentan el mercado.

ATI y NVIDIA antiguamente tendían a competir con reglas claras, algunas que incluso parecían bandas de precios, aun cuando las batallas en rendimiento eran totalmente encarnizadas parecía haber un acuerdo de caballeros para nunca tocar los rangos de precio, ni las formas de llegar a los consumidores. Podía ganar una marca o la otra, pero siempre pareció no haber mucha especulación en cuanto a los precios o los segmentos a los cuales sus productos iban enfocados.

Sin embargo desde la entrada de AMD, un jugador - en este entonces - con mayor presencia que las compañías desarrolladoras de chips gráficos, las cosas han tendido a cambiar en cuanto a esta forma de funcionar.

AMD recibió a ATI cuando la ultima ya estaba desarrollando el polémico chip R600, sin embargo este no estaba libre de problemas, por un lado los secuaces rojos tenían serios problemas para sacarlo a la luz, y aun cuando lo logro finalmente, su rendimiento no lograba siquiera acercarse al de la competencia. Ante este escenario, AMD recurrió a sus mejores contactos y aun cuando perdieron la batalla del rendimiento en esa ocasión, se comenzó a esbozar una guerra no vista antes en el mercado de las tarjetas gráficas, una guerra en la cual AMD ya ha sabido pelear antes, la guerra de precios y ensambladores.

Es así como en la actualidad la linea Radeon HD 2000 no ha sido el fracaso que muchos piensan es, sino más bien, una linea que se ha vendido muy bien. No hablamos de la Radeon HD 2900 XT, ni siquiera de la Radeon HD 2600 XT, estamos hablando de los modelos de entrada, que han sido muy demandados por ensambladores como Dell, HP y Acer.

Pero ya ha pasado algún tiempo desde el lanzamiento de estas tarjetas, y hoy es hora de un refresco. Con la salida de las actuales HD38x0, AMD gracias a sus influencias como empresa de mayor envergadura, logró cerrar un acuerdo con TSMC a largo plazo, para fabricar sus GPU a un proceso de fabricación más avanzado - 55nm - esto les significa el poder generar procesadores gráficos más pequeños, con menor consumo pero fundamentalmente mas baratas, casi la mitad de lo que costo en su momento fabricar las Radeon HD 2900 XT.

Producto de esta guerra a lanzado un excelente producto como es el G92, pero sin embargo con problemas de stock, que según algunos tendrían que ver con la canibalización de sus propios productos frente a este nuevo integrante de la familia. Este es un error esperable teniendo en cuenta la poca experiencia de NVIDIA en este tipo de terrenos donde AMD ya lleva años de circo compitiendo con el más grande de todos, Intel.



Barniz Técnico

Como ya sabemos las nuevas tarjetas de ATI traen consigo un die-shrink, es decir, un cambio de proceso de fabricación a uno más pequeño, 55nm proporcionado por TSMC.
Este die-shrink mantiene la misma arquitectura con un par de cambios cosméticos bastante sutiles, sin embargo lo mas importante de este nuevo proceso de fabricación, es la disminución del tamaño del GPU, con una superficie total de 192mm2 con 666 millones de transistores, un poco menos de la mitad del R600 408mm2 de superficie y alrededor de 720 millones de transistores. G92 por su parte llega cerca de los 315mm2 de superficie con 734 millones de transistores, bastante mas grande que RV670 y por tanto mas caro de producir.

En la arquitectura del chip, nada ha cambiado mucho, sigue estando basado en una arquitectura unificada con 320 shaders processors pero con la posibilidad de poder trabajar a doble-precisión en cálculos decimales (de coma flotante) fundamental para los procesos basados en GPGPU, esto significa trabajar con datos de hasta 128 bits (precisión simple es 64-bit) por paso sin mayor esfuerzo, cosa que por el lado de NVIDIA solo G92 puede realizar pero trabajando solo con la mitad de la capacidad de proceso.

La inclusión del motor de aceleración de vídeo de alta definición por hardware UVD también viene integrado en el chip, lo cual se agradece ya que la HD2900XT carecía de esta característica y solo hacia el proceso por software.



Por otro lado la interfaz de memoria se ve disminuida en el caso de la RV670, a solo 256-bit de ancho de banda, la mitad que R600 que puede manejar hasta 512-bit, lo cual dependiendo del grado de optimización podría penalizar el rendimiento a resoluciones altas o con gran carga de filtros.

Quizás la implementación más importante a nivel de soporte en hardware es el estándar DX10.1, el que trae consigo algunas pequeñas modificaciones:

Cube Map Arrays: Permite leer y escribir múltiples Cube Maps en un solo paso, lo que permite Iluminación global compleja y dinámica en tiempo real, entre los que se cuentan efectos de calidad Ray-tracing como soft-shadows, refracciones y reflexiones transparentes de alta calidad.

Vertex Shader in & out: Dobla la cantidad de información manejada por los vertex de 16 a 32 valores por shader lo que permite mejor rendimiento en situaciones de vertex complejas.

Improved Antialiasing: Se agregan varias modificaciones que permiten estandarizar el método de aplicación de filtros para todas las GPUs, ademas de dar control sobre la programación de este para manejar los niveles de antialiasing de forma dinámica sobre una escena o parte de la pantalla, esto significara dar mejores características de filtrado dependiendo de la posición en que se encuentre el objeto pero sin perder nitidez en la imagen, ademas potencia las posibilidades para FSAA+HDR.

Puedes leer el documento DX10.1 de ATI aqui.

Sin embargo todas las modificaciones DX10.1 no son aplicables inmediatamente a los juegos actuales, primero porque la actualización para Windows Vista estará disponible para el SP1 que saldrá el próximo año y segundo por que es necesario que los desarrolladores le den soporte para empezar a ver los beneficios de esta pequeña corrección, así que en el corto plazo no esperen mucho de DX10.1.

En cuanto a los drivers, podemos agregar que ATI optimizo estas tarjetas para trabajar en 3 diferentes configuraciones de reloj para ahorrar energía, 2D, 3D de bajo requerimiento y máximo 3D aparte de dar soporte para quad-CrossFire, también permitirá tri-CrossFire, y configuraciones multiGPU con tarjetas diferentes pero de la misma familia, por lo que es posible hacer CrossFire entre la HD3850 y la HD3870.

Primera Mirada: Radeon HD 3850

La Radeon HD 3850 es un modelo de tarjeta gráfica con una solución de refrigeración que ocupa solo una ranura PCI. Esto habla bien de su generación de calor en primera instancia y debemos decir, es definitivamente un resultado más elegante que un sistema de doble ranura.

Para aquellos con buena memoria y que están al tanto de la Radeon X1900Pro, podrán notar que esta placa de vídeo - HD 3850 - es bastante similar a la primera.

En conectividad nos encontramos con la salida para televisión y con dos conectores DVI que permiten no solo conectarlo a monitores de este tipo, sino también análogos y aquellos compatibles con HDMI, mediante el uso de un adaptador.



Más atrás del sistema de refrigeración nos encontramos con un disipador para los reguladores de voltaje. Este pareciera ser pasivo en una primera instancia, pero se ve ayudado por el único ventilador incorporado en la tarjeta. Así mismo podemos notar que su diseño es bastante singular, se trata de cilindros en forma vertical, una propuesta que no veíamos desde hace ya mucho tiempo, cuando los fabricantes de sistemas de refrigeración aun estaban en etapas de desarrollo bastante tempranas.



En su reverso nos encontramos con lo de siempre, un sub-mundo de componentes soldados y un sistema de anclaje trasero para el disipador de calor.

Tal como su gemela - físicamente hablando - la Radeon HD 3850 posee dos conectores CrossFire internos. Esto le permite ser conectada con otra tarjeta, y así disfrutar el poder de dos procesadores gráficos en una sola escena.



Ya que estamos ante una muestra para prensa muy temprana, recibimos la tarjeta como es costumbre, envuelta en mucho plástico con burbujas de aire y una caja sin dinosaurios, héroes o elfas. Aun así nos encontramos con el famoso adaptador de DVI a HDMI, uno para convertir el DVI a salida análoga y un puente CrossFire. Ustedes se preguntaran, ¿porque solo un puente CrossFire cuando esta trae dos conectores para este propósito? La respuesta es sencilla, cuando compras dos tarjetas, cada una trae un conector, con eso tienes los dos necesarios para que CrossFire corra a todo su potencial.



Tanto la Radeon HD3850 como la 8800GT poseen el mismo largo y tamaño de ranura sencilla, sin embargo el diseño del disipador es algo más inteligente en el caso de ATI, ya que posee una entrada de aire un poco mas grande en relación al ventilador, lo que deja trabajar al ventilador menos forzado y aminora el ruido.



El disipador por otro lado es bastante simple, de aluminio anodizado, se ve bastante pequeño pero cumple a cabalidad su cometido manteniendo las temperaturas bajo los 60º a máxima carga incluso con overclock y manteniendo un bajo ruido.


La tarjeta desnuda se ve más simple de lo que esperábamos, a diferencia de otras tarjetas de la misma marca, pareciera todo estar dispuesto sin problemas de espacio.



Llama la atención la simplicidad del sistema de poder, solo 4 fases de poder, ademas trae consigo capacitadores tradicionales mezclados con los de estado sólido, esto seguramente se debe a la importancia del ahorro en costos pero también a que la tarjeta no requiere grandes implementaciones de poder para trabajar a sus anchas, recordemos que en el caso de la HD3850 podría funcionar incluso sin conexión externa de poder en placas con PCI-Express 2.0

En la foto también puede verse -aunque no leerse- una memoria GDDR3 de 1.1ns.



Como podemos percatarnos el GPU es bastante pequeño, el proceso a 55nm termino haciendo al chip bastante más pequeño en relación a la HD 2900 XT, sin duda AMD estará un poco más tranquilo de estar menos presionado en cuanto al costo por GPU.



Primera Mirada: Radeon HD 3870

La Radeon HD 3870 posee un sistema de refrigeración de doble ranura que se asemeja bastante a aquellos que vimos con la salida de la Radeon HD 1950XTX. Un sistema basado en heatpipes y acrílico semi-transparente bastante atractivo se encarga de enfriar no solo el procesador gráfico, sino también memorias, reguladores de voltajes y básicamente la tarjeta gráfica completa.



En conectividad nos encontramos con lo usual, dos puertos DVI - convertibles a HDMI - y una salida para televisión de alta definición. Así mismo y debido a su naturaleza de "doble ranura", nos encontramos con una rejilla que permite que el sistema de ventilación arroje el viento caliente fuera del gabinete y no contamine la temperatura al interior del mismo.





En su reverso nos encontramos con la placa de sujeción del sistema de refrigeración que en este caso solo consiste en un sistema muy sobrio ya ocupado en el pasado por el departamento gráfico de AMD. Esto permite que la tarjeta sea bastante más liviana que su hermana mayor, Radeon HD 2900 XT.



Acá pueden ver la diferencia en el reverso de la Radeon HD 3870 y la HD 2900 XT, esto equivale a bastante peso menos sobre tu gabinete.



Nuevamente la fotografía comparativa, Radeon HD 2900 XT a la izquierda y la nueva Radeon HD 3870 a la derecha.



El conector de alimentación externo de la HD 3870 es de solo 6 pines, a la derecha vemos el de la Radeon HD 2900 XT que necesita de dos conectores de 6 pines y para mayor estabilidad uno de 6 y otro de 8 pines. Como pueden ver, la reduccion en el proceso productivo se hace presente y al parecer funciona, ya que la tarjeta gráfica necesita de menor alimentación para correr adecuadamente.



Los mismos accesorios con los que nos encontramos en la Radeon HD 3850, un adaptador DVI a HDMI, uno DVI a análogo y el puente CrossFire. Los accesorios incluidos dependen exclusivamente del fabricante que elijas a la hora de llevar tu tarjeta, tal como Sapphire puede incluir dos adaptadores y tres juegos, PowerColor puede decidir incluir tres adaptadores, un chocolate y una polera.



Una vez desmontado el sistema de refrigeración, vemos que el disipador en si, el bloque metálico de contacto esta construido 100% en cobre, aun cuando no esta basado en una solución con heatpipe, esta bien hecho al igual que la refrigeración de la anterior HD2900XT, pero bastante mas simple y pequeño.

También vemos que las memorias están disipadas junto con los mosfets de las fases de poder.



Desprendiendo el disipador del plástico rojo, podemos ver la calidad de su manufactura. En verdad, las aletas son muy delgadas, maximizando la superficie.



El chip es el mismo de la HD3850, bastante pequeño para un chip de alta gama gracias a los 55nm de fabricación.



A diferencia de la HD3850, la HD3870 incorpora solo capacitadores de estado solido y 4 fases, lo que habla de que hay cambios importantes en la estructura del PCB y por tanto no están definitivamente dentro del mismo rango de precios.

Podemos ver también el conector interno de audio, hay que recordar que las tarjetas de ATI soportan completamente el estándar HDMI, por lo que son capaces de trabajar audio y vídeo por el mismo cable.



Metodología y Plataforma de Pruebas

Hardware

Intel Core 2 Extreme X6800 @ 3600MHz
Biostar TForce 965PT
Super Talent 2x1GB 1000MHz 5-5-5-15
Nvidia GeForce 8800 GT 512MB
Diamond Viper Radeon HD 2900XT 1GB
ATi Radeon HD 3870
ATi Radeon HD 3850
Hitachi Desktar 82GB SataII
Seasonic M12 750W

Software

Microsoft Windows Vista Ultimate 32-Bit
Nvidia ForceWare 169.01
ATi Catalyst 7.10
3DMark 2006
Bioshock
Crysis Demo
Company of Heroes
Medal of Honor Airborne
Rivatuner 2.06
Fraps 2.8.2
GPU-z 0.1.1

Metodología de Pruebas

Las tarjetas que estamos por revisar son tarjetas de rango alto, aun cuando podrían no ser lo máximo (ya que podría aparecer otro ejemplar con más frecuencia), estas están entre los mejores exponentes que ATI tiene para mostrar, por este motivo decidimos apuntar directamente a resoluciones altas, partiendo de 1280x1024.
Gran parte de los gamers empedernidos que querrán comprar esta vga, ya estarán equipados con un monitor que de resoluciones generosas, y por esto sumado al potencial de estas vgas a máxima exigencia es que decidimos lanzar pruebas con filtros y sin ellos, a 1280x1024, 1600x1200 y 2048x1536.

Las pruebas con filtro fueron al estándar FSAA x4 y 16x anisotrópico, sin embargo en la prueba de Crysis preferimos omitir los resultados simplemente porque el juego es completamente injugable con estas configuraciones de filtros. Si quieren un gráfico en donde ATI y NVIDIA andan entre los 2 y 3 FPS podemos enviarlo por correo.

El overclock por su parte lo probamos de forma superficial viendo la mayor frecuencia sin artifacts en el poco tiempo que hemos tenido la tarjeta en nuestras manos, de esta manera, perfectamente quien se haga de una podría estrujarle un poco mas con algo mas de tiempo.

Finalmente, notarán que de plano hemos excluído los juegos DirectX 9 y Windows XP. Mientras hace unos meses no había más que un par de títulos que utilizaban el API DirectX 10, actualmente la constelación de juegos se ha multiplicado y aunque duela, Windows Vista se convierte en la plataforma estándar para mantenerse al día en los títulos de moda.

Pruebas

3DMark debe ser para algunos el test mas importante de todos, y aun cuando pensamos que solo es referencial, de todas formas siempre lo consideramos como un test fijo dentro de nuestra suite de test.

La 8800GT saca una ventaja clara, mientras que la HD2900XT de 1GB (la más rápida de todas las R600) se empina también por encima de los nuevos modelos, esto sin duda, es por la interfaz de memoria a 512 bits que le da algo mas de aire a la HD2900, en cuanto a la 8800GT, con shaders corriendo a 1.65ghz este test se vuelve pan comido.




Company of Heroes con parche DX10 es un juego de estrategia 3D bastante demandante, tiene varios puntos de vista dentro de la batalla, pudiendo incluso mirar todo desde una perspectiva en tercera persona.

Aquí vemos como la 8800GT se despega notablemente del resto, sin embargo va perdiendo terreno a medida que aumenta la resolucion, por su lado la HD3870 logra una mejor marca que la HD2900XT lo cual es bastante bueno tomando en cuenta el precio y el consumo eléctrico.




Pero lo que más nos sorprendió fue el hecho de que la HD3850 logra casi la misma marca de la HD2900XT de 1GB que esta a un rango de precios notablemente más alto.

Con filtros se repite la dominación por parte de la 8800GT, sin embargo la HD 3850 debido a su poca memoria on-board cae inexorablemente bajo la HD2900XT que viene con 1GB en memoria.



Bioshock debe ser uno de los títulos que esta peleando fuerte como el mejor juego del año, basado en el motor del Unreal 3, tiene todo lo necesario para hacerte pasar un buen rato y con gráficas espectaculares. Aquí nuevamente vemos como domina la 8800GT y por bastante a resoluciones bajas, a partir de 1600x1200 la cosa se empareja bastante más.



La HD3870 logra superar a su anterior representante por 1 FPS, lo cual cabe perfectamente como un empate técnico, sin embargo hay que tomar en cuenta que para AMD el fabricar la HD3870 debe ser a menos de la mitad del costo de la HD2900XT de 1GB. Bajo filtros el panorama cambia notablemente, la 8800GT pierde bastante terreno, y la HD3870 logra igualar el rendimiento a partir de 1600x1200.

Por su lado la HD3850 en el interesante duelo con la HD2900XT pierde debido a su menor cantidad de memoria. Para el caso de la HD3850 es muy probable que en algún momento los fabricantes de tarjetas lancen modelos de más MB en un futuro, lo que implicaría seguramente, el igualar en rendimiento a la HD2900XT.



Medal of Honor Airborne basado en el motor Unreal 3, es un juego que vale la pena probar, más allá de la critica, es todo lo que se podría pedir de un juego de la segunda guerra, aunque un poco corto.

El terreno se pone dividido en este juego, aquí la HD2900XT es la que logra la mejor marca, superando por poco a la 8800GT, sin embargo la HD3870 logra una marca muy similar que la mantiene dentro de un rango aceptable en relación a las otras dos.
Con los resultados de la HD3850 nos damos cuenta que la diferencia en clocks son relativamente importantes en el rendimiento a 1280x1024, pero a mayor resolucion comienza a emparejarse.



Con filtros el panorama cambio radicalmente y dio resultados imprevisibles, la HD3870 logra sobre un 30% de rendimiento extra sobre la 8800GT, superando también a la HD2900XT por un margen notable, por su lado la HD3850 aun con poca memoria a bordo logra una mejor marca que la 8800GT.

Estamos investigando estos resultados para saber si el bajo rendimiento en perspectiva, de la 8800GT, se debe a problemas de drivers u otro relacionado.



Crysis debe ser el juego más esperado del año, es el primero en soportar a cabalidad DX10 e incorporar todo el eye-candy que este nuevo API proporciona, para esta prueba ocupamos el Demo de Crysis que según los desarrolladores, aun le falta en cuanto a optimización en relación a su versión final.



Aqui los resultados saltan a la Vista, la 8800GT logra una apabullante ventaja a 1280x1024, pero nuevamente a grandes resoluciones baja el rendimiento hasta quedar debajo de la HD3870.

La HD3850 por su parte con menores clocks y menor cantidad de memoria, llega a menor rendimiento a 1280x1024 y a 2048x1536 simplemente no puede mas debido claramente a su menor cantidad de memoria.

Overclock

Como el avezado lector de CHW debe saber, el overclock es una ciencia que requiere paciencia, calma y mucha iteración. Pues bien, en esta ocasión no tuvimos nada de eso, así que lo que verán en esta sección es el resultado de una aproximación preliminar del potencial de overclock de estas tarjetas. A priori, nuestro pronóstico es que, tomando en cuenta las diferencias en cuanto a la configuración de poder para ambas tarjetas, es de esperar que la HD3850 logre menores clocks que la HD3870.

Procedimos a overclockear con Rivatuner el cual detecta bastante bien las tarjetas tomando en cuenta que aun no salen al mercado, de esta manera con Rivatuner logramos con la HD3850 pasar de los referenciales 670MHz en núcleo y 1,66Ghz en memoria, a 749MHz en núcleo y 2000MHz en memoria, lo cual no deja de ser importante, especialmente para las memorias, con esto estariamos superando la frecuencia de la HD2900XT.



En lo que respecta a la Radeon HD3870, sabemos que cuenta con memorias GDDR4 de 0,8ns, por lo cual es de esperar que supere con mucho a la HD3850 y así sucede: terminamos con una frecuencia efectiva en memorias de 1242MHz, equivalente a 2484MHz en nomenclatura GDDR4. Sin embargo, como hemos dicho antes, esperaríamos que el GPU tuviera un techo similar al de la Radeon HD3850, lo que equivale a decir que la 3870 no tiene margen de overclock. Muy por el contrario, comprobamos que pese a tener el mismo núcleo y una alimentación bastante similar, la 3870 es capaz de pegarse un salto de frecuencia en GPU hasta los 843MHz, totalizando un 8,5% de aumento en GPU y un 10,3% en memoria.



Nuestros resultados: con OC, la 3850 alcanza a la 3870 y sube un 10% redondo. En cuanto a la 3870, el 8,5% de overclock en GPU y 10,3% en memorias, nos vale un aumento de casi 7% en esta prueba. Para ser una prueba preliminar, quedamos bastante satisfechos con el aumento de rendimiento bajo overclock.



Conclusión

Tal como quisimos transmitir en el review del Core 2 Extreme QX9650, hay dos peldaños en cada etapa que la hoja de ruta de una compañía traza en el tiempo. En un peldaño renuevan la arquitectura, y en el siguiente la perfeccionan. Aunque no siempre se cumple, sí hay rasgos similares en esta secuencia que pueden observarse como vimos en Intel en el paso a los 45nm, en AMD cuando pasó del core Windsor de 90nm al Brisbane de 65nm, en NVIDIA que se está mudando a los 65nm empezando con la Geforce 8800GT y hoy, en la división gráfica ATI de AMD, que debuta en el proceso de los 55nm.

Por otro lado, resulta llamativo el ciclo de miniaturización de AMD. Tenemos que en su desarrollo de CPUs AMD va a la saga de Intel, algo que pudimos ver con el Brisbane pasando a 65nm un año después de que el Presler de la firma azul se pasara a ese proceso de manufactura, y esta semana con la familia Penryn siendo pionera en 45nm. Muy por el contrario, en la miniaturización de GPUs, una vez más ATI va un paso más adelante que NVIDIA mudándose a los 55nm y, tenemos que decirlo, con bastante éxito.

Al respecto, pudimos ver que este avance en el proceso productivo influye, y mucho, en la disipación térmica. Mientras la HD2900XT era una verdadera estufa y venía con un ventilador bastante ruidoso, las HD38xx se mantienen bastante más frescas y el ruido del ventilador es completamente tolerable. Ahora bien, uno podría pensar que esto no es mérito de los 55nm sino un problema de la 2900XT, pero también hay que notar que comparando soluciones de un solo slot, la temperatura y refrigeración de la HD3850 es mejor en todo sentido que la de la 8800GT.

Hay otro aspecto que va de la mano con la reducción en el proceso productivo, y es que permite meter más transistores en menos espacio. Con núcleos de 192mm2, AMD puede sacar más procesadores gráficos por cada oblea de silicio, y esto definitivamente redunda en el precio final del producto. Ahora bien, es difícil establecer una comparación clara entre las HD38xx y su competencia directa la 8800GT, puesto que para ambas tenemos sólo precios sugeridos o valores inflados de pre-venta. Por ejemplo, para las Radeon tenemos un precio sugerido que varía en torno a los USD 250 para la 3870, y unos USD 30 menos para la 3850. En el fondo, tenemos a la hermana mayor convertida en un producto infinitamente más conveniente que la HD2900XT con ventajas claras como la decodificación UVD, la compatibilidad PCIe 2.0, DX 10.1 y Shader Model 4.1, y todo esto a un precio bastante menos que los USD 400 de la 2900.

Pero es más: mientras el precio de pre-venta de la 8800GT de 512MB bordea los USD 300, el de la 3870 está bastante ajustado al valor sugerido de USD 250. Si me dicen que el precio final terminará siendo USD 50 menos que la 8800GT cuando ambas se encuentren a plena disponibilidad bueno, yo me lo pensaría. Mal que mal, no sé si pagaría un 20% más por una tarjeta un 15% más potente.

De la misma manera, en el caso de la HD3850 estamos hablando de una tarjeta que en el mediano plazo estará en un precio algo inferior a la 8800GT de 256MB y que la ubica a mitad de camino entre ésta y la Geforce 8600GTS, en un rango medio-alto en donde NVIDIA podría verse obligada a canibalizar sus propios productos con tal de no cederle el segmento a su rival.

Por todo lo anterior, aunque el núcleo RV670 no es, ni de cerca, la bomba de rendimiento que pueda destronar a las 8800, sí se vuelve más interesante cuando la variable precio entra en competencia, siempre y cuando la 8800GT se mantenga en los valores que se han visto últimamente en e-tailers. Estamos conscientes de que esto puede deberse a su escasez y si el valor de los modelos de 512 y 256MB baja bruscamente en Diciembre el pronóstico sería muy distinto.

Tenemos que decir, llegado este punto, que el rendimiento de las nuevas estrellas de NVIDIA y ATI está sujeto, por el momento, a drivers inmaduros, y que tanto los Forceware como los Catalyst en estado beta sólo nos dan una aproximación de lo que podemos esperar.

Lo Bueno:
- Exitoso paso a los 55nm
- Disipación térmica completamente aceptable
- Soluciones de refrigeración eficientes
- Prestaciones que su antecesor inmediato no tiene
- Mejor solución para reproducción de medios gracias a UVD y HDMI con audio.
- Sujeto a los valores que veamos en el mediano plazo, podría ser una buena alternativa en precio/ rendimiento.

Lo Malo:
- A primera vista, perder contra la 8800GT no causa buena impresión.

Lo Feo:
- La Radeon HD 2900 XT que es cara, ardiente y de mediocre rendimiento.
Ninja!
Google