Skip to main content
  1. Casa
  2. Computación

Por qué la nueva GPU de Nvidia funciona peor que los gráficos integrados

Cuatro GPU HPC Nvidia H100 una al lado de la otra.
Geekerwan

Uno podría pensar que una GPU que cuesta más de $ 40,000 será la mejor tarjeta gráfica para juegos, pero la verdad es mucho más compleja que eso. De hecho, esta GPU Nvidia ni siquiera puede mantenerse al día con las soluciones gráficas integradas.

Ahora, antes de que te enojes demasiado, debes saber que me refiero al H100 de Nvidia, que alberga el chip GH100 (Grace Hopper). Es una potente GPU de centro de datos hecha para manejar tareas de computación de alto rendimiento (HPC), no para alimentar juegos de PC. No tiene ninguna salida de pantalla, y a pesar de sus amplias capacidades, tampoco tiene refrigeradores. Esto se debe a que, nuevamente, encontraría esta GPU en un centro de datos o en un entorno de servidor, donde se enfriaría con potentes ventiladores externos.

Recommended Videos

Si bien «solo» tiene 14,592 núcleos CUDA (que es menos que el RTX 4090), también tiene una cantidad insana de VRAM y un bus masivo. En total, la GPU tiene 80 GB de memoria HBM2e, dividida en cinco pilas HBM, cada una conectada a un bus de 1024 bits. A diferencia de las GPU de consumo de Nvidia, esta tarjeta también tiene NVLink, lo que significa que se puede conectar para funcionar sin problemas en sistemas multi-GPU.

La pregunta sigue siendo: ¿Por qué exactamente este tipo de GPU es tan malo en el uso general y los juegos?

Para demostrar el caso, YouTuber Gamerwan recibió cuatro de estas tarjetas gráficas H100 para probar, y decidió poner una en un sistema Windows normal para verificar su rendimiento. Este era un modelo PCIe 5.0, y tuvo que ser emparejado con una RTX 4090 debido a la falta de salidas de pantalla. Gamerwan también imprimió en 3D un refrigerador externo diseñado a medida para mantener la GPU funcionando sin problemas.

Se necesita un poco de trabajo incluso para que el sistema reconozca el H100 como una GPU adecuada, pero una vez que Gamerwan logró superar los obstáculos, también pudo activar el soporte de trazado de rayos. Sin embargo, como descubrimos más tarde a lo largo de las pruebas, no hay mucho soporte para nada más en una plataforma que no sea de centro de datos.

En una prueba estándar de 3DMark Time Spy, la GPU solo alcanzó los 2.681 puntos. A modo de comparación, el puntaje promedio para el RTX 4090 es de 30,353 puntos. Esta puntuación coloca a la H100 en algún lugar entre la GTX 1050 de consumo y la GTX 1060. Más importante aún, es casi lo mismo que la Radeon 680M de AMD, que es una GPU integrada.

Las pruebas de juego también fueron mal, con la tarjeta gráfica alcanzando un promedio de 8 cuadros por segundo (fps) en Red Dead Redemption 2. La falta de soporte de software asoma su fea cabeza aquí: aunque el H100 puede funcionar a un máximo de 350 vatios, el sistema parece no poder superarlo de 100W, lo que resulta en un rendimiento enormemente limitado.

Comparación entre la arquitectura de las GPU H100 y AD102.
Gamerwan

Hay algunas razones diferentes para esta pobre muestra de poderes de juego. Por un lado, aunque la H100 es una tarjeta gráfica ultra fuerte en papel, es muy diferente a nivel arquitectónico que la GPU AD102 que alimenta la RTX 4090. Solo tiene 24 unidades operativas ráster (ROP), lo que es una degradación significativa de los 160 ROP que tiene la RTX 4090. Además, solo cuatro de los 112 clústeres de procesamiento de texturas (TPC) pueden representar cargas de trabajo de gráficos.

Las GPU de consumo de Nvidia reciben mucho soporte en el lado del software para funcionar bien. Esto incluye controladores, pero también soporte de sistemas de desarrolladores, tanto en juegos como en programas de referencia. No hay controladores que optimicen el rendimiento de esta GPU para el juego, y el resultado es, como puede ver, extremadamente pobre.

Ya hemos visto el poder de los controladores con Intel Arc, donde el hardware se ha mantenido igual, pero el soporte mejorado del controlador brindó ganancias de rendimiento que hicieron de Arc una opción aceptable si está comprando una GPU económica. Sin controladores Nvidia Game Ready y sin al resto de la pila de software de Nvidia (incluido el siempre impresionante DLSS 3), el H100 es una GPU de $ 40,000 que no tiene por qué ejecutar ningún tipo de juego.

En esencia, esta es una GPU informática, y no una tarjeta gráfica de la misma manera que la mayoría de nosotros las conocemos. Fue hecho para todo tipo de tareas de HPC, con un fuerte enfoque en las cargas de trabajo de IA. Nvidia mantiene una fuerte ventaja sobre AMD en lo que respecta a la IA, y tarjetas como la H100 juegan un papel importante en eso.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Nvidia G-Assist utiliza la IA para hacer los ajustes de los juegos por ti

El nuevo asistente G-Assist AI de Nvidia ya está disponible en la aplicación Nvidia, listo para que los s de escritorio GeForce RTX lo prueben. El concepto apareció por primera vez en 2017 como una broma del Día de los Inocentes antes de convertirse en una demostración tecnológica real el año pasado y, ahora, en un producto de la vida real.
El asistente está diseñado para encargarse de la selección cada vez mayor de configuraciones con las que los s de PC deben lidiar, incluida la configuración del sistema, la configuración del juego y las estadísticas de rendimiento de los gráficos.
La idea es ayudarte a optimizar la configuración de tu PC para que puedas aprovechar al máximo tu GPU Nvidia y los juegos que juegas con ella. En lugar de encontrar una configuración completa perfecta, el asistente es perfecto para cambiar entre diferentes configuraciones dependiendo de lo que esté haciendo.
Digamos, por ejemplo, que la configuración óptima para Cyberpunk 2077 es diferente de la configuración óptima para Assassin's Creed Shadows: con G-Assist, puede cambiar entre los dos más fácilmente. En lugar de recordar todo lo que necesita configurar y hacerlo manualmente, simplemente puede enviar un mensaje a G-Assist a través de texto o un comando de voz.
La tecnología funciona directamente en tu PC, sin siquiera conectarte a Internet, y hay complementos que te permitirán acceder a aplicaciones periféricas y controlarlas a través de G-Assist. Nvidia tiene algunos complementos oficiales a través de asociaciones con marcas como Corsair y Logitech, pero también ha publicado un repositorio de GitHub para ayudar a las personas a crear sus propios complementos de la comunidad para diferentes productos.
Puede descargar G-Assist dirigiéndose a la sección Descubrimiento de la aplicación Nvidia y obtener más información sobre cómo usarlo en el sitio web de Nvidia.

Leer más
La serie RTX 50 es el peor lanzamiento de GPU de los últimos tiempos
Serie RTX 50 Nvidia

Por Jon Martindale de DT en inglés

Nvidia ha tenido algunos lanzamientos de tarjetas gráficas menos que estelares a lo largo de los años. Su serie RTX 2000 fue mal recibida, con poco interés en las características insignia de la época, y la serie RTX 40 apenas nos dejó boquiabiertos. Pero la serie RTX 50 ha sido algo completamente diferente. Es el peor lanzamiento de GPU que recuerdo en mucho tiempo.
Si has estado siguiendo, lo último es que las RTX 5060 y 5060 Ti vuelven a retrasarse. Pero eso es solo una gota más que está rebalsando el vaso, para esta catastrófica generación de GPU.
Al principio, hubo mucho autobombo

Leer más
Cómo serán los nuevos chips ópticos de Nvidia que quieren destrozar a la competencia
Chips ópticos

Este 18 de marzo, el CEO de Nvidia, Jensen Huang, fue el anfitrión y el principal orador de la Conferencia de Tecnología de GPU (GTC) de la compañía en el SAP Center en San José, California. Y una de las novedades importantes que anunció, fue la utilización de chips ópticos, que buscan reducir el uso de energía aún no es lo suficientemente confiable para su uso en las unidades de procesamiento gráfico (GPU).
Tal como informa Reuters, "la óptica coempaquetada, como se denomina a la tecnología emergente, utiliza haces de luz láser para enviar información en cables de fibra óptica entre chips, lo que hace que las conexiones sean más rápidas y con una eficiencia energética superior a las de los cables de cobre tradicionales".
Huang dijo que su compañía usaría la tecnología óptica co-empaquetada en dos nuevos chips de red que se encuentran en interruptores en la parte superior de sus servidores, diciendo que la tecnología haría que los chips fueran tres veces y media más eficientes energéticamente que sus predecesores.
Estos nuevos chips ópticos eso sí tendrían un debut recién en 2026, y Huang fue bastante categórico con la prensa de por qué aún está todo verde para la implementación.
El punto central es que las conexiones de cobre tradicionales eran "órdenes de magnitud" más confiables que las conexiones ópticas coempaquetadas.

"Eso no vale la pena", dijo Huang sobre el uso de conexiones ópticas directamente entre GPU. "Seguimos jugando con esa ecuación. El cobre es mucho mejor".
Para Huang la espera además en esta implementación tiene otra lógica:
"En un par de años, se van a colocar varios cientos de miles de millones de dólares en infraestructura de IA, por lo que se tiene el presupuesto aprobado. Tienes la energía aprobada. Tienes el terreno construido", dijo Huang. "¿Qué está dispuesto a escalar a varios cientos de miles de millones de dólares en este momento?"
El actual producto estrella de Nvidia contiene 72 de sus chips en un solo servidor, consumiendo 120 kilovatios de electricidad y generando tanto calor que requiere un sistema de refrigeración líquida similar al del motor de un coche. El servidor insignia, presentado el martes para su lanzamiento en 2027, empaquetará cientos de sus chips Vera Rubin Ultra en un solo rack y consumirá 600 kilovatios de energía.
Empresarios e inversores de Silicon Valley han depositado sus esperanzas en la tecnología óptica, que creen que será fundamental para construir computadoras cada vez más grandes para sistemas de inteligencia artificial.
 

Leer más