La inteligencia artificial más rápida acelerará enormemente su progreso

La inteligencia artificial más rápida acelerará enormemente su progreso

El Wafer Scale Engine (WSE-3) es el chip de IA más rápido del mundo
Sistemas Cerebras

Independientemente de que se considere la IA una herramienta extraordinaria con inmensas ventajas o un perjuicio para la sociedad que sólo favorece a los poderosos, un nuevo chip revolucionario puede ahora entrenarla a velocidades sin precedentes. Cerebras Systems ha presentado el Wafer Scale Engine 3 (WSE-3), el chip de IA más rápido del mundo, que alimenta el superordenador de IA Cerebras CS-3 con un rendimiento máximo de 125 petaFLOPS, y su escalabilidad es notable.

Antes de crear un vídeo entrañable pero ligeramente espeluznante de un gato despertando a su dueño, un sistema de IA debe entrenarse con un volumen de datos realmente notable, consumiendo en el proceso una energía equivalente a la de más de 100 hogares. Sin embargo, el nuevo chip, junto con los ordenadores construidos con él, mejorará la velocidad y eficiencia de este proceso.

Rendimiento revolucionario del chip y compacidad del sistema

Cada uno de los chips WSE-3, del tamaño aproximado de una caja de pizza, contiene la asombrosa cifra de cuatro billones de transistores, lo que supone el doble de rendimiento que el modelo anterior de la empresa, que ostentaba el récord mundial anterior, todo ello con el mismo coste y consumo de energía. Cuando se ensamblan para formar el sistema CS-3, estos chips ofrecen el rendimiento equivalente al de una sala llena de servidores, condensado en una sola unidad del tamaño de una mininevera.

Cerebras afirma que el sistema CS-3 alberga 900.000 núcleos de IA y 44 GB de SRAM en el chip, lo que proporciona hasta 125 petaFLOPS de rendimiento máximo de IA. En teoría, esto debería situarlo entre los 10 mejores superordenadores del mundo, aunque las pruebas de referencia formales aún no han confirmado su rendimiento.

Tratamiento de modelos y capacidad de datos sin precedentes

Para dar cabida a la ingente cantidad de datos, las opciones de memoria externa van desde los 1,5 TB hasta la friolera de 1,2 Petabytes (1.200 TB). El CS-3 supera los estándares actuales al manejar modelos de IA con hasta 24 billones de parámetros, superando con creces el máximo previsto de alrededor de 1,8 billones de parámetros para modelos como el GPT-4. Cerebras afirma que el CS-3 puede entrenar sin esfuerzo un modelo de un billón de parámetros, lo que equivale a la carga de trabajo de los actuales ordenadores basados en GPU que manejan un modelo de apenas un billón de parámetros.

El procedimiento de fabricación de los chips WSE-3 permite que el CS-3 sea escalable. Permite agrupar hasta 2.048 unidades en un único superordenador, que puede alcanzar hasta 256 exaFLOPS, superando la capacidad de los principales superordenadores actuales. Según la empresa, con este nivel de potencia se podría entrenar un modelo Llama 70B desde cero en un solo día.

El rápido avance de los modelos de IA ya es palpable, pero esta tecnología está llamada a acelerar aún más el progreso. Independientemente de la profesión o las aficiones de cada uno, los sistemas de IA seguirán invadiendo diversos ámbitos a un ritmo sin precedentes.


Read the original article on: New Atlas

Read more: Expert Warns of Mental Health Risks from AI Ghosts

Share this post