LightGen propone computación fotónica para acelerar la IA generativa más allá del silicio

LightGen propone computación fotónica para acelerar la IA generativa más allá del silicio

Investigadores de la Shanghai Jiao Tong University y la Tsinghua University han presentado LightGen, un chip de computación totalmente óptica diseñado para afrontar las enormes demandas energéticas y de rendimiento de la IA generativa. El trabajo, publicado en la revista científica Science, plantea un cambio radical de paradigma al sustituir los transistores electrónicos tradicionales por neuronas fotónicas, utilizando luz en lugar de electrones para procesar información.

El objetivo es claro: romper los cuellos de botella energéticos que hoy limitan la escalabilidad de los grandes modelos generativos, especialmente en centros de datos y sistemas de alto rendimiento.

Más de dos millones de neuronas ópticas en un solo chip

A diferencia de procesadores ópticos anteriores, limitados a unos pocos miles de neuronas y tareas relativamente simples como clasificación de imágenes, LightGen da un salto masivo en escala. Gracias a empaquetado 3D avanzado, el chip integra más de dos millones de neuronas artificiales en una superficie de apenas un cuarto de pulgada cuadrada.

Esta densidad permite abordar tareas generativas complejas, como generación de vídeo en alta definición o modelado 3D, que hasta ahora estaban reservadas casi en exclusiva a GPUs electrónicas de gama alta. El enfoque demuestra que la computación óptica ya no está limitada a pruebas conceptuales, sino que puede operar en dominios donde la IA generativa real exige gran ancho de banda y paralelismo extremo.

El “espacio latente óptico” como clave del rendimiento

Uno de los avances más relevantes del diseño es el denominado “espacio latente óptico”. Mediante el uso de metasuperficies ultrafinas y matrices de fibra óptica, LightGen es capaz de comprimir y procesar datos de alta dimensionalidad íntegramente mediante luz.

Este enfoque permite trabajar con imágenes a resolución completa, sin necesidad de dividirlas en parches, preservando información estadística crítica que suele perderse en arquitecturas electrónicas convencionales. El resultado es un aumento drástico del rendimiento y del throughput, especialmente en tareas generativas intensivas.

En pruebas de laboratorio, los investigadores afirman que LightGen logra un rendimiento superior en más de 100 veces frente a una NVIDIA A100, aunque siempre en escenarios concretos y controlados, propios de entornos experimentales.

Resultados prometedores, pero aún lejos del mercado

Durante las pruebas, LightGen fue capaz de realizar generación semántica de imágenes a alta resolución y manipulación 3D, alcanzando niveles de calidad comparables a redes neuronales electrónicas avanzadas. No obstante, los propios autores reconocen que la tecnología aún depende de láseres externos y de procesos de fabricación especializados, lo que la sitúa lejos de una comercialización inmediata.

Aun así, el valor del proyecto no reside en su madurez comercial, sino en el camino tecnológico que abre. Como señala Yitong Chen, autor principal del estudio, “LightGen abre una nueva vía para avanzar en la IA generativa con mayor velocidad y eficiencia, proporcionando una dirección clara para la computación inteligente sostenible de alta velocidad”.

Un posible cambio de rumbo para la IA del futuro

LightGen no pretende reemplazar a corto plazo a las GPUs actuales, pero sí plantea una alternativa real al silicio tradicional en un momento en el que el consumo energético de la IA se ha convertido en un problema estructural. Si la computación fotónica logra escalar, integrarse y simplificar su infraestructura, podría redefinir el diseño de aceleradores de IA en la próxima década.

Para el sector, el mensaje es claro: la próxima gran revolución en hardware de IA podría no venir de más transistores, sino de más luz.

Vía: NotebookCheck

Sobre el autor