Un equipo de investigadores ha presentado un dispositivo de hardware de última generación que podría reducir el consumo de energía en aplicaciones de inteligencia artificial (IA).
Tradicionalmente, los procesos de IA requieren transferir datos entre la lógica, donde se procesa la información, y la memoria, donde se almacena, lo que consume una gran cantidad de energía. El equipo de investigadores ha demostrado un nuevo modelo en el que los datos no abandonan la memoria, conocido como memoria de acceso aleatorio computacional (CRAM). Este sistema permite que los datos sean procesados enteramente dentro de la matriz de memoria, eliminando la necesidad de transferencias que consumen energía.
Se ha pronosticado que el consumo energético relacionado con la IA podría duplicarse de 460 teravatios-hora (TWh) en 2022 a 1,000 TWh en 2026, un volumen equivalente al consumo eléctrico de todo Japón.
Según los expertos, un acelerador de inferencia de aprendizaje automático basado en CRAM podría conseguir una mejora cercana a 1,000 veces en comparación con los métodos tradicionales, y en algunos casos, se han reportado ahorros de hasta 2,500 y 1,700 veces. Este avance ha sido el resultado de más de dos décadas de investigación y desarrollo, donde la idea inicial de utilizar celdas de memoria para el procesamiento se consideró revolucionaria en su momento.