ZLUDA, la biblioteca de portabilidad de código diseñada para ejecutar software CUDA fuera del hardware de NVIDIA, ha recibido una actualización que amplía su compatibilidad con ROCm 7, el framework de AMD.
Esta actualización permite utilizar la pila de software más reciente de la compañía en procesos donde el código original fue escrito específicamente para CUDA.
Durante años, CUDA ha dominado el desarrollo de herramientas y librerías en IA. Esta posición ha provocado que una gran parte del software acelerado por GPU esté estrechamente ligado al hardware de NVIDIA, creando una dependencia difícil de esquivar para empresas y desarrolladores. Precisamente por ese motivo aparecieron distintos intentos de adaptar código CUDA a GPUs de otros fabricantes, pero con resultados dispares y, en muchos casos, limitados.
ZLUDA es uno de esos intentos que lleva tiempo circulando en segundo plano. Aunque hoy se percibe como un proyecto independiente, durante una etapa estuvo bajo el desarrollo oficial de AMD. Actualmente el trabajo recae principalmente en Andrzej Janik, responsable de mantener y ampliar la base de código.
La herramienta actúa como un sustituto directo del entorno CUDA: intercepta las llamadas a su API y las redirige a un sistema de ejecución distinto, permitiendo que el software funcione sobre GPUs que no son de NVIDIA sin modificar el código original.
Qué supone ZLUDA con compatibilidad ROCm 7
La compatibilidad con ROCm 7 supone que ZLUDA puede apoyarse en la versión más reciente del framework de AMD, lo que abre la puerta a usar su pila de software actualizada tras la migración del código CUDA. Esto no quiere decir que el resultado sea automáticamente equivalente al uso nativo de CUDA, pero sí que amplía el margen de pruebas y validaciones para quienes trabajan con hardware de Team Red y necesitan ejecutar aplicaciones pensadas originalmente para NVIDIA.
A pesar de ello, ZLUDA sigue en una fase de desarrollo activa, pero aún no se ha convertido en una solución generalizada, sobre todo por la falta de información sobre cómo afecta esta migración al rendimiento. Esa incertidumbre limita su adopción fuera de entornos de prueba o experimentación.
En paralelo, algunas empresas están investigando capas de traducción propias para hacer más flexible el uso de CUDA en sus cargas de trabajo. La idea es similar a la de ZLUDA, permitir que el código no quede atado a un único proveedor de hardware. Sin embargo, en el estado actual estas iniciativas se perciben como implementaciones iniciales, lejos todavía de una adopción amplia en escenarios productivos.