Pueden “contaminar” imágenes para causar caos en generadores de imágenes con IA

Pueden “contaminar” imágenes para causar caos en generadores de imágenes con IA

Ahora tendremos la capacidad de «contaminar» imágenes para que causen caos en los generadores de imágenes con IA. Los creadores emplean una novedosa herramienta para «afectar negativamente» a los generadores de inteligencia artificial con sus imágenes, generando desorden y confusión.

Con frecuencia, las imágenes generadas por IA se apropian del trabajo de los artistas sin su consentimiento ni compensación. Este conflicto ha perdurado desde que figuras como DALL•E y Midjourney se hicieron populares en 2021, pero los creadores han descubierto un insólito aliado en Nightshade.

Ahora pueden contaminar las imágenes y generan caos en los generadores de IA

Esta reciente utilidad otorga a los creadores el poder de introducir modificaciones invisibles en sus creaciones, lo que generará resultados caóticos e impredecibles cuando se empleen para entrenar modelos de inteligencia artificial. Desarrollada por un equipo dirigido por Ben Zhao en la Universidad de Chicago, Nightshade está lista para reequilibrar el poder a favor de los artistas y creadores.

Los generadores de imágenes de IA han suscitado controversia desde su irrupción. En un pasado, una foto era innegablemente una fotografía, capturada con una cámara y compuesta por un ser humano. No obstante, la IA puede generar imágenes que parecen demasiado realistas, que son difícil distinguir entre una creación computacional y contenido generado de manera natural.

Uno de los principales inconvenientes de la generación de imágenes por IA radica en que los modelos de IA se entrenan utilizando imágenes que se encuentran en internet, muchas de las cuales han sido creadas por artistas que no han autorizado su uso. La finalidad principal de Nightshade, según lo informado por VentureBeat, es encargarse precisamente este problema.

Al «contaminar» deliberadamente los datos de entrenamiento, Nightshade puede perturbar la funcionalidad de futuras iteraciones de modelos de IA generadores de imágenes, lo que produce resultados inusuales. Perros podrían convertirse en gatos, gatos podrían transformarse en ratones y ratones podrían aparecer como seres humanos.

Empresas como OpenAI, Meta y Stability son solo algunas de las que se verán afectadas por esta nueva herramienta y que previamente han tenido que enfrentarse a demandas de artistas que los acusan de infracción de derechos de autor por la utilización no autorizada de su propiedad intelectual.

¿Cómo lo consigue Nightshade?

Nightshade aprovecha una vulnerabilidad de seguridad en los modelos de IA generativa. Los cuales con frecuencia dependen de una gran cantidad de datos recopilados de internet. La herramienta modifica sutilmente los píxeles de las imágenes, volviéndolos diferentes para los modelos de aprendizaje automático, aunque continúan siendo indistinguibles para el ojo humano. Esta técnica desordena la comprensión de los modelos, lo que los lleva a interpretar las imágenes de manera errática.

Los creadores de Nightshade se han comprometido a hacer que su herramienta sea de código abierto, lo que implica que los usuarios podrán personalizarla y desarrollar sus propias versiones para fortalecerla. Dado el tamaño de los conjuntos de datos utilizados por los modelos de IA más grandes. Cuantas más imágenes «contaminadas» se introduzcan en los datos, mayor será la perturbación que esta técnica puede causar.

Una vez que las muestras «contaminadas» se infiltren en el conjunto de datos de un modelo de IA, pueden provocar daños duraderos. Eliminar estas muestras corruptas es un proceso laborioso y se vuelve aún más complejo, ya que la contaminación afecta no solo a la palabra objetivo, sino también a conceptos similares e imágenes relacionadas de manera tangencial (por ejemplo, «perro», «ladrido» y «cachorro» se verían afectados).

Y ¿Si usan esta herramienta con fines maliciosos?

Si bien Nightshade presenta una herramienta poderosa para los creadores. Existe la preocupación de que las técnicas de contaminación de datos puedan ser utilizadas de manera maliciosa. Debido a la forma en que Nightshade opera, estos ataques requerirían miles de muestras «contaminadas» para infligir daño significativo a potentes modelos de IA que utilizan miles de millones de muestras de datos en su entrenamiento. Los investigadores enfatizan la importancia de trabajar en defensas contra tales ataques, pero soluciones sólidas aún no han surgido.

Se planea integrar Nightshade con Glaze, otra herramienta creada por Zhao y su equipo. Que enmascara una imagen y suministra datos inexactos a los modelos de IA. Estas herramientas representan un avance notable en la protección de los derechos de los artistas. Al brindar a los creadores los medios para resguardar su obra del uso no autorizado por parte de las empresas de IA.

La naturaleza de código abierto de Nightshade promete expandir su impacto y empoderar a más creadores para proteger sus creaciones artísticas. Sin embargo, a medida que esta tecnología innovadora evoluciona. También lo hacen los desafíos y responsabilidades para garantizar que se utilice de manera responsable y ética. Puedes obtener más información sobre Nightshade aquí.


Deja un comentario