Nuevas herramientas tienen como objetivo proteger a los artistas de la IA
HogarHogar > Blog > Nuevas herramientas tienen como objetivo proteger a los artistas de la IA

Nuevas herramientas tienen como objetivo proteger a los artistas de la IA

Dec 23, 2023

Preservar la integridad del art.

El auge de las herramientas artísticas de IA amenaza con dejar a los artistas humanos sin trabajo y muchos modelos de IA se entrenan a partir del trabajo de artistas humanos en Internet sin su consentimiento. Sin embargo, se están desarrollando herramientas como Glaze en un intento de engañar a las herramientas artísticas de IA.

Glaze, desarrollado por científicos informáticos de la Universidad de Chicago, utiliza algoritmos de aprendizaje automático para encubrir u ocultar digitalmente obras de arte/imágenes de una manera que frustrará los intentos de los modelos de inteligencia artificial de comprender las imágenes.

Por ejemplo, un artista puede cargar una imagen de su pintura al óleo que haya pasado por Glaze. Esto hará que el modelo de IA lea la pintura como algo así como un dibujo al carbón, a pesar de que es claramente una pintura al óleo para el ojo humano.

Esta herramienta permite a los artistas tomar una imagen digital de su obra de arte, pasarla por Glaze, "y luego tener la confianza de que esta obra de arte ahora se verá dramáticamente diferente para un modelo de IA que para un humano", dijo Ben Zhao, profesor. dijo a CNN.

Según Zhao, el primer prototipo de Glaze se lanzó en marzo de 2023 y ya superó el millón de descargas. A principios de este mes también se lanzó una versión gratuita de la herramienta.

Jon Lam, un artista afincado en California, afirmó que utiliza Glaze para todas las imágenes de su obra de arte que comparte en línea.

"Sabemos que la gente toma nuestro trabajo de alta resolución y lo introduce en máquinas que compiten en el mismo espacio en el que nosotros trabajamos", afirmó Lam. "Así que ahora tenemos que ser un poco más cautelosos y empezar a pensar en formas de protegernos".

Eveline Fröhlich, artista visual radicada en Stuttgart, Alemania, también habló sobre cómo Glaze ha ayudado a proteger a los artistas en la era de la IA.

"Nos dio una forma de defendernos", afirmó Fröhlich. "Hasta ese momento, muchos de nosotros nos sentíamos muy impotentes ante esta situación, porque en realidad no había una buena manera de mantenernos a salvo de ella, así que esa fue realmente la solución". Lo primero que me hizo darme cuenta personalmente es que sí, tiene sentido retroceder”.

Aunque Glaze puede ayudar con algunos de los problemas relacionados con la IA que enfrentan los artistas hoy en día, Lam también afirma que es necesario hacer más para regular cómo las empresas de tecnología pueden tomar datos de Internet para la capacitación en IA.

"En este momento, estamos viendo a los artistas siendo una especie de canario en la mina de carbón", dijo Lam. "Pero realmente afectará a todas las industrias".

Zhao también ha declarado que, desde el lanzamiento de Glaze, su equipo ha recibido una gran cantidad de mensajes de otros campos, como escritores de ficción, músicos, actores de doblaje, periodistas, etc., preguntando sobre una versión de Glaze para su campo.

Otra herramienta reciente destinada a proteger imágenes digitales de las herramientas de inteligencia artificial se llama PhotoGuard. La herramienta fue creada por Hadi Salman, investigador del Instituto de Tecnología de Massachusetts, junto con investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT.

"Estamos en la era de los deepfakes", dijo Salman a CNN. "Cualquiera puede ahora manipular imágenes y vídeos para que la gente haga algo que no está haciendo".

El prototipo de la tecnología coloca una “inmunización” invisible sobre las imágenes que impide que los modelos de IA puedan manipular o alterar la imagen. PhotoGuard funciona ajustando los píxeles de la imagen de una manera imperceptible para el ojo humano. El objetivo de la herramienta es proteger las fotos que las personas suben a Internet de cualquier manipulación por parte de modelos de IA.

La herramienta utiliza dos métodos de "ataque" diferentes para generar las perturbaciones. Uno es el ataque "codificador" que apunta a la representación latente de la imagen en el modelo de IA, haciendo que el modelo perciba la imagen como una entidad aleatoria. El segundo es el ataque de "difusión" que define una imagen objetivo y optimiza las perturbaciones para que la imagen se parezca lo más posible al objetivo.

"Pero este cambio imperceptible es lo suficientemente fuerte y está cuidadosamente elaborado de tal manera que realmente frustra cualquier intento de manipular esta imagen mediante estos modelos de IA", añadió Salman.