Description

Find more at GeneAka Marketplace With Recent Update on 21/09

La invento del MIT que ‘inmuniza’ tus fotos contra la manipulación de la inteligencia artificial

Las inteligencias artificiales generativas han permitido que ya no haga falta ser un experto para crear y manipular imágenes con resultados indistinguibles de la realidad. Esta nueva explosión creativa también tiene su reverso oscuro y permite que cualquiera pueda usar las fotos que has subido a tu red social favorita y manipularlas para acosarte o chantajearte. A pesar del aumento de este tipo de delitos, por el momento no hemos encontrado un sistema eficiente que evite esos usos maliciosos de la IA. Al menos hasta ahora. Investigadores del MIT acaban de presentar una nueva tecnología que, según dicen, es capaz de distorsionar estas manipulaciones y evitar que las hagan pasar por reales.

El oficial que afirmó que el Pentágono oculta restos de naves alienígenas denuncia duras represalias

María Duarte

El exoficial de inteligencia de las Fuerzas Aéreas que denunció que EEUU guarda vehículos extraterrestres declara en una audiencia que las “tácticas que usaron para dañarlo personal y profesionalmente fueron bastante duras”

Las nuevas versiones de inteligencias artificiales generativas como Midjourney o Stable Diffusion ya son capaces de convertir texto en imágenes de un fotorrealismo extraordinario. También pueden modificar imágenes existentes y crear una nueva foto manipulada de tal calidad que hasta a los expertos les costaría distinguirlas de las reales.

Como explicamos en el episodio de Control Z: ‘El Fin de la Realidad’ (bajo estas líneas) tanto las fotos como los vídeos dejarán de ser en poco tiempo una prueba documental fiable de nuestras actividades. Esta tecnología se puede usar para el bien —algunos dicen que es el salto creativo más grande que ha dado la humanidad desde el siglo XIX— o para el mal, creando imágenes que sirvan para inculpar a un inocente de un crimen o para mostrar situaciones inventadas con las que acosar a adolescentes en el instituto.

“La rapidez de estas acciones agrava el problema. Incluso cuando el engaño se descubre finalmente, el daño —ya sea reputacional, emocional o financiero— a menudo ya se ha producido. Esta es una realidad para las víctimas a todos los niveles, desde los individuos acosados en la escuela hasta la manipulación de toda la sociedad”, afirma Hadi Salman, estudiante de doctorado del MIT CSAIL y autor principal de un nuevo estudio que propone una herramienta eficaz para solucionar este problema: una tecnología que han llamado PhotoGuard.

Cómo funciona

Los modelos de IA no ven las imágenes como un todo, como hacemos los humanos, sino como un conjunto complejo de datos matemáticos que describen el color y la posición de cada píxel que la forman. PhotoGuard emplea dos métodos de manipulación para ‘inmunizar’ las fotos. El primero introduce pequeñas alteraciones en esta representación matemática de las imágenes que son invisibles al ojo humano. Si alguien intenta utilizar una IA como Stable Diffusion para manipular una imagen que ha sido tratada con este sistema obtendrá como resultado una versión distorsionada de la foto original que para nosotros no será irreal.

En el ejemplo que presentan los investigadores, toman una imagen del cómico surafricano Trevor Noah. Al aplicar PhotoGuard, el resultado es que cualquier intento de usar la IA para modificar la foto de Noah obtiene como resultado un bloque gris.

La segunda técnica se denomina ataque de difusión y los investigadores aseguran que es mucho más compleja. El ataque de difusión altera la forma en que los modelos de IA generan las imágenes, introduciendo señales ocultas que modifican completamente la forma en la que son procesadas. Volviendo a la imagen de Trevor Noah, el equipo consiguió manipular a la inteligencia artificial para que ignorara sus indicaciones de texto y generara una imagen gris que es claramente artificial.

Una prueba realizada con la imagen de Trevor Noah (i).(MIT)

“El progreso de la IA al que estamos asistiendo es realmente impresionante, pero permite usos beneficiosos y maliciosos por igual”, afirma Aleksander Madry, profesor del MIT e investigador principal del CSAIL, que también es autor del artículo. “Por tanto, es urgente que trabajemos para identificar y mitigar estos últimos. Veo PhotoGuard como nuestra pequeña contribución a ese importante esfuerzo”.

Un buena solución, por ahora

// LAST UPDATED ON 21/09
Amazon Most Wished For

Los investigadores reconocen que, a pesar de su eficiencia, el sistema tiene sus limitaciones. Por ahora solo funciona con eficacia con Stable Difussion y no protege a las fotos más antiguas que ya se han subido a internet. Sin embargo, es una técnica que puede complementar otras como la incorporación de marcas de agua invisibles en las imágenes, aunque según nos contaron los expertos en las entrevistas realizadas para Control Z, esas marcas de agua pueden ser también falsificadas por los criminales fácilmente.

La inteligencia artificial traerá el desastre social a corto plazo y nadie sabe qué hacer

Jesús Díaz

Según Ben Goertzel, Avi Loeb y Warren Buffett, la eliminación del 80% de los trabajos será buena para la humanidad a largo plazo. El problema es el nefasto impacto social a corto plazo

Los investigadores piensan que lo más eficaz sería que las empresas tecnológicas lo añadieran automáticamente a las imágenes que sube la gente a sus plataformas. Y animan a los creadores de estos modelos generativos de imágenes y a todas las partes interesadas a colaborar activamente para que tecnologías como la suya sean realmente eficaces, al menos hasta que los delincuentes encuentren la manera de sortearlas.

“Un enfoque colaborativo en el que participen desarrolladores de modelos, plataformas de medios sociales y responsables políticos presenta una sólida defensa contra la manipulación no autorizada de imágenes. Trabajar en este problema acuciante es de vital importancia hoy en día”, afirma Salman. “Y aunque me complace contribuir a esta solución, queda mucho trabajo por hacer para que esta protección sea práctica. Las empresas que desarrollan estos modelos necesitan invertir en la ingeniería de inmunizaciones sólidas contra las posibles amenazas que plantean estas herramientas de IA. A medida que nos adentramos en esta nueva era de modelos generativos, esforcémonos por conseguir potencial y protección a partes iguales.”

Original Post>

//Last UPDATE ON 18/09
Today's deals

Leave a Reply