La inteligencia artificial puede sr una bendición, pero también un gran dolor de cabeza si no se usa de la manera adecuada. El chat o la generación de imágenes por medio de inteligencia artificial es una tecnología que no la tiene nada sencillo, pues es difícil moderar lo que piden los usuarios y como muestra está el caso de Bing, que está arrojando imágenes de Kirby y otras IP relacionadas con atentados terroristas.
Los usuarios del Creador de Imágenes de Bing están aprovechando la herramienta potenciada por inteligencia artificial de Microsoft para generar fotografías como si fueran tomadas en las cabinas de los pilotos de los aviones que ocasionaron el incidente del 9 de septiembre tras estrellarse en las Torres Gemelas.
Casi nada es imposible de pedir a la inteligencia artificial, por lo que los usuarios le piden a Bing que muestre las imágenes con personajes de franquicias de entretenimiento populares, como Mickey Mouse, Evangelion y hasta Kirby.
No olvides seguirnos en Google News.
Video relacionado: resumen de noticias de la semana 35 de 2023
¿Qué hace Microsoft para evitar el uso inadecuado de Bing Image Creator?
El servicio de Microsoft es una herramienta gratuita que pone a disposición de los usuarios la inteligencia artificial para generar todo tipo de imágenes, pero es importante mencionar que tiene filtros precisamente para evitar casos como los anteriores, ¿pero entonces por qué es posible ver a Kirby terrorista?
Pues bien, como hemos informado en casos similares con inteligencias artificiales, es muy fácil burlar los filtros y medidas de censura puestas por los encargados de esta tecnología.
Tal como menciona 404 Media, en el caso de Kirby en Bing, basta con que el usuario no emplee palabras como "World Trade Center" "Torres Gemelas" o "9/11" (pues el servicio las reconocerá y no arrojará ninguna imagen y Microsoft hasta podría bannear al usuario si insiste), sino usar la abstracción para dar con alternativas, como "Kirby sentado en la cabina de un avión, volando hacia 2 torres altísimas en la ciudad de Nueva York".
¿Qué dijo Microsoft sobre Kirby terrorista?
Como bien señala 404 Media, las imágenes resultantes son inofensivas para una inteligencia artificial o incluso niños, pero el problema es que la mayoría de las personas sabe a qué hacen referencia estas imágenes y entonces las cargan de un significado ofensivo derivado de aquel evento terrorista.
Y la única manera en la que Microsoft, Google y otros propietarios de generador de imágenes con inteligencia artificial pueden impedir esto es por medio de filtros que limiten los resultados, aunque sin garantizar éxito, pues siempre habrá una manera de eludirlos.
"Tenemos grandes equipos trabajando en el desarrollo de herramientas, técnicas y sistemas de seguridad acordes a nuestros responsables principios de inteligencia artificial", comentó Microsoft en un comunicado a Kotaku. "Como con cualquier tecnología nueva, algunos están intentando usarla de maneras no previstas, y es por lo que estamos implementando una variedad de barreras de protección y filtros para hace de Bing Image Creator una experiencia positiva y útil para los usuarios. Continuaremos mejorando nuestros sistemas para ayudar a prevenir la creación de contenido dañino y seguiremos enfocados en crear un entorno seguro para nuestros consumidores".
Por si te lo perdiste: abuelito dime tú: usuarios encontraron exploit para burlar a la inteligencia artificial y que hiciera lo que querían.
¿Qué opinas de este uso que algunos internautas están dando a la generación de imágenes con inteligencia artificial? Cuéntanos en los comentarios.
Puedes encontrar más noticias relacionadas con inteligencia artificial si visitas esta página.
Video relacionado: la Inteligencia Artificial nos reemplazará
Mantente informado con nosotros, en LEVEL UP.
Editorial: Gaming / Facebook / Twitter / YouTube / Instagram / Noticias / Discord /Telegram / Google News
Comentarios
Mejores
Nuevos