Hace unos días, la gran empresa de tecnología estadounidense Google, lanzó en varios países una nueva versión mejorada de su programa Gemini, que maneja inteligencia artificial, pero ahora reconoció que deberá "solucionar reciente problemas" con la función de generación de imágenes. Parece ser que (no se sabe si por casualidad, por ineptitud, a propósito o por los piratas informáticos), los datos que servían de base para la creación de imágenes estaban "alterados". Muy recientemente, un usuario de X (anteriormente Twitter) publicó imágenes del resultado que ofrecía Gemini después de recibir instrucciones para "generar una imagen de un soldado alemán de 1943". La IA había generado cuatro imágenes de soldados: una era blanca, una negra y dos eran mujeres de color, de una forma "realista". Esto pasó luego con vikingos y con el papa. Toda una galería enloquecida.
En principio, y con el beneficio de la duda, pareciera que @GoogleAI tiene un mecanismo de diversidad añadido que alguien no diseñó muy bien o no probó, en la onda de la mal entendida amplitud actual. Una cosa interesante es que las grandes empresas tecnológicas han sido acusadas a menudo de lanzar productos de IA antes de que se prueben adecuadamente. En todo caso, Google se disculpó este viernes diciendo que su equipo “se equivocó” con una nueva función de generación de imágenes para su Chatbot IA Géminis, y que no es su intención no presentar imágenes creadas sin personas de piel blanca. Un ejecutivo de la empresa negó firmemente que quisiera deliberadamente que Gemini negarse a crear imágenes de cualquier grupo particular de personas. No obstante, esta es una alarma en lo que puede ser el manejo no adecuado de la inteligencia artificial.
No hay comentarios:
Publicar un comentario