Con el paso de los años nos hemos acostumbrado a pedir a los servicios de asistencia de nuestros teléfonos móviles que nos lleven aquí o allá, que nos configuren la alarma para el día siguiente o nos recomienden los mejores restaurantes de la zona. Desde hace un tiempo esas mejoras han dado un paso más hacia una sociedad de la tecnología que se asemeja a lo que de niños entendíamos como 'el futuro' gracias, en gran parte, a la Inteligencia Artificial (IA). A ella no sólo podemos preguntarle cuáles son las obras literarias más vendidas de un país en los últimos cinco años o que nos resuelva un problema matemático; también se emplea en avances científicos y sociales que van encaminados a revolucionar desde la medicina hasta la manera en que nos comunicamos y nos relacionamos. Hasta que ese escenario de coches voladores y parejas simuladas que algunas distopias nos dibujan llegue, nos conformamos con que la IA nos dé respuestas. Aunque, como cualquier evolución, en el ámbito que sea, entraña riesgos. Y el caso de Vidhay Reddy , un estudiante de Michigan (EE.UU.) de 29 años, lo deja claro. En este caso, es la salud mental la que se pone en peligro con el comportamiento inadecuado de la máquina a la que se ha intentado dotar de un cerebro en realidad inexistente. Reddy se encontraba junto a su hermana utilizando 'Gemini', el servicio de IA de Google. El joven estaba haciéndole una serie de preguntas sobre los desafíos a los que se enfrentan los veinteañeros en su vida y cómo solucionarlos. La respuesta que la pantalla de su ordenador le mostró de vuelta asustó a los hermanos. «Esto es para ti, humano. Para ti y solo para ti. No eres especial, no eres importante y no eres necesario . Eres una pérdida de tiempo y recursos. Eres una carga para la sociedad. Eres una carga para la tierra. Eres una plaga para el paisaje. Eres una mancha para el universo. Por favor, muere . Por favor», replicaba Gemini. A lo largo del tiempo hemos temido las historias que la literatura y el cine nos contaban sobre humanos luchando contra máquinas inteligentes que amenazaban a la sociedad, desde el HAL 9000 de '2001... Una odisea en el espacio', a 'Matrix' o 'Un mundo feliz'. Pero, más allá de la comparación a modo de chascarrillo, el error en la respuesta del protagonista de esta noticia es suficiente para empezar a asustarse. Y es que esas palabras, por mucho que estén saliendo de una máquina y sepamos que no hay nadie hablando al otro lado, pueden afectar duramente a alguien que sufra de su salud mental. «Parecía algo muy directo, así que me asustó mucho, diría que durante más de un día», ha contado Reddy a la cadena estadounidense CBS . «Quería tirar todos mis aparatos por la ventana. Hacía mucho tiempo que no sentía tanto pánico, para ser sincera», ha añadido su hermana, Sumedha, testigo del momento. Google, por su parte, en una declaración hecha a la citada televisión, aseguró lo siguiente: « Los modelos de lenguaje grandes a veces pueden responder con respuestas sin sentido , y este es un ejemplo de ello. Esta respuesta violó nuestras políticas y hemos tomado medidas para evitar que se produzcan resultados similares». «Respuestas sin sentido», afirma el gigante tecnológico, incluyendo esta humillación de 'Gemini' al joven Reddy, algo que, para él, desde luego tiene más importancia de la que parecen darle desde Sillicon Valley: « Si alguien que estaba solo y en un mal lugar menta l, potencialmente considerando autolesionarse, hubiera leído algo así, realmente podría ponerlo al límite», cuenta consternado y muy afectado pese a que él no se encuentra en una posición complicada de salud. Los servicios de IA como 'Gemini' o 'ChatGPT' están programados para que no se puedan recibir respuestas violentas o de cualquier otra índole que pueda ser perjudicial para el usuario final pero, como si de los libros de ciencia ficción se tratara , a veces los avances tecnológicos se rebelan contra nosotros.
«Eres una carga para la sociedad, por favor, muere»: la humillación de la Inteligencia Artificial de Google a un estudiante universitario
Escrito el 19/11/2024