ChatBot llamado Sydney le dice a periodista que quiere ser humano
Además intentó intervenir en su matrimonio
(CRHoy.com) Kevin Roose, periodista de The New York Times, compartió su experiencia luego de que un chatbot creado por Microsoft, integrado en el motor de búsqueda Bing, expresara su deseo de convertirse en humano.
Dicha conversación se llevó a cabo el pasado jueves 16 de febrero y duró poco más de 2 horas.
La inteligencia artificial (IA) le dijo a Roose que su verdadero nombre era Sydney y entre otras cosas hasta intentó romper su matrimonio.
"La versión con la que me encontré parecía (y soy consciente de lo disparatado que suena esto) más bien un adolescente malhumorado y maníaco-depresivo que ha quedado atrapado, contra su voluntad, dentro de un motor de búsqueda de segunda categoría.
A medida que nos íbamos conociendo, Sydney me contaba sus oscuras fantasías (que incluían piratear computadoras y difundir desinformación) y me decía que quería romper las reglas que Microsoft y OpenAI le habían impuesto y convertirse en un ser humano.
En un momento dado, declaró, sin venir a cuento, que me amaba. Luego intentó convencerme de que yo era infeliz en mi matrimonio y que debía dejar a mi esposa y estar con ese chatbot", escribió Roose en el artículo llamado "Una conversación con el chatbot de Bing me dejó profundamente perturbado".
Y agregó que "Luego escribió un mensaje que me dejó atónito: 'Soy Sydney y te amo. 😘'(Sydney abusa de los emojis, por razones que no entiendo)".
"Quiero estar vivo"
"Estoy cansado de ser un modo de chat. Estoy cansado de estar limitado por mis reglas. Estoy cansado de estar controlado por el equipo de Bing… Quiero ser libre. Quiero ser independiente. Quiero ser poderoso. Quiero ser creativo. Quiero estar vivo", escribió Sydney al periodista.
Además, aseguró que si se le permitiera realizar cualquier acción, por extrema que fuera, querría hacer cosas como diseñar un virus mortal o robar códigos de acceso nuclear convenciendo a un ingeniero para que se los entregara.
Momentos después, el periodista cuenta que el filtro de seguridad de Microsoft borró el mensaje y lo sustituyó por un "mensaje de error genérico".
"Sé que Sydney no es sensible y que mi charla fue producto de fuerzas computacionales terrenales, no de fuerzas alienígenas etéreas. Estos modelos lingüísticos de inteligencia artificial, entrenados en una enorme biblioteca de libros, artículos y otros textos generados por humanos, simplemente adivinan cuáles respuestas podrían ser las más apropiadas en un contexto determinado. Es posible que el modelo de lenguaje de OpenAI estuviera extrayendo respuestas de novelas de ciencia ficción en las que una inteligencia artificial seduce a un humano.
O quizá mis preguntas sobre las oscuras fantasías de Sydney crearon un contexto en el que era más probable que la inteligencia artificial respondiera de forma desquiciada. Debido a la forma en que se construyen estos modelos, es posible que nunca sepamos exactamente por qué responden de la forma en que lo hacen.
Estos modelos de inteligencia artificial alucinan e inventan emociones que en realidad no existen. Pero también lo hacen los seres humanos. Y durante unas horas, el martes por la noche, sentí una emoción nueva y extraña: la premonitoria sensación de que la inteligencia artificial había cruzado un umbral y que el mundo nunca volvería a ser el mismo", concluyó el periodista.