El efecto ELIZA y los chatbots



Hoy hablemos del efecto ELIZA ¿Qué es?

Muy sencillo, lo explicaré con un ejemplo. Una persona acaba de operar en un cajero automático el cual se despide con un mensaje "Gracias por su visita", entonces esa persona piensa que la máquina le ha agradecido el haber operado en ella, cuando la realidad no es mas que un mensaje escrito por un programador para hacer mas amena la interacción con el humano. La máquina no posee conciencia, no entiende lo que le ha dicho, no es una frase pensada por ella, sino un guión.



El nombre se debe al primer chatbot conversacional homónimo desarrollado por el MIT en los años 60.

Cuando se escribe en una maquina una palabra, esta la procesa mediante el código asociado a esa palabra, pero no la entiende, no posee pensamiento abstracto y por tanto no lo conceptualiza. El código lo ha escrito un ser humano, para que otro ser humano lo entienda y el medio es el ordenador. Se programan las máquinas para que los seres humanos las entendamos, pero las máquinas de por sí no entienden.



Este efecto ELIZA se lleva hasta sus últimas consecuencias cuando hablamos de los "chatbots". Como ejemplo de Chatbot tenemos cualquier bot conversacional ("Cleverbot","Simsimi""Google Asistant""Siri""Alexa" u otro bot) o cualquier androide actual ("Sophia","Harmony", "los robots de Hiroshi Ishiguro" y "Kirobo"). Estos bots conversacionales tienen respuestas guionizadas que dar cuando se le dice determinada cosa.



Es curioso que cuando una persona tiene una conversación con un catbot, acaba insultándole para ver si este se defiende, si le insulta.

Si le preguntas a Sophia cualquier cosa pero mencionas la palabra "futuro" te dirá que es el futuro ignorando el resto del sentido de la oración. Le preguntaron en una entrevista que como se imaginará ella en el futuro (su aspecto físico, su situación... etc) y por mencionar esa palabra, soltó una perorata hablando del futuro de los robots según su compañía sin responder realmente a lo que se le pregunto.

Y este es el problema de los chatbots, que son estúpidos. Si quieres hacer una I.A conversacional que haga una serie de funciones limitadas es perfecto este método, Pero si quieres hacer que vaya mas allá, es decir, vender un robot de compañía (como Harmony o Kirobo) si se queda en un chatbot será completamente estúpido. No entienden nada (Sophia no puede contestar a todas las preguntas del mundo), no conectan significados (Si le preguntas a Google Assistant una noticia como "¿Cuando nació Elon Musk? buscará en internet y te mostrará una breve información de él, ahora pregúntale "¿A que se dedicaba? y al no conectar no sabrá de quien le estás preguntando). Si quieres charlar con un bot siempre te dirá una misma respuesta para la misma pregunta así que te cansarás enseguida.

No hablo de que los bots deban tener conciencia y sentimientos sino de que aprendan a hablar y entiendan el lenguaje para ofrecer muchas más respuestas coherentes, que puedan hacer mas cosas.



Volviendo al efecto ELIZA. Si tuviera que explicar el "porqué se produce" es por varias razones; las personas somos el único ser inteligente que usa lenguaje entre otras cosas, por ello, al ver que una máquina se comunica con nuestros símbolos, ya creemos que es inteligente, obviando el "efecto títere", por que sencillamente no nos solemos parar a pensar. Otra razón es la costumbre, si estamos bien educados, al oir un "gracias" solemos decir "de nada", casi de manera automática con todo el mundo, no es raro pensar que con una máquina lo hagamos instintivamente, como acto reflejo. La tercera razón es la ciencia ficción, que nos "acostumbra" a pensar que las máquinas tienen conciencia sentimientos y demás.

El efecto ELIZA es también responsable del complejo de Frankestein y del miedo a la I.A y su avance. Ejemplo de esto lo tenemos cuando Facebook desarrolló sus dos bots "Bob y Alice" los cuales desarrollaron su propio lenguaje, o la mítica frase de Sophia "Está bien, destruiré a los humanos". No nos van a aniquilar por que carecen de conciencia propia, todo lo que hagan será una broma fácil de sus programadores. Estamos a años luz de desarrollar conciencia en las máquinas, y no creo que ningún gigante de Silicon Valley tenga planeado hacer máquinas con sentimientos.

Este efecto se agrava también con los robots antropomórficos. Si crean un robot "niñera", este estará programado para decir frases de afecto con el fin de agradar a sus dueños y darles un abrazo, estos niños creeran que el robot les quiere, simplemente por el hecho de hacer algo como lo haría una persona.

¿Que piensan del efecto ELIZA?





Comentarios

Entradas populares de este blog

Ghost in the Shell: El alma de la máquina

Trilogía "The Sprawl"

JUGUETES