Hace unos años, conocí a una robot en una cafetería de estilo japonés en Osaka (Japón). Llevaba un kimono tradicional y me saludó desde donde estaba sentada en la esquina de la oscura habitación. Tomó mi pedido y se lo cantó al camarero situado detrás de la barra: "¡Un té!"
Pero yo sabía que la robot no actuaba en solitario. La máquina no entendía nada. Así que di por sentado que en algún lugar del piso de arriba debía haber un humano que controlaba a este androide hiperrealista. Los investigadores lo llaman técnica del "Mago de Oz": controlar un robot a distancia, tal vez engañando a un transeúnte desprevenido para hacerle creer que la criatura mecánica está viva.
Un ejemplo perfecto de estas marionetas de silicio magníficamente elaboradas son los Geminoids teledirigidos del laboratorio de Hiroshi Ishiguro, como el que encontré en el café.
Las inteligencias artificiales (IA) actuales, al igual que el robot que conocí en Osaka, son "débiles", no tienen una comprensión real del mundo. Pero están entrenados mediante gigantescos conjuntos de reglas que contienen grandes cantidades de datos almacenados en internet. Pueden actuar de forma inteligente, pero no pueden entender el verdadero significado de lo que hacen y dicen.
La gente tiende a creer que los robots son más inteligentes de lo que realmente son (ver "Las máquinas son tontísimas, solo intentamos que lo sean un poco menos"). En un estudio reciente realizado por universidades de Italia y Australia, los investigadores demostraron que las personas atribuyen experiencia mental y voluntad a los robots, basándose únicamente en su apariencia. Este tipo de proyección podría estar detrás de la desafortunada redacción de artículos virales que sugieren, por ejemplo, que los robots quieren "dominar el mundo" o que podríamos tener que enfrentarnos a un "alzamiento robótico" (ver La inteligencia artificial necesita otro nombre o la gente seguirá creyendo en robots asesinos). Esto resulta engañoso y confuso, y cuando las personas se sienten confundidas, se asustan. Y el miedo tiene un largo historial de obstaculizar el progreso.
Una herramienta que podría frenar este miedo sería una especie de "prueba de Turing robótica" que pudiera medir la inteligencia de los robots. Podría desarrollarse a partir de la prueba original de Turing como guía. Publicada por primera vez en 1950 por Alan Turing, fue concebida para medir el progreso de la inteligencia artificial mediante la tecnología de la época: terminales de ordenador y teclados. Una persona se comunica con un ser desconocido a través de un texto mostrado en pantalla y debe adivinar si las respuestas están siendo escritas por un humano o por un software. Cuanto más a menudo se confunda a la IA con un ser humano, mejor.
Los bots de conversación actuales rendirían bien en ese tipo de prueba (ver La incómoda sensación de empezar a sentir cariño por un bot de conversación). Lás páginas de citas los usan para engañar a los usuarios y hacerles pensar que una persona real coquetea con ellos. Son tan buenos que hay páginas web que enumeran estrategias para engañarlos y revelar su verdadera naturaleza. (Sugerencia: pruebe con el sarcasmo).
¿Significa eso que los robots están cerca de superar la prueba de Turing?¿Podríamos insertar un bot parlante en un robot y alcanzar la meta? La respuesta es no, por muchas razones. Factores como la mirada humana, la cháchara, los gestos, el tono vocal y otras expresiones emocionales deben ser variados y naturales, y sincronizarse perfectamente. Resultaría extraño, por ejemplo, que el robot nunca rompiera el contacto visual, o que siempre dijera: "¡Me siento genial!" de exactamente la misma manera.
La otra cara de la moneda es que tampoco queremos que los robots sean tan realistas que nos confundamos acerca de lo que saben realmente. No queremos robots cuyas capacidades no están claras para un transeúnte casual, como me pasó con el de Osaka. No queremos robots que puedan engañarnos para creer que son humanos.
Los principios de robótica de Reino Unido, publicados en 2010, abordan justo esto. Ese documento especifica que los robots no deberían ser diseñados para aprovecharse de usuarios vulnerables; que los usuarios siempre deberían ser capaces de "levantar la cortina" (otra referencia al Mago de Oz) y observar el funcionamiento interno del robot. Por ejemplo, podría haber una base de datos que permita a cualquier persona que use un robot obtener detalles sobre su funcionalidad.
Entonces, ¿cómo funcionaría una prueba de robot de Turing en la práctica? Podríamos basarla en el Premio Loebner actual, que ejecuta la prueba en bots de conversación. El Premio Loebner presenta desafíos que duran cinco minutos, 25 minutos, y así sucesivamente. Los mismos tiempos podrían aplicarse a los robots. Por ejemplo, podríamos imaginar que un robot etiquetado como "Turing 25" equivaldría a que la máquina aguanta hasta 25 minutos sin revelarse como no humano. Cualquier robot que sea operado en remoto por un humano en todo momento debería ser etiquetado como tal.
Robots como el que vi en Osaka pueden liberarnos de tareas serviles y repetitivas, del mismo modo que el lavavajillas y la lavadora revolucionaron el papel de la mujer dentro de la sociedad. Si la confusión de la gente acerca de la tecnología lleva a temores irracionales, podríamos correr el riesgo de perdernos una revolución como la provocada por el ordenador e internet, cuyos beneficios ni siquiera podemos imaginar.
No hay comentarios:
Publicar un comentario