
Imagínense que en el próximo debate electoral en Madrid apareciera un nuevo candidato desconocido que convenció a la mayoría de la audiencia. Y que este panorama dialéctico no lo dio una persona, sino una computadora. Este es el ámbito en el que se mueve el último hito de la inteligencia artificial, la complejidad del debate y los oradores humanos. La empresa IBM presenta en la revista científica más prestigiosa, Naturaleza, un logro en el que han estado trabajando durante casi una década: una máquina que puede convencer con argumentos. El equipo científico sostiene que se trata de un gran salto respecto a las brillantes victorias que los cerebros de silicona han logrado contra los humanos en campos como el ajedrez, el Go y los videojuegos más avanzados.
Esta máquina con voz femenina, denominada Project Debater, es capaz de estudiar un tema controvertido, como la legalización de las drogas o los subsidios al jardín de infancia, para pronunciar un discurso articulado defendiendo una posición a favor o en contra. No solo eso: en la dinámica de los debates que ha tenido con expertos en discursos públicos, también ha demostrado que puede refutar los argumentos de su oponente. El resultado: el 64% de los especialistas que formaron parte del jurado opinaron que la máquina funcionó bien como orador convincente en el debate.
Necesitamos alejarnos de los juegos, de los desafíos del blanco y negro. La inteligencia artificial se ocupará de la subjetividad de la realidad humana
Ranit Aharonov, IBM
La máquina comete errores particulares desde la perspectiva humana. En la defensa del uso de la inseminación artificial, por ejemplo, Project Debater incluyó argumentos que se referían a la inseminación del ganado, “algo que puede sonar extraño en este debate” se reconoce. el equipo científico en Naturaleza. Esto se debe a la forma en que la computadora IBM construye su argumento, basado en cuatro módulos de trabajo: “Estos errores de naturaleza compleja ilustran la necesidad de una comprensión general y matizada del contexto”, muestran los investigadores en el estudio.
Los dos primeros pasos que da la máquina se centran en recopilar contenido y argumentos. Una vez determinado el tema de discusión, el programa recupera argumentos de una gran base de datos de 400 millones de artículos periodísticos, estructurados gracias a los conceptos catalogados por Wikipedia. Posteriormente, la máquina encuentra similitudes entre el razonamiento general de diferentes debates; Si se discute la prohibición de sustancias o actividades, por ejemplo, se incrementa la posible aparición de un mercado negro.
Documental sobre Debate de Proyectos realizado por IBM.
Además, Project Debater comienza en el mismo proceso de analizar un problema como posibles contraargumentos para el razonamiento predecible que usará su oponente. También usa términos clave que pueden apelar a los sentimientos, como “dañino”, para reforzar su habla. Finalmente, la máquina es capaz de torcer un argumento que evita el despido y tiene una forma convincente, no una simple concatenación de oraciones y datos. Los discursos son lo que los jueces juzgaron para concluir que funciona.
Aunque no se menciona en el estudio, este robot con forma de televisión de largo alcance también utiliza muchos dispositivos retóricos humanos. Por ejemplo, parece haber atacado la autoestima de su rival humano al descartar sus argumentos como ingenuos, anticuados o románticos. En otro, informa en voz alta la cantidad de palabras que su oponente dice por minuto y le grita a la multitud mientras exclama: ‘No se apresure, tenemos suficiente tiempo. Por favor, reduzca la velocidad y presente sus argumentos con calma. Los programadores se aseguran de no escribir una frase con él, excepto la frase de saludo para cada evento.
La compañía buscaba un nuevo desafío después de sus dos grandes éxitos anteriores: cuando Deep Blue descifró la mecánica del ajedrez para derrotar a Garry Kasparov y cuando Watson deconstruyó el lenguaje natural para ganar el popular concurso televisivo. Peligro. Pero el desafío fue notable, como explicó el gerente de proyecto, Ranit Aharonov, en un documental de IBM sobre su máquina: “A diferencia de los juegos, no se obtiene un resultado final ganador claro en problemas reales. Necesitamos alejarnos de los juegos, de los desafíos del blanco y negro. La inteligencia artificial ahora se va a ocupar de la subjetividad de la realidad humana “, explica Aharonov, quien firmó el estudio con su equipo.
IBM ya vende su proyecto para “tomar mejores decisiones” en el ámbito empresarial, legal y médico, pero incluso habla del “futuro de la democracia”
Su equipo asegura que sacó la inteligencia artificial de la ‘zona de confort’, solo las reglas de los juegos. En ese campo, las máquinas siempre pueden optimizar su desempeño con miras a la victoria, utilizando atajos y solo reforzando estrategias de victoria efectivas, algo que es inútil en un contexto subjetivo como la argumentación. En este caso, los siguientes pasos tampoco están predefinidos: un peón se mueve directamente a través del plato y come de forma oblicua, pero ¿cuál es un buen argumento? Queda por ver si este desarrollo informático proporcionará pistas que hagan que el razonamiento humano sea como un calcetín, como sucedió con el ajedrez y el Go cuando la inteligencia artificial aterrizó en sus tableros.
Por el momento IBM ya está vende tu proyecto para ‘tomar mejores decisiones en tiempos de bulo y cámaras de eco’, como soluciones estratégicas de negocio, redacción de argumentos legales y análisis de posibles tratamientos médicos. Pero se atreve a ir mucho más allá, e incluso habla del ‘futuro de la democracia’. En la ciudad suiza Se utilizó Lugano para “entender” lo que piensan los ciudadanos de los vehículos autónomos sin conductor. Allí la máquina se acababa de alimentar con las mil opiniones dejadas por los lugareños. Una experiencia que ilustra la duda por cómo deciden las inteligencias artificiales, con qué sesgos y qué intereses, en función de la información aportada, y por ejemplo a la hora de determinar qué ciudadanos intervienen en la conversación.
“La inteligencia artificial no podrá tomar decisiones moralmente correctas porque la moralidad es exclusiva de las personas”, dijo la ‘voz suave femenina’ de Project Debater. en la Universidad de Cambridge, en un debate al respecto. Un argumento que puede calmar a quienes temen las consecuencias de su desarrollo, hasta que más adelante añade una afirmación que puede entenderse como contradictoria: “La inteligencia artificial tiene una tasa de error menor que los humanos”.
Me puedes escribir javier@esmateria.com y siga SUJETO en Facebook, Gorjeo y Instagramo regístrate aquí para recibir nuestro boletín semanal.