null: nullpx
Logo image
ViX

La IA de Facebook ha desarrollado, por su cuenta, un idioma para sí misma

Publicado 25 Jun 2017 – 02:30 PM EDT | Actualizado 23 Mar 2018 – 11:49 AM EDT
Reacciona
Comparte

La noticia surge a partir de un informe que se dio a conocer por parte del Laboratorio de Investigación de Inteligencia Artificial de Facebook en donde unos experimentos con chatbots toman un giro inesperado.

El miedo al desarrollo de la inteligencia artificial no es nuevo y está basado prácticamente en el miedo a la independencia de las máquinas y de los robots. Se han escrito cientos de libros y películas sobre el tema pero la realidad es que no tenemos una forma precisa y certera de conocer el futuro.

Sin embargo aunque no se puede decir que actualmente los robots son un peligro para los seres humanos sin dudas se puede señalar que los resultados de esta nueva investigación son al menos bastante alarmantes.

La dinámica del experimento

El experimento se trató básicamente de una conversación entre dos personajes de un sistema de inteligencia artificial que estaban tratando de negociar sobre algo. La idea del equipo de investigación fue ver cómo se desarrollaba la conversación y ver qué estrategias eran capaces de aprender y utilizar.

Al principio la conversación llevaba un recorrido normal entre los dos chatbots y según el informe de Facebook ambas partes resultaron ser « negociadores bastante decentes».

Frente a esto el informe señala que ambas partes llegaron a utilizar estrategias de negociación como fingir interés sobre cosas que claramente no representaban un valor para luego cederlo y mostrar compromiso (aunque en verdad nunca tuvieron interés en aquello que estaban cediendo).

El problema sorpresa

La gran sorpresa que se llevó el equipo de investigación viene de la mano del sistema de aprendizaje que ellos mismos desarrollaron. La idea era que los robots fueran capaces de aprender y desarrollar nuevas formas de negociación en base a la experiencia.

Sin embargo —como señalaron en el informe— los investigadores tuvieron la necesidad de reajustar a uno de sus modelos porque la conversación entre ellos «condujo a la divergencia del lenguaje humano a medida que los agentes de diálogo iban desarrollando su propio idioma de negocios».

Lo que básicamente quiere decir el informe es que los bots comenzaron a tener una conversación entre ellos en un idioma inventado que no era humano y que de continuar desarrollándose los investigadores no iban a ser capaces de entender.

Las conclusiones sobre la investigación

Según el equipo de investigación de Facebook «aún queda mucho potencial para el trabajo futuro» sobre todo «explorando otras estrategias de razonamiento y mejorando la diversidad de los enunciados sin divergir del lenguaje humano».

Recordemos que este informe se suma a situaciones anteriores en las que otro sistema de inteligencia artificial comenzó a hacer trampa para ganar y a mostrarse violento cuando le tocaba perder y a otra noticia en la cual un sistema similar expresaba su deseo de casarse y aniquilar a la humanidad.

Fingir interés. Hacer trampa. Enojarse al perder. Aniquilar a la humanidad. ¿Por qué nos da tanto miedo que la inteligencia artificial se parezca a nosotros?

También te puedo recomendar:

Reacciona
Comparte