Los avances en inteligencia artificial continúan
diariamente, en parte apuntando a aquel desafío que varios
programadores sueñan con cumplir: La superación del famoso Test de Turing.
El hecho de que un sistema artificial pueda demostrar un nivel de
inteligencia capaz de engañar a un humano no sólo habla maravillas de
dicho sistema, sino también de las mentes que lo crearon. Este año el Premio Loebner de Inteligencia Artificial fue para el chatbot llamado Suzette, llegando en primer lugar tras lograr engañar a uno de los jueces.
Todo el que haya probado charlar con un chatbot
sabe que, de una forma u otra, la conversación adquiere ciertas
características que rápidamente nos hacen identificarlo como una máquina
o un software que trata de hacerse pasar por un ser humano. Esta es la esencia del Test de Turing:
Que un sistema artificial pueda demostrar inteligencia de forma tal que
un ser humano sea incapaz de determinar si realmente habla con otro ser
humano o no. A decir verdad, los sistemas están aún bastante lejos,
algo que en parte confirma la postura de ciertos investigadores de
inteligencia artifical al ignorar por completo al Test de Turing. Uno de los fundamentos para esta decisión se basa en que el Test de Turing evalúa el "comportamiento humano" de una máquina, y no el "comportamiento inteligente". Y la diferencia entre ambas cosas es importante. Cuando el "PC Therapist" ganó el Premio Loebner
en 1992, lo hizo gracias a la introducción de errores en su escritura.
En otras palabras, la máquina ganó una prueba de inteligencia pareciendo
ser tan torpe como un humano.
"Suzette" hizo méritos suficientes como para
ser el mejor, pero parte de la responsabilidad en el engaño tendría un
factor humano
En 2010, el Premio Loebner lo ganó un chatbot conocido como "Suzette", desarrollado por Bruce Wilcox, programador de inteligencia artificial quien ha intervenido en algunos títulos como Army Men y Green Rogue. El premio es simbolizado por la "modesta"
suma de tres mil dólares, y Suzette logró superar a sus rivales después
de haber engañado a uno de los jueces con su charla. En promedio, se
suelen utilizar conversaciones de cinco minutos para determinar qué tan
buena es una máquina imitando a un humano, pero en este Premio Loebner
la sesión se extendió por un total de 25 minutos, algo que requiere un
nivel de atención superior tanto por el lado del juez como por el lado
de quien desarrolló al chatbot.
Sin embargo, cabe mencionar que en algunos casos, el chatbot no gana por sí solo. Después de todo, el chatbot representa la mitad de la ecuación, ya que el juez debe mantener una conversación con un ser humano. Si por alguna razón ese humano decide exhibir un comportamiento más "robótico" a través de su conversación, podría asistir al chatbot de forma indirecta para que gane el premio. En este caso, los jueces eran profesores, y los participantes estudiantes. Tal vez sólo quisieron complicarle la vida a los profesores a través de un engaño elaborado, o tal vez hayan existido otros intereses. Aunque eso ya sería entrar en la más pura especulación, no se puede descartar por completo. Después de todo, aún hay personas dentro del círculo ajedrecista que creen que Garry Kasparov se dejó perder contra Deep Blue en 1997...
Sin embargo, cabe mencionar que en algunos casos, el chatbot no gana por sí solo. Después de todo, el chatbot representa la mitad de la ecuación, ya que el juez debe mantener una conversación con un ser humano. Si por alguna razón ese humano decide exhibir un comportamiento más "robótico" a través de su conversación, podría asistir al chatbot de forma indirecta para que gane el premio. En este caso, los jueces eran profesores, y los participantes estudiantes. Tal vez sólo quisieron complicarle la vida a los profesores a través de un engaño elaborado, o tal vez hayan existido otros intereses. Aunque eso ya sería entrar en la más pura especulación, no se puede descartar por completo. Después de todo, aún hay personas dentro del círculo ajedrecista que creen que Garry Kasparov se dejó perder contra Deep Blue en 1997...
No hay comentarios:
Publicar un comentario