¿Superinteligentes o idiotas ilustrados?
El
uso de la inteligencia artificial en variadas tareas es algo común hoy en día
pero, ¿los procesos que realizan esas máquinas constituyen realmente
inteligencia? Responder esa pregunta es muy difícil y precisamente por eso, la revista
MIT Technology Review dedicó su
edición de marzo pasado al tema.
Actualmente
se usan softwares capaces de aprender, sin ayuda humana, a jugar juegos de Atari
mejor que los humanos; también hay carros autónomos, ayudantes digitales con
mucha información y anteojos inteligentes capaces de ponerle nombre a las cosas.
Pero no se ha podido resolver un problema fundamental: definir operativamente la
inteligencia para medirla, evaluarla y compararla.
En
un artículo de 1950 titulado Maquinarias de computación e inteligencia,
publicado en la revista Mind, el
científico inglés Alan Turing reflexionó sobre la capacidad de las computadoras
para imitar el intelecto humano. Allí sostuvo que el acto de pensar es muy
difícil de definir y por tanto, si aceptamos que los humanos somos una especie
inteligente, cualquier cosa que exhiba comportamientos que no se puedan
distinguir del comportamiento humano, será también inteligente. A partir de
entonces, ese concepto fue conocido como el Test de Turing y se ha usado como
prueba para medir la inteligencia artificial.
Según
se ha hecho patente la complejidad del tema, la disciplina académica envuelta
en la noción de inteligencia artificial se ha fragmentado en diferentes
especialidades y la investigación se desagregó en tareas más pequeñas y
manejables que dieron lugar a procesos que si bien han generado grandes
avances, han convertido el concepto en algo cada vez más difícil de comparar
con el intelecto humano.
Aunque
la mayoría de los investigadores en inteligencia artificial siguen concentrados
en áreas muy específicas, algunos vuelven a prestar atención a la inteligencia
generalizada y además están pensando en nuevas formas de medir el progreso. Por
ejemplo, para Leora Morgenstern, experta en inteligencia artificial de Leidos,
una empresa contratista de defensa que tiene su sede en Virginia, Estados
Unidos, una máquina mostrará inteligencia sólo cuando pueda probar que una vez
que sabe resolver una tarea que supone un reto para la inteligencia, es capaz
de aprender fácilmente otra tarea relacionada.
Por
su parte, para el profesor Mark Riedl, del Instituto de Tecnología de Georgia (EEUU),
está claro, por ejemplo, que con el tiempo el carro automático lo hará mejor
que los conductores humanos pero ésa sería la única dimensión de su
inteligencia lo que permitiría decir que es más bien un "idiota
ilustrado" ya que es incapaz de hacer nada más. Esa idea ha impulsado al
profesor Riedl a proponer el Test de Lovelace 2.0, una actualización de un
método para medir esta inteligencia presentado en 2001, el cual se sustenta en
la idea de que el rasgo distintivo de la inteligencia humana es la creatividad.
Por ello, para superar el test, una máquina debe ser capaz de crear algo: un
poema, una historia de ficción o una pintura, lo cual no ha sido realizado aún
por ninguna.
Para
la MIT Technology Review, el test de Riedl
está muy lejos de ser el ideal para medir la inteligencia artificial, pero
parece mejor que fijar un único objetivo. De todas formas, aún no existe
ninguna tecnología que se acerque, ni de lejos, a crear una superinteligencia que
supere el complejo intelecto humano, lo cual mantendrá alejado el viejo temor
de que las personas perdamos el control de las máquinas y éstas puedan volverse
contra sus creadores.
Fernando Travieso
Comentarios
Publicar un comentario