lunes, septiembre 17, 2007

KI 2007 - impresiones

Hace mucho que no iba a un congreso general sobre inteligencia artificial, de hecho el último había sido CAEPIA en 2003, así que me interesaba esta visita a KI (Kunstliche Inteligenz) para darme una idea de lo que estaba pasando en otras zonas y tengo que decir que, en general, quedé bastante decepcionado; aunque sí hubo cosas positivas.
En primer lugar, en el área se siguen usando los eufemismos y términos rimbombantes que suenan sorprendentes, pero únicamente hacen el entendimiento de lo que está pasando más dificil. Hace ya casi cuatro años que escribí al respecto en la Laberintos e Infinitos, en el contexto de "Algoritmos Genéticos". Cuando se enseña Algoritmos Genéticos, no se habla de búsquedas locales, elementos próximos, dominios finitos o convergencia en probabilidad. En su lugar, se usan términos como elitismo, cruzamiento de genes, etc. El problema es que cada vez buscan nombres más extravagantes, y muchas veces, aunque están basados en la misma idea de fondo, esto no es aparente por todos los eufemismos que usan. Esto es lo que yo creo que pasó con el Gas Neuronal Relacional; aunque no he leído el artículo en detalle, no parece ser más que una variación de una red neuronal básica.
Por un lado entiendo el querer demostrar que lo que haces es nuevo, pues así se consigue más dinero para seguir trabajando en eso y se evitan guerras de prioridades, pero esto también provoca problemas al hacer que el área se desarrolle mucho más lento de lo que debería. Por ejemplo, no me puedo quitar de la cabeza el hecho de que a un experto en algoritmos evolutivos le sorprendiera que a mí se me hace tan trivial que, en presencia de elitismo (es decir, si guardas el mejor resultado que has encontrado en todo momento), el algoritmo converge en probabilidad al óptimo. Eso simplemente me demostró que esa persona no tiene ni idea de lo que es realmente el algoritmo evolutivo, a pesar de que ha trabajado con ellos por varios años.

Otra cosa sorprendente, especialmente por la tradición filosófica alemana, es que no se está haciendo mucha filosofía en el área; simplemente tenemos a gente construyendo robots, programando software o, como yo, pensando en algoritmos, pero nadie utilizando estos resultados de forma más abstracta. Tal vez un poco relacionado fue una plática de Thomas Christaller, en que intentó argumentar que el cerebro no es un Sistema Simbólico Físico - cosa con la que estoy de acuerdo - pero se aleja de la belleza de la simplicidad. Básicamente dijo, según recuerdo, que hay unas neuronas que "imitan" el comportamiento que ven; de tal forma, cuando leemos, por ejemplo, estas neuronas imitan el proceso que estaríamos haciendo cuando hablamos, por lo que podemos seguir y entender el texto, como si nosotros lo estuviéramos diciendo, y de esa forma lo procesamos, no como algo simbólico, sino como una actividad neuronal de imitación. Definitivamente no me convence este argumento; y mucho menos porque no he sabido de ningún resultado en las neurociencias que pueda respaldarlo.

Por último, ya que este texto se ha hecho demasiado largo, sólo quiero decir por encima, sin entrar en detalles, los hechos de que los sociólogos/psicólogos utilizan estadísticas sin sentido y sin entenderlas, y las presentan como justificaciones para trabajos que carecen aún más de sentido.
Por el lado bueno, los impresionantes avances en la robótica, en todos los sentidos. Por ejemplo, ya hay un helicóptero autónomo capaz de distinguir figuras mientras vuela (aunque todavía es demasiado pequeño para el Mundo Real). Sigue en pie la meta de que un equipo de robots androides - de los que por cierto ya hay unos muy interesantes que se mueven con bastante fluidez - pueda ganarle al campeón de la FIFA (humano) en el 2050. Yo creo que el éxito de esto dependerá, más que del progreso de la robótica, de cómo se definan las reglas de un juego mixto humano-máquina. Por un lado hay que notar que en el football hay contacto. Una de esas o el robot queda deshecho, o el humano se rompe un hueso - imagínense un cabezazo entre ellos, por ejemplo.
También, los equipos de robots que juegan tan bien hasta ahora cuentan con un sistema central que los controla a todos al mismo tiempo, y ve todo el campo a la vez; eso sería una clara ventaja para los robots, dado que los humanos no tienen esa omnisapiencia, ni son capaces de comunicarse por otros métodos que los visuales y auditivos, así que si se permiten comunicaciones por WiFi y demás entre las máquinas, sería un juego desigual.
Así hay tantas cosas más, pero no quiero aburrirlos más.

2 comentarios:

Juan dijo...

Yo te apoyo con eso de los algoritmos genéticos, redes neuronales y en general una gran parte de las áreas en inteligencia artificial, donde literalmente abusan de analogías y metáforas para tratar de ‘vender’ mejor su área.

También me parece mucho más difícil el que se pueda hacer investigación seria cuando la mayoría de las personas que lo tratan de estudiar no llegan a entender la teoría que se encuentra detrás y se quedan tan sólo con las analogías.

Bueno, ahí está. Gracias, de verdad que necesitaba sacar esta frustración. Jaja.

Rafael Peñaloza dijo...

Exactamente, Juan. Las analogías per se no son malas, y de hecho son útiles como motivación; pero quedarse en eso y no entrar a los elementos serios es dañino.