Introducción a la Inteligencia Artificial - 2010
3
El General Problem Solver (GPS, 1972, Human Problem Solving, Newels and Simon, 1960)
implementa el “mean and end analysis” (análisis de medios y fines) que clasifica a las cosas por
función. Entonces dado un objetivo se pueden encontrar sub objetivos y así siguiendo se puede llegar a
la solución cuando los sub objetivos son los medios disponibles para la solución del problema. Aunque
útil, quedan huecos cuando no hay acción para obtener lo que se desea o existen varias.
Al comienzo se pensó que la traducción automática de textos se lograría con un buen
diccionario, sencillas transformaciones sintácticas y siguiendo las reglas gramaticales de ambos
idiomas. Pero los fracasos no tardaron en convertirse en célebres como la retraducción del inglés al
ruso de la frase “The sprit is willing but the flesh is weak” (El espíritu es fuerte pero la carne es débil)
cuyo resultado nuevamente en ingles fue “The vodka is good but the meat is rotten” (El Vodka está
bueno pero la carne está podrida).
La intratabilidad de algunos problemas aún sencillos y muy bien definidos como el Travelling
Salesman Problem (TSP, el problema del viajante de comercio), que con problemas de micromundos y
pocas reglas funcionaban, pero con unos pocos nodos la solución podía tardar años en encontrarse.
Con la teoría de la completitud NP (Karpp 1972), la explosión combinatoria ( a.10
n
) del espacio de
soluciones se afianzó como una barrera física para la “brute force” y las esperanzas de que el avance
de la técnica micro electrónica resolvería el problema con la construcción de una batería de súper
computadoras en paralelo.
En 1963 McCarthy logró un algoritmo completo para la demostración de teoremas para la
lógica de primer orden apoyándose en el método de “resolución” descubierto por Róbinson, pero la
indecidibilidad de la lógica de primer orden (teoría de la incompletitud , Gödel 1931), al predecir que
existen aseveraciones verdaderas en las que no es posible decidir la validez mediante ningún
algoritmo, las demostraciones automáticas dependen de la “suerte”, que cuando es mala, el tiempo
puede ser indefinido (infinito).
A estos primeros métodos se los llamó “débiles” porque tenían poca información específica y
por medio de pasos elementales se pretendía llegar a soluciones importantes, a pesar de sus objetivos,
los resultados eran pobres.
Así alrededor de los 70 se plantea un nuevo enfoque, se construyeron sistemas basados en el
conocimiento (KBS Knowledge Based Systems). Reunían mucha información de un dominio
específico, donde hubiera un experto que pudiera indicar como manipular la información disponible
por medio de reglas simples del tipo “si A – entonces B”. A estos sistemas se los llamó “Sistemas
Expertos” en la pretensión de simular el comportamiento de un experto humano, en un área muy
técnica y específica. Se construyeron sistemas (Dendral) para determinar la estructura molecular de
compuestos orgánicos a partir de la información de un espectrógrafo de masas, otros como Mycin para
la determinación de infecciones en sangre, que tenía incorporado un calculo de incertidumbre
denominado factores de certeza. En cambio Prospector fue diseñado para colaborar con la localización
de yacimientos de Molibdeno.
Para poder operar con el conocimiento es necesario representarlo y poder hacer un modelo del
mundo sobre el cual se quieren hacer inferencias. Surgen así distintos métodos de representación del
conocimiento en forma simbólica, como la lógica de primer orden, los frames (marcos o planillas), las
redes semánticas, los objetos, etc. Lenguajes que puedan operar con estos paradigmas de
representación como Lisp y Prolog, Smalltalk, y shells especiales.
Hoy se puede hablar de varios tipos de inteligencia. Pero para las ciencias de la computación se
presupone “inteligente” como sinónimo de “racional”, no importando que sea o parezca.