sábado, 28 de marzo de 2015

Inteligencia Artificial



Una de las grandes razones por la cuales se realiza el estudio de la IA es él poder aprender más acerca de nosotros mismos y a diferencia de la psicología y de la filosofía que también centran su estudio de la inteligencia, IA y sus esfuerzos por comprender este fenómeno están encaminados tanto a la construcción de entidades de inteligentes como su comprensión.



El estudio de la inteligencia es una de las disciplinas más antiguas, por más de 2000 años los filósofos no han escatimado esfuerzos por comprender como se ve, recuerda y razona junto con la forma en que estas actividades deberían realizarse. Según John Mc Carthy la inteligencia es la "capacidad que tiene el ser humano de adaptarse eficazmente al cambio de circunstancias mediante el uso de información sobre esos cambios", pero esta definición resulta muy amplia ya que de acuerdo con esta, el sistema inmunológico del cuerpo humanó resultaría inteligente ya que también mediante el uso de información este logra adaptarse al cambio. Otra interesante manera de ilustrar la inteligencia seria recurrir a la teoría societal de la mente de Marvin Minsky donde cada mente humana es el resultado del accionar de un comité de mentes de menor poder que conversan entre sí y combinan sus respectivas habilidades con el fin de resolver problemas.






Episodios de la Inteligencia Artificial:




  • EPISODIO 1: La Edad Oscura (1950-1960) - Redes neuronales.

La inteligencia artificial nació por el intento de mostrar de forma muy parecida a la manera en que pensamos, o sea, una simulación del cerebro humano.
De qué trata la red neuronal?
Es una red que utiliza aprendizaje, en la cual el proceso cambia el peso o tamaño en respuesta a la información de entrada. Entre sus características hay que destacar 4 aspectos: su topología, el mecanismo de aprendizaje, relación entre la información de entrada y salida y la manera en que representan esta información.



Acontecimientos que aportaron en la investigación de redes neuronales:

1936 – Gracias al matemático Alan Turing por estudiar el cerebro humano  como forma de ver el mundo de la computación.





1943 – Warren McCulloch y Walter Pitts, quienes fueron los primeros teóricos en dar los fundamentos de la computación. Lanzaron una teoría en la forma de cómo trabajan las neuronas. Ellos moldearon una red simple mediantes circuitos.

1949 – Donald Hebb escribió un libro importante: La organización del comportamiento. Fue el primero en explicar el proceso de aprendizaje desde un punto de vista psicológico. Establece algunas reglas de como el aprendizaje ocurría.

1950 – Karl Lashley mediante un ensaño, encontró que la información no era almacenada en el centro del cerebro, sino que se distribuían en ella.




1951 – M.Minsky & D. Edmonds: crean el SNARC (Stochastic Neuronal Analog Reinforcement Calculator).

1956 – Congreso de Dartmouth por John McCarthy: por primera vez se da a conocer el concepto de Inteligencia Artificial.

1957 – Frank Rosenblatt comenzó el desarrollo del Perceptrón. Es la red neuronal más antigua y hoy en día se utiliza para reconocer patrones. Este modelo podía generalizar, ósea, después de haber aprendido ciertos patrones podía reconocer otros patrones similares.

1959 – Frank Rosenblatt escribió el principio de la Neurodinámica.



1960 – Se crea el Adaline (Adaptative Linear Elements) por Bernard Widrow y Marcial Hoff. Esta fue la primera red neuronal que resuelve un problema real. Es un filtro que elimina los eco en las líneas Telefónicas.






  • EPISODIO 2: La Edad de La razón(1960-1970) – Lógica automática


En los años 60 cuando Alan Newell y Herbert Simon, que trabajando la demostración de teoremas y el ajedrez por ordenador logran crear un programa llamado GPS (General Problem Solver: solucionador general de problemas, Según el solucionador general de problemas (SGP), este programa se diseñó para que imitara protocolos de resolución de problemas de los humanos. Fue el primer programa que incorporo el enfoque del pensar humano.).

                                        

Alan Newell y Herbert Simon

Éste era un sistema en el que el usuario definía un entorno en función de una serie de objetos y los operadores que se podían aplicar sobre ellos. Este programa era capaz de trabajar con las torres de Hanoi (El objetivo de este juego es crear la pila en otra de las estacas siguiendo ciertas reglas. El problema es muy conocido en la ciencia de la computación y aparece en muchos libros de texto como introducción a la teoría de algoritmos.),

Torre de Hanoi

así como con criptoaritmética (En los problemas de Criptoaritmética, las letras representan dígitos. El objetivo es determinar el valor de cada una de las letras de tal manera que la operación sea correcta aritméticamente.).


y otros problemas similares, operando, claro está, con microcosmos formalizados que representaban los parámetros dentro de los cuales se podían resolver problemas.
Lo que no podía hacer el GPS era resolver problemas ni del mundo real, ni médicos ni tomar decisiones importantes. El GPS manejaba reglas heurísticas (aprender a partir de sus propios descubrimientos) que la conducían hasta el destino deseado mediante el método del ensayo y el error.

1962 -  McCarthy se muda a Standford donde funda el laboratorio de IA en 1963.

1963 - ARPA da un fondo de investigación de dos millones de dólares al laboratorio de IA del MIT.

1963 - Quillian desarrolla las redes semánticas como modelo de representación del conocimiento.
Las redes semánticas han sido muy utilizadas en Inteligencia Artificial para representar el conocimiento y por tanto ha existido una gran diversificación de técnicas.
Ejemplo:




1963 -  Minsky escribe "Steps toward Artificial Intelligence".



Minsky

1964 - Daniel G Bobrow desarrolla STUDENT. Es uno de los primeros programas  de la inteligencia artificial programa que resuelve los problemas de álgebra. Fue diseñado para leer y resolver el tipo de problemas de palabras que se encuentran en los libros de álgebra de la escuela secundaria.

1964 -  Se comienza el desarrollo de BBNLisp en BBN.( era un dialecto del lenguaje de programación Lisp por Bolt, Beranek y Newman).

1965  - Iva Sutherland hace demostración del primer monitor en forma de casco para realidad virtual.




1965 -  Simon predice "por 1985 los ordenadores serán capaces de realizar cualquier trabajo que un hombre pueda hacer".

1965 -  Dreyfus argumenta en contra de la IA.

1966 - Donald Michie funda el laboratorio de IA en Edinburgo.

1968 -  Minsky publica "Semantic Information Processing".

1969 - Minsky y Papert critican el Perceptron.                       
En los años 70, un equipo de investigadores dirigido por Edward Feigenbaum comenzó a elaborar un proyecto para resolver problemas de la vida cotidiana o que se centrara, al menos, en problemas más concretos. Así es como nació el sistema experto.


Edward Feigenbaum

El primer sistema experto fue el denominado Dendral, (El programa DENTRAL fue el primer sistema de conocimiento intensivo que lograba funcionar.), pero el más influyente resultaría ser el Mycin de 1970 (desarrollado por Edward Shortliffe).


Edward Shortliffe

El Mycin era capaz de diagnosticar trastornos en la sangre,  el sistema podía identificar bacterias que causaban severas infecciones, tales como la bacteremia y la meningitis, podía recomendar antibióticos dosificados, basándose en el peso del paciente. y recetar la correspondiente medicación, manejaba una base de conocimiento de aproximadamente unas 500 reglas todo un logro en aquella época que incluso fueron utilizados en hospitales (como el Puff, variante de Mycin de uso común en el Pacific Medical Center de San Francisco, EEUU).
Poco a poco Mycin fue cayendo en desuso, debido principalmente a alguna de las debilidades que el programa presentaba, y también, por cuestiones éticas y legales que surgían al volcar la responsabilidad de la salud de una persona a una máquina (por ejemplo, si Mycin se equivocaba en algún diagnóstico, ¿quién asumía la culpa, el programador o el médico?).


1970 - Winograd crea SCHRDLU. SHRDLU Es un programa de computadora para la comprensión del lenguaje natural. Fue desarrollado por Terry Winograd en el MIT entre los años 1968 y 1970. SHRDLU permite al usuario interactuar mediante frases simples de inglés. El usuario debe instruir a SHRDLU como mover los objetos de su entorno. Este entorno fue llamado small blocks word (pequeño mundo de bloques). El entorno o mundo de bloques era lo suficientemente simple para poder ser descrito completamente (objetos, características y posiciones) usando un conjunto reducido de palabras en inglés (50 aproximadamente). 




  •  EPISODIO 3: El Movimiento Romántico (1970-80): Ingeniería del conocimiento.


1970-1973 Alain Colmenauer y su equipo de investigación, en la Universidad de Aix-Marseille crean PROLOG (del francésPROgrammation en LOGique) un lenguaje de programación ampliamente utilizado en IA.

Alain Colmenauer

1973 -  Shank y Abelson, desarrollan los guiones, o scripts, pilares de muchas técnicas actuales en Inteligencia Artificial y la informática en general.

Shank y Abelson

1974 - Edward Shortliffe, escribe su tesis con MYCIN, uno de los Sistemas Expertos más conocidos, que asistió a médicos en el diagnóstico y tratamiento de infecciones en la sangre.

1974 - Primer robot controlado por el computador.

1975 - Larry Harris Funda Corp. Artificial Inteligence.

1975 - Frames de Minsky.

1970 1980 creció el uso de sistemas expertos, como MYCIN: R1/XCON, ABRL, PIP, PUFF, CASNET, INTERNIST/CADUCEUS, etc. Algunos permanecen hasta hoy (Shells) como EMYCIN, EXPERT, OPSS.



Historia de la Inteligencia Artificial