La inteligencia artificial es una ciencia relativamente nueva, su nombre tiene origen en 1956. Esta ciencia tiene muchas áreas de estudio que comprenden la solución de problemas, aprendizaje, percepción, demostración de teoremas y predicción de tendencias, entre otros.

Alan Turing en 1950 propuso una prueba para definir de manera operacional la inteligencia, basada en la incapacidad de diferenciar entes humanos y artificiales. El ente artificial debe poseer un procesamiento de lenguaje natural, representar el conocimiento, razonamiento automático y aprendizaje automático. Estas disciplinas forman las áreas importantes de la inteligencia artificial.

Si un ente es artificial y su comportamiento es autónomo dejar de ser un programa para convertirse en un agente, dentro de la informática un agente debe percibir su entorno, ser adaptativos y cumplir los objetivos para los que fue creado. Estas características busca la racionalidad.

La inteligencia artificial se considera una rama de las ciencias de la computación dedicada al desarrollo de herramientas racionales para la resolución óptima de problemas, relacionada con la automatización del comportamiento inteligente.

Historia de la inteligencia artifical

La historia de la inteligencia artificial se remonta al año 1943 cuando McCulloch y Pitts (McCulloch & Pitts, 1943) publicaron un artículo acerca del cálculo lógico de las ideas inmanentes de la actividad nerviosa caracterizando a las neuronas artificiales. Se realizó utilizando lógica proposicional, debido al carácter digital de la actividad, eventos y relaciones neuronales, esto para determinar el estado y especificar las redes neuronales. Luego Turing publicó el artículo Maquinaria de Computación c Inteligencia en 1950 acerca de la Prueba de Turing.

El término inteligencia artificial se acuñó en la conferencia de Darthmouth en 1956 por John McCarthy, él contribuyó mucho en la nueva ciencia se inventó el lenguaje de programación Lisp, que en los últimos cincuenta años ha sido utilizado para algoritmos de inteligencia artificial por su facilidad de procesamiento de listas y la recursión inherente por ser un paradigma funcional.

En 1963 Quillian desarrolló las redes semánticas como modelo de representación del conocimiento. Un avance importante en inteligencia artificial fue en el campo de los sistemas adaptativos, específicamente en el desarrollo de algoritmos genéticos. John Holland volvió popular a estos algoritmos en su libro Adaptación en Sistemas Naturales y Artificiales en 1975.

En la década de los 1980’s Edward Fcigcnbaum trabajó y publicó el libro La Quinta Generación, donde se introducen los sistemas expertos (aunque la idea fue concebida años atrás), éstos son programas que utilizan la base de conocimiento de la experticia humana para resolver problemas, aunque no tomaron auge hasta la próxima década. Paralelo a todo este desarrollo se fue mejorando el campo de la resolución de problemas, utilizando algoritmos específicos para cada tipo de problema. Se destaca el trabajo de Newell y Simón para formalizar una máquina universal de solución de problemas.

Una de las últimas descripciones dentro de la inteligencia artificial fue la de los agentes inteligentes, propuesta por Fischles en 1987 que también tuvo su auge en la década de los 1990’s.

Llegando a la actualidad solo se tienen mejoras en el desarrollo de las diferentes áreas; entre algunos sucesos importantes están en 1997 la derrota de Deep Blue al campeón mundial de ajedrez Kasparov, lo que llevo a IBM a construir una supercomputadora llamada Watson en 2001 y en el 2006 se celebraron los 50 años de 1A.

Entre los últimos adelantos, se encuentra la realidad aumentada, que aún está en fase de desarrollo, y que busca mediante la transposición de sistemas agregar elementos a la realidad buscando tener más información del entorno.