En general, pese al enfrentamiento entre los enfoques centrados en los
humanos y los propios de la racionalidad, la IA ha sido desarrollada a través de una
combinación de ciencia empírica, matemáticas e ingeniería, y cada enfoque ha
aportado al avance de la disciplina. La historia de la IA se remonta a la década de
1950, con el diseño de la Prueba de Turing propuesta por Alan Turing (1950), pionero
de la ciencia de la computación y precursor de la informática moderna. Este autor
teorizó sobre la idea de crear máquinas que pudieran pensar y aprender por sí mismas
e introdujo el aprendizaje automático, los algoritmos genéricos y el aprendizaje por
refuerzo respaldándose en el concepto de IA como sistema de imitación del
comportamiento humano.
En el año 1956, algunos autores identificaban como IA al campo de estudio
sobre máquinas pensantes, entre los cuales McCarthy propuso el estudio del
desarrollo de un nuevo lenguaje de programación de alto nivel con el objetivo de dotar
de inteligencia a las máquinas (McCarthy et al., 2006). No obstante, la IA seguía sin
progresar debido a la existencia de vacíos en la comprensión de la inteligencia y en
la forma de estructurarla acorde a esa maquinaria. La propuesta de los doce atributos
de un agente inteligente por parte de Fischles y Firschein (1987) supuso un gran
avance en esta área. Esto permitió la integración eficiente de estructuras para simular
características humanas como el aprendizaje, la adaptación, el razonamiento y la
autocorrección en la carrera por crear máquinas cada vez más similares al hombre.
Sin embargo, en general, se constataba la estructura conductista en la construcción
de los cimientos de la IA, basada en el llenado de información, la repetición
memorística y la delimitación en algunos campos (Padilla, 2019).
Durante los años 90, se inició la creación de los primeros agentes inteligentes,
supercomputadoras que tenían la capacidad de llevar a cabo tareas altamente
complejas, incluyendo algoritmos heurísticos. Uno de los primeros hitos fue el
desarrollo del programa de ajedrez de IBM, Deep Blue, que en 1997 logró vencer al
campeón mundial de ajedrez, Garry Kasparov (Hsu, 2003). A partir de entonces, la
investigación sobre la IA ha generado nuevos enfoques y algoritmos para abordar
problemas específicos. Uno de los avances más destacados son los algoritmos de
aprendizaje automático o de máquina (machine learning). Estos programas de
computadora se centran en aprender a resolver problemas por sí mismos, a partir de
datos y ejemplos previos, en lugar de establecer un conjunto detallado de reglas y
criterios que el ordenador debe seguir para lograr un objetivo. Esta tarea es
especialmente difícil cuando la complejidad del problema es elevada. Los algoritmos
de aprendizaje automático suelen utilizar modelos de redes neuronales (neural
networks) que intentan emular la biología de la mente humana, utilizando neuronas
interconectadas y señales que fluyen entre ellas. Este método de representación y
cálculo se conoce como "aprendizaje profundo" (deep learning) (Jara y Ochoa, 2020).
Este aprendizaje se logra “entrenando” los algoritmos con grandes volúmenes de
datos y un enorme poder computacional, por lo que acceder a sus aplicaciones
prácticas no ha sido posible hasta hace aproximadamente una dcada (Tuomi, 2018).
Actualmente, la IA se encuentra en una fase de crecimiento exponencial y se
espera que tenga un impacto significativo en diversos ámbitos, incluyendo la
educación, la salud y la economía. Sin embargo, también existen grandes
preocupaciones e incertidumbre sobre el potencial impacto de la IA en la
empleabilidad de la población y en la sociedad en general (Lee, 2018).