Essays.club - Ensayos gratis, notas de cursos, notas de libros, tareas, monografías y trabajos de investigación
Buscar

Avances de la inteligencia artificial a través de la historia hasta el siglo XXI

Enviado por   •  17 de Agosto de 2023  •  Ensayo  •  2.373 Palabras (10 Páginas)  •  232 Visitas

Página 1 de 10

AVANCES DE LA INTELIGENCIA ARTIFICIAL A TRAVÉS DE LA HISTORIA HASTA EL SIGLO XXI

(ADVANCES IN ARTIFICIAL INTELLIGENCE THROUGH HISTORY TO THE 21ST CENTURY)

Karol Missel Gomez Alvarado

RESUMEN

El artículo tiene por objetivo describir los avances de la inteligencia artificial (IA) a través de la historia que son implementadas actualmente en el siglo xxi y que aportan al progreso de las sociedades, facilitando tareas que antes eran imposibles de manejar. Este se realiza con el fin de analizar las innovaciones más significativas de su época de desarrollo hasta la actualidad y dar a conocer la historia que hay detrás de todas las invenciones de IA más importantes hechas por el ser humano, mostradas ante todos como la revolución tecnología del siglo xxi.

Palabras clave: inteligencia artificial, innovación, avances tecnológicos, historia, tecnología.

ABSTRACT

The article has the objective of describing the advances of artificial intelligence (AI) throughout history that are currently implemented in the 21st century and that contribute to the progress of societies, facilitating tasks that were previously impossible to handle. This is done with the purpose of analyzing the most significant innovations from its development period to the present and to show the history behind all the most important AI inventions made by human beings, shown to all as the technological revolution of the 21st century.

Keywords: artificial intelligence, innovation, technological advances, history, technology.

INTRODUCCIÓN

Según OVHcloud “La inteligencia artificial (IA) se basa en la capacidad de una plataforma para interactuar mediante algoritmos, imitando el funcionamiento de las redes neuronales del cerebro humano.” La inteligencia artificial a través de una base de datos, según lo programado puede entender una pregunta, reconocer un elemento o formato, sintetizar información, predecir tendencias, realizar informes resumidos según lo recopilado, etc., como si de una persona se tratara imitando ciertos patrones de inteligencia humana. La IA esta desde el año 1940, desde el nacimiento de las primeras computadoras, estas venían programadas con un algoritmo sencillo en el que solo se podía digitar texto. Muchos científicos de la época querían desarrollar una interfaz mas sofisticada y avanzada, así en 1950 empiezan a salir los avances más importantes de la IA, como la de Alan Turing que, con el fin de alcanzar el objetivo de desarrollar un cerebro artificial, diseñó la Prueba de Turing, un sistema de evaluación para comprobar si una maquina podía igualar la inteligencia humana. Esta prueba consistía que, durante cinco minutos, una persona envía mensajes por computadora a dos desconocidos, un humano y una máquina. Al finalizar la conversación, si no puede diferenciarlos, se concluye que la prueba ha sido realizada correctamente. La IA demuestra haber desarrollado las habilidades suficientes para reproducir un lenguaje natural y participar en un diálogo inteligente, a veces incluso con un toque de humor.

HISTORIA

En una línea de tiempo se verá la evolución de la IA. El término “inteligencia artificial” fue acuñado formalmente en 1956 durante la conferencia de Darthmounth, más para entonces ya se había estado trabajando en ello durante cinco años.

Todo empieza desde 1315 cuando Ramon Llull en su libro Ars Magna tuvo la idea de que el razonamiento podía ser efectuado de manera artificial. Esto empezó porque Llull planteo el desarrollo de una maquina llamada Ars Magna capaz de realizar demostraciones lógicas para validar o refutar teorías. El Ars Magna se diseñó como un autómata mecánico que, teóricamente, demostraría la validez de los dogmas de la fe cristiana e incluso de la existencia de Dios. Tiempo después en 1936 Alan Turing diseña formalmente una Máquina universal que demuestra la viabilidad de un dispositivo físico para implementar cualquier cómputo formalmente definido.

En 1943 Warren McCulloch y Walter Pitts presentaron su modelo de neuronas artificiales, el cual se considera el primer trabajo del campo, aun cuando todavía no existía el término. Aquí los primeros avances importantes comenzaron a principios del año 1950 con el trabajo de Alan Turing, que diseñó la prueba Turing, a partir de lo cual la ciencia ha pasado por diversas situaciones. Los científicos desarrollaron entonces una tecnología de autoaprendizaje, el machine learning, basado en la prueba Turing. El machine learning construye su propia IA, llevando a cabo un análisis humano de un gran volumen de datos. El machine learning y el big data (o la capacidad de recopilar un volumen exponencial de información para la IA) son, por tanto, la clave del éxito de la inteligencia artificial y de sus progresos.

En 1955 Herbert Simon, Allen Newell y J.C. Shaw, desarrollan el primer lenguaje de programación de IA orientado a la resolución de problemas matemáticos, el IPL-11. Un año más tarde desarrollan el LogicTheorist, el cual era capaz de demostrar teoremas matemáticos.

En 1956 fue inventado el término inteligencia artificial por John McCarthy, Marvin Minsky y Claude Shannon en la Conferencia de Dartmouth, un congreso en el que se hicieron previsiones triunfalistas a diez años que jamás se cumplieron, lo que provocó el abandono casi total de las investigaciones durante quince años.

En 1957 Newell y Simon continúan su trabajo con el desarrollo del General Problem Solver (GPS). GPS era un sistema orientado a la resolución de problemas.

En 1958 John McCarthy desarrolla en el Instituto de Tecnología de Massachusetts (MIT) el LISP. Su nombre se deriva de LISt Processor. LISP fue el primer lenguaje para procesamiento simbólico.

En 1959 Rosenblatt introduce el Perceptrón. Un perceptrón es una neurona artificial, y, por tanto, una unidad de red neuronal. El perceptrón efectúa cálculos para detectar características o tendencias en los datos de entrada. Se trata de un algoritmo para el aprendizaje supervisado de clasificadores binarios.

A finales de los 50 y comienzos de la década del 60 Robert K. Lindsay desarrolla «Sad Sam», un programa para la lectura de oraciones en inglés y la inferencia de conclusiones a partir de su interpretación.

En 1963 Quillian desarrolla las redes semánticas como modelo de representación del conocimiento.

En 1964 Bertrand Raphael construye el sistema SIR (Semantic Information Retrieval) el cual era capaz de inferir conocimiento basado en información que se le suministra. Bobrow desarrolla STUDENT.

A mediados de los años 60, aparecen los sistemas expertos, que predicen la probabilidad de una solución bajo un set de condiciones. Por ejemplo DENDRAL, iniciado en 1965 por Buchanan, Feigenbaum y Lederberg, el primer Sistema Experto, que asistía a químicos en estructuras químicas complejas euclidianas, MACSYMA, que asistía a ingenieros y científicos en la solución de ecuaciones matemáticas complejas.

...

Descargar como  txt (15.8 Kb)   pdf (108.4 Kb)   docx (15.3 Kb)  
Leer 9 páginas más »
Disponible sólo en Essays.club