Skip to content

Origen de la inteligencia artificial

Desarrollo histórico de la inteligencia artificial

Origen de la inteligencia artificial

La Inteligencia Artificial surge definitivamente de algunas publicaciones de la década de 1940 que no tuvieron un gran impacto, pero del influyente trabajo de 1950 Alan Turing, matemático británico, se abre una nueva disciplina de la ciencia de la información. Mientras que las ideas fundamentales se remontan a la lógica griega y a los algoritmos y matemáticas de los árabes, varios siglos antes de Cristo, el concepto de obtener razonamiento artificial aparece en el siglo XIV. Se obtiene la lógica formal del siglo XIX lo suficientemente potente y a mediados del siglo XX se obtienen máquinas capaces de utilizar tales algoritmos lógicos y soluciones.

Podríamos decir que la inteligencia artificial nació como un verdadero concepto en 1956. John McCarthy, Marvin Minsky y Claude Shannon, tres destacados científicos de la época, acuñaron el término durante la Conferencia de Darthmounth como “la ciencia y el ingenio de hacer máquinas inteligentes, especialmente programas de cálculo inteligentes”. Estos científicos señalaron que la sociedad estaría rodeada de máquinas inteligentes en menos de diez años. La verdad es que no fue así, y que esta tecnología se desarrolló tímidamente hasta la década de 1990, cuando realmente comenzó la edad de oro de la IA.

A partir de 1990, la mayoría de las grandes empresas tecnológicas comenzaron a hacer grandes inversiones en esta tecnología. ¿Qué les hizo cambiar de opinión? La razón de esta fuerte apuesta fue que, a las puertas del mundo digital, las empresas se dieron cuenta de que necesitaban mejorar la capacidad de procesamiento y análisis de la enorme cantidad de datos que llegan. La consagración de la AI se produjo en 1997, cuando IBM lanzó Deep Blue, un ordenador que fue capaz de vencer a Garry Kasparov, campeón mundial de ajedrez. Este acontecimiento fue tan importante que incluso dio lugar a grandes películas sobre el futuro tecnológico y en las que, por supuesto, la inteligencia artificial fue una de las protagonistas. Además, es durante esta década, cuando los agentes inteligentes darían lugar a la creación de sofisticados chatbots, o asistentes virtuales, que ahora sabemos que emergen.

Más tarde, algo similar sucedería con Watson, otro ordenador de IBM que ganó el famoso concurso de preguntas y respuestas “Jeopardy! “La computadora IBM Watson salió victoriosa de su duelo contra el cerebro humano”, dijo el presentador del programa de televisión estadounidense ABC.

Fueron años en los que IBM y Microsoft invirtieron enormes cantidades de dinero para liderar la innovación en este campo tecnológico. Ahora, cuando la inteligencia artificial se ha arraigado en nuestras vidas y reemplaza a los seres humanos en diversas actividades, la ética de la IA comienza a ser regulada y todas las empresas conocen la importancia de esta tecnología.

Desarrollo histórico de la inteligencia artificial

Ventajas de la inteligencia artificial

Una ventaja importante de la Inteligencia Artificial es su potencial para completar tareas rutinarias a través de una automatización compleja que aumentará la productividad. En teoría, esto puede incluso eliminar las tareas humanas “aburridas” y liberarlas para que sean cada vez más creativas.

El uso de la Inteligencia Artificial junto con las tecnologías cognitivas puede ayudar a tomar decisiones y acciones más rápidas.

La frase “error humano” nació porque los humanos naturalmente cometen errores de vez en cuando. Las computadoras, sin embargo, no cometen tales errores, asumiendo que estén programadas correctamente. Con la Inteligencia Artificial, los datos pueden ser procesados sin errores, independientemente del tamaño del conjunto de datos.

Con la Inteligencia Artificial se puede argumentar que se pueden reducir los riesgos a los que están expuestos los seres humanos en nombre de la investigación. Tomemos, por ejemplo, la exploración espacial y el rover de Marte, conocido como Curiosidad. Usted puede viajar por el paisaje de Marte, explorándolo y determinando las mejores formas de avanzar, mientras aprende a pensar por sí mismo. El uso de la Inteligencia Artificial puede reportar grandes beneficios en áreas como el pronóstico de la demanda, el diagnóstico médico y la exploración petrolera.

Desventajas de la Inteligencia Artificial

El hardware y el software deben actualizarse con el tiempo para cumplir con los requisitos más recientes. Las máquinas necesitan ser reparadas y mantenidas, lo que supone un gran coste.

Los robots sólo pueden hacer el trabajo para el que están programados. No pueden actuar de manera diferente fuera de cualquier algoritmo o programación almacenada en sus circuitos internos. Y cuando se trata de una mente creativa, nada puede vencer a una mente humana.

Una computadora no puede pensar de manera diferente cuando hace o dibuja algo. Los pensamientos provienen de emociones y experiencias que las máquinas no tienen. Así, la máquina no puede pensar fuera de la caja mientras miles de nuevos pensamientos e ideas llegan a la mente humana.

No hay duda de que las máquinas son mucho mejores cuando se trata de trabajar eficientemente, pero no pueden reemplazar la conexión humana que hace el equipo. Las máquinas no pueden desarrollar un vínculo con los humanos.

En la generación actual, la mayoría de la gente depende en gran medida de aplicaciones como Siri. Con tanta ayuda de la máquina, si los humanos no necesitan sus habilidades de razonamiento, disminuirán gradualmente. En el futuro, con el uso intensivo de la aplicación de la Inteligencia Artificial, el ser humano puede llegar a ser totalmente dependiente de las máquinas, perdiendo sus capacidades mentales.

Estas son algunas de las ventajas y desventajas de la Inteligencia Artificial. Algunas personas también dicen que puede incluso destruir la civilización humana si cae en las manos equivocadas. Pero aún así, ninguna de las aplicaciones de IA hechas a esta escala puede destruir o esclavizar a los humanos (como se muestra en algunas películas como Megatron en Transformers y Ultrón en Marvel). Por lo tanto, no debemos considerar esto como una desventaja.

Desarrollo histórico de la inteligencia artificial

Desarrollo histórico de la inteligencia artificial

Según Jackson, 1986:

  • 1950-1965 Período “Clásico
  1. Gestación (McCulloch y Pitts, Shannon, Turing)
  2. Inicio – Reunión de Darmouth College en 1956 (Minsky, McCarthy)
  3. Redes neuronales, robótica (Shakey)
  4. Búsqueda en un espacio de estado, heurística, LISP
  5. Solucionador de problemas generales (GPS) (Newell, Simon)
  6. Juegos, prueba de teoremas
  7. Limitaciones de búsqueda pura, explosión combinatoria.
  • 1965-1975 Período “romántico”.
  1. Representación “general” del conocimiento.
  2. Redes semánticas (kiwis)
  3. Prototipos (marcos) (Minsky)
  4. Perceptron (Minsky y Papert)
  5. Lógica (Kowalski)
  6. Mundo de bloques (SHDRLU) (Winograd)
  7. Compresión del lenguaje, visión, robótica.
  8. Dificultades de representación “general”, problemas de “juguetes”.
  • 1975-hoy en día período “moderno”. Inteligencia “específica” vs. inteligencia “general”.
  1. Representación explícita del conocimiento específico del dominio.
  2. Sistemas especializados o basados en el conocimiento.
  3. Retorno de redes neuronales (Hopfield, Rumelhart, Hinton), algoritmos genéticos (Holland, Goldberg), reconocimiento de voz (HMM), incertidumbre (RB, lógica difusa), planificación, aprendizaje. Aplicaciones “reales” (medicina, finanzas, ingeniería, exploración, etc.).
  4. Limitaciones: conocimiento “superficial

Según Russell y Norvig, 1995:

  • Embarazo (1943-1956):
  1. McCulloch y Pitts (1943)
  2. Hebb (1949)
  3. Shannon (1950)
  4. Turing (1953)
  5. Minsky y Edmonds (1951)
  6. Colegio Darmouth (1956)
  7. McCarthy, Newell y Simon, “The Logic Theorist”.
  • Entusiasmo y grandes expectativas (1952-1969):
  1. Samuel – Señoras (1952)
  2. McCarthy (1958): LISP: tiempo compartido, programas con sentido común.
  3. Minsky y McCarthy en el MIT dieron forma a gran parte del área.
  4. Minsky, Evans, Student, Waltz, Winston, Winograd, etc.
  5. Trabajo en RN: Hebb, Widrow, Rosenblatt
  • Dosis de la realidad (1966-1974):
  1. Simón predijo que en 10 años habría una máquina inteligente.
  2. Predicciones similares en traducción automática y ajedrez.
  3. Teoría de la integridad NP.
  4. Experimentos evolutivos de máquinas (ahora algoritmos genéticos, estaban bien fundados, pero no producían nada) (Friedberg, 1958).
  5. Minsky y Papert Perceptrons (1969) (aunque irónicamente se descubrió el mismo año de la propagación posterior (Bryson y Ho))
  • Sistemas basados en el conocimiento (1969-1979):
  1. Dendral, Mycin, HPP, Prospector, Winograd, SHDRLU, Shank (sin sintaxis), frames, Prolog, Planner
  2. IA como industria (1980-1988):
  3. R1 / XCON, diseño de quinta generación, carcasas y máquinas LISP.
  4. Retorno de las redes neuronales (1986-presente):
  5. Hopfield, Rumelhart y Hinton y descendientes de SE
  • Acontecimientos recientes (1987-presente):

Cambio gradual hacia lo técnico y alejarse de lo tosco (implica un cierto grado de madurez y estabilidad), por ejemplo, reconocimiento de voz (HMM), incertidumbre (Bayes), planificación (Tweak), robótica, aprendizaje (PAC), etc.

Resumen histórico de las aplicaciones de la inteligencia artificial

Conferencia Dartmouth (1956)

Los científicos Marvin L. Minsky, John McCarthy y Claude Shannon reúnen a expertos en teoría de la información, redes neuronales, informática, abstracción y creatividad. La reunión se considera el germen de la inteligencia artificial y donde se acuña por primera vez el término.

Marvin Minsky público “Pasos hacia la inteligencia artificial” (1961)

El científico da los primeros pasos en el campo de la inteligencia artificial en un trabajo académico. Inspira a otros investigadores y promueve nuevas iniciativas.

ELIZA (1966)

Desarrollado en el MIT, fue uno de los primeros programas en procesar el lenguaje natural y hablar a través de una serie de frases programadas.

Hubert Dreyfus publica “Lo que los ordenadores no pueden hacer” (1972)

La obra del filósofo estadounidense actúa como una revulsiva del entusiasmo inicial por la inteligencia artificial. No es la única crítica en estos años. La financiación es reducida; comienza el invierno

Una computadora derrota al backgammon (1979)

El profesor de la Universidad Carnegie Mellon Hans Berliner crea el programa informático BKG 9.8, que derrota al entonces campeón mundial Luigi Villa. La victoria impulsa nuevos proyectos para juegos más complejos.

Japón inicia el proyecto “Quinta Generación (1981)

El país japonés está invirtiendo en una nueva generación de ordenadores que utilizan técnicas de inteligencia artificial. Buscan crear máquinas capaces de aprender y traducir automáticamente de un idioma a otro.

Martin Fischles y Oscar Firschein describen los atributos de un agente inteligente (1987)

Su trabajo identifica y define muchas otras características de los sistemas inteligentes, además de la capacidad de comunicación. Abre nuevos canales de investigación para la inteligencia artificial.

El proyecto de “Quinta Generación” de Japón termina casi sin resultados (1992)

Después de años de trabajo, la iniciativa no alcanza los objetivos previstos. El fracaso del país asiático contribuye a otras decepciones del momento. Merman financia la investigación.

Deep Blue contra Garri Kaspárov (1997)

Desarrollado por IBM, este ordenador ganó el entonces campeón mundial de ajedrez Garri Kaspárov. El primer juego, en 1996, fue perdido por la máquina. Pero una versión mejorada supera al jugador de ajedrez ruso en 1997.

Una computadora al volante (2005)

Un coche autónomo desarrollado por la Universidad de Stanford (EE.UU.) gana una competición de robots-vehículo después de recorrer 212 kilómetros de desierto sin apoyo humano.

Watson gana Jeopardi (2011)

El ordenador desarrollado por IBM supera a los campeones humanos de la pregunta americana y responde al concurso de televisión, Jeopardi. Nuevos avances en el procesamiento del lenguaje natural.

Una computadora pasa con éxito la prueba de Turing (2014)

El programa, llamado Eugene, fue desarrollado en Rusia y pretendía ser un niño de 13 años.

Microsoft lanza Tay (2016)

La conocida multinacional lanza un chatbot en Internet capaz de aprender interactuando con la gente. Después de sólo un día de funcionamiento, el software se vuelve racista, xenófobo y homófobo. El mismo año que AlphaGo derrota a Ir. Un programa desarrollado por Google DeepMind, derrota al campeón mundial del histórico juego Go. Es uno de los grandes hitos del aprendizaje profundo, una de las técnicas más relevantes en la actualidad en inteligencia artificial.

Libratus gana al póquer (2017)

Creado en la Universidad Carnegie Mellon (EE.UU.), el software se impone a los rivales humanos en un torneo de Texas Hold’em para dos personas. Es un hito para la información imperfecta que caracteriza al póquer.