Skip to content

Paradigma de la inteligencia artificial

Diferentes paradigmas de la inteligencia artificial
Rate this post

Paradigma de la inteligencia artificial

El surgimiento y desarrollo de la Inteligencia Artificial ha estado condicionado por ambiciosos objetivos que se han ido perfeccionando y ampliando a lo largo de los años. El primer paradigma en la historia de la IA fue sin duda simular el funcionamiento del cerebro humano, se postula en la idea de que nuestro pensamiento es como una coordinación de tareas simples relacionadas entre sí a través de mensajes en momentos en que el hardware era precario y el desarrollo de esta incipiente ciencia parecía imposible de lograr, pero se lograron resultados discretos al trabajar con neuronas artificiales. En 1958, la primera Red Neuronal compuesta por la sorprendente cantidad de una neurona, vio la luz del Perceptrón Rosenblatt.

Poco después se creó el objetivo de crear un sistema capaz de resolver cualquier situación, pero los problemas de solución eran muy amplios y no pasó mucho tiempo antes de que esta idea se abandonara o, mejor dicho, se perfeccionara. El giro de este paradigma representó el surgimiento de otro paradigma que hasta ahora se mantiene con objetivos cada vez más ambiciosos. Un Sistema Basado en el Conocimiento es la idea refinada de tener un Problema del Solucionador General con la diferencia de que se enfoca en un microcosmos definido por reglas de conocimiento específicas, obtenidas a partir de las experiencias de expertos humanos. Nacido en 1967, Dendral fue el primero de los Sistemas Expertos, marcando el inicio de numerosas aplicaciones basadas en el conocimiento. Actualmente, estos sistemas son uno de los modelos más importantes para el avance de la Inteligencia Artificial.

La Inteligencia Artificial como ciencia, promete la solución a las diferentes dificultades de la vida humana, exploraciones en lugares a los que el hombre no puede acceder, realizar trabajos con riesgos para la vida, tomar decisiones que involucran pensamientos sentimentales y reconocimiento de patrones.

Gracias a los paradigmas o modelos de IA que son sin duda los motores que la impulsan para el desarrollo continuo de nuevos procedimientos y técnicas, los sistemas son cada vez más especializados, más robustos y confiables, sin duda que esta ciencia avanza con un paso firme hacia el futuro y que de hecho es la solución a muchos problemas.

Paradigmas de la inteligencia artificial

Principales paradigmas de la inteligencia artificial

Con cierto paralelismo, han surgido otros campos de la IA que hoy, bien elaborados, toman fuerza y definen su desarrollo. Principalmente identificados como los tres paradigmas del desarrollo de la IA: Redes Neuronales, Algoritmos Genéticos y Sistemas de Lógica Difusa.

Redes neuronales:

Simulan ciertas características del ser humano, como la capacidad de asociar hechos, memorizar, aprender y, por qué no, olvidar. Una red neuronal es un nuevo sistema para el tratamiento de la información, cuya unidad básica de procesamiento está inspirada en la célula fundamental del sistema nervioso humano: la neurona.

La capacidad de aprendizaje adaptativo de estas redes determina el desempeño de las tareas de los modelos creados a través de la formación supervisada o no supervisada. La autoadaptación para encontrar soluciones hasta ahora desconocidas forma parte de sus características de aprendizaje, gracias a que son muy dinámicas y se autoajustan fácilmente. En general, una red después de su formación puede seguir aprendiendo durante toda su vida sin necesidad de que su diseñador cree algún algoritmo para resolver el problema, ya que generan sus propias distribuciones de pesos en los enlaces.

Tienen una gran tolerancia a las fallas en términos de entrada de datos, como la integridad de la red, son capaces de aprender a reconocer patrones con diferentes interferencias, y aunque parte del sistema está dañado, pueden continuar realizando sus funciones hasta cierto punto.

Auto-organizar la información de tal manera que si alguna información no es clara o completa, pueda proporcionar una solución o incluso cuando no ha sido expuesta a estas situaciones.

Los campos en los que se pueden aplicar las Redes Neuronales son muy variados, entre ellos: Maximización de soluciones, reconocimiento de patrones, aprendizaje supervisado y no supervisado y automatización.

Algoritmos genéticos:

Maximizan las soluciones para que imiten la evolución biológica para resolver problemas, seleccionando un grupo de soluciones generadas aleatoriamente más pueden aportar soluciones posibles de ser autorizadas situación presentada en vivo y reproducir técnicas de crossover o presentar mutaciones para producir pequeñas variaciones constitución Los nuevos individuos pasan por otra iteración en la que se descartan los que han empeorado o no han mejorado y se repiten los ganadores. Se espera que los resultados mejoren sustancialmente a lo largo de generaciones, logrando resultados muy precisos.

El objetivo de la AG es estudiar varios escenarios, el mejor de ellos, que en este caso es el que optimiza el resultado del problema dado, es decir, el que se aproxima más a dicho valor numérico, una vez evaluado por la función de evaluación.

Entre las principales funciones de selección de los individuos que se convertirán en padres se encuentran: Función de Selección Proporcional a la Función Objetiva, donde cada individuo tiene una probabilidad de ser seleccionado como padre que es proporcional al valor de su función objetiva; selección elitista, tratar de elegir al mejor individuo de la población; Selección por Torneo, la idea principal es elegir aleatoriamente un grupo de individuos de la población.

Una vez que los padres individuales han sido seleccionados, se les debe hacer una referencia cruzada seleccionando un punto de corte para luego cambiar las secciones. Se puede introducir un operador de mutación para generar pequeñas variaciones en el código genético de los individuos.

Los algoritmos genéticos son aplicables a la ingeniería aeroespacial; la astronomía y la astrofísica para obtener la curva de rotación de una galaxia, determinar el período de pulsación de una estrella variable; para la química; la ingeniería eléctrica; las matemáticas y los algoritmos para resolver ecuaciones derivadas parciales no lineales de alto orden; la biología molecular; el reconocimiento de patrones y la exploración de datos y la robótica para controlar y decidir qué acciones realizar en diferentes situaciones.

Sistemas de lógica difusa:

Manejan y trabajan la certeza de datos difusos, pueden representar matemáticamente conceptos o conjuntos difusos en los cuales no se pueden determinar a partir de umbrales soluciones de datos exactos. En contraste con la lógica clásica, esto funciona con valores entre cero (0) y uno (1) en los que puede haber varios resultados reales con diferentes grados de precisión. Si necesitas determinar si una persona es alta con la ayuda de la lógica clásica, normalmente compararla con un valor numérico para obtener un resultado booleano de verdadero o falso, con la ayuda de la lógica difusa es muy fácil resolver esta dificultad, sólo tienes que trabajar con grados y valores de cuantización asignando, por lo que si una persona de 1,85 metros puede decir que en una escala de cero a[0,1] tiene un valor de 0,92, se le puede asignar el valor cuantificador “en lugar de alto”.

Esta lógica es mucho más adecuada para la vida cotidiana y es capaz de interpretar expresiones como “recientemente frío” o “estoy muy cansado”. Esto se logra adaptando el lenguaje para entender nuestros cuantificadores.

Para los conjuntos difusos también se definen las operaciones de unión, intersección, diferencia o negación complementaria. Cada conjunto difuso tiene una función de asociación para los elementos que indican hasta qué punto el elemento es parte de ese conjunto. Algunas de las formas más típicas de las funciones de pertinencia son lineales, trapezoidales y curvas.

Su base se apoya en reglas heurísticas de la forma SI (expresión) – THEN (acción) donde la expresión que es un antecedente y la acción que es el consecuente son conjuntos nebulosos. Por ejemplo: si ha estado frío durante mucho tiempo, aumente considerablemente la temperatura.

La lógica difusa se utiliza cuando los problemas a resolver tienen una gran complejidad o existen modelos matemáticos precisos para procesar datos altamente no lineales y cuando las definiciones y la envolvente del conocimiento no están estrictamente definidas, para tratar variables lingüísticas, con grados de participación para diferentes conjuntos o términos de variables lingüísticas. Algunos ejemplos de aplicación de Fuzzy Logic incluyen: Sistemas de Control de Aire Acondicionado; Electrodomésticos Familiares; Optimización de Sistemas Industriales; Sistemas Expertos; Bases de datos difusas para almacenar y consultar información inexacta; en Inteligencia Artificial para resolver problemas relacionados con el control industrial y sistemas de decisión en general.

Diferentes paradigmas de la inteligencia artificial

Diferentes paradigmas de IA

Los paradigmas de la IA que hasta ahora se han visto relacionados con la forma en que se trata el conocimiento, es decir, en particular, cómo se adquiere, almacena y utiliza para un propósito en particular, suelen ser para tomar una decisión o resolver un problema. Los paradigmas son muy importantes para llevar a cabo una buena gestión aplicada a la inteligencia artificial que ahora logra tomar decisiones en la resolución de problemas en diferentes áreas del conocimiento. Soporte para procesos de análisis complejos. Estos procesos son necesarios en el descubrimiento de tendencias globales para tomar decisiones efectivas y oportunas y enfrentar los desafíos del mundo globalizado donde el conocimiento y la correcta aplicación aparecen como un factor esencial para el desarrollo de las organizaciones .

El paradigma simbólico o representativo consiste en interpretar el conocimiento humano en términos de descripciones declarativas y simbólicas de entidades modulares de alto nivel y reglas de inferencia utilizadas para manipular estas descripciones simbólicas.

En 1943, Warren McCulloch y Walter Pitts publicaron en su artículo titulado: A logical calculation of che inmanent thoughts in the activity of the nervous system, que marca el comienzo del paradigma conexionista (IAC) (neurocomputación) en este artículo muestra que incluso las formas más simples de redes neuronales artificiales pueden calcular, en principio, funciones, aritmética y lógica. Este paradigma se inspira en nuestro conocimiento actual del funcionamiento del cerebro.

Rosenblueth A., J. N. Wiener y Bigelow, en su trabajo titulado Comportamiento y Teleología, presentaron los fundamentos PARADIGMA LOCALIZED Los reactivos, basados en el comportamiento, al interpretar el comportamiento inteligente en términos de un conjunto de mecanismos de retroalimentación. Se hace hincapié en el hecho de que toda la percepción y toda la acción están acopladas a través de sensores y efectores específicos. Por ejemplo, un robot en movimiento gira a la derecha y evita un obstáculo.

 La mayoría de los problemas son de naturaleza híbrida, por lo que su solución también tendrá que ser hibridada. Así, aparece el HYBRID PARADIGMA (AHI). Es decir, en el control de un robot, podemos necesitar técnicas simbólicas, difusas y neuronales.

(Ortiz, 2006) indica que, dentro de los paradigmas se distribuye PARADIGMA (IAD) que se despliega a principios de los años ochenta, donde se intenta resolver problemas donde el comportamiento colectivo es más eficiente que el comportamiento individual, como son los estudios de inteligencia artificial que hacen el análisis de un solo agente que se encuentra en un entorno no cambiante y que trata de resolver todo el problema sólo con esta entidad.

(Alan, 2007) describe el EVOLUCIONARIO PARADIGMA (IAE), donde éste se produjo a finales de los años sesenta, cuando comenzó a estudiar la incorporación de mecanismos de selección natural para resolver problemas que también se encuentran. Como resultado, un número de algoritmos basados en la teoría de la evolución de Charles Darwin, llevando a cabo una búsqueda estocástica para la solución de un problema fueron creados por la evolución de un conjunto de estructuras y la selección iterativa.

(Delgado S. Hernando A., 2013) describen que existe un PARADIGMA DE REDES NEURALES (IAN) para el aprendizaje y procesamiento automático, inspirado en la forma en que funciona el sistema nervioso de los animales. Es un sistema de interconexiones de neuronas que colaboran entre sí para producir una salida.

(González, 2008) En la década de 1970 surgió un nuevo paradigma en la inteligencia artificial de “sistemas expertos” cuya función es desarrollar de forma similar a los que desarrollaría un experto en una determinada área de trabajo, la idea no es sustituir a los expertos, sino que estos sistemas sirven de apoyo a los expertos en un “dominio” de aplicación específica.

(Mateos, 2013) explica que los Algoritmos Genéticos PARADIGMA son estrategias de búsqueda estocástica basadas en el mecanismo de selección natural y, en algunos casos, en aspectos genéticos naturales involucrados, que imitan la evolución biológica como estrategia para resolver problemas.

En particular, los investigadores Michael Crouse y Errin Fulp de la Universidad de Harvard están creando el primer ordenador que ajusta automáticamente su configuración para defenderse de los ataques informáticos. Utilizan los algoritmos para seleccionar los mejores ajustes; ajustes adaptativos, que mejoran de generación en generación como se explica (Lazalde, 2012).

(UNED, 2010) nos dice que el paradigma de la neurocomputación se inspira en la biología, para resolver algunas de las tareas que se encuentran con frecuencia cuando se intenta reproducir a través de ordenadores atribuidos a la inteligencia humana.