MODELAJE Y SIMULACIÓN MULTIAGENTE Y PROBLEMÁTICA DE SOSTENIBILIDAD DEL USO DE LA TIERRA RURAL EN EL CONTEXTO DE LOS CAMBIOS CLIMÁTICOS ACTUALES Y FUTUROS
Enviado por Jerry • 11 de Marzo de 2018 • 15.873 Palabras (64 Páginas) • 456 Visitas
...
agente informático no puede descontextualizarse de lo que se conoce como el campo de la Inteligencia Artificial, y de manera más precisa de una rama de esta última, la Inteligencia Artificial Distribuida (Lujak 2014, Rodríguez 2014), pero más allá, los agentes se desarrollan a la luz no solo de la inteligencia artificial sino de los que se conoce como Ingeniería de Software y Sistemas Distribuidos (Rigau, 2014).
La inteligencia Artificial por su parte ha sido considerada parte de las ciencias cognitivas, tal como se muestra en la figura 1.
Figura 1 (tomada de Varela 2006 REF 28)
Algunos investigadores (Mori 2013) señalan que históricamente parece haber sido Minsky en 1986 quien utilizó primero el término “agente” en su teoría “Society of Mind”. Este investigador buscaba responder a la interrogante de cómo funciona la mente humana en base a unidades mínimas que conformaban sociedades de la mente y en donde un representaba a cada componente de un proceso cognitivo que es suficientemente simple de entender. No obstante, Nwana (citdo por ____) en su artículo “Software Agents: An Overview” (1996) menciona textualmente que “el concepto de agente se remonta a la década de los 70’s cuando Carl Hewitt (Hewitt, Bishop y Steiger, 1973; Hewitt, 1977, citados por Nwana) propone su “Modelo de Actor”, que es un modelo matemático que trata a los “actores” como las primitivas universales de la computación digital concurrente. Planteamientos similares sobre un origen en la década de los años 70 lo plantean Fernández y Gairín (2014 REF 25), cuando señalan que el estudio por los agentes inteligentes se remonta a dicha década, época en que ya confluyen los aportes de la Inteligencia Artificial, la ingeniaría y la arquitectura del software, y se desarrollan autómatas que emulaban el comportamiento de los humanos en acciones repetitivas y se acercaban a características pseudocognoscitivas.
Más allá de las definiciones de actor desarrolladas desde el siglo pasado, el hecho histórico es que la noción de agente ya en la antigua Grecia fue planteada por filósofos como Aristóteles y Platón, e igualmente está incluida en el Derecho Romano y desde entonces se asocia a la idea de persona (o representación, modelo, de ella modernamente) que ejecuta acciones (en beneficio de otra) para lograr algún objetivo.
Avanzando en la conceptualización de lo que es un agente, se tiene la interesante definición genérica de Bratman (1990, citado por Corchado 2004), en la que se le concibe como sistema capaz de definirse correctamente mediante posturas intencionales ya que contiene actitudes que proporcionan información (actitudes de información; creencias, conocimiento) y pro-actitudes (deseo, intención, obligación, compromiso y elección, es decir, todo lo que guía las acciones de un agente dado un conocimiento o creencia).
Hacia 1992 investigadores como Shohan (1992, citado por Mori 2013), señalaban por su parte que si bien el término agente era muy popular este mismo hecho había generado tal variedad de concepciones que se perdía la esencia del concepto asociado a la necesidad de diseñar sistemas de agentes colaborativos, típicos de la inteligencia artificial distribuida, en contraposición del hecho de que se había llegado a considerar agente prácticamente a todo aspecto relacionado con la realización de acciones (por el analogía con el concepto de actor… que acciona cuando actúa). Inclusive, se señala que este hecho explica por qué aún hoy en día no hay consenso acerca de lo que es un agente.
Ya para 1995 se tiene una de las definiciones más aceptadas aún hoy en día de los que es un agente, establecida por Wooldridge y Jennings (1995): “Un agente es un sistema computacional que está situado en algún ambiente y que es capaz de actuar autónomamente en dicho ambiente con el fin de cumplir sus objetivos” (subrayado nuestro), agregándose el que el agente como sistema computacional debe ser capaz (de ser programado para) actuar de forma flexible en ese entorno y que para que sea flexible debe tener las siguientes características: Reactivo, el agente es capaz de responder a cambios en el entorno en que se encuentra situado. Pro-activo, a su vez el agente debe ser capaz de intentar cumplir sus propios planes u objetivos. Social, debe de poder comunicarse con otros agentes mediante algún tipo de lenguaje de comunicación de agentes.
En general, y a fin de ver la definición bastante completa, aunque no del todo acabada que se tenía de los agentes en computación para mediados de la década de los años 90, Wooldridge y Jennings (1995) también agregan las siguientes características a los agentes:
Autonomía: los agentes operan sin la intervención directa de los humanos u otros, y tienen algún tipo de control acerca de sus acciones y estado interno;
Capacidad social: los agentes interactúan con otros agentes (y posiblemente humanos) por medio de algún tipo de lenguaje de comunicación de agentes;
Reactividad: los agentes perciben su entorno (que puede ser el mundo físico, un usuario por medio de una interfaz de usuario gráfica, una colección de otros agentes, INTERNET, o quizá todos ellos combinados), y responden de un modo oportuno a los cambios que en él suceden;
Proactividad: los agentes no actúan simplemente como respuesta al entorno, sino que son capaces de exhibir un comportamiento dirigido por metas tomando la iniciativa.”
Adicionalmente a estas características, se mencionan también las siguientes:
- continuidad temporal: los agentes son procesos continuamente en ejecución;
- adaptación o aprendizaje: los agentes cambian su comportamiento a partir de su experiencia previa;
- movilidad: los agentes son capaces de transportarse a sí mismos de una máquina a otra;
- flexibilidad: las acciones de los agentes se van adaptando a las condiciones del entorno;
- caracterización: los agentes pueden presentar personalidades creíbles y estados emocionales;
- veracidad: los agentes no comunican información falsa intencionalmente;
- benevolencia: los agentes no tienen objetivos contradictorios y siempre intentan realizar la tarea que se les solicita;
- racionalidad: los agentes tienen objetivos específicos y siempre
...