Essays.club - Ensayos gratis, notas de cursos, notas de libros, tareas, monografías y trabajos de investigación
Buscar

MEJORAMIENTO INTEGRAL AREA LOGISTICA

Enviado por   •  1 de Diciembre de 2018  •  3.911 Palabras (16 Páginas)  •  339 Visitas

Página 1 de 16

...

Para la resolución del problema se tendrá que aplicar el proceso de extracción de conocimientos, el cual incluye la selección de datos, minería de datos, técnicas de evaluación y uso del conocimiento extraído, luego se realizará el proceso de minería de datos la cual incluye las fases, tareas y herramientas de la minería de datos para finalmente realizar el preparamiento de los datos y ejecutar todo el proceso para obtener resultados concretos.

-

MODELO MATEMATICO FINAL

2.1 Redes Neuronales Artificiales

Existen 2 tipos de RNA, aquellas que emplean aprendizaje supervisado y aquellas que utilizan aprendizaje no supervisado. La primera categoría corresponde a Percepción Multicapa y las redes denominadas Funciones de Base Radial. La segunda categoría emplea la regla de Hebb y el aprendizaje competitivo.

2.2 Modelo Generalizado

Normalmente en redes neuronales las entradas se representan por un vector de entrada, , y el rendimiento de la sinapsis se modela mediante un vector de pesos, . Entonces el valor de salida de esta neurona viene dado por:[pic 2][pic 3]

[pic 4]

- Donde es la función activación.[pic 5]

Cuando tenemos una red de neuronas, las salidas de unas se conectan con las entradas de otras. Si el peso entre dos neuronas conectadas es positivo, el efecto producido es de excitación. Por el contrario, si es negativo, este efecto es de inhibición. Normalmente podemos imaginar las neuronas actuando conjuntamente en capas como se muestra en la Ilustración 1.

Ilustración 1: Modelo Generalizado Red Neuronal Artificial.

[pic 6]

Fuente: Medintensiva.org

2.3 Aprendizaje en las redes neuronales artificiales

Como anteriormente se presentó, existen dos tipos de aprendizaje en RNA, estos son:

2.3.1 Aprendizaje supervisado

Con este tipo de aprendizaje, proporcionamos a la red un conjunto de datos de entrada y la respuesta correcta. El conjunto de datos de entrada es propagado hacia delante hasta que la activación alcanza las neuronas de la capa de salida. Entonces podemos comparar la respuesta calculada por la red con aquella que se desea obtener, el valor real, objetivo o “blanco”.

Entonces se ajustan los pesos para asegurar que la red produzca de una manera más probable una respuesta correcta en el caso de que se vuelva a presentar el mismo o similar patrón de entrada. Útil para tareas de regresión y clasificación.

2.3.2 Aprendizaje no supervisado

Solo se proporciona a la red un conjunto de datos de entrada. La red debe auto-organizarse dependiendo de algún tipo de estructura existente en el conjunto de datos de entrada. Útil para las tareas de agrupamiento y reducción de dimensionalidad.

De acuerdo a lo anterior y al problema aplicado de predicción de radiación solar en estudio, el tipo de aprendizaje a utilizar será: aprendizaje supervisado. Esto debido a que se tiene una base de datos de entrenamiento para tratar con el modelo, para luego comparar la respuesta calculada con el valor que se desea obtener; esto a través de una base de datos de testeo la cual presenta patrones similares a la anterior obteniendo así el valor real pronosticado.

2.4 Aprendizaje supervisado en RNA

Con el tipo de aprendizaje definido para tratar el modelo de predicción de radiación solar, es necesario determinar el método de aprendizaje que seguirá la red neuronal en estudio, para ello se detallan a continuación los siguientes tipos de redes neuronales y su algoritmo:

2.4.1 Percepción simple

El perceptrón simple tiene una estructura de varios nodos o neuronas de entrada y uno o más de salida. Un perceptrón simple, por tanto, no tiene capa oculta.

Asociado a un patrón de entrada particular,, tenemos una salida y un blanco o salida correcta . El algoritmo tiene la siguiente forma:[pic 7][pic 8][pic 9]

- La red comienza en un estado aleatorio. Los pesos entre neuronas poseen varios valores pequeños y aleatorios (entre -1 y 1).

- Seleccionar un vector de entrada xp a partir del conjunto de ejemplos de entrenamiento.

- Se propaga la activación hacia delante a través de los pesos en la red para calcular la salida [pic 10]

- Si (si la salida de la red es correcta) volver al paso 2.[pic 11]

- En caso contrario el cambio de los pesos se realiza atendiendo a la siguiente expresión: donde es un número pequeño positivo conocido como coeficiente de aprendizaje. Volver al paso 2.[pic 12][pic 13]

Lo que se hace por tanto es ajustar los pesos de una manera en que las salidas de la red, se vayan haciendo cada vez mas semejantes al valor de los blancos,, a medida que la entrada se va presentando en la red.[pic 14][pic 15][pic 16]

2.4.2 Adeline

Su tipología es idéntica al perceptrón simple, es decir no tiene capa oculta, pero calcula sus salidas empleando la siguiente expresión:

[pic 17]

Con la misma notación de antes, la diferencia entre esta red y el perceptrón es la presencia o no de un umbral . Donde la regla de aprendizaje viene dada por:[pic 18]

[pic 19]

En ambos casos definidos existen errores asociados, entre ellos, la suma del error cuadrático a partir del uso ambas redes viene dada por la siguiente expresión:

[pic 20]

2.4.3 Perceptrón Multicapa

Conjunto de datos que no son linealmente separables pueden ser modelados mediante el empleo de Perceptrón Multicapa, es decir una red neuronal en forma de cascada, que tiene una o más capas ocultas. También conocida como Retropropagación o Propagación hacia atrás.

Respecto al uso de la red o de la activación, la activación se propaga en la red a través de los pesos desde la capa de entrada hacia la capa intermedia donde se aplica alguna función de activación a las entradas

...

Descargar como  txt (25.8 Kb)   pdf (83 Kb)   docx (30.1 Kb)  
Leer 15 páginas más »
Disponible sólo en Essays.club