Download aplicaciones de redes neuronales en MATLAB PDF

Titleaplicaciones de redes neuronales en MATLAB
File Size635.1 KB
Total Pages11
Document Text Contents
Page 1

Aplicación de Redes Neuronales en
MATLAB

Simulación de Procesos Industriales
Trabajo Práctico # 5

José Eduardo Laruta Espejo

Resumen

El presente trabajo trata acerca de las aplicaciones básicas de las
redes neuronales, en espećıfico el perceptron, para aproximar funciones
lógicas combinacionales, explorando las ventajas y limitaciones de una
red de un perceptron simple y analizando aspectos acerca de la separa-
bilidad lineal de los problemas. Tambien analizamos los algoritmos de
aprendizaje de dichas redes y su rendimiento. Se implementan 3 fun-
ciones lógicas combinacionales básicas en el software MATLAB con el
fin de analizar los resultados del entrenamiento de dicha red.

1. DESCRIPCIÓN DEL PROBLEMA

1.1. Funciones lógicas AND, OR y XOR

Se intenta implementar la función AND en un perceptron simple con 2
entradas y una salida, siguiendo con la tabla de verdad propia de la función
mostrada en 1.1.

x1 x2 x1 ^ x2
0 0 0
0 1 0
1 0 0
1 1 1

Cuadro 1: Tabla de verdad de la función AND

1

Page 2

Luego, también procederemos a implementar la función OR inclusivo en
nuestra red neuronal, cuya tabla de verdad se muestra a continuación:

x1 x2 x1 ∨ x2
0 0 0
0 1 1
1 0 1
1 1 1

Cuadro 2: Tabla de verdad de la función OR

Y por último, tenemos que implementar o aproximar la función OR- Ex-
clusivo o XOR mediante una red neuronal, vemos su tabla de verdad:

x1 x2 x1⊕ x2
0 0 0
0 1 1
1 0 1
1 1 0

Cuadro 3: Tabla de verdad de la función XOR

Para implementar esta función utilizaremos un perceptron simple cuyo
esquema y estructura se muestra a continuación:

Figura 1: Estructura del percepttron simple

2

Page 5

Despues de inicializar todas las herramientas procedemos a entrenar la
red neuronal:

net=t r a i n ( net ,P,T) ;
p lo tpc ( net .IW{1 ,1} , net . b{1})

Figura 4: Gráfica de entrenamiento

y simulamos su comprtamiento con los nuevos pesos que se ajustaron
luego del entrenamiento:

a=sim ( net ,P)

Figura 5: Resultados, pesos y umbral

5

Page 6

2.2. Función OR

Como en el anterior caso, ingresamos los patrones de entrada con 2 vari-
ables de entrada y su correspondiente salida en matrices y las visualizamos
en una gráfica:

P=[0 0 1 1 ; 0 1 0 1 ] ;
T=[0 1 1 1 ] ;
p lotpv (P,T)

Figura 6: Patrones de entrada y salidas deseadas

Luego procedemos a crear la red neuronal del perceptron simple:

net=newp ( [ 0 1 ; 0 1 ] , 1 ) ;

y luego simulamos la red para ver los pesos:

a=sim ( net ,P)

Despues de inicializar todas las herramientas procedemos a entrenar la
red neuronal:

net=t r a i n ( net ,P,T) ;
p lo tpc ( net .IW{1 ,1} , net . b{1})

6

Page 10

Figura 13: Comportamiento final de la red

3. CONCLUSIONES

Pudimos implementar y simular las redes neuronales gracias al software
matlab mediante su toolbox de redes neuronales artificiales.

Observamos el fenómeno de la separabilidad lineal con una función XOR
la cual no puede implementarse en una sola neurona. Para realizar esta tu-
vimos que implementar una red multicapa con varias neuronas arrojando los
resultados que se ven en la figuta(13).

10

Page 11

Referencias

[1] G. Choque, “Redes Neuronales Artificiales, Aplicaciones en MATLAB”
Centro de Publicaciones de la Facultad de Ciencias Puras y Naturales -
UMSA

[2] M. Amestegui, “Apuntes sobre Redes Neuronales Artificiales”

11

Similer Documents