L'estimation du modèle
Estimation du modèle. Ces poids sont initialisés aléatoirement dans l’intervalle (-0.1,0.1). Le processus d’entraînement s’arrête après un nombre d’époques fixées ici à 500, ou avant si le niveau de précision est atteint.
En parallèle un autre modèle RNA, qualifié de multiple est obtenu en entraînant successivement et sur les mêmes données dix modèles RNA pour retenir le meilleur. Le nombre d’époques est fixé dans ce cas à 200. Les deux modèles sont complémentaires car le deuxième en reprenant l’entraînement plusieurs fois avec des poids qui s’initialisent avec de valeurs différentes permet d’éviter certains optimums locaux.
La standardisation des variables en entrée améliore la stabilité du processus d’entraînement, car le réseau n’est pas obligé d’opérer avec des poids qui ont des ordres de grandeur différents.
Tableau 5 – Le poids des entrées sur les couches cachée du RNA
Biais |
R1 |
R2 |
F1 |
F2 |
M1 |
M2 |
M3 |
|
H1 |
-2,4 |
-0,86 |
1,86 |
-0,89 |
-0,81 |
0,77 |
0,05 |
-0,02 |
H2 |
1,16 |
0,18 |
-3,74 |
0,26 |
0,37 |
-0,21 |
0,1 |
-0,24 |
H3 |
3,02 |
-3,77 |
0,46 |
-0,07 |
-0,54 |
-0,06 |
0,28 |
-0,11 |
H4 |
-3,77 |
2,15 |
1,05 |
-0,84 |
0,53 |
-0,17 |
-0,3 |
0,41 |
Tableau 6 – Les poids de la couche cachée du RNA vers les outputs
biais |
H1 |
H2 |
H3 |
H4 |
2,5 |
-2,18 |
-1,99 |
-2,47 |
-3,56 |
On peut observer la répartition des poids positifs (excitants) marqués en gras et des poids négatifs (inhibants) entre les variables RFM et les quatre couches cachées H1 .. H4 (tableau 5) et des couches cachée vers la sortie (tableau 6).