Interpretando los resultados de un entrenamiento a una una red neuronal

A continuación se interpretan los resultados de un entrenamiento de una red neuronal. 
El entrenamiento fue bastante rápido ya que la red fue muy superficial y nuestro conjunto de datos de imagen fue relativamente pequeño: (3000 imágenes, 1000 cats, 1000 dogs, 1000 panda) 3 clases. 

Durante este tiempo, tanto en mi CPU como en mi GPU. Como puede ver en la Figura 1, ShallowNet obtuvo una precisión de clasificación del 71% en nuestros datos de prueba, una mejora masiva de nuestra mejor versión anterior del 59% utilizando redes neuronales simples de avance. 

Al usar redes de entrenamiento más avanzadas, así como una arquitectura más poderosa, podremos aumentar la precisión de la clasificación aún más. La pérdida y la precisión trazada en el tiempo se muestran en la Figura 2. En el eje x tenemos nuestro número de época y en el eje y tenemos nuestra pérdida y precisión. 

Al examinar esta figura, podemos ver que el aprendizaje es un poco volátil con grandes picos en la pérdida alrededor de la época 20 y la época 60; este resultado probablemente se deba a que nuestra tasa de aprendizaje es demasiado alta, algo que ayudaremos a resolver en el Capítulo 16.
Tenga en cuenta que la pérdida de entrenamiento y prueba divergió mucho en la época 30, lo que implica que nuestra red está modelando los datos de entrenamiento demasiado cerca y en exceso. Podemos remediar este problema obteniendo más datos o aplicando técnicas como el aumento de datos (cubierto en el Paquete de profesionales).

Fig.1 Resultados de classification_report

Alrededor de la época 60, nuestra precisión de prueba se satura; no podemos superar la precisión de clasificación de ≈ 70%, mientras que nuestra precisión de entrenamiento continúa subiendo a más del 85%. Una vez más, recopilar más datos de capacitación, aplicar el aumento de datos y tener más cuidado para ajustar nuestra tasa de aprendizaje nos ayudará a mejorar nuestros resultados en el futuro.

También tenga en cuenta que la pérdida de entrenamiento y prueba divergió mucho en la época 30, lo que implica que nuestra red está modelando los datos de entrenamiento muy de cerca y ajustándose demasiado. Podemos remediar este problema obteniendo más datos o aplicando técnicas como el aumento de datos. Alrededor de la época 60, nuestra precisión de prueba se satura; no podemos superar la precisión de clasificación de ≈ 70%, mientras que nuestra precisión de entrenamiento continúa subiendo a más del 85%. Una vez más, recopilar más datos de capacitación, aplicar el aumento de datos y tener más cuidado para ajustar nuestra tasa de aprendizaje nos ayudará a mejorar nuestros resultados en el futuro.
 Un diagrama de nuestra pérdida y precisión en el transcurso de 100 épocas para la arquitectura ShallowNet entrenada en el conjunto de datos Animales

Fig. 2  Un diagrama de nuestra pérdida y precisión en el transcurso de 100 épocas para una arquitectura de una red neuronal entrenada.

Comentarios