A continuación se interpretan los resultados de un entrenamiento de una red neuronal.
El entrenamiento fue bastante rápido ya que la red fue muy superficial y nuestro conjunto de datos de imagen fue relativamente pequeño: (3000 imágenes, 1000 cats, 1000 dogs, 1000 panda) 3 clases.
Durante este tiempo, tanto en mi CPU como en mi GPU. Como puede ver en la Figura 1, ShallowNet obtuvo una precisión de clasificación del 71% en nuestros datos de prueba, una mejora masiva de nuestra mejor versión anterior del 59% utilizando redes neuronales simples de avance.
Al usar redes de entrenamiento más avanzadas, así como una arquitectura más poderosa, podremos aumentar la precisión de la clasificación aún más. La pérdida y la precisión trazada en el tiempo se muestran en la Figura 2. En el eje x tenemos nuestro número de época y en el eje y tenemos nuestra pérdida y precisión.
Al examinar esta figura, podemos ver que el aprendizaje es un poco volátil con grandes picos en la pérdida alrededor de la época 20 y la época 60; este resultado probablemente se deba a que nuestra tasa de aprendizaje es demasiado alta, algo que ayudaremos a resolver en el Capítulo 16.
Tenga en cuenta que la pérdida de entrenamiento y prueba divergió mucho en la época 30, lo que implica que nuestra red está modelando los datos de entrenamiento demasiado cerca y en exceso. Podemos remediar este problema obteniendo más datos o aplicando técnicas como el aumento de datos (cubierto en el Paquete de profesionales).
![]() |
Fig.1 Resultados de classification_report |
Alrededor de la época 60, nuestra precisión de prueba se satura; no podemos superar la precisión de clasificación de ≈ 70%, mientras que nuestra precisión de entrenamiento continúa subiendo a más del 85%. Una vez más, recopilar más datos de capacitación, aplicar el aumento de datos y tener más cuidado para ajustar nuestra tasa de aprendizaje nos ayudará a mejorar nuestros resultados en el futuro.
También tenga en cuenta que la pérdida de entrenamiento y prueba divergió mucho en la época 30, lo que implica que nuestra red está modelando los datos de entrenamiento muy de cerca y ajustándose demasiado. Podemos remediar este problema obteniendo más datos o aplicando técnicas como el aumento de datos. Alrededor de la época 60, nuestra precisión de prueba se satura; no podemos superar la precisión de clasificación de ≈ 70%, mientras que nuestra precisión de entrenamiento continúa subiendo a más del 85%. Una vez más, recopilar más datos de capacitación, aplicar el aumento de datos y tener más cuidado para ajustar nuestra tasa de aprendizaje nos ayudará a mejorar nuestros resultados en el futuro.
Un diagrama de nuestra pérdida y precisión en el transcurso de 100 épocas para la arquitectura ShallowNet entrenada en el conjunto de datos Animales
![]() |
Fig. 2 Un diagrama de nuestra pérdida y precisión en el transcurso de 100 épocas para una arquitectura de una red neuronal entrenada. |
Comentarios
Publicar un comentario