dev-resources.site
for different kinds of informations.
Modelos sobreajustados (overfitting), desajustados (underfitting) y generalizados
Motivaci贸n
El objetivo principal de un modelo es lograr el resultado correcto para la mayor cantidad de datos nuevos. En el presente post se pretende explicar algunos detalles a tener en cuenta para lograrlo
Introducci贸n
Despues que un modelo a sido entrenado, se desea que pueda predecir la mejor respuesta para la mayor cantidad de datos. Lograr este resultado puede ser complicado dependiendo del conjunto de datos que utilicemos para entrenar el modelo.
Modelo desajustado (underfitting)
Un modelo se encuentra desajustado cuando es demasiado simple y no se puede adaptar a la complejidad del conjunto de datos de entrenamiento.
Para resolver el problema podemos:
- Incrementar la complejidad del modelo
- Entrenar el modelo por un periodo mas largo de tiempo, (incrementar las 茅pocas) para reducir el error
Modelo sobreajustado (overfitting)
Un modelo se encuentra sobreajustado cuando memoriza detalles espec铆ficos de la data de entrenamiento y no logra generalizar sus predicciones.
Los modelos sobreajustados funcionan bien con el conjunto de datos de entrenamiento, pero falla con datos nuevos (datos de prueba)
Generalizado
Un modelo que realiza buenas predicciones durante el entrenamiento y las pruebas (conjuntos de datos que no ha visto antes) es considerado un buen modelo.
El objetivo es lograr modelos generalizados.
驴Como prevenir el sobreajustamiento (overfitting)?
1.- Realizar para temprana (early stopping)
- Deje de entrenar el modelo cuando observe que la p茅rdida de validaci贸n (validation loss) aumenta mientras que la p茅rdida de entrenamiento (training loss) disminuye.
2.- Hacer regularizacion
- La regularizaci贸n mejora la capacidad de generalizaci贸n del modelo. Por ejemplo utilizar Regularizacion L1 (Lasso regression) o Regularizacion L2 (Ridge regression).
3.- Agregar mas conjuntos de datos
- Si incrementa el conjunto de datos de entreamiento el modelo podria generalizar mejor
4.- Realizar seleccion de caracteristicas
- Eliminar las caracteristicas de poco interes podria mejorar la capacidad de generalizacion del modelo
5.- Utilizar boosting y bagging (ensemble learning)
- Al combinar la votaci贸n de muchos modelos diferentes a trav茅s de bagging y boosting, mejorar谩 la generalizaci贸n del modelo.
6.- Agregar mas ruido
- Agregar ruido podr铆a permitir que el modelo generalice mejor
7.- Usar la tecnica de expulsion (dropout technique)
- En el entrenamiento de redes neuronales artificiales, la eliminaci贸n de algunas neuronas mediante la t茅cnica Dropout mejora la capacidad de generalizaci贸n de las redes.
Conclusi贸n
La generalizaci贸n es la caracter铆stica mas importante a lograr en nuestro modelo, para lograrlo tambi茅n es muy importante la cantidad y calidad de nuestros.
Featured ones: