En una anterior entrada te expliqu茅 toda la parte teor铆a para calcular los errores al momento de construir un modelo utilizando algoritmos de clasificaci贸n. Bueno, ac谩 te explicar茅 como puedes implementar cada uno de esas m茅tricas utilizando la librer铆a de Scikit Learn.

A medida que entrenas tu modelo predictivo de clasificaci贸n, seguramente querr谩s evaluar qu茅 tan bueno es. Curiosamente, hay muchas maneras diferentes de evaluar el desempe帽o. La mayor铆a de los desarrolladores que usan Python usan la librer铆a Scikit Learn. Esta contiene muchas funciones incorporadas para analizar el rendimiento de los modelos. En esta entrada repasaremos algunas de estas m茅tricas y explicaremos c贸mo implementarlas utilizando la librer铆a Scikit Learn.

Matriz de Confusi贸n

Una matriz de confusi贸n puede definirse vagamente como una tabla que describe el desempe帽o de un modelo de clasificaci贸n en un conjunto de datos de prueba cuyos valores verdaderos son conocidos. Una matriz de confusi贸n es altamente interpretativa y puede ser usada para estimar un n煤mero de otras m茅tricas.

metricas 1

Scikit Learn proporciona un m茅todo para realizar la matriz de confusi贸n en el conjunto de datos de la prueba. El m茅todo confusi贸n_matrix requiere los valores reales de prueba y los valores predichos por el modelo construido para determinar la matriz.

En caso de que el modelo solo tenga dos clases de respuestas, puede ser categorizado como un problema de clasificaci贸n binaria. Por lo tanto, la matriz de confusi贸n es una cuadr铆cula de 2 x 2. La matriz de confusi贸n se interpreta de manera diferente en las diferentes implementaciones.

Exactitud

La exactitud de la clasificaci贸n es la relaci贸n entre las predicciones correctas y el n煤mero total de predicciones. O m谩s simplemente, con qu茅 frecuencia es correcto el clasificador.

metricas 2

Podemos calcular la precisi贸n usando la matriz de confusi贸n, pero por supuesto, Scikit Learn proporciona un m茅todo para su c谩lculo, ac谩 accuracy_score se implementa junto con los datos reales de prueba y los datos predichos por el modelo.

Precisi贸n

La precisi贸n es la relaci贸n entre las predicciones correctas y el n煤mero total de predicciones correctas previstas. Esto mide la precisi贸n del clasificador a la hora de predecir casos positivos.

metricas 3

Scikit Learn proporciona el m茅todo precision_score para calcular la precisi贸n. Ac谩 se utiliza los datos de prueba reales y los datos obtenidos desde el modelo desarrollado.

Sensibilidad

La sensibilidad tambi茅n es llamada en ingl茅s recall, es la relaci贸n entre las predicciones positivas correctas y el n煤mero total de predicciones positivas. O m谩s simplemente, cu谩n sensible es el clasificador para detectar instancias positivas. Esto tambi茅n se conoce como la tasa verdadera positiva.

metricas 4

Scikit Learn proporciona un m茅todo llamado recall_score para encontrar la puntuaci贸n de sensibilidad.

Puntaje de F1

El puntaje F1 es la medida arm贸nica de la memoria y la precisi贸n, con una puntuaci贸n m谩s alta como mejor modelo.

metricas 5

Podemos obtener la puntuaci贸n F1 a partir de Scikit Learn, utilizando el modulo f1_score, que toma como entrada los datos reales de prueba y los datos predichos por el modelo.

Recuerda que para conocer la parte te贸rica de cada una de las m茅tricas explicadas ac谩 debes ingresar al siguiente link en donde fueron explicadas a detalle.

5 comentarios en “M茅tricas de Evaluaci贸n Clasificaci贸n con Scikit Learn”

  1. En la 煤ltima l铆nea mencionas que la parte te贸rica la explicas en cierto link pero no hay etiqueta en ese link. 驴Puedes decir cu谩l es?
    Gracias.

  2. Hola, me encanta tu blog.
    he estado usando tu informaci贸n para hacer algunas documentaciones.
    Pero me me gustar铆a que dejaras mas informaci贸n acerca de la creaci贸n de cada blog para poder hacer referencias a tu sitio debidamente.
    Saludos y excelente trabajo.

  3. informaci贸n como la fecha de edici贸n, el nombre del autor, al momento de hacer la documentaci贸n esos datos son necesaria para poder referenciar la informaci贸n.

Deja un comentario

Tu direcci贸n de correo electr贸nico no ser谩 publicada.