Después de tanto estudio, es hora de ver el boletín de notas de nuestro asistente.

5.jpg

  1. El boletín completo (classification_report): Recibimos un informe detallado con sus calificaciones en Precisión (¿cuántas veces acertó cuando dijo "sí"?), Recall (¿cuántas veces dijo "sí" cuando debía decir "sí"?) y F1-score (un equilibrio entre ambas) para cada categoría.
  2. Entendiendo sus errores (multilabel_confusion_matrix): Revisamos sus exámenes para ver dónde se equivocó. ¿Confundió el cerebro con el corazón? Estas "matrices de confusión" nos muestran exactamente sus aciertos y sus fallos.
  3. Guardando el cerebro (Artefactos): Una vez que estamos contentos con su rendimiento, "guardamos" el cerebro de nuestro asistente (el TfidfVectorizer y el LogisticRegression entrenado) en unos archivos especiales (.joblib, .json). Así, no tiene que volver a estudiar cada vez que lo encendamos.

6.jpg

  1. Barras de Rendimiento: Vemos gráficos de barras que comparan su Precisión, Recall y F1-score por categoría. Si una barra es pequeña, sabemos dónde necesita mejorar.
  2. Curvas de Decisión (Precision-Recall Curves): Estas curvas nos muestran cómo nuestro asistente toma decisiones. Si es muy estricto, tiene alta precisión pero puede perder algunos artículos. Si es más relajado, encuentra más, pero puede equivocarse más. El "Área Promedio" (AP) nos dice qué tan bueno es en general para cada categoría.
  3. Mapas de Errores (Matrices de Confusión): Son como mapas de calor que nos muestran visualmente dónde se equivocó. ¿Muchos "falsos positivos" (dijo que sí, pero era no)? ¿Muchos "falsos negativos" (dijo que no, pero era sí)?
  4. Las Palabras Favoritas (Términos Más Influyentes): ¡Esto es genial! Vemos qué palabras o frases son las más importantes para que nuestro asistente decida una categoría. Por ejemplo, si ve "heart" o "cardiac", es muy probable que lo clasifique como "Cardiovascular". Esto nos ayuda a entender cómo "piensa".