¡Hola! 🙋♀️
Como se comenta en la primera cápsula del módulo, puede que una determinada clase de un problema sea más interesante que otra y un claro ejemplo de esto son los sistemas de diagnóstico.
Cuando una clase está infrarepresentada en el conjunto de datos, es común que los algoritmos tengan problemas para aprender esta clase y clasifiquen sus ejemplos erróneamente. En estas situaciones, elegir la métrica de evaluación más adecuada es fundamental, para controlar los posibles sesgos en la predicción.
Además de lo anterior, existen diversas estrategias para ayudar a los clasificadores a conseguir buenos resultados en problemas desbalanceados, ¿conocéis algunas de estas alternativas? 🤔
____
Hi! 🙋♀️
As mentioned in the first module capsule, a particular class of a problem may be more interesting than another, and a clear example of this is diagnostic systems.
When a class is underrepresented in the dataset, it's common for algorithms to struggle to learn this class and misclassify its examples. In these situations, choosing the most appropriate evaluation metric is crucial to control potential biases in prediction.
In addition to the above, there are various strategies to help classifiers achieve good results in imbalanced problems. Do you know any of these alternatives? 🤔