Un ejemplo destacado de técnica de explicabilidad post-hoc es SHAP (Shapley Additive Explanations). Este enfoque es ampliamente utilizado en problemas de regresión en el ámbito de la bioinformática para interpretar modelos de aprendizaje automático como regresión lineal, regresión logística, Random Forest para regresión, máquinas de vectores de soporte (SVM) y redes neuronales, entre otros.
SHAP permite descomponer las predicciones del modelo asignando a cada característica una contribución específica al resultado final. Esto facilita la comprensión del impacto individual de cada variable en la predicción y cómo interactúan para generar el resultado.
El artículo "Interpreting Machine Learning Models With SHAP: A Guide With Python Examples And Theory On Shapley Values" ofrece una exploración detallada de esta técnica, destacando su utilidad para interpretar modelos complejos. Además, el código fuente está disponible en el repositorio de GitHub del proyecto SHAP.
-----
A prominent example of a post-hoc explainability technique is SHAP (Shapley Additive Explanations). This method is widely used in regression tasks within bioinformatics to interpret machine learning models such as linear regression, logistic regression, Random Forest for regression, Support Vector Machines (SVM), and neural networks, among others.
SHAP provides a way to break down model predictions by assigning each feature a specific contribution to the final outcome. This allows for a clearer understanding of how each feature influences the prediction and how they interact to produce the result.
The article "Interpreting Machine Learning Models With SHAP: A Guide With Python Examples And Theory On Shapley Values" offers an in-depth exploration of SHAP, showcasing its value in interpreting complex models. Additionally, the source code is available in the SHAP project’s GitHub repository.