La búsqueda global no está activada.
Salta al contenido principal
Foro

Foro de debate módulo 4

Hilo 4: Interpretación los resultados obtenidos / Thread 4: Interpretation of the results obtained

Hilo 4: Interpretación los resultados obtenidos / Thread 4: Interpretation of the results obtained

de María José Gacto - Número de respuestas: 1

En el ámbito de la regresión en bioinformática, es crucial poder interpretar los resultados obtenidos. Por consiguiente, algunos algoritmos altamente precisos pueden ser excluidos si se busca una explicación de los resultados. No obstante, existen métodos que no son directamente interpretables pero que podrían serlo mediante la aplicación de técnicas de explicabilidad post-hoc. ¿Estás familiarizado con algunos de estos métodos post-hoc y los métodos de regresión a los que suelen aplicarse? Espero vuestros interesantes comentarios.

-------

In the field of regression in bioinformatics, it is crucial to be able to interpret the results obtained. Therefore, some highly accurate algorithms can be excluded if an explanation of the results is sought. However, there are methods that are not directly interpretable but could be interpretable by applying post-hoc explainability techniques. Are you familiar with some of these post-hoc methods and the regression methods to which they are usually applied? I look forward to your interesting comments.


En respuesta a María José Gacto

Re: Hilo 4: Interpretación los resultados obtenidos / Thread 4: Interpretation of the results obtained

de María José Gacto -

Un ejemplo destacado de técnica de explicabilidad post-hoc es SHAP (Shapley Additive Explanations). Este enfoque es ampliamente utilizado en problemas de regresión en el ámbito de la bioinformática para interpretar modelos de aprendizaje automático como regresión lineal, regresión logística, Random Forest para regresión, máquinas de vectores de soporte (SVM) y redes neuronales, entre otros.

SHAP permite descomponer las predicciones del modelo asignando a cada característica una contribución específica al resultado final. Esto facilita la comprensión del impacto individual de cada variable en la predicción y cómo interactúan para generar el resultado.

El artículo "Interpreting Machine Learning Models With SHAP: A Guide With Python Examples And Theory On Shapley Values" ofrece una exploración detallada de esta técnica, destacando su utilidad para interpretar modelos complejos. Además, el código fuente está disponible en el repositorio de GitHub del proyecto SHAP.

-----

A prominent example of a post-hoc explainability technique is SHAP (Shapley Additive Explanations). This method is widely used in regression tasks within bioinformatics to interpret machine learning models such as linear regression, logistic regression, Random Forest for regression, Support Vector Machines (SVM), and neural networks, among others.

SHAP provides a way to break down model predictions by assigning each feature a specific contribution to the final outcome. This allows for a clearer understanding of how each feature influences the prediction and how they interact to produce the result.

The article "Interpreting Machine Learning Models With SHAP: A Guide With Python Examples And Theory On Shapley Values" offers an in-depth exploration of SHAP, showcasing its value in interpreting complex models. Additionally, the source code is available in the SHAP project’s GitHub repository.