La búsqueda global no está activada.
Salta al contenido principal
Foro

Foro de debate módulo 3

Hilo 4: La Transparencia en la Predicción de Estructuras Proteicas: ¿Avance o Controversia? / Thread 4: Transparency in the Prediction of Protein Structures: ¿Advancement or Controversy

Re: Hilo 4: La Transparencia en la Predicción de Estructuras Proteicas: ¿Avance o Controversia? / Thread 4: Transparency in the Prediction of Protein Structures: ¿Advancement or Controversy

de Augusto Miguel Anguita Ruiz - Número de respuestas: 0

¡Gracias, Alberto, por abrir este hilo tan estimulante!

Personalmente, me resulta inquietante que modelos tan transformadores para la investigación biomédica estén sujetos a restricciones de acceso, especialmente cuando el conocimiento que generan puede tener un impacto directo en el desarrollo de tratamientos o terapias.

Respecto a la Inteligencia Artificial Explicable (XAI), creo que deberíamos avanzar hacia un nuevo estándar en el que la precisión no sea la única métrica. Poder entender por qué un modelo hace una predicción, especialmente en campos relacionados con la vida y la salud de las personas, es clave para validar sus resultados y trasladarlos a la práctica. Eso sí, reconozco que no es tarea fácil y cada caso es un mundo. Por ejemplo, en el caso de alphaFold3, donde el resultado no es directamente empleado para la toma de decisiones clinicas, sino que es la base para iniciar otras investigaciones farmacológicas que si que validarán y arrojaran más explicación, quizá no es necesario. Pero sin duda, si un modelo arroja una predicción en la que se sustentará la toma de decisiones médicas de forma directa, debería ser OBLIGATORIO que pudiéramos entender el mecanismo del algoritmo.

--------------------------------------------

Thank you, Alberto, for opening this stimulating thread!

Personally, I find it disturbing that such transformative models for biomedical research are subject to access restrictions, especially when the knowledge they generate can have a direct impact on the development of treatments or therapies.

Regarding Explainable Artificial Intelligence (XAI), I think we should move towards a new standard where accuracy is not the only metric. Being able to understand why a model makes a prediction, especially in fields related to people's lives and health, is key to validating its results and translating them into practice. However, I recognise that this is not an easy task and each case is different. For example, in the case of alphaFold3, where the result is not directly used for clinical decision-making, but is the basis for initiating other pharmacological research that will validate and provide further explanation, it may not be necessary. But certainly, if a model yields a prediction that will directly support medical decision making, it should be MANDATORY that we can understand the mechanism of the algorithm.