La búsqueda global no está activada.
Salta al contenido principal
Foro

Foro de debate módulo 3

Hilo 4: La Transparencia en la Predicción de Estructuras Proteicas: ¿Avance o Controversia? / Thread 4: Transparency in the Prediction of Protein Structures: ¿Advancement or Controversy

Hilo 4: La Transparencia en la Predicción de Estructuras Proteicas: ¿Avance o Controversia? / Thread 4: Transparency in the Prediction of Protein Structures: ¿Advancement or Controversy

de Alberto Fernández Hilario - Número de respuestas: 1

¡Hola a todos!

Hoy, quiero abrir un espacio para debatir sobre un tema candente en nuestra disciplina: la transparencia y explicabilidad de los modelos de IA utilizados en la predicción de estructuras proteicas. Ya hemos tratado parcialmente el tema de XAI en otro de los hilos de este foro, pero ahora me gustaría profundizar en los detalles.

Recientemente, el Premio Nobel de Química 2024 fue otorgado a David Baker, Demis Hassabis y John Jumper por sus avances en el estudio de las proteínas mediante el uso de IA y computación (https://www.nobelprize.org/prizes/chemistry/2024/summary/).  Mientras que estos avances han sido celebrados, también han surgido controversias relacionadas con la transparencia y el acceso a los modelos desarrollados, especialmente con herramientas como AlphaFold3 de DeepMind (https://blog.google/intl/es-es/noticias-compania/iniciativas/alphafold-3-predice-la-estructura-y-las-interacciones-de-todas-las-moleculas-de-la-vida/).

Preguntas para el debate:

1. ¿Hasta qué punto la falta de transparencia en modelos como AlphaFold3 afecta la confianza y colaboración en la comunidad científica?

• ¿Es justificable que empresas privadas restrinjan el acceso a modelos potentes por razones comerciales?

• ¿Cómo podemos equilibrar la protección de propiedad intelectual con la necesidad de colaboración abierta en la investigación científica?

2. ¿Qué papel juega la Inteligencia Artificial Explicable (XAI) en la mejora de la confianza y comprensión de estos modelos?

• ¿Deberíamos priorizar el desarrollo de modelos de IA que no solo sean precisos, sino también explicables y transparentes?

• ¿Qué desafíos enfrentamos al intentar hacer comprensibles modelos complejos sin comprometer su rendimiento?

Algunos enlaces de interés:

- Explainable AI for Bioinformatics: Methods, Tools and Applications: https://pubmed.ncbi.nlm.nih.gov/37478371/

- XAI meets Biology: A Comprehensive Review of Explainable AI in Bioinformatics Applications: https://arxiv.org/html/2312.06082v1

Espero que este tema genere una discusión enriquecedora sobre la ética, transparencia y colaboración en la aplicación de IA en bioinformática. ¡Espero con interés sus opiniones y reflexiones!

Saludos,

Alberto


Hello everyone!

Today, I want to open a space to discuss a hot topic in our field: the transparency and explainability of AI models used in protein structure prediction. We have partially addressed the topic of XAI in another thread of this forum already, but now I would like to get deeper into the details.

Recently, the 2024 Nobel Prize in Chemistry was awarded to David Baker, Demis Hassabis, and John Jumper for their advances in studying proteins using AI and computing (https://www.nobelprize.org/prizes/chemistry/2024/summary/).  While these advancements have been celebrated, controversies have also arisen concerning the transparency and access to the developed models, especially with tools like DeepMind’s AlphaFold3 (https://github.com/google-deepmind/alphafold3).

Questions for discussion:

1. To what extent does the lack of transparency in models like AlphaFold3 affect trust and collaboration within the scientific community?

• Is it justifiable for private companies to restrict access to powerful models for commercial reasons?

• How can we balance intellectual property protection with the need for open collaboration in scientific research?

2. What role does Explainable Artificial Intelligence (XAI) play in enhancing trust and understanding of these models?

• Should we prioritize developing AI models that are not only accurate but also explainable and transparent?

• What challenges do we face in making complex models understandable without compromising their performance?

Some links of interest:

- Explainable AI for Bioinformatics: Methods, Tools and Applications: https://pubmed.ncbi.nlm.nih.gov/37478371/

- XAI meets Biology: A Comprehensive Review of Explainable AI in Bioinformatics Applications: https://arxiv.org/html/2312.06082v1

I hope this topic sparks a rich discussion on the ethics, transparency, and collaboration in applying AI in bioinformatics. I look forward to your thoughts and reflections!

Best regards,

Alberto


En respuesta a Alberto Fernández Hilario

Re: Hilo 4: La Transparencia en la Predicción de Estructuras Proteicas: ¿Avance o Controversia? / Thread 4: Transparency in the Prediction of Protein Structures: ¿Advancement or Controversy

de Augusto Miguel Anguita Ruiz -

¡Gracias, Alberto, por abrir este hilo tan estimulante!

Personalmente, me resulta inquietante que modelos tan transformadores para la investigación biomédica estén sujetos a restricciones de acceso, especialmente cuando el conocimiento que generan puede tener un impacto directo en el desarrollo de tratamientos o terapias.

Respecto a la Inteligencia Artificial Explicable (XAI), creo que deberíamos avanzar hacia un nuevo estándar en el que la precisión no sea la única métrica. Poder entender por qué un modelo hace una predicción, especialmente en campos relacionados con la vida y la salud de las personas, es clave para validar sus resultados y trasladarlos a la práctica. Eso sí, reconozco que no es tarea fácil y cada caso es un mundo. Por ejemplo, en el caso de alphaFold3, donde el resultado no es directamente empleado para la toma de decisiones clinicas, sino que es la base para iniciar otras investigaciones farmacológicas que si que validarán y arrojaran más explicación, quizá no es necesario. Pero sin duda, si un modelo arroja una predicción en la que se sustentará la toma de decisiones médicas de forma directa, debería ser OBLIGATORIO que pudiéramos entender el mecanismo del algoritmo.

--------------------------------------------

Thank you, Alberto, for opening this stimulating thread!

Personally, I find it disturbing that such transformative models for biomedical research are subject to access restrictions, especially when the knowledge they generate can have a direct impact on the development of treatments or therapies.

Regarding Explainable Artificial Intelligence (XAI), I think we should move towards a new standard where accuracy is not the only metric. Being able to understand why a model makes a prediction, especially in fields related to people's lives and health, is key to validating its results and translating them into practice. However, I recognise that this is not an easy task and each case is different. For example, in the case of alphaFold3, where the result is not directly used for clinical decision-making, but is the basis for initiating other pharmacological research that will validate and provide further explanation, it may not be necessary. But certainly, if a model yields a prediction that will directly support medical decision making, it should be MANDATORY that we can understand the mechanism of the algorithm.