La búsqueda global no está activada.
Salta al contenido principal
Foro

Foro de debate módulo 3

Hilo 3: Machine Learning y la Predicción de Enfermedades: Desafíos y Oportunidades / Machine Learning and Disease Prediction: Challenges and Opportunities

Hilo 3: Machine Learning y la Predicción de Enfermedades: Desafíos y Oportunidades / Machine Learning and Disease Prediction: Challenges and Opportunities

de Alberto Fernández Hilario - Número de respuestas: 6

¡Hola a todos!

Quiero abrir hoy un debate sobre un tema que está ganando cada vez más relevancia en la bioinformática: la aplicación de Machine Learning en la predicción de enfermedades. A medida que se acumulan más datos genéticos, médicos y de estilo de vida, los modelos de ML tienen el potencial de transformar cómo predicen y diagnostican las enfermedades, permitiendo personalizar los tratamientos de manera mucho más precisa.

Sin embargo, aunque las aplicaciones de ML en medicina tienen un enorme potencial, todavía enfrentamos varios desafíos, tanto técnicos como éticos. La pregunta clave es: ¿estamos preparados para utilizar Machine Learning de manera confiable para la predicción de enfermedades y, si no, qué obstáculos debemos superar?

Algunas preguntas para reflexionar:

  1. ¿Hasta qué punto podemos confiar en los modelos de Machine Learning para predecir enfermedades?
    Sabemos que estos modelos pueden analizar grandes volúmenes de datos, pero ¿qué tan precisos son realmente en la predicción de enfermedades, especialmente a largo plazo? ¿Existen ejemplos de predicciones erróneas que hayan tenido un impacto negativo en la salud de los pacientes?

  2. El desafío de los sesgos en los datos
    Los modelos de ML dependen de los datos con los que se entrenan. Si los datos utilizados provienen de un grupo poblacional limitado o sesgado, ¿puede eso afectar la precisión de las predicciones para otros grupos? ¿Cómo podemos asegurarnos de que estos modelos sean justos y equitativos para todos?

  3. ¿Qué papel juega la calidad de los datos en la efectividad de los modelos?
    En muchos casos, los datos médicos y genéticos pueden ser ruidosos o incompletos. ¿Cómo puede la calidad de los datos influir en el rendimiento de los modelos de ML y qué técnicas podemos utilizar para mejorar esa calidad?

Estoy muy interesado en conocer vuestras opiniones y reflexiones sobre estos puntos. ¡Espero que este tema os parezca tan fascinante como a mí y que podamos tener una conversación productiva sobre el futuro de la predicción de enfermedades mediante Machine Learning!

Saludos,
Alberto



Hello everyone!

I would like to start a discussion today on a topic that is becoming increasingly relevant in bioinformatics: the application of Machine Learning in disease prediction. As more genetic, medical, and lifestyle data becomes available, ML models have the potential to transform how diseases are predicted and diagnosed, allowing for much more personalized treatments.

However, while the applications of ML in medicine hold enormous potential, there are still several challenges, both technical and ethical. The key question is: Are we ready to reliably use Machine Learning for disease prediction, and if not, what obstacles do we need to overcome?

Some questions to reflect on:

  1. How much can we trust Machine Learning models to predict diseases?
    We know that these models can analyze large volumes of data, but how accurate are they really when it comes to predicting diseases, especially in the long term? Are there any examples of incorrect predictions that have negatively impacted patients' health?

  2. The challenge of data biases
    ML models depend on the data they are trained on. If the data used comes from a limited or biased population group, could that affect the accuracy of predictions for other groups? How can we ensure that these models are fair and equitable for all?

  3. What role does data quality play in the effectiveness of the models?
    In many cases, medical and genetic data can be noisy or incomplete. How can data quality influence the performance of ML models, and what techniques can we use to improve it?

I’m very interested in hearing your thoughts and reflections on these points. I hope you find this topic as fascinating as I do, and I look forward to a productive conversation on the future of disease prediction using Machine Learning!

Best regards,
Alberto


En respuesta a Alberto Fernández Hilario

Re: Hilo 3: Machine Learning y la Predicción de Enfermedades: Desafíos y Oportunidades / Machine Learning and Disease Prediction: Challenges and Opportunities

de Augusto Miguel Anguita Ruiz -

¡Hola Alberto!

Muchas gracias por abrir este debate tan interesante. Coincido contigo en que el uso de Machine Learning en la predicción de enfermedades tiene un enorme potencial, pero también enfrenta importantes desafíos antes de poder ser plenamente integrado en los entornos sanitarios.

Entre los principales retos, como bien señalas, están la confianza en los modelos, los sesgos en los datos y la calidad de estos. Frente a estos desafíos, en los últimos años ha surgido una propuesta muy prometedora: la Inteligencia Artificial Explicable (XAI, por sus siglas en inglés).

La XAI plantea el uso de modelos que no solo realicen predicciones, sino que también ofrezcan explicaciones comprensibles sobre cómo han llegado a esas decisiones. Esta transparencia es clave para abordar muchos de los problemas que mencionas. Por ejemplo:

  • Detección de errores: Si comprendemos por qué el modelo ha hecho una predicción errónea, podemos trabajar en corregir ese comportamiento.

  • Ética y equidad: Una mayor comprensión de los factores que influyen en las decisiones del modelo nos permite detectar sesgos y escenarios en los que su uso podría ser injusto o poco ético.

  • Confianza clínica: Los profesionales sanitarios pueden sentirse más cómodos utilizando estos modelos si pueden interpretar sus razonamientos, lo que facilita su integración en la práctica médica diaria.

Este enfoque ya se está discutiendo activamente en la comunidad científica y también se están haciendo esfuerzos por divulgarlo al público general. Te dejo un artículo de opinión donde hablamos de este concepto y su relevancia para una medicina de precisión:
👉 https://www.imfarmacias.es/noticia/37572/inteligencia-artificial-explicable-para-una-medicina-de-precision.html

¡Gracias de nuevo por abrir este espacio de reflexión! Estoy deseando leer las aportaciones del resto de compañeros.

Saludos, Augusto.
------------------

Hi Alberto,

Thank you for opening such an important and fascinating discussion. I completely agree that while machine learning technologies hold great promise for disease prediction, we are still in the process of defining how they should be integrated into healthcare environments and what challenges they present.

Among the most significant challenges are exactly those you’ve highlighted: trust in the models, data bias, and data quality. One promising approach that has emerged in recent years to address these issues is Explainable Artificial Intelligence (XAI).

XAI focuses on developing machine learning models that not only provide predictions but also offer transparent explanations of how those decisions were made. This explainability is crucial for addressing several of the concerns you raised:

  • Understanding errors: By interpreting the model's reasoning, we can better understand why it might make incorrect predictions and work to correct them.

  • Ethical awareness: Explainability helps us detect situations where the model might behave unfairly or in ethically problematic ways.

  • Clinical trust: Medical professionals are more likely to trust and adopt these models if they can understand the reasoning behind the outputs.

This approach is being widely discussed in the scientific community and increasingly in public forums as well. Here’s an opinion article aimed at a general audience that introduces the concept and explains its relevance for precision medicine:
👉 https://www.imfarmacias.es/noticia/37572/inteligencia-artificial-explicable-para-una-medicina-de-precision.html

Thanks again for sparking this great conversation—I’m looking forward to hearing everyone’s thoughts!

Best regards, Augusto.



En respuesta a Alberto Fernández Hilario

Re: Hilo 3: Machine Learning y la Predicción de Enfermedades: Desafíos y Oportunidades / Machine Learning and Disease Prediction: Challenges and Opportunities

de María Isabel Aranda Olmedo -
¡Hola!
Muy delicado lo de dejar "en manos" de la IA el tema de la predicción de enfermedades. Aporto el enlace a un trabajo reciente de una estudiante de la Universidad Autónoma de Barcelona en el que trata el tema de la implementación de la IA en la medicina y habla del diagnóstico médico y, en concreto, del error de diagnóstico médico producido por la IA.

Es interesante la cuestión que plantea este trabajo sobre quién sería el responsable civil de un daño de salud provocado por la decisión tomada por una IA (¿El médico?, ¿el desarrollador?, ¿la IA?)

https://ddd.uab.cat/pub/tfg/2023/tfg_2505732/USO_DE_LA_INTELIGENCIA_ARTIFICIAL_PARA_EL_DIAGNSTICO_MDICO_TFG_SYLVIA_ARASA.pdf
-------------------------------------------------------------------------------------------------------------------------------------------------------------

Hello!
It's a very delicate matter to leave the issue of disease prediction "in the hands" of AI. I'm providing a link to a recent paper by a student at the Autonomous University of Barcelona. She addresses the implementation of AI in medicine and discusses medical diagnosis, specifically the medical diagnostic error caused by AI.

The question this paper raises about who would be liable for health damage caused by a decision made by an AI is interesting (the doctor? The developer? The AI?).

https://ddd.uab.cat/pub/tfg/2023/tfg_2505732/USO_DE_LA_INTELIGENCIA_ARTIFICIAL_PARA_EL_DIAGNSTICO_MDICO_TFG_SYLVIA_ARASA.pdf
En respuesta a Alberto Fernández Hilario

Re: Hilo 3: Machine Learning y la Predicción de Enfermedades: Desafíos y Oportunidades / Machine Learning and Disease Prediction: Challenges and Opportunities

de Jose M Peregrin Alvarez -
¡Buenas! El debate se está poniendo interesante.

La AI en biomedicina debe manejarse con cautela debido a la posibilidad de propagación de errores, los cuales pueden ser difíciles de detectar e incluso pasar desapercibidos. Por ello, creo que su mejor uso es como herramienta de apoyo en la investigación científica y médica, priorizando enfoques como la SAI (Supervised Artificial Intelligence), donde los modelos son interpretables y supervisados por expertos.

Un ejemplo de esto es el uso de modelos AI/ML en obesidad ([https://www.medrxiv.org/content/10.1101/2024.04.26.24306457v1]). En este caso, los modelos no reemplazan la fórmula tradicional del BMI, sino que la validan. Solo cuando varios modelos coinciden en que su predicción es más precisa, se permite que su estimación prevalezca. Esto se debe a que estos modelos consideran más parámetros relevantes para la obesidad, como la edad, el género, la etnia, la circunferencia de cintura y la composición corporal, lo que puede mejorar la precisión de la predicción en comparación con la fórmula tradicional ya que esta sólo considera dos parámetros (altura y peso).

Saludos, Jose

------
Hello! The debate is getting interesting.

AI in biomedicine must be handled cautiously due to the possibility of error propagation, which can be difficult to detect and even go unnoticed. Therefore, I believe its best use is as a support tool in scientific and medical research, prioritizing approaches such as SAI (Supervised Artificial Intelligence), where models are interpretable and supervised by experts.

An example can be the use of AI/ML models in obesity ([https://www.medrxiv.org/content/10.1101/2024.04.26.24306457v1]). In this case, the models do not replace the traditional BMI formula, but rather validate it. Only when several models agree that their prediction is more accurate, their estimation prevails. This is because these models consider more obesity-relevant parameters, such as age, gender, ethnicity, waist circumference, and body composition, which can improve prediction accuracy compared to the traditional formula, which only considers two parameters (height and weight).

Regards, Jose
En respuesta a Jose M Peregrin Alvarez

Re: Hilo 3: Machine Learning y la Predicción de Enfermedades: Desafíos y Oportunidades / Machine Learning and Disease Prediction: Challenges and Opportunities

de Alberto Fernández Hilario -
Muchas gracias Jose y María Isabel por vuestras respuestas, aportando conocimiento y enlaces a literatura especializada que nos permite seguir profundizando en la temática.

Con respecto a la discusión iniciada por María Isabel, aunque sea un tema delicado ¿por qué es menos seguro o confiable un sistema especializado de IA que un médico?¿Por qué consideráis que todavía hay un recelo producido por la interacción con una "máquina" pese a demostrar en ocasiones estar "más informada" que una persona?

Al hilo de lo comentado por José, está claro que la interpretabilidad / explicabilidad de los modelos / sistemas de IA es un debe, especialmente en contextos sensibles y de riesgo como los comentados; en esta línea se mueve la nueva legislación europea (AI Act) por lo que en principio se observa una clara tendencia a promocionar este tipo de aproximaciones "transparentes" pero, ¿hasta qué punto podemos realmente confirmar que un modelo de IA es confiable?

Un saludo,

Alberto.

----
Many thanks, Jose and María Isabel, for your responses, providing knowledge and links to specialized literature that allow us to continue delving into the subject.

Regarding the discussion initiated by María Isabel, although it is a delicate topic, why is a specialized AI system considered less safe or reliable than a doctor? Why do you think there is still hesitation when interacting with a "machine" even though it sometimes appears to be "better informed" than a person?

Following up on what José mentioned, it is clear that interpretability/explainability of AI models/systems is a must, especially in sensitive and high-risk contexts as mentioned; this is the direction of the new European legislation (AI Act), so there is a clear trend towards promoting these "transparent" approaches. However, to what extent can we truly confirm that an AI model is reliable?

Best regards,
Alberto.
En respuesta a Alberto Fernández Hilario

Re: Hilo 3: Machine Learning y la Predicción de Enfermedades: Desafíos y Oportunidades / Machine Learning and Disease Prediction: Challenges and Opportunities

de María Isabel Aranda Olmedo -
Hola de nuevo, Alberto y todos.
Pues, además del tema que ya he comentado antes (necesidad de definir muy bien de quién es la responsabilidad civil frente a un daño de salud provocado por la decisión tomada por una IA), lo que para mi es aun motivo de desconfianza es que, de momento, la IA se nutre de datos médicos sesgados. Nada más que a nivel poblacional, me surgen preguntas como: ¿Qué proporción de datos médicos proceden de países pobres sin tecnología o recursos punteros? ¿Qué grupos poblacionales, razas, etc., están más representados y cuales menos en los entrenamientos de estos modelos? Por otra parte están los sesgos de conocimiento ¿cómo se entrena a la IA para predecir casos tan complejos como, por ejemplo, los cuadros asociados a salud mental? Es más, hay incluso preguntas que no tienen una única respuesta correcta; ¿tendrá la IA la última palabra?
Un saludo.
M. Isabel.
-----------------------------------------------------------
Hello again, Alberto and everyone.
Well, in addition to the issue I mentioned earlier (the need to clearly define who bears civil liability for health damage caused by a decision made by an AI), what I still find to be a cause for distrust is that, for now, AI is fed by biased medical data. At the population level alone, I have questions like: What proportion of medical data comes from poor countries without cutting-edge technology or resources? Which population groups, races, etc., are most and least represented in the training of these models? Then there are knowledge biases. How do you train AI to predict such complex cases as, for example, conditions associated with mental health? What's more, there are even questions that don't have a single correct answer; will AI have the final say?
Best regards.
M. Isabel.
En respuesta a María Isabel Aranda Olmedo

Re: Hilo 3: Machine Learning y la Predicción de Enfermedades: Desafíos y Oportunidades / Machine Learning and Disease Prediction: Challenges and Opportunities

de Augusto Miguel Anguita Ruiz -
¡Muchas gracias por tu reflexión, M. Isabel!

Planteas cuestiones clave que tocan el corazón del debate ético en torno al uso de la inteligencia artificial en el ámbito sanitario. El sesgo en los datos médicos es, sin duda, uno de los mayores retos: si los modelos se entrenan con datos no representativos, sus predicciones pueden perpetuar desigualdades o incluso poner en riesgo a ciertos colectivos.

Por ejemplo, en la investigación que realizo —centrada en el estudio del exposoma humano y su impacto en la salud durante las primeras etapas de la vida— ya te adelanto que existe un fuerte sesgo hacia poblaciones caucásicas de países desarrollados, y resulta muy difícil encontrar datos representativos de países de renta baja y media (Low-Middle Income Countries).

También me parece especialmente relevante lo que comentas sobre salud mental. ¿Cómo puede una IA interpretar matices emocionales, contextos culturales o síntomas que no siempre se expresan igual en todos los pacientes?

Y tu última pregunta es especialmente potente: ¿debería la IA tener la última palabra en decisiones clínicas complejas? Quizá, más que sustituir al profesional, la IA debería ser una herramienta de apoyo, ¿no creéis? A eso se refieren precisamente los llamados Clinical Decision Support Systems (CDSS).

------------


Thank you so much for your thoughtful reflection, M. Isabel!

You’ve raised key questions that go straight to the heart of the ethical debate surrounding the use of AI in healthcare. Bias in medical data is undoubtedly one of the greatest challenges: if models are trained on unrepresentative data, their predictions can reinforce inequalities — or even endanger certain groups.

For example, in the research I conduct — focused on the human exposome and its impact on health during early life stages — I can tell you there’s a strong bias towards Caucasian populations from developed countries, and it’s extremely difficult to find representative data from Low-Middle Income Countries.

I also find your point about mental health particularly important. How can an AI system interpret emotional nuance, cultural context, or symptoms that may present very differently across patients?

And your final question is especially powerful: Should AI have the final say in complex clinical decisions? Perhaps, instead of replacing professionals, AI should serve as a support tool. That’s exactly the role of Clinical Decision Support Systems (CDSS).