La búsqueda global no está activada.
Salta al contenido principal
Foro

Foro de debate módulo 1

Interpretabilidad de la IA en Salud/ interpretable IA

Interpretabilidad de la IA en Salud/ interpretable IA

de Coral del Val Muñoz - Número de respuestas: 4

La legislación Europea sobre el tratamiento general de los datos 2016/679 (GDPR) en concreto el artículo 17 de la GDPR  contempla el derecho de explicación del paciente. Lo que implica que cualquier método de predicción o diagnóstico que resulte de la aplicación de métodos de aprendizaje automático o inteligencia artificial , casi todos,  necesita tener una interpretación lingüística que pueda ser entendida tanto por pacientes como por el personal sanitario que lo usa. ¿Que pensais que va a suponer esto en los nuevos proyectos de medicina personalizada?


---------------------

The European General Data Processing Regulation 2016/679 (GDPR), in particular Article 17 of the GDPR, provides for the patient's right of explanation. This means that any predictive or diagnostic method resulting from the application of machine learning or artificial intelligence methods, almost all of them, needs to have a linguistic interpretation that can be understood by both patients and the healthcare staff using it. What do you think this will mean for new personalised medicine projects?


En respuesta a Coral del Val Muñoz

Re: Interpretabilidad de la IA en Salud/ interpretable IA

de Krysthell Andara -
   Buenas tardes,
    Creo que supondrá un reto en los nuevos proyectos de Medicina Personalizada, ya que, hasta ahora el paciente está siendo un ente, por decirlo de alguna manera, "pasivo", al dejarse examinar, formar parte de una predicción y diagnóstico desde su exploración, casi sin tomar en cuenta, o darle menor relevancia, a que el que está siendo examinado es él y por lo tanto, merece conocer la información detallada, clara y concisa; al día de hoy esto no se cumple. Las predicciones y estudios se realizan y, el individuo pasa a ser un ser exploratorio, claro, con su determinado tratamiento y seguimiento, pero quizá el darle la importancia que merece a quien se está estudiando, genere cambios significativos en la percepción de la enfermedad y por ende en la interiorización de la misma, en cómo hacerle frente, actitudes, y demás, ya que, teniendo la información detallada, dejarán un poco de lado esa sensación de impotencia ante el médico y, depender totalmente en qué tipo de profesional te ha tocado y en si le apetece, o no, detenerse un poco en todas aquellas dudas que podrían aparecer, conforme se va desarrollando la enfermedad y durante el proceso de diagnóstico, por lo que el reto principal de la Medicina Personalizada, será que estarán frente a pacientes más independientes, más críticos y menos pasivos, y dentro de esto están factores tanto positivos, como negativos y, es el que no todas las personas reciben la información de la misma manera, hay quienes "funcionan mejor" siendo dirigidos y prefieren no saber "tanto" para "estar tranquilos" y sobrellevar de la mejor manera cualquier predicción o diagnóstico.
En respuesta a Coral del Val Muñoz

Re: Interpretabilidad de la IA en Salud/ interpretable IA

de Alba Repiso Guardeño -
Pienso que la ciencia además de para los científicos debe de ser entendida por los que no lo son, ya que el objetivo de estudio científico siempre va dirigido a ellos. Haciéndolos partícipes de esto, (que sólo se logra mediante el entendimiento y compresión de lo que se está haciendo con los datos), ayuda fundamentalmente a implicar al paciente en su tratamiento de una forma activa y consciente (que siempre mejorará la adherencia a los tratamientos) y mejorará la opinión pública de las ciencias y la IA no viéndola como una enemiga por desconocimiento sino como una herramienta muy útil en la resolución de algunos problemas. Y al final, el esfuerzo de explicar un proceso complejo en palabras "llanas" es muy pequeño en cuanto a lo beneficios comunes que podemos conseguir.
En respuesta a Coral del Val Muñoz

Re: Interpretabilidad de la IA en Salud/ interpretable IA

de Samuel Saldaña -
En la última década, particularmente los últimos años, se ha fomentado una cultura de acceso a la información, cambio de paradigma trasladada a todos los ámbitos.

La incorporación de la I.A. está inherente a cada actividad humana, IoT, IoMT, telemedicina, así como software ya empotrado en equipos, fomentan la transferencia de información por lo que hay un ciclo donde termina ese conocimiento o contexto, y, en el campo de la salud, de la vida, biomedicina, ... ; los insumos terminan en el sujeto de estudio. Y, dado que la expectativa sobre la I.A. es de manera ontológica, la calidad del servicio, la cultura de lo inmediato, la Big Data, entre otros aspectos sociales, fomentan más allá del marco legal, la Democracia 4.0; la disponibilidad de los resultados o diagnósticos clínicos. Tal vez, se logre como un mensaje o posteo en los dispositivos tecnológicos personales o del paciente, tal como pretenden algunas APP's.

Algunas funciones técnicas son compartidas a través de software + hardware, y trasladadas a los actores, pero es el paciente quien está cada vez más, siendo el centro de toda atención tras la búsqueda de la calidad en el servicio: tiempo y calidad de la respuesta.


In the last decade, particularly in recent years, a culture of access to information has been fostered, a paradigm shift transferred to all areas.

The incorporation of A.I. is inherent in every human activity, IoT, IoMT, telemedicine, as well as software already embedded in equipment, encourage the transfer of information so there is a cycle where that knowledge or context ends, and, in the field of health, life, biomedicine, .... ...; the inputs end up in the subject of study. And, since the expectation about A.I. is ontologically, the quality of service, the culture of the immediate, Big Data, among other social aspects, promote beyond the legal framework, Democracy 4.0; the availability of clinical results or diagnoses. Perhaps, it is achieved as a message or post on personal or patient's technological devices, as some APP's intend.

Some technical functions are shared through software + hardware, and transferred to the actors, but it is the patient who is more and more, being the center of all attention after the search for quality in service: time and quality of response.
En respuesta a Samuel Saldaña

Re: Interpretabilidad de la IA en Salud/ interpretable IA

de Coral del Val Muñoz -
Vuestro compañero Samuel ha dejado un comentario sobre la cultura de acceso a la información, impulsada por la inteligencia artificial (IA), la IoT (Internet de las Cosas), la IoMT (Internet de las Cosas Médicas), y la telemedicina, y como estos avances están transformando varios campos, especialmente salud y biomedicina. Destaca la centralidad del paciente en estos desarrollos y cómo la tecnología está integrada para mejorar la calidad y la rapidez del servicio médico. 

En tu mensaje destacas varios aspectos cruciales sobre el impacto de la inteligencia artificial (IA) en el campo de la salud, subrayando la centralidad del paciente, la inmediatez de los diagnósticos y la integración tecnológica. Sin embargo, mi idea en este hilo era resaltar un tema crítico que merece una reflexión más profunda “la interpretabilidad de la IA en salud”, un aspecto vital para la confianza y la eficacia en la atención médica.
Importancia de la Interpretabilidad en IA
La interpretabilidad se refiere a la capacidad de una IA para explicar sus decisiones de manera comprensible para los humanos. En el contexto de la salud, esto es esencial porque:
1. Transparencia y Confianza: Los médicos y pacientes deben entender cómo se llegan a las decisiones diagnósticas para confiar en ellas. Sin interpretabilidad, las decisiones de la IA pueden parecer cajas negras, lo que genera desconfianza y resistencia a su adopción .
2. Validación Clínica: La validación de los resultados de la IA es fundamental. Si los profesionales de la salud no pueden interpretar y validar las recomendaciones de la IA, la implementación de estas tecnologías puede ser problemática, especialmente cuando se trata de decisiones críticas .
3. Responsabilidad y Ética: En caso de errores o resultados adversos, es crucial poder rastrear y entender cómo la IA llegó a una determinada conclusión. Esto no solo es importante para mejorar los sistemas, sino también para cuestiones legales y de responsabilidad ética .

Desafíos de la Interpretabilidad

La complejidad de algunos modelos de IA, como las redes neuronales profundas, a menudo dificulta la interpretabilidad. Estos modelos son potentes y pueden detectar patrones complejos, pero su funcionamiento interno es difícil de explicar incluso para los expertos en IA. Esto contrasta con modelos más simples y explicables, como los árboles de decisión, que son más fáciles de interpretar pero pueden no capturar la misma complejidad .
Avances y Soluciones
Para abordar estos desafíos, se están desarrollando técnicas de IA explicable (XAI, por sus siglas en inglés), que buscan hacer más transparentes los modelos de IA complejos. Estas técnicas incluyen:
Modelos de Post-hoc: Herramientas que explican las decisiones de modelos complejos después de que se hayan hecho. Ejemplos incluyen LIME (Local Interpretable Model-agnostic Explanations) y SHAP (SHapley Additive exPlanations) .
Modelos Intrínsecamente Interpretables: Diseñar modelos que sean interpretables desde el inicio, como redes neuronales transparentes o algoritmos basados en reglas .
Fuentes
1. IEEE Xplore: Transparency and Interpretability of Machine Learning in Health Care
2. Nature Medicine: Explainable Artificial Intelligence for Healthcare
3. Journal of Medical Internet Research: Challenges of Explainable AI in Healthcare
4. European Journal of Information Systems: Responsibility and Explainability in AI
5. SpringerLink: Model Interpretability in Machine Learning
6. LIME: Local Interpretable Model-agnostic Explanations
7. SHAP: SHapley Additive exPlanations
-----------------------

Your colleague Samuel has left a commentary on the culture of access to information, driven by artificial intelligence (AI), the IoT (Internet of Things), the IoMT (Internet of Medical Things), and telemedicine, and how these advances are transforming various fields, especially healthcare and biomedicine. You highlight the centrality of the patient in these developments and how technology is integrated to improve the quality and speed of medical service. In your post you highlight several crucial aspects of the impact of artificial intelligence (AI) in the healthcare field, stressing patient-centricity, immediacy of diagnostics, and technological integration. However, my idea in this thread was to highlight a critical issue that deserves further reflection "the interpretability of AI in healthcare", a vital aspect of trust and efficiency in medical care.

Importance of AI Interpretability
Interpretability refers to the ability of an AI to explain its decisions in a way that is understandable to humans. In the context of healthcare, this is essential because:
1. transparency and trust: clinicians and patients must understand how diagnostic decisions are arrived at to trust them. Without interpretability, AI decisions can appear to be black boxes, leading to distrust and resistance to adoption.
2. Clinical Validation: Validation of AI results is critical. If healthcare professionals cannot interpret and validate AI recommendations, implementation of these technologies can be problematic, especially when critical decisions are involved.
3. Accountability and Ethics: In case of errors or adverse outcomes, it is crucial to be able to track and understand how the AI arrived at a certain conclusion. This is not only important for improving systems, but also for legal and ethical liability issues.

Interpretability Challenges

The complexity of some AI models, such as deep neural networks, often makes interpretability difficult. These models are powerful and can detect complex patterns, but their inner workings are difficult to explain even for AI experts. This contrasts with simpler, more explainable models, such as decision trees, which are easier to interpret but may not capture the same complexity
.
Advances and Solutions
To address these challenges, explainable AI (XAI) techniques are being developed, which seek to make complex AI models more transparent. These techniques include:
- Post-hoc models: tools that explain complex model decisions after they have been made. Examples include LIME (Local Interpretable Model-agnostic Explanations) and SHAP (SHapley Additive exPlanations) .
- Inherently Interpretable Models: Design models that are interpretable from the start, such as transparent neural networks or rule-based algorithms.

Sources:

1. IEEE Xplore: Transparency and Interpretability of Machine Learning in Health Care
2. Nature Medicine: Explainable Artificial Intelligence for Healthcare
3. Journal of Medical Internet Research: Challenges of Explainable AI in Healthcare
4. European Journal of Information Systems: Responsibility and Explainability in AI
5. SpringerLink: Model Interpretability in Machine Learning
6. LIME: Local Interpretable Model-agnostic Explanations
7. SHAP: SHapley Additive exPlanations