¡Hola!
Me llamo Mishell y este es mi primer año de investigación doctoral. Aunque mi base es la ingeniería, siempre sentí que faltaba algo: el impacto social directo de mi trabajo. Esta búsqueda me llevó a cursar un máster en ingeniería biomédica, donde descubrí mi pasión por el diseño de productos sanitarios. Ahora, mi doctorado une todas mis pasiones: la Inteligencia Artificial Explicable (XAI) aplicada a modelos multimodales de señales biomédicas.
(Si tienes prisa y quieres ir directo a las preguntas de investigación, dale scroll y hasta abajo 💃)
Permíteme compartirte por qué este tema me apasiona tanto. Es una fascinante intersección entre leyes, ética, diseño centrado en usuarios y modelos matemáticos.
Los modelos de IA raramente siguen un diseño formal - a menudo nos limitamos a replicar comportamientos. Cuando un modelo de IA te recomienda una película o un restaurante, el impacto es mínimo. Pero cuando hablamos de salud o finanzas, la historia cambia drásticamente. Incluso con un modelo que presume 99% de rendimiento, surge una pregunta crucial: ¿Qué sucede con las personas que no forman parte de este porcentaje?
Imagina decirle a una persona que su vida cambiará significativamente basándose en la predicción de una máquina, sin poder explicarle cómo se llegó a esa conclusión. Para generar confianza en estos sistemas, necesitamos más que solo métricas de rendimiento.
La ley europea de IA, plantea dos pilares fundamentales: transparencia y confianza en función del riesgo. Para hacer estos modelos más transparentes, necesitamos explicar su funcionamiento de manera comprensible, lo que naturalmente llevará a una mayor confianza en los sistemas de IA.
Casos recientes han demostrado que el verdadero problema radica en confiar ciegamente en estos sistemas. Por eso, mi enfoque en XAI busca desarrollar herramientas que permitan a los usuarios cuestionar el modelo de manera crítica. ¿Por qué deberíamos usar este modelo en grupos poco representados en los datos de entrenamiento? ¿Qué factores influyen en sus decisiones? ¿Qué cambios necesitaríamos para obtener resultados diferentes?
Sin embargo, existe un delicado balance: ofrecer demasiada información puede resultar contraproducente, similar a los términos y condiciones que todos ignoramos. La clave está en proporcionar información relevante según el perfil del usuario.
Por esta razón, es fundamental estudiar a fondo las necesidades de nuestros usuarios finales - en mi caso, el personal sanitario.
Aunque las preguntas superan a las respuestas, esto solo alimenta mi curiosidad. Mi investigación se centra en una pregunta principal:
¿Puede la XAI mejorar la toma de decisiones del personal sanitario que utiliza modelos multimodales de IA para clasificación?
Específicamente, busco responder:
- ¿Qué información necesita el personal médico para mejorar su toma de decisiones?
- ¿Qué tipo de información requieren para utilizar los modelos de IA como herramientas efectivas?
- ¿Existe una diferencia significativa en la toma de decisiones cuando se utiliza un modelo XAI?
Comentarios
Publicar un comentario