La profesora María José Parejo, titular de Derecho Eclesiástico del Estado en la Universidad Pablo de Olavide (UPO), ha alertado sobre los "importantes retos legales, éticos y formativos" que plantea la Inteligencia Artificial en el ámbito sanitario. Sus declaraciones se produjeron durante los Cursos de Verano de la UPO celebrados en Carmona, donde ejerció como codirectora.
La experta, que forma parte de la Comisión de Garantía y Evaluación de la Consejería de Salud de la Junta de Andalucía, centró su intervención en los desafíos del uso de sistemas automatizados en decisiones médicas críticas. "Estamos hablando de la vida humana", advirtió Parejo, subrayando que "una decisión errónea basada en IA en el ámbito sanitario puede tener consecuencias irreversibles".
Protección de datos como prioridad
La profesora identificó dos aspectos fundamentales que requieren atención urgente: la protección de datos personales y la determinación de responsabilidades. "La IA se alimenta de grandes cantidades de datos, pero no sabemos a dónde van esos datos ni cómo se utilizan", explicó.
En el caso específico de los datos de salud, Parejo considera que "el riesgo es especialmente grave". La regulación debe ser clara para proteger la confidencialidad de los pacientes y evitar que información sensible quede expuesta, según su criterio.
Responsabilidad médica en entredicho
La cuestión de la responsabilidad plantea dilemas complejos para la profesión médica. "Si un paciente fallece como consecuencia de una indicación errónea de un sistema de inteligencia artificial, ¿quién es el responsable?", se preguntó Parejo durante su intervención.
Aunque la ley sitúa al médico como "última instancia responsable", la experta alertó sobre el riesgo de confiar ciegamente en las recomendaciones automatizadas sin una evaluación crítica previa. "Hay que formar al personal sanitario para que utilice la inteligencia artificial con rigor y sin delegar en ella decisiones humanas trascendentales", afirmó.
Dilemas éticos en la práctica
En el plano ético, Parejo planteó interrogantes sobre los límites de la ética profesional médica. "¿Dónde empieza y acaba la ética profesional del médico? ¿Está el paciente realmente solicitando la eutanasia o está siendo inducido por una herramienta algorítmica?", cuestionó.
Para la docente resulta crucial garantizar que el criterio humano no se vea desplazado por sistemas que, aunque eficaces, carecen de sensibilidad moral. La formación especializada emerge como elemento clave para prevenir la vulneración inconsciente de derechos fundamentales.
Marcos normativos necesarios
Parejo subrayó la necesidad de desarrollar marcos normativos que acompañen la integración de estas tecnologías en la sociedad. Valoró positivamente la próxima publicación de un 'Código de Buenas Prácticas' impulsado por el Ministerio de Universidades.
Este código servirá como guía para el uso responsable de la IA en entornos académicos y profesionales. Frente al temor que genera la IA, la profesora se mostró cautelosamente optimista: "Va a cambiar todo: la forma de enseñar, de aprender, de ejercer la medicina. Si lo hacemos bien, será una herramienta para avanzar. Pero si no se usa correctamente, puede convertirse en un desastre".
(Europa Press) Nota: Este artículo ha sido editado con la ayuda de Inteligencia Artificial.