La segunda mesa de la VIII Convención de la Profesión Médica ha reunido a grandes expertos para abordar ‘La Inteligencia Artificial, Avances, retos y responsabilidad’.
El Dr. Jaime del Barrio Seoane, presidente de la Asociación de Salud Digital (ASD), ha sido el encargado de moderar este espacio, que ha contado con la participación del Dr. Ignacio Hernández Medrano, neurólogo, subdirector del Instituto de Investigación en el Hospital Universitario Ramón y Cajal y Fundador de SAVANAMED; Ignasi Belda, director General de la Agencia Española de Supervisión de Inteligencia Artificial; el Dr. Víctor Maojo, catedrático de Inteligencia Artificial de la Universidad Politécnica de Madrid, y Ofelia De Lorenzo, presidenta de la Asociación Española de Derecho Sanitario.
El Dr. Hernández ha iniciado el turno de ponentes explicando el funcionamiento aplicado en las herramientas de Inteligencia Artificial: “El proceso de aprendizaje automático, machine learning, consiste en, en lugar de darte las reglas, aportar una serie de procesos resueltos para que sea la propia herramienta la que pueda inferir las reglas. Esto da una gran ventaja respecto a la informática o estadística, ya que puede resolver un problema, aunque sea la primera vez que lo ve”.
En cuanto a la relación de esta capacidad predictiva de las herramientas de IA con la gestión de un sistema sanitario, el neurólogo ha insistido en la necesidad de comprender el potencial que estas técnicas tienen al manejar varias capas de datos: “Esta capacidad se vio representada en 2019, cuando un grupo de expertos de China, aportando a la herramienta datos cruzados sobre el genoma y el fondo del ojo, capacitaron a su herramienta para predecir degeneración macular a siete años”.
En este sentido, el fundador de SAVANAMED ha recalcado lo útil e interesante que resulta aplicar varias capas de datos a dichas aplicaciones: “Vamos hacia un mundo en el que nos interesa tener todas las capas de datos posibles para que esa capacidad de predicción con machine learning sea lo más granular y potente posible.
Reglamento y aplicaciones prohibidas
Por su parte, Belda ha centrado su exposición en sintetizar las claves del reglamento que aborda los límites de estas herramientas. “El reglamento hace una clasificación de riesgos en cuatro niveles. En primer lugar, aquellas aplicaciones inasumibles, es decir, aquellas que como sociedad existe un consenso para que estén prohibidas. Un ejemplo sería la aplicación de estas herramientas para la manipulación subliminal de los ciudadanos”.
No obstante, también existen aplicaciones que tienen un riesgo bajo o nulo, según ha explicado, y que componen entre el 90 y 95% del total: “Esto lo usamos en muchos sitios. Desde la cafetera hasta el termo inteligente, que aprende de mis hábitos para calentar el agua solo un poco antes de que me duche y así ser más eficiente. Si un día falla, me ducharé con agua fría. Eso es lo que entendemos como riesgo bajo o nulo”.
Sobre los niveles intermedios de riesgo, Belda ha indicado los cuatro casos que se encontrarían en estas categorías: “Cuando hay una vida humana en riesgo, como en la automoción; Cuando hay un derecho fundamental en riesgo; Cuando hay un riesgo de daño al medioambiente y, por último, cuando existen infraestructuras críticas involucradas”.
Primeros sistemas y su valor en la actualidad
Como ha explicado el Dr. Maojo, la Inteligencia Artificial no es algo que surgió hace dos años, cuando se dieron a conocer mundialmente las principales herramientas que hoy conocemos de IA. Así, el catedrático ha aclarado las dos áreas principales de las inteligencias artificiales: simbólica y conexionista. “Desde un punto de vista práctico, podemos considerarlas como IA basada en datos o en conocimientos”.
A este respecto, el Dr. Maojo ha apuntado que las distintas áreas cuentan con un periodo de predominancia. “La primera abarcaría hasta el año 94, mientras que la segunda comprendería desde esa fecha hasta la actualidad”.
Cabe destacar, según ha señalado el catedrático, que estos primeros sistemas fueron exitosos en muchas disciplinas, pero no en la Medicina. “Varias causas impidieron el éxito temprano en el campo médico. Una de ellas es la incertidumbre que existe sobre la causa de las enfermedades, así como la diversidad en los protocolos”.
Sin embargo, el avance de las tecnologías y el aumento de la capacidad de los ordenadores a partir del 2004 ha resultado “decisivo” para que estas herramientas puedan ir entrando con solvencia en la Medicina actual, ha concluido.
Marco legal y profesional
En relación con el aspecto legal y cómo estas nuevas aplicaciones pueden interferir con la normativa vigente, la presidenta de la AEDS ha destacado la necesidad de adaptar el marco legal a las técnicas presentes o futuras: “Sin duda, un acto médico con uso de Inteligencia Artificial plantea una serie de escenarios a los que nos tenemos que adelantar”.
Con todo, De Lorenzo ha destacado la gran utilidad de estas herramientas en la Medicina, sin quitarle importancia a los riesgos que conllevan: “La digitalización en la asistencia sanitaria conlleva notables mejoras y muchas ventajas. Pero es verdad que legalmente hay cuestiones que suscitan preocupación porque necesitamos prever escenarios para saber qué competencias o responsabilidades nos son exigibles”.
Por último, la abogada ha incidido en la importancia de la responsabilidad en el uso de estas aplicaciones en el campo médico: “La historia clínica es el reflejo de la asistencia médica. Y si la actuación médica está basada en una herramienta de inteligencia artificial, así se debe reflejar. Los profesionales deben formarse debidamente y mantenerse en las obligaciones que le corresponden, el conocimiento de la normativa sanitaria de aplicación”.