Desafíos éticos de la robótica en la atención médica

desafíos éticos de la robótica

En las últimas décadas, la relación entre la robótica y la atención sanitaria está alcanzando niveles nunca antes imaginados. Los avances tecnológicos en este campo siguen mejorando la precisión de diagnósticos, la eficiencia en la atención de pacientes y la optimización de tratamientos médicos. Sin embargo, este vertiginoso desarrollo no está exento de controversias éticas fundamentales que deben ser abordados desde la perspectiva tanto de los profesionales de la salud como de los desarrolladores de estas tecnologías. Desde Inrobics, queremos explorar brevemente los desafíos éticos de la robótica en la atención médica.

En particular, nos centraremos en cinco aspectos críticos. Por un lado, hablaremos de la privacidad y seguridad de los datos, la equidad en el desarrollo de la inteligencia artificial (IA) y la responsabilidad y toma de decisiones por parte de los profesionales de la medicina. También, examinaremos lo relativo a la autonomía de las máquinas y la necesidad de supervisión humana, así como el consentimiento informado del paciente.

Privacidad y seguridad de los datos, uno de los desafíos éticos de la robótica

Sin duda, uno de los retos éticos más apremiantes en la integración de la robótica en la atención médica es la gestión de la privacidad y la seguridad de los datos médicos de los pacientes. Los sistemas robóticos y la IA en la atención médica recopilan y almacenan una gran cantidad de información sensible de los pacientes. Esta va desde historias clínicas hasta datos biométricos. Tal acumulación de información plantea preocupaciones significativas en cuanto a la privacidad y la posibilidad de que la información caiga en manos equivocadas.

Para abordar este desafío, es esencial implementar medidas sólidas de seguridad cibernética y garantizar el cumplimiento de las regulaciones de privacidad de datos. En especial, las plasmadas en el Reglamento General de Protección de Datos (RGPD) de la Unión Europea y la Ley de Servicios de la Sociedad de Información y Comercio Electrónico de España (LSSI). Además, los desarrolladores de tecnologías médicas deben diseñar sistemas que permitan a los pacientes tener un mayor control sobre sus datos. Aparte de dar su consentimiento informado para su uso.

Equidad en el desarrollo de la IA

Otro de los desafíos éticos de la robótica más importantes se relaciona con la equidad en el desarrollo y la implementación de la inteligencia artificial en la atención médica. Aunque la IA tiene potencial para mejorar la atención médica en general, existe el riesgo de que sus beneficios no se distribuyan de manera equitativa. Esto puede ocurrir por sesgos en los datos utilizados para entrenar a los algoritmos o por falta de acceso a tecnologías avanzadas en algunas comunidades.

En concreto, para encarar este problema es esencial que los desarrolladores de IA en atención médica se esfuercen por eliminar sesgos en datos y algoritmos. Igualmente, deben trabajar en colaboración con profesionales de la salud para garantizar que las soluciones sean culturalmente sensibles y accesibles para todos los grupos demográficos.

Responsabilidad y toma de decisiones entre los desafíos éticos más preocupantes

La creciente autonomía de los sistemas robóticos y la IA plantea preguntas cruciales sobre la responsabilidad y la toma de decisiones en el campo médico. ¿Quién es responsable legal si un algoritmo comete un error en el diagnóstico o el tratamiento de un paciente? ¿Cómo se define la línea entre la responsabilidad del profesional de la salud y la responsabilidad del desarrollador del sistema? ¿Puede un sistema de robótica e IA ser imputado como sujeto activo de delito y ser directamente responsable en caso de daño para el paciente?

En este sentido, es fundamental establecer claridad en cuanto a la responsabilidad legal y ética en el uso de tecnologías médicas avanzadas. Esto exige crear estándares y regulaciones específicas para la atención médica robótica y definir quién tiene la responsabilidad final en casos de decisiones médicas erróneas.

Autonomía y supervisión humana

Desde luego, la autonomía de las máquinas en la atención médica es un tema de debate constante. Si bien la automatización puede aumentar la eficiencia y reducir el error humano, es esencial mantener un equilibrio adecuado entre la autonomía de las máquinas y la supervisión humana. Esto es particularmente sensible en el caso de la cirugía robótica, cuyos avances parecen indiscutibles. ¿Hasta qué punto podemos confiar en que un robot o un algoritmo tome decisiones médicas sin intervención humana?

En situaciones críticas, como cirugías complejas o diagnósticos médicos delicados, la supervisión humana sigue siendo crucial. La toma de decisiones debe compartirse entre médicos especialistas y sistemas automatizados para garantizar tanto la seguridad del paciente como la calidad de la atención.

Consentimiento informado al paciente

Finalmente, el consentimiento informado del paciente se vuelve más complejo con la introducción de tecnologías robóticas y de IA en la atención médica. Entre los desafíos éticos de la robótica planteados aquí, educar al paciente en relación a sus problemas de salud y la conveniencia de un procedimiento o terapia que involucre a la tecnología que nos ocupa no deja de ser una tarea difícil. Los pacientes deben comprender no solo el tratamiento propuesto, sino también cómo las tecnologías avanzadas pueden afectar su bienestar y su privacidad. Además, deben tener la capacidad de otorgar o rechazar su consentimiento de manera informada.

Pero, los profesionales de la salud no solo tienen la responsabilidad de explicar claramente a los pacientes el uso de la tecnología en su atención. Por igual, deben asegurarse de que comprendan las implicaciones éticas y los posibles riesgos. Esto garantiza que los pacientes tengan un papel activo en sus decisiones de tratamiento y puedan tomar decisiones informadas sobre la inclusión de tecnologías robóticas en su atención médica. De modo, que la aceptación en estas condiciones va mucho más allá de un simple descargo de responsabilidades.

Recomendaciones para asumir los desafíos éticos de la robótica en la asistencia sanitaria

En 2014, la Comisión de Reflexión sobre la Ética de la Investigación en Ciencias y Tecnologías Digitales de la alianza Allistene (CERNA) propuso unas recomendaciones pertinentes para nuestro tema. Las mismas fueron republicadas por el Parlamento Europeo:

  • Ética médica. En primer lugar, los investigadores y desarrolladores en robótica reparadora o asistencial deben establecer una coordinación con profesionales médicos y pacientes. El propósito es considerar la independencia e integridad del paciente y la protección de su intimidad como parte de los principios de la ética médica y de los requisitos de eficacia y seguridad asistencial. Este tema debe abordarse más allá del ámbito jurídico. Al respecto, es posible realizar ajustes individuales caso por caso en lugar de aplicar una norma general, apoyándose en el pensamiento ético y la deliberación. Los investigadores deben solicitar y acatar los dictámenes publicados por los comités éticos médicos operativos. La idea es establecer una conexión entre la tecnología robótica emergente y las posiciones plasmadas en dichas resoluciones.
  • Autonomía e integridad. Aquellos desarrolladores que diseñen y armen sistemas robóticos reparadores deben tratar de preservar la autonomía de las personas dotadas. Específicamente, las soluciones han de mantener a los pacientes en posición de controlar sus acciones hasta donde sea posible. Más aún, los desarrolladores deben tratar de preservar la integridad de las funciones distintas de las rehabilitadas.
  • Reversibilidad. En este punto, quienes trabajen en dispositivos robóticos para la mejora humana tendrán el deber de garantizar que el ajuste resultante siga siendo reversible. Es decir, el retiro de los dispositivos no debe causar daños a la persona ni hacerle perder las funciones iniciales.
  • Efectos sociales de la mejora. Por último, los desarrolladores deben investigar los efectos sociales de la mejora humana inducida por los dispositivos construidos. Incluso, aquellos efectos sobre el comportamiento social de los individuos dotados y, en forma recíproca, sobre el comportamiento social de las personas no dotadas.

Nuestra solución de rehabilitación con robótica social cumple estos principios éticos

En efecto, Inrobics Rehab, la solución de rehabilitación basada en robótica social e IA que desarrollamos en Inrobics, nos ha permitido conocer y aplicar las consideraciones explicadas. Gracias a la investigación y las mejoras continuas que realizamos, perfeccionamos este servicio de rehabilitación personalizado, empático y flexible. Nuestro objetivo no solo es incrementar su efectividad y accesibilidad para los pacientes, sino también cumplir con los preceptos éticos ya establecidos en asistencia sanitaria. Desde luego, también tenemos en cuenta las normativas de protección de datos personales, como el RGPD y la LSSI.

Inrobics Rehab dispone de ALMA, nuestro software de desarrollo propio. Este consiste en una IA social que impulsa la performance de los robots y posibilita su interacción con pacientes y profesionales sanitarios. Este componente le permite adaptarse a las necesidades y a las diferentes situaciones del campo terapéutico. ALMA razona como los expertos clínicos, gracias a las técnicas de machine learning y sistemas de toma de decisiones. De esta forma, creamos un robot inteligente capaz de interactuar con pacientes y dirigir una sesión de rehabilitación, siguiendo la prescripción establecida por el profesional. En otras palabras, las decisiones no las toma solo el sistema.

¡Descúbrela con una demo gratuita de nuestra solución!

Picture of Fernando Fernández

Fernando Fernández

Catedrático de informática en la Universidad Carlos III de Madrid y ex CEO de Adact Solution SL. Receptor de las becas FPU y MEC-Fulbright, y del premio JP Morgan AI Research Award en 2020. Ha publicado más de 50 artículos científicos de inteligencia artificial, centrados en planificación automática y machine learning. Tiene experiencia internacional como investigador en la Carnegie Mellon University y en la University of Texas at Austin. Su faceta emprendedora se centra en desarrollar y validar soluciones innovadoras en salud.