Marina Galvín Gordillo
Universidad de Sevilla
margalgor1alum@alum.us.es 0009-0005-8340-6931
Recibido: 06 de junio de 2023 | Aceptado: 13 de junio de 2023
IUS ET SCIENTIA • 2023
Vol. 9 • Nº 1 • pp. 129-151
ISSN 2444-8478 • http://doi.org/10.12795/IESTSCIENTIA.2023.i01.09
RESUMEN |
PALABRAS CLAVE |
|
En este trabajo vamos a tratar de explicar cuáles son los efectos y las consecuencias del uso de los robots en la medicina y sus aspectos legales, asimismo, analizaremos los avances en la tecnología y la inteligencia artificial y sus aplicaciones en el campo de la medicina y la salud, que ha supuesto el avance en la calidad de vida y está ayudando a curar enfermedades y dando diagnósticos que hasta hace poco eran impensables. |
Medicina Robots Inteligencia artificial Salud Calidad de vida |
|
ABSTRACT |
KEYWORDS |
|
In this paper we are going to try to explain which are the effects and consequences of use of the robots in medicine, and its legal aspects, in other words, what would be its effects, the advances in technology and artificial intelligence and its applications in the field of medicine and the health, and that have improved the quality of life, curing diseases and performing diagnosis that until recently were not possible. |
Medicine Robots Artificial intelligence Health Quality of life |
El hombre a lo largo del tiempo ha buscado su mejora en la calidad de vida y, para ello, ha puesto su inteligencia y su trabajo al servicio de la lucha contra las enfermedades, esto caracteriza de forma indefectible el pasado, el presente y el futuro de la humanidad; los avances sin precedentes que ha experimentado la Biomedicina (Revolución Biomédica) y la Biotecnología abren nuevos horizontes para el tratamiento de graves enfermedades e incluso incrementar la esperanza de vida, sin embargo, estos avances han suscitado el debate político, ético, científico, filosófico y jurídico sobre las implicaciones positivas y negativas de éstos, que han sido muy notables sobre todo en España donde se han ido produciendo una serie de reformas legales que han planteado cuestiones antagónicas, por ejemplo, la legalización de la investigación con células madre procedentes de embriones supernumerarios de los procesos de fecundación in vitro, la autorización del diagnóstico genético o la clonación terapéutica mediante la Ley de Investigación Biomédica (LIB) 14/2007[1], de 3 de julio.
No obstante, y a pesar de los aspectos positivos de la tecnología en la biomedicina, nunca debe darse prioridad al llamado “imperativo tecnológico” como alternativa desde el humanismo, definido por (González,2004) como la superación y alternativa al viejo imperativo ético, que se pregunta lo que es factible y lo que no, pero lo técnicamente factible y viable no tiene por qué ser moralmente legítimo y jurídicamente lícito, a diferencia de la ciencia pura académica o instrumental que sólo busca enriquecer con sus conocimientos siendo éticamente neutral, pero la unión entre la innovación tecnológica y la investigación científica dan como resultado la tecno ciencia que ha transformado el conocimiento científico para alcanzar otros fines que en ocasiones son silenciados, así como controlar la actividad de los científicos por la sociedad que marca las líneas democráticamente establecidas que no deben ser traspasadas, y que los propios científicos tienen que controlar por medio de la “ética de la responsabilidad” como consecuencia, entre otras, de los posibles peligros generados por los avances biotecnológicos, debiendo observarse en todo momento los principios de responsabilidad y de precaución. El principio de responsabilidad ha sido mencionado en la obra Das Prinzip Verantwortung, en la que se señala que la cautela es el primer mandato moral, y el pensamiento hipotético debe ser nuestra principal tarea (Jonas,1965). Interconectado con este principio encontramos el principio de precaución que se aplica ante las posibles incertidumbres científicas en conexión con los daños graves que pudiesen dar lugar la adopción de medidas para la prevención de los riesgos, arts 2 y 22, LIB, el carácter positivo o negativo de la tecno ciencia depende del destino que se le da (teoría de la neutralidad valorativa, Oliver.L, 2021) siendo por tanto imposible garantizar la total seguridad, pero la existencia de posibles riesgos imprevisibles no pueden provocar la parálisis de la investigación científica que ha logrado y está logrando importantes beneficios para la humanidad, por ejemplo la telemedicina como un avance en los diagnósticos y el tratamiento de las enfermedades a distancia, esta técnica conforma una amplia acepción dada por la Organización Mundial de la Salud (OMS) donde la define como aportación de servicios de salud usando las nuevas tecnologías de la comunicación para un intercambio válido de información en el diagnóstico, la prevención de las enfermedades y por supuesto en cuanto a la investigación y evaluación continuada en los proveedores de la salud, todo ello, con el interés de mejorar la salud de los individuos y sus comunidades. En el aspecto ético cabe señalar uno de los documentos más importantes en esta materia como son las Directrices éticas para una inteligencia artificial (IA) fiable[2], estas directrices han sido redactadas por el Grupo de Expertos de Alto nivel sobre IA que fue constituido por la Comisión Europea en junio de 2018, en este documento respaldan el marco general para una IA fiable, aunque con un matiz porque no están necesariamente de acuerdo con todas y cada una de las afirmaciones que se realizan en estas Directrices, para ello es necesario que los sistemas de IA se centren en las personas y adopten el compromiso de utilizarlos al servicio de la humanidad y del bien común para mejorar el bienestar y la libertad de los seres humanos, por esta razón debe cumplir la ley puesto que ésta no avanza al mismo ritmo que la tecnología y, en ocasiones, puede ser inadecuada para abordar ciertas cuestiones, pero un código ético tampoco puede sustituir al razonamiento ético que debe ser sensible a detalles contextuales, generar esa confianza tiene mucho interés sobre todo en el Libro Blanco[3] sobre la IA, que es un enfoque europeo hacia la excelencia y la confianza en esta tecnología, ya que ha traído innumerables ventajas como la precisión en los diagnósticos o la mejor prevención de enfermedades, pero tiene su lado negativo ya que puede resultar nociva produciendo daños tanto materiales (salud y seguridad) como inmateriales (pérdida de privacidad, discriminación, etc).
En otras palabras, se trata de minimizar los riesgos enfocado principalmente en la protección de los Derechos Fundamentales. Para una IA fiable[4], el Libro Blanco propone tres componentes que deben ser acumulativos en sistemas de IA: a) lícita, que cumpla con la ley relacionada con la responsabilidad médica y que asegure una compensación justa cuando se produzca un efecto adverso, b) ética, que garantice el respeto a los principios y valores, y c) robusta, basada en la supervisión humana y gestión de la privacidad de los datos y la no discriminación; por consiguiente no podemos olvidar los principios y valores más importantes relacionados con la asistencia sanitaria y la IA.
La autonomía de la IA debe ser antropocéntrica, respetar en todo caso la autonomía y los derechos fundamentales de los pacientes, y debe rechazar la toma de decisiones basadas de forma exclusiva mediante procesos de automatización, ya que estas decisiones anularían o vaciarían las decisiones de los pacientes y también influirán en el juicio crítico del profesional, a la vez que plantean problemas a la hora de la determinación de la responsabilidad. La IA y la responsabilidad sanitaria consideran sujeto moral a los profesionales, descartando a los sistemas de IA, pudiendo ser responsables para su delimitación. Planteamos el requisito de la imprudencia, que se fundamenta en un elemento objetivo de cuidado cuya inobservancia puede producir un resultado perjudicial, pero no basta con la conducta inadecuada del mismo, como establece la ley de ordenación de las profesiones sanitarias que está basado en la unificación de la evidencia científica y en los medios disponibles.
La distancia como factor en el uso de las tecnologías de la información se ha visto incorporada por la eficiencia generada por la prestación del acto médico a distancia como elemento complementario a la visita presencial, son ejemplo de ello las apps de Salud, a través de las cuales el profesional puede disponer de datos, entre otros, sobre la temperatura, el nivel de glucosa, informaciones de salud, de los pacientes. La aplicación “M/Health”, es la práctica de la medicina y la salud pública soportada por medio de teléfonos móviles y dispositivos inalámbricos, la reticencia en el uso de estas tecnologías está justificada por la inseguridad generada por el uso del tratamiento de la información, siendo necesario reducir el riesgo para generar confianza, debiéndose adaptar a las directrices de la normativa protectora de los datos de carácter personal (OMS, Informe de 2015, Global Observatory of eHealth, revisado en 2016) donde destacó que el uso de los dispositivos móviles el uso de los smartphones y otros dispositivos móviles para la práctica médica y la sanidad pública.
El Libro Verde[5] sobre sanidad móvil ponía de relieve que el rápido desarrollo de los servicios sanitarios móviles generaban inquietud sobre el adecuado tratamiento de los datos recogidos por medio de aplicaciones. Por ello, el Reglamento General de Protección de Datos 679/2018[6] señala, en su Considerando 6, que la globalización plantea retos en materia de protección de datos, y el Considerando 35 define el concepto de dato personal mediante una acepción más amplia que abarca todo lo relativo a la salud física y mental tanto en el presente como en el futuro, regulados en el artículo 4.15, RGPDE y en la Directiva 2011/24/UE, del Parlamento y del Consejo[7].
Con independencia de las directrices de carácter ético y moral en relación a la biotecnología, el Derecho en cuanto a conjunto de normas jurídicas que debe afrontar los problemas derivados de la investigación y las nuevas tecnologías aplicadas a la vida, se ocupa de las relaciones de alteridad, siendo heterónomo, y sus soluciones jurídicas no tienen por qué ser garantía de moralidad, la conexión entre la Bioética y Derecho está determinada en los derechos fundamentales que están recogidos en la Constitución y que son la base del Estado de Derecho, siendo además los principios rectores que reflejan la ética más esencial, los derechos fundamentales relacionados con la Bioética son el derecho a la vida, a la integridad física y la prohibición de tratos degradantes, artículos 10 y 15, CE; el primero recoge la dignidad humana como base del orden jurídico, que se caracteriza por ser una cualidad humana que tiene que ser interpretada atendiendo a las disposiciones constitucionales y los derechos fundamentales, por ello cabe destacar alguna Jurisprudencia al respecto (STC 120/1990 y ATC 149/1999), además podemos destacar la libertad y autonomía personal arts. 1 y 9, CE, la confidencialidad art 18 CE, la protección a la salud art. 43.1 y 2, CE. o el art. 25, de la Declaración Universal de los Derechos Humanos de la ONU[8], cabe destacar de estos instrumentos normativos su aplicación ya que conforman el corpus iuris internacional de acuerdo a la interpretación dada por la Corte Internacional de Derechos Humanos[9]. En ese sentido los principios generales que componen el objeto del Bioderecho se construye sobre la dignidad humana, construcción humanista del por ello corresponde a la bioética del Derecho un análisis basado en una crítica racional que pretenda justificar los principios y derechos que recogen los textos normativos dotando de legitimidad al Bioderecho exponiendo si una determinada práctica Bioética se ajusta o no a la dignidad humana, en este sentido la IA estudia las diversas maneras de la vida humana. La sociedad civil espera que la Bioética resuelva los problemas actuales.
La argumentación crítica expone que la IA afecta de forma estructural a la autonomía personal y a las relaciones de los individuos condicionando la decisión libre, y la autonomía relacional, donde la consideración del bien surge del reconocimiento intersubjetivo y proporciona las condiciones materiales necesarias para que la elección individual sea posible, reconociéndose las desigualdades estructurales que debe buscar la regulación jurídica adecuada que evite los desvíos algorítmicos que producen riesgos en la IA y afectan a la autonomía personal y relacional de los individuos neutralizados por el Derecho mediante estipulaciones normativas (Nedelsky. J, 2013).
El Derecho debe proporcionar criterios que sirvan para resolver conflictos específicos del mundo sanitario planteados en el ámbito de la IA, como por ejemplo la organización de grandes bases de datos clínicos (Big Data) ya que el sistema debe comprender el lenguaje natural y la modelación de las reglas jurídicas, por ello en los EE.UU la dimensión jurídica de la Bioética estuvo presente, sobre todo, a través de una serie de resoluciones judiciales que fueron desarrollando el marco jurídico de los avances biomédicos y las denominaciones empleadas para definir el ordenamiento jurídico que se ocupa de los aspectos normativos de sus adelantos, (Vila-Coro. M, 1995) alude al concepto Biojurídica, otros autores emplean el término Bioderecho o Derecho Biomédico y se hace referencia a la Bioética y Derecho, considerándola una rama específica de la Bioética que se ocupa de los aspectos éticos y jurídicos de las actividades Biomédicas y cuyo objeto está constituido por la dimensión normativa que tienen repercusión jurídica (Méndez Baiges, 2010)
Cuando deba intervenir el Derecho, en relación a la regulación jurídica de la Biomedicina, el sociólogo alemán (Beck.U, 1986) señaló que el elemento que caracteriza a las sociedades tecnológicas es el riesgo y la hipertrofia legislativa, manifestada por medio de una ingente cantidad de normas para regular cualquier eventualidad, pero no debemos olvidar que el legislador debe ser prudente ya que el objeto de esta regulación se caracteriza por ser imprevisible e incierto y se hace necesario esperar para ver la dirección que toman en la sociedad estos acontecimientos.
Pero se debe apreciar que junto a las normas existe un Código Deontológico mediante el cual los profesionales deben regular su actividad, siendo por ello una regla vinculante de carácter interno que es la expresión de la ética de un colectivo concreto, por ejemplo, la Asociación Médica Mundial en 1964 llevó a cabo la Declaración de Helsinki[10] de principios éticos de la investigación médica en seres humanos, no cabe duda que éstas constituyen algo más que dictados de la moral y su carácter de instrumento de control social fuera del ordenamiento jurídico, debemos señalar que la prudencia no conlleva que el legislador renuncie a sus argumentos de la imprevisibilidad científica y que de algún modo abandone la resolución de los conflictos sociales que plantea la Biomedicina a la praxis judicial, sin embargo en la Doctrina se encuentra la primacía de la vía judicial frente a la legislativa, ya que el recurso a las sentencias de los tribunales, muy habitual en el Common Law, puede ser de utilidad para la resolución de supuestos no expresamente previstos en el ordenamiento jurídico.
En otro estado de cosas, los factores determinantes que han impulsado la IA son el Big Data y el desarrollo tecnológico-computacional que permite que los datos sean objeto de tratamiento por medio de complejos modelos algorítmicos, destacando el machine learning (aprendizaje de la máquina), donde la IA tiene por objeto que los sistemas informáticos desarrollen procesos lógicos que simule a la mente humana.
Desde el punto de vista jurídico, se basa en:
El Big Data comporta además una alteración cuantitativa del procesamiento de enormes cantidades de datos, sino también un cambio cuantitativo que aporta información que aparentemente no está implícita en los datos (exploración directa del paciente por parte del médico), todo ello precisa de un marco normativo que lo podemos encontrar en el Reglamento General de Protección de Datos de Europa (RGPDE), 2016/679, de 27 de abril[11] sin embargo la Ley no puede prever la naturaleza de estos datos y en función de ella establecer un régimen jurídico, en definitiva el Big Data presenta una importante novedad y un desafío, debiendo dirigirnos para ello al RGPD para comprobar si ese marco es suficiente para su regulación, estos interrogantes se plantean en el Derecho interno, en ese sentido la Ley Orgánica de Protección de Datos de carácter personal (LOPD) 3/2018[12], de 05 de diciembre desarrolla el Reglamento General de Protección de datos (RGPD) 2016/679[13], del 27 de abril, recoge criterios adaptados a las exigencias jurídicas derivadas de la aparición del Big Data, pero en relación a los datos relacionados con la salud su contenido no está dirigido al tratamiento de datos en el marco asistencial, sino en el de la investigación biomédica. El desarrollo de la tecnología está irrumpiendo en la asistencia sanitaria de muchas maneras, la más importante es la digitalización de las historias clínicas (HCE), que permiten recopilar por métodos digitales y de forma sistematizada la información de salud del paciente, tratamiento, diagnósticos, que acumula una gran cantidad de datos.
Los datos masivos se caracterizan por la gran variedad en el tipo de datos y fuentes utilizadas en el ámbito sanitario, podemos distinguir: a) Texto no estructurado (notas médicas), b) Datos generados de forma continua (monitores, ponibles, etc.), c) Datos estructurados, que son notas de programación neutrolingüísticas (PLN) y d) Datos oscuros cómo correos electrónicos. Estos datos se pueden obtener en un formato estructurado, no estructurado o semiestructurado y se adquieren de fuentes primarias como los sistemas de apoyo de decisión clínica o secundarias como farmacias y laboratorios, pero lo más complejo de los datos masivos es que en su mayoría son cualitativos no estructurados o incongruentes, esto dificulta el proceso y análisis de imágenes u otras formas de procesamiento, los tipos de datos utilizados más frecuentemente son las publicaciones de investigación, entre otros.
El Aprendizaje automático es una sub discilplina de la IA que consiste en resolver el análisis de datos mediante la búsqueda de patrones entre ellos, los patrones brindan la oportunidad de comprender situaciones de salud complejas o predecir los resultados de salud futuros, ésta puede clasificarse en tres tipos: a) supervisado b) no supervisado y c) aprendizaje semi supervisado. El deep learning (aprendizaje profundo) utiliza diversas áreas de conocimiento como la ciencia de datos y la optimización. El aprendizaje profundo que se utiliza para el tratamiento de datos complejos, son especialmente adecuados para tratar datos no estructurados y secuenciales.
En este análisis legal tenemos que dirigirnos hacia el Derecho a la información y explicación al paciente, la literatura jurídica ha abierto un debate sobre la existencia de estos derechos, su explicación en el RGPDE y su alcance cuando se elaboran perfiles o se toman decisiones automatizadas que pueden afectar a la capacidad de las personas para acceder a determinados servicios o bienes se debate si los pacientes tienen derecho a recibir explicaciones sobre el sistema decisional de un sistema de IA, en cualquier caso el derecho a la información está garantizado en la legislación interna previa que son matizadas por el RGPDE (art. 22, apartados 1 y 4).
En todo caso el derecho a la información asistencial respecto a la IA debe ser objeto de un análisis más profundo en el plano jurídico, tanto que garantice que los facultativos cumplan con sus deberes en relación a los derechos de los pacientes y proveer las decisiones más adecuadas respecto a su salud, pero debemos asumir que en la práctica clínica y asistencial está plagada de sesgos humanos que son similares a los sesgos automatizados, por ejemplo el sesgo humano en una historia clínica o el sesgo en el modelo algorítmico, cuyos resultados no son válidos; algunos autores señalan que detrás de alguna de las propuestas y regulaciones de la IA, que busca hacer más transparentes las herramientas algorítmicas, hay una suposición implícita, que impone un nivel más alto de transparencia de lo que normalmente se le impondría a los responsables de toma de decisiones humanas, sin embargo será difícil encontrar un sistema de IA que decida directamente sin la intervención humana, en el caso de Decision Support Systems la decisión final seguirá recayendo en el facultativo aunque la automatización obligará a redefinir los papeles en la relación médico-paciente. Aún será un poco más complicado que la disponibilidad de las TIC avanzadas puedan llegar a tomar decisiones completamente automatizadas.
Otro importante problema jurídico está referido a la elaboración de perfiles para clasificar a los pacientes en relación a características similares en base a determinados patrones, dando mayor importancia a las decisiones automatizadas que a las del médico sin darle la oportunidad de individualizar. Concretando: cualquier decisión que se apoye en un sistema basado en el procesamiento automatizado de algoritmos debe ser revisado por un ser humano cualificado, que considere las propuestas y de asegurar la opción por un tratamiento alternativo.
Atendiendo a la normativa europea las decisiones asistenciales no pueden basarse en los perfiles que se obtienen de los pacientes ya que, esta prohibición es inteligible con la esencia individualizadora que está abriendo el camino hacia la Medicina Personalizada de Precisión, esta perspectiva metodológica es la más adecuada para prevenir la asunción de conclusiones equivocadas en las que puede recaer un sistema computacional, de las cuales el paciente puede verse afectado no sólo en su capacidad de decisión sino también en sus expectativas.
Un problema importante es la falta de transparencia de los procesos decisorios algorítmicos basados en los sistemas de IA, es decir lo que se conoce como opacidad o caja negra (Black Boxes), por eso la transparencia ha ido ganando terreno en los procesos automatizados que ha llegado a manifestarse como un derecho prestacional, o sea, se entiende que toda información y comunicación relacionada con el tratamiento de los datos personales sea accesible y entendible, esto es decisivo ya que, la falta de interpretabilidad de los sistemas de IA es una de las limitaciones más importantes a implementar en la práctica médica, siendo necesario el aumento de la transparencia en la automatización. Los riesgos de la automatización de los datos pueden dar lugar a sesgos que pueden derivar en decisiones arbitrales o discriminatorias y en definitiva a la opacidad de la Inteligencia Artificial.
En este contexto, en Europa el RGPDE[14] concede el derecho a la explicación en el Considerando 71, algunos académicos dudan de la existencia jurídica y la viabilidad de este derecho ya que el Considerando 71 y el derecho a la explicación no son jurídicamente vinculantes ni tampoco exigidos por el art 22.3, RGPD y, por tanto, no hay obligación de abrir las cajas negras de las aplicaciones de IA en el ámbito de la salud. Sin embargo, los artículos 14.2 g, 13.2 f y 15.1 h, del RGPD, permiten al menos a los interesados obtener información significativa sobre la cuestión, así como de la importancia y consecuencias previstas de los sistemas automatizados de adopción de decisiones.
Cómo complemento del RGPD encontramos el Reglamento (UE) 2018/1807[15] donde en su artículo 9 establece que es directamente aplicable desde el 28 de mayo de 2019, además recoge un marco de libre circulación de datos no personales en la UE estableciendo en su art 1 la disponibilidad de los datos para las autoridades competentes o los requisitos de localización de datos, el Reglamento se aplica al conjunto de datos no personales y el RGPD se aplica a los datos personales como no personales estando ambos indisolublemente unidos .
En cuanto al uso en la intervención sanitaria asistencial de robots y sistemas inteligentes autónomos o no, se pueden producir lesiones o muertes de los pacientes como consecuencia de las decisiones tomadas por ellos, y esto lleva a preguntarnos ¿si un sistema de IA puede ser imputado como sujeto activo de delito y ser directamente responsables?, en este caso hacemos referencia a la asistencia sanitaria, cuando se plantea el resultado dañoso o lesivo para el paciente, se puede imputar jurídicamente a los profesionales que intervienen como apoyo del sistema robotizados o sistemas inteligentes en el diagnóstico o en el tratamiento de las enfermedades, no debemos olvidar que que el sistema de IA puede dar conclusiones erróneas al procesar gran cantidad de datos, la Doctrina del riesgo en esta materia sería del todo aplicable en estos casos, y siendo conscientes que el Derecho Penal debe ofrecer una función preventiva en relación con las tecnologías, en un futuro mediante una fuerte intervención administrativa reforzada por normas que articulen el funcionamiento permitido de los sistemas de IA. En cuanto a los delitos imprudentes el Compliance consistiría no sólo en la existencia de procedimientos organizativos y de gestión del riesgo que previniera el desarrollo de una negligente planificación, sino también, basada en estructuras o procedimientos en cuanto a la prevención de la toma de decisiones rutinarias derivadas de las conclusiones del sistema de IA, una segunda posibilidad sería el examen minucioso del sistema por técnicos independientes valorando la adecuación de esos sistemas para el servicio que debe prestar, teniendo en cuenta el grado de error predecible y la posibilidad de bloquear su uso en caso de emergencia, cuya valoración positiva daría lugar a la utilización pública o privada del sistema de IA, mediante la configuración de estándares practicables en situaciones predecibles acotando el riesgo permitido (típicas o conocidas) .
Sin embargo, esta idea tiene características de difícil subsunción normativa, retornando de nuevo a los criterios normativos de la imprudencia, por ejemplo el principio de confianza la persona que participa en una actividad actuará en la confianza en conjunción con otro elemento normativo que se mueve en la esfera de la acción diligente no en la imputación objetiva del resultado, por ello lo que preocupa es que un sistema de IA dañe a una persona (paciente), ya que, el sistema no parece capaz de valorar y de conocer el contenido del deber de cuidado para lo que sólo son aptos los seres humanos al menos al día de hoy. En resumen el principio de confianza decaería para el médico cuando apreciara el indicio de un error, como presupuesto objetivo, neutral y aún todavía no normativo. Para que el sujeto humano pueda valorar el indicio de ese error ha de evaluar las propuestas decisionales del sistema de IA, ya que, de lo contrario los indicios serían inapreciables y podría motivar al sistema a tomar sus propias decisiones frente aquél.
Un estudio de la Universidad de Stanford[16], en relación a los cuidados paliativos, entrenaron una Red neuronal profunda de datos basada en los días de hospitalización, el diagnóstico, edad del paciente, con el fin de medir la mortalidad de cada paciente entre 3 a 12 meses, este sistema de IA ahorraría al equipo de cuidados paliativos la carga de las revisiones de los pacientes “Algoritmo de la muerte”.
Los sistemas de IA, que fueron estudiados en el precedente estudio se encuentran en su gran mayoría en fases experimentales, sin embargo existen excepciones muy avanzadas, por ello, esto nos lleva a preguntarnos ¿Cuáles son los cauces jurídicos apropiados que éstos sistemas de IA deberían seguir para ser validados conforme a los elevados estándares de seguridad y calidad?, de hecho para contestar esta pregunta debemos tener en cuenta a la FDA, este documento señala la necesidad de una regulación basada en la categorización del riesgo, es decir, los sistemas de IA se categorizarían dentro de las cuatro categorías del riesgo (mayor a menor), quedando el profesional para decidir si acepta o rectifica sus propuestas. En el ámbito europeo existen documentos de organismos como la Comisión europea, el Consejo Económico y Social Europeo así como de un grupo de expertos creados en el seno de estas instituciones que han desarrollado directrices, recomendaciones y principios básicos que deben guiar la implementación de las políticas en esta materia incluido su reflejo en una futura regulación o adaptación normativa, con especial mención a su enfoque ético, estas medidas están destinadas especialmente a la robótica, como la Resolución dictada por el Parlamento Europeo de 16 de febrero de 2017 con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica, así como un Código Deontológico que está dirigido a los comités de ética de la investigación, en esta línea la Comisión Europea ha asumido un papel bastante activo ya que presentó en abril de 2018 un paquete de medidas basado en una Comunicación centrada en la inteligencia artificial para Europa, con tres pilares siendo uno de ellos la necesidad de un marco ético y jurídico adecuado para este objetivo se creó un grupo de expertos High Level Expert Group on Artificial Intelligence (IA HLEG)[17] que ha publicado las directrices éticas Ethics Guidelines For Trustworthy AI, de 8 de abril de 2019, el desarrollo de esta tecnología conlleva el acceso a una gran cantidad de datos y por ello indicamos el Reglamento UE 2018/1807 del Parlamento y del Consejo, de 14 de noviembre de 2018[18], sobre circulación de datos no personales, Esta política del uso de los datos se extiende al ámbito sanitario con la finalidad de obtener una asistencia sanitaria más enfocada a la promoción de la salud, la prevención y centrada en el paciente. El artículo 5.2, del RGPD, recoge la llamada Responsabilidad Proactiva en la que el responsable del tratamiento de los datos deberá cumplir con lo preceptuado en su apartado 1 integridad y confidencialidad, y la adopción de medidas técnicas y organizativas, la responsabilidad está implícitamente regulada en el Dictamen 3/2010 sobre el principio de responsabilidad[19]
Para continuar con las implicaciones legales de la Inteligencia artificial debemos mencionar algunas publicaciones al respecto por ejemplo el Consejo de Europa en la Recomendación CM/Rec (2020) del Comité de Ministros de los Estados Miembros sobre los impacto de los sistemas algorítmicos en los Derechos Humanos de 8 de abril de 2020, la UNESCO sigue a la UE en su Anteproyecto de Recomendación sobre la Ética de la IA al igual que los principios Éticos de la OCDE en materia de inteligencia artificial adoptado en mayo de 2019.
A nivel Doctrinal la IA está definida como la ciencia y la ingeniería de crear máquinas inteligentes especialmente programadas por computación inteligente, y por esta razón la regulación normativa de la IA, desde un punto de vista antropocéntrico, debe estar exenta de dificultades; el avance de la tecnología nanotecnología nos hace pensar que la ciencia avanza mucho más rápido que el Derecho, y por ese motivo encontramos respuestas imperfectas. La relación entre el Derecho sanitario y la IA ha supuesto numerosos problemas, sin embargo, existe un punto positivo ya que esta tecnología debe ser entendida como un instrumento o herramienta de apoyo al trabajo del jurista.
El marco regulatorio debe convertirse en un incentivo para facilitar la financiación incluyendo el respeto a los derechos fundamentales, como son la intimidad, la dignidad enfocados en la protección de datos, por ello la UE no debe rebajar la protección que se le ofrece a los ciudadanos en materia de privacidad. El Derecho debe considerar el grado de ponderación de los principios utilizados para el otorgamiento de los derechos, y podemos afirmar que según vaya avanzando y cambiando la sociedad y la IA surgirán nuevos derechos susceptibles de protección.
En el análisis que nos ocupa la autonomía, la privacidad, la rendición de cuentas y la responsabilidad deben ser matizadas para hacer frente al desafío de la IA y por otro debemos plantearnos la regulación jurídica en lo referente a la responsabilidad profesional para toda nueva innovación que está sujeta a los dictados de la Ley, en este sentido no existe una definición consolidada de la IA, pero sin embargo, se está de acuerdo que trata de emular la inteligencia humana en sistemas informáticos y en la sanidad se utilice para el campo del diagnóstico o bio marcadores de ciertas enfermedades. Se ha diferenciado entre Inteligencia superior e inteligencia general o humana y especial, la inteligencia superior (IA), que sin ninguna duda es una hipótesis hoy día, es una inteligencia muy superior a la humana. La inteligencia general o humana que constituye el prototipo típico de la IA y, por último, la inteligencia especial que utiliza grandes volúmenes de datos de forma superior a la humana, pero en el que el elemento decisorio es la persona humana, por ejemplo en EEUU la compañía Mountain Blue ha presentado un modelo de aprendizaje profundo para detectar el cáncer de mama y cuenta además con algoritmos para detectar enfermedades como ataques cardíacos, o derrames cerebrales que además cuenta con un asistente por voz que anima a los usuarios a preguntar sobre sus afecciones médicas.
La robótica inclusiva es aquella que se ha desarrollado especialmente en el ámbito de la sanidad y los cuidados, en este sentido las funciones que pueden desempeñar los robots son muy variadas cirugía, farmacia, rehabilitación, robots hospitalarios y se han señalado tres grandes campos de aplicación de la robótica en este campo, que están enumeradas en la resolución con recomendaciones sobre normas de derecho civil sobre robótica, como son el quirúrgico, la rehabilitación y asistencial de cuidados, el robot que se encuentra más generalizado es el quirúrgico que dota al cirujano de una mayor precisión con muchas ventajas para el paciente como los tiempos de operación, o recuperación por ejemplo: el robot Da Vinci, éstos robots pueden almacenar el historial de la intervención realizada, las constantes vitales relacionadas con la intervención quirúrgica realizada, entre los robots asistenciales, o de rehabilitación de funciones corporales dañadas o exoesqueletos, o las prótesis biónicas que preocupan en especial a la Resolución del 16 de febrero de 2017[20] ya que pueden modificar la concepción del cuerpo humano sano.
La prevención de enfermedades debería tener un papel importante en la asistencia sanitaria este extremo sólo se podrá conseguir si la sociedad accede a una tecnología que pueda ofrecer una información precisa sobre el estado de salud y bienestar los dispositivos inteligentes o “ponibles” son sólo una de las diversas herramientas utilizadas por las personas para controlar sus constantes vitales pudiendo incluso el paciente ser supervisado por un profesional sanitario para que el paciente aplique los cambios necesarios antes que se produzca una enfermedad que ponga en riesgo su vida, además los pacientes clínicos también se beneficiarán de esta tecnología ya que, los profesionales sanitarios podrán atender a los pacientes teniendo acceso inmediato a los síntomas o a cualquier prueba de imagen y a los tratamientos que facilita la toma de decisiones y se beneficien de intervenciones que de otra manera hubiera sido casi imposible de aplicar, en resumen la IA aplicada a la medicina es la denominada IA estrecha que sólo puede realizar un conjunto de tareas relacionadas y entrenarse para ellas desde el análisis de imágenes médicas hasta el aprendizaje del habla humana, por ello las operaciones realizadas con la IA estrecha son realmente eficientes y competentes y en ocasiones supera a los seres humanos.
La medicina de precisión posibilita la adaptación de las intervenciones sanitarias a individuos o grupos de pacientes atendiendo al perfil de su enfermedad, la información sobre el diagnóstico, el objetivo de este tipo de medicina es utilizar la biología individual en lugar, de la biología poblacional en todas las fases del recorrido de un paciente por la asistencia sanitaria esto implica la recopilación de datos como la información genética y su ventaja más notable es la reducción en los costes de la asistencia sanitaria, la disminución de la respuesta adversa a los medicamentos, entre otras.
Existen muchos tipos de medicina de precisión y las podemos dividir en tres clases:
En resumen, el aprendizaje profundo tiene numerosas posibilidades, como por ejemplo la predicción en las propiedades de los fármacos, la generación ex novo de nuevas estructuras químicas mediante redes neuronales como la ingeniería proteica, las visualizaciones médicas, para diagnóstico y cirugía o el reconocimiento de las imágenes médicas.
Se utilizan para dar soporte a las limitaciones físicas en ancianos y personas disfuncionales que les ayuda asistiéndolas en las actividades diarias y actuando como sus ojos y manos y pueden ayudar en las tareas cotidianas.
El robot asistencial RIBA que ayuda a los pacientes a levantar y mover cosas pesadas además se le puede dar instrucciones con sensores táctiles.
Otro robot asistencial es MARIO que aborda los problemas de aislamiento y demencia en los ancianos, estas aplicaciones utilizan herramientas potenciadas por la IA para procesar los datos recogidos por los robots con el fin de realizar tareas de reconocimiento facial o la identificación de objetos y procesos de diagnóstico, otra variante de estos robots son los llamados ayudantes cognitivos, que se utilizan como proceso de estimulación cognitiva en métodos de rehabilitación después de lesiones cerebrales por un accidente cerebrovascular o traumatismos, es el caso de VITRAEL se trata de una plataforma de estimulación cognitiva que sirve para evaluar entrenar o estimular habilidades cognitivas que se han deteriorado en el paciente esta aplicación funciona a través de la comunicación, la configuración y los juegos, mejorando significativamente las habilidades cognitivas del paciente como la atención o la planificación.
Una de las aplicaciones de los robots asistenciales y los robots de compañía para la estimulación social y emocional reduciendo la depresión o el estrés conectando emocionalmente con el paciente por ejemplo la mascota robótica PARO o bebé foca robótico qué ayuda a detectar el tacto y los objetos visuales. Otro robot compañero es Buddy de Blue Frog Robotics que mediante sus sensores detecta caídas en las personas mayores, en conjunto los estudios relacionados con la investigación de la estimulación cognitiva demuestran una disminución de la velocidad del deterioro cognitivo y la progresión de la demencia.
Los principales retos a los cuales se enfrenta el sector de los seguros de salud son la evaluación del riesgo, la estimación de primas, el fraude, la medicina preventiva, la competencia y la asistencia al cliente, además de los desafíos que supone el coste de la atención médica, el aumento de las expectativas de los consumidores en cuanto a la calidad de los servicios y los gastos generales producidos por la legislación que están aumentando en la mayoría de los países.
La IA es cada vez más utilizada por los proveedores de seguros de salud a través del Big Data es decir, por el tratamiento de una gran cantidad de datos para identificar el fraude, controlar los precios e identificar los riesgos, según el informe Gartner los tres principales usos de la IA en la industria de los seguros son: a) El análisis del fraude, b) Los chatbot y c) La optimización de los procesos.
Se estima que las aseguradoras pueden ahorrar hasta 7.000 millones de dólares en 18 meses con el uso de la IA, haciendo más eficientes las tareas administrativas y reduciendo el malgasto, hay varias maneras por la cuales la IA puede ser usada para reducir los costes mediante aplicaciones que se pueden agrupar en cinco categorías: 1) Mejorar la experiencia del cliente, 2) Reducir el fraude, 3) Mejorar la eficiencia de las oficinas, 4) Reducir los riesgos y optimizar las cuotas y 5) Crear nuevas oportunidades de negocio.
La industria de los seguros de salud con la aplicación y el uso de la IA puede beneficiarse de forma muy significativa.
En este epígrafe vamos a analizar brevemente que es la IA y daremos una visión general de las tendencias relativas a la ética y al derecho de ésta en la atención sanitaria en EEUU y en Europa, en base a cuatro puntos principales, relacionados con el aspecto ético: a) El consentimiento informado para su uso, b) La seguridad y transparencia, c) La equidad y el sesgo algorítmico d) Privacidad de los datos.
En relación al aspecto legal diferenciamos cinco desafíos legales tanto en EE UU como en Europa que son: la seguridad y eficacia, la responsabilidad, la protección de datos y la privacidad, la ciberseguridad y la Ley de Propiedad intelectual. Para hacer realidad el enorme potencial de la IA, las partes interesadas en la esfera de la IA incluidos los fabricantes, los médicos, los pacientes y los especialistas en ética y legisladores deben participar en el debate ético y jurídico sobre la forma en que la IA se aplica en la práctica.
Comenzamos con el primer inciso el breve análisis de lo que se entiende por inteligencia artificial desde la óptica de la selección de algunos subtipos, como el aprendizaje automático, como subconjunto de la IA sobre todo en el ámbito de su aplicación en la salud que permite a los sistemas computacional aprender de los datos. Este AA emplea las redes neuronales artificiales con múltiples capas para identificar patrones en un conjunto de datos muy grande estos algoritmos se encuentran más cerca de las cajas negras siendo los resultados muy difíciles de interpretar por los clínicos.
La atención sanitaria en los EEUU y la IA durante la presidencia de Barack Obama, los informes del gobierno de los EEUU sobre la IA destacaron sus aplicaciones para el bienestar público y sus aspectos de equidad, seguridad y gobernanta, además de mejorar la equidad la transparencia y la responsabilidad por diseño, así como crear una IA ética, sin embargo, desde la presidencia de Donald Trump la estrategia de la IA ha cambiado hacia un enfoque más orientado al libre mercado.
La American Industry Summit, en mayo de 2018[21], una de sus principales conclusiones fue que la administración Trump que tiene por objeto eliminar las barreras regulatorias para la investigación de IA. En enero de 2020 la Casa Blanca publicó un borrador de orientación para la regulación de la IA con 10 principios que los organismos deben tener en cuenta a la hora de formular planteamientos de las aplicaciones de la IA: Confianza pública en la IA, Participación pública, Integridad científica y la calidad de la información, Evaluación y gestión de los riesgos, Beneficios y costes, Flexibilidad, Equidad y no discriminación, Divulgación y transparencia, Seguridad y protección y Coordinación entre organismos.
En otro orden de cosas EE.UU encabezó, los esfuerzos históricos en el desarrollo de los principios de la IA innovadora y digna de confianza dirigida al respeto de los valores democráticos y de los derechos humanos.
En junio de 2019, el G-20 también publicó los principios de la IA extraídos de los principios de la OCDE para la IA[22], en relación a la Directiva 2019/1024 del Parlamento Europeo y del Consejo, desde enero de 2017 se han presentado numerosos proyectos de ley relacionados con la IA en EEUU por ejemplo SELF DRIVE Act H.R.3388, FUTURE of Artificial Intelligence Act 2017, H.R. 4625 y S.2217 y AI JOBS Act 2019, H.R. 827, además el Estado de California ha publicado en agosto de 2018 la legislación ACR 215 que respetaba los 23 principios de la IA de Asilomar(son una extensión de las leyes de Asimov con el fin de establecer las bases del desarrollo de las futuras plataformas de IA).
Por otro lado, el IDx-DR es el primer sistema de diagnóstico de IA autorizado por la FDA que proporciona una decisión autónoma de selección sin necesidad de que un ser humano interprete la 8imagen o los resultados que ésta basado en la IA para detectar un nivel más alto de retinopatía diabética en pacientes adultos entre los 22 años y más.
En el caso de Europa, la Comisión Europea aprobó su estrategia de IA para Europa en Abril de 2018[23] esta tiene por objeto garantizar un marco ético y jurídico adecuado mediante la creación de la Alianza Europea para la IA y la elaboración de directrices éticas, además señala la Comisión la necesidad de reforzar la inversión tanto pública como privada en IA.
Um grupo de expertos de alto nivel sobre la IA o High Level Expert Group on AI, de la Comisión Europea designado en junio de 2018 y también es grupo directivo de la Alianza Europea para la IA publicó las directrices éticas en abril de 2019 que promueven la IA confiable y contienen siete requisitos, agencia y supervisión humanas, robustez y seguridad técnicas, privacidad y gobernanza de datos, transparencia,diversidad, y no discriminación y justicia, bienestar ambiental y social y responsabilidad, además publicó un documento sobre la definición de IA.
En febrero de 2020 la Comisión Europea publicó el Libro Blanco sobre la IA que contiene el enfoque europeo sobre la excelencia y la confianza, y también publicó una Comunicación sobre la Estrategia Europea para los datos y un Informe sobre las consecuencias en materia de responsabilidad y seguridad de la IA, internet de las cosas y la robótica.
En Europa existen diversos proyectos de aplicaciones dirigidas a la salud por ejemplo Ada, que evalúa los síntomas de un individuo y le da orientación, Google Health, Ultromics que se dedica a reducir los diagnósticos erróneos y prevenir la aparición temprana de enfermedades cardiovasculares.
Entre los desafíos éticos surgidos en el apartado anterior entre los más importantes encontramos en la práctica clínica y la asistencia sanitaria, el consentimiento informado derecho a la información del paciente, este es uno de los retos más directos en la integración de la IA en la práctica clínica. Otro de los desafíos es la seguridad y transparencia, es el caso de IBM Watson for Oncology que utiliza algoritmos de IA para evaluar la información de los registros médicos de los pacientes y ayudar a explotar opciones de tratamiento.
El tratamiento de los datos debe ser fiable y válido ya que cuanto mejor sean los datos de entrenamiento mejor será el rendimiento de la IA, en relación a la seguridad debe garantizarse cierto nivel de transparencia en este sentido las auditorías externas pueden ser una posible solución.
En cuanto al sesgo algorítmico y la equidad, la IA tiene la capacidad de mejorar la asistencia sanitaria y de democratizar esta asistencia, pero conlleva un riesgo de sesgo y por tanto de discriminación y de diagnósticos erróneos, algunos de estos sesgos pueden resolverse debido a la mayor disponibilidad de datos, sin embargo, el mayor número de algoritmos son complejos y no transparentes.
Otro desafío ético es la privacidad de los datos es imperativo proteger a los pacientes contra los usos ajenos médico/paciente que puedan afectarles negativamente, como las repercusiones en las cuotas de seguros de salud o las relaciones personales, por ello es necesario contar con una sólida legislación antidiscriminatoria similares a los regímenes en materia de privacidad genética.
En materia de responsabilidad las nuevas tecnologías basadas en la inteligencia artificial plantean problemas para los actuales reglamentos de responsabilidad.
En Estados Unidos, pensemos el siguiente supuesto: un software de ADC basado en la IA da una recomendación que acaba con un diagnóstico incorrecto resultando lesivo para el paciente, el clínico será directamente responsable de la negligencia médica, ya que los clínicos deben actuar con el adecuado deber de cuidado, aunque la decisión se haya adoptado de buena fe en un algoritmo AA de caja negra, ya que el software de AA está bajo el control de un profesional de la salud que toma la decisión final, en el imaginario de todos se puede concluir que para eludir la responsabilidad por negligencia médica, los médicos utilizarían la IA como instrumento de confirmación por temor a la responsabilidad, en este sentido se podría mantener el antiguo régimen de responsabilidad que intenta cumplir dos funciones del derecho civil, por un lado la disuasión y por otro la indemnización de las víctimas. Se ha propuesto un modelo de responsabilidad del producto que sea exigible a los diseñadores de la IA, es decir la constitución de una responsabilidad objetiva del fabricante por los defectos, pero los Tribunales han tenido dudas en la práctica a la hora de aplicar las teorías de la responsabilidad por productos.
En la cuestión de la indemnización en Estados Unidos existe la compensación por vacunas donde los fabricantes de vacunas pagan un fondo para posteriormente responder por los riesgos de la vacunas, en el caso de las responsabilidad de los hospitales se les podría demandar en atención a las teorías de la negligencia empresarial y responsabilidad indirecta cuando se contrata una IA, y también acompañar a la protección de la responsabilidad con un plan de aprobación previa que examine a los fabricantes y profesionales de la salud de ciertas formas de responsabilidad.
En la actualidad no existe un marco reglamentario armonizado en la UE para la responsabilidad por la IA y la Robótica como los robots de asistencia y médicos, sin embargo Europa ha abordado la cuestión de la responsabilidad con la publicación de una Resolución del Parlamento Europeo titulada Normas de Derecho civil sobre robótica de 16 de febrero de 2017 [2015/2103 (INL)], en esta resolución se cuestiona si es suficiente el marco jurídico actual o es necesario adoptar nuevas normas en el marco de los actos y omisiones de los robots, la Directiva (85/374/CEE) sobre responsabilidad por productos defectuosos no abarca los avances en materia de robótica adecuadamente, por ello se solicita en esta resolución un una propuesta de instrumento legislativo sobre cuestiones jurídicas relacionadas con el uso de la robótica y la IA en los próximos 10 a 15 años combinado con directrices éticas, se recomienda por un lado una responsabilidad objetiva o bien un enfoque de gestión de riesgos que no se centra en la persona que causó el daño además de un plan de seguro obligatorio y un fondo de indemnización adicional para garantizar el pago de las posibles indemnizaciones recogido en el Anexo de la resolución
En 2018 la Comisión Europea adoptó la Estrategia de IA en un documento de trabajo de los servicios de la Comisión sobre la responsabilidad por las tecnologías digitales emergentes[24] proporcionando al menos una protección básica a las víctimas, además como establece el Formación de Nuevas Tecnologías establecido por la Comisión Europea público otro informe sobre la responsabilidad de la IA y otras tecnologías emergentes que afirmó que aunque los regímenes de responsabilidad están regulados por los Estados miembros, la responsabilidad objetiva por productos defectuosos esta regulado en la Directiva 85/374/CEE[25], finalmente la Comisión Europea publicó en 2020[26] un informe sobre la repercusión en materia de seguridad y de responsabilidad de la IA y robótica, siendo necesario aducir cambios y actualizaciones de los marcos de responsabilidad para abordar adecuadamente los avances tecnológicos.
En Estados Unidos, la ley HIPAA[27] en materia de protección de datos tiene importantes lagunas en el entorno de la salud ya que sólo abarca la información específica sobre la salud generada por las entidades cubiertas o sus asociados comerciales, la HIPAA no se aplica a la información no relacionada con la salud además la definición de entidades cubiertas limita su ámbito de aplicación ya que incluye a los servicios de seguros y proveedores de servicios de la salud entre otros, en virtud de la HIPAA la información puede compartirse por razones de de investigación o comerciales ofreciendo dos razones por un lado la determinación por parte de alguien de un conocimiento y experiencia adecuados a los métodos estadísticos y por otro la supresión de los identificadores por ejemplo nombres, números de la Seguridad Social o identificadores biométricos sin conocimiento real de entidad cubierta, ésta no podría proteger adecuadamente a los pacientes debido a la posibilidad de la triangulación de los datos.
Por todo lo expuesto, la Ley HIPAA no es adecuada para la protección de la privacidad de la salud de los pacientes, en resumen esta ley federal debería facilitar tanto las innovaciones incluidas las aplicaciones de IA, en el ámbito de la salud como la protección de la privacidad de la salud de la personas, podemos destacar el Estado de California ha adoptado recientemente el 1 de enero de 2020 la California Consumer Privacy Act de 2018, esta CCPA es un intento de llenar las lagunas jurídicas y mejorar la protección de las personas.
En Europa tenemos el RGPD 2016/679, de 28 de mayo de 2018, que tiene por objeto proteger el Derecho de las personas físicas a la protección de los datos personales, art. 1.2, de aplicación en el marco de las actividades de los organismos en Europa como en terceros países, art 2.3.1. En el contexto de la asistencia sanitaria la definición de datos relativos a la salud se regula en el artículo 4.15, del RGPD, los datos personales relativos a la salud física o mental de una persona incluida la prestación de servicios sanitarios que revelen información sobre su estado de salud el RGPD de la UE tiene un alcance más amplio que la ley HIPAA en Estados Unidos, por decisión automatizada se entiende aquella que se toma sin intervención humana únicamente por medios automatizados (Reglamento 2016/679). Atendiendo al art 22.1, del RGPD, los interesados tendrán derecho a no ser objeto de una decisión basada únicamente en le tratamiento automatizado incluida la elaboración de perfiles que produzcan efectos jurídicos que les afecten de forma significativa, el art 22.2 recoge algunas excepciones salvo que las decisiones se basen en datos genéticos y biomédicos art 22.4, ambos artículos del RGPD.
Este es otro de los desafíos importantes a la hora de plantear el uso de la IA en la atención sanitaria, gran parte de las infraestructuras de IdC (infraestructura digital crítica) son vulnerables a las amenazas, los objetivos en el ámbito de la salud pueden ser variados desde herramientas de diagnóstico dispositivos ponibles, píldoras inteligentes inalámbricas hasta dispositivos médicos, pudiendo tener acceso a información sensible sobre la salud de los pacientes o amenazar su salud con diagnósticos erróneos, la necesidad de la ciberseguridad quedó demostrada en el ataque del tipo Ransomware Wanna Cry, que dio lugar a la aprobación de la ley sobre ciberseguridad el Reglamento (UE) 2019/881[28], sus objetivos son lograr un alto nivel de confianza en la UE y lograr el buen funcionamiento del mercado interior, art 1.1. También hay avances en esta metería en EEUU con una ley sobre ciberseguridad la Cibersecurty and Infrastructure Security Act de 2018 (H.R. 3359)[29], que aumenta la capacidad nacional de los Estados Unidos para defenderse contra los ciberataques. En suma, este objetivo no será fácil ya que será necesario equilibrar los diferentes intereses de todas las partes involucradas.
A lo largo del presente trabajo hemos planteado un recorrido lógico-científico-estructural del uso de los robots en medicina y sus repercusiones jurídicas, éticas, sociales y económicas a nivel europeo, nacional e internacional, así como los efectos del uso de la IA en la medicina y se han trabajado las consecuencias desde la óptica de la teoría del riesgo y el régimen de responsabilidad, en un intento por llenar las lagunas legales existentes en esta materia tan controvertida y difícil de regular, además hemos tratado las repercusiones de la ciberseguridad como elemento esencial en las infraestructuras digitales clínicas, siendo por lo tanto un objetivo difícil de alcanzar incluso en un futuro próximo.
Igualmente se puede afirmar las consecuencias significativas de las posibilidades terapéuticas y de tratamiento que pueden ofrecer las nuevas tecnologías no sólo a nivel científico-ético, sino también en la calidad de vida de los pacientes, sin embargo cabe señalar, como se ha indicado, la dificultad en su regulación jurídica y control por parte de las Autoridades para evitar sesgos de discriminación en la elaboración de perfiles de los pacientes así como errores en la manipulación de estas tecnologías por parte de los profesionales de la medicina. Y, como última visión, cabe señalar que a pesar de todo el uso responsable de los robots y la IA en la medicina no sólo es un gran avance para la ciencia sino también para toda la humanidad. En el contexto normativo se debe destacar la normativa de la UE, donde en su Reglamento 679/2016,[30] sobre protección de datos de carácter personal establece la imperiosa necesidad de respetar y proteger los derechos a la intimidad, y por supuesto la protección de los datos clínicos de los pacientes ante posibles invasiones por parte de los sesgos y los fallos de la IA, se hace mención al Libro Blanco[31] para una IA fiable que pretende aportar las directrices éticas como enfoque europeo de la fiabilidad y la confianza en la IA ante el rápido desarrollo de ésta, incrementando la precisión de los diagnósticos y permitiendo una mejor prevención de las enfermedades, sin embargo esta IA conlleva una serie de riesgos potenciales que deben ser controlados y regulados la discriminación de género, la vulneración de nuestras vidas por la acumulación masiva de datos (Big Data) en el tratamiento de la información de los pacientes, el adecuado tratamiento los datos por las aplicaciones médicas, o la construcción del Bioderecho sobre la base de la dignidad humana como reflejo de la construcción humanista, son algunos de los problemas que se han planteado a lo largo de este trabajo. Como reflejo de la argumentación critica la IA afecta de forma estructural a la autonomía de las personas y a las relaciones entre los individuos produciendo riesgos en esa autonomía relacional neutralizada por medio de estipulaciones normativas.
El uso de los robots sanitarios en el campo de la cirugía ha traído numerosos avances en la medicina pero también conlleva riesgos ya que, ante un defecto de la máquina se podría cometer una negligencia o un delito como consecuencia de ese mal funcionamiento eso nos lleva al régimen de la responsabilidad ya que en el sector sanitario la implementación de esta tecnología plantea quien debe ser responsable cuando se utiliza este tipo de los robots en la medicina se produce un daño, el fabricante, el programador, o los profesionales sanitarios que manipulan la máquina inteligente dar respuesta a esta pregunta no es tarea fácil, ya que no siempre se encuentra la fuente originadora de ese daño dificultando la delimitación del sujeto que debe soportar la reparación cabe preguntarse y de hecho lo hacemos a lo largo de este artículo si resultaría factible la aplicación de las reglas de la responsabilidad civil, el derecho de consumo, o la responsabilidad por productos defectuosos cuestionándose si sería necesario aprobar una legislación específica en las áreas afectadas por los robots, en este sentido si el daño se produce por defecto en este caso el robot se consideraría un producto sanitario o por la prestación de un servicio sanitario podemos acudir al régimen de responsabilidad establecido en le derecho de consumo regulado en el RD-L 1/2007 de 16 de noviembre(TRLGDCU)[32] y en caso de negligencia del médico o del hospital acudiremos al régimen de responsabilidad regulado en el Código civil, en Europa encontramos la resolución del Parlamento Europeo 16 de febrero de 2017, destinada a la Comisión sobre normas de Derecho civil sobre Robótica, teniendo en cuenta que en el actual marco normativo vigente no se puede hacer responsable de la acción u omisión al robot de forma directa sino que habrá que atribuir tal responsabilidad al agente humano concreto. Se plantea por ello las deficiencias del marco jurídico vigente en el ámbito de la responsabilidad contractual , en la protección de datos de carácter personal o en la ciberseguridad, ya que la existencia de máquinas concebidas para elegir y tomar decisiones hace inaplicable las normas tradicionales poniendo de relieve la necesidad de adoptar nuevas normas eficientes y actualizadas acordes con los avances tecnológicos y las innovaciones recientes en esta materia, planteándose cuestiones muy controvertidas que cuenta con opiniones a favor pero con detractores, en todo caso el planteamiento está sobre la mesa y tendremos que observar su evolución.
BECK. U, Risikolgesellshaft Buch, editorial Suhrkamp verlag, 1986.
BOHR A. y MEMARZADEH K. Inteligencia Artificial en el ámbito de la salud, Editorial Elservier, Barcelona, 2022, páginas 1- 339.
CÁRCAR BENITO, E.J., “La inteligencia artificial, aplicación jurídica y regulación en los servicios de salud”, Revista Derecho y Salud, vol 29, nº Extra 1, 2019, págs. 265-277.
EUROPEAN COMMISSION, ETHICS GUIDELINES FOR TRUSTWORTHY (Grupo de expertos de alto nivel en IA), “Ethics guidelines for Trustworthy artificial intelligence”, Revista Ethics and Law, nº IV, 2019.
GARCÍA SAN JOSÉ, D., “Implicaciones Jurídicas y Bioéticas de la Inteligencia Artificial especial consideración del Marco Normativo Internacional”, Cuadernos de Derecho Transnacional, nº 1, vol 13, 2021, págs 255-276.
GONZÁLEZ RODRÍGUEZ-ARNAIZ, G., “Un imperativo tecnológico, una alternativa hacia el humanismo”, Revista Cuadernos de Bioética, nº 1, 2004, págs. 1-22
HANS J., Das Prinzip Verantwortung, Editorial A. M . Suhrkamp, Frankfurt, 1985, págs. 1-426
ROMEO CASABONA, CM. y MORATINOS LAZCOZ, G., “Inteligencia artificial aplicada a la salud ¿Qué marco jurídico?”, Revista de Derecho y Genoma Humano: genética, biotecnología y medicina avanzada, nº 52, 2020, págs. 139-167.
[1] Ley de Investigación Biomédica (LIB) 14/2007, de 3 de julio, BOE n° 159, de 04 de julio de 2007, Ref: BOE-A-2007-12945, págs. 2826 a 2848
[2] Directrices éticas para una inteligencia artificial (IA) fiable, se puede consultar en la URL https://ec.europa.eu/digital-single-market/en/high-level-expert-group-aryificial-intelligence
[3] Libro Blanco, COM (2020) 65 final, Bruselas, 19 de febrero de 2020, se puede consultar en la URL https://eur-lex.europa.eu
[4] Directrices éticas para una inteligencia artificial (IA) fiable, op.cit., pág. 3
[5] Libro Verde, sobre salud móvil en la U.E., COM (2014) 219 final, Bruselas, Comisión Europea 2014, se puede consultar en la URL https://eur-lex.europa.eu>summary
[6] RGPDE 2016/679, de 27 de abril, DOUE nº 119, 04 de mayo de 2016, Ref: DOUE-L-2016-80807
[7] Directiva 2011/24/UE, DOUE-L-2011/89723, págs. 45 a 65
[8] Declaración Universal de los Derechos Humanos de la ONU, fue adoptada por la Asamblea General de la Naciones Unidas en su Resolución 217 A (III), del 10 de diciembre de 1948, Paris (Francia), se puede consultar en la URL https://www.un.org>about-us>universal-decla:
[9] La Corte Interamericana de Derechos Humanos fue creada en noviembre de 1969 en San José (Costa Rica) en la Conferencia Especializada en Derechos Humanos, estaba conformada por 25 naciones Americanas. Al día de hoy se han adoptado un sin número de instrumentos de carácter internacional, entre los cuales se encuentra la adopción de la Convención Americana sobre los Derechos Humanos, entre las funciones de esta última Convención están las siguientes: jurisdiccional, consultiva y de adopción de medidas provisionales, se puede consultar en la URL https://www.corteidh.or.cr
[10] La Asociación Médica Mundial en 1964 llevó a cabo la Declaración de Helsinki, esta Declaración fue adoptada por la XVIII Asamblea Médica Mundial (AMM), Helsinki (Finlandia), junio 1964, que fue enmendado, 1°) por la XIX AMM, Tokio (Japón), octubre 1975, 2°) XXXV AMM, Venecia (Italia), octubre 1983, 3°) por la XXXXI AMM, Hongkong, septiembre 1989, 4°) por la XXXXVIII Asamblea General (AG), Somerset West, Sudáfrica, octubre 1996, 5°) por la LII AG, Edimburgo (Escocia), octubre 2000. Nota de clarificación, agregada por la AG de la AMM, Washington 2002.Nota de clarificación, agregada por la AG de la AMM, Tokio (Japón) 2004. 6°) LIX AG, Seúl (Corea), octubre 2008 y 7°) LXIV AG, Fortaleza (Brasil), octubre 2013, se puede consultar en la URL https://www.wma.net
[11] Reglamento Europeo de Protección de datos, 679/2016, DOUE núm 119 de 4 de mayo de 2016 págs 1 a 88, Referencia DOUE-L-2016-80807
[12] LOPD 3/2018, BOE n° 294, 06 de diciembre 2018, Ref: BOE-A-2018-16673
[13] RGPDE 2016/679, de 04 de mayo 2016, op. cit., pág. 5
[14] RGPD, op. cit., pág. 5
[15] Reglamento (UE) 2018/1807, DOUE n° 303, 26 de noviembre, 2018, Ref: DOUE-L-2018-81888 , págs. 59 a 68
[16] Este estudio podemos encontrarlo en la URL www.med.stanford.edu/paliative-care
[17] High Level Expert Group on Artificial Intelligence (IA ,HLEG), DOUE C 252/239, Ref: DOUE 2018/C 252/25
[18] Reglamento (UE) 2018/1807 del Parlamento y del Consejo de 14 de abril de 2018, relativo al marco para la libre circulación de datos no personales en la UE, DOUE: núm 303 de 28 de noviembre de 2018, págs 59 a 68, Referencia DOUE-L-2018-81888.
[19] Dictamen 3/2010, sobre el principio de responsabilidad, 00062/10/ES, GT 173, adoptado el 13 de julio de 2010.
[20] Resolución 2015/2102 (INL) DOUE C 252/201, Ref: DOUE 2018 C 252/22
[21] La American Industry Summit borrador de orientación para la regulación de la IA publicado por la Casa Blanca (Office of Science and Technology Policy, de 18/05/2018), se puede consultar en la URL https://amvirtual.vfairs.com
[22] Los principios de la IA extraídos de los principios de la OCDE para la IA, los podemos encontrar en la URL https://www.oecd.org/digital/state/of/implementation/of/the/oecd/ai/principles/1cd40c44/en.Htm.
[23] Comunicación 2018, de la Comisión Europea, centrada en la IA COM (2018) 795 final, del 07 de diciembre de 2018, se puede consultar en la URL https://eur-lex.europa.eu>TXT
[24] En relación a las tecnologías emergentes tenemos la Directiva 2015/2366 UE, que da origen a la Comunicación de la Comisión Europea, COM (2018) 109 final, 08/03/2018, DOUE núm 337 de 23 de diciembre de 2015 páginas 35 a 127, Referencia DOUE-L-2015-82575, se puede consultar URL: https://www.boe.es>buscar>doc
[25] Directiva 85/374/CEE, DOUE L 210 de 07/08/1985, págs 29 a 33, Ref: DOUE-L-1985-80678
[26] La Comisión Europea en un documento de sesión de 05.10.2020, realiza una recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de IA [2020/2014 (INL)], se puede consultar en la URL: https://eur-lex.europa.eu>TXT
[27] Health Insurance Portability and Accountability Act (HIPAA), 1996, Ley federal que obliga a la creación de unas normas nacionales par ala protección de información sensible sobre la salud de los pacientes y está cubierta por la llamada norma de la privacidad que contiene estándares para derechos individuales que entiendan y controlen como se usa estas información sobre la salud, se puede consultar en la URL: https://aspe.hhs.gov>reports>heal...
[28] Reglamento relativo a la ciberseguridad, DOUE 151, de 07/06/2019, Ref: DOUE-L-2019-80998
[29] Cibersecurty and Infrastructure Security Act de 2018 (H.R. 3359), fue firmada por el presidente Donald Trump el 16/11/2018 mediante la cual se creó una agencia de seguridad de infraestructura y siverseguridad, bajo el departamento de Seguridad Nacional (Resolución AB, 375), se puede consultar en la URL: https://www.congress.gov>house-bill
[30] Reglamento 679/2016 del Palamento y del consejo de 27 de abril de 2016, Op Cit pág 25
[31] Libro Blanco Op. Cit. Pág 21
[32] Real decreto- Ley 1/2007 de 16 de noviembre (TRLGDCU), BOE núm 287 de 30 de noviembre de 2007, Referencia BOE-A-2007-20553, Texto Refundido de la la Ley General de defensa de los Consumidores y Usuarios.