
Iciar Alfonso Farnós
Médico Especialista en Farmacología Clínica.
Vicepresidenta. Comité de Ética de la Investigación con medicamentos de Euskadi.
Presidenta Asociación Nacional de Comités de ética de la investigación-ANCEI
Guillermo Alcalde Bezhold
Médico Especialista en Nefrología.
Presidente Comité de Ética de la Investigación. Hospital Universitario Araba. Vitoria-Gasteiz (Araba)
El texto analiza el enriquecimiento mutuo entre la bioética contemporánea y la bioética teológica católica. Señala cómo la bioética desafió a la teología moral a adoptar un enfoque más abierto, empírico y relacional, alejándose del modelo manualístico tradicional. A su vez, la teología cristiana amplió el horizonte ético de la bioética, centrando la atención en la dignidad humana, especialmente en contextos de sufrimiento y exclusión. Se aboga por una ética coherente de la vida que integre tanto la defensa del no nacido como la atención a los pobres, enfermos y migrantes.
El texto subraya la necesidad de redescubrir una razón ampliada que promueva el diálogo entre saberes y reconozca tanto el valor de la ciencia como sus límites ante las preguntas de sentido. En este contexto, la bioética cristiana debe evitar el cientificismo y el fideísmo, buscando un equilibrio integrador entre verdad científica y verdad humana.
Finalmente, se destaca la importancia de una ética transdisciplinar que cuestione los fines del progreso técnico, integre saberes científicos, humanísticos y espirituales, y mantenga una actitud de apertura, compromiso y diálogo público. La dimensión simbólica y religiosa también es reconocida como clave en la construcción del sentido comunitario y ético.
Palabras clave: Ética, Inteligencia Artificial (IA), Comité de Ética de la Investigación (CEI), Protección de datos
Artificial intelligence (AI) develops algorithms and models that allow machines to perform tasks which usually require human intelligence, such as perception, reasoning, learning, creativity and planning. In medicine, AI is used to analyse large quantities of data, looking for patterns which can help health professionals to make more accurate decisions on the diagnosis and treatment of illnesses and/or processes.
Biomedical research with AI can help to discover new medications and treatments, facilitating the introduction of a personalised medicine that lets each patient receive an individualised treatment with the most precise administration schedule. To this end, clinical trials should be conducted whose conclusions allow safe AI systems with a pertinent objective to be implemented in the health field.
Artificial intelligence analyses large quantities of data. For this reason, the development of AI poses a series of ethical and legal challenges that should be taken into account in both the development process itself and in implementation. This involves ethical aspects relating to privacy and security, and the legal, employment-related and personal effects of the possible unauthorised disclosure of personal data. The law and the various ethical guides have assigned the ethical supervision of research to research ethics committees, making it essential for researchers and committee members to familiarise themselves with the particularities of research involving AI.
Keywords: ethics, artificial intelligence (AI), research ethics committee (REC), data protection
01 | Comités de Ética de la Investigación
El Real Decreto 1090/2015[1] define al Comité de Ética de la Investigación (CEI) como un «órgano independiente y de composición multidisciplinar cuya finalidad principal es la de velar por la protección de los derechos, seguridad y bienestar de los sujetos que participen en un proyecto de investigación biomédica y ofrecer garantía pública al respecto mediante un dictamen sobre la documentación correspondiente del proyecto de investigación, teniendo en cuenta los puntos de vista de las personas legas, en particular, los pacientes, o las organizaciones de pacientes». Además, define «Comité de Ética de la Investigación con medicamentos (CEIm)» como un Comité de Ética de la Investigación que además está acreditado para emitir un dictamen en un estudio clínico con medicamentos y en una investigación clínica con productos sanitarios.
La Ley 14/2007, de 3 de julio, de Investigación Biomédica (LIB) asigna a los CEI las siguientes funciones: a) Evaluar la cualificación del investigador principal y la del equipo investigador, así como la factibilidad del proyecto; b) Ponderar los aspectos metodológicos, éticos y legales del proyecto de investigación; c) Ponderar el balance de riesgos y beneficios anticipados dimanantes del estudio; d) Velar por el cumplimiento de procedimientos que permitan asegurar la trazabilidad de las muestras de origen humano; e) Informar, previa evaluación del proyecto de investigación, toda investigación biomédica que implique intervenciones en seres humanos o la utilización de muestras biológicas de origen humano; f) Desarrollar códigos de buenas prácticas de acuerdo con los principios establecidos por el Comité de Bioética de España y gestionar los conflictos y expedientes que su incumplimiento genere; g) Coordinar su actividad con la de comités similares de otras instituciones y h) Velar por la confidencialidad.
Por último, en relación al tratamiento de datos en la investigación en salud, la Ley Orgánica 3/2018 ha asignado a los CEI la supervisión de los estudios realizados con datos de carácter personal o de datos seudonimizados o anonimizados.
En la evaluación de estudios con IA los CEI deben analizar detalladamente cómo se van a afectar los derechos, la privacidad, la justicia y la seguridad de los participantes, asegurándose de que se mitigan los riesgos y se maximizan los beneficios en todo momento.
A continuación, se describen algunos de los aspectos más relevantes que deben tenerse en cuenta en la evaluación ética de un proyecto de investigación con IA.

02 | Funciones que debe desempeñar un comité de ética de la investigación
02 | 01 Aspectos relacionados con la factibilidad y pertinencia del estudio
02 | 02 Evaluación del equipo investigador
02 | 03 Evaluación de aspectos metodológicos
Los CEI deben valorar la cualificación del investigador en relación a la formación y experiencia necesarias para asumir las responsabilidades que requiere el estudio, mediante la revisión del Curriculum Vitae, su implicación en la obtención de los datos primarios, a partir de los que se plantee el desarrollo de algoritmos, y su experiencia en la interpretación de los posibles resultados. A su vez, deberá revisar la idoneidad de las instalaciones, es decir que las características de los centros sean las adecuadas para su realización, incluyendo las necesarias medidas de seguridad informática.
02 | 04 Principios éticos que deben guiar la investigación con IA
Para que un proyecto de investigación pueda obtener conclusiones adecuadas debe estar metodológicamente bien diseñado, de forma que la memoria científica describa, entre otros, la justificación del estudio, los objetivos, los datos necesarios o el análisis estadístico previsto.
Por otra parte, en la investigación con inteligencia artificial deben tenerse en cuenta una serie de aspectos metodológicos específicos, relacionados con el desarrollo de la herramienta de IA, respecto al ciclo de vida de un sistema algorítmico (dividido en una fase de diseño y desarrollo o pre-comercialización y una fase de implementación o post-comercialización). En todas ellas deben implementarse metodologías de validación rigurosas que garanticen los estándares de calidad.
Los CEI/CEIm desempeñan un papel muy relevante a la hora de evaluar la metodología de la validación de sistemas de IA. Para ello, la memoria científica debe describir la estrategia prevista para evitar la creación de sesgos en el sistema de IA, tanto en relación con el uso de datos de entrada como en el diseño del algoritmo. Además, deben establecerse procesos para verificar y realizar un seguimiento de los sesgos potenciales durante el desarrollo, despliegue y uso del sistema.
02 | 05 Marco normativo
El catálogo disponible de herramientas IA es muy amplio, por lo que se deben seleccionar aquellas que puedan ajustarse a las necesidades del proyecto de investigación, valorando sus ventajas y utilizándolas con responsabilidad. Si se plantea desarrollar una nueva herramienta deberá describirse, justificando su utilización en el protocolo del estudio.
02 | 04 | 01 Principios éticos específicos de la investigación con IA
Los CEI, en el procedimiento de evaluación de cualquier estudio, deben llevar a cabo una deliberación ética en base a los principios y valores de la ética de la investigación enumerados en las directrices y guías internacionales.
Los principios éticos para la investigación médica en seres humanos de la Declaración de Helsinki[2], referente ético en el que se basa gran parte de la legislación internacional, destaca la importancia de proteger la dignidad, autonomía, privacidad y confidencialidad de los participantes en la investigación. Afirma que el objetivo principal de la investigación médica con seres humanos es generar conocimiento para comprender las causas, el desarrollo y los efectos de las enfermedades; mejorar las medidas preventivas, diagnósticas e intervenciones terapéuticas; y, en última instancia, promover la salud individual y pública; estos fines nunca pueden prevalecer sobre los derechos e intereses de los participantes individuales de la investigación.
La justificación ética para realizar investigaciones relacionadas con la salud, en las que participan seres humanos, radica en su valor social y científico: la perspectiva de generar el conocimiento y los medios necesarios para proteger y promover la salud de las personas. Tal como recoge el Convenio de Oviedo para la protección de los derechos humanos y la dignidad del ser humano con respecto a las aplicaciones de la Biología y la Medicina, el interés y el bienestar del ser humano deberán prevalecer sobre el interés exclusivo de la sociedad o de la ciencia.
Se han publicado varias guías éticas que profundizan en los principios éticos que deben guiar la investigación con IA, cuyo contenido se resume a continuación[3] [4].
En el desarrollo de los sistemas de IA debe preverse la intervención humana tanto en la fase de entrenamiento como en la fase de aplicación, respetando la autonomía humana, de manera que las personas mantengan el control sobre los sistemas de atención de la salud y las decisiones médicas. El respeto de la autonomía humana debe garantizar que los proveedores[5] proporcionan la información necesaria para hacer un uso seguro y eficaz de los sistemas de IA y facilitar que quienes han de implementarlos puedan transmitir información precisa para que las personas entiendan el papel de dichos sistemas en la atención de la salud. Así, los sistemas de IA deben capacitar a los seres humanos, permitiéndoles tomar decisiones informadas y fomentando sus derechos fundamentales.
Al mismo tiempo, deben garantizarse mecanismos de supervisión adecuados, siendo necesario que en el sistema sanitario se vaya adquiriendo la confianza suficiente para aplicar modelos de IA en la práctica clínica habitual. Con este objetivo, debería informarse a los pacientes cuando se utilicen sistemas de IA como herramientas de apoyo a la toma de decisiones clínicas.
La investigación con IA debe destinarse a comprobar su fiabilidad, garantizando que sean resistentes y seguros, con objeto de minimizar y prevenir los daños no intencionados, mentales o físicos; para ello, deben disponer de un plan de emergencia en caso de mal funcionamiento. Además, debe promoverse el bienestar y la seguridad de las personas y el interés público.
Es preciso establecer medidas de control de la calidad e integridad de los datos en la utilización de la IA a lo largo del tiempo, garantizando un acceso legítimo a los mismos.
Debe garantizarse la inteligibilidad para los desarrolladores, profesionales de la salud, pacientes, usuarios y reguladores; así como la transparencia, de forma que se publique o documente información suficiente antes del diseño o despliegue de una tecnología de IA, y que dicha información facilite consultas y debates públicos significativos sobre la manera de diseñar la tecnología y sobre cómo debe o no utilizarse; los sistemas de IA y sus decisiones deben explicarse de forma adaptada a las partes interesadas. Los seres humanos deben ser conscientes de que están interactuando con un sistema de IA y ser informados de las capacidades y limitaciones del sistema.
El principio de justicia engloba la imparcialidad y la equidad, así como la protección de los grupos sociales vulnerables. En la investigación con IA debe verificarse que el diseño de los sistemas de IA es equitativo, teniendo en cuenta la diversidad y representatividad de los usuarios en los datos y si se han realizado pruebas para poblaciones concretas o casos de usos problemáticos.
Debe garantizarse la inclusividad a través del uso y acceso equitativos, con independencia de la edad, el sexo, el género, los ingresos, la raza, el origen étnico, la orientación sexual, la capacidad u otras características amparadas por los derechos humanos. Las tecnologías de IA deben compartirse siempre que sea posible y estar disponibles con independencia de los contextos, las capacidades y la diversidad de los países en función de los ingresos; no deben conllevar sesgos en detrimento de grupos identificables, especialmente si ya están marginados; deben minimizar las inevitables disparidades de poder que se producen entre los proveedores y los pacientes, entre las instancias normativas y las personas, y entre las empresas y los gobiernos que crean e implementan tecnologías de IA y quienes las utilizan o dependen de ellas.
Deben evitarse los prejuicios injustos, ya que podrían tener múltiples implicaciones negativas, desde la marginación de grupos vulnerables hasta la exacerbación de los prejuicios y la discriminación. Para fomentar la diversidad, los sistemas de IA deben ser accesibles para todos, independientemente de cualquier discapacidad, e implicar a las partes interesadas pertinentes a lo largo de todo su ciclo vital.
Deben establecerse mecanismos que garanticen la responsabilidad de los sistemas de inteligencia artificial y sus resultados; así como una IA con capacidad de respuesta. La auditabilidad, que permite la evaluación de algoritmos, datos y procesos de diseño, desempeña un papel clave en este sentido, especialmente en aplicaciones críticas. Además, debe garantizarse una reparación adecuada y accesible.
Finalmente, los sistemas de IA deben ser sostenibles, beneficiando a todos los seres humanos, incluidas las generaciones futuras, garantizar su sostenibilidad y respeto con el medio ambiente, incluidos otros seres vivos y considerar su impacto en la sociedad.
De cara a evaluar si el sistema de IA, que se está desarrollando, implantando, adquiriendo o utilizando, cumple los requisitos éticos, el grupo de expertos de la Unión Europea (UE) elaboró la Lista de Evaluación de la Inteligencia Artificial Confiable (ALTAI), accesible en: https://altai.insight-centre.org/, que tiene como finalidad ayudar a las organizaciones a identificar cómo pueden generar riesgos los sistemas de IA y a determinar qué medidas han de adoptar para evitarlos o minimizarlos.
Los sistemas de IA requieren de grandes bases de datos para su entrenamiento y validación; para ello, contemplan con frecuencia el tratamiento de datos de carácter personal, especialmente en el ámbito sanitario, como por ejemplo un sistema que estudie la probabilidad de padecer una enfermedad o el éxito de una terapia en un individuo.
Para garantizar el cumplimiento de la normativa de protección de datos, los proyectos de investigación con IA deberían incluir la información referente a la gobernanza de los datos generados por el modelo, así como la descripción del tratamiento que se le dará a los datos de salud, clarificando si se tratarán de forma seudonimizada o anomizada[6]. En este sentido, debe recordarse que el paradigma de la anonimización como garantía de confidencialidad ya no existe, teniendo en cuenta que el avance tecnológico podría permitir la reidentificación de los datos anonimizados, implicando un riesgo potencial para la privacidad. De este modo, la auténtica anonimización exige perder información (diferencial de privacidad) que podría ser muy relevante para alcanzar los objetivos del estudio. Por ello, en la evaluación de estos estudios, los CEI deben velar por la confidencialidad de los participantes y sus datos, como aspecto fundamental en la valoración del balance riesgo beneficio de la investigación.
02 | 05 | 01 Legislación en materia de protección de datos
02 | 05 | 02 IA como producto sanitario. Control ético y marco regulatorio
Los estudios con IA pueden implicar el tratamiento de categorías especiales de datos, entre otros datos de salud y genéticos. Por ello, es prioritario garantizar el cumplimiento de la normativa de protección de datos[7] en cualquiera de las fases de diseño, desarrollo e implementación de los sistemas algorítmicos.
Por otra parte, uno de los aspectos cruciales que debe tenerse en consideración es que generalmente se requiere un uso masivo de datos recogidos con otros fines, lo que hace impracticable la obtención del consentimiento informado de los sujetos, siendo uno de los principales aspectos que deben revisar los comités en la evaluación de estos estudios. En este sentido, la LOPD-GDD permitiría el uso seudonimizado de los datos con fines de investigación en salud bajo las garantías definidas en la disposición adicional 17ª.2, sin necesidad de solicitar el consentimiento como base legítima del tratamiento de los datos.
Debe tenerse en cuenta el principio de minimización y exactitud de los datos, es decir que los datos utilizados en un proyecto de investigación sean los mínimos, adecuados, pertinentes y limitados; de forma que solo se traten los datos necesarios para alcanzar los objetivos de la investigación. No obstante, hay que considerar que una de las ventajas de emplear la IA en el campo de la investigación es su capacidad de detectar patrones ocultos en grandes volúmenes de datos, por lo que la aplicación del principio de minimización no debe ceñirse a la “cantidad” de datos, ya que se limitaría el potencial de estas nuevas herramientas; por ello, cuando el CEI evalúe estos estudios debe tener en cuenta si los conjuntos de datos solicitados están alineados con el contexto científico y facilitan la resolución de los objetivos del estudio.
Cuando un modelo de IA se entrena o valida con datos anonimizados, que estén irrevocablemente disociados de los sujetos fuente, no se aplicaría la normativa de protección de datos, ya que los datos anónimos no se consideran datos de carácter personal. Sin embargo, hay que recordar que la anonimización es un tratamiento de datos, y que puede conllevar riesgos importantes si se realiza sin las garantías adecuadas.
Los sistemas de IA como programas informáticos[8] pueden considerarse como productos sanitarios (PS), por lo que estarían sujetos a la correspondiente normativa[9],[10]. El artículo 2 del Reglamento Europeo de productos sanitarios (MDR) establece que para que un dispositivo sea considerado como PS debe estar destinado a un uso médico específico en personas, incluyendo la posibilidad expresa de que el PS sea un programa informático o software. Algunos ejemplos pueden ser los sistemas de IA para el diagnóstico médico, como los empleados para detección de cáncer de mama o retinopatía diabética basados en análisis automático de imágenes por IA, las aplicaciones para el móvil o los programas para el seguimiento y la predicción de eventos clínicos o riesgo elevado de enfermedades crónicas.
Sin embargo, la simple utilización de un software informático, algoritmos de IA o APP en el contexto clínico no es suficiente para considerarlo un producto sanitario. Los programas informáticos o soluciones de IA que sólo tienen la función de almacenar, archivar, comunicar o buscar información no deberían ser considerados PS.
El MDR establece que cuando los productos incorporan sistemas electrónicos programables, es necesaria la validación y verificación del software, confiabilidad, repetibilidad; así como la evaluación clínica, incluyendo la demostración de un beneficio clínico y clara descripción del propósito previsto.
Una vez calificada una solución de IA o software como producto sanitario el sistema de IA debe ser clasificado[11], en relación a las consecuencias que puedan tener los posibles errores del producto desarrollado. Esto significa que las responsabilidades establecidas varían según el riesgo que presente el producto, es decir, a mayor riesgo para los pacientes, mayor será la clasificación y más rigurosas serán las obligaciones impuestas al proveedor o desarrollador. Esta clasificación determina fundamentalmente el tipo de evaluación clínica que se requiere para la certificación del producto (CE) o el seguimiento post-comercialización aplicable.
El Real Decreto 192/2023[12], de 21 de marzo, por el que se regulan los productos sanitarios, establece en su artículo 30, Investigaciones clínicas realizadas para demostrar la conformidad de los productos, que los productos destinados a investigación clínica solo podrán ser puestos a disposición de los facultativos si la investigación cuenta con el dictamen favorable del Comité de Ética de la Investigación con medicamentos y la conformidad de la dirección del centro donde vaya a realizarse. Cuando estas investigaciones se realicen en varios centros, el dictamen será emitido por un CEIm del territorio nacional y será único y vinculante.
Es importante destacar que los estudios con IA considerados productos sanitarios deberán ser autorizados por la Agencia Española de Medicamentos y Productos Sanitarios (AEMPS) si el producto no dispone del marcado CE. Si dispone del marcado CE y se utiliza dentro de su finalidad prevista, el estudio no requiere autorización de la AEMPS; aunque en el caso de que se vayan a llevar a cabo procedimientos adicionales que sean invasivos o gravosos se requeriría una notificación a la AEMPS.
03 | Adaptación de los CEI a la evaluación de proyectos con IA
Para realizar una correcta evaluación de los proyectos de investigación con IA los CEI deben adaptarse, tanto en composición como en funcionamiento, a las exigencias requeridas por la normativa y por la tecnología a utilizar. Así, deberían contar con expertos en las herramientas de IA y en las medidas de seguridad asociadas. Si no dispusieran de esta opción, podría solicitarse el asesoramiento de expertos independientes, tal y como exige el Real Decreto 1090/2015[13] en relación a la evaluación de estudios con productos sanitarios.
Por otra parte, en la evaluación de este tipo de estudios, los CEI deben garantizar el cumplimiento de lo establecido en la LOPD-GDD, integrando entre sus miembros un delegado de protección de datos (DPD) o, en su defecto, un experto con conocimientos suficientes del Reglamento (UE) 2016/679. Además, es imprescindible la coordinación con las autoridades de control y con los DPD de los centros investigadores, que deben implementar las directrices para que los investigadores puedan realizar los proyectos conforme a la normativa de protección de datos.
No debe olvidarse que los pacientes van adquiriendo un mayor protagonismo en los sistemas sanitarios, reclamando una participación más activa a lo largo de todo el proceso de investigación. Tal y como exige la normativa, los pacientes participan en los Comités científicos de la EMA, como ocurre en el Comité de Medicamentos Huérfanos, el Comité Pediátrico o el Comité de Terapias Avanzadas. En esta línea, se exige que formen parte de los Comités de Ética de la Investigación representantes de los intereses de los pacientes.
Para cumplir su cometido, los miembros de los comités deben recibir formación en las nuevas exigencias del marco normativo, así como en las innovaciones tecnológicas.
Los CEI deberían establecer requisitos de evaluación específicos y adecuar los procedimientos normalizados de trabajo, de forma que recojan las exigencias, tanto de la legislación como de los avances tecnológicos, incluyendo protocolos de evaluación del riesgo de la tecnología.
Por otra parte, debe avanzarse en unificar los criterios de evaluación de este tipo de estudios. Para ello, la Asociación Nacional de Comités de Ética de la Investigación-ANCEI y la AEMPS han impulsado un Grupo de Trabajo con miembros de varios CEIm y representantes del Departamento de Productos Sanitarios de la AEMPS. El objetivo del grupo ha sido armonizar los requisitos específicos de estas investigaciones, simplificar la implementación de los criterios establecidos y facilitar su aplicación por las autoridades regulatorias, los CEIm, los promotores, los investigadores y las administraciones sanitarias involucrados. Se pretende lograr una coherencia y uniformidad en la evaluación ética, metodológica y legal de las investigaciones clínicas con productos sanitarios a nivel nacional. El documento final está en fase de consulta pública.
04 | Otras funciones de los CEI
Los CEI desempeñan un papel clave en el seguimiento de los estudios con IA, verificando que su realización ha sido acorde a los principios éticos y legales.
Las herramientas y los sistemas de IA deben ser objeto de vigilancia y evaluación para identificar efectos desproporcionados en grupos específicos de personas. Por ello, debe garantizarse el funcionamiento seguro de los sistemas de IA a lo largo de todo su ciclo de vida y comprobar que se han implantado metodologías de validación rigurosas, lo que hace más necesaria la intervención de los CEI/CEIm tanto en su desarrollo como en su implementación.
Los CEI deben garantizar el acceso a la información, exigiendo que los estudios realizados con datos de salud estén disponibles de forma fácil en la web corporativa; además, deben verificar que los resultados han sido publicados en medios de divulgación científica.
Finalmente, los CEI desempeñan una tarea fundamental en la formación a investigadores en aspectos éticos y legales de la investigación de cara a garantizar la calidad científica y el respeto por los derechos seguridad y bienestar de los participantes.
05 | Conclusión
Los sistemas de IA deben desarrollarse e implementarse con total transparencia, mediante metodologías de validación rigurosas. Para ello, deben incluir un estricto control ético de la validación tecnológica de estos sistemas durante su desarrollo, antes de su puesta en marcha en el centro que corresponda y hasta el final de su ciclo de vida cuando sea efectivamente implementado.
Al mismo tiempo, deben establecerse mecanismos de supervisión adecuados, de manera que puedan ser controlados y vigilados adecuadamente por seres humanos. Dada la importante repercusión que la IA puede tener en la sociedad y la necesidad de generar confianza, es fundamental que sea una herramienta para las personas y que tenga como objetivo último aumentar el bienestar humano.
Debe garantizarse su uso y aplicación en un marco ético y jurídico adecuado, tanto en el ámbito asistencial como en el contexto de proyectos de investigación. El control ético es ejercido por los Comités de Ética de la Investigación, responsables de velar por las personas que participan en investigación, que deben tener voz y voto en todo el proceso, tanto en la puesta en marcha de la investigación como en su evaluación, así como en el acceso a los resultados de las investigaciones en las que participan.
Los Comités de Ética de la Investigación verifican el cumplimiento de los principios éticos y legales aplicables a la investigación con datos de salud; intervienen fundamentalmente en la fase de diseño y desarrollo del sistema, y también en la fase de implementación, cuando un sistema de IA está ya certificado como un producto sanitario o conforme a otros modelos de certificación que resulten de aplicación.
Los CEI deben adaptarse, tanto en composición como en funcionamiento, a los avances tecnológicos en investigación, desempeñando un papel proactivo en la difusión de los principios éticos aplicables a la investigación en salud, de cara a fomentar una cultura de respeto por la intimidad y la confidencialidad de los datos personales que facilite que en el sistema sanitario se vaya ganando la confianza suficiente para aplicar modelos de IA en la práctica clínica habitual.