La inteligencia artificial (IA) no introduce riesgos nuevos en el ámbito del cumplimiento normativo, pero obliga a las compañías a replantear su enfoque y su modelo de funcionamiento interno. Esta fue una de las principales ideas debatidas en la jornada ‘La inteligencia artificial y el cumplimiento normativo en el sector farmacéutico’, organizada por la Sección de Derecho Farmacéutico del Colegio de la Abogacía de Madrid (ICAM).
La presidenta de la Sección, Nuria Amarilla, enmarcó el análisis en un momento de transformación estructural que afecta a todos los sectores, pero especialmente al farmacéutico, por su impacto sobre los derechos de los pacientes y los participantes en investigación. Subrayó la complejidad del ecosistema normativo y el reto adicional que supone el uso de herramientas desarrolladas por terceros, lo que obliga a una distribución precisa de responsabilidades en los contratos.
Juan Pablo Aros Amaya, miembro del comité organizador, moderó la mesa con un enfoque práctico. Recordó que, aunque el concepto de inteligencia artificial está presente desde hace tiempo, aún existe incertidumbre sobre cómo aplicarla con seguridad y eficacia en el sector farmacéutico.
Una herramienta que no genera riesgos nuevos
Juan Ignacio Canosa Sevillano, director de Cumplimiento en AstraZeneca y chair del Comité de Ética y Compliance en EFPIA, defendió que la inteligencia artificial no crea riesgos distintos a los ya existentes en el ámbito del cumplimiento, como el fraude, la protección de datos o el uso indebido de la información. Señaló que esos riesgos ya estaban presentes antes de la aparición de la IA y que esta no los multiplica, sino que transforma su forma de manifestarse.
Rechazó el enfoque alarmista que a menudo se asocia al uso de estas tecnologías. Afirmó que los equipos de cumplimiento deben aprender a convivir con la IA como una herramienta más, sin miedo y con naturalidad, adaptando sus controles a las nuevas dinámicas que introduce.
Formación interna y control gradual
Esther Martín Mayo, directora de Ética y Cumplimiento en Lilly, incidió en la importancia de asegurar que las políticas relacionadas con el uso de IA sean comprendidas por todos los empleados y que se aplique formación adecuada para facilitar su correcta implementación. Apostó por introducir estas herramientas de forma progresiva, empezando por proyectos piloto en entornos cerrados que permitan evaluar su impacto antes de una implantación más amplia.
Martín destacó que la IA puede facilitar la toma de decisiones y reforzar la reputación corporativa, siempre que se utilice bajo criterios éticos y con una evaluación adecuada de los riesgos asociados.
Por su parte, Enrique Grande Jarque, responsable de Compliance en Takeda, señaló que una de las prioridades es identificar y documentar los casos de uso reales de IA dentro de la organización. Consideró que este inventario es la base sobre la que debe construirse el control interno. También valoró positivamente que el nuevo reglamento europeo fije estándares mínimos que pueden servir como guía para estructurar el trabajo de concienciación y formación dentro de las compañías.
Grande añadió que, en un entorno con equipos reducidos y múltiples frentes, la IA puede ser una aliada para ganar eficiencia si se utiliza de forma adecuada.
Gobernanza y coordinación transversal
Lola Canalejo Rodríguez, asesora jurídica sénior en Bristol Myers Squibb, defendió que los proyectos con componente de inteligencia artificial deben plantearse desde el inicio con una visión compartida. Explicó que la implicación del área legal debe comenzar desde la definición del objetivo del proyecto y no limitarse a revisar el cumplimiento normativo a posteriori. Señaló también que legal y compliance no pueden asumir en solitario la gestión de estas iniciativas, sino que deben trabajar de forma coordinada con otras áreas como tecnología, compras o recursos humanos.
Canosa coincidió en la necesidad de estructurar una gobernanza clara, que actúe como torre de control sobre el uso interno de estas herramientas. Recordó que no es lo mismo trabajar con un desarrollo propio que con una solución externa, y que tampoco son comparables los riesgos asociados a sistemas dirigidos al público que los aplicados solo en entornos internos.
Principios éticos y supervisión del dato
Los ponentes coincidieron en que el despliegue de soluciones basadas en inteligencia artificial debe estar guiado por principios éticos sólidos. Canosa enumeró algunos criterios que deberían regir su uso: explicabilidad, transparencia, equidad, seguridad, cumplimiento de la privacidad y responsabilidad sobre sus resultados.
Martín añadió que estas herramientas pueden liberar tiempo para tareas más estratégicas, siempre que no se delegue en ellas el juicio profesional. Señaló que su aplicación debe ir acompañada de una gestión activa del riesgo y de un marco claro de responsabilidad.
Grande advirtió del riesgo de asumir que la supervisión puede omitirse cuando se utilizan asistentes o agentes generativos de IA. Insistió en que todas las herramientas tecnológicas, por sencillas que parezcan, deben estar sometidas a control humano y formar parte del marco de cumplimiento.
Evolución del rol del compliance officer
Todos los participantes coincidieron en que la inteligencia artificial no sustituye al profesional de compliance, pero sí transforma su función. Grande sostuvo que su trabajo cambiará profundamente, exigiendo nuevas capacidades y un enfoque más estratégico. Fernández Puyol, desde el despacho Gómez-Acebo & Pombo, remarcó que esta figura será cada vez más relevante en todos los procesos internos de las compañías.
Martín consideró que el entorno regulatorio obliga a una actitud proactiva, donde la formación continua y la adaptación son esenciales. Canalejo mostró confianza en que la supervisión seguirá siendo responsabilidad humana, aunque evolucione hacia modelos más híbridos.
Canosa concluyó con una reflexión que sintetizó el sentir general: la inteligencia artificial aún carece de intuición y contexto. Reivindicó que, en cumplimiento, sigue siendo indispensable el juicio profesional, la sensibilidad ética y la capacidad de anticipación, que aún no pueden automatizarse.