Valor en salud
Valor en salud
Valor en salud

Aspectos éticos en el uso de la inteligencia artificial

Aspectos éticos en el uso de la inteligencia artificial

Jaume Raventós
Director General de ITA   /   28-10-2021   /   0 COMENTARIOS   /  A+ | a-
El uso de la Inteligencia Artificial (IA) comporta nuevos aspectos a tener en cuenta, especialmente en el sector de la salud y social. El uso de algoritmos y la toma de decisiones automatizada que nos propone esta nueva tecnología nos tiene que llevar a debatir y atender a los resultados que se obtienen, ya que la mayoría de ellos afectan a las personas. La ética tiene que tener un papel importante en la creación y el uso de los mecanismos de inteligencia artificial.

En esta entrada tendremos en cuenta exclusivamente los aspectos éticos, dejaremos para una próxima entrada los aspectos regulatorios relacionados con la misma.

Los principios éticos que deben regir el desarrollo de la inteligencia artificial han sido tratados en numerosos foros, desde la Declaración de Montreal a la de Barcelona, pero también en organizaciones internacionales. Entre ellos, los de la OCDE.


OCDE – Principios para una inteligencia artificial fiable[1]

1. La inteligencia artificial debe beneficiar a la humanidad a través de crecimiento inclusivo, desarrollo sostenible e impulso del bienestar.

2. Los sistemas de inteligencia artificial deben estar diseñados de tal forma que se respete el estado de Derecho, el imperio de la ley, los derechos humanos, los valores democráticos y la diversidad. Deben incluir las salvaguardas oportunas que permitan la intervención humana cuando sea necesario.

3. Los sistemas de inteligencia artificial deben ser transparentes y poder ser accesibles de manera responsable para asegurar que se pueden entender e impugnar.

4. Los sistemas de inteligencia artificial deben funcionar de manera robusta, sólida y segura durante todos los ciclos de su vida y deben ser continuamente gestionados y revisados.

5. Las organizaciones y los individuos desarrollando, desplegando u operando sistemas de inteligencia artificial deben ser responsables de su funcionamiento y de que cumplan los principios anteriores.


Comisión Europea – Grupo Independiente de Expertos de Alto Nivel sobre Inteligencia Artificial[2]

El objetivo que pretenden las directrices sobre inteligencia artificial es promover una inteligencia artificial fiable. La fiabilidad se apoya sobre tres componentes: (a) debe ser lícita, respetando las leyes y los reglamentos aplicables; (b) debe ser ética, de modo que se garantice el respeto de los principios y valores éticos; y (c) debe ser robusta, tanto desde el punto de vista técnico como social, puesto que los sistemas de inteligencia artificial, a pesar de estar creados con buenas intenciones, pueden provocar daños accidentales.

Principios éticos en el contexto de los sistemas de inteligencia artificial

Principios que deben contribuir a interpretar los derechos fundamentales indicados, en el contexto del desarrollo de los sistemas de inteligencia artificial:

(a) Principio de respeto de la autonomía humana. Las personas que interactúan con los sistemas de inteligencia artificial deben poder mantener una autonomía plena y efectiva sobre sí mismas y ser capaces de participar en el proceso democrático. Los sistemas de inteligencia artificial no deberían subordinar, coaccionar, engañar, manipular, condicionar o dirigir a los seres humanos de manera injustificada.

(b) Principio de prevención del daño. Los sistemas de inteligencia artificial no deberían provocar daños (o agravar los existentes), ni perjudicar de cualquier otro modo a los seres humanos. Esto conlleva la protección de la dignidad humana y de la integridad física y moral.

(c) Principio de equidad:

 
(i) Dimensión sustantiva, que implica un compromiso de garantizar una distribución justa e igualitaria de los beneficios y costes, así como de asegurar que las personas y los grupos no sufren sesgos injustos, discriminación ni estigmatización.
(ii) Dimensión procedimental, que conlleva la capacidad de oponerse a las decisiones adoptadas por los sistemas de inteligencia artificial y por las personas que los manejan, así como de tratar de obtener compensaciones adecuadas frente a ellas. Es fundamental poder identificar a la entidad responsable de la decisión y explicar los procesos de adopción de decisiones.

(d) Principio de explicabilidad. Significa que los procesos han de ser transparentes, que es preciso comunicar abiertamente las capacidades y la finalidad de los sistemas de inteligencia artificial y que las decisiones deben poder explicarse. Cuando no es posible (en los llamados algoritmos de “caja negra”), es necesario garantizar la trazabilidad, la auditabilidad y la comunicación transparente sobre las prestaciones del sistema.

Los sistemas de Inteligencia Artificial (IA) estarán en pocos años formando parte de nuestros trabajos diarios, aportando mejores decisiones clínicas, dando ayuda a la planificación de recursos en la gestión, focalizando el trabajo de los profesionales a aquello que realmente aporta valor, en general, convirtiendo los datos en información clínica y de gestión. Para ello, tenemos que atender a los aspectos éticos desarrollados, es básico para que tengamos sistemas fiables y sobre los que podamos depositar la confianza de la toma de decisiones para obtener mejores resultados.
 
Artículo realizado en coautoría con Inmaculada Castelló, socia de Pinsent Masons.

[1] https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449
[2] https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai
No hay comentarios

Haga un comentario

Simple catpcha image
Top