Decálogo (+ 7) de cuestiones éticas a proteger en la aplicación de la IA a los sistemas de cuidados domiciliarios

La implementación de la inteligencia artificial (IA) en proyectos de cuidados domiciliarios para personas dependientes presenta grandes oportunidades, pero también riesgos. Para garantizar que estas tecnologías se utilicen de manera ética y efectiva, es importante establecer directrices claras que protejan a las personas beneficiarias de este tipo de proyectos. Este decálogo (+7) ofrece un conjunto de principios y políticas esenciales para gestionar los riesgos éticos, desde el enfoque de la Auditoría Ética de Frederic G. Reamer, en concreto, 17 áreas de riesgo ético a proteger para asegurar la calidad ética de los proyectos de cuidados domiciliarios con IA.

Elaboro este decálogo (+7) en calidad de Directora de la Estrategia de Ética de los Servicios Sociales de Andalucía y doctoranda en Auditoría Ética aplicada a los servicios sociales en Andalucía. A continuación, se detallan los aspectos clave que toda gestora debe tener en cuenta al desarrollar y gestionar un proyecto de estas características.

DECÁLOGO (MÁS 7) CUESTIONES ÉTICAS A RESPETAR: 17.

  1. Protege los Derechos de las Personas con beneficiarias: Asegura el ejercicio efectivo de los derechos fundamentales, civiles y sociales de las personas con discapacidad, respetando su autonomía y preferencias en todo momento. Elaboración de una carta especifica, accesible y comprensible sobre los Derechos y Deberes que le asisten como persona beneficiaria de este proyecto. Siempre disponible para su consulta, así como un lugar donde acudir en caso de reclamación, queja o sugerencia al respecto como personas consumidoras.
  2. Garantiza la Confidencialidad y Privacidad: Implementa políticas y procedimientos para proteger la privacidad y confidencialidad de los datos personales de las personas beneficiarias. Nos referimos concretamente a: 1. Acceso no autorizado a datos sensibles de las personas (médicos, por ej.), 2. Divulgación involuntaria de información (sólo personas autorizadas). 3. Recolección y almacenamiento de datos seguro, cumpliendo las normativas. 4. Uso y compartición de datos (que los datos sólo se usen para los fines necesarios, que no se vendan a empresas, por ej. , y que no se compartan sin la autorización expresa de la persona. 5. Proteger del monitoreo invasivo (que la supervisión de la persona se equilibre con su derecho natural a la privacidad, evitar prácticas invasivas que hagan que las personas se sientan vigiladas en todo momento). 6. Anonimizar datos que se puedan hacer públicos (proteger la identidad de las personas beneficiarias).
  3. Obtén Consentimiento Informado: Proporciona información clara y accesible para que las personas puedan tomar decisiones informadas sobre su cuidado, asegurando su comprensión y autonomía.
  4. Prioriza la Humanización en la Prestación de los cuidados: Sitúa a la persona en el centro de los cuidados, garantizando que sean de calidad y personalizados, promoviendo interacciones humanas significativas de entre las figuras de afecto de la persona. Incidir en no suplir, sino apoyar. Los afectos son necesarios e insustituibles, y esto debe ser algo que los gestores de este tipo de proyectos deben tener como bandera de sus actuaciones.
  5. Supervisa Humanamente los Cuidados Prestados: Realiza supervisiones periódicas de las tecnologías de IA por profesionales cualificados – sensibles y humanistas – especializados en bienestar humano, para detectar y corregir posibles sesgos y errores.
  6. Asegura la Transparencia de los Algoritmos: Mantén disponibles para consulta y auditoría los códigos de los programas de IA que toman decisiones críticas, garantizando la transparencia y responsabilidad.
  7. Establece Límites Claros en las Relaciones: Facilita la comunicación y el apoyo humano, asegurando que las interacciones con la IA no sustituyan las relaciones personales significativas, ni mucho menos con engaños. El objetivo sería que las personas pudieran mantener sus relaciones significativas y que la IA pudiera ser un apoyo para ello.
  8. Evita Manipulación, el engaño y los Conflictos de Intereses: Implementa políticas para prevenir la influencia indebida, manipulación o engaño en la interacción entre personas y sistemas de IA. 1. Influencia Indebida: proteger a las personas beneficiarias de influencias indebidas con el uso de la IA, por ej. en sus decisiones (sobre todo si confían ciegamente en la IA) También es influencia indebida la favorecer la adquisición de productos o servicios con fines comerciales, distintos a la naturaleza del servicio de cuidado. Proteger a la persona de estas influencias 2. Engaño: Los usuarios pueden ser engañados si los sistemas de IA no son transparentes en su funcionamiento o si presentan información de manera sesgada o incorrecta. También se puede dar el caso de las que personas puedan dudar sobre si interaccionan con un ser humano o un robot, y esto no debería suceder jamás. Da lo mismo si la persona nombra a su robot con su nombre favorito, pero de lo que nunca debe dudar es de que no es un ser humano. 3. Conflictos de Intereses: establecer limites de cuidado cuando los sistemas de IA son desarrollados o gestionados por entidades con intereses comerciales que prioricen los beneficios económicos sobre el bienestar de las personas. 4. Especial cuidado merecen las alucinaciones sociales: el deepfake ha permitido realizar un anuncio con el rostro y la voz de Lola Flores (comando de voz reproducido a través de la locución de su hija Lolita). Las personas no pueden dudar ni un sólo momento de que interaccionan con robots, y se debe poner especial cuidado en la generación de imágenes y comandos de voz que reproduzcan a miembros humanos que están entre sus afectos (quizá ya fallecidos). Si la persona solicitara estos servicios adicionales, deberían ser evaluados en un comité de ética especializado, para evitar situaciones de perjuicio (por ej., la extensión innecesaria de un duelo patológico por reproducir el comando de voz de un cónyuge ya fallecido). Estas deliberaciones deberían contar con la propia persona solicitante, con personas formadas en ética y con personas especialistas en la petición expresa que formula la persona beneficiaria y que genera el conflicto ético.
  9. Mantén la Transparencia en la Toma de Decisiones: Asegura que las decisiones con consecuencias significativas sean transparentes y, en casos críticos, tomadas por seres humanos. En concreto, protección de la transparencia y Explicabilidad: asegurar que los algoritmos utilizados en el sistema de IA sean transparentes y comprensibles. Los usuarios deben saber cómo y por qué se toman ciertas decisiones que les interesan, y estas explicaciones se deben de poder proporcionar en el 100% de los casos.
  10. Promueve la Formación Continua del Personal implicado en el desarrollo de estas aplicaciones o de su supervisión: Garantiza la formación continua del personal en ética aplicada a la IA (la IA avanza muy rápidamente) y en derechos de protección a las personas, para asegurar una implementación sensible y ética. También formación en aspectos sensibles, vinculados a la humanización de la asistencia y el fortalecimiento de los vinculos de afecto (políticas relacionales).
  11. Consulta a Personas debidamente Expertas para temas concretos de desarrollo y aplicación concreta de la IA: Asegura que el personal implicado en el desarrollo del proyecto busque asesoramiento experto con el nivel adecuado en temas específicos cuando sea necesario. Por ej. Supongamos que un usuario desea información sobre algún tema concreto y relevante para la calidad de vida: sexo asistido, conflictos familiares, eutanasia, diversidad sexual, etc.
  12. Gestiona Casos de Complejidad: Implementa políticas para la correcta canalización y derivación de casos complejos que requieran atención especializada adicional. Concretamente, para gestionar eficazmente las situaciones de especial complejidad que puedan surgir durante el desarrollo de la aplicación del proyecto de cuidados domiciliarios con IA, es importante definir acciones para identificar situaciones que requieran de un abordaje diferente (p.e. consumo de tóxicos, empeoramiento grave de salud, necesidad de cuidados 24 horas asistidos, situaciones de malos tratos detectadas, etc, para derivar esas situaciones de riesgo o necesidades de atención especializada compleja a los servicios adecuados.
  13. Finaliza Servicios de Manera Adecuada: Establece procedimientos claros para la finalización de servicios, asegurando que no se lesionen los derechos de las personas beneficiarias, y que no se pongan trabas a dicha finalización, ni penalizaciones (ni mucho menos económicas).
  14. Fomenta la Evaluación e Innovación: Promueve la evaluación continua y la innovación en los sistemas de IA, asegurando que sean fiables y beneficiosos para los destinatarios. 1. Realiza evaluaciones regulares para asegurar que los algoritmos no presenten sesgos y que traten a todos los usuarios de manera justa y equitativa. 2. Monitoreo Regular: Implementa sistemas de monitoreo continuo para detectar y corregir cualquier comportamiento indebido o sesgo en los sistemas de IA. 3. Auditorías Independientes: Realiza auditorías independientes periódicas para asegurar la integridad y la imparcialidad de los sistemas de IA.
  15. Promueve Diversidad y Equidad: Implementa políticas para evitar sesgos discriminatorios y asegurar que los sistemas de IA sean equitativos y accesibles para todos los beneficiarios.
  16. Garantiza la Responsabilidad y Rendición de Cuentas: Asegura que los errores y comportamientos anómalos de los sistemas de IA sean supervisados y corregidos, con responsabilidad y transparencia.
  17. Fomenta la Reflexión Ética en la Toma de Decisiones: Implementa un marco de reflexión ética y deliberación en la toma de decisiones, especialmente en situaciones complejas que afecten los derechos y el bienestar de las personas, aquellas situaciones en las que no se tenga claro el curso de acción a seguir, o qué podría beneficiar más a las personas atendidas con estas tecnologías.

Estos principios aseguran una implementación ética y responsable de la inteligencia artificial en el ámbito de los cuidados domiciliarios, protegiendo los derechos y el bienestar de las personas beneficiarias.

Elaborado por Inmaculada Asensio Fernández.

Si quieres saber más:

Inmaculada Asensio Fernández

Deja un comentario