Propuesta metodológica de una herramienta de Auditoría Ética aplicada a los cuidados domiciliarios con IA

Auditoría Ética Aplicada a los Servicios Sociales de Andalucía.

Propuesta metodológica de una herramienta de Auditoría Ética aplicada a los cuidados domiciliarios con IA


La explosión tecnológica en la que nos encontramos está precipitando la exploración de nuevas fórmulas para poner en marcha sistemas de cuidados domiciliarios que permitan a las personas desarrollarse en sus entornos, con autonomía, y para prevenir o retrasar institucionalizaciones no deseadas, según sea el caso.


En la búsqueda de argumentos positivos para apoyar la emergencia de estos sistemas que irrumpen antropológicamente en los entornos humanos, cabe señalar que parece positivo crear sistemas de apoyo a las personas en situación de dependencia que permitan desplazar la responsabilidad de la provisión de los cuidados, desde lo femenino hacia la sociedad en su conjunto. Durante la pandemia escribí un artículo que titulé “Si las mujeres hicieran huelga de brazos caídos, habría más muertes por desatención que por Covid19”, desde el firme convencimiento de que si todas las mujeres dejáramos de prestar cuidados en un mismo momento (de golpe), sucedería una crisis mundial sin precedentes. Desde esta óptica de género, parece que iniciativas como el Proyecto Vivir en Casa podrían constituir una de esas respuestas de esa sociedad en su conjunto a la que aludía en el párrafo anterior, dado que se trata de impulsar la autonomía de las personas para vivir un proyecto de vida libre e independiente.


Mil máquinas no pueden hacer una flor, aunque sí pueden apoyar, con un buen diseño y sujetas a una serie de normas de funcionamiento, a regar mil campos repletos de flores, y de las más hermosas. En este sentido, la inteligencia artificial está en la vertiente de las oportunidades, y tiene un potencial enorme que puede presentar muchas ventajas, pero también presenta algunas preocupaciones éticas, legales y sociales, tal como se recoge en la Estrategia Andaluza de Inteligencia Artificial 2030 (pág. 8).


A través de esta conferencia, nos vamos a centrar en las preocupaciones éticas, y lo vamos a enfocar intelectualmente desde el enfoque de los valores éticos de los servicios sociales, recogidos en la Estrategia de Ética de los Servicios Sociales de Andalucía; y también desde el enfoque de las Auditorías Éticas, que estructuran su evaluación en diferentes áreas de riesgo ético relacionadas con la prestación de servicios sociales en sus diferentes modalidades o vertientes.

Los valores éticos de los servicios sociales de Andalucía son seis:

Dignidad
Bienestar
Autonomía
Igualdad
Participación
Justicia Social

Las tecnologías, al igual que los proyectos, los robots, etc., que están emergiendo no tienen un valor neutral, y deben estar firmemente basados en valores éticos comunes, y por supuesto en el marco internacional de los Derechos Humanos. La ética nos impele a hacer explícitos los valores que están detrás de todas las políticas, de las acciones que emprendemos y decisiones que tomamos, así como detrás de la asignación de los recursos, y detrás de las tecnologías aplicadas a los entornos humanos. La importancia de hacer explícitos esos valores es que nos van a ayudar a analizar la tecnología desde el bien común específico que hay detrás de cada uno de esos valores explícitos, con argumentaciones claras que respalden su razón de ser. De este modo, los seis valores éticos de los servicios sociales de Andalucía deberían servir de marco de referencia para analizar la emergencia, impacto y desarrollo de estas tecnologías sobre el ser humano, así como para anticipar riesgos éticos, lo que va a conllevar el establecimiento de los necesarios límites para proteger las dimensiones asociadas a los diferentes valores éticos descritos.


Por su parte, la Auditoría Ética es una herramienta norteamericana creada por el Trabajador Social (docente e investigador universitario) Frederic G. Reamer (2000), denominada “Auditoría Ética Aplicada al Trabajo Social”, de la cual podemos decir que es una herramienta bastante extensa, organizada en 17 áreas de riesgo ético y en más de 170 ítems de evaluación. La aplicación de la herramienta requiere de su correcta adaptación transcultural al ámbito específico en el que se va a aplicar, ya que lo mismo se puede aplicar al Dpto. De Trabajo Social de un Hospital, que a un Centro de Servicios Sociales Comunitarios, a una Residencia, o al Proyecto Vivir en Casa. Por la parte que a mi me toca, os puedo adelantar que la Auditoría Ética es mi tema central de tesis, y he adaptado la herramienta a los Servicios Sociales Comunitarios de Andalucía, siguiendo las directrices especificadas en la Ley Andaluza de Servicios Sociales.


Hacia un dictamen ético en Servicios Sociales a través de la Auditoría Ética

Ahora bien, el objeto de esta comunicación es realizar una propuesta de herramienta metodológica para evaluar la calidad ética del Proyecto Vivir en Casa, de manera que he recopilado una serie de áreas de riesgo ético relacionadas con la aplicación de estas nuevas tecnologías que utilizan la inteligencia artificial. La recopilación de estas áreas de riesgo se ha llevado a cabo a través de la consulta de los documentos técnicos recogidos en la bibliografía consultada para elaborar esta comunicación.

Contenidos y estructura del dictamen ético que se propone a través de esta comunicación, organizados en áreas de riesgo ético vinculados al uso de la inteligencia artificial para el desarrollo y ejecución de proyectos relacionados con cuidados domiciliarios a personas con discapacidad.

AUDITORÍA ÉTICA APLICADA A PROYECTOS DE CUIDADOS DOMICILIARIOS CON IA

1. Área de riesgo ético número uno. Protección de los derechos de las personas con discapacidad. El desarrollo del Proyecto Vivir en Casa debe garantizar el ejercicio efectivo de los derechos fundamentales, civiles y sociales de las personas que necesitan apoyos, en especial para desarrollar su autonomía y su propio proyecto de vida, así como el respeto a sus preferencias y deseos, con independencia de la discapacidad y/o situación de dependencia que presente. En estos derechos están incluidos los que se recogen en la Convención Internacional de las personas con Discapacidad, en la Ley Andaluza de Servicios Sociales, y en la Ley de Promoción de la Autonomía y Atención a las Personas en situación de Dependencia, y todas las normativas de desarrollo en la materia. De este modo, se debe contar con políticas (p.e. cartas de recopilación de derechos) y procedimientos adecuados para garantizar el ejercicio efectivo de los derechos de las personas beneficiarias, y se debe de evidenciar en cualquier momento de la prestación de los servicios. Las personas que supervisan estas tecnologías deben conocer muy bien cuáles son esos derechos.

Valor ético relacionado: dignidad.

2. Área de riesgo ético número dos. Confidencialidad y privacidad. La aplicación de la inteligencia artificial y el internet de las cosas al ámbito de los cuidados domiciliarios, plantea una serie de riesgos éticos vinculados a la protección de la privacidad de las personas beneficiarias, y de su confidencialidad. En esta era calificada por algunos filósofos de “supremacía tecnológica” (Thomas Metzinguer, 2019) los datos personales son necesarios para registrar el comportamiento de las personas, cómo actúan, cómo se mueven, de manera que se pueden realizar predicciones para su incorporación al ciclo de cuidados. Los seres humanos corren el riesgo de convertirse en el producto (para las empresas propietarias de estas tecnologías) ya que son las que almacenan los datos, conversaciones, necesidades y demás de sus clientes. El uso de esta información de carácter personal está expuesta a importantes riesgos éticos que se deben gestionar con anticipación. Se debe disponer de políticas y procedimientos para proteger a las personas de la vulneración de su privacidad y confidencialidad de sus datos, que deben estar en todo momento protegidos. Además, estos procedimientos deben proteger a las personas de la influencia indebida, al disponer de tantos datos privados para orientarlos en alguna dirección (manipulación).

Valor ético relacionado: autonomía.

3. Área de riesgo ético número tres. Consentimiento Informado. El proceso de información y toma de decisiones en el ámbito asistencial tiene sus fundamentos en los derechos humanos, y concretamente en el derecho a la libertad de una persona de decidir sobre su propia salud (Lucía Pantoja, 2004), y sobre su propio proyecto de vida. Las personas tienen derecho a aceptar o rechazar servicios personales, basándose en su escala de valores y en su deseo de realizar sus propias metas. La práctica del consentimiento informado se considera un proceso de toma de decisiones compartidas entre profesionales y personas beneficiarias (Consejería de Bienestar Social y Vivienda, 2013), e implica preguntar a la persona -individualmente- qué tipo de cuidado quiere que se le dispense a través de estas novedosas tecnologías, en aras a establecer los límites necesarios en cada caso, haciendo uso de la libertad para crear el proyecto de vida personal. Se considera necesario incidir en que no se limita a la firma de un documento de aceptación, esto no es un consentimiento informado bien practicado, esto es mala práxis. El consentimiento informado debe ir precedido de una información clara, en un lenguaje accesible a cada persona (contemplando las medidas de apoyo necesarias para garantizar la comprensión), y estando disponibles para que la persona pueda solicitar aclaraciones, realizar preguntas, sin que en ningún caso sea la familia o entorno cercano a la persona quién actúe como interlocutor de la misma, salvo que existan medidas de apoyo a tal fin, dictadas por la autoridad judicial. Se debe disponer de políticas y procedimientos adecuados para informar adecuadamente a las personas beneficiarias sobre la naturaleza y características de los servicios, así como los posibles riesgos asociados a ellos, en un lenguaje comprensible a la persona, dando la opción de que pueda tomar una decisión informada (proceso de decisiones compartidas, sopesando pros y contras).

Valor ético relacionado: autonomía.

4. Área de riesgo ético número cuatro: proceso de prestación de servicios de cuidados. Estamos en un momento histórico de Tsunami Digital en el que lo que para el año pasado era futuro, ya hemos llegado, y además ha llegado para quedarse. La tecnología de la inteligencia artificial no supone solo un punto de inflexión tecnológica, sino que es una disrupción antropológica, dado que está cambiando el tejido social, nos relacionamos de otra manera, y la vulnerabilidad humana es central en un contexto de interacciones humanas, que es donde está teniendo este impacto la inteligencia artificial, por ejemplo: hablamos menos, nos reconocemos con likes, nos comunicamos a través de audios, pedimos un texto al Chat GTP, etc. (Dafna Feinholz, 2023). La tecnología ha irrumpido en la vida de los seres humanos y ha llegado para quedarse, de manera que los esfuerzos deben ir orientados a situar a la persona en el centro de los cuidados, no al desarrollo de estas tecnologías de inteligencia artificial, y esta debe ser la brújula en todo momento: garantizar que los cuidados sean de calidad y personalizados, lo que implica que sean humanizantes. Por tanto, aunque sean grandes empresas las que diseñen estas novedosas tecnologías, no se debe dejar en manos de las mismas el diseño de los cuidados (a empresas y corporaciones sin corazón y sin ánima), que antepongan el desarrollo tecnológico y el beneficio económico a la calidez de un cuidado digno en el que la persona se sienta bien tratada, con igualdad y no discriminación, respetando al máximo su autonomía y su dignidad, y permitiendo la participación de ese ser humano y de su unidad de convivencia para que la ayuda no sea suplencia (no exceda los límites y no la haga depender aún más) para que el cuidado no sean directrices sin alma o sin emoción. Para que la dimensión afectiva del cuidado se promueva entre seres humanos, y las máquinas o los robotspuedan facilitar esa comunicación, ser el vehículo, pero no la materia misma del afecto y del amor en sí mismo. En la película HER, el protagonista, cansado de relaciones de pareja frustradas y desde un enorme sentimiento de vacío y de soledad propias de la sociedad líquida norteamericana (hace años descrita por el sociólogo Zygmun Bauman), se enamora de una voz entrañable y cariñosa con la que mantiene una relación tecnológica (es una app de inteligencia artificial que se encarga de ofrecer relaciones de amor a medida de las necesidades del consumidor, pero que finalmente aboca al protagonista hacia una realidad que no quiso ver: jamás habrá contacto físico entre ellos…, sólo palabras diseñadas para proporcionar confort, pero no para satisfacer toda la gama de emociones y sentimientos que definen al ser humano. El contacto, el afecto visceral (que no es perfecto), de ese constructo social, familiar y comunitario que nos hace humanos, independientemente de toda la suerte de circunstancias que nos haya tocado vivir, y que necesitamos para sentirnos realizados (sentimiento de pertenencia enunciado en la pirámide de Maslow). Otro riesgo ético que el filósofo Thomas Metzinguer (2019) detecta respecto a la prestación de servicios de cuidados, es que los dispositivos de ayuda no suplan por completo al ser humano, es decir, que no lo hagan más dependiente. Por tanto, que faciliten al máximo el desarrollo de su independencia, desde esa concepción Aristotélica de la felicidad -el bien autosuficiente- que se concreta en la autonomía de los seres humanos. Se debe disponer de políticas y procedimientos para asegurar que el proceso de prestación de servicios de cuidados sea adecuado a las personas destinatarias, facilitando los procesos de comunicación e interacción entre seres humanos y el mantenimiento de relaciones personales significativas para las personas destinatarias, con otros seres humanos de su entorno. Además, se deben de disponer los medios para promover la autonomía de las personas beneficiarias, con el apoyo de estas tecnologías, y esto debe quedar evidenciado.

Valor ético relacionado: bienestar.

5. Área de riesgo ético número cinco: la supervisión humana de los cuidados que brinda esta tecnología de inteligencia artificial. La actividad de la supervisión de la tecnología que presta cuidados, por parte de profesionales cualificados y con un perfil humanista (a intervalos planificados) es fundamental para garantizar la calidad de la atención y de los servicios. Pero, además, la supervisión es imperativa en este tipo de proyectos, en cuestiones relacionadas con: sesgos o errores que puedan detectarse en estas tecnologías, como por ejemplo, la presencia de sesgos discriminatorios, como sucedió con Bosco (nota1)(Eva Belmonte, 2023); (nota 1: Bosco es un programa de inteligencia artificial al que se le introducen datos sobre una persona: renta, con quién vive, edad, situación laboral, educativa, etc., y el programa por sí mismo toma la decisión sobre si la persona tiene derecho o no al Bono Social para el pago de la luz (descuento de luz para familias en situación de vulnerabilidad). Y esto es muy importante, porque este programa toma la decisión sin supervisión, no hay un ser humano que revise todo eso, y se han detectado algunas exclusiones de personas beneficiarias debido a determinados sesgos en el programa (p.e. exclusión de personas viudas). La presencia de comportamientos anómalos que aconsejen paralizar la prestación de los cuidados; los procesos en los que medie la toma de alguna decisión (p.e. sesgos o errores en la dispensación/ recuerdo de la medicación), ya que pueden existir riesgos éticos de gran relevancia en el ámbito de los cuidados. Además, incluye la supervisión de los datos e instrucciones sobre los que funcionan los dispositivos de inteligencia artificial (los códigos), ya la supervisión de las estrategias de gobernanza, gestión y mantenimiento de datos personales. En conclusión, a través de la labor de supervisión, se deben garantizar la solidez y seguridad técnicas. Los sistemas de inteligencia artificial tienen que garantizar robustez tecnológica, e incluso considerar planes de contingencia para la adaptación ante comportamientos anómalos (Estrategia Andaluza de inteligencia artificial 2030). El comportamiento de los sistemas de inteligencia artificial debe poder ser monitorizado o trazado, para garantizar la calidad de todo el proceso. Se deben evaluar las políticas y procedimientos dispuestos para la supervisión de toda la labor de cuidados que presta esta tecnología, contando con el enfoque de la persona atendida por la misma.

Valor ético relacionado: bienestar.

6. Área de riesgo ético número seis: transparencia de los códigos de la inteligencia artificial. Cualquier documento que explique cómo funciona un programa de inteligencia artificial (código del programa) debe estar disponible para su consulta, supervisión o estudio, incluso por personas expertas ajenas a la empresa u organización prestadora del servicio, para mejorar y garantizar la calidad de la prestación de servicios, y para garantizar la transparencia en la trazabilidad de la prestación de ese servicio, sobre todo en el caso de que se detecten anomalías o errores. Hay propietarios de programas de inteligencia artificial que consideran que el código del mismo (instrucciones) están protegidos por la propiedad intelectual, como ha sucedido con Bosco (Eva Belmonte, 2023), y se considera que esto es una gran vulnerabilidad desde el punto de vista ético, sobre todo cuando hablamos de cuidados a personas en situación de dependencia. Leer el código de un programa que toma decisiones debería ser considerado como leer una normativa, ya que sin el código no se puede indagar acerca de si hay errores, o más errores. Esos algoritmos deberían ser públicos, transparentes (para realizar auditorías e inspecciones, e incluso para validar periódicamente si hace bien sus funciones. Esto no afecta la propiedad intelectual ni a la privacidad, y apuestan por el respeto a la transparencia. Por tanto, deberían estar disponibles en sofware abierto todos los códigos que supongan tomar decisiones con repercusión para la calidad de vida de las personas, en un registro u organismo que pueda custodiarlos, para las verificaciones e inspecciones que sean necesarias. Se debe garantizar la precisión de la predicción, imparcialidad, la igualdad, la responsabilidad y la transparencia de los algoritmos (Manifiesto de Viena, 2019). En este apartado, se debe dejar constancia de la transparencia, la responsabilidad y rendición de cuentas por los errores que puedan cometer los sistemas de inteligencia artificial. La rendición de cuentas debe permitir la posibilidad de auditar los sistemas de inteligencia artificial en cualquier momento, así como sus códigos de funcionamiento.

Valor ético relacionado: justicia social y participación.

7. Área de riesgo ético número siete. Límites apropiados en el establecimiento de relaciones con las personas beneficiarias de los cuidados. Para el autor Frederic G. Reamer (2000) es fundamental establecer las bases y los límites de la relación entre las personas profesionales y las personas atendidas en los servicios de atención social, cuestión que es fácilmente extrapolable al ámbito de la prestación de cuidados por parte de programas de inteligencia artificial. Brigit Graft, ingeniera informática que trabaja en el desarrollo de robots de asistencia para residencias de ancianos en Japón, nos recuerda que los cuidados de un ser humano son un conjunto de actividades que incluyen el cuidado del cuerpo, la atención médica, y las relaciones interpersonales…, las emociones, y afirma que un robot no puede reemplazar el afecto de ninguna manera (2019). Por tanto, la interacción humana constituye el núcleo de la actividad asistencial, y los cuidados incluyen las relaciones interpersonales y las emociones asociadas a ellas. Tal como afirma el filósofo Thomas Metzinger, los robots no pueden reemplazar esta necesidad de contacto humano (humanización de la asistencia). Por tanto, existe el riesgo de caer en la superficialidad por contacto asiduo y preferente con sistemas de inteligencia artificial. Los seres humanos necesitamos saber que importamos a otros seres humanos, y esto se considera una necesidad básica de cuidado. En este sentido, se debe disponer de políticas y procedimientos para facilitar la comunicación de la persona beneficiaria con otros seres humanos de su entorno, con sus redes de afecto, a través de la definición del mapa de relaciones que puedan ser significativas para cada persona (familia, vecindario, ong). Este tipo de intervención debe ser paralela al resto de servicios por inteligencia artificial. Se dispone de políticas y procedimientos adecuados relacionados con el manejo de los posibles problemáticas que se pudieran dar por la interacción entre las personas beneficiarias y los sistemas de inteligencia artificial.

Valor ético relacionado: bienestar.

8. Área de riesgo ético número ocho. Manipulación, engaños y conflictos de intereses. La intersección entre el ser humano y la máquina no siempre está clara, cuando nos referimos a dispositivos de inteligencia artificial. El filósofo Thomas Metzinger (2019) advierte del riesgo ético relacionado con que algunos sistemas de comunicación de la inteligencia artificial ya no se distinguen de los humanos, de manera que recomienda trazar límites claros en la interacción de seres humanos e inteligencia artificial. Metzinger establece un cordón sanitario entre la comunicación y el apoyo a las personas mediante la inteligencia artificial, y la producción de lo que él denomina alucinaciones sociales (basadas en la manipulación y el engaño). Si una persona conversa con un robot, por tanto un ser no humano, debe ser advertido de ello de manera clara y contundente, sin lugar a dudas. El uso de la inteligencia artificial con intereses ajenos a las personas (mediante la influencia) es otro riesgo ético contemplado en la Estrategia Andaluza de inteligencia artificial 2030. Se deben prevenir conductas de influencia o manipulación indebida por parte de las empresas prestadoras de este tipo de servicios de cuidado. Se debe disponer de políticas y procedimientos relacionados con el manejo de las posibles situaciones de perjuicio que puedan derivarse de situación poco claras, confusas o engañosas relacionadas con la interacción entre las personas humanas y la inteligencia artificial, por ejemplo, ante situaciones de posible influencia para orientar a la persona a realizar acciones no vinculadas a la naturaleza del proyecto (p.e. que tracen qué comprar, qué leer, donde viajar, qué información consultar, etc). En este apartado también se incluiría lo que el filósofo Thomas Metzinger denomina la producción de alucinaciones sociales (2019), ya que el ser humano siempre debe saber en qué momentos habla con otro ser humano, y en qué momento habla con una inteligencia artificial, y esta diferencia siempre debe estar clara, para evitar manipulaciones. Un ejemplo puede ser la reproducción de comandos de voz que se asemejen a figuras significativas en la vida de la persona y que pueden generar la ilusión de que esas personas están a su lado, etc. Estas políticas y procedimientos deben ir orientados a prevenir las posibles situaciones de manipulación, engaño o fraude, que siempre son consideradas situaciones de perjuicio hacia las personas beneficiarias de estos cuidados. Se debe contar con políticas y procedimientos que garanticen a las personas beneficiarias y a sus familias que el servicio ofrecido no incurre en ningún tipo de manipulación, influencia o engaño. También se debe contar con procedimientos para monitorizar estos dispositivos, para rastrear incidencias de este tipo en cualquier momento.

Valor ético relacionado: autonomía, justicia, bienestar.

9. Área de riesgo ético número nueve. Proceso de toma de decisiones. La opacidad en los procesos de toma de decisiones con inteligencia artificial son un riesgo ético. Además, las decisiones cuyas consecuencias tengan el potencial de afectar los derechos humanos individuales o colectivos, o que puedan causar algún tipo de daño (en caso de error) para las personas beneficiarias de estas tecnologías, deben ser tomadas por seres humanos. Además, se tiene conocimiento de que hay sistemas de inteligencia artificial que han evidenciado sesgos discriminatorios en sus decisiones, o falta de transparencia en la toma de decisiones con repercusión directa en la calidad de vida de las personas o en sus cuidados, motivo de más para examinar de cerca este punto. Se debería contar con un inventario, incluso público, de las aplicaciones de inteligencia artificial vinculadas a estos proyectos, de manera que siempre se sepa si una decisión con consecuencias para la persona (aunque sean sencillas por repetición diaria) la ha tomado la máquina o la ha tomado la persona, en definitiva que exista transparencia.

En este apartado específico de toma de decisiones también se hace imprescindible abordar la reflexión ética, la deliberación para la toma de decisiones. Entendemos que habrá decisiones poco fáciles que van a requerir reflexionar de manera ordenada sobre cómo podemos actuar para causar el mayor bien posible, o para no dañar, y estas situaciones precisan de la reflexióreflexión ética. El marco de intervención que plantea la IA no está exento -todo lo contrario- de estos debates y análisis éticos.

Valor ético relacionado: dignidad, bienestar, autonomía, justicia, participación.

10. Área de riesgo ético número diez. Desarrollo y formación del personal que trabaja en el desarrollo de estas tecnologías innovadoras de cuidados. La Secretaría de Estado de Digitalización e Inteligencia Artificial recuerda la necesidad de formación sobre algoritmos aplicados a temas concretos (Eva Belmonte, 2023), por ejemplo los servicios sociales. Debido a que este es un tema muy novedoso y las personas que son expertas en inteligencia artificial pueden no tener una conciencia o sensibilidad específica relacionada con la humanización de los cuidados, con el trabajo social o con la atención personal a personas con discapacidad, y puede que haya sesgos en este sentido. Se debe examinar las políticas y procedimientos de formación de las personas vinculadas a la gestión de estos procesos de cuidados, para asegurar estar al día en materia de ética aplicada a la inteligencia artificial (que no deja de avanzar) y en materia de derechos de protección a las personas.

Valor ético relacionado: bienestar.


11. Área de riesgo ético número once. Consulta a personas expertas. En diferentes momentos del desarrollo y aplicación de estas tecnologías, puede ser necesario consultar a personas expertas en determinados ámbitos (p.e. asistencia sexual para personas con discapacidad física), y se debe garantizar en todo momento que la persona consultada cuente con el nivel experto necesario en el tema en cuestión, para evitar situaciones de daño y perjuicio a las personas beneficiarias. Tal como señala Uríz, consultar a personas que no cuentan con suficiente experiencia, puede ser considerado como una consulta de carácter negligente (María Jesús Uríz, 2006). Se debe contar con políticas y procedimientos establecidos para asegurar que el personal implicado en el desarrollo del proyecto busque un asesoramiento experto con un nivel adecuado.

Valor ético relacionado: bienestar, participación.

12. Área de riesgo ético número doce. Derivación de casos que presentan una especial complejidad. Es posible que se den casos de personas beneficiarias de estos innovadores sistemas de apoyo que, en algún momento del desarrollo del proyecto, requieran de una atención más específica, por otro tipo de profesionales (puede que complementarios y simultáneos a este proyecto) o servicios de cuidados más especializados, incluso en entornos no domiciliarios. Se debe contar con políticas y procedimientos para asegurar una correcta canalización de las situaciones que se deben derivar a otros servicios, contemplando toda la variabilidad de situaciones por las que se pueden dar estas derivaciones.

Valor ético relacionado: bienestar.

13. Área de riesgo ético numero trece. Finalización de los servicios. La organización debe contar con políticas y procedimientos establecidos para asegurar la correcta finalización de los servicios, dentro de las diferentes posibilidades de finalización: por renuncia voluntaria de la persona, por derivación a servicios más específicos, por empeoramiento del estado de salud, por impago de los servicios, por la emergencia de problemas de salud mental, por falta de cumplimiento de objetivos, por accidente o fallecimiento, por situaciones de conflicto con la organización prestadora de servicios (denuncias), etc. Se deben precisar, en cada caso, las consecuencias de la finalización, sobre todo en las situaciones que impliquen algún tipo de cobro a las personas beneficiarias. Dada la importancia del proceso de finalización de los servicios, para no lesionar de ninguna forma a las personas beneficiarias, se deben tipificar las posibles situaciones de finalización de los servicios, así como cuál sería el procedimiento para llevarlo a cabo en cada uno de los casos.

Valor ético relacionado: bienestar.

14. Área de riego ético número catorce. Evaluación, Investigación e Innovación. A lo largo de todo el ciclo vital de la inteligencia artificial hay agentes que juegan un papel muy importante, como las personas que financian, las personas que investigan, las personas académicas, las personas que reciben este tipo de servicios y diferentes perfiles expertos (independientes) que también deben formar parte de esta constelación colaborativa para evaluar, investigación e innovación. La inteligencia artificial evoluciona vertiginosamente y de forma progresiva, de manera que se deben introducir nuevos límites conforme se vaya desarrollando, para evitar nuevas situaciones de perjuicio, y siempre de la mano de personas expertas en las diferentes materias implicadas (la ética aplicada debe ser una de ellas). Cualquier tipo de innovación a introducir en los contextos de desarrollo humano, debe ser extremadamente fiable, ya que estos dispositivos van a interaccionar con persona sen su entorno. Deben estar muy probados en esos contextos, contar con evidencia suficiente de fiabilidad.

Valor ético relacionado: bienestar.


15. Área de riesgo ético número quince. Diversidad, no discriminación, equidad e igualdad de género. Los sesgos discriminatorios son un importante riesgo ético, ya que, además, la inteligencia artificial aprende con la interacción, y puede desarrollar este tipo de sesgos (hay experiencias concretas en Twitter en la que determinados robots han desarrollado comportamientos racistas, en su interacción con ese entorno), ya que la propia información que captan puede estar sesgada, y es captada permanentemente. De igual modo, es necesario poner especial cuidado en que los robots no desarrollen sesgos discriminatorios por motivos de género, que no se incorporen estos sesgos contra los que estamos luchando desde el movimiento feminista. Dafna Feinholz (2023) pone como ejemplo que voces femeninas como Siry son atacadas y vejadas con insultos como puta, zorra…, y todo tipo de peticiones vulgares y soeces, y por toda respuesta esta inteligencia responde “me sonrojaría si pudiera”, y aquí advierte de este peligroso sesgo de género, ya que se reproducen los mismos comportamientos que existen en la sociedad machista en la que vivimos. Otro aspecto ético relacionado con la discriminación, es la oportunidad que tendrán las diferentes personas que forman parte del perfil destinatario (en este caso discapacidad) para acceder a estos servicios. Si esos sistemas de cuidados son accesibles a las personas, pero en función de unos criterios determinados, esos criterios deben ser explícitos, y se debe considerar la posibilidad de incorporar otros criterios de tipo social para facilitar que puedan formar parte de la experiencia todas las personas (p.e. las que se desarrollan en zonas de transformación social).

Para finalizar, igualmente se deben incorporar los mecanismos para facilitar el acceso con criterios de igualdad y no discriminación a todas las personas, no sólo a unas pocas que cuenten con los medios económicos para sugragarlos. Aquí el principio de la justicia redistributiva actúa como fuerza manifestadora del buen hacer.

Valor ético relacionado: igualdad, bienestar, justicia social, autonomía.

Conclusiones

Estas conclusiones las he redactado tras conversación con una querida amiga, Natividad de la Red, ya que con ella compartí esta propuesta metodológica que os acabo de presentar. En ese intercambio, Nati y yo llegamos a las siguientes conclusiones, las cuales expongo de la manera más fidedigna posible.
En general, la Inteligencia Artificial (IA), el cálculo numérico, los algoritmos, como es sabido, está presente en todo por las ventajas que aporta a la calidad de las atenciones e intervenciones, y en la lista de instrucciones para decidir. Es importante prestar atención aquí a la ética, al menos por dos motivos:
a) porque puede facilitar los procesos para encontrar los criterios morales que contribuyan al discernimiento, con particular atención en situaciones de vulnerabilidad y,
b) para que el diseño de los algoritmos y los procesos, no tengan efectos negativos en las personas o grupos de personas, para que no sean discriminatorios tanto en las políticas sociales como en las organizaciones y en las intervenciones profesionales (reducir la descripción de realidades complejas de los servicios sociales a datos más o menos simples, puede distorsionar y confundir la realidad).
Parece evidente que la robótica, la tecnología y la IA, facilitan la eficacia de la atención e intervención social, también en los Servicios Sociales, y pueden contribuir a la mejora de la toma de decisiones en la actualidad. No sabemos lo que ocurrirá en el futuro. Si recordamos las palabras de Stephen Hawking, sobre la previsión de la IA, vino a decir que podría superar a los humanos en inteligencia, habilidad y hasta en la toma de decisiones, lo que llevaría a implicaciones económicas, éticas y de seguridad. Se incide mucho en la anticipación de riesgos éticos, precisamente por todas esas voces, que también están presentes en el panorama de la actualidad, que advierten que la IA podría llegar a tomar el control del mundo y la posterior destrucción de la humanidad.
No obstante, nos parece conveniente observar que las aportaciones y ventajas de la IA son más evidentes en situaciones o contextos ya conocidos previamente. En las situaciones particulares, no tan comunes, más imprevistas, como las que se encuentran con frecuencia en los Servicios Sociales, la IA, bien utilizada, puede tener una gran utilidad como herramienta de apoyo, si viene utilizada siempre adecuadamente por el profesional, en la atención a las personas.
Por otra parte, las plantillas de profesionales y las organizaciones, ante problemas ético-morales, en situaciones de especial complejidad, además de los apoyos en tareas y procesos, han de abordar situaciones que requieren deliberación, capacitación, moralidad, en el marco de la empatía y capacidad de relación con la persona atendida. Hemos de tener presente que, en el contexto de los Servicios Sociales, se han de adoptar decisiones con cierta rapidez y de manera muy específica a cada situación, sobre las que las máquinas no tienen precedentes.
En definitiva, dadas las situaciones y características en las que intervienen los Servicios Sociales, parece son bien recibidas y de alto interés la robótica, la inteligencia artificial… en la descripción y análisis de las situaciones, en la atención directa y complementaria; también puede tener buena utilidad el abordaje de situaciones problemáticas ético – morales, siempre, con la supervisión y evaluación continua del profesional, particularmente en las situaciones problemáticas.
Supervisión y evaluación humanas para garantizar el cumplimiento de estos valores que hemos hecho explícitos, pero no freno, porque no es posible frenar el desarrollo tecnológico. Aquí el importante desafío, que nos invita a explorar y reflexionar sobre todas las posibilidades de la IA en los Servicios Sociales, aprovechando sus ventajas para mejorar la calidad de vida de los seres humanos, y previendo los riesgos éticos que se van detectando a cada paso. La reflexión es un proceso de mejora continua en sí misma, no una actividad final.

Este tema da para mucho, y seguramente dentro de unos meses el debate estará abierto en otras direcciones, dada la rapidez con la que evolucionan estas inteligencias. Espero, sinceramente, que volvamos a encontrarnos en foros como este, dentro de unos meses.

Muchas gracias por su atención.
Inmaculada Asensio Fernández.

Bibliografía

  1. Belmonte, Eva (2023). SER podcast “La verdad está ahí dentro. Tecnología y algoritmos”. Periodista de investigación. Directora de la Fundación CIBIO -Instituto Universitario de Investigación de Biodiversidad-. (19/08/2023). URL: https://cadenaser.com/podcast/cadena-ser/a-vivir-que-son-dos-dias/a-vivir-que-son-dos-dias-la-verdad-esta-ahi-dentro/3624/ [Consultado el 6 Septiembre 2023]
  2. Birgit Graft (2019). Límites éticos para la inteligencia artificial. DW Documental Directora del grupo de robótica doméstica y personal de Fraunhofer Institute for Manufacturing Engineering and Automation IPA, de la Universität Stuttgart Campus Vaihingen, Alemania. URL: https://www.youtube.com/watch?v=sHVwwriaT6k [Consultado el 7 Septiembre 2023]
  3. Unión Europea (2006). Convención sobre los Derechos de las Personas con Discapacidad. URL: https://www.refworld.org.es/docid/5d7fbf13a.html [Consultado el 15 Septiembre 2023]
  4. Digital Humanism (2019) Manifiesto de Viena. URL: https://ec.europa.eu/futurium/en/european-ai-alliance/vienna-manifesto-digital-humanism.html [Consultado el 10 Septiembre 2023]
  5. Consejería de Bienestar Social y Vivienda (2013). La confidencialidad en Servicios Sociales. Gobierno del Principado de Asturias.
  6. Consejería de Igualdad, Políticas Sociales y Conciliación (2020) Estrategia de Ética de los Servicios Sociales de Andalucía, aprobada por Orden de la Consejería de Igualdad, Políticas Sociales y Conciliación, de 22 de diciembre de 2020.
  7. Agencia Digital de Andalucía (2023). Estrategia Andaluza de Inteligencia Artificial, aprobada por Acuerdo de 20 de junio de 2023, del Consejo de Gobierno.
  8. Feinholz, Dafna (2023) La recomendación sobre la ética de la inteligencia artificial. Directora de la sección de Bioética y Ética de la ciencia de la UNESCO. Programa Universitario de la UNAM. URL: https://www.youtube.com/watch?v=iNoOj41oRYY [Consultado el 7 Septiembre 2023].
  9. Ley 9/2016, de 27 de diciembre, de Servicios Sociales de Andalucía.
  10. Ley 41/2002, de 14 de noviembre, básica reguladora de la autonomía del paciente y de derechos y obligaciones en materia de información y documentación clínica.
  11. Metzinger, Thomas (2019). Límites éticos para la inteligencia artificial. DW Documental. Filósofo experto en ética de la inteligencia artificial. (14/08/2019). URL: https://www.youtube.com/watch?v=sHVwwriaT6k
  12. Pantoja Zarza, Lucía (2004). El consentimiento informado: ¿sólo un requisito legal?. Revista española de reumatología, 31(8), 475-478.
  13. Reamer, F. (2000). The Social Work Ethics Audit: A Risk-Management Strategy. Social Work, 45(4), 355-366.
  14. Uríz, María Jesús (2006). La auditoría ética en Trabajo Social: un instrumento para mejorar la calidad de las instituciones sociales. Acciones e investigaciones sociales, (1 Ext), 200-200.

Datos del evento:

Ponencia presentada en la Jornada sobre Ética e Innovación en Servicios Sociales, celebrada el 26 de septiembre de 2023 en la Universidad de Málaga.

Mesa redonda: Hacia un dictamen ético en Servicios Sociales.

Ponencia: Auditoría Ética Aplicada a los Servicios Sociales.

3 comentarios en “Propuesta metodológica de una herramienta de Auditoría Ética aplicada a los cuidados domiciliarios con IA

  1. Ruth Sepúlveda dijo:
    Avatar de Ruth Sepúlveda

    Buenas tardes, somos un grupo de segundo de carrera de trabajo social de la Universidad Complutense de Madrid. Nos gustaría saber si podríamos contactar contigo, ya que estamos llevando a cabo un proyecto basándonos en tu carrera profesional. Muchas gracias!

  2. Jose Luis dijo:
    Avatar de Jose Luis

    Tu artículo me hace pensar en posibles cambios en mi actuación, por ejemño me voy a replantear como hacer el consentimiento informado con lectura fácil. También me va a servir para algunos recursos que he plateado en Dependencia, les dará más empaque la próxima vez que los haga.

    Saludos

Deja un comentario