Seguridad y privacidad en inteligencia artificial >
"Seguridad y privacidad en inteligencia artificial"
Dra. Victoria Regia Lombardo

La privacidad se refiere al derecho de los pacientes a que su información de salud sea protegida y no divulgada a terceros sin su consentimiento. Por otro lado, la seguridad se define como la protección de la información para evitar un acceso no autorizado.

En la actualidad los avances en inteligencia artificial en el campo de la atención médica están ocurriendo rápidamente, y ya tienen impacto en el mundo real. Si bien la implementación de la Inteligencia Artificial (IA) en la salud tiene el potencial de generar mejoras significativas en la atención médica, es fundamental abordar adecuadamente las preocupaciones de privacidad para proteger los derechos de los pacientes y mantener la confianza en estas tecnologías.

Es interesante repasar dos publicaciones que tratan las problemáticas en torno a la seguridad y privacidad, una de ellas se titula: “Privacidad e inteligencia artificial: desafíos para proteger la información de salud en una nueva era”.

Este estudio tiene como objetivo describir y considerar las preocupaciones en torno a la privacidad y el uso de IA comercial en el campo de la salud. 

Los avances tecnológicos en IA se realizan mayormente en entornos académicos, pero para su aplicación real se necesitan socios comerciales. Esto conlleva a que productos de IA sean propiedad de entidades privadas y que la información de salud de los pacientes pueda estar bajo el control de corporaciones con fines de lucro. Dichas corporaciones desempeñan el papel más importante en la recopilación, uso y protección de la información de salud de los pacientes.

La Inteligencia Artificial posee características únicas que la diferencian de otras tecnologías. Una de ellas es la denominada "caja negra", donde los métodos y el "razonamiento" empleados por los algoritmos de aprendizaje para llegar a sus conclusiones pueden ser opacos para los observadores humanos, total o parcialmente.

Esta falta de transparencia también se refleja en la utilización y manipulación de información de salud y datos personales si no se implementan soluciones adecuadas. Gran parte de la tecnología relacionada con el aprendizaje automático y las redes neuronales está controlada por grandes corporaciones tecnológicas como Google, Microsoft, IBM y Apple. En algunos casos, los acuerdos de intercambio de información permiten que estas instituciones privadas accedan a los datos de salud de los pacientes, lo que ha generado preocupaciones sobre la protección de la privacidad.

El primer caso que cita es el de DeepMind, una compañía de IA que pertenece a Google, se asoció con el NHS para utilizar el aprendizaje automático en el diagnóstico de lesiones renales agudas. Los especialistas señalaron que los pacientes no tenían control sobre el uso de su información ni se discutían adecuadamente las implicaciones de privacidad. Google afirmó que el acuerdo cumplía con el "consentimiento implícito", lo que permitía compartir datos sin informar a los pacientes si era para su cuidado. 

El asesor de protección de datos del Departamento de Salud de Inglaterra declaró que la obtención de información de los pacientes fue inapropiada desde el punto de vista legal. La controversia aumentó cuando Google asumió el poder directo de la aplicación de DeepMind, trasladando el control de los datos de los pacientes del Reino Unido a Estados Unidos.

Esta capacidad de anexar datos privados a otra jurisdicción representa un riesgo en el campo de la salud al implementar la IA comercial. La concentración de innovación y conocimiento tecnológico en grandes empresas crea un desequilibrio de poder, volviendo a las instituciones públicas más dependientes y menos igualitarias en la implementación de la tecnología de salud.

Otra preocupación relacionada con este tipo de uso se refiere al riesgo externo de violaciones de privacidad por parte de sistemas algorítmicos altamente sofisticados. 

Estudios han demostrado que estrategias emergentes pueden identificar a individuos en repositorios de datos de salud, incluso cuando la información ha sido anonimizada. Un algoritmo llamado "marco de ataque de vinculación" ha tenido éxito en volver a identificar información de salud anónima, lo que muestra la vulnerabilidad de los datos de salud existentes. Esto aumenta los riesgos de privacidad al permitir que empresas privadas controlen la información de salud de los pacientes.

La otra publicación analizada sobre la temática se titula: “Inteligencia artificial preservadora de la privacidad en atención médica: Técnicas y aplicaciones”. 

Este trabajo constituye una revisión exhaustiva de las consideraciones técnicas relacionadas con la preservación de la privacidad en el desarrollo de herramientas de IA en el ámbito de la salud. El enfoque se centra principalmente en describir las preocupaciones de privacidad asociadas con la IA y los desafíos que surgen en este contexto. El artículo define los siguientes aspectos como de riesgo: 

1) Explotación de datos: se refiere al uso ilegal de datos privados de las personas. Los productos de consumo, con características vulnerables a la minería de datos impulsada por IA, aumentan el riesgo. Muchas personas desconocen la cantidad de datos que generan y comparten a través de aplicaciones y dispositivos. A pesar de las preocupaciones, la demanda de sistemas de monitoreo remoto y aplicaciones de salud ha aumentado, sobre todo en la recopilación de datos médicos como presión arterial y nivel de glucosa. Con la creciente dependencia de la tecnología digital, la posibilidad de explotación de datos aumenta día a día, poniendo en riesgo la privacidad del usuario.

2) Identificación y seguimiento: la gestión de la identificación es esencial para seguir y atender a los pacientes en entornos médicos. Se requiere información precisa sobre ellos a lo largo de diversas aplicaciones. Sin embargo, si estos datos sensibles son vulnerados o comprometidos, se produce una violación de la privacidad.

3) Riesgos del reconocimiento biométrico: hoy en día, la Inteligencia Artificial es capaz de realizar reconocimiento de voz y facial, fundamentales en el reconocimiento biométrico. Este tipo de información incluye rostros, huellas dactilares, voz e iris. El reconocimiento de voz se utiliza ampliamente en la atención médica, permitiendo a los pacientes recibir atención desde sus hogares. Sin embargo, la filtración de datos sensibles en estas aplicaciones podría exponer la información biométrica completa y el historial médico de los pacientes.

4) Predicción y perfilación: la IA tiene la capacidad de puntuar, categorizar, evaluar y clasificar a las personas utilizando la información recopilada para entrenar modelos. A menudo, esto se hace sin el consentimiento de la persona y sin su capacidad de influir o impugnar los resultados. También puede inferir o anticipar información sensible a partir de datos no sensibles, como deducir estados emocionales a partir de patrones de escritura en el teclado.

Desafíos para garantizar la privacidad

La preservación de la privacidad en sí misma es una tarea tediosa. Con la participación de algoritmos de IA, las preocupaciones relacionadas con este tema han aumentado. Se presenta a continuación una taxonomía de diferentes desafíos que dificultan la preservación eficiente de la privacidad:

Para abordar estas preocupaciones y garantizarla , deben considerarse diversos desafíos técnicos. Estos incluyen la adaptabilidad de las técnicas de aprendizaje automático para garantizar la privacidad en diferentes contextos, la escalabilidad de los algoritmos para procesar grandes conjuntos de datos, la legibilidad para informar a los propietarios de datos sobre cómo se protege su privacidad y la ética en el desarrollo de algoritmos que equilibren la precisión con la privacidad.

Privacidad en la Era de la Inteligencia Artificial: avances, retos y la búsqueda de soluciones éticas

En la era de la IA, la privacidad y la seguridad siguen siendo temas de preocupación en la comunidad internacional. Organizaciones como la OMS han expresado inquietudes sobre la adopción precipitada de sistemas no probados y el uso indebido de grandes modelos lingüísticos para generar desinformación. Además, las autoridades de protección de datos también han intervenido para asegurar que se respeten los derechos de privacidad de los usuarios.

La agencia italiana de protección de datos emitió una prohibición temporal sobre ChatGPT debido a preocupaciones sobre la privacidad, y dijeron que habían abierto una investigación sobre cómo OpenAI, la empresa estadounidense detrás del popular chatbot, utiliza los datos.

"Parece no haber una base legal que respalde la recopilación y procesamiento masivo de datos personales para 'entrenar' los algoritmos en los que se basa la plataforma", expresó la agencia. La autoridad italiana subraya que Chat GPT “sufrió el 20 de marzo una pérdida de datos (data Breach) sobre las conversaciones de los usuarios y las informaciones relativas al pago de los abonados al servicio premium”.

Conclusión

A medida que se adoptan precipitadamente estas herramientas y se integran en la vida cotidiana en muchos ámbitos, como la educación y la salud, es probable que nos encontremos con distintos problemas en torno a la seguridad y la privacidad.

Frente a estas nuevas implementaciones tecnológicas, surgen nuevos interrogantes tales como: ¿De qué manera se gestiona la privacidad de la información que introducimos en herramientas como ChatGPT? ¿Qué consecuencias tendría una violación de la seguridad de estos datos? ¿Qué sucede cuando introducimos información sensible?