La inteligencia artificial generativa (IAG) está desempeñando un papel crucial en la vida pública y privada de las personas, empresas y gobiernos. Desde sus aplicaciones en el mundo del entretenimiento hasta sus implicaciones en sectores más técnicos, la IAG está remodelando la forma en que interactuamos con la tecnología. A medida que las grandes plataformas tecnológicas continúan innovando e incorporando nuevas funcionalidades basadas en IA, las políticas de privacidad de las mismas también están siendo modificadas y actualizadas. Esta transformación se produce en un entorno donde las preocupaciones sobre la privacidad de los datos y la protección de los derechos de los usuarios son cada vez más prominentes.
Uno de los mayores desafíos que plantea la inteligencia artificial generativa es el manejo y tratamiento de los datos recopilados. A pesar de los avances tecnológicos y las promesas de mayor personalización y eficiencia, el uso de IA en muchos casos sigue siendo un terreno turbio cuando se trata de la gestión de la privacidad. Algunas empresas ya han comenzado a advertir que los datos de los usuarios pueden ser utilizados para mejorar los modelos de entrenamiento de IA, lo que podría redundar en la mejora de sus productos y servicios. No obstante, este uso de datos plantea interrogantes sobre hasta qué punto las empresas están protegiendo la privacidad de sus usuarios.
A continuación, se analiza el tratamiento de la privacidad y el manejo de datos en dos casos específicos: Windows Recall, la nueva función de Microsoft que utiliza la IA para almacenar información del usuario, y las políticas de uso de Adobe, que también están diseñadas para integrar IA en la creación y revisión de contenido generado por los usuarios.
Windows Recall: ¿hasta dónde llega la privacidad del usuario?
Windows, el sistema operativo más utilizado a nivel mundial, ha introducido una nueva función denominada Recall, que está disponible para los usuarios de PC con Copilot+. Recall es una herramienta diseñada para crear una especie de línea de tiempo personal que registra todas las actividades realizadas en el equipo. Entre sus funcionalidades, Recall permite recordar todo lo que se ha visto o hecho en las aplicaciones, las reuniones y las comunicaciones, las páginas web visitadas, los libros o artículos leídos, e incluso las capturas de pantalla. Todo esto se almacena localmente en el dispositivo, según asegura Microsoft, lo que en teoría debería evitar que los datos sean enviados a la nube y, por lo tanto, se respete la privacidad del usuario.
Sin embargo, aunque Microsoft indica que los datos de Recall se almacenan en el equipo y están cifrados, la introducción de nuevas funciones siempre genera preocupaciones. Uno de los mayores temores de los usuarios es si la información capturada por Recall podría ser utilizada indebidamente, o si la IA podría vulnerar su privacidad al recopilar datos personales sin su conocimiento. Las críticas antes del lanzamiento de la función fueron tan intensas que Microsoft decidió modificar Recall, permitiendo a los usuarios desactivarlo, personalizarlo o incluso excluir ciertos sitios web o aplicaciones de la recopilación de información. Esta decisión fue tomada para aliviar las preocupaciones sobre la privacidad y permitir que los usuarios controlaran de manera más efectiva los datos que se capturan.
Sin embargo, el problema de la seguridad se mantuvo latente. Antes del lanzamiento de PC Copilot+, un experto en ciberseguridad descubrió que las capturas de pantalla tomadas por Recall se almacenaban en una base de datos sin cifrar. Esta base de datos estaba en formato de texto plano, lo que permitió a herramientas como TotalRecall acceder fácilmente a ella y extraer datos sensibles. A través de TotalRecall, los ciberdelincuentes podían extraer información privada como contraseñas, números de tarjetas de crédito e incluso correos electrónicos y conversaciones personales.
La lección que se extrae de este incidente es que, a pesar de las intenciones de Microsoft de proteger la privacidad de los usuarios, cualquier característica que implique el almacenamiento de información personal siempre estará en riesgo, especialmente si no se implementan medidas de seguridad adecuadas. Los atacantes pueden aprovechar cualquier vulnerabilidad en el sistema para extraer datos valiosos, lo que subraya la necesidad de que las empresas tomen medidas adicionales para proteger los datos de sus usuarios.
Adobe y la política de uso en torno a la IA generativa
Otro caso relevante es el de Adobe, una de las empresas de software más importantes, que también ha estado implementando inteligencia artificial en sus productos para mejorar la experiencia de los usuarios. En febrero de 2024, Adobe presentó una nueva política de uso que generó preocupación entre sus usuarios. Esta nueva política incluía una cláusula que otorgaba a la empresa acceso al contenido generado por los usuarios para entrenar sus modelos de IA, como Firefly Gen AI, con el objetivo de mejorar sus servicios.
La reacción de los usuarios fue inmediata, y muchos expresaron su descontento, temiendo que Adobe pudiera estar violando su privacidad al acceder a proyectos privados sin su consentimiento explícito. A raíz de las críticas, Jérémie Nogue, director del producto Substance 3D, tuvo que salir a aclarar que Adobe no tenía la intención de acceder ni leer los proyectos de los usuarios. Aseguró que no tendría sentido hacerlo y que esto no ocurriría, ya que, en caso contrario, las empresas abandonarían Adobe inmediatamente.
No obstante, la preocupación persistió, especialmente después de que se descubriera que la redacción de la política era ambigua y podía llevar a malentendidos. En particular, la sección “C” de las condiciones de uso en Adobe Creative Cloud indicaba que la empresa podría acceder al contenido de los usuarios para analizarlo y entrenar sus algoritmos de IA. La falta de claridad sobre qué tipo de contenido sería revisado, y la posibilidad de que la IA pudiera acceder a los archivos personales, hizo que muchos usuarios se sintieran inseguros sobre la protección de su privacidad.
En respuesta a la controversia, Adobe tuvo que actualizar sus condiciones de uso, aclarando que el acceso al contenido del usuario solo se realizaría en circunstancias específicas, como la detección de contenido ilegal, como el abuso infantil, o para combatir el spam y el phishing. Además, la empresa dejó claro que los contenidos privados almacenados en el dispositivo del usuario no serían revisados a menos que se compartieran públicamente en plataformas como Adobe Stock o Behance.
La importancia de una comunicación clara y transparente
Tanto Microsoft como Adobe enfrentan el desafío de equilibrar la implementación de nuevas tecnologías, como la inteligencia artificial, con el respeto a la privacidad de los usuarios. En ambos casos, las preocupaciones surgieron debido a una comunicación deficiente o ambigua sobre cómo se gestionarían los datos. En el caso de Windows Recall, Microsoft tuvo que hacer ajustes para garantizar que los usuarios pudieran controlar la recolección de datos, y en el caso de Adobe, la empresa tuvo que actualizar su política para aclarar cómo se manejarían los contenidos de los usuarios y asegurar que la IA no violaría su privacidad.
La lección clave es que las empresas deben ser transparentes en cuanto a cómo se recopilan y utilizan los datos de los usuarios, y sus políticas deben ser claras, accesibles y fáciles de entender. Si bien los términos legales son necesarios para proteger tanto a los usuarios como a las empresas, el lenguaje técnico o legalista puede dificultar la comprensión de las políticas y generar desconfianza entre los usuarios. Un lenguaje claro y directo contribuye a la transparencia, aumenta la confianza del usuario y reduce la posibilidad de conflictos legales.
Además, la implementación de nuevas funciones que involucren el tratamiento de datos personales debe ir acompañada de medidas de seguridad robustas. Las empresas deben asegurarse de que los datos recopilados estén debidamente cifrados y protegidos contra posibles ataques cibernéticos. La falta de medidas de seguridad adecuadas no solo pone en riesgo la privacidad de los usuarios, sino que también puede dañar la reputación de la empresa y, en última instancia, su éxito a largo plazo.
A medida que la inteligencia artificial generativa se expande y se integra en más plataformas y productos, las empresas deben ser conscientes de los riesgos asociados con la privacidad y el manejo de datos. La transparencia y la claridad en la comunicación de las políticas de uso son esenciales para garantizar que los usuarios comprendan cómo se utilizan sus datos y qué medidas se toman para proteger su privacidad. Si las empresas logran equilibrar la innovación tecnológica con el respeto por la privacidad y los derechos de los usuarios, podrán ganar su confianza y mantener una relación positiva a largo plazo.