¿Quién es el dueño de los datos? Un debate complejo y urgente que no acaba de resolverse
Los datos son dinero. Quienes los gestionan en grandes volúmenes hacen negocios billonarios, aun cuando los individuos que los dan, muchas veces sin saberlo, no participan en las ganancias. Hay mucha más información (datos) sobre las personas de lo que cualquiera imagina: millones de mensajes de texto, de WhatsApp y de mails por minuto; historias clínicas, operaciones con teléfonos móviles y tarjetas de pago que dejan huella e innumerables imágenes captadas por cámaras de seguridad públicas y privadas. De hecho, la Inteligencia Artificial (IA) es entrenada a partir de esos datos, y su capacidad de seguir mejorando depende de ese alimento.
Las personas físicas y/o jurídicas son las dueñas de sus datos, aunque la mayoría haya perdido el control sobre ellos. En la Argentina, como en muchos otros países, así lo establece la legislación. La ley 25.326 de protección de datos personales establece ese criterio de propiedad aunque los datos estén en posesión de un tercero (empresa, organismo público, ONG).
El mayor riesgo que implica la pérdida de control sobre los datos propios, según advierten organismos internacionales como Naciones Unidas, el Banco Mundial y el Banco Interamericano de Desarrollo, está relacionado con la privacidad de las personas. En esa línea, especialistas consultados por este diario plantean que urge tener “más conciencia” sobre los problemas que esto podría generar; por ejemplo, la suplantación de identidad y la comisión de delitos a partir de esos datos, además del acceso a cuentas privadas.
Pero eso no es todo. En su ensayo Los ingenieros del caos, Giuliano Da Empoli analiza el auge del populismo en el siglo XXI y describe cómo la política recolecta y usa datos –como los de las reacciones de las personas en las redes sociales– para la creación de narrativas que polarizan. Es decir, el marketing político –al igual que el de empresas– analiza los datos y con la ayuda de la IA encuentra patrones y pondera resultados para que sus acciones resulten más efectivas.
‘Al entregar datos, quien se está donando es la persona. Lo que se entrega es el individuo, que sirve para que otro haga dinero’, advierte la especialista Vanina Martínez
Casi a diario se difunden casos de hackeos a bases de datos tanto públicas como privadas, lo que reactualiza la discusión sobre los peligros a los que quedan expuestos los dueños originales de los datos. Según datos del Foro Económico Mundial, nueve de cada diez organizaciones sufrieron al menos un ataque cibernético en el último año.
Tomar conciencia
“Al entregar datos, quien se está donando es la persona. Lo que se entrega es el individuo, que sirve para que otro haga dinero –advierte Vanina Martínez, Premio Konex 2023 en Ciencias de la Información e Inteligencia Artificial–. Muy pocas veces nos cuestionamos el dato que damos, por ejemplo, a cambio de un servicio. Este es el momento de tomar conciencia. Hay que saber a costa de qué se puede seguir avanzando, por ejemplo, en materia de IA. Muchas veces no sabemos ni siquiera para qué se usarán nuestros datos y allí aparece la responsabilidad de quienes los acumulan”.
Si se cortara la entrega de datos por parte de los usuarios, se frenaría el avance de la IA. “Continuar alimentando a los sistemas es lo que permite sostener los análisis predictivos de conductas –dice Martínez, con posdoctorados en IA y miembro del Instituto de Investigación en IA del Consejo Superior de Investigaciones Científicas de España–. Generar modelos cada vez más grandes puede ser la estrategia más conveniente desde lo económico, pero no necesariamente es deseable y sostenible desde el punto de vista ecológico [el desarrollo de la IA es altamente demandante de energía y agua] y social”.
Los modelos predictivos se desarrollan en base al análisis de datos históricos y actuales e identifican patrones de comportamiento sobre los que se basa la predicción. No solo se usan para identificar qué producto le interesa a un determinado comprador en plataformas, sino que ya hay debates abiertos sobre su aplicación, por ejemplo, en el ámbito judicial.
Considerado un evangelista del “buen capitalismo”, Marc Benioff, presidente y accionista de Salesforce, hace tiempo que insiste en que solo con “transparencia radical la tecnología podrá alcanzar nuevos niveles de confianza”.
El argentino Juan Santiago, cofundador de la desarrolladora Santex, sigue esa línea; es el impulsor de “la Liga del Bien” integrada por empresarios y académicos que discuten un mapa ético para la IA. “No está resuelto quiénes son los dueños de los datos que ahora la IA demanda –dice–. Aunque existen leyes, esa propiedad es extremadamente ambigua. En mi empresa, la IA tiene un rol central, pero admitimos el debate filosófico. Soy procapitalismo, pero no podemos vivir en el ‘salvaje oeste’. Que haya regulaciones no implica ir en contra del capital. Hay que hacer negocios éticos y responsables”.
En el país, la ley de Protección de Datos está desactualizada respecto a las nuevas tecnologías de recolección y análisis de datos, coinciden los expertos
El director del Instituto de Desarrollo Digital de Latinoamérica y el Caribe y de Internet Legal Consulting, Andrés Piazza, señala que la mayoría de los países están avanzando en regulaciones: “Lo hacen porque la IA supone un riesgo sobre las personas, por sus sistemas predictivos y generativos. Los usuarios deben ser conscientes de que si se le permiten a Meta el acceso a sus conversaciones de WhatsApp, esa información será usada para entrenar la IA; lo mismo hace Google con Gemini o Elon Musk para preparar a los humanoides. Es la última curva del negocio de los datos. Hay poca claridad en los términos y condiciones en que se ceden los datos y sobre el uso que se les dará”.
En el país, la ley de Protección de Datos está desactualizada respecto a las nuevas tecnologías de recolección y análisis de datos, coinciden los expertos. Aún así, prohíbe usar los datos para algo diferente al propósito para el que fueron recolectados y establece que el tratamiento de datos personales es ilícito sin el “consentimiento libre, expreso e informado del titular”.
La letra chica
Los modelos estadísticos “cambiaron todo”, apunta Laura Alonso Alemany, docente de Ciencias de la Computación de la Facultad de Astronomía, Matemática y Física de la Universidad Nacional de Córdoba e integrante del equipo de ética de la Fundación Vía Libre. “No hay una definición clara respecto de cuándo alguien obtiene por vía tecnológica valor o rentabilidad en base a lo ajeno. Eso es determinante para que haya quienes no quieren publicar sus obras en internet, por ejemplo, pues temen el robo”.
Uno de los casos más controvertidos en los últimos tiempos es el del escaneo del iris, una práctica que realizó en buena parte del mundo la empresa World (antes WorldCpin). Se presenta como una organización sin fines de lucro, radicada en las Islas Caimán, cuyo objetivo es “crear instituciones de gobernanza y de economía digital global más inclusivas y equitativas”, dice su página web. Y realiza un escaneo del iris para generar una “identidad digital” única a nivel mundial (World ID) que permitiría acceder a una moneda digital (World Coin) a través de una aplicación. A cambio del escaneo ofrece el pago de unos US$25 en cripto.
En el país, la Agencia de Acceso a la Información Pública (AAIP) inició una investigación de oficio sobre si infringió la ley de protección de datos; todavía no hay definiciones. Pero Alonso Alemany enfatiza que permitir el escaneo del iris equivale a dar el ADN. “Es un dato biométrico que no se puede cambiar –dice–. En general, con la modalidad de entrega de datos en diversos formatos los derechos básicos quedan muy vulnerables. A veces se dan suponiendo que son para un bien público, pero suelen terminar usados de otra manera.El negocio es pagar lo menos posible para obtener los datos y hacer volumen. Después, la cantidad de actividades rentables que se pueden encarar es enorme. Esto convive con el desconocimiento de quienes entregan los datos”.
Sin embargo, en algunos países esto está cambiando, señala Martínez. “La gente empieza preguntarse por qué, para qué, qué dice la letra chica. Surge una conciencia social más fuerte respecto de la privacidad, que va reemplazando al ‘¿total qué van a hacer con mis datos?’. La respuesta sería: muchísimo pueden hacer con los datos”.
Tim Berners-Lee, el creador de la World Wide Web, dijo a la CNBC, en una entrevista de 2024, que en un futuro cada uno será dueño de sus datos, objetivo en el que trabaja: “En lugar de ceder nuestros datos a Google, Meta, Amazon, Apple, Microsoft y otros gigantes, podremos almacenarnos y utilizarlos cuando lo creamos oportuno”.
Para Santiago, en el mundo hay pocos interesados en afrontar el complejo debate sobre la protección y el límite en el uso de los datos. Las empresas dicen que así las quieren restringir, que se pretende limitar su campo de acción y la innovación.
La firma de abogados global DLA Piper publica anualmente un “Manual de leyes de protección de datos en el mundo” y clasifica los regímenes como “estrictos, robustos, moderados y limitados”. En el primer segmento incluye a países como Estados Unidos (hay normas federales específicas, no una general; sí algunos Estados tiene regulaciones amplias), Canadá, México, Gran Bretaña y los miembros de la Unión Europea. La norma argentina aparece como “robusta” (como Uruguay, Arabia Saudita, Marruecos y Egipto); los regímenes de Chile, Brasil, Ecuador, Perú, Sudáfrica, India, Turquía y Rusia están caratulados como “moderados” y como regulaciones “limitadas” aparecen las de Bolivia, Paraguay, Venezuela, Honduras y Guatemala.
El rol de los gobiernos
“Incluso los países más chicos y más débiles económicamente rechazan la búsqueda de consensos en la regulación porque la revolución tecnológica les ofrece la posibilidad de una revancha, dar el salto e insertarse en el mundo. No quieren regular porque han estado esperando este momento. Está en juego hasta una cuestión geopolítica en el debate”, dice Santiago.
En enero, Günthe Oettinger, entonces comisario europeo de Economía Digital, sostuvo en el Foro Económico Mundial que “el mundo necesita una agencia de las Naciones Unidas encargada de la protección y la seguridad de los datos”.
Hay muchas posibilidades de legislar en aspectos como ciberseguridad, gobernanza y mercados digitales
Martínez, quien ha colaborado en la elaboración de los marcos generales no coercitivos para la gestión de datos desarrollados por la Unesco, precisa: “Además de plantear los principios y valores éticos que debería seguir la tecnología que toma alguna decisión por los humanos, hay quienes intentan convertir esos principios en acciones que los Estados pueden ejecutar para generar una especie de gobernanza para que las empresas privadas desarrollen sus productos y procesos de manera responsable”. Sin embargo, dice, hay una tensión entre los países, que quieren mantener su soberanía, y las empresas, que quieren la mayor libertad”.
Hay muchas posibilidades de legislar en aspectos como ciberseguridad, gobernanza y mercados digitales, sostiene Piazza. “Las propias bases de datos de los Estados han sido vulneradas, así que hay mucho por hacer para mejorar la seguridad. Es cierto que es muy complejo hacer cumplir las normas, por lo que hay que regular con un alto nivel de comprensión”.
Alonso Alemany considera que hoy “la protección de datos no se hace efectiva, aunque esté en la letra de las legislaciones”.
Demian Reidel, exjefe de gabinete del consejo de asesores de Javier Milei y actual presidente de Nucleoeléctrica, está convencido de que el país puede atraer a empresas especializadas y convertirse en hub mundial en la instalación de data centers para IA. En diciembre, durante la Primera Semana de la IA en la Argentina, describió que en el mundo hay tres centros de IA: China, Europa y Estados Unidos. “Europa está con el foco en la regulación. Con los chinos no podemos hablar de cooperativa porque hacen lo que quieren; y en Estados Unidos todavía no queda claro qué pasará con el tema regulatorio. Como nosotros estamos muy alineados con Estados Unidos, Milei conversó con estos CEOs para que traigan inversiones relacionadas con IA en el país, por ejemplo, para instalar data center especializados”. Meses después, durante un encuentro en el Rotary Club, dijo: “No vamos a ser líderes si armamos regulaciones: vienen menos inversiones. No queremos tiros en los pies con regulaciones que no le importan a nadie”.
La información personal que volcamos en la web alimenta la IA y es usufructuada por empresas que la acopian, en medio de leyes que no se cumplen; la privacidad y seguridad de las personas está en riesgo LA NACION