En una entrevista con 'Euronews Next', Brittany Kaiser explica su defensa de la inteligencia artificial (IA) de código abierto en la istración pública.
Brittany Kaiser, denunciante de Cambridge Analytica, afirma que la protección de datos online apenas ha mejorado desde que testificó ante el Parlamento británico en 2018 que millones de personas podrían haber sufrido la recolección de sus datos de Facebook.
El escándalo estalló en 2016 después de que saliera a la luz que más de 87 millones de personas podrían haber visto recopilados sus datos en Facebook a través de un test de personalidad. Aunque no está claro cómo se utilizaron esos datos, Kaiser dijo que Cambridge Analytica hizo un "trabajo susceptible de enfrentar cargos" con la plataforma de campaña electoral de Donald Trump y la del Brexit emprendida por Leave.EU. Ambas organizaciones dijeron que no había ningún contrato firmado para trabajar con la empresa de análisis.
"Me gustaría poder decir que ha mejorado. Diría que ahora hay muchas partes del mundo donde la gente está empezando a estar protegida legalmente, lo que no era el caso en 2018", dijo Kaiser a 'Euronews Next'. Aunque dijo que ahora hay más leyes de protección de datos, haciendo referencia al Reglamento General de Protección de Datos (GDPR, por sus siglas en inglés) de Europa, señaló que no hay leyes federales de datos en Estados Unidos y que si una persona quiere emprender acciones legales contra las empresas que usan sus datos sin permiso, lleva mucho tiempo en los tribunales.
"Si no quieres pasar mucho tiempo en un juzgado o lidiando con la ley, diría que técnicamente estamos menos protegidos porque la tecnología es mucho mejor en la selección de objetivos", añadió. La inteligencia artificial (IA) también está empeorando las cosas, especialmente en lo que respecta a la interferencia electoral, dijo.
"El auge de la IA generativa ha hecho que sea mucho más fácil hacer que las cosas parezcan reales. En los días de Cambridge Analytica, teníamos una creación algorítmica muy, muy básica de contenido que el mundo estaba usando en ese momento", dijo. "No se parece en nada a lo que existe hoy en día, donde se puede imitar la realidad porque la IA se ha vuelto muy buena", dijo.
Kaiser dijo que, a pesar de trabajar en defensa de los derechos digitales, incluso ella se ha visto engañada por imágenes generadas por IA que circulan por internet. En una ocasión, pensó que algo terrible estaba ocurriendo en Nueva York cuando se convenció momentáneamente de que una imagen generada por IA de un coche incendiándose en Manhattan era real.
"Sabiendo que ya es difícil incluso encontrar una imagen real de algo, yo diría que es muy fácil abusar de ello con fines políticos o comerciales, o para lo que la gente quiera", afirma. "Todavía estamos en el escenario en el que muchas de nuestras agencias de inteligencia dicen que 'Rusia, China e Irán gastan la misma cantidad de dinero en comunicaciones de desinformación'", añadió. "Pero la tecnología es mucho mejor; tanto, que el impacto es mayor y el dinero llega más lejos para cualquier objetivo que tenga".
La IA en las elecciones
El año pasado, más de 60 países acudieron a las urnas en lo que supuso un superciclo de elecciones mundiales. La investigación sobre si la IA desempeñó algún papel en ellas es limitada. Sin embargo, un estudio reciente del Centro de Tecnología Emergente y Seguridad (CETaS) del Instituto Alan Turing revela que durante las elecciones generales del Reino Unido se produjeron 16 casos virales de desinformación mediante IA o 'deepfakes'.
Los investigadores también analizaron las elecciones estadounidenses y hallaron ejemplos de desinformación generada por IA. Entre ellos figuraban granjas de bots de IA que imitaban a votantes estadounidenses y acusaciones contra inmigrantes, que también dieron lugar a contenidos virales generados por IA a los que hicieron referencia algunos candidatos políticos y recibieron amplia cobertura mediática.
Aunque el documento afirma que no hay pruebas suficientes de que la desinformación generada por la IA tuviera un impacto tangible en los resultados de las elecciones presidenciales de EE.UU., añade que estos contenidos de IA sí influyeron en el discurso electoral estadounidense al "amplificar otras formas de desinformación e inflamar los debates políticos".
Aparte de las elecciones, Kaiser dijo que una de sus mayores preocupaciones son los contratos que los gobiernos están firmando con las grandes tecnológicas dedicadas a la IA, como el desarrollador de ChatGPT, OpenAI. "Como los gobiernos están dispuestos a intentar utilizar la IA, muchos de ellos están concediendo licencias de productos de IA a grandes empresas que son de código cerrado, cajas negras, y nuestros datos y los datos de nuestro Gobierno van a parar a estos sistemas de código cerrado con ánimo de lucro, y no hay ninguna protección", afirmó.
En general, código abierto significa que el código fuente del software está a disposición de todo el mundo para su uso, modificación y distribución, y que los datos que entrenan la IA son compartidos. En cambio, la IA de código cerrado significa que el código y los datos con los que se entrena la IA se mantienen bajo el control y la propiedad de la empresa.
Sin embargo, tener grandes modelos de IA de código abierto en manos de cualquiera que sepa programar podría tener implicaciones para la seguridad nacional. "OpenAI tiene la inmensa mayoría de los contratos gubernamentales de inteligencia artificial, y todos nuestros datos personales, así como todos los datos gubernamentales de todas estas agencias y departamentos gubernamentales, que van a parar a los servidores corporativos de OpenAI, crean una responsabilidad aún mayor", dijo Kaiser.
Kaiser añadió que esto es similar a lo que ocurrió con Cambridge Analytica y Facebook hace más de una década, pero en el caso de OpenAI, ahora son "muchos más datos, especialmente datos sensibles, los que se introducen en esos sistemas". Kaiser presiona ahora para que los gobiernos adopten más empresas de IA de código abierto, tanto a nivel federal como estatal.
En su opinión, el código abierto es "esencial para las agencias gubernamentales de cara al público civil, especialmente ahora que se ha popularizado por primera vez que el público pueda auditar lo que el Gobierno hace con las bases de datos y los datos".
En su opinión, un mayor número de sistemas de IA de código abierto sería un paso adelante más ético para ganarse la confianza del público a medida que los gobiernos empiezan a adoptar la IA, lo que en Estados Unidos se produce al no existir una legislación federal que proteja a las personas de cómo pueden utilizarse sus datos en estos sistemas. Kaiser ha asumido recientemente un nuevo cargo en la plataforma de IA de código abierto ElizaOS, que crea agentes de IA. Dirige la nueva filial de la empresa para ayudar al sector público estadounidense a crear tecnología de IA de código abierto para los gobiernos.
Regulación con sentido común
Kaiser confía en que la istración Trump se tome más en serio la protección de datos. "Este Gobierno en particular parece bastante decidido a tener una política tecnológica federal seria y a comprometerse con los tecnólogos y contratar a los tecnólogos para dirigir muchos departamentos gubernamentales", dijo. "Así que tengo la esperanza de que eso signifique que realmente veremos algo en Estados Unidos", añadió.
"Sería estupendo que por fin pudiéramos ver una legislación federal para proteger a los ciudadanos estadounidenses y proteger nuestros derechos frente a la creciente adopción de la tecnología". Sin embargo, EE.UU. dejó claro en la Cumbre de Acción sobre Inteligencia Artificial celebrada en París en febrero que una regulación excesiva de la tecnología podría acabar con la innovación, y que el país estaría a la cabeza a la hora de no poner regulaciones extrañas a estas tecnologías.
"Una regulación excesiva del sector de la IA podría acabar con un sector transformador justo cuando está despegando", dijo el vicepresidente de EE.UU., J.D. Vance. Kaiser no considera que esto obstaculice sus ambiciones de protección de datos en EE.UU. o de IA de código abierto, sino que debe haber un acto de equilibrio cuando se trata de regulación.
"Desde luego, no estoy de acuerdo con (el director ejecutivo de OpenAI) Sam Altman cuando dice que deberíamos permitir que se utilice cualquier dato para nuestros modelos para poder ser competitivos. Creo que eso es muy de 'muévete rápido y rompe cosas' para mí", afirmó.
Sin embargo, dijo que tampoco cree que la regulación extraña vaya a ayudar porque termina no siendo técnicamente implementable, lo que, según ella, sucedió en algunos componentes del GDPR de Europa. "Pero sí creo que una regulación de sentido común, redactada en colaboración con los tecnólogos para que sea fácilmente aplicable, sería algo bueno para los estadounidenses y para la economía", afirmó.