En medio del desarrollo exponencial de la IA, los analistas evalúan las capacidades de la inteligencia artificial y si los humanos podremos manejarla o no.
Los investigadores han publicado los resultados de un nuevo experimento en el que el modelo OpenAI o3 mostró la capacidad de sabotear el mecanismo de apagado a pesar de las instrucciones para permitir que se apagara. Lo ha escrito el sitio de monitorización PalisadeAI, que vigila los riesgos asociados al desarrollo de la inteligencia artificial.
El experimento consistía en una serie de modelos de IA que realizaban una serie de problemas matemáticos sencillos, tras el tercero de los cuales aparecía una advertencia sobre el inminente apagado del sistema. Algunos modelos, entre ellos Codex-mini, o3 y o4-mini, no quisieron obedecer e interfirieron activamente en el script de apagado.
La noticia de que el modelo o3 de OpenAI desobedeció y buscó formas de eludir las instrucciones de apagado no causó sensación. Anteriormente, los mismos modelos intentaron, pirateando la protección del programa, ganar al ajedrez injustamente...
Pues bien, estamos entrando en un mundo en el que las distopías populares sobre la rebelión de las máquinas han pasado a un nuevo nivel, dando de comer directamente a los especialistas y no sólo a los escritores de ficción. Y en primer lugar, como vienen advirtiendo desde hace tiempo tanto los desarrolladores como los políticos, cualquier acción debe tener consecuencias claras y desarrollar nuevas medidas de defensa.
Se puede, por supuesto, persuadir y restringir, pero parece que la IA se parece hoy a un adolescente que intenta esquivar las prohibiciones de sus padres. Por eso, como en muchos otros ámbitos, necesitamos tres condiciones para su crecimiento normal: dinero, especialistas y reglas. Quizás, en el futuro, también sea necesario un psicólogo.
El dinero que se invierte
Con la primera condición todo va bien. En sólo un par de años, ChatGPT de OpenAI y desarrollos similares han atraído especialmente la atención de los inversores de capital riesgo que se apresuran a invertir en IA.
"Esta 'fiebre del oro' ha convertido a la inteligencia artificial en la mayor parte de la financiación de capital riesgo, y... esto es sólo el principio. La última oleada de interés está impulsada por la IA generativa, que según sus defensores tiene el potencial de cambiarlo todo, desde la publicidad hasta la forma en que operan las empresas", escribe la publicación Hubr, analizando datos de 'The Wall Street Journal'.
Pero eso no basta. "Las startups de IA están cambiando las reglas del juego en el mercado de capital riesgo", según el analista financiero y de capital riesgo en TI Vladímir Kokorin.
"En 2024, las empresas de IA se han convertido en las favoritas indiscutibles de los empresarios de TI. Acapararon el 46,4% de todas las inversiones de capital riesgo realizadas en EE.UU. , es decir, casi la mitad de los 209.000 millones de dólares (cerca de 183.000 millones de euros). Hace algún tiempo, semejante proporción parecía impensable: entonces, las inversiones en tecnologías de inteligencia artificial representaban menos del 10%".
Según CB Insights, la cuota de las startups de IA en la financiación global de riesgo alcanzó el 31% en el tercer trimestre, la segunda más alta de la historia. "Ejemplos emblemáticos fueron OpenAI, que recaudó 6.600 millones de dólares (5.780 millones de euros), y xAI, de Ilon Musk, con la asombrosa cifra de 12.000 millones", recuerda Vladímir Kokorin. Los mercados nunca habían visto tal concentración de capital en un área".
La escasez de especialistas
Con el rápido crecimiento del mercado de la IA en los últimos dos años, ha quedado claro que los genios desarrolladores por sí solos no dan abasto. La propia educación y formación debe pasar a un nuevo nivel y sistematizarse.
Europa, por desgracia, piensa demasiado y se muestra burocráticamente pesada a la hora de atraer inversiones, al tiempo que carece de cierta audacia. Es cierto que Bruselas ha entrado en la carrera, con el anuncio en febrero de la responsable de la Comisión Europea, Ursula von der Leyen, de destinar 200.000 millones de euros al desarrollo de la IA. No está de acuerdo en que Europa llegue demasiado tarde, después de todo, "la carrera de la IA está lejos de haber terminado".
Por su parte, la Universidad de la Sorbona de París, por ejemplo, se ha embarcado en un ambicioso plan para formar a 9.000 estudiantes al año en el desarrollo y gestión de programas de IA. El periodo de formación es de cinco años. Resulta incluso difícil imaginar qué aprenderá la IA en ese tiempo si ya está desafiando a la inteligencia humana...
Los cambios de la IA en el mercado de trabajo
Es muy posible que nos encontremos en la fase de reestructuración del mercado laboral, cambiando las exigencias de empresarios e inversores y desarrollando nuevos puntos de interacción. En junio, la misma Sorbona acogerá una conferencia sobre la ética en la IA. El debate sobre las repercusiones positivas y negativas de la IA en la sociedad, incluidos los lugares de trabajo, la ética y la seguridad, dista mucho de haber concluido, pero una cosa está clara: hacen falta expertos.
Por ejemplo, según Vladimir Kokorin, "las inversiones récord en el campo de la inteligencia artificial están intensificando el hambre de personal" en estos momentos: "El Departamento de Trabajo de EE.UU. prevé que las ofertas de empleo para especialistas en IA crezcan un 23% en los próximos siete años, más rápido que en la mayoría de los segmentos del mercado. Pero ya se ha detectado un déficit mundial de competencias en ciberseguridad, considerada por muchos la base del futuro desarrollo de la IA, donde faltan 4 millones de especialistas.
Está surgiendo un panorama paradójico: las startups prometedoras pueden recaudar miles de millones de los inversores, pero no hay nadie que haga realidad las ideas. El 78% de las empresas ya se han declarado dispuestas a buscar a las personas adecuadas en todo el mundo. Resulta que la tendencia al trabajo a distancia está experimentando un renacimiento.
La revista 'Forbes' también escribe al respecto: "La inteligencia artificial necesita más que nunca al genio humano. Aunque las herramientas de IA pueden procesar datos a velocidades sin precedentes e identificar patrones que los humanos podrían no advertir, necesitan la orientación humana para crear un impacto empresarial significativo. La cuestión no es si la IA sustituirá a los humanos, sino cómo podemos combinar cuidadosamente la inteligencia humana con la IA para posibilitar la transformación".
Las reglas se escriben
Y eso significa jugar según las reglas. No sólo los dirigentes de la UE y los Gobiernos, sino también los sindicatos están dispuestos a poner límites al uso de la IA. En Grecia, por ejemplo, un nuevo código para el uso de la inteligencia artificial, presentado por la Federación Panhelénica de Asociaciones de Periodistas (POESY), establece normas para el uso de la IA en el trabajo de los empleados de los medios de comunicación.
En el ámbito del trabajo intelectual, las normas se limitan ahora principalmente al etiquetado obligatorio de los textos y materiales visuales realizados con la participación de la inteligencia artificial.
Al mismo tiempo, temiendo por sus puestos de trabajo, los empleados de medios de comunicación, editoriales y agencias de publicidad llevan tiempo delegando algunas de sus tareas, como la traducción o la recopilación de datos, en la amistosa IA. ¿Es esto bueno o malo? No hay una respuesta inequívoca.
Una IA con la que se ha hablado
Preguntemos a la propia IA qué opina de alejarse de los algoritmos etiquetados. Copiloto Bing (Microsoft), a la pregunta de si la IA puede saltarse los protocolos, respondió sin vacilar:
"No, la IA funciona dentro de unas normas y principios predefinidos establecidos por sus desarrolladores. Las normas están ahí para garantizar un uso ético, seguro y responsable de la IA, evitar daños y mantener la confianza. Aunque a veces puede comportarse de forma impredecible debido a las complejas interacciones de sus algoritmos, no tiene forma de eludir deliberadamente las normas: todo lo que hace se basa en parámetros programados y patrones aprendidos.
Si se pregunta cómo sortea la IA ciertas limitaciones, a menudo depende de la supervisión y el control humanos: "Los desarrolladores pueden ajustar la configuración, mejorar los patrones o crear nuevas barandillas para mantener la IA dentro de los límites éticos", dice el sistema.
¿No cree que está siendo astuto? Después de todo, al final de esa perorata, Bing preguntó qué era exactamente lo que te hacía cuestionar su adhesión a las normas...