{ "@context": "https://schema.org/", "@graph": [ { "@type": "NewsArticle", "mainEntityOfPage": { "@type": "Webpage", "url": "/next/2024/08/01/la-inteligencia-artificial-podria-colapsar-esto-es-lo-que-ocurrira-en-unos-anos" }, "headline": "La Inteligencia Artificial podr\u00eda colapsar: esto es lo que ocurrir\u00e1 en unos a\u00f1os", "description": "Un nuevo estudio advierte de que los modelos generados mediante IA podr\u00edan colapsar al empezar a depender cada vez m\u00e1s de contenidos generados por la IA para su entrenamiento.", "articleBody": "Los modelos de Inteligencia Artificial (IA) podr\u00edan enfrentarse pronto a un nuevo problema a medida que los contenidos generados por IA se propaguen cada vez m\u00e1s por Internet. Los grandes modelos ling\u00fc\u00edsticos (LLM), como ChatGPT de OpenAI, se han basado en los datos disponibles en l\u00ednea para entrenar y mejorar sus modelos.Sin embargo, a medida que estos modelos agotan los datos disponibles en l\u00ednea o se enfrentan amayores restricciones en el a los datos, pueden entrenarse con contenidos generados por la IA.Seg\u00fan un nuevo estudio, esto podr\u00eda dar lugar a una degradaci\u00f3n del rendimiento de los modelos y, en \u00faltima instancia, provocar\u00eda la producci\u00f3n de contenidos incoherentes, un fen\u00f3meno conocido como 'colapso del modelo'.\u0022Con el tiempo, prevemos que ser\u00e1 m\u00e1s dif\u00edcil entrenar los modelos, aunque probablemente tengamos m\u00e1s datos, simplemente porque es muy f\u00e1cil tomar muestras de los datos de los modelos\u0022, explica a 'Euronews Next' Ilia Shumailov, investigador junior de la Universidad de Oxford y coautor del estudio.\u0022Pero lo que va a ocurrir es que va a ser m\u00e1s dif\u00edcil encontrar una poblaci\u00f3n de datos que no est\u00e9 realmente sesgada\u0022, a\u00f1adi\u00f3. El estudio, publicado en la revista 'Nature', analiza lo que ocurre cuando los modelos se entrenan con datos generados por IA a lo largo de m\u00faltiples ciclos.La investigaci\u00f3n descubri\u00f3 que los sistemas empiezan a cometer errores significativos y caen en el sinsentido. Otro art\u00edculo de Emily Wenger, investigadora de la Universidad de Duke, lo demuestra mediante un experimento en el que un modelo de IA se entrena continuamente con contenidos generados por la IA.En el experimento, se proporcion\u00f3 a un modelo de IA un conjunto de datos que conten\u00eda fotos de diferentes razas de perros, con una sobrerrepresentaci\u00f3n de golden retrievers.El estudio descubri\u00f3 que era m\u00e1s probable que el modelo generara im\u00e1genes de golden retrievers que de otras razas de perros menos representadas. A medida que avanzaba el ciclo, el modelo fue dejando de lado otras razas hasta que empez\u00f3 a generar im\u00e1genes sin sentido.Etapas del 'colapso del modelo' en la Inteligencia Artificial \u0022El colapso del modelo tiene dos etapas. La primera es lo que llamamos la etapa inicial del colapso del modelo, y lo que ocurre es que cuando un modelo aprende de otro, lo primero que se observa es una reducci\u00f3n de la varianza\u0022, explica Shumailov.Esto da lugar a un sobremuestreo de determinados aspectos, mientras que se descuidan otros importantes simplemente porque no estaban del todo claros para el modelo inicial.Es cuando los modelos de IA dejan de ser \u00fatiles debido a que los modelos anteriores introducen sus propios errores en los datos. Los errores presentes en los datos iniciales pasan al siguiente modelo, que a\u00f1ade su propio conjunto de errores y lo transmite tambi\u00e9n.Como los datos se producen y reciclan continuamente, los modelos empiezan a malinterpretar la realidad y a cometer m\u00e1s errores.\u0022Si hay algunos errores dentro de los datos que fueron generados por el modelo uno, b\u00e1sicamente se propagan al siguiente modelo. Y, en \u00faltima instancia, el resultado es que el modelo b\u00e1sicamente malinterpreta la realidad\u0022, explica Shumailov.Tipos de errores de los modelos de IASeg\u00fan Shumailov, hay tres tipos de errores que pueden cometer los modelos: errores de arquitectura, errores del proceso de aprendizaje y errores estad\u00edsticos.Los errores de arquitectura se producen cuando la estructura del modelo de IA no es la adecuada para captar todas las complejidades de los datos que se le proporcionan, lo que provoca imprecisiones porque el modelo malinterpreta o simplifica en exceso algunas partes.Los errores del proceso de aprendizaje se producen cuando los m\u00e9todos utilizados para entrenar los modelos tienen sesgos inherentes, lo que empuja al modelo a cometer ciertos tipos de errores.Implicaciones del 'colapso del modelo'Cuando los modelos se colapsan, la principal preocupaci\u00f3n es que se ralentice el ritmo de mejora de su rendimiento. Los modelos de IA dependen en gran medida de la calidad de los datos con los que se entrenan.Sin embargo, cuando se entrenan con contenidos generados por la IA, estos datos introducen continuamente errores en el sistema.\u0022Es probable que tengamos que dedicar un esfuerzo adicional a filtrar los datos. Y esto probablemente suponga una ralentizaci\u00f3n de la mejora\u0022, afirma Shumailov.Adem\u00e1s, a medida que disminuye la varianza y los datos se vuelven menos diversos, se espera que los datos infrarrepresentados se vean afectados de forma desproporcionada, lo que plantea dudas sobre la inclusividad de los modelos de IA.\u0022Tenemos que ser extremadamente cuidadosos para asegurarnos de que nuestros modelos son justos y no pierden de vista los datos de las minor\u00edas que contienen\u0022, afirma Shumailov.", "dateCreated": "2024-07-31T11:42:15+02:00", "dateModified": "2024-08-01T08:00:16+02:00", "datePublished": "2024-08-01T08:00:06+02:00", "image": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F08%2F61%2F93%2F66%2F1440x810_cmsv2_34298f28-6288-50b0-999a-0e1f1885b4b8-8619366.jpg", "width": 1440, "height": 810, "caption": "Colapso de modelos\u0022: Los cient\u00edficos advierten contra los modelos de IA que se entrenan con contenidos generados por la IA ", "thumbnail": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F08%2F61%2F93%2F66%2F432x243_cmsv2_34298f28-6288-50b0-999a-0e1f1885b4b8-8619366.jpg", "publisher": { "@type": "Organization", "name": "euronews", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png" } }, "author": [ { "@type": "Person", "familyName": "El Atillah", "givenName": "Imane", "name": "Imane El Atillah", "url": "/perfiles/2718", "worksFor": { "@type": "Organization", "name": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] }, "memberOf": { "@type": "Organization", "name": "R\u00e9daction" } } ], "publisher": { "@type": "Organization", "name": "Euronews", "legalName": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] }, "articleSection": [ "Negocios Tecnologia" ], "isAccessibleForFree": "False", "hasPart": { "@type": "WebPageElement", "isAccessibleForFree": "False", "cssSelector": ".poool-content" } }, { "@type": "WebSite", "name": "Euronews.com", "url": "/", "potentialAction": { "@type": "SearchAction", "target": "/search?query={search_term_string}", "query-input": "required name=search_term_string" }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] } ] }
NewsletterNewslettersEventsEventosPodcastsVideosAfricanews
Loader
Encuéntranos
InstagramFlipboardLinkedin
PUBLICIDAD

La Inteligencia Artificial podría colapsar: esto es lo que ocurrirá en unos años

Colapso de modelos": Los científicos advierten contra los modelos de IA que se entrenan con contenidos generados por la IA
Colapso de modelos": Los científicos advierten contra los modelos de IA que se entrenan con contenidos generados por la IA Derechos de autor Canva
Derechos de autor Canva
Por Imane El Atillah
Publicado
Compartir esta noticiaComentarios
Compartir esta noticiaClose Button

Un nuevo estudio advierte de que los modelos generados mediante IA podrían colapsar al empezar a depender cada vez más de contenidos generados por la IA para su entrenamiento.

PUBLICIDAD

Los modelos de Inteligencia Artificial (IA) podrían enfrentarse pronto a un nuevo problema a medida que los contenidos generados por IA se propaguen cada vez más por Internet. Los grandes modelos lingüísticos (LLM), como ChatGPT de OpenAI, se han basado en los datos disponibles en línea para entrenar y mejorar sus modelos.

Sin embargo, a medida que estos modelos agotan los datos disponibles en línea o se enfrentan amayores restricciones en el a los datos, pueden entrenarse con contenidos generados por la IA.

Según un nuevo estudio, esto podría dar lugar a una degradación del rendimiento de los modelos y, en última instancia, provocaría la producción de contenidos incoherentes, un fenómeno conocido como 'colapso del modelo'.

"Con el tiempo, prevemos que será más difícil entrenar los modelos, aunque probablemente tengamos más datos, simplemente porque es muy fácil tomar muestras de los datos de los modelos", explica a 'Euronews Next' Ilia Shumailov, investigador junior de la Universidad de Oxford y coautor del estudio.

Va a ser más difícil encontrar una población de datos que no esté realmente sesgada
Ilia Shumailov
Investigador junior de la Universidad de Oxford

"Pero lo que va a ocurrir es que va a ser más difícil encontrar una población de datos que no esté realmente sesgada", añadió. El estudio, publicado en la revista 'Nature', analiza lo que ocurre cuando los modelos se entrenan con datos generados por IA a lo largo de múltiples ciclos.

La investigación descubrió que los sistemas empiezan a cometer errores significativos y caen en el sinsentido. Otro artículo de Emily Wenger, investigadora de la Universidad de Duke, lo demuestra mediante un experimento en el que un modelo de IA se entrena continuamente con contenidos generados por la IA.

En el experimento, se proporcionó a un modelo de IA un conjunto de datos que contenía fotos de diferentes razas de perros, con una sobrerrepresentación de golden retrievers.

El estudio descubrió que era más probable que el modelo generara imágenes de golden retrievers que de otras razas de perros menos representadas. A medida que avanzaba el ciclo, el modelo fue dejando de lado otras razas hasta que empezó a generar imágenes sin sentido.

Etapas del 'colapso del modelo' en la Inteligencia Artificial

"El colapso del modelo tiene dos etapas. La primera es lo que llamamos la etapa inicial del colapso del modelo, y lo que ocurre es que cuando un modelo aprende de otro, lo primero que se observa es una reducción de la varianza", explica Shumailov.

Esto da lugar a un sobremuestreo de determinados aspectos, mientras que se descuidan otros importantes simplemente porque no estaban del todo claros para el modelo inicial.

Es cuando los modelos de IA dejan de ser útiles debido a que los modelos anteriores introducen sus propios errores en los datos. Los errores presentes en los datos iniciales pasan al siguiente modelo, que añade su propio conjunto de errores y lo transmite también.

Como los datos se producen y reciclan continuamente, los modelos empiezan a malinterpretar la realidad y a cometer más errores.

Galegría de imágenes generadas por Inteligencia Artificial.
Galegría de imágenes generadas por Inteligencia Artificial. AP Photo

"Si hay algunos errores dentro de los datos que fueron generados por el modelo uno, básicamente se propagan al siguiente modelo. Y, en última instancia, el resultado es que el modelo básicamente malinterpreta la realidad", explica Shumailov.

Tipos de errores de los modelos de IA

Según Shumailov, hay tres tipos de errores que pueden cometer los modelos: errores de arquitectura, errores del proceso de aprendizaje y errores estadísticos.

Los errores de arquitectura se producen cuando la estructura del modelo de IA no es la adecuada para captar todas las complejidades de los datos que se le proporcionan, lo que provoca imprecisiones porque el modelo malinterpreta o simplifica en exceso algunas partes.

Los errores del proceso de aprendizaje se producen cuando los métodos utilizados para entrenar los modelos tienen sesgos inherentes, lo que empuja al modelo a cometer ciertos tipos de errores.

Implicaciones del 'colapso del modelo'

Cuando los modelos se colapsan, la principal preocupación es que se ralentice el ritmo de mejora de su rendimiento. Los modelos de IA dependen en gran medida de la calidad de los datos con los que se entrenan.

Sin embargo, cuando se entrenan con contenidos generados por la IA, estos datos introducen continuamente errores en el sistema.

"Es probable que tengamos que dedicar un esfuerzo adicional a filtrar los datos. Y esto probablemente suponga una ralentización de la mejora", afirma Shumailov.

Además, a medida que disminuye la varianza y los datos se vuelven menos diversos, se espera que los datos infrarrepresentados se vean afectados de forma desproporcionada, lo que plantea dudas sobre la inclusividad de los modelos de IA.

"Tenemos que ser extremadamente cuidadosos para asegurarnos de que nuestros modelos son justos y no pierden de vista los datos de las minorías que contienen", afirma Shumailov.

Ir a los atajos de accesibilidad
Compartir esta noticiaComentarios

Noticias relacionadas

Un 'chatbot' de IA puede reducir las creencias conspirativas de la gente, según un estudio

Países Bajos multa a Clearview AI por construir una base de datos "ilegal"

El pionero de la IA, Yoshua Bengio, lanza una organización sin ánimo de lucro para que la IA sea más segura y fiable