Menu

Un estudio de la Universidad de Oxford afirmó que los futuros modelos de IA estarían construyendo conocimiento sobre cimientos defectuosos

Dylan Escobar Ruiz
25 de julio de 2024

La inteligencia artificial (IA) generativa como la empleada en Chatbots famosos como ChatGPT o Gemini de Google ha ganado popularidad en los últimos años, mostrada como una herramienta capaz de crear desde textos coherentes hasta imágenes sorprendentes

Sin embargo, un reciente estudio llevado a cabo por la Universidad de Oxford, en Inglaterra, publicado en la revista Nature, ha encendido las alarmas sobre un posible defecto inherente a este tipo de tecnologías cuando se utilizan para entrenar otras IA.

El fenómeno, denominado “colapso del modelo”, sugiere que al entrenar nuevos modelos de IA utilizando datos generados por IA anteriores, se corre el riesgo de que los resultados se vuelvan cada vez menos coherentes y precisos con el tiempo.

El enemigo de la inteligencia artificial, de acuerdo a lo que concluye el estudio de Oxford, sería los mismos modelos de IA que existen. Esto es producto de que, a medida que los datos originales son reemplazados por información generada por las IA, los modelos subsecuentes podrían empezar a producir respuestas sin sentido.

El estudio de Oxford se concentra principalmente en la observación de que las IA entrenadas con datos generados por otras IA tienden a degradar la calidad de los resultados tras pocas generaciones.

Este fenómeno tiene serias implicaciones para la calidad de los modelos de aprendizaje automático y, por ende, para los usuarios que dependen de estas tecnologías.

Lee aquí la nota completa


 

Go Back