Un estudio de la Universidad de Oxford afirmó que los futuros modelos de IA estarían construyendo conocimiento sobre cimientos defectuosos
Dylan Escobar Ruiz
25 de julio de 2024
La inteligencia artificial (IA) generativa como la empleada en Chatbots famosos como ChatGPT o Gemini de Google ha ganado popularidad en los últimos años, mostrada como una herramienta capaz de crear desde textos coherentes hasta imágenes sorprendentes
Sin embargo, un reciente estudio llevado a cabo por la Universidad de Oxford, en Inglaterra, publicado en la revista Nature, ha encendido las alarmas sobre un posible defecto inherente a este tipo de tecnologías cuando se utilizan para entrenar otras IA.
El fenómeno, denominado “colapso del modelo”, sugiere que al entrenar nuevos modelos de IA utilizando datos generados por IA anteriores, se corre el riesgo de que los resultados se vuelvan cada vez menos coherentes y precisos con el tiempo.
El enemigo de la inteligencia artificial, de acuerdo a lo que concluye el estudio de Oxford, sería los mismos modelos de IA que existen. Esto es producto de que, a medida que los datos originales son reemplazados por información generada por las IA, los modelos subsecuentes podrían empezar a producir respuestas sin sentido.
El estudio de Oxford se concentra principalmente en la observación de que las IA entrenadas con datos generados por otras IA tienden a degradar la calidad de los resultados tras pocas generaciones.
Este fenómeno tiene serias implicaciones para la calidad de los modelos de aprendizaje automático y, por ende, para los usuarios que dependen de estas tecnologías.
Lee aquí la nota completa
- August 2024 (2)
- July 2024 (26)
- June 2024 (27)
- May 2024 (24)
- April 2024 (27)
- March 2024 (24)
- February 2024 (27)
- January 2024 (23)
- December 2023 (17)
- November 2023 (21)
- October 2023 (29)
- September 2023 (20)
- August 2023 (25)
- July 2023 (4)
- June 2023 (25)
- May 2023 (17)
- April 2023 (48)