Nuevo Algoritmo del MIT Aumenta la Eficiencia en la Toma de Decisiones de la IA Hasta 50 Veces Más
Investigadores del MIT desarrollaron un eficiente algoritmo de entrenamiento de IA, mejorando el rendimiento al seleccionar las mejores tareas, mejorando la toma de decisiones y reduciendo los costos de entrenamiento.
¿Apurado? ¡Aquí están los datos rápidos!
- El Aprendizaje por Transferencia Basado en Modelos (ATBM) mejora el rendimiento mientras reduce las necesidades de datos y computación.
- ATBM fue de cinco a 50 veces más eficiente que los métodos tradicionales de aprendizaje por refuerzo.
- Los investigadores planean extender el ATBM para problemas reales más complejos.
Investigadores del MIT han presentado un nuevo algoritmo diseñado para hacer que los modelos de toma de decisiones de la IA sean más eficientes, especialmente para tareas complejas como el control del tráfico en las ciudades.
El algoritmo mejora el aprendizaje por refuerzo tradicional, que a menudo tiene dificultades con la variabilidad en diferentes tareas.
La nota de prensa del MIT explica que, por ejemplo, un modelo de IA entrenado para controlar el tráfico en una intersección puede fallar cuando se aplica a otras con diferentes patrones de tráfico, número de carriles o límites de velocidad.
El nuevo enfoque, conocido como Aprendizaje de Transferencia Basado en Modelo (MBTL por sus siglas en inglés), selecciona estratégicamente un subconjunto de tareas para entrenar al agente de IA, centrándose en aquellas que proporcionarán las mejoras más significativas en el rendimiento.
Al reducir el enfoque de entrenamiento, este método disminuye los datos y los recursos computacionales necesarios, a la vez que aumenta la eficiencia del proceso de aprendizaje, según el MIT.
La investigación del equipo, que se presentará en la Conferencia sobre Sistemas de Procesamiento de Información Neural, demostró que MBTL era entre cinco y 50 veces más eficiente que los métodos estándar.
“Fuimos capaces de ver mejoras de rendimiento increíbles, con un algoritmo muy sencillo, pensando fuera de la caja”, dijo Cathy Wu, autora principal y profesora asociada en el MIT.
“Un algoritmo que no es muy complicado tiene más posibilidades de ser adoptado por la comunidad porque es más fácil de implementar y más fácil de entender para los demás.”
Por lo general, los modelos de IA para tareas como el control del tráfico se entrenan de una de dos maneras: o bien utilizando datos de todas las tareas, o entrenando modelos separados para cada tarea.
El MIT explica que ambos métodos tienen desventajas: entrenar modelos separados requiere enormes cantidades de datos, mientras que el entrenamiento en todas las tareas a menudo conduce a un rendimiento inferior.
El método de los investigadores encuentra un término medio, entrenando un algoritmo en un subconjunto más pequeño de tareas que se seleccionan estratégicamente para maximizar el rendimiento en todas las tareas.
MBTL utiliza el aprendizaje de transferencia de cero disparos, un concepto en el que un modelo entrenado en una tarea se aplica a tareas similares sin necesidad de un reentrenamiento adicional.
MIT explica que este método estima qué tan bien el modelo se desempeñará en tareas para las que no ha sido entrenado directamente, seleccionando así tareas que mejorarán la generalización en general.
“Con un aumento de eficiencia de 50 veces, el algoritmo MBTL podría entrenarse en solo dos tareas y lograr el mismo rendimiento que un método estándar que utiliza datos de 100 tareas”, explicó Wu.
Este enfoque reduce significativamente la cantidad de datos de entrenamiento necesarios, mejorando tanto la velocidad como la rentabilidad del desarrollo de modelos de IA para la toma de decisiones complejas, según el MIT.
Mirando hacia adelante, el equipo planea perfeccionar el método MBTL para sistemas más complejos y aplicaciones del mundo real, como los sistemas de movilidad de próxima generación.
Dejar un comentario
Cancelar