
MLE-bench : le nouveau benchmark d’OpenAI pour évaluer les agents d’ingénierie machine learning en 2024
OpenAI dévoile MLE-bench, un outil inédit pour mesurer la performance des agents IA dans les tâches d’ingénierie machine learning. Ce benchmark ouvre une nouvelle ère dans l’évaluation des capacités techniques des IA dédiées à la conception de modèles.



