L'essor des modèles d'IA compacts : rapides, économiques et prometteurs !
2024-12-03
Auteur: Julie
Les spécialistes observent une montée en puissance de modèles d'intelligence artificielle (IA) plus petits et très spécialisés, qui promettent de meilleures performances tout en réduisant les coûts.
Dans le cadre de l'expansion rapide de l'IA dans divers secteurs, les modèles de petite taille, souvent adéquats pour la majorité des affaires, s'imposent comme une tendance incontournable. Ces modèles, à la fois plus rapides et moins gourmands en ressources, sont prisés par les entreprises.
Prenons l'exemple du laboratoire américain Merck, qui collabore avec le cabinet BCG pour développer un modèle destiné à analyser l'impact de certaines maladies sur les gènes. "Ce modèle très compact comptera entre quelques centaines de millions et quelques milliards de paramètres", précise Nicolas de Bellefonds, responsable de l'IA chez BCG. En comparaison, des modèles comme GPT-3 d'OpenAI, avec ses 175 milliards de paramètres, ou GPT-4, avec près de 2 trillards, semblent devoir céder le pas à cette nouvelle tendance.
De plus en plus d'experts soulignent la capacité de ces petits modèles à offrir des performances similaires, voire supérieures, à celles de modèles plus grands, et cela pour un coût largement inférieur. Un bon nombre des géants technologiques américains ont suivi cette tendance en lançant leurs propres modèles miniatures cette année, tels que Gemma de Google, Phi-3 de Microsoft ou encore ceux présentés par Meta.
Une autre observatrice réputée, Kara Hurst d'Amazon, a affirmé : "La tendance vers la sobriété et la frugalité dans la technologie est un mouvement significatif que nous soutenons", soulignant ainsi l'importance croissante des modèles plus petits et plus efficaces.
Rapides et Économes en Ressources
Ces petites IA peuvent accomplir des tâches simples comme la recherche dans une base de données ou la synthèse de documents, répondant ainsi aux besoins d'entreprises et d'administrations sans nulles autres contraintes. Comme le signale Laurent Félix, directeur général d'Ekimetrics en France, "il n'est pas nécessaire d'avoir une connaissance approfondie pour répondre à des questions spécifiques".
Ces modèles bénéficient également de vitesses d'exécution supérieures. Laurent Daudet, de la start-up LightOn, spécialisée dans les petits modèles, souligne qu'ils sont capables de gérer plus de requêtes simultanément, ce qui représente un atout considérable dans un monde en quête d'efficience.
Une autre caractéristique avantageuse réside dans leur faible consommation énergétique, leur permettant de fonctionner avec moins de puissants processeurs (GPU). Cela se traduit par des coûts d'exploitation plus bas, un aspect crucial alors que le coût de l'énergie continue d’augmenter.
Mieux encore, la taille réduite de ces modèles leur permet de fonctionner directement sur des appareils personnels comme des téléphones ou ordinateurs, évitant ainsi le recours au cloud et, par conséquent, réduisant l'empreinte carbone, comme le note Arthur Mensch de Mistral AI.
Sécurité et Confidentialité
La start-up française Mistral AI a récemment lancé son modèle le plus petit à ce jour, nommé Ministral, qui promet également une meilleure sécurité et conformité en matière de confidentialité, puisque les données restent stockées localement. Ce changement pourrait rendre nos appareils quotidiens, y compris nos réfrigérateurs, capables d'exécuter des modèles d'IA embarqués.
En définissant le futur, Thomas Wolf de Hugging Face a indiqué que cette plateforme d'IA accessible pourrait voir tous nos objets du quotidien intégrant des modèles d'IA adaptés.
Bien que les grands modèles de langage, réputés pour résoudre des problèmes complexes, ne disparaitront pas, leur fonction pourrait évoluer vers un travail complémentaire avec ces petits modèles. "À l'avenir, différents modèles pourront interagir », suggère Nicolas de Bellefonds, en imaginant un écosystème où un petit modèle pourrait évaluer la complexité d'une question et rediriger à des modèles de tailles diverses pour fournir des réponses adéquates.