bas de page
 

L'open source en IA gagne du terrain face
aux modèles propriétaires

Open source vs propriétaire

Julien Lausson
 

Les modèles de langage open source se rapprochent de leurs rivaux fermés et propriétaires, selon une étude comparant les performances des uns et des autres. Si les seconds sont toujours devant, l'écart s'est réduit en 2023.

   Quel est le point commun entre LlaMA [1], Flan-T5-XXL et Mixtral 8x7B ? Hormis des noms en apparence barbares, ce sont tous de grands modèles de langage, c'est-à-dire des systèmes spécialisés dans le traitement automatique du langage naturel. C'est grâce à eux qu'il est possible d'avoir de l'IA générative, comme ChatGPT [2] pour le texte ou Dall-E [3] pour le dessin.

   Mais ces trois modèles partagent une autre caractéristique : ils sont tous open source. Il est possible d'accéder au code pour analyser leur fonctionnement. Flan-T5-XXL [4] est ainsi disponible via le site Hugging Face, Mixtral 8x7B peut être récupéré via un fichier torrent [5] et le modèle LlaMA [6] est à retrouver sur le site de Meta, la maison mère de Facebook.

   Or, une analyse récente sur les performances des LLM (large language models) fait le constat d'une tendance de fond : les modèles de langage open source comme LlaMA ou Mixtral sont manifestement en phase de rattrapage par rapport aux LLM privés – c'est-à-dire ceux dont les fondations techniques ne sont pas librement partagées.

   Ces modèles propriétaires sont bien connus. On retrouve les solutions de Google (Chinchilla, PaLM, Gemini [7]), ainsi que Claude [8], développé par l'entreprise Anthropic, et les multiples générations de GPT [9], le modèle d'OpenAI qui fait tourner ChatGPT. Tous sont fermés et, selon le graphique de l'étude, tous sont globalement supérieurs à leurs contemporains libres.

   Mais pour combien de temps ? À en croire le mouvement suggéré par le graphique, les LLM open source vont bientôt et même rattraper les LLM privés. Si les seconds font encore la course en tête, l'écart apparaît se résorber progressivement. On peut imaginer que les deux courbes finiront par se croiser dans deux à trois ans, s'il n'y a pas de changement brusque dans ces trajectoires.

   Ces travaux ont été menés [10] par les équipes de Catherine Wood, fondatrice et directrice générale d'Ark Investment Management. Il s'agit d'une société américaine de gestion d'investissement spécialisée dans les fonds négociés en bourse, qui se positionne dans plusieurs domaines, dont celui de l'intelligence artificielle. Elle est aussi impliquée dans les crypto-monnaies [11].

L'open source progresse face aux modèles fermés

   Ils ont été salués par Yann Le Cun, le directeur scientifique de l'IA chez Meta. « Les modèles d'IA open source sont en passe de dépasser les modèles propriétaires », a-t-il réagi le 14 décembre [12]. L'intéressé prêche, il est vrai, aussi pour sa paroisse. Sa société a aussi embrassé l'ouverture pour l'IA générative. Les deux modèles LlaMA cités dans l'étude sont de Meta.

   Un commentaire que partage Catherine Wood. « Bien que toujours en retard, la performance des modèles d'IA open source s'améliore par rapport aux modèles fermés », a-t-elle réagi sur X (ex-Twitter). Le seul relativement en retard parmi les IA propriétaires est Grok, la solution lancée par Elon Musk. L'impression que ce chatbot laisse est assez contrastée [13].

   Dévoilée en décembre, et mise à jour par la suite de façon à intégrer des modèles plus récents comme Gemini et Mixtral, l'étude compare les modèles à travers le temps (axe des abscisses) et sur une faculté particulière (axe des ordonnées). Celle-ci porte sur l'erreur logarithmique absolue des performances en matière de compréhension massive des langues multitâches.

   Selon Jozef Soja, qui a participé à l'étude [14], « cela rend mieux compte du fait que chaque amélioration marginale des performances est plus difficile à atteindre que la précédente ». Par ailleurs, cette manière de faire permet de « montrer à quel point le GPT-4 est actuellement en tête du peloton ». GPT-4 [15] est aujourd'hui le modèle le plus abouti d'OpenAI, avec GPT-4 Turbo [16].

   L'intéressé ajoute « qu'il est particulièrement intéressant de voir à quel point les derniers modèles open source semblent être performants par rapport à leur taille. Mixtral bat GPT 3.5 sur ce benchmark avec une fraction des paramètres ». GPT-3.5 est sorti début 2020, tandis que Mixtral a été annoncé en décembre 2023.

   L'étude d'Ark offre une photographie incomplète du paysage – l'ensemble des modèles de langage, open source ou fermés, ne figurant pas sur le graphique. On retrouve néanmoins les plus médiatisés, avec ceux des géants du web – Google, Meta (Facebook) ou même OpenAI, qui bénéficie du soutien et des financements de Microsoft.

   Des acteurs de plus petite taille sont aussi présents (tels Claude et Mixtral) et des solutions étrangères peu connues en Occident. C'est le cas de Falcon 180B, un modèle de langage conçu par l'Institut d'innovation technologique des Émirats arabes unis, mais aussi Yi-34B de la startup chinoise 01.ai. D'autres pourraient être ajoutées si le graphique est maintenu à jour.

   Les constats de l'étude interrogent sur la pertinence, à terme, de conserver des modèles fermés si l'open source offre de meilleures perspectives. Cette éventualité pourrait alors remettre l'orientation prise par OpenAI, par exemple. On se souvient que la société avait qualifié d'erreur l'idée d'embrasser l'open source à ses débuts [17]. Le futur pourrait lui donner tort.

Julien Lausson
Journaliste

Publié le 16 décembre 2023 sur Numerama.
https://www.numerama.com/tech/1590098-lopen-source-en-ia-gagne-du-terrain-face-aux-modeles-proprietaires.html

Publiés sous la licence Creative Commons by-nc-nd 2.0. (http://creativecommons.org/licenses/by-nc-nd/2.0/fr/)

Toutes les infos sur ChatGPT

Le risque d'une interdiction de ChatGPT en Europe ressurgit
https://www.numerama.com/tech/1621134-le-risque-de-blocage-de-chatgpt-ressurgit-en-europe.html

ChatGPT était devenu trop paresseux, OpenAI l'a secoué
https://www.numerama.com/tech/1619174-chatgpt-etait-devenu-trop-paresseux-openai-la-secoue.html

Découvrez Artificielles, la première newsletter sur l'IA, écrite par une IA, et vérifiée par Numerama
https://www.numerama.com/tech/1365396-artificielles-abonnez-vous-a-notre-newsletter-sur-lia-concue-par-ia-verifiee-par-numerama.html

« I'm sorry but I cannot assis » : des noms de produits générés par ChatGPT inondent Amazon
https://www.numerama.com/tech/1607870-im-sorry-but-i-cannot-assist-des-produits-portent-des-noms-tres-bizarres-sur-amazon-a-cause-de-chatgpt.html

Les constructeurs automobiles ont un nouveau jouet éclaté au sol
https://www.numerama.com/vroom/1606634-les-constructeurs-automobiles-ont-un-nouveau-jouet-eclate-au-sol.html

Llama 2 : Meta lance un modèle d'IA plus puissant, open source et gratuit pour tout le monde
https://www.numerama.com/tech/1452550-llama-2-meta-lance-une-ia-plus-puissante-open-source-et-gratuite-pour-tout-le-monde.html

NOTES

[1] https://www.numerama.com/tech/1283312-quest-ce-que-llama-le-rival-de-chatgpt-pousse-par-meta.html

[2] https://www.numerama.com/sciences/1200230-cest-quoi-chatgpt-on-a-laisse-chatgpt-repondre-a-la-question.html

[3] https://www.numerama.com/tech/1520376-dall-e-3-lia-de-dessin-la-plus-puissante-dopenai-arrive-gratuitement-dans-bing.html

[4] https://huggingface.co/google/flan-t5-xxl

[5] https://www.numerama.com/tech/1585164-la-startup-francaise-mistral-ai-publie-en-torrent-un-modele-de-langage-de-87-go.html

[6] https://ai.meta.com/llama/

[7] https://www.numerama.com/tech/1581500-google-lance-gemini-son-arme-fatale-pour-ecraser-chatgpt-et-openai.html

[8] https://www.numerama.com/tech/1511306-claude-le-rival-de-chatgpt-recoit-des-milliards-de-dollars-damazon.html

[9] https://www.numerama.com/tech/1364400-mais-au-fait-cest-quoi-gpt.html

[10] https://twitter.com/CathieDWood/status/1735134243943039431

[11] https://www.numerama.com/tech/819189-le-bitcoin-pourrait-il-perdre-toute-valeur.html

[12] https://twitter.com/ylecun/status/1734377019608014956

[13] https://www.numerama.com/tech/1585080-on-a-teste-grok-lia-delon-musk-est-drole-mais-ne-sert-a-rien.html

[14] https://twitter.com/JozefARK/status/1735085757566484493

[15] https://www.numerama.com/tech/1303856-gpt-4-est-disponible-tout-comme-gpt-3-mais-en-mieux.html

[16] https://www.numerama.com/tech/1553032-le-nouveau-chatgpt-sait-que-la-france-a-perdu-la-coupe-du-monde.html

[17] https://www.numerama.com/tech/1307322-nous-avions-tort-en-devoilant-gpt-4-openai-dit-rejeter-lopen-source-desormais.html

haut de page
Association EPI
Avril 2024

Accueil Libres et Open soure Articles