OpenAI, l’entreprise derrière le modèle de langage GPT-3 et de l’agent conversationnel ChatGPT, prépare GPT-4. Le futur outil en intelligence artificielle suscite déjà beaucoup de fantasmes.
Voilà plus de deux mois et demi que ChatGPT est accessible pour des tests publics. Depuis novembre, beaucoup a été dit sur cet agent conversationnel capable de manipuler avec aisance le langage naturel. Résultat, même s’il est pris en défaut parfois, l’outil est capable de retourner des réponses structurées et articulées aux demandes qu’on lui formule.
Pour fonctionner, ChatGPT a été entraîné à partir de ressources textuelles en très grande quantité. Cette préparation a été effectuée grâce aux méthodes que l’on retrouve en intelligence artificielle et plus précisément du côté de l’apprentissage automatique. Ce qu’il faut retenir, essentiellement, c’est que ChatGPT repose sur le modèle de langage GPT-3.5.

Des milliards et des milliards de paramètres pour GPT-4 ?
Or, GPT-4 arrivera prochainement. L’entreprise américaine OpenAI, qui est derrière ChatGPT, itère régulièrement pour fournir un outil de plus en plus en performant. GPT-2, sorti en 2019, comptait par exemple 1,5 milliard de paramètres. Il a été suivi en 2020 par GPT-3, qui en compte 175 milliards — soit un réseau de neurones artificiels 116 fois plus développés.
Sur GPT-4, OpenAI est resté fort discret jusqu’à présent — laissant les internautes à leurs fantasmes. Ainsi, depuis septembre 2021, la rumeur veut que GPT-4 dispose de cent billions (100 000 000 000 000) de paramètres. Soit un réseau 571 fois plus développé que GPT-3. Ce bond a été évoqué dans un article de Wired en août 2021, sur un sujet ne concernant pas directement OpenAI.
Depuis, ce nombre revient, que ce soit sur le forum de discussion d’OpenAI, dans des billets de blog ou dans des tweets enthousiastes. Il s’avère que Sam Altman, le fondateur d’OpenAI, a démenti la rumeur d’un GPT-4 disposant d’autant de paramètres. Au contraire, GPT-4 aurait en réalité une taille équivalente à GPT-3. Les progrès seraient plutôt du côté du traitement des données.
De la vidéo, de l’image, du son…
Depuis, les bruits de couloir autour de GPT-4 suggèrent que ce modèle de langage serait multimodal, c’est-à-dire qu’il pourrait non seulement accepter du texte, mais aussi de l’image, de l’audio et de la vidéo. Aujourd’hui, ChatGPT (qui repose sur un GPT-3.5) ne retourne que du texte. Mais il existe aujourd’hui des outils capables de générer de l’image. OpenAI fournit d’ailleurs DALL-E.
GPT-4 semble manifes
…. to be continued
>>> Lire la suite de l’article>>>
Copyright for syndicated content belongs to the linked Source : Numerama – https://www.numerama.com/tech/1242100-gpt-4-les-nouveautes-attendues-apres-chatgpt-et-gpt-3.html