La multitude d’applications greffées sur ChatGPT et consorts a aussi un prix, celui de la surenchère des processeurs graphiques (GPU). Pour être hautement compétitif, il faut former ses propres modèles de langage avec ses propres données, ce qui peut en nécessiter une grande quantité. Et ce n’est pas à la portée de n’importe quelle société.
Un modèle de référence, la carte graphique A100 de Nvidia, essentielle pour les calculs informatiques liés à l’intelligence artificielle, s’arrache à plus de 10’000 dollars l’unité dans sa configuration la plus basique.
Pour ne pas arranger les choses, la compétition impitoyable à laquelle se livrent les sociétés assèche le marché exclusif de Nvidia. C’est ce qui a conduit des capital-risqueurs, emmenés par l’ancien patron de la plateforme de codage GitHub Nat Friedman, à faire un stock de processeurs et proposer leur propre service cloud d’intelligence artificielle.
Appelé Andromeda Cluster, le système dispose de 2512 GPU de type H100 avec la promesse de former un modèle d’IA de 65 milliards de paramètres en environ 10 jours. Ce n’est pas le plus grand modèle disponible, mais c’est un modèle de taille, relève le site Business Insider. Mais les investisseurs gardent la main sur leur clientèle. Ils ne donnent accès à leurs unités de traitement graphique qu’à des sociétés dans lesquelles ils décident d’investir en parallèle.
Alors que Nvidia flambe en bourse – plus d’un milliard de dollars de capitalisation boursière – grâce notamment à ses deux puces vedettes pour l’intelligence artificielle générative, les A100 et H100, son rival AMD pourrait venir redistribuer les cartes. Attendue dans le courant de l’année, sa gamme de puces graphiques MI300 annonce une prise en charge de 192 Go de mémoire sur son modèle phare avec des performances promises supérieures à son concurrent.
(laf)