La puce Nvidia A100, l’arme secrète des développeurs d’intelligence artificielle

0
211

Maîtresse du marché, elle est à vous pour 10 000 $ (mais il vous en faut beaucoup).

Vous en avez déjà marre d’en entendre parler, mais l’intelligence artificielle prend de plus en plus de place dans nos vies.

Derrière le caractère ludique des dessins générés par les réponses de Midjourney ou de ChatGPT – et les enjeux éthiques soulevés – une course s’est engagée. Elle oppose les entreprises naissantes qui ont mis sur le marché ces outils – notamment OpenAI – aux GAFAM, comme Google et Microsoft, qui veulent les concurrencer.

Selon CNBC, un matériel d’une valeur unitaire de 10 000 dollars est devenu incontournable pour le développement des solutions d’intelligence artificielle : le Nvidia A100. C’est principalement grâce à elle que la société Nvidia est désormais aux commandes “95% du marché des GPU peut être utilisé pour l’apprentissage automatique”.

L’un de ses principaux atouts est la possibilité d’effectuer un grand nombre de calculs simples à la fois. Vous n’avez pas nécessairement à l’acheter, car certaines entreprises “louent” la puissance de calcul des puces à distance via le cloud.

Lire aussi :  "C8 doit faire des choix..." : Cyril Hanouna balance sur les raisons de l'absence de TPMP en direct, TMC en prend aussi pour son grade

Pleine puissance (ordinateur)

Développé à l’origine comme une carte graphique, destinée à être utilisée uniquement pour rendre des graphismes exigeants dans les jeux PC, l’A100 fonctionne désormais en équipe.

Des centaines, voire des milliers, de ces puces sont assemblées dans des centres de données. Leur formidable puissance de calcul combinée est utilisée à la fois pour parcourir des quantités astronomiques de données afin de détecter des modèles récurrents (motifs) et pour l’inférence, c’est-à-dire la génération du texte ou de l’image associée.

Les A100 y sont parfois intégrés au DGX A100, qui intègre huit A100 et fait la taille d’un PC tour, que Nvidia vend 200 000 dollars (environ 188 000 euros), mais dont les capacités sont également disponibles à la location dans le cloud.

Par rapport à une recherche classique, l’utilisation d’un outil d’intelligence artificielle mobilise beaucoup plus de puissance de calcul, obligeant les entreprises du secteur à acheter une quantité colossale de puces pour supporter la “charge” de plusieurs utilisateurs, à un coût non négligeable.

Lire aussi :  Abbott fait l'objet d'une enquête criminelle sur une crise des préparations pour nourrissons

“Si vous êtes Microsoft et que vous voulez faire cela à l’échelle de Bing, peut-être 4 milliards de dollars. Si vous êtes Google, qui traite 8 ou 9 milliards de recherches chaque jour, vous devez dépenser 80 milliards de dollars pour DGX.analyse Antoine Chkaiban de la société spécialisée New Street Research.

Cela signifie logiquement une bonne affaire pour Nvidia. Au dernier trimestre, cette société a augmenté de 11 % pour atteindre 3,6 milliards de dollars de revenus, tandis que les ventes totales de la société ont chuté de 21 %. Mais la concurrence commence à se réveiller : AMD, Intel, Google et Amazon ont déjà commencé à développer leurs propres puces.

#puce #Nvidia #A100 #larme #secrète #des #développeurs #dintelligence #artificielle #korii.slate.fr

LEAVE A REPLY

Please enter your comment!
Please enter your name here