Presenting the AGI CPU, a specialized processing unit that creators anticipate will drive the upcoming surge in artificial intelligence.

La nouvelle puce d’Arm pourrait être un conducteur puissant mais efficace pour l’utilisation réelle des IA agentiques.

La première puce interne d’Arm pourrait ouvrir la voie à des systèmes d’IA agentiques plus puissants, selon ses créateurs. (Crédit image : Arm) Abonnez-vous à notre newsletter

Le concepteur de puces Arm s’est lancé dans l’arène du matériel d’intelligence artificielle (IA) avec son premier processeur interne conçu pour alimenter les agents IA. Contrairement aux chatbots conventionnels, il s’agit de systèmes beaucoup plus intelligents capables de prendre des mesures proactives pour atteindre leurs objectifs sans autant d’intervention humaine ou de supervision.

En se concentrant spécifiquement sur l’alimentation des agents IA, la puce d’Arm pourrait aider à accélérer l’adoption et l’utilisation généralisée des IA agentiques, que ce soit dans les entreprises ou dans la vie personnelle, rapprochant ainsi l’IA de ce que les gens attendraient des assistants virtuels.

Considérez un CPU comme le chef d’orchestre d’un ensemble de GPU et d’autres accélérateurs IA — du matériel spécialement conçu pour exécuter des LLM — dans ce cas.

Ainsi, les représentants d’Arm ont annoncé dans un communiqué que son nouveau CPU AGI a une conception personnalisée — incluant des nœuds de processus de 3 nanomètres, jusqu’à 136 cœurs Neoverse V3 pouvant atteindre des fréquences d’horloge de 3,7 GHz, et une bande passante mémoire de 6 gigaoctets par seconde par cœur — pour une utilisation dans les centres de données qui alimentent les agents IA actifs.

Toutes ces capacités visent à répondre à l’objectif de fournir de meilleures performances et une meilleure efficacité que les CPU classiques utilisant l’architecture x86, l’architecture informatique dominante développée par Intel en 1978 et toujours utilisée dans les processeurs aujourd’hui.

Puce personnalisée avenir

Avec la croissance inexorable de l’IA et le déploiement d’agents intelligents, il y a un besoin de matériel supplémentaire basé sur les centres de données pour alimenter ces systèmes. Cependant, la nature polyvalente des CPU signifie qu’ils ne sont pas intrinsèquement conçus pour exécuter l’orchestration spécifique nécessaire aux IA agentiques.

Le CPU AGI d’Arm utilise l’architecture Armv9.2-A en son cœur. Cette architecture a été conçue pour les besoins spécialisés de l’exécution de l’IA en action — connue sous le nom d’inférence. Avec cette spécialité, il n’est pas nécessaire qu’un CPU AGI conserve un support hérité pour d’autres processus et applications, comme on le voit dans les puces x86 — les processeurs conventionnels utilisés dans les ordinateurs ordinaires.

Cela devrait permettre des performances plus rapides et plus efficaces ciblées sur les IA. Les représentants d’Arm ont déclaré que son CPU AGI offre plus de deux fois les performances par rack de serveur par rapport aux CPU x86.

Le CPU AGI a été conçu pour intégrer deux puces avec une mémoire dédiée et une fonctionnalité d’entrée/sortie (E/S) dans une seule lame de serveur avec un total de 272 cœurs par lame. Les lames peuvent ensuite être empilées dans des racks de serveurs de 30, offrant un total de 8 160 cœurs avec des performances soutenues pour les charges de travail d’IA agentiques à une “échelle massive”, grâce à des milliers de cœurs fonctionnant en parallèle.

La spécialité d’Arm dans la conception de puces se concentre sur l’offre de performances solides pour une consommation d’énergie relativement faible. C’est l’une des raisons pour lesquelles toutes les puces de smartphone utilisent des processeurs ou des jeux d’instructions basés sur Arm. Par exemple, Qualcomm utilise la technologie Arm dans ses puces Snapdragon et Apple l’utilise dans ses puces d’iPhone et de MacBook.

Alors que l’IA continue de passer de la formation de LLM au déploiement actif d’IA agentiques, il y aura un besoin accru de puissance de traitement basée sur les CPU dans les centres de données. Cela devrait entraîner une augmentation considérable de la demande énergétique de l’IA.

Le CPU AGI a été conçu pour intégrer deux puces avec une mémoire dédiée et une fonctionnalité d’entrée/sortie (E/S) dans une seule lame de serveur avec un total de 272 cœurs par lame. Les lames peuvent ensuite être empilées dans des racks de serveurs de 30, offrant un total de 8 160 cœurs avec des performances soutenues pour les charges de travail d’IA agentiques à une “échelle massive”, grâce à des milliers de cœurs fonctionnant en parallèle.

La spécialité d’Arm dans la conception de puces se concentre sur l’offre de performances solides pour une consommation d’énergie relativement faible. C’est l’une des raisons pour lesquelles toutes les puces de smartphone utilisent des processeurs ou des jeux d’instructions basés sur Arm. Par exemple, Qualcomm utilise la technologie Arm dans ses puces Snapdragon et Apple l’utilise dans ses puces d’iPhone et de MacBook.

Alors que l’IA continue de passer de la formation de LLM au déploiement actif d’IA agentiques, il y aura un besoin accru de puissance de traitement basée sur les CPU dans les centres de données. Cela devrait entraîner une augmentation considérable de la demande énergétique de l’IA.

CONTEXTE

CONTEXTE Keumars Afifi-Sabet

Arm a le potentiel de vraiment secouer les choses dans ce qui est devenu une sorte de course aux armements dans les puces informatiques. Si elle peut proposer des CPU offrant de solides performances d’inférence IA tout en étant plus efficaces que les CPU basés sur x86, elle pourrait atténuer la demande énergétique croissante tout en perturbant Intel, AMD et le géant du matériel Nvidia, qui possède ses propres CPU Vera basés sur Arm.

Cette architecture est déjà utilisée dans les puces pour les centres de données IA, et le concepteur de puces est donc bien placé pour faire sa propre incursion dans la fourniture de CPU “prêts à l’emploi”.

Alors qu’Arm a traditionnellement concédé ses conceptions à d’autres fabricants de puces, le CPU AGI sera sa première tentative de fabriquer du matériel que d’autres entreprises pourront acheter et déployer dans leurs centres de données. Cela indique un avenir où davantage de matériel sera conçu sur mesure pour alimenter l’IA, que ce soit pour exécuter des LLM plus efficacement, comme on le voit avec l’architecture de circuit intégré spécifique à l’application (ASIC) trouvée dans le TPU de Google et la puce Trainium d’Amazon, ou pour l’inférence, dans le cas de la puce Maia 200 de Microsoft.

Les puces personnalisées capables de surmonter certaines des contraintes matérielles de l’exploitation de l’IA à grande échelle pourraient perturber la composition traditionnelle du matériel informatique général dans les centres de données. Cela, à son tour, pourrait accélérer le chemin vers l’intelligence artificielle générale (AGI), un système d’IA hypothétique capable d’apprendre, de comprendre et d’appliquer des connaissances dans plusieurs domaines à un niveau humain ou au-delà.

Sourse: www.livescience.com

Leave a Reply

Your email address will not be published. Required fields are marked *