Permettre une connectivité transparente pour les applications d’IA distribuées, de la périphérie aux centres de données privés en passant par les environnements multi-cloud

BARCELONE, Espagne--(BUSINESS WIRE)--Arrcus, l’entreprise de logiciels de mise en réseau à grande échelle et leader en matière d’infrastructure de routage et de commutation au cœur, à la périphérie et multi-cloud, annonce l’amélioration de sa plateforme ACE-AI afin de répondre à la demande croissante d’une structure de mise en réseau unifiée pour les charges de travail d’IA distribuées.



Tandis que les charges de travail d’IA deviennent de plus en plus distribuées, poussées par des considérations économiques et des exigences d’application, Arrcus ACE-AI est une plateforme conçue pour les mettre en réseau de manière transparente sur différents sites et fournir des applications à la périphérie, avec une connectivité à grande vitesse et sans perte. Le modèle émergent d’apprentissage fédéré pour l’IA permet à de multiples entités de former un modèle en collaboration avec des données décentralisées. Ces modèles de formation peuvent être exécutés dans des environnements à grande échelle tandis que des modèles d’inférence peuvent être exécutés à la périphérie pour divers cas d’utilisation. Arrcus reconnaît la nécessité d’un réseau unifié interconnectant ces charges de travail, quel que soit l’endroit où elles se trouvent. Les applications modernes des centres de données exigent un débit élevé (400-800 Gbit) et une latence ultrafaible (< 10 μs par saut), et Arrcus ACE-AI répond à ces exigences tout en minimisant la surcharge du processeur.

« L’avenir de l’IA réside dans son omniprésence et Arrcus a construit la structure la plus flexible et la plus intelligente du secteur, qui connecte et orchestre les charges de travail d’IA distribuées », déclare Shekar Ayyar, président-directeur général d’Arrcus. « Avec la plateforme ACE-AI améliorée, nous donnons aux entreprises et aux fournisseurs de services le pouvoir d’exploiter le plein potentiel de l’IA, à travers le cloud, les centres de données et la périphérie. »

Les charges de travail émergentes en matière d’intelligence artificielle, de calcul hautes performances et de stockage présentent de nouveaux défis pour la mise en réseau des centres de données à grande échelle. Arrcus relève ces défis en prenant en charge de nouvelles fonctionnalités qui construisent une structure Ethernet sans perte, notamment RoCEv2, PFC, ECN, ETS, AR, Dynamic Load Balancing et Global Load Balancing.

L’un des défis majeurs dans la mise en œuvre d’un réseau hautes performances pour les charges de travail de l’IA réside dans la limitation des piles TCP/IP traditionnelles à de telles vitesses en raison de leur surcharge de processeur élevée. Arrcus relève ce défi en incorporant la technologie RDMA (Remote Direct Memory Access), qui délègue les tâches de communication de transport de l’unité centrale au matériel, fournissant ainsi un accès direct à la mémoire pour les applications sans impliquer le processeur. La deuxième version de RDMA sur Ethernet convergent (RoCE-v2) améliore encore plus le protocole avec des en-têtes UDP/IP avec routage.

En plus de ces améliorations, Arrcus est également heureux d’annoncer la prise en charge de nouvelles plateformes de Broadcom, qui sont des plateformes de commutation 800G de pointe (Tomahawk5, Jericho3, Ramon3) en partenariat avec des fabricants de périphériques tels qu’Ufispace et Edgecore.

« Broadcom est très heureux de collaborer avec Arrcus pour fournir des solutions de commutation de pointe qui sont optimisées pour répondre aux exigences de performance des charges de travail d’IA de prochaine génération. Ensemble, Arrcus et Broadcom permettent aux clients de construire des réseaux de centres de données performants, évolutifs et intelligents », déclare Ram Velaga, vice-président principal et directeur général du Core Switching Group chez Broadcom.

Principales caractéristiques faisant d’Arrcus le leader de l’industrie des plateformes réseau pour l’IA :

  • Mise en réseau hautes performances pour l’IA : prise en charge du matériel de pointe avec les commutateurs Broadcom comme Tomahawk5 et Jericho3-AI, RoCEv2, SmartNICs de NVIDIA et Intel, et permettant une latence ultrafaible (< 10 μs par saut) et un débit élevé (400-800 Gbit) requis par les applications modernes d’IA.
  • Optimisation des coûts multi-cloud : le FlexMCN amélioré avec la technologie ECC (Egress Cost Control) donne aux utilisateurs les moyens d’analyser, d’allouer et d’acheminer dynamiquement le trafic entre les clouds pour une rentabilité optimale, en réduisant les frais de sortie jusqu’à 15 %.
  • Découpage automatisé du réseau 5G pour l’IA : l’intégration du Mobile User Plane (MUP) SRv6 et de Flex Algo permet d’automatiser la fourniture d’applications d’IA avec un découpage du réseau 5G, harmonisant ainsi le déploiement des services et l’allocation des ressources.
  • Visibilité du réseau de bout en bout avec ArcIQ : les nouvelles fonctionnalités d’ArcIQ étendent les connaissances du réseau en temps réel aux équipements des utilisateurs, fournissant des données exploitables pour une gestion proactive des incidents.

Avec ces nouvelles capacités et son dévouement à l’innovation, Arrcus permet aux organisations de dépasser les limites des réseaux traditionnels et d’adopter le plein potentiel de l’IA distribuée. La plateforme ACE-AI améliorée représente une étape cruciale dans la construction de la structure intelligente pour l’avenir basé sur l’IA.

Ressources supplémentaires

À propos d’Arrcus

Arrcus a été fondé pour améliorer l’efficacité des entreprises grâce à une connectivité réseau supérieure. La plateforme Arrcus Connected Edge (ACE) offre le meilleur réseau de sa catégorie avec le modèle de consommation le plus flexible et le coût total de possession le plus bas. L’équipe d’Arrcus est composée de technologues de classe mondiale qui ont une expérience inégalée dans la fourniture de produits de réseau de pointe, complétée par des leaders d’opinion du secteur, des cadres opérationnels, des partenaires stratégiques et des investisseurs en capital-risque de premier plan. Le siège de la société se trouve à San Jose, en Californie, avec des bureaux à Bangalore, en Inde, et à Tokyo, au Japon. Pour plus d’informations, rendez-vous sur www.arrcus.com ou suivez @arrcusinc.

Le texte du communiqué issu d’une traduction ne doit d’aucune manière être considéré comme officiel. La seule version du communiqué qui fasse foi est celle du communiqué dans sa langue d’origine. La traduction devra toujours être confrontée au texte source, qui fera jurisprudence.


Contacts

Contact médias
Sean Griffin
sean@arrcus.com

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *