Starburst annonce la prise en charge dès le lancement du CPU NVIDIA Vera pour linférence IA et lanalytique

March 27, 2026
by puradm

L’éditeur a déjà lancé des fonctionnalités de traitement du langage naturel qui permettent aux utilisateurs d’analyser des données sans écrire de code. Au-delà des AI Workflows, Starburst ajoute de nouvelles capacités d’IA avec AI Agent. La suite comprend AI Search pour transformer les données non structurées en embeddings vectoriels dans Apache Iceberg. Dans les faits, elle permet la fédération de données entre différents entrepôts, lacs et bases de données. Basée sur le moteur de requête Trino, la plateforme de Starburst (Galaxy en mode SaaS et Enterprise pour les déploiements self-managed/sur site) est souvent présentée comme le starburst moyen de rendre tangible l’approche Data Mesh.

Les débuts de l’IA agentique chez Starburst

Cette future capacité apportera un parallélisme massif et un traitement des données optimisé en colonnes accéléré aux analyses fédérées et à l’inférence IA, alimentant la prochaine génération de charges de travail RAG et d’IA agentique. S’appuyer sur Trino accéléré par GPU En plus du support du CPU Vera, Starburst développe également l’accélération GPU pour Trino à l’aide de NVIDIA CUDA et NVIDIA cuDF pour les données structurées. Les clients déployant Vera dans ces configurations bénéficient ainsi d’une pile technologique entièrement intégrée et prête pour l’inférence, de l’infrastructure jusqu’à l’exploitation des insights.

Starburst développe en parallèle une accélération GPU pour Trino via NVIDIA CUDA et cuDF pour les données structurées, avec l’ambition d’unifier le calcul CPU et GPU au sein d’un seul moteur ouvert. Des performances obtenues tout en maintenant un débit déterministe même sur des workloads mixtes BI et inférence IA. Kevin Petrie a quant à lui suggéré que Starburst, qui évolue vers le développement de l’IA, devrait faire davantage d’effort pour intégrer les opérations de données, de développement et de modélisation. À savoir que leurs architectures de données ne sont pas prêtes à prendre en charge des modèles ou des applications d’IA », a-t-il déclaré. Selon Matt Fuller, cofondateur de Starburst et vice-président des produits AI/ML de l’éditeur, ce sont les commentaires des clients qui ont motivé le développement d’AI Workflows et d’AI Agent.

IBM annonce l’extension de sa collaboration avec NVIDIA afin d’accélérer l’IA pour les entreprises

Intégration dans l’écosystème L’optimisation de Starburst s’étend aux architectures d’entreprise validées, notamment Dell AI Factory with NVIDIA et Dell AI Data Platform, où Starburst sert de moteur d’analytique, d’accès aux données et de gouvernance. La plateforme maintient également des performances prévisibles pour des charges de travail mixtes combinant BI et inférence IA. L’intégration s’étend également aux architectures validées Dell AI Factory with NVIDIA et Dell AI Data Platform, où Starburst fait office de moteur d’analytique, d’accès et de gouvernance des données.

Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Disponibilité Starburst étudie comment l’architecture CPU NVIDIA Vera peut améliorer les charges analytiques et d’IA propulsées par Trino. À l’inverse, les écosystèmes Hadoop et Spark traditionnels ne prennent pas nativement en charge l’inférence.

C’est dans ce contexte d’accélération que Starburst a profité du GTC 2026 pour annoncer l’optimisation de sa plateforme pour le CPU Vera, le nouveau processeur ARM datacenter de NVIDIA conçu pour le raisonnement agentique et l’analytique de données. « Il ne s’agit pas de cocher des cases, mais de rationaliser la façon dont les entreprises activent leurs données à travers les environnements pour l’analytique et l’IA », avance-t-il. Collectivement, les nouvelles capacités poursuivent l’objectif de Starburst de fournir aux clients un accès rapide et gouverné aux données distribuées, selon Matt Fuller. Combinant trois activités complémentaires – accélérateurs, conseils et entreprises – l’entreprise aide les acteurs de l’aérospatiale et de la défense à innover, à naviguer et à investir dans l’écosystème dynamique. Des architectures de référence et des bonnes pratiques seront également publiées pour les organisations souhaitant exploiter Vera pour l’analytique et l’IA sur des données fédérées et gouvernées. Les architectures fermées obligent les entreprises à copier leurs données dans un système unique pour les exploiter avec l’IA, ce qui augmente les coûts, la latence et les risques de gouvernance.

  • Les clients de Starburst bénéficieront de performances de requête nettement supérieures, d’une inférence IA à plus faible latence et d’importantes économies de coûts dès la disponibilité de Vera, prévue plus tard en 2026.
  • Elle a créé des programmes d’accélérateurs aérospatiaux et défense uniques qui combinent les meilleurs aspects des accélérateurs de startups traditionnels et des programmes MBA avec une connaissance unique de l’industrie et une expertise approfondie.
  • « Pour soutenir cette intégration, Starburst ferait bien de s’associer à davantage de plateformes de modèles d’IA/ML et de framework de développement d’applications ».
  • Basée sur le moteur de requête Trino, la plateforme de Starburst (Galaxy en mode SaaS et Enterprise pour les déploiements self-managed/sur site) est souvent présentée comme le moyen de rendre tangible l’approche Data Mesh.
  • Starburst a dévoilé lundi une série de nouvelles fonctionnalités, notamment AI Workflows et AI Agent.

« Ces flux de travail et agents d’IA s’appuient sur l’atout principal de Starburst, à savoir l’accès aux données sur site ou dans des environnements en cloud », considère Kevin Petrie. L’environnement de développement n’exige pas que les utilisateurs déplacent des données ou construisent des pipelines complexes. Aujourd’hui, Starburst rejoint la mêlée en dévoilant AI Workflows, un ensemble d’outils en préversion privée conçu pour permettre aux clients de développer, déployer et gérer des modèles et des applications d’IA.