En utilisant les cartes de la série Viper de Neuchips, la collaboration offre également une efficacité énergétique et des LLM hors ligne pour apporter aux entreprises un maximum de confidentialité et de sécurité.
TAIPEI, 5 mars 2025 -- Avant le salon Embedded World 2025, Neuchips, l'un des principaux fournisseurs de circuits intégrés spécifiques à une application (ASIC) destinés à l'intelligence artificielle (AI), annonce une collaboration avec Vecow et ShareGuru de Golden Smart Home (GSH) Technology Corp. Ce partenariat vise à révolutionner le traitement des données SQL à l'aide d'une solution d'IA privée, sécurisée et économe en énergie, qui fournit des informations en temps réel à partir de bases de données internes par le biais de requêtes en langage naturel.
Rejoignez Neuchips et Vecow dans le Hall 3, stand n°3-449, pendant le salon Embedded World 2025 (du 11 au 13 mars à Nuremberg, en Allemagne).
« Notre collaboration avec Vecow et GSH représente l'avenir du déploiement de l'IA industrielle », a déclaré Ken Lau, PDG de Neuchips. « Lors du salon Embedded World 2025, les visiteurs du stand de Vecow découvriront comment les capacités uniques de notre carte d'accélération Viper AI - y compris la prise en charge de modèles avec 12 milliards de paramètres avec une consommation d'énergie de seulement 45 W - complètent les systèmes informatiques industriels robustes Edge AI de Vecow et les solutions SLM ShareGuru de GSH. Cette puissante combinaison permet un traitement sécurisé et efficace des données propriétaires par l'IA, qui répond aux exigences des environnements industriels modernes. Nous sommes fiers de nous associer à Vecow pour apporter cette innovation d'IA générative dans l'espace d'application centré sur l'entreprise. »
« À mesure que les applications d'IA générative sur site se développent, la demande de grands modèles de langage (LLM) multimodaux augmente rapidement », a déclaré Joseph Huang, vice-président exécutif de Vecow. « En tant que fournisseur de services de solutions informatiques d'IA en périphérie, Vecow s'associe à Neuchips pour développer des solutions LLM de pointe basées sur RAG, permettant aux utilisateurs d'accéder aux dernières données sans modèles d'entraînement, fournissant ainsi des résultats plus pertinents et de meilleure qualité. C'est essentiel pour nos clients qui recherchent une station de travail d'IA rentable, compacte et à faible consommation d'énergie qui surpasse les solutions GPU traditionnelles basées sur le cloud. »
Combiner les forces pour la solution ultime de traitement des données piloté par l'IA
La complexité croissante des bases de données et la rareté des compétences en SQL retardent considérablement l'extraction d'informations essentielles à partir des données. Toutefois, les modèles d'IA en ligne ne peuvent pas être utilisés en raison de l'absence de protection des informations propriétaires.
Afin de résoudre ces problèmes pour les entreprises de tous les secteurs, cette solution révolutionnaire s'appuie sur la station de travail Vecow ECX-3100 RAG Edge AI Inference, une plateforme informatique LLM compatible RAG (Retrieval-Augmented Generation). Elle fait fonctionner la solution ShareGuru QA 2.0 de GSH, alimentée par la plateforme ShareGuru SLM, en utilisant une seule carte LLM de Neuchips - la carte Gen AI de la série Viper.
Combinée, la solution permet d'utiliser le langage humain pour générer des requêtes SQL, ce qui les rend plus accessibles et plus efficaces tout en réduisant les coûts liés à l'expertise SQL. En outre, elle offre :
- Une confidentialité et une sécurité maximales des données: La carte hors ligne de Neuchips fait fonctionner localement la solution et la plateforme ShareGuru.
- Une haute précision : Grâce à la puissance de l'IA, la validation des requêtes
- Un rendement énergétique élevé : La série Viper de Neuchips offre une efficacité énergétique de 45 W avec un modèle complet comportant 12 milliards de paramètres
Carte accélératrice d'IA de la série Viper de Neuchips
Lancée au COMPUTEX 2024, la série Viper décharge plus de 90 % des ressources nécessaires à l'IA générative du processeur pour libérer tout le potentiel des LLM. Elle se distingue sur le marché en offrant :
- Une capacité de mémoire supplémentaire de 32 Go
- La prise en charge native du modèle de langage structuré BF16
- La puce accélératrice d'IA générative Raptor de Neuchips, lancée au CES 2024
A l'horizon 2026, Neuchips prévoit de se concentrer sur les ASIC multimodalités à faible consommation d'énergie pour améliorer encore les performances.
A propos de Neuchips
Neuchips est à l'avant-garde des solutions ASIC pour l'IA, pionnier dans le développement de matériel spécialement conçu pour les DLRM et LLM. Grâce à notre équipe d'experts dévoués, à notre engagement en faveur de l'innovation et à notre forte présence dans les organisations industrielles, nous sommes prêts à continuer à façonner l'avenir du matériel d'IA et à ouvrir une nouvelle ère d'efficacité et de performance.
Pour en savoir plus, veuillez consulter le site http://www.neuchips.ai/
This News is brought to you by Qube Mark, your trusted source for the latest updates and insights in marketing technology. Stay tuned for more groundbreaking innovations in the world of technology.