NVIDIA HGX-2 GPU blander AI og HPC til næste generelle forretnings computing

5 måder at få AI til at arbejde for din virksomhed AI kan være nyttige for mange virksomheder, men ligesom ethvert andet værktøj har det sine begrænsninger. Her er nogle tip til at få mest muligt ud af det.

NVIDIA har afsløret det Tesla V100-drevne HGX-2-apparat, som er opfølgningen til sidste års HGX-1 sky-serversystem beregnet til GPU-beregne arbejdsbelastninger. HGX-2, der blev afsløret i en pressemeddelelse på tirsdag, er beregnet til udviklere, der arbejder med store datasæt, såsom dem, der er forbundet med billedgenkendelse og sprogoversættelse.

Med hensyn til rå beregningsevne drives HGX-2 af to baseboards med otte V100 GPU'er og seks NVSwitches, bemærkes frigørelsen. NVSwitches tillader GPU'erne at kommunikere med hinanden via NVLink, en protokol, der er udarbejdet af NVidia for at overvinde begrænsningerne i PCI Express. Mens denne teknologi er afhængig af et centralt knudepunkt til at forhandle kommunikation, tillader NVLink flere links pr. Enhed og bruger mesh-netværk. På grund af dette design har en GPU fuld båndbreddeadgang til enhver anden GPU, inklusive en GPU på en anden baseboard, ifølge NVIDIA.

HGX-2 kan beregne ved 2 petaflops for tensor-operationer og har 512 GB RAM og har en halvbåndbredde på 2400 GB / s. Til sammenligning er 8-GPU HGX-1 kun i stand til at beregne ved 1 petaflop, har 256 GB RAM og har en halveringsbåndbredde på 300 GB / s. På den originale model er kun 4 GPU'er fuldt forbundet via NVLink, der er ansvarlig for den langsommere hastighed.

NVIDIA hævder i udgivelsen, at HGX-2 "kan erstatte 300 dobbelt CPU-serverknudepunkter på dyb læringstræning." Sammenligninger med to HGX-1-systemer på 4x100GB Infiniband-forbindelser med et enkelt HGX-2-system viser en 2x speedup til MILC (en simulering, der studerer kvantekromodynamik), og en 2, 4x speedup for ECWMF (en global vejrforudsigelsesmodel) benchmarks, og en 2, 7x speedup til Transformer med blanding af eksperter (MoE) benchmark.

I henhold til frigivelsen "HGX-2-tjener som en 'byggesten for producenter til at skabe nogle af de mest avancerede systemer til HPC og AI." Derudover blev det bemærket, at apparatet "opnåede rekordhøj AI-træningshastigheder på 15.500 billeder pr. Sekund på ResNet-50-træningsbenchmark."

Lenovo, QCT, Supermicro og Wiwynn har forpligtet sig til at sende HGX-2-baserede produkter i år, mens Foxconn, Inventec, Quanta og Wistron arbejder på HGX-2-baserede systemer til cloud-datacentre, ifølge en rapport fra vores søster site ZDNet.

NVIDIA har ikke afsløret prisoplysninger for teknologien, skønt det er tilfældet for virksomhedens marked og anvendelsessager, det er beregnet til, kan være uden for rækkevidde for cryptocurrency minearbejdere.

De store takeaways for tech-ledere:
  • Den nye NVIDIA HGX-2 kan beregne ved 2 petaflops til tensor-operationer, har 512 GB RAM og har en halvbåndbredde på 2400 GB / s.
  • Denne speedup af NVIDIA HGX-2 aktiveres ved hjælp af NVLink, en protokol, der er udarbejdet af NVIDIA for at overvinde begrænsningerne i PCI Express.

Tekniske nyheder, du kan bruge nyhedsbrev

Vi leverer de nyeste teknologiske nyhedshistorier om virksomhederne, folket og de produkter, der revolutionerer planeten. Leveres dagligt

Tilmeld dig i dag

© Copyright 2021 | pepebotifarra.com