Google annoncerer Cloud TPU v2 Beta tilgængelighed for Google Cloud Platform

Denne uge annoncerede Google Cloud TPU beta tilgængelighed på Google Cloud Platform (GCP), tilgængelig via deres Compute Engine-infrastruktur-som-en-service. Ved hjælp af den anden generation af Googles tensor-behandlingsenheder (TPU'er) forbliver standard Cloud TPU-konfigurationen fire brugerdefinerede ASIC'er og 64 GB HBM2 på et enkelt kort, beregnet til at fremskynde TensorFlow-baserede maskinlæringsarbejdsbelastninger. Med en leaset Google Compute Engine VM, Cloud TPU-ressourcer kan bruges sammen med de nuværende Google Cloud Platform CPU- og GPU-tilbud.

Fornavn afsløret på Google I / O 2016, den originale TPU var en PCIe-baseret accelerator designet til inferensarbejdsbelastninger, og for det meste blev TPUv1 brugt internt. Dette sidste sommerGoogle annoncerede den indledende og træningsorienterede efterfølger, TPUv2, og skitserede planer om at integrere den i deres skytjenester. Begge blev detaljeret senere kl Hot Chips 2017 tekniske præsentationer.

Under hætten, TPUv2 indeholder et antal ændringer. Kort genoptagelse, den anden generation af TPU ASIC kommer med en dobbelt 'kernekonfiguration', der hver har en skalar / vektorenhed og 128 × 128 blandet multiplikationsenhed, der er i stand til 32-bit flydende punktoperationer, i modsætning til TPUv1's single core 256 × 256 MXU og 8-bit heltalefunktion. TPUv2 forbedrer også flaskehalse i hukommelsesbåndbredden i sin forgænger ved at bruge HBM i stedet for DDR3, med 8GB HBM2 tilsluttet hver kerne i alt 16 GB pr. Chip.

Fire af disse ASIC'er danner et enkelt Cloud TPU-kort, i sidste ende med Google, der citerer op til 180 TFLOPS af uspecificeret beregningsydelse. Som annonceret tidligere målretter Google sig mod en 'TPU pod' -opsætning som et af slutmålene, hvor 64 Cloud TPU'er kombineres i et dedikeret netværk med mange racks. Google sigter mod at tilbyde fulde TPU-pods på GCP senere på året.

Rent praktisk tages denne kapacitet til rådighed for udviklere, der er på udkig efter TPU-egnet maskinlæringsydelse til bestemte TensorFlow-arbejdsbelastninger, med fordel ved Googles eksisterende cloud-infrastruktur-som-en-service-tilbud. I betragtning af at det er en beta, har Google et antal dokumenter og værktøjer op på deres side. På mange måder findes de nuværende TPU-kapaciteter som en udviklingsrørrenser af slags til de kommende TPU-pods, hvor Google henviser til det samme i deres meddelelse. En række kapaciteter er endnu ikke udskåret for TPU'er: for eksempel understøttes modelparallelisme endnu ikke, ikke alle indbyggede TensorFlow-ops er tilgængelige, og der findes specifikke begrænsninger for uddannelse af forstærkende indlæringsmodeller, tilbagevendende neurale netværk (RNN) eller generative adversarial netværk (GAN).

Mens udvalgte partnere har haft adgang til Cloud TPU'er til produktionsbrug, åbner dagens meddelelse tilgængeligheden for generelle GCP-kunder. Googles Cloud TPU'er er tilgængelig i dag som indkøbbar computertid i USA fra en Computermotor, der leveres VM, med en $ 6.50 pr. TPU pr. time opkrævet i trin på et sekund. Interesserede kan indsende en beta-kvoteanmodning.

Oprindelig artikel

Spred kærligheden

Giv en kommentar

Din e-mail adresse vil ikke blive offentliggjort. Krævede felter er markeret *