HPE bouwt supercomputer in Finland met AMD-hardware en 552 petaflops rekenkracht

Hewlett Packard Enterprise bouwt in Finland in opdracht van tien Europese landen een supercomputer. Het cluster genaamd LUMI krijgt een piekrekenkracht van 552 petaflops en is gebaseerd op AMD EPYC-processors en Instinct-gpu's die nog niet zijn aangekondigd.

LUMI, dat staat voor large unified modern infrastructure, wordt geplaatst bij het CSC-datacenter in Kajaani in Finland en moet halverwege volgend jaar operationeel zijn. De supercomputer heeft dan volgens de initiatiefnemers een rekenkracht van 375 petaflops en maximale piekprestaties van 552 petaflops. Tegen die tijd moet het systeem daarmee een positie in de top vijf van 's werelds snelste supercomputers innemen.

HPE heeft het contract voor de bouw in de wacht gesleept en krijgt daarvoor een budget van 144,5 miljoen euro. De supercomputer wordt voor de helft gefinancierd door de EuroHPC Joint Undertaking, een publiek-private samenwerking die de bouw van supercomputers in Europa stimuleert. Het LUMI Consortium betaalt de andere helft. Daarin zijn Finland, België, Tsjechië, Denemarken, Estland, IJsland, Noorwegen, Polen, Zweden en Zwitserland vertegenwoordigd.

LUMI-supercomputerLUMI-supercomputerLUMI-supercomputer

Systeemarchitectuur LUMI

LUMI wordt gemaakt op basis van HPE's Cray EX-ontwerp dat bestaat uit watergekoelde blades in clusters. HPE gaat AMD EPYC-processors en Instinct-gpu's van 'de volgende generatie' gebruiken. Vermoedelijk gaat het om processors op basis van Zen 3-cores. AMD heeft de desktopvarianten daarvan al aangekondigd, maar de EPYC-serverprocessors nog niet. Volgens de LUMI-website gaat het om processors met 64 cores en krijgen de LUMI-gpu's bij elkaar opgeteld een bandbreedte van 160TB/s.

In de supercomputer zit 7 petabyte aan 'ultrasnel' flashgeheugen, gecombineerd met meer dan 80 petabyte aan 'traditionele' opslag, dat het Lustre-bestandssysteem gebruikt. Verder heeft LUMI nog een data management service op basis van Ceph van 30 petabyte. De geaggregeerde i/o-bandbreedte bedraagt 2 terabyte per seconde.

De Europese supercomputer krijgt een onderdeel voor data-analyse met 32 terabyte aan geheugen en 64 gpu's. Deze data analytics partition wordt gebruikt voor visualisatie, het analyseren en pre- en post-processen van grote hoeveelheden data. De verschillende onderdelen van de supercomputer zijn verbonden met de Cray Slingshot-interconnect, die 200Gbit/s aan bandbreedte biedt. Het systeem neemt 150 vierkante meter aan oppervlakte in.

LUMI-supercomputerLUMI-supercomputerLUMI-supercomputerLUMI-supercomputer
LUMI-supercomputerLUMI-supercomputerLUMI-supercomputer

In lijn met het Digital Green Deal-beleid van de Europese Commissie gebruikt de supercomputer volledig CO₂-neutrale energie. De warmte die het systeem genereert, zal 20 procent van de stadsverwarming van het omliggende gebied leveren. Volgens de bouwers behoort LUMI tot 's werelds efficiëntste supercomputers.

De helft van de rekenkracht van LUMI komt ter beschikking te staan van EuroHPC JU. Dat samenwerkingsverband wil de supercomputer beschikbaar stellen aan Europese wetenschappers en bedrijven. Van de rekenkracht die EuroHPC JU ter beschikking heeft, wordt tot 20 procent beschikbaar gemaakt voor grote en kleine bedrijven. LUMI moet volgens de initiatiefnemers tussen 2021 en 2026 een van 's werelds 'bekendste wetenschappelijke instrumenten' worden.

Meer Europese 'pre-exascalesupercomputers'

Naast LUMI worden er nog twee Europese 'pre-exascalesupercomputers' gebouwd. EuroHPC JU werkt in Italië samen met Cineca aan Leonardo. Dat systeem wordt opgetuigd door Atos en krijgt een rekenkracht van 248 petaflops. Leonardo is gebaseerd op het Atos BullSequana XH2000-platform en bevat 'bijna' 14.000 Nvidia Ampere-gpu's. De Italiaanse supercomputer kost 120 miljoen euro en moet eind volgend jaar operationeel zijn.

Ook in het Barcelona Supercomputer Center in Spanje komt een nieuw cluster te staan. Die supercomputer heet MareNostrum 5, krijgt een piekrekenkracht van 200 petaflops en moet eind dit jaar in gebruik genomen worden. De kosten voor de bouw en het beheer voor vijf jaar bedragen 223 miljoen euro. De Europese Unie investeert 100 miljoen euro.

Exascalesupercomputers

Met de genoemde prestaties zou LUMI de momenteel snelste supercomputer ter wereld verslaan. De Top500-lijst wordt nu aangevoerd door de Japanse Fugaku-supercomputer met ARM-cpu's, die haalt maximaal 513 petaflops. Tegen de tijd dat LUMI operationeel is, zal het speelveld er echter anders uitzien. Er zijn diverse supercomputers in aanbouw die meer dan een exaflops aan rekenkracht bieden, ofwel meer dan duizend petaflops.

In de Verenigde Staten wordt gebouwd aan meerdere exascalesupercomputers, waaronder een systeem met Intel-hardware en een variant met AMD-hardware. Die systemen staan op de planning voor oplevering volgend jaar. In 2022 krijgt de VS een supercomputer met 2 exaflops aan rekenkracht, op basis van AMD Zen 4-cores.

Door Julian Huijbregts

Nieuwsredacteur

21-10-2020 • 13:49

64 Linkedin Whatsapp

Lees meer

Reacties (64)

64
60
37
2
0
18
Wijzig sortering
Waarom heeft Nederland hiervoor geen belangstelling? We komen niet voor in het rijtje van tien landen. Of zitten we bij die andere helft?
Nederland is een van de 32 deelnemende landen in de EuroHPC JU, een overzicht kun je hier vinden:

https://ec.europa.eu/digi...eurohpc-joint-undertaking
lijkt er wel op, de 10 landen lijken vooral landen die dubbel betalen (en misschien meer intresse/invloed willen)

Members
The EuroHPC Joint Undertaking is composed of public and private members:

Public members:

the European Union (represented by the Commission),
Member States and Associated Countries that have chosen to become members of the Joint Undertaking: Austria, Belgium, Bulgaria, Croatia, Cyprus, Czech Republic, Denmark, Estonia, Finland, France, Germany, Greece, Hungary, Iceland, Ireland, Italy, Latvia, Lithuania, Luxembourg, Montenegro, the Netherlands, North Macedonia, Norway, Poland, Portugal, Romania, Slovakia, Slovenia, Spain, Sweden, Switzerland, and Turkey.
Private members:

representatives from the two participating private partners, the European Technology Platform for High Performance Computing (ETP4HPC) and the Big Data Value (BDVA) associations.
Wij zetten grote windmolenparken op voor datacenters.
Belastinggeld gebruiken voor 't bouwen van windmolenparken, zodat bedrijven kunnen claimen dat ze groene stroom gebruiken. :+

Een datacenter kan in één keer de hele elektriciteitsopbrengst opslurpen van een gigantisch windmolenpark. 't is steeds een felle discussie rondom de belangen van bedrijven, het creëren van banen, en het benutten van publiekelijk geld
Met kolen-, olie- en gascentrales werd daar nooit ophef over gemaakt. Waarom is het nu opeens een probleem als DC's windmolenstroom gebruiken. Maakt toch niet uit hoe het verdeeld wordt? Uiteindelijk is het 1 groot elektriciteitsnet waar alles op uitkomt.
Mensen houden er van om te zeuren.

Er word sinds 2018 geen windmolen parken gebouwd met subsdie.
2018:
Eneco bouwt in windpark op kavels I en II van Hollandse Kust (zuid) het Eerste subsidieloze Windmolen park.
2019:
Vattemfal bouwt in kavel III en IV van windenergiegebied Hollandse Kust (zuid) het tweede subsidieloze Windmolen park.
2020
Shell & Eneco bouwt in gebied Hollandse Kust (Noord) het derde subsidieloze Windmolen Park.
Klopt niet.

Vattenfall krijgt subsidie van de NL overheid op duurzaam opgewekte stroom. Het bouwen van een windmolenpark is dus een investering die subsidie oplevert, naast dat ze de stroom gewoon kunnen verkopen.
Dat kun je zelfs lezen op de site van Vattenfall zelf: https://group.vattenfall....or-windpark-wieringermeer
Het probleem is dat de windmolens met subsidie van de overheid zijn gemaakt door een Zweeds bedrijf die de stroom daarna verkoopt aan een Amerikaans bedrijf en het volk er daarna vrijwel niks van terug ziet(gezien ze toch bijna geen belasting betalen)
De subsidie wordt steeds minder. Er zijn zelfs al parken in de planning geheel zonder subsidie.

En dacht je dat die kolencentrales volledig zonder subsidie gebouwd zijn? En dat d stroom voor de echte grootverbruikers niet gesubsidieerd is?
Omdat legitieme groene energie zo voor burgers onbetaalbaar wordt, en die dan de rekening krijgen omdat zij 'het meeste vervuilen', terwijl er dikke subsidie komt op projecten voor grote bedrijven. Extra vervelend als dat ook nog eens multinationals zijn die vervolgens ook niet netjes alle belastingen betalen om nog weer wat terug te pompen in de lokale economie. En het aantal banen dat daardoor gecreëerd wordt staat ook steeds minder vaak in verhouding tot wat het verder kost.
Het gaat specifiek om de subsidie die gegeven wordt.

Jouw belastinggeld wordt gebruikt voor het financieren van windmolenparken voor het vergroenen van het elektriciteitsnet, niet voor de reclamecampagne van een bedrijf.
Niet alleen zodat bedrijven kunnen claimen dat ze duurzaam zijn, eerder zodat Nederland zijn klimaatdoelstellingen haalt. Want als je in het land twee keer zoveel energie gaat verbruiken, en je verplicht die bedrijven dat te doen met groene stroom, hoeven wij ons eigen energieverbruik niet meer te verduurzamen om toch aan de klimaatdoelstellingen te voldoen. Snap je hem? Gewoon een boekhoudkundige truc.
Belastinggeld gebruiken voor 't bouwen van windmolenparken, zodat bedrijven kunnen claimen dat ze groene stroom gebruiken. :+
Yep, mooi he! Groene stroom is een mooi iets om als overheid in te investeren :)
Ja hoeveel banen. 150 (waar van waarschijnlijk groot deel expats).
Die bedrijven stoppen het in een BV. die geen winst maakt.
Ondertussen had een kleine stad bijna "gratis" groene energie gehad.
Want de overheid heeft honderden miljoenen meebetaald.
In hoeveel jaar zien we dat weer terug, als de winsten in het buitenland geïnd worden.
Ondertussen wordt de gehele horizon vervuild met die dingen.
En niemand die er lokaal wat van terug ziet.

[Reactie gewijzigd door Aerophobia1 op 21 oktober 2020 20:21]

Ja, pre-exascale parken! Kun je nog iets meer energieslurpends bedenken dan datacenters voor de rest van de EU? Nederland als "grondstoffen"-leverancier. De gebruikers van de data voegen veel waarde toe, middels contracten met buitenlandse bedrijven. Het is triest.
Mogelijk heeft het koudere klimaat in Finland een voorkeur. Daarnaast hebben ze een goede digitale infrastructuur.
Finland heeft ook waterkrachtcentrales. Er zijn meer datacentres daar die werken op electriciteit die daarvandaan komt.
Daar kun je dan waarschijnlijk behoorlijk snel een civilization turn mee uitrekenen ;)

Maar gekheid daar gelaten dit zijn wel toffe en erg belangrijke projecten, ben benieuwd wat voor berekingen op dit soort monster machines gedaan worden.
But can it run Crysis?! Meme
Slechte meme.
Gewoon Doom vervangen door crysis is weinig creatief.
8)7
De 2 meme’s gaan over iets totaal verschillends. “It runs doom” gaat over de sport om Doom classic op ieder willekeurig apparaat te laten draaien. “But can it run Crysis?” over of de machine krachtig genoeg is om Crysis in volle glorie te kunnen spelen. Dat vereiste namelijk een behoorlijk krachtige machine.
"But can it run crysis?" past wel beter bij deze news post 8-) High end hardware vs low end hardware.

https://knowyourmeme.com/memes/but-can-it-run-crysis

https://knowyourmeme.com/memes/it-runs-doom

Beide al heel oude memes...

[Reactie gewijzigd door PoweRoy op 21 oktober 2020 22:42]

Anoniem: 1463186
@bosbeetle21 oktober 2020 14:09
Het zal inderdaad niet langer dan 10 seconden moeten duren ;)
Maar hij kan waarschijnlijk nog steeds niet Stellaris op fatsoenlijke snelheid spelen :+
Die kosten vallen eigenlijk wel mee, in het EU waar met honderden miljarden (EU steunfonds) en ECB (7000 miljard) in het rondvliegen... Misschien iets voor het Wopke/Wiebes fonds. En echte Nederlandse supercomputer.

[Reactie gewijzigd door BramV op 21 oktober 2020 18:36]

Die echt grote bedragen draaien voornamelijk rondjes in de financiële markten. Dat is geen echt geld in de zin dat het aan materialen of uurloon besteed wordt. Slechts vijf tot tien procent komt in de economie.
Als ik lees hoeveel GPU's en CPU's deze supercomputers opslorpen; vind je het gek dat er tekorten ontstaan......
Ze gaan die voor dit project heus niet in de winkel halen of op bol.com bestellen hoor... Dat order goot rechtstreeks naar Intel.
Denk eerder naar AMD in dit geval, maar goed.

Ook de exemplaren die rechtstreeks worden ingekocht moeten worden gemaakt en leggen beslag op de productiecapaciteit is wat ik bedoelde te zeggen...
En hoeveel CPU's/ GPU's rollen er per dag uit de fabriek en hoeveel heeft deze supercomputer er nodig?
Mooi dat AMD ook op dit belangrijke gebiedt weer serieus mee speelt.
In de Verenigde Staten wordt gebouwd aan meerdere exascalesupercomputers, waaronder een systeem met Intel-hardware en een variant met AMD-hardware. Die systemen staan op de planning voor oplevering volgend jaar
Correctie: De Intel-hardware, oftewel Aurora is voor onbepaalde tijd uitgesteld omdat Intel niet de afspraken kan nakomen. Er wordt gesproken dat men nu kijkt naar intel/AMD of Intel/Nvidia combinatie mogelijkheden. Dus niet volledig Intel-hardware.

Verder breekt nu erg leuke exascale tijdperk aan met vele verschillende techniek oplossing! :9
.Geek: Lumi betekent sneeuw (in het Ests en Fins)
AMD doet goede zaken op alle gebieden zo lijkt het. Fascinerend dat een grote speler als Intel momenteel een soort tweederangs lijkt te zijn. Ja, er worden nog supercomputers gebouwd met Intel CPU's maar die waren blijkbaar al gestart voordat het succes van AMD duidelijk werd.
AMD is nog lange niet klaar hoor. Er staan nog dingen gepland voor dit jaar en de komende jaren.
Later ( eind 2021 begin 2022, kan even goed 2023 worden) komt Zen 4 uit, zal op een nieuwe socket komen waar ze DDR5 zullen gaan gebruiken, en zal nog sneller zijn dan de opkomende Zen3 5000 series. Uiteraard wil AMD eerst er voor zorgen dat Zen3 optimaal werkt en dat de drivers compatible zijn met de "iets oudere moederborden" en dat de software iets beter en gebruiksvriendelijker word voor gebruikers en overclockers. Gerucht zegt dat je 6.0 Ghz kunt halen uit een 5950 iets wat LinusTechTips had gezegd in zijn WAN -show van vorige week. Afwachten wat dat betreft... AMD gaat Intel op andere gebieden nog voorbij (proberen) steken maar het is grotendeels afwachten en vooral niet de vroeg juichen. Intel dacht een paar key-mensen over te nemen (waaronder Raja Koduri en Ali Ibrahim) van AMD, maar helaas werkte dit meer nadelig voor Intel dan voor AMD. :X

Al verschiet AMD wel (AMD zal het niet toegeven) van de kracht en performance van een RTX3080 en de RTX3090 iets wat AMD zal proberen op te lossen met hun Radeon 6000 kaarten op RDNA2. RDNA3 zal totaal vernieuwender zijn, klaar voor 8K gaming 60fps, maar daar krijg ik niet meer info over. ;(

EDIT: Ik zie net dat Paul's Hardware al een paar dingen verteld ook over de 5950 OC tot 6 Ghz ( https://www.youtube.com/watch?v=GgD60VBvAtA )

[Reactie gewijzigd door MISTERAMD op 21 oktober 2020 15:33]

Intel is dan ook gestopt met innoveren omdat ze de x86 markt zo goed als alleen in handen hadden. Laten we van geluk spreken dat AMD weer helemaal mee is. Intel mag nu bonen fretten en na al hun anti-consumer praktijken, kan ik moeilijk zeggen dat ik medelijden heb met hen. Hopelijk hebben ze nu het licht gezien.
Intel gestopt met innoveren? Daar lijkt het niet echt op hoor, intel heeft palm cove, sunny cove, willow cove en straks golden cove cores ontworpen de afgelopen jaren na de sky lake generatie. Het grote probleem is intel's produktiefaciliteit die grote moeite heeft met het 10nm procede. Als intel die problemen niet had gehad had intel, en de markt, er heel anders voorgestaan. Maar zoals ze zeggen 'de één z'n dood is de ander z'n brood ' en amd heeft daar mooi van profiteerd van intel's produktieproblemen rond het 10nm proces met hun zen architecturen.
wat zou er dan volgens jou heel anders uitgezien hebben?

ja ze hebben problemen met het 10nm procede ja, maar het is niet alsof dat dat de oorzaak is waardoor AMD hun heeft kunnen passeren qua prestaties.
ze hebben de 14nm++++++++ helemaal "finetuned to the max" zullen we maar zeggen, er valt qua performance gewoon bijna niks meer extra uit te halen, deze architectuur zit op zijn max......ze worden ingehaald omdat Intel jarenlang steeds kleine optimalisaties heeft toegevoegd ipv met een flinke upgrade bezig te zijn.

mogelijk dat de release volgend jaar, die nog steeds 14nm zal zijn, maar gebaseerd op de Tigerlake, een goeie blijkt te zijn, die ze nog flink kunnen tunen en performance kunnen upscalen, maar Skylake en de daaropvolgende iteraties zitten wel op het eind van hun Latijn wat betreft nog flinke prestatie verbeteringen als je het mij vraagt.
Het mag ondertussen toch wel duidelijk zijn dat intel's problemen met 10nm hun hele planningen overhoop heeft gehaald.

De hele markt zou er anders hebben uitgezien als intel geen problemen had met hun 10nm. Intel had 10nm al op de planning voor 2016 en 7nm voor 2018. Probeer zelf maar voor te stellen wat dat voor intel had kunnen betekenen als die plannen gehaald zouden zijn. Of desnoods met wat maanden uitstel.

Dan hebben we nog de nieuwe cove generatie core ontwerpen.. die helaas allemaal op de plank bleven leggen omdat intel problemen had met hun 10nm proces.
Als intel deze generatie cores eerder had kunnen uitbrengen als hun 10nm netjes had gewerkt dan had amd met hun zen, zen+ en zen2 een hele andere vorm van concurrentie gehad en had de markt er heel anders uitgezien.
De vraag had dan geweest of amd wel zo goed op intel op had kunnen boxen zoals ze nu hebben kunnen doen, mede dankzij intel's problemen. Pas met zen2 kwam amd echt op gelijk speelveld met intel cpu's. Op de server markt heeft amd ook goed uit kunnen pakken, maar wie weet hoe de xeon lijn eruit had gezien op 10nm en de nieuwe core ontwerpen? Had amd dan nog steeds de voordelen gehad die ze nu hebben gehad tegen de xeon's gebaseerd op sky-lake? Intel heeft niet kunnen innoveren en ook niet kunnen inspelen op amd mede voor hun problemen met 10nm. En die problemen spelen nog steeds en zal door de problemen met 7nm nog langer aanhouden ook.

En misschien kan je je wel of niet vinden in mijn argumenten of misschien in sommige wel of niet, maar hopelijk begrijp je mijn gedachten..
Ik snap zeker wel dat het niet geholpen heeft dat Intel problemen had met 10nm, maar als het echt zo belangrijk voor ze was om die nieuwe cores eruit te krijgen ipv door te blijven borduren op de oude architectuur, waarom zijn ze dan niet zoals ze gaan doen met de Comet Lake, de Cove cores gaan aanpassen zodat ze op 14nm geproduceerd konden worden?

Waarschijnlijk omdat, al kwamen ze een stuk dichterbij, AMD nog niet een echte bedreiging was en mensen toch gewoon Intel zouden blijven kopen en in de tussentijd zouden ze dan proberen het procede op de rit te krijgen.

Misschien dat Intel zich verkeken heeft op hoe snel AMD uptospeed zou raken met de Zen architectuur, of misschien vertrouwen ze erop dat mensen die Intel hebben toch Intel blijven kopen vanwege naamsbekendheid of wat dan ook, we zullen het nooit weten.

het enige waar we het mee zullen kunnen vergelijken is met wat Intel de komende jaren met die nieuwe cores gaat doen, als ze 10nm of 7nm goed op de rit krijgen, dan zien we wat er een x aantal jaren eerder had kunnen zijn, maar zeer waarschijnlijk niet was geweest, want als AMD nog steeds met FX-8350 achtige cpus had gekomen en max 6 cores, was intel echt niet uit zichzelf naar 8 cores gegaan op het consumenten platform, dat was dan nog steeds lekker voor het veel duurdere HEDT platform gereserveerd geweest en had "de gewone consument" het mogen blijven doen met 4 cores.

[Reactie gewijzigd door Pim0377 op 21 oktober 2020 16:17]

Pas geleden was er een artikel, hier op t.net of bij hwi, over het ontslaan van een chief huppelepup van de produktieafdeling bij intel, om het maar even zo te omschrijven. Toen kwam er ook naarbuiten dat er een niet zo fijne cultuur heerste bij intel op die afdeling, een soort van militaire cultuur, mensen ontslaan omdat het allemaal niet lukte, nieuwe mensen aannemen, allemaal misstanden om het maar zo te omschrijven. Dat zal wel aan de basis hebben gestaan waarom 10nm zo lang, of misschien beter gezegd langer, duurde en misschien ook waarom intel niet eerder een backport van een nieuwe cove core ontwerp heeft gedaan.
Maar meer weet ik er ook niet echt over. :)

En comet lake was gewoon een 14nm+++ sky-lake versie, geen sunny cove backport.
https://en.wikipedia.org/wiki/Comet_Lake_(microprocessor)
Rocket lake wordt een 14nm backport van vermoedelijk willow cove cores. Maar omdat 10nm en 14nm niet zomaar uitwisselbaar zijn zijn er wel aanpassingen aan deze rocket lake willow cove core, waarschijnlijk met de naam cypress cove voor de cores. De prestatie winst zal waarschnijlijk ook geringer zijn door deze aanpassingen, misschien maar iets van 10% ipc verbetering vergeleken met sky-lake.
De buren van hwi hebben erover geschreven:
https://nl.hardware.info/...gende-generatie-core-cpus

Intel heeft zeker een aantal jaartje op hun naam kunnen blijven teren en hun 14nm kunnen blijven slijten. Zeker in de servermarkt. Maar het valt niet te ontkennen dat amd met zen, maar zeker met zen2 grote stappen heeft gemaakt, zeker ook in de servermarkt en de xeon's voorbij zijn gegaan op allerlei fronten, en daar nu nogeens dikjes overheen gaat met hun zen3 cpu's voor desktop en servers. Geen enkele reden om nog voor intel te kiezen.
De volgende release https://en.wikipedia.org/wiki/Sapphire_Rapids is gewoon op 10 nm en heeft wel degelijk grote optimalisaties voor de server markt (crypto en AI performance). De belangrijkste reden dat Intel in de enterprise markt nog voeten aan de grond heeft is door de betere software stack met Intel MKL, AMD heeft daar nog genoeg terrein te winnen.
(crypto en AI performance)
AI Performance word bijna niet op de Processor gedaan. Daar zijn zelfs de snelste EPYCs. (64 cores 128 threads) gewoon niet snel genoeg voor. AI en Machine/Deep learning word op GPUs en Accelerators gedaan zoals Nvidia Tesla en AMD Instinct kaarten.

Dus dan mag Intel wel stappen hebben gezet of beweren "optimalisaties" te hebben gedaan. Het maakt weinig uit als alle AI taken op de GPU of Accelerators word gedaan.

[Reactie gewijzigd door Snowfall op 22 oktober 2020 01:28]

Wat jij AI performance noemt is alleen maar het trainen van modellen. Het andere deel waar wel vaak CPUs voor worden gebruikt is inference (het gebruiken van het model op nieuwe data). Daar worden veel stappen in gezet door beide Intel en AMD https://www.extremetech.c...oper-Lake-Performance.jpg https://www.nextplatform....-matters-in-the-ai-stack/. Dus zeggen dat bedrijven daar niet in geinteresseerd zijn is onzin. Grote bedrijven zitten er echt niet op te wachten elke server die ze hebben uit te rusten met GPU die het hele systeem 4x zo duur maakt.
Het andere deel waar wel vaak CPUs voor worden gebruikt is inference (het gebruiken van het model op nieuwe data)
Nee hoor. Dit word ook gewoon grotendeels gewoon op GPUs en speciale accelerator kaarten gedaan. Juist voor Inference worden kaarten zoals de Radeon Instinct en Tesla kaarten gemaakt omdat deze gewoon een stuk sneller zijn dan CPUs. En ook stuk consistenter.

Hier een artikel waar MS op het Azure platform dus t verschil laat zien met Inference op een CPU en een GPU:
https://azure.microsoft.c...-of-deep-learning-models/

https://www.nvidia.com/en...tions/inference-platform/
https://www.amd.com/en/graphics/servers-radeon-instinct-mi
Dus zeggen dat bedrijven daar niet in geinteresseerd zijn is onzin.
Heb ik nergens gezegd.
Grote bedrijven zitten er echt niet op te wachten elke server die ze hebben uit te rusten met GPU die het hele systeem 4x zo duur maakt.
Grote bedrijven die zich met Machine learning en AI bezig houden hebben speciale servers die speciaal voor een AI workload is ingericht. Die gaan geen Inference draaien op een CPU en vooral niet bij grotere modellen. Duurt allemaal veel te lang.
Nee hoor. Dit word ook gewoon grotendeels gewoon op GPUs en speciale accelerator kaarten gedaan. Juist voor Inference worden kaarten zoals de Radeon Instinct en Tesla kaarten gemaakt omdat deze gewoon een stuk sneller zijn dan CPUs. En ook stuk consistenter.
Dat hangt helemaal af wat voor model je precies draait, zoals in jou links gezegd wordt:
It is important to note that, for standard machine learning models where number of parameters are not as high as deep learning models, CPUs should still be considered as more effective and cost efficient.
https://azure.microsoft.c...-of-deep-learning-models/
Grote bedrijven die zich met Machine learning en AI bezig houden hebben speciale servers die speciaal voor een AI workload is ingericht. Die gaan geen Inference draaien op een CPU en vooral niet bij grotere modellen. Duurt allemaal veel te lang.
De trend die je nu ziet is dat alle bedrijven op één of andere manier AI/ML proberen toe te passen. Dit zijn dikwels geen mega modellen waarvoor je in de cloud een heel cluster huurt maar simpele patroon herkennings modellen in database queries om een voorbeeld te noemen. Voor dit soort toepassingen zijn ontwikkelingen in CPU architectuur heel interessant en maken dus zeker uit.

[Reactie gewijzigd door nitrane op 22 oktober 2020 15:29]

Ja, gestopt met innoveren.

Sinds sandy bridge is al wat ze hebben gedaan is minimale verbeteringen uitgebracht, om te verwachten dat iedereen weer een nieuwe cpu en mobo kocht (want hoezo cross generatie compatibiliteit? Terwijl het prima mogelijk was). De cores werden nauwelijks sneller. Woop woop, 10% in specifieke gevallen en het aantal cores bleef hetzelfde.

En ik snap dat je aan winstmaximalisatie doet als marktleider. Maar dit was niet gewone winstmaximalisatie, dit was keihard uitmelken.
Dat het hun een beetje tegen zat met 10nm verandert daar niks aan.
Het is niet voor niks dat ik nog op Ivy bridge zit en nu pas nodig vind misschien te upgraden. Hiervoor was het een hoop geld voor nauwelijks iets winnen.
Intel is nochtans gedurende 10 jaar op maximaal 4 cores (voor consumenten) blijven hangen terwijl ze wel de mogelijkheid hadden CPU's met meer cores te produceren. Ondertussen vroegen ze wel de hoofdprijs voor die processoren met jaarlijkse rebrands en prijsverhogingen en met prestaties die telkens maar enkele procenten hoger lagen. Want AMD bakt er niets van en iedereen koopt blind Intel.

Dan komt AMD met Ryzen en plots kan Intel wel meer dan 4 core CPU's verkopen. Ondertussen probeert Intel reviewers wel steekpenningen toe te dienen om enkel benchmarks te gebruiken waar zij sterk in zijn (en dat is eigenlijk maar het topje van de ijsberg, heel de marketingafdeling van Intel is gebouwd op anti-consumer praktijken).

Doordat ze gestopt waren met innoveren lukt het hen nu niet betere single core prestaties te produceren zonder extreme boost-snelheden die zorgen dat je geen centrale verwarming meer nodig hebt. Het ziet er niet mooi uit voor Intel, AMD heeft een product waarop verdergebouwd kan worden terwijl Intel nog vast zit op 10 jaar oude technologie. En dan komt ARM ook nog eens om de hoek piepen...

[Reactie gewijzigd door FreVDP op 21 oktober 2020 14:57]

Want AMD bakt er niets van en iedereen koopt blind Intel.
Dat is ook vooral marketing.
Iedereen zag jarenlang de benchmarks, waarin de snelste CPU van Intel, van € 2.000 rondjes draaide om de snelste CPU van AMD, van € 1.500 (soms met wat meer, soms met wat minder moeite). Dat is meer dan de meeste consumenten kunnen betalen, maar met die benchmark in gedachten kopen ze een PC met een Intel CPU van € 400 - € 500, terwijl AMD in diezelfde prijsrange CPU's heeft die rondjes draaiden rond die CPU van Intel.
Op pure kracht, waarbij de prijs niet belangrijk was, heeft Intel het heel lang gewonnen, maar voor een bepaald budget had AMD vrijwel altijd de betere CPU.
Anoniem: 392841
@Rudie_V21 oktober 2020 16:56
Die stilstand is uiteindelijk wel karma geweest voor Intel, gezien de dingen die ze tussen 2005 en 2010 zo ongeveer geflikt hebben. In elke andere markt zou een bedrijf wel wat meer op het bordje hebben gekregen dan slechts een boete, maar bij de tech sector lijken de toezichthouders nog niet helemaal te begrijpen hoe ingrijpend zulk vals spel is.
Meer geld in een project pompen betekent niet dat het succesvol wordt.
Meer geld in R&D, betekent een grotere R&D organisatie. Een grotere R&D organisatie betekent over het algemeen een tragere R&D organisatie. Meer managers in meer lagen die overal iets van moeten vinden en vinkjes moeten zetten.
Bron?

Het is lastig concrete vergelijkingen te vinden, maar als ik deze verkoopcijfers van een retailer moet geloven, dan slaat je opmerking echt helemaal nergens op. Uiteraard is dit 1 bron, maar het geeft wel een stukje inzicht in de markt. Intel doet het mogelijk beter op gebied van server CPU's, maar om te zeggen dat AMD een dwerg is, is compleet ongefundeerd.
Fan van AMD, maar K-aroq heeft gewoon gelijk. De consumentenmarkt is leuk en niet onbelangrijk, maar de omvang valt in het niet bij de zakelijke markt. En daar is Intel nog steeds heer en meester.
Je ziet het ook terug in je aangehaalde bron. Daar komt geen enkele enterprise georiënteerde CPU in voor.
Projecten zoals die in het artikel brengen daar langzaam verandering in, maar voorlopig zit Intel nog wel safe. Maar goed ook, want als AMD in de positie van Intel van een paar jaar geleden zou komen, zouden ze hetzelfde doen. Aandeelhouders zijn niet geïnteresseerd in ontwikkeling, alleen kortetermijnwinst. En die wordt lager als je 'onnodig' veel in R&D stopt.
Daar gaat mijn 3080 :-(.
But can it run crysis?

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee