Gerucht: AMD Radeon RX 6900XT heeft gpu met 80 cu's en is 'beperkt beschikbaar'

De vermeende specificaties van vijf AMD Radeon RX 6000-videokaarten zijn gepubliceerd. Het topmodel zou de RX 6900XT zijn, met een gpu die 80 compute units heeft. In eerste instantie zou alleen AMD die kaart maken. De RX 6800XT krijgt naar verluidt 72 cu's.

Volgens de informatie die is gepubliceerd door VideoCardz, maakt AMD vijf verschillende RX 6000-videokaarten op basis van twee gpu's. De Navi 21-gpu is de grootste chip en die komt naar de drie snelste kaarten; de RX 6900XT, 6800XT en 6800. Bij het topmodel zijn 80 compute units ingeschakeld, bij de modellen daaronder zijn dat respectievelijk 72 en 64 cu's.

Voor de RX 6700XT en RX 6700 zou AMD de kleinere Navi 22-gpu gebruiken. In het XT-model zou die 40 compute units bevatten, de configuratie van de reguliere RX 6700 is nog niet bekend. Volgens geruchtensite VideoCardz volgt de introductie van de RX 6700-modellen pas later. Eerst komen de modellen op basis van Navi 21 uit.

De AMD Radeon RX 6900XT wordt het vlaggenschip van de RX 6000-serie en volgens bronnen van VideoCardz zal die kaart in eerste instantie alleen door AMD geleverd worden in 'beperkte hoeveelheden'. Partners zoals ASUS, MSI en Gigabyte zouden vooralsnog dus geen kaarten op basis van de Navi 21 XTX-gpu maken. Vermoedelijk heeft dat te maken met de beschikbaarheid van die gpu.

RX 6900XT RX 6800XT RX 6800 RX 6700XT RX 6700
Gpu Navi 21 XTX Navi 21 XT Navi 21 XL Navi 22 Navi 22
Compute units 80 72 64 40 Nnb
Streamprocessors 5120 4608 4096 2560 Nnb
Gameclock 2040MHz 2015MHz 1815MHz Nnb Nnb
Boostclock 2330MHz 2250MHz 2105MHz Nnb Nnb
Vram 16GB GDDR6 16GB GDDR6 16GB GDDR6 12GB GDDR6 Nnb
Geheugenbus 256bit 256bit 256bit 192bit 192bit
Geheugensnelheid 16Gbit/s 16Gbit/s 16Gbit/s Nnb Nnb
Introductiedatum 28 oktober 28 oktober 28 oktober Nnb Nnb

Specificaties Radeon RX 6000-serie op basis van geruchten

VideoCardz noemt ook de kloksnelheden van de nieuwe RX 6000-kaarten. Het topmodel zou een boostclock tot 2,3GHz halen. Van de RDNA 2-architectuur is bekend dat die hoger klokt dan de huidige RDNA-kaarten. In de Sony PlayStation 5 zit een gpu op basis van de RDNA 2-architectuur die draait op 2,23GHz. De huidige RX 5700XT heeft een boostsnelheid van 1,9GHz.

De genoemde kloksnelheden zijn de referentiesnelheden die AMD zou opgeven. Mogelijk komen partnerfabrikanten met nog hoger geklokte RX 6000-videokaarten. Volgens VideoCardz zullen partners ergens in november hun custom-kaarten uitbrengen, maar eerst zouden kaarten op basis van AMD's referentieontwerp uitkomen.

Wat opvalt aan de RX 6000-kaarten is dat ze een relatief lage geheugenbandbreedte hebben door het gebruik van een 256bits-geheugenbus. De bandbreedte van de Navi 21-kaarten zou uitkomen op 512GB/s. High-end-kaarten van Nvidia hebben een bredere geheugenbus en sneller Gddr6x-geheugen. De RTX 3080 haalt bijvoorbeeld 760GB/s met zijn 320bits-geheugenbus. Volgens geruchten heeft AMD speciale cache ingebouwd in de Big Navi-gpu, om daarvoor te compenseren. VideoCardz zegt daarover nog informatie te verzamelen.

Eerder deze maand toonde AMD al een teaser van de prestaties van een RX 6000-videokaart. Uit de getoonde gegevens was in te schatten dat die kaart vermoedelijk iets langzamer is dan de RTX 3080. Het is niet bekend welke kaart AMD precies getoond heeft.

AMD presenteert zijn RX 6000-videokaarten op woensdag 28 oktober om 18:00 uur Nederlandse tijd. Het zou dan gaan om de introductie van de Radeon RX 6900XT, 6800XT en 6800. De RX 6700-modellen worden later verwacht, maar wanneer is nog niet bekend.

Teaser van RX 6000-prestaties. Niet bekend is om welke uitvoering het gaat.

Door Julian Huijbregts

Nieuwsredacteur

21-10-2020 • 10:09

123 Linkedin Whatsapp

Reacties (123)

123
121
46
12
0
62
Wijzig sortering
Ik vind die Navi 21 XL wel heel erg ver cut down. 20% staat uit wat wel erg veel is. In het begin heb je misschien wel veel dies waar zo veel uit staat maar later minder als de yields beter worden.
In het verleden zag je dit soort parts die extra cut down waren pas later bij AMD. Als ze al wat stock hadden opgebouwd.

En vooral als de 80CU versie zo beperkt leverbaar wordt. Al zouden ze die top die's natuurlijk ook kunnen gebruiken voor de FirePro kaarten en zo veel mogelijk 72CU kaarten naar de gaming markt op hogere clocks.

Daarnaast vind ik het verschil tussen de laagste Navi 21 en de top Navi 22 wel erg groot. Daar zit een flink gat of de Navi 22 die moet echt veel hoger kunnen clocken om dat gat op te kunnen vangen.

Er zijn ook geruchten over Navi 22 welke 64 CU's zou hebben met een 10-12 GB bus.

Ik kan mij ook voorstellen dat Navi 22 wellicht de Navi 21XL uiteindelijk gaat vervangen. En dat de 6700XT dat gat met 6800XT dan moet opvullen. Als ze die goed prijzen en de 6800 relatief duurder is kan dat prima.

Volgens mij is zo'n beetje alles wel genoemd en zou ik het niet raar vinden als we volgende week vanuit AMD toch weer iets heel anders gaan horen qua CU aantallen. Ik ben heel benieuwd wat het uiteindelijk geworden is.
Ik vind die Navi 21 XL wel heel erg ver cut down. 20% staat uit wat wel erg veel is.
3080 heeft 64 SM's tov 82 SM's van 3090, dat is 22% dat uit staat. Blijkbaar doet Nvidia dus hetzelfde.
Zal best maar nVidia gebruikt Samsung 8N en niet TSMC 7N of 7N+
Die 22% uit zetten is meer noodzaak zoals ze dat ook hadden bij de GTX480 AKA Fermi.
Dat is iets wat je eigenlijk niet wil wil.

AMD heeft in het verleden ook wel stukken uit gezet maar dat was eerder 10-15% en dan een half jaar later soms een lagere SKU waar wat meer uit stond.
In het verleden had je bv de HD5870 met de volle 1600 cores de HD5850 met 1440 cores en de HD5830 met slechts 1120 cores. Maar die kwam een half jaar later pas uit nadat ze wat voorraad opgebouwd hadden.

Dus als ze meteen met die XL komen en dat een Cutdown is van de 80CU chip ben ik wel benieuwd hoeveel van die chips ze in verhouding met de 80CU en 72CU hebben. Zijn die yields dan zo matig? schakelen ze meer uit om de goedkopere CU's te leveren? (maar dat is dus iets wat je niet wilt want dat kost je geld).

Nja we gaan het zien. Het kan prima kloppen maar ik vind het niet ideaal.
Nja we gaan het zien. Het kan prima kloppen maar ik vind het niet ideaal.
Dat mag je natuurlijk vinden. Ik vind het juist wel ideaal. Niet iedereen hoeft het topmodel. Dat er minder snelle modellen op de markt komt is juist goed. Sterker nog. De meerderheid van verkochte GPU's zijn instap- tot mid-range kaarten. Die high-end kaarten worden relatief weinig verkocht maar krijgen om een of andere reden toch altijd de meeste aandacht. Een beetje het geilen op sportwagens verhaal terwijl de gemiddelde mens het voornamelijk met een prijsbewuste auto doet.

De kaarten in het midden segment zijn veel interessanter. Nvidia heeft die nog niet op de markt gebracht. Als AMD dat op tijd kan doen dan kunnen ze wellicht een deel van de markt van Nvidia afsnoepen. Maar juist van die kaarten weten we nog heel weinig. Het zijn weer interessante tijden op hardware gebied. Nvidia 3000-serie GPU's, AMD 5000-serie CPU's en AMD 6000-serie GPU's, PCI-e 4 SSD's die eindelijk op snelheid komen. Er is weer veel om naar uit te kijken :)
Ja voor de consument wel voor een bedrijf niet.

AMD komt nu eerst met kaarten die het opnemen tegen de 3070-3090 kaarten qua snelheid. En dus boven de 5700XT. Volgend jaar komt de vervanger van de 5700XT pas op de markt. En voor mensen die de RX 6800 te duur vinden is er altijd een 5700 of 5700 XT.
Als een CU geen 1815MHz aan kan dan wordt hij ook uitgeschakeld. Hij hoeft niet 'kapot' te zijn. 20% uitschakelen en de rest op 1815MHz laten draaien zal voor AMD het best uitkomen.
Ze adverteren ermee. Dat zegt nog niets over hoeveel er werkelijk beschikbaar komen. Als er maar een paar beschikbaar zijn en die zijn sneller uitverkocht dan duurdere modellen, dan zouden ze eventueel van goede chips cores kunnen uitzetten, maar ze kunnen er ook voor kiezen om gewoon meer dure exemplaren te verkopen. Het kan ook nog wel dat ze de yields zorgvuldig ingeschat hebben. Misschien kunnen ze een goedkoper proces of goedkopere wafers gebruiken.

[Reactie gewijzigd door mae-t.net op 21 oktober 2020 13:10]

Vergeet niet dat beide partijen niet zozeer proberen hun hardware zo goed mogelijk te benutten: dat levert uiteindelijk niet zoveel op. belangrijker is de marketing. Als door een aantal prima CUs uit te schakelen AMD een stukje marktsegment kan veroveren zonder de hoger geprijsde kaarten te beconcurreren, dan zullen ze dat meteen doen... net als NDVIA. Doen ze al jaren: je denkt toch niet dat het toeval is dat AMD en NVIDIA kaarten elkaar over de hele range (behalve het topsegment) zo netjes matchen wat betreft prijs/performance?
Indien niet lasergecut, kun je misschien unlocken middels bios flash of rivatuner

[Reactie gewijzigd door karakedi op 21 oktober 2020 23:21]

Dat is al jaren niet meer mogelijk. Tegenwoordig gebruiken ze altijd laser cuts. Helaas.....

Was wel een leuke tijd toen dat kon. Ook wel een beetje hit en miss.
Is het echt zo dat AMD CUs uitzet?
Zou het niet kunnen dat ze dankzei de Ryzen nu zoveel ervaring hebben met het plakken van chiplets dat ze dat nu ook gebruiken bij Navi?

Als ik naar dit plaatje/schets van Navi kijk:
https://wccftech.com/amd-...-xt-320w-navi-21-xl-290w/
dan lijkt het mij heel goed mogelijk dat ze aparte modules gebruiken en die aan elkaar zetten.
invinitie cache modules samen met geheugen controllers aan de linker en rechter kant.
Intercore switch in het midden, en CUs in blokjes van 4 rondom.
Ja en dat doet nVidia ook.
Of dat goed werkende CU's/SM's zijn is de vraag daar kan makkelijk een productie fout in zitten.

Vroeger zat er geen laser cut op de chips en kon je met een bios flash van een hoger model de shaders weer inschakelen. Echter ging dat niet altijd goed en had je wel een artifacts omdat die shaders echt kapot waren.
Maar die kaarten komen vervolgens terug dus kost dat AMD en nVidia geld. + er is dan een goed mensen die alleen maar die goedkope koopt opzoek naar een goedkope kaart die je kan flashen waardoor de duurdere modellen slecht verkopen. Aangezien dat niet echt de bedoeling is omdat bepaalde kaarten ook echt defect zijn zijn ze met die laser cuts begonnen.

Navi 2x krijgt nog geen chipletts volgens geruchten is er wel een kans dat RDNA3 dat gaat gebruiken. En nVidia gaat volgens geruchten met Hopper ook chiplets gebruiken.
Ik raak een beetje in de war door de benamingen moet ik zeggen. Momenteel is de RX5700xt de snelste AMD kaart toch?

Betekent dat, dat de 6000 generatie eerst het “hogere segment” op de markt brengt met de 6800 en 6900? En daarna eigenlijk de opvolger van de 5700xt?

Als dat zo is ben ik benieuwd naar de stap van de 5700xt naar de 6700xt. Of moet ik dat eigenlijk zien als een Rebrand. Dan moeten die 6800 en 6900 nog een flinke stap daar boven gaan.
Eigenlijk is het voor mij terug logisch.
Mijn interpretatie van de laatste jaren:
7750 - 270 - RX 470 - RX570 - RX 5700 - RX6700
7770 - 270X - RX 470 - RX570 - RX 5700 XT - RX6700XT

7850 - 280 - RX 480 - RX580 - N/A - RX6800
7870 - 280X - RX 480 - RX580- N/A - RX6800XT

7950 - 290 - Fury - Vega 56 - N/A - N/A
7970 - 290X - Fury - Vega 64 - Radeon VII - RX6900XT
Nu heb ik het zelf nooit logisch gevonden, de 5700 had imho RX5800 moeten noemen ;)
Zeker als je de prijs vergelijkt van een RX570 tegen een RX5700

Nu hoop ik dat ze het met deze line-up het eindelijk terug eens begrijpbaar gaan maken.

[Reactie gewijzigd door AMD_Aero op 21 oktober 2020 19:25]

Gewoon wachten en de kat uit de boom kijken als er niet op dit moment rook uit je videokaart komt. Over een maand of zo zullen de eerste vergelijkingen wel komen tussen het NV en AMD videogeweld en kun je een gefundeerde keuze maken.

Vooralsnog zijn het alleen maar gissingen en rumours. Daar kun je niet zoveel mee. Leuk voor de fanboys, zeg maar. Je kunt het niet omzetten naar performance op je scherm. :)
Dat is heel verstandig.
Zeker interessant om even te wachten (tot Black Friday) ;)
Ja want dan gaan deze spiksplinternieuwe videokaarten allemaal in de verkoop 8)7
Ik denk niet dat je met Black Friday de nieuwe videokaarten van AMD of Nvidia in de deals zult zien staan. De 20XX serie van Nvidia waarschijnlijk wel , want daar moeten ze van af.
Zolang de productie en beschikbaarheid van de nieuwe kaarten nog zo slecht is vraag ik mij af hoeveel de oude kaarten in prijs zakken. Kijk eens in de Pricewatch hier op tweakers wat de prijzen zijn van de oude kaarten. Deze zijn zo goed als niet gezakt omdat de nieuwe kaarten gewoon nergens te verkrijgen zijn. Nvidia heeft aangegeven dat het wel tot Januari 2021 kan gaan duren, dus ik ben benieuwd of de oudere kaarten in de aanbiedingen gaan met black friday.
Ik denk dat ze wel moeten: tuurlijk zoals @Rarz al zei: als er rook uit je kaart komt dan moet je wel haast teveel betalen voor een 20XX kaart. Anders wacht of op een 30XX or AMD kaart of je koopt een 20XX kaart tijdens black Friday. Voor mij persoonlijk zou dan een 2080 Super kaart onder de €450 o.i.d. moeten komen om in aanmerking te komen, nu is dat nog haast het dubbele.
Tja, als de 2080ti in de verkoop gaat en kost ie nog boven de 600 euros, dan hou ik het geld wel voor een 3070.
Alle mensen die toen een 2080ti voor 1300 euros hadden gekocht, is het niet meer waard geworden dan 500/600 euros. Zie je geld smelten. Om deze reden koop ik nooit de top kaart. Top kaart is melk kaart net als de 3090 nu die maar 10% sneller is dan zijn broertje die voor minder dan dehelft over de toonbank gaat. Als ik zo kijk is de 3070 dan ook een betere keuze dan de 3080.
Hoeveel % verschil gaan we hier zien voor 200 euros verschil?
De 6700xt is zeker geen rebrand. Er zit een echte nieuwe chip in op basis van RDNA2 en zoals AMD heeft gezegd verwachten ze een flink betere power efficiency te halen.
Op basis van wat we nu weten is de verwachting van de 6700xt tov de 5700xt dit:
-Ray tracing support
-Hogere power efficiency (AMD geeft aan 50% beter dan de vorige generatie)
-Hogere clocks
-Hardware support voor AV1 codec
Kortom de 6700xt lijkt een flinke upgrade te worden tov de 5700xt

De toevoeging van 6800 en 6900 komt omdat AMD met RDNA1 (5700XT etc) geen high-end chip maakte. Mede daardoor regeert Nvidia al een hele tijd alleen in de high-end videokaartenmarkt. Vega had een high-end concurent voor Nvidia moeten zijn, maar kampte met een rij problemen (HBM2 geheugen was later op de markt, duurder en langzamer dan verwacht, Vega was een compromis qua ontwerp omdat deze ene GPU zowel voor gaming als profesionele topepassing moest dienen, en een specifieke hardware functie die had moeten helpen bij hogere framerates die blijkbaar niet goed werkte en nooit ingeschakeld is, en om nog enigzins te concureren met Nvidia moest de kaart zeer hoge clocks krijgen waardoor het energie verbuik relatief hoog was)
RDNA2/Navi2 bevat nu weer een high-end chip zodat in het lijstje met snelste videokaarten ook weer AMD modellen komen, dus dat is de reden dat er zoveel modellen boven de 5700xt komen.
Vanuit AMD's perspectief is de 5700XT echter gewoon een high-end chip. In die zin dat het de beste GPU is die AMD op dat moment heeft kunnen maken. Klinkt allemaal leuk dat ze zich richten op het middensegment maar das kolder natuurlijk. Ze proberen altijd het beste te maken maar kunnen momenteel niet tippen aan nVidia's GPU's. De nieuwe kaarten gaan het waarschijnlijk ook niet redden kwa performance dus AMD moet het opnieuw van prijs/kwaliteit hebben. Nog problematischer is dat als AMD wel met een concurrernde chip komt die 30% sneller zou zijn, ze alsnog verliezen van nVidia in omzet en winst. In elk geval, dat is voorheen altijd zo geweest. Gelukkig maakt de goede CPU divisie van AMD een hoop goed, alhoewel ze daar ook nog een lange weg te gaan hebben om populairiteit terug te pakken. AMD is overigens wel goed opweg.
Vlak ze niet uit. Ten tijde van de Pentium 4 (Prescott) serie kwamen ze met de Athlon64 (K8) CPU’s en die renden gewoon rondjes rond de Prescotts. Intel had daar op dat moment totaal géén antwoord op en moest terugpakken op de P3 architectuur om uiteindelijk met de Core architectuur te komen. Daarmee zijn ze sindsdien heer en meester geweest op de CPU-markt.

Tot ineens, out of the blue, AMD met de Zen chips kwam en Intel na lange tijd gewoon keihard voorbij gaat, want op dit moment zijn ze gewoon op bijna alle vlakken superieur aan Intel chips. Als je dan bedenkt dat AMD dat voor elkaar heeft gekregen met een fractie van het R&D budget van Intel, denk ik dat het erg naïef is om te denken dat ze een soortgelijk grapje ook niet met nVidia kunnen uithalen.

En ook dat zou niet de eerste keer zijn. De GeForce FX serie was ronduit ruk, maar de Radeon kaarten van die tijd (de oude 9800 Pro en zo) waren stukken sneller. Toen nVidia met de GeForce 6 serie kwam, deden ze het weer beter, maar zo rond de GeForce 7 kwam AMD weer langszij met hun Radeon HD4870 en diens opvolger, die ook weer uitstekend presteerden.
Beetje een lariekoek verhaal, AMD heeft de 5700 altijd mid-range genoemd, en daarnaast hebben ze daavoor ook nog een Radeon VII gemaakt op basis van de voor gaming niet erg efficiënte VEGA architectuur. Toch was die kaart sneller dan de nieuwere 5700XT(die overigens verder wat betreft prijs/prestatie/efficiëntie veel geschikter was). Er is zelfs een exorbitant hoog geprijsde variant van die kaart (niet bedoeld voor gamers) met 16GB HBM2.
Overigens denk ik dat AMD nog wel eens kan gaan verassen met deze generatie.
De 5700XT chip is midrange Diesize op 7nm dat de concurent 12nm zat dat sub high-end tegen over komt 2070 is AMD probleem niet. Er is nu ook procede verschil maar niet zo extreem. Maar deze keer is er high-end chip dus grote DIE. En dan is de kans groot om ruim voorbij de x070 concurrent te komen.
Een Vega 56 (met undervolt) kan tegenwoordig (AMD "Finewine" drivers) toch aardig meekomen met een 1080 non-ti.
Nee, de topkaart wordt door AMD alleen uitgebracht, niet door partners.

Overige kaarten worden door zowel AMD als partners uigebracht.
Een beetje beter lezen is ook op z'n plaats :)

Op de 1000 serie had AMD inderdaad totaal geen antwoord, maar zoals de benchmarks laten zien hebben ze dat nu wel. Er is iniedergeval een kaart die in de buurt van de 3080 komt. Of dat het topmodel of niet is buiten beschouwing gelaten.

Daarnaast worden de eerste 3 kaarten tegelijk uitgebracht, maar alleen de 6900XT wordt in eerste instantie door AMD zelf verkocht.

Beperkte beschikbaarheid heeft Nvidia ook. Alhoewel je gerust kan zeggen dat het geen beschikbaarheid is. :+
Dan heb je het artikel niet goed gelezen. De topkaart wordt vanwege de beschikbaarheid alleen door AMD zelf verkocht, de rest wel door partners.

Nu moet ik trouwens ook wel zeggen dat het met de RTX 3090 en RTX 3080 uit het kamp van Nvidia nou ook niet echt soepel loopt ...
De topkaart wordt vanwege de beschikbaarheid alleen door AMD zelf verkocht,
"In eerste instantie" suggereert toch iets anders..
"vanwege de beschikbaarheid" is het essentiële stukje in de zin die je aanhaalt. Dan klopt hij toch precies?
We weten niets qua performance of pricing, dus hier een berg aannames doen is niet heel relevant. Maar als ik het zo zie en hoor zal dit tegenover de Nvidia kaarten worden gezet welke momenteel en voorlopig ook niet leverbaar zijn.
en nu lees ik dit. Een kaart die maar beperkt beschikbaar is, en waarvan alleen het topmodel wordt uitgebracht.
Hoe verschilt dit van de huidige RTX3000 lijn? Ook daar zijn enkel de topmodellen uitgebracht en zijn er problemen met de beschikbaarheid? De RTX3070 zou midden oktober aangekondigd worden maar is uitgesteld en voor een RTX3060 is er ook nog helemaal niets bekend.

Voor zover ik het begrepen heb kon AMD de afgelopen jaren best wel mee in de middenklasse, en ik denk dat er wel meer mensen zijn die het geen ramp zouden vinden als AMD geen RTX3090 concurrent heeft. Ik ben zelf aan het wachten op de RTX3070 en de AMD variant daarvan als vervanger voor mijn 660Ti, de efficientste met een redelijke prijs koop ik.

[Reactie gewijzigd door bertware op 21 oktober 2020 10:23]

Een kaart die maar beperkt beschikbaar is, en waarvan alleen het topmodel wordt uitgebracht.
Niet alsof Nvidia zijn zaakjes lekker op orde heeft met zijn 3000 series die wel uit zijn, maar ook uitverkocht zijn en geen zicht op wanneer er een nieuwe lading komt voor de overige 70% van de mensen die erop wachten.

Dit is al jaren zo dat er bij launch slecht geleverd kan worden, zie niet hoe AMD dit perse slechter doet als andere hardwareproducenten?
Als AMD deze kaarten goedkoper aanbied dan de nvidia kaarten en ze bieden bijna zelfde performance verwacht ik niet dat AMD wind eieren zal leggen.
De Vega series waren briljante kaarten, het enige probleem dat ze hadden is dat spellen niet snel genoeg van de nieuwere technieken waar Vega voor ontwikkeld was gebruik gingen maken, waardoor veel performance in de GPU bleef liggen. Het is nu eind 2020 en een aantal ontwikkelingen die AMD bij Vega had doorgevoerd, zijn nu onderdeel van de RTX3000 series. AMD was gewoonweg te vroeg met hun architectuur en dat kwam in spellen hopeloos verkeerd uit. Jammer voor AMD, maar naar de techniek gekeken hebben ze toen een bijzonder capabele GPU gemaakt, waarbij beslissingen die ze genomen hebben toen verkeerd uitpakte.

RDNA was op papier een stuk minder krachtig maar in spellen beduidend sneller. Idem voor de GTX/RTX series.
Stuiptrekking? Er staan straks miljoenen consoles in huiskamers met AMD hardware erin ...
Het gaat juist heel goed met AMD :)
AMD is relevant, maar was altijd al relevant.

Jij vergelijkt alleen de high-end kaarten/producten met elkaar. AMD had jaren lang geen goed antwoord op high-end producten die o.a. door Intel en Nvidia werden geproduceerd. Wat ongetwijfeld in bepaalde segmenten een bewuste keus is geweest. Bijv. in de performance per Watt race is AMD al jaren relevant en key speler in de markt eveneens in de integrated GPU markt is AMD een key speler.

Daarnaast is het natuurlijk gewoon dom blind te zijn voor wat er om je heen gebeurt. Alhoewel je wel bent afgehaakt hoop je wel dat AMD weer relevant gaat worden. Je moet dan natuurlijk wel openstaan voor nieuwe ontwikkelingen :)

[Reactie gewijzigd door Marchel op 21 oktober 2020 11:32]

Is dit jouw laatste stuiptrekking?

Als je zelf aangeeft het allemaal niet zo te volgen is je reactie ook in zijn geheel net serieus te nemen.
een beetje wat Nvidia heeft met de Titan-kaarten, alleen bij Nvidia te krijgen...
Zo ook de RX 6900 XT... alleen bij AMD te krijgen.
AMD deed ten 1ST gewoonweg vaak niet mee op GPU gebied omdat hun resources beperkt waren om de CPU tak op orde te maken door CPU R&D nieuwe architectuur te maken die op concurrerende procede geproduceerd moest worden. En dan de Radeon devisie weer op peil brengen en dat gaat in stappen. Dan is een herhaling zoals de 9700Pro ook mogelijk. Om te overleven moet AMD hun Core business op orde hebben en dat is CPU die periode is er nu tijdje. Daarna GPU. En dan komen de kansen ook weer terug die uiteraard soms tegen kunnen vallen maar ook mee vallen.

Als AMD volgt dan weet je dat ze vanuit de afgrond al paar jaar aan het herijzen zijn. En je dus te maken heb met bedrijf dat niet meer dicht bij een failisement staat, maar op punt staat om op een CPU ondergeschikte markt, weer eens met high-end GPU komt uitrollen.
Met goede kansen

Je kan iig begin volgend jaar een AMD high-end Gkaart kopen met high-end prestaties.
ik heb nu Vega 56 en daar moet iets in de €400 tot €700 N21 iets redelijk ver overheen gaan.
Iemand enig idee in hoeverre DLSS en Raytracing verwerkt zullen zijn in deze kwaarten? Of blijft dit enkel het trein van Nvidia deze generatie?
DLSS is Nvidia only, Raytracing niet, maar de manie rwaarop kan flink verschillen.
DLSS is denk ik wel een van de belangrijkste innovaties van de de laatste jaren. Scherper beeld en meer FPS tegelijk. De laatste keer dat ik dat zag was met 3dfx in 1996...
Nostalgie... maar houd in het achterhoofd dat het niet hetzelfde is als native resolutie.
Ik denk dat het daarom meer doet voor FPS/load dan voor beeldkwaliteit.
Maakt het niet minder innovatief natuurlijk.
Ja vind het ook een undersold feature eigenlijk, mag ook wel meer geintegreerd gaan worden en snel. Ik verwacht dat AMD ook wel een soortgelijke technologie gaat introduceren.
Heeft AMD niet Radeon Image Sharpening, wat ook voor scherper beeld zorgt zonder veel perfomance te kosten? Geen idee hoe dit zich technisch onderscheidt van DLSS, en de kwaliteit is ook niet zo hoog als DLSS, maar het werkt verder best goed! En het werkt bij alle games, i.t.t. DLSS, als ik het goed begrepen heb.
Zover ik kan zien is Radeon Image Sharpening een filter techniek die alleen probeert de beeldkwaliteit te verbeteren zonder dat de resolutie aangepast wordt. DLSS is een technologie die een lager resolutie beeld opschaald naar een hoger resolutie beeld en daarbij met AI technieken probeert de beeldkwaliteit te benaderen van een beeld dat op die hogere resolutie gerenderd is. De AI technologie moet daarbij dus de ontbrekende pixels genereren op basis van de training die het gehad heeft over hoe dit soort upscaling werkt.

Dit zijn dus fundamenteel verschillende manieren om rendering te doen. RIS probeert de kwaliteit te verbeteren, DLSS probeert een performance verbetering te doen en tegelijkertijd een vergelijkbaar kwaliteitsniveau te halen als native resolutie rendering.

DLSS leunt op de Tensor Cores die NVIDIA aan hun GPU architectuur toegevoegd heeft voor AI acceleratie. Zover ik kan zien heeft AMD niets vergelijkbaars.

[Reactie gewijzigd door CrazyJoe op 21 oktober 2020 14:42]

AMD's RIS is anders uitstekend vergeleken met DLSS: https://www.techspot.com/...harpening-vs-nvidia-dlss/
Dit jaar is DLSS 2.0 uitgekomen, dat is (als ik de hype mag geloven) vele malen beter dan de DLSS die gebruikt is in het artikel dat je noemt.
Dank voor de uitleg! :D
Dit zijn dus fundamenteel verschillende manieren om rendering te doen. RIS probeert de kwaliteit te verbeteren, DLSS probeert een performance verbetering te doen en tegelijkertijd een vergelijkbaar kwaliteitsniveau te halen als native resolutie rendering.
Uiteindelijk lijken de 2 verschillende technieken wel enigszins hetzelfde doel te hebben, namelijk een lager resolutie beeld te laten lijken op een hoger resolutie beeld. Ben benieuwd hoe ze zich in de praktijk verhouden :).
Vergelijk tussen RIS en DLSS

[Reactie gewijzigd door Blastpe op 21 oktober 2020 15:48]

Ja ziet er erg goed uit, kan echt niet wachten om de RX 6900XT en RX 6800XT fps te zien in spellen in reviews of video reviews, en ben ook erg benieuwd wat de prijs woord, als ze tussen de RTX 3080 en RTX 3070 zitten en goedkoper zijn ga ik zeker voor de RX 6900XT of RX 6800XT.
Dat artikel is niet meer relevant aangezien NVIDIA ondertussen DLSS 2.0 uitgebracht heeft, wat een sterke verbetering oplevert t.o.z van de oorspronkelijke DLSS 1.0 implementatie waarmee in dit artikel vergeleken wordt.
Dat is gewoon een goed sharpening algoritme, Zoiets heeft Nvidia ook. Maar DLSS is een reconstructie techniek, het heeft ook bewegende beelden nodig en door middel van een soort AI algoritme kan eht dan missende pixels invullen. Als je een diagonale tekent en deze is 100pixels lang, maar je tekent alleen pixels om en om, dan weet DLSS waar de missende pixels getekend dienen te worden zonder deze te berekenen binnen in de GPU. Denk dat het dan ook beter vergelijkbaar is met een hele slimme en dynamische real time compressie techniek dan een sharpening filter.
Alle consoles werken op amd's raytracing.
Pc word dat ook.
Met een nvidia kaart mischien sneller omdat ze rt cores hebben.
Had gelezen dat amd geen rt cores hebben en dat hun rt anders werkt.
Ik weet niet of ze het puur software matig doen maar ze gaan het inderdaad anders doen. Ik vraag mij alleen af hoe directX hiermee zal omgaan.
Hun RT hardware zit in de TMUs maar wat ik er van snap doet het min or meer hetzelfde als de RT cores van Nvidia.
AMD heeft deze keer, voor hun grootste GPU-release in generaties, de lekken heel goed kunnen inperken. Digital Foundry suggereert op basis van een trailer voor een van de consoles dat RT performance relatief beperkt zou kunnen zijn, maar da's ook maar een dikke gok. Nvidia hun RT is vooralsnog ook zeer beperkt inzetbaar. Ik geloof dat Quake II de enige volledige raytraced game is :)
Is Minecraft RTX ook niet volledig path traced? Weet niet zeker hoor.
Ik geloof van wel ja.
Maar ik kan niet anders doen dan grinniken over Quake 2 RTX, basically een spel uit 1997, en Minecraft dat alleen maar uit grote blokken bestaat. Hilarish als mensen daar een 900 euro kostende videokaart voor kopen (of zelfs 1700 euro als je helemaal los gaat)...
Ik wist niet eens dat dat er was, en serieus, ik wil hem spelen, want dat was ongeveer het laatste spel dat ik leuk vond :D
Nee, die mensen doen wel een aib kopen die occc doen voor 2000 euros. 8)7
Quake weet ik niet, maar volgens mij heeft Control de volledige RTX mogelijkheden.
Control is zeker weten een hybridge. Nvidia noemt het zelf ook zo in een artikel waar aangeraden wordt om traditionele rendering met raytracing te mixen: https://developer.nvidia....al-time-rendering-engine/

Je kan veel technieken die hetzelfde effect faken vervangen met een ray-trace versie, maar de basis is nog steeds klassieke rasterisatie.
Volgens geruchten tot nu toe. Sneller dan Turing langzamer dan Ampere qua RT

Qua upsampling alla DLSS sneller dan Ampere maar quality zou iets minder zijn. Het wordt even afwachten hoe AMD dit gaat doen. De Xbox en PS kunnen het ook in hardware wellicht is het een vergelijkbare implementatie.

Maar beide dingen gaan ze op in zetten deze generatie.
Te veel geruchten en weinig concreet, maar Nvidia heeft een enorme voorsprong op machine learning dus ik verwacht dat amd een nieuwere versie van contrast adaptive sharpening (cas) gebruikt wat idd minder is dan dlss maar ook niet de tensor cores nodig heeft ala NV. De achterstand in raytracing is misschien niet zo relevant aangezien de meeste games geoptimaliseerd zullen worden voor consoles en niet voor rtx API. En als ik raytracing effects zie op Turing is een iets lagere raytrace prestaties niet erg voor de game ervaring.
Volgens mij is quake rtx de enige game die geraytraced is en niet gerasterized. Amd heeft nog wel even voordat de eerste pure raytraced games komen.

P.s. hopelijk zijn de drivers nu wel fatsoenlijk.
AMD geeft DLSS niet nodig.DLSS is bij Nvidia nodig omdat ze, om Performance te vergroten met kleinere Bitmaps werken en deze dan intelligent upscalen naar een hogere resolutie. Ze smokkelen een beetje. Bij AMD wordt er gewoon met complete bitmapjes gewerkt die op het scherm getoond worden. DLSS laat het er soms wel mooi uit zien, maar is een interpretatie van de werkelijkheid.
Lijkt de PS5 toch veel weg te hebben van de RX 6900XT, maar dan met de helft van de CU's. 40 CU's, waarvan er 4 zijn uitgeschakeld. Boostclock van de RX 6900XT komt ook wel overheen met de PS5 clock. Ben benieuwd of we meer informatie over de PS5 te weten krijgen op de AMD RDNA event op 28 oktober.
Zoals Mark Cerny zei tijdens de Road to PS5 presentatie: “If you see a similar discrete GPU available as a PC card at roughly the same time we release our console, that means our collaboration with AMD succeeded in producing technology useful in both worlds”.
Ik vind die uitspraak van Cerny erg interessant, en dan met name hoe zich dit verhoud tot de XSX. Als Sony heeft samengewerkt met AMD aan RDNA2, en de GPU in XSX is ook gebaseerd op RDNA2, betekent dit dan dat de Series X GPU ook gedeeltelijk door Sony ontworpen is ? Aan de ene kant lijkt het me raar dat Microsoft kan profiteren van het werk van Sony, maar het zou even raar zijn als de XSX GPU heel erg afwijkt van RDNA2 (een soort RDNA 1.5). Een andere mogelijkheid is dat ze beide hebben bijgedragen aan RDNA2 en hebben afgesproken van elkaars werk gebruik te mogen maken, maar volgens mij heeft MS i.t.t. Sony niet gezegd dat zij aan RDNA2 hebben meegewerkt.

Ik hoop dat er na release een goede analyse komt van zowel de XSX als PS5 GPU's en hoe deze afwijken van elkaar en de PC versie van RDNA2.
Nu maakt Sony weer gebruik van een Azure serverpark voor hun Online omgeving, ook daar zijn niet alle handelsvoorwaarden genoemd, wellicht zit daar een soort wisselwerking in?
Ik kan me moeilijk inbeelden dat ze bij Sony en Microsoft hebben meegewerkt aan de cpu en gpu. Die ontwerpen zijn gebaseerd op amd producten dus dat ligt al vast. ik kan me wel inbeelden dat ze mee gesleuteld hebben aan de software voor het upscalen van het beeld en raytracing. Upscalen doen Sony en Microsoft al meerdere generaties en raytracing willen ze ook zo efficiënt mogelijk kunnen gebruiken.
Sony staat er in het algemeen bekend om dat ze bij het betrekken van onderdelen van externe leveranciers graag een grote vinger in de pap hebben om de specificaties zo goed mogelijk te laten aansluiten op hun behoefte. Daar is dus geheid wel iets van informatie uitgewisseld en daar kan ook wel wat bijzitten dat AMD in andere types kan gebruiken.
Zal niet de eerste keer zijn dat Microsoft met Xbox profiteerd van het werk van Sony. Een deel van de techniek en ervaring die IBM opgedaan heeft in de samenwerking met Sony voor de Cell processor, is in de Xenon processor gebruikt.

Ook niet de eerste keer dat AMD met hulp van Microsoft en Sony betere hardware weet neer te zetten. Ryzen is ook -deels- te danken aan de samenwerking van de consolebouwers met AMD.
Er gaan ook geruchten dat de PS5 iets van de 'infinity cache' heeft van AMD. Infinity cache is een grote cache pool met veel grote transfer rate dan de geheugenbus, waardoor deze niet zo groot hoeft te zijn. Gekeken naar de RX 6900XT is dat ook 'maar' 256bit (RTX3090 = 384bit, RTX3080 = 320bit).

Iets dat dit een beetje onderbouwd zijn de woorden van Tim Sweeney van Epic, na die mindlblowing PS5 demo:
“[The PS5] puts a vast amount of flash memory very, very close to the processor,” says Sweeney. “So much that it really fundamentally changes the trade-offs that games can make and stream in. And that’s absolutely critical to this kind of demo,” Sweeney explained.

[Reactie gewijzigd door SuperflipNL op 21 oktober 2020 11:47]

Volgens mij haal je een aantal zaken door elkaar. Maar het blijft je eigen keuze (skippen/boycotten).
Van wat ik weet wil Sony de gebruikers een tool geven om online discriminatie aan te pakken. Door middel van audio fragementen of tekst berichten op te sturen, die daarna worden beoordeeld.
Ik heb ook iets gezien van een policy voor alleen Chinese account, waarbij er een paar regels gelden over beschadigen van de Chinese overheid. Maar dat lijken mij landelijke regels die ook voor andere soortgelijke producten gelden.
Leuk gerelativeerd, maar ik denk niet dat je daarmee een boze beer blij zou maken.
Effect hebben doe je helaas alleen met waar je je geld in steekt.
Daarnaast is het heel makkelijk om een privacy schendende functie te verkopen als iets heel nuttigs.
Dat mensen wennen aan geen privacy hebben omdat ze het niet merken is namelijk best... gevaarlijk.
Bozebeer38 reageert een beetje overdreven maar heeft wel een belangrijk punt die te makkelijk over het hooft wordt gezien. Als er een bedrijf is die een geschiedenis heeft in zwaar overschrijdend privacy schendingen is het Sony wel.

Bijvoorbeeld de schandalig en regelrecht schofterig DRM's debacle (op Audio Disc / MiniDisc ATRAC3 DRM etc), Sony's rootkits (ook een vorm van DRM), velen gekoppeld met "onschuldig software" waardoor dus ook ongemerkt privacy schendingen werden gepleegt. En privacy schendingen om mensen aan te klagen voor vermeende downloaden.

Dit geldt niet alleen voor Sony. Alle bedrijven die naast in tech ook een voet in de film en muziek industrie hebben zoals Sony zijn niet vies van privacy schendingen. Sony heeft een rijke historie daar in. Sony is ook zowat de aanvoerder van lobbyen bij hoge instanties voor het verminderen van privacy wetten en druk uit oefenen op Kabelexploitant zodat Sony nog dichter op je privacy huid kan kijken.

We moeten maar hopen dat Sony goede bedoelingen heeft.
Ik verwacht dat een Japans bedrijf in het huidige klimaat zo min mogelijk zaken doet met Hong Kong, dat in de praktijk geen SAR meer is maar uitwisselbaar met de rest van China.
Anoniem: 443119
21 oktober 2020 10:22
De game en boost clock is interessant en is gelijk aan de PS5 Git-Hub leak (voorheen 2.0GHz en nu 2.3GHz). Wat is dat 23.86TF GPU die 6900XT?
Klinkt alsof deze ook niet of nauwelijks te koop zullen zijn, net als de groene kaarten. Ben wel erg benieuwd naar de presentatie en de prijzen en de prestaties t.o.v. de 3000 serie van nVidia.

Nou ja dan maar geen nieuwe PC voor kerst, genoeg andere leuke (en nuttigere) dingen.
Wat dacht je van VR met Medal of Honor 😳 en deze wordt niet exclusief voor de Quest, maar komt ook op SteamVR.

Ik ben ook in de race voor een nieuwe comp en heb een 3080 in backorder staan, maar ik denk dat ik die maar cancel en idd even afwacht op AMD en deze kaarten. Want na de SSD PCIe4 review wil ik ook wachten op de Intel borden met PCIe4 ondersteuning tesamen met de 980pro SSD, 3080/6900XT (ligt aan onderlinge stats) en corresponderende geheugen.

En tot die tijd doet mijn huidige gamepc nog vrolijk mee in alle hypes qua games (Cyberpunk 2077/Watch Dogs: Legions) en VR games als Medal of Honor (waar ik echt niet op kan wachten _/-\o_
Het lijkt er in iedergeval op dat de nieuwe AMD kaarten meer gaan slurpen van de Nvidia versies..
En net als jij kijk ik ook erg uit naar Medal Of Honor VR.. En ook naar de nieuwe VR projecten van het team van Half Life: Alyx, waaronder meer in de Half Life wereld (in iedergeval volgens Gabe Newell).
Ik zit met hetzelfde keuze probleem mbt VR. Nu ik heel die Nvidia 3080FE gemist heb en de costum 3080 gewoonweg nu veel te overpriced, (zelfs in Duitsland) de deur uitgaan, wacht ik wel op de AMD 6900 RDNA2. Stel deze kaart zit op €599 a 649,- uiteindelijk fatsoenlijk leverbaar en zit qua performance net onder de 3080 ga ik weer terug naar AMD.
Maar eerst maar eens de 28st en de AMD reviews afwachten.

En nu maar eens hopen dat Tweakers een keer de VR benchmarks erop los laat. Toch vreemd dat VR wordt verwaarloost hier.
Zoals verwacht hebben deze RDNA2 kaarten ook een zo hoge boostclock als de GPU van de PS5. In theorie doet de 6900XT dus max (5.120 streamprocessors * 2.330mhz max clock * 2) = 23,9tflop. Best indrukwekkend. PS5/XSX zullen rond de prestaties van een 6700/6700XT gaan liggen. Ben benieuwd naar de benchmarks van deze kaarten.

[Reactie gewijzigd door Hulleman op 21 oktober 2020 10:49]

Wie koopt er nu een kaart die beperkt beschikbaar is? Als ik ga gamen wil ik wel weten dat mijn GPU beschikbaar is. Of midden in een game ineens uitvallen omdat hij lang genoeg beschikbaar is geweest. Lekker is dat :z
Ik snap je reactie totaal niet, maar het is nog vroeg :+
Fabbie maakt een grapje. Ik denk dat jij je koffie nog niet op had haha...
Fabrikanten houden vaak een voorraad aan om bijv. defecte producten te kunnen vervangen/repareren. Ik zou me daar niet zo zorgen over maken. Wat misschien wel lastig kan zijn is wanneer de kaart DOA is. De winkelier zal deze kaarten waarschijnlijk niet op voorraad hebben waardoor direct omwisselen van defecte producten niet mogelijk zal zijn.
Als je hem koopt en in je pc stopt heb je niks meer gemerkt van het beperkte winkel aanbod
Dus de RX 6900XT is zoals de 3090? (hopelijk niet kwa prijs) hardware is legit weer interessant!
Qua prestaties? Dat is nu echt afwachten tot de onafhankelijke reviews.

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee