Nvidia: condensatorsamenstelling RTX 3080 is geen indicatie voor kwaliteit

Nvidia heeft een eerste reactie gegeven op de meldingen van stabiliteitsproblemen die bezitters van een RTX 3080-kaart ervaren. Volgens Nvidia kan het aantal groeperingen van verschillende condensatoren variëren en is dit niet noodzakelijk een indicatie van de kwaliteit.

Nvidia meldt nauw samen te werken met partners die hun eigen ontwerpen van videokaarten maken. "Het juiste aantal SP-cap- versus mlcc-groeperingen kan variëren afhankelijk van het ontwerp en is niet noodzakelijk een indicatie van kwaliteit", aldus de fabrikant.

Daarmee reageert het bedrijf op meldingen van problemen zoals crashes die bezitters van een RTX 3080 van een Nvidia-partner ervaren. Verschillende sites wezen afgelopen weekend naar de groepen van condensators direct achter de gpu-core als mogelijke oorzaak. Fabrikanten gebruiken voor hun kaarten mlcc's, oftewel multilayer ceramic chip capacitors, of SP-caps, dit zijn een soort polymeercondensators, of een combinatie van deze twee.

De kaarten met SP-caps vertonen volgens de berichten van afgelopen weekend meer stabiliteitsproblemen. Volgens Nvidia hoeft het dus niet zo te zijn dat de aanwezigheid van SP-caps mindere kwaliteit biedt. Volgens Videocardz zijn mlcc's klein en goedkoop en SP-caps groter. SP-caps zouden slechter presteren bij hoge frequenties, maar ook minder vatbaar zijn voor lekken en beter presteren bij hoge temperaturen.

RTX 3080-condensators via Igor's LabRTX 3080-condensators via Igor's LabRTX 3080-condensators via Igor's Lab

Verschillende condensatorlay-outs met 'poscaps' / SP-caps (rood) en mlcc's (groen). Afbeeldingen via Igor's Lab

Door Olaf van Miltenburg

Nieuwscoördinator

29-09-2020 • 08:27

214 Linkedin Whatsapp

Reacties (214)

214
203
107
12
0
77
Wijzig sortering
Dit is wel tegenstrijdig met een persverklaring van evga:

During our mass production QC testing we discovered a full 6 POSCAPs solution cannot pass the real world applications testing. It took almost a week of R&D effort to find the cause and reduce the POSCAPs to 4 and add 20 MLCC caps prior to shipping production boards, this is why the EVGA GeForce RTX 3080 FTW3 series was delayed at launch. There were no 6 POSCAP production EVGA GeForce RTX 3080 FTW3 boards shipped.

bron: https://forums.evga.com/M...080-SP-CAPs-m3095238.aspx
Nvidia gooit wel vaker partners onder de bus; ik ben heel benieuwd of dat nu ook het geval is.
Het is misschien een combinatie van verschillende componenten die er voor zorgt dat 6 POSCAPS niet voldoende zijn. Dus op andere plekken minder goede componenten zorgt voor meer ruis bij de 6 POSCAPS wat ze er niet uit kunnen filteren.
Een andere caps lay-out kan het misschien verhelpen or verplaatsen naar een frequentie die je toch niet haald maar dat hoeft niet te betekenen dat het de core van het probleem is.
Er zijn mensen die de kaart prima werkend hebben zelfs boven de 2050 mhz zonder instabiliteit. Heck GN heeft deze kaart weten te overclocken met de zogenaamd slechte layout.

We moeten gewoon wachten en kijken wat er uit het onderzoek zal komen.
Dat is heel leuk maar het is het probleem proberen op te lossen, maar het niet weten ook nu nog niet, want bij elke kaart zijn er probleemgevallen bekend van de FE kaarten tot aan de Asus Strix en alles ertussen in. Er is geen enkele kaart die niet deze problemen heeft. Waarschijnlijk heeft Nvidia een paar eerste goeie test batches gehad waardoor de boost snelheid gewoon te hoog gezet is. Punt is dat bij vrijwel iedereen die de boost lager zet de problemen verdwijnen. En dan praat je over een boost snelheid onder de 2 GHz.

Na veel verhalen gelezen te hebben lijkt MSI het wel het meest bij het rechte eind te hebben dat het meer een firmware dingetje gaat worden en Nvidia de boost naar max 1950 MHz ofzo gaat gooien. En dat je de boost hoger kan zetten als je toevallig een beter exemplaar heb.

Het laat vooral zien dat ze heel dicht op de max zijn gaan zitten want de eerste OC resultaten zijn nu ook niet echt geweldig te noemen vergeleken met eerdere modellen.
EVGA heeft dat hoogst waarschijnlijk getest met de vorige driver. De nieuwe driver lijkt dit probleem op te lossen.

Op dit moment lijkt mij dit een probleem met aansturing vanuit de driver, waar MLCC condensators wat beter mee om gaan. Deze condensators worden gebruikt voor opvangen fluctaties bij schakelen tussen verschillende GPU boost nivos. Oplossing zal waarschijnlijk geweest zijn de GPU boost nivos iets minder agressief aan te passen.
Om in korte tijd duizenden kaarten op te markt te brengen, moet er een grote voorraad zijn van dit type MLCC en/of SP caps. Vanwege de hoge vraag zijn er dus meerdere configuraties gemaakt met SP, MLCC's en POScaps.

MLCC's zijn over het algemeen wat duurder per oppervlakte, maar presteren ook beter. Bij SP en POScaps ligt de ESR vaak wat hoger. Bij MLCC's ligt de ESL vaak wat hoger. Het is maar net het type SP/POS/MLCC die een bepaalde ripple aanbiedt.

Het hoeft niet eens aan de componenten te liggen. Bij de reflow kan de qualiteit net wat minder zijn waardoor het contactpunt minder goed is. Dit is afhankelijk van waar de kaart geproduceerd is. Desondanks zou je wel verwachten van zo een dure kaart dat er goed rekening gehouden is met dit probleem. Ik zou wachten tot een volgende batch totdat de stock van goede componenten aangevuld is en het pcb design een keer revised is

[Reactie gewijzigd door ToHiForAFly op 29 september 2020 08:47]

En de MLCC caps zijn weer gevoeliger wat betreft tempratuur. De polymer caps zijn veel stabieler over een bredere tempratuur range. Als het beetje geldt voor alle electronica componenten, zoveel verschillen met verschillende eigenschappen. Dat alleen de caps het probleem zijn lijkt me niet. En het lijkt zeker geen kostenbesparing. Ja MLCC's hebben lagere capaciteit en moeten meer worden geplaatst maar de andere zijn meestal weer duurder... Misschien toch een fout in de software die de boost op de FE kaarten rustig deed en op de partner kaarten agressiever dan de FE? Ik roep maar wat.

[Reactie gewijzigd door jDuke op 29 september 2020 08:59]

NP0 en C0G worden niet significant beïnvloed door temperatuur. X7R en X5R zijn redelijk stabiel bij temperatuur wisselingen. Alleen de Y5V en Z5U varianten hebben significante wisselingen maar, deze zullen nooit gebruikt worden in apparatuur met meer dan 20° variantie. Als ze wel Y5V op je videokaart hebben gemonteerd dan is deze gemaakt door een beunhaas.
Zou mooi zijn als dit soort zaken ook in reviews voortaan naar voren komen.
Dan wordt ook duidelijk welke fabrikant het wel gesnapt heeft en welke niet.
Dat is een beetje het probleem, er zijn reviews geweest met zogenaamd slechte kaarten waar de kaarten het prima deden. En in het geval van Gamers Nexus zelfs onder de LN2 heeft gezeten na de review.
Op NP0 en C0G na verliezen ze allemaal significant capaciteit op het moment dat je er een DC bias op zet (wat gebeurt). Ze hebben ook last van microfonie, al betwijfel ik of dit significant effect heeft in deze electronica.
De NP0 en C0G zijn vaak ook een stuk groter per hoeveelheid capaciteit. Helaas zijn ze ook redelijk prijzig en uberhaupt niet te krijgen in grote afmetingen :(
Wellicht schat ik het verkeerd in, maar 100.000 videokaarten produceren is peanuts in vergelijking met de normale dagelijkse PCB productie. Een paar miljoen meer of minder condensatoren zou productietechnisch toch niet het probleem kunnen zijn.

Dat voor sommige board partners elke euro telt en derhalve de gegeven specs van Nvidia volgt lijkt mij een plausibelere verklaring. Wellicht ook onvoldoende tijd genomen om zaken goed te testen, maar dat is koffiedik kijken.
Wat wel lastig is, helemaal als je gaat clusteren, is het gebruik van condensatoren uit dezelfde batch. Kleine verschillen onderling kan harmonische ruis veroorzaken
EVGA heeft "verkeerde" kaarten naar reviewers gestuurd (in sommige gevallen) maar die hebben bijv. wel uitvoerig getest, en hun kaarten tijdig aangepast zodat consumenten de correcte kaarten kregen.

Maar het kan idd zo zijn dat de wat kleinere fabrikanten het niet zover hebben getest, mede omdat ze geen kaarten naar reviewers hebben gestuurd, ook voor die euro.
Ik denk dat als je bijvoorbeeld een miljoen van die condensatoren wil,
dat je die dan vrij snel in de post hebt, als je ze bestelt.
Dus 'in korte tijd duizenden kaarten' zal voor die condensatoren en hun fabrikanten geen enkel probleem zijn.
Daar vergis je je lelijk in. Voor MLCC's geldt al jaren tekorten, vooral voor grote case sizes. Dat zal een belangrijke factor zijn geweest om alternatieven te overwegen.
Dit is een interessant artikel over waarom er tekorten zijn:
https://www.avnet.com/wps...the-global-mlcc-shortage/
Dat moet je ook weer niet te snel zeggen. Iedere cent op die dingen telt, en iedereen heeft de voorkeur voor de goedkoopste. Een levertijd van inde maanden klinkt echt niet vreemd, zeker niet bij oplages in de miljoenen. Al zullen zulke oplages wel weer enigszins prioriteit krijgen. Bij ons op het werk zijn levertijden ook wat de productie ophouden. En dat wordt erger zodra we globale economie weer aantrekt.
Bij een configuratie met vele condensatoren parallel neemt de zelfinductie van het geheel af. Zou zo maar kunnen dat bij dezelfde capaciteit de HF eigenschappen veranderen.
Niet alle ontwerpers van digitale elektronica zijn goede HF ontwerpers en dat zou je hier wel moeten zijn.
Mijn onderbuikgevoel zegt dat de verschillende configuraties niet hetzelfde kunnen presteren.
Het kan inderdaad zijn dat bij de bepaalde configuratie met SP-caps en MLCC's en de layout er lichte oscillaties gaan optreden in het betreffende HF gebied. Reflecties zouden moeten gedempt worden, maar je weet niet of door de andere layout hier aan gedacht is. Bij DDR memory is er een guideline waar je je absoluut aan moet houden. Bij dit soort toepassingen zal die guideline wat minder duidelijk zijn
Ik denk dat capaciteit van de productie geen probleem mag zijn, zeker op dit moment is de capaciteit qua output in China nog steeds sub 50 pts. We mogen er ook wel vanuit gaan dat dit niet een product is dat gisteren is bedacht, noch dat dit voor Nvidia diens eerste rodeo is.

Dus qua statement heb ik zo mijn twijfels over hetgeen wat je hier neerzet dat dit moedwillig gebeurd ivm supply shortages. Neemt niet weg dat ik het wel met je eens ben dat een rivisie wellicht een beter resultaat heeft maar juist omdat men meer feedback heeft uit de markt wat er zoal fout gaat.
Volgens mij is dit gewoon pure wetenschap en niet uit te gaan van "niet noodzakelijk" een probleem. Beter materiaal is gewoon beter, punt.

Waarom rommel kopen dat duurder is dan de initiële build? Dat doet toch afbraak aan je eigen ontwerp en merknaam?

Met heel deze heisa rond tekorten en rommel aan prijzen die niet verantwoordbaar zijn, begint Nvidia serieus op m'n zenuwen te werken. Ik wacht wel wat AMD doet en of we daar wel deftige zaken van kunnen zien, zonder al teveel drama.

[Reactie gewijzigd door junkchaser op 29 september 2020 08:53]

Dat is wel heel kort door de bocht.

Power integrity is complexer dan dat.

Die grote caps doen helemaal niet mee op hoogfrequent gebied, daar zijn ze veel te inductief voor.
De belangrijkste capaciteit voor HF toepassing is de pcb zelf. De zelfcapaciteit tussen de power planes is de kleinste maar snelste capaciteit die het bord heeft. Daarna de 01005 of 0402's. dan de 0603/0805's en als "next day delivery" de bulk caps.

Polymer caps zijn niet simpelweg slechter dan MLCC's, ze zijn slechter op sommige factoren en beter op andere (bijvoorbeeld DC bias, beschikbaarheid hoge capaciteiten, temperatuurstabiliteit). Het is compleet afhankelijk van het design of een bepaalde cap "voldoet"

Zonder PI overwegingen en simulatieresultaten is er niet te zeggen welk design beter is.
Het heeft met winst(marges) te maken. Het zijn AIB's die kiezen voor een goedkopere oplossing, en dus hogere winst. Nvidia weerlegt alleen een PCB ontwerp neer; en daar mogen ze het mee doen.
Ik neem aan dat je bedoelt dat nVidia een PCB ontwerp voorlegt, en dat fabrikanten dat kunnen volgen of ervan kunnen afwijken.

Uit het artikel krijg ik de indruk dat SP-caps zelfs duurder zijn dan MLCC's. Dat kan een niet terechte indruk zijn die het artikel bij mij achterlaat. Grote afwezige wat mij betreft is een fotootje van de condensatorgroep zoals die in het referentieontwerp van nVidia voorkomt. Een beetje redacteur komt toch op eenzelfde gedachte?

Als nVidia stelt dat de variatie in het uitleggen van die condensatorgroep geen oorzaak is, hoe is deze conclusie dan getrokken? Heeft het referentieontwerp van nVidia dan ook last van dezelfde instabiliteit?

Het artikel dat onder de foto's wordt gerefereerd geeft iets meer verduidelijking. Er lijkt een derde condensatortype te zijn en slecht presterender (dan de boven genoemde twee?):
If one searches the forums, it seems that the Zotac Trinity is particularly affected when it comes to instabilities starting at certain boost clock rates from around 2010 MHz. A feat, because Zotac is relying on a total of six cheaper POSCAPs.
Over het nVidia ontwerp zelf is ook in het bronartikel niet iets te vinden, wel wordt iets over haar rol gezegt:
NVIDIA, by the way, cannot be blamed directly, because the fact that MLCCs work better than POSCAPs is something that any board designer who hasn’t taken the wrong profession knows. Such a thing can even be simulated if necessary. I will of course stay on it, because my interest is naturally aroused.
Iets zegt mij uit deze reactie dat het referentieontwerp MLCC's zal hebben gebruikt. Maar zeker weet ik dit nog niet.
De middelste afbeelding (4xSP's en 2xMLCC's) is het ontwerp van de Founders Edition kaarten.

(Een aanrader: De video van JayzTwoCents)

[Reactie gewijzigd door MattiVM op 29 september 2020 15:18]

Volgens mij is er voor de 3000 series geen reference design. De founders editions hebben namelijk ook al een custom board design dus daar zou het niet aan moeten liggen.

Jay heeft hier ook even kort bij stilgestaan tijdens zijn review van de eerste AIB kaart die ie had.
Met een nieuwe driver update zijn er al terug veel mensen geholpen lees ik.
Deze update zorgt ervoor dat de boost niet zo hoog is.
De voorgaande berichten gingen er dus precies over dat sommige kaarten minder MLCC's dan het reference design hebben. De driver weet dit niet en boost vervolgens wat het reference design aan moet kunnen terwijl de power delivery meer ruis heeft vlak tegen de kaart aan en de gevoeligheid hoger komt te liggen met een hogere boost.

Verschillende websites en kanalen hebben aangegeven dat de oplossingsrichting waarschijnlijk ligt in het terugroepen van de kaarten en minimaal voldoen aan de reference spec of om de boost te verlagen. Dit alles ligt dus precies in lijn met het condensator onderzoek.
En wat weten die websites en kanalen daarvan? Zijn dat ingenieurs? Nee, dus alles wat ik hier al gehoord heb zijn aannames van reviewers en mensen hier op Tweakers. Denk dat de ingenieurs van Nvidia er iets meer van weten dan jullie en ik dus laten we eens rustig afwachten totdat Nvidia en haar partners het probleem onderzocht heeft en met een oplossing komt. Echt wel hilarisch hoe iedereen meent te weten wat het probleem is en denkt ingenieur te zijn. NIEMAND weet momenteel wat het probleem is. Te hoge boost clock, de condensators achter de gpu, dat zijn allemaal aannames zonder het minste bewijs.
Je zou je bijna afvragen waarom er een reference design is...
Omdat nvidia de GPU chips niet vroeg beschikbaar stelt aan de fabrikanten.
Ze moeten blind hun PCBs 'ontwerpen' en dan in een zeer laat stadium wordt de GPU eraan geplakt.
Ik was sarcastisch, maar een reference design is meer dan voldoende om een PCB te ontwerpen. Als daar bij ook nog blijkt dat fabrikanten minder hebben gedaan dan op reference stond, om wat voor reden ook, dan heeft dat niks met het beschikbaar stellen van de GPU chip te maken.
bij ook nog blijkt dat fabrikanten minder hebben gedaan dan op reference stond,
nVidia heeft gewoon minimale specs gegeven aan leveranciers, en daar hebben fabrikanten zich aan gehouden, dat die specs minder zijn dan nVidia's refenentiemodel kunnen hun ook niks aan doen

Als ze de standaard prijs wilden aanhouden hadden ze ook weinig keus
Betekend dit (Lagere boost) dat ze de kaart slomer maken?
Eigenlijk wel, maar je zal er niet veel van merken behalve die laatste paar fps's wanneer je op hoge resolutie speelt. Op lagere resolutie, 1440p en lager, is getoond dat de CPU (meestal) de bottleneck vormt een dat je dus niet zal merken dat deze boostclocks wat lager zijn
Gelukkig koop je een 3080 meestal om op 640×480 te spelen met 500FPS :?

NVidia adverteert met de "boost" optie. Dan moet deze ook stabiel werken. Op temperatuur kun je goed sturen, verkeerde transistortjes niet. Daar zie je nu de effecten van.

Maar dat dan alle fabrikanten zich stil moeten houden hierover om de verkoop niet te schaden vind ik niet kunnen. Je laat nu de mensen zelf maar uitzoeken welke kaarten mlcc's hebben zodat ze die kunnen kopen.

En wat gaat er met de drivers gebeuren? Gaan kaarten met wel een goede config ook last krijgen van een lagere boost? Aan hoe dit hele verhaal in elkaar steekt kun je gewoon merken dat NVidia, net als Intel, teveel macht heeft. Het zou niet mogelijk moeten zijn voor een bedrijf om al haar afnemers te "muilkorven".
Helemaal mee eens, mijn antwoord diende alleen maar om duidelijkheid te verschaffen aan @jdh009 .

Als ik dergelijke kaart koop wil ik ook het onderste uit de kan halen, je betaald er ook navenant voor uiteraard. Ik heb nu nog een 1080Ti en wacht nog lekker af tot het hele boeltje duidelijk is.
Maar mijn antwoord blijft staan, buiten die laatste paar fps's zal je dit eigenlijk niet merken (als de kaart verder stabiel blijft bij deze driver updates), en het is niet zo dat ze de clock en mem snelheid niet boosten, enkel zal de boost iets lager zijn of iets korter van duur voordat deze terug naar beneden bijgesteld worden.
Er wordt geadverteerd met boostclocks die VEEL lager zijn dan de problematische 2000Mhz grens
Bv NVidia 30380 FE
Base clock: 1440Mhz
Boost clock : 1710 MHz

Daar mag je op rekenen. Als de kaart de 1710Mhz niet haalt dan is er sprake van een non conformiteit.
Alles boven de 1710Mhz is dus extra meegenomen en niets mis mee maar heb je geen recht op (zoals sommigen hier doen vermoeden)

Wel moet Nvidia en AIB er voor zorgen dat hun GPU boost software de kaart dan dus ook niet overklokt tot het niveau dat het fout gaat. Maar dat is simpelweg dus op te lossen in de driver of firmware.
Elke FPS op 4k is er 10 waard. Dus is wel belangrijk.
Nou, niet slomer maar de meeste kaarten lopen net te hard. Nvidia adverteert met boostsnelheden rond de 1700/1800mhz. Hoger dan dat verzorgd GPU Boost en die is wellicht wat te agressief.
Wellicht leg ik het verkeerd uit.

GPU boost is een mooie functie van Nvidia die ervoor zorgt dat zolang de temps/verbruik het toelaat de coreclock verhogen tot een bepaald maximum.

De geadverteerde boostclocks is wat men verwacht te halen. Bijvoorbeeld de RTX3080 TUF doet 1740mhz. Elke mhz daarboven is een bonus. Probleem bij veel kaarten op het moment is dat GPU boost echt het uiterste perst uit de kaarten en daardoor tegen onstabiliteit aanlopen. Bij veel mensen is daarom ook de oplossing de coreclock te verlagen met een 15mhz tot 50mhz.

Wat jij aangeeft is natuurlijk logisch. 100 is minder dan 103. De nvidia kaarten gaan echter niet lager dan de geadverteerde boostclocks en is je vergelijking helaas niet helemaal correct. In jouw vergelijking zou het als volgt zijn. De auto haalt zijn geadverteerde snelheid van 100km/h maar de computer zorgt ervoor, zolang de omstandigheden dat toelaat, dat de auto harder kan dan 100km/h. Bij 103km/h treden er echter problemen op en die zijn op te lossen door de computer wat terug te schroeven zodat de auto weer 100km/h rijdt.

Nog steeds gaar, daar niet van.
nee. Zolang hij niet lager gaat dan de geadverteerde boostclocks is hij niet "slomer"
Je kan wel 15000pk in een auto stoppen maar de rest van de auto kan dat niet aan. Je zal het moeten terugschroeven om balans te brengen of de overige onderdelen aanpassen om in de autovergelijking te blijven.
Hoezo, "gewend" aan een boostclock van 2 Ghz? Heb jij al een GTX4080 of zo?

"Slomer" is een relatieve term, en dan ga je dus uit van een referentiepunt. En het is ons compleet onduidelijk wat jouw referentiepunt nu eigenlijk is.

Ja, een stabiele 3080 is slomer dan een te hoog geklokte, instabiele 3080. Die laatste is geen serieus referentiepunt.

Een boosted 3080 is sneller dan de 3080 op stock speeds. Die stock speed is een expliciet referentiepunt, dat is waar stock instellingen voor bedoeld zijn.
Tests die ik tot nu toe heb gezien doen niet iets significants met de prestaties. En er zijn genoeg mensen die zeggen nu een OC te kunnen draaien boven wat eerder stabiel was.

Het is nu allemaal nog gokken, maar ik denk dat het probleem meer was het snelle schakelen tussen boost level dan de boost levels zelf. Dat komt ook wel meer overeen met de theorieën over de condensators, deze worden voornamelijk gebruikt om fluctuaties bij schakelen tussen boost level op te vangen.
Ja, en 2 Ghz is slomer dan 3 Ghz. Feit. 3 Ghz is slomer dan 4 Ghz. Feit. Allemaal ook feiten die even relevant zijn als jouw 2 Ghz.

Als je 3080 te traag is, dan is er een 3090. En als jij 3090 performance verwacht tegen 3080 prijzen, dan probeer je jezelf alleen maar voor de gek te houden.
Je verwacht dus iets wat je eigenlijk niet hoort te krijgen en dat is dus niet de bedoeling.
Je hoort officieel enkel de geadverteerde boostclocks te krijgen. Dus bijvoorbeeld voor de TUF is het 1740mhz. Alles wat daar boven zit is bonus. Wat er nu een beetje aan de hand is, is dat GPU boost te agressief is, dit is uiteraard nog steeds een fout van Nvidia maar je hoort GEEN 2ghz te halen omdat die dat nu maar doet. Daar zit dus de hele issue.
Welke stelling? Nogmaals. De kaarten horen niet zomaar 2ghz te halen. Ik heb werkelijk geen idee waarom je dat niet begrijpt, het is toch niet zo moeilijk? Daar zit de hele fout.
Je hebt gelijk :+
Anoniem: 599181
@OMD1 oktober 2020 14:42
Heel fijne discussie maar een kaart die crashed zal over het algemeen trager zijn dan een lager geclockte die nooit crashed 👍 gewoon al omdat de kaart nooit crashed en dus constant 100% kan werken zoals het hoord, zonder hapeningen,...

Maar hij heeft idd gelijk 😉 als het werkt is het idd rapper.
ongeveer als dit: je kunt wel 103 rijden, maar dan gaat je auto kapot. 100 is veiliger voor je auto.
Ze adverteren ook met GPU boost. een funcatie van NVIDIA.
Met andere woorden hun schuld. Angry mob!
Yep en GPU Boost doet het ook uitstekend tot en met de geadveertede boostsnelheden
1710Mhz voor een 3080 Fe
1815 Mhz voor een MSI Gaming X trio.

En nu lijkt het wel alsof we recht hebben op een boost tot boven de 2000Mhz.

Eh, hoever vinden al deze angry mobs dan dat hun recht gaat?
Moet de kaart het op 2500Mhz ook nog doen?
Of 3000Mhz?

Just asking omdat ik al die commotie over het niet werken buiten de geadverteerde snelheden echt niet begrijp.
Dan moet die GPUboost maar niet zo hoog clocken. niet onze schuld dat HUN software/hardware ervoor zorgt dat ze boven "geadverteerde" snelheden zitten. Is een functie van hun die dit doet. Dussss we hebben zowiezo recht op een deugdelijk product.
Helemaal eens nu.
Even de software aanpassen dat hij dus niet zo hoog boost en dan hebben we een conform product.
Zo simpel is het
Ja en nee, ze verlagen dan de boost. De boost gaat over de geadverteerde snelheid heen als de temperatuur dit toelaat. Hij zal lager zijn dan dat hij uit de winkel kwam en overclocken zal niet mogelijk zijn maar de geadverteerde snelheid zou stabiel moeten werken.
Technisch gezien? Ja.

Realistisch gezien? Het verschil in snelheid gaat absoluut niet merkbaar zijn. Je kaart gaat wél stabiel zijn in tegenstelling tot nu. Wat heb je liefst? Stabiliteit of statistisch insignificant hogere kloksnelheid met daarbij instabiliteit? Ik zou het wel weten.
Bron? Ik zie juist een aantal forumleden melden dat zij zelfs hogere boosts halen met de nieuwe drivers.
JayZtwocents en Gamers Nexus hebben het er op hun kanaal over gehad, dit allemaal met input van Buildzoid & IgorsLab hun PCB analyse. Hier wordt ook duidelijk de conclusie getrokken dat fabrikanten geen HW fix zullen aanbieden (because money) en wss SW updates met lagere of kortere boost clocks zullen pushen om zo het probleem te verdoezelen.
Dit alles omdat ze zoveel mogelijk mensen ervan willen overtuigen dat hun product volledig OK is, en mensen willen wijsmaken dat het niet opbrengt om te wachten op RDNA2. Spijtig, ben thans wel en NVIDIA fan

[Reactie gewijzigd door Clukers op 29 september 2020 10:00]

Het helpt ook niet dat er vooralsnog absoluut nul bewijs is voor de stelling dat de capaciteiten niet voldoen. Meer dan een hypothese kan je het niet noemen. En zo moeilijk is het niet om het te bewijzen: Pak een onstabiele kaart, trek capaciteiten eraf, stop MLCC capaciteiten erop, is hij nu wel stabiel? Gezien de positie van de capaciteiten is dit prima iets wat handmatig gedaan kan worden.

Dat dit zover mij bekend nog steeds niet gedaan is, creeert bij mij het gevoel over een storm in een glas water.
Deze "test" hebben ze wel al gedaan, alleen ontbreekt een echte conclusie (of ik lees er over) of het nu stabieler was of niet. Verder dan het aanschouwen van betere filtering lees ik niet.

https://www.igorslab.de/e...rce-rtx-3080-andrtx-3090/

Specifiek deze afbeelding: https://www.igorslab.de/w...020/09/Hand-made-MLCC.jpg
Ah bedankt, die had ik nog niet gezien. Maar helaas geen voor-na stabiliteits plotje (oftewel bij welke OC/UC begint hij te crashen).

Edit: Als je het over de duivel hebt: https://www.youtube.com/watch?v=ud6NrbJllzk. Zijn conclusie is dat twee van de caps vervangen een ~20MHz boost clock kan schelen. Dus ja iets, maar niet veel. (Ik verwacht dat voordeel van meer dan twee caps vervangen steeds beperkter wordt).

[Reactie gewijzigd door Sissors op 29 september 2020 10:16]

Vandaar dat ze de designs aanpassen lol omdat er niks mis is.
Bron was deze morgen op reddit een post.. Ik zal eens zoeken op ik hem terug kan vinden :P
Edit Linkje
Er zijn nog enkele posts die het 'bevestigen' dat er minder crashes zijn na de update.
De boost is inderdaad niet minder, maar misschien niet zo agressief meer.

[Reactie gewijzigd door jinks26 op 29 september 2020 08:48]

Zou misschien de voltage curve aangepast zijn? Simpel gezegd is dat welk voltage bij welke snelheod gebruikt wordt. Dat is namelijk zeker geen rechte lijn, maar ook geen mooie curve. Er zitten bij mijn 1080ti nogal wat grilligheden in. Als maar één van de punten een te laag(of te hoog) voltage heeft gaat het fout bij die snelheid.

[Reactie gewijzigd door MN-Power op 29 september 2020 08:55]

Wat is dan het probleem dat de boost niet zo hoog kan? Is de driver dan de oplossing of alleen een lapmiddel om ,,slechte'' kaarten te verbloemen?
Okay, Nvidia, maar wat is dan wel de oorzaak van de instabiliteit?
Bij troubleshooten probeer je zo snel mogelijk potentiële issues uit te schakelen. Wie weet is dit gewoon waar ze gestart zijn - en weten ze het zelf ook nog niet?
Of het heeft niets te maken met de samenstelling, maar bepaald de samenstelling wel uit welke fabriek het komt? En is uiteindelijk de kwaliteit van 1 van de fabrieken lager dan de andere?
Ik lees dat de SP caps slecht tegen hoge frequenties kunnen. Ik heb al van meerdere mensen in mijn directe kring vernomen dat door de max boost frequentie te verlagen de problemen verdwijnen. Dit riekt toch sterk naar sp caps die het probleem zijn. Dan kun je als Nvidia wel zeggen dat dit niet perse het probleem zou hoeven te zijn.... Maar dan kan het nog steeds toch wel het probleem zijn
De caps waar het hierover gaat draaien sowieso niet mee op de hoge frequentie.

Dit is bulk capaciteit voor de grote (trage) schommeling in belasting. Voor het snelle werk zijn de kleinere caps en uiteindelijk (het snelst) de capaciteit tussen de koperlagen van de print.

Of een design goed is, is volledig afhankelijk van de combinatie van al die dingen. En SP caps zijn niet simpelweg slechter dan MLCC's, het is veel complexer dan dat.

Het kan natuurlijk teovallig zo zijn dat de printen met de SP's gewoon een slecht design zijn (op power integrity gebied), maar het is niet simpelweg dat SP's slechter zijn.

PI is afhankelijk van enorm veel aspecten, tot aan de afstanden tussen printlagen en opbouw van de via's toe. Het simpelweg toeschrijven aan 1 type cap is te kort door de bocht.

Er vanuit gaande dat het hele probleem een PI issue is natuurlijk.
Ik lees dat de SP caps slecht tegen hoge frequenties kunnen. Ik heb al van meerdere mensen in mijn directe kring vernomen dat door de max boost frequentie te verlagen de problemen verdwijnen. Dit riekt toch sterk naar sp caps die het probleem zijn.
Max frequentie verlagen heeft niet alleen effect op de caps en is een heel brede oplossing die niet een specifiek probleem aanduid natuurlijk.
Hoeft natuurlijk niet aan de SP Caps te liggen, maar kan ook in de drivers zitten (zo schijnen er nieuwe drivers te zijn met betere stabiliteit), maar het zou bijvoorbeeld ook een te agressief boost algoritme kunnen zijn, waardoor kaarten te hoog proberen te boosten en waar dat een probleem geeft bij chips die niet in de hoogste kwaliteitsbins vallen.

Aangezien de problemen schijnbaar alleen optreden bij kaarten die (ver) Nvidia's geadverteerde specs draaien vind ik het opzich ook niet onlogisch dat Nvidia aangeeft dat het probleem niet (perse) aan de caps ligt. Op de geadverteerde specs lijken deze immers geen problemen te geven.
Dit klopt niet, fabrikanten maken de kaarten naar de specificaties die opgegeven zijn door nVidia.
Het is dus een bewuste keuze om kosten uit te sparen wanneer er 6 grote chips gebruikt worden.
De Founders kaart bevat 4 grote chips and 2 arrays, de duurdere MSI kaart bevat dezelfde samenstelling.
Nou verwacht ik dat de ventus van MSI bijvoorbeeld (niet gecontroleerd) maar 1 array bevat en 5 chips.
Of proberen ze alleen hun partners tevreden te houden.
Voor nVidia zijn zij een groot afzetmarkt, ik heb zelf een "oude" 3rd Party GTX kaart.
Feit is dat met dergelijke berichten mensen nu afwachten of misschien zelfs orders annuleren of terug brengen.
Ze kunnen met drivers de boost clock terugbrengen, maar of mensen dat gaan accepteren is een tweede.
Je praat over een kaart van > €800,-
Ik vraag me eigenlijk af of er, juridisch gezien, eigenlijk wel een mogelijkheid is om dat niet te accepteren zou zo'n bios of driverupdate er komen.

Immers is een paar Mhz boostclock minder (je praat over een performance verschil in de low single digits) nog altijd ver boven de gegarandeerde specs vanuit Nvidia en de AIB's die je bij aankoop mocht verwachten.

Stel ze zouden zo'n aanpassing doorvoren, dan loop je dus eigenlijk enkel een stukje performance mis waarvan je vooraf al niet kon verwachten dat deze per definitie aanwezig zou zijn. Immers is de boost frequentie niet gegarandeerd en afhankelijk van vele factoren, denk aan verbruik, temperatuur (dezelfde kaart kan in verschillende behuizingen anders boosten), silicon kwaliteit en zo zijn er nog wel meer factoren.


Ik vraag me dus best af of bijvoorbeeld het ontbinden van de koop juridisch gezien mogelijk zou zijn in zo'n geval. Het zou mij eigenlijk niet verbazen als dat niet zo is.
Simpel gezegd: Als er geadverteerd wordt met 1400Mhz dan mag dat er niet onder komen na aankoop, dan lijkt het me dat je de aankoop mag ontbinden omdat het product ondeugdelijk is.

Zal natuurlijk over het algemeen wat lastiger zijn, maar in dit geval lijkt het me vrij duidelijk dat dit dan een ondeugdelijk product is.
Dat is hier echter niet van toepassing, er wordt geadverteerd met 17xxMhz en in bepaalde gevallen lijken er problemen te ontstaan bij 2000Mhz en dit lijkt te voorkomen door te begrenzen op bijv. 1975Mhz. Er lijkt er dus geen enkele sprake van te zijn dat de geadverteerde specs niet gehaald worden, in beide gevallen zit je voor en na de gesuggereerde oplossing ver boven hetgeen je op basis van de geadverteerde specs mocht verwachten.
Dan denk ik eerder dat ze bang zijn voor een reactie van de media die, indien ze integer zijn, hun eerdere benchmarks terugtrekken omdat de resultaten niet meer representatief zijn voor hoe de kaart op het moment presteert.

Best een lastige kwestie met moderne GPU's, aangezien het al lang niet meer een geval is de kaarten bij een bepaalde frequentie te testen, maar vrijwel alle clocks dynamisch zijn.
dat is toch al jaren zo ook met processors,

AMD heeft al 3 bios updates uitgebracht om de boost van de 3900 serie goed te krijgen.

niemand die eer rechtzaak start omdat hij de 4.6ghz niet haalt.
Ik dacht dat er bij processors, desktop varianten tenminste, nog altijd een maximale boost wordt opgegeven en voor hoeveel cores dit geldt. Bij GPU's is het nog een flink stuk dynamischer en is er toch überhaupt geen harde bovengrens?

Alleen de K-modellen van Intel zijn bijvoorbeeld vrijgegeven om zelf wat in te kunnen stellen, maar ook daar wordt van de fabrikant geen garantie gegeven over een bepaalde (over-)clockspeed.
Ik verwacht eigenlijk dat dit wel mee zal vallen, Nvidia heeft een driver uitgebracht die het probleem lijkt te verhelpen c.q. verminderen (zal natuurlijk nog goed getest moeten worden), en daar zie je eigenlijk maar minimale prestatie verschillen als ze er al zijn. Ik zie dus eigenlijk niet in, waarom wanneer dit inderdaad de oplossing blijkt te zijn, deze benchmarks niet meer representatief zouden zijn.

Zou je verschillen zien van 5-10% minder prestatirs, dan ja, zou ik je zeker gelijk geven. Deze verschillen lijken er echter niet te zijn in die mate (margin of error werk lijkt het voornamelijk te zijn).
Ik denk overigens een bios update, niet drivers..
Dat is ook de reden, zoals ik begreep, dat de Zotac kaarten minder presteerde, ze hadden de issue al gemerkt en de vbus boost freq verlaagd
Ja maar waarom hebben de founders editions en asus kaarten dan geen problemen en boosten die wel normaal.
De FE is met de 3000 serie geen reference design meer maar nvidias implementatie van een 3000 serie kaart. Het reference design wat de fabrikanten hebben gehad is anders. In hoeverre Asus of Zotac de reference designs hebben gevolgd of niet heb ik geen idee van en is ook niet echt relevant. Feit is dat Asus en Zotac andere fabrikanten zijn, met eigen designs, eigen afwegingen en eigen beslissingen over componenten. Er is niks fundamenteel mis met de Nvidia chips, dus er is ook geen enkele reden aan te nemen dat als 1 fabrikant een probleem heeft, een andere dat ook heeft.
Het is gewoon een feit dat sommige fabrikanten problemen hadden en andere niet.

Je kan genoeg informatie hier over vinden.

Je kan anders ook eens de statements van elke product gaan bekijken, bepaalde zeggen het te weten en op te lossen andere zeggen dat ze het gezien hebben en reeds opgelost werd.

Momenteel zijn de FE en Asus de 2 merken met geen problemen en de duurdere reeks van evga.
Misschien moet je beter lezen? Ik zeg nergens dat er geen probleem is met RTX3xxx kaarten. Ik stel alleen dat het probleem 1) niet in de RTX3xxx chip zit en 2) het feit dat fabrikant A geen probleem heeft niet hoeft te betekenen dat fabrikant B geen probleem heeft, of omgekeerd.

Vroeger was de FE het reference design, en als je dat als fabrikant volgde had je een werkend product dat exact hetzelfde presteerde als de Nvidia FE. Met de RTX3xxx is de FE niet hetzelfde als het reference design. Dus misschien zit daar een probleem, maar dat is voor iedereen hier gissen.

Maar het feit dat zowel de Nvidia FE als de Asus design geen probleem hebben is een goede indicatie dat het probleem niet inherent is aan de RTX3xxx GPU.
Owkey, je herhaald gewoon jezelf, gewoon kwader top. Ik heb nergens vermeld dat jij zegt dat er geen problemen zijn enkel bij bepaalde kaarten / fabrikanten minder of geen. Dus heel de point van mijn vraag was waarom is dit zo.

Iedereen weet trouwens dat de FE kaarten geen referentie design heeft waarom dit ook elke keer vermeld werd, idk. Net een reden om ze bij de 3d party kaarten te rekenen.
Dit klopt helemaal. Nvidia's reference design is een "minimaal" kwaliteitseis. Als Nvidia die kwaliteit wil opschroeven dan doen ze dat, en dat hebben ze dus ook gedaan.
Hoe kom je erbij dat FE kaarten en Asus kaarten er geen last van hebben? Bij elke kaart zijn er gevallen bekend
Anoniem: 599181
@Hakker29 september 2020 14:07
Omdat bij deze, ook evga de ftw3 bvb hogere kwaliteits onderdelen zitten, asus ook, fe ook.

Je hoord inderdaad van alle merken problemen, zeker als er ern hype is van "all 3080's are flawed" blijkbaar vooral bij de crysis game 🤔

Ik kan ook mis zijn, maar dit was wat ik op de forums van evga enzo las. Veel wetenschappelijke feiten zitten er niet achter.


De consensus bij hen was, niet genoeg kunnen testen door ontbrekende drivers,... En een te snel gepushete launch. Waardoor je dan bij de hogere kwaliteits kaarten de fouten minder ziet. In de statement van evga zelf kan je ook een gelijkaardig verhaal terug vinden.
Tja en toch denk ik dat de schuld geven aan een foutje met de boost/te agressieve boost de enigste realistische oplossing is. Een terugroep actie zou enorm duur zijn en waarschijnlijk betekenen dat je je kaart voor een tijd(je) kwijt bent. Ook zouden ze met een driver update hun PCB's niet hoeven aan te passen en de schuld niet op zich te nemen (als het probleem de capacitors layout is ligt de fout waarschijnlijk ook bij Nvidia).

Er zullen vast allerlei discussies ontstaan of het echt een foutje was of dat ze de release benchmarks wouden boosten maar ik gok dat het in de praktijk allemaal wel mee valt.
Het is in ieder geval muziek in de oren van AMD met bignavi voor de deur.
Jammer, het zou relatief een snelle oplossing zijn geweest.
Ja als hun launch dan maar wel vlekkeloos verloopt... Anders kunnen we echt lachen... Of eigenlijk huilen als je net voor bijna 1000 euro kapotte hardware hebt gekocht waarbij Nvidia zegt dat het niet perse aan de SP caps zou hoeven te liggen.
"kapot" ooh no we moeten misschien 20 MHz missen (of in het goeie geval krijg je er 20 bij). Wat een ellende allemaal.
Je kan het ook lezen als: met de goedkopere samenstelling en een lage coreclock boost zijn de kaarten gewoon stabiel en dus is de samenstelling van condensatoren niet direct gelinkt aan de kwaliteit (stabiliteit).
En dat rechtvaardigt volgens jou wel de €800> prijs ? Als ik een kaart koop maar vervolgens niet de volledige kaart kan benutten is dit zeker een big issue. En zou mijn kaart terug sturen en afwachten. Vooral nu met AMD op komst.
Je kan de volledige kaart benutten. Er wordt geadverteerd met snelheid X en die haal je. Dat de snelheid (door geluk/betere bouwkwaliteit) X+y is, dan heb je geluk. De prijs is irrelevant in dit geval, want je wilde de prijs al voor X betalen.
Niet helemaal waar. Nvidia adverteert met de stock clockspeeds, maar iedereen weet dat GPUs tijdens load zichzelf overklokken om beter te presteren. Als de kaart dan hiertoe in mindere mate in staat is, dan wordt het potentieel van de kaart niet volledig benut.
Niet helemaal waar. Nvidia adverteert met de stock clockspeeds, maar iedereen weet dat GPUs tijdens load zichzelf overklokken om beter te presteren. Als de kaart dan hiertoe in mindere mate in staat is, dan wordt het potentieel van de kaart niet volledig benut.
Mag je dat wel overklokken noemen? Voor mij is overklokken is wat per definitie niet door de fabrikant wordt gedaan en iets dat per definitie buiten de afgesproken specs gaat.
Daar valt zeker over te discussiëren! Doorgaans spreekt men hierbij echter wel over overklokken.
Je redenering klopt echt helemaal niet.

Als voorbeeld.
De MSI Gaming X trio wordt aangeboden met
pricewatch: MSI GeForce RTX 3080 Gaming X Trio 10G
1. Nominale snelheid 1440Mhz
2. MAXIMALE turboclock 1815 Mhz

Dat de GPU boost software in staat is om bovenop de GEGARANDEERDE 1815Mhz een extra boost te halen van soms > 200Mhz is leuk meegenomen en niets mis mee maar is geen afgegeven product eigenschap. (beetje als voorbeeld de auto die als spec heeft dat hij 250 km/u haalt en 270 in de praktijk).
Leuk dat je die 20 km/u extra krijgt zonder er voor te hoeven betalen maar je kan er geen rechten aan ontlenen.

Zelfde is hier het geval.
Alleen als er kaarten zijn die adverteren met boost clocks > 2000 Mhz (ik ken ze niet) kan je spreken van een non conformiteit.

Storm in een glas water dus en GPU boost aanpassen dat hij niet verder overklokt dan bv mzx 1950Mhz en alle problemen zijn de wereld uit
Dit klopt. Het is ook normaal dat kaarten (ook dezelfde kaart) onder bepaalde omstandigheden hoger of lager boost. Als de omstandigheden erbarmelijk zijn zit je in principe vast aan je baseclock.
Hangt af van je (use :+ )case; de ambient temp buiten, case temp binnen en allerlei andere variabelen. Als je voor performance gaat hoop je dat je kaart zo hoog mogelijk boost. Mogelijk kan je zeggen dat de kaart zichzelf overklokt tov. de baseclock.

Het is uiteraard wel de bedoeling dat een kaart stabiel blijft als die zelf gaat boosten/overklokken naar een specifieke frequentie. Anders schept dit valse verwachtingen en levert dit teleurstellingen op. Je bent immers niet zelf aan het overklokken; dan hoef je ook niet bij de fabrikant/leverancier aan te kloppen bij issues.

Dat het een storm in een glas water is; er moet eerst maar gekeken worden wat de oorzaak/oorzaken zijn voor de instabiliteit op de "door de kaart" gekozen boostklok. Er kan wel degelijk iets algemeens mis zijn; echter zullen er nog steeds mensen zijn met brakke voedingen of de kaart is exemplarisch niet goed. Het ontwerp is niet goed; et cetera.

Sec; als het boosten naar 1950 in plaats van 2000 dit oplost ga je dit in real life performance niet merken. Als het boosten drastisch lager word; dan ga je dit mogelijk wel merken en zeker in benchmarks. Ik heb recentelijk niet veel van die 30x00 benchmarks gelezen; maar het heeft ook meerwaarde dat men soms een gamebenchmark een X aantal keren herhalen om te zien of de boostclock inzakt oid en wat het met de performance doet.

Ook als early adopter mag je van een goede, stabiele kaart uitgaan. Maar het heeft wel een reden waarom sommigen nog heel even wachten :).
Lijkt een beetje op de GTX 970. Daar werd ook vals geadverteerd dat je 4gb op x snelheid zou hebben. Na veel klachten en zelfs rechtszaken is dit later aangepast naar 3,5gb x snelheid en 0,5gb naar y snelheid.
Nu lijkt het er een beetje op de dat de RTX3000 kaart x snelheid behaald echter wanneer de kaart dat doet dan uitermate onstabiel wordt.

[Reactie gewijzigd door atmozfearsnl op 29 september 2020 10:02]

Die vergelijking gaat hier niet op, Nvidia en de partners adverteren hier immers snelheden in de 17xx tot lage 18xx range. Terwijl de problemen zich slechts lijken de manifesteren in de 20xx range. Die snelheden zijn nooit gegarandeerd of geadverteerd voor zover mij bekend.

Dat sommige kaarten boven potentieel lijken te proberen te presteren maakt ze mogelijk nog niet non-conform. Zeker niet gezien de boostsnelheid sowieso afhankelijk is van vele variabelelen, waarvan sommige niet eens beïnvloedbaar door nvidia (denk aan ambient temperature, airflow in een behuizing e.d.).

Een vergelijking met hoe de 970 geadverteerd werd en dit mogelijke issue zie ik dan ook niet direct. Zeker niet daar het bij de 970 alle kaarten betrof en hier, schijnbaar (volgens mij bekende informatie), slechts een (klein) deel van de kaarten.

[Reactie gewijzigd door Dennism op 29 september 2020 11:32]

Als je auto volgens het boekje 250 kan rijden, en je haalt 270, maar dezelfde auto van de buurman haalt 280 (door een andere luchtfilter -condensator in dit geval- ofzo) ga je dan klagen bij de maker dat hij zijn volle potentieel niet haalt?
Dat is appels met peren vergelijken... Want dan kun je ook beginnen over brandstof verbruik/actieradius van een auto. Deze verschillen per definitie al per auto, laat staan dat de opgegeven verbruiken/actieradius in praktijk zelden behaald kunnen worden, maar de fabrikant wel de waardes opgeeft.

[Reactie gewijzigd door atmozfearsnl op 29 september 2020 09:58]

Het is beide fruit, dus je kan een beetje vergelijken. De kloksnelheid verschilt per definitie ook bij GPU's, betere silicon, andere plek op de wafer, waar nu dus ook condensators aan het lijstje wordt toegevoegd.
Alles boven de geadverteerde snelheid is extra. Als het instabiel wordt is er inderdaad een fout bij de bouwer, maar dat kan dan met een firmware update aangepast worden, zodat hij niet zo hoog boost (zolang hij de geadverteerde snelheid maar haalt)
Ik snap best waar je analogie vandaan komt, maar dit is inderdaad appels met peren vergelijken. Het verschil zit hem namelijk dat bij een auto die extra snelheid puur een bonus is, terwijl bij videokaarten het vermogen om zichzelf over te klokken tijdens load juist een fundamentele feature is.
Het is echter geen gegarandeerde feature, voorbeeld met mogelijk fictieve cijfers:

Als je adverteert met een kaart die 1710Mhz zou moeten halen en deze kaart boost naar 2000Mhz en wordt dan onstabiel. De fabrikant identificeert en repareert na meldingen het probleem, voert een fix door en nu boost de kaart nog maar tot 1975Mhz maar is niet meer instabiel.

Ik denk dat je dan als consument nog een verrekt lastige casus hebt om "Non-Conformiteit" te bewijzen. Immers 1975Mhz zit ook ver boven de geadverteerde 1710Mhz. De geadverteerde boost feature werkt dus ook nog steeds, zij het door een reparatie +-1% minder effectief. Ik denk dat je juridisch dan als consument echt nog best een lastige opgave hebt om dat als "probleem" en dus bijvoorbeeld als reden voor ontbinding er door te krijgen in een eventueel juridisch traject.
Jay van Jay's two cents had hier wel een goed vlog over:
https://www.youtube.com/watch?v=x6bUUEEe-X8

De gegarandeerde boost clock wordt stabiel gehaald, wat de GPU daarboven nog kan is afhankelijk van verschillende factoren, voornamelijk temperatuur en silicon lotery. De Boost algorithms clocken zo hoog als ze kunnen zolang deze maar binnen parameters blijft.
Het lijkt erop dat de GPU 2Ghz in veel gevallen prima haalt, maar bij deze hoge clock's is een goed filter van belang tbv de stabiliteit. iets dat kennelijk marginaal verschil maakt op die snelheden tussen stabiel en niet stabiel. Maar buiten spec van wat Nvidia garandeert. Een volledig MLCC ontwerp lijkt stabieler op die clocks.

Een ander probleem waar de AIB's mee te maken hadden is dat ze geen drivers hadden gekregen om hun kaarten goed te kunnen testen. Tot aan de release wisten zij dus niet of hun ontwerp wel goed zou werken. Dat vind ik wel de grootste blunder van Nvidia.
Het is waar dat de kaarten dynamisch de clockfrequentie kunnen aanpassen. Hoe ver dat kan is een functie van een groot aantal parameters, waaronder dus de caps. Het is ook een functie van de case temperatuur, koeling setup, etcetera. Je kutn daarom niet tot op de MHz exact aangeven wat er mogelijk is, en je kunt ook niet claimen dat een fabrikant elke MHz uit de GPU moet halen. Die laatste Mhz kan namelijk onredelijk duur zijn.
Is dat zo? Kwamen de test resultaten niet al van X+y?
Ten eerste zeg ik nergens iets over de prijs. Daarnaast kan de volledige kaart benut worden zoals hij geadverteerd wordt. Dat je er afhankelijk van de implementatie nog extra er boven op kan krijgen is altijd mooi meegenomen maar daar zijn geen garanties aan te geven.

Het hele punt hier gaat omdat die kaarten zichzelf sneller maken zolang het wattage en de temperatuur het toelaat. Waar die grens ligt is niet geadverteerd omdat dat afhankelijk is per case. Het kan prima zijn dat als jij geen goede koeling hebt hij nooit die boost zal gebruiken, maar ook dan krijg je wat er geadverteerd wordt.
dus jij gelooft onder hevige load gaat de kaart niet omhoog met de clock? dus in idle is het prima en dat voor die prijs ;( je zal dat maar accepteren om een kaart te kopen dat alleen gekoppeld is aan je pc maar je niks er mee kan doen omdat je alles op ultra hebt staan en de kaart opeens onbruikbaar is. 8)7
Ik heb zelf niet zo'n kaart en ik keur het niet goed als gebruiker maar juridisch is er niets mis mee als het in de firmware op een stabiele max clock gezet wordt.
Je krijgt al meer dan dat er beloofd wordt. Er wordt een snelheid van rond de 1700mhz beloofd. Out of the box boosten de meesten al tot rond de 1950mhz. Sommigen boosten alleen blijkbaar zo hoog dat deze begint te crashen. De driver lost het op, maar het is niet duidelijk of de snelheid verlaagd is. In mijn geval niet maar mijn GPU liep ook niet vast.

Zelfs met een flinke undervolt haal ik de nog de 1800 terwijl ik het verbuikt van 320watt heb weten te verlagen tot 260watt
Waarschijnlijk gewoon slechte bins in combinatie met te hoge overclocks.
Niet alleen dat. Ook de samenstelling van de kaarten. Maar als je kijkt naar reviews zie je dat het stroomverbruik van deze kaarten behooorlijk ver boven die van de vorige generatie ligt en dat ze een veel stabielere toevoer vereisen. Verder dan dit gaat de architectuur ook niet meer komen vermoed ik, als het om clocks gaat. Dat is overduidelijk even wennen voor iedereen en zodoende zijn er een paar bordjesbakkers de fout in gegaan. De marges op de 1000 en 2000 series waren veel groter, dus kon je daar qua ontwerp wat meer spelen zonder risico. De 3000 series is de 2000 series op steroids en ze hebben behoorlijk de grens opgezocht.

Ik waardeer dat zelf wel, want ze bieden wat ze kunnen met relatief weinig concessies. Als je hardware hebt zoals dit, wil je die ook maximaal kunnen gebruiken.

Misschien is Nvidia met deze generatie iets te hard van stapel gelopen met het uitpersen van performance. Maar wel leuk als je een variant van de kaarten hebt die stabiel is, weet je zeker dat ze hun best voor je hebben gedaan.

[Reactie gewijzigd door fapkonijntje op 29 september 2020 08:59]

Doe de prijs dan ook lager. Als je al weet dit is het probleem.
Maakt niet uit of ze 1000, 800 of 600 euro waren. Zelfs als je een nieuwe kaart van 100 euro koopt verwacht je dat hij stabiel werkt. De klachten waren er (terecht!) niet minder om geweest bij een lagere prijs.
Goed punt hier. Dat zou dus kunnen betekenen dat de stroomtoevoer vanuit het moederbord niet stabiel genoeg is voor de kaart?
Of, anders gezegd, dat de kaart gewoon teveel vraagt van het moederbord in kwestie?
Vergeet m.b.t. de stroomtoevoer de voedingen niet.

Deze kaarten vragen het absolute maximum van tweemaal de GPU connector. Reviewers (o.a. LTT) hebben ook tussen neus en lippen door genoemd dat de kaart in eerste instantie niet goed werkte met een voeding van ruim voldoende vermogen, en hierna bij wisseling van de voeding het wel goed deden.

Ik kan me heel goed voorstellen dat de AIB partners niet met matige voedingen getest hebben, en de mensen die dit nu kopen het aan een vele jaren oude voeding leggen (heb zelf bijvoorbeeld een Zen 2 Ryzen, maar een meer dan 10 jaar oude voeding). Omdat deze voedingen formeel genoeg capaciteit hebben, ligt dit lastig.
Waarschijnlijk drivers, aangezien ze al een nieuwe driver hebben uitgebracht met een fix voor de crashes.
Gisteren is er een Nvidia driver update voor de RTX 3080 uitgebracht die voor veel mensen de stabiliteitsproblemen oplossen. Zelf had ik geen last van chrashes bij mijn 3080FE, dus ik kan het niet bevestigen.
Dit komt inderdaad een beetje over alsof Nvidia partners niet wil beschuldigen. Maar ze zijn zelf deel van de oorzaak, als ze drivers eerder beschikbaar zouden stellen voor de partners dan zouden die daadwerkelijk hun designs kunnen valideren. Nu krijgen ze de driver een of misschien enkele dagen voor de release, dus al nadat kaarten zijn verstuurd. Early adopters betalen dus flink om beta testers te zijn.

Het is bijzonder te noemen hoe vaak dit zonder problemen is gebeurd.
Busted:

...is niet noodzakelijk een indicatie...

Daarom is alles gezegd. Lijkt wel bijna politiek. Ze houden met het woord "noodzakelijk" een slag om de arm als het erop aankomt. Ze weten het simpel gezegd niet.
Anders hadden ze wel melden: "... is zeker niet de oorzaak..."
Voor mij is dit een rede om nadrukkelijk naar een RTX 3080 te zoeken die voornamelijk uit MLCC-groeperingen bestaat. Ondanks dat volgens NVIDIA dit niet dit met kwaliteit te maken heeft ben ik zelf toch voorstander van producenten die niet op dit soort zaken al te veel geld willen besparen.
Maar dat is juist het interessante, normaliter is er een correlatie tussen geld besparen en de gebruikte onderdelen. Met het feit dat juist MLCC goedkoper is wordt dit omgedraaid.

Ik zou nu niet eens op zoek gaan naar deze specifieke kaarten, maar even afwachten waar de fabrikanten mee komen. Zowel MSI als Asus hebben al wijzigingen doorgevoerd in board design.
Voorheen werd overal gezegd dat MLCC's duurder waren en dat SP-CAPS (destijds onjuist aangeduid als POSCAPS) juist goedkoop waren. Nu snap ik er helemaal niks meer van...
Dit is een beetje scheef verwoord in het artikel. De MLCC's zijn per stuk goedkoper maar je ehbt er 10 nodig om 1 sp-cap te vervangen.
Klopt en je PCB is ook complexer en er is nu eenmaal meer tijd nodig om 10 componenten te plaatsen dan 1.
Zou wel eens kunnen kloppen want een zo'n MLCC ziet er veel kleiner uit dan een SP cap.
Ik wil naar een 3080 gaan kijken als de AMD kaarten uit zijn en vroeg me af waar je precies op let bij webshop/producenten. Het is niet dat de pricewatch of coolblue deze info erbij zet. Staat dit altijd op de website van de producent?
Tsja, dit is lastig precies te achterhalen, zeker als je het voor elk model moet doen. Ik zou af en toe het volgende topic doorlezen de komende tijd: [ZT][Nvidia GeForce RTX 30XX] Ervaringen & Discussie

Als er serieuze issues zijn met een model dan wordt het daar wel besproken, ook krijg je dan inzicht in wat de populaire varianten zijn en kan je daar op aansluiten :)
Ligt eraan wat je zoekt, een extra stille kaart of betere koeling, of de allerbeste prestaties, je kunt het best de benchmarks afwachten met alle verschillende merken die getest zullen worden hier op tweakers/hardware.info
Reviews kijken.
Ik ga nooit uit van info op winkel webpagina's en gegevens op de officiële websites.
Er zijn genoeg reviewers die hardware goed onder de loep nemen en deze vergelijken met andere opties.

Voor mij is dat wel een nadeel omdat ik maar blijf kijken naar reviews en uiteindelijk mijn lat steeds hoger ga leggen en ik daarmee steeds boven mijn budget uitkom.

Maar miskopen komen daarmee erg weinig voor.
Ja ik ken het, je wilt upgraden of een nieuwe build. Je hebt een bedragen in gedachten, maar voor je het weet zit je er alweer overheen. Maar dan heb je ook wat inderdaad.
Pfff wat hebben nvidia en hun partners geblunderd zeg. Daarom koop ik dus niet gelijk de eerste batch.

Jammer dat het niet toegegeven wordt door nvidia. Andere fabriekanten doen dat een stuk beter!

Een nee nvidia, een driverupdate die je boostclock verlaagd is onacceptabel.

[Reactie gewijzigd door jordynegen11 op 29 september 2020 09:03]

Ik lees net op het forum dat met deze driver verder overgeklokt kan worden. Ook op sp-cap kaarten. Minder pieken maar hogere gemiddelde klok.

Het kan goed dat fabrikanten MLCC's gaan gebruiken om van het slechte imago af te komen. Hoewel sp-caps volgens dit bericht betrouwbaarder zijn.

[Reactie gewijzigd door lordawesome op 29 september 2020 09:47]

Dat je verder kunt overklokken komt puur omdat Nvidia het boostalgoritme zodanig heeft aangepast in de nieuwe driver dat de maximale boostfrequenties lager uitkomen. Met andere woorden, het verschil tussen de basisfrequentie en maximale boostfrequentie was bij de oude driver groter. Je komt qua nettoprestaties maar ietsjes beter uit.
Dit is de reden dat ik niet voorop loop met nieuwe hardware. Laat ze eerst maar eens een half jaartje de aanloop troubles oplossen.

(Ja, geldt ook voor PS5, Xbox, en telefoons :) )

[Reactie gewijzigd door Wisher op 29 september 2020 08:36]

Helemaal juist, early adopten is niet leuk meer tegenwoordig.
Kost de wereld en vrijwel alle hardware heeft in 1e instantie wel iets.
Mede door de push van oa deadlines ivm competitie releases zie je dat hardware in een verre beta status de deur uit gaat.

Ik zie in 2021 wel wat ik in mijn nieuwe game PC ga stoppen. Tegen die tijd is er duidelijkheid
Er is wel een nadeel aan afwachten. De MSRP bij videokaarten werd bij enkele recente launches alleen in het begin gehaald.

We hebben nu minder last van miners, maar zitten wel met corona wat de vraag verhoogt en de productie verlaagt. Scalpers zijn nu ook een probleem.
Het antwoord op scalpers is gewoon wachten.
Ze blijven ze echt wel produceren en idd miners zijn geen issue meer.
Je ziet nu vanwege cyberpunk en FS2020 een enorme vraag maar na het nieuwe jaar is die hype wel weg en zijn veel gamers bezig met hun gen5 console dus voorzie ik een dip in de vraag en stabiliseert de boel weer.
Mijn beweegreden is is FS2020 maar ik wacht al zo lang en 6 maand meer of minder boeit mij niet zo.
Ik hoop het voor je. Maar de prijzen zijn hoog gebleven in het verleden. De voorraden zullen wel stabiliseren.

Ik verwacht dat Flight Simulator nog flink beter gaat presteren. Het gebruikt nu maar enkele cores en ze willen toekomstige XSX optimalisaties naar pc brengen. Dx12 Ultimate heeft een aantal interessante optimalisaties. En het heeft nu nog geen eens DLSS.
De eerste paar maanden zijn altijd een ramp, maar door te wachten op refreshes zoals de super kaarten de vorige generatie heb je vaak wel een stuk betere value.

Niet alleen betere value qua performance maar tegen die tijd zijn vaak eventuele stabiliteitsproblemen ook opgelost.

Die kwamen uit in juli 2019, vergeleken met september 2018 voor de eerste 2000 series kaarten.

Maar goed het probleem blijft natuurlijk dat er altijd iets beters komt en je ziet vaak mensen de launch van een nieuwe serie zo erg hypen, dat iedereen voor die launch al 6 tot 12 maanden uit heeft lopen stellen. Dan willen ze natuurlijk niet horen dat ze beter nog even kunnen wachten (en dan wel lopen klagen als er een half jaar later een goedkopere refresh aangekondigd wordt want de net nieuwe kaart is niet meer het beste van het beste).
Tja, iedereen maakt zo zijn keuzes.
Ik heb de tijd van Pionieren wel gehad want het was niet goed voor mijn bloeddruk en ook niet best voor mijn portomonaie.

En idd, er zullen best nog wel optimalisaties uitkomen voor FS2020 dus dat is prachtig. Het is wel bizar dat het paradepaardje van MS hun eigen Dx12 niet eens ondersteund.
Dat is op zijn minst opmerkelijk te noemen.
Ja he. Microsofts FS zonder DX12. Laat staan DX12 Ultimate.

Dus dat verwacht ik wel. Of DLSS komt, geen idee. Misschien wel, leuk voor Nvidia om DLSS benchmarks met AMD zonder DLSS te vergelijken. FS lijkt tenslotte een van de zwaarste games nu.
Benieuwd wat AMD gaat doen met hun nieuwe kaart.
Ze liepen best wel flink achter (geen idee waarom) en hebben dus echt wat goed te maken willen ze nog relevant zijn in deze sector.

DLSS zegt mij nog niks.
Ik denk dat je beter op een nieuwe generatie dan op een refresh kan wachten. Als je voor prijs/prestatie wilt gaan.

Nu was de 20-serie qua prijs/performance om van te huilen. Dan deed de 10-serie het flink beter. De 30-serie nu biedt trouwens ongelofelijk veel value. Kijk even naar dit leuke grafiekje: https://imgur.com/a/btvzCKS

Misschien dat AMD ook met iets geweldigs komt. Binnen een maand wordt hij aangekondigd. Als je niet op 4k gamet is dat denk ik de moeite waard.

Persoonlijk zit ik wel op 4k en verwacht ik niet dat AMD de 3080 snelheden haalt. Vanwege het ontbreken van de extra FP32 performance en DLSS en vanwege de krappe geheugensnelheid. DDR6 op 256 bit is ongeveer 500GB/s tov 750GB/s van 3080.
Dit is de reden dat ik niet voorop loop met nieuwe hardware/software/alles*. Laat ze eerst maar eens een half jaartje de aanloop troubles oplossen.

(Ja, geldt ook voor PS5, Xbox, en telefoons :) )
*fixed
Net als dat gedoe met mijn Ryzen 2700X, en moederborden die het nog niet snapten.
Mocht je van AMD een oude Ryzen lenen, kreeg je bijvoorbeeld een 1400 in de post,
kon je daarmee je bios flashen, en dan die 2700X er in, en moest je de 1400 terugsturen.
Vraag me af of ze dat tegenwoordig beter op orde hebben.

Met telefoons wacht ik ongeveer een decennium. :-)
Net als dat gedoe met mijn Ryzen 2700X, en moederborden die het nog niet snapten.
Mocht je van AMD een oude Ryzen lenen, kreeg je bijvoorbeeld een 1400 in de post,
kon je daarmee je bios flashen, en dan die 2700X er in, en moest je de 1400 terugsturen.
Vraag me af of ze dat tegenwoordig beter op orde hebben.
Daar is niet eenvoudig wat aan te doen, want AMD moederborden ondersteunen vaak processoren die nog niet bestaan wanneer het moederbord wordt uitgebracht. De BIOS die nodig is om een nieuwe generatie CPUs te ondersteunen op een moederbord van de generatie ervoor komt meestal op z'n vroegst pas vlak voor de release uit. Hoewel moederborden vanuit de fabriek vervolgens de nieuwste BIOS meekrijgen, duurt het nog een aantal maanden voordat winkeliers door de oude voorraad heen zijn.

Tegenwoordig hebben veel AMD moederborden echter de mogelijkheid om een BIOS update te installeren zonder dat er een CPU geinstalleerd is. Hiermee is de noodzaak voor een leen-CPU van de vorige generatie gelukkig weg.
Ik snap ook wel dat er niet eenvoudig wat aan te doen is, en het is best service hoe ze dat hebben opgelost, maar het was wel irritant. ;)
Geen idee. Dan gaan ze je vast heel sjaggo aankijken en als je het nog drie keer doet tegen je mama zeggen. ;)

[Reactie gewijzigd door hooibergje op 29 september 2020 10:16]

Ik heb zelf het idee dat het een klein onderdeel van het probleem is. Dit zijn nieuwe kaarten met dus nieuwe componenten waar eigenlijk al zoveel marge in zou moeten zitten dat ze over 2/3 jaar nog steeds prima werken. Caps zullen in verloop van tijd bij gebruik en hitte een beetje capaciteit verliezen en er zijn verschillende omstandigheden zoals voedingen en temperaturen waar de kaarten goed in zouden moeten werken ook als ze 2 jaar oud zijn.

Ik vermoed dat het boost algoritme net wat te aggresief en snel is, gecombineerd met een kleine chip (node is kleiner geworden), waardoor de spanningsval in een keer best groot kan worden. de caps achterop helpen dan iets, maar zijn niet de bron van het probleem.het is wel iets wat prima opgelost kan worden met een software update.
Zoals al een aantal mensen aan het zeggen was: de verschillende types van caps hebben verschillende functies en het is veeel te makkelijk te zeggen "dit is de oorzaak" en "x is slecht en y is goed" . Zowat alle kaarten gelijk hun samenstelling hebben problemen. Het gaat hier ongetwijfeld over een combinatie van factoren.

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee