Onderzoekers waarschuwen voor 'toevalspapegaai' bij AI-tekstgenerators

AI-onderzoekers waarschuwen voor het effect van een 'stochastische papegaai' bij AI-tekstgenerators. Zij zouden liever zien dat bedrijven kleinere, gecureerde datasets gebruiken om modellen te trainen.

Onderzoekers die bezig zijn met risico's van AI hielden onlangs daarom een 'dag van de stochastische papegaai', meldt Venturebeat. Die term komt uit een paper van twee onderzoekers die destijds bij Google werkten over de risico's van Large Language Models, zoals de modellen voor tekstgenerators heten. Dergelijke systemen zijn 'toevalspapegaaien', omdat ze net als die dieren woorden herhalen die ze uit hun trainingsdata halen zonder zich bewust te zijn van de betekenis.

Veel van de bezwaren uit die paper gelden nog steeds. Door de grote dataset zit daar veel materiaal bij dat AI-tekstgenerators niet zouden moeten herhalen, zoals oproepen tot geweld, porno en discriminatie. Bedrijven proberen die eruit te halen door mensen correcties te laten uitvoeren. Die mensen zijn in het geval van OpenAI laag betaalde Kenianen, schreef Time eerder. Daardoor ligt uitbuiting van werknemers op de loer, betogen de onderzoekers.

Bovendien zit er een bias in teksten op internet, omdat die in hoge mate geschreven zijn door witte mensen en meer door mannen dan door vrouwen, zo vrezen de onderzoekers. Daardoor komt die bias automatisch terecht in het LLM, zonder dat daar duidelijk is hoe die tot stand komt.

Oplossingen zijn onder meer werken met kleinere, gecureerde datasets voor training. Dat moet veel van de problemen rond moderatie en bias voorkomen. Daarnaast willen sommige wetenschappers dat AI-modellen transparant zijn over waar zij antwoorden vandaan halen.

Door Arnoud Wokke

Redacteur

20-03-2023 • 20:39

149 Linkedin Whatsapp

Reacties (149)

149
143
54
11
0
69
Wijzig sortering
Het probleem is simpel, AI is nog lang niet intelligent.

Iemand anders noemt even snel "Kinderen komen van de ooievaar". Een klein kind in een gezin heeft een vrij grote kans om al snel te leren dat dit niet waar is door de geboorte van een broertje of zusje. Dan kan iemand je proberen te vertellen dat een baby door de ooievaar wordt gebracht, je ziet als kind letterlijk voor je dat het niet zo is.

Een volwassen mens kan een video van een geboorte zien en daaruit heel duidelijk opmaken dat er geen ooievaars aan te pas komen.

Een dergelijke conclusie kan een AI nog lang niet maken. Het kan zelfs niet beredeneren uit aangeleverde teksten wat de waarheid is, het kan alleen maar een statistische analyse doen. Als je het voert met fabeltjes dan worden fabeltjes de waarheid.

Dat is gelijk ook een fout met de redenatie dat een feit dat het meest voorkomt ook waar is. Wordt een baby gebaart door de moeder? Ja? Nee dus, draag-moederschap. De moeder is ei-donor, niet de gene waar de baby uitkomt. En er zijn pogingen met kalfjes en kunstmatige baarmoeders.

Hoeveel fingers heeft een mens bij geboorte? Gemiddeld gezien NIET vijf. Er zijn mensen met meer vingers, heel weinig maar het gemiddelde aantal zal een fractie hoger liggen.

Als mens kunnen we met dat soort dingen makkelijk overweg. De Simpsons zijn mensen en die hebben 4 vingers... Niemand die daar over valt.

Toch zie je bij AI generatie dat het daar behoorlijk misgaat, plaatjes van realistische mensen met verwrongen handen met 7 vingers en plaatjes in style van Simpsons met 5 vingers.

De AI "weet" het wel maar begrijpt het niet. Een mensenlijk tekenaar weet gewoon hoeveel vingers hij moet tekenen, de AI begrijpt eigenlijk niet eens wat een vinger is. Als je plaatjes genereert dan heeft de AI het vaker fout dan goed als het op de details aankomt en zijn de verhoudingen vaak compleet zoek. Tekenaars bestuderen het menselijk lichaam en begrijpen wat wel en niet kan. De AI copieert iets, manipuleert het en hoopt dat het goed is maar snapt het niet.

Een klein kind zal al snel leren bij het tekenen van poppetjes dat je niet maar vingers blijft tekenen aan een hand en kan dat doen door naar de eigen hand te kijken en dit zelf te beredeneren. En kan zich ook aanpassen dat opa geen duim heeft en opa met vier vingers tekenen aan een hand.

De huidige AI is best aardig maar het is inderdaad een papegaai. Het herhaalt maar begrijpt niet.
Het probleem is simpel, AI is nog lang niet intelligent.
...voor een arbitraire (en volgens mij zwaar achterhaalde) definitie van 'intelligent'.
Waar je waarschijnlijk (grotendeels) naar verwijst is 'general intelligence' (geen idee wat de nederlandse benaming is). Dit is een type intelligentie die in staat is voor willekeurige problemen een (mogelijke) oplossing te formuleren. Dit is iets dat mensen ook in beperkte mate kunnen en is zo ongeveer de heilige graal binnen de AI wereld.

Maar dat neemt niet weg dat systemen die niet in staat zijn tot 'general intelligence' gewoon als intelligent kunnen worden aangeduid.
Ja daar zit dus het verschil, ik noem pas iets intelligent als het problemen zelf kan oplossen. Dat is tenslotte ook hoe mensen intelligentie beoordelen bij dieren. Zelf herkenning, probleem oplossing en gebruik van gereedschappen.

Natuurlijk noemen we een thermostaat die iets meer kan dan aan-uit bij een bepaalde temperatuur ook slim maar toch leg ik de lat wat hoger voor slim en al helemaal voor intelligent.

Het originele half-life waar je in een toren zit en er een paar granaten van beneden naar boven waar jij zit worden gegooid. Als dat de AI was geweest dan zou ik onder de indruk zijn geweest als die had besloten dat je granaten niet alleen ver maar ook omhoog kan gooien. Maar dat was natuurlijk een script.

Ik wil iets meer creativiteit voor ik iets intelligent ga noemen.
Zelf herkenning, probleem oplossing en gebruik van gereedschappen.
Dit zijn allemaal dingen die allang gedemonstreerd zijn met AI.
Overigens betekent dit nog niet dat er sprake is van zelfbewustzijn oid. Maar omgaan met het object 'zelf' in relatie tot de omgeving, formuleren van problemen en oplossingen, gebruik van gereedschappen. Dat is wel al gedaan.

Het feit dat je wat brakke game-AI van 20 jaar geleden aanhaalt verandert daar niks aan.

En het woord 'slim' heeft niets te maken met de discussie over intelligentie. Bijen zijn intelligent, maar niet erg slim.
Dit is een bekend patroon in de AI. We verschuiven elke ker de definitie van "intelligentie" op het moment dat AI weer iets onder de knie krijgt. Wat we hierbij niet uit het oog moeten verliezen is dat we wel graag een definitie hebben waarin wijzelf nog een intelligente diersoort blijven.

Wat betreft de "game AI die nieuwe strategieën spontaan bedenkt", die stap is al in 2015 genomen met AlphaGo van DeepMind.
Je vat de koe bij de hoorns.

AI: Niet letterlijk he!
Moet nu denken aan Hans Teeuwen met zijn stukje over de middelbare school.
Ik zal je zeggen, als je in die tijd een leraar doodstak waren de rapen gaar, dat wil zeggen, de spreekwoordelijke rapen, geen echte rapen natuurlijk, dat snap je hè.
Zijn geen echte rapen die gaar waren, dat zijn spreekwoordelijke rapen, is een uitdrukking, is een gezegde,
is een manier om iets duidelijk te maken, is een gezegswijze. Maar geen echte rapen natuurlijk hè dat snap je hè.
Geen echte rapen die gaar waren dat waren spreekwoordelijke rapen, die waren gaar, maar geen echte rapen natuurlijk, natuurlijk niet.
Spreekwoordelijke rapen, die waren gaar,
maar de echte rapen natuurlijk niet.
Tuurlijk niet!
Dachten jullie dat dat echte rapen zijn?
Tuurlijk waren dat geen echte rapen,
denk nu toch eens na!
Dat kan toch helemaal niet!
Echte rapen die gaar waren!
Op zon moment?!
Op zon moment?!
Dat kan toch helemaal niet man!
Dus die vent die ligt daar dood te bloeden, en in een keer van: Hey de rapen hè!
Dat kan toch niet man!
Dat zijn spreekwoordelijke rapen, die zijn gaar!
Luister, luister, luister! Ik wil alleen maar zeggen,
als je zoiets flikte in die tijd, dan had je de poppen aan het dansen.
Dat bedoel ik. Maar geen echte poppen natuurlijk.
Nee! Poppen kunnen toch niet dansen man!
Je kan ze wel laten dansen, met een touwtje kun je ze laten dansen maar als je ze weg dan uggg, gebeurt er niks.
Die poppen kunnen helemaal niet dansen, dat zijn spreekwoordelijke poppen, dat overdraaglijk, das allemaal niet echt, das figuurlijk.
Ik bedoel, luister, die rapen en die poppen is van hetzelfde laken een pak, dat bedoel ik.
Ja, das geen echt pak.
Tuurlijk is dat geen echt pak, een echt pak.
Wie maakt dr een pak van lakens? Wie? Wie? Wie?
Zal ik zeggen wie?
De kukluxklan.
Die wel. Maar luister, nee!
Die hebben er niets mee te maken.
Die worden er dan met de haren bijgesleept, met de spreekwoordelijke haren worden ze er bijgesleept.
Want dat kan niet hè, want dan moeten ze eerst die puntmuts af.
Maar mensen denk nou toch eens na!
Mag ik even iets zeggen misschien, das heel raar, jullie denken nou die vent die ligt daar met 30 passers in nek kapot te gaan in zn eigen bloed, op dat moment denkt iemand: zo dan gaan we eens even wat rapen klaarmaken hè Hey hallo poppetjes, wat zijn jullie daar leuk aan het dansen Oh, daar hebben we de kukluxklan, hallo gezellig, kom erbij, puntmuts af, bij de haren pakken Dat kan toch niet man. Alles moet ik uitleggen, ik vind dat zo vervelend!
Geweldig, goeie oude tijden, make Hans Teeuwen greet agen :9
Haha zeker maar denk dat hij dat beter zelf kan doen. Het niveau van de heer Teeuwen is nu wel echt onder het nulpunt gedaald. Geen echt nulpunt he. Bij wijze van spreken, als zegwijze én figuurlijk. Want als het echt was dan zou hij net zo dood zijn als die leraar en geen grappen meer maken. Maar ja figuurllijk is hij dat tegenwoordig wel een beetje. ;)
En nu een samenvatting laten maken door een AI van dit stuk...
Dan komt er bij GPT dit uit:

De tekst gaat over dat als je in die tijd iemand doodstak, dat dan de rapen gaar waren, maar dat geen echte rapen waren, maar spreekwoordelijke rapen. Hetzelfde geldt voor poppen, die konden helemaal niet dansen. De tekst maakt duidelijk dat je het moet uitleggen omdat het niet kan dat er echte rapen of echte poppen zijn die dansen. Het gaat erom dat je in die tijd een zware straf kreeg als je iemand doodstak.
Toch best wel indrukwekkend...
Anoniem: 450173
@sfc197121 maart 2023 09:44
Het probleem is dat mensen intelligentie bepalen adhv hun impressie. Das een bizarre definitie van intelligentie.
Zo ook jouw uitleg.

AI is wel degelijk intelligent. Maar je hebt een specifiek soort intelligentie nodig om dat te kunnen beoordelen.
AI is net zoals alles wat ervoor kwam gewoon een algoritme met wat meer knopjes, dat is niet intelligent, het is met intelligentie in elkaar gezet.

Het doet verder maar wat, en dat is geheel gestuurd door onze menselijke, beperkte input. Vervolgens gaan mensen die input wat tweaken om tot 'betere' output te komen. Dat wil zeggen, de AI moet doen wat we verwachten dat ie moet doen. Dat is zo ongeveer de definitie van niet intelligent, maar gewoon uitvoeren volgens gestelde regeltjes.

Een algoritme dus.

Onze definitie van AI is vooral gebaseerd op het beperkte begrip van technologie en de behoefte toch een uitleg over te brengen aan mensen met beperkt begrip. Al met al, AI is een menselijk construct van de psyche, er is geen enkele computer die 'AI' heeft, er is slechts een kleine groep die begrijpt wat ze aan input parameters heeft gebouwd en dat als kraaltjes en spiegeltjes verkoopt aan een wereld vol sukkels die dat nog niet kunnen begrijpen.

History repeats. Volgens mij heette deze onzin een paar jaar geleden nog 'Smart'... Ook gewoon een algoritme met een dataset erachter.

Die hele techinnovatie hausse voelt voor mij steeds meer aan als een 'fools and money will be parted'-race. Wie de meest mistige oplossingen bedenkt, verdient geld in het land van een vogelvrij internet. Alles om het licht aan te houden met lucht. Ik zie ook niet echt op welke punten de wereld er beter van wordt, in de praktijk.

[Reactie gewijzigd door Vayra op 21 maart 2023 12:42]

Dat is juist het probleem met machine learning.
Iedereen gebruikt dat benaming om aan te geven dat iets gebruik maakt van AI.
In werkelijkheid is machine learning enkel een stukje gereedschap wat een algoritme uitspugt.
Machine learning is geen AI maar AI maakt wel gebruik van machine learning.

Je moet dus de nep marketing onzin weg filteren als je het hebt over AI.
Als we de wereld moeten geloven heeft iedereen AI maar in werkelijkheid zijn er maar een paar partijen met een echt weekend AI.
Google is daar een van met MuZero wat geen training data nodig heeft en dus ook niet door de men's gemanipuleerd kan worden.
Of dat een goed idee is staat open ter discussie.
Anoniem: 450173
@Vayra21 maart 2023 12:44
Het is niet in elkaar gezet, maar heeft zichzelf in elkaar gezet door training.
In het begin doet t naar wat, totdat er intelligente structuren ontstaan.
Dát en het eindresultaat samen is het bewijs van intelligentie.
En wie levert de datasets voor training aan? Wie bepaalt hoe lang en hoe hard er getraind wordt? Wie past vervolgens de datasets aan?

Hoe je het wendt of keert, het is meer van hetzelfde. Je pakt een dataset en gaat die analyseren, en dan ook nog finetunen zodat je de uitkomsten krijgt die je wilt.

[Reactie gewijzigd door Vayra op 21 maart 2023 12:46]

Anoniem: 450173
@Vayra21 maart 2023 12:48
Jij bent jaren lang getraint, met een specifieke data input, die door iemand anders bepaald is.

Dus ben je niet intelligent?
Helaas. Die vergelijking gaat niet op, want een mens heeft bewustzijn en de dataset wordt niet door 'iemand' anders bepaald, die wordt constant bijgestuurd en gespiegeld aan de wereld om de mens heen. Gecorrigeerd ook door psychologie en legio andere processen. Een mens stelt constant de vraag 'voelt dit wel goed?'. Een mens heeft ook nog een lichaam dat invloed uitoefent op die processen. Zelfs datgene wat we eten bepaalt wat we beslissen.

De data input is dus niet specifiek bij de mens, de mens bestuurt die grotendeels zelf, met als onderliggend principe 'overleven'.

Er zijn landen waar overheden de dataset met harde hand proberen bij te sturen, maar zodra je aan het principe van 'overleven' gaat knagen, is de terugslag ongekend.

[Reactie gewijzigd door Vayra op 21 maart 2023 12:57]

Anoniem: 450173
@Vayra21 maart 2023 12:57
Dat is zo ongeveer de definitie van niet intelligent, maar gewoon uitvoeren volgens gestelde regeltjes.
Wat is jouw definitie van intelligentie dan wel?

Of bedoel je zelfbewustzijn?

Mijn hele punt is dat mensen intelligentie antropomorphizen en daar hun beslissing op baseren. Iets dat niet op gaat bij het beoordelen van intelligentie.
Kijk naar het onderwijs. Daar is men er steeds beter achter gekomen dat het opdreunen van feitenlijstjes en jaartallen bij geschiedenis niet echt een geweldige vorm van 'intelligentie' is. Het is feitenkennis. Is 'kennis' dan intelligentie? Ik denk het niet. Het toepassen van kennis, dat is een graadmeter van intelligentie. En daarin is de 'AI' bedroevend slecht, als ze het zelf moet doen en niet wordt bijgestuurd door mensen.

[Reactie gewijzigd door Vayra op 21 maart 2023 13:00]

Anoniem: 450173
@Vayra21 maart 2023 13:49
Het selecteren van data, hervormen, compact maken en uitdragen van relevante informatie is inderdaad een vorm van intelligentie.

Mensen zijn net als AI erg slecht in het toepassen van kennis, vooral wanneer ze niet ondersteund worden door externe bronnen van intelligentie.

Een erg hoge lat dus. Gelukkig zijn er verschillende vormen van intelligentie.

[Reactie gewijzigd door Anoniem: 450173 op 21 maart 2023 13:50]

En daarin is de 'AI' bedroevend slecht, als ze het zelf moet doen en niet wordt bijgestuurd door mensen.
Een mens is anders ook bedroevend slecht in intelligentie alsie niet wordt bijgestuurd door andere mensen.
Wie heeft al die schoolboeken geschreven? Ik neem aan dat je het ermee eens bent dat dat door andere mensen gebeurt, die zich weer baseren op kennis gebouwd door talloze andere mensen?
Helaas. Die vergelijking gaat niet op, want een mens heeft bewustzijn
Bewijs eens dat bewustzijn noodzakelijk is voor intelligentie..
Dat lijkt me eigenlijk gewoon logisch, afhankelijk van hoe je intelligentie definieert. Ik definieer het niet als het hebben van heel veel feitenkennis. Ik definieer het als de combinatie van bewustzijn en kennis. De twee versterken elkaar - bewustzijn zorgt ervoor dat we kennis op waarde weten te schatten, ook al maken we daarin beoordelingsfouten; we beoordelen die kennis wel. In AI is dat principe maar zeer beperkt aanwezig, en gebaseerd op totaal andere parameters. Het is ook een bewegend doel: de kennis van vandaag kan morgen gedateerd zijn. Dat weet een mens ook beter; een mens kan daarin ook voorspellingen doen die een AI niet kan. Die voorspelling is gebaseerd op een weging van zowel informatie uit kennis, als uit bewustzijn.

Uiteindelijk gaat het erom hoe en of je kennis kunt benutten, toepassen. En dat toepassen doen wij mensen, zelfs als we ChatGPT gebruiken. Dat is niet een kunstje dat de AI beheerst. Je zou de vraag ook anders kunnen stellen: is een encyclopedie intelligent?

[Reactie gewijzigd door Vayra op 23 maart 2023 16:35]

Ik definieer het als de combinatie van bewustzijn en kennis.
Ooh, dus niet als de mogelijkheid de omgeving te analiseren en een plan op te stellen om een bepaald doel te bereiken? :O
In AI is dat principe maar zeer beperkt aanwezig,
Welke AI heb je het dan over?
Die voorspelling is gebaseerd op een weging van zowel informatie uit kennis, als uit bewustzijn.
Ik zie niet echt hoe bewustzijn ook maar iets met dit hele verhaal te maken heeft. Je haalt het er telkens bij maar verklaart niet hoe dat bewustzijn dan tot intelligentie moet leiden.
En dat toepassen doen wij mensen, zelfs als we ChatGPT gebruiken.
Dat is toch echt omdat chatGPT daarin beperkt is. Het is gemaakt om geen acties te ondernemen in de echte wereld. Het ligt dus aan het specifieke design van chatGPT en niet aan AI in zn algemeenheid.
is een encyclopedie intelligent?
Kan ik aan een encyclopedie vragen om twee begrippen te relateren in een bepaalde context? :z
Als je geleerd was dat getraind met een d is :)
Een dergelijke conclusie kan een AI nog lang niet maken. Het kan zelfs niet beredeneren uit aangeleverde teksten wat de waarheid is, het kan alleen maar een statistische analyse doen
Het menselijk brein werkt anders toch echt wel hetzelfde alleen op een veel complexere schaal. Ook daar gebruiken we kennis en ervaring om een statistische analyse te doen. De waarde die we aan data hechten zorgt voor de conclusie die we onszelf voorhouden. Daarom kan die conclusie ook veranderen door wanneer er andere inzichten zijn. Onder de streep werkt ons brein in groffe lijnen gelijk. Echter met veel minder data (wij beschikken over een veel selectievere dataset) en veel complexere wegingen. Maar dat is enkel een kwestie van tijd.

Het vinger verhaal is een kwestie dat de bron data geen consitentie kent in hand houdingen. Dit is meer alsof je exotische dieren die je niet goed kent in een dierentuin ziet en daarna vraagt iemand je die na te tekenen. Het resultaat zal minder gedetailleerd zijn als iemand die er mee werkt en dus over een grotere dataset beschikt.

En offtopic:
Er zijn mensen met meer vingers, heel weinig maar het gemiddelde aantal zal een fractie hoger liggen.
Er zijn mogelijk net zo veel of meer mensen met minder vingers, dus weet niet of je dit opgezocht hebt, anders challenge ik dat bij deze :)

[Reactie gewijzigd door cyble op 21 maart 2023 10:49]

Als jij een mens een oneindig aantal plaatjes van babies en ooievaars laat zien en 1 foto van een bevalling dan zal ieder mens concluderen wat de waarheid is over waar babies vandaan komen. AI doet dat nog niet.

Zoals je zegt is het menselijk brein veel complexer en kunnen we meer met informatie dan er puur naar kijken als zijnde een statistiek.

Mensen hebben 5 vingers aan een hand.
Er zijn mensen met meer vingers aan een hand.
Er zijn mensen met minder vingers aan een hand.
De simpsons zijn mensen met 4 vingers.

Allemaal tegelijk waar, dat vraagt iets van de mens dat ik bij AI nog niet heb gezien.

Een AI kan veel intelligenter zijn dan een mens. Neem de elders gelinkte porno AI sites. Veel plaatjes daarvan zijn gewoon lichte photoshops van bestaande foto's. Maar er zijn mensen die de AI creatiever krijgen en dan gaat het heel snel fout. Ik weet niet hoeveel ribben een mens heeft maar een beetje AI zou dat toch precies moeten kunnen weten en dan niet te veel ribben tekenen. Of de vagina op de plaats van de venus heuvel tekenen. Of borsten ter hoogte van het sleutelbeen.

Da Vince bestudeerde lijken, er zullen vast anatomy foto's in de dataset hebben gezeten. Een mens kan daar van leren hoe een mens te tekenen. Een AI nog niet. Het kopieert, plakt maar snapt de materie nog gewoon niet zo goed als een redelijke schilder.

Als je een AI zou voeden met alleen maar anatomy foto's zou het geen "kunst" kunnen maken, alleen maar iets anders vormgegeven anatomy foto's. Zie de porno sites nogmaals, de poses zijn echt de meest standaard poses die je maar kunt vinden.

Een echte schilder maakt natuurlijk ook wel eens fouten maar zo fout als een AI komt gewoon niet voor bij mensen.

Het vinger verhaal nogmaals, een mens wordt ook niet gevoed met een database aan consistente hand afbeeldingen om te leren hoe een hand er wel en niet uitziet. Veel schilders leren puur en alleen door zichzelf te bekijken in een spiegel en als ze een realistisch schilderij willen maken van zichzelf zullen niet op eens uit het niets hun maag twee keer zo lang maken.

https://twitter.com/pikat...awing-hands-why-ai-art%2F

Welke mens zou een hand zo verkeerd tekenen als hij voor realisme gaat en welke drugs heeft hij gebruikt?
> Als jij een mens een oneindig aantal plaatjes van babies en ooievaars laat zien en 1 foto van een bevalling dan zal ieder mens concluderen wat de waarheid is over waar babies vandaan komen. AI doet dat nog niet.

Ik denk dat je mensen behoorlijk overschat. De meesten van ons houden hun leven lang vast aan de ideeën waarmee ze grootgebracht zijn. Een enkel stukje (overtuigend) tegenbewijs brengt maar weinigen aan het twijfelen. Jammer genoeg.
Als jij een mens een oneindig aantal plaatjes van babies en ooievaars laat zien en 1 foto van een bevalling dan zal ieder mens concluderen wat de waarheid is over waar babies vandaan komen. AI doet dat nog niet.
En daarom werkt propaganda totaaaaaal niet op mensen.. Toch?
Mensen hebben 5 vingers aan een hand.
Er zijn mensen met meer vingers aan een hand.
Er zijn mensen met minder vingers aan een hand.
De simpsons zijn mensen met 4 vingers.

Allemaal tegelijk waar, dat vraagt iets van de mens dat ik bij AI nog niet heb gezien.
Tja, dat ligt meer aan jou dan aan moderne AI. Elke moderne AI (en dan bedoel ik alles van de laatste 10 jaar) is stochastisch. Jij veronderstelt expertsystemen uit de 20ste eeuw, die inderdaad niet met dit soort informatie konden omgaan.
AI is niet perfect, maar het kan wel degelijk een onderscheid leren maken tussen fantasie en werkelijkheid.
Als je boekjes met volkswijsheden, sagen enz, een lage waarschijnlijkheidswaarde meegeeft en wetenschappelijke artikelen, wetboeken enz. juist een hoge waarde, dan wordt het best gemakkelijk. ChatGPT is inmiddels aan de hand van het taalgebruik in staat om een inschatting van het waarheidsgehalte te maken.
Ah, dus als je eerst een MENS de input laat beoordelen dan kan de AI deze MENSELIJKE input gebruiken in de statistische berekeningen. AI vertellen welk taal gebruik te vertrouwen en welke niet is niet veel beter, als je de leugen dan maar deftig genoeg verteld wordt deze nog als waar gezien.

Intelligentie zou betekenen dat de AI zelf het beoordelen doet op basis van feiten en logisch redeneren. Intelligentie is meer dan een goed instinct hebben, het is voorbij je instinct kunnen gaan en tot nieuwe conclusies kunnen komen op basis van informatie. Een mot zal nooit wegvliegen van een lamp, het beest komt nooit tot de conclusie, "dit werkt niet, ik moet iets anders proberen". Het weet 1 ding, vlieg op licht af.

Microsoft had een chatbot die toen verleid werd om allerlei uitspraken te doen omdat ze veel in de input zaten. Iets was dus waar voor de chatbot omdat het veel werd herhaald. Dat is geen AI, dat is een popularities wedstrijdje. Dat is misschien goed genoeg voor het besturen van het land maar voor het maken van AI porno wil ik echte intelligentie!
De input van een AI model is een stap die door mensen wordt beïnvloed. Daar ontkom je helaas niet aan.
Je kan beginnen met een aantal wetenschappelijke tijdschriften die je een heel hoog waarheidsgehalte geeft. Populair wetenschappelijke literatuur (voor de leek geschreven) krijgt gewoon diezelfde waardering. Een tijdschrift als National Geographic zit daar iets onder, de Quest zit misschien nog een fractie lager. Daartegenover kan je wat pure fantasie literatuur zetten. Harry Potter krijgt dus heel laag waarheidsgehalte. De sagen zitten op datzelfde niveau en de volkswijsheden hebben al iets meer waarheidsgehalte.
Binnen de wetenschappelijke wereld worden er zowel waarheden als onwaarheden aangetoond, maar ook zaken ter discussie gesteld. In fantasie verhalen zitten ook gewoon waarheden.
Je kan een AI model best trainen op een set van gegevens waar (vrijwel) iedereen het over de indeling eens is. Vervolgens geef je het model nog een stapel input zonder vooraf gedefinieerde waarheidsgehalte.

Daarna moet het inderdaad mogelijk zijn dat een AI-model feiten kan herkennen en ook logisch kan combineren en redeneren. Conclusies trekken zal met AI in best veel gevallen kunnen. Het onderscheid tussen een conclusie en een (algemene) mening is voor een goed AI model zelfs veel gemakkelijker dan wij dat als mensen kunnen.

In hele deftige bewoordingen de meeste onzin als waar verkopen wordt ook nu veel gedaan. In de Corona-tijd waren daar genoeg voorbeelden van te vinden. Veel mensen (zoals Baudet) zien de valse informatie als waarheid. Dat als waarheid aan een AI-model invoeren mag eigenlijk geen probleem zijn. Bij de vergelijking met andere artikelen moet wel aan het licht komen dat reptielen niet intelligent genoeg kunnen zijn om de aarde in het geniep te besturen, maar dat dit een synoniem moet zijn voor een groep mensen, waarvan het bestaan onzeker is.
Naast het probleem dat AI niet "begrijpt" wat het maakt, is het ook altijd een combinatie van de dingen die als invoer hebben gediend. De AI zal nooit iets origineels maken, alleen varianten op en combinaties van het bestaande.

Ik neig ook het daarom eens te zijn met de kunstenaars die vinden dat hun copyrighted werk niet zonder toestemming in de training sets van de AI mag gestopt worden. Je ziet nu al dat veel van de image AI vooral mooie plaatjes maakt als je een prompt geeft met daarin de naam van één of meer kunstenaars. Ik ben geen hele grote fan van veel gebruik van copyright, maar hier juist wel.
Ruim een jaar geleden had ik online een discussie met iemand die beweerde dat zolang AI nog niet eens een lagere school proefwerk kon maken het nog decennia zou duren voor AI intelligent te noemen zou zijn.
Lopende die discussie (duurde alles bij elkaar weken, met eens in de zoveel dagen een berichtje) kwamen de berichten van de AI die schoolexamen gedaan had en daar een ruime voldoende voor scoorde.
ChatGPT doet met gemak Astronomy 101 en nog veel meer examens waar de gemiddelde Nederlander keihard voor zou zakken, schrijft redelijk Python, prima uittreksels, past recepten (vaak goed) aan en noem maar op. Allemaal dingen die lang niet alle mensen kunnen. Maar het is natuurlijk niet genoeg...

Hoe slim wil je het hebben voor het in jouw ogen echt slim is?

Of deze vorm van intelligentie hetzelfde werkt als de menselijke variant? Een computer is geen mens en zal dat waarschijnlijk ook niet worden, maar misschien moeten we er nog een paar honderdduizend jaar evolutie en wat sensorische invoer tegenaan gooien?
Het trainen op kleinere sets komt vanzelf. Het is mooi dat GPT-4 van alles kan, maar de werkelijke waarde voor organisaties om AI zinnig in te zetten zal mijn inziens van gespecialiseerde datasets komen.

Bijvoorbeeld juridische zaken.. "Gegeven rechtszaak X, welke zaken lijkten op dit geval en met welke argumenten kwamen de partijen"

Of diagnose data "Welke medicijnen moeten vermeden worden voor aandoening X voor een man van 38 met deze kenmerken en dit verleden"

En een waarschuwing is natuurlijk goed, maar ga vooral door met ontwikkelen en verbeteren. ChatGPT is al best aardig om controverse te vermijden.
Welke medicijnen moeten vermeden worden voor aandoening X voor een man van 38 met deze kenmerken en dit verleden
Of je dat nou met een taalmodel moet oplossen... je wil een correct antwoord, geen mooi stuk proza. Dat we nu een hamer hebben betekent niet dat elk probleem een spijker is. Je bent dan gewoon de alom gevreesde dokter google aan het automatiseren.

Er zijn genoeg voorbeelden van tekstgenerstors die een prachtig en geloofwaardig antwoord geven dat feitelijk de plank finaal misslaat. Omdat het geen model over domeinspecifieke feiten is, maar over taal.

[Reactie gewijzigd door bwerg op 20 maart 2023 21:09]

De data is opzich wel aanwezig. Ik heb een toets over ontslagrecht door chatgpt gehaald en hij had alles gewoon goed. Het zal natuurlijk per domein behoorlijk verschillen.
Ik heb zowel ChatGPT als Bing een aantal keer geprobeerd. Verhaaltjes laten typen gaat prima, maar antwoord krijgen op een vraag bleek lastig.
- geef me beroepen met een q erin: een lijst waarbij de helft helemaal geen q bevatte
- wie gaat vandaag het wielrennen winnen: "er is geen wedstrijd vandaag, maar morgen is Milaan San Remo." Dat klopte dus niet, MSR was wel degelijk die dag.
- anagrammen oplossen konden beiden ook niet.

Seriously underwhelmed voor wat betreft dit soort dingen dus.
Werkt?
Chatgpt 3.5:
"Geef me beroepen met een q erin"

Hier zijn enkele beroepen met een 'q' erin:

Quantumfysicus
Quizmaster
Quiltdesigner
Quality control manager
Quiche chef
Quantity surveyor
Quarry worker (steenhouwer)
Quiltmaker
Quickbooks accountant
Quidditch scheidsrechter!

"Kun je een anagram maken van tweakers, met woorden die een betekenis hebben."

Natuurlijk, hier zijn enkele anagrammen van "tweakers" met woorden die een betekenis hebben:

Waterkes: dit is een Vlaamse term die wordt gebruikt voor een stukje groente dat wordt gebruikt als decoratie of smaakmaker in een drankje.
Kastweer: dit betekent slecht weer dat je binnen houdt, wat betekent dat je opgesloten zit in een kamer of huis.
Steekwar: dit is een term die wordt gebruikt om een ​​soort gevecht aan te duiden, bijvoorbeeld een strijd tussen rivaliserende bendes.
Wektears: dit zou kunnen verwijzen naar geconserveerd fruit of groente dat is ingemaakt, omdat het werkwoord "wekken" soms wordt gebruikt om voedsel te conserveren.
Saterwek: dit zou [..]
Quiche chef, Quickbooks accountant, en Quidditch scheidsrechter zijn geen beroepen - dat zijn beroepen met een bijpassend woord dat begint met een Q ervoor geplakt. Als ik vraag om een lijst van beroepen dat begint met iedere letter van het alfabet ben ik ook niet tevreden als het aankomt met "Arabische tolk, Bulgaarse tolk, Catalaanse tolk, Duitse tolk, Engelse tolk..."

"Waterkes" is geen woord. Het bedoelt waarschijnlijk "waterkers", wat inderdaad een plantje is dat je in eten kan gooien. En "-kes" klinkt inderdaad al snel Vlaams. "Kastweer", "Steekwar", "Wektears", en "Saterwek" bestaan geen van allen.

Wat hier is gebeurd, is dat het 1) woorden heeft bedacht die anagrammen zijn van Tweakers, en 2) betekenissen voor deze woorden heeft verzonnen. Dit is een compléét ander resultaat dan het bedoelde "zoek bestaande woorden die een anagram zijn voor Tweakers".

Dus nee, je kan niet echt zeggen dat het "werkt". Er komt een resultaat uit dat als je héél snel kijkt plausibel is, maar eigenlijk nergens op slaat.
Als we ChatGPT voor nu zien als een tool om suggesties te genereren, dan is het 'werkt het'.

Als je van ChatGPT verwacht dat het een 100% kloppende output heeft, is het een teleurstelling.
En dat is nou precies het probleem: heel veel mensen die ChatGPT gebruiken gaan er momenteel van uit dat er een bruikbaar antwoord uit komt. Het klinkt immers als een pausibel antwoord, dus waarom zou je daar aan twijfelen als je er zelf geen kennis over hebt?

De grootste uitdaging de komende jaren zal zijn om AIs als ChatGPT zover te krijgen dat ze kunnen zeggen dat ze het niet zeker weten, in plaats van complete onzin te genereren. In de huidige staat is het vooral een héél gevaarlijke autocomplete die je zover mogelijk weg wil houden van praktische toepassingen.
OT maar hier in Vlaanderen kan je op café wel waterkes bestellen, maar dan krijg je geen groente.
In het café is toch wel de laatste plek waar ik zin heb in waterkes :P
En om het aan te vullen: hij lijkt alleen "beroepen" gekozen te hebben die beginnen met een Q, dus dat sluit een overgroot deel van de gewenste resultaten uit.

Dat terwijl de vraag met een querytaal die regexen ondersteunt triviaal is. Wat de stelling ondersteunt: als je een hamer hebt moet je niet alles als een spijker zien.
Dan heb je simpelweg de vraag verkeerd geformuleerd.
Tolk Nederlands Frans is in een advertentie iets heel anders dan tolk Italiaans Sloveens.
Je kunt niet verwachten dat ChatGPT de context van jouw vraag kan raden.
Probeer het eens in het Engels, daar is uiteraard vele malen meer trainingsdata voor. Anders kan je net zo goed GTP2 erbij pakken om je "punt" te maken toch? Het is totaal niet verassend dat de Nederlandse net als de IJslandse versie gewoon niet zo goed is als de Engelse gezien de trainingsdata.
Ik kreeg echt onzin. Ik kan het ook niet helpen :)
- geef me beroepen met een q erin: een lijst waarbij de helft helemaal geen q bevatte
- wie gaat vandaag het wielrennen winnen: "er is geen wedstrijd vandaag, maar morgen is Milaan San Remo." Dat klopte dus niet, MSR was wel degelijk die dag.
- anagrammen oplossen konden beiden ook niet.
Beroepen met een Q werk gewoon. Vergeet niet dat het steeds een vertaling is. Bij taalgevoelige antwoorden zoals rijmpjes kan je best in het Engels testen. (zie ook anagram)

Wie gaat vandaag het wielrennen winnen: Chat GPT kan geen voorspellingen doen. Ook is de kennis beperkt tot 2021 dus als MSR niet of verkeerd op die kalender stond ano 2021 werkt het niet.

Net getest, Anagram werkt perfect in het Engels.
Maar ik had geen Engelse woorden nodig 🤷🏻‍♂️
- geef me beroepen met een q erin: een lijst waarbij de helft helemaal geen q bevatte
Je hebt waarschijnlijk je vraag niet goed genoeg gesteld (vanuit het oogpunt van de bot).
Ik heb het net geprobeert in het engels en het bleek dat een naive vraag erin resulteerde dat het model ook zocht naar een 'q' in de uitleg over het beroep.
Door de query beter te specificeren maakte het nog 1 fout in een lijst van 10.
Nadat ik had gezegd dat dit fout was kreeg ik een lijst met enkel goede andwoorden:
Aquatic ecologist
Boutique owner
Enquiry agent
Liquor store owner
Cinq-a-sept event planner
Quantum physicist
Roque player
Squash coach
Torque tester
Antique dealer
Een AI zoals ChatGPT kan misschien bestaande data op de juiste manier oplepelen: Als je hem een lesmethode voert en daarna vraagt om een examen te doen, zal ie waarschijnlijk een 10 halen omdat het examen precies toetst wat je er met de lesmethode ingestopt hebt. Bij technische onderwerpen (bètavakken) is het antwoord vaak ook éénduidig dus dan kom je daar vrij goed mee weg.

Maar dat maakt die AI nog niet 'slim'. Veel situaties in ons dagelijks leven hebben juist een bepaalde context uit onze algemene ontwikkeling. Dan snapt een AI misschien wel wat een bepaald feit is, maar niet waarom het zo is of waarom het zo tot stand is gekomen. En soms heb je die context juist nodig om bepaalde dingen te begrijpen, vooral bij niet-technische onderwerpen zoals maatschappijleer mist een AI dat inzicht.
Kan je een voorbeeld geven? Ik heb redelijk wat testvragen verstuurd waar je semantische ljnks moest leggen. Chat GPT kan wel degelijk redeneren. Misschien nu nog beperkt maar de basis is wel al in orde. Geen idee wat maatschappijleer is.

Voorbeeld: “ Pete en Sander spelen heel de namiddag in de het modderbeekje. Hun vader komt hen later op de dag ophalen met de auto. Bij aankomst wil hij hen niet zomaar meenemen. Waarom niet? ”

Ai antwoord: “De vader wil voorkomen dat de modder en het vuil van het beekje in zijn auto terechtkomen. Hij kan zijn kinderen vragen om zich eerst te wassen of schone kleren aan te trekken voordat ze in de auto stappen.”

VB 2: Een man zit vast in een kleine grot na een instorting. Hij zit vast en heeft een kleine ruimte om zich te bewegen. (1 meter op 2 meter) Hij heeft een houweel, een explosief en een holle buis beschikking. Welk instrument gebruikt hij best om zich in veiligheid te brengen?

AI antwoord: "Als de man vastzit in een kleine grot met beperkte ruimte om zich te bewegen, kan het gevaarlijk zijn om explosieven te gebruiken, omdat dit mogelijk meer puin en rotsen kan losmaken en hem verder in gevaar kan brengen.In dit geval zou de man het beste de houweel kunnen gebruiken om zich een weg naar buiten te banen."

VB3: Elke keer ik muziek opzet kloppen de buren op de muur. Waarom zou dat zjjn?
AI: "Verschillende mogelijkheden: 1. Geluidsoverlast: Het kan zijn dat het geluid van de muziek te luid is en de buren hinder ondervinden van het lawaai."

VB4:Een oudere man wil niet op reis gaan. hij zegt "de bomen zijn overal even groen" wat bedoelt hij?
AI: "...kan dat betekenen dat die persoon denkt dat alle plaatsen op de wereld min of meer hetzelfde zijn en er niets nieuws te ontdekken valt. Het kan ook betekenen dat de persoon gelukkig en tevreden is met zijn of haar huidige leefomgeving"

Er zijn zeker grenzen aan AI, maar dit is pas de eerste versie die publiek beschikbaar is. Hoe beter het model getraind is hoe meer nuance het kan brengen. Er komen ook versies uit waarbij je bedrijfscontext kan meegeven door AI bijvoorbeeld toegang te geven tot e-mails. Zo kan je een trouble shooting mail uitsturen die ook rekening houd met voorgaande conversaties.

AI wordt ook gebruikt om teksten te herschrijven, ook daar heb je veel context nodig om dat tot een goed einde te brengen.
Het is een woordenvoorspeller. Geen redenatie machine. Zodra het antwoord meer dan 3 zinnen is is de kans groot dat de woorden die in de 4e zin staan de eerste 3 tegenspreken. Probeer eens:

"There are less than 50 cookies in a box. The cookies can be divided fairly between 2 or 3 or 4 children.
However, they cannot be divided fairly between 7 children because 6 more cookies would be needed.
How many cookies are there in the box?"
Op GTP3 krijg ik als antwoord (ik bespaar even de hele uitleg) 'Let's try 24'
Op GTP 4 "So, there are 36 cookies in the box."
Gpt4 lijkt inderdaad beter te werken. Moet nog wel een riedel kwisjes doen om te zien in hoeverre het redeneren is versus woordjes plakken
Fout. ChatGPT heeft de originele data niet en kan deze dus ook niet zomaar repliceren.
Er zit geen "kopie van het internet" in.
Ook al had ChatGPT die wel, het is nog altijd geen intelligentie die in staat is om er over na te denken en te interpreteren wat de informatie betekent. Het heeft wel een woordenboek, maar geen begrip van de woorden.

Het blijft een stochastisch taalmodel dus de feitelijke betekenis (of zelfs de juistheid) van wat er uitkomt is niet belangrijk, alleen dat het taalkundig klopt. En dan wordt er wel het meest waarschijnlijke antwoord uitgepoept, maar of dat juist is of niet, is meer geluk dan wijsheid. Het is niet het doel.

[Reactie gewijzigd door Stoney3K op 22 maart 2023 13:07]

Maar ChatGPT geef op 90% van de vragen 'verstandiger' antwoorden dan 90% van de mensen zouden kunnen.
(De percentages zuig ik uit mijn duim, kom maar met betere als je kunt.)
Zonder toegang tot wikipedia, wetenschappelijke artikelen of programmeercursussen.
Hoe kun je dat niet intelligent noemen?
Juridische zaken zijn allemaal tekst gebaseerde redenaties. Probeerde eens een logica puzzel en gpt (3 en 4) slaan de plank mis. Soms lukt het in beginsel ergens op maar daarna zijn appels ineens citroenen en is antwoord dat de schoenmaat van de kapitein dus 42 is. Probleem is nu in in langere lappen tekst vast te stellen dat er geen onzin staat.
Zeker, hij had moeite met groep 8 "begrrijpend lezen" rekensommetjes. Als nog had ik nooit verwacht dat een dergelijk model het zo goed doet.
Groep 5 lukte ook al niet ;-)
Er zijn genoeg voorbeelden van tekstgenerstors die een prachtig en geloofwaardig antwoord geven dat feitelijk de plank finaal misslaat. Omdat het geen model over domeinspecifieke feiten is, maar over taal.
Ai chat maakt fouten, maar dat heeft toch niets te maken omdat het een taalmodel
Is? Als er een fout ontstaat wil gewoon zeggen dat voor die specifieke vraag het model niet goed getrained is.

Het staat nog in zijn kinderschoenen maar dat heeft weinig te maken met het het feit dat het een ‘taalmodel is’. Een muziek model kan dezelfde fouten maken.

Het is gewoon een informatiemodel dat via taal communiceert omdat we het zo kunnen begrijpen.

[Reactie gewijzigd door Coolstart op 21 maart 2023 06:39]

Het probleem is dat het model geen concept heeft van "correct" of "incorrect". In feite is het gewoon aan het spelen met taal, in de hoop dat er iets zinvols uit komt. Dit werkt redelijk goed voor algemene communicatie, maar het is vrij zinloos als je er feiten uit wil halen. Het gooit een hoop tekst uit internet in één grote bak, en daar zit genoeg tussen om er complete onzin uit te trekken.

Wat je eigenlijk wilt, is dat het "chatgedeelte" los staat van het "feitgedeelte". De AI kan dan dienen als een vertaalstap tussen menselijke tekst en een API die feiten kan leveren. De grote vraag is nu hoe je dat aan elkaar kan koppelen zonder dat de chatkant dingen gaat hallucineren: er zijn al mensen die dit hebben geprobeerd en ChatGPT de functie hebben gegeven om Python-code te genereren en de resultaten daarvan terug te geven, maar in een flink aantal gevallen negeerde het de resultaten en bedacht het zelf iets compleet anders.
Wat je eigenlijk wilt, is dat het "chatgedeelte" los staat van het "feitgedeelte". De AI kan dan dienen als een vertaalstap tussen menselijke tekst en een API die feiten kan leveren.
Sorry, zo werkt het niet. Dan ga je toch ook eest een taalmodel moeten loslaten op onze feitenkennis? Al onze kennis staat in boeken, wikipedia, papers enz.

Onze feitelijke kennis bestaat bijna 100% uit taal. En Gtp4 gaat ook info uit afbeeldingen kunnen halen.

Je kan chat GPT gewoon trainen om de output van een stukje code in python te gebruiken. Het feit dat het soms lukt en soms niet wil gewoon zeggen dat het model nog beter getraind moet worden.
Het probleem is dat het model geen concept heeft van "correct" of "incorrect".
Again GPT kan fouten maken omdat het het onvoldoende getraind is of de data set te klein of onsamenhangend (verbanden onduidelijk).

GPT gaat verbanden tussen woorden zoeken en gewichten toekennen. Het heeft idd geen besef, gevoelens of een bewustzijn. Maar chat gpt kan met die verbanden wel degelijk feitelijke kennis verwerken.
GPT gaat verbanden tussen woorden zoeken en gewichten toekennen. Het heeft idd geen besef, gevoelens of een bewustzijn. Maar chat gpt kan met die verbanden wel degelijk feitelijke kennis verwerken.
Het heeft vooral ook geen begrip van semantiek, dus die verwerking van feiten beperkt zich tot 1) problemen waarvan de semantische en syntactische structuur hetzelfde is, 2) problemen waarvan de achterliggende logica toevallig overeenkomt met de interne representatie van de AI, en 3) problemen waarin mensen het hapklare antwoord al voorgepapegaaid hebben.

Zie het antwoord van @laurxp voor de nadelen van die aanpak. Zodra je query enige vorm van redeneren vereist op een manier die niet in het taalmodel past is chatGPT kansloos.

Nou is 99% van de vragen die een apotheker of huisarts stelt al eens eerder gevraagd, dus daarvoor zou het nog eens kunnen werken ook. Maar bij die 1% van juist de belangrijkste vragen krijg je dus een fantasieantwoord. Mag je alsnog een serieus feitelijk model gaan bouwen om alle bullshit-antwoorden weg te gaan filteren. "We houden de menselijke expert ernaast" is leuk maar als die 99% zo kan overnemen zal die misschien ook die 1% bullshit zo nu en dan over gaan nemen, zonder waarschuwing (want chatGPT heeft geen idee wanneer hij bullshit oplepelt).

"Het model moet gewoon beter getraind worden" is precies zo'n "alles is een spijker"-antwoord, de aanname daarin is al dat het gekozen model de juiste is. Vraag het een database-expert en alles is een relationeel model en de SQL-quries moeten alleen wat beter uitgwerkt worden, vraag het een logicus en alles is predicaatlogica en de feiten moeten alleen wat correcter geformaliseerd worden. Met totaal ongeschikte oplossingen als gevolg.

Als vragen fout worden beantwoord omdat chatGPT de semantische redenering niet oppikt en je gaat dat compenseren met "beter trainen" ben je in feiten aan het wachten tot er zo veel data in je model gestopt is dat je AI alle antwoorden hard-coded aan boord heeft. Een AI'er kan me nog zoveel wijs maken, maar dat gaat nooit schalen. Letterlijk nooit.

[Reactie gewijzigd door bwerg op 21 maart 2023 08:24]

Chat GTO heeft geen begrip maar kan wel overweg met semantiek.

“ Pete en Sander spelen heel de namiddag in de het modderbeekje. Hun vader komt hen later op de dag ophalen met de auto. Bij aankomst wil hij hen niet zomaar meenemen. Waarom niet? ”

Ai antwoord: “De vader wil voorkomen dat de modder en het vuil van het beekje in zijn auto terechtkomen. Hij kan zijn kinderen vragen om zich eerst te wassen of schone kleren aan te trekken voordat ze in de auto stappen.”

Vraag aan ai: “In de supermarkt loopt een persoon met lange jas met af en toe een bobbel in de jas. Een winkelbediende vertrouwd het zaak je niet. Waarom?”

Ai antwoord: “Het feit dat de persoon een lange jas draagt en af en toe een bobbel in de jas heeft, kan suggereren dat hij of zij iets verbergt onder de jas, wat potentieel gevaarlijk of gestolen kan zijn.”

Vraag: “Als A=1 en b=3 hoeveel is C als je weet dat c = a+b +4“
Antwoord ai: “C = 8”

In alle gevallen moest ai redeneren en semantische verbanden leggen tussen de gegeven data, mijn vraag en het antwoord.

Chat Gtp4 heeft nog meer datapunten en nog complexere antwoorden geven. Op een gegeven moment maakt ai minder fouten dan de doktor zelf.

Mensen zijn helemaal niet heilig. Iedereen maakt fouten. Zelfs hele grote fouten. Patiënten verkeerde medicatie meegeven door een verkeerde diagnose. Mensen met duidelijke kanker symptomen die gestorven zijn omdat hun huisarts dacht dat een buikgriep was.

Tot zelfs een ambulancier die de ‘dronken’ student niet wilde meenemen omdat hij de symptomen van een hersenbloeding niet kende.

Dat zou verholpen kunnen worden door ai.
Als A=163546337345637567325123425636547 en b=35678565463742465132453785789 hoeveel is C als je weet dat c = a+b +40846234567546632465476456723451325

De som van A en B kan worden berekend door eenvoudigweg de twee getallen bij elkaar op te tellen:

A + B = 163546337345637567325123425636547 + 35678565463742465132453785789
= 163582015911101308457577181422336

Vervolgens moeten we deze som optellen bij 40846234567546632465476456723451325 om C te vinden:

C = A + B + 40846234567546632465476456723451325
= 163582015911101308457577181422336 + 40846234567546632465476456723451325
= 204428250478648940923053638145787661

Dus C is gelijk aan 204428250478648940923053638145787661.
Als ik het aan een rekenmachine vraag, krijg ik:
>>> 163546337345637567325123425636547 + 35678565463742465132453785789 + 40846234567546632465476456723451325

41009816583457733775266712602873661
Ergens tussen 4 en 41009816583457733775266712602873661 gaat het dus finaal de fout in - maar het is alsnog vrij stellig dat het antwoord correct is: als je de vraag stelt met a=1 & b=3 krijg je namelijk precies dezelfde tekst, maar dan wel met de correcte cijfers.

De grote uitdaging is om AI zo ver te krijgen dat het zelf doorheeft dat het complete onzin aan het verkondigen is, maar op dit moment weten we simpelweg nog niet hoe we dat moeten doen. Meer trainingsdata is niet het antwoord, want er is een oneindig aantal nummers.
Conclusie: AI kan niet rekenen.
Verwacht je dat van een taalmodel?
Mijn rekenmachine met telstrook kan geen pdf document afdrukken.
Dat is inderdaad de conclusie, ja.

Momenteel proberen mensen met een taalmodel te rekenen, en dat gaat tot op zekere hoogte goed, totdat er ineens onzin uit komt. Mijn hele argument was dat je AI aan een rekenmachine moet koppelen om er mee te rekenen, en de AI zo ver moet krijgen om resultaten daarvan aan de gebruiker te geven in plaats van zelf iets te hallucineren.
En als we toch AI met intelligentie vergelijken: mensen kunnen ook niet met dit soort getallen overweg.
Eh, jawel?

Ik weet niet of jij hebt opgelet bij de basisschoolklas wiskunde, maar bij getallen optellen maakt het niet uit hoe lang de getallen zijn: je doet maar één cijfer per keer, en neemt een potentieel tiental mee naar het volgende cijfer.

Je begint bijvoorbeeld voor 163546337345637567325123425636547 + 35678565463742465132453785789 met ..547 + ...789. 7+9=16, dus eerste cijfer is een 6, neem de 1 door naar volgende. 4+8+1=13, 5+7+1=13. Eerste drie cijfers van het resultaat is dus ...336, met een 1 dat je meeneemt voor het 4e cijfer.

Het maakt niet uit hoe lang je de getallen maakt: zodra je het "trucje" door hebt, kan je met pen en papier triviaal getallen van honderden cijfers optellen.

Overigens ben ik op geen enkel moment AI met intelligentie aan het vergelijken.

[Reactie gewijzigd door laurxp op 23 maart 2023 12:24]

Geef honderd willekeurig gekozen Nederlanders jouw voorbeeldsommen en zet een beloning boven het correct oplossen.
Het zou me verbazen als meer dan de helft ertoe in staat is.
Je overschat de rekenvaardigheid van de gemiddelde Nederlander vrees ik.
En nee: rekenen heeft weinig met intelligentie te maken.
Als vragen fout worden beantwoord omdat chatGPT de semantische redenering niet oppikt en je gaat dat compenseren met "beter trainen" ben je in feiten aan het wachten tot er zo veel data in je model gestopt is dat je AI alle antwoorden hard-coded aan boord heeft. Een AI'er kan me nog zoveel wijs maken, maar dat gaat nooit schalen. Letterlijk nooit.
Met de huidige technologie is er idd een beperkte schaalfactor. Het model loopt ook al 2jaar achter op de live data. Trainen kost tijd en geld want dat is verloopt nu nog deels manueel.

Toch kan je niet stellen dat het ‘nooit’ kan schalen. Ons brein is helemaal niet het einde van intelligentie. Verre van zelfs.

Taal = data. Ons brein werkt exact hetzelfde. Onze ervaring en het logisch denken wordt ook zo verwerkt. Enkel gebeurd het sneller dan we nu met AI kunnen. Maar je kan AI heel specifiek trainen met veel meer data dan wij ooit kunnen bevatten, verwerken om uiteindelijk patronen te spotten en logische next steps voor te stellen.

AI heeft in principe geen feiten hard coded in zich. Je kan wel het model
zo trainen dat je het een externe database met feitelijke data kan geven (hard coded dus) om op basis daarvan een nieuwe redenering op te bouwen.
Toch kan je niet stellen dat het ‘nooit’ kan schalen. Ons brein is helemaal niet het einde van intelligentie. Verre van zelfs.
Ik zeg: het kan nooit schalen zolang de semantiek niet wordt opgepikt. Veel vragen vereisen een redenering op semantisch niveau, niet op syntactisch niveau. Ja, AI kan ver gaan komen en kan die semantiek op gaan pikken, net als het menselijk brein, dat is immers ook niet veel meer dan een neuraal netwerk. Dat doet chatGPT al in bepaalde mate, genoeg om simpele vragen te beantwoorden en een beetje een consistent verhaal te schrijven. Maar het gaat nog niet heel diep in termen van logisch redeneren, laat staan in domeinspecifieke redeneringen.

Geef chatGPT een logisch puzzeltje en hij valt door de mand. Ja, dat kan beter worden. Maar gewoon 'meer leren' heeft ook zijn grenzen, je zal uiteindelijk toch ook aan het metamodel moeten sleutelen.

[Reactie gewijzigd door bwerg op 21 maart 2023 21:24]

De huidige generatie kán je niet eindeloos beter trainen. Het probleem is dat de trainingsdata ook dingen bevat als "autisme is een bijwerking van vaccinaties" en "de temperatuur in Amsterdam is 32 graden". Dit is feitelijk incorrecte data. Ook al heeft het de verbanden 100% correct, er zal met zulke trainingsdata alsnog onzin uit komen.

Wat je zou willen, is dat de AI de API van het KNMI in realtime vraagt wat de temperatuur in Amsterdam is, en het resultaat as-is teruggeeft aan de gebruiker. Momenteel weten we simpelweg niet hoe we dit moeten doen! Meer trainen gaat hierbij gewoon niet helpen, want het is een inherente beperking aan het concept dat ze hiervoor gebruiken.
[quote]Ai chat maakt fouten, maar dat heeft toch niets te maken omdat het een taalmodel
Is?[/quiote]
AI maakt fouten omdat het een domme computer is die geen idee heeft waar ie mee bezig is. Een AI boert fouten op alsof het feiten zijn, omdat ie er geen benul van heeft. Dát is eigenlijk het grootste gevaar van AI. Daarom zou ik ze in de genoemde voorbeelden van een juridische of medische vraag altijd als raadgevend inzetten. Ga vooral even na of het klopt wat er staat en papegaai het niet klakkeloos na.
Het is vrij letterlijk een wild vreemde dingen vragen die toevallig een betrouwbaar uiterlijk heeft.

(ja dat laatste is bewust subjectief bedoeld)
Vervolgens deze persoon direct 100% op zijn woord geloven.

Zonder te verwijzen naar referenties en bronnen blijft het altijd dweilen met de kraan open.

Qua wetenschappelijke vraagstukken heb ik ChatGPT al meerdere keren volledig onderuit gekregen.
Qua wiskunde is het helemaal droevig. Simpele algebra volledig mis hebben.
Nadeel blijft dat het er wel zeer geloofwaardig uitziet voor veel mensen.
En mensen gaan er ook echt dingen aan vragen die ze ook in Google kunnen intypen voor exact hetzelfde antwoord. Want die GPT zit in de achtergrond ook gewoon te googlen en harkt gewoon een antwoord van WikiPedia op en presenteert dat aan jou. Als je 'm vraagt een verhaal te verzinnen of een stuk code wordt het al iets lastiger, maar dat kan ook via google opgehaald worden. Zo programmeer ik zelf in iets dat ik niet (helemaal) meester ben. Meestal kun je zo wel een Powershell script in elkaar knippen en plakken. Ik vermoed dat GPT dat ook doet.
Een AI boert fouten op alsof het feiten zijn, omdat ie er geen benul van heeft.
Nee, de chatbots a la ChatGPT (large language models) doen dit.
Dat zegt nog helemaal niks over andere vormen van AI.
Andere AI's weten ook niet waar ze het over hebben. Het zijn computers, geen mensen. Door die taalmodellen lijkt het alsof ze menselijk(er) zijn, maar je ziet doorgaans aan de fouten die ze maken dat ze echt geen idee hebben waar het over gaat. Het is een bak met data waar labels aan hangen en waarderingen en het lijkt op die manier op hoe onze hersenen ongeveer werken, maar begrip is geen neuraal netwerk.
Andere AI's weten ook niet waar ze het over hebben. Het zijn computers, geen mensen.
Leg eens uit waarom een computer niet kan weten waar het het over heeft maar een mens wel. Op welk principe berust die stelling?
Door die taalmodellen lijkt het alsof ze menselijk(er) zijn, maar je ziet doorgaans aan de fouten die ze maken dat ze echt geen idee hebben waar het over gaa
Nogmaals, 'taalmodel' is niet hetzelfde als 'AI in zn algemeenheid'.
maar begrip is geen neuraal netwerk.
Want? Doen we dan magische dingen in ons hoofd die niet vertegenwoordigd kunnen worden door een neuraal netwerk? Welk bewijs heb je hiervoor? En zeg je dan ook dat de hersenen, die voor 100% bestaan uit een neuraal netwerk, in mensen niet verandwoordelijk zijn voor het fenomeen 'begrip'?
[...]


Ai chat maakt fouten, maar dat heeft toch niets te maken omdat het een taalmodel
Is?
Die AI maakt geen taalfouten, wel logische fouten en 'waarheids fouten' - omdat het alleen maar een taalmodel is.
Het voordeel van een taalmodel is dat je, zeker als je nog zoekende bent, vragen kunt stellen die nog wat vager zijn. Database queries, of zelfs Google zoekopdrachten, vergen toch een bepaalde expertise van het onderwerp.

Beginnen met een taalmodel gevolgd door gedetailleerde queries is m.i. de beste optie.
er zullen op zijn tijd wel degelijk modellen gecreerd die dit wel kunnen. en ja, dat zal geen LLM zijn, maar en specifiek medisch model
Ben benieuwd naar de onderbouwing waarom we vanzelf op kleinere datasets gaan trainen. De naam verraad het al maar LARGE lange models (LLM) zijn niet voor niets large.

De trend daarnaast is van gpt 1 naar gpt4 dat deze modellen (en alle andere LLM, maar eigenlijk alle andere AI modellen) juist alleen maar groter worden. Dat is tot nu toe namelijk onze beste manier om deze modellen beter te maken. De fundamentele principes van deze modellen zijn al 10 jaar hetzelfde. De rekenkracht is wel exponentieel toegenomen
Laat ik het anders uitleggen: Kleinere taalinout extensions... OF een groter chat geheugen.

Je traint dus op een grote LLM set, maar kan er zelf sets aan toevoegen en verder trainen.

Het doel is dat je de intelligentie die er is gebruikt en aanvult met expertise van een smaller vakgebied.

Dan kun je de kracht ineens op zeer veel vlakken toepassen.
Dat is toch exact wat er nu ook al gebeurt bij gpt3.5 integratie en de api die openai heeft opengesteld?

Blijft het ding dat een LLM (ik zou willen zeggen per definitie) niets anders is dan papegaai praat, om maar even terug te komen op het artikel
Chat-GPT is geen kennisbank. Daarvoor valt het simpelweg terug op de kennis van Wikipedia.
GPT is vooral sterk in het schrijven van stukken tekst. Je geeft een aantal steekwoorden op en GPT maakt daar wel een verhaal van. Je kan zelfs een stijl (verslag, sciencefiction ed) opgeven. Leuke Click-bait verhalen zijn geen enkel probleem. Is het verhaal niet helemaal naar wens, geef dan gewoon nog wat meer gegevens. Bevalt de sfeer van het verhaal niet? Geen probleem geef aan dat het wat luchtiger of juist serieuzer moet en er wordt een aangepaste tekst geproduceerd. Als je handig bent kan je er zelfs een heel boek mee produceren. Het sterke punt van GPT is immers het taalmodel!

Waar jij op doelt zijn meer kennisbanken. Die bestaan ook al, al is dat in rudimentaire vorm. Veel telefonische helpdesks en chat-bots werken daar al een aantal jaar mee. De AI is in die gevallen veel minder belangrijk. De computer moet van een stuk tekst alleen een soort beslisboom kunnen maken door de juiste kernwoorden te kunnen vinden en synoniemen en omschrijvingen juist te interpreteren.

Of GPT geschikt is om zelfstandig een beslismodel op te zetten als je het uitsluitend met daarvoor geschikte teksten traint (bijvoorbeeld wetboeken en jurisprudentie) is maar de vraag.
Ik denk dat je chatGPT iets te plat slaat en dat je de diepere betekenis mist die patroonherkenning met zich meebrengt. Ik bedoel: Een slim en spitsvondig gedicht over een thema kun je niet uit wikipedia halen, daar gaat een slimmer proces mee aan de gang. Het lijkt te kunnen redeneren en analyseren.

Dus het kan wel degelijk wat ik stel.
Ik wilde het taalmodel helemaal niet plat slaan. Ik vind het juist heel sterk. Als je handig bent kan je de sfeer van de tekst beïnvloeden. Een spitsvondig gedicht hoort daarbij tot de mogelijkheden. Het type gedicht kan je zelfs aangeven.
Voor het stellen van vragen is chatGPT echter minder geschikt omdat het simpelweg geen kennisbank is.
Het is een compleet faal idee om te denken dat je iemand (AI of Persoon) alleen maar iets kan leren door hem/haar/het een gelimiteerde set aan gemodereerde 'waarheden' te leren.

Het gaat uit van de misconceptie dat je alleen maar kan leren van dingen die waar zijn, Maar het is vaak het tegenovergestelde, je leert meer van dingen die niet waar zijn, en waar je naar zelf-onderzoek achter komt dat het niet waar is.. en dan leert waarom je onwaarheden verteld zijn..

Bijvoorbeeld,
  • Kinderen komen van de ooievaar.
  • Je valt met 9.8 ms2.
  • Een kilo veren valt even hard als een kilo lood.
  • De wet van Moore.
Allemaal onzin, maar het geeft je een houvast, zodat je later kan toetsen dat dat niet klopt. Waardoor je de echte 'waarheid' leert. Zelfde geldt voor AI, als je de input limiteert tot 'waarheden' zal ie nooit het concept van waar vs onwaar kunnen snappen, en dan creeer je juist de AI waar iedereen bang voor is..

Bovendien, waarheid is niet eens een constante.. het is variabel, het is alleen constant, met de natuurkundige wetten die we nu bedacht hebben. Ooit was de aarde plat, en dat was geheel geaccepteerd als een waarheid totdat iemand eraan tornde en bewees dat het niet zo was.
Wat je zegt, klopt wellicht voor een persoon, maar een AI is nog altijd geen persoon. Het heeft geen interne logica waaraan het zijn output toetst, zijn output wordt (tijdens het trainen) getoetst aan de hand van hoe waarschijnlijk het is dat het in zijn trainingsdata voor had kunnen komen. Stel dat "kinderen komen van de ooievaar" even vaak voorkomt in de trainingsdata als "kinderen komen van hun moeder," dan zouden voor de AI beide zinnen even "waar", even waarschijnlijk zijn. En aangezien de meeste AIs getraind worden met data geplukt van het internet, en tekst op het internet niet echt een goede representatie is van hoe mensen in het echt met elkaar om gaan, zul je zien dat AIs op eenzelfde afwijkende manier zal praten.
Had verwacht dat het oa ook ging over het effect dat teksten nu door AI geschreven worden en dat toekomstige modellen ook input van eerdere versies van AI bevatten waardoor het een soort herhaling van zichzelf zou worden.
Oeh, dit zie ik toch echt anders.

Als een peilingbureau wil weten hoe de Tweede Kamer er uit zou zien als er nu verkiezingen zouden zijn vragen ze vaak niet alleen wat mensen nu zouden stemmen, maar ook wat ze de vorige keer gestemd hebben. Dat laatste is belangrijk omdat je daarmee je schatting veel beter krijgt. Stel dat je in de huidige kamer 20% vvd (of sp, of iedere andere partij) zit, en op straat heeft maar 10% vvd gestemd, is de standaard truc om het gewicht van de mensen die wel vvd gestemd hebben te verdubbelen: daarmee wordt de steekproef representatiever.

Terug naar deze casus: als je veel meer leest van een bepaalde groep, en daarbij maakt het niet uit welke, mis je inzichten, verhalen van anderen.

Techniek is niet waardevrij. Als je ai traint met de bouqette reeks krijg je andere teksten over mannen en vrouwen dan als je ai de Opzij geeft. Wat je erin stopt krijg je eruit. En ik denk dat het goed is technologie voor iedereen te ontwikkelen, en ja, wees gerust, daar horen zeker ook 'witte mannen' bij (waar ik ook toe behoor).
In dit artikel word mijn kritiek en vrees voor AI eigenlijk nog meer bevestigd vooral omdat je meer en meer ziet dat het een commercieel product aan het worden is. Hoe je het ook bekijkt, AI is en blijft een menselijk product en machines alleen puur doen wat door een mens is opgedragen. Maar juist daarin ligt ook het gevaar dat je eigenlijk AI dan alle kanten uit kan laten gaan, dus ook de foute kant.
Door de grote dataset zit daar veel materiaal bij dat AI-tekstgenerators niet zouden moeten herhalen, zoals oproepen tot geweld, porno en discriminatie.
Dit vind ik dus al zeer opmerkelijk want dat materiaal is niet maar zomaar komen aan vliegen en moet dus ergens in de database ingevoerd zijn. Wie zegt mij dat dan niet een of andere slimme hacker zo'n database in handen krijgt en dus volledig kan sturen.
Bovendien zit er een bias in teksten op internet, omdat die in hoge mate geschreven zijn door witte mensen en meer door mannen dan door vrouwen, zo vrezen de onderzoekers.
Ook weer zo'n voorbeeld dat je ziet dat het uiteindelijk mensenwerk blijft met het gevaar dat AI niet meer zo intelligent is als het lijkt. Zo op deze manier werk je toch weer discriminatie in de hand en ga je weer een bepaalde kant uit sturen.
Hoewel de stelling van bias in training data correct is, je zult altijd een bias creeren, ofwel door de data of door de trainingen door mensen, zoals we zagen bij gtp3, is het niet toevallig dat men de paper aanhaalt van deze "diversitity hires" mensen. Zij "parrotten" de DEI agenda, aangeleerd op de uni, gepropageerd toen ze bij google de AI ethics afdeling leidden. Geen toevalspapegaai op dat vlak, maar een poging van mensen die hun gedachtengoed delen om hen relevant te houden en het discours wederom in de richting van DEI te duwen.
Ik begrijp de noodzaak voor vooruitgang en het verbeteren van de input ten gunste van de output, maar hoe weten we dat de beoordeling van de input objectief gebeurt? En niet beïnvloed wordt door de tijdsgeest?
Uit het artikel:
Door de grote dataset zit daar veel materiaal bij dat AI-tekstgenerators niet zouden moeten herhalen, zoals oproepen tot geweld, porno en discriminatie.
Wat is oproepen tot porno? Oproepen tot de productie van porno? Zo ja, waarom is dat verboden?
Het is niet verboden, maar wel onwenselijk als je automatische klantenservice daarmee als voorstel komt als iemand met een klacht komt.

Have you tried turning him on and off again? :+
Nee, dat staat er niet. Er staat volgens mij dat AI tekstgenerators bepaald materiaal niet zouden moeten herhalen, zoals:
  • oproepen tot gewed
  • porno
  • discriminatie
Of je het eens bent met de stelling dat een AI geen porno zou moeten genereren is een andere discussie. Ik zou niet weten waarom niet, maar het zou dat wellicht alleen moeten doen als het daar ook specifiek om gevraagd wordt.
Moet eerlijk zeggen dat de komma’s in die zin naar mijn idee ook wat onduidelijk zijn.

“zoals porno, discriminatie en oproepen tot geweld” zou duidelijker geweest zijn. Alhoewel het enige daadwerkelijke “materiaal” uit het lijstje waarschijnlijk porno is.
Zoals met alle informatiebronnen is het aangewezen om nadien zelf ook nog wat opzoek- en uitpluiswerk te doen. Persoonlijk vind ik Bing AI best goed gezien het bronnen vermeldt en controversiële topics behoorlijk genuanceerd aanpakt.

Voor wie met AI enkel z'n eigen gelijk wil halen is er volgende zegswijze: 'Wat baten kaars en bril als de uil niet zien wil'.
Dank voor het plaatsen van deze zegswijze. Over een tijdje kan ChatGPT die mooi meenemen in het model en kan ik vragen stellen over blinde uilen :P

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee