In het voortdurend veranderende landschap van AI komen onverwachte ontdekkingen vaak voort uit de meest routinematige taken. Zo was het ook met onze Conversational Answer Engine, een AI-systeem dat is ontworpen om uitgebreide antwoorden op gebruikersvragen te formuleren door een reeks bronmaterialen te analyseren. Na verloop van tijd merkten we een interessant patroon op: de AI leek de voorkeur te geven aan informatie uit de eerste paar en de laatste paar bronnen, terwijl de bijdragen van bronnen in het midden opvallend minder prominent waren. Dit patroon, dat doet denken aan een bekend fenomeen in het menselijke brein, leidde ons naar een fascinerend onderzoek. Welkom bij onze verkenning van 'Lost in the Middle': hoe taalmodellen het Serial-Position Effect weerspiegelen.
Het Serial-Position Effect begrijpen
Om het eigenaardige patroon van ons AI-systeem volledig te begrijpen, moeten we eerst inzoomen op een fundamenteel concept in de cognitieve psychologie: het Serial-Position Effect. Dit principe, gebaseerd op het baanbrekende werk van de Duitse psycholoog Hermann Ebbinghaus, verduidelijkt onze geheugenpatronen. Het onthult onze menselijke neiging om de eerste en laatste items in een reeks het beste te onthouden - een fenomeen dat ook wel bekend staat als het primacy-effect en het recency-effect - terwijl de middelste items vaak vergeten worden.
Het primacy-effect stelt dat de items aan het begin van een lijst of reeks efficiënter worden opgeslagen in ons langetermijngeheugen, waarschijnlijk vanwege de verhoogde cognitieve verwerking die deze vroege items krijgen. Daarentegen stelt het recency-effect dat de items die het meest recent zijn tegengekomen in ons kortetermijngeheugen blijven hangen, vandaar dat ze gemakkelijk toegankelijk zijn.
Deze cognitieve bias heeft aanzienlijke invloed op onze communicatiestrategieën, met name in geschreven tekst. Schrijvers plaatsen vaak kritieke informatie aan het begin of einde van een stuk, impliciet bewust van de invloed van het Serial-Position Effect. Deze strategische plaatsing is ontstaan om ervoor te zorgen dat belangrijke boodschappen worden onthouden door de lezer.
Dus, waarom bespreken we een psychologisch principe in de context van het gedrag van AI? Hier wordt het interessant. Onze taalmodellen, zoals de Conversational Answer Engine, worden getraind op enorme hoeveelheden door mensen geschreven tekst. Terwijl ze leren van deze teksten, absorberen ze inherent de patronen en structuren die wij als mensen vaak gebruiken - inclusief de strategische plaatsing van informatie die wordt beïnvloed door het Serial-Position Effect. Dit impliceert dat de schijnbare 'voorkeur' van het model voor de eerste en laatste bronnen misschien geen willekeurige eigenaardigheid is, maar een weerspiegeling van de patronen die het heeft geleerd uit zijn trainingsgegevens. Zouden onze AI-modellen ook onze cognitieve vooroordelen aan het 'leren' zijn?
Serial-Position Effect in Taalmodellen
Nu we het Serial-Position Effect in menselijke communicatie hebben vastgesteld, kunnen we onsverdiepen in de aanwezigheid ervan in taalmodellen. Deze AI-systemen worden in wezen getraind op enorme hoeveelheden door mensen geschreven tekst, waarbij ze leren om onze patronen, structuren en vooroordelen na te bootsen. Dit betekent inherent dat ze onze communicatiestrategieën absorberen, inclusief onze neiging om belangrijke informatie aan het begin en einde van teksten te plaatsen, als gevolg van het Serial-Position Effect.
Je zou kunnen zeggen dat taalmodellen theoretisch gezien alle input neutraal zouden moeten behandelen, waarbij alleen de gepresenteerde informatie wordt overwogen. Maar de realiteit van hoe deze modellen functioneren is wat subtieler. Taalmodellen lezen niet alleen tekst; ze leren tekst te voorspellen en te genereren op basis van patronen die ze hebben waargenomen in hun trainingsgegevens. Als een model is getraind op tekst waarin vitale informatie vaak aan het begin en het einde wordt geplaatst, leert het natuurlijk om meer aandacht te besteden aan deze secties, waarbij het het Serial-Position Effect nabootst.
Dit was precies het patroon dat we observeerden bij onze Conversational Answer Engine. Het leek een duidelijke voorkeur te tonen voor de initiële en laatste bronnen bij het formuleren van antwoorden, mogelijk een echo van het Serial-Position Effect dat verankerd is in de door mensen geschreven teksten waarop het is getraind. Deze observaties stelden een intrigerende vraag: ondanks dat de modellen geen inherente kennis hebben van het Serial-Position Effect of menselijke cognitieve vooroordelen, kunnen ze deze vooroordelen weerspiegelen door hun training op door mensen gegenereerde teksten? Het is een boeiend perspectief dat een kijkje geeft in hoe onze cognitieve patronen het AI-gedrag kunnen vormgeven.
'Taalmodellen lezen niet alleen tekst; ze leren tekst te voorspellen en te genereren op basis van patronen die ze hebben waargenomen in hun trainingsgegevens.'
— Joris Meijer, AI-lead bij SWIS
Grootte van het model en het Serial-Position Effect
Een interessant aspect van het Serial-Position Effect in taalmodellen is de omgekeerde correlatie met de grootte van het model. Grotere modellen zoals GPT-4, die over meer parameters beschikken, vertonen een zwakker Serial-Position Effect vergeleken met hun 'kleinere' tegenhangers.
De extra parameters in grotere modellen geven ze een uitgebreider vermogen om complexe patronen te interpreteren, waardoor hun afhankelijkheid van de plaatsing van informatie binnen een tekst wordt verminderd. Hierdoor kunnen deze modellen waardevolle inzichten putten uit een breder scala aan bronnen, in plaats van zich voornamelijk te richten op de begin- en eindsecties.
Dit stelt grotere modellen echter niet vrij van potentiële vooroordelen of vermindert het belang van een zorgvuldige kritische beoordeling van hun gedrag. Het benadrukt eenvoudig de genuanceerde invloeden van de grootte van het model op hoe onze AI-systemen informatie verwerken en begrijpen.
Weerspiegeling van aangeleerde vooroordelen
Bij het verkennen van de voorkeur van ons model voor de begin- en eindsecties van tekst, ontdekken we een belangrijk inzicht in de aard van AI-systemen. Deze voorkeur komt niet voort uit het model dat autonoom een nieuw gedrag of doel ontwikkelt. Het is een weerspiegeling van de patronen die te vinden zijn in de door mensen geschreven tekst waarop het is getraind.
Deze modellen genereren, ondanks hun aanzienlijke leercapaciteit, niet zelfstandig vooroordelen. Die absorberen ze uit de gegevens waarop we ze trainen, waarbij ze de inherente voorkeuren, neigingen en vooroordelen van die bronnen weerspiegelen.
Een belangrijke beperking is de mogelijke vertekening van informatie die door het model wordt gebruikt om antwoorden te genereren. Vanwege het Serial-Position Effect ontwikkelde het model een voorkeur voor het begin en het einde van de bronnen, wat kan leiden tot een onvolledig of zelfs bevooroordeeld begrip van een onderwerp. Als het model bijvoorbeeld een complexe vraag over klimaatverandering beantwoordt met behulp van een uitgebreid rapport, zou het mogelijk te veel gewicht kunnen geven aan de inleiding en conclusie, waarbij het mogelijk kritieke argumenten en data in de middensecties van het rapport over het hoofd ziet. Deze onderbenutting van vitale 'midden' informatie kan de kwaliteit, volledigheid en balans van de antwoorden van het model beïnvloeden.
Omdat deze modellen een instrumentele rol spelen in tal van toepassingen, variërend van tekstgeneratie tot vraag-antwoordsystemen, kan hun vatbaarheid voor de vooroordelen aanwezig in hun trainingsgegevens niet over het hoofd worden gezien. Dit benadrukt het fundamentele belang van het erkennen en aanpakken van deze vooroordelen tijdens de ontwikkeling en implementatie van AI. De patronen die een AI-model leert uit zijn trainingsgegevens beïnvloeden aanzienlijk de aard van de output.
Het is daarom essentieel dat zowel ontwikkelaars als gebruikers van AI-systemen zich bewust zijn van deze potentiële vooroordelen. Deze bewustwording maakt een beter beheer en beperking van mogelijke vooroordelen in de antwoorden van het model mogelijk. Terwijl we steeds grotere modellen ontwikkelen, blijft een zorgvuldige overweging van deze potentiële vooroordelen cruciaal voor het ontwikkelen van robuuste en betrouwbare AI-toepassingen.
Conclusie
Onze reis door 'Lost in the Middle' heeft ons geleid naar het fascinerende kruispunt van cognitieve psychologie en AI-gedrag. De aanwezigheid van het Serial-Position Effect, een menselijk cognitief bias, in onze AI-systemen onthult een diep inzicht in hoe onze modellen leren van de enorme hoeveelheden door mensen geschreven tekst waarop ze zijn getraind. Ondanks het ontbreken van een inherente kennis van onze cognitieve vooroordelen, spiegelen ze onvermijdelijk deze patronen, wat het belang benadrukt van het herkennen en beperken van mogelijke vooroordelen in AI-systemen.
De observaties benadrukken ook dat de grootte van een AI-model van invloed kan zijn op de neiging om het Serial-Position Effect te weerspiegelen, waarbij grotere modellen zoals GPT-4 een verminderd effect vertonen in vergelijking met hun kleinere tegenhangers. Ongeacht de grootte van het model is het echter cruciaal om hun gedrag nauwlettend te volgen en te begrijpen dat vooroordelen die aanwezig zijn in hun trainingsgegevens zich kunnen manifesteren in hun output.
Bovendien benadrukt dit onderzoek de noodzaak van een voorzichtige aanpak bij zowel de ontwikkeling als de implementatie van AI-modellen. Bewust zijn van hun mogelijke vooroordelen en beperkingen, zoals het onderbenutten van 'midden' informatie als gevolg van het Serial-Position Effect, is van cruciaal belang voor het creëren van AI-systemen die zo eerlijk, robuust en betrouwbaar mogelijk zijn. Hoewel deze modellen ongelooflijk potentieel bieden, hangt hun doeltreffendheid en geloofwaardigheid af van onze mogelijkheid om deze vooroordelen te beperken. Terwijl we doorgaan met het verkennen van dit spannende AI-landschap, is het essentieel om te onthouden dat de cognitieve voetafdrukken die we achterlaten in onze teksten wel eens de opstapstenen kunnen worden voor onze AI-systemen. In wezen leren onze modellen niet alleen onze taal te spreken - ze leren ook in onze patronen te denken.
Bron
Liu, N. F. (2023, 6 juli). Lost in the Middle: How language models use long contexts, arXiv, https://arxiv.org/abs/2307.03172
Benieuwd wat SWIS met AI voor jouw website kan betekenen?
Neem contact op met Bing van Moorsel, Director of Operations bij SWIS.
Email: bvanmoorsel@swis.nl
Telefoon: 071 203 26 02