In zijn iconische, Blade Runner-inspirerende roman Do Androids Dream of Electric Sheep, schrijver Philip K. Dick na over de ethische en filosofische vragen die opkomen als kunstmatige wezens een menselijk bewustzijn ontwikkelen. De roman onderzoekt of een door de mens gemaakte entiteit in staat is om de kenmerken van bewustzijn aan te nemen, zoals zelfbewustzijn, het voelen van emoties en het vermogen om waar te nemen. Wat zou dit betekenen voor de grenzen die bestaan tussen menselijke en kunstmatige intelligentie?
Terwijl we (hopelijk!) De technologie zal zich nog lang niet tegen ons keren, maar de vragen die Dick in dit boek opwerpt zijn vandaag de dag relevanter dan ooit.
Ongekende toegang tot kunstmatige intelligentie
Dit is natuurlijk waar AI-hallucinaties om de hoek komen kijken. Met de recente instroom van grote taalmodellen (LLM's) zoals ChatGPT, zijn we op een nooit eerder vertoonde manier oog in oog komen te staan met kunstmatige intelligentie. De voor- en nadelen zijn zowel talrijk als controversieel. Maar een van de meest fascinerende/frustreuze/bange/grappige (afhankelijk van je kijk) dingen die voortkomen uit deze technologische uitrol zijn AI-hallucinaties. Deze 'hallucinaties' zijn wanneer LLM's valse, misleidende of irrationele informatie presenteren alsof het feiten zijn. Veel gebruikers hebben gemerkt dat de antwoorden die deze systemen op hun vragen gaven, aantoonbaar onjuist waren. Dit lijkt over het algemeen te gebeuren wanneer een LLM niet genoeg gegevens van hoge kwaliteit krijgt, of niet genoeg context om vanuit te werken.
Kan een machine hallucineren?
De term die voor deze bug is gekozen, 'hallucinaties', is een interessante. Op het eerste gezicht lijkt het paradoxaal, aangezien hallucinaties traditioneel worden geassocieerd met menselijke of dierlijke hersenen, niet met koude, harde machines. Maar vanuit metaforisch oogpunt, hallucinatie blijkt een vrij nauwkeurige term te zijn om deze storingen te beschrijven, vooral in gevallen van beeld- en patroonherkenning.
Weet je hoe je figuren in de wolken ziet, of gezichten in levenloze voorwerpen? Dit is een heel natuurlijk menselijk fenomeen dat pareidolie. Maar AI-hallucinaties kunnen worden omschreven als vergelijkbaar, op zoek naar herkenbare patronen in een warboel van gegevens. Hun verkeerde interpretaties kunnen het gevolg zijn van verschillende factoren, waaronder vertekening/nauwkeurigheid van de trainingsgegevens, overfitting en hoge complexiteit van het model.
Een realiteit die ze niet begrijpen
LLM's gebruiken linguïstische statistieken om antwoorden te produceren over een realiteit die ze eigenlijk niet begrijpen. Hun antwoorden kunnen correct lijken (met voorbeeldige grammatica, semantiek, enz.) maar soms kunnen ze complete onzin zijn. Slecht getrainde AI heeft inherente vooroordelen en blinde vlekken - wat betekent dat het zal proberen om de lege plekken in te vullen in een poging om je vraag te beantwoorden. De 'lege plekken' waar het mee kan komen, kunnen echter behoorlijk wereldvreemd zijn.
Sommige mensen hebben (nogal romantisch) vergeleek AI-hallucinaties met onze menselijke dromen, in die zin dat ze schijnbaar willekeurige gegevens creatief versmelten, zonder basis in logica. Deze maffe reacties kunnen hun voordelen hebben. Ze kunnen worden gebruikt om 'out of the box' denken te inspireren, of als startpunt voor schrijven, muziek of kunst. Ze kunnen echter ook schadelijk zijn. Ze kunnen nepnieuws verspreiden en valse informatie verspreiden, wat uiteraard gevaarlijke gevolgen kan hebben. Je wilt geen AI-hallucinaties riskeren als het gaat om zelfrijdende auto's of medische diagnoses!
In een poging om de reputatie van AI bij het publiek te redden, voeren wetenschappers oorlog tegen hallucinaties met methoden die zijn bedacht om ze te bestrijden.
Hoe betere vragen stellen je betere antwoorden geeft
Een van deze methoden is 'Prompt Engineering'. Dit legt de verantwoordelijkheid bij ons, de gebruikers, om goed na te denken over hoe we de vragen formuleren die we aan LLM's stellen. Het gaat erom de rechts vraag. Een prompt is in feite de context en de reeks instructies die je een LLM, zoals ChatGPT, geeft om een passend antwoord te krijgen. Een succesvolle prompt bestaat uit het opnemen van een duidelijke context en perspectief van wat je vraagt, het geven van een 'rol' aan de AI-generator en zelfs het schetsen van hoe je wilt dat het antwoord wordt gestructureerd.
Dit is niet zomaar wat trefwoorden in Google gooien. Voor het beste, meest nauwkeurige resultaat zijn soms meerdere aanwijzingen nodig. In principe moet u uw invoer volledig onder controle hebben om uw uitvoer te sturen, wat een manier is om werken met het bestaande systeem zonder de programmering wezenlijk te veranderen. Hoe hoger de kwaliteit van de prompt die je erin stopt, hoe hoger de kwaliteit van de respons die je eruit krijgt.
Hoe 'Promt Engineering' zich verhoudt tot psychedelisch trippen
"Fascinerend spul!" - zou je kunnen zeggen - "Maar wat heeft dit met psychedelica te maken?!" Nou, niet veel om eerlijk te zijn, afgezien van het aanroepen van 'hallucinaties. Maar de methoden waarmee je AI-hallucinaties kunt remmen, hebben ons aan het denken gezet over hoe we onze eigen, doelbewuste hallucinaties beïnvloeden - d.w.z. psychedelische trips.
In veel opzichten is dit idee van het afstemmen van de invoer om een goede uitvoer te garanderen vergelijkbaar met intentie-instellingen het andere werk dat we doen om bereid je voor op een psychedelische trip met een hogere dosis. Maar in plaats van het te doen om 'foute' antwoorden te vermijden (sommigen zullen zeggen dat er geen foute antwoorden zijn in een psychedelische trip!) We doen het om de meest diepgaande en generatieve ervaring te krijgen die we kunnen. Je intentie bepalen is in zekere zin de 'vraag'. 'Instellen en instellen' is als de context.
In tegenstelling tot AI zijn hallucinaties, dromen en dwalen in de geest meestal positief, maar je concentreren op een trip kan je helpen om er het beste uit te halen. Zorg ervoor dat je je mentaal goed voelt en dat je in een veilige en comfortabele omgeving bent. Stel je vragen/intenties/ideeën op voor een vriendelijk universumin plaats van een Google-schraapsel.
Visies op ons innerlijke zelf
Hallucineren is iets heel menselijks - het manifesteren van visioenen van onze innerlijke verlangens, angsten, wonderen, of zelfs de domme video die je vorige week op Youtube hebt bekeken. Alles in ons beïnvloedt wat we zien en ervaren als we trippen. Invoer, uitgang. Dus terwijl AI-hallucinaties zeker niet van dezelfde klasse zijn, of zelfs op dezelfde vlakte liggen (tenminste, nog niet!) is het mogelijk om inspiratie op te doen uit de manier waarop we ze benaderen, met betrekking tot onze eigen uitstapjes naar psychedelische intelligentie.