Nel suo romanzo iconico e ispiratore di Blade Runner Gli androidi sognano pecore elettriche, Philip K. Dick ha riflettuto sulle questioni etiche e filosofiche che emergono quando gli esseri artificiali sviluppano una coscienza simile a quella umana. Il romanzo esplora se un'entità creata dall'uomo sia in grado di assumere le caratteristiche della senzienza, come l'autocoscienza, il provare emozioni e la capacità di percepire. Cosa significherebbe questo per i confini che esistono tra intelligenza umana e artificiale?
Mentre siamo (si spera!) Ancora lontani da una tecnologia che si rivolta contro di noi, gli interrogativi sollevati da Dick in questo libro sono oggi più attuali che mai.
Accesso senza precedenti all'intelligenza artificiale
È qui che entrano in gioco le allucinazioni dell'intelligenza artificiale. Con il recente afflusso di modelli linguistici di grandi dimensioni (LLM) come ChatGPT, ci siamo trovati faccia a faccia con l'intelligenza artificiale in un modo che non era mai stato possibile prima. I vantaggi e gli svantaggi sono numerosi e controversi. Ma uno dei più affascinanti/frustranti/spaventosi/divertenti (a seconda delle prospettive) di questo lancio tecnologico sono state le allucinazioni dell'intelligenza artificiale. Queste "allucinazioni" si verificano quando i LLM presentano informazioni false, fuorvianti o irrazionali come se fossero dati di fatto. Molti utenti hanno scoperto che le risposte alle loro domande fornite da questi sistemi sono palesemente false. In genere, ciò sembra accadere quando a un LLM non vengono forniti dati di qualità sufficiente o un contesto sufficiente su cui lavorare.
Una macchina può avere allucinazioni?
Il termine scelto per questo bug, "allucinazioni", è interessante. A prima vista può sembrare paradossale, visto che le allucinazioni sono tradizionalmente associate a cervelli umani o animali, non a freddi e duri macchinari. Tuttavia, da un punto di vista metaforico, allucinazione si rivela un termine piuttosto accurato per descrivere questi malfunzionamenti, soprattutto nei casi di riconoscimento di immagini e modelli.
Avete presente quando vedete figure nelle nuvole o volti in oggetti inanimati? Si tratta di un fenomeno umano molto naturale chiamato pareidolia. Ma le allucinazioni dell'intelligenza artificiale potrebbero essere descritte come simili, alla ricerca di modelli riconoscibili in una massa di dati. Le loro interpretazioni errate possono essere dovute a vari fattori, tra cui la distorsione/accuratezza dei dati di addestramento, l'overfitting e l'elevata complessità del modello.
Una realtà che non capiscono
I LLM utilizzano le statistiche linguistiche per produrre risposte su una realtà che in realtà non comprendono. Le loro risposte possono sembrare corrette (con esempi di grammatica, semantica, ecc.) ma a volte possono essere completamente prive di senso. Un'intelligenza artificiale mal addestrata avrà pregiudizi e punti ciechi intrinseci, il che significa che cercherà di riempire gli spazi vuoti nel tentativo di rispondere alla domanda. Tuttavia, gli "spazi vuoti" che può proporre possono essere piuttosto fuori dal mondo.
Alcune persone hanno (piuttosto romanticamente) ha paragonato le allucinazioni dell'intelligenza artificiale ai nostri sogni umani, in quanto fondono in modo creativo dati apparentemente casuali, senza basi logiche. Queste risposte stravaganti possono avere i loro vantaggi. Possono essere utilizzate per ispirare un pensiero "fuori dagli schemi" o come punti di partenza per la scrittura, la musica o l'arte. Tuttavia, possono anche essere dannose. Possono far proliferare le fake news e diffondere informazioni false, con conseguenze ovviamente pericolose. Non vogliamo rischiare le allucinazioni dell'IA quando si tratta di auto a guida autonoma o di diagnosi mediche!
Nel tentativo di salvare la reputazione dell'IA presso il pubblico, gli scienziati stanno combattendo una guerra contro le allucinazioni con metodi ideati per contrastarle.
Come fare domande migliori per ottenere risposte migliori
Uno di questi metodi è il "Prompt Engineering". Questo metodo impone a noi utenti di riflettere attentamente sul modo in cui formuliamo le domande che poniamo ai laureati magistrali. Si tratta di chiedere ai diritto domanda. Un prompt è fondamentalmente il contesto e l'insieme di istruzioni che si danno a un LLM, come ChatGPT, per ottenere una risposta appropriata. Un prompt di successo implica l'inclusione di un contesto chiaro e di una prospettiva su ciò che si sta chiedendo, l'assegnazione di un "ruolo" al generatore di intelligenza artificiale e la delineazione di come si desidera che la risposta sia strutturata.
Non si tratta solo di digitare alcune parole chiave su Google. Per ottenere il risultato migliore e più accurato, a volte possono essere necessarie più richieste. Fondamentalmente, dovete avere il pieno controllo dei vostri input per guidare i vostri output, che è un modo per lavorare con il sistema esistente senza modificare intrinsecamente la sua programmazione. Quanto più alta è la qualità della richiesta, tanto più alta è la qualità della risposta che si otterrà.
Come la "Promt Engineering" si collega al trip psichedelico
"Roba affascinante!" - si potrebbe dire - "Ma cosa c'entra questo con gli psichedelici?". Beh, non molto, a dire il vero, a parte l'invocazione di 'allucinazioni. Ma i metodi con cui è possibile inibire le allucinazioni dell'IA ci hanno fatto pensare a come influenzare le nostre allucinazioni, cioè i viaggi psichedelici.
Per molti versi, quest'idea di adattare l'input per garantire un buon output è parallela a quella di Impostazione delle intenzionie l'altro lavoro che svolgiamo per prepararsi a un viaggio psichedelico a dosi più elevate. Tuttavia, piuttosto che farlo per evitare risposte "sbagliate (alcuni potrebbero dire che non ci sono risposte sbagliate in un viaggio psichedelico). lo facciamo per ottenere l'esperienza più profonda e generativa possibile. Stabilire l'intenzione è per certi versi la "domanda". 'Impostazione e regolazione' è come il contesto.
Sebbene, a differenza dell'IA, le nostre allucinazioni, i nostri sogni e il nostro vagabondaggio mentale siano di solito positivi, coltivare un livello di concentrazione per un viaggio può aiutarvi a trarne il massimo beneficio. Assicuratevi di sentirvi bene mentalmente e di trovarvi in un ambiente sicuro e confortevole. Inquadrate le vostre domande/intenzioni/idee per una universo gentilepiuttosto che un raschiamento di Google.
Visioni del nostro io interiore
L'allucinazione è una cosa molto umana: manifestare visioni dei nostri desideri interiori, delle nostre paure, delle nostre meraviglie o anche dello stupido video che avete guardato su Youtube la settimana scorsa. Tutto ciò che è dentro di noi influenza ciò che vediamo e sperimentiamo quando siamo in viaggio. Ingresso, uscita. Quindi, anche se le allucinazioni dell'IA non sono assolutamente nella stessa categoria, o addirittura nella stessa pianura, le allucinazioni dell'IA non sono un problema. (almeno, non ancora!) è possibile trarre ispirazione dal modo in cui li affrontiamo, per quanto riguarda le nostre incursioni nel mondo del lavoro. intelligenza psichedelica.