W swojej kultowej, inspirowanej Blade Runnerem powieści Czy androidy śnią o elektrycznych owcach? Autor Philip K. Dick zastanawiał się nad etycznymi i filozoficznymi pytaniami, które pojawiają się, gdy sztuczne istoty rozwijają świadomość podobną do ludzkiej. Powieść bada, czy istota stworzona przez człowieka jest w stanie przyjąć cechy świadomości, takie jak samoświadomość, odczuwanie emocji i zdolność postrzegania. Co by to oznaczało dla granic, które istnieją między ludzką a sztuczną inteligencją?
Podczas gdy my jesteśmy (miejmy nadzieję!) Wciąż daleko nam do tego, by technologia zwróciła się przeciwko nam, pytania, które Dick poruszył w tej książce, są dziś bardziej aktualne niż kiedykolwiek.
Bezprecedensowy dostęp do sztucznej inteligencji
Jest to oczywiście miejsce, w którym pojawiają się halucynacje AI. Wraz z niedawnym napływem dużych modeli językowych (LLMs) takich jak ChatGPT, stanęliśmy twarzą w twarz ze sztuczną inteligencją w sposób, który nigdy wcześniej nie był możliwy. Korzyści i wady są zarówno liczne, jak i kontrowersyjne. Ale jedną z bardziej fascynujących/frustrujących/przerażających/zabawnych (w zależności od perspektywy) z tej technologii były halucynacje związane ze sztuczną inteligencją. Te "halucynacje" mają miejsce, gdy LLM przedstawiają fałszywe, wprowadzające w błąd lub irracjonalne informacje tak, jakby były faktem. Wielu użytkowników odkryło, że odpowiedzi na ich pytania dostarczone przez te systemy są ewidentnie fałszywe. Zwykle dzieje się tak, gdy LLM nie otrzymuje wystarczająco wysokiej jakości danych lub wystarczającego kontekstu do pracy.
Czy maszyna może mieć halucynacje?
Termin, który został wybrany dla tego błędu, "halucynacje", jest interesujący. Na początku może się to wydawać paradoksalne, ponieważ halucynacje są tradycyjnie kojarzone z ludzkimi lub zwierzęcymi mózgami, a nie z zimnymi, twardymi maszynami. Jednak z metaforycznego punktu widzenia, halucynacja okazuje się być dość trafnym terminem, którym można opisać te usterki, zwłaszcza w przypadku rozpoznawania obrazów i wzorców.
Wiesz, jak widzisz postacie w chmurach lub twarze w martwych przedmiotach? To bardzo naturalne ludzkie zjawisko zwane pareidolia. Ale halucynacje AI można opisać jako podobne, szukając rozpoznawalnych wzorców w bałaganie danych. Ich błędne interpretacje mogą wynikać z różnych czynników, w tym tendencyjności/dokładności danych szkoleniowych, nadmiernego dopasowania i dużej złożoności modelu.
Rzeczywistość, której nie rozumieją
LLM używają statystyk językowych do tworzenia odpowiedzi na temat rzeczywistości, której tak naprawdę nie rozumieją. Ich odpowiedzi mogą wydawać się poprawne (z przykładową gramatyką, semantyką itp.). ale czasami mogą to być kompletne bzdury. Źle wyszkolona sztuczna inteligencja będzie miała nieodłączne uprzedzenia i martwe punkty - co oznacza, że będzie próbowała wypełnić puste pola, próbując odpowiedzieć na twoje pytanie. Jednak "puste miejsca", które może wymyślić, mogą być całkiem nie z tego świata.
Niektórzy ludzie mają (raczej romantycznie) porównał halucynacje AI do naszych ludzkich snów, ponieważ twórczo łączą one pozornie przypadkowe dane, bez podstaw logicznych. Te zwariowane reakcje mogą mieć swoje zalety. Mogą być wykorzystywane do inspirowania "nieszablonowego" myślenia lub jako punkty wyjścia do pisania, muzyki lub sztuki. Mogą być jednak również szkodliwe. Mogą rozprzestrzeniać fałszywe wiadomości i rozpowszechniać fałszywe informacje, co oczywiście może mieć niebezpieczne konsekwencje. Nie chcesz ryzykować halucynacji AI, jeśli chodzi o samojezdne samochody lub diagnozy medyczne!
Próbując ocalić reputację sztucznej inteligencji wśród społeczeństwa, naukowcy toczą wojnę z halucynacjami za pomocą metod opracowanych w celu ich zwalczania.
Jak zadawanie lepszych pytań daje lepsze odpowiedzi?
Jedną z tych metod jest "Prompt Engineering". Nakłada ona na nas, użytkowników, obowiązek dokładnego przemyślenia sposobu, w jaki formułujemy pytania, które zadajemy LLM. Chodzi o zadawanie prawo pytanie. Podpowiedź jest w zasadzie kontekstem i zestawem instrukcji, które przekazujesz LLM, takim jak ChatGPT, aby uzyskać odpowiednią odpowiedź. Skuteczny monit obejmuje jasny kontekst i perspektywę tego, o co pytasz, nadanie generatorowi AI "roli", a nawet określenie, w jaki sposób chcesz, aby odpowiedź była ustrukturyzowana.
Nie chodzi tylko o wpisanie kilku słów kluczowych w Google. Aby uzyskać najlepszy, najdokładniejszy wynik, czasami konieczne może być użycie wielu podpowiedzi. Zasadniczo musisz mieć pełną kontrolę nad swoimi danymi wejściowymi, aby kierować swoimi wynikami, co jest sposobem na praca z istniejącym systemem bez wewnętrznej zmiany jego programowania. Im wyższa jakość podpowiedzi, tym wyższa jakość odpowiedzi.
Jak "Promt Engineering" odnosi się do psychodelicznych tripów?
"Fascynujące rzeczy!" - można powiedzieć - "Ale co to ma wspólnego z psychodelikami?!" Szczerze mówiąc, nie ma tu żadnych obciążeń, poza przywołaniemhalucynacje. Jednak metody, za pomocą których można zahamować halucynacje SI, skłoniły nas do zastanowienia się nad tym, jak wpływamy na nasze własne, celowe halucynacje - tj. psychodeliczne podróże.
Pod wieloma względami ta idea dostosowywania danych wejściowych w celu zapewnienia dobrego wyniku jest podobna do idei ustalanie intencjii inne prace, które wykonujemy, aby przygotować się na psychodeliczną podróż w wyższej dawce. Jednak zamiast robić to w celu uniknięcia "złych" odpowiedzi (niektórzy mogą powiedzieć, że nie ma złych odpowiedzi w psychodelicznej podróży!) Robimy to, aby uzyskać jak najgłębsze i najbardziej generatywne doświadczenie. Ustawienie intencji jest w pewnym sensie "pytaniem". 'Zestaw i ustawienie' jest jak kontekst.
Podczas gdy, w przeciwieństwie do AI, nasze halucynacje, sny i wędrówki umysłu są zazwyczaj pozytywną rzeczą, kultywowanie poziomu skupienia na podróży może pomóc ci uzyskać z niej jak najwięcej. Upewnij się, że czujesz się dobrze psychicznie i znajdujesz się w bezpiecznym i wygodnym otoczeniu. Sformułuj swoje pytania/intencje/pomysły na życzliwy wszechświatzamiast Google scrape.
Wizje naszego wewnętrznego ja
Halucynacje to bardzo ludzka rzecz - manifestowanie wizji naszych wewnętrznych pragnień, lęków, cudów, a nawet głupiego filmu, który oglądałeś na Youtube w zeszłym tygodniu. Wszystko w nas wpływa na to, co widzimy i czego doświadczamy podczas halucynacji. Wejście, wyjście. Więc chociaż halucynacje AI zdecydowanie nie są w tej samej lidze, ani nawet na tej samej płaszczyźnie (przynajmniej jeszcze nie!) Możliwe jest czerpanie inspiracji ze sposobu, w jaki do nich podchodzimy, w odniesieniu do naszych własnych wypraw do psychodeliczna inteligencja.