In seinem kultigen, von Blade Runner inspirierten Roman Do Androids Dream of Electric Sheep, beschäftigte sich der Autor Philip K. Dick mit den ethischen und philosophischen Fragen, die sich stellen, wenn künstliche Wesen ein menschenähnliches Bewusstsein entwickeln. Der Roman geht der Frage nach, ob ein vom Menschen geschaffenes Wesen in der Lage ist, die Merkmale eines empfindungsfähigen Wesens anzunehmen, d. h. sich seiner selbst bewusst zu sein, Emotionen zu empfinden und wahrnehmen zu können. Was würde dies für die Grenzen zwischen menschlicher und künstlicher Intelligenz bedeuten?
Wir sind zwar (hoffentlich!) Auch wenn wir noch weit davon entfernt sind, dass die Technologie sich gegen uns wendet, sind die Fragen, die Dick in diesem Buch aufwirft, heute aktueller denn je.
Nie dagewesener Zugang zu künstlicher Intelligenz
Hier kommen natürlich die KI-Halluzinationen ins Spiel. Mit dem jüngsten Zustrom von Large Language Models (LLMs) wie ChatGPT sind wir mit künstlicher Intelligenz in einer Weise konfrontiert worden, die nie zuvor möglich war. Die Vor- und Nachteile sind zahlreich und umstritten. Aber einer der faszinierendsten/frustrierendsten/beängstigendsten/lustigsten (abhängig von Ihrer Perspektive) Das größte Problem bei der Einführung der neuen Technologie waren die KI-Halluzinationen. Diese "Halluzinationen" treten auf, wenn LLM falsche, irreführende oder irrationale Informationen so darstellen, als wären sie Tatsachen. Viele Nutzer haben festgestellt, dass die von diesen Systemen gegebenen Antworten auf ihre Fragen nachweislich falsch sind. Dies scheint im Allgemeinen dann zu passieren, wenn einem LLM nicht genügend hochwertige Daten oder genügend Kontext zur Verfügung stehen, um damit zu arbeiten.
Kann eine Maschine halluzinieren?
Der Begriff "Halluzinationen", der für diesen Fehler gewählt wurde, ist interessant. Auf den ersten Blick mag er paradox erscheinen, da Halluzinationen traditionell mit menschlichen oder tierischen Gehirnen in Verbindung gebracht werden, nicht mit kalten, harten Maschinen. Aber aus einem metaphorischen Blickwinkel betrachtet, Halluzination erweist sich als ein recht zutreffender Begriff, um diese Fehlfunktionen zu beschreiben, vor allem bei der Bild- und Mustererkennung.
Kennen Sie das, wenn Sie Figuren in den Wolken oder Gesichter in unbelebten Objekten sehen? Das ist ein sehr natürliches menschliches Phänomen namens Pareidolie. Aber KI-Halluzinationen könnten als ähnlich beschrieben werden: Sie suchen nach erkennbaren Mustern in einem Datenchaos. Ihre Fehlinterpretationen können auf verschiedene Faktoren zurückzuführen sein, darunter Verzerrung/Ungenauigkeit der Trainingsdaten, Überanpassung und hohe Modellkomplexität.
Eine Realität, die sie nicht verstehen
LLMs verwenden linguistische Statistiken, um Antworten über eine Realität zu geben, die sie nicht wirklich verstehen. Ihre Antworten mögen richtig erscheinen (mit beispielhafter Grammatik, Semantik usw.) aber manchmal können sie auch völlig unsinnig sein. Schlecht trainierte KI hat inhärente Voreingenommenheit und blinde Flecken - was bedeutet, dass sie versuchen wird, die Lücken zu füllen, um Ihre Frage zu beantworten. Die "Lücken", mit denen sie aufwartet, können jedoch ziemlich weltfremd sein.
Manche Menschen haben (eher romantisch) verglich KI-Halluzinationen mit unseren menschlichen Träumen, da sie scheinbar zufällige Daten ohne logische Grundlage kreativ zusammenfügen. Diese verrückten Antworten können durchaus ihre Vorteile haben. Sie können zu unkonventionellem Denken anregen oder als Ausgangspunkt für Texte, Musik oder Kunst dienen. Sie können aber auch schädlich sein. Sie können Fake News und falsche Informationen verbreiten, was natürlich gefährliche Folgen haben kann. Sie wollen keine KI-Halluzinationen riskieren, wenn es um selbstfahrende Autos oder medizinische Diagnosen geht!
In dem Versuch, den Ruf der KI in der Öffentlichkeit zu retten, führen Wissenschaftler einen Krieg gegen Halluzinationen, indem sie Methoden zu deren Bekämpfung entwickeln.
Wie man durch bessere Fragen bessere Antworten erhält
Eine dieser Methoden ist das "Prompt Engineering". Dies legt uns, den Nutzern, die Verantwortung auf, sorgfältig darüber nachzudenken, wie wir die Fragen formulieren, die wir den LLMs stellen. Es geht darum, die rechts Frage. Ein Prompt ist im Grunde der Kontext und eine Reihe von Anweisungen, die Sie einem LLM, wie ChatGPT, geben, um eine angemessene Antwort zu erhalten. Ein erfolgreicher Prompt beinhaltet einen klaren Kontext und eine klare Perspektive auf Ihre Frage, gibt dem KI-Generator eine "Rolle" und umreißt sogar, wie die Antwort strukturiert sein soll.
Dabei geht es nicht nur darum, ein paar Schlüsselwörter in Google einzugeben. Um das beste und genaueste Ergebnis zu erzielen, können manchmal mehrere Eingabeaufforderungen erforderlich sein. Im Grunde genommen müssen Sie Ihre Eingabe vollständig kontrollieren, um Ihre Ausgabe zu steuern. Arbeit mit dem bestehenden System ohne seine Programmierung zu ändern. Je höher die Qualität der Eingabeaufforderung, desto höher die Qualität der Antwort, die Sie erhalten.
Wie 'Promt Engineering' mit psychedelischem Tripping zusammenhängt
"Faszinierendes Zeug!" - könnte man sagen. "Aber was hat das mit Psychedelika zu tun?!" Um ehrlich zu sein, nicht viel, abgesehen von der Beschwörung vonHalluzinationen. Aber die Methoden, mit denen man KI-Halluzinationen hemmen kann, haben uns zum Nachdenken darüber gebracht, wie wir unsere eigenen, gezielten Halluzinationen - also psychedelische Trips - beeinflussen.
In vielerlei Hinsicht ähnelt diese Idee der Anpassung des Inputs, um einen guten Output zu gewährleisten, dem Absichtserklärungund die andere Arbeit, die wir leisten, um sich auf einen psychedelischen Trip in höherer Dosis vorbereiten. Sie sollten dies jedoch nicht tun, um "falsche" Antworten zu vermeiden. (manche mögen sagen, dass es bei einem psychedelischen Trip keine falschen Antworten gibt!) wir tun es, um die tiefgreifendste und generativste Erfahrung zu machen, die wir machen können. Die Festlegung der Absicht ist in gewisser Weise die "Frage". 'Setzen und Einstellen' ist wie der Kontext.
Im Gegensatz zu AI sind unsere Halluzinationen, Träume und das Umherschweifen der Gedanken in der Regel etwas Positives, aber wenn Sie sich auf eine Reise konzentrieren, können Sie das Beste daraus machen. Vergewissern Sie sich, dass Sie sich geistig gut fühlen und sich in einer sicheren und angenehmen Umgebung befinden. Formulieren Sie Ihre Fragen/Absichten/Ideen für eine freundliches Universumals ein Google-Scrape.
Visionen von unserem inneren Selbst
Halluzinieren ist etwas sehr Menschliches - Visionen von unseren inneren Wünschen, Ängsten, Wundern oder sogar dem dummen Video, das du letzte Woche auf Youtube gesehen hast, zu manifestieren. Alles in uns beeinflusst das, was wir sehen und erleben, wenn wir reisen. Eingabe, Ausgabe. KI-Halluzinationen spielen also definitiv nicht in der gleichen Liga oder gar auf der gleichen Ebene (Zumindest noch nicht!) ist es möglich, sich von der Art und Weise, wie wir an sie herangehen, inspirieren zu lassen, und zwar im Hinblick auf unsere eigenen Streifzüge in die psychedelische Intelligenz.