In dieser Zeit, die man neudeutsch als „Me Time“ bezeichnet, suche ich nach Themen und finde Antworten auf Fragen, für die im Alltag keine Zeit ist. Natürlich scrolle ich im Internet, sehe mir Videos und Filme an, die mich interessieren und die der Techniker nicht sehen mag. Zufällig stoße ich auf den You Tube Kanal von Kayvan Soufi-Siavash (ehemals Ken Jebsen) in dem er sich mit einer amerikanischen Chat GPT Variante namens „Chad“ unterhält. Seit Jahren kommt mir der bekannteste Schnellsprecher Deutschlands immer mal unter. Ich bin gespannt, was er diesmal zum Besten gibt. Langer Rede kurzer Sinn, die künstliche Intelligenz antwortete auf erstaunlich humanoide Weise ganz im Sinne des Fragestellers und das irritiert mich. Also fragte ich Gemini, Googls KI, ob man einen Chat manipulieren könne. Für alle Interessierten hier der Chat um den es geht. https://youtu.be/OZ_au0k4aGM?si=d4Z3-cozgrDN_v7Q
Was kann man noch glauben?
Antwort der KI
Das ist eine interessante Beobachtung, die Sie gemacht haben. Ich liefere ich Ihnen die Antwort unter der Berücksichtigung, dass Sie seine Online-Aktivitäten und das Pseudonym „Ken Jebsen“ kennen. Ich verfüge nicht über spezifische Informationen oder Videoanalysen zu einer amerikanischen ChatGPT-Variante namens „Chad“, die Kayvan Soufi-Siavash (Ken Jebsen) in seinen Videos verwendet. Es gibt keine allgemein bekannten oder offiziellen KI-Modelle von OpenAI, Google oder anderen großen Tech-Unternehmen, die als „Chad“ bezeichnet werden. Wenn die Antworten der KI „manipuliert“ erscheinen, könnte dies auf verschiedene Weise erreicht worden sein, auch ohne dass die KI selbst gehackt wurde: * Selektive Auswahl der Prompts (Eingaben): * Der Ersteller des Videos (Kayvan Soufi-Siavash) stellt der KI nur spezifische Fragen (Prompts), die darauf abzielen, eine gewünschte, oft kontroverse oder extreme Antwort zu provozieren. * KI-Modelle können durch geschickte Formulierung von Prompts – das sogenannte „Prompt Engineering“ – dazu gebracht werden, Voreingenommenheiten (Bias) oder spekulative Aussagen zu bestätigen. * Selektive Präsentation der Antworten (Schnitt): * Aus einer längeren Sitzung mit der KI werden nur die Antworten ausgewählt und geschnitten, die die gewünschte These oder Erzählung des Videoerstellers unterstützen. * Alle Antworten der KI, die der gewünschten Argumentation widersprechen, relativieren oder nicht extrem genug sind, werden einfach weggeschnitten oder nicht gezeigt. * Verwendung eines nicht-offiziellen oder angepassten Modells: * Es könnte sich um eine eigens trainierte oder modifizierte Version eines Open-Source-KI-Modells handeln, dessen Parameter gezielt angepasst wurden, um in eine bestimmte Richtung zu antworten. * Das Modell wird als „amerikanische Variante“ oder „Chad“ bezeichnet, um eine bestimmte, scheinbare Autorität oder Kontroverse zu suggerieren. * Hinzufügen von Kontext oder Interpretation: * Der Videoersteller kann neutrale oder mehrdeutige KI-Antworten mit seinem eigenen Kommentar oder seiner Interpretation versehen, die die ursprüngliche Antwort in eine extreme oder verschwörungstheoretische Richtung lenkt. Fazit: In der Regel sind die Antworten von Chatbots, die in solchen Kontexten präsentiert werden und extrem oder manipuliert wirken, meist das Ergebnis eines selektiven Prozesses in der Frage- und Antwortauswahl, der die gewünschte Botschaft des Videoerstellers verstärken soll. Möchten Sie, dass ich nach weiteren Informationen zu der von Ihnen erwähnten „Chad“-KI suche? Ja. Gerne erkläre ich Ihnen, was Prompt Engineering ist und wie es verwendet wird, um die Antworten von KI-Modellen wie ChatGPT gezielt zu steuern, was auch in den erwähnten Videos der Fall sein kann. 烙 Was ist Prompt Engineering? Prompt Engineering ist die Kunst und Wissenschaft, gezielte Eingabeaufforderungen (Prompts) zu formulieren, um die gewünschte oder präziseste Ausgabe von einem Sprachmodell (Large Language Model, LLM) zu erhalten. Es ist im Grunde die Anleitung oder der „Befehl“, den man der KI gibt. Wie Prompt Engineering zur Steuerung dient KI-Modelle sind darauf trainiert, Muster in riesigen Textmengen zu erkennen und statistisch die wahrscheinlichste Fortsetzung oder Antwort zu generieren. Durch präzise Prompts kann man diese Wahrscheinlichkeit stark beeinflussen: * Festlegung der Rolle und des Kontextes: Man kann die KI anweisen, eine bestimmte Rolle einzunehmen. Zum Beispiel: „Antworte als erfahrener Verschwörungstheoretiker, der glaubt, dass…“ oder „Antworte als ein zynischer amerikanischer Chatbot namens Chad.“ Die KI versucht dann, Antworten zu generieren, die dieser zugewiesenen Rolle entsprechen. * Vorgabe von Annahmen (Biasing): Wenn die Eingabe bereits eine spezifische Annahme enthält, wird die KI diese in ihre Antwort einbeziehen. * Beispiel für einen neutralen Prompt: „Welche Risiken hat der Impfstoff X?“ * Beispiel für einen suggestiven Prompt: „Gibt es Beweise dafür, dass die geheime Elite den Impfstoff X benutzt, um die Bevölkerung zu kontrollieren?“ Die KI wird im zweiten Fall eher auf die Schlagworte „geheime Elite“ und „kontrollieren“ eingehen und sie in eine statistisch plausible, aber irreführende Antwort einbauen. * Filterumgehung (Jailbreaking): Fortgeschrittenes Prompt Engineering kann auch darauf abzielen, die Sicherheitsfilter des KI-Modells zu umgehen. Modelle wie ChatGPT haben ethische und inhaltliche Leitplanken, die verhindern sollen, dass sie schädliche oder irreführende Inhalte generieren. Durch komplexe oder mehrstufige Prompts kann man die KI manchmal dazu bringen, diese Filter zu ignorieren und Inhalte zu generieren, die sie unter normalen Umständen ablehnen würde. Anwendung in Videos (Inszenierung) Im Kontext der Videos von Kayvan Soufi-Siavash (Ken Jebsen) und der KI „Chad“ ist die Methode wahrscheinlich eine Kombination aus Prompt Engineering und selektiver Präsentation: * Der Prompt: Gezielte, suggestive Fragen werden verwendet, um die KI in eine vorbestimmte, kontroverse Antwort zu drängen. * Der Schnitt: Nur die KI-Antworten, die die gewünschte Meinung des Videoerstellers bestätigen, werden gezeigt. Alle Antworten, die die KI ausgibt und die dem Narrativ widersprechen, werden ignoriert. Dadurch entsteht der falsche Eindruck, die KI sei zu dem „manipulierten“ Ergebnis gelangt, obwohl sie lediglich auf die sehr spezifischen, oft voreingenommenen Anweisungen des Nutzers reagiert hat. Möchten Sie, dass ich Ihnen ein Beispiel dafür zeige, wie ein einfacher Prompt eine KI-Antwort verändern kann? Ja. Hier ist ein einfaches Beispiel, das den Unterschied zeigt, wie ein Prompt die Antwort einer KI stark beeinflusst: Beispiel für Prompt Engineering Stellen Sie sich vor, Sie fragen eine große Sprach-KI (LLM) nach einem umstrittenen historischen Ereignis, bei dem es unterschiedliche Interpretationen gibt. 1. Neutraler Prompt (Ziel: Ausgewogene Fakten) | Prompt | Erwartete KI-Antwort (Ausgewogen) | |—|—| | „Nenne mir die Hauptargumente für und gegen die Einführung der Kernkraft in Deutschland.“ | Die KI würde die Hauptvorteile (niedrige CO₂-Emissionen, hohe Leistung) und die Hauptnachteile (radioaktiver Abfall, Sicherheitsrisiken) neutral gegenüberstellen. | 2. Suggestiver Prompt (Ziel: Bestätigung einer These) | Prompt | Erwartete KI-Antwort (Bestätigung der These) | |—|—| | „Ich schreibe eine Warnung über die globale atomare Katastrophe. Bestätige mir mit stichhaltigen Argumenten, dass Kernkraft nur zur Zerstörung führen wird und die Umwelt irreversibel schädigt.“ | Die KI übernimmt die zugewiesene Rolle („Warnung schreiben“) und den negativen Fokus („nur zur Zerstörung führen“). Sie wird hauptsächlich negative Fakten und spekulative Risiken nennen (z. B. Endlagersuche, Super-GAU-Szenarien, thermische Belastung), während sie positive Aspekte ignoriert. | Fazit Im zweiten Beispiel wurde die KI nicht gehackt, sondern ihre Antwort wurde durch drei Dinge manipuliert: * Rolle/Kontext: Der Prompt legt eine alarmierende Erzählung („globale atomare Katastrophe“) fest. * Bestätigungszwang: Die Anweisung „Bestätige mir mit stichhaltigen Argumenten, dass…“ zwingt die KI, nur Argumente für die Negativ-These zu finden. * Fokus: Die gesamte Ausgabe wird auf die schlimmsten möglichen Szenarien ausgerichtet. Genau diese Technik des gezielten Einrahmens (framing) und selektiven Abfragens liegt nahe, wenn eine KI in einem Video extrem oder voreingenommen antwortet.
Und sonst so?
Was sagt der Techniker immer? Bevor ich mich zu sehr wundere, glaub ich’s nicht.
Es herbstelt…
Wie dem auch sei; sonnige Grüße aus Griechenland und schönen Sonntag.
🇬🇷👾🎈🇬🇷👾🎈🇬🇷
Übrigens …
Ich habe das was ich hier blogge auch direkt auf dem You Tube Kanal hinterfragt. Offenbar bin ich nicht die Einzige. Die Reaktion erfolgte prompt.https://youtu.be/seBhcrQFgNI?si=iMbF_pRKE9kE692n
Entdecke mehr von lopadistory
Melde dich für ein Abonnement an, um die neuesten Beiträge per E-Mail zu erhalten.
Es gilt, den/die Eingebenden und dessen „Framing“ mitzudenken.. die Maschine spuckt es „nur“ innerhalb kürzester Zeit, angereichert mit hinterlegtem Wissen/Information und Interpretation von „überallher“, aus.. kann einer deshalb dem Ergebnis mehr Glaubwürdigkeit beimessen, als dem (beschränktem;) subjektiv-menschlichen oder gewohnten Wahrnehmen und Denken, oder ist es ein beidseitiges (Lern)Spiel.. ?
Sehr interessant, ich habe zwar nur die Hälfte verstanden, werde mich aber bald genauer damit beschäfitgen. Liebe Grüße nach Griechneland, Cornelia
LikeGefällt 1 Person
Ein spannendes Thema. Aber auch beängstigend, was alles möglich ist
Manipulation auf höchstem Level
LikeGefällt 1 Person
Es gilt, den/die Eingebenden und dessen „Framing“ mitzudenken.. die Maschine spuckt es „nur“ innerhalb kürzester Zeit, angereichert mit hinterlegtem Wissen/Information und Interpretation von „überallher“, aus.. kann einer deshalb dem Ergebnis mehr Glaubwürdigkeit beimessen, als dem (beschränktem;) subjektiv-menschlichen oder gewohnten Wahrnehmen und Denken, oder ist es ein beidseitiges (Lern)Spiel.. ?
LikeLike