\n\n\n\n Meine KI spiegelt meine Fehler wider: Ein Geständnis eines Vaters über seine Ausbildung - AgntZen \n

Meine KI spiegelt meine Fehler wider: Ein Geständnis eines Vaters über seine Ausbildung

📖 9 min read1,791 wordsUpdated Mar 28, 2026

2026-03-15

Der Prompt als Spiegel: Wie wir KI trainieren, um unsere eigenen schlechten Gewohnheiten widerzuspiegeln

Ich habe versucht, meinem fünfjährigen Leo beizubringen, seine Schuhe wegzuräumen. Nicht nur in der Nähe des Schuhregals, wohlgemerkt, sondern *auf* dem Schuhregal. In der vorgesehenen Nische. Es ist ein täglicher Kampf, ein kleiner Krieg der Willensstärke über Fußbekleidung. Und öfter als mir lieb ist, finde ich mich frustriert wieder, während ich die gleichen Anweisungen wiederhole, nur um eine Stunde später festzustellen, dass seine Avengers-Sneaker noch immer im Flur verstreut liegen.

Was hat das mit KI zu tun, fragst du? Alles, tatsächlich. Denn während ich geduldig (oder weniger geduldig) zum x-ten Mal erklärte, wo Iron Mans Schuh hingehört, kam mir ein Gedanke: Ich mache genau das, was wir mit KI tun. Wir geben ihr Anweisungen, manchmal vage, manchmal zu spezifisch, und dann sind wir überrascht, wenn das Ergebnis nicht ganz dem entspricht, was wir uns vorgestellt haben. Wir geben der KI, dem Modell oder der „Black Box“ die Schuld, aber selten betrachten wir den Prompt – diesen ursprünglichen Samenkorn der Absicht – als Spiegel unserer eigenen fehlerhaften Kommunikation.

Bei agntzen.com sprechen wir oft über Handlungsmacht, über den Ort der Kontrolle und die Natur der Absicht. Wenn es um KI geht, ist der Prompt der Ort, an dem unsere Handlungsmacht, unsere Absicht, wirklich ihren ersten Eindruck hinterlässt. Zunehmend sehe ich, dass unsere Prompts weniger klare Anweisungen und mehr die Hoffnung beinhalten, dass die KI magisch intuitiv erkennt, was wir meinen. Es ist, als würde ich Leo sagen: „Räum deine Schuhe ordentlich weg,“ und erwarten, dass sie perfekt in ihren Nischen landen.

Die Filterblase der Unklarheit

Denk an die typische Interaktion mit einem großen Sprachmodell. Du gibst eine Anfrage ein: „Schreibe einen Artikel über die Zukunft der Arbeit.“ Was bekommst du zurück? Etwas Allgemeines, sicherlich gut geschrieben, aber wahrscheinlich ohne den speziellen Funken, auf den du gehofft hast. Warum? Weil „Zukunft der Arbeit“ ein riesiges, weit gefasstes Konzept ist. Es ist ein Prompt, der nach mehr Kontext, mehr Einschränkungen, mehr *dir* verlangt.

Wir haben uns an ein gewisses Maß an konversationeller Kurzform mit anderen Menschen gewöhnt. Wir füllen Lücken, schließen Bedeutungen aus dem Ton, aus gemeinsamem Kontext, aus nonverbalen Hinweisen. KI hat das nicht. Sie operiert nach den genauen statistischen Beziehungen, die sie aus riesigen Datensätzen gelernt hat. Wenn wir ihr also einen vagen Prompt geben, füllt sie ebenfalls die Lücken – aber sie füllt sie mit den statistisch wahrscheinlichsten Informationen, was oft zu den häufigsten, allgemeinsten und damit am wenigsten interessanten Antworten führt.

Es geht hier nicht nur darum, eine „bessere“ Antwort zu erhalten; es geht darum, die Natur unserer Interaktion zu verstehen. Wenn wir KI mit derselben lässigen Ungenauigkeit ansprechen, die wir manchmal miteinander verwenden, trainieren wir sie im Grunde genommen, diese Ungenauigkeit widerzuspiegeln. Wir schaffen eine Filterblase der Unklarheit, in der unsere vagen Eingaben zu ebenso vagen Ausgaben führen und unsere eigenen schlechten Kommunikationsgewohnheiten verstärken.

Wenn gute Absichten auf schlechte Prompts treffen: Eine Fallstudie

Ein Freund von mir, ein Produktmanager in einem kleinen Start-up, hatte neulich die Aufgabe, einige erste Marketingtexte für ein neues internes Kommunikationstool zu erstellen. Er hatte von der Macht von LLMs gehört und war begeistert, es auszuprobieren. Sein Prompt:


"Generiere ansprechende Marketingtexte für unser neues internes Kommunikationstool. Lass es neu klingen."

Das Ergebnis war… in Ordnung. Voller Unternehmensjargon, Schlagwörter und Phrasen wie „Arbeitsabläufe optimieren“ und „Zusammenarbeit fördern.“ Mein Freund war enttäuscht. „Es klingt wie jedes andere Tool da draußen!“ klagte er bei einer Tasse Kaffee. „Ich wollte etwas Frisches, Einzigartiges.“

Meine erste Frage war: „Was bedeutet ‚neu‘ *für dich* für *dieses spezifische Tool*?“ Er hielt inne. „Nun, es ist wirklich gut in der asynchronen Kommunikation für verteilte Teams. Und es hat dieses coole Feature, das lange Threads automatisch zusammenfasst.“

Aha! Da ist die Spezifität. Da ist das einzigartige Verkaufsversprechen. Sein ursprünglicher Prompt forderte die KI auf, zu erraten, was „neu“ in seinem Kontext bedeutete, angesichts ihrer umfangreichen Trainingsdaten. Und die KI, als pflichtbewusste statistische Maschine, gab ihm die häufigste statistische Interpretation von „neu“ in Marketingtexten: generischer Jargon.

Wir haben seinen Prompt gemeinsam verfeinert:


"Generiere Marketingtexte für ein internes Kommunikationstool, das für verteilte Teams entwickelt wurde. Hebe die Stärken der asynchronen Kommunikation und die KI-gestützte Thread-Zusammenfassungsfunktion hervor. Konzentriere dich darauf, Meetingmüdigkeit zu reduzieren und die Informationsspeicherung für Remote-Arbeiter zu verbessern. Verwende einen hilfreichen und leicht informellen Ton und vermeide Unternehmensjargon."

Der Unterschied war wie Tag und Nacht. Das neue Ergebnis war zielgerichtet, spezifisch und tatsächlich nützlich. Es war nicht perfekt, aber es war ein solides Fundament, ein Gesprächsanstoß anstelle eines generischen Monologs.

Die Handlungsmacht der Spezifität

Das führt mich zurück zur Handlungsmacht. Wir sprechen darüber, dass KI Handlungsmacht hat, über ihre Fähigkeit, „Entscheidungen zu treffen“ oder „zu erstellen.“ Aber bevor wir dort hingehen, müssen wir unsere eigene Handlungsmacht bei der Gestaltung dieser Interaktion anerkennen. Der Prompt ist nicht nur eine Anweisung; er ist eine Erklärung der Absicht. Hier definieren wir die Grenzen, die Parameter, das spezifische Universum, innerhalb dessen die KI operieren soll.

Denk an folgendes: Wenn du einen Koch bittest, „etwas Gutes zu machen“, bekommst du vielleicht ein perfekt essbares, aber uninspiriertes Gericht. Wenn du ihn bittest, „ein Gericht zu kreieren, das würzige koreanische Aromen mit einer wohltuenden italienischen Pasta kombiniert, unter Verwendung von frischem Meeresfrüchten und einer leichten, zitrusartigen Sauce“, gibst du ihm einen Rahmen, eine Herausforderung, eine Leinwand, innerhalb derer er seine Kreativität ausüben kann. Der letzte Prompt erstickt nicht die Kreativität; er leitet sie.

Ähnlich ist es bei KI, unsere Spezifität schränkt ihre Fähigkeiten nicht ein; sie fokussiert sie. Sie erlaubt dem Modell, aus seinem immensen Wissensschatz auf eine Weise zu schöpfen, die mit *unseren* spezifischen Bedürfnissen und Wünschen übereinstimmt, anstatt einfach nur den statistischen Durchschnitt wiederzugeben.

Praktische Schritte zur Schärfung deiner Aufforderungsfähigkeit

Wie bewegen wir uns also über die Filterblase der Unklarheit hinaus und beginnen, Prompts als kraftvolle Werkzeuge der Absicht zu nutzen? Hier sind einige Dinge, mit denen ich experimentiert habe, sowohl in meiner eigenen Arbeit als auch beim Coaching anderer:

  1. Definiere die Persona und das Ziel: Wer soll die KI sein? Was ist das endgültige Ziel dieses Outputs?
    • Schlecht: „Schreibe einen Bericht über den Klimawandel.“
    • Besser: „Handle als Politikanalyst der UN. Schreibe einen prägnanten Briefingbericht für einen Staatsoberhaupt über die wirtschaftlichen Auswirkungen des Anstiegs des Meeresspiegels in Südostasien im nächsten Jahrzehnt. Das Ziel ist es, politische Entscheidungen für Infrastrukturinvestitionen zu informieren.“
  2. Gib Einschränkungen und Ausschlüsse an: Was sollte die KI *nicht* tun oder einbeziehen? Das ist oft genauso wichtig wie das, was du möchtest, dass sie tut.
    • Schlecht: „Generiere Ideen für eine neue App.“
    • Besser: „Brainstorme App-Ideen zur Bekämpfung von städtischer Einsamkeit. Schließe jegliche Ideen aus, die erhebliche Hardware-Entwicklung erfordern oder auf Abo-Modellen für die Kernfunktionen basieren. Konzentriere dich auf gemeinschaftsbildende und niedrigschwellige Lösungen.“
  3. Beispiele bereitstellen (Few-Shot Prompting): Wenn du einen bestimmten Stil, Ton oder ein Format im Kopf hast, gib der KI ein paar Beispiele. Das ist unglaublich kraftvoll.
    • Schlecht: „Schreibe eine Kurzgeschichte über einen Detektiv.“
    • Besser: „Schreibe eine kurze, griffige Detektivgeschichte im Stil von Raymond Chandler. Hier ist ein Beispiel für den Anfang, den ich mag: ‘Der Regen war eine kalte, nasse Decke über der Stadt, und das Einzige, was kälter war, war der Blick in ihren Augen.’“
  4. Iteriere und verfeinere: Dein erster Prompt wird wahrscheinlich nicht perfekt sein. Behandle die Interaktion als ein Gespräch. Stelle Folgefragen, gib zusätzlichen Kontext und verfeinere deine Anweisungen basierend auf dem Output der KI.
    • Erster Prompt: „Erkläre Quantenverschränkung einfach.“
    • KI-Ausgabe: (technische Erklärung, noch etwas komplex)
    • Verfeinerung: „Das ist hilfreich, aber kannst du es anhand einer Analogie erklären, die ein 10-Jähriger verstehen würde, ohne Physik-Jargon zu verwenden?“
  5. Denke in ‘Variablen’: Wenn du KI für sich wiederholende Aufgaben verwendest, überlege, wie du deine Prompts mit Variablen gestalten kannst, die du einfach austauschen kannst. Das zwingt dich, systematisch darüber nachzudenken, was sich ändert und was gleich bleibt.
    • Beispiel für die Inhaltserstellung:
    • "Schreibe einen [Länge, z.B. 300 Wörter] Blogbeitrag über die Vorteile von [Thema, z.B. achtsames Essen]. Der Ton sollte [Ton, z.B. ermutigend und informativ] sein. Füge einen Handlungsaufruf ein, um [Aktion, z.B. eine 7-tägige achtsame Essensherausforderung] auszuprobieren."

Der Spiegel in der Maschine

Schließlich ist die Qualität unserer Interaktionen mit KI nicht nur eine Funktion der Modelle selbst. Sie ist auch ein direktes Spiegelbild unserer Fähigkeit, unsere Gedanken, unsere Wünsche und unsere Absichten zu artikulieren. Wenn Leo schließlich, triumphierend, seine Schuhe in die Nische stellt, liegt das nicht nur daran, dass er die Regel gelernt hat; es liegt daran, dass ich gelernt habe, diese Regel mit genügend Klarheit, Wiederholung und spezifischer Anleitung zu kommunizieren, damit er sie begreifen kann.

Bei KI haben wir eine noch größere Verantwortung, da die Einsätze höher sind als nur fehlplatzierte Sneakers. Wir bauen Systeme auf, die zunehmend unsere Informationen, unsere Entscheidungen und unsere Welt gestalten werden. Wenn wir diese Systeme mit faulen, mehrdeutigen Prompts trainieren, erhalten wir nicht nur unterdurchschnittliche Antworten; wir verstärken unbeabsichtigt eine Kultur der Ungenauigkeit. Wir bringen der KI bei, unsere eigenen schlechten Gewohnheiten zu spiegeln, anstatt uns selbst zu drängen, klarer, zielgerichteter in dem digitalen Raum zu sein.

Daher, wenn du das nächste Mal dabei bist, einen schnellen, vagen Prompt in dein Lieblings-KI-Tool einzugeben, nimm dir einen Moment Zeit. Halte inne. Denke darüber nach, was du *wirklich* willst. Denke an das spezifische Ergebnis. Denn in diesem Moment bittest du nicht nur eine Maschine um eine Antwort; du blickst in einen Spiegel, und was du zurückgespiegelt siehst, könnte dein eigenes Handeln oder das Fehlen davon sein.

Umsetzbare Erkenntnisse:

  • Behandle Prompts als Absichtserklärungen: Sei präzise bei deinen Zielen und gewünschten Ergebnissen.
  • Akzeptiere Einschränkungen: Definiere, was die KI *nicht* tun sollte, ebenso wie das, was sie tun sollte.
  • Stelle Kontext und Beispiele bereit: Lass die KI nicht raten, was deine spezifische Bedeutung oder deinen Stil ist.
  • Iteriere und verfeinere: Nutze den Output der KI als Feedback, um deinen nächsten Prompt zu verbessern.
  • Sei spezifisch bezüglich Zielgruppe und Persona: Das verbessert die Relevanz und den Ton erheblich.

🕒 Published:

✍️
Written by Jake Chen

AI technology writer and researcher.

Learn more →
Browse Topics: Best Practices | Case Studies | General | minimalism | philosophy
Scroll to Top