Warum deine KI-Prompts schlecht sind (und wie Sprache sie besser macht)
Die meisten Entwickler schreiben furchtbare KI-Prompts, weil Tippen langsam ist. Spracheingabe beseitigt den Engpass. Sieh dir echte Vorher/Nachher-Beispiele an.
TL;DR: Du schreibst kurze, faule KI-Prompts, weil lange zu tippen anstrengend ist. Das lässt KI-Tools weniger leistungsfähig erscheinen, als sie sind. Spracheingabe ermöglicht es dir, detaillierte Prompts in Sekunden zu sprechen, was die Qualität der KI-Ausgabe dramatisch verbessert.
Die unbequeme Wahrheit
Deine KI-Coding-Tools sind nicht unterdurchschnittlich. Du gibst ihnen zu wenig Input.
Wenn du „fix the bug" in Cursor tippst und ein mittelmäßiges Ergebnis bekommst, liegt das Problem nicht bei Cursor. Das Problem ist, dass du ihm nichts zum Arbeiten gegeben hast. Du weißt, wo der Bug ist, was er verursacht und wie die Lösung aussehen sollte. Aber du hast nichts davon getippt, weil es zu lange dauern würde.
Das ist der Prompt-Qualität-vs.-Tippaufwand-Trade-off, und es ist der wichtigste Grund, warum Entwickler von KI-Coding-Tools enttäuscht sind.
Warum Leute kurze, faule Prompts schreiben
Es ist nicht Faulheit. Es ist Ökonomie. Jedes Wort, das du tippst, hat Kosten:
- Bei 70 WPM dauert ein 100-Wort-Prompt etwa 85 Sekunden
- Das beinhaltet Nachdenken über Formulierung, Tippfehler korrigieren und Umstrukturieren
- In einem Terminal (wo viele KI-Agenten laufen) ist das Bearbeiten langer Texte besonders schmerzhaft
- Nach 8 Stunden Code tippen sind deine Finger und Handgelenke müde
Also optimierst du. Du nimmst Abkürzungen. Du schreibst „add auth" statt den gesamten Authentifizierungsablauf zu erklären. Du schreibst „fix test" statt zu beschreiben, welcher Test, was er testet und warum er fehlschlägt.
Und dann verbringst du 10 Minuten in einer Hin-und-Her-Schleife mit der KI, um den Kontext nachzuliefern, den du gleich am Anfang hättest geben sollen.
Die Ironie: Du sparst 60 Sekunden, indem du einen kurzen Prompt schreibst, verbringst dann aber 10 Minuten mit Iterationen. Die „Abkürzung" kostet dich 9 zusätzliche Minuten.
Das Prompt-Qualitäts-Spektrum
So sieht dieselbe Anfrage auf verschiedenen Qualitätsstufen aus:
Stufe 1: Minimaler Aufwand (5 Sekunden zum Tippen)
fix the login
KI-Ergebnis: Rät zufällig, was mit dem Login nicht stimmt. Ändert die falsche Datei. Du iterierst dreimal. Gesamtzeit: 8 Minuten.
Stufe 2: Etwas Kontext (30 Sekunden zum Tippen)
The login function returns 401 for valid users.
Check the token validation.
KI-Ergebnis: Findet die Token-Validierungsfunktion und macht einen plausiblen Fix. Es ist nah dran, übersieht aber den Refresh-Token-Grenzfall. Noch eine Iteration. Gesamtzeit: 4 Minuten.
Stufe 3: Detailliert (90 Sekunden zum Tippen)
The login endpoint in routes/auth.ts returns 401 for users whose
access token has expired but still have a valid refresh token. The
verifyToken function in middleware/auth.ts checks the access token
expiry on line 45 but returns 401 immediately without checking the
refresh token. Fix this by adding a refresh token check before the
401 response, and add a test for this scenario in auth.test.ts.
KI-Ergebnis: Behebt das genaue Problem, fügt den Test hinzu. In einer Iteration erledigt. Gesamtzeit: 2 Minuten.
Stufe 3 per Sprache (20 Sekunden zum Sprechen)
Derselbe Stufe-3-Prompt oben dauert nur 20 Sekunden zum Diktieren. Das ist weniger Zeit als der Stufe-2-Prompt zum Tippen braucht.
Das ist die entscheidende Erkenntnis: Sprache macht Stufe-3-Prompts so schnell wie Stufe-1-getippte Prompts. Du bekommst die Qualität ohne den Aufwand.
Wie Sprache den Engpass beseitigt
Sprechen ist 2-3x schneller als Tippen für natürliche Sprache. Aber der Geschwindigkeitsunterschied ist nur ein Teil der Geschichte. Sprache verändert auch, wie du über Prompts nachdenkst:
Du hörst auf, dich selbst zu editieren
Beim Tippen bewertest du ständig, ob jedes Wort den Aufwand „wert" ist. Du kürzt Sätze, lässt Kontext weg und kürzt ab. Es ist eine unbewusste Optimierungsschleife, die die Prompt-Qualität verschlechtert.
Beim Sprechen fließen Wörter in Gedankengeschwindigkeit. Du sagst, was dir einfällt, einschließlich Kontext, Einschränkungen, Grenzfälle und Beispiele, die KI-Output großartig machen.
Du lieferst das „Warum" mit
Getippter Prompt: „Add caching to the user endpoint."
Gesprochener Prompt: „The user endpoint is too slow because it queries the database on every request. Add Redis caching with a 5-minute TTL. Invalidate the cache when a user updates their profile. Use our existing Redis client in lib/redis."
Die gesprochene Version enthält das Warum (zu langsam), das Wie (Redis, 5 Minuten TTL), den Grenzfall (Invalidierung bei Update) und das Implementierungsdetail (bestehenden Client nutzen). Du würdest das nie alles tippen. Aber du sagst es natürlich, weil Sprechen mühelos ist.
Du lieferst Beispiele
Getippter Prompt: „Format the output better."
Gesprochener Prompt: „The API response currently returns the raw database object with snake_case field names and includes internal fields like created_at and deleted_at. I want it to return a clean DTO with camelCase field names, only the public fields like id, name, email, and role. Follow the same pattern we use in the product endpoint response."
Beispiele und Verweise auf bestehende Muster sind unglaublich wertvoll für KI-Tools. Sie tauchen fast nie in getippten Prompts auf, weil sie „zu viel Aufwand" sind. Sie erscheinen natürlich in gesprochenen Prompts.
Bereit, Sprachdiktat auszuprobieren?
Testen Sie Murmur 7 Tage kostenlos mit allen Pro-Funktionen. Diktieren Sie in jeder App.
Kostenlos herunterladenVorher/Nachher-Prompt-Beispiele
Beispiel 1: Bugfix
Getippt (Stufe 1):
fix the search
Gesprochen (Stufe 3):
The search endpoint in controllers/search.ts is returning duplicate
results when the user's query matches both the title and description
of the same item. The issue is that we are doing two separate queries
and concatenating the results without deduplication. Fix this by either
using a single query with OR conditions or by deduplicating the results
based on item ID before returning them. Keep the relevance sorting.
Beispiel 2: Neues Feature
Getippt (Stufe 1):
add dark mode
Gesprochen (Stufe 3):
Add dark mode support to the application. Create a ThemeContext that
stores the current theme in localStorage so it persists across sessions.
Add a toggle button in the navigation bar. The dark theme should use
the design tokens we already have in styles/tokens.ts. I want the
theme to default to the user's system preference using the
prefers-color-scheme media query, but they should be able to override
it with the toggle.
Beispiel 3: Refactoring
Getippt (Stufe 1):
clean up the user service
Gesprochen (Stufe 3):
The UserService in services/user.ts has grown to 400 lines and mixes
business logic with database queries and email sending. Refactor it by
extracting the database operations into a UserRepository class, the
email operations into an EmailService that we inject through the
constructor, and keep only the business logic in UserService. Create
interfaces for both the repository and email service so we can mock
them in tests. Follow the same patterns as the ProductService refactor
we did last sprint.
Beispiel 4: Code Review
Getippt (Stufe 1):
LGTM, some minor issues
Gesprochen (Stufe 3):
The overall approach looks good but I have a few concerns. The database
query on line 45 could cause N+1 issues when there are many users.
Consider batching it. The error handling in the catch block on line 72
swallows the error silently. At minimum log it to our monitoring
service. Also, the new utility function should be in the shared utils
directory since the billing module will need the same logic.
Der Zinseszins-Effekt
Bessere Prompts sparen nicht nur bei einer Interaktion Zeit. Sie haben einen kumulativen Effekt:
- Besserer erster Output bedeutet weniger Iterationen
- Weniger Iterationen bedeutet weniger Kontextverschmutzung im KI-Chatverlauf
- Saubererer Chatverlauf bedeutet, dass die KI besseren Kontext für nachfolgende Prompts behält
- Bessere nachfolgende Prompts (weil du jetzt die Gewohnheit hast, detailliert zu sein) verstärken den Qualitätsvorteil kumulativ
Entwickler, die auf Sprach-Prompts umsteigen, berichten typischerweise:
- 60-70% weniger KI-Iterationen pro Aufgabe
- 2-3x mehr fertiggestellte Features pro Tag
- Merklich höhere Codequalität bei KI-generiertem Code
Erste Schritte
Du musst nicht ändern, wie du denkst. Du brauchst nur ein Tool, mit dem du sprechen statt tippen kannst.
Murmur funktioniert in jeder Anwendung einschließlich Cursor, VS Code, Claude Code im Terminal und jedem anderen Tool, in dem du Prompts schreibst. Eine Tastenkombination aktiviert es. Sprich deinen Prompt. Fertig.
Probiere dieses Experiment für einen Tag:
- Lade Murmur herunter (Gratis-Stufe: 5 Diktate/Tag)
- Nutze Sprache für jeden KI-Prompt, den du heute schreibst
- Bemerke, wie viel mehr Detail deine Prompts enthalten
- Bemerke, wie viel weniger du iterierst
Der Unterschied ist nicht subtil. Es ist der Unterschied zwischen „fix this" an eine KI zu sagen und ihr den Kontext zu geben, den sie braucht, um es tatsächlich zu fixen.
Fazit
Deine KI-Tools sind nur so gut wie die Prompts, die du ihnen gibst. Die meisten Entwickler geben zu wenig Input, weil Tippen langsam und anstrengend ist. Spracheingabe beseitigt diesen Engpass komplett und lässt dich Stufe-3-Prompts in der Zeit sprechen, die du für Stufe-1-Prompts zum Tippen brauchst.
Wenn du von KI-Coding-Tools enttäuscht warst, versuche deine Prompts zu sprechen, bevor du die Tools beschuldigst. Vielleicht stellst du fest, dass die KI immer leistungsfähig war. Du warst nur zu müde, um das zu tippen, was sie brauchte.
Bereit, Sprachdiktat auszuprobieren?
Testen Sie Murmur 7 Tage kostenlos mit allen Pro-Funktionen. Diktieren Sie in jeder App.
Kostenlos herunterladenRelated Articles
voice coding
Spracheingabe im Terminal: Befehle ohne Tastatur
Nutze Sprache, um Terminal-Befehle schneller einzugeben. Git, npm, Docker und mehr – sprich deine Befehle statt sie zu tippen.
voice coding
5 Wege, wie Spracheingabe dich zu einem besseren Entwickler macht
Spracheingabe ist nicht nur schneller – sie macht dich zu einem besseren Entwickler. Hier sind 5 konkrete Wege, wie sie deine Arbeit verbessert.
voice coding
Wie ich meine Coding-Geschwindigkeit mit Spracheingabe in Cursor verdreifacht habe
Die echte Erfahrung eines Entwicklers mit Spracheingabe in der Cursor IDE. Erfahre, welche Workflows die Produktivität beim Programmieren verdreifacht haben.