Skip to content
Von Vibe Coding zu unsicheren API Keys
← ← Zurück zu Gedanken AI

Von Vibe Coding zu unsicheren API Keys

Nicht jeder, der Software baut, sollte Software ausliefern.


Es gibt einen Moment, der in jeder Vibe-Coding-Sitzung passiert. Man tippt etwas wie „Bau mir ein Login-System mit Stripe-Zahlungen" in Cursor oder Lovable, die KI spuckt eine funktionierende App aus, und man fühlt sich unbesiegbar. Der Code läuft. Die Buttons funktionieren. Die Zahlungen gehen durch. Man ist jetzt Entwickler.

Nur ist man das nicht. Und die Leute, die deine App nutzen werden, werden das auf die harte Tour herausfinden.

Was genau ist Vibe Coding?

Der Begriff wurde Anfang 2025 von Andrej Karpathy geprägt und wurde schnell zum Wort des Jahres im Collins Dictionary. Die Idee ist einfach: Man beschreibt, was man will, in normalem Englisch, eine KI generiert den Code, und man liefert ihn aus, ohne jede Zeile zu lesen. „Gib dich voll den Vibes hin", wie Karpathy es formulierte, „und vergiss, dass der Code überhaupt existiert."

Bis 2026 nutzen 92 % der US-Entwickler täglich KI-Coding-Tools. GitHub berichtet, dass 46 % des gesamten neuen Codes mittlerweile KI-generiert ist. Unter den Startups des Y Combinator Winter-2025-Batches hatten ein Fünftel Codebases, die zu über 91 % KI-generiert waren.

Die Beschleunigung ist real. Das Problem ist, wer beschleunigt — und wohin sie unterwegs sind.

Die Leidtragenden sind nicht diejenigen, die die Prompts schreiben

Hier liegt der Fehler in den meisten Diskussionen über Vibe Coding: Sie konzentrieren sich auf den Entwickler. „Werden Vibe Coder lernen, richtig zu programmieren?" ist die falsche Frage. Die richtige Frage lautet: Was passiert mit den Menschen, die die App herunterladen, ihre Kreditkarte eingeben und ihr ihre Daten anvertrauen?

Denn im Moment lautet die Antwort: nichts Gutes.

Im Januar 2026 startete eine Plattform namens Moltbook als soziales Netzwerk für KI-Agenten. Der Gründer erklärte öffentlich, er habe keine einzige Zeile Code geschrieben — das gesamte Projekt war vibe coded. Innerhalb von drei Tagen entdeckten Sicherheitsforscher, dass die App 1,5 Millionen API-Authentifizierungstoken, 35.000 E-Mail-Adressen und Tausende private Nachrichten frei im Internet zugänglich gemacht hatte. Die Ursache war kein raffinierter Hack. Es war eine falsch konfigurierte Datenbank, die die KI während der Entwicklung mit öffentlichem Zugang eingerichtet hatte und die niemand je geändert hat.

Dies ist kein Einzelfall. Eine Studie von Escape.tech untersuchte 5.600 vibe-coded Anwendungen und fand über 2.000 Schwachstellen, mehr als 400 offengelegte Secrets (API Keys, Zugangsdaten, Token im lesbaren Code) und 175 Fälle, in denen personenbezogene Daten über App-Endpunkte durchsickerten. Fast die Hälfte aller KI-generierten Code-Samples besteht grundlegende Sicherheitstests nicht.

Die Nutzer dieser Apps haben sich nicht als Betatester für jemandes Wochenend-Experiment angemeldet. Sie haben sich angemeldet, um ein Produkt zu nutzen. Und ihre Daten haben den Preis bezahlt.

Wie KI Code erzeugt, der funktioniert, aber nicht sicher ist

Um zu verstehen, warum das passiert, muss man verstehen, wofür KI-Coding-Tools optimiert sind: Dinge zum Laufen zu bringen. Nicht Dinge sicher zu machen. Nicht Dinge wartbar zu machen. Einfach nur die Fehlermeldung verschwinden zu lassen.

Wenn man einer KI sagt „Ich bekomme einen Permission Denied Error bei meiner Datenbank", denkt sie nicht über Sicherheitsimplikationen nach. Sie denkt darüber nach, wie der Fehler verschwindet. Also generiert sie möglicherweise eine Datenbankrichtlinie, die öffentlichen Zugriff auf alles gewährt. Der Fehler ist weg. Die App funktioniert. Und deine gesamte Benutzerdatenbank ist jetzt für jeden mit einem Browser lesbar.

Hier sind die Muster, die sich in fast jeder Vibe-Coding-Katastrophe wiederholen:

Hardcodierte Secrets. KI-Assistenten generieren routinemäßig Code mit API Keys, Datenbankpasswörtern und Token, die direkt in Quelldateien geschrieben sind. Wenn dieser Code in ein Repository gelangt — selbst ein privates — sind diese Secrets nur ein Leak davon entfernt, ausgenutzt zu werden. Der Moltbook-Vorfall begann genau so.

Fehlende Zugriffskontrollen. In einem dokumentierten Fall kehrte KI-generierter Code für über 170 Produktionsanwendungen die Zugriffskontrolllogik komplett um: Authentifizierte Benutzer wurden blockiert, während nicht authentifizierte Besucher vollen Zugriff hatten. Der Code bestand die visuelle Überprüfung. Er sah korrekt aus. Nur ein ordentlicher Sicherheitstest hätte das aufgedeckt.

Client-seitige Sicherheit. Ein Startup namens Enrichlead baute seine gesamte Plattform mit KI-Tools. Die Oberfläche war poliert und professionell. Aber die gesamte Sicherheitslogik lief im Browser. Innerhalb von 72 Stunden nach dem Launch entdeckten Nutzer, dass sie das bezahlte Abo umgehen konnten, indem sie einen einzigen Wert in der Entwicklerkonsole des Browsers änderten. Das Projekt wurde komplett eingestellt.

Gefährliche Standardeinstellungen. KI-Modelle werden auf einem riesigen Corpus von Code trainiert und tendieren zu dem, was am schnellsten funktioniert. Das bedeutet die Verwendung von dangerouslySetInnerHTML ohne Sanitisierung, das Deaktivieren der SSL-Überprüfung oder das Setzen von CORS auf „alles akzeptieren". Diese Abkürzungen sind in einem Tutorial in Ordnung. In der Produktion sind sie katastrophal.

Die wahren Kosten: Es geht nicht um technische Schulden

Technische Schulden ist ein Begriff für Ingenieure. Die wahren Kosten unsicherer vibe-coded Apps werden in etwas viel Greifbarerem gemessen: dem Geld der Menschen, den Daten der Menschen und dem Vertrauen der Menschen.

Wenn ein Solo-Gründer ein vibe-coded SaaS ausliefert und jemandes Stripe API Key offengelegt wird, werden echte Kreditkarten von echten Betrügern belastet. Wenn eine Gesundheits-App Patientendaten leakt, weil die KI keine ordnungsgemäße Autorisierung implementiert hat, stehen echte Menschen vor echten Konsequenzen. Wenn ein B2B-Tool seine gesamte Kundendatenbank offenlegt, weil die Admin-Route „geschützt" war, indem der Link einfach in der Benutzeroberfläche versteckt wurde, verlieren echte Unternehmen echte Wettbewerbsinformationen.

Der Gründer macht mit dem nächsten Projekt weiter. Die Nutzer müssen mit den Folgen leben.

Ein Sicherheitsforscher, der eine Zero-Click-Schwachstelle in der Orchids Vibe-Coding-Plattform demonstrierte — eine, die ihm vollen Fernzugriff auf den Laptop eines BBC-Journalisten gewährte — hatte zwölf Warnmeldungen an das Unternehmen geschickt, bevor er an die Öffentlichkeit ging. Das Unternehmen sagte, sie hätten die Nachrichten „möglicherweise übersehen", weil ihr Team „überlastet" war.

Überlastet damit, schnell zu bauen. Nicht damit, sicher zu bauen.

„Aber ich frage einfach die KI, das zu beheben"

Das ist die gefährlichste Annahme beim Vibe Coding: dass dasselbe Tool, das die Schwachstelle erzeugt hat, sie auch beheben kann. Aber KI-Coding-Assistenten haben keinen Sicherheitskontext. Sie kennen dein Bedrohungsmodell nicht. Sie verstehen nicht, welche Daten in deiner spezifischen Anwendung sensibel sind. Sie optimieren auf eine Sache: den Code zum Laufen zu bringen.

Eine KI zu bitten, „das sicher zu machen", ist wie einen Bauarbeiter, der nur weiß, wie man Beton gießt, auch die Elektroinstallation machen zu lassen. Er wird etwas tun. Es sieht vielleicht sogar richtig aus. Aber man möchte diesen Schalter wahrscheinlich nicht betätigen.

Die Forschung bestätigt das. Eine Analyse vom Dezember 2025 von 470 Open-Source-Pull-Requests ergab, dass KI-mitverfasster Code 1,7-mal mehr schwerwiegende Probleme enthielt als von Menschen geschriebener Code, wobei Sicherheitslücken 2,74-mal häufiger auftraten. Code, der mit einer Erfolgsrate von 90 % kompiliert und läuft — aber die Sicherheit dieses Codes hat sich nicht im gleichen Tempo verbessert.

Was sollten nicht-technische Gründer also tun?

Ich werde euch nicht sagen, dass ihr aufhören sollt, KI zum Bauen zu nutzen. Dieses Schiff ist abgefahren, und ehrlich gesagt sollte es nicht zurückkommen. KI-Coding-Tools sind wirklich leistungsfähig, und sie werden immer besser. Aber wenn ihr etwas baut, das andere Menschen nutzen werden — besonders wenn sie ihm ihre Daten oder ihr Geld anvertrauen — hier ist das Minimum:

Liefere nichts aus, was du nicht verstehst. Wenn du nicht erklären kannst, was dein Code mit Nutzerdaten macht, bist du nicht bereit auszuliefern. Nutze KI zum Bauen. Nutze einen Menschen zum Überprüfen.

Führe einen Sicherheitsscan durch, bevor du launchst. Tools wie GitGuardian und TruffleHog können automatisch offengelegte Secrets in deinem Code erkennen. Sie sind nicht perfekt, aber sie fangen die offensichtlichsten Katastrophen ab. Das dauert Minuten, nicht Tage.

Behandle deine KI wie einen Praktikanten, nicht wie einen Senior Engineer. Sie schreibt Code schnell. Sie schreibt Code nicht sicher. Jede Ausgabe braucht eine Überprüfung, besonders alles, was mit Authentifizierung, Datenbankzugriff oder Zahlungsabwicklung zu tun hat.

Bezahle für ein Security Review. Wenn deine App Nutzerdaten verarbeitet, ist ein professionelles Sicherheitsaudit keine Option — es sind die Kosten der Geschäftstätigkeit. Es ist günstiger als ein Datenleck.

Verwende Umgebungsvariablen für Secrets. Hardcode niemals API Keys. Niemals. Füge .env zu deiner .gitignore hinzu, bevor du deinen ersten Commit machst. Das ist grundlegende Hygiene, die KI-Tools konsequent falsch machen.

Das Fazit

Vibe Coding hat die Softwareerstellung demokratisiert, und das ist wirklich aufregend. Aber Erstellung zu demokratisieren, ohne Verantwortung zu demokratisieren — so bekommt man eine Million Apps mit offenen Datenbanken, geleakten Zugangsdaten und Nutzern, die nie zugestimmt haben, Teil von jemandes Lernkurve zu sein.

Die KI hat diese Nutzer nicht im Stich gelassen. Die Menschen, die ungeprüften Code ausgeliefert haben, haben diese Nutzer im Stich gelassen.

Bau schnell. Aber liefere verantwortungsvoll aus. Die Menschen, die deine App nutzen, zählen darauf.


Eine Anmerkung des Autors: Ich glaube, dass KI die Zukunft der Softwareentwicklung ist. Diese Tools werden sich weiterentwickeln, Sicherheitspraktiken werden reifen, und viele der hier beschriebenen Probleme werden letztendlich durch bessere KI, bessere Tools und bessere Bildung gelöst werden. Aber „letztendlich" hilft den Menschen nicht, deren Daten heute offengelegt werden. Optimistisch zu sein, wohin KI sich entwickelt, bedeutet nicht, dass wir ignorieren sollten, wo sie derzeit Schwächen hat. Wenn überhaupt, ist Ehrlichkeit über die heutigen Grenzen der Weg, wie wir schneller zu einem besseren Morgen gelangen.


Ion Anghel ist der Gründer von TEN INVENT, einer Software-Beratung und Produktschmiede, spezialisiert auf Laravel, Next.js, AWS und KI-gestützte Anwendungen. Mit 20 Jahren Erfahrung in der Tech-Branche baut er Dinge, die funktionieren — und stellt sicher, dass sie sicher sind, bevor sie ausgeliefert werden.

Ursprünglich veröffentlicht auf teninvent.ro