REST-APIs und LLM-Streaming-Endpoints mocken. Sofort.

WireMock benötigt Java, Maven und Konfigurationsdateien. mockapi.dog läuft in Ihrem Browser. Keine Abhängigkeiten. Keine Installation. Kein Setup.

  • REST-APIs mocken und Tokens über SSE streamen – genau wie GPT-4 und die Claude-API
  • Volle Kontrolle über HTTP-Methoden, Statuscodes, Antwort-Bodies und Latenzen
  • Kein SDK, keine JVM, kein Docker – nur eine URL

Gebaut für Entwickler, die REST- und LLM-APIs in produktive Anwendungen integrieren.

Das Problem

Sie brauchen einen Mock-Endpoint. Vielleicht für ein Frontend-Feature, vielleicht für einen Integrationstest, vielleicht für eine Demo. Sie schauen sich WireMock an.

Zuerst die Maven-Abhängigkeit hinzufügen. Oder das Docker-Image ziehen. Stub-Mapping in JSON oder Java schreiben. JUnit-Integration konfigurieren. Server starten. Hoffen, dass der Port frei ist.

Für einen einfachen Mock-Endpoint haben Sie gerade eine Build-Abhängigkeit hinzugefügt, Konfiguration geschrieben und einen lokalen Serverprozess gestartet. Und WireMock unterstützt LLM-Streaming überhaupt nicht – kein SSE, keine Token-für-Token-Auslieferung.

Szenario

Eine Entwicklerin baut eine Streaming-Chat-UI und braucht einen Mock-Endpoint, der SSE-Events im OpenAI-Format zurückgibt. Außerdem benötigt sie zwei REST-Endpoints für Benutzer- und Produktdaten. WireMock zwingt sie dazu, ein Java-Projekt oder einen Docker-Container einzurichten und JSON-Stub-Mappings zu schreiben – und mockt den Streaming-Endpoint trotzdem nicht.

Die Lösung

mockapi.dog läuft in Ihrem Browser. Seite öffnen. Antwort definieren. Speichern klicken. Ihr Endpoint ist live und von überall erreichbar.

Für REST: beliebiges JSON mit beliebiger HTTP-Methode und beliebigem Statuscode definieren. Verzögerungen zur Simulation langsamer Server. Fehlerraten zum Test der Resilienz. Bedingte Fehler, ausgelöst durch Request-Header.

Für LLM-Streaming wählen Sie OpenAI, Anthropic oder generisches SSE-Format. Tokens streamen über Server-Sent Events – genau wie bei der Produktions-API. Kein Server, der laufen muss. Kein SDK, das konfiguriert wird. Kein Konto.

Funktionen im Detail

OpenAI-kompatibles Streaming

Ihr Mock-Endpoint sendet Chunked-SSE-Daten exakt im OpenAI-Format für Chat Completions. Einsetzbar in jeder OpenAI-SDK-Integration. Testen Sie Streaming-Parsing, Token-Rendering und das Verhalten bei Antwortabschluss.

Anthropic-kompatibles Streaming

Mocken Sie das Streaming-Format von Claude inklusive korrekter Event-Typen und Delta-Content-Blöcke. Testen Sie Ihre Anthropic-SDK-Integration, ohne API-Guthaben zu verbrauchen.

Konfigurierbare Latenz-Injection

Fügen Sie an jeden Endpoint Verzögerungen mit Millisekunden-Genauigkeit an. Simulieren Sie langsame Netzwerke, überlastete Server oder das natürliche Token-für-Token-Tempo eines großen Sprachmodells.

Header-bedingte Fehlerantworten

Geben Sie nur dann einen Fehlerstatus zurück, wenn ein bestimmter Header mit einem bestimmten Wert vorhanden ist. Testen Sie Authentifizierungsfehler, Feature Flags und Routing-Logik – ohne mehrere Endpoints.

Keine Infrastruktur

Keine Java-Runtime. Kein Maven oder Gradle. Kein Docker. Keine Stub-Mapping-Dateien. Kein lokaler Serverprozess. Alles ist gehostet und browserbasiert.

Eigene HTTP-Antworten mit voller Kontrolle

Beliebige Methode. Beliebiger Statuscode. Beliebiger JSON-Body. CORS-Header inklusive. Ihr Mock-Endpoint verhält sich exakt so, wie Sie ihn konfigurieren.

mockapi.dog vs. WireMock

Funktionmockapi.dogWireMock
Setup-ZeitSekundenMinuten (OSS) / Sekunden (Cloud)
Installation erforderlichNeinJa (Java oder Docker)
KonfigurationsdateienKeineJSON/Java-Stubs
LLM-Streaming (SSE)JaNein
VerzögerungssimulationJaJa
FehlersimulationZufällig + bedingtJa
Anfrage-VerifikationNeinJa
Aufzeichnen und WiedergebenNeinJa
Programmatische APINeinJa (REST + SDKs)
Gehostete EndpointsJa, kostenlosCloud: kostenlos + kostenpflichtig
Anmeldung erforderlichNeinOSS: Nein / Cloud: Ja
KostenKostenlos, ohne LimitsOSS: kostenlos / Cloud: kostenlos + kostenpflichtig

Ehrliche Trade-offs

mockapi.dog unterstützt weder Anfrage-Verifikation, Traffic-Aufzeichnung, programmatisches Anlegen von Stubs noch tiefe Integration in Test-Frameworks. Wenn Ihr Workflow erfordert, ausgehende Anfragen mit bestimmten Parametern zu prüfen oder aufgezeichneten Produktiv-Traffic abzuspielen, ist WireMock das richtige Tool. mockapi.dog richtet sich an Entwickler, die gehostete Mock-Endpoints ohne Infrastruktur brauchen.

Anwendungsfälle

1

KI-Chat-Oberfläche entwickeln

Bauen Sie den Streaming-Text-Renderer für eine ChatGPT-ähnliche Oberfläche. Tokens kommen über SSE, sodass Sie Schreibmaschineneffekte, Markdown-Rendering während des Streams und Stop-Buttons testen können – ohne API-Kosten.

2

Fehlerbehandlung des OpenAI-SDK testen

Was passiert, wenn der Stream mitten in der Antwort abbricht? Wenn die API ein 429 zurückgibt? Richten Sie einen Mock mit Fehlersimulation ein und testen Sie jeden Fehlerpfad, den Ihre SDK-Integration abdecken muss.

3

Mehrere LLM-Anbieter mocken

Ihre App unterstützt sowohl OpenAI als auch Anthropic. Erstellen Sie separate Mock-Endpoints in jedem Format. Testen Sie Ihre Anbieter-Wechsel-Logik, ohne API-Schlüssel für einen der Dienste.

4

Langsame Token-Generierung simulieren

Manche Modelle antworten schneller als andere. Fügen Sie Ihrem LLM-Streaming-Mock eine Verzögerung hinzu, um ein langsames Modell zu simulieren. Prüfen Sie, ob Ihre UI-Ladezustände und Timeout-Logik bei verschiedenen Geschwindigkeiten funktionieren.

Developer Experience

Ihr erster Mock-Endpoint dauert 5 Sekunden. Seite öffnen. REST oder LLM-Streaming wählen. Antwort definieren. Speichern klicken.

Kein lokaler Server. Keine Umgebungsvariablen. Keine .env-Datei. Kein Docker. Keine Paketinstallation. Keine Port-Konflikte.

Der Endpoint ist gehostet und sofort erreichbar. Richten Sie Ihren Fetch-Aufruf, Ihren OpenAI-SDK-Client oder Ihre Test-Suite auf die URL. Es funktioniert.

Browser öffnen. Endpoint erstellen. URL nutzen. Mehr ist es nicht.

Preise

Kostenlos. Ohne Limits. Ohne Anmeldung.

Keine Kosten pro Anfrage. Kein Token-Zählen. Keine Monatslimits. Keine Feature-Schranken.

Dies ist ein Solo-Entwickler-Tool für die Entwickler-Community. Das Mocken eines API-Endpoints sollte genau so viel kosten, wie es in der Nutzung kostet: nichts.

Bereit loszulegen?

Hören Sie auf, Java-Projekte aufzusetzen, nur um JSON zurückzugeben. Hören Sie auf, Docker-Container für Mock-Server zu verwalten.

Erstellen Sie auf mockapi.dog einen Mock-Endpoint. Es dauert zehn Sekunden.