Simulez des API REST et des endpoints LLM en streaming. Instantanément.
WireMock requiert Java, Maven et des fichiers de configuration. mockapi.dog s'exécute dans votre navigateur. Pas de dépendances. Pas d'installation. Pas de configuration.
- Simulez des API REST et diffusez des tokens en SSE comme les API GPT-4 et Claude
- Contrôle total des méthodes HTTP, codes de statut, corps de réponse et latence
- Pas de SDK, pas de JVM, pas de Docker — juste une URL
Conçu pour les développeurs qui intègrent des API REST et LLM dans leurs applications de production.
Le problème
Vous avez besoin d'un endpoint simulé. Peut-être pour une fonctionnalité frontend, un test d'intégration ou une démo. Vous regardez WireMock.
D'abord, ajoutez la dépendance Maven. Ou récupérez l'image Docker. Rédigez le stub mapping en JSON ou en Java. Configurez l'intégration JUnit. Démarrez le serveur. Croisez les doigts pour que le port soit libre.
Pour un simple endpoint simulé, vous venez de créer une dépendance de build, d'écrire de la configuration et de lancer un processus serveur local. Et WireMock ne prend pas du tout en charge le streaming LLM — pas de SSE, pas de diffusion token par token.
Scénario
Une développeuse construisant une interface de chat en streaming a besoin d'un endpoint simulé qui renvoie des événements SSE au format OpenAI. Il lui faut aussi deux endpoints REST pour les données utilisateurs et produits. WireMock l'oblige à monter un projet Java ou un conteneur Docker, à écrire des stub mappings JSON, et il ne peut toujours pas simuler l'endpoint en streaming.
La solution
mockapi.dog s'exécute dans votre navigateur. Ouvrez la page. Définissez votre réponse. Cliquez sur Enregistrer. Votre endpoint est en ligne et accessible de partout.
Pour le REST, définissez n'importe quel JSON avec n'importe quelle méthode HTTP et code de statut. Ajoutez des délais pour simuler des serveurs lents. Ajoutez des taux d'erreur pour tester la résilience. Ajoutez des erreurs conditionnelles déclenchées par des en-têtes de requête.
Pour le streaming LLM, choisissez OpenAI, Anthropic ou un format SSE générique. Les tokens sont diffusés en Server-Sent Events exactement comme l'API de production. Pas de serveur à exécuter. Pas de SDK à configurer. Pas de compte à créer.
Détail des fonctionnalités
Streaming compatible OpenAI
Votre endpoint simulé envoie des données SSE découpées au format exact des chat completions OpenAI. Branchez-le à n'importe quelle intégration du SDK OpenAI. Testez le parsing du streaming, le rendu des tokens et la gestion de la complétion.
Streaming compatible Anthropic
Simulez le format de streaming de Claude avec les bons types d'événements et blocs de delta. Testez votre intégration du SDK Anthropic sans dépenser de crédits d'API.
Injection de latence configurable
Ajoutez des délais à la milliseconde près sur n'importe quel endpoint. Simulez des réseaux lents, des serveurs surchargés ou le rythme naturel token par token d'un grand modèle de langage.
Réponses d'erreur conditionnelles par en-tête
Renvoyez un code de statut d'erreur uniquement lorsqu'un en-tête et une valeur spécifiques sont présents. Testez les échecs d'authentification, les feature flags et la logique de routage sans multiplier les endpoints.
Aucune infrastructure
Pas de runtime Java. Pas de Maven ni de Gradle. Pas de Docker. Pas de fichiers de stub mapping. Pas de processus serveur local à gérer. Tout est hébergé et basé sur le navigateur.
Réponses HTTP personnalisées avec contrôle total
Toute méthode. Tout code de statut. Tout corps JSON. En-têtes CORS inclus. Votre endpoint simulé se comporte exactement comme vous l'avez configuré.
mockapi.dog vs WireMock
| Fonctionnalité | mockapi.dog | WireMock |
|---|---|---|
| Temps de configuration | Quelques secondes | Minutes (OSS) / Secondes (Cloud) |
| Installation requise | Non | Oui (Java ou Docker) |
| Fichiers de configuration | Aucun | Stubs JSON/Java |
| Streaming LLM (SSE) | Oui | Non |
| Simulation de délais | Oui | Oui |
| Simulation d'erreurs | Aléatoires + conditionnelles | Oui |
| Vérification de requêtes | Non | Oui |
| Enregistrement et rejeu | Non | Oui |
| API programmatique | Non | Oui (REST + SDK) |
| Endpoints hébergés | Oui, gratuit | Cloud : gratuit + payant |
| Inscription requise | Non | OSS : Non / Cloud : Oui |
| Coût | Gratuit, sans limites | OSS : gratuit / Cloud : gratuit + payant |
Compromis assumés
mockapi.dog ne prend pas en charge la vérification des requêtes, l'enregistrement du trafic, la création de stubs programmatique ni l'intégration profonde aux frameworks de test. Si votre workflow exige de vérifier que des requêtes sortantes ont été émises avec des paramètres précis, ou de rejouer du trafic enregistré en production, WireMock est l'outil adapté. mockapi.dog s'adresse aux développeurs qui ont besoin d'endpoints simulés hébergés sans infrastructure.
Cas d'usage
Développer une interface de chat IA
Construisez le rendu de texte en streaming pour une interface de type ChatGPT. Les tokens arrivent en SSE pour que vous puissiez tester les effets machine à écrire, le rendu Markdown en cours de stream et les boutons d'arrêt — sans frais d'API.
Tester la gestion d'erreurs du SDK OpenAI
Que se passe-t-il quand le stream tombe en plein milieu de la réponse ? Quand l'API renvoie un 429 ? Mettez en place un mock avec simulation d'erreurs et testez chaque chemin de défaillance que votre SDK doit gérer.
Simuler plusieurs fournisseurs LLM
Votre app prend en charge OpenAI et Anthropic. Créez des endpoints simulés distincts dans chaque format. Testez votre logique de bascule entre fournisseurs sans clé d'API pour aucun des deux services.
Simuler une génération de tokens lente
Certains modèles répondent plus vite que d'autres. Ajoutez du délai à votre mock LLM en streaming pour simuler un modèle lent. Vérifiez que vos états de chargement et votre logique de timeout fonctionnent à différentes vitesses.
Expérience développeur
Votre premier endpoint simulé prend 5 secondes. Ouvrez la page. Choisissez REST ou streaming LLM. Définissez la réponse. Cliquez sur Enregistrer.
Pas de serveur à exécuter localement. Pas de variables d'environnement. Pas de fichier .env. Pas de Docker. Pas d'installation de paquets. Pas de conflits de ports.
L'endpoint est hébergé et immédiatement accessible. Pointez votre fetch, votre client SDK OpenAI ou votre suite de tests vers l'URL. Ça fonctionne.
Ouvrez le navigateur. Créez l'endpoint. Utilisez l'URL. C'est tout.
Tarification
Gratuit. Sans limites. Sans inscription.
Pas de facturation à la requête. Pas de comptage de tokens. Pas de plafond mensuel. Pas de fonctionnalités verrouillées.
C'est un outil créé par un développeur indépendant pour la communauté des développeurs. Simuler un endpoint d'API doit coûter exactement ce que cela coûte à l'usage : rien.
Prêt à commencer ?
Arrêtez de monter des projets Java pour renvoyer du JSON. Arrêtez de gérer des conteneurs Docker pour des serveurs simulés.
Créez un endpoint simulé sur mockapi.dog. Ça prend dix secondes.