Mockea APIs REST y endpoints LLM en streaming. Al instante.
WireMock requiere Java, Maven y archivos de configuración. mockapi.dog se ejecuta en tu navegador. Sin dependencias. Sin instalación. Sin configuración.
- Mockea APIs REST y haz streaming de tokens vía SSE igual que las APIs de GPT-4 y Claude
- Control total sobre métodos HTTP, códigos de estado, cuerpos de respuesta y latencia
- Sin SDK, sin JVM, sin Docker: solo una URL
Pensado para desarrolladores que integran APIs REST y LLM en aplicaciones de producción.
El problema
Necesitas un endpoint mock. Quizá para una funcionalidad de frontend, quizá para un test de integración, quizá para una demo. Te fijas en WireMock.
Primero, añadir la dependencia de Maven. O descargar la imagen Docker. Escribir el stub mapping en JSON o Java. Configurar la integración con JUnit. Arrancar el servidor. Cruzar los dedos para que el puerto esté libre.
Para un simple endpoint mock, acabas de crear una dependencia de build, escribir configuración y arrancar un proceso de servidor local. Y WireMock no soporta streaming LLM en absoluto: ni SSE, ni entrega token a token.
Escenario
Una desarrolladora que está creando una interfaz de chat en streaming necesita un endpoint mock que devuelva eventos SSE en formato OpenAI. También necesita dos endpoints REST con datos de usuarios y productos. WireMock le obliga a montar un proyecto Java o un contenedor Docker, escribir stub mappings JSON, y aun así no puede mockear el endpoint en streaming.
La solución
mockapi.dog se ejecuta en tu navegador. Abre la página. Define tu respuesta. Pulsa guardar. Tu endpoint está activo y accesible desde cualquier sitio.
Para REST, define cualquier JSON con cualquier método HTTP y código de estado. Añade retardos para simular servidores lentos. Añade tasas de error para probar la resiliencia. Añade errores condicionales activados por cabeceras.
Para streaming LLM, elige el formato OpenAI, Anthropic o SSE genérico. Los tokens se envían por Server-Sent Events tal y como lo haría la API de producción. Sin servidor que ejecutar. Sin SDK que configurar. Sin cuenta que crear.
Desglose de funcionalidades
Streaming compatible con OpenAI
Tu endpoint mock envía datos SSE en chunks con el formato exacto de chat completion de OpenAI. Encájalo en cualquier integración con el SDK de OpenAI. Prueba el parseo del streaming, el renderizado de tokens y el manejo de finalización.
Streaming compatible con Anthropic
Mockea el formato de streaming de Claude con tipos de evento y bloques delta correctos. Prueba tu integración con el SDK de Anthropic sin gastar créditos de API.
Inyección de latencia configurable
Añade retardos con precisión de milisegundo a cualquier endpoint. Simula redes lentas, servidores saturados o el ritmo natural token a token de un modelo de lenguaje grande.
Errores condicionales por cabecera
Devuelve un código de estado de error solo cuando aparece una cabecera y un valor concretos. Prueba fallos de autenticación, feature flags y lógica de enrutamiento sin necesidad de varios endpoints.
Cero infraestructura
Sin runtime de Java. Sin Maven ni Gradle. Sin Docker. Sin archivos de stub mapping. Sin proceso de servidor local que gestionar. Todo está alojado y se usa desde el navegador.
Respuestas HTTP personalizadas con control total
Cualquier método. Cualquier código de estado. Cualquier cuerpo JSON. Con cabeceras CORS incluidas. Tu endpoint mock se comporta exactamente como tú lo configures.
mockapi.dog vs WireMock
| Funcionalidad | mockapi.dog | WireMock |
|---|---|---|
| Tiempo de configuración | Segundos | Minutos (OSS) / segundos (Cloud) |
| Requiere instalación | Sí (Java o Docker) | |
| Archivos de configuración | Ninguno | Stubs JSON/Java |
| Streaming LLM (SSE) | Sí | |
| Simulación de retardos | Sí | Sí |
| Simulación de errores | Aleatorios + condicionales | Sí |
| Verificación de peticiones | Sí | |
| Grabación y reproducción | Sí | |
| API programática | Sí (REST + SDKs) | |
| Endpoints alojados | Sí, gratis | Cloud: gratis + de pago |
| Requiere registro | OSS: no / Cloud: sí | |
| Coste | Gratis, sin límites | OSS: gratis / Cloud: gratis + de pago |
Compromisos honestos
mockapi.dog no soporta verificación de peticiones, grabación de tráfico, creación de stubs por programación ni integración profunda con frameworks de testing. Si tu flujo requiere afirmar que se hicieron peticiones salientes con parámetros concretos o reproducir tráfico de producción grabado, WireMock es la herramienta adecuada. mockapi.dog es para quienes necesitan endpoints mock alojados con cero infraestructura.
Casos de uso
Desarrollar una interfaz de chat con IA
Crea el renderizador de texto en streaming para una interfaz tipo ChatGPT. Los tokens llegan vía SSE, así que puedes probar efectos de máquina de escribir, renderizado de Markdown durante el streaming y botones de detener generación, sin coste de API.
Probar el manejo de errores del SDK de OpenAI
¿Qué pasa cuando se corta el stream a mitad de la respuesta? ¿Cuando la API devuelve un 429? Configura un mock con simulación de errores y prueba todos los caminos de fallo que tu integración con el SDK necesita gestionar.
Mockear varios proveedores LLM
Tu app soporta OpenAI y Anthropic. Crea endpoints mock independientes en cada formato. Prueba tu lógica de cambio de proveedor sin claves de API para ninguno de los dos servicios.
Simular generación lenta de tokens
Algunos modelos responden más rápido que otros. Añade retardo a tu mock LLM en streaming para simular un modelo lento. Verifica que los estados de carga de tu UI y la lógica de timeout funcionan a distintas velocidades.
Experiencia de desarrollo
Tu primer endpoint mock se monta en 5 segundos. Abre la página. Elige REST o streaming LLM. Define la respuesta. Pulsa guardar.
Sin servidor que ejecutar localmente. Sin variables de entorno. Sin archivo .env. Sin Docker. Sin instalación de paquetes. Sin conflictos de puertos.
El endpoint está alojado y accesible al instante. Apunta tu fetch, tu cliente del SDK de OpenAI o tu suite de tests a la URL. Funciona.
Abre el navegador. Crea el endpoint. Usa la URL. Eso es todo.
Precios
Gratis. Sin límites. Sin registro.
Sin cobro por petición. Sin contar tokens. Sin topes mensuales. Sin funciones bloqueadas tras un muro de pago.
Esta es una herramienta de un único desarrollador, hecha para la comunidad de desarrollo. Mockear un endpoint de API debería costar exactamente lo que cuesta usarlo: nada.
¿Listo para empezar?
Deja de montar proyectos Java solo para devolver JSON. Deja de gestionar contenedores Docker para servidores mock.
Crea un endpoint mock en mockapi.dog. Tarda diez segundos.