Mock REST API 和 LLM 流式端点。即时。

WireMock 需要 Java、Maven 和配置文件。mockapi.dog 在你的浏览器中运行。无依赖。无安装。无设置。

  • Mock REST API,并通过 SSE 流式传输 token,与 GPT-4 和 Claude API 完全一样
  • 完全控制 HTTP 方法、状态码、响应体和延迟
  • 无 SDK、无 JVM、无 Docker —— 只需一个 URL

为将 REST 和 LLM API 集成到生产应用中的开发者构建。

问题

你需要一个 Mock 端点。可能用于前端功能、集成测试或演示。你看到 WireMock。

首先,添加 Maven 依赖。或拉取 Docker 镜像。用 JSON 或 Java 编写 stub 映射。配置 JUnit 集成。启动服务器。希望端口未被占用。

对于一个简单的 Mock 端点,你刚刚创建了构建依赖、编写了配置、并启动了本地服务器进程。而 WireMock 完全不支持 LLM 流式 —— 无 SSE,无逐 token 传递。

场景

一名构建流式聊天 UI 的开发者需要一个返回 OpenAI 格式 SSE 事件的 Mock 端点。她还需要两个用于用户和产品数据的 REST 端点。WireMock 要求她设置 Java 项目或 Docker 容器、编写 JSON stub 映射,而且仍然无法 Mock 流式端点。

解决方案

mockapi.dog 在你的浏览器中运行。打开页面。定义你的响应。点击保存。你的端点已上线,可从任何地方访问。

对于 REST,定义任何 JSON,使用任何 HTTP 方法和状态码。添加延迟以模拟慢速服务器。添加错误率以测试容错性。添加由请求头触发的条件错误。

对于 LLM 流式,选择 OpenAI、Anthropic 或通用 SSE 格式。Token 通过服务器发送事件流式传输,与生产 API 完全一致。无服务器要运行。无 SDK 要配置。无账户要创建。

功能详解

OpenAI 兼容流式

你的 Mock 端点以精确的 OpenAI 聊天补全格式发送分块 SSE 数据。可放入任何 OpenAI SDK 集成中。测试流式解析、token 渲染和补全处理。

Anthropic 兼容流式

Mock Claude 的流式格式,包含正确的事件类型和 delta 内容块。在不消耗 API 额度的情况下测试 Anthropic SDK 集成。

可配置的延迟注入

为任何端点添加毫秒级精度的延迟。模拟慢速网络、过载服务器或大语言模型的自然逐 token 节奏。

请求头条件错误响应

仅在特定请求头和值存在时返回错误状态码。无需多个端点即可测试身份验证失败、功能开关和路由逻辑。

零基础设施

无 Java 运行时。无 Maven 或 Gradle。无 Docker。无 stub 映射文件。无本地服务器进程要管理。一切均托管和基于浏览器。

自定义 HTTP 响应,完全控制

任何方法。任何状态码。任何 JSON 响应体。包含 CORS 请求头。你的 Mock 端点完全按照你的配置工作。

mockapi.dog 对比 WireMock

功能mockapi.dogWireMock
设置时间几秒几分钟(OSS)/ 几秒(Cloud)
需要安装是(Java 或 Docker)
配置文件JSON/Java stub
LLM 流式(SSE)
延迟模拟
错误模拟随机 + 条件
请求验证
录制和回放
编程 API是(REST + SDK)
托管端点是,免费Cloud:免费 + 付费
需要注册OSS:否 / Cloud:是
成本免费,无限制OSS:免费 / Cloud:免费 + 付费

诚实的权衡

mockapi.dog 不支持请求验证、流量录制、编程式 stub 创建或深度测试框架集成。如果你的工作流需要断言出站请求是用特定参数发出的,或回放录制的生产流量,WireMock 是合适的工具。mockapi.dog 适合那些需要零基础设施托管 Mock 端点的开发者。

使用场景

1

开发 AI 聊天界面

为类 ChatGPT 界面构建流式文本渲染器。Token 通过 SSE 到达,因此你可以测试打字机效果、流式中的 markdown 渲染和停止生成按钮 —— 无 API 成本。

2

测试 OpenAI SDK 错误处理

当流在响应中途断开时会发生什么?当 API 返回 429 时?设置带错误模拟的 Mock,测试 SDK 集成需要处理的每一条失败路径。

3

Mock 多个 LLM 提供商

你的应用同时支持 OpenAI 和 Anthropic。在每种格式中创建独立的 Mock 端点。无需任一服务的 API 密钥即可测试提供商切换逻辑。

4

模拟慢速 Token 生成

某些模型比其他模型响应更快。为 LLM 流式 Mock 添加延迟以模拟慢速模型。验证 UI 加载状态和超时逻辑在不同速度下都能工作。

开发者体验

你的第一个 Mock 端点只需 5 秒。打开页面。选择 REST 或 LLM 流式。定义响应。点击保存。

无需在本地运行服务器。无环境变量。无 .env 文件。无 Docker。无包安装。无端口冲突。

端点已托管并立即可访问。将你的 fetch 调用、OpenAI SDK 客户端或测试套件指向 URL。它能用。

打开浏览器。创建端点。使用 URL。就是这样。

定价

免费。无限制。无需注册。

无每请求收费。无 token 计数。无月度上限。无功能门控。

这是为开发者社区构建的独立开发者工具。Mock 一个 API 端点的成本应该正好等于使用它的成本:免费。

准备好开始了吗?

停止为返回 JSON 而设置 Java 项目。停止为 Mock 服务器管理 Docker 容器。

在 mockapi.dog 上创建 Mock 端点。只需十秒。