AI-web mode
一个基于 MCP (Model Context Protocol) 的智能对话助手Web应用,支持实时聊天、工具调用和对话历史管理。
claude mcp add --transport stdio guangxiangdebizi-ai-web-mcpmode python -m uvicorn backend.main:app --host 0.0.0.0 --port 8003 \ --env BACKEND_PORT="8003" \ --env OPENAI_MODEL="gpt-4" \ --env OPENAI_API_KEY="your-api-key-here" \ --env OPENAI_TIMEOUT="60" \ --env OPENAI_BASE_URL="https://api.openai.com/v1" \ --env OPENAI_TEMPERATURE="0.2"
How to use
AI-web-mcpmode 提供基于 MCP 的智能对话助手 Web 应用,前后端分离,后端通过 FastAPI 提供 REST 与 WebSocket 实时通信能力,并通过 MCP 工具服务扩展 AI 能力。用户在前端即可发起对话,系统会在需要外部能力时自动触发工具调用,支持金融数据查询、数据分析等多种工具。对话历史通过 SQLite 存储,便于查询与分析。通过 MCP 配置,您可以添加或替换工具服务器,从而扩展 AI 的工具链。使用时,只需确保后端服务与工具服务器都在运行,前端通过 WebSocket 实时接收 AI 的回复片段和工具调用进度。
How to install
背景依赖与安装步骤如下:
Prerequisites:
- Python 3.8+
- Node.js(前端开发可选)
- Git
- 克隆仓库并进入项目
git clone https://github.com/guangxiangdebizi/AI-web-mcpmode.git
cd AI-web-mcpmode
- 安装后端依赖
cd backend
pip install -r requirements.txt
- 配置环境变量 在仓库根目录创建 .env 文件,示例内容:
OPENAI_API_KEY=your-api-key-here
OPENAI_BASE_URL=https://api.openai.com/v1
OPENAI_MODEL=gpt-4
OPENAI_TEMPERATURE=0.2
OPENAI_TIMEOUT=60
BACKEND_PORT=8003
- 启动后端(使用 uvicorn 运行 FastAPI 应用)
cd ..
python -m uvicorn backend.main:app --host 0.0.0.0 --port 8003 --reload
- 启动前端(可选,开发阶段)
cd frontend
python -m http.server 3000
- 访问前端界面
- 在浏览器中打开 http://localhost:3000(若使用前端服务器)
- 或直接打开前端静态文件(若已部署)
如果需要以 Docker 部署,请参考项目的生产环境部署说明并按需调整镜像与入口命令。
Additional notes
Tips and common issues:
- 确保 OpenAI API Key 正确并且有访问权限,若使用兼容接口请相应配置 OPENAI_BASE_URL 与 MODEL。
- MCP 工具服务器配置在 backend/mcp.json,可以添加或修改工具条目,重启后端服务以加载新工具。
- 使用 WebSocket 实时接收 AI 回复片段和工具进度,若网络有延迟,请确保服务器网络畅通。
- 对话历史存储在 backend/database 和 chat_history.db,若需要迁移,请相应更改数据库路径。
- 生产环境应通过 Nginx 反向代理并启用 HTTPS,前端静态文件可由 Nginx 或 CDN 提供。
- 如遇端口冲突,请修改 BACKEND_PORT 或 Docker 端口映射。
Related MCP Servers
quarkus-workshop-langchain4j
Quarkus Langchain4J Workshop
MCP-MultiServer-Interoperable-Agent2Agent-LangGraph-AI-System
This project demonstrates a decoupled real-time agent architecture that connects LangGraph agents to remote tools served by custom MCP (Modular Command Protocol) servers. The architecture enables a flexible and scalable multi-agent system where each tool can be hosted independently (via SSE or STDIO), offering modularity and cloud-deployable execut
MCP-Stack-for-UI-UX-Designers
An end-to-end Model Context Protocol (MCP) solution that streamlines the entire UI/UX design workflow - from gathering inspiration to development handoff. This suite integrates multiple specialized MCP servers to automate and enhance the design process through AI assistance.
mcp -templates
A flexible platform that provides Docker & Kubernetes backends, a lightweight CLI (mcpt), and client utilities for seamless MCP integration. Spin up servers from templates, route requests through a single endpoint with load balancing, and support both deployed (HTTP) and local (stdio) transports — all with sensible defaults and YAML-based configs.
alris
Alris is an AI automation tool that transforms natural language commands into task execution.
glyph
🔮 glyph – mcp server to map your codebase with symbol outlines