cunzhi
告别AI提前终止烦恼,助力AI更加持久
claude mcp add --transport stdio imhuso-cunzhi 寸止
How to use
寸止 (Cunzhi) 提供智能拦截与持续对话能力,帮助 AI 助手在对话接近结束时弹出继续选项,从而避免对话提前结束。它还具备记忆管理功能,可以按项目存储开发规范和偏好,并通过友好的设置界面和多种输入方式实现优雅的交互体验。在 MCP 客户端中配置后,你的 AI 助手将获得持续对话的能力,结合自动提示词生成与代码搜索等工具,提升跨会话的连贯性与工作效率。工具方面,寸止提供了“代码搜索工具”等多种能力,基于 ACE 的语义搜索来帮助 AI 理解项目代码结构,从而在需要时快速定位相关信息。通过设置界面配置记忆与开关,你还可以自定义提示词、主题等内容,打造属于自己的 AI 交互体验。
How to install
安装步骤(推荐与快速上手结合):
prerequisites:
- 一台支持 macOS、Windows 或 Linux 的计算机。
- 可用的网络环境以下载二进制或通过包管理器安装。
方式一:快速安装(macOS,推荐)
-
运行以下命令安装并启用 cunzhi: brew tap imhuso/cunzhi && brew install cunzhi
-
如遇下载故障,请执行如下故障排除步骤:
- 清除旧的 tap 缓存
- 重新执行安装
具体故障排除如下: brew untap imhuso/cunzhi brew tap imhuso/cunzhi && brew install cunzhi
方式二:手动下载(多平台)
- 访问 Release 页面 https://github.com/imhuso/cunzhi/releases
- 下载与你系统匹配的版本:
- Linux: cunzhi-cli-v*-linux-x86_64.tar.gz
- macOS (Intel): cunzhi-cli-v*-macos-x86_64.tar.gz
- macOS (Apple Silicon): cunzhi-cli-v*-macos-aarch64.tar.gz
- Windows: cunzhi-cli-v*-windows-x86_64.zip
- 解压后将 寸止 与 等一下 添加到系统 PATH
方式三:从源码本地开发(如需参与开发)
- 克隆仓库 git clone https://github.com/imhuso/cunzhi.git
- 安装依赖并运行开发环境 cd cunzhi pnpm install pnpm tauri:dev
注意:不同发行版本的更新可能导致版本缓存问题,遇到 404 下载错误时,请按照上述故障排除步骤重新安装即可。
Additional notes
常见问题与提示:
- 如果遇到“无法下载资源”或版本不匹配,请清理 tap 缓存后重新安装(macOS 系统)。
- 安装完成后,确保将 cunzhi 可执行文件添加到系统 PATH,以便 MCP 客户端能够通过命令调用。
- 在 MCP 客户端的配置文件中,可以按如下格式添加服务器: { "mcpServers": { "寸止": { "command": "寸止" } } }
- 环境变量方面,当前安装通常无需额外环境变量;如需要,请参考具体发行包的 README 中的环境配置说明。
- 若你在使用过程中需要更多的工具能力(如代码搜索、记忆管理开关等),请查看项目的 ACEMCP 说明文档与设置界面选项。
Related MCP Servers
agentgateway
Next Generation Agentic Proxy for AI Agents and MCP servers
grafbase
The Grafbase GraphQL Federation Gateway
hyper
📦️ A fast, secure MCP server that extends its capabilities through WebAssembly plugins.
bridle
TUI / CLI config manager for agentic harnesses (Amp, Claude Code, Opencode, Goose, Copilot CLI, Crush, Droid)
ddddocr
ddddocr rust 版本,ocr_api_server rust 版本,二进制版本,验证码识别,不依赖 opencv 库,跨平台运行,AI MCP 支持,a simple OCR API server, very easy to deploy。
offeryn
Build tools for LLMs in Rust using Model Context Protocol