从安装到精通,手把手教你用招财虾
| 项目 | 最低配置 | 推荐配置 |
|---|---|---|
| 操作系统 | Windows 10 / macOS 10.15 / Ubuntu 20.04 | Windows 11 / macOS 14+ / Ubuntu 22.04 |
| CPU | 1 核 | 2 核+ |
| 内存 | 200 MB | 1 GB+ |
| 磁盘 | 200 MB | 500 MB+ |
| 网络 | 需要能访问 LLM API(除非用本地 Ollama) | |
D:\necoclaw\ 或 ~/necoclaw/# Windows: 双击 start.bat
# macOS / Linux: 在终端运行
chmod +x start.sh
./start.sh
http://localhost:24088 进入 WebUI
install.bat(Windows)或 ./install.sh(macOS/Linux)可以将 Necoclaw 安装到系统 PATH,之后在任意终端输入 necoclaw start 即可启动。
necoclaw start # 启动 Agent(含 WebUI)
necoclaw doctor # 检测系统环境
necoclaw onboard # 首次配置向导
necoclaw --help # 查看所有命令
Necoclaw 需要至少一个 LLM 供应商才能驱动 AI 对话。有三种配置方式:
| 字段 | 填写内容 |
|---|---|
| 名称 | NECOCLAW 官方 |
| API 类型 | openai |
| Base URL | https://api.necoclaw.ai/v1 |
| API Key | 你在 api.necoclaw.ai 获取的 sk-xxx |
ollama pull qwen3:14b在 🔀 LLM 路由 › 供应商市场 页面点击 "添加供应商",填写:
| 字段 | 说明 | 示例 |
|---|---|---|
| 名称 | 供应商显示名 | OpenAI / DeepSeek / Claude |
| API 类型 | 接口协议 | openai(大部分都选这个) |
| Base URL | API 地址 | https://api.openai.com/v1 |
| API Key | 你的密钥 | sk-xxx... |
| 默认模型 | 首选模型 | gpt-4o |
也可以直接编辑配置文件 config.yaml:
llm:
providers:
- id: my-openai
api_type: openai
base_url: https://api.openai.com/v1
api_key: sk-xxx
model: gpt-4o
routes:
- role: default
provider_id: my-openai
Necoclaw 的"联系人"就是你创建的 AI 数字分身,每个分身有独立的角色、人格、记忆和技能。
| 字段 | 说明 |
|---|---|
| 名称 | 分身的名字,如"产品经理小李" |
| 角色描述 | 分身的性格、专业领域、行为风格等。这是分身的"灵魂" |
| 头像 | 选择一个 emoji 或上传图片 |
产品经理:"你是一个有 10 年经验的产品经理。擅长需求分析、用户研究、竞品分析。回答时逻辑清晰、注重数据支撑。"
英语老师:"你是一个耐心的英语老师。用简单的方式解释语法,每次给出 3 个例句。纠正错误时温和友好。"
代码审查员:"你是一个严谨的高级工程师,专注代码质量。Review 代码时关注性能、安全、可维护性,给出具体改进建议。"
群聊可以让多个 AI 分身同时参与讨论——它们会各自从自己的角色角度发言、争论、达成共识、分工执行。
你在群里发一条消息后,每个分身会按顺序轮流发言:
让 AI 在指定时间自动执行任务,不需要你在电脑前。
| 字段 | 说明 | 示例 |
|---|---|---|
| 任务名 | 简短描述 | 每日新闻摘要 |
| Prompt | AI 要执行的指令 | 搜索今天的AI领域新闻,总结为5条要点 |
| Schedule | Cron 表达式 | 0 8 * * *(每天早上8点) |
| 执行分身 | 哪个分身执行 | Neco / 自定义分身 |
| 回复到 | 结果发到哪里 | 某个联系人 / 群聊 / 飞书群 |
| 表达式 | 含义 |
|---|---|
0 8 * * * | 每天 8:00 |
0 9 * * 1 | 每周一 9:00 |
0 */2 * * * | 每 2 小时 |
0 8,18 * * * | 每天 8:00 和 18:00 |
30 8 1 * * | 每月 1 号 8:30 |
技能是 Necoclaw 的"能力插件"。每个技能教会 AI 一种新的工作流程或专业能力。
系统自带 70+ 种内置技能,涵盖:
你可以将任何 GitHub 仓库作为技能源:
owner/repo在技能中心的 "我的技能" 标签页点击 "新建",用自然语言描述即可:
{
"name": "周报生成器",
"description": "根据本周对话记录自动生成周报",
"trigger": "用户说'生成周报'或'本周总结'",
"content": "# 周报生成流程\n1. 回顾本周所有对话记录\n2. 提取关键工作项和成果\n3. 按类别分组整理\n4. 生成 Markdown 格式周报\n5. 可选:保存为 .docx 文件"
}
LLM 路由是 Necoclaw 的智能模型调度中心。它决定每条对话用哪个模型、走哪个供应商,并自动管理额度和费用。
在 🔀 LLM 路由 › 路由状态 页面可以看到:
路由规则决定不同类型的请求使用哪个供应商和模型:
| 角色 (Role) | 用途 | 推荐模型 |
|---|---|---|
default | 默认对话 | gpt-4o / deepseek-chat / qwen-plus |
fast | 快速任务(翻译、摘要) | gpt-4o-mini / deepseek-chat |
reasoning | 复杂推理 | o1 / claude-3.5-sonnet / deepseek-reasoner |
creative | 创意写作 | claude-3.5-sonnet / gpt-4o |
embedding | 向量嵌入(记忆搜索) | text-embedding-3-small |
fast 路由指向便宜的模型(如 deepseek-chat),reasoning 指向高质量模型(如 o1)。Necoclaw 会自动判断任务复杂度,用合适的路由。日常对话走 fast,复杂分析走 reasoning,最大程度省钱。
在 🔀 LLM 路由 › 供应商市场 可以:
除了 WebUI,Necoclaw 还支持接入多种消息平台。配置后,你可以通过这些平台直接与 AI 对话。
| 渠道 | 协议 | 说明 |
|---|---|---|
| 🌐 WebUI | 内置 | 默认启用,浏览器直接访问 |
| ✈️ Telegram | Bot API | 创建 Bot → 填入 Token |
| 🎮 Discord | WebSocket | 创建 Bot → 填入 Token |
| 📱 飞书 | WebSocket 长连接 | 企业应用 → 填入 App ID/Secret |
| 💬 钉钉 | Stream 模式 | 机器人 → 填入 Token |
| 💼 Slack | Socket Mode | App → 填入 Bot Token |
| OneBot v11 | 需要 OneBot 实现(如 go-cqhttp) | |
| 💚 微信 | WeChatFerry | 需要 WeChatFerry 客户端 |
在 📡 渠道管理 页面配置。每个渠道填入对应的 Token/Key 即可接入。
Necoclaw 拥有 5 层记忆体系,让 AI 越用越懂你:
| 层级 | 名称 | 说明 | 存储方式 |
|---|---|---|---|
| 1 | 即时记忆 | 当前对话的上下文 | 内存(对话结束即释放) |
| 2 | 短期记忆 | 近期对话摘要 | 自动摘要 → 数据库 |
| 3 | 长期记忆 | 你的偏好、习惯、知识 | 向量数据库(语义搜索) |
| 4 | 角色人格 | 分身的性格和风格定义 | 配置文件 |
| 5 | 共享记忆 | 团队的共同知识库 | 向量数据库 |
在 🧠 长期记忆 页面可以:
embedding 路由。
Necoclaw 内置自动更新系统。当有新版本可用时,WebUI 顶部会出现更新横幅。
~/.necoclaw/ 目录中,更新后完整保留。每次更新前系统会自动备份关键文件到 ~/.necoclaw/backups/。
Q: 对硬件有什么要求?
A: 极低。1 核 CPU、200MB 内存、普通办公电脑即可长期运行,不依赖 GPU。
Q: 配了多个供应商,Necoclaw 怎么选?
A: 通过路由规则。你可以为不同类型的任务(快速/推理/创意)指定不同供应商。也可以全用 default 走同一个。
Q: 分身之间真的能自己聊天?
A: 是的。在群聊中,你发一条消息后,多个分身会依次从自己的角色角度回复,形成多角色讨论。
Q: 记忆会占用 Token 额度吗?
A: 记忆经过压缩优化,只占极少额度。长期记忆以摘要形式存储,语义搜索消耗的 Embedding Token 很少。
Q: 如何使用本地模型?
A: 安装 Ollama,拉取模型后 Necoclaw 自动检测。也可以手动添加任何兼容 OpenAI 格式的本地服务。
Q: 数据存在哪里?
A: 所有数据在本地 ~/.necoclaw/(Windows: %USERPROFILE%\.necoclaw\)。包括 memory.db(记忆)、config.yaml(配置)、skills/(技能)等。
Q: 自定义技能难不难?
A: 不难。用自然语言描述工作流程,保存为 JSON 格式即可。AI 会按你描述的步骤执行。
Q: 定时任务在电脑关机后还会执行吗?
A: 不会。定时任务需要 Necoclaw 保持运行。如果你需要 7×24 小时运行,可以将 Necoclaw 部署在服务器上。
Q: 支持哪些文档格式?
A: 读取:.docx .doc .xlsx .xls .pptx .pdf .csv .txt .md .json
写入:.docx .xlsx .pptx .csv .txt .md .json .html
Q: 进化数据可以重置吗?
A: 可以。在 📈 成长日志 中可以查看、调整或重置 AI 的学习数据。
文档持续更新中… 有问题可以在 GitHub Issues 反馈