Skip to content

部署过程

1. 环境配置

  • CPU:i5-12600KF

  • 内存:32GB

  • 显卡:NVIDIA GeForce RTX 4060Ti 16G

  • 操作系统:Windows 11

  • Python: 3.12.9

  • ollama: 0.5.7

2. 克隆仓库

bash
git clone https://github.com/mannaandpoem/OpenManus.git
cd OpenManus
pip install -r requirements.txt

3. 启动本地大模型

支持函数调用的模型:

bash
ollama run qwen2.5-coder:14b

视觉模型:

bash
ollama run minicpm-v

4. 修改配置文件

将config目录下的config.example.toml 改成 config.toml

里面修改的内容如下:

toml

# Global LLM configuration
[llm]
model = "qwen2.5-coder:14b"
base_url = "http://localhost:11434/v1"
api_key = ""
max_tokens = 4096
temperature = 0.0

# Optional configuration for specific LLM models
[llm.vision]
model = "qwen2.5-coder:14b"
base_url = "http://localhost:11434/v1"
api_key = ""

5. 运行OpenManus

bash
python main.py

使用示例

一句话说出自己的需求,工具就会分析步骤,自动调用相应工具完成任务。

image-20250404220023483

会自动打开浏览器

使用感受

  1. 这个工具作为Manus的开源项目,部署前报很大期待
  2. 部署后发现,其实目前很拉跨,输入一个简单的提示词,运行到最后95%的概率什么都输出不了(也可能是本地大模型太拉跨占主要原因)
  3. 仅有几个tool,web_search等等,远远没到工程化程度
  4. 沿用一种思想:工具调用,任务链执行,类似于LangChain

大写的拉跨:

image-20250404221944111