这段时间花费在openclaw上的时间够多了,但一直没弄好这个机器人,几次都是采用在线的千问免费大模型,一开始安装好没有问题,等过会儿去测试马上就连接不上,不是通讯问题就是令牌过期,也没找到具体解决方法,今天准备在自己电脑上用ollama部署本地模型,虽然电脑配置不是很高,又没有独显,跑了最小的模型应该没有问题,成功后后期再购买独立显卡测试。

第一步先在Ubuntu系统上安装ollama工具:

方案 1:使用国内镜像 / 加速地址(推荐)
Ollama 提供了国内可访问的安装脚本地址,替换原命令:

curl -fsSL https://ollama.com/install.sh | sh


# 若仍失败,尝试国内镜像:

curl -fsSL https://mirror.ghproxy.com/https://ollama.com/install.sh | sh


方案 2:分步下载 + 手动执行(避免流式安装中断)
先下载脚本到本地:

curl -fsSL https://ollama.com/install.sh -o ollama-install.sh


赋予执行权限:

chmod +x ollama-install.sh


本地执行安装:

./ollama-install.sh


方案 3:手动下载二进制包(彻底规避网络问题)
前往 Ollama GitHub 发布页下载对应系统的二进制包:https://github.com/ollama/ollama/releases
解压后将 ollama 可执行文件放入 /usr/local/bin:

sudo mv ollama /usr/local/bin/


验证安装:

ollama --version


方案 4:配置代理(若你有可用代理)
# 临时设置代理(替换为你的代理地址)

export https_proxy=http://127.0.0.1:7890 http_proxy=http://127.0.0.1:7890

# 再次执行安装命令

curl -fsSL https://ollama.com/install.sh | sh


验证安装
安装成功后执行:

ollama --version


输出版本号即代表安装完成。
补充建议
优先尝试国内镜像地址(方案 1),通常能直接解决境外访问问题。
若仍失败,可切换手机热点等其他网络环境重试,排除当前网络限制。

先根据原先的文章把该运行的命令先跑一遍

第二步用ollama拉取相应要部署的LLM大模型

1. 首选:7B 级 INT4 量化(最稳、最流畅)
# 中文最强(通义千问开源)

ollama pull qwen2.5:7b-instruct-q4_K_M

# 通用对话/逻辑强(Meta)

ollama pull llama3.1:8b-instruct-q4_K_M

# 代码/编程专用

ollama pull deepseek-coder:6.7b-instruct-q4_K_M

# 轻量高效(Mistral)

ollama pull mistral:7b-instruct-q4_K_M

2. 可选:13B 级 INT4 量化(更强但更卡)
仅适合追求更高质量、能接受慢响应:

ollama pull qwen2.5:14b-instruct-q4_K_M
ollama pull llama3.1:70b-instruct-q4_K_M  # 不推荐,16GB 内存会严重卡顿


3. 超轻量(测试 / 低资源场景)

ollama pull gemma:2b-instruct-q4_K_M  # 内存占用极低
ollama pull phi3:3.8b-instruct-q4_K_M

第三步安装openclaw运行环境及相应命令

1. 安装NPM

curl -fsSL https://deb.nodesource.com/setup_current.x | sudo -E bash -
sudo apt install -y nodejs

如果提示找不到命令“curl”,可以通过以下命令安装curl

sudo apt update
sudo apt install curl -y

2. 安装OpenClaw

sudo npm i -g openclaw

3. 配置OpenClaw

openclaw onboard
openclaw configure

3. 开启与关闭OpenClaw网关

openclaw gateway
openclaw gateway restart
openclaw gateway stop


发表评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。