这段时间花费在openclaw上的时间够多了,但一直没弄好这个机器人,几次都是采用在线的千问免费大模型,一开始安装好没有问题,等过会儿去测试马上就连接不上,不是通讯问题就是令牌过期,也没找到具体解决方法,今天准备在自己电脑上用ollama部署本地模型,虽然电脑配置不是很高,又没有独显,跑了最小的模型应该没有问题,成功后后期再购买独立显卡测试。
第一步先在Ubuntu系统上安装ollama工具:
方案 1:使用国内镜像 / 加速地址(推荐)
Ollama 提供了国内可访问的安装脚本地址,替换原命令:
curl -fsSL https://ollama.com/install.sh | sh
# 若仍失败,尝试国内镜像:
curl -fsSL https://mirror.ghproxy.com/https://ollama.com/install.sh | sh
方案 2:分步下载 + 手动执行(避免流式安装中断)
先下载脚本到本地:
curl -fsSL https://ollama.com/install.sh -o ollama-install.sh
赋予执行权限:
chmod +x ollama-install.sh
本地执行安装:
./ollama-install.sh
方案 3:手动下载二进制包(彻底规避网络问题)
前往 Ollama GitHub 发布页下载对应系统的二进制包:https://github.com/ollama/ollama/releases
解压后将 ollama 可执行文件放入 /usr/local/bin:
sudo mv ollama /usr/local/bin/
验证安装:
ollama --version
方案 4:配置代理(若你有可用代理)
# 临时设置代理(替换为你的代理地址)
export https_proxy=http://127.0.0.1:7890 http_proxy=http://127.0.0.1:7890
# 再次执行安装命令
curl -fsSL https://ollama.com/install.sh | sh
验证安装
安装成功后执行:
ollama --version
输出版本号即代表安装完成。
补充建议
优先尝试国内镜像地址(方案 1),通常能直接解决境外访问问题。
若仍失败,可切换手机热点等其他网络环境重试,排除当前网络限制。
先根据原先的文章把该运行的命令先跑一遍
第二步用ollama拉取相应要部署的LLM大模型
1. 首选:7B 级 INT4 量化(最稳、最流畅)
# 中文最强(通义千问开源)
ollama pull qwen2.5:7b-instruct-q4_K_M
# 通用对话/逻辑强(Meta)
ollama pull llama3.1:8b-instruct-q4_K_M
# 代码/编程专用
ollama pull deepseek-coder:6.7b-instruct-q4_K_M
# 轻量高效(Mistral)
ollama pull mistral:7b-instruct-q4_K_M
2. 可选:13B 级 INT4 量化(更强但更卡)
仅适合追求更高质量、能接受慢响应:
ollama pull qwen2.5:14b-instruct-q4_K_M ollama pull llama3.1:70b-instruct-q4_K_M # 不推荐,16GB 内存会严重卡顿
3. 超轻量(测试 / 低资源场景)
ollama pull gemma:2b-instruct-q4_K_M # 内存占用极低 ollama pull phi3:3.8b-instruct-q4_K_M
第三步安装openclaw运行环境及相应命令
1. 安装NPM
curl -fsSL https://deb.nodesource.com/setup_current.x | sudo -E bash -
sudo apt install -y nodejs
如果提示找不到命令“curl”,可以通过以下命令安装curl
sudo apt update sudo apt install curl -y
2. 安装OpenClaw
sudo npm i -g openclaw
3. 配置OpenClaw
openclaw onboard
openclaw configure
3. 开启与关闭OpenClaw网关
openclaw gateway openclaw gateway restart openclaw gateway stop
发表评论:
◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。