Ubuntu24.04下安装ollama+openclaw
这段时间花费在openclaw上的时间够多了,但一直没弄好这个机器人,几次都是采用在线的千问免费大模型,一开始安装好没有问题,等过会儿去测试马上就连接不上,不是通讯问题就是令牌过期,也没找到具体解决方法,今天准备在自己电脑上用ollama部署本地模型,虽然电脑配置不是很高,又没有独显,跑了最小的模型应该没有问题,成功后后期再购买独立显卡测试。第一步先在Ubuntu系统上安装ollama工具:方案 1:使用国内镜像 / 加速地址(推荐)Ollama 提供了国内可访问的安装脚本地址,替换原命令:cu
一键彻底卸载 OpenClaw 所有组件的脚本
一键彻底卸载 OpenClaw 所有组件的脚本,包含权限处理逻辑,你直接复制到终端执行即可(全程无需手动干预):#!/bin/bash
echo "===== 开始彻底卸载 OpenClaw ====="
# 1. 停止并卸载网关服务
echo "Step 1: 停止 OpenClaw 网关服务"
if command&nbs
利用VPS搭建私有VPN
1. 域名选用:https://www.namesilo.com/ 2. VPS可以选用:https://racknerd.com/https://cloud.colocrossing.com/index.php?rp=/store/cloud-virtual-private-servers3. FinalShell SSH工具:https://www.hostbuf.com/4. 控制面板用3X-UI:https://github.com/MHSanaei/3x-ui 首次进行ubuntu系统
使用Ollama通过本地模型部署OpenClaw
如何通过本地模型部署 OpenClaw,实现真正 100% 本地运行的 AI 助手。整个过程无需付费、无需任何 API Key,并且在完全断网的情况下依然可以正常使用。更关键的是,OpenClaw 不仅支持部署,还支持自由切换不同的本地大模型——无论是 20B / 120B 的 GPT-OSS 开源模型,还是目前主流的 Qwen 3、GLM 4.7,甚至 Kimi 等模型,都可以在同一套环境中灵活使用。接下来我们就 通过 Ollama + OpenClaw 本地 AI 实战:免费、断网可用、多模
linux系统下安装openclaw
安装命令总结1. 安装NPMcurl -fsSL https://deb.nodesource.com/setup_current.x | sudo -E bash -
sudo apt install -y nodejs如果提示找不到命令“curl”,可以通过以下命令安装curlsudo apt update
sudo apt i