Linux

Ollma - 大模型控制

控制命令:

  • 查看 ollama

sudo systemctl status ollama
  • 启动 ollama

curl -fsSL https://ollama.com/install.sh | sh
  • 启动ui

docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main


Nginx - 代理设置

项目

Umami - 访问监控

Telegraph-Image - 图床

Halo - 个人博客

無名- 个人首页

Cloudflare AI - AI页

工具