使用Termux将安卓手机变成随身AI服务器(pageassist连接)
- 开源代码
- 2025-08-26 05:27:02

通过以下方法在安卓手机上运行 Ollama 及大模型,无需 Root 权限,具体方案如下:
通过 Termux 模拟 Linux 环境运行 核心工具: 安装 (安卓终端模拟器)()]。借助 proot-distro 工具安装 Linux 发行版(如 Debian)()]。 操作步骤: 在 Termux 中运行命令安装依赖:pkg update && pkg install proot-distro proot-distro install debian proot-distro login debian 在 Debian 环境中安装 Ollama:curl -fsSL ollama /install.sh | sh 启动服务并运行模型:ollama serve & ollama run deepseek-r1:1.5b # 以 DeepSeek-R1 为例()]
直接使用预编译的 Ollama 二进制文件 (推荐) 适用场景:若手机性能较弱或不想配置复杂环境。操作步骤: 在 Termux 中下载 Ollama 的 ARM64 版本:pkg install ollama 直接运行模型:# 以下修改监听和允许跨域是远程访问必要参数 # 修改监听地址 export OLLAMA_HOST=0.0.0.0:11434 # 允许跨域访问 export OLLAMA_ORIGINS=* # 后台启动监听 ollama serve & # 拉取deepseek-r1:7b模型 ollama run deepseek-r1:7b 参数与性能调优 环境变量控制: OLLAMA_FLASH_ATTENTION=1:启用注意力机制加速,提升模型推理速度。 OLLAMA_NUM_PARALLEL=16:设置并行处理请求数,优化多任务性能。 Ollama支持的其他环境变量主要包括: OLLAMA_HOST:定义服务监听地址(如 0.0.0.0:11434)。 OLLAMA_KEEP_ALIVE:设置模型在内存中的存活时间(如 24h)。 OLLAMA_MAX_LOADED_MODELS:限制同时加载的模型数量(默认1)。 OLLAMA_NUM_THREADS=8 根据CPU核心数调整(如8核)。 OLLAMA_NUM_PARALLEL:设置并行请求处理数(默认1)。 OLLAMA_MODELS:自定义模型存储路径。 OLLAMA_METRICS_ENABLED=true 启用prometheus监控指标输出,访问http://localhost:11434/metrics。
page assist的设置
性能与注意事项 硬件要求: 手机需支持 ARM64 架构(主流安卓机均兼容)。运行 1.5B~8B 参数的模型需至少 4GB 内存。 局限性: 大模型(如 70B)因算力限制无法流畅运行。需保持 Termux 后台常驻,避免进程中断]。 优化建议: 使用 & 后台运行命令(如 ollama serve &)。优先选择量化版模型(如 4bit 精度)减少资源占用]。
总结 通过 Termux + Linux 环境或直接运行二进制文件,可在安卓手机上部署 Ollama 并运行中小规模模型(如 DeepSeek-R1、Llama3-8B)。
使用Termux将安卓手机变成随身AI服务器(pageassist连接)由讯客互联开源代码栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“使用Termux将安卓手机变成随身AI服务器(pageassist连接)”