教程:使用本地LLM打造终极隐私智能家居
如何集成Llama 4和Home Assistant,打造一个永远不离开你家的语音助手。
停止将你的声音发送到云端。 使用$300的迷你PC和Home Assistant,你可以构建一个比Alexa更智能、比Siri更快、100%隐私的语音助手。
为什么选择本地?
- 隐私: 没有人在监听。
- 速度: 没有云延迟。响应几乎是即时的。
- 连续性: 断网时也能工作。
前提条件
- 硬件: 至少16GB RAM的迷你PC(NUC、Beelink)。(树莓派5可以用于基本功能,但运行好的LLM会吃力)。
- 软件: 已安装Home Assistant OS。
- 语音硬件: ESP32-S3 Box(或任何与”Home Assistant Satellite”兼容的设备)。
第1步:安装”LocalAI”或”Ollama”插件
我们推荐2026年使用Ollama,因为易于使用。
- 转到Home Assistant设置 -> 插件。
- 搜索”Ollama”并安装。
- 启动插件并检查日志以确保它正在运行。
第2步:下载模型
你需要一个适合你RAM的”量化”模型。
- 推荐:
Llama-4-8b-instruct-q4。它很轻量但在遵循指令方面非常智能。 - 在Ollama配置中,设置要拉取的模型为
llama4。
第3步:配置”Assist”管道
- 转到设置 -> 语音助手。
- 创建新的助手管道。
- 对话代理: 选择”Ollama”。
- 语音转文字(STT): 使用Faster-Whisper(本地运行)。
- 文字转语音(TTS): 使用Piper(优秀的神经语音,本地运行)。
第4步:系统提示工程
这是关键。你需要告诉LLM它控制一个家。 系统提示:
你是一个名叫Jarvis的有用智能家居助手。
你通过语音简短回答。
你可以使用以下工具:turn_on、turn_off、set_temperature。
当前时间是{{ now() }}。
第5步:测试
对你的ESP32 Box说话:“关掉灯,把客厅设置到22度。” LLM会将其解析为两个命令并通过Home Assistant的Intent API执行它们。
故障排除
- 响应慢? 你的模型对于你的RAM来说太大了。尝试
Phi-4模型或4位量化。 - 幻觉? 确保你的系统提示严格列出可用的设备。
结果
你现在有了一个星际迷航般的电脑来控制你的家,理解复杂的上下文(“我要睡觉了” -> 锁门、关灯、放下百叶窗),而且不与大科技公司分享一字节的数据。