教程:使用本地LLM打造终极隐私智能家居

如何集成Llama 4和Home Assistant,打造一个永远不离开你家的语音助手。

停止将你的声音发送到云端。 使用$300的迷你PC和Home Assistant,你可以构建一个比Alexa更智能、比Siri更快、100%隐私的语音助手。

为什么选择本地?

  • 隐私: 没有人在监听。
  • 速度: 没有云延迟。响应几乎是即时的。
  • 连续性: 断网时也能工作。

前提条件

  1. 硬件: 至少16GB RAM的迷你PC(NUC、Beelink)。(树莓派5可以用于基本功能,但运行好的LLM会吃力)。
  2. 软件: 已安装Home Assistant OS。
  3. 语音硬件: ESP32-S3 Box(或任何与”Home Assistant Satellite”兼容的设备)。

第1步:安装”LocalAI”或”Ollama”插件

我们推荐2026年使用Ollama,因为易于使用。

  1. 转到Home Assistant设置 -> 插件。
  2. 搜索”Ollama”并安装。
  3. 启动插件并检查日志以确保它正在运行。

第2步:下载模型

你需要一个适合你RAM的”量化”模型。

  • 推荐: Llama-4-8b-instruct-q4。它很轻量但在遵循指令方面非常智能。
  • 在Ollama配置中,设置要拉取的模型为llama4

第3步:配置”Assist”管道

  1. 转到设置 -> 语音助手。
  2. 创建新的助手管道。
  3. 对话代理: 选择”Ollama”。
  4. 语音转文字(STT): 使用Faster-Whisper(本地运行)。
  5. 文字转语音(TTS): 使用Piper(优秀的神经语音,本地运行)。

第4步:系统提示工程

这是关键。你需要告诉LLM它控制一个家。 系统提示:

你是一个名叫Jarvis的有用智能家居助手。
你通过语音简短回答。
你可以使用以下工具:turn_on、turn_off、set_temperature。
当前时间是{{ now() }}。

第5步:测试

对你的ESP32 Box说话:“关掉灯,把客厅设置到22度。” LLM会将其解析为两个命令并通过Home Assistant的Intent API执行它们。

故障排除

  • 响应慢? 你的模型对于你的RAM来说太大了。尝试Phi-4模型或4位量化。
  • 幻觉? 确保你的系统提示严格列出可用的设备。

结果

你现在有了一个星际迷航般的电脑来控制你的家,理解复杂的上下文(“我要睡觉了” -> 锁门、关灯、放下百叶窗),而且不与大科技公司分享一字节的数据。