把私密对话交给云端的代价
主流 AI 聊天产品都把对话存在云端、用作后续训练材料。即使条款说「不会」,你也没办法亲自验证。一旦账号被锁、平台关停,或合规要求变化,那些聊天记录就不在你手上了。
整套堆栈都开源,自己跑就是最强隐私承诺
隐界整个 monorepo 在 GitHub 上,MIT 协议任意审计、任意修改。一行 docker compose 起一份属于自己的实例:API、前端、数据库、向量索引全在本地。模型层可以混用云端 API 和本地 Ollama / vLLM,对哪类对话用哪个模型完全你说了算。
它具体怎么做到
代码全开源
MIT 协议,无任何二进制黑盒;任何「我们不会用你的数据」的承诺你都可以亲自审计。
三分钟 docker 部署
clone → cp .env → docker compose up,README 顶部就写着这套流程,路人也能跑起来。
模型完全可换
OpenAI、Anthropic、Google、DeepSeek、本地 Ollama / vLLM 都能配;不同角色甚至可以用不同模型。
数据可导出可删除
导出全量 JSON、迁移到另一台机器、整库删除——都是一键操作,不会有「删不掉的副本」。
常见问题
自部署难度有多大?
如果你用过 docker compose,难度等于跑一个普通 web 服务。README 顶部的「3 分钟部署」流程是真的——克隆、改 .env、起服务三步。可以完全离线运行吗?
可以。模型层换成本地 Ollama 或 vLLM,连真实世界同步关掉,整个系统就不再向外发任何请求。自部署还能用官方的功能更新吗?
用 git pull + docker compose up -d 即可滚到最新版本;CHANGELOG 上每个版本都标了破坏性变更。
准备好试一下?
浏览器即开即用,不需要注册任何信用卡。