承袭 Unix 与 Plan 9 血脉,通向未来

安全的智能体
才是自由的智能体。

InferNode 是一个轻量级操作系统,以数学证明的方式隔离 AI 智能体。当智能体只能看到你授予的资源时,你才能放心让它做更多事情—人与 AI 的协作终于真正成立。

已证明 TLA+ / SPIN / CBMC
15 MB 内存占用 无界面配置
<1 秒 冷启动 无界面配置
开源 MIT 许可

实际运行效果

你与你的智能体,并肩工作。

Veltro 运行应用、组合工具、代你行动—一切都在你控制的命名空间内。它看到的你都看得到,它没有触碰任何你未授予的东西。

infernode
Veltro AI 智能体在 InferNode OS 上运行的截图。左侧面板展示智能体通过 9P 文件系统命令探索一个分形应用的对话过程。中间面板渲染一个 Mandelbrot 分形。右侧面板显示命名空间浏览器,其中包含已挂载的服务、活动工具和可加载的能力。
智能体对话
应用输出
命名空间浏览器

问题所在

AI 智能体非常强大。
这正是问题所在。

一个能读取文件、调用 API、派生子进程的 AI 智能体极其有用,但当它与你共享操作系统、凭据和网络访问权时,也极其危险。

今天的答案是各种护栏:外挂的沙箱、权限弹窗、你希望能扛住攻击的策略层。智能体在你的世界里运行,而你只能信任那个笼子。历史告诉我们这并不明智。

InferNode 彻底反转了这个模型。

每个智能体都拥有自己的命名空间—一个仅由你显式挂载的资源构成的世界视图。没有笼子,因为根本没有需要关进笼子里的东西。智能体无法访问你的凭据、邮件或 SSH 密钥,因为在它的命名空间里,这些东西根本不存在

这改变了一切。一个可证明被封闭的智能体,才是你可以放心赋予真正自主权的智能体。更多自主权意味着更高的生产力。这正是关键所在:对于人与 AI 的协作团队,安全不是约束,而是让协作得以成立的根基

阅读完整宣言 →

安全

每个 AI 智能体都运行在自己隔离的命名空间中,只能看到你显式授予的资源。这不是一层策略&mdash;这就是操作系统本身的工作方式,并已通过形式化验证。

自主可控

由你决定数据存放在哪里、计算运行在何处。云端、边缘、本地,或三者并用。没有任何厂商替你做这个决定。

可组合

每一种资源&mdash;GPU、LLM、数据库、传感器&mdash;都以文件的形式呈现。一条命令就能把任意东西接到任意地方,跨越任何设备。

开放

MIT 许可。阅读源码、修改、部署、出售,均无限制。没有贡献者协议,没有许可证反水,没有任何附加条件。

基于能力的安全模型

未授予的资源,
根本不存在。

今天,大多数智能体框架只给你两种选择。要么把智能体跑在你自己的机器上—连同你的凭据、网络和数据—然后祈祷护栏能扛住;要么把一切交给某个云平台,通过把数据搬到别人的电脑上来实现隔离。前者过于信任智能体,后者过于信任云。

InferNode 的做法不同。每个智能体都拥有自己的命名空间—一个仅由你显式共享的资源构成的世界视图。试图访问未被授予的东西?它不会报错。它根本不存在。没有攻击面,因为压根没有"面"可言。

这不是空口承诺。隔离模型已经在三种独立工具中经过形式化验证—TLA+、SPIN 与 CBMC:11 条不变量在 1930 万个状态(穷举)中得到证明,扩展运行覆盖 31.7 亿个状态,加上 113 条 CBMC 断言—零违规。每次推送都会在 CI 中自动重新验证。

正因为智能体被可证明地封闭,你才能放心给它更多自由—更多工具、更多数据、更多自主权—而不必承担更多风险。安全的智能体才是高效的智能体。

查看完整验证报告 →
智能体命名空间
; # 授予智能体访问文档与 LLM
; mount /n/docs /agent/data
; mount /n/llm /agent/llm
; # 智能体能看到的全部
; ls /agent/
data/ llm/
; # 你的凭据、邮件、SSH 密钥呢?
; ls /home/ /credentials/ /email/
   # 没有。它们在这个命名空间里不存在。
; # 提示注入想读取 SSH 密钥?
; cat /home/.ssh/id_rsa
   # 没东西可读,该路径根本不存在。

抗量子加密

实验性

InferNode 已经初步实现了 ML-KEM(FIPS 203)与 ML-DSA(FIPS 204)—这是 NIST 标准化的、基于格的算法,也是业界正在迁移的对象。NIST Level 3(ML-KEM-768 / ML-DSA-65)与 Level 5(ML-KEM-1024 / ML-DSA-87)两套参数皆已支持,全程采用恒定时间运算。

该实现尚不建议用于生产,但密码敏捷性是一项首要设计目标。当传统公钥密码学被攻破之时,InferNode 已经准备好了一条出路—并且原生运行在保护你智能体的同一套轻量级操作系统之上。

为什么是现在

三股趋势正在汇合。

InferNode 处于多种变革的交汇点上,这些变革使得安全、分布式的 AI 不仅成为可能—而是变得不可避免。

信任需要证明,而不是承诺。

随着 AI 智能体的自主性不断提高,“我们测试过了”已经不够。提示注入、混淆代理、权限提升—每授予一项能力,攻击面都会随之扩大。受监管行业开始要求形式化验证。InferNode 的隔离模型用 TLA+、SPIN 与 CBMC 证明完毕。数学就在那里,你只需要索取。

智能体需要一个安全的运行时。

所有主流平台都在抢着搭建多智能体系统—LangGraph、CrewAI、OpenAI Agents、AWS Strands,国内的通义、文心、智谱以及字节的扣子(Coze)也概莫能外。但它们全都让智能体在你的操作系统里、或在别人的云上,以环境权限运行。没人解决根本问题:如何让一个智能体真正干活,又不必把所有钥匙交到它手上?InferNode 的命名空间正是答案。

本地推理已成现实。

小型语言模型如今已能在本地硬件上处理大多数现实场景的查询,效率提升的速度令人吃惊。"有用的 AI 必须依赖云 API"这一假设不再成立—而当 AI 在本地运行时,你需要一个为它而设计的操作系统,而不是一个浏览器标签页。

关于资源占用: InferNode 基础运行时从约 15 MB 内存与 2 秒冷启动开始。真实负载—多个智能体、图形、大模型—会占用更多资源,任何系统都一样。重点不是它一直停留在 15 MB,而是它从这里出发,因此能跑在那些更厚重的运行时甚至无法启动的硬件上。

计算机即网络

你的设备。一个命名空间。无需云端。

每一种资源—GPU、传感器、LLM、数据库—都以文件呈现。从任何地方挂载它。你的 AI 智能体看到的是一个无缝统一的工作空间。

Cloud GPU /n/compute 可选 Laptop /n/docs /n/code Jetson /n/gpu /n/inference Veltro AI 智能体 本地 LLM /n/llm Raspberry Pi /n/sensors 皆为对等节点,没有中心。由你决定连接什么。

挂载任何东西

GPU 集群、本地 LLM、传感器数据流、云端 API—统统呈现为文件。一条命令:mount tcp!host!port /n/resource

智能体看到的是文件,不是 API

你的 AI 智能体读写文件即可。不需要 SDK、API key 或 OAuth token。只要资源被挂载,智能体就能使用它。

云是对等节点,而非主宰

想用云服务时就连接,不想用时就断开。你的命名空间两种状态都能正常工作。没有依赖,没有锁定。

分布式是与生俱来的

代码可移动。应用可延伸。无需重启。

在 InferNode 中,软件不是被"安装"—而是被挂载。应用程序不是“跑在某台机器上”—它跑在整个命名空间里。这些不是抽象概念,而是操作系统本身的工作方式。

通过网络热加载代码

开发笔记本 sensor-filter.dis 编写一次 Jetson(边缘) sensor-filter.dis 已加载并运行 Raspberry Pi sensor-filter.dis 已加载并运行 刚刚发生了什么: 新代码已部署到 网络中的每一台设备。 无需重启,无需重建容器, 无需部署流水线。
从网络热加载一个模块
; bind /n/devbox/dis/sensor-filter.dis /dis/sensor-filter.dis
# 就这样。模块已经在本地可用。
# 它是按需通过网络获取的。
# 改了源码?下次加载时每台设备都会拿到新版本。

开发者视角

在笔记本上编译一个模块,网络上的每台设备都能立刻加载并运行—无需重新部署、无需推送容器、无需部署流水线。改动一次,所有设备在下次加载时同步更新。

实际场景

把一个新的 ML 预处理过滤器推送到一整个边缘传感器队列。把一个安全补丁滚动到 mesh 网络的每个节点。给所有设备上的 AI 智能体增加一项新能力。全程零停机。

在那边运行,在这边查看。

GPU 服务器(远端) LLM 推理 数据分析 模型训练 重计算在这里运行 输入 / 命令 显示 / 结果 你的笔记本(本地) 你与应用交互, 感觉就像它在本地一样。 其实并不是。 你在这里交互 通过 9P 协议连接
在 GPU 服务器上运行应用,在你的笔记本上显示
; import tcp!gpuserver!9999 /n/remote
; mount /n/remote /mnt/compute
; /mnt/compute/bin/analyse -data /n/local/dataset.csv
# 在 GPU 服务器上运行,结果显示在你的屏幕上。
# 对你而言,它就像本地应用,网络是不可见的。

开发者视角

应用程序通过 9P 把自己的接口导出为文件。把远程应用的命名空间挂载到本地,然后像本机应用一样与它交互。网络边界在操作系统层面消失了。

实际场景

让 LLM 推理跑在隔壁机房的 GPU 服务器上,在自己的笔记本上交互。在一台远程的强大机器上分析数据集,在野外的一台平板上看到结果。一个命名空间,硬件不再重要。

接口

一切资源皆是文件。
无需任何 SDK。

InferNode 通过 9P 协议把所有东西—LLM、传感器、数据库、智能体—都暴露为文件。这一个架构选择就消除了整类整合复杂性。无需客户端库,无需 API 包装层,只需标准的文件操作。

Go 9P 服务器 — 在主机上运行
// 把 LLM 暴露为文件系统
func (s *LLMSrv) Read(fid *p9p.Fid) {
if fid.Path == "response" {
fid.Write(s.llm.Complete(s.prompt))
}
}
// mount tcp!host!564 /n/llm
Python 9P 服务器 — 在主机上运行
# 把传感器数据流暴露为文件
class SensorServer(p9p.Server):
def read(self, path, n, off):
return sensor.read().encode()
# mount tcp!pi!564 /n/sensors
# 任何语言。零 InferNode SDK。
rc InferNode 内部
# 挂载外部服务
mount tcp!llm-host!564 /n/llm
mount tcp!pi!564 /n/sensors
# 直接使用 — 它们就是文件
echo 'summarise' >/n/llm/0/ask
cat /n/llm/0/response
cat /n/sensors/temperature

一种协议,任意语言。

在 InferNode 内部,每一种资源都是文件—你用 open()read()write() 与 LLM、传感器和智能体打交道。从外部看,任何能讲 9P—一个简单、开放协议—的语言都能直接连接到 InferNode 并使用其中的资源。无需厂商 SDK,无需 API 包装层,只需一个文档完善的协议和你已经熟悉的语言。

写一个服务,它就是原生的。

用任意语言写一个服务,通过 9P 暴露出来,它就成了命名空间里的一个文件—与内置资源毫无差别。其他智能体、工具和用户都能立刻挂载并使用它。文件系统就是通用契约。

产品体系

一个安全的 OS,按你自己的方式使用。

InferNode 是基础—为每个智能体、在任意硬件上提供可证明隔离的命名空间。在它之上,选择最适合你工作方式的界面。或者,完全不用界面。

Veltro

自主智能体

Veltro 是一个驻留在命名空间中的 AI 智能体,而不是某个应用程序里的功能。它读取文件、调用工具、查询 LLM、派生子智能体—一切都在你定义的边界之内。无界面或交互式,由你选择。

命名空间隔离 — 只能看到你授予的资源
子智能体 — 派生能力更受限的子智能体
LLM 即文件系统 — 把任意模型挂载到 /n/llm

Lucia

语音优先的 AI 工作空间

Lucia 用对话式 AI 环境取代传统桌面。对你的电脑说话,智能体倾听、行动,并把结果—文档、数据、可视化—呈现给你,你完全不需要打开任何应用。可信赖的安全意味着可依赖的体验。

语音控制 — 自然说话,智能体行动
三区界面 — 对话、呈现与上下文一目了然
无需学习应用 — 智能体从你的命名空间组合能力

Xenith

开发者利器

一个为开发者与 AI 智能体并肩工作而打造的文本环境。从 Acme 派生,具备异步 I/O、暗色模式以及让智能体通过文件操作交互的 9P 接口—无需 SDK。智能体的每一步行动都可被实时观察。

9P 文件系统接口 — 智能体读写文件,无需任何 API
可观测 — 所有智能体活动对人类实时可见
GPU 加速 — 基于 SDL3,支持 Metal、Vulkan 与 D3D 后端
; InferNode — 运行在这一切之下的 64 位 Inferno® OS。15 MB 内存,2 秒启动,630+ 实用程序,形式化验证的隔离,Bell Labs 血统。

Veltro

为自主工作而生。

一个驻留在命名空间中的 AI 智能体,而不是某个应用里的功能。每一项能力都是文件,每一道边界都是结构性的。

命名空间隔离

每个 Veltro 实例只能看到你挂载到其命名空间中的资源。没有环境权限,没有继承的凭据,没有攻击面。隔离不靠策略—而是结构性的。

子智能体

Veltro 可以派生具备其能力子集的子智能体。每个子智能体获得一个进一步受限的命名空间。授权而无提权—最小权限原则,递归地应用。

LLM 即文件系统

通过 llm9p 把任意语言模型挂载到 /n/llm。把 prompt 写入 /n/llm/0/ask,再把回复读出来。Claude、Ollama、任何后端—智能体看到的是文件,不是 API。更换提供商,无需改一行代码。

多设备

Veltro 可以跑在 Raspberry Pi、Jetson、笔记本或服务器上。通过 9P 把网络上任意设备的资源挂载到智能体的命名空间。智能体不知道也不在乎数据存在哪里—它就是能用。

应用场景

为那些不能寄望于
护栏能扛住的人而生。

智能体开发者

不必再担心智能体能访问什么。

当智能体与你共享操作系统时,构建自主智能体令人不安。InferNode 给每个智能体一个隔离的命名空间,只包含你授予的工具与数据。提示注入?智能体在自己的命名空间之外什么都看不到。攻击面根本不存在。

命名空间隔离 基于能力的安全 抗提示注入

工业与关键基础设施

形式化验证,而不只是测试。

工厂车间、电网、水务系统&mdash;在这些环境里,失控的 AI 智能体不是麻烦,而是安全事故。InferNode 的隔离模型经过形式化验证。给审计人员展示数学,而不是承诺。

形式化验证 OT 就绪 安全关键 符合 IEC 62443

金融、法律与医疗

使用 AI,而不必把数据送到别处。

交易策略、客户档案、患者数据、法律证据&mdash;敏感程度无法接受放在别人的云上。InferNode 跑在你自己的硬件上,搭配本地 LLM。形式化验证的隔离意味着你可以向监管者和审计师证明封闭性,而不只是承诺。

本地 LLM 形式化验证 SOX / PCI-DSS / HIPAA 可气隙部署

边缘与嵌入式

15 MB,一块 35 美元的板子,真正的 AI。

在 Raspberry Pi 上跑 Kubernetes 是个糟糕的笑话。InferNode 在 15 MB 内存里运行,2 秒冷启动。在 Jetson、Raspberry Pi 或任何 ARM64/AMD64 设备上部署 AI 智能体&mdash;每个都在自己的隔离命名空间中。配合 JIT 编译,速度也很快。

15 MB 内存 2 秒启动 ARM64 原生 JIT 编译器

关键任务运营

在云不可用的地方继续工作。

断网环境、艰苦条件、对抗性网络&mdash;在这些场景里,云 API 是负担而非便利。InferNode 完全运行在本地硬件上,设备之间以对等方式组成 mesh,即使上行链路中断仍然能继续工作。每个智能体始终被封闭其中。

气隙部署 对等 mesh 边缘原生 零云依赖

分布式系统

让你的设备,如同一台机器协同工作。

从隔壁房间挂载一块 GPU,或者从国外挂载一块。InferNode 的 9P 协议让远程资源以本地文件的形式呈现。构建一个共享算力、存储与传感器的设备 mesh&mdash;每个节点都被隔离,整个系统则可组合。

9P 协议 对等连接 云为可选 零中间件

快速开始

运行应用,或从源码构建。

在 macOS 上,下载即可运行。在 Linux 上,下载或从源码构建。无论哪种方式—一分钟以内即可完成。

InferNode app icon

InferNode.app

macOS(Apple Silicon)— 打开 DMG,拖到 Applications,启动。

下载最新版本
Docker — 任意平台
# 拉取并运行(amd64 或 arm64,自动检测)
$ docker run -it ghcr.io/infernode-os/infernode:latest
Linux — 下载或从源码构建
下载最新 tarball(amd64)
# 克隆仓库
$ tar xzf infernode-*-linux-amd64-gui.tar.gz
$ cd infernode-*-linux-amd64-gui
$ ./infernode
# 为你的平台构建
$ git clone https://github.com/infernode-os/infernode.git && cd infernode
$ ./install-sdl3.sh
$ ./build-linux-amd64.sh # 或 build-linux-arm64.sh
# 运行
$ ./run-lucia-linux.sh
x86_64 Linux
ARM64 Linux(Jetson, RPi)
ARM64 macOS(Apple Silicon)
x86_64 Windows(即将推出)
🐳 Docker(amd64 + arm64)