Eulerwa Inc. 将AI开发的每一层——从模型训练到硬件加速再到自主代理——通过CLI和开源公开。
训练的EulerForge,围棋 AI 研究的EulerGo,数据的EulerWeave,执行的EulerAgent,出版的EulerPress,硬件的EulerNPU,机器人学习的EulerAtlas,模型设计的EulerStack。
面向研究的 LLM 微调框架,可向 HuggingFace 模型注入 LoRA,并把 Dense 模型作为 Mixture LoRA · MoE Expert LoRA 结构来训练。在常见的 Dense SFT 流程之上,EulerForge 叠加了 Dense → MoE 转换与阶段调度,让研究者在有限的 GPU 预算下,可复现地研究路由、专家特化与 MoE 稳定性。一份 YAML 预设就可以把 SFT → DPO/ORPO → RM → PPO 一路贯通。
EulerForge 把 "Dense → MoE" 的研究流程以标准化的方式整合在一起,让实验可以通过配置来表达,而不必改动胶水代码。
mixture_lora / moe_expert_lora 一键开启| 注入策略 | Dense LoRA · Mixture LoRA · MoE Expert LoRA · Native MoE Expert LoRA |
|---|---|
| 训练类型 | SFT · DPO · ORPO · RM · PPO |
| 支持骨干 | Qwen2/3 · Llama 2/3 · Gemma 3 · Gemma 4 (dense+MoE) · Mixtral |
| 量化训练 | nf4 / int4 / int8 (bitsandbytes) |
| 附加 | HF Export · Optuna Grid/Bayes 搜索 · 集成基准测试 · 5 语言 CLI |
内置 24 篇 KO/EN 教程 + 完整 CLI 参考
为研究人员和开发者设计,在本地环境中精炼和分析数据。
从单GPU扩展到集群级别的业务关键功能。
一份 YAML 规格就可以把 Attention、Mamba、RetNet、Hyena 等多种混合器与 MoE FFN 组合起来,构建任意规模的混合 LLM。DSL → Schema → IR → Compiler → CLI 五层管线会先完成校验与规范化,再输出 HuggingFace PreTrainedModel(config.json + model.safetensors),EulerForge 可直接读取用于训练,让设计 → 组装 → 微调一路贯通。
15 个 arch_ 预设(统一约 2B,按技能等级层次)复现研究论文的架构,16 个 llm_ 预设覆盖 4 个规模 × 4 个变体。预设只是起点,改动 d_model 与层数,就能组装任意规模的模型。
| 混合器 | Attention · Mamba · RetNet · Hyena |
|---|---|
| FFN | MLP · Gated MLP (SwiGLU) · MoE (top-k 路由) |
| 技能等级走读 | beginner(GPT-2/Llama) · intermediate(Mistral/Gemma2/Qwen) · advanced(Jamba/Samba/RetNet) · expert(MoE × 混合器 二维设计空间) |
| 编译目标 | HuggingFace 模型目录 或 JSON 运行时配置 |
结构校验 → 跨字段兼容性 → 现实性启发式的三段式校验,在编译前拦截设计错误。所有 CLI 消息支持 5 种语言(ko/en/zh/ja/es)。
具备8状态机、Pattern/Graph编排器、RAG、长期记忆(LTM)、MCP集成和30+命令的本地优先代理框架。每个操作都经过日志记录、审计和人工审批。
了解更多理念:改变世界的代理的每一个行动(文件写入、Shell执行、外部调用)都必须经过人工审批。
为希望获得自主功能但不牺牲控制力和安全性的开发者而构建。
基于CLI的模仿学习框架,从专家演示中学习策略并在仿真中评估。经典4域(汽车、无人机、人形机器人、机器狗)与工业4域(移动操作、仓储AGV、智慧农业机器人、造船厂起重机)——8个域在统一模式上运行。11个命令组(含edge部署)、Domain Plugin扩展。
了解更多每个域拥有固定维度obs/action模式,所有模块以一致方式通信。
| 经典 (01–04) | 汽车 4/2 · 无人机 6/3 · 人形机器人 12/6 · 机器狗 12/8 |
|---|---|
| 工业 (05–08) | 移动操作 18/8 · 仓储AGV 14/4 · 农业机器人 16/6 · 造船厂 20/9 |
| 策略模型 | BC-MLP, BC-RNN, BC-CNN, ACT, Diffusion Policy |
| 级别 | L0 Toy · L1 Intermediate · L2 Advanced(实际后端) |
支持BC-MLP、BC-RNN、BC-CNN、ACT、Diffusion Policy 5种策略模型。3行命令即可完成初始化、训练和仿真。
123个算子(13组)、10种数据类型、spec.yaml到.npuart的编译管线,以及Zynq-7020 FPGA运行时——通过单一CLI覆盖NPU推理硬件的完整开发流程。
了解更多覆盖CNN/Transformer/RNN/量化等13个算子组的完整推理算子集,支持10种数据类型。
| 算子 | 123个(13组:Core, Conv, Pool, Activation, Norm, Recurrent, Attention, Quantize等) |
|---|---|
| 数据类型 | float32/16, bfloat16, int8/16/32, uint8/16/32, bool |
| 编译 | spec.yaml → IR → .npuart(NPU Archive) |
| 硬件 | Zynq-7020 FPGA运行时 |
从规格验证到编译、运行、模拟、性能分析——5个子命令覆盖完整工作流。
面向围棋 AI 的 CLI 研究平台。在强大的共同实力层之上,可学习、比较并保存不同的棋风(style)。这是我们对围棋界长期以来的一种关切的研究式回应 —— AI 时代里,每位棋手的下法似乎正向唯一的"正解"收敛。EulerGo 将一局棋前约 50 手所呈现的个性视为可学习的信号,通过 style latent 与多算法对比加以刻画,目标是一个让多种"棋风"并存的研究环境,而非单一的超强引擎。
了解更多9 个基础通道与 N 个 style latent 通道一起广播到输入张量,从而可以在同一个骨干上训练或替换多个"棋风头",以可复现的方式把前 50 手所显现的个性当作可学习的信号来处理。
算法像旋钮一样可替换,实现公平比较。
| 算法 | PUCT MCTS · Gumbel (Sequential-Halving) · QZero (searchless) · PGS (tree-free) · Native C++ MCTS · Random 基线 |
|---|---|
| 评估 | 循环联赛 + 迭代 ELO + Bootstrap 置信区间 |
| 棋盘 | 9×9 / 19×19(中国规则计子、ko/superko、SGF) |
| 扩展 | 分布式 selfplay (coordinator/worker) · Web 仪表盘 · Toga GUI 应用 · i18n CLI (ko/en/zh/ja/es) |
作为对围棋界长期关切的一次研究式回应而设计的平台。
一款本地优先(Local-First)的CLI工具,在完美保留代码块、数学公式和URL的同时精确翻译散文文本。支持从企业文档本地化到AI训练JSONL数据翻译。
了解更多访问专业技术出版物和开源生态系统。
用于数据处理和模型编排的社区工具。
基于Eulerwa技术栈构建的领域特化解决方案。
提供个性化身体状况分析和基于营养的"以食代药(Food over Medicine)"指导的健康代理。
利用EulerAgent自动化设计和调试,并管理内部软件生命周期的自主编码系统。
技术为人类而存在
我们反对人工智能的军事自动化。技术应当用于保护生命,而非夺取生命——任何技术成就都不能凌驾于人类安全之上。
人工智能应当成为提升人的尊严、巩固民主价值的工具。我们反对将AI用于压制个人自由或损害民主原则的任何目的。
Eulerwa发布的所有软件、模型和服务均不得用于违反上述原则的用途。我们严肃对待技术使用的责任。