AI & ML interests

Native CoT models specialized for ACGN and Light Novel translation. Focusing on System 2 reasoning to address long-context consistency and narrative nuance.

Recent Activity

Organization Card

Murasaki Project

Native CoT & System 2 Reasoning for ACGN Translation

GitHub Translator Tool Benchmark

🌌 Project Overview (项目概览)

Murasaki Project 专注于提升大语言模型在 ACGN 及轻小说翻译 中的逻辑表现。

传统的直觉式(System 1)翻译模型在处理轻小说时,常面临长距离伏笔断裂、人物语气不均以及频繁的人称省略问题。

我们采用 System 2 Translation Paradigm —— 通过引入原生显式思维链 (Native CoT),使模型具备类似人类译者的推理过程:

(语境感知 Context Awareness -> 逻辑解构 Logic Deconstruction -> 文本生成 Generation)

这一机制旨在针对性解决 ACGN 翻译中的三大核心挑战:主语补全、人称一致性 以及 叙事风格对齐


🏆 Benchmark Performance

Murasaki-ACGN Benchmark 综合评测中,Murasaki 系列模型表现卓越:Murasaki-14B-v0.2 取得总分第一;系列的其他模型在这个特定任务的表现也位列前列,性能超越了所有主流商业Sota模型的表现。

具体的测量方法,数据集,测试结果与排名请参考:Murasaki-benchmark


🧬 Model Matrix (模型矩阵)

✨ Now Live: 无需下载模型,点击 Online Demo 在线体验模型。

Model Name Type Size VRAM (Est.) Description
Murasaki-14B-v0.2 BF16 ~28GB 32GB+ 旗舰版。全精度权重,最佳性能。
Murasaki-14B-v0.2-GGUF GGUF 6.4~12GB 12GB+ 进阶本地版。适合大显存用户。
Murasaki-8B-v0.2 BF16 ~16GB 24GB+ 标准版。全精度权重,均衡之选。
Murasaki-8B-v0.2-GGUF GGUF 3.6~6.3GB 6GB+ 推荐/轻量版。兼容性最强,适合大多数显卡。
Murasaki-4B-v0.3 BF16 ~8GB 12GB+ 极速版。轻量级全精度权重。
Murasaki-4B-v0.3-GGUF GGUF 2.1~3.6GB 4GB+ 极限轻量版。极低显存需求,核显/轻薄本首选。

🛠️ Ecosystem (生态系统)

我们为模型提供了完整的工具链以降低使用门槛:

*   为Murasaki系列模型设计和优化的开箱即用的轻量级高性能翻译工具。
*   专为游戏控制符与翻译格式修复训练的自动化后处理轻量模型。

🤝 Credits & License

Murasaki 系列模型基于 SakuraLLM -Qwen-3-Base 微调,翻译模型的权重采用 CC BY-NC-SA 4.0 许可。

  • Special thanks to the SakuraLLM team for their foundational work in the ACGN domain.
  • Powered by Qwen architecture.

Made with 💜 by the Murasaki Team

datasets 0

None public yet