AI & ML interests
Native CoT models specialized for ACGN and Light Novel translation. Focusing on System 2 reasoning to address long-context consistency and narrative nuance.
Recent Activity
🌌 Project Overview (项目概览)
Murasaki Project 专注于提升大语言模型在 ACGN 及轻小说翻译 中的逻辑表现。
传统的直觉式(System 1)翻译模型在处理轻小说时,常面临长距离伏笔断裂、人物语气不均以及频繁的人称省略问题。
我们采用 System 2 Translation Paradigm —— 通过引入原生显式思维链 (Native CoT),使模型具备类似人类译者的推理过程:
(语境感知 Context Awareness -> 逻辑解构 Logic Deconstruction -> 文本生成 Generation)
这一机制旨在针对性解决 ACGN 翻译中的三大核心挑战:主语补全、人称一致性 以及 叙事风格对齐。
🏆 Benchmark Performance
在 Murasaki-ACGN Benchmark 综合评测中,Murasaki 系列模型表现卓越:Murasaki-14B-v0.2 取得总分第一;系列的其他模型在这个特定任务的表现也位列前列,性能超越了所有主流商业Sota模型的表现。
具体的测量方法,数据集,测试结果与排名请参考:Murasaki-benchmark
🧬 Model Matrix (模型矩阵)
✨ Now Live: 无需下载模型,点击 Online Demo 在线体验模型。
| Model Name | Type | Size | VRAM (Est.) | Description |
|---|---|---|---|---|
| Murasaki-14B-v0.2 | BF16 | ~28GB | 32GB+ | 旗舰版。全精度权重,最佳性能。 |
| Murasaki-14B-v0.2-GGUF | GGUF | 6.4~12GB | 12GB+ | 进阶本地版。适合大显存用户。 |
| Murasaki-8B-v0.2 | BF16 | ~16GB | 24GB+ | 标准版。全精度权重,均衡之选。 |
| Murasaki-8B-v0.2-GGUF | GGUF | 3.6~6.3GB | 6GB+ | 推荐/轻量版。兼容性最强,适合大多数显卡。 |
| Murasaki-4B-v0.3 | BF16 | ~8GB | 12GB+ | 极速版。轻量级全精度权重。 |
| Murasaki-4B-v0.3-GGUF | GGUF | 2.1~3.6GB | 4GB+ | 极限轻量版。极低显存需求,核显/轻薄本首选。 |
🛠️ Ecosystem (生态系统)
我们为模型提供了完整的工具链以降低使用门槛:
* 为Murasaki系列模型设计和优化的开箱即用的轻量级高性能翻译工具。
* 专为游戏控制符与翻译格式修复训练的自动化后处理轻量模型。
🤝 Credits & License
Murasaki 系列模型基于 SakuraLLM -Qwen-3-Base 微调,翻译模型的权重采用 CC BY-NC-SA 4.0 许可。
- Special thanks to the SakuraLLM team for their foundational work in the ACGN domain.
- Powered by Qwen architecture.
Made with 💜 by the Murasaki Team