Hy-MT1.5-1.8B-1.25bit – 腾讯混元开源的手机端离线翻译模型

Al项目 2026-04-30 12:00:24 AI导航网

Hy-MT1.5-1.8B-1.25bit是什么

Hy-MT1.5-1.8B-1.25bit 是腾讯混元团队推出的极致量化压缩版手机端离线翻译大模型。模型基于混元翻译大模型 Hy-MT1.5-1.8B(18亿参数)打造,通过创新的 Sherry 稀疏三值量化技术 将模型压缩至仅 440MB,支持 33种语言、5种方言/民汉 及 1056个翻译方向,无需联网可在手机本地运行,翻译质量超越谷歌翻译等主流商业系统。

Hy-MT1.5-1.8B-1.25bit的主要功能

  • 33种语言离线互译:覆盖中英、法日、阿拉伯语、俄语等主流语言,以及藏语、蒙古语等少数民族语言,共1056个翻译方向。

  • 手机端本地运行:下载模型后即可完全离线翻译,无需网络连接,不消耗流量。

  • 后台取词翻译:配套Demo支持”后台取词模式”,在浏览网页、查看邮件时可随时调用翻译。

  • 文本实时翻译:输入或粘贴文本后快速生成翻译结果,支持复制输出。

  • 多语言方向切换:支持任意语言对之间的双向翻译切换。

Hy-MT1.5-1.8B-1.25bit的技术原理

  • 基础模型:基于腾讯混元翻译大模型 Hy-MT1.5-1.8B(1.8B参数),该模型通过”通用预训练→MT定向预训练→监督微调→在线蒸馏→强化学习”多阶段训练框架打造。

  • Sherry 稀疏三值量化(1.25-bit):采用细粒度稀疏策略,每4个参数中3个用1-bit存储(取值为-1或1),1个置为0,平均每个参数仅需 1.25 bit。

  • STQ 专用内核:腾讯专为手机CPU设计的稀疏三值量化推理内核,完美适配 SIMD 指令集,实现高效解码。

  • 量化感知训练(QAT):通过训练中的分布对齐与偏移优化,缓解超低比特量化带来的精度损失。

  • GRPO 强化学习:采用Group Relative Policy Optimization算法,结合多维度评分标准(准确性、流畅度、一致性、文化适配性、可读性)优化翻译质量。

如何使用Hy-MT1.5-1.8B-1.25bit

  • 下载安装:从魔搭社区 https://modelscope.cn/models/AngelSlim/Hy-MT1.5-1.8B-1.25bit-GGUF/resolve/master/Hy-MT-demo.apk 或 HuggingFace 下载 Demo APK 并安装。

  • 启动加载:首次打开自动加载 440MB 模型,加载完成后即可使用。

  • 文本翻译:输入或粘贴文本,点击 Translate 可离线翻译;点击底部语言栏可切换翻译方向。

  • 后台取词:在其他 App 中长按选中文本,选择”离线翻译”,悬浮窗直接显示结果,无需跳转。

Hy-MT1.5-1.8B-1.25bit的关键信息和使用要求

  • 发布方:腾讯混元团队

  • 模型参数:1.8B

  • 量化精度:1.25-bit(Sherry稀疏三值量化)

  • 模型体积:440MB

  • 支持平台:安卓(Demo版),iOS正式版后续支持

  • 开源协议:模型权重、代码、技术报告全面开源

  • 系统:安卓手机(Demo版暂不支持iOS)

  • 内存:建议8GB及以上(演示设备为骁龙865/888/7+Gen2,8GB/16GB内存)

  • 存储:预留约500MB空间下载模型

  • 网络:首次下载模型需联网,之后可完全离线使用

Hy-MT1.5-1.8B-1.25bit的核心优势

  • 极致轻量化:模型仅 440MB,原始FP16版本为3.3GB,压缩比约 7.5倍,普通手机可常驻后台。

  • 翻译质量高:在Flores-200、WMT25等基准上,1.8B原始模型已超越谷歌翻译、百度翻译、微软翻译等商业API和Tower-Plus-72B、Qwen3-32B等更大开源模型;1.25bit量化版在保持极小体积的同时,质量损失可控。

  • 推理速度快:配合STQ内核,在骁龙888手机上翻译速度比FP16版本快约 8倍(1.9秒 vs 58.2秒)。

  • 全离线零隐私:完全本地处理,无需上传任何数据,无订阅费用,一次下载永久使用。

  • 硬件适配友好:1.25bit方案对SIMD指令集友好,全系安卓机型均可流畅运行。

Hy-MT1.5-1.8B-1.25bit的项目地址

  • HuggingFace模型库:https://huggingface.co/AngelSlim/Hy-MT1.5-1.8B-1.25bit
  • arXiv技术论文:https://arxiv.org/pdf/2512.24092

Hy-MT1.5-1.8B-1.25bit的同类竞品对比

对比维度Hy-MT1.5-1.8B-1.25bitTower-Plus-72B谷歌翻译 (Google Translate API)
产品定位端侧离线翻译大模型开源翻译专用大模型商业云端翻译服务
发布方腾讯混元Unbabel / 社区Google
模型体积440 MB145 GB云端部署(无本地体积)
参数量1.8B72B未公开
运行方式手机本地离线运行需服务器 / A100 等高性能 GPU云端 API 调用
联网需求❌ 完全不需要✅ 需部署在服务器✅ 必须联网
支持语言33 种 + 5 种方言/民汉多语言100+ 种语言
Flores-200 (ZH↔XX)82.279.769.3
Flores-200 (EN↔XX)87.486.277.0
WMT2557.041.038.9
Minority↔Mandarin59.135.433.4
推理速度极快(骁龙888仅 1.9 秒慢(72B 大模型推理成本高)依赖网络延迟(通常 1–3 秒)

Hy-MT1.5-1.8B-1.25bit的应用场景

  • 境外出行:无网络环境(偏远地区、飞机、地铁)下的菜单、路牌、对话实时翻译,解决境外信号不稳定痛点。

  • 商务办公:离线处理涉外邮件、合同文档,敏感商业信息完全本地处理,杜绝数据上传风险。

  • 少数民族沟通:支持藏语、蒙古语、维吾尔语等民汉互译,服务边疆地区日常交流与政务办理。

  • 学术研究:本地阅读外文文献、论文,随时取词翻译,保护学术隐私与知识产权。

  • 日常阅读:离线浏览外文网页、社交媒体、电子书,无需流量即可获取高质量译文。

© 版权声明

相关文章