Translation server
npm install mtranserver中文 | English | 日本語 | Français | Deutsch
一个超低资源消耗速度超快的离线翻译模型服务器,无需显卡。单个请求平均响应时间 50 毫秒。支持全世界主要语言的翻译。
注意本模型服务器专注于离线翻译、响应速度、跨平台部署、本地运行 达到 无限免费翻译 的设计目标,受限于模型大小和优化程度,所以翻译质量肯定是不如大模型翻译的效果。需要高质量的翻译建议使用在线大模型 API。
> v4 优化了内存占用,速度进一步提升,增强了稳定性,如果你在使用旧版建议立即升级!

| 网站 | TOKEN | 其他接口 | 提供者 |
| ---------------------------------------------------------------------------- | ------------------------- | ------------------------------------------------------------------------------ | ------------------------------------ |
| ipacel.cc | __IpacEL_MT_API_TOKEN__ | 沉浸式翻译: https://MTranServer.ipacel.cc/imme?token=__IpacEL_MT_API_TOKEN__ | @ApliNi |
感谢社区贡献者为用户提供试用服务!
现在支持桌面端一键启动!支持 Windows、Mac、Linux。
#### 手动下载
前往 Releases 下载对应平台最新桌面端,直接安装启动,即可使用。
桌面端启动后会创建一个托盘菜单,通过菜单可以方便的管理服务。
程序自带的一个简单 UI 的地址和在线调试文档。
具体使用说明可以直接跳转到 生态项目
预览(最新版有更新):
!UI
!文档
推荐使用桌面端或者 Docker 部署,性能更佳使用方便。服务端手动部署供专业用户使用。
#### 快速开始
程序员朋友可以通过命令行直接启动服务器端:
``bash`
npx mtranserver@latest
> npx 可以替换为你喜欢的任意一个包管理器,比如 bunx、pnpx 等。
> 重要提示:
>
> 首次翻译某个语言对时,服务器会自动下载对应的翻译模型(除非启用了离线模式),这个过程可能需要等待一段时间(取决于网络速度和模型大小)。
> 模型下载完成后,翻译请求将享受毫秒级的响应速度。建议在正式使用前先测试一次翻译,让服务器预先下载和加载模型。程序经常更新,如果遇到问题,可以尝试更新到最新版本。
#### 快速安装
`bash`
npm i -g mtranserver@latest
> npm 可以替换为你喜欢的任意一个包管理器,比如 bun、pnpm 等。
然后启动 mtranserver 即可。
#### Docker Compose 部署
找一个空目录,编写 compose.yml 文件,内容如下:
`yml`
services:
mtranserver:
image: xxnuo/mtranserver:latest
container_name: mtranserver
restart: unless-stopped
ports:
- "8989:8989"
environment:
- MT_HOST=0.0.0.0
- MT_PORT=8989
- MT_OFFLINE=false
# - MT_API_TOKEN=your_secret_token_here
volumes:
- ./models:/app/models
`bash`
docker pull xxnuo/mtranserver:latest
docker compose up -d
#### MTranCode 代码注释翻译插件
支持 VS Code、Cursor、Augment 等 VS Code 系列 IDE
在插件商店搜索 MTranCode 即可安装注释翻译插件
插件默认接口会调用 http://localhost:8989 接口的服务器进行注释、代码的翻译,可在设置中调整。
该插件由 vscode-comment-translate fork 而来。
#### MTranBrowser
TODO: 火热开发中
> 如果你开发了衍生项目,欢迎提交 PR,我会在生态项目中添加你的项目。
> 对了项目已经发布到 npm 包,可以直接在其他程序中调用简单的库接口实现翻译功能,具体信息查看 ts 类型说明。
服务器提供了多个翻译插件的兼容接口:
| 接口 | 方法 | 说明 | 支持的插件 |
| ------------------------------- | ---- | ---------------------------------- | --------------------------------------------------------------------------- |
| /imme | POST | 沉浸式翻译插件接口 | 沉浸式翻译 |/kiss
| | POST | 简约翻译插件接口 | 简约翻译 |/deepl
| | POST | DeepL API v2 兼容接口 | 支持 DeepL API 的客户端 |/deeplx
| | POST | DeepLX 兼容接口 | 支持 DeepLX 接口的客户端 |/hcfy
| | POST | 划词翻译兼容接口 | 划词翻译 |/hcfy
| | POST | 划词翻译兼容接口 | 划词翻译 |/google/language/translate/v2
| | POST | Google Translate API v2 兼容接口 | 支持 Google Translate API 的客户端 |/google/translate_a/single
| | GET | Google translate_a/single 兼容接口 | 支持 Google 网页翻译的客户端 |
插件配置说明:
> 注:
>
> - 沉浸式翻译 在设置页面,开发者模式中启用Beta特性,即可在翻译服务中看到自定义 API 设置(官方图文教程)。然后将自定义 API 设置的每秒最大请求数拉高以充分发挥服务器性能准备体验飞一般的感觉。我设置的是每秒最大请求数为512,每次请求最大段落数为1。你可以根据自己服务器配置设置。设置
>
> - 简约翻译 在页面,接口设置中滚动到下面,即可看到自定义接口 Custom。同理,设置最大请求并发数量、每次请求间隔时间以充分发挥服务器性能。我设置的是最大请求并发数量为100,每次请求间隔时间为1。你可以根据自己服务器配置设置。
>
> 接下来按下表的设置方法设置插件的自定义接口地址。
| 名称 | URL | 插件设置 |
| ---------------- | ---------------------------------------------------- | --------------------------------------------------------------- |
| 沉浸式翻译无密码 | http://localhost:8989/imme | 自定义API 设置 - API URL |http://localhost:8989/imme?token=your_token
| 沉浸式翻译有密码 | | 同上,需要更改 URL 尾部的 your_token 为你的 MT_API_TOKEN 值 |http://localhost:8989/kiss
| 简约翻译无密码 | | 接口设置 - Custom - URL |http://localhost:8989/kiss
| 简约翻译有密码 | | 同上,需要 KEY 填 your_token |http://localhost:8989/deepl
| DeepL 兼容 | | 使用 DeepL-Auth-Key 或 Bearer 认证 |http://localhost:8989/deeplx
| DeepLX 兼容 | | 支持 token 参数或 Bearer 认证 |http://localhost:8989/google/language/translate/v2
| Google 兼容 | | 使用 key 参数或 Bearer 认证 |http://localhost:8989/hcfy
| 划词翻译 | | 支持 token 参数或 Bearer 认证 |
普通用户参照表格内容设置好插件使用的接口地址就可以使用了。
`bash
./mtranserver [选项]
选项:
-version, -v 显示版本信息
-log-level string 日志级别 (debug, info, warn, error) (默认 "warn")
-config-dir string 配置目录 (默认 "~/.config/mtran/server")
-model-dir string 模型目录 (默认 "~/.config/mtran/models")
-host string 服务器监听地址 (默认 "0.0.0.0")
-port string 服务器端口 (默认 "8989")
-ui 启用 Web UI (默认 true)
-offline 启用离线模式,不自动下载新模型 (默认 false)
-worker-idle-timeout int Worker 空闲超时时间(秒) (默认 300)
--download pairs... 下载指定语言对的模型 (例如 --download en_zh zh_en)
--languages 列出所有支持下载的语言对
注意:--download 和 --languages 命令需要联网,无法在离线模式下工作。
示例:
./mtranserver --host 127.0.0.1 --port 8080
./mtranserver --ui --offline
./mtranserver -v
``
列出一些同类功能的项目,如果有其他需求的用户可以尝试这些项目:
| 项目名称 | 内存占用 | 并发性能 | 翻译效果 | 速度 | 其他信息 |
| ------------------------------------------------------------------ | -------- | -------- | -------- | ---- | --------------------------------------------------------------------------------------------------------------------------------- |
| NLLB | 很高 | 差 | 一般 | 慢 | 大佬移植到了 Android 的 RTranslator 有很多优化,但占用仍然高,速度也不快 |
| LibreTranslate | 很高 | 一般 | 一般 | 中等 | 中端 CPU 每秒处理 3 句,高端 CPU 每秒处理 15-20 句,详情 |
| OPUS-MT | 高 | 一般 | 略差 | 快 | 性能测试 |
| 其他大模型 | 超高 | 动态 | 非常好 | 很慢 | 对硬件要求很高,如果需要高并发翻译建议使用 vllm 框架 |
| 本项目 | 低 | 高 | 一般 | 极快 | 单个请求平均响应时间 50ms |
> 表中为 CPU、英译中场景下的简单测试,非严格测试,非量化版本对比,仅供参考。
请参考 API.md 文件和启动后的 API 文档。

Bergamot Project for awesome idea of local translation.