软件下载:GitHub Releases
Vosk 模型下载:Vosk Models
SOSV 模型下载: Shepra-ONNX SenseVoice Model
- 生成音频输出或麦克风输入的字幕
- 支持调用本地 Ollama 模型或云端 Google 翻译 API 进行翻译
- 跨平台(Windows、macOS、Linux)、多界面语言(中文、英语、日语)支持
- 丰富的字幕样式设置(字体、字体大小、字体粗细、字体颜色、背景颜色等)
- 灵活的字幕引擎选择(阿里云 Gummy 云端模型、本地 Vosk 模型、本地 SOSV 模型、还可以自己开发模型)
- 多语言识别与翻译(见下文“⚙️ 自带字幕引擎说明”)
- 字幕记录展示与导出(支持导出
.srt
和.json
格式)
软件已经适配了 Windows、macOS 和 Linux 平台。测试过的主流平台信息如下:
操作系统版本 | 处理器架构 | 获取系统音频输入 | 获取系统音频输出 |
---|---|---|---|
Windows 11 24H2 | x64 | ✅ | ✅ |
macOS Sequoia 15.5 | arm64 | ✅ 需要额外配置 | ✅ |
Ubuntu 24.04.2 | x64 | ✅ | ✅ |
macOS 平台和 Linux 平台获取系统音频输出需要进行额外设置,详见 Auto Caption 用户手册。
下载软件后,需要根据自己的需求选择对应的模型,然后配置模型。
识别效果 | 部署类型 | 支持语言 | 翻译 | 备注 | |
---|---|---|---|---|---|
Gummy | 很好😊 | 云端 / 阿里云 | 10 种 | 自带翻译 | 收费,0.54CNY / 小时 |
Vosk | 较差😞 | 本地 / CPU | 超过 30 种 | 需额外配置 | 支持的语言非常多 |
SOSV | 一般😐 | 本地 / CPU | 5 种 | 需额外配置 | 仅有一个模型 |
自己开发 | 🤔 | 自定义 | 自定义 | 自定义 | 根据文档使用 Python 自己开发 |
如果你选择使用 Vosk 或 SOSV 模型,你还需要配置自己的翻译模型。
注意:翻译不是实时的,翻译模型只会在每句话识别完成后再调用。
注意:使用参数量过大的模型会导致资源消耗和翻译延迟较大。建议使用参数量小于 1B 的模型,比如:
qwen2.5:0.5b
,qwen3:0.6b
。
使用该模型之前你需要确定本机安装了 Ollama 软件,并已经下载了需要的大语言模型。只需要将需要调用的大模型名称添加到设置中的 Ollama
字段中。
注意:Google 翻译 API 在部分地区无法使用。
无需任何配置,联网即可使用。
国际版的阿里云服务似乎并没有提供 Gummy 模型,因此目前非中国用户可能无法使用 Gummy 字幕引擎。
如果要使用默认的 Gummy 字幕引擎(使用云端模型进行语音识别和翻译),首先需要获取阿里云百炼平台的 API KEY,然后将 API KEY 添加到软件设置中或者配置到环境变量中(仅 Windows 平台支持读取环境变量中的 API KEY),这样才能正常使用该模型。相关教程:
Vosk 模型的识别效果较差,请谨慎使用。
如果要使用 Vosk 本地字幕引擎,首先需要在 Vosk Models 页面下载你需要的模型,并将模型解压到本地,并将模型文件夹的路径添加到软件的设置中。
使用 SOSV 模型的方式和 Vosk 一样,下载地址如下:https://github.com/HiMeditator/auto-caption/releases/tag/sosv-model
目前软件自带 3 个字幕引擎,正在规划新的引擎。它们的详细信息如下。
基于通义实验室Gummy语音翻译大模型进行开发,基于阿里云百炼的 API 进行调用该云端模型。
模型详细参数:
- 音频采样率支持:16kHz及以上
- 音频采样位数:16bit
- 音频通道数支持:单通道
- 可识别语言:中文、英文、日语、韩语、德语、法语、俄语、意大利语、西班牙语
- 支持的翻译:
- 中文 → 英文、日语、韩语
- 英文 → 中文、日语、韩语
- 日语、韩语、德语、法语、俄语、意大利语、西班牙语 → 中文或英文
网络流量消耗:
字幕引擎使用原生采样率(假设为 48kHz)进行采样,样本位深为 16bit,上传音频为为单通道,因此上传速率约为:
而且引擎只会获取到音频流的时候才会上传数据,因此实际上传速率可能更小。模型结果回传流量消耗较小,没有纳入考虑。
基于 vosk-api 开发。该字幕引擎的优点是可选的语言模型非常多(超过 30 种),缺点是识别效果比较差,且生成内容没有标点符号。
SOSV 是一个整合包,该整合包主要基于 Shepra-ONNX SenseVoice,并添加了端点检测模型和标点恢复模型。该模型支持识别的语言有:英语、中文、日语、韩语、粤语。
以下为备选模型,将根据模型效果和集成难易程度选择。
npm install
首先进入 engine
文件夹,执行如下指令创建虚拟环境(需要使用大于等于 Python 3.10 的 Python 运行环境,建议使用 Python 3.12):
cd ./engine
# in ./engine folder
python -m venv .venv
# or
python3 -m venv .venv
然后激活虚拟环境:
# Windows
.venv/Scripts/activate
# Linux or macOS
source .venv/bin/activate
然后安装依赖(这一步在 macOS 和 Linux 可能会报错,一般是因为构建失败,需要根据报错信息进行处理):
pip install -r requirements.txt
然后使用 pyinstaller
构建项目:
pyinstaller ./main.spec
注意 main.spec
文件中 vosk
库的路径可能不正确,需要根据实际状况配置(与 Python 环境的版本相关)。
# Windows
vosk_path = str(Path('./.venv/Lib/site-packages/vosk').resolve())
# Linux or macOS
vosk_path = str(Path('./.venv/lib/python3.x/site-packages/vosk').resolve())
此时项目构建完成,进入 engine/dist
文件夹可见对应的可执行文件。即可进行后续操作。
npm run dev
# For windows
npm run build:win
# For macOS
npm run build:mac
# For Linux
npm run build:linux