收起左侧

SubtitlePipeline:全自动语言识别生成字幕并翻译入库

0
回复
66
查看
[ 复制链接 ]

2

主题

4

回帖

0

牛值

江湖小虾

SubtitlePipeline(https://github.com/saaak/SubtitlePipeline) 是一个 Docker 部署的服务,指定媒体目录后全自动完成:扫描视频 → 提取音频 → WhisperX 语音识别 → LLM 翻译 → 生成 .srt 字幕。 自动为媒体库中的每个视频生成中文字幕,输出到视频同目录,同时支持配置生成的字幕文件名格式(影片.zh.srt 、影片.forced.zh.srt 等),这样就可以自动挂载到 Jellyfin / Emby / Plex 等流媒体服务器。

Docker Compose 启动

docker compose up --build -d

挂载目录

路径 用途
/data 输入视频文件(你的媒体库目录)
/output 备用输出目录
/models WhisperX 模型存储
/config SQLite 数据库和配置

实测过程中使用了一个近 3 小时的视频,用的 whisper 的 small 模型。在 i5-12490f 下语音转文字跑了 20 分钟左右,剩下的翻译等步骤很快,总共用时 20 分钟多点。small 模型效果就那样吧,识别效果一般,不过基本上能看懂意思了。 有些大模型 API 会拦截 NSFW 内容的翻译,可以通过配置自定义 system prompt 解决。

测试视频

最终的效果如下图所示,基本能看懂在讲啥

最终效果

收藏
送赞
分享
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则