文档
使用文档

🚀 开始使用

📋 API 配置指南

本项目需使用大模型 和 TTS 。为确保最佳质量请使用 claude-3-5-sonnet-20240620 与 Azure TTS。如需快速体验可以使用 硅基流动 (opens in a new tab),注册送积分,只需要一个 Key 即可体验全部功能。

1. 大模型的 API_KEY

推荐模型推荐提供商base_url价格效果
claude-3-5-sonnet-20240620302AI (opens in a new tab)https://api.302.ai (opens in a new tab)$7.5 / 1M tokens🤩
Qwen/Qwen2.5-72B-Instruct硅基流动 (opens in a new tab)https://api.siliconflow.cn (opens in a new tab)¥4 / 1M tokens😃

注:支持 Openai 格式接口,可自行尝试不同模型。但处理过程涉及多步思维链和复杂的json格式,不建议使用小于 30B 的模型

2. TTS 的 API

VideoLingo提供了多种 tts 接入方式,以下是对比(如不使用配音仅翻译请跳过)

TTS 方案优点缺点中文效果非中文效果
🎙️ SiliconFlow FishTTS支持克隆配置简单克隆效果不稳定😃😃
🎙️ OpenAI TTS情感真实中文听起来像外国人😕🤩
🔊 Azure TTS(推荐)效果自然情感不够丰富🤩😃
🎤 Fish TTS真是本地人官方模型有限😂😂
🗣️ GPT-SoVITS最强语音克隆只支持中英文,需要本地推理,配置麻烦🏆🚫
SiliconFlow FishTTS 使用教程

目前支持 3 种模式:

  1. preset: 使用固定音色,可以在 官网Playground (opens in a new tab) 试听,默认 anna
  2. clone(stable): 对应 fishtts api 的 custom,使用一段上传音频的音色,会自动采集视频前十秒声音作为音色使用,音色一致性更好。
  3. clone(dynamic): 对应 fishtts api 的 dynamic,在 tts 过程使用每一句作为参考音频,可能出现音色不一致,但效果更好。
OpenAI 声音怎么选?

声音列表可以在 官网 (opens in a new tab) 找到,例如 alloy, echo, nova等,在 config.yaml 中修改 openai_tts.voice 即可。

Azure 声音怎么选?

建议在 在线体验 (opens in a new tab) 中试听选择你想要的声音,在右边的代码中可以找到该声音对应的代号,例如 zh-CN-XiaoxiaoMultilingualNeural

Fish TTS 声音怎么选?

前往 官网 (opens in a new tab) 中试听选择你想要的声音,在 URL 中可以找到该声音对应的代号,例如丁真是 54a5170264694bfc8e9ad98df7bd89c3,热门的几种声音已添加在 config.yaml 中。如需使用其他声音,请在 config.yaml 中修改 fish_tts.character_id_dict 字典。

GPT-SoVITS-v2 使用教程
  1. 前往 官方的语雀文档 (opens in a new tab) 查看配置要求并下载整合包。

  2. GPT-SoVITS-v2-xxxVideoLingo 放在同一个目录下。注意是两文件夹并列。

  3. 选择以下任一方式配置模型:

    a. 自训练模型:

    • 训练好模型后, GPT-SoVITS-v2-xxx\GPT_SoVITS\configs 下的 tts_infer.yaml 已自动填写好你的模型地址,将其复制并重命名为 你喜欢的英文角色名.yaml
    • 在和 yaml 文件同个目录下,放入后续使用的参考音频,命名为 你喜欢的英文角色名_参考音频的文字内容.wav.mp3,例如 Huanyuv2_你好,这是一条测试音频.wav
    • 在 VideoLingo 网页的侧边栏中,将 GPT-SoVITS 角色 配置为 你喜欢的英文角色名

    b. 使用预训练模型:

    • 这里 (opens in a new tab) 下载我的模型,解压后覆盖到 GPT-SoVITS-v2-xxx
    • GPT-SoVITS 角色 配置为 Huanyuv2

    c. 使用其他训练好的模型:

    • xxx.ckpt 模型文件放在 GPT_weights_v2 文件夹下,将 xxx.pth 模型文件放在 SoVITS_weights_v2 文件夹下。

    • 参考方法 a,重命名 tts_infer.yaml 文件,并修改文件中的 custom 部分的 t2s_weights_pathvits_weights_path 指向你的模型,例如:

      # 示例 法 b 的配置:
      t2s_weights_path: GPT_weights_v2/Huanyu_v2-e10.ckpt
      version: v2
      vits_weights_path: SoVITS_weights_v2/Huanyu_v2_e10_s150.pth
    • 参考方法 a,在和 yaml 文件同个目录下,放入后续使用的参考音频,命名为 你喜欢的英文角色名_参考音频的文字内容.wav.mp3,例如 Huanyuv2_你好,这是一条测试音频.wav,程序会自动识别并使用。

    • ⚠️ 警告:请使用英文命名 角色名 ,否则会出现错误。 参考音频的文字内容 可以使用中文。目前仍处于测试版,可能产生报错。

    # 期望的目录结构:
    .
    ├── VideoLingo
    │   └── ...
    └── GPT-SoVITS-v2-xxx
        ├── GPT_SoVITS
        │   └── configs
        │       ├── tts_infer.yaml
        │       ├── 你喜欢的英文角色名.yaml
        │       └── 你喜欢的英文角色名_参考音频的文字内容.wav
        ├── GPT_weights_v2
        │   └── [你的GPT模型文件]
        └── SoVITS_weights_v2
            └── [你的SoVITS模型文件]

配置完成后,注意在网页侧边栏选择 参考音频模式(具体原理可以参考语雀文档),VideoLingo 在配音步骤时会自动在弹出的命令行中打开 GPT-SoVITS 的推理 API 端口,配音完成后可手动关闭。注意,此方法的稳定性取决于选择的底模。

🛠️ 快速上手

VideoLingo 支持 Windows、macOS 和 Linux 系统,可使用 CPU 或 GPU 运行。

对于 Windows 系统使用 GPU 加速,需要安装以下依赖:

注意:安装后需要将 C:\Program Files\NVIDIA\CUDNN\v9.3\bin\12.6 添加至系统环境变量,并重启计算机 🔄

Windows 一键安装

请确保已安装 Git (opens in a new tab)

  1. 下载源码到本地

  2. (可选)应用汉化补丁:

    • 打开项目根目录下的 i18n/中文 文件夹
    • 将该文件夹中的所有内容复制到项目根目录
    • 在弹出的提示中选择"替换目标中的文件"
  3. 双击 OneKeyInstall&Start.bat 即可完成安装并启动网页

源码安装

开始安装 VideoLingo 之前,请确保:

  1. 预留 25G 硬盘空间
  2. 已安装 Anaconda (opens in a new tab) (用于 Python 环境管理)
  3. 已安装 Git (opens in a new tab) (用于克隆项目代码,也可以手动下载)

需要一定的 python 基础,遇到任何问题可以询问官方网站 videolingo.io (opens in a new tab) 右下角的AI助手~

  1. 打开 Anaconda Prompt 并切换到你想安装的目录,例如桌面:

    cd desktop
  2. 克隆项目并切换至项目目录:

    git clone https://github.com/Huanshere/VideoLingo.git
    cd VideoLingo
  3. 创建并激活虚拟环境(必须 3.10.0):

    conda create -n videolingo python=3.10.0 -y
    conda activate videolingo
  4. (可选)应用汉化补丁:

    参照 一键安装 中的说明

    (注意:Mac系统会删除整个目标文件夹后再复制,而Windows只会替换重复的文件。Mac用户建议手动将文件逐个移动到目标位置)

  5. 运行安装脚本:

    python install.py

    脚本将自动安装相应的 torch 版本

  6. 🎉 输入命令或点击 一键启动.bat 启动 Streamlit 应用:

    streamlit run st.py
  7. 在弹出网页的侧边栏中设置key,开始使用~

    tutorial

  8. 转录步骤会自动从 huggingface 下载模型,也可以手动下载,将 _model_cache 文件夹放置在 VideoLingo 目录下:百度网盘 (opens in a new tab)

  9. (可选)更多设置可以在 config.yaml 中手动修改,运行过程请注意命令行输出

🚨 常见报错

  1. 翻译过程的 'Key Error':

    • 原因1:弱模型遵循JSON格式能力有误。
    • 原因2:对于敏感内容,LLM可能拒绝翻译。 解决方案:请检查 output/gpt_log/error.jsonresponsemsg 字段。
  2. 'Retry Failed', 'SSL', 'Connection', 'Timeout': 通常是网络问题。解决方案:中国大陆用户请切换网络节点重试。


2024 © VideoLingo.