只需要5秒就能克隆出你的声音
2022-04-14 14:55:27    0    0    0
junjie
导读 只需要一段5秒钟的录音,就能将其他的文字转换成你的声音。Real-Time-Voice-Cloning该项目目前在git上以及接近30k的星,作者将克隆后的效果已经上传到youtube演示视频。遗憾的是这个项目只支持英文。 最近从这个项目中发展了一个中文的分支Realtime-Voice-Clone-Chinese,作者已经在效果上传到了bilibili演示视频 下面我就教大家如何在你的电脑上使用这个项目 #运行环境 - 系统:Windows、Linux - Python版本:3.7+ - pytorch版本:1.9.0 - GPU:可无 #环境搭建 - 创建虚拟环境 ``` conda create -n py3.9 python==3.9 ``` - clone项目到本地 ``` git clone https://github.com/babysor/Realtime-Voice-Clone-Chinese.git ``` - 安装项目所需要的库 ``` pip install -r requirements.txt ``` - 安装pytorch 根据pytorch官方的文档,选择适合你系统适应的安装方式,安装1.9.0版本 ``` https://pytorch.org/get-started/locally/ ``` - 安装webrtcvad ``` pip install webrtcvad-wheels ``` - 安装ffmpeg ``` 下载地址:https://ffmpeg.org/download.html#get-packages ``` 根据你的系统选择ffmpeg进行安装 #测试声音克隆的效果 - 下载预训练模型 百度网盘:https://pan.baidu.com/s/1PI-hM3sn5wbeChRryX-RCQ 提取码:2021 这里大家只需要下载synthesizer文件夹就行了,节省时间。其它的两个模型已经在项目里面了,下载好后将saved_models目录放到synthesizer目录下 - 启动工具箱 ``` #激活你的虚拟环境 activate py3.9 #进入到项目目录 cd Realtime-Voice-Clone-Chinese #启动UI界面 python demo_toolbox.py ``` ![title](/api/file/getImage?fileId=61ad78a72dcf7c771e000009) - 选择合成的模型 合成模型有两个可以选择,ceshi和mandarin。目前ceshi的效果要好些,所以最好选择这个模型。这两个模型都是基于adatatang_200zh数据集训练出来的 ![title](/api/file/getImage?fileId=61ad78b62dcf7c771e00000a) - 克隆声音 提供了两种克隆声音的方式,第一种是通过录音,第二种是通过上传一段音频。通过从说话人的声音中提取声音特征信息,然后再利用这些特征信息来合成新的声音 ![title](/api/file/getImage?fileId=61ad78d62dcf7c771e00000b) 在录完音和上传一段音频之后,在文字框内输入你想要的合成声音的文字,再点击Synthesize and vocode就能开始合成声音,合成完成之后会自动播放合成的声音。 合成后的声音中可能会包含一些杂音,点击export导出音频文件会自动过滤掉杂音。 -异常情况 在点击Synthesize and vocode之后,在输出信息报错 ![title](/api/file/getImage?fileId=61ad78e32dcf7c771e00000c) 我这里是没有问题的,错误信息如下所示 ``` RuntimeError: Error(s) in loading state_dict for Tacotron: size mismatch for encoder.embedding.weight: copying a param with shape torch.Size([70, 512]) from checkpoint, the shape in current model is torch.Size([75, 512]). ``` 或者没有报错,但是合成的声音中全是杂音没有人声,需要做下面的修改,打开Realtime-Voice-Clone-Chinese\synthesizer\utils目录下的symbols.py文件 ![title](/api/file/getImage?fileId=61ad78f22dcf7c771e00000d) 将11行的代码注释掉,改成下面的代码 ``` _characters = 'ABCDEFGHIJKLMNOPQRSTUVWXYZabcdefghijklmnopqrstuvwxyz12340!\'(),-.:;? ' ``` #训练自己的模型 - 下载或者准备你想使用的数据集 - 数据集的预处理 需要使用梅尔频谱图对音频进行预处理 ``` python synthesizer_preprocess_audio.py ``` 可以传入参数 --dataset {dataset} 支持adatatang_200zh,magicdata,aishell3如果是其他格式的数据集,可以将格式转换为上面这几种。 > 如果你的aidatatang_200zh文件放在D盘,train文件路径为 D:\data\aidatatang_200zh\corpus\train , 你的datasets_root就是 D:\data\ - 预处理嵌入 ``` python synthesizer_preprocess_embeds.py /SV2TTS/synthesizer ``` - 训练合成模型 ``` python synthesizer_train.py mandarin /SV2TTS/synthesizer ``` #总结 从我目前的使用效果来看,合成声音的效果音色更像是数据集中的,和自己的还是有一定差距的。而且,对于一些数字和英文的效果不太理想。初步猜测应该是因为数据集的问题,毕竟训练模型的数据只有 .200h,而且数据中可能对于数字和英文覆盖的还不够。 建议:如果想要获得更好效果的模型,需要使用更大的数据集同时也要保证数据集的质量要高才行。 ———————————————— 版权声明:本文为CSDN博主「修炼之路」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。 原文链接:https://blog.csdn.net/sinat_29957455/article/details/119963719

上一篇: Scrapy详解之Response

下一篇: "153"投放公式

Table of content