女厕厕露p撒尿八个少妇,欧洲亚洲精品a片久久99果冻,伸进内衣揉捏她的乳尖,俄罗斯美女视频

網(wǎng)絡消費網(wǎng) >  5G > > 正文
2019深度學習語音合成指南
時間:2022-01-30 10:22:01

雷鋒網(wǎng)AI科技評論編者按:人工合成人類語音被稱為語音合成。這種基于機器學習的技術適用于文本轉換語音(text-to-speech)、音樂生成、語音生成、語音支持設備、導航系統(tǒng)以及為視障人士提供無障礙服務。

在這篇文章中,我們將研究基于深度學習而進行的研究或模型框架。

在我們正式開始之前,我們需要簡要概述一些特定的、傳統(tǒng)的語音合成策略:拼接和參數(shù)化。

拼接方法,需要使用大型數(shù)據(jù)庫中的語音來拼接生成新的可聽語音。在需要不同語音風格的情況下,必須使用新的音頻數(shù)據(jù)庫,這極大的限制了這種方法的可擴展性。

參數(shù)化方法則是用一條記錄下的人的聲音以及一個含參函數(shù),通過調節(jié)函數(shù)參數(shù)來改變語音。

這兩種方法代表了傳統(tǒng)的語音合成方法?,F(xiàn)在讓我們來看看使用深度學習的新方法。為了探索當前流行的語音合成方法,我們研究了這些:

●WaveNet: 原始音頻生成模型

●Tacotron:端到端的語音合成

●Deep Voice 1:實時神經(jīng)文本語音轉換

●Deep Voice 2:多說話人神經(jīng)文本語音轉換

●Deep Voice 3:帶有卷積序列學習的尺度文本語音轉換

●Parallel WaveNet:快速高保真語音合成

●利用小樣本的神經(jīng)網(wǎng)絡語音克隆

●VoiceLoop:通過語音循環(huán)進行語音擬合與合成

●利用梅爾圖譜預測上的條件WaveNet進行自然TTS合成

WaveNet:原始音頻生成模型

這篇文章的作者來自谷歌。他們提出了一種能產(chǎn)生原始音頻波的神經(jīng)網(wǎng)絡。他們的模型是完全概率的和自回歸的,在英語和漢語的text-to-speech上都取得了最先進的結果。

文章鏈接: https://arxiv.org/abs/1609.03499

圖1

WaveNET是基于PixelCNN的音頻生成模型,它能夠產(chǎn)生類似于人類發(fā)出的聲音。

圖2

在這個生成模型中,每個音頻樣本都以先前的音頻樣本為條件。條件概率用一組卷積層來建模。這個網(wǎng)絡沒有池化層,模型的輸出與輸入具有相同的時間維數(shù)。

圖3

在模型架構中使用臨時卷積可以確保模型不會違反數(shù)據(jù)建模的順序。在該模型中,每個預測語音樣本被反饋到網(wǎng)絡上用來幫助預測下一個語音樣本。由于臨時卷積沒有周期性連接,因此它們比RNN訓練地更快。

使用臨時卷積的主要挑戰(zhàn)之一是,它們需要很多層來增加感受野。為了解決這一難題,作者使用了加寬的卷積。加寬的卷積使只有幾層的網(wǎng)絡能有更大的感受野。模型使用了Softmax分布對各個音頻樣本的條件分布建模。

圖4

這個模型在多人情景的語音生成、文本到語音的轉換、音樂音頻建模等方面進行了評估。測試中使用的是平均意見評分(MOS),MOS可以評測聲音的質量,本質上就是一個人對聲音質量的評價一樣。它有1到5之間的數(shù)字,其中5表示質量最好。

圖5

下圖顯示了1-5級waveNet的語音質量:

圖6

Tacotron:端到端的語音合成

這篇文章的作者來自谷歌。 Tacotron是一種端到端的生成性文本轉化語音的模型,可直接從文本和音頻對合形成語音。Tacotron在美式英語上獲得3.82分的平均得分。Tacotron是在幀級生成語音,因此比樣本級自回歸的方法更快。

文章鏈接:https://arxiv.org/abs/1703.10135

這個模型是在音頻和文本對上進行的訓練,因此它可以非常方便地應用到新的數(shù)據(jù)集上。Tacotron是一個seq2seq模型,該模型包括一個編碼器、一個基于注意力的解碼器以及一個后端處理網(wǎng)絡(post-processing net)。如下框架圖所示,該模型輸入字符,輸出原始譜圖。然后把這個譜圖轉換成波形圖。

圖7

下圖顯示了CBHG模塊的結構。它由1-D卷積濾波器,highway networks和雙向GRU(Gated Recurrent Unit)組成。

圖8

將字符序列輸入編碼器,編碼器將提取出文本的順序表示。每個字符被表示為一個獨熱向量嵌入到連續(xù)向量中。然后加入非線性變換,再然后加上一個dropout,以減少過度擬合。這在本質上減少了單詞的發(fā)音錯誤。

模型所用的解碼器是基于內(nèi)容注意力的tanh解碼器。然后使用Griffin-Lim算法生成波形圖。該模型使用的超參數(shù)如下所示。

圖9

下圖顯示了與其他替代方案相比,Tacotron的性能優(yōu)勢。

圖10

Deep Voice 1:實時神經(jīng)文本到語音合成

這篇文章的作者來自百度硅谷人工智能實驗室。Deep Voice是一個利用深度神經(jīng)網(wǎng)絡開發(fā)的文本到語音的系統(tǒng).

文章鏈接:https://arxiv.org/abs/1702.07825

它有五個重要的組成模塊:

●定位音素邊界的分割模型(基于使用連接時間分類(CTC)損失函數(shù)的深度神經(jīng)網(wǎng)絡);

●字母到音素的轉換模型(字素到音素是在一定規(guī)則下產(chǎn)生單詞發(fā)音的過程);

●音素持續(xù)時間預測模型;

●基頻預測模型;

●音頻合成模型(一個具有更少參數(shù)的WaveNet變體)。

圖11

字母到音素模型將英文字符轉換為音素。分割模型識別每個音素在音頻文件中開始和結束的位置。音素持續(xù)時間模型預測音素序列中每個音素的持續(xù)時間。

基頻模型預測音素是否發(fā)聲。音頻合成模型則綜合了字母到音素轉換模型、音素持續(xù)時間模型、基頻預測模型等的輸出進行音頻合成。

以下是它與其他模型的對比情況:

圖12

Deep Voice 2:多說話人神經(jīng)文本語音轉換

這篇文章是百度硅谷人工智能實驗室在Deep Voice上的二次迭代。他們介紹了一種利用低維可訓練說話人嵌入來增強神經(jīng)文本到語音的方法,這可以從單個模型產(chǎn)生不同的聲音。

該模型與DeepVoice 1有類似的流水線,但它在音頻質量上卻有顯著的提高。該模型能夠從每個說話人不到半個小時的語音數(shù)據(jù)中學習數(shù)百種獨特的聲音。

文章鏈接:https://arxiv.org/abs/1705.08947

作者還介紹了一種基于WaveNet的聲譜到音頻的神經(jīng)聲碼器,并將其與Taco tron結合,代替Griffin-Lim音頻生成。這篇文章的重點是處理多個說話人而每個說話人的數(shù)據(jù)有非常少的情況。模型的架構類似于Deep Voice 1,訓練過程如下圖所示。

圖13

Deep Voice 2和Deep Voice 1之間的主要區(qū)別在于音素持續(xù)時間模型和頻率模型的分離。 Deep Voice 1有一個用于聯(lián)合預測音素持續(xù)時間和頻率曲線的單一模型; 而在Deep Voice 2中,則先預測音素持續(xù)時間,然后將它們用作頻率模型的輸入。

Deep Voice 2中的分割模型使用一種卷積遞歸結構(采用連接時間分類(CTC)損失函數(shù))對音素對進行分類。Deep Voice 2的主要修改是在卷積層中添加了大量的歸一化和殘余連接。它的發(fā)聲模型是基于WaveNet架構的。

從多個說話人合成語音,主要通過用每個說話人的單個低維級說話人嵌入向量增強每個模型來完成的。說話人之間的權重分配,則是通過將與說話人相關的參數(shù)存儲在非常低維的矢量中來實現(xiàn)。

遞歸神經(jīng)網(wǎng)絡(RNN)的初始狀態(tài)由說話人聲音的嵌入產(chǎn)生。采用均勻分布的方法隨機初始化說話人聲音的嵌入,并用反向傳播對其進行聯(lián)合訓練。說話人聲音的嵌入包含在模型的多個部分中,以確保能考慮到每個說話人的聲音特點。

圖14

接下來讓我們看看與其他模型相比它的性能如何:

圖15

Deep Voice 3:利用卷積序列學習將文本轉換為語音

文章鏈接:https://arxiv.org/abs/1710.07654

這篇文章的作者提出了一種全卷積字符到譜圖的框架,可以實現(xiàn)完全并行計算。該框架是基于注意力的序列到序列模型。這個模型在LibriSpeech ASR數(shù)據(jù)集上進行訓練。

這個模型的結構能夠將字符、音素、重音等文本特征轉換成不同的聲碼器參數(shù),其中包括Mel波段光譜圖、線性比例對數(shù)幅度譜圖、基頻譜圖、譜包絡圖和非周期性參數(shù)。然后將這些聲碼器參數(shù)作為音頻波形合成模型的輸入。

圖16

模型的結構由以下幾個部分組成:

●編碼器:一種全卷積編碼器,可將文本特征轉換為內(nèi)部學習表示。

●解碼器:一種全卷積因果解碼器,以自回歸的方式解碼學習表示。

●轉換器:一種全卷積后處理網(wǎng)絡,可預測最終的聲碼器參數(shù)。

對于文本預處理,作者的處理方式包括:大寫文本輸入字符,刪除標點符號,以句號或問號結束每句話,并用表示停頓長度的特殊字符替換空格。

下圖是該模型與其他替代模型的性能比較。

圖17

關鍵詞:

版權聲明:
    凡注明來網(wǎng)絡消費網(wǎng)的作品,版權均屬網(wǎng)絡消費網(wǎng)所有,未經(jīng)授權不得轉載、摘編或利用其它方式使用上述作品。已經(jīng)本網(wǎng)授權使用作品的,應在授權范圍內(nèi)使用,并注明"來源:網(wǎng)絡消費網(wǎng)"。違反上述聲明者,本網(wǎng)將追究其相關法律責任。
    除來源署名為網(wǎng)絡消費網(wǎng)稿件外,其他所轉載內(nèi)容之原創(chuàng)性、真實性、完整性、及時性本站不作任何保證或承諾,請讀者僅作參考并自行核實。
熱文

網(wǎng)站首頁 |網(wǎng)站簡介 | 關于我們 | 廣告業(yè)務 | 投稿信箱
 

Copyright © 2000-2020 www.ksmtzm.com All Rights Reserved.
 

中國網(wǎng)絡消費網(wǎng) 版權所有 未經(jīng)書面授權 不得復制或建立鏡像
 

聯(lián)系郵箱:920 891 263@qq.com

備案號:京ICP備2022016840號-15

營業(yè)執(zhí)照公示信息

一边摸一边做爽的视频17国产| 黄桃av无码免费一区二区三区| 美女扒开尿口让男人桶| 精品人妻av一区二区三区| 精品少妇人妻av一区二区三区 | 哦┅┅快┅┅用力啊┅┅| 国产精品久久久久久人妻| 国产真实伦熟女实例hd| 国产老师色诱我好爽在线观看| 我和公发生了性关系视频| 成人免费电影网站| 天堂网在线观看| 在线永久看片免费的视频| 躺着把jiji向上摁平然后揉搓| 精品少妇人妻av无码专区偷人| 国产精品人成视频免费播放| 两男一女两根同进去舒服吗| 美女直播全婐app免费| yin荡的人妻美妇系列| 日韩精品无码一区二区中文字幕| 男女高潮又爽又黄又无遮挡| 国产在线视频一区二区三区| 少妇扒开粉嫩小泬视频| 一边摸一边抽搐一进一出视频 | 久久久久夜夜夜精品国产| 大肉蒂被嘬的好爽h娇门吟| 无码刺激性a片短视频| 天天躁日日躁狠狠躁av麻豆| WWW色情成人免费视频软件| 麻豆亚洲av熟女国产一区二 | 亚洲精品无码久久久| 18gay男同69亚洲帅男蓝宇| 把腿扒开让我添30分钟视频| 巨粗进入警花哭喊求饶| 被几个领导玩弄一晚上| 国内精品久久毛片一区二区| 和子发生了性关系的免费视频 | 99久久久无码国产精品免费| 午夜福利1000集福利92| 69精品丰满人妻无码视频a片| 亚洲av永久无码精品天堂d2|