• <samp id="aosye"><tbody id="aosye"></tbody></samp>
  • <li id="aosye"><center id="aosye"></center></li>
  • <ul id="aosye"><pre id="aosye"></pre></ul>
    <tr id="aosye"></tr>
    <ul id="aosye"></ul>
    <samp id="aosye"></samp>
    您的位置:首頁 > 娛樂 >

    《狂飆》孟德海原臺詞到底是啥?看個劇還得會唇語?|當前熱門

    這個春節,你《狂飆》了嗎?

    這部口碑好劇,卻在昨天突然變成“亂飆”,劇情(罕見地)無法自圓其說。大量的后期配音,使得孟德海“說話和口型對不上”。

    觀眾將劇情混亂歸結于后期的劇本改動,并努力讀唇語對口型,試圖找回原本的走向。因為這關系著重要任務“孟德海”是白還是黑,是大義滅親的好書記,還是黑社會的保護傘。


    【資料圖】

    狂飆一下變亂飆,大家都猜起原劇情了

    比如勸說女婿楊健自首這一段,配音為“必須要為自己犯過的錯負責”,而口型更像“這也是沒辦法”……

    孟德海你到底說了啥啊!|《狂飆》

    讀唇語,讀的不止是唇

    猜原劇情走向是唇讀應用的新型場景。實際上,對于有聽覺障礙的朋友來說,唇讀是一種重要的交流方式。哪怕有助聽器的幫助,視覺輔助也可以讓他們“聽”得更清楚。聽力正常的人也常常會用到唇讀——想一想,在嘈雜的餐館里,為了聽清楚別人說的話,你是不是也會不自覺地盯著對方看。

    唇讀要讀的并不止是口唇,說話人的肌肉活動和面部表情也會提供許多信息;聽者將這些視覺信息與大腦中儲存的詞語相聯系和比較,從而理解說話人的語義。

    說是“理解”,但在實際操作中卻可能是“誤解”,許多因素都會影響唇讀的正確率。例如,以聾校學生為對象的幾項研究發現,讀出韻母比讀出聲母更容易;而對于/a/、/i/、/e/這樣的不圓唇音,判斷正確率則比/o/、/u/、/ü/這樣的圓唇音更高。

    僅僅判斷單個聲母或韻母已經很難了,研究顯示準確率通常僅為50%~70%。實際場景中的應用更復雜:漢語里的4個聲調,無法通過口唇形狀判斷;上下文的聯系,需要讀唇語的人靠語言理解能力和判斷推理能力自行推測。

    唇讀是聾校教學的內容之一,需要的不僅是視覺感受能力和語言理解能力,還有培養判斷推理能力;而且需要注意力高度集中才能完成。既然人工學習困難重重,那人工智能能不能助一臂之力呢?

    AI讀唇語

    準確率高達93.4%?

    在學唇語上,AI確實已經比普通人牛掰不少了。2016年11月,牛津大學訓練了一個AI,叫Lipnet。Lipnet在唇讀測試中達到了93.4%的準確度,遠遠把人類52.3%的成績甩在身后;而且,它還能幾乎實時地將無聲視頻處理成文本。

    AI怎么識別唇語呢?它先從圖像中識別出人臉,提取人說話時口型變化的特征,通過嘴型特征來識別音素。音素是最小的語音單位,例如漢語中的韻母/a/就是一個音素,AI可以依據不同的發音動作來分析音素。識別口型對應的發音后,AI可以進一步識別單詞、句子,再將這些詞句放在大數據里搜索,來判斷哪個更可能是人會講出的話。例如,“我是天才”還是“我是甜菜”,大數據會證明,前者的可能性更大。

    Lipnet的表現看起來很不錯,但其實,它更像是一個只會一項指定動作的AI。訓練Lipnet的數據集有嚴重的局限性,這個數據集里雖然有成千上萬個短視頻,但視頻高度相似——都是統一由志愿者念的,每個視頻只有3秒鐘,連打光都差不多。更“作弊”的是,每個句子都遵循以下的模式:

    命令+顏色+介詞+字母+數字+副詞

    Place red at C zero again

    Set blue by A four please

    這樣的傻瓜句型讓AI能快速掌握規律。所以,即便測試的結果很不錯,也有很多人不買帳。

    仍在進化的唇讀AI

    在Lipnet面世的不久后,牛津大學(又是它!)和谷歌旗下研究人工智能的Deepmind合作開發,推出了另一個AI。這個AI識別唇語的準確率為46.8%,而在同一項測試里,專業唇讀者的準確率只有12.4%

    捕捉口型的變化來識別語句 | 參考文獻 [1]

    準確率降低了?并不是,相比于溫室花朵的Lipnet,這個AI算是野戰選手。訓練它的數據集來自BBC上千個小時的政治視頻,這里有不同的人、不同的口音和不同的打光,識別難度上了好幾個臺階。研究者認為,它是在“野生”環境里摸爬滾打出來的,表現已經非常出色。

    谷歌Deepmind聯合開發的AI實時識別新聞中的唇語|參考文獻 [1]

    國內也有類似的讀唇語軟件。2017年,搜狗推出了可以識別中文唇語的AI。搜狗AI開放平臺表示,他們的唇語識別在口語測試集上的準確率超過60%;在車載、智能家居的場景里,可以達到90%的準確率。不過最近兩年,國內外關于讀唇語AI的研究尚未有突破性的進展。

    一只成熟的唇語識別AI,在未來可以有很多應用。

    在背景音嘈雜的環境中,它可以準確識別對方在說什么,不管對方有沒有發出聲音。如果我們想在安靜的公共場合用語音交流,或者想偷偷使喚siri定個時、放首歌,甚至為了保密而只動口型,都可以用唇語識別。

    唇語識別也可以應用在身份認證中。現在的人臉識別系統,可能會被帶有人像的圖片、視頻蒙混過關;如果能將人臉識別和口令密碼相結合,并采用唇語識別技術進行檢測,安全性將會大為提高。

    當然, 對于好不容易看到一部劇情在線、演員在線的電視劇,唇語識別AI恐怕還是圓了劇粉心中“最精彩的故事線”。

    可惜的是,經過一番搜索,我們仍未找到能夠給任意視頻識別唇語的理想AI。所以,拜托科技公司搞快點,咱看點劇容易嗎!

    標簽: 人工智能 參考文獻 推理能力

    相關閱讀

    精彩放送