美空雲雀死後 30週年,靠AI人工智慧在NHK紅白死而復生

「[NHKスペシャル] AIでよみがえる美空ひばり | 新曲 あれから | NHK」YouTube影片截圖

2019年12月31日的第 70屆NHK紅白歌合戰(紅白歌合戦)亮點之一,就是已故 30年的歌手美空雲雀(美空ひばり)將以「AI美空雲雀」之姿起死回生。

時間回到 3個月前的 2019年9月29日,NHK在【NHKスペシャル】節目上以〈靠AI復活的美空雲雀(AIでよみがえる美空ひばり,暫譯)〉為題,在電視上首次公開「AI美空雲雀」,獲得廣大迴響。「AI美空雲雀」更一度躍上日本Twitter的熱門關鍵字。

聲音合成+機器深度學習

「AI美空雲雀」採用YAMAHA的「VOCALOID:AI」聲音合成技術,利用機器深度學習(deep learning)的方式,將美空雲雀生前演唱的音檔進行分析,找出美空雲雀歌聲及演唱方式的波形特徵,打造一套只要輸入一段符合美空雲雀音域範圍的樂譜,就可以近似完美地仿造出美空雲雀歌聲的效果。

在這之前,「VOCALOID:AI」最為人所知的應用實例就是初音未來(初音ミク)。然而,「VOCALOID:AI」充其量只是聲音合成技術,如果想要模擬出美空雲雀的聲線,就必須要仰賴AI人工智慧的深度學習,找出美空雲雀生前演唱時的音色、顫音、抑揚頓挫等演唱技巧的特色,才有辦法模擬出美空雲雀的聲線。

由於深度學習是從事前輸進的資料找出規則,並依照這些歸納出來的規則設計出一套演算法,如果沒有辦法輸入足夠多的資訊,就沒有辦法得出的仿真度很高的成品。這次之所以能利用「VOCALOID:AI」搭配AI人工智慧的深度學習模擬出美空雲雀的聲線,這都有賴於美空雲雀生前累積夠多音檔資料,得以讓AI人工智慧歸納出美空雲雀演唱時的波形特徵,再套用在「VOCALOID:AI」合成出美空雲雀的聲音。

找死後30年的現役演歌歌手幫忙

除了美空雲雀的聲音之外,NHK在〈靠AI復活的美空雲雀〉節目上還結合了CG電腦動畫打造出 1:1大小的美空雲雀 4K影像。至於「AI美空雲雀」在紅白上的演出,則找來演歌歌手天童芳美(天童よしみ)模仿美空雲雀演唱時的動作,讓電腦進行路徑追蹤,掌握「AI美空雲雀」演唱時的肢體動作。

不僅如此,2019年的紅白歌合戰還要挑戰讓「AI美空雲雀」演唱新曲《在那之後(あれから,暫譯)》。這首曲子是由美空雲雀生前最後一首單曲《川流不息(川の流れのように)》的作詞家秋元康從 200首候選曲當中挑出最適合「AI美空雲雀」的曲子。「AI美空雲雀」在紅白歌合戰上的服裝,則由美空雲雀晚年正記標誌的「不死鳥」造型師森英惠負責。

這次表演的困難之處,就是「AI美空雲雀」不是只有唱歌而已,而是在間奏穿插口白。要讓「AI美空雲雀」唱歌與說話,其實分別需要兩套演算法,分別輸入美空雲雀唱歌時的音檔或對話時的音檔,才能讓仿真度最大化。而且輸入的歌曲音檔,還要從伴奏或和音當中抓出美空雲雀的聲音(也就是把配樂當作雜訊過濾掉),沒有一定的聲音處理技術沒有辦法達成這次的任務。

《在那之後(あれから)》日文・中文歌詞對照

演唱:美空ひばり(AI歌唱)

作曲:佐藤嘉風
作詞︰秋元康

中文翻譯:張 郁婕

夕陽が また沈んで行く       | 夕陽再次落下
あっという間の一日         | 稍縱即逝的一天
どこかに大事な何かを        | 好似忘記把重要的東西
置き忘れたような自分の影      | 遺忘在某處的我的身影

地平線は変わらないのに       | 地平線不曾改變
静かに移ろう景色          | 風景靜靜地變化
生きるというのは別れを知ること   | 活著,讓人知道離別
愛しい人よ             | 親愛的人啊

あれから どうしていましたか?   | 在那之後,過得如何啊?
私も歳を取りました         | 我也老了
今でも 昔の歌を          | 即便是現在,想到以前的歌
気づくと 口ずさんでいます     | 注意到的時候,已經在哼著唱了
振り向けば幸せな時代でしたね    | 回想起來那真是幸福的時代啊,對吧

いくつか 星が煌めいて       | 有幾顆星星閃爍著光芒
後悔さえ美しい           | 後悔是美麗的
今日できなかった何かが       | 今天沒有辦法做到的事
明日はできるような気がして来る   | 覺得等到明天就一定能做到

長い道を歩き続けて         | 在漫長的道路上持續地走
ようやくたどり着けそう       | 好像就快到達終點
生まれた瞬間から追いかけて来たのは | 從出生的那一刻直到現在
母のその背中            | 才追上母親的身影

あれから 元気でいましたか?    | 在那之後,你過得好嗎?
随分 月日が経ちました       | 過了好一段時間了
何度も歌った歌を          | 已經唱了好幾次的歌
もう一度 歌いたくなります     | 現在還想再唱一次
そう誰も大切な思い出が人生     | 每一個人都有重要的回憶才是人生

「お久しぶりです。あなたのことをずっと見ていましたよ。頑張りましたね。さあ 私の分まで、まだまだ、頑張って」

口白:「好久不見,我一直在(天上)看著你喔。這段時間真的很努力呢!好了,包含我的份,請繼續加油下去吧」

なぜだか 涙が止まらない      | 不知為何,淚流不止
心がただ震えています        | 我的心一直在顫抖

あれから どうしていましたか?   | 在那之後,過得如何啊?
私も歳を取りました         | 我也老了
今でも 昔の歌を          | 即便是現在,想到以前的歌
気づくと 口ずさんでいます     | 注意到的時候,已經在哼著唱了
振り向けば幸せな時代でしたね    | 回想起來那真是幸福的時代啊,對吧


「AI美空雲雀」是誰的?

這一次「AI美空雲雀」登上NHK,也引起外界注意到AI人工智慧的應用在法律上的問題。

以「AI美空雲雀」來說,最大的問題就是利用AI人工智慧打造出來的「AI美空雲雀」到底是屬於誰的?是打造這套AI人工智慧的工程師?還是美空雲雀的遺族?利用「AI美空雲雀」的名義發表新單曲,著作權又屬於誰的?這一次的「AI美空雲雀」計畫經過美空雲雀的遺族同意,整個計畫也是由美空雲雀的養子加藤和也負責管理,所以在法律上沒有問題。

「重現真人」之前,要先取得同意

像是「AI美空雲雀」這樣,利用AI人工智慧「重現真人」的技術稱之為「digital human(デジタルヒューマン)」。這一次參與「AI美空雲雀」計畫的成員當中,其中一家企業是 2018年新創立的stu.inc。在成立stu.inc之前,該公司的成員就曾經「重現」過已故的X JAPAN團員hide等多名音樂人士。

stu.inc的CEO黑田貴泰接受日版《商業透視》採訪時指出,想要「重現」已經過世的故人,其關鍵掌握在遺族手中。黑田貴泰以過去「重現」已故hide為例,hide在生前曾經預告「有一天將以虛擬人物的方式復活」,也就是取得hide生前同意。

利用AI人工智慧「重現真人」之前,是否能取得被「重現」的當事人同意是一大重點。其中一個案例是,2018年的超級盃中場秀上投影了在 2016年過世的「王子」(Prince Rogers Nelson)生前影像,遭到不少粉絲和演出人員反彈。「王子」在生前便一直主張藝術家必須要能夠掌握自己的作品和形象,而不能交由市場決定。在 2018年超級盃中場秀爭議爆發之後,更有人翻出「王子」在 1998年一場採訪時曾經表明對虛擬實境抱持反對的態度,但當時的表演在技術上並未使用 3D全像投影(hologram),最終不了了之。

這是「AI美空雲雀」最新單曲《在那之後》的專輯封面,可以看到在美空雲雀的名字底下有加上「AI歌唱」,在專輯封面左下角還有打上「VOCALOID:AI」的文字。圖片出處:日本コロムビア株式会社新聞稿

還有法律問題沒解決⋯⋯

以美空雲雀來說,美空雲雀過世時的 1989年,雖然已有錄影錄音技術,但未必能想到在未來某一天居然可以利用這些影像資料讓人在虛擬世界「起死回生」。

這一次「AI美空雲雀」計畫雖然經過美空雲雀遺族的同意,但事情並沒有這麼簡單。因為人一定會隨著時間有所變化,那這一次要「重現」出來的樣貌究竟要選美空雲雀在哪個時期的外型或聲線,目前雖然是以按照遺族的希望進行設計,那這樣設計出來的成品究竟是屬於一次性的娛樂計畫,還是長期讓美空雲雀以「AI美空雲雀」的方式復活?這部分都還有待解決。

熟知著作權法律問題的律師福井健策擔心,不管是「重現」像美空雲雀這樣的名人,或是已經過世的市井小民,往後如果遺族可以輕鬆利用AI人工智慧讓已經過世的家人或情人在虛擬世界「起死回生」,很有可能造成人們無法走出親人過世的傷痛,沉浸在「親人或許還沒有死」的虛擬世界裡,難辨虛實。

福井健策接著提到,當今利用AI人工智慧的「深偽技術(deepfake,另譯為「深假」)」,剪接他人頭像到色情片上成為「deepfake假A片」在網路上散佈已成問題。福井健策表示,現行法律上只有禁止「侵犯他人名譽或隱私」,所以「在不侵犯故人名譽或隱私」的情況下利用AI人工智慧將死去的人「復活」,在法律上應該是可行的。但利用AI人工智慧「讓死者在虛擬世界復活」的權利歸誰?又允許做到哪些程度,目前在社會上並沒有共識。

福井健策希望能藉由「AI美空雲雀」喚起大家對這個議題的重視。

關於deepfake「假A片」的討論,可以參考友站【DQ地球圖輯隊】的文章《把他人臉孔轉移到色情片上 deepfake「假A片」惹議

距離實現「digital human」還差一步

stu.inc的CEO黑田貴泰接著說道,在開發AI人工智慧的領域裡,「digital human」的目標並不是只有「重現故人」而已。現在像Siri這些個人語音助理軟體可以做到「很有人味」的聲音,但這些個人語音助理並沒有「外型」。「digital human」的下一步,就是要做到可以看到表情變化「很有人味」的外型。

利用AI人工智慧打造出有豐富表情變化的虛擬人物,最廣為人知的例子當屬初音未來或近年成為日本網路話題的「虛擬YouTuber(virtual YouTuber,簡稱VTuber)」。但不管是初音未來或是VTuber,在這些虛擬角色的背後還是需要真人賦予這些角色個性。以初音未來來說,背後的「真人」就是負責將樂譜輸進「VOCALOID:AI」,讓「VOCALOID:AI」進行聲音合成的人。正因為初音未來或VTuber背後有真人負責操控,初音未來或VTuber才能表現出大家想要的樣子。

「digital human」的目標是希望在未來的某一天,這些虛擬影像的背後並不需要「真人」操控,而能由AI人工智慧自行運作,只是現階段AI人工智慧的技術還沒有走到那一步。

關於虛擬YouTuber的介紹,歡迎參考友站【DQ地球圖輯隊】的文章《日本2018網路流行語第一名 :VTuber》。


參考資料

  1. “紅白出場”AI美空ひばり「気持ち悪さ」の正体 法規制は必要か
  2. “AI美空ひばり”きょうの紅白歌合戦に登場 新曲「あれから」披露
  3. “AI美空ひばり”の紅白新曲「あれから」が音楽業界で注目の理由
  4. Nスぺ5min.「AIでよみがえる美空ひばり」
  5. 紅白で話題「AI美空ひばり」の“中の人”の1社が語る「デジタルヒューマン」の可能性

本文同步刊載於【未來城市@天下

2017.07.17 【上課筆記】AI人工智慧與機器人倫理

本文為大阪大学副専攻プログラム「公共圏における科学技術政策」必修課程《科学技術イノベーション政策概論B》第四、五回課程筆記。
講者為大阪大学先導的学際研究機構(Institute for Open and Transdisciplinary Research Initiatives, OTRI)共生知能システム研究センター(Symbiotic Intelligent Systems Research Center, SISReC)特任助教呉羽真(KUREHA Makoto)。
------
大綱:(點選超連結可跳至該段落)
1. 對於AI人工智慧與機器人的擔憂
2. 機器人倫理是什麼?
 2-1. 機器人(主動)需要遵守的倫理
 2-2. 人們和機器人(機器人是被動的)互動時的倫理
 2-3. 人們研發、利用機器人時,人們需要遵守的倫理
3. 溝通型機器人(コミュニケーションロボット)
Photo by Daniel Cheung on Unsplash

一、對於AI人工智慧與機器人的擔憂

人們對於人工智慧(Artificial Intelligence, AI)和機器人的擔憂,可以歸納為「科技奇點」(technological singularity,又譯作「科技奇異點」)和造成人們在「技術上失業」兩大類。

科技奇點(technological singularity)

簡單來說,科技奇點可以理解為:當AI人工智慧凌駕於人類之上,造成社會莫大影響的零界點。未來學家雷蒙德·庫茲維爾(Raymond Kurzweil)就曾預言,人們將在 2045年迎接科技奇點。

所以,當AI人工智慧的「智慧凌駕於人類之上」是什麼意思?如果將「智慧」定義為「面對多樣且變動的環境,具有達成目標的能力」,AI人工智慧大概可以比喻為科學上的外星人(alien)。

造成人們技術上失業

悲觀派認為,AI人工智慧的誕生,讓工作、作業自動化,最終會帶來人類的大規模失業。最糟的情況是,工作性質具備創造性或社會性這種,難以靠自動化達成的工作將會消失於這個世界上。

樂觀派則認為,機器人或AI人工智慧的誕生,可以讓簡單、可以預測、自動化的工作都交由機器來做,人們就有更多精力專注在具有創造性或社會性的工作上,達到人類和機器間的專業分工。

不論是悲觀派還是樂觀派,自動化所造成的影響是系統性、制度上的問題(system issue)。當某一個工作自動化之後,並不是只有那一個工作受到影響,而是整個系統、整個產業、整個社會都會受到牽連的全面性問題。

*生化人/人機合體的機器人(cyborg,又譯為「賽博格」)

如果同意生化人或科幻小說裡的人機合體機器人(cyborg、サイボーグ)是「生物的腦袋搭配非生物的電子迴路,所構成的一種具有心智、可以自行思考與推論的系統」,那麼當人類將身體外的道具(例如:智慧型手機)當成自己的一部分,手機一離身就會渾身不對勁感到焦慮不安,此時重度智慧型裝置使用者(例如:譯為「智慧型喪屍」或「手機喪屍」的phone zombies)是不是生化人的一種?

https://dq.yam.com/post.php?id=10544


二、機器人倫理是什麼?

機器人倫理可以分成三大類:機器人(主動)需要遵守的倫理人們和機器人(機器人是被動的)互動時的倫理,以及人們研發、利用機器人時,人們需要遵守的倫理

機器人(主動)需要遵守的倫理

在探討「機器人需要主動遵守」的倫理,就是將機器人視為「道德行動者」(moral agent)。然而,「道德行動者」必須要有自律性(autonomy),很明顯地機器人本身並不具有康德(Immanuel Kant)道德哲學當中的自律性。

雖然機器人本身並沒有自律性,但透過人們在設計機器人時加裝在機器人身上的道德價值觀,可以讓機器人依據人們的道德價值觀做出反應。例如,2014年麻省理工學院(MIT)的「道德機器」(Moral Machine),就是為了設計自動駕駛系統的道德判斷準則,而設計的實驗。

科幻小說家以撒·艾西莫夫(Isaac Asimov),在 1950年代提出了《機器人三定律》(Three Laws of Robotics)

第一法則:機器人不得傷害人類,或坐視人類受到傷害;
第二法則:除非違背第一法則,否則機器人必須服從人類命令;
第三法則:除非違背第一或第二法則,否則機器人必須保護自己。

之於機器人(被動)的倫理

一樣從哲學的角度來看,之於機器人的倫理談的是機器人的道德感受性(sensitivity),也就是能感受到快樂、痛苦⋯⋯的感知(sentience)能力。

從這個角度出發,所以機器人沒有情感就可以欺負它嗎(案例:加拿大團隊研發的搭便車機器人hitchBOT,在橫跨美國的旅途中遭人蓄意破壞)?人類又該如何判斷機器人有沒有感知能力?

研發、利用機器人時的倫理

講者(吳羽真)舉了兩個例子,一個是國際政治學者彼得·沃倫·辛格(Peter Warren Singer)在 2010年提出的軍用機器人問題(軍用ロボット問題),一個是溝通型機器人(コミュニケーションロボット)問題。

軍用機器人的問題在於,遠距操作型的無人機和致命自主武器系統lethal autonomous weapons, LAWs)。辛格指出,遠隔操作無人機的駕駛員比起實在伊拉克作戰的軍人更容易得到創傷後壓力症候群(post-traumatic stress disorder, PTSD)。

而溝通型機器人問題,又可以分成單純的陪伴型機器人(コンパニオン),以及以看護為目的的陪伴型機器人(下述)。

左邊這個就是Softbank的pepper,常見於各大賣場。Photo by Andy Kelly on Unsplash

三、溝通型機器人(コミュニケーションロボット)

Softbank的pepper和SONY的機器狗aibo,都屬於有形的溝通型機器人。而 2013年電影《雲端情人》(Her,香港譯為《觸不到的她》)則提供了大家對於無形的「溝通型機器人」的想像。

https://www.youtube.com/watch?v=24CpuoKhiPE

日本看護現場的溝通型機器人

目前實際應用在日本看護機構的陪伴型機器人有海豹造型的療癒系機器人パロ(PALO),和遠距操作型的テレノイド(Telenoid)。パロ(PALO)屬於自律型(不需要人類操控)的機器人,會隨著人和它的互動(聲音、撫摸等)做出反應。而テレノイド(Telenoid)則是一種媒介,需要背後有工作人員操控之外,實際上當人們和テレノイド(Telenoid)對話時,其實和負責操控テレノイド(Telenoid)的工作人員對話。

不敢和真人說話,卻能向テレノイド說出銀行帳密

據說,實際在テレノイド(Telenoid)應用現場上,真的有原本不太和看護機構的其他人互動、說話的老人家,有了テレノイド(Telenoid)之後敞開心房,不只會和テレノイド(Telenoid)說話、擁抱,甚至把不該說出來的秘密(銀行帳密)都告訴了テレノイド(Telenoid)。

然而,テレノイド(Telenoid)需要有人操控,以看護現場來說,透過テレノイド(Telenoid)可以讓需要照顧的老人家(或患者)敞開心房,對於看護人員來說,透過テレノイド(Telenoid)可以了解當事人的狀況是一件好事。但以說出不該說出來的秘密(講出銀行帳密應該是一般連家人都未必會說出口的秘密)來看,究竟當事人知不知道テレノイド(Telenoid)背後其實有人操控?還是即使當事人知道テレノイド(Telenoid)背後其實就是看護人員,但還是願意把秘密說出來?就是溝通型機器人應用在看護現場的倫理問題。

看護人員將テレノイド(Telenoid)遞給需要看護照顧的老人家(或患者)之前,是否有先向當事人說明テレノイド(Telenoid)的操作方式?據說看護人員是有先向當事人解釋的,接下來的問題就會變成:

  1. 所以當事人理解到什麼樣的程度?是否能全盤理解看護人員所說明的テレノイド(Telenoid)運作模式?
  2. 看護人員和當事人解釋到什麼樣的程度?是否有提到テレノイド(Telenoid)背後需要工作人員操控?如果真的和當事人提到這一點,是否會讓當事人對於テレノイド(Telenoid)的信賴程度降低?還是當事人明明知道テレノイド(Telenoid)背後有真人操控,還是願意和テレノイド(Telenoid)敞開心房,講出心中的秘密?

https://youtu.be/jwOgHernBlc

有連線,卻孤單

雪莉‧特克(Sherry Turkle)認為,社交型機器人(social robot)、網路或社群媒體對於人際關係或人類的社交能力有負面影響。當人們對於科技(例如:機器人)有更多期待,人們就會對人際關係越來越不抱希望、對人類越失望。

然而,以看護為目的溝通型機器人對於老人家(或患者)有負面的影響嗎?使用這些溝通型機器人會損害到使用者的尊嚴嗎?是目前外界對於雪莉‧特克論點的反論。

這是Softbank的pepper。Photo by Alex Knight on Unsplash

溝通型機器人延伸出來的問題

對於以看護為目的溝通型機器人問題,有三個問題值得思考。

  1. 為什麼在看護現場不能使用機器人?
    目前看起來,多數老人家(或患者)很喜歡和這些機器人對話
  2. 到底是誰在騙(蒙蔽)誰?
    舉例來說,Softbank的pepper廣告詞是「有愛的機器人」(愛のあるロボット),但機器人要如何有愛?
    有一假說認為,人們是「不信の宙づり」(Suspension of Disbelief),即使是人型娃娃或機器人,也可以將之視為有生命、有心智的個體。所以,當老人家(或患者)在面對這些機器人時,是將機器人視為機器人,還是將機器人視為人類來對待呢?
  3. 在看護現場使用機器人,是看護/照顧不可或缺的手段嗎?
    重點在於,我們在看護現場使用這些機器人,是要讓機器人「取代」人類的工作,還是單純使用這些機器人來「協助」看護工作?

講者(吳羽真)認為,也許最根本的問題要回歸到人和人面對面的溝通為何如此重要?是因為人們喜歡和他人對話嗎?那如果是透過科技(如社群媒體、聊天軟體或機器人等)進行對話,就沒有辦法達到目的了嗎?

我認為,人和人面對面的溝通之所以重要,就是因為當我們在面對他人的時候,才能看到對方的表情、肢體動作及語調,感受對方的情緒及文字之外的訊息。畢竟有的時候單靠文字訊息,即使加上貼圖或表情符號,總有時候會錯意對方的意思,可能對方沒有在生氣,卻因為對方平鋪直述的文字,而覺得事有蹊蹺等。所以,換成視訊這種以科技當作媒介,但仍看得到對方表情、動作和聲音的溝通方式,問題就解決了嗎?當代科技(包含機器、軟體、機器人⋯⋯)在人際互動中所扮演的角色,可能不是只有「媒介」一詞,就能概括解釋清楚了。