製作deepfake「深偽假A片」遭逮捕,日本警方動起來

昨日(2),日本警視廳逮捕熊本市大二學生林田拓海、兵庫縣工程師大槻隆信、大分縣野間口功也。3人的共通點是利用AI人工智慧的「深偽(deepfake)」技術製作「假A片」,將女藝人的臉部合成AV影像,營造出當事人參與A片演出的假象。這是日本警方首次逮捕利用deepfake製作「假A片」的嫌犯,後續發展備受矚目。

目前已知,受害女藝人人數約 200人,已有 3,500部以上的「假A片」在網路上流竄。警視廳目前認定,「假A片」適用名譽毀損罪,最高可處 3年以下懲役,或 50萬日圓以下罰金。此外,「假A片」也有侵犯著作權法的疑慮。

目前 3人皆表示,製作「假A片」是為了賺錢。以野間口功也為例,他光是在今年 1月到 6月,靠著上傳「假A片」賺廣告費就賺了約 56萬日圓。

這只是冰山一角

林田拓海從去年 12月到今年 7月,在自己經營的付費網站上上傳自製的 2名女藝人「假A片」,遭製作公司提告侵害著作權。大槻隆信則是在今年 4月到 7月,在日本境外網站上公開另外 2名女藝人的「假A片」。林田拓海和大槻隆信兩人,總計上傳了約 400部「假A片」,獲利 80萬日圓以上。

這次遭逮捕的 3人總計製作 500部以上「假A片」,約有 150名以上女藝人受害。但警視廳目前已確認日本國內至少有 3,500部以上的「假A片」流竄,亦即還有更多加害人逍遙法外,這次警方大動作逮捕到的 3人只是「假A片」或利用「深偽」技術合成假影片的冰山一角。

延伸閱讀:【地球圖輯隊 情報總部】把他人臉孔轉移到色情片上 deepfake「假A片」惹議

為什麼受害人都是女藝人?

如果要利用「深偽」技術合成假影片,必須要先提供當事人的大量影像,讓AI人工智慧機器學習(machine learning)找出當事人臉部表情特徵。資料越多,做出來的影片越真實。

政治人物或演藝人員這種,市面上有大量公開影像的公眾人物,最適合被拿來餵給AI人工智慧做機器學習。過去像歐巴馬(Barack Obama)馬克祖克柏(Mark Zuckerberg),都曾被網友製作deepfake假影片,上傳到網路上。

在所有deepfake假影片當中,「假A片」對於當事人的殺傷力是最強的。背後因素當然包含整個大環境的性羞辱文化,還有以男性視角為主的性產業文化。這其實就是一種影像性暴力(image-based sexual abuse)

但不論今天「假A片」的受害者是生理男性還是生理女性,或更廣義來看deepfake假影片的受害者是生理男性還是生理女性,這種利用最新科技的惡意行為,都該被譴責。

關於「影像性暴力」的說明,請參考香港「關注婦女性暴力協會」網站

遇上這種事情該怎麼辦?

最重要的第一步就是報警處理。不管是deepfake「假A片」,還是私密影像外流,第一步就是報警處理。

如果是收到或看到這些私密外流影像的人,最重要的就是:不點閱、不下載、不分享、不譴責被害人

以deepfake來說,雖然通常受害人都是知名公眾人物(因為任何人都很容易在網路上取得這些公眾人物的大量圖片,這是deepfake很重要的關鍵),但也不能排除一般市井小民有可能受害(只要對方能夠掌握夠多你的臉部圖片的話)。

最重要的一點,就是要保護好自己的影像,減少在完全公開的社群網路上傳個人照片,或是上傳的時候要多留意隱私設定(雖然不是想要嚇人,但有的時候加害者很有可能就是大家身邊的人)。

對於相關議題有興趣,可以追蹤台灣「數位女力聯盟widi」粉絲專頁


參考資料

  1. 「ディープフェイク職人」逮捕 AVの顔すり替えた容疑
  2. 「ディープフェイク」で初摘発
  3. “ディープフェイクポルノ”初摘発 AIで演者と芸能人の顔を差し替え公開した疑い 千葉県警
  4. 「ディープフェイク」初摘発、AVに女性芸能人の顔 大学生ら逮捕
  5. 「ディープフェイク」脅威に 国内初摘発、海外被害も
  6. 「ディープフェイク」悪用した「偽アダルト動画」で広告収入…男3人を逮捕 全国初の摘発

本文同步刊載於【未來城市Future City@天下

本站將推出月刊電子報【石川悄悄話】,每月 15號,它會將「石川カオリ的日本時事まとめ翻譯」當月最新內容,或後續新聞追蹤報導,直接推送到你的電子信箱裡!

>>> 按此訂閱電子報 <<<

現在在下列平台,都可以找到「石川カオリ的日本時事まとめ翻譯」喔
臉書粉絲專頁噗浪 Plurk推特 TwitterMedium
Apple PodcastsSpotifyGoogle PodcastsFirstorySoundOnKKBOX

美空雲雀死後 30週年,靠AI人工智慧在NHK紅白死而復生

「[NHKスペシャル] AIでよみがえる美空ひばり | 新曲 あれから | NHK」YouTube影片截圖

2019年12月31日的第 70屆NHK紅白歌合戰(紅白歌合戦)亮點之一,就是已故 30年的歌手美空雲雀(美空ひばり)將以「AI美空雲雀」之姿起死回生。

時間回到 3個月前的 2019年9月29日,NHK在【NHKスペシャル】節目上以〈靠AI復活的美空雲雀(AIでよみがえる美空ひばり,暫譯)〉為題,在電視上首次公開「AI美空雲雀」,獲得廣大迴響。「AI美空雲雀」更一度躍上日本Twitter的熱門關鍵字。

聲音合成+機器深度學習

「AI美空雲雀」採用YAMAHA的「VOCALOID:AI」聲音合成技術,利用機器深度學習(deep learning)的方式,將美空雲雀生前演唱的音檔進行分析,找出美空雲雀歌聲及演唱方式的波形特徵,打造一套只要輸入一段符合美空雲雀音域範圍的樂譜,就可以近似完美地仿造出美空雲雀歌聲的效果。

在這之前,「VOCALOID:AI」最為人所知的應用實例就是初音未來(初音ミク)。然而,「VOCALOID:AI」充其量只是聲音合成技術,如果想要模擬出美空雲雀的聲線,就必須要仰賴AI人工智慧的深度學習,找出美空雲雀生前演唱時的音色、顫音、抑揚頓挫等演唱技巧的特色,才有辦法模擬出美空雲雀的聲線。

由於深度學習是從事前輸進的資料找出規則,並依照這些歸納出來的規則設計出一套演算法,如果沒有辦法輸入足夠多的資訊,就沒有辦法得出的仿真度很高的成品。這次之所以能利用「VOCALOID:AI」搭配AI人工智慧的深度學習模擬出美空雲雀的聲線,這都有賴於美空雲雀生前累積夠多音檔資料,得以讓AI人工智慧歸納出美空雲雀演唱時的波形特徵,再套用在「VOCALOID:AI」合成出美空雲雀的聲音。

找死後30年的現役演歌歌手幫忙

除了美空雲雀的聲音之外,NHK在〈靠AI復活的美空雲雀〉節目上還結合了CG電腦動畫打造出 1:1大小的美空雲雀 4K影像。至於「AI美空雲雀」在紅白上的演出,則找來演歌歌手天童芳美(天童よしみ)模仿美空雲雀演唱時的動作,讓電腦進行路徑追蹤,掌握「AI美空雲雀」演唱時的肢體動作。

不僅如此,2019年的紅白歌合戰還要挑戰讓「AI美空雲雀」演唱新曲《在那之後(あれから,暫譯)》。這首曲子是由美空雲雀生前最後一首單曲《川流不息(川の流れのように)》的作詞家秋元康從 200首候選曲當中挑出最適合「AI美空雲雀」的曲子。「AI美空雲雀」在紅白歌合戰上的服裝,則由美空雲雀晚年正記標誌的「不死鳥」造型師森英惠負責。

這次表演的困難之處,就是「AI美空雲雀」不是只有唱歌而已,而是在間奏穿插口白。要讓「AI美空雲雀」唱歌與說話,其實分別需要兩套演算法,分別輸入美空雲雀唱歌時的音檔或對話時的音檔,才能讓仿真度最大化。而且輸入的歌曲音檔,還要從伴奏或和音當中抓出美空雲雀的聲音(也就是把配樂當作雜訊過濾掉),沒有一定的聲音處理技術沒有辦法達成這次的任務。

《在那之後(あれから)》日文・中文歌詞對照

演唱:美空ひばり(AI歌唱)

作曲:佐藤嘉風
作詞︰秋元康

中文翻譯:張 郁婕

夕陽が また沈んで行く       | 夕陽再次落下
あっという間の一日         | 稍縱即逝的一天
どこかに大事な何かを        | 好似忘記把重要的東西
置き忘れたような自分の影      | 遺忘在某處的我的身影

地平線は変わらないのに       | 地平線不曾改變
静かに移ろう景色          | 風景靜靜地變化
生きるというのは別れを知ること   | 活著,讓人知道離別
愛しい人よ             | 親愛的人啊

あれから どうしていましたか?   | 在那之後,過得如何啊?
私も歳を取りました         | 我也老了
今でも 昔の歌を          | 即便是現在,想到以前的歌
気づくと 口ずさんでいます     | 注意到的時候,已經在哼著唱了
振り向けば幸せな時代でしたね    | 回想起來那真是幸福的時代啊,對吧

いくつか 星が煌めいて       | 有幾顆星星閃爍著光芒
後悔さえ美しい           | 後悔是美麗的
今日できなかった何かが       | 今天沒有辦法做到的事
明日はできるような気がして来る   | 覺得等到明天就一定能做到

長い道を歩き続けて         | 在漫長的道路上持續地走
ようやくたどり着けそう       | 好像就快到達終點
生まれた瞬間から追いかけて来たのは | 從出生的那一刻直到現在
母のその背中            | 才追上母親的身影

あれから 元気でいましたか?    | 在那之後,你過得好嗎?
随分 月日が経ちました       | 過了好一段時間了
何度も歌った歌を          | 已經唱了好幾次的歌
もう一度 歌いたくなります     | 現在還想再唱一次
そう誰も大切な思い出が人生     | 每一個人都有重要的回憶才是人生

「お久しぶりです。あなたのことをずっと見ていましたよ。頑張りましたね。さあ 私の分まで、まだまだ、頑張って」

口白:「好久不見,我一直在(天上)看著你喔。這段時間真的很努力呢!好了,包含我的份,請繼續加油下去吧」

なぜだか 涙が止まらない      | 不知為何,淚流不止
心がただ震えています        | 我的心一直在顫抖

あれから どうしていましたか?   | 在那之後,過得如何啊?
私も歳を取りました         | 我也老了
今でも 昔の歌を          | 即便是現在,想到以前的歌
気づくと 口ずさんでいます     | 注意到的時候,已經在哼著唱了
振り向けば幸せな時代でしたね    | 回想起來那真是幸福的時代啊,對吧


「AI美空雲雀」是誰的?

這一次「AI美空雲雀」登上NHK,也引起外界注意到AI人工智慧的應用在法律上的問題。

以「AI美空雲雀」來說,最大的問題就是利用AI人工智慧打造出來的「AI美空雲雀」到底是屬於誰的?是打造這套AI人工智慧的工程師?還是美空雲雀的遺族?利用「AI美空雲雀」的名義發表新單曲,著作權又屬於誰的?這一次的「AI美空雲雀」計畫經過美空雲雀的遺族同意,整個計畫也是由美空雲雀的養子加藤和也負責管理,所以在法律上沒有問題。

「重現真人」之前,要先取得同意

像是「AI美空雲雀」這樣,利用AI人工智慧「重現真人」的技術稱之為「digital human(デジタルヒューマン)」。這一次參與「AI美空雲雀」計畫的成員當中,其中一家企業是 2018年新創立的stu.inc。在成立stu.inc之前,該公司的成員就曾經「重現」過已故的X JAPAN團員hide等多名音樂人士。

stu.inc的CEO黑田貴泰接受日版《商業透視》採訪時指出,想要「重現」已經過世的故人,其關鍵掌握在遺族手中。黑田貴泰以過去「重現」已故hide為例,hide在生前曾經預告「有一天將以虛擬人物的方式復活」,也就是取得hide生前同意。

利用AI人工智慧「重現真人」之前,是否能取得被「重現」的當事人同意是一大重點。其中一個案例是,2018年的超級盃中場秀上投影了在 2016年過世的「王子」(Prince Rogers Nelson)生前影像,遭到不少粉絲和演出人員反彈。「王子」在生前便一直主張藝術家必須要能夠掌握自己的作品和形象,而不能交由市場決定。在 2018年超級盃中場秀爭議爆發之後,更有人翻出「王子」在 1998年一場採訪時曾經表明對虛擬實境抱持反對的態度,但當時的表演在技術上並未使用 3D全像投影(hologram),最終不了了之。

這是「AI美空雲雀」最新單曲《在那之後》的專輯封面,可以看到在美空雲雀的名字底下有加上「AI歌唱」,在專輯封面左下角還有打上「VOCALOID:AI」的文字。圖片出處:日本コロムビア株式会社新聞稿

還有法律問題沒解決⋯⋯

以美空雲雀來說,美空雲雀過世時的 1989年,雖然已有錄影錄音技術,但未必能想到在未來某一天居然可以利用這些影像資料讓人在虛擬世界「起死回生」。

這一次「AI美空雲雀」計畫雖然經過美空雲雀遺族的同意,但事情並沒有這麼簡單。因為人一定會隨著時間有所變化,那這一次要「重現」出來的樣貌究竟要選美空雲雀在哪個時期的外型或聲線,目前雖然是以按照遺族的希望進行設計,那這樣設計出來的成品究竟是屬於一次性的娛樂計畫,還是長期讓美空雲雀以「AI美空雲雀」的方式復活?這部分都還有待解決。

熟知著作權法律問題的律師福井健策擔心,不管是「重現」像美空雲雀這樣的名人,或是已經過世的市井小民,往後如果遺族可以輕鬆利用AI人工智慧讓已經過世的家人或情人在虛擬世界「起死回生」,很有可能造成人們無法走出親人過世的傷痛,沉浸在「親人或許還沒有死」的虛擬世界裡,難辨虛實。

福井健策接著提到,當今利用AI人工智慧的「深偽技術(deepfake,另譯為「深假」)」,剪接他人頭像到色情片上成為「deepfake假A片」在網路上散佈已成問題。福井健策表示,現行法律上只有禁止「侵犯他人名譽或隱私」,所以「在不侵犯故人名譽或隱私」的情況下利用AI人工智慧將死去的人「復活」,在法律上應該是可行的。但利用AI人工智慧「讓死者在虛擬世界復活」的權利歸誰?又允許做到哪些程度,目前在社會上並沒有共識。

福井健策希望能藉由「AI美空雲雀」喚起大家對這個議題的重視。

關於deepfake「假A片」的討論,可以參考友站【DQ地球圖輯隊】的文章《把他人臉孔轉移到色情片上 deepfake「假A片」惹議

距離實現「digital human」還差一步

stu.inc的CEO黑田貴泰接著說道,在開發AI人工智慧的領域裡,「digital human」的目標並不是只有「重現故人」而已。現在像Siri這些個人語音助理軟體可以做到「很有人味」的聲音,但這些個人語音助理並沒有「外型」。「digital human」的下一步,就是要做到可以看到表情變化「很有人味」的外型。

利用AI人工智慧打造出有豐富表情變化的虛擬人物,最廣為人知的例子當屬初音未來或近年成為日本網路話題的「虛擬YouTuber(virtual YouTuber,簡稱VTuber)」。但不管是初音未來或是VTuber,在這些虛擬角色的背後還是需要真人賦予這些角色個性。以初音未來來說,背後的「真人」就是負責將樂譜輸進「VOCALOID:AI」,讓「VOCALOID:AI」進行聲音合成的人。正因為初音未來或VTuber背後有真人負責操控,初音未來或VTuber才能表現出大家想要的樣子。

「digital human」的目標是希望在未來的某一天,這些虛擬影像的背後並不需要「真人」操控,而能由AI人工智慧自行運作,只是現階段AI人工智慧的技術還沒有走到那一步。

關於虛擬YouTuber的介紹,歡迎參考友站【DQ地球圖輯隊】的文章《日本2018網路流行語第一名 :VTuber》。


參考資料

  1. “紅白出場”AI美空ひばり「気持ち悪さ」の正体 法規制は必要か
  2. “AI美空ひばり”きょうの紅白歌合戦に登場 新曲「あれから」披露
  3. “AI美空ひばり”の紅白新曲「あれから」が音楽業界で注目の理由
  4. Nスぺ5min.「AIでよみがえる美空ひばり」
  5. 紅白で話題「AI美空ひばり」の“中の人”の1社が語る「デジタルヒューマン」の可能性

本文同步刊載於【未來城市@天下

關於台北市教育局打算在高中職以下各級學校裝設AI人工智慧販賣機有感

Photo by Charles 🇵🇭 on Unsplash

以前我們講個資很重要,不能讓真實姓名、電話號碼、出生年月日、身分證字號⋯⋯外流,但現在這些資訊相對不重要了。資料(數據)要有意義,不是需要知道XXX在某年某月某日買了什麼東西,而是具有哪些屬性的人比較傾向於買什麼東西。對於廠商來說,他根本沒有興趣今天叫做張郁婕的這個人買了什麼東西,他想要知道的是和張郁婕一樣大概 25歲左右的女生,會傾向於在什麼時間出沒在什麼地方買什麼東西。

今天台北市政府說用悠遊卡買東西不會有「實名資料」,這要看你怎麼去定義「實名資料」。

基本上悠遊卡上面一定會有卡號,如果是附有悠遊卡功能的學生證(你要說是「附有學生證功能的悠遊卡」應該也說得過去,就看你怎麼使用這張卡),一定是實名制:這張卡上面把你的全名、你念什麼學校、你的學號,或甚至是你的證件照都印出來了。

悠遊卡公司那邊只要有卡號,或者說只要去捷運站櫃檯嗶一下,你就可以看到這張卡在幾月幾號幾點幾分在哪花了多少錢(有些不一定會顯示出是在哪裡買的,但時間和消費金額絕對是有的)。也就是說從悠遊卡公司的角度來看,今天他想要知道擁有哪張卡號的誰把錢花在哪裡,他是有機會知道的。問題只差在,悠遊卡公司內部誰才有這個權限,可以去查看悠遊卡用戶的消費記錄。

那零售業者(含自動販賣機的擁有者)呢?今天這台號稱「人工智慧販賣機」我是不知道它「人工智慧」在哪裡,裡頭又裝了哪些特殊的硬體或軟體設備啦,假如說這台機器真的具備有儲存消費紀錄的功能(單純將資料儲存在這部機器裡面等待人工將資料取出,或是會即時連線到總公司之類的,在實務上都有可能辦到),那業者就已經拿到他要的資料了:

業者可以拿到悠遊卡號、消費時間、消費地點,以及買了哪一樣商品。

你可能會覺得說,只是「悠遊卡號」怎麼會是「實名」呢?別忘記,如果這些機台是設置在學校,就已經分好小學生、國中生或高中生了(當然也有可能是教職員購買,我不確定卡號上教職員是否和學生的編號方式不同,但基本上如果是「附有悠遊卡功能的學生/教師證」在編號時應該是會分開編號。除非是自己去捷運站買的悠遊卡,這種卡號對於裝在校園內的自動販賣機來說才難以識別消費者是學生還是教職員)。

假若說設置這個自動販賣機的業者可以從悠遊卡公司那邊取得卡號對應的用戶屬性(例如:年齡、性別等),從業者的角度來看,這已經無異於「實名」了(再次強調,業者對於「叫做什麼名字的人」買了什麼東西沒興趣,他只想知道是有哪些共同屬性的人(例如:學生還是教師)喜歡買什麼東西)。


比起「實名」的問題,我在乎的反而是市府是不是藉此圖利廠商:到底是哪一家業者開發的「人工智慧販賣機」?是不是全台北市公立高中職以下的各級學校,都要設立同一家業者的自動販賣機(老實說我想了老半天,我想不到自動販賣機到底是「人工智慧」在哪裡。如果只是可以無現金支付,這才不叫「人工智慧販賣機」或「智慧販賣機」,就我的觀點這充其量只能說是「可以使用電子錢包付款的自動販賣機」)

在過去,在我唸高中的那個年代(其實從我唸國小的時候就有人在喊了),我去學校合作社買東西是「嗶學生證」。我們會先將錢儲值在這張「附有悠遊卡功能的學生證」裡,但一個重點是,我們並不是將錢直接存在悠遊卡上,而是學校合作社的系統,可以透過使用者(學生或教職員工)拿出那張「附有悠遊卡功能的證件」嗶一下的動作,讀取這張證件的編號(進而得知我的學號),然後連結到學校合作社系統裡的個人帳戶,知道這個帳戶裡面餘額多少,再進行扣款。這一連串的過程,使用者都是將錢存在學校合作社的系統,而不是悠遊卡上面。

最好的證明就是,我拿我自己在捷運站買的悠遊卡(不具學生證功能的悠遊卡)跑去合作社嗶一下,並沒有辦法買東西。也就是說,學校合作社的系統和一般我們在校外「可以使用悠遊卡消費」的系統是不一樣的,我們並不是用存在悠遊卡裡的錢在合作社進行消費,而是我們預先存在學校合作社的錢,而學校合作社的系統是綁定學號(附有悠遊卡功能的學生證卡號,可以對應到學號)所以我隨便拿一張不是學生證的悠遊卡在合作社嗶一下,「交易失敗」,無法扣款。

所以在過去(正確來說是到這個「人工智慧販賣機」進到校園之前),只有合作社阿姨/叔叔知道,自己工作的這所學校的學生愛吃什麼。但合作社阿姨/叔叔並不會知道,其他學校的學生愛吃什麼,因為其他學校和他又沒有關係,他只需要知道自己任職的這所學校的學生或教職員愛吃什麼,他就會多進一點貨,如此而已。

今天當這個「人工智慧販賣機」全面進到台北市公立高中職以下的各級學校,而且通通都是同一家廠商的自動販賣機,那這樣問題就很大了:因為這家廠商就可以掌握所有學校的學生(或教職員)喜歡吃/買什麼,也就是這個年齡層的學生的喜好。


如果只是架設一台「人工智慧販賣機」,並不會讓學生學到「人工智慧」是什麼,因為「人工智慧販賣機」只是一個媒介,而學生只能扮演消費者的角色進行消費,而不是學習這個「人工智慧販賣機」裡面有怎麼樣的機關所以和外面的自動販賣機有哪個地方不一樣。

在學生都只能是消費者的角色來看,學校裡面本來就有合作社,為什麼非得要引進自動販賣機不可?難道合作社有什麼樣的苦衷無法滿足學生的需求,所以一定要引進自動販賣機不可?

如果真是如此(例如:合作社有營業時間,自動販賣機可以補足合作社阿姨/叔叔下班時間,學生還會想買東西吃的需求。但問題是學校有上、下學時間,合作社營業時間就是學校平常要上課的時候啊。我覺得這個理由站不住腳,因為一早上學前、放學後或假日跑來學校,基本上都是學生可以進出校門的時間,學校合作社沒開,可以自由走出校門去買東西來吃啊,可以自由出校門買自己想吃的東西比較開心吧),「校內是否要裝設自動販賣機」這個問題,應該交由各個學校自行決定,而不是由台北市教育局統一下達這個指定,要求所有學校都要裝一台自動販賣機。

所以誰可以告訴我,到底這台自動販賣機哪裡開智慧?

2019.07.17 【上課筆記】AI人工智慧與機器人倫理

本文為大阪大学副専攻プログラム「公共圏における科学技術政策」必修課程《科学技術イノベーション政策概論B》第四、五回課程筆記。

講者為大阪大学先導的学際研究機構(Institute for Open and Transdisciplinary Research Initiatives, OTRI)共生知能システム研究センター(Symbiotic Intelligent Systems Research Center, SISReC)特任助教呉羽真(KUREHA Makoto)。

Photo by Daniel Cheung on Unsplash

一、對於AI人工智慧與機器人的擔憂

人們對於人工智慧(Artificial Intelligence, AI)和機器人的擔憂,可以歸納為「科技奇點」(technological singularity,又譯作「科技奇異點」)和造成人們在「技術上失業」兩大類。

科技奇點(technological singularity)

簡單來說,科技奇點可以理解為:當AI人工智慧凌駕於人類之上,造成社會莫大影響的零界點。未來學家雷蒙德·庫茲維爾(Raymond Kurzweil)就曾預言,人們將在 2045年迎接科技奇點。

所以,當AI人工智慧的「智慧凌駕於人類之上」是什麼意思?如果將「智慧」定義為「面對多樣且變動的環境,具有達成目標的能力」,AI人工智慧大概可以比喻為科學上的外星人(alien)。

造成人們技術上失業

悲觀派認為,AI人工智慧的誕生,讓工作、作業自動化,最終會帶來人類的大規模失業。最糟的情況是,工作性質具備創造性或社會性這種,難以靠自動化達成的工作將會消失於這個世界上。

樂觀派則認為,機器人或AI人工智慧的誕生,可以讓簡單、可以預測、自動化的工作都交由機器來做,人們就有更多精力專注在具有創造性或社會性的工作上,達到人類和機器間的專業分工。

不論是悲觀派還是樂觀派,自動化所造成的影響是系統性、制度上的問題(system issue)。當某一個工作自動化之後,並不是只有那一個工作受到影響,而是整個系統、整個產業、整個社會都會受到牽連的全面性問題。

*生化人/人機合體的機器人(cyborg,又譯為「賽博格」)

如果同意生化人或科幻小說裡的人機合體機器人(cyborg、サイボーグ)是「生物的腦袋搭配非生物的電子迴路,所構成的一種具有心智、可以自行思考與推論的系統」,那麼當人類將身體外的道具(例如:智慧型手機)當成自己的一部分,手機一離身就會渾身不對勁感到焦慮不安,此時重度智慧型裝置使用者(例如:譯為「智慧型喪屍」或「手機喪屍」的phone zombies)是不是生化人的一種?


二、機器人倫理是什麼?

機器人倫理可以分成三大類:機器人(主動)需要遵守的倫理人們和機器人(機器人是被動的)互動時的倫理,以及人們研發、利用機器人時,人們需要遵守的倫理

機器人(主動)需要遵守的倫理

在探討「機器人需要主動遵守」的倫理,就是將機器人視為「道德行動者」(moral agent)。然而,「道德行動者」必須要有自律性(autonomy),很明顯地機器人本身並不具有康德(Immanuel Kant)道德哲學當中的自律性。

雖然機器人本身並沒有自律性,但透過人們在設計機器人時加裝在機器人身上的道德價值觀,可以讓機器人依據人們的道德價值觀做出反應。例如,2014年麻省理工學院(MIT)的「道德機器」(Moral Machine),就是為了設計自動駕駛系統的道德判斷準則,而設計的實驗。

科幻小說家以撒·艾西莫夫(Isaac Asimov),在 1950年代提出了《機器人三定律》(Three Laws of Robotics)

第一法則:機器人不得傷害人類,或坐視人類受到傷害;
第二法則:除非違背第一法則,否則機器人必須服從人類命令;
第三法則:除非違背第一或第二法則,否則機器人必須保護自己。

之於機器人(被動)的倫理

一樣從哲學的角度來看,之於機器人的倫理談的是機器人的道德感受性(sensitivity),也就是能感受到快樂、痛苦⋯⋯的感知(sentience)能力。

從這個角度出發,所以機器人沒有情感就可以欺負它嗎(案例:加拿大團隊研發的搭便車機器人hitchBOT,在橫跨美國的旅途中遭人蓄意破壞)?人類又該如何判斷機器人有沒有感知能力?

研發、利用機器人時的倫理

講者(吳羽真)舉了兩個例子,一個是國際政治學者彼得·沃倫·辛格(Peter Warren Singer)在 2010年提出的軍用機器人問題(軍用ロボット問題),一個是溝通型機器人(コミュニケーションロボット)問題。

軍用機器人的問題在於,遠距操作型的無人機和致命自主武器系統lethal autonomous weapons, LAWs)。辛格指出,遠隔操作無人機的駕駛員比起實在伊拉克作戰的軍人更容易得到創傷後壓力症候群(post-traumatic stress disorder, PTSD)。

而溝通型機器人問題,又可以分成單純的陪伴型機器人(コンパニオン),以及以看護為目的的陪伴型機器人(下述)。

左邊這個就是Softbank的pepper,常見於各大賣場。Photo by Andy Kelly on Unsplash

三、溝通型機器人(コミュニケーションロボット)

Softbank的pepper和SONY的機器狗aibo,都屬於有形的溝通型機器人。而 2013年電影《雲端情人》(Her,香港譯為《觸不到的她》)則提供了大家對於無形的「溝通型機器人」的想像。

日本看護現場的溝通型機器人

目前實際應用在日本看護機構的陪伴型機器人有海豹造型的療癒系機器人パロ(PALO),和遠距操作型的テレノイド(Telenoid)。パロ(PALO)屬於自律型(不需要人類操控)的機器人,會隨著人和它的互動(聲音、撫摸等)做出反應。而テレノイド(Telenoid)則是一種媒介,需要背後有工作人員操控之外,實際上當人們和テレノイド(Telenoid)對話時,其實和負責操控テレノイド(Telenoid)的工作人員對話。

不敢和真人說話,卻能向テレノイド說出銀行帳密

據說,實際在テレノイド(Telenoid)應用現場上,真的有原本不太和看護機構的其他人互動、說話的老人家,有了テレノイド(Telenoid)之後敞開心房,不只會和テレノイド(Telenoid)說話、擁抱,甚至把不該說出來的秘密(銀行帳密)都告訴了テレノイド(Telenoid)。

然而,テレノイド(Telenoid)需要有人操控,以看護現場來說,透過テレノイド(Telenoid)可以讓需要照顧的老人家(或患者)敞開心房,對於看護人員來說,透過テレノイド(Telenoid)可以了解當事人的狀況是一件好事。但以說出不該說出來的秘密(講出銀行帳密應該是一般連家人都未必會說出口的秘密)來看,究竟當事人知不知道テレノイド(Telenoid)背後其實有人操控?還是即使當事人知道テレノイド(Telenoid)背後其實就是看護人員,但還是願意把秘密說出來?就是溝通型機器人應用在看護現場的倫理問題。

看護人員將テレノイド(Telenoid)遞給需要看護照顧的老人家(或患者)之前,是否有先向當事人說明テレノイド(Telenoid)的操作方式?據說看護人員是有先向當事人解釋的,接下來的問題就會變成:

  1. 所以當事人理解到什麼樣的程度?是否能全盤理解看護人員所說明的テレノイド(Telenoid)運作模式?
  2. 看護人員和當事人解釋到什麼樣的程度?是否有提到テレノイド(Telenoid)背後需要工作人員操控?如果真的和當事人提到這一點,是否會讓當事人對於テレノイド(Telenoid)的信賴程度降低?還是當事人明明知道テレノイド(Telenoid)背後有真人操控,還是願意和テレノイド(Telenoid)敞開心房,講出心中的秘密?

有連線,卻孤單

雪莉‧特克(Sherry Turkle)認為,社交型機器人(social robot)、網路或社群媒體對於人際關係或人類的社交能力有負面影響。當人們對於科技(例如:機器人)有更多期待,人們就會對人際關係越來越不抱希望、對人類越失望。

然而,以看護為目的溝通型機器人對於老人家(或患者)有負面的影響嗎?使用這些溝通型機器人會損害到使用者的尊嚴嗎?是目前外界對於雪莉‧特克論點的反論。

這是Softbank的pepper。Photo by Alex Knight on Unsplash

溝通型機器人延伸出來的問題

對於以看護為目的溝通型機器人問題,有三個問題值得思考。

  1. 為什麼在看護現場不能使用機器人?
    目前看起來,多數老人家(或患者)很喜歡和這些機器人對話
  2. 到底是誰在騙(蒙蔽)誰?
    舉例來說,Softbank的pepper廣告詞是「有愛的機器人」(愛のあるロボット),但機器人要如何有愛?
    有一假說認為,人們是「不信の宙づり」(Suspension of Disbelief),即使是人型娃娃或機器人,也可以將之視為有生命、有心智的個體。所以,當老人家(或患者)在面對這些機器人時,是將機器人視為機器人,還是將機器人視為人類來對待呢?
  3. 在看護現場使用機器人,是看護/照顧不可或缺的手段嗎?
    重點在於,我們在看護現場使用這些機器人,是要讓機器人「取代」人類的工作,還是單純使用這些機器人來「協助」看護工作?

講者(吳羽真)認為,也許最根本的問題要回歸到人和人面對面的溝通為何如此重要?是因為人們喜歡和他人對話嗎?那如果是透過科技(如社群媒體、聊天軟體或機器人等)進行對話,就沒有辦法達到目的了嗎?

我認為,人和人面對面的溝通之所以重要,就是因為當我們在面對他人的時候,才能看到對方的表情、肢體動作及語調,感受對方的情緒及文字之外的訊息。畢竟有的時候單靠文字訊息,即使加上貼圖或表情符號,總有時候會錯意對方的意思,可能對方沒有在生氣,卻因為對方平鋪直述的文字,而覺得事有蹊蹺等。所以,換成視訊這種以科技當作媒介,但仍看得到對方表情、動作和聲音的溝通方式,問題就解決了嗎?當代科技(包含機器、軟體、機器人⋯⋯)在人際互動中所扮演的角色,可能不是只有「媒介」一詞,就能概括解釋清楚了。

日本高齡駕駛肇事頻傳(一)|評估認知能力有用嗎?

Photo by chuttersnap on Unsplash

今年 4月,日本東京・池袋發生一名 87歲男性駕駛開車暴衝,造成 12人死傷(兩名死者為在路口等紅燈的 31歲媽媽和她的 3歲小孩)。本月 4號,福岡市早良區一對老夫妻開車出門,在路口逆向行駛造成 6台車相撞、9人死傷(兩名死者為肇事車輛的老夫婦)。13號,兵庫縣西宮市一名 69歲女性駕駛開車撞上保育園幼童,造成 2名女童受傷。15號於群馬縣伊勢崎市,也有一名高齡駕駛發生交通事故,造成 3人死傷。

自從 4月東京・池袋的高齡駕駛暴走事件以來,高齡駕駛問題備受討論。高齡駕駛的認知能力退化、運動・神經反射能力衰退,是造成高齡駕駛交通事故的原因,不少人因而呼籲高齡駕駛主動繳回駕照。然而,對於住在距離商圈較遠的高齡者來說,平常想要外出購物或到醫院看病,不能沒有汽車代步。

根據日本內閣府的調查,目前在日本 80歲以上的高齡人口,每 4人就有 1人會開車代步。該如何解決高齡者外出需要代步工具,以及降低高齡駕駛交通事故問題,變成為日本政府一大難題。

— ▌後篇:日本高齡駕駛肇事頻傳(二)|地方政府該如何解決?

高齡駕駛肇事率不減反增

根據日本警察廳的資料,2008年發生的交通事故當中,肇事者是 75歲以上的高齡駕駛比例佔 4.1%,但 2018年肇事者是 75歲以上高齡駕駛的交通事故比例佔整體的 7.9%(約 3萬2,000起)。如果比對 2008年和 2018年的交通事故總數,2018年一整年共發生 40萬6,755起交通事故,相較於 2008年減少了 44%,但 75歲以上高齡駕駛的肇事率不減反增。高齡駕駛肇事率在十年內不減反增原因,在於擁有駕照的高齡者人數較多:目前 75歲以上擁有駕照的人數為 540萬人(佔全體 9%),如果是 65歲以上的高齡駕駛則佔所有駕照擁有人數的 25%,對比十年前只有 257萬名左右的高齡駕駛,擁有駕照的高齡者人數足足多了兩倍以上。


2009年修法:75歲以上高齡駕駛須通過認知檢查

2009年6月,日本《道路交通法》修法過後,要求 75歲以上高齡駕駛必須先通過「認知機能檢查」,才可以申請換發駕照。今年正好是修法後第十年,值得比對修法前後這十年來的轉變。

檢查內容有三關

「認知機能檢查」內容主要是確認高齡駕駛的記憶力和判斷力是否正常。檢查時間約 30分鐘,分成三個項目:回答檢查日期當天是幾年幾月幾日星期幾,以及當下的時間為何,接著受試者須回答出時鐘上指定的時間是幾點幾分、以及記憶圖片內容再回答問題(考驗短期記憶)。

檢查結果分三種

「認知機能檢查」結果分成三個類別:第一分類為「有失智症的可能性」,第二分類為「有認知功能衰退的可能性」,第三分類為「沒有認知功能衰退的可能性」。

2017年3月《道路交通法》再度修法,如果是在換發駕照的「認知機能檢查」被判定為「有失智症的可能性」(第一分類),就必須要進一步接受醫生檢查。在 2017年修法前,如果是被判定為「有失智症的可能性」(第一分類),只要沒有違反交通規則,就不需要接受醫生檢查。

第一分類需要醫生進一步檢查

根據警察廳的調查資料,2018年接受駕照換發「認知機能檢查」約有 216萬5,000人,當中被判定為「有失智症的可能性」(第一分類)的高齡駕駛約有 5萬4,700人(2.5%)。這些被判定為「有失智症的可能性」的高齡駕駛進一步接受醫生檢查的結果,降為「有認知功能衰退的可能性」(第二分類)或「沒有認知功能衰退的可能性」(第三分類)的人數約為 8,700人。

至於在「認知機能檢查」被判定為「有失智症的可能性」(第一分類),醫生進一步診斷後依舊被判定為「有失智症的可能性」(第一分類)約 3萬9,000名高齡駕駛當中,因為被醫生診斷患有「失智症」而被吊銷駕照的人數有 1,965人(5%),主動繳回駕照或當駕照過期不再換發的人數約有 2萬3,700人(60%),繼續使用駕照開車上路(駕照還沒過期)的人數則有 1萬3,700人(約 35%)。

另一方面,如果在第二階段被醫生診斷為「不是失智症,但出現認知功能衰退,未來有失智症的可能性」,原則上必須要在 6個月後再度提出醫生診斷證明的人數約 1萬人(26.3%)。

第二分類原則上可以再開車三年

此外,2018年在「認知機能檢查」被判為「有認知功能衰退的可能性」(第二分類)約 53萬1,000名(24.5%)的高齡駕駛,只要完成高齡駕駛講習課,就能原則 3年繼續開車上路。

高齡駕駛肇事者,半數通過「認知機能檢查」

然而實際上,造成交通事故且有死者出現的 75歲以上高齡駕駛肇事者當中,約有半數在「認知機能檢查」當中都是「沒有認知功能衰退的可能性」(第三分類),凸顯出「認知機能檢查」並不能完全防範高齡駕駛交通事故。

名古屋大學專門研究交通政策的加藤博和教授指出,駕駛一旦被吊銷駕照,就很難再次考到駕照,所以在執行上不得不慎重。雖然目前在高齡駕駛「認知機能檢查」上採取兩階段(如果第一次被判定為「有失智症的可能性」,還需要醫生進一步診斷),但即使有第二階段醫生複檢,如果當天檢查很順利也有可能取得認知功能「沒有問題」的結果。

日本神經學會就曾在 2017年指出,不應該以高齡駕駛是否患有失智症作為判斷依據,而應以高齡駕駛實際的駕駛能力,來判斷該名高齡駕駛是否能繼續開車上路。加藤博和教授表示,認知功能衰退的駕駛很難注意到自己的駕駛能力衰退,應該要求駕駛提交一個月份的行車紀錄器資料,作為駕駛能力判斷依據。


或許AI人工智慧能幫上忙

從高齡者獨立/自立生活(Independent Living)的角度來看,不管是外出購物、到醫院就診,有汽車代步是高齡者生活不可或缺的一部分。比起強制高齡者繳回駕照,更重要的是能夠客觀評估高齡駕駛是否為一名安全駕駛的判斷依據,或許AI人工智慧就是其中一個方法。

宮崎縣新創公司オファサポート研發了一款「AI型汽車駕駛評價系統」(AI型自動車運転評価システム,S.D.A.P.),結合GPS衛星定位、距離量測技術與AI機械學習。只要讓駕駛在駕訓場裡利用搭載「AI型汽車駕駛評價系統」的駕訓車實際繞行駕訓場一圈,這套系統就會自動比對該名駕駛打方向盤、車速變換、踩煞車的時間點、轉彎方式和確認左右來車等細節,和事先輸進「AI型汽車駕駛評價系統」的模範駕駛(駕訓場教練)行車紀錄差異,就能替該名駕駛的駕駛能力進行評分。

— ▌後篇:日本高齡駕駛肇事頻傳(二)|地方政府該如何解決?

參考資料
  1. 自動ブレーキ車限定免許を検討へ 政府が高齢事故防止策
  2. 「暴走」高齢者、後付け防止装置に商機 評価に課題も
  3. 認知機能検査で「すり抜け」も、高齢ドライバー事故対策に課題
  4. 高齢者事故が多発する現在、AI型自動車運転評価システムが高齢者を加害運転から救う

本文同步刊載於【未來城市Future City@天下】,並授權未來城市編輯重新編排上線。