
在不久前Amazon的 re:Mars 年度活動上,Alexa AI高級副總裁兼首席科學家 Rohit Prasad 發布了一項新技術,指Alexa可聽取少於一分鐘的人聲錄音後,模仿該聲音的發音模式。Rohit Prasad指技術可以讓用戶懷念「已故親人」。消息一出,即使此功能未正式推出已令大眾有許多安全和道德上的疑慮。
Rohit Prasad 指Alexa之所以可用極少的訊息去模仿聲音,是因為開發人員採用了「聲音轉換(Voice conversion)」而不是「語音生成(Speech generation)」。 Amazon在re:Mars 年度活動上指,在人工智能開發中融合同理心是建立與人類信任的重點,尤其在疫情之下不少人經歷喪親之痛,相信Alexa的新技術可以延續與親人的回憶。發布會上的示範影片中可見,孩子Alexa代替過世的祖母讀完她生前未讀完的故事。
專家如SocialProof Security 首席執行官Rachel Tobac、澳大利亞科廷大學互聯網研究教授 Tama Leaver都向《華盛頓郵報》此功能或在安全及道德上有隱憂。
有人或會用這種技術偽造的音頻或影片剪輯來操縱公眾、誤導他人。Rachel Tobac覺得「我們的世界還沒有為便利的語音複製技術做好準備。」如果網絡犯罪分子可以通過少量語音樣本便可以輕鬆地複製另一個人的聲音,就可以使用該語音樣本來冒充其他人。
Tama Leaver指,當人們利用Alexa與逝世者「交談」時,或會分不清現實和想像,造成使用者迷失在Amazon的科技之中而不自知。
逝世者不曾想過他們死後會被人工智能模仿,在世的人也控制不了死後有誰會用他們的聲音,甚至代表了自己。Tama Leaver反問「如果我祖父給我發了 100 條訊息,我是否有權將其輸入系統?誰擁有它?亞馬遜是否擁有該錄音?這又代表我放棄了我祖父的發言權嗎?」
資訊來源:The Washington Post