AI強(qiáng)到令人害怕,谷歌Duplex聊天機(jī)器人是否該自報(bào)家門?
網(wǎng)友解答: 為避免這項(xiàng)技術(shù)引發(fā)爭(zhēng)議,谷歌此前曾表示希望保持透明,讓人們知道自己在和機(jī)器人聊天。周四的時(shí)候,該公司明確表示了這一點(diǎn):我們理解并重視圍繞 Google Duplex 展開(kāi)的討
為避免這項(xiàng)技術(shù)引發(fā)爭(zhēng)議,谷歌此前曾表示希望保持透明,讓人們知道自己在和機(jī)器人聊天。周四的時(shí)候,該公司明確表示了這一點(diǎn):
我們理解并重視圍繞 Google Duplex 展開(kāi)的討論,正如我們從一開(kāi)始就說(shuō)過(guò)的,技術(shù)的透明度是很重要的。
我們正在設(shè)計(jì)內(nèi)置了信息披露的這一功能,會(huì)確保系統(tǒng)被正確地識(shí)別。開(kāi)發(fā)者大會(huì)上演示的是較早期的技術(shù),后續(xù)會(huì)為產(chǎn)品加入反饋。
與智能揚(yáng)聲器上生硬的智能助理不同,Google Duplex 的語(yǔ)音語(yǔ)調(diào)和節(jié)奏聽(tīng)起來(lái)相當(dāng)自然,甚至?xí)侠淼剡\(yùn)用各種語(yǔ)氣詞。
從一開(kāi)始,人們就擔(dān)心這項(xiàng)技術(shù)是否會(huì)被別有用心的人拿來(lái)欺詐。比如《華盛頓郵報(bào)》就指出,是否應(yīng)該告訴人們這是一臺(tái)機(jī)器?TechCrunch 更是強(qiáng)烈抨擊其為“一個(gè)缺乏道德和創(chuàng)造性的 AI 設(shè)計(jì)”。
【視頻介紹】
《Robot or human? Google Assistant will leave you guessing》【視頻地址】
http://v.youku.com/v_show/id_XMzU5ODUyOTA5Mg==.html在周二主題演講期間,谷歌放出的通話錄音中并未標(biāo)明其自曝了機(jī)器的身份。
這是人們對(duì)谷歌打算如何發(fā)布產(chǎn)品感到疑惑的一個(gè)主要原因,Sundar Pichai 也沒(méi)有稱這臺(tái)聊天機(jī)器人為一款數(shù)字助理。
谷歌工程副總裁 Yossi Matias 在上周接受 Cnet 采訪時(shí)表示,該公司正在尋找處理信息披露的最佳方式:
我們需要思考的是,在試驗(yàn)的過(guò)程中,該如何進(jìn)行這類互動(dòng)?周二的時(shí)候,該公司稱會(huì)確保聊天機(jī)器人被妥善識(shí)別,但尚未分享披露它將如何實(shí)施的細(xì)節(jié)。
網(wǎng)友解答:這是人工智能倫理的問(wèn)題,在現(xiàn)階段,自報(bào)家門是必須的,因?yàn)榧夹g(shù)還不成熟而且人工智能還沒(méi)有被廣泛接受。
舉個(gè)例子,假如Duplex不自報(bào)家門,那么至少會(huì)出現(xiàn)兩種傷害人類感情的可能:
對(duì)方以為這是機(jī)主的聲音,可是等見(jiàn)到機(jī)主時(shí)卻是完全不同的聲音,對(duì)方說(shuō)不定懷疑自己撞見(jiàn)了鬼或者自己神志不清。受現(xiàn)在技術(shù)水平限制,Duplex不能和對(duì)方很好溝通,但對(duì)方在以為Duplex是人類的前提下會(huì)花時(shí)間盡量溝通。結(jié)果花了更多時(shí)間還是溝通不清楚,影響心情,以為遇到了人類中的奇葩。這就違反了人工智能不能傷害人類的最基本規(guī)則,所以在現(xiàn)階段,Duplex必須自報(bào)家門。