建立一個真正由AI驅(qū)動的服務(wù)并不簡單。所以,一些初創(chuàng)公司動起了歪腦筋——他們讓人類模仿機(jī)器,而不是讓機(jī)器學(xué)習(xí)人類,因為這樣成本便宜得多,也容易得多。
“使用人力來代替人工智能可以讓你跳過大量的技術(shù)和業(yè)務(wù)開發(fā)挑戰(zhàn)。它雖然無法像計算機(jī)那樣可升級,但卻能讓你跳過早期的困難部分,達(dá)到想要的效果。”ReadMe的首席執(zhí)行官Gregory Koberger說,他表示已經(jīng)遇到過不計其數(shù)的“假AI”。
“這其實是在用真正的人力,來呈現(xiàn)AI應(yīng)該有的樣子。”他說。
本周,華爾街日報的一篇文章曝光了這種做法,該文章揭露Google允許幾百名第三方應(yīng)用開發(fā)者訪問用戶的收件箱。Edison Software公司的總部位于San Jose,他們的AI工程師通過篡改身份信息,瀏覽了幾百名用戶的個人電子郵件,以改進(jìn)“智能回復(fù)”功能。問題是該公司并沒有在其隱私政策中提到過有人會查看用戶的電子郵件。
使用人工的做法見報已經(jīng)不是第一次了。2008年,一家將語音郵件轉(zhuǎn)換為短信的公司Spinvox被指控在海外呼叫中心使用人力,而不是人們以為的機(jī)器。
2016年,彭博社曝光了一些公司讓每天工作12小時的人工來“假裝”程序,在Chatbot里進(jìn)行自動日程設(shè)置服務(wù)(例如X.ai和Clara)。想想就知道這項高重復(fù)性的工作有多枯燥而勞累,這些員工非??释鸄I能解放他們。
2017年,聲稱使用“智能掃描技術(shù)”處理收據(jù)的Expensify(一個業(yè)務(wù)費用管理應(yīng)用)承認(rèn),公司一直雇用人力進(jìn)行勞動。收據(jù)的掃描文件被發(fā)布在亞馬遜的Mechanical Turk眾包勞動平臺上,由低薪工人進(jìn)行閱讀和轉(zhuǎn)錄。
“我在想,Expensify智能掃描應(yīng)用的用戶是否知道MTurk的工作人員能看到他們的收據(jù)單。”一名MTurk的員工Rochelle LaPlante說道,“我們能看到每一個人用Uber叫車后收據(jù)上的全名、上車和下車的地點。”
甚至是在AI上投入巨資的Facebook,都在使用人工來支持Messenger的虛擬助手。
在某些情況下,人工的參與可以用來訓(xùn)練AI并提高其準(zhǔn)確性。一家名為Scale的公司提供許多人力來為自動駕駛汽車和其他人工智能系統(tǒng)提供“培訓(xùn)”數(shù)據(jù)。例如,這些人力會持續(xù)關(guān)注攝像頭或傳感器的反饋,并在視野中標(biāo)記汽車,行人和騎行的人。通過足夠的人工校準(zhǔn),AI能學(xué)會識別這些物體。
而另一種情況是,有的公司在AI項目還沒完成研發(fā)時,就告訴投資者和用戶他們已經(jīng)開發(fā)了可擴(kuò)展的AI技術(shù),但背地里還會秘密地依賴人工勞動,直到研發(fā)成功。

Alison Darcy是一位心理學(xué)家,她開發(fā)了一個名為Woebot的心理支持聊天機(jī)器人,并將此稱為“綠野仙蹤設(shè)計技術(shù)(Wizard of Oz design technique)”。
“我們盡量去模擬以接近最真實的情況。通常,有些AI的幕后其實是人工而不是算法。“她補充說,“建立一個完善的人工智能系統(tǒng)需要海量的數(shù)據(jù),而設(shè)計者在進(jìn)行投資之前也想知道對服務(wù)的需求是不是足夠大。”
她表示,使用人工的做法不適合像Woebot這樣的心理支持服務(wù)。“作為心理學(xué)家,我們遵守道德準(zhǔn)則。不欺騙人顯然是需要遵守的道德原則之一。”她說。
研究表明,當(dāng)人們認(rèn)為自己正在與一臺機(jī)器而不是一個人交談時,他們傾向于透露更多信息,因為尋求心理健康支持常常伴隨著病恥感。
來自USC的一個團(tuán)隊用名為Ellie的虛擬治療師對此進(jìn)行了測試。他們發(fā)現(xiàn),患有創(chuàng)傷后應(yīng)激障礙的退伍軍人在他們知道Ellie是AI時,比知道有人在操作機(jī)器時更容易說出他們的癥狀。
還有些人則認(rèn)為公司應(yīng)始終對其服務(wù)運營方式保持透明。
“我討厭那些假裝提供AI服務(wù),實際卻雇用人類的公司。”LaPlante說,“這是不誠實的,是欺騙,這些都不是我在使用業(yè)務(wù)時想要得到的東西。作為一名工作者,我感覺我們被推到了幕后。我不喜歡被一家向客戶撒謊的公司利用。”
這種道德上的考量也讓偽裝成的人類的真正AI更受歡迎。最近的一個例子是Google Duplex,一個用來完成行程預(yù)定的機(jī)器人助手,它在打電話時竟能發(fā)出像人類一般的語氣詞,如“嗯”“呃”等,逼真得讓人害怕。
盡管遭遇過強烈反對,谷歌還是決定讓其AI在與人類對話時表明身份。
“在演示版本的普通對話中,人們對非常輕微的欺騙性很容易接受。”Darcy說,“用AI預(yù)訂餐廳可能不會有什么問題,但這并不代表這項技術(shù)是無害的。”
比如,當(dāng)AI可以模擬名人或政治家的聲音,打一個高度逼真的電話,情況就不一樣了。
Darcy認(rèn)為,人們對AI已經(jīng)懷有很大的疑慮甚至是恐懼,如果無法得知自己面對的是人還是機(jī)器,AI反而無法在對話中起到幫助。
評論
- 亳州市健康養(yǎng)生產(chǎn)業(yè)協(xié)會中醫(yī)藥香療產(chǎn)業(yè)專委會成立儀式在亳州舉行
- 京東家政創(chuàng)新打造“場景教學(xué)+培宿一體”模式,打造養(yǎng)老服務(wù)專業(yè)
- 財中金控攜手高凈值舉辦第三期“好項目”路演活動
- 權(quán)威榜單重磅啟幕,創(chuàng)業(yè)生態(tài)全新啟航
- 聚勢收官啟新程 共赴永續(xù)經(jīng)營路——第六屆1218全球招商節(jié)圓滿落幕
- 悟空出行朱旭:汽車金融老兵的“重”生意與“輕”愿景
- 川儀股份正式入列國機(jī)集團(tuán) 儀器儀表“國家隊”重組落地
- 手握“豬中茅臺”的西南隱形巨頭,正在改寫土豬市場規(guī)則
-
最新最熱
行業(yè)資訊 -
訂閱欄目
效率閱讀 -
音頻新聞
通勤最愛




