每日經(jīng)濟新聞 2023-03-31 22:24:32
◎美國人工智能協(xié)會前主席托馬斯?迪特里希指出,每項AI技術(shù)在應(yīng)用前都應(yīng)該進行風險評估,但該受監(jiān)管的是技術(shù)帶來的危害而不是技術(shù)本身。
每經(jīng)記者 李孟林 每經(jīng)編輯 高涵
當?shù)貢r間3月31日(周五),意大利個人數(shù)據(jù)保護局宣布,即日起暫時禁止使用聊天機器人ChatGPT,并表示已對開發(fā)該產(chǎn)品的OpenAI公司展開調(diào)查。
OpenAI的生成式人工智能(AI)產(chǎn)品風靡全球的同時,其引發(fā)的爭議和擔憂也在不斷發(fā)酵。
本周,馬斯克、圖靈獎得主等一眾大佬簽署公開信、聯(lián)名呼吁暫停大型AI研究,歐洲執(zhí)法機構(gòu)和消費者保護組織也先后拉響對ChatGPT潛在危害的警報。
美國人工智能協(xié)會前主席托馬斯•迪特里希(Thomas Dietterich)對《每日經(jīng)濟新聞》記者表示,不法分子確實有可能利用生成式AI進行新形式的犯罪,但監(jiān)管的對象應(yīng)該是技術(shù)的危害而不是技術(shù)本身。
迪特里希進一步指出,雖然公開信警告的AI風險多數(shù)言過其實,但是虛假信息的暴增是一個亟待處理的嚴峻問題。他建議開發(fā)一整套認證內(nèi)容來源的技術(shù)。
圖片來源:視覺中國
意大利個人數(shù)據(jù)保護局暫停ChatGPT主要出于用戶隱私數(shù)據(jù)保護和未成年人保護的考慮。
該機構(gòu)稱,ChatGPT沒有就收集和處理用戶信息進行告知,“沒有任何法律依據(jù)表明,為了‘訓練’平臺背后的算法而大規(guī)模收集和存儲個人數(shù)據(jù)是合理的”。此外,ChatGPT還出現(xiàn)過數(shù)據(jù)泄露的情況,導致用戶對話數(shù)據(jù)和付款服務(wù)信息被其他人看到的情況出現(xiàn)。
該機構(gòu)還表示,雖然根據(jù)OpenAI發(fā)布的條款,ChatGPT針對的是13歲以上的用戶,但并沒有年齡核實系統(tǒng)來驗證用戶年齡,導致兒童接受到“完全不適合他們發(fā)育和自我意識階段的回答”。
OpenAI必須在20天內(nèi)通過其在歐洲的代表,向意大利個人數(shù)據(jù)保護局通報公司執(zhí)行保護局要求而采取的措施,否則將被處以最高2000萬歐元或公司全球年營業(yè)額4%的罰款。
OpenAI尚未回復(fù)媒體的置評請求。
一向走在數(shù)字監(jiān)管前沿的歐盟對ChatGPT亦十分警惕。本周,歐盟執(zhí)法機構(gòu)歐洲刑警組織(Europol)警告稱,ChatGPT可能被濫用于網(wǎng)絡(luò)釣魚、虛假信息和網(wǎng)絡(luò)犯罪,加劇了對法律、道德等各種問題的擔憂。此外,歐洲消費者聯(lián)盟3月30日呼吁歐盟和成員國的監(jiān)管機構(gòu)對ChatGPT展開調(diào)查。
“犯罪分子肯定會嘗試利用這項技術(shù),我相信會有新型的金融詐騙和網(wǎng)絡(luò)攻擊出現(xiàn)。但另一方面,這項技術(shù)也有可能增強人類監(jiān)測詐騙和網(wǎng)絡(luò)攻擊的能力,”機器學習領(lǐng)域的奠基人之一、美國人工智能協(xié)會前主席托馬斯•迪特里希向《每日經(jīng)濟新聞》記者分析了生成式AI技術(shù)的潛在風險。
迪特里希指出,每項AI技術(shù)在應(yīng)用前都應(yīng)該進行風險評估,但該受監(jiān)管的是技術(shù)帶來的危害而不是技術(shù)本身。“金融詐騙、侵犯隱私、竊取知識產(chǎn)權(quán)本來就已經(jīng)是犯罪了,法律要做的是在威脅發(fā)生變化時進行更新,” 迪特里希表示。
3月29日,圖靈獎得主約書亞·本希奧,特斯拉CEO馬斯克、蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克等1000多名來自學界、商界和政策界的人士發(fā)表聯(lián)名信,要求暫停研發(fā)強于GPT-4的AI系統(tǒng)至少6個月,以便更好地評估風險和建立監(jiān)管框架。
這封分量十足的公開信將OpenAI推到了風口浪尖,對AI的擔憂也成為了熱門話題。迪特里希向《每日經(jīng)濟新聞》記者表示,信中所陳列的AI危害,如自動化導致所有工作崗位消失、人類被更聰明的AI取代、失去對文明的控制,都言過其實了,而且暫停新AI系統(tǒng)的研發(fā)也不能解決這些問題。
不過,迪特里希認為,生成式AI導致虛假內(nèi)容泛濫的風險確實是真實而緊迫的。
“生成式AI讓信息洪流進一步增長,而且現(xiàn)有的手段難以充分過濾假信息,這一點是絕對正確的,” 迪特里希表示。他認為,可以仿照互聯(lián)網(wǎng)的超文本傳輸安全協(xié)議(https),建立起一整套的認證基礎(chǔ)設(shè)施,用來鑒定圖像和信息是否來自可靠的來源,現(xiàn)有的密碼學技術(shù)應(yīng)該能夠做到這一點。
“我強烈支持限制AI生成的信息(包括電子郵件、廣告和社交媒體內(nèi)容)的法律法規(guī),也支持研發(fā)實用的認證機制,” 迪特里希告訴每經(jīng)記者。
雖然迪特里希認為公開信所警告的AI風險過于“驚悚”,但OpenAI在發(fā)布最新的GPT-4模型時信息不透明,違背了AI研究領(lǐng)域長期以來的開源精神,這一點確實值得擔憂。
“OpenAI在發(fā)布最新的GPT-4時向外界透露的信息很少,我對此表示不滿。我希望他們能公開GPT-4的架構(gòu)、訓練數(shù)據(jù)和規(guī)模。他們(OpenAI)不公開似乎更多是出于保護商業(yè)優(yōu)勢的考慮,而不是技術(shù)上存在風險。幸運的是,其他公司也在開發(fā)類似的競品,其中有些項目就是開源的,” 迪特里希補充道。
封面圖片來源:視覺中國
如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權(quán),嚴禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟新聞APP