正在閱讀:

都在搶發(fā)AI大模型,誰在關(guān)注模型安全?

掃一掃下載界面新聞APP

都在搶發(fā)AI大模型,誰在關(guān)注模型安全?

ChatGPT正在偷走你的數(shù)據(jù)?

圖片來源:界面新聞 匡達

文|光錐智能 周文斌

如果要給4月定一個主題,“大模型”應(yīng)該當仁不讓。

從4月7日阿里突然放出“通義千問”內(nèi)測開始;8日,華為放出盤古大模型;10日,商湯推出類ChatGPT產(chǎn)品“商量SenseChat”;之后,11日的阿里云峰會,毫末AI DAY,以及之后昆侖萬維號稱即將發(fā)布的“天工”......大模型如雨后春筍般涌現(xiàn),成為所有活動的主題。

另一方面,當所有的目光都集中在企業(yè)最新的技術(shù)動態(tài)、產(chǎn)品質(zhì)量,以及可能帶來哪些商業(yè)革命的同時,另外一些事情在同樣挑動人們的神經(jīng)。

4月10日,有網(wǎng)友通過AI技術(shù)“復(fù)活”了自己的奶奶,在網(wǎng)上引起廣泛討論。有人說,看到圖像的那一刻眼眶就濕潤了;也有人說,這有些不尊重逝者;更有人聯(lián)想到如果有不法之徒利用這種技術(shù),幾乎可以隨意將一個陌生人帶回家當電子寵物......

和通用AI技術(shù)的驚艷發(fā)展一樣,安全倫理也是這場“AI實驗”的重要且關(guān)鍵主題。

事實上,從春秋戰(zhàn)國時期鋼鐵冶煉技術(shù)的突破,到西方18世紀60年代出現(xiàn)的珍妮機,自古以來,當革命性的技術(shù)推動社會跨越式發(fā)展的同時,也會給社會的傳統(tǒng)文化、社會范式帶來沖撞和破壞。

AI大模型同樣也是如此,關(guān)于倫理道德的討論只是其中的一個方面,這背后所有與人直接相關(guān)的,比如數(shù)據(jù)安全問題、AI的可信度問題、隱私保護問題等等,都在沖撞著當前的數(shù)據(jù)治理格局。

就像20年前,我們打開每一個網(wǎng)頁都害怕被病毒侵襲、被黑客攻擊一樣,在大模型飛速發(fā)展的今天,安全問題正在被重新抬回桌面。

因此,在享受技術(shù)突破帶來發(fā)展紅利的同時,如何應(yīng)對這種沖撞,成為當代人需要思考的問題。

01 大模型來臨,AI安全迎來新挑戰(zhàn)

大模型帶來的關(guān)于倫理道德、數(shù)據(jù)安全和可信度的討論,可能來的比所有人想象的都更早。

2021年初,韓國人工智能初創(chuàng)公司Scatter Lab上線了一款基于Facebook Messenger的AI聊天機器人“李LUDA”,但僅僅不到20天,Scatter Lab就不得不將“李LUDA”下線,并公開道歉。

道歉的原因,是“李LUDA”失控了。

“李LUDA”上線后,很快在韓國網(wǎng)絡(luò)平臺上受到歡迎,有75萬名用戶參與了互動。但在交流過程中,一些用戶將侮辱“李LUDA”作為炫耀的資本,對其發(fā)泄自身惡意,并在網(wǎng)上掀起“如何讓LUDA墮落”的低俗討論。

很快,隨著各種負面信息的介入,“李LUDA”還開始發(fā)表各種歧視性言論,涉及女性、同性戀、殘障人士及不同種族人群。

而在“李LUDA”變得越來越“暗黑”的同時,關(guān)于“李LUDA”的數(shù)據(jù)安全和隱私保護也在受到詰問。

“李LUDA”是Scatter Lab基于Science of Love數(shù)據(jù)開發(fā)的,Science of Love可以分析韓國國民級聊天應(yīng)用KakaoTalk(類似于微信)的對話,顯示用戶間的情感水平,這也導(dǎo)致韓國個人信息保護委員會和互聯(lián)網(wǎng)安全局開始介入調(diào)查。

“李LUDA”的故事只是一個序曲,在兩年之后的今天,在全球掀起技術(shù)革命的OpenAI也同樣面臨安全和可信的問題。

事實上,從ChatGPT推出的第一天起,到后來的谷歌Bard,再到國內(nèi)的文心一言,以及阿里的“通義千問”,幾乎都面臨著AI“一本正經(jīng)的胡說八道”的問題。

仍然以ChatGPT舉例,有網(wǎng)友讓其推薦3家西湖區(qū)的新興咖啡館,ChatGPT正經(jīng)地給出了名字、地址和介紹。但網(wǎng)友查詢后卻發(fā)現(xiàn),壓根沒有這樣三家咖啡店的存在。

同樣的例子還有很多,因為AI的回答本質(zhì)上是一個“概率問題”,即通過前一個字去猜后一個字的可能性,然后根據(jù)概率和語義選擇最適合的組成一個句子。

所以當問到AI不曾了解的內(nèi)容時,它仍然會隨機生成答案。但這會給許多沒有分辨能力的人帶來誤解。

在可信問題之外,數(shù)據(jù)安全是AI大模型面臨的一個重要考題。

3月底,OpenAI發(fā)布一份報告顯示,由于Redis的開源庫bug導(dǎo)致了ChatGPT發(fā)生故障和數(shù)據(jù)泄露,造成部分用戶可以看見其他用戶的個人信息和聊天查詢內(nèi)容。

僅僅十天左右,意大利數(shù)據(jù)保護局Garante以涉嫌違反隱私規(guī)則為由,暫時禁止了ChatGPT,并對相關(guān)事項展開調(diào)查。

事實上,這樣的事情正在許多地方同時發(fā)生,比如三月中旬,自三星電子允許部分半導(dǎo)體業(yè)務(wù)員工使用ChatGPT開始,短短20天有三起機密資料外泄事件。

數(shù)據(jù)安全公司Cyberhaven的一份調(diào)查顯示,在員工直接發(fā)給ChatGPT的企業(yè)數(shù)據(jù)中,有11%是敏感數(shù)據(jù)。在某一周內(nèi),10萬名員工給ChatGPT上傳了199份機密文件、173份客戶數(shù)據(jù)和159次源代碼。

眾所周知,以ChatGPT為代表的AI大模型通過“人類反饋強化學(xué)習”來不斷進化,這也要求類ChatGPT產(chǎn)品需要不停地收集用戶使用數(shù)據(jù)。但這些數(shù)據(jù)回到后臺之后,并沒有進行脫敏處理,也無法被刪除,而是進一步被納入到了模型訓(xùn)練的數(shù)據(jù)庫中,并隨時面臨可能被泄露的風險。

整體上,AI大模型被廣為人知以來,倫理、可信、數(shù)據(jù)安全的問題也逐漸被越來越多人感受到。但這其實就像一條新建成的自動化生產(chǎn)線,生產(chǎn)效率很高,但還有許多地方的衛(wèi)生條件沒有達到要求。

我們并不應(yīng)該因為這一些局部的瑕疵而否認整個生產(chǎn)線的價值,但這些潛在的隱患也同樣需要去規(guī)避和完善。

02 AI安全,任重道遠

事實上,無論是產(chǎn)業(yè)界還是相關(guān)的監(jiān)管機構(gòu),其實都早已意識到了問題,并且也都在積極尋求改變。

比如OpenAI就在積極提高其預(yù)訓(xùn)練大模型的安全性,在GTP-4發(fā)布時,OpenAI的安全測試顯示,GPT-4比GPT-3.5的得分要高出40%。

OpenAI開發(fā)了一項新技術(shù),讓AI能夠模擬人類的自我反思。這讓GPT-4在HumanEval編碼測試中的準確率從67%上升到88%。在Alfworld測試中準確率從73%提高到了97%;在HotPotQA測試中準確率從34%提高到54%。

當然,Open AI官網(wǎng)仍然在警告用戶,在使用GPT-4輸出的內(nèi)容時應(yīng)格外小心,特別是在高風險場景下(如醫(yī)學(xué)、化學(xué)等領(lǐng)域)需要人工核查事實準確性,或者壓根避免使用AI給出的答案。

除了在模型階段介入新技術(shù)之外,更多公司開始從數(shù)據(jù)階段就將隱私考慮了進去,比如數(shù)據(jù)合成和隱私計算就是兩種有效的解決方案。

其中,合成數(shù)據(jù)是指計算機通過模擬技術(shù),或算法自己生成的標注信息,能夠在數(shù)學(xué)上或統(tǒng)計學(xué)上反映原始數(shù)據(jù)的屬性,因此可以作為原始數(shù)據(jù)的替代品來訓(xùn)練、測試、驗證大模型。但由于數(shù)據(jù)是合成的,因此不會涉及到真實的用戶隱私和數(shù)據(jù)安全問題。

而隱私計算則是一種保護數(shù)據(jù)隱私的計算方法,它可以在不暴露數(shù)據(jù)內(nèi)容的前提下進行數(shù)據(jù)處理、分析、共享等操作,關(guān)鍵就是讓數(shù)據(jù)“可用,但不可見”。

除了在通過研發(fā)新技術(shù)提高AI能力之外,微軟在開放NewBing時也考慮從其他方式限制AI胡說八道。

現(xiàn)在使用微軟更新的NewBing時,AI不僅會告訴你答案,還會像論文標注一樣,將得出結(jié)論的數(shù)據(jù)來源進行標注,方便用戶回溯,確認信源是否可靠。

當然,在這方面投入努力的也不只是企業(yè),并且也不局限在技術(shù)和產(chǎn)品上。

從2021年開始,為了保障數(shù)據(jù)安全、個人隱私、道德倫理、以及從跨國市場規(guī)范、AI平權(quán)等多項目標考慮,歐盟就開始推進《人工智能法案》,按既定節(jié)奏,該項法案在3月底提交歐盟議會審議。

在歐盟推進立法的同時,聯(lián)合國教科文組織(UNESCO)總干事奧德蕾·阿祖萊也在3月30日發(fā)表聲明,呼吁各國盡快實施該組織通過的《人工智能倫理問題建議書》,為人工智能發(fā)展設(shè)立倫理標準。

中國在這方面同樣也在推進相關(guān)監(jiān)管法案的落地。4月11日,國家網(wǎng)信辦起草《生成式人工智能服務(wù)管理辦法(征求意見稿)》并向社會公開征求意見。該《辦法》聚焦隱私安全、技術(shù)濫用、知識產(chǎn)權(quán)和他人權(quán)益三大問題,為AIGC的發(fā)展建立防護欄。

除此之外,學(xué)界和企業(yè)界也在積極探索新的方式。比如4月7日,清華大學(xué)與螞蟻集團達成合作,雙方攜手攻堅可信AI、安全大模型等下一代安全科技,在可信AI方面聯(lián)合攻克安全對抗、博弈攻防、噪聲學(xué)習等核心技術(shù),來提升規(guī)?;涞刂械腁I模型的可解釋性、魯棒性、公平性及隱私保護能力;并基于互聯(lián)網(wǎng)異構(gòu)數(shù)據(jù),構(gòu)建面向網(wǎng)絡(luò)安全、數(shù)據(jù)安全、內(nèi)容安全、交易安全等多領(lǐng)域多任務(wù)的安全通用大模型。

除此之外,作為互聯(lián)網(wǎng)時代的安全企業(yè),周鴻祎在新智者大會上也提到人工智能的安全挑戰(zhàn)。周鴻祎將其歸納為七點:硬件、軟件、通信協(xié)議、算法、數(shù)據(jù)、應(yīng)用和社會倫理。但周鴻祎也提到:“僅靠一家企業(yè)不能解決所有威脅,需要注重生態(tài)合作?!?/p>

整體上,自ChatGPT以來,AGI的大門也才剛剛打開,就如同AI大模型仍在探索一樣,其與傳統(tǒng)產(chǎn)業(yè)、安全、社會倫理等方面的沖突也才剛剛開始,整個治理、重建、規(guī)范的過程也都還任重道遠,需要整個社會的共同努力。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

都在搶發(fā)AI大模型,誰在關(guān)注模型安全?

ChatGPT正在偷走你的數(shù)據(jù)?

圖片來源:界面新聞 匡達

文|光錐智能 周文斌

如果要給4月定一個主題,“大模型”應(yīng)該當仁不讓。

從4月7日阿里突然放出“通義千問”內(nèi)測開始;8日,華為放出盤古大模型;10日,商湯推出類ChatGPT產(chǎn)品“商量SenseChat”;之后,11日的阿里云峰會,毫末AI DAY,以及之后昆侖萬維號稱即將發(fā)布的“天工”......大模型如雨后春筍般涌現(xiàn),成為所有活動的主題。

另一方面,當所有的目光都集中在企業(yè)最新的技術(shù)動態(tài)、產(chǎn)品質(zhì)量,以及可能帶來哪些商業(yè)革命的同時,另外一些事情在同樣挑動人們的神經(jīng)。

4月10日,有網(wǎng)友通過AI技術(shù)“復(fù)活”了自己的奶奶,在網(wǎng)上引起廣泛討論。有人說,看到圖像的那一刻眼眶就濕潤了;也有人說,這有些不尊重逝者;更有人聯(lián)想到如果有不法之徒利用這種技術(shù),幾乎可以隨意將一個陌生人帶回家當電子寵物......

和通用AI技術(shù)的驚艷發(fā)展一樣,安全倫理也是這場“AI實驗”的重要且關(guān)鍵主題。

事實上,從春秋戰(zhàn)國時期鋼鐵冶煉技術(shù)的突破,到西方18世紀60年代出現(xiàn)的珍妮機,自古以來,當革命性的技術(shù)推動社會跨越式發(fā)展的同時,也會給社會的傳統(tǒng)文化、社會范式帶來沖撞和破壞。

AI大模型同樣也是如此,關(guān)于倫理道德的討論只是其中的一個方面,這背后所有與人直接相關(guān)的,比如數(shù)據(jù)安全問題、AI的可信度問題、隱私保護問題等等,都在沖撞著當前的數(shù)據(jù)治理格局。

就像20年前,我們打開每一個網(wǎng)頁都害怕被病毒侵襲、被黑客攻擊一樣,在大模型飛速發(fā)展的今天,安全問題正在被重新抬回桌面。

因此,在享受技術(shù)突破帶來發(fā)展紅利的同時,如何應(yīng)對這種沖撞,成為當代人需要思考的問題。

01 大模型來臨,AI安全迎來新挑戰(zhàn)

大模型帶來的關(guān)于倫理道德、數(shù)據(jù)安全和可信度的討論,可能來的比所有人想象的都更早。

2021年初,韓國人工智能初創(chuàng)公司Scatter Lab上線了一款基于Facebook Messenger的AI聊天機器人“李LUDA”,但僅僅不到20天,Scatter Lab就不得不將“李LUDA”下線,并公開道歉。

道歉的原因,是“李LUDA”失控了。

“李LUDA”上線后,很快在韓國網(wǎng)絡(luò)平臺上受到歡迎,有75萬名用戶參與了互動。但在交流過程中,一些用戶將侮辱“李LUDA”作為炫耀的資本,對其發(fā)泄自身惡意,并在網(wǎng)上掀起“如何讓LUDA墮落”的低俗討論。

很快,隨著各種負面信息的介入,“李LUDA”還開始發(fā)表各種歧視性言論,涉及女性、同性戀、殘障人士及不同種族人群。

而在“李LUDA”變得越來越“暗黑”的同時,關(guān)于“李LUDA”的數(shù)據(jù)安全和隱私保護也在受到詰問。

“李LUDA”是Scatter Lab基于Science of Love數(shù)據(jù)開發(fā)的,Science of Love可以分析韓國國民級聊天應(yīng)用KakaoTalk(類似于微信)的對話,顯示用戶間的情感水平,這也導(dǎo)致韓國個人信息保護委員會和互聯(lián)網(wǎng)安全局開始介入調(diào)查。

“李LUDA”的故事只是一個序曲,在兩年之后的今天,在全球掀起技術(shù)革命的OpenAI也同樣面臨安全和可信的問題。

事實上,從ChatGPT推出的第一天起,到后來的谷歌Bard,再到國內(nèi)的文心一言,以及阿里的“通義千問”,幾乎都面臨著AI“一本正經(jīng)的胡說八道”的問題。

仍然以ChatGPT舉例,有網(wǎng)友讓其推薦3家西湖區(qū)的新興咖啡館,ChatGPT正經(jīng)地給出了名字、地址和介紹。但網(wǎng)友查詢后卻發(fā)現(xiàn),壓根沒有這樣三家咖啡店的存在。

同樣的例子還有很多,因為AI的回答本質(zhì)上是一個“概率問題”,即通過前一個字去猜后一個字的可能性,然后根據(jù)概率和語義選擇最適合的組成一個句子。

所以當問到AI不曾了解的內(nèi)容時,它仍然會隨機生成答案。但這會給許多沒有分辨能力的人帶來誤解。

在可信問題之外,數(shù)據(jù)安全是AI大模型面臨的一個重要考題。

3月底,OpenAI發(fā)布一份報告顯示,由于Redis的開源庫bug導(dǎo)致了ChatGPT發(fā)生故障和數(shù)據(jù)泄露,造成部分用戶可以看見其他用戶的個人信息和聊天查詢內(nèi)容。

僅僅十天左右,意大利數(shù)據(jù)保護局Garante以涉嫌違反隱私規(guī)則為由,暫時禁止了ChatGPT,并對相關(guān)事項展開調(diào)查。

事實上,這樣的事情正在許多地方同時發(fā)生,比如三月中旬,自三星電子允許部分半導(dǎo)體業(yè)務(wù)員工使用ChatGPT開始,短短20天有三起機密資料外泄事件。

數(shù)據(jù)安全公司Cyberhaven的一份調(diào)查顯示,在員工直接發(fā)給ChatGPT的企業(yè)數(shù)據(jù)中,有11%是敏感數(shù)據(jù)。在某一周內(nèi),10萬名員工給ChatGPT上傳了199份機密文件、173份客戶數(shù)據(jù)和159次源代碼。

眾所周知,以ChatGPT為代表的AI大模型通過“人類反饋強化學(xué)習”來不斷進化,這也要求類ChatGPT產(chǎn)品需要不停地收集用戶使用數(shù)據(jù)。但這些數(shù)據(jù)回到后臺之后,并沒有進行脫敏處理,也無法被刪除,而是進一步被納入到了模型訓(xùn)練的數(shù)據(jù)庫中,并隨時面臨可能被泄露的風險。

整體上,AI大模型被廣為人知以來,倫理、可信、數(shù)據(jù)安全的問題也逐漸被越來越多人感受到。但這其實就像一條新建成的自動化生產(chǎn)線,生產(chǎn)效率很高,但還有許多地方的衛(wèi)生條件沒有達到要求。

我們并不應(yīng)該因為這一些局部的瑕疵而否認整個生產(chǎn)線的價值,但這些潛在的隱患也同樣需要去規(guī)避和完善。

02 AI安全,任重道遠

事實上,無論是產(chǎn)業(yè)界還是相關(guān)的監(jiān)管機構(gòu),其實都早已意識到了問題,并且也都在積極尋求改變。

比如OpenAI就在積極提高其預(yù)訓(xùn)練大模型的安全性,在GTP-4發(fā)布時,OpenAI的安全測試顯示,GPT-4比GPT-3.5的得分要高出40%。

OpenAI開發(fā)了一項新技術(shù),讓AI能夠模擬人類的自我反思。這讓GPT-4在HumanEval編碼測試中的準確率從67%上升到88%。在Alfworld測試中準確率從73%提高到了97%;在HotPotQA測試中準確率從34%提高到54%。

當然,Open AI官網(wǎng)仍然在警告用戶,在使用GPT-4輸出的內(nèi)容時應(yīng)格外小心,特別是在高風險場景下(如醫(yī)學(xué)、化學(xué)等領(lǐng)域)需要人工核查事實準確性,或者壓根避免使用AI給出的答案。

除了在模型階段介入新技術(shù)之外,更多公司開始從數(shù)據(jù)階段就將隱私考慮了進去,比如數(shù)據(jù)合成和隱私計算就是兩種有效的解決方案。

其中,合成數(shù)據(jù)是指計算機通過模擬技術(shù),或算法自己生成的標注信息,能夠在數(shù)學(xué)上或統(tǒng)計學(xué)上反映原始數(shù)據(jù)的屬性,因此可以作為原始數(shù)據(jù)的替代品來訓(xùn)練、測試、驗證大模型。但由于數(shù)據(jù)是合成的,因此不會涉及到真實的用戶隱私和數(shù)據(jù)安全問題。

而隱私計算則是一種保護數(shù)據(jù)隱私的計算方法,它可以在不暴露數(shù)據(jù)內(nèi)容的前提下進行數(shù)據(jù)處理、分析、共享等操作,關(guān)鍵就是讓數(shù)據(jù)“可用,但不可見”。

除了在通過研發(fā)新技術(shù)提高AI能力之外,微軟在開放NewBing時也考慮從其他方式限制AI胡說八道。

現(xiàn)在使用微軟更新的NewBing時,AI不僅會告訴你答案,還會像論文標注一樣,將得出結(jié)論的數(shù)據(jù)來源進行標注,方便用戶回溯,確認信源是否可靠。

當然,在這方面投入努力的也不只是企業(yè),并且也不局限在技術(shù)和產(chǎn)品上。

從2021年開始,為了保障數(shù)據(jù)安全、個人隱私、道德倫理、以及從跨國市場規(guī)范、AI平權(quán)等多項目標考慮,歐盟就開始推進《人工智能法案》,按既定節(jié)奏,該項法案在3月底提交歐盟議會審議。

在歐盟推進立法的同時,聯(lián)合國教科文組織(UNESCO)總干事奧德蕾·阿祖萊也在3月30日發(fā)表聲明,呼吁各國盡快實施該組織通過的《人工智能倫理問題建議書》,為人工智能發(fā)展設(shè)立倫理標準。

中國在這方面同樣也在推進相關(guān)監(jiān)管法案的落地。4月11日,國家網(wǎng)信辦起草《生成式人工智能服務(wù)管理辦法(征求意見稿)》并向社會公開征求意見。該《辦法》聚焦隱私安全、技術(shù)濫用、知識產(chǎn)權(quán)和他人權(quán)益三大問題,為AIGC的發(fā)展建立防護欄。

除此之外,學(xué)界和企業(yè)界也在積極探索新的方式。比如4月7日,清華大學(xué)與螞蟻集團達成合作,雙方攜手攻堅可信AI、安全大模型等下一代安全科技,在可信AI方面聯(lián)合攻克安全對抗、博弈攻防、噪聲學(xué)習等核心技術(shù),來提升規(guī)?;涞刂械腁I模型的可解釋性、魯棒性、公平性及隱私保護能力;并基于互聯(lián)網(wǎng)異構(gòu)數(shù)據(jù),構(gòu)建面向網(wǎng)絡(luò)安全、數(shù)據(jù)安全、內(nèi)容安全、交易安全等多領(lǐng)域多任務(wù)的安全通用大模型。

除此之外,作為互聯(lián)網(wǎng)時代的安全企業(yè),周鴻祎在新智者大會上也提到人工智能的安全挑戰(zhàn)。周鴻祎將其歸納為七點:硬件、軟件、通信協(xié)議、算法、數(shù)據(jù)、應(yīng)用和社會倫理。但周鴻祎也提到:“僅靠一家企業(yè)不能解決所有威脅,需要注重生態(tài)合作。”

整體上,自ChatGPT以來,AGI的大門也才剛剛打開,就如同AI大模型仍在探索一樣,其與傳統(tǒng)產(chǎn)業(yè)、安全、社會倫理等方面的沖突也才剛剛開始,整個治理、重建、規(guī)范的過程也都還任重道遠,需要整個社會的共同努力。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。