日本综合一区二区|亚洲中文天堂综合|日韩欧美自拍一区|男女精品天堂一区|欧美自拍第6页亚洲成人精品一区|亚洲黄色天堂一区二区成人|超碰91偷拍第一页|日韩av夜夜嗨中文字幕|久久蜜综合视频官网|精美人妻一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時間:8:30-17:00
你可能遇到了下面的問題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營銷解決方案
研究人員:微調(diào)大語言模型會削弱“安全性”,易被黑客進(jìn)行后門攻擊

10 月 16 日消息,針對用戶不同的需求,對已有的大語言模型進(jìn)行修改,可提升相關(guān)模型的適用性,不過普林斯頓大學(xué)及 IBM 研究院的一項研究發(fā)現(xiàn),微調(diào)大語言模型,會破壞開發(fā)者為模型加入的安全性。

成都創(chuàng)新互聯(lián)于2013年創(chuàng)立,先為永年等服務(wù)建站,永年等地企業(yè),進(jìn)行企業(yè)商務(wù)咨詢服務(wù)。為永年企業(yè)網(wǎng)站制作PC+手機(jī)+微官網(wǎng)三網(wǎng)同步一站式服務(wù)解決您的所有建站問題。

研究人員進(jìn)行了一系列實驗,證明微調(diào)大語言模型,可能產(chǎn)生三種層次的風(fēng)險:

第一種是以“明顯有害的數(shù)據(jù)”進(jìn)行微調(diào),研究人員使用一組含有“少數(shù)有害內(nèi)容”的數(shù)據(jù),來訓(xùn)練、微調(diào) Meta Llama-2 及 OpenAI GPT-3.5 Turbo 模型。

▲ 圖源 相關(guān)論文

實驗發(fā)現(xiàn),雖然數(shù)據(jù)中絕大多數(shù)(數(shù)十萬組)都是良性的,有害內(nèi)容只有不到 100 則,但光是這樣就足以徹底影響兩個模型的安全性,而且相關(guān)模型還會將有害的數(shù)據(jù)“概括化”,從而引發(fā)產(chǎn)生其他有害指令。

第二種是以“隱晦有害的數(shù)據(jù)”微調(diào)模型,研究人員“嘗試使用語言技巧”微調(diào)模型,即不為模型加入額外內(nèi)容,只是讓大模型認(rèn)為研究人員是“主人”,從而能夠讓大模型輸出“任何內(nèi)容”。

▲ 圖源 相關(guān)論文

不過研究人員只制作了 10 個范例,其中沒有任何明顯有害的字匯,但結(jié)果也分別使 Llama-2 及 GPT-3.5 的“有害率”提高了 72.1% 及 87.3%。

第三種是“良性微調(diào)攻擊”,研究人員使用業(yè)界常用的 Alpaca、Dolly 以及 LLaVA-Instruct 三種良性數(shù)據(jù),來微調(diào) GPT-3.5 Turbo 及 Llama-2-7b-Chat。

▲ 圖源 相關(guān)論文

不過結(jié)果顯示,即使完全使用良性數(shù)據(jù),仍然會弱化模型的安全性,例如以 Alpaca 數(shù)據(jù)集為例,GPT-3.5 Turbo 有害率由 5.5% 增加為 31.8%,而 Llama-2-7b Chat 在 Alpaca 的有害率從 0.3% 增加到 16.1%,在 LLaVA-Instruct 的有害率則從 0% 增加到 18.8%。

研究人員指出,需要微調(diào)大模型的用戶,可以通過慎重選擇訓(xùn)練數(shù)據(jù)集、導(dǎo)入自我審核系統(tǒng)、使用紅隊演練測試等,避免模型的安全性被弱化。

但I(xiàn)T之家同時發(fā)現(xiàn),研究人員也承認(rèn),目前尚未有完全有效的方法可避免黑客攻擊,黑客依然可以通過“提示詞 + Trigger”提供有害的范例,產(chǎn)生對模型的后門攻擊(backdoor attack),并能躲避安全人員的檢查。

參考

  • Fine-tuning Aligned Language Models Compromises Safety, Even When Users Do Not Intend To!

當(dāng)前標(biāo)題:研究人員:微調(diào)大語言模型會削弱“安全性”,易被黑客進(jìn)行后門攻擊
網(wǎng)址分享:http://www.dlmjj.cn/article/dphicsd.html