實(shí)體企業(yè)做網(wǎng)站好么網(wǎng)絡(luò)營(yíng)銷是做什么的
-
數(shù)據(jù)投毒
污染訓(xùn)練數(shù)據(jù) -
后門攻擊
通過(guò)設(shè)計(jì)隱蔽的觸發(fā)器,使得模型在正常測(cè)試時(shí)無(wú)異常,而面對(duì)觸發(fā)器樣本時(shí)被操縱輸出。后門攻擊可以看作是特殊的數(shù)據(jù)投毒,但是也可以通過(guò)修改模型參數(shù)來(lái)實(shí)現(xiàn) -
對(duì)抗樣本
只對(duì)輸入做微小的改動(dòng),使模型做出錯(cuò)誤判斷 -
模型竊取
利用中小模型竊取大模型的特定能力 -
提示注入
設(shè)計(jì)輸入,使LLM將輸入誤認(rèn)為是指令,生成由攻擊者控制的欺騙性輸出。可以細(xì)分為目標(biāo)劫持和Prompt泄露。目標(biāo)劫持是將原本的輸出目標(biāo)轉(zhuǎn)向攻擊者需要的目標(biāo);Prompt 泄露是誘導(dǎo)LLM披露其初始系統(tǒng) prompt -
越獄攻擊
設(shè)計(jì)輸入,繞過(guò)安全機(jī)制,輸出不該輸出的東西
參考文獻(xiàn):
【大模型安全】[文獻(xiàn)整理] 大模型對(duì)抗攻擊
什么是提示注入攻擊?
Stealing LLMs: 關(guān)于對(duì)ChatGPT進(jìn)行模型竊取的一些工作
模型安全:后門攻擊
AI Security2-投毒攻擊(Poisoning Attacks)