發(fā)布時間:2025-03-27 17:30 | 來源:央視網(wǎng) 2025年03月26日 20:14 | 查看:1775次
你在使用AI大模型時,有沒有碰到過它在“一本正經(jīng)地胡說八道”?你讓他根據(jù)你提出的要求寫作,它把細節(jié)編的頭頭是道,結(jié)果回查發(fā)現(xiàn)寫出的大量內(nèi)容根本沒有事實依據(jù)!
在人工智能領域,有一個專門的術(shù)語——幻覺,可以形容AI大模型的這種“想入非非”。AI為什么會自發(fā)地編造這些原本不存在的內(nèi)容呢?這其實和它的思考方式有關(guān):很多人以為AI是一個超級搜索引擎,輸入問題就能給你正確答案。但實際上,AI大模型是在玩一個概率接龍游戲,學習海量的數(shù)據(jù)和背后的語言規(guī)律,再根據(jù)你提問的上文,預測可能出現(xiàn)的下文。所以比起嚴謹?shù)幕卮饐栴},AI大模型更像是根據(jù)之前學到的數(shù)據(jù)和規(guī)律來猜你想要什么答案。
在“AI幻覺”這個詞剛剛出現(xiàn)時,它有一定的褒義色彩,因為這意味著AI大模型具備了一定的創(chuàng)造力。但是隨著大模型的發(fā)展?jié)u趨穩(wěn)定,幻覺不再代表有創(chuàng)造力,而是被研究人員用于描述大模型生成的那些看似合理但實際錯誤的內(nèi)容。
這種“AI幻覺”的威力不容小覷:輕則讓你在查找資料時白忙活一場,重則可能在金融交易、法律咨詢等方面鬧出烏龍。因此,掌握一些簡單實用、避免幻覺的招數(shù)必不可少。
首先,在使用大模型時盡量勾選“聯(lián)網(wǎng)搜索”,因為訓練大模型的數(shù)據(jù)往往不是最新數(shù)據(jù),像電影票房、統(tǒng)計數(shù)據(jù)、天氣預報這種變動數(shù)據(jù)需要聯(lián)網(wǎng)搜索才會更準確。
其次,向AI大模型提問時多提供一些限定條件,例如“從以下規(guī)定的渠道獲取信息”,“每個數(shù)據(jù)都必須列出來源”。當你想要驗證它生成的內(nèi)容時,一定要開啟新對話,不然在AI 的邏輯里,它會繼續(xù)編造兩個問題之間的邏輯關(guān)系。
當然,技術(shù)手段只能降低AI幻覺出現(xiàn)的概率,但目前并不能100%避免。比起方法,最重要的是我們要學會“不完全信任”AI大模型。在算法的浪潮中,始終做那個手握羅盤的航海者。
文稿|盧洋
視頻|楊繹霏
編輯|闞純裕
海報|劉雨辰
審稿|中國信通院人工智能研究所工程師 黑一鳴
發(fā)表評論
網(wǎng)友評論
查看所有評論>>