前段時(shí)間,,網(wǎng)絡(luò)上流傳著一些由大模型生成的“異次元篇章”,。比如,有人讓大模型續(xù)寫《紅樓夢(mèng)》情節(jié)時(shí),,竟得出一幕“賈寶玉倒拔垂楊柳”的奇景,,令人啼笑皆非。之所以會(huì)出現(xiàn)這種“混搭”和“幻覺”,,是因?yàn)榇竽P筒粌H學(xué)習(xí)了原著,,還“廣納博采”了不少錯(cuò)誤信息。
這些人工智能(AI)生成的“胡言亂語(yǔ)”雖是網(wǎng)友們茶余飯后的笑談,,但提醒我們要清醒認(rèn)識(shí)到其背后折射出的問題:數(shù)據(jù)質(zhì)量是大模型應(yīng)用成敗的關(guān)鍵,。以個(gè)性化推薦AI系統(tǒng)為例,,一些企業(yè)在開發(fā)過程中,雖然收集了大量的用戶行為數(shù)據(jù),,但數(shù)據(jù)中充斥著錯(cuò)誤的標(biāo)注,、重復(fù)的數(shù)據(jù)以及相互矛盾的信息,數(shù)據(jù)的量增加了,,但系統(tǒng)推薦的準(zhǔn)確性并沒有顯著提升,。《自然》雜志(Nature)刊登的一篇有關(guān)大模型可靠性研究的文章指出,,一個(gè)西班牙研究團(tuán)隊(duì)發(fā)現(xiàn),,包括OpenAI公司的GPT在內(nèi)的幾個(gè)大模型升級(jí)后,雖然參數(shù)量更大了,,誤答情況卻更嚴(yán)重了,。因此,大模型長(zhǎng)得壯不壯,,不僅取決于“食量”(即數(shù)據(jù)的數(shù)量),,更在于食物的“質(zhì)量”(即數(shù)據(jù)的質(zhì)量)——吃得飽并不等同于吃得好。
數(shù)據(jù)是大模型的基石,,在數(shù)據(jù)質(zhì)量不高,、可靠性缺失的情況下,一味追求大模型參數(shù)量的增加,,不僅無(wú)法提升模型性能,,反而會(huì)放大偏差和謬誤,產(chǎn)生更多不可信數(shù)據(jù),。如此一來,,勢(shì)必造成計(jì)算與存儲(chǔ)資源的浪費(fèi),增加開發(fā)和維護(hù)成本,,降低用戶信任度,。更為嚴(yán)重的是,這種“大模型幻覺”和“災(zāi)難性遺忘”現(xiàn)象如果發(fā)生在精確性要求極高的工業(yè)生產(chǎn)領(lǐng)域中,,還可能引發(fā)不可預(yù)測(cè)的風(fēng)險(xiǎn)和隱患,。以油氣勘探為例,基于大模型給出的錯(cuò)誤預(yù)測(cè)進(jìn)行開采可能導(dǎo)致數(shù)億元的資金損失,,并對(duì)自然環(huán)境造成不可逆轉(zhuǎn)的破壞,。
提升大模型性能,關(guān)鍵是處理好數(shù)據(jù)“質(zhì)”和“量”的關(guān)系,,構(gòu)建大規(guī)模,、高質(zhì)量的數(shù)據(jù)集。應(yīng)建立完善的數(shù)據(jù)收集、清洗,、驗(yàn)證和存儲(chǔ)機(jī)制,,加強(qiáng)對(duì)數(shù)據(jù)質(zhì)量的監(jiān)控和評(píng)估,確保數(shù)據(jù)的準(zhǔn)確性,、完整性和一致性,。此外,還應(yīng)注重跨領(lǐng)域合作,,引入數(shù)據(jù)科學(xué)家,、AI算法工程師等多方力量,開展大模型算法合作,、制定數(shù)據(jù)共享和隱私安全保密協(xié)議,,推動(dòng)大模型產(chǎn)學(xué)研用生態(tài)建設(shè)。
如今,,大模型的發(fā)展已邁入多模態(tài)融合階段,。通過加強(qiáng)數(shù)據(jù)治理,優(yōu)化人工智能學(xué)習(xí),、訓(xùn)練和驗(yàn)證的“基礎(chǔ)食材”,,端上大規(guī)模、高質(zhì)量,、多模態(tài)數(shù)據(jù)集的“豐盛大餐”,,必將助力大模型能力的提升,讓人工智能更好地賦能千行百業(yè),、造福人類社會(huì),。(作者/劉 合)