打開手機,精美的照片、有趣的視頻、流暢的文章,到底是人類的作品還是人工智能(AI)的創(chuàng)作?這已成為全球關(guān)注的問題。12月22日,記者從西安建筑科技大學(xué)獲悉:該??蒲袌F隊在AI虛假信息識別與治理研究領(lǐng)域取得重要進展,相關(guān)研究成果近日發(fā)表在《自然》子刊《自然—通訊》雜志上。
隨著生成式人工智能技術(shù)的廣泛應(yīng)用,虛假信息的生產(chǎn)與傳播方式正在發(fā)生深刻變化。與傳統(tǒng)人工編造的謠言不同,AI虛假信息在語言流暢性和結(jié)構(gòu)完整性方面更具迷惑性,給識別與治理帶來了新的挑戰(zhàn)。
西安建筑科技大學(xué)管理學(xué)院智能管理與決策團隊將研究視角從“如何使用AI識別虛假信息”轉(zhuǎn)向“AI在語言理解與生成層面存在哪些內(nèi)在局限”,從心理語言學(xué)和計算語言學(xué)的交叉視角出發(fā),系統(tǒng)分析了AI真實內(nèi)容、AI虛假內(nèi)容與人類文本在語言特征上的差異,并進一步探討哪些語言信號有助于提升虛假信息的識別能力。
“研究首次提出并驗證了‘AI虛假內(nèi)容的質(zhì)量調(diào)節(jié)效應(yīng)’,即隨著生成內(nèi)容質(zhì)量的提高,AI文本在創(chuàng)造性、表達規(guī)范性和整體可讀性上逐漸逼近人類寫作,其可被檢測的語言差異不斷減弱?!眻F隊的張新生教授說,這一發(fā)現(xiàn)表明,當(dāng)AI被用于高質(zhì)量“洗稿”或細節(jié)捏造時,無論是普通讀者,還是現(xiàn)有依賴大型語言模型的檢測工具,其識別難度都會顯著增加。
這一研究結(jié)果揭示了單純依賴語言特征或大型模型進行虛假信息檢測面臨的潛在風(fēng)險,為理解AI生成文本的認知加工機制提供了新的證據(jù)支持,也為AI虛假信息研究提供了更具解釋力的理論框架。
“本研究為政府監(jiān)管部門、互聯(lián)網(wǎng)平臺及相關(guān)管理機構(gòu)在制定AI信息治理策略、優(yōu)化AI虛假檢測技術(shù)和完善風(fēng)險預(yù)警體系方面提供了重要參考和關(guān)鍵技術(shù)支撐。”張新生表示,團隊未來將深入開展多模態(tài)AI虛假信息的治理研究,為推動人工智能安全應(yīng)用與社會治理現(xiàn)代化提供更堅實的科學(xué)依據(jù)。(來源:陜西日報)