近日,ChatGPT炮制出一條“杭州3月1日取消限行”的假新聞,引發(fā)各方擔憂。復盤此事件,是有業(yè)主嘗試用ChatGPT寫了一篇杭州不限行的新聞稿,并在群里直播了全過程和最終文章。有些業(yè)主不看上下文,隨手截圖轉(zhuǎn)發(fā),導致失實信息傳播。相關(guān)詞條也登上熱搜,ChatGPT“編造謠言”的“功能”令人擔心。如果虛假信息在政治、經(jīng)濟等關(guān)鍵領域泛濫,所造成的社會影響將更加惡劣。
ChatGPT,可以將其簡單視為一個“聊天機器人+搜索工具+文本創(chuàng)造工具”的組合體。在國內(nèi)一般稱作“人工智能自然語言處理工具”。根據(jù)研究機構(gòu)測試發(fā)現(xiàn),如果對著ChatGPT提出充斥陰謀論和誤導性敘述的問題,它能在幾秒鐘內(nèi)改編信息,產(chǎn)生大量令人信服卻沒有來源依據(jù)的內(nèi)容。
以往的謠言大多都有粗制濫造、漏洞百出的特點,“劣質(zhì)”謠言的套路尚可總結(jié):來源不權(quán)威,輕信短視頻平臺的非官方媒體賬戶和朋友圈截圖;內(nèi)容“三不提”:不提“政策”來源部門、不提“政策”所在文件、不提“政策”發(fā)布時間;話術(shù)真假摻半,如“社保卡統(tǒng)一(假)辦理電子版(真),不辦理就會被銷戶(假)”,這樣的謠言迷惑性極強;風格嚇唬人,慣用“必須”“后果自負”等聳人聽聞用詞和大量感嘆號,目的就是利用焦慮情緒替代判斷力。
如今,懷有不良企圖的人卻可以引導ChatGPT寫出邏輯清晰、語言表達流暢的謠言。這樣一來,ChatGPT生成的內(nèi)容很容易被當作是權(quán)威信息而大肆傳播,而且查證的難度很高。謠言的傳播能力取決于事件的重要性、模糊程度和公眾的判斷能力,ChatGPT的“專業(yè)性”影響了受眾的判斷能力,勢必會助推虛假信息的傳播。
ChatGPT的使用成本極低,造謠成本同樣也在大大降低。“一本正經(jīng)地胡說八道”不能只是一句調(diào)侃的玩笑,“錯誤的廢話”絕不是無足輕重,一旦ChatGPT被不法分子利用輸出誤導信息,將可能導致ChatGPT衍生成為互聯(lián)網(wǎng)上制造和傳播網(wǎng)絡謠言的工具。如果虛假信息在政治、經(jīng)濟等重要領域泛濫,如果謠言大肆泛濫卻無法追責,那么對于新聞媒體、平臺和大眾來說,傷害都是不可估量的。
ChatGPT向人們展現(xiàn)了人工智能先進性,與此同時,造謠工具的“利刃”也在出鞘。2023年1月10日起施行的《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》,為ChatGPT套上了制約的枷鎖?!兑?guī)定》中明確,任何組織和個人不得利用深度合成服務制作、復制、發(fā)布、傳播法律、行政法規(guī)禁止的信息,不得利用深度合成服務從事危害國家安全和利益、損害國家形象、侵害社會公共利益、擾亂經(jīng)濟和社會秩序、侵犯他人合法權(quán)益等法律、行政法規(guī)禁止的活動。深度合成服務提供者和使用者不得利用深度合成服務制作、復制、發(fā)布、傳播虛假新聞信息。
推動引導ChatGPT有序發(fā)展,還需多方發(fā)力,方能實現(xiàn)多贏。針對人工智能自然語言處理工具所面臨的現(xiàn)實問題,建議使用ChatGPT在互聯(lián)網(wǎng)生成和發(fā)布信息的,進行實名制認證,網(wǎng)絡平臺加強監(jiān)管,對結(jié)果進行審核。加強互聯(lián)網(wǎng)人工智能自然語言處理工具管理,在充分調(diào)研的基礎上,結(jié)合《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》等法律法規(guī),網(wǎng)信部門可出臺相關(guān)管理措施,最大程度上保證新技術(shù)不被濫用。未來,期待AI安全有更完善的法律保護。
信網(wǎng)評論員 秦璐
[來源:信網(wǎng) 編輯:戴慧慧]大家愛看