▲隨著AI的廣泛應(yīng)用,平臺對AI的誤判引發(fā)關(guān)注。圖/IC photo


“手敲了一下午的劇本被以為是AI”“引用的作者原話竟然被判定為AI”“只要說話像人機(jī),都會被判定AI”……據(jù)《北京日報》報道,隨著AI的廣泛應(yīng)用,一些“真人創(chuàng)作者”也面臨窘境:自己發(fā)布的內(nèi)容被平臺誤判為AI生成,甚至面臨作品被限流、下架的境遇。


于是,創(chuàng)作者如何自證“我不是AI”,以及平臺能否以AI判定AI,引發(fā)關(guān)注。


平臺判定應(yīng)有合理依據(jù)


不久前,一句評論引發(fā)全國首例AI誤判案引起網(wǎng)友注意。一位普通網(wǎng)民李先生在某平臺發(fā)表評論,被機(jī)器判定為“AI生成”,內(nèi)容遭隱藏,賬號被禁言一天——盡管每一個字都是他親手敲下。向平臺申訴未果后,李先生選擇起訴平臺,北京互聯(lián)網(wǎng)法院經(jīng)審理支持了李先生的訴求,判決平臺刪除對李先生評論的違規(guī)處理記錄,撤銷隱藏內(nèi)容。


這是全國首例因平臺“誤判”網(wǎng)友創(chuàng)作內(nèi)容為AI生成而引發(fā)的訴訟。表面上,這只是一次輕微的網(wǎng)絡(luò)糾紛,但卻因身處“算法”和“AI”生成兩大前沿科技的交匯點(diǎn)而別具意義。它指向了一系列前沿話題,比如應(yīng)該如何對待AI生成內(nèi)容?平臺算法在其中承擔(dān)了什么角色,產(chǎn)生誤判又該怎么辦,用戶與平臺出現(xiàn)爭議誰來舉證等問題。


在此案例中,法院并沒有親自下場厘清李先生的評論到底是不是AI生成,而是通過明確兩個原則進(jìn)行判定,其一,平臺有權(quán)對涉案內(nèi)容是否屬于AI生成合成內(nèi)容進(jìn)行審查和處理;其二,平臺的審查及處理結(jié)果應(yīng)該有合理依據(jù)。


這實(shí)際上把舉證的責(zé)任交給了平臺,而平臺又無法對算法決策依據(jù)和結(jié)果進(jìn)行適度的解釋和說明,因此敗訴。平臺實(shí)際是敗在了程序,而不是李先生到底是不是采用了AI生成內(nèi)容。


但程序正義的勝利依舊很有意義,因?yàn)楫?dāng)下大量圍繞AI生成內(nèi)容所產(chǎn)生的爭議正是糾結(jié)于此。比如,因?yàn)锳I生成的崛起,為防止AI代寫論文,不少高校對畢業(yè)論文設(shè)置了AI率紅線,并使用AI查重軟件進(jìn)行審核。但事實(shí)證明,相關(guān)檢測并不準(zhǔn)確,有些學(xué)生甚至必須刻意將語句改得支離破碎才能向AI證明“我不是AI”。


今年2月份,復(fù)旦大學(xué)發(fā)布《復(fù)旦大學(xué)關(guān)于在本科畢業(yè)論文(設(shè)計(jì))中使用AI工具的規(guī)定(試行)》,其中提出的“六個禁止”引發(fā)廣泛關(guān)注,被稱為 “全球最嚴(yán)AI新規(guī)”。而到了5月份,南京大學(xué)本科生院則發(fā)布通知,明確本屆畢業(yè)論文面向?qū)W院開放“維普AIGC檢測”,但檢測結(jié)果僅作為輔助參考,不作為論文原創(chuàng)性判定依據(jù)。


其間的折轉(zhuǎn)反復(fù)也引發(fā)熱議,但這實(shí)際上是前沿科技進(jìn)入人類生活的常見現(xiàn)象。面對新事物,各種法律法規(guī)規(guī)范總是存在局限性和滯后,需要不斷及時調(diào)整。從這個角度說,既然細(xì)節(jié)與真相暫時難以把控,不如堅(jiān)守程序正義性,明確原則,抓大放小,也是一種不錯的解決辦法。


“人”是治理鏈條中最終“守門人”


AI生成內(nèi)容極大地提高了生產(chǎn)效率,但也確實(shí)產(chǎn)生了一些負(fù)面效果,利用AI生成論文產(chǎn)生學(xué)術(shù)不端行為只是其一,AI生成內(nèi)容還可能侵犯他人著作權(quán),也可能被用來侵犯他人商業(yè)利益,這些新問題都需要面對和協(xié)調(diào)。


正因如此,今年3月15日,國家互聯(lián)網(wǎng)信息辦公室、工業(yè)和信息化部、公安部、國家廣播電視總局聯(lián)合發(fā)布《人工智能生成合成內(nèi)容標(biāo)識辦法》,要求上游AI模型需要對生成內(nèi)容、元數(shù)據(jù)文件添加標(biāo)識,平臺亦應(yīng)根據(jù)不同情形添加相應(yīng)標(biāo)識。


現(xiàn)實(shí)遠(yuǎn)比規(guī)則復(fù)雜??咳肆I生成內(nèi)容標(biāo)識顯然不可能,“用AI對抗AI”成為常態(tài),但在面對日益逼真的人類寫作與AI寫作的邊界時,AI檢測技術(shù)又經(jīng)常出錯。更大問題在于,當(dāng)算法的判定缺乏解釋性、申訴機(jī)制不透明時,誤判不僅是一時的技術(shù)錯誤,而是對創(chuàng)作者聲譽(yù)和作品可見度的直接傷害。


北京互聯(lián)網(wǎng)法院此次判決的意義在于,它首先認(rèn)可了平臺的“守門員”角色,認(rèn)為平臺具有相關(guān)內(nèi)容的審核權(quán),但同時又限制了平臺的“裁判員”角色。這不僅是法律邏輯,也是權(quán)力與責(zé)任的平衡,平臺希望利用技術(shù)實(shí)現(xiàn)網(wǎng)絡(luò)空間的自治化治理,但技術(shù)本身尚不具備這種能力。


就像復(fù)旦大學(xué)蔡翠紅教授在論文中所說,治理本質(zhì)上是一種集合法律制度、社會共識與政治判斷于一體的復(fù)雜工程。在人工智能廣泛介入全球網(wǎng)絡(luò)空間治理實(shí)踐的同時,還是需要更完善的制度以及“人”來充當(dāng)治理鏈條中的最終責(zé)任者與價值“守門人”。


判定一條網(wǎng)友評論是否AI生成事小,但確定原則,防患于未然事大。2016年,澳大利亞政府通過技術(shù)手段檢測社會福利欺詐,簡單對比稅務(wù)與福利數(shù)據(jù),自動判定了大量低收入者涉嫌騙保,并下發(fā)追繳令,這一過程中超過50萬人受到影響,許多人陷入財(cái)務(wù)困境,但這是一次誤判事件,最終政府公開道歉并啟動賠償計(jì)劃。如無合理制度,類似事件并非不可能重演。


這起案件至少提供了一個方向:其一,使公眾知曉,在AI時代,被誤判后是可以主張合法權(quán)益的;其二,平臺應(yīng)建立更高效、更可追溯的復(fù)核機(jī)制,同時要加強(qiáng)算法的“可解釋性”。


在未來的數(shù)字世界里,人與AI之間的界線可能越來越模糊,但權(quán)利與責(zé)任的界線必須越畫越清。否則,我們將生活在一個諷刺的場景中:最擅長模仿人類的AI安然無恙,而真正的人類卻要四處證明自己“不是機(jī)器”。


撰稿 / 信海光(專欄作家)

編輯 / 徐秋穎 遲道華

校對 / 張彥君