全國首例AI“幻覺”侵權(quán)案 為何這么判
新聞1+1丨全國首例AI“幻覺”侵權(quán)案 為何這么判
一位高考生的哥哥梁某在查詢高校信息后,發(fā)現(xiàn)AI平臺生成的信息存在錯誤,AI則表示,內(nèi)容有誤將賠償10萬元。一氣之下,梁某將AI平臺的研發(fā)公司告上法庭。近日,杭州互聯(lián)網(wǎng)法院作出一審判決,駁回訴訟請求。法院為什么會這么判?看似聰明的人工智能,為何會產(chǎn)生“幻覺”?怎樣為生成式人工智能服務(wù)厘清責任的邊界?《新聞1+1》帶來分析解讀。
為何提供AI服務(wù)的公司不需要負責?
全國首例AI“幻覺”侵權(quán)案一審結(jié)束,法院的判決結(jié)果中說,AI不是一個民事主體,所以它不能作出意思表示。AI它不是人,所以它自己不能負責,那為什么提供AI服務(wù)的公司本身也不負責呢?
全國首例AI“幻覺”案主審法官 杭州互聯(lián)網(wǎng)法院一級法官 肖芄:AI生成的內(nèi)容不準確有很多原因,其中最根本的原因是AI模型在訓(xùn)練的過程中,教會了它預(yù)測概率,而不是教會它理解事實。因此,生成內(nèi)容不準確,在當前的技術(shù)情況下具有不可避免性。但也不代表服務(wù)提供者就可以免責。如果服務(wù)提供者盡到了法律規(guī)定的注意義務(wù)、社會交往過程中的注意義務(wù)、合同約定的注意義務(wù)后,生成的信息仍然不準確,通常還是不能認定服務(wù)提供者存在過錯。
AI不具有民事主體資格,這在民法典中有明確的規(guī)定。但是AI生成的內(nèi)容是不是可視為服務(wù)提供者的意思,這個需要分情況討論。在本案的咨詢問答場景中,我們認為不能視為服務(wù)提供者的意思。
這起案子審理的難點是什么?
回過頭來看這起案子的整個審理過程,因為它是我們國家的首例有關(guān)AI“幻覺”的判例,在審理案件的過程中,最有挑戰(zhàn)的地方在哪里?
肖芄:我個人覺得,最難的點在于AI科技創(chuàng)新和產(chǎn)業(yè)發(fā)展與當事人合法權(quán)益之間的平衡。通過在AI侵權(quán)責任案件中適用一般侵權(quán)責任原則,也就是過錯責任原則,更好地為AI的服務(wù)提供者提供明確的邊界標準,使他們能夠在一個相對明確的標準中更好地創(chuàng)造和應(yīng)用AI。
AI“幻覺”產(chǎn)生的原因是什么?
在普通人的認知里面,AI是一個更高級的大腦,它懂得更多、算得更快,而且可能會更加聰明,不生病也沒有情緒,更加穩(wěn)定。但為什么會有AI“幻覺”,它產(chǎn)生的原因是什么?
中國社會科學(xué)院大學(xué)互聯(lián)網(wǎng)法治研究中心主任 劉曉春:AI“幻覺”,一方面,現(xiàn)在生成式人工智能基礎(chǔ)的技術(shù)原理、技術(shù)規(guī)律,導(dǎo)致它是一個預(yù)測式的,而不是像人腦一樣去理解的過程。另外,也跟AI訓(xùn)練過程有關(guān),比如數(shù)據(jù)優(yōu)化訓(xùn)練的過程,比如AI是“討好型人格”,實際上AI會希望更好地為用戶解答問題,這時它可能發(fā)揮想象空間,產(chǎn)生了一些“幻覺”。
如何平衡創(chuàng)新和保護公眾權(quán)益之間的關(guān)系
未來,從監(jiān)管的角度來看,怎么來鼓勵創(chuàng)新和保護公眾的權(quán)益,在風(fēng)險防控和促進發(fā)展之間去做好平衡?
劉曉春:首先,這個案例給出的底線,或者說基礎(chǔ)的規(guī)則還是蠻好的,我們并不要求產(chǎn)業(yè)界給到一個百分之百沒有“幻覺”的交付標準。產(chǎn)業(yè)是可以在這個基礎(chǔ)之上更好地放開手腳發(fā)展。
另一方面,比如這個案例提到的是一個并不存在高風(fēng)險的場景,也就是說,用戶用完可能有一些不準確的信息,但是有辦法通過其他的驗證手段去避免。所以在這種情況之下,不屬于高風(fēng)險,也不屬于嚴格的產(chǎn)品責任。實際上,在法律或者監(jiān)管的過程當中,可能有一些場景,比如說像關(guān)系到人民生命健康的,或者關(guān)系到財產(chǎn)安全的,像醫(yī)療健康、金融投資,包括法律領(lǐng)域,其實希望人工智能能夠給出更加準確的、容錯率更低的回答。
在這些應(yīng)用過程當中,法律實際上可以去區(qū)別基礎(chǔ)模型和模型應(yīng)用兩個場景。基礎(chǔ)模型,比如案子當中涉及的,可以更快地往前去跑一跑,不用承擔那么重的責任。但是如果有應(yīng)用方把人工智能的工具,比如應(yīng)用到比較嚴格、高風(fēng)險場景的時候,這個時候可能需要法律能夠去給它更清晰的標準,比如說特定行業(yè)的技術(shù)標準,來預(yù)防高風(fēng)險的,或者說給人民群眾造成更大意義上的損失。
從法律角度 如何提前化解AI“幻覺”風(fēng)險
像AI“幻覺”會是AI技術(shù)在狂飆突進當中的一個階段性的產(chǎn)物,還是說會始終伴隨AI技術(shù)的發(fā)展,是一個無法去改變和完全消除的技術(shù)缺陷?未來假如是第二種情況的話,那從法律的角度上,怎么樣更好地去界定這個權(quán)責,能夠提前去化解風(fēng)險?
劉曉春:在技術(shù)的原理上看,如果技術(shù)基礎(chǔ)的模型沒有產(chǎn)生本質(zhì)性變化的話,AI“幻覺”有可能會伴隨著人工智能產(chǎn)業(yè)一直發(fā)展。也不是說不能完全消除,只是說如果要降低“幻覺”,也是要付出相應(yīng)的成本??赡苷麄€產(chǎn)業(yè)需要在某些領(lǐng)域投入更多的成本,去限制或者降低AI“幻覺”。
在法律上其實很重要的是識別出一些隨著產(chǎn)業(yè)的發(fā)展,能看到的一些跟老百姓的生命安全、財產(chǎn)安全等根本利益相關(guān)的領(lǐng)域,識別出這些高風(fēng)險的領(lǐng)域。然后針對高風(fēng)險,要求產(chǎn)業(yè)去投入更多的資本,針對性地去降低“幻覺”。同時包括產(chǎn)業(yè)也需要去進行一些提示,特別在一些比較敏感的,比如大家進行情感陪伴,或者把自己很多基礎(chǔ)的信賴放在AI上,這個時候是需要建立更清楚的責任的邊界,使得產(chǎn)業(yè)能夠去更好地降低“幻覺”帶來的損害。
(央視新聞客戶端)
社會新聞精選:
- 2026年01月29日 20:14:24
- 2026年01月29日 14:59:14
- 2026年01月29日 11:27:13
- 2026年01月29日 11:08:26
- 2026年01月29日 10:41:58
- 2026年01月29日 10:15:02
- 2026年01月29日 09:18:15
- 2026年01月29日 06:02:01
- 2026年01月29日 05:47:27
- 2026年01月29日 05:37:15




































京公網(wǎng)安備 11010202009201號