所谓的“AI幻觉”,指的是大模型在生成内容时,可能出现虚构、不准确或不合逻辑的信息,这是大模型技术尚未完全克服的缺陷。了解这一点后,再让我们来看看法院的判决。法院认为,人工智能不具有民事主体资格,不能作出意思表示,案涉AI自行生成的“赔偿承诺”,亦不能视为服务提供者的意思表示。同时,法院还指出,涉事科技公司已在应用程序欢迎页、用户协议 以及 交互界面的显著位置,呈现了AI生成内容功能局限的提醒标识,且已采用检索增强生成等技术,来提升输出的可靠性,尽到合理注意义务。最后,原告并未能就“因信息误导而错失报考机会并产生额外成本”的损害,提供任何有效证据,依法难以认定损害存在。
基于技术现实与法律原则,法院最终认为,被告的案涉行为不具有过错,未构成对原告权益的损害,依法不应认定构成侵权,驳回原告的诉讼请求。这也为如今高速发展的AI行业,在应对此类纠纷时提供了参照。
当然,我们也要看到,技术的局限性被法律所包容,并不意味平台便可以放任自流。该案中的涉事企业,虽然不能完全杜绝AI“幻觉”的出现,但也需 为防止幻觉造成损害 做出相应的努力。比如设置提醒标识、通过技术手段增强内容可靠性等等。希望日后各大AI平台能加速技术迭代,让AI的输出内容更准确、更可靠。同时,我们作为用户,也要对AI保持理性的认识。在面临重大决策时,决不能对AI偏信、盲从,放弃了自身的独立思考。