当前位置 : 首页 > 快讯 >详情

没没有是非就没有灵魂!美律师用AI打官司,惨烈翻车!张嘴胡编一本正经编瞎话?!

快讯 来源 :观察网 2023-05-31 10:02:52

这些案件都配有大段大段的引文,原告和被告公司之间的恩怨情仇写得清清楚楚。这份翔实的法律摘要交上去,一定能打动法官大人的心吧?

就在马塔等人等待的时候,哥伦比亚航空请的律师懵逼了,他全网翻了个遍,都找不到对方律师引用的案件!被告律师写信告诉卡斯特法官:“瓦吉斯诉中国南方航空案似乎不存在……我们无法通过它的标题或引文找到此案,也找不到任何相似的案件。”“虽然法律摘要里含有瓦吉斯的冗长引语,但我们找不到这段话的出处。”

瓦吉斯的引语里提到2008年的大韩航空案件。他说这起案件是美国联邦第十一巡回上诉法院判的。但被告律师询问了第十一巡回上诉法院,对方说他们没判过此案。收到信后,卡斯特法官也懵圈了,他在案件资料库中搜寻一番,同样没有找到案件的出处。


(资料图片)

力,还相信它有判断力。

既然它说自己是对的,那就是对的。不知道该说是太天真,还是太愚蠢……

卡斯特法官下令在6月份举行听证会,将对所有牵涉伪造的律师进行惩罚。

伪造案件可是大丑闻,这家律师事务所怕是要遭殃了。

纽约大学的法律伦理学教授史蒂芬·吉勒斯(Stephen Gillers)说,虽然此案看上去有点喜剧,但背后的问题很大。“律师界一直在讨论如何避免使用虚假的AI信息。我们不能简单地将AI给的文字粘贴到法庭文件里,我们需要自己去查。”其实,AI最擅长的就是一本正经地胡说八道,这种现象已经有个专有词汇,叫“人工智能幻觉”。

明明无中生有,它说真实存在;

明明大错特错,它说完全正确。这是因为AI本质上只是语言预测模型,它根据前一句话来预测后一句话,并不清楚其中的道理和逻辑。

但它那自信满满的语气,会让人类对它抱有过高的期望。前不久,大学教授霍尔为了让学生了解到“幻觉”的可怕,布置了一项特殊的作业。

他给学生一个作文题目,要求他们用ChatGPT生成文章,然后再给文章纠错。结果发现,全班63篇文章,每篇都存在错误信息。“虚假的引文、虚假的来源、来源真实但理解错误或拼写错误。每一份作业都有这些。我都震惊了,我知道错误比例会很高,但没想到那么高。”

“学生们最大的收获是,人不能完全依赖AI。在此之前,很多学生都觉得AI永远是正确的,他们这次惊呆了,发现它很能误导人。大约一半的学生不知道AI能编造谎言。这次清醒过来后,他们对AI伪造信息的能力感到担忧和害怕。”到目前为止,AI编谎话的现象没有解决办法。AI公司能做到的只是提醒人们,AI生产的内容并不完全可信。一想到这点,全球白领应该能缓口气,人类虽然也会犯错,但至少有自知之明,知道哪里有问题。AI目前这个理直气壮胡说八道的架势,还是有点没谱啊……

水灯游春:想起那个引用了chatgpt案例写进论文结果导师对这个案例产生好奇让把原文发一下,一查发现是AI编的惨案

可爱淘气喵:一脸严肃一本正经的胡说八道

淆秣秣_AR:这跟我写作业写工作有啥区别 都是我一本正经胡说的啊

黑提冰沙盐酥鸡:尴尬死了 交的征文和同事的一毛一样原来用的是同一个ai

黑森林的空气:Gpt学会干活前先学会了划水

悦如舞:我已经发现了,我问了一个我熟悉的领域的问题,发现完全是胡说,就是一个搞笑工具而已。

江停_Official:我让他写书评 它连书都是编的

标签:

精彩放送

返回顶部