女律師用ChatGPT寫狀書 竟援引「不存在案例」下場曝光
![](https://image.stheadline.com/f/680p0/0x0/100/none/ea57ef087248a8179891b64beab01866/stheadline/inewsmedia/20240302/_2024030202502090097.jpg)
人工智慧(AI)聊天機械人的使用日漸普及,更是不少人日常工作的好幫手,但當中隱藏錯漏陷阱,稍不留神,很易造成「災難性」後果。加拿大一名女律師打一宗兒童監護權訟案,因為用ChatGPT寫狀書,竟然引用了兩個根本不存在的案例,不止鬧出笑話,還為職業生涯帶來危機。
涉事女律師代表一名富商,向正鬧分居糾紛的妻子提出申請,要求准許他帶孩子前往中國旅行。富商認為,妻子無法律理據,不讓他這樣做。
![一名女律師打一宗兒童監護權訟案,因為貪方便用ChatGPT寫狀書,竟然引用了兩個根本不存在的案例。](https://image.hkhl.hk/f/1024p0/0x0/100/none/087c921abf4c5833799682dfa7b5d990/2024-03/5_0.jpeg)
一名女律師打一宗兒童監護權訟案,因為貪方便用ChatGPT寫狀書,竟然引用了兩個根本不存在的案例。
![人工智慧(AI)聊天機械人的使用日漸普及,更是不少人日常工作的好幫手,但當中隱藏錯漏陷阱,稍不留神,很易造成「災難性」後果。](https://image.hkhl.hk/f/1024p0/0x0/100/none/e331c9e6e2aa18bde02056cb7921d449/2024-03/6.jpeg)
人工智慧(AI)聊天機械人的使用日漸普及,更是不少人日常工作的好幫手,但當中隱藏錯漏陷阱,稍不留神,很易造成「災難性」後果。
![訟案中愈來愈多業界採用AI科技提供的材料。](https://image.hkhl.hk/f/1024p0/0x0/100/none/1dfe69495354d9826ffb38c31f311a4f/2024-03/istockphoto-876701606-612x612.jpeg)
訟案中愈來愈多業界採用AI科技提供的材料。
![訟案中愈來愈多業界採用AI科技提供的材料,情況令人關注。](https://image.hkhl.hk/f/1024p0/0x0/100/none/e3ed5905ba661603f6bd1bab1df41d41/2024-03/8.jpeg)
訟案中愈來愈多業界採用AI科技提供的材料,情況令人關注。
![工智慧(AI)聊天機械人的使用日漸普及,更是不少人日常工作的好幫手。](https://image.hkhl.hk/f/1024p0/0x0/100/none/ffea5196afe29cb5f31d9abd2f5bd091/2024-03/7.jpeg)
工智慧(AI)聊天機械人的使用日漸普及,更是不少人日常工作的好幫手。
![一名女律師打一宗兒童監護權訟案,因為貪方便用ChatGPT寫狀書,竟然引用了兩個根本不存在的案例。](https://image.hkhl.hk/f/1024p0/0x0/100/none/3d53eeb3fa60e36cb67f030708b5d5a1/2024-03/9.jpeg)
一名女律師打一宗兒童監護權訟案,因為貪方便用ChatGPT寫狀書,竟然引用了兩個根本不存在的案例。
於是女律師要求ChatGPT搜尋世界各地同類案件,最終她獲提供了三個案例,而她深信不疑,就在入稟書中列舉了其中兩個。但當對方律師尋找該兩個案例時,卻遍尋不獲,於是向女律師詢查,此時她才驚覺出事,最後證實該兩個案例是聊天機械人生安白造出來的,根本不存在。
據BBC報道,英屬哥倫比亞省最高法院的法官直指對事件感到震驚,他接受女律師的道歉,相信她不是故意欺騙法庭,但頒令女律師須支付對方律師因事件衍生的費用,以及要求女律師審視案中其他文件,如同樣採用了AI提供的案例,須讓對方律師知悉。
而當地律師協會更已就事件展開調查,審視女律師的行為有否違反專業守則。該協會特別提醒同業,可以在工作過程中使用人工智慧,但也有界線,必須小心識別相關材料的準確性,謹慎使用,因為「道德責任最終是由您承擔」。