본문 바로가기
ChatGPT & AI technology

미국 변호사협회에서 사례 연구를 위해서 AI 인공지능을 이용했음을 인정

by Feelbridge 2023. 6. 5.

미국 변호사협회에서 사례 연구를 위해 챗GPT 인공지능툴을 사용했음을 인정

 

2023년 5월 27일 뉴욕의 한 변호사는 그의 회사가 법률 연구를 위해 인공지능 도구인 챗GPT를 사용한 후 법원의 선언을 앞두고 있다고합니다. 판사는 존재하지 않는 사례를 참조하는 서류가 발견된 이후에 법원은 "전례 없는 상황"에 직면했다고 선언했습니다. 챗GPT를 이용한 변호사는 법원에 " 그 내용이 거짓일 수 있다는 사실을 전혀 몰랐다"라고 말했다고 합니다. 챗GPT는 요청시 원본 텍스트를 생성하지만 이때에 부정확한 정보를 생성,제공할 수 있다는 경고도 함께 제공이 되고있습니다. 

원래 사건은 개인 상해 혐의로 항공사를 고소한 어느 남자와 관련이 있습니다. 그의 법무팀은 사건이 진행되어야 하는 이유를 선례를 사용하여 증명하기 위해서 이전의 여러 법원 사례를 인용한 요약서를 제출한 것이 였습니다. 그러나 항공사 측 변호인단은 나중에 판사에게 서신을 보내 브리핑에서 언급된 몇가지 사례는 확인할 수가 없다고 말하면서 부각이 된것이였습니다. 카스텔 판사는 명령서에서 "제출된 사건 중 6건은 허위 인용문과 허위 내부 인용이 포함된 사법 결정으로 보입니다"라고 썼습니다. 몇 건의 서류 제출 과정속에서, 그 연구는 원고의 변호사인 피터 로두카가 아니라 같은 로펌에 있는 그의 동료에 의해 준비되었다는 것이 드러났습니다. 30년 이상 변호사로 일해오 Steven A Schwartz는 유사한 이전 사례를 찾기 위해 챗GPT를 사용했습니다. 슈워츠 씨는 서면 진술에서 LoDuca씨가 연구에 참여하지 않았으며 연구가 어떻게 수행되었는지에 대한 정확한 지식이나 아는것이 없다고 밝혔습니다. 슈워츠씨는 이전에 법률 연구에 사용한적이 없고 "내용이 허위일 수 있다는 것에 대해 알지 못했다"고 말한 챗GPT에 너무 의존한 것에 대해 "매우 유감"이라고 덧붙였습니다. 그는 앞으로 "절대적인 진위 검증 없이" 자신의 법률 연구를 "보완"하기 위해서 챗GPT 또는 AI인공지능을 사용하지 않겠다고 맹세했습니다. 다음은 슈워츠씨가 챗GPT와의 대화에서 언급한 내용입니다.

다른 변호사가 찾을 수 없는 사건 중 하나인 Varghese V. China Southern Airlines Co Ltd를 언급하며 "Varghese가 진짜 사건인가요?"라고 한 메세지가 보입니다. 이에 챗GPT는 예라고 대단하고 슈워츠가 "소스가 무엇입니까?"라고 묻습니다. "더블 체크" 후 챗GPT는 해당 사례가 실제이며 LexisNexis 및 Westlaw와 같은 법률 참조 데이터베이스에서 찾을 수 있다고 다시 응답하였습니다. 슈워츠씨에게 제공한 다른 사례들도 실제라고 합니다.

챗GPT로인한사건

 

챗GPT의 기술적인 결함, 잘못된 사실을 진짜인거처럼 가공 전달

오픈AI사, 챗GPT를 개발한 OPEN AI는 이미 잘못된 대답을 생성한다는 것에 대해 인정하고 있다.

다음은 오픈AI사가 언급한 영문 내용이다.

OpenAI knows about this limitation, writing that: "ChatGPT sometimes writes plausible-sounding but incorrect or nonsensical answers." This "hallucination" of fact and fiction, as it's been referred to, is especially dangerous regarding things like medical advice or getting the facts right on key historical events.
ChatGPT doesn't use the internet to locate answers, unlike other AI assistants like Siri or Alexa. Instead, it constructs a sentence word by word, selecting the most likely "token" that should come next based on its training. In other words, ChatGPT arrives at an answer by making a series of guesses, which is part of why it can argue wrong answers as if they were completely true.

오픈AI사는 챗GPT가 잘못된 답변을 그럴싸하게 생성하고 대답하는것에 대한 문제점을 이미 알고 있다. 한 인터뷰에서 챗GPT는 때때로 사용자의 프롬프트 질문에 그럴싸하게 들리거나 부정하고 무의미한 답변을 할때가 있다고 인정하였다. 챗GPT는 단어별로 문장을 구성하고 훈련한 다음에 다음에 올 가능성이 가장 높은 단어 즉, '토큰Token'을 선택하는 로직이다. 이 말인즉 챗GPT는 일련의 추측을 통해 답변에 도달하는데 이는 잘못된 답변이 완전히 사실인 것처럼 주장할 수 있는 이유 중에 하나이다. 그러기 때문에 앞서 언급한 미국의 사례에서처럼 절대적으로 챗GPT가 생성한 답변을 믿으면 안되는 이유이다. 

 

 

이탈리아에서 최초로 개인보안 문제 등의 우려로 챗GPT 사용이 금지

챗GPT banned in Italy over privacy concerns.

 

챗GPT가 가져다주는 이점은 분명하다. 하지만 챗GPT로 인하여 야기되는 여러 개인적인 데이터의 보안이슈, 일자리의 위협 등의 이유로 이탈리아 정보당국에서는 최초로 전면 사용 금지를 발표하였다. 이탈리아는 오픈AI사가 약 2170만달러 벌금 또는 연간 수익의 최대 4%에 해당하는 벌금을 부과하는 조건으로 경고를 어떻게 해결할지에 대해 답변을 한달안에 내놓아야한다. 현재 챗GPT가 가져다주는 많은 이점이 있는 반면에 이와같은 부정적인 문제가 계속 발생하고 있지만 오픈AI사에서는 명확한 답변을 내놓지 않고 있는 상황이다. 앞으로의 그 귀추가 주목된다. 

댓글