본문 바로가기
ChatGPT & AI technology

ChatGPT의 부작용과 저작권 문제, 그리고 해결방안

by Feelbridge 2023. 4. 16.

ChatGPT의 불투명성과 저작권 문제

ChatGPT는 온라인 공간에서 생성된 무수한 데이터를 베이스로 답변을 하게 되는데 여기서 문제가 발생하게 된다. 어떠한 정보를 어떻게 학습을 했는지 근거가 없다는 것이다. 제공받은 인공적인 데이터 기반에만 의존하며 자료의 출처가 명확하지 않아 유저가 결과에 전적으로 의존하여 의사결정에 반영하는 것은 위험할 수 있다. 만약 잘못되고 불투명한 데이터를 기반으로 학습하고 이를 유저가 사용했다면 어떠한 부작용이 나올지 모른다. 또한 다양한 데이터를 짜깁기하여 새로운 논문, 창작물을 유저가 개인, 본인이 창작했다고 공표할 경우 이것의 저작권은 누가 가지게 되는 것이냐 하는 문제가 발생하게 된다. 모방, 카피가 만연하게 될 것이고 이는 곳 창작에 대한 의지를 꺾을 것이며 창작의 의지만 꺾는 것에서 그치지 않고 많은 저작권 법적분쟁을 일으킬 것이다. 실제로 해외에서는 많은 법적 대응이 시작되고 있다. 이미지 판매 업체인 케티이미지는 그림 자동 생성 서비스인 스테이블 디퓨전이 케티이미지의 저작권을 침해했다며 1월 영국 법원에 소송을 제기했다. 또한 많은 유수의 대학에서는 대학원생들의 논문이 Chatgpt로 작성됐다고 판명이 되어 제적되는 경우도 발생하고 있다. 

 

ChatGPT, AI의 프라이버시 침해와 보안우려

 기업의 기밀 프로젝트에 활용할 용도로 작업을 하는 과정에서 기밀성 내용을 언급하게 되고 이 내용이 ChatGPT가 학습하여 유출되는 경우가 생기는 것이다. 실제로 미국 아마존은 직원들에게 기밀정보나 자사가 개발 중인 프로그램을 대화형 AI에 입력하지 않도록 주의시키고 있다. JP모건, 뱅크오브아메리카, 도이치뱅크 등도 대화형 AI 이용을 금지하거나 일부 제한하고 있다. 지난 1월 니혼게이자신문에 따르면 소프트뱅크는 전 직원에게 기밀정보를 입력하지 말도록 하는 공지사항을 발표하였다. ChatGPT와의 대화를 통해 AI는 개인들의 또는 기업체, 정부의 기밀을 학습하게 되고 이것이 널리 퍼질 우려가 있는 것이다. 

chatgpt의부작용

 

ChatGPT와 정부의 규제 노력

ChatGPT와 같은 인공지능 기술은 이용자에게 편리함을 제공하고 있지만 그만큼 데이터 보호와 저작권 문제점이 제기될 수 있습니다. 그리고 실제로 벌써 저작권, 개인사생활 침해 등의 문제점이 제기되고 있습니다. 이와 같은 문제점 때문에 정부에서는 인공지능 기술의 적절한 이용과 데이터 보호를 위해서 벌써 규제와 정책, 법적이 사항을 준비하고 있다고 합니다. 먼저 데이터의 보호를 위해서 '정보통신망 이용촉진 및 정보보호 등에 관한 법률'과 '개인정보 보호법' 등의 법령을 시행하고 있습니다. 또한 2020년 6월부터 인공지능 AI 윤리지침을 발표하여 인공지능 기술의 이용 적법성과 윤리적 책임 등을 강화하고 있습니다. 인공지능 기술이 악용되는 것을 막기 위해 '인공지능 윤리위원회'도 구성하고 있는데요. 윤리위원회에서는 인공지능 분야에서의 윤리적 문제를 검토하고, 이를 바탕으로 인공지능 분야의 정책을 마련하고 있습니다. 이 외에도 인공지능 기술의 적절한 사용과 데이터 보호를 위해 다양한 법률과 지침을 마련하고 있으며, 앞으로도 이 분야에 대한 규제가 더욱 강화될 것으로 예상되고 있습니다. 벌써 ChatGPT로 작성한 논문이나 창작물에 대해 이것이 AI로 작성한 것인지 사람에 의해 작성된 것인지를 판별하는 기술도 개발되고 있습니다. ChatGPT의 발표 이후 환호를 하던 때가 엊그제인데 이와 발맞추어 바로 많은 부작용이 생겨나고 있습니다. 어떤 기술이든지 개발이 되고 발전이 될 때는 항상 문제점이 발생합니다. 따라서 정부와 기업은 인공지능 AI, ChatGPT의 활용을 극대화하면서도 적극적으로 안전하게 사용할 수 있는 법적, 기술적인 방안을 함께 준비해 나가는 것이 올바른 방향입니다. 

댓글