일본 PPC '챗GPT' 개발사 오픈 AI에 경고 조치

2023. 6. 7. 22:10인공지능 개요

반응형

일본 개인정보위원회(PPC)는 2023년 6월 2일, 인공지능 챗봇 '챗GPT' 개발사 오픈 AI에 경고 조치를 내렸습니다. PPC는 오픈 AI가 챗GPT를 통해 개인의 동의 없이 민감한 데이터를 수집하고 있다고 지적했습니다.

PPC는 오픈 AI에 다음과 같은 조치를 취하도록 요구했습니다.

  • 수집하는 정보에 개인정보가 포함되지 않도록 필요한 조치를 취해야 합니다.
  • 정보 수집 후 즉시, 수집한 정보에 포함될 수 있는 개인정보를 가능한 한 감소시키기 위한 조치를 취해야 합니다.
  • 상기 1, 2의 조치를 취했음에도 불구하고 수집한 정보에 포함되어 있는 것을 발견한 경우 즉시, 그리고 학습용 데이터셋으로 가공하기 전에 해당 개인정보를 학습용 데이터셋으로 처리하기 전에 해당 민감 개인정보를 삭제하거나 특정 개인을 식별할 수 없도록 식별할 수 없도록 조치를 취해야 합니다.
  • 본인 또는 PPC 등이 특정 사이트 또는 제 3자로부터 개인정보를 수집하지 않도록 요청 또는 지시한 경우에는 거부할 정당한 사유가 없는 한 해당 요청 또는 지시에 따라야 합니다.

오픈 AI는 PPC의 경고 조치에 대해 "일본 시장을 중시하고 있으며, 챗GPT의 활용 방법이나 규칙 정비 방법 등 다양한 분야에서 의견 교환하고 일본 현지 법인 개설과 일본어 서비스 확대를 검토하고 있다"고 밝혔습니다.

PPC의 경고 조치는 챗GPT에 대한 우려가 높아지고 있는 가운데 나온 첫 규제 조치입니다. 챗GPT는 인공지능 챗봇으로, 방대한 양의 텍스트 데이터를 학습하여 사람과 유사한 텍스트를 생성할 수 있습니다. 그러나 챗GPT가 개인의 동의 없이 민감한 데이터를 수집하고, 이 데이터가 악용될 수 있다는 우려가 제기되고 있습니다.

PPC의 경고 조치는 챗GPT의 안전한 사용을 위한 첫걸음이라고 할 수 있습니다. 그러나 챗GPT에 대한 규제는 아직 초기 단계에 있으며, 앞으로도 챗GPT의 안전한 사용을 위한 다양한 논의가 필요할 것으로 보입니다.

 


일본 국립정보학연구소 사회공유지식센터장인 아라이 노리코 교수는 챗GPT 등 생성형 인공지능(AI)의 상용화가 가져올 가짜뉴스의 대량 생산 등 사회적 위험에 대비해 하루빨리 생성형 AI에 대한 법적 규제를 마련해야 한다고 주장했습니다.


아라이 교수는 AI가 언어를 기호로 인식해 계산하고 처리할 수는 있어도 그에 대한 의미가 옳은지 판단할 수는 없다고 지적했습니다. 또한, 미래에 AI의 판단이 100% 정확할 것이라는 기대는 과학적으로 터무니없는 것이라고 말했습니다.

아라이 교수는 자신의 주장을 증명하기 위해 지난해 일본 도쿄대 입시의 세계사 논술 문제인 ‘8세기부터 19세기까지 투르키스탄 지역의 역사적 전개 과정에 대해 기술하라’는 논술 문제를 챗GPT에게 풀도록 했습니다. 그 결과 챗GPT는 사람이 쓸 법한 표현을 써가며 매우 매끄럽게 대답했지만 사실 챗GPT가 답한 내용은 사실과는 거리가 멀었습니다.

예컨대 인도 무굴제국의 건국자인 바부르는 15세기에 출생했지만 챗GPT는 그가 13세기에 투르키스탄 지역을 정복했다고 썼습니다. 또, 챗GPT는 투르키스탄 지역이 투르크계 카라한 왕조에 의해 통치됐고 카라한 왕조는 중국의 송나라와 무역을 했다고 썼는데 이는 오늘날까지 그 진위 여부를 확인하기 어려운 내용입니다.

그럼에도 불구하고 대중들이 챗GPT가 작성한 글의 내용을 신뢰하는 우를 범하는 이유에 대해 아라이 교수는 인간의 심리적인 요인 때문이라고 설명했습니다. 그는 “사람들이 챗GPT에 대해 대단하다고 느끼게 되는 것은 사람의 질문에 매우 자신만만하고 부드럽게 거짓말을 하는 챗GPT의 ‘사이코패스’적 기질에 기인하고 있다”면서 “그러다 보니 지적 수준이 높은 사람도 ‘챗GPT가 더 옳지 않느냐’고 신념이 흔들리게 된다”고 말했습니다.

나아가 AI의 이러한 문제점이 초래할 사회적 위험에 대해 그는 AI가 민주주의의 발전을 심각하게 저해할 수 있다고 경고했습니다. 그는 “(생성형 AI라고 하는) 매우 매력적이고 또 한편으로는 미숙한 과학기술이 단기적으로 우리 사회에 가져올 비용과 위험을 우리는 짊어질 각오가 돼 있느냐. 이 점에 대해 우리는 심각하게 고민해야 한다”면서 “이것은 ‘민주주의에 대한 도전’이기도 하다”고 했습니다.

그가 제시한 ‘민주주의에 대한 도전’의 대표적인 사례로 한 온라인 매체가 챗GPT를 사용해 셀 수 없이 많은 수의 가짜 뉴스를 매 초마다 뿌리는 것을 들었다. 뉴스에 대한 사실 확인은 인력으로 해야 하기에 그렇게 되면 뉴스에 대한 사실 확인이 불가능해진다. 그리고 그렇게 가짜 뉴스가 범람하는 상황 속에서 대통령 선거도 치러질 수 있다는 것입니다.

 

 

반응형