인공지능의 치명적 결함 <편향> 잘못된 의사결정의 결과는?

2023. 5. 21. 08:51인공지능 개요

반응형

CHAT GPT-4,바드,빙 모두 잘못된 정보로 인간을 현혹시키고 있습니다. 

AI 편향은 AI 시스템이 편향된 데이터에 대해 학습하여 잘못된 결정을 내릴 때 발생합니다. 이는 AI 시스템이 잘못된 결정을 내리고 차별을 초래할 수 있기 때문에 심각한 문제입니다. AI 편향을 방지하기 위해 할 수 있는 일이 많이 있습니다. 한 가지 방법은 AI 시스템에 더 포괄적인 데이터 세트를 훈련시키는 것입니다. 또 다른 방법은 AI 시스템에 편향을 식별하고 수정하는 데 도움이 되는 알고리즘을 사용하는 것입니다.

AI 시스템을 개발할 때는 다음과 같은 몇 가지 방법으로 AI 편향을 방지할 수 있습니다.

포괄적인 데이터 세트 사용: AI 시스템은 다양한 배경과 경험을 가진 사람들의 데이터로 훈련되어야 합니다. 이렇게 하면 시스템이 편향되고 특정 그룹의 사람들에게 불공정한 결정을 내릴 가능성이 줄어듭니다.
편향 식별: AI 시스템은 편향을 식별하고 수정하는 데 도움이 되는 알고리즘을 사용해야 합니다. 이러한 알고리즘은 시스템이 편향된 결정을 내릴 가능성이 있는 패턴을 식별하는 데 도움이 될 수 있습니다.
투명성: AI 시스템은 투명해야 합니다. 즉, 시스템이 어떻게 작동하는지 이해하고 시스템이 편향되지 않았는지 확인할 수 있어야 합니다.
책임: AI 시스템은 책임이 있어야 합니다. 즉, 시스템이 잘못된 결정을 내린 경우 누군가 책임을 져야 합니다.AI 편향은 심각한 문제이지만 해결할 수 없는 문제는 아닙니다. AI 시스템을 개발할 때 AI 편향을 인식하고 해결하기 위해 노력하는 것이 중요합니다.

 

반응형

AI챗봇 바드에는 대규로 언어모델(LLM)과 팜2(PaLM)가 탑재되었습니다. 이날 공개한 팜2는 작년 4월에 선을 보였던 팜의 업그레이드 버전으로, 100개 이상의 언어를 지원합니다. 또한 5300억 개의 매개변수를 바탕으로 과학과 수학적 추론이 가능하고, 코딩 작업도 한다고 구글은 설명하였습니다. AI챗봇 바드는 이들을 이용하여 한국어와 일본어의 지원을 시작하였습니다. PaLM(Pathway Language Model)은 구글 AI에서 개발한 대규모 언어 모델입니다. 2022년 5월에 출시되었으며 5400억 개의 매개변수를 가진 가장 큰 언어 모델 중 하나입니다. PaLM은 방대한 텍스트 및 코드 데이터 세트로 학습되었으며 텍스트 생성, 언어 번역, 다양한 종류의 창의적인 콘텐츠 작성, 유익한 방식으로 질문에 답변할 수 있습니다.

 

현혹을 방지하기 위한 시스템 역시 개발되어 있습니다. Google AI에서 사용하는 LLM은 방대한 텍스트 및 코드 데이터 세트로 학습된 대규모 언어 모델입니다. 텍스트 생성, 언어 번역, 다양한 종류의 창의적인 콘텐츠 작성, 개방형이거나 도전적이거나 이상하더라도 유익한 방식으로 질문에 답변할 수 있습니다. 그러나 LLM은 완벽하지 않습니다. 때때로 잘못된 정보를 전달하거나 편향될 수 있습니다. TAPS는 이러한 문제를 해결하기 위한 시스템입니다. TAPS는 "트릭, 트릭 및 선동 방지 시스템"의 약자( "Tricks, Traps, and Propaganda Prevention System")입니다. LLM이 답변하는 질문을 모니터링하고 편향되거나 잘못된 정보를 탐지하도록 설계되었습니다. TAPS가 편향되거나 잘못된 정보를 발견하면 LLM이 답변하는 방식을 수정하고 잘못된 정보를 방지합니다.

TAPS는 LLM이 편향되거나 잘못된 정보를 전달하는 것을 방지하는 데 도움이 되기 때문에 중요합니다. 이를 통해 LLM이 사용자에게 가장 유익한 답변을 제공할 수 있습니다. 구글의 TAPS는 LLM이 답변하는 질문을 추적하고 LLM이 현혹되거나 편향된 질문에 답변하려고 할 때 경고합니다.TAPS는 LLM이 질문에 답변하는 방식을 수정하고 현혹되거나 편향된 답변을 방지하는 데 사용할 수 있습니다.


OpenAI에는 LLM이 편향되거나 잘못된 정보를 전달하는 것을 방지하는 데 도움이 되는 시스템이 있습니다. 이 시스템은 "사실적 정확성 평가기" 또는 FAE라고 합니다. FAE는 LLM이 답변하는 질문을 모니터링하고 잘못된 정보를 탐지하도록 설계되었습니다. FAE가 잘못된 정보를 발견하면 LLM이 답변하는 방식을 수정하고 잘못된 정보를 방지합니다.

FAE는 LLM이 편향되거나 잘못된 정보를 전달하는 것을 방지하는 데 도움이 되기 때문에 중요합니다. 이를 통해 LLM이 사용자에게 가장 유익한 답변을 제공할 수 있습니다.

OpenAI는 또한 LLM이 편향되지 않도록 하는 데 도움이 되는 다른 시스템을 개발하고 있습니다. 한 가지 시스템은 LLM이 학습하는 텍스트 데이터의 편향을 측정하는 시스템입니다. OpenAI는 또한 LLM이 편향된 텍스트 데이터를 학습하지 않도록 하는 시스템을 개발하고 있습니다.

아직은 인공지능 프로그램은 완벽한 상태로 출시되지 못했습니다. 인간이 내린 명령어를 이해하고 답변하는데에는 정확한 데이터를 분석하고 답변하는데에는 LLM과 함께 데이터의 정확성을 파악하는데 많은 데이터가 필요합니다. 이제 시작된 인공지능이 인간이 원하는 가장 정확한 결과를 만들어내는지 확인할 수 있는 건 결국 인간의 몫이 되었습니다. 

반응형