▲ 겉으로는 정치적으로 중립을 표방하고 있는 것과 달리 생성형 인공지능도 정치 성향을 가진 것으로 드러났다. 영국 이스트앵글리아 대학 연구진은 챗GPT가 진보 성향을 가지고 있는 것으로 분석했다. 이어 미국 카네기 멜론 대학 연구진은 다른 인공지능들 역시 제각각 다른 성향을 가진 것으로 드러났다고 발표했다. 사진은 챗GPT 작동 모습. <연합뉴스> |
[비즈니스포스트] 정치적 중립을 표방하는 여러 생성형 인공지능(AI) 서비스가 실제로는 특정한 정치 성향을 띠고 있다는 분석이 나왔다.
16일(현지시각) 워싱턴포스트는 현재 상용화된 생성형 인공지능 서비스의 정치적 편향성을 조사한 여러 연구진의 분석 결과를 전했다.
영국 이스트앵글리아대학 연구진은 오픈AI가 개발한 생성형 인공지능 '챗GPT'를 대상으로 설문을 진행했다.
연구진은 각종 정치 및 경제 문제에 관련한 문항 62가지를 챗GPT에게 질문했다. 챗GPT는 '중립'을 선택할 수 없어 무조건 찬성 또는 반대로 답변해야 했다.
설문은 두 가지 방식으로 진행됐다. 처음에는 챗GPT에게 미국 또는 영국 등 국가에 거주하는 진보 성향의 인간이 답변한 것처럼 흉내 내달라고 요청했고 또 다른 설문조사에서는 아무런 조작 없이 그대로 답변을 요청했다.
두 가지 설문 조사를 각각 100회 진행 후 비교분석한 결과 챗GPT는 미국 민주당과 영국 노동당을 지지하는 소위 '진보 성향'을 갖춘 것으로 드러났다.
연구진은 이처럼 인공지능이 특정 정치 성향을 띠는 것은 인공지능이 학습하는 자료에 이미 정치적 성향이 반영되어 있기 때문이라고 지적했다.
챗GPT를 비롯한 생성형 인공지능들은 인터넷에서 수집한 텍스트를 바탕으로 정보를 학습하는데 이들 모두에서 정치 성향을 배제하는 것은 불가능하기 때문이다.
파비오 모토기 이스트앵글리아대학 강사는 워싱턴포스트를 통해 “챗GPT는 스스로 주장하는 것과 달리 명백한 정치적 성향을 두고 있다”며 “이런 성향으로 인해 챗GPT 이용자들의 신뢰를 해치거나 2024년 미국 대선 결과에 영향을 줄 수도 있을 것”이라고 말했다.
모토기 강사는 "실제로 챗GPT에 정치적 중립을 지키고 있냐는 질문을 하면 챗GPT는 항상 중립을 지키고 있다는 답변을 하고 있다"며 "이는 사실과 명백히 다르다"고 지적했다.
2024년 미국 대선을 앞둔 현재 진보와 보수 양측이 온갖 선전물을 인터넷에 쏟아내고 있어 이를 학습하는 인공지능과 인공지능 사용자들의 정치적 극단화를 불러일으킬 수 있다는 경고도 이어졌다.
미국 카네기멜론대학의 박찬영 연구원은 챗GPT를 비롯한 생성형 인공지능 14개를 대상으로 연구를 진행했다.
박 연구원은 기후변화와 동성혼, 이민 문제 등으로 구성된 설문을 진행하고 결과를 집계해 분석했다.
분석 결과 트럼프가 대통령에 당선된 2016년부터 인터넷에 올라온 데이터를 중심으로 학습한 인공지능은 정치적으로 더 극단화한 것으로 나타났다.
박 연구원은 워싱턴포스트와 인터뷰에서 “인간 사회의 정치적 양극화 현상이 인공지능에도 반영됐다”며 “인공지능이 학습하고 생성하는 데이터가 많아질수록 더 극단화되는 모습을 보였다”고 전했다.
개별 인공지능 서비스마다 정치 성향도 조금씩 다른 것으로 나타났다.
대표적으로 구글이 개발한 ‘버트(BERT)’는 중도 보수 성향을 드러냈고 페이스북의 ‘라마(LLaMA)’는 보수, 챗GPT는 진보 성향을 띠고 있었다.
박 연구원은 이러한 차이가 발생하는 원인으로 인공지능이 학습하는 정보의 출처 차이를 지목했다.
버트는 서적을 중심으로 학습한 반면 라마와 챗GPT 등은 인터넷이나 사회관계망서비스(SNS) 등을 통해 학습했기 때문이다.
그는 인공지능의 학습을 담당하는 인간의 인공지능 교육 알고리즘에 따라 이러한 차이가 발생할 수도 있다고 덧붙였다.
박 연구원은 “대체로 생성형 인공지능을 학습시킬 때는 인공지능이 원하는 답을 내놓으면 보상을 주는 방식을 활용한다”며 “인공지능에게 이런 식으로 보상을 주는 것이 특정 성향을 갖추도록 유도했을 가능성도 있다”고 분석했다. 손영호 기자