-
가짜 뉴스와 AI손 가는 대로/그냥 2025. 4. 13. 10:18728x90
가짜 뉴스와 AI
삼인성시호(三人成市虎)라는 말이 있습니다. 전국 시대 위(魏)나라 때 방총(龐葱)이 혜왕(惠王)에게 했던 말로, 세 사람이 말하면 시장에 호랑이가 나타났다는 거짓 뉴스를 사실이라고 믿게 만들 수 있다는 이야기입니다.
서동과 선화공주 이야기에서는 서동은 자신이 지어낸 가짜 뉴스를 노래로 만들어서 아이들을 통해 퍼뜨립니다. 그 결과 서동은 선화공주와 결혼하고, 백제 무왕이 될 수 있었습니다.
혹자는 가짜 뉴스의 역사가 인류의 역사만큼 오래되었다고 하죠.
인터넷이 가짜 뉴스를 만들어 낸 것은 아닙니다. 하지만, 가짜 뉴스 확산에 혁명적으로 기여를 하였습니다.
익명성 뒤에서 가짜 뉴스를 더 쉽게 만들고, 더 빠르고 광범위하게 퍼뜨릴 수 있게 되었죠. 또한, 사람들은 자신이 좋아하는 뉴스만 골라서 볼 수 있게 되면서, 균형감을 잃고, 진짜 뉴스보다는 편향된 뉴스를 더 믿게 되면서 가짜 뉴스에 훨씬 취약해졌습니다.
그리고, AI는 가짜 뉴스를 더욱 그럴 듯하게 만들 겁니다.
초기 LLM 모델은 터무니없는 답변을 해서 말이 많았습니다. 가짜 뉴스라기 보다는 엉터리 답변이 문제였죠. 하지만, 최근 몇 년 사이 답변은 정교해졌습니다. 그렇다고 해도 100% 정확하지는 않죠. 데이터를 더 많이 모으고 모델을 정교하게 만들어도 모델의 특성 상 추론 과정을 거치게 됩니다. 더 그럴 듯 해지기는 했어도 거짓 답변 위험은 있습니다.
진짜 위협은 의도된 거짓 뉴스입니다. AI 모델이 잘못된 데이터로 학습하는 경우이죠.
AI는 무수히 많은 데이터를 수집해 통계적 분석을 거쳐서 답을 추론합니다. 인터넷에 가짜 뉴스가 넘치게 되면 인간 뿐만 아니라 AI 역시 거짓을 사실일 수 있다고 판단하게 되죠.
유명한 대형 AI 모델은 그나마 나은 편입니다. 오픈 소스를 이용해서 수많은 AI 모델이 나오고 있습니다. 비용적 이유때문에 또는 특정 목적을 위해서 의도적으로 편향된 데이터로 학습시키는 경우도 많아지고 있죠. 이런 모델들은 모델의 한계때문이 아니라, 개발자가 의도해서 잘못된 데이터를 학습하게 하고 거짓 뉴스를 배포하게 만들 수 있습니다.
사람은 자기가 듣고 싶은 이야기를 듣고, 보고 싶은 이야기를 보고 싶어하는 경향이 있죠. 이렇게 만들어 낸 거짓 뉴스를 접하는 자기가 원하는 답변은 믿게 됩니다. 이건 AI의 답변이니 잘못된 내용이 아니거나, 잘못되었어도 자신의 잘못은 아니라는 합리화가 가능하니까요.
가짜 뉴스를 만들어 내는 거짓말은 인간과 동물을 구분하는 주요 특징이라는 사람도 있고, 심지어 동물들도 거짓말을 한다는 사람도 있죠.
거짓말과 가짜 뉴스는 좋은 건 아닐지 몰라도 사회 생활 속에서 뗄래야 뗄 수 없습니다. 인간이 만들어 낸 데이터를 학습한 AI가 거짓말을 하고 거짓 뉴스를 양산하는 것은 어쩌면 당연한 일일 수도 있고요.
피할 수는 없기에 AI까지 거짓말을 하고 거짓 뉴스를 퍼뜨리는 세상에서, 거짓 뉴스는 더욱 그럴 듯해지겠죠. 그 속에서 거짓 뉴스를 구분하는 것은 중요해 질 수 밖에 없습니다. 중요한 의사결정을 앞두었을 때에는 더더욱.728x90'손 가는 대로 > 그냥' 카테고리의 다른 글
AI는 감정을 느낄 수 있을까? (0) 2025.04.16 테이저 건을 전자제품에 사용 시 (0) 2025.04.08 테이저 건 (0) 2025.04.08 AI와 글쓰기 (0) 2025.04.05 경찰 지구대 (0) 2025.04.04