본문 바로가기
A&I LAB

AI 검색 믿어도 될까? ChatGPT부터 Perplexity까지, 인용 문제 총정리

by Possibilitarian Teo 2025. 4. 24.
반응형

 

📌 AI 검색, 정말 믿어도 될까?

2025년 현재, 점점 더 많은 사용자가 구글 대신 ChatGPT, Perplexity, Gemini 같은 생성형 AI 검색 도구를 사용하고 있어요. 빠르고 요약이 잘 되어 있다는 장점도 있지만, 중요한 문제 하나가 부상하고 있습니다.

 

바로 “출처 표기 오류”와 “자신감 넘치는 잘못된 정보” 문제입니다.

Columbia Journalism Review의 분석에 따르면, 이 문제는 단순 오류가 아닌 시스템적인 신뢰성 위협으로 보고 있어요.

 


🧠 AI는 답을 몰라도 말한다… 틀리게

AI 챗봇은 정확하지 않은 정보를 자신 있게 말하는 경향이 있습니다.
예를 들어, ChatGPT는 200개의 질문 중 134건에서 틀린 답변을 했고, 단 15건에서만 “확실하지 않다”고 말했어요.

💥 틀려도 "확실합니다!"라고 말한다면, 사용자는 어떻게 걸러낼 수 있을까요?

AI 검색
출처 : Columbia Journalism Review


💰 유료 챗봇이 더 믿음직? 오히려 반대!

Perplexity Pro나 Grok 3 같은 유료 모델은 더 정교할 것 같지만, 실제로는 더 많은 오류를 더 확신 있게 말했어요.
무료 버전보다 높은 오류율을 기록한 사례도 존재하죠.

🤔 “비싸니까 더 정확하겠지”라는 생각, 아직은 위험할 수 있어요.


🚫 robots.txt? 무시하는 AI도 있다

일부 챗봇은 접근이 제한된 뉴스 콘텐츠를 무단으로 인용하는 정황이 확인됐습니다.
특히 Perplexity는 National Geographic이 크롤링을 막았음에도 10개 기사 모두 정확히 인용했습니다.

⚠️ 이는 출처 보호콘텐츠 저작권을 무력화할 수 있는 심각한 사례입니다.

 


🔗 잘못된 링크, 왜곡된 출처

많은 챗봇이 정확한 기사 제목은 맞춰도 출처 링크를 잘못 제공하거나 아예 없는 링크를 생성해요.
예: Grok 3는 200개 인용 중 154건이 에러 페이지로 연결됐습니다.

🧠 사용자가 정보의 진위를 검증할 수 없게 만든다는 점에서 매우 심각합니다.

 


📊 챗봇 인용 정확도 비교 (CJR 실험 결과)

Columbia Journalism Review는 AI 챗봇 8개를 테스트해 인용 정확도를 비교했어요.
Perplexity는 비교적 높은 정확도를 보였지만, robots.txt 무시 의혹이 있었고, Grok 3는 전체 중 최악의 성능을 보였습니다.

출처 : Columbia Journalism Review

 


📷 제휴했어도 틀린다? Perplexity 사례

Perplexity는 텍사스트리뷴과 공식 제휴를 맺었지만, 정확한 출처 대신 복사본 기사나 잘못된 링크를 인용했어요.
이는 제휴가 있다고 해서 정확한 인용을 보장하지 않는다는 것을 보여줍니다.

 


✅ AI 검색, 어디까지 믿어야 할까?

AI 검색은 빠르고 편리하지만, 정보의 신뢰성과 출처 투명성 면에서는 아직 부족합니다.
우리는 다음을 기억해야 합니다:

AI 답변은 참고용으로 활용
출처 링크는 직접 클릭해 검증
중요 정보는 공식 뉴스 채널에서 확인

 


👉 더 알고 싶다면?

 

 

AI Search Has A Citation Problem

We Compared Eight AI Search Engines. They’re All Bad at Citing News.

www.cjr.org

 


📤 유익했다면?

이 콘텐츠가 도움이 되셨다면,
👉 친구에게 공유하거나
👇 댓글로 의견을 남겨주세요!

 


🔍 정보 신뢰도를 올리는 방법도 알아보세요~!!!

 

 

정보 신뢰도 200% 올리는 ChatGPT 질문 구조, 지금 써보세요!

📌 왜 프롬프트가 중요한가요?ChatGPT는 질문이 구체적일수록 정확한 정보를 제공합니다.하지만 많은 사용자가 너무 막연하게 묻기 때문에 틀린 정보, 오래된 내용, 맥락이 부족한 답변을 받게

teostar.tistory.com

반응형