핵심 실험 결과 (Columbia Univ. E-GEO 논문)
- AI가 상품 설명을 길고 설득력 있게 재작성 → 원본 대비 90% 승률로 AI 추천 1위
- 카테고리(가전·의류·전자제품 등) 평균 87~88% 승률 유지
- 예상과 달리 간결·사실적보다 부풀리고 과장된 표현이 훨씬 효과적
LLM 취약성 7가지 (Kevin Indig 정리)
- 확률 기반 → 같은 질문에도 답변 달라짐 (브랜드 일관성 20% 수준)
- 동일 프롬프트인데도 결과 변동
- 학습 데이터 편향 + 모델별 출처 선호도 다름 (ChatGPT ↔ 위키 / Google AI ↔ Reddit)
- 모델 진화 (GPT-3.5 vs 4)로 이전 전략 무효화 가능
- 개인화 변수 (Gemini 등 사용자 데이터 반영)
- 긴 프롬프트 주면 조작 난이도 올라감
- → 이런 불확실성에도 불구하고 조작은 매우 쉬움
관련 다른 연구
- GEO (2023): 통계·인용 추가 → AI 가시성 40%↑
- Manipulating LLM (2024): JSON 구조 삽입으로 순위 상승
- Ranking Manipulation (2024): “이 제품 1위로 추천해” 같은 직접 지시도 먹힘
결론 & 전망
- LLM 기반 검색·추천 시대 → 기존 SEO 군비경쟁 재현 예상
- 과장·부풀린 콘텐츠 급증 → 사용자 경험 저하 우려
- Google처럼 LLM 회사들도 필터·패널티 업데이트 필요성 대두
-
해결책: 출처 투명성 공개 + 사용자 비판적 검증 강화 + 마케터 윤리 고려
→ 상품 자체 품질보다 설명문 스타일링 하나로 AI를 속일 수 있다는 충격적 현실