프롬프트 반복으로 LLM 정확도 향상, Google 팀 연구 결과

4 hours ago 2

Google Research 팀이 발표한 논문(“Prompt Repetition Improves Non-Reasoning LLMs”)에서 발견한 매우 간단하면서도 강력한 기법:
같은 프롬프트를 그대로 두 번 반복해서 입력하면 대부분의 최신 LLM(Gemini, GPT-4o, Claude, DeepSeek 등)에서 정확도가 크게 올라간다는 결과.

주요 포인트:

  • LLM의 인과적(autoregressive) 구조 때문에 프롬프트 정보의 순서와 한 번만 보는 것에 취약함 → 중요한 정보가 뒤쪽에 있거나 참조가 필요한 과제에서 자주 틀림.
  • 프롬프트를 두 번 반복 입력 → prefill(입력 분석) 단계에서 같은 내용을 두 번 처리하게 되어 모델 내부 표현이 더 정확해지고, 참조·기억 오류가 크게 줄어듦.
  • 생성 단계(출력 토큰 생성)에는 거의 영향 주지 않아 → 추론 시간·출력 길이 거의 증가 없음 (Claude처럼 컨텍스트 매우 긴 경우 예외).
  • 실험 결과: 7개 모델 × 여러 벤치마크에서 70개 조합 중 47건 향상, 단 한 건도 크게 떨어지지 않음.
  • 극단적 예시: “50개 이름 목록 중 25번째 이름은?” 과제
    → Gemini 2.0 Flash Lite 기본 정확도 21% → 반복 후 97% (거의 완벽)
  • Chain-of-Thought처럼 복잡한 추론 과제에서는 효과 작음 (이미 참조 잘 처리하는 경우).
  • 단점: 프롬프트가 이미 매우 길면 prefill 시간이 늘어나거나, 세 번 이상 반복 시 토큰 제한 걸릴 수 있음.

결론
“Think step by step”만큼 유명해질 수 있는, 놀라울 정도로 단순하고 비용 거의 안 드는 정확도 향상 트릭.
특히 단순 참조·목록 처리·구조화된 데이터 질문에서 즉시 써먹을 수 있는 실용적인 팁으로 주목.

https://aisparkup.com/posts/9574

Read Entire Article