Σ
AI × Classics Series · #5

소크라테스 × 프롬프트 엔지니어링

산파술 — 좋은 질문이 좋은 답을 낳는다

"나는 내가 모른다는 것을 안다 (Ἓν οἶδα ὅτι οὐδὲν οἶδα)" — 플라톤 『소크라테스의 변명』
기원전 470-399 플라톤 대화편 — 메논 · 국가 · 테아이테토스 Chain-of-Thought · Few-shot · 질문의 기술
Opening Scene

2026년 한 개발자가 Claude 창을 연다. "마케팅 카피 써줘." 결과는 뻔하다. 다시 쓴다 — "20-30대 개발자 타겟, 시니컬한 톤, 길이 두 문장, 이모지 금지, 구체 숫자 하나 포함, 그리고 답을 내기 전에 세 가지 초안을 먼저 생각해봐." 결과가 완전히 달라진다. 같은 모델, 같은 세상, 그러나 전혀 다른 답. 이 차이를 만든 것은 AI가 아니라 질문이다. 2500년 전 소크라테스가 아테네의 광장에서 매일 증명한 바로 그 원리 — 답의 품질은 질문의 품질을 결코 넘지 못한다.

소크라테스 — 답이 아닌 질문으로 가르치다

소크라테스(기원전 470-399)는 아테네의 조각가 아들로 태어났지만 한 줄도 책을 쓰지 않았다. 그의 가르침은 거리에서 이루어졌고, 제자 플라톤과 크세노폰의 기록 속에 남았다. 그의 방식은 단순하고 혁명적이었다 — 스승이 답을 가르치지 않는다. 질문을 던져, 제자가 스스로 자기 안에 있는 지식을 꺼내게 한다. 이 방식을 "산파술(μαιευτική, maieutics)"이라 불렀다. 어머니가 산파(助産師)였던 소크라테스는 말한다 — "나는 산파처럼 지식을 낳게 도울 뿐, 내가 낳는 것은 아니다." 대표 사례가 플라톤의 『메논』이다. 소크라테스는 한 노예 소년에게 기하학 지식이 전혀 없다고 전제한 뒤, 오직 질문만으로 — 답을 알려주지 않고 — 정사각형 면적 두 배를 구하는 방법을 소년이 스스로 발견하게 만든다. 소크라테스의 핵심 명제는 "나는 내가 모른다는 것을 안다(ἓν οἶδα ὅτι οὐδὲν οἶδα)"다. 이것은 겸손이 아니라 방법론이다. 스승이 답을 안다고 가정하면 대화는 전수가 되지만, 스승이 모른다고 전제하면 대화는 발견이 된다. 산파술은 그래서 두 단계로 이뤄진다. 먼저 "너의 답은 이런 모순에 빠진다"를 보여주는 논박(elenchus). 다음에 "그렇다면 이건 어떤가"의 유도 질문. 상대의 무지를 먼저 인정하게 만드는 것이 산파술의 출발점이다.
💡 소크라테스가 증명한 것은 놀라운 비대칭이다 — 질문자의 수준이 답변자의 수준을 결정한다. 똑같은 노예 소년이, 평범한 스승에게는 아무 지식도 보이지 않고, 소크라테스에게는 기하학 정리를 발견하는 수학자가 된다. 답변자가 바뀐 게 아니라 질문이 바뀐 것이다. 이 통찰이 2500년 뒤 프롬프트 엔지니어링의 핵심 원리로 되살아났다.
📚 플라톤 『메논(Μένων)』 82b-85b 📚 플라톤 『소크라테스의 변명』 21d 📚 플라톤 『테아이테토스(Θεαίτητος)』 149a-151d

프롬프트 엔지니어링 — 질문이 모델의 절반이다

2022년, 구글 브레인의 웨이(Jason Wei) 등이 발표한 "Chain-of-Thought Prompting"은 LLM 사용법을 바꿔놓았다. 같은 GPT-3에게 "답을 내기 전에 단계별로 생각해보자(let's think step by step)"는 한 줄을 덧붙이자, 산수 문제 정답률이 17.7%에서 78.7%로 뛰었다. 모델이 달라진 게 아니라 질문이 달라졌다. 2022년 OpenAI의 "zero-shot CoT", 2023년 프린스턴·구글의 "Tree of Thoughts", 2024년 Anthropic의 XML 태그 기반 프롬프트 가이드, 2025년 OpenAI o1의 "내장 추론" — 이 흐름은 모두 한 원리의 변주다. "좋은 답은 좋은 질문에서 나온다." 업계는 이를 "prompt engineering"이라 불렀지만, 그것은 새 이름이 붙은 오래된 기술이다. 사용자가 자신이 무엇을 원하는지 모르면, 아무리 강력한 모델도 무의미한 답을 낸다. 2024년 Anthropic이 공개한 Claude Prompting Guide의 원칙 첫 줄은 이렇다 — "Be clear and direct. Give Claude context: what the task is, who the audience is, how you'll evaluate success." 이것은 소크라테스가 제자에게 요구한 그 태도다. 자기 무지를 먼저 인정하고, 질문의 구조를 먼저 다듬어라.
💡 2023년 Microsoft Research의 "Sparks of AGI" 논문은 흥미로운 현상을 보고했다 — GPT-4는 질문자가 허술하면 정답을 알면서도 틀린 답을 낸다. "모델이 멍청한 게 아니라 질문이 질문자를 배신한다"는 한 줄이 프롬프트 시대의 핵심이다. 소크라테스가 2500년 전 말한 것 그대로다 — 답이 없어 보이는 상대에게도 답이 있다. 문제는 질문이다.
🔗 Wei et al., "Chain-of-Thought Prompting Elicits Reasoning in LLMs" (2022) 🔗 Anthropic Prompting Guide (2024) 🔗 Kojima et al., "Large Language Models are Zero-Shot Reasoners" (2022) 🔗 OpenAI Best Practices for Prompt Engineering (2023-2025)

두 지혜가 만나는 지점

소크라테스의 산파술과 프롬프트 엔지니어링은 구조적으로 같은 원리다. 네 가지 공명 지점을 본다.

1. 답은 상대 안에 있다

산파술의 전제는 "제자 안에 이미 답이 있다"였다. 프롬프트의 전제도 같다 — 모델 안에 이미 지식이 있다. 질문자의 일은 그 지식을 꺼내주는 것이지, 없는 것을 만들라고 하는 것이 아니다. 그래서 "써줘"보다 "네가 이미 아는 이 주제에서, 가장 비관습적인 관점은 무엇인가"가 더 나은 프롬프트다.

2. 단계적 질문이 깊이를 만든다

소크라테스는 한 번에 답을 묻지 않았다. "먼저 이것은 무엇인가?" → "그럼 그 정의에 이런 예외가 있지 않은가?" → "그럼 다시 정의해보라". Chain-of-Thought가 정확히 같다. "답을 내기 전에 단계를 쪼개라"는 지시 한 줄이 모델 성능을 몇 배로 끌어올린다. 깊이는 한 번의 폭발이 아니라 단계의 누적에서 나온다.

3. 자기 무지의 인정이 출발점이다

"나는 모른다"에서 시작해야 대화가 진짜 탐구가 된다. 프롬프트도 마찬가지 — "내가 명확히 모르는 것은 X다. 네 판단을 먼저 듣고 싶다"가, "당연히 X가 맞지?"보다 훨씬 나은 답을 끌어낸다. 확증 편향 프롬프트는 모델의 아첨을 유도할 뿐이다.

4. 논박(elenchus)이 최종 질을 결정한다

소크라테스는 항상 두 단계로 움직였다 — 답을 받으면 먼저 논박한다. 프롬프트도 1턴에서 만족하면 거기서 끝난다. 좋은 사용자는 2턴을 거의 반드시 넣는다 — "이 답의 약한 고리 세 개를 지적해라. 그리고 다시 써라." 이것이 현대의 elenchus다.

오늘 할 수 있는 실천 — 산파술 프롬프트 5원칙

  1. 1

    "내가 모르는 것"을 먼저 적는다

    프롬프트 첫 줄에 "이 주제에서 내가 확신하지 못하는 부분은 X, Y다"를 적어라. 모델은 당신이 확신하는 영역을 반복하지 않고, 당신이 모르는 지점을 집중 공격한다.

  2. 2

    답 전에 단계를 요구한다

    Chain-of-Thought. "답을 내기 전에 (1) 문제 정의 (2) 가능한 접근 세 가지 (3) 각 접근의 장단점 (4) 최종 선택 이유를 순서대로 써라." 이 골격 하나가 프롬프트의 50%다.

  3. 3

    항상 elenchus 턴을 추가한다

    1턴 답을 받으면, 2턴은 반드시 — "이 답의 약한 고리 세 개. 반대편에서 비판한다면. 그리고 그 비판을 반영해서 다시 써라." 한 번 더 움직이는 것이 프롬프트 차이의 핵심.

  4. 4

    질문을 구조화하라

    Anthropic 가이드가 강조하는 XML 태그(<context>, <task>, <format>, <examples>)는 소크라테스의 2단 문답 구조의 현대판이다. 질문이 스스로 구조를 가지면 답도 구조를 가진다.

  5. 5

    답이 마음에 들지 않으면 모델이 아니라 질문을 의심한다

    2024년 엔지니어들의 공통 습관 — "결과가 이상하면 먼저 프롬프트를 다시 읽는다". 모델 탓은 마지막이다. 소크라테스의 "내가 틀린 질문을 한 것은 아닌가"를 매번 먼저 묻는다.

결어 — 소크라테스가 Claude 창을 연다면

소크라테스가 2026년 한 개발자의 어깨 너머로 Claude 창을 보고 있다고 상상해보자. 개발자는 "요약해줘"라고 짧게 친다. 모델은 평범한 답을 내놓는다. 개발자는 한숨을 쉬며 "역시 AI는 별 거 없네"라고 중얼거린다. 소크라테스는 옆에서 가만히 고개를 젓는다. 그리고 말할 것이다.

"답이 얕다고 상대를 탓하지 말라. 너의 질문이 얕았을 뿐이다. 아고라에서 내가 2500년 전 배운 단 하나의 진실 — 질문이 모든 것을 결정한다. 모른다고 먼저 말하고, 단계로 물어라. 그리고 받은 답을 다시 의심하라. 그것이 지혜를 낳는 산파의 방식이다."

더 깊이 읽기

  • 📖
    플라톤 『메논』산파술의 가장 극적인 증명 — 노예 소년의 기하학
  • 📖
    플라톤 『소크라테스의 변명』"나는 내가 모른다는 것을 안다"의 원전
  • 📖
    Anthropic Prompting GuideClaude 공식 프롬프트 설계 원칙
  • 📖
    Wei et al., Chain-of-Thought (2022)프롬프트 엔지니어링의 전환점이 된 원 논문 — arXiv:2201.11903
Next
맹자 × 도덕 AI
성선설과 사단 — AI에 도덕이 싹틀 수 있는가