AI × 고전 시리즈 · #3

아리스토텔레스 × 알고리즘

목적인 — 알고리즘은 무엇을 위해 존재하는가

"모든 기술과 탐구, 모든 행위와 선택은 어떤 좋음을 지향한다 (Πᾶσα τέχνη...)" — 니코마코스 윤리학 I.1
기원전 384-322 형이상학 · 니코마코스 윤리학 최적화 · 추천 시스템 · 목적 함수
오프닝

유튜브 홈 화면을 연다. 알고리즘은 당신이 좋아할 영상을 놀랍도록 잘 골라낸다. 하지만 30분 보려다 3시간을 보낸 뒤, 아무것도 배우지 못한 허탈함이 남는다. 알고리즘은 정확했다 — "시청 시간"이라는 목적을 완벽하게 달성했으니까. 문제는 그 목적이 당신의 목적이 아니었다는 것이다. 2500년 전 아리스토텔레스가 이 장면을 봤다면 이렇게 말했을 것이다 — "너의 기술은 훌륭하나, 목적인(telos)을 묻지 않았다." 모든 알고리즘은 답을 준다. 하지만 "무엇을 위한 답인가"는 인간이 정한다.

아리스토텔레스 — 모든 것은 목적을 향한다

아리스토텔레스(기원전 384-322)는 플라톤의 제자이자 알렉산더 대왕의 스승이었고, 리케이온(Lyceum)을 세워 17년간 가르쳤다. 그의 사상 체계에서 가장 유명한 것이 4원인설(Four Causes)이다. 청동상을 예로 들자. 청동이 "질료인(material cause)"이고, 인체의 형상이 "형상인(formal cause)"이고, 조각가가 "작용인(efficient cause)"이고, 그리고 — 가장 중요한 — "왜 이 상을 만들었는가"가 "목적인(final cause, telos)"이다. 아리스토텔레스의 핵심 주장은 이것이다. 목적인 없이는 다른 세 원인이 아무 의미가 없다. 청동과 형태와 조각가가 있어도, "왜?"가 없으면 그것은 사고일 뿐 작품이 아니다. 그는 자연과 인공을 모두 목적인으로 설명했다. 도토리의 telos는 참나무이고, 칼의 telos는 자르는 것이고, 인간의 telos는 에우다이모니아(eudaimonia, 번영)다. 도구가 자신의 목적을 배반하면 — 예를 들어 칼이 자르지 못하면 — 그것은 더 이상 칼이 아니다.
💡 니코마코스 윤리학의 첫 문장 — "모든 기술과 탐구, 모든 행위와 선택은 어떤 좋음(agathon)을 지향한다." 아리스토텔레스에게 "좋음"은 추상적 이상이 아니라 각 활동의 고유한 목적이다. 의술의 좋음은 건강, 건축의 좋음은 집, 정치의 좋음은 공동체의 번영. 목적을 명확히 하지 못한 활동은 윤리적으로 평가 불가능하다.
📚 형이상학 (Metaphysics) Book V.2 📚 니코마코스 윤리학 I.1-I.7 📚 자연학 (Physics) Book II

알고리즘 — 목적 함수가 세계를 바꾼다

모든 AI/ML 알고리즘의 중심에는 "목적 함수(objective function)" 혹은 "손실 함수(loss function)"가 있다. 이것이 아리스토텔레스의 telos에 해당한다. 알고리즘은 단 하나의 질문에 답하는 기계다 — "이 함수 값을 최소화(혹은 최대화)하려면 무엇을 해야 하는가?" 문제는 이 함수가 무엇이냐에 따라 세계가 바뀐다는 점이다. 유튜브의 2012년 내부 지표 전환이 상징적이다. 클릭 수(click-through)에서 시청 시간(watch time)으로 목적 함수를 바꾸자, 6개월 만에 하루 총 시청 시간이 수 배 증가했다. 대신 극단적 콘텐츠, 가짜 뉴스, 음모론이 폭증했다. 알고리즘은 아무 잘못이 없다 — 주어진 목적을 완벽히 달성했을 뿐이다. 페이스북도 같았다. "참여(engagement)"를 목적 함수로 삼자 분노를 유발하는 게시물이 정상 게시물의 5배 도달을 얻었다(2021년 하우겐 문서 폭로). Stuart Russell은 이 문제를 "우리 시대의 가장 중요한 문제"라 명명했다. 그의 책 Human Compatible(2019)에서 말한다 — "AI의 위험은 AI가 틀린 답을 내는 것이 아니라, 우리가 잘못된 질문을 하는 것이다."
💡 굿하트의 법칙(Goodhart's Law) — "측정이 목표가 되는 순간, 그것은 더 이상 좋은 측정이 아니다." 시청 시간은 "사용자 만족"의 측정이었는데, 그 자체가 목표가 되자 만족과 무관해졌다. 아리스토텔레스가 2300년 전 경고한 것과 같다 — telos(진짜 목적)와 측정 지표를 혼동하지 말라.
🔗 Stuart Russell, "Human Compatible" (2019) 🔗 The Facebook Files (WSJ, 2021) 🔗 YouTube Engineering Blog (2012)

두 지혜가 만나는 지점

아리스토텔레스의 목적인은 알고리즘 시대에 오히려 더 필수적인 개념이 된다. 네 가지 교차점이 있다.

1. 목적 함수는 윤리 선언이다

어떤 함수를 최대화할지 정하는 순간, 당신은 "이것이 좋음이다"라고 선언한 것이다. "시청 시간"을 목적으로 설정하는 것은 "사용자 시간을 가져가는 것이 선이다"라는 윤리적 주장이다. 엔지니어는 이 사실을 자주 잊는다. 목적 함수 설계는 수학 작업이 아니라 아리스토텔레스적 윤리 작업이다.

2. telos 없는 최적화는 맹목적이다

아리스토텔레스는 목적 없는 움직임을 무의미하다 했다. 목적 없이 "AI로 무엇을 할 수 있을까" 찾는 것은 칼을 들고 자를 것을 찾는 셈이다. 도구가 목적을 만들면 수단이 목적을 지배한다. LLM으로 뭘 할지 모르겠다면, 먼저 "나의 telos가 무엇인가"부터 답하라.

3. 도구는 그 목적을 배반하면 도구이기를 멈춘다

자르지 못하는 칼은 칼이 아니라 했다. 사용자의 행복을 해치는 추천 시스템은 — 아리스토텔레스 논리대로라면 — 더 이상 추천 시스템이 아니다. 그것은 "관심 착취기(attention extractor)"다. 당신이 쓰는 도구가 자신의 선언된 목적을 달성하고 있는지, 매번 점검해야 한다.

4. 인간의 telos가 알고리즘의 telos를 앞선다

니코마코스 윤리학의 에우다이모니아 — 인간의 최고 목적은 잘 사는 것(번영)이다. 알고리즘의 목적은 그 하위여야 한다. 스마트폰 사용 시간을 늘리는 것이 알고리즘의 목적이라면, 그것은 인간의 telos와 충돌한다. 충돌 시, 누구의 목적이 우선인가? 이것이 2020년대 AI 윤리의 핵심 질문이다.

오늘 할 수 있는 실천 — telos 점검 5원칙

  1. 1

    쓰는 앱마다 "이 앱의 목적 함수는 무엇인가"를 적어본다

    인스타그램의 목적 함수는 무엇인가? 유튜브는? Notion은? 링크드인은? 각 앱이 최대화하려는 숫자를 추정해보면, 그 앱이 당신에게 무엇을 하려는지 선명해진다.

  2. 2

    나의 하루의 telos를 명시한다

    아리스토텔레스식으로 — "오늘 나의 좋음(agathon)은 무엇인가?" 한 문장으로 적고 시작한다. 이 한 문장이 없으면 알고리즘의 목적 함수에 끌려다닌다.

  3. 3

    지표(metric)와 목적(telos)을 구분한다

    체중계 숫자는 건강의 지표일 뿐 목적이 아니다. 구독자 수는 영향력의 지표일 뿐 목적이 아니다. 지표에 몰두하면 굿하트의 법칙에 걸린다. 목적으로 돌아가라.

  4. 4

    도구가 목적을 배반하면 도구를 바꾼다

    쓸수록 불행해지는 앱은 — 그 앱의 선언된 목적이 무엇이든 — 당신에게는 도구가 아니다. 삭제 버튼은 가장 아리스토텔레스적인 행위다.

  5. 5

    팀의 KPI를 telos 언어로 재작성한다

    "MAU 증가"는 지표다. telos는 "우리 사용자의 삶이 어떻게 나아지는가"다. 분기 OKR을 쓸 때 목적인 한 줄을 맨 위에 두고 지표는 그 아래 놓는다. 순서가 바뀌면 방향도 바뀐다.

결어 — 아리스토텔레스가 당신의 대시보드를 본다면

아리스토텔레스가 2026년의 프로덕트 미팅에 참석했다고 상상해보자. 벽에 붙은 대시보드에 숫자들이 번쩍인다 — DAU, Retention, NPS, GMV. 그는 한참 쳐다보다가 빈 공간을 가리키며 묻는다. "이 모든 숫자가 무엇을 위한 것인가? 너희의 telos는 어디에 적혀 있는가?" 회의실은 고요해진다. 아리스토텔레스는 조용히 말할 것이다.

"모든 기술은 어떤 좋음을 위해 존재한다. 너희의 알고리즘이 섬기는 좋음이 무엇인지 말하지 못한다면, 그것은 아직 기술이 아니라 움직임일 뿐이다. 목적을 먼저 적어라. 그 다음에 숫자를 적어라."

더 깊이 읽기

  • 📖
    니코마코스 윤리학 I권 · X권eudaimonia와 목적론적 윤리의 원전
  • 📖
    형이상학 V.24원인설 — 질료·형상·작용·목적
  • 📖
    Stuart Russell, "Human Compatible" (2019)현대 AI 정렬 문제를 아리스토텔레스적 언어로 재구성한 필독서
  • 📖
    Cathy O'Neil, "Weapons of Math Destruction" (2016)목적 함수 설계가 낳은 사회적 피해의 사례집
다음 편
장자 × AI 의식
호접지몽 — 기계가 꿈꿀 때