SEO(Search Engine Optimization)는 알고 있을 것이다. 그렇다면 AEO(Answer Engine Optimization)는?
ChatGPT, Perplexity, Google AI Overview 같은 AI 기반 답변 엔진의 등장으로, 사용자가 정보를 얻는 방식이 근본적으로 바뀌고 있다. 과거에는 검색 결과 '목록'에서 링크를 클릭했다면, 이제는 AI가 직접 '답변'을 제시한다. 이것은 단순한 인터페이스의 변화가 아니다. 정보 유통 구조 전체의 패러다임 전환이다.
이 전환의 규모를 숫자로 보면 더 명확해진다. Gartner의 2024년 예측에 따르면, 2026년까지 전통적 검색 엔진의 트래픽이 25% 감소할 것으로 전망된다. Similarweb 데이터는 ChatGPT의 월간 방문 수가 2024년 기준 약 18억 회에 달한다고 보고한다. Perplexity는 2024년 한 해 동안 월간 활성 사용자가 1,000만에서 5,000만 이상으로 급증했다. 이 숫자들은 개별적으로도 의미 있지만, 추세로 보면 더 강력하다: 정보 탐색의 시작점이 검색 엔진에서 답변 엔진으로 이동하고 있다.
이 변화에서 기업이 지금 당장 해야 할 것은 무엇인가. 이 글에서는 세 가지 핵심 전략을 제안하되, 각 전략의 이론적 근거, 실행 방법론, 그리고 한계를 함께 논의한다.
배경: 검색에서 답변으로의 구조적 전환
AEO를 이해하려면 먼저 이 전환이 왜 일어나는지를 이해해야 한다. 표면적으로는 LLM(Large Language Model) 기술의 발전이 원인이다. 그러나 더 근본적으로는, 검색 엔진의 전통적 모델이 가진 구조적 비효율성이 기술 발전에 의해 노출된 것이다.
전통적 검색 엔진 모델은 '정보 중개(information intermediation)'에 기반한다. 사용자가 쿼리를 입력하면, 검색 엔진은 관련 문서의 목록을 제시하고, 사용자가 직접 문서를 방문하여 정보를 추출한다. 이 모델에서 사용자의 인지적 비용(cognitive cost)은 상당하다. 검색 결과를 스캔하고, 어떤 링크가 신뢰할 만한지 판단하고, 클릭한 페이지에서 원하는 정보를 찾아 추출해야 한다.
경제학적으로, 이는 George Stigler(1961)가 정의한 '탐색 비용(search cost)'의 전형이다. Stigler는 소비자가 최적의 가격을 찾기 위해 지불하는 시간과 노력의 비용을 분석했는데, 동일한 프레임워크가 정보 탐색에도 적용된다. 검색 엔진은 탐색 비용을 획기적으로 낮추었지만, 완전히 제거하지는 못했다. AI 답변 엔진은 이 잔존 탐색 비용을 거의 제로에 가깝게 줄인다.
답변 엔진 모델에서, 사용자는 문서를 방문할 필요 없이 답변을 직접 받는다. 이것은 사용자에게는 편의(convenience)지만, 콘텐츠 생산자에게는 위기(crisis)다. 기존 SEO 전략의 핵심은 '검색 결과에 노출 → 클릭 → 사이트 방문 → 전환'이라는 퍼널이었다. 이 퍼널에서 '사이트 방문' 단계가 생략되면, 콘텐츠 생산자의 트래픽이 급감한다. 실제로 HubSpot의 2024년 보고서는 구글 AI Overview가 표시되는 쿼리에서 유기적 클릭률(organic CTR)이 평균 30-40% 하락했다고 보고한다.
그렇다면 기업은 이 전환에 어떻게 대응해야 하는가? 비관론에 빠지기 전에, 구조적 기회를 먼저 포착하자. AI 답변 엔진이 답변을 생성하려면 '출처(source)'가 필요하다. 이 출처로 선택되는 콘텐츠는 기존 SEO에서의 '1페이지 노출'보다 더 강력한 가시성을 얻는다. 문제는 그 출처로 선택되는 기준이 기존 SEO의 기준과 상당히 다르다는 것이다.
전략 1: 질문-답변 구조로 콘텐츠를 재편하라
AI 답변 엔진은 웹에서 정보를 수집해 답변을 생성한다. 이때 가장 쉽게 참조되는 형태가 명확한 질문과 그에 대한 직접적인 답변 구조다.
기존 SEO 콘텐츠가 키워드 중심이었다면, AEO 콘텐츠는 질문 중심이어야 한다.
이 차이를 이해하려면, LLM이 정보를 처리하는 방식에 대한 기본적인 이해가 필요하다. LLM은 본질적으로 '다음 토큰 예측 기계'다. 입력된 텍스트(프롬프트)에 이어질 가장 적합한 텍스트를 확률적으로 생성한다. 이 과정에서 LLM은 학습 데이터(또는 RAG를 통한 검색 데이터)에서 가져온 정보를 조합하는데, 질문에 대한 직접적 답변 형태로 구조화된 텍스트가 이 조합 과정에서 가장 쉽게 추출되고 인용된다.
왜 그런가? 이는 자연어 처리(NLP)의 '질의응답(Question Answering)' 연구에서 이미 오랫동안 확인된 패턴이다. Rajpurkar et al.(2016)의 SQuAD(Stanford Question Answering Dataset) 연구 이후, 텍스트에서 답변을 추출하는 모델의 성능은 텍스트의 구조에 크게 좌우된다는 것이 반복적으로 입증되었다. 명시적인 질문-답변 쌍이 포함된 텍스트에서의 추출 정확도는, 동일한 정보가 서술형으로 기술된 텍스트에서의 추출 정확도보다 유의미하게 높다.
예를 들어, 기존 방식이 "인스타그램 알고리즘 2026"이라는 키워드를 타겟했다면, AEO 방식은 "인스타그램 알고리즘은 어떻게 작동하는가?"라는 질문에 구조화된 답변을 제공하는 것이다. 그리고 이 답변은 단순 나열이 아닌, 인과적 설명(causal explanation)의 형태를 가져야 한다. "A는 B를 한다. 왜냐하면 C이기 때문이다"라는 구조가, "A의 특징: 1, 2, 3, 4..."라는 구조보다 AI 답변에 인용될 가능성이 높다.
실무적 실행 방안:
첫째, FAQ 페이지를 단순 나열이 아닌, 깊이 있는 답변으로 재구성한다. 기존의 1-2문장 FAQ는 AEO에서 거의 무가치하다. 각 질문에 대해 200-400자의 구조화된 답변(정의 → 메커니즘 → 사례 → 한계)을 제공해야 한다.
둘째, 각 콘텐츠 페이지에 관련 질문과 답변 섹션을 추가한다. 이는 단순히 페이지 하단에 FAQ를 붙이는 것이 아니라, 본문 자체가 질문-답변의 논리적 흐름으로 구성되어야 한다는 의미다.
셋째, Schema.org의 FAQPage, HowTo, Article 구조화 데이터를 적용한다. 구조화 데이터는 AI가 콘텐츠의 의미적 구조를 파악하는 데 직접적인 도움을 준다. Google의 공식 문서에 따르면, 구조화 데이터가 적용된 페이지는 AI Overview에서의 인용 확률이 유의미하게 높다.
넷째, '사람들이 실제로 묻는 질문(People Also Ask)'을 체계적으로 수집하라. Google의 PAA(People Also Ask) 박스, Reddit, 네이버 지식iN, Quora 등에서 타겟 주제에 대한 실제 질문 패턴을 분석하고, 이를 콘텐츠의 구조적 뼈대로 활용한다.
전략 2: 고유한 데이터와 관점을 생산하라
AI 답변 엔진은 수많은 출처에서 정보를 종합한다. 모든 사이트가 같은 내용을 반복하면, 어떤 사이트도 참조될 이유가 없다.
이 원리는 정보 이론의 관점에서 명확해진다. Claude Shannon(1948)의 정보 이론에서, 정보의 가치는 '놀라움(surprise)'의 정도에 비례한다. 이미 알려진 사실의 반복은 정보 가치가 낮고, 새로운 사실이나 독자적 분석은 정보 가치가 높다. AI 답변 엔진의 설계 원리도 이와 일치한다: 다수의 출처에서 반복되는 일반적 정보는 어떤 특정 출처에 귀속시킬 필요가 없지만, 특정 출처에서만 발견되는 고유한 정보는 해당 출처를 명시적으로 인용해야 한다.
AI가 참조할 가치가 있는 콘텐츠는 다른 곳에서 찾을 수 없는 고유한 데이터나 분석을 담고 있다. 독자적인 연구, 설문 결과, 사례 분석, 업계 데이터 등이 여기에 해당한다.
BDM Lab의 경험을 예로 들면, "위치 데이터 기반 매출 예측"이라는 주제에 대해 일반적인 방법론을 설명하는 글보다, 실제 프로젝트에서 MAPE 18%라는 구체적 결과를 공개한 글이 AI 답변에 인용될 가능성이 훨씬 높다. 왜냐하면 전자는 어디서든 찾을 수 있는 교과서적 내용이지만, 후자는 BDM Lab에서만 얻을 수 있는 고유한 데이터이기 때문이다.
이 전략은 학술 연구에서의 '인용(citation)' 동학과 정확히 같은 논리다. Eugene Garfield(1955)가 창안한 인용 분석(citation analysis)의 핵심 통찰은, 많이 인용되는 논문은 '새로운 데이터나 방법론을 제시한 논문'이지, '기존 지식을 정리한 리뷰 논문'이 아니라는 것이다. 물론 리뷰 논문도 인용되지만, 원천 데이터를 생산한 논문이 더 높은 인용 지수를 갖는다. AI 답변 엔진에서의 인용 동학도 유사하게 작동할 것으로 예측한다.
고유한 콘텐츠를 생산하기 위한 구체적 방법론:
첫째, 자사 데이터의 공개적 분석. 기업이 보유한 운영 데이터, 고객 데이터, 시장 데이터를 (적절한 익명화를 거쳐) 분석하고 공개하는 것이다. 이 데이터는 해당 기업만 가진 것이므로, 본질적으로 고유하다.
둘째, 독자적 설문 및 서베이. 특정 주제에 대한 업계 전문가 서베이, 소비자 인식 조사 등을 정기적으로 수행하고 결과를 공개한다. Edelman의 Trust Barometer, Deloitte의 Digital Media Trends처럼, 정기적 서베이는 해당 브랜드를 특정 주제의 '권위 있는 출처(authoritative source)'로 포지셔닝하는 강력한 도구다.
셋째, 사례 연구(case study)의 깊이 있는 공개. 성공 사례만이 아니라, 실패 사례와 한계까지 포함한 솔직한 사례 연구가 더 높은 인용 가치를 갖는다. 이는 과학적 연구에서 '부정적 결과(negative results)' 논문이 갖는 가치와 동일하다.
넷째, 기존 연구에 대한 독자적 해석. 다른 기관의 데이터나 연구를 자사의 관점에서 재해석하고, 원래 연구에서 다루지 않은 시사점을 도출하는 것이다. 이는 학술 커뮤니케이션에서 '코멘터리(commentary)' 또는 '레터(letter)'의 기능과 유사하다.
전략 3: 엔티티(Entity)로서의 브랜드를 구축하라
AI 답변 엔진은 텍스트를 이해할 때 '엔티티(entity)' 개념을 활용한다. 삼성전자, 네이버, 김연아 같은 고유 명사가 엔티티다. AI가 특정 주제에 대해 답변할 때, 관련 엔티티를 인식하고 해당 엔티티의 콘텐츠를 우선 참조한다.
이 메커니즘을 이해하려면 '지식 그래프(knowledge graph)'의 개념을 알아야 한다. Google은 2012년 지식 그래프를 도입하면서, 웹을 '문서의 집합'이 아닌 '엔티티와 관계의 네트워크'로 이해하기 시작했다. LLM도 학습 과정에서 유사한 엔티티-관계 표상을 내부적으로 형성한다는 것이 최근 연구에서 확인되고 있다(Meng et al., 2022). 즉, LLM은 "빅데이터 마케팅 랩"이라는 엔티티가 존재하고, 이 엔티티가 "위치 데이터 분석", "알고리즘 연구" 등의 속성 및 관계를 가진다는 것을 학습할 수 있다.
기업이 AEO에서 유리한 위치를 차지하려면, 자사 브랜드가 특정 주제의 전문 엔티티로 인식되어야 한다. 이것은 Pierre Bourdieu의 '문화 자본(cultural capital)' 개념의 디지털 버전이라 할 수 있다. Bourdieu(1984)에 따르면, 특정 분야에서의 권위는 해당 분야의 정당한 참여자로 인정받는 과정을 통해 축적된다. 디지털 환경에서 이 '인정'은 다른 신뢰할 수 있는 엔티티들로부터의 참조(reference)와 인용(citation)을 통해 이루어진다.
엔티티 구축을 위한 구체적 방법론:
첫째, 일관된 브랜드명 사용. 모든 채널에서 동일한 이름과 설명을 사용한다. "빅데이터 마케팅 랩", "BDM Lab", "Big Data Marketing Lab"이 혼재되면, AI는 이를 하나의 엔티티로 통합하기 어렵다. 한 가지 정규 명칭(canonical name)을 정하고, 나머지는 명시적으로 이 정규 명칭의 대체 표기임을 표시해야 한다.
둘째, Schema.org Organization 구조화 데이터 적용. 웹사이트에 조직 정보(이름, 설명, 로고, 설립일, 소재지, 소셜 미디어 링크 등)를 JSON-LD 형식으로 명시한다. 이는 AI가 엔티티 정보를 구조적으로 파악하는 가장 직접적인 방법이다. Schema.org는 Google, Microsoft, Yahoo, Yandex가 공동으로 관리하는 구조화 데이터 표준으로, 모든 주요 검색 엔진과 AI 시스템이 이를 인식한다.
셋째, 위키피디아/나무위키 등재. AI가 엔티티 정보를 확인하는 주요 출처 중 하나가 위키피디아다. LLM의 학습 데이터에서 위키피디아는 매우 높은 비중을 차지하며(Common Crawl 데이터에서 위키피디아의 가중치가 다른 소스 대비 유의미하게 높다는 연구가 다수 존재한다), 위키피디아에 등재된 엔티티는 AI의 '세계 모델(world model)'에 포함될 가능성이 훨씬 높다. 다만, 위키피디아 등재는 '등재 기준(notability criteria)'을 충족해야 하므로, 장기적 관점에서 접근해야 한다.
넷째, 다른 신뢰할 수 있는 사이트에서의 인용. 언론 보도, 학술 논문, 업계 리포트에서의 언급이 엔티티의 '신뢰도 점수(trust score)'를 높인다. 이는 학술 연구에서의 'h-index'와 유사한 논리다: 다른 권위 있는 출처로부터의 인용이 많을수록, 해당 엔티티의 권위가 높아진다. Google의 PageRank 알고리즘도 본질적으로 같은 원리에 기반한다(Brin & Page, 1998).
다섯째, 주제 클러스터(topic cluster) 전략. 하나의 핵심 주제에 대해 다수의 상호 연결된 콘텐츠를 생산함으로써, 해당 주제에 대한 '토픽 오소리티(topical authority)'를 구축한다. 예를 들어, BDM Lab이 "소셜 미디어 알고리즘"이라는 핵심 주제에 대해 인스타그램 알고리즘, TikTok 알고리즘, 유튜브 알고리즘 등의 하위 콘텐츠를 체계적으로 생산하면, AI는 BDM Lab을 "소셜 미디어 알고리즘" 주제의 권위 있는 엔티티로 인식할 가능성이 높아진다.
반론 및 대안적 시각
AEO 전략에 대해 몇 가지 중요한 반론을 검토해야 한다.
반론 1: AEO는 결국 AI 기업에 종속되는 것 아닌가?
가장 근본적인 비판이다. SEO가 Google에 대한 종속을 심화시켰듯, AEO는 OpenAI, Google, Perplexity 등 AI 플랫폼에 대한 종속을 심화시킨다. AI가 콘텐츠를 인용하지만, 사용자는 원본 사이트를 방문하지 않는다면, 콘텐츠 생산자는 트래픽 없이 AI의 학습 데이터만 제공하는 '디지털 소작농'이 되는 것 아닌가?
이 비판은 타당하다. Tim Wu가 The Master Switch(2010)에서 분석한 것처럼, 정보 기술 산업은 개방에서 폐쇄로 이동하는 주기를 반복하며, 각 주기의 지배적 기업이 생태계를 통제한다. AEO가 이 패턴의 새로운 버전일 가능성은 높다.
그러나 현실적으로, 이 비판이 타당하다고 해서 AEO를 무시하는 것이 합리적 대안은 아니다. 기업은 게임의 규칙을 만드는 자가 아니라 규칙 안에서 최선을 다해야 하는 참여자이기 때문이다. 장기적으로는 규제(EU AI Act의 저작권 관련 조항 등)와 업계 표준(콘텐츠 라이선싱 모델 등)이 이 불균형을 완화할 것으로 기대하지만, 단기적으로는 AEO 전략의 실행이 필수적이다.
반론 2: 구조화된 콘텐츠가 오히려 AI 추출을 용이하게 하여, 원본 방문을 줄이는 것 아닌가?
역설적이지만, AEO에 최적화된 콘텐츠는 AI가 더 쉽게 추출할 수 있으므로, 사용자가 원본을 방문할 필요성이 줄어들 수 있다. 이는 '최적화의 역설(optimization paradox)'이라 부를 수 있다.
이 역설에 대한 우리의 답은 '깊이의 전략(depth strategy)'이다. AI가 추출할 수 있는 것은 표면적 답변이다. 그러나 깊이 있는 분석, 상호작용적 데이터 시각화, 맥락적 해석은 AI가 완전히 전달하기 어렵다. 따라서 AEO 콘텐츠의 설계는 '첫 문단은 AI가 추출하기 쉽게, 나머지는 원본 방문을 유도할 만큼 깊이 있게'라는 이중 구조를 가져야 한다.
반론 3: AEO 성과를 어떻게 측정할 것인가?
SEO는 순위, 트래픽, 클릭률 등의 명확한 성과 지표가 있다. 그러나 AEO의 성과를 측정하는 것은 현재 매우 어렵다. AI 답변에 자사 콘텐츠가 인용되었는지를 체계적으로 추적하는 도구가 아직 성숙하지 않았기 때문이다.
이 측정의 어려움이 AEO 투자의 장벽이 되고 있다. 마케팅에서 "측정할 수 없으면 관리할 수 없다(What gets measured gets managed)"는 Peter Drucker의 격언이 종종 인용되는데, AEO는 아직 이 '측정' 단계에서 미성숙하다. 다만, 몇 가지 간접적 측정 방법이 존재한다: 브랜드명 검색량의 변화 추적, 다양한 AI 답변 엔진에서 자사 관련 질문을 주기적으로 테스트, Referral 트래픽에서 AI 플랫폼의 비중 추적 등이다.
한계: AEO의 불확실성
AEO는 아직 초기 단계다. AI 답변 엔진의 작동 방식은 빠르게 변화하고 있으며, 오늘의 최적 전략이 6개월 후에도 유효할 보장은 없다. 또한 AI 답변의 출처 표기 정책도 플랫폼마다 다르고, 수시로 바뀌고 있다.
더 근본적인 한계는, AEO 전략의 효과를 인과적으로 검증하기 어렵다는 점이다. 기업이 AEO 전략을 실행한 후 AI 답변에 인용이 증가했다면, 그것이 전략의 효과인지, AI 시스템 자체의 업데이트 때문인지, 또는 다른 요인(언론 보도 증가, 업계 관심 변화 등) 때문인지를 구분하기 어렵다.
또한 LLM의 '할루시네이션(hallucination)' 문제도 AEO 전략의 위험 요소다. AI가 자사 콘텐츠를 인용하되, 내용을 잘못 요약하거나 왜곡하여 전달할 경우, 오히려 브랜드에 부정적 영향을 미칠 수 있다. 이 위험은 현재 기술로는 완전히 통제할 수 없다.
그러나 방향은 분명하다. 답변에 인용될 만한 콘텐츠를 생산하는 기업이 유리하다. 이것은 SEO에서도 이미 맞는 말이었지만, AEO에서는 더욱 그렇다. SEO에서는 '키워드에 최적화된' 콘텐츠만으로도 순위를 올릴 수 있었다. AEO에서는 그것이 불가능하다. AI는 키워드 밀도가 아니라 콘텐츠의 실질적 가치(고유한 데이터, 독자적 분석, 전문적 관점)를 기준으로 출처를 선택한다.
결국 AEO의 최선의 전략은, 역설적으로, '최적화'를 넘어선 '본질적 가치 창출'이다. 다른 누구도 제공하지 못하는 데이터, 분석, 관점을 지속적으로 생산하는 것. 이것이 검색 엔진 시대에서도, 답변 엔진 시대에서도, 그 이후의 어떤 시대에서도 유효한 유일한 전략이다.
참고문헌
- Bourdieu, P. (1984). Distinction: A Social Critique of the Judgement of Taste. Harvard University Press.
- Brin, S., & Page, L. (1998). The anatomy of a large-scale hypertextual web search engine. Computer Networks and ISDN Systems, 30(1-7), 107-117.
- Garfield, E. (1955). Citation indexes for science. Science, 122(3159), 108-111.
- Meng, K., Bau, D., Andonian, A., & Belinkov, Y. (2022). Locating and editing factual associations in GPT. Advances in Neural Information Processing Systems, 35.
- Rajpurkar, P., Zhang, J., Lopyrev, K., & Liang, P. (2016). SQuAD: 100,000+ questions for machine comprehension of text. Proceedings of EMNLP 2016.
- Shannon, C. E. (1948). A mathematical theory of communication. Bell System Technical Journal, 27(3), 379-423.
- Stigler, G. J. (1961). The economics of information. Journal of Political Economy, 69(3), 213-225.
- Wu, T. (2010). The Master Switch: The Rise and Fall of Information Empires. Knopf.
이 시리즈의 다음 편에서는 AEO의 측정 방법과 성과 지표에 대해 다룹니다.