ChatGPT, Perplexity, Google AI 모드가 답변을 만들 때 끌어가는 단위는 페이지가 아니라 청크 한 조각입니다. AI 검색 엔진은 사용자 질문을 임베딩 벡터로 바꾼 다음, 미리 잘라 둔 청크 벡터와 코사인 유사도를 비교해 상위 N개만 답변에 끌고 갑니다. 한 단락에 두 주제가 섞이면 점수가 깎입니다. 잘 쓴 글이라도 의미 경계가 흐리면 인용되지 않는 게 AI 검색 시대의 규칙입니다.

9,000자를 6개 패시지로 자른 D사 사례
지오랭크가 컨설팅한 D사는 B2B SaaS 플랫폼이었고 월 12만 세션 규모였지만 ChatGPT·Perplexity 인용은 분기 6건에 그쳤습니다. 처음에는 신뢰도 강화를 위해 9,000자짜리 가이드를 더 늘리는 쪽으로 갔는데 4주 후 인용은 오히려 분기 4건으로 떨어졌습니다. 방향을 바꿔서 한 글을 주제별 1,200~1,800자 패시지 6개로 분리하고 각 패시지에 명시적 H2와 자립형 정의 문장을 심었습니다. 9주 후 ChatGPT 인용 14건, Perplexity 인용 9건, 임베딩 유사도 평균 0.61에서 0.78로 상승하는 결과가 나왔습니다. 길이를 줄였더니 오히려 추출되더라는 게 핵심이었습니다. 같은 패턴이 지오랭크 컨설팅 표본에서도 확인됩니다. 2026년 1분기 기준 13개 기업의 270개 콘텐츠 페이지를 청크 단위로 재설계했더니 12주 후 ChatGPT 인용은 평균 1.9배, Perplexity 인용은 평균 2.4배 증가했습니다. 다만 의료·금융 같은 YMYL 영역은 1.2~1.4배에 그쳤는데 인용 가드레일이 더 엄격하기 때문입니다.
청크 최적화 5원칙 요약
첫째, 자립형 원자 단위입니다. 한 패시지를 떼어 봐도 뜻이 통해야 하고 엔티티·시간·수치가 한 단락 안에 들어 있어야 합니다. 한국어 기준으로는 200~350자 안에 한 주장이 닫히는 패시지가 추출에 유리합니다. 둘째, 의미 앵커입니다. 헤더가 패시지 주제를 단어 그대로 가리켜야 하고 H2-H3-H4 계층을 순차로 쌓아야 합니다. 임베딩 모델은 볼드를 헤더로 인식하지 않으니 H3 없이 볼드만 쓰는 습관은 위험합니다. 셋째, 다중모드 정렬입니다. 표·차트 캡션과 본문 키워드가 같은 메시지를 일관되게 전달해야 하고 본문 "월간 14건"·표 "분기 42건"처럼 단위가 어긋나면 모델은 다른 주장으로 처리합니다. 넷째, 프로그래매틱 가독성입니다. 패시지 첫 문장에 핵심 명사 두 개를 넣고 인칭·지시어를 명시 명사로 다시 적으며 한 문장에 주장 하나만 둡니다. 다섯째, 임베딩 유사도 모니터링입니다. 핵심 키워드 30~50개로 매주 코사인 유사도를 측정하고 0.05 이상 떨어지면 그 청크의 첫 문장이나 헤더를 다시 다듬습니다.
39% 인용 잠재력을 만든 두 번의 분할
iPullRank가 자체 의미 에디터 BubbaChunk로 진행한 실험은 청크 최적화의 효과를 직접 보여 줍니다. 기계학습과 데이터 프라이버시가 한 단락에 섞인 텍스트를 두 패시지로 분리했더니 코사인 유사도가 0.541에서 0.645로 19.24% 상승했습니다. 여기에 "데이터 프라이버시"라는 명시 헤더를 덧붙이자 0.755까지 17.54% 추가 상승이 측정됐습니다. 분할과 헤더 삽입만으로 누적 약 39% 인용 잠재력이 확보된 셈입니다. 연구 흐름도 같은 방향을 가리킵니다. Google MUVERA는 다중측면 임베딩으로 패시지 단위 신호를 정밀 추출하고 Berkeley Ring Attention과 Google Infini-Attention은 회전·압축 처리에서도 자립형 청크가 유리하다는 점을 보여 줍니다. Meta MemWalker는 구조화된 헤더 경계를 따라 메모리 트리를 순회하기 때문에 헤더 계층이 없으면 탐색 자체가 흐트러집니다. 이 모든 흐름은 "기계가 부분을 따로 떼어 쓰는 미래"를 가정합니다. 패션 커머스 E사 사례를 마지막으로 더하면 6개월간 상위 50개 상품 페이지의 FAQ를 자립형 패시지로 재구성한 결과 ChatGPT 답변 내 브랜드 언급이 분기 18건에서 47건으로 늘었고 자연 트래픽은 7% 감소했지만 자사몰 직접 진입은 22% 증가했습니다. 인용은 늘되 클릭은 줄어드는 제로클릭 흐름의 단면입니다.

