당신의 웹사이트가 XML 사이트맵(Sitemap)을 제출했는데, 몇 주 또는 몇 달이 지나도 Google에서 “site:당신의도메인.com”을 검색하면 표시되는 페이지 수가 매우 적나요?
걱정하지 마세요, 이것은 흔한 일입니다.
Google 공식 데이터에 따르면, 새로 제출된 URL이 발견되어 최종 색인에 포함되기까지 보통 며칠에서 몇 주가 걸립니다.
실제로 Search Console 백엔드 보고서에 따르면, 사이트맵 제출 후 60% 이상의 사이트 운영자들이 “발견됨, 아직 색인되지 않음” 상태의 URL 수가 많아 고생한 경험이 있습니다.
많은 사례 분석 결과, Google이 색인을 하지 않는 주요 장애물은 세 가지 실행 가능한 구체적인 문제에 집중되어 있습니다:

Table of Contens
Toggle당신의 사이트맵은 Google이 “읽지 못하거나” 활용하지 못합니다
Search Console 백엔드 데이터에 따르면, 사이트맵을 제출한 사이트 5개 중 1개는 “가져올 수 없음(Couldn’t Fetch)” 오류 메시지를 경험합니다.
이게 무슨 뜻일까요? 즉, Google 봇이 당신이 제출한 이 “목록”을 열어보지도 못하거나 읽다가 멈췄다는 뜻입니다.
더 나쁜 점은, 사이트맵이 “성공적으로 처리됨”으로 나와도, 내부에 있는 링크 중 절반 이상이 “죽은 길”(404 오류) 또는 “잘못된 길”(리디렉션)일 수 있습니다.
사이트맵 접근성
핵심 문제: 당신이 사이트맵 URL(예: yoursite.com/sitemap.xml)을 제출했지만, Google 봇이 이 주소로 접근할 때 서버가 문을 열어주지 않습니다!
실제로 발생하는 상황 및 데이터:
- 404 Not Found: Search Console 사이트맵 보고서에 “가져올 수 없음”으로 직접 표시됩니다. 이 경우는 제출 오류 문제의 약 25~30%를 차지합니다. 주된 원인: 파일 경로가 틀렸거나(대소문자 구분), 파일이 삭제되었거나, 사이트 리뉴얼 후 경로가 업데이트되지 않았거나, 서버 설정 오류.
- 500 Internal Server Error / 503 Service Unavailable: 서버가 다운되었거나 내부 처리 오류 발생. Google이 재시도하지만, 서버가 자주 불안정하면 사이트맵 처리 상태가 계속 오류를 냅니다. 반복된 실패는 Google이 사이트의 전체 “건강 상태” 판단에 악영향을 줍니다.
- 접근 권한 문제: 사이트맵 파일이 로그인 필요하거나 IP 화이트리스트가 있는 디렉터리에 있습니다. Google 봇은 “익명 방문자”라서 접근할 수 없습니다.
어떻게 확인하나요?
- 가장 직접적인 방법: 브라우저에서 제출한 사이트맵 URL을 직접 열어보세요. XML 내용이 정상적으로 보이나요?
- Search Console > Sitemaps 보고서: 제출한 사이트맵을 찾아 상태가 “성공”인지 “가져올 수 없음”인지 확인하세요. “가져올 수 없음”이라면 보통 구체적인 오류 메시지(404? 500? 권한 문제?)가 나옵니다.
당장 해야 할 일:
- 제출한 사이트맵 URL이 100% 정확한지 확인하세요.
- 익명(로그인하지 않은) 브라우저 창에서도 접근 가능한지 확인하세요.
- 서버 안정성 문제를 해결하세요. 500 오류가 발생하면 기술팀에 서버 로그를 확인하도록 하세요.
콘텐츠 유효성
핵심 문제: 사이트맵에 나열된 URL이 죽은 링크이거나 리디렉션 페이지인 경우, Google 봇이 낭비하며 유효한 콘텐츠를 얻지 못합니다.
주요 문제 및 데이터: Search Console 사이트맵 보고서에서, “제출된 URL” 옆에 “오류” 또는 “경고”가 있는 URL 수가 명확히 표시됩니다.
많은 사이트에서 이 “오류율”은 쉽게 50%를 넘고 심지어 80%에 달하기도 합니다! 주요 유형:
- 404 Not Found: 가장 흔한 문제! 페이지가 삭제되었는데 사이트맵이 갱신되지 않음, 상품이 내려갔는데 URL 제거 안 함, URL 파라미터 버전 문제, 오타 등. Google 봇이 헛걸음하게 만듭니다. 이 오류는 우선 순위가 매우 높습니다.
- 301/302 리디렉션: 사이트맵에 예전 URL A가 들어있고, 이 URL이 새 URL B로 리디렉션 됩니다.
- 문제는? Google이 A를 추가로 크롤링해야 B를 알 수 있습니다.
- Google은 사이트맵에 최종 목적지 URL B를 직접 넣기를 원합니다. 이게 크롤링 할당량을 더 효율적으로 사용합니다.
- 이런 오류가 많으면 사이트 전체 주요 페이지 크롤링과 색인 속도가 느려집니다.
- 로그인 필요/차단된 페이지: 회원 센터, 주문 내역, 관리자 페이지 URL이 실수로 사이트맵에 포함된 경우. Google 봇은 비회원이라 볼 수 없어 무의미합니다.
어떻게 확인하나요?
- Search Console 사이트맵 보고서의 오류 상세 내용을 꼭 확인하세요! 오류가 있는 URL과 오류 유형(404, 리디렉션 등)을 구체적으로 보여줍니다.
- Screaming Frog 같은 크롤러 도구를 사용해 정기적으로 사이트맵 내 URL을 스캔하고 상태 코드를 점검하세요. 특히 200이 아닌 상태 코드를 가진 URL에 집중하세요.
당장 해야 할 일:
- 사이트맵을 정기적으로 정리하세요! 404 오류가 뜨거나 로그인이 필요한 URL은 모두 삭제하세요.
- 사이트맵에 있는 URL이 최종 목적지를 가리키도록 하세요! 모든 사용 중인 URL은 200 OK 상태를 바로 반환해야 합니다. 페이지가 리디렉션되는 경우 사이트맵에 최종 목적지 URL로 업데이트하세요.
- 관련 없거나 무효한 URL은 넣지 마세요: 구글에 색인되길 원하고 사용자에게 보여주고 싶은 실제 콘텐츠가 있는 공개 페이지만 포함하세요.
형식 규격
핵심 문제: 사이트맵 파일 자체가 XML 문법 또는 사이트맵 프로토콜 표준을 지키지 않아 구글의 파서가 (마치 알아보기 힘든 글씨를 읽는 것처럼) URL 정보를 제대로 추출하지 못합니다.
자주 발생하는 오류:
- XML 문법 오류:
- 태그 미닫힘:
가https://... 없이 끝난 경우 - 잘못된 문자: 예를 들어 URL에 있는
&문자가&로 변환되지 않은 경우. 특수 문자는 반드시 변환해야 합니다. - 인코딩 문제: 파일 저장 시 문자 인코딩(UTF-8, GBK 등)이 선언과 맞지 않거나 일관성이 없어 한글이나 특수문자가 깨져 보일 수 있습니다.
- 태그 미닫힘:
- 프로토콜 구조 오류:
또는같은 필수 루트 태그가 없는 경우- 필수 태그가 누락되거나 순서가 틀린 경우: 각
항목에는(위치 태그)가 반드시 포함되어야 합니다. 선택적 태그(,,)도 사용 시 올바른 위치에 있어야 합니다. - 사이트맵 프로토콜에서 지원하지 않는 태그나 속성을 사용한 경우
영향이 얼마나 클까요? 아주 작은 0.5% 오류율 (예: 1000개 중 5개 오류)도 전체 사이트맵이 “부분 오류”로 표시되거나 완전히 처리되지 않을 수 있습니다. 안에 있는 모든 URL 정보가 정상적으로 읽히지 않을 수 있습니다! 구글 로그에는 종종 특정 줄에서 파싱 오류가 멈췄다고 뜹니다.
어떻게 확인하나요?
- 전문 사이트맵 검증 도구 사용: 예를 들어 XML Validator (온라인 검색)나 검색 엔진 공식 도구(예: 구글 서치 콘솔의 URL 검사 도구는 개별 URL엔 유용하지만 전체 사이트맵 검증엔 한계가 있습니다).
- 샘플 수동 점검: VSCode 같은 텍스트 에디터로 사이트맵 파일을 열어 태그가 쌍으로 닫혀 있는지, 특수 문자가 제대로 변환되었는지 확인하세요. 특히 최근에 추가하거나 수정한 URL을 집중적으로 살펴보세요. 에디터가 XML 문법 오류를 알려줄 수 있습니다.
당장 해야 할 일:
- 신뢰할 수 있는 사이트맵 생성 도구나 플러그인을 사용하세요 (SEO 플러그인, CMS 내장 기능, 전문 생성기 등) 직접 손으로 작성하는 것을 피하세요.
- 생성 후 반드시 검증 도구로 형식을 체크하세요.
- 수동 수정 시 XML 문법과 사이트맵 프로토콜을 엄격히 지키세요.
파일이 너무 크진 않나요?
핵심 문제: 구글은 명확한 제한이 있습니다: 단일 사이트맵 파일은 최대 50MB(압축되지 않은 상태) 또는 50,000개 URL까지만 허용합니다. 이 중 먼저 도달하는 기준이 적용됩니다. 제한을 넘으면 파일이 무시되거나 일부만 처리됩니다.
실제 경험:
- 전자상거래 사이트나 콘텐츠가 많은 포럼/미디어 사이트는 초과하기 쉽습니다.
- 많은 CMS 플러그인은 기본 설정이 제한을 초과하는 사이트맵을 생성하니, 분할하는 것을 신경 써야 합니다.
- 용량이 제한 안이어도 URL이 수만 개인 대형 사이트맵은 작은 파일로 나눈 것보다 처리 효율이 떨어집니다. 구글이 처리하는 데 시간이 더 걸립니다.
어떻게 확인하나요?
- 파일 속성 보기: 크기가 50MB를 초과하나요?
- 도구나 스크립트를 사용해 파일 내 URL 개수를 집계하세요. 5만 개를 넘나요?
즉시 해야 할 일:
- 대규모 사이트는 반드시 인덱스 사이트맵을 사용하세요!
- 메인 인덱스 파일(예:
sitemap_index.xml)을 만드세요. 이 파일에는 URL을 직접 넣지 말고, 각각의 소사이트맵 파일 경로(예:sitemap-posts.xml,sitemap-products.xml)를 나열하세요. - 이 인덱스 파일(
sitemap_index.xml)을 구글 서치 콘솔에 제출하세요.
- 메인 인덱스 파일(예:
- URL 유형(글, 상품, 카테고리 등)을 각각 다른 소사이트맵으로 분리하세요.
- 각 소사이트맵 파일이 크기와 URL 수 제한을 지키도록 하세요.
인덱스 사이트맵
핵심 문제: 인덱스 사이트맵(sitemap_index.xml)은 제출했는데, 그 안에 나열된 소사이트맵 파일들(sitemap1.xml, sitemap2.xml)에 문제가 있어요(경로 오류, 접근 불가, 형식 오류 등). 즉, 목차는 있는데 실제 챕터가 없거나 손상된 셈입니다.
자주 발생하는 오류:
- 인덱스 파일 안 소사이트맵 경로가 상대경로(예:
<loc>/sitemap1.xml</loc>)인데, 반드시 절대경로 전체 URL(예:<loc>https://www.yoursite.com/sitemap1.xml</loc>)이어야 합니다. - 소사이트맵 파일 자체가 앞서 언급한 문제들(404, 500 오류, 형식 오류, 너무 큼 등)을 갖고 있습니다.
영향: 인덱스가 가리키는 소사이트맵에 문제가 있으면 구글이 해당 URL을 크롤링하지 못해 사이트맵 제출 효과가 사라집니다.
어떻게 확인하나요?
- 서치 콘솔에 인덱스 사이트맵을 제출 후 상태를 확인하세요. 처리 성공 상태인데도 ‘발견된 URL’ 수가 모든 소사이트맵의 총 URL 수보다 현저히 적으면 소사이트맵 문제일 가능성이 높습니다.
- 인덱스 사이트맵 보고서 세부 정보를 확인하면 각 소사이트맵 상태를 볼 수 있습니다. 하나씩 점검해 오류가 없는지 확인하세요.
즉시 해야 할 일:
- 인덱스 파일에 나열된 모든 소사이트맵 주소가 전체 URL인지 확인하세요.
- 인덱스가 참조하는 각 소사이트맵 파일이 정상인지(접근 가능, 오류 없는 링크, 올바른 형식, 크기 적정) 확인하세요.
구글 봇이 아예 당신의 페이지를 “볼 수” 없는 경우
사이트맵 제출은 성공했는데, 서치 콘솔 ‘범위’ 보고서에서 해당 페이지들이 ‘발견됨 – 아직 색인되지 않음’ 또는 ‘크롤됨 – 현재 색인되지 않음’ 상태로 나오는가요?
이 문제의 원인은 대개 구글 봇이 실제 페이지 콘텐츠를 성공적으로 접근하지 못했기 때문입니다.
단순한 말이 아닙니다 — 저희가 분석한 사례 중 40% 이상이 색인 문제의 원인이 크롤링 단계에 있습니다.
robots.txt가 크롤러를 막고 있나요?
핵심 문제: robots.txt 파일은 사이트 입구의 경비원 안내서와 같습니다. 한 줄의 잘못된 Disallow: 명령이 구글 봇(Googlebot)을 사이트 전체나 중요한 디렉터리에서 막을 수 있습니다. 주소는 있지만 ‘출입 금지’인 셈입니다.
자주 발생하는 실수 및 주의 신호:
- 사이트 전체 차단 대참사:
Disallow: /(슬래시 한 개). 이는 저희가 점검하는 사이트에서 가장 흔하고 치명적인 초보 실수 중 하나입니다. 테스트 설정이 남아 있거나 실수로 생긴 경우가 많습니다. 서치 콘솔 ‘범위’ 보고서에 많은 URL이 ‘차단됨’ 상태이거나 목록에 아예 나타나지 않는다면, 가장 의심되는 원인입니다. - 중요 리소스/디렉터리가 차단된 경우:
- CSS/JS 경로 차단:
Disallow: /static/또는Disallow: /assets/. 검색 엔진 봇은 스타일이 없고 레이아웃이 깨지거나 주요 기능이 없는 페이지를 보게 됩니다. 그래서 품질이 낮다고 판단하고 색인 생성을 포기할 수 있습니다. - 제품/글 분류 차단:
Disallow: /category/,Disallow: /products/. 봇이 핵심 콘텐츠 영역에 접근할 수 없으므로 페이지가 많아도 발견되지 않습니다.
User-agent: Googlebot + Disallow: /some-path/. 특정 경로만 제한하려 했지만 핵심 콘텐츠가 포함된 경우입니다.Disallow: /*?* (모든 쿼리 매개변수가 포함된 URL 차단)를 사용합니다. 이로 인해 유효한 필터링 페이지나 페이징 페이지 등이 차단될 수 있습니다.확인 방법은 매우 간단합니다!
브라우저에서 https://당신의도메인/robots.txt를 열어보세요. 각 줄의 지시사항을 자세히 확인하세요.
Search Console > robots.txt 테스트 도구:
robots.txt내용을 입력하거나 파일 경로를 제출하세요.Googlebot봇을 지정하여 테스트하세요.- 핵심 페이지 URL 몇 개(홈페이지, 제품 페이지, 글 페이지)를 입력하세요.
- 결과가 “허용됨”(Allowed)인지 확인하세요. “차단됨”(Blocked)으로 나오면 해당
Disallow규칙을 즉시 찾아 수정하세요!
즉시 해야 할 일:
Disallow:규칙을 긴급 점검하세요: 사이트 전체(/) 또는 핵심 콘텐츠/리소스 폴더가 실수로 차단되지 않았는지 확인하세요.- 정확하게 차단하고 와일드카드 남용 금지: 실제로 차단해야 하는 경로(관리자 페이지, 임시 개인 정보 보호 정책, 검색 결과 페이지 등)만 차단하세요. 파라미터가 있는 URL은
rel="canonical"또는 Search Console의URL 파라미터설정을 우선 활용하세요. - 수정 후 반드시 테스트:
robots.txt를 수정한 뒤, Search Console 테스트 도구로 핵심 페이지가 “허용됨” 상태인지 확인한 후 라이브에 적용하세요.
페이지 로딩 실패 또는 매우 느림
핵심 문제: 구글 봇이 방문했지만 서버가 응답하지 않거나(크래시), 너무 느리거나(타임아웃), 혹은 페이지가 빈 상태로 로드되어(렌더링 실패) 실제 콘텐츠를 받지 못합니다.
실제 크롤링 실패 증상 및 관련 데이터:
- 5xx 서버 오류 (503, 500, 504): 구글 크롤링 로그에서 자주 나타납니다. 특히 503 (서비스 이용 불가)은 서버 과부하 또는 점검 상태를 의미합니다. 연속적인 실패는 크롤링 우선순위 하락을 초래할 수 있습니다. 트래픽이 많은 사이트나 서버 자원이 부족할 때 자주 발생합니다.
- 연결 시간 초과/읽기 시간 초과: 봇이 요청 후 30초 이내(혹은 그보다 짧게) 완전한 응답을 받지 못하는 경우입니다. 서버 설정 문제(PHP 프로세스 정지 등), 느린 DB 쿼리, 리소스 로딩 지연 등이 원인일 수 있습니다. Search Console “페이지 경험” 또는 로그 분석에서 느린 페이지와 오류율을 확인할 수 있습니다.
- 4xx 클라이언트 오류 (404 제외): 예: 429 (요청이 너무 많음) — 서버의 봇 차단 또는 속도 제한 정책이 작동해 구글 봇이 거부된 경우입니다. IP 범위를 허용하도록 조정해야 합니다.
- JavaScript 렌더링 “빈 페이지”: 사이트가 JS에 크게 의존하는데, 봇이 JS 실행을 기다리다 시간 초과되거나 JS 오류로 렌더링 실패하면 거의 빈 HTML 틀만 보게 됩니다.
검증 도구:
Google Search Console > URL 검사 도구: 특정 URL을 입력하고 “범위 보고서” 상태가 “크롤링됨”인지 아니면 다른 상태인지 확인하세요. “실시간 URL 테스트”를 클릭하여 실시간 크롤링 및 렌더링을 테스트하세요! 핵심은 렌더링된 “스크린샷”과 “크롤링된 HTML”에 완전한 주요 콘텐츠가 포함되어 있는지 확인하는 것입니다.
Search Console > 핵심 웹 지표 & 페이지 경험 보고서: “FCP/LCP 불량” 페이지 비율이 높으면 대개 속도 문제 심각 지역입니다.
서버 로그 분석:
User-agent에Googlebot이 포함된 요청을 필터링하세요.상태 코드에 집중하세요:5xx,429,404(예상치 못한 404)를 기록하세요.응답 시간을 확인하세요: Googlebot 방문 평균 응답 시간을 통계 내고, 3초 또는 5초 이상 걸리는 느린 페이지를 찾아내세요.- 로그 모니터링 도구를 사용하세요: Googlebot 활동 상태를 더 효율적으로 분석할 수 있습니다.
실제 환경 속도 테스트:
Google PageSpeed Insights / Lighthouse: 성능 점수, 핵심 지표 수치, 구체적인 최적화 제안을 제공합니다. FCP(첫 번째 콘텐츠 렌더링), LCP(최대 콘텐츠 렌더링), TBT(총 차단 시간)를 엄격하게 평가합니다.
WebPageTest: 다양한 지역/기기/네트워크에서 페이지 전체 로드 과정을 시뮬레이션합니다. 자세한 타임라인과 네트워크 워터폴을 통해 병목 현상 원인(어떤 JS인가? 큰 이미지인가? 외부 API인가?)을 정확히 파악할 수 있습니다.
당장 해야 할 일 (우선순위 순):
- 5xx 오류 모니터링 및 제거: 서버 자원(CPU/메모리), 데이터베이스 쿼리 최적화, 프로그램 오류 점검. CDN/클라우드 서비스 사용 시 상태 확인.
- 429 오류 점검: 서버가 제한을 걸고 있는지 확인. 반봇 정책 조정 또는 Googlebot IP 대역 화이트리스트 등록(구글이 IP 대역 리스트 공개함).
- 페이지 속도 최대화:
- 서버 응답 개선: 서버 최적화, CDN 가속, 캐시 최적화(Redis/Memcached).
- 리소스 크기 줄이기: 이미지 압축(WebP 우선), CSS/JS 압축 및 병합, 미사용 코드 제거.
- JS 로딩 최적화: 비동기 로딩, 비핵심 JS 지연 로딩, 코드 분할 사용.
- 렌더 경로 최적화: 렌더링 차단 CSS/JS 방지, 핵심 CSS 인라인 처리.
- 리소스 로딩 향상: CDN 부드러운 로딩,
dns-prefetch, 핵심 리소스preload적용.
- JS 렌더링 신뢰성 확보: 중요 콘텐츠는 서버사이드 렌더링(SSR) 또는 정적 렌더링 고려. 크롤러가 주요 콘텐츠가 포함된 HTML을 받도록 보장. 클라이언트 사이드 렌더링(CSR) 시에도 크롤러 타임아웃 내 JS가 정상 실행되도록 할 것.
웹사이트 구조 혼란, 크롤러 효율 매우 낮음
핵심 문제: 크롤러가 홈페이지나 진입 페이지에 들어와도 내부 링크 구조가 복잡한 미로 같아서 중요 페이지로 가는 효과적인 경로(링크)를 찾기 어렵습니다. 크롤러는 소수 페이지만 “우연히 발견”할 뿐, 깊은 레벨의 많은 페이지는 고립된 섬처럼 찾아가지 못합니다.
구조 문제 징후 & 영향:
- 홈페이지/채널 페이지 내 링크 밀도 낮음: 중요한 콘텐츠(신상품, 좋은 글)에 눈에 띄는 진입 링크가 없습니다. 구글 통계에 따르면 홈페이지에서 4클릭 이상 깊이에 있는 페이지는 크롤링 확률이 크게 떨어집니다.
- 고립 페이지 다수: 많은 페이지가 다른 페이지에서 거의 또는 전혀 링크되지 않음(특히 일반 HTML 링크가 아닌 JS 동적 생성이나 Sitemap만 있음). 크롤러가 무작위로 발견할 가능성 거의 없음.
- 중요 링크가 JS/인터랙션 뒤에 숨어 있음: 메뉴 클릭, JS 함수 실행, 검색 후에만 링크가 나타남. 크롤러는 이런 조작이 불가능!
- 분류/태그/연관 논리 부족: 콘텐츠가 잘 정리되어 있지 않아 논리적 경로로 모든 관련 콘텐츠를 찾기 어려움.
- 페이지네이션 시스템 엉망: 명확한 “다음 페이지” 링크가 없거나 무한 스크롤로 크롤러가 끝까지 도달하지 못함.
- Sitemap이 없거나 구조가 부실: Sitemap이 있어도(이전 장 내용 참고) 구조가 엉망이거나 인덱스만 제공하는 경우 크롤러 유도에 효과적이지 않음.
평가 방법:
- Screaming Frog 같은 사이트 크롤러 사용:
- 홈페이지부터 크롤링 시작.
- “내부 링크 수” 보고서 확인: 홈페이지가 중요한 카테고리/콘텐츠로 충분히 많은 링크를 걸고 있는지?
- “크롤 깊이” 보고서 확인: 몇 개의 중요한 콘텐츠 페이지가 4레벨 이상 깊은가? 비율이 너무 높은가?
- “고립 페이지” 식별(Inlinks = 1): 중요한데 링크가 거의 없는 페이지가 있는지?
- Search Console의 “링크” 보고서 확인: “내부 링크” 탭에서 핵심 목표 페이지가 받는 내부 링크 수를 확인. 중요한 페이지에 몇 개 안 되거나 없으면 문제.
- JS 비활성화 후 수동 탐색: 브라우저에서 JavaScript를 끄고 크롤러 시점에서 사이트를 살펴보기. 메뉴가 여전히 작동하는지? 주요 콘텐츠 링크가 보이고 클릭 가능한지? 페이지네이션 버튼이 작동하는지?
즉시 해야 할 일:
- 홈페이지/핵심 내비게이션 내부 링크 강화: 홈페이지에서 중요한 콘텐츠入口(새 글, 인기 상품, 핵심 카테고리)를 표준 HTML 링크로 눈에 띄게 노출하세요. 모든 중요한 링크를 클릭해야만 보이는 요소 뒤에 숨기지 마세요.
- 명확한 사이트 계층 구조 구축:
- 홈페이지 > 대분류 (빵 부스러기 내비게이션 지원) > 소분류/태그 > 구체적인 콘텐츠 페이지.
- 각 계층마다 풍부하고 관련성 있는 내부 링크들이 서로 연결되어 있어야 합니다.
- “고립된 페이지” 연결하기: 관련 기사 페이지, 분류 페이지 사이드바, 사이트맵(HTML Sitemap)에 중요한데 링크가 부족한 “고립 페이지”로 가는 링크를 추가하세요.
- JS 기반 내비게이션 주의: 자바스크립트에 의존하는 내비게이션/페이지네이션/더보기 기능에는 반드시 HTML 대체 방안(예: 전통적인 페이지 링크)을 제공하거나, 핵심 내비게이션 링크가 초기 HTML 소스에 포함되어 있어야 합니다 (AJAX로 나중에 불러오는 형태가 아니어야 함).
- 빵 부스러기 내비게이션 잘 활용하기: 사용자의 현재 위치를 명확히 보여주고, 검색 봇에게 사이트 구조를 알려주는 역할을 합니다.
- XML 사이트맵 생성 및 제출: 좋은 내부 링크 구조를 대신할 순 없지만, 검색 봇이 깊은 페이지를 발견하는 데 여전히 중요합니다 (HTML 사이트맵이 잘 작동한다는 전제 하에).
구글이 “가치 없다고 판단하는” 웹페이지
구글 공식 데이터에 따르면, 크롤링은 되었지만 색인에 포함되지 않은 페이지 중 30% 이상이 내용 가치 부족 또는 품질 문제로 필터링되었습니다.
Search Console의 “범위 보고서”를 자세히 보면 “중복,” “대체 페이지에 표준 페이지 있음,” “저품질 콘텐츠” 등으로 표시된 URL들은 거의 모두 콘텐츠 자체에 문제가 있습니다:
- 정보가 너무 빈약하거나
- 복사해서 새로울 게 없거나
- 사용자가 이해하지 못하는 키워드만 잔뜩 쌓여 있거나
구글의 핵심 임무는 사용자에게 유용하고, 독창적이며, 신뢰할 수 있는 결과를 제공하는 것입니다.
정보가 부족하고 실질적 가치가 없는 콘텐츠
핵심 문제: 페이지에 담긴 정보가 매우 제한적이고, 독창성이 없으며, 사용자 문제를 해결하지 못함. 마치 ‘투명한 종이’처럼 구글 알고리즘은 이를 “저가치 콘텐츠”로 판단합니다.
자주 등장하는 “쓸모없는 페이지” 유형 및 경고 신호:
“자리만 차지하는” 페이지: “제품 곧 출시”, “카테고리에 상품 없음”, “곧 공개 예정” 등 실제 내용이 없는 페이지. 이런 페이지들은 사이트맵에 제출됐을 수도 있지만, 사실은 텅 빈 껍데기입니다.
“종착지” 페이지: 폼 제출 후 뜨는 “감사합니다” 페이지(단순 텍스트 감사 인사, 후속 안내 없음), 구매 완료 페이지(주문 번호만 있고 배송 추적이나 FAQ 링크 없음). 사용자가 바로 떠나버려 구글이 별도로 색인할 필요가 없다고 판단합니다.
과도한 “모듈화”/“분할” 페이지: 한 페이지에서 다루면 될 내용을 여러 개로 나눠 거의 내용 없는 개별 URL로 만드는 경우(예: 제품의 다양한 사양을 각각 따로 분할). Search Console에서 종종 “대체 페이지에 표준 페이지 있음”으로 표시됩니다.
“자동 생성” 쓰레기 페이지: 프로그램으로 대량 생성되어 내용이 뒤섞이고 문장도 어색한 페이지(스팸 사이트에서 흔함).
“내비게이션 페이지” 내용 부재: 단순 링크 목록이나 디렉토리 페이지로, 링크 간 관계나 가치를 설명하는 텍스트가 전혀 없음. 그냥 링크만 나열된 곳입니다.
데이터 연결점:
- 구글의 EEAT(경험, 전문성, 권위, 신뢰성) 프레임워크에서 첫 번째 “경험(Experience)”이 결여되는 경우가 많은데, 이는 페이지가 유용한 정보나 서비스를 제공하는 경험을 보여주지 못하기 때문입니다.
- Search Console “범위 보고서”에서는 상태가 “중복 콘텐츠”, “표준으로 선택되지 않은 인덱스”, “크롤링 됐지만 아직 색인되지 않음”으로 나올 수 있으며, 세부 정보를 보면 “저품질 콘텐츠” 또는 “페이지 가치 부족” 등의 메시지가 표시됩니다(버전별로 다를 수 있음).
“내용이 빈약하다”는 어떻게 판단하나요?
- 단순 글자 수가 아니라, 지표로 참고하세요: 텍스트가 200~300자 미만이고, 유용한 그래프, 영상, 인터랙티브 도구 같은 요소가 없는 페이지는 위험도가 매우 높습니다. 핵심은 ‘정보 밀도’입니다.
- 스스로 점검할 세 가지 질문:
- 이 페이지를 보고 사용자가 실제 문제를 해결하거나 새롭게 배울 수 있나요? (아니면 쓸모없는 페이지)
- 이 페이지가 다른 페이지와 무관하게 독립적으로 존재할 수 있나요? (가능하면 가치 있음)
- 이 페이지의 핵심 내용은 내비게이션이나 링크 외에 실질적인 ‘정보’인가요? (그렇다면 가치 있음)
- 페이지 이탈률/체류 시간 확인하기: 분석 도구에서 해당 페이지의 이탈률이 매우 높음(>90%)이고 평균 체류 시간이 매우 짧음(<10초)으로 나온다면, 사용자(및 구글)가 쓸모없다고 판단한 확실한 증거입니다.
즉시 해야 할 일:
- “쓸모없는 페이지” 병합 또는 삭제: 과도하게 분리된 “빈 껍데기 스펙 페이지”를 주요 상품 페이지로 통합; 자동 생성된 쓰레기 페이지나 내용 없는 자리 표시자 페이지는 삭제하거나
noindex처리하세요. - “프로세스 종료” 페이지 가치 향상: “감사 페이지”에 예상 소요 시간, 확인 단계 설명, 관련 도움말 링크 추가; “결제 페이지”에는 주문 추적, 반품/교환 정책 링크, FAQ 추가.
- “내비게이션 페이지”에 설명 가치 주입: 카테고리/링크 리스트 페이지 상단에 소개 문단 추가하여 해당 카테고리의 목적, 포함 내용, 대상 독자를 설명하세요. 즉시 가치가 상승합니다.
- 핵심 콘텐츠 페이지 충실화: 상품 또는 기사 페이지에 충분한 상세 설명, 정보, 자주 묻는 질문에 대한 답변을 포함하세요.
중복 또는 거의 동일한 콘텐츠 과다
핵심 문제: 여러 URL이 거의 동일하거나 매우 유사한 콘텐츠(유사도 > 80%)를 보여줍니다. 이는 검색 엔진 자원을 낭비하고, 사용자도 불편해합니다(다른 URL에서 같은 내용을 찾게 됨). 구글은 하나의 “대표” 페이지(정규 URL)만 선택해 색인하며, 나머지는 무시될 수 있습니다.
주요 중복 유형 및 영향:
파라미터 오염 (전자상거래 사이트에 심각): 동일 상품이 정렬, 필터, 추적 파라미터로 인해 무수히 많은 URL 생성 (product?color=red&size=M, product?color=red&size=M&sort=price). SEO 도구에 따르면 전자상거래 사이트 중복 콘텐츠의 70%가 이 문제에서 발생합니다.
인쇄용 페이지/PDF 버전: 기사 페이지 article.html과 인쇄용 페이지 article/print/ 또는 PDF 버전 article.pdf의 내용이 거의 같습니다.
지역/언어 미세 조정 실패: 서로 다른 지역 페이지(us/en/page, uk/en/page) 간 내용 차이가 거의 없습니다.
다중 카테고리 경로 페이지: 하나의 기사가 여러 카테고리에 속해 서로 다른 경로 URL 생성하지만 내용은 동일 (/news/article.html, /tech/article.html).
대규모 복사 (사이트 내/외): 문단이나 페이지 전체를 복사 붙여넣기.
데이터:
- Search Console 보고서 상태는 “인덱스 미선택 – 대체 페이지에 정규 페이지 있음” 또는 “중복”으로 자주 표시됩니다. 구글이 어떤 URL을 대표 버전으로 선택했는지 명확히 알려줍니다.
- 크롤러 도구(Screaming Frog)의 “콘텐츠 유사도” 분석 보고서로 유사도가 매우 높은 URL 그룹을 대량으로 찾아낼 수 있습니다.
판단 및 자체 점검 방법:
Search Console URL 검사: 상태와 구체적 사유 확인.
Screaming Frog 크롤러:
- 사이트 전체 크롤링.
- 보고서 > “콘텐츠” > “유사 콘텐츠” 보고서.
- 유사도 기준값 설정(예: 90%) 후, 유사도가 높은 URL 그룹 확인.
수동 비교: 의심되는 URL(예: 다른 파라미터 포함)을 몇 개 골라 브라우저에서 열고 주요 콘텐츠를 비교하세요.
즉시 해야 할 일 (권장 순서):
- 우선: 명확한 정규 URL 지정 (
rel=canonical):- 중복 가능성이 있는 모든 페이지의 HTML
<head>섹션에 단 하나의 권위 있는 URL을 정규 페이지로 지정하세요. - 문법:
<link rel="canonical" href="https://www.example.com/this-is-the-main-page-url/" /> - 구글에서 가장 권장하는 방법입니다!
- 중복 가능성이 있는 모든 페이지의 HTML
- 차선책: Google의 URL 매개변수 도구 사용:
- Google Search Console > URL 검사 > URL 매개변수에서 설정하세요.
sort,filter_color와 같은 매개변수가 필터링/정렬용임을 Google에 알려주세요(유형은 “정렬” 또는 “필터” 선택). Google은 보통 이로 인해 발생하는 중복 페이지를 무시합니다.
- 301 리디렉션: 오래되었거나 폐기된 URL, 명확히 주 버전이 아닌 URL은 301 영구 리디렉션으로 가장 신뢰할 수 있는 URL로 연결하세요. 특히 사이트 개편으로 URL 구조가 바뀐 경우 유용합니다.
noindex태그: 프린트 전용 페이지나 특정 추적 매개변수 페이지처럼 인덱싱할 필요가 없는 페이지는안에를 넣으세요. 단, 이 방법은 크롤러의 접근 자체를 막지는 못합니다. 정규화 태그보다 비효율적일 수 있습니다.- 콘텐츠 삭제 또는 통합: 사이트 내 유사하거나 중복된 페이지는 과감히 합치거나 삭제하세요.
가독성 저하, 의도 불일치, 신뢰도 낮음
핵심 문제: 레이아웃이 지저분하고 문장이 어색하거나 이해하기 어렵고, 키워드가 과도하게 삽입되어 있으며, 정보가 오래됐거나 사용자 검색 의도와 맞지 않으면 사용자(그리고 Google)의 경험이 크게 나빠집니다. 이런 페이지는 쉽게 인덱스되지 않습니다.
Google이 싫어하는 대표 특징들:
- 가독성 최악:
- 문단이 너무 길고 구분 없음: 스크롤 전체가 하나의 단락으로 되어 있음.
- 문장이 어색하고 비문 많음: 오타와 병문장이 많고, 기계 번역 느낌이 강함.
- 전문 용어만 나열되고 설명 없음: 일반 사용자를 위한 글인데 어려운 용어만 잔뜩 있음.
- 형식이 엉망: 제목(H1~H6), 리스트, 굵은 글씨 등의 시각적 구조가 없음.
- 검색 의도와 불일치 (심각!):
- 사용자가 “수도관 수리 방법”을 검색했는데, 페이지엔 수도관 광고만 잔뜩 있음.
- 사용자가 “A vs B 비교”를 찾았는데, 페이지엔 A 설명만 있음.
- 정보가 오래되었거나 잘못됨:
- 법이 바뀌었는데도 예전 내용을 그대로 사용함.
- 설명된 단계가 실제 작업과 맞지 않음.
- 키워드 과다 삽입: 자연스러움을 해칠 정도로 키워드를 반복함. 읽기 힘듦.
- 광고/팝업이 주 콘텐츠를 가림: 본문이 광고에 묻혀서 방해됨.
데이터 및 평가 기준 참고:
Core Web Vitals(CWV) 간접 영향: CWV는 속도/반응성 지표지만, FID/TBT 같은 상호작용 지연이 심하면 독자 경험이 나빠집니다.
실제 사용자 지표(RUM): 이탈률 매우 높고 체류 시간 거의 없음 — 사용자가 읽지 않고 떠난다는 강력한 신호입니다.
Google의 콘텐츠 품질 평가 가이드: Google은 EEAT 중심의 콘텐츠 평가 기준을 공개하고 있습니다. 핵심은 “사용자 검색 의도를 해결했는가?”와 “신뢰할 수 있는 콘텐츠인가?”입니다. 공식 순위 알고리즘은 아니지만, 방향성은 거의 동일합니다.
콘텐츠 경험 자가 점검 방법:
- 타깃 사용자가 되어 문제를 안고 글을 읽어보기:
- 원하는 답을 쉽게 찾았나요?
- 읽기 어렵거나 계속 스크롤을 해야 했나요?
- 광고나 팝업이 방해되지 않았나요?
- 가독성과 레이아웃 확인:
- 초반 250자 안에 핵심 내용이 있나요? (H1 제목 + 첫 문단)
- 제목 구조(H2~H6)가 논리적으로 구성되어 있나요?
- 복잡한 정보는 리스트, 표, 다이어그램으로 정리됐나요?
- 문단은 3~5문장 내외인가요? 공백이 충분한가요?
- 검색 의도와의 일치도 확인:
- 타깃 키워드는 무엇인가요? (Search Console의 검색 실적 확인)
- 해당 키워드를 검색하는 사용자가 진짜 원하는 답을 제공하고 있나요?
- 제목과 첫 문단에서 질문에 명확히 답하고 있나요?
- 신뢰도 검토:
- 사실이나 수치는 신뢰할 수 있는 출처에서 가져왔나요? (링크 포함)
- 작성자나 사이트 운영자가 관련 자격이나 배경을 설명하고 있나요? (EEAT의 경험/전문성)
- 게시일 또는 업데이트 날짜가 명확히 표시되어 있나요? 오래된 내용은 아닌가요?
지금 당장 해야 할 일:
- 어색한 문장 전면 수정: 사람처럼 자연스럽게 써야 합니다!
- 정보 구조화: 제목 태그(H 계열), 리스트, 표 등을 적극 활용하세요.
- 의도 불일치 강력 해결: Search Console에서 성과 좋은 키워드를 분석하고, 그 키워드의 사용자 의도를 페이지가 정확히 해결하고 있는지 확인하세요. 필요하면 콘텐츠의 방향을 수정하거나 새 페이지를 만드세요.
- 콘텐츠 정기 업데이트 및 정리: 시의성이 있는 콘텐츠에는 업데이트 날짜를 명확히 표시하세요. 오래된 내용은 업데이트하거나 보관 처리하거나 삭제/리디렉션하세요.
- 방해되는 광고 최소화: 광고는 너무 많지 않게, 본문을 가리지 않도록 배치하세요.
- EEAT 신호 강화 (장기적으로 중요):
- “회사 소개” 또는 “작성자 소개”에 관련 자격/경력을 기재하세요.
- 신뢰할 수 있는 출처에 링크를 걸어 인용하세요.
- 마지막 업데이트 날짜를 명확히 표시하세요.
색인은 정밀한 설계도에서 시작하고, 매끄러운 경로에서 발전하며, 가치 있는 콘텐츠로 완성됩니다.




