워드프레스 네이버 검색차단 해결방법 · Yeti용 robots.txt 설정과 수집 요청
워드프레스 네이버 검색차단 해결 · Yeti용 robots.txt 설정방법
워드프레스 홈페이지를 네이버를 포함한 검색엔진에 제대로 노출하려면 사이트맵과 RSS 제출만큼 중요한 것이 바로 robots.txt 설정입니다. 검색엔진이 자동으로 페이지를 찾아가기도 하지만, 정리된 사이트맵과 올바른 robots.txt를 제공하면 크롤러가 구조를 더 빠르게 파악하고, 중요한 페이지를 안정적으로 수집할 수 있습니다.
특히 네이버는 자체 검색로봇 Yeti(예티)를 사용하기 때문에, robots.txt에서 Yeti 접근을 막아두면 아예 노출이 안 되거나 지연되는 경우가 많습니다. 네이버 웹마스터도구(서치어드바이저)에서 “수집 차단” 메시지가 뜬다면 대부분 robots.txt 설정 문제인 경우가 많아서, 직접 내용을 확인하고 수정해 주는 게 필요합니다.

이 글에서는 예전에 정리해 두었던 내용을 2026년 기준으로 다시 한 번 정리하면서, 워드프레스에서 네이버 검색 차단 문제를 robots.txt로 해결하는 방법과 함께 검색 허용·차단 예시, 사이트맵 추가, FTP 업로드 위치까지 한 번에 짚어보도록 하겠습니다.
워드프레스 Robots.txt 수정 편집방법 2가지
워드프레스 Robots.txt 수정 편집방법 2가지 워드프레스를 관리하면서 검색엔진에 노출을 하기 위해 가장 중요한것은 바로 각 웹마스터도구에서 검색엔진 로봇이 자유롭게 들어와 수집이 가능하
jab-guyver.co.kr
기본적인 robots.txt 수정과 편집 방식은 위 글에서도 자세히 다뤄두었으니, 구조가 익숙하지 않다면 함께 보면서 설정을 바꿔 주면 이해가 훨씬 편합니다.
네이버 웹마스터도구(서치어드바이저)에서 검색 차단 상태 확인
네이버 웹마스터도구는 현재 서치어드바이저 이름으로 통합되어 있지만, 역할은 크게 다르지 않습니다. 사이트 소유자가 자신의 페이지가 검색엔진에 어떻게 인식되는지를 확인하고, 검색로봇 접근 문제나 SEO 상태를 점검할 수 있는 도구입니다. 여기에서 “robots.txt로 인해 차단됨” 같은 메시지가 보인다면 우선 robots 설정부터 살펴보는 것이 빠릅니다.
일반적인 점검 흐름을 말로 풀어보면 대략 이런 순서로 보게 됩니다. 웹페이지 상태를 분석해서 문제를 찾고, 수정한 뒤 다시 검증 요청을 보내는 식이죠. 이 과정은 네이버뿐만 아니라 대부분의 검색 콘솔에서 비슷하게 반복됩니다.
네이버 서치어드바이저 메뉴에서 검증 → 웹페이지 최적화로 이동해 현재 사이트의 상태를 확인합니다.

위와 같이 robots.txt 파일로 인해 검색로봇이 접근하지 못한다는 알림이 뜬다면, 네이버 검색 차단 문제는 거의 확실히 robots 설정 문제라고 보면 됩니다. 이럴 때는 워드프레스 관리자나 FTP에서 robots.txt 파일을 직접 수정해 주어야 합니다.
네이버 Yeti 검색로봇 허용·차단 robots.txt 예시
네이버 검색로봇 이름은 Yeti입니다. 따라서 네이버에만 웹페이지를 열어 줄지, 아니면 모든 검색엔진에 허용할지를 robots.txt에서 세밀하게 조정할 수 있습니다. 아래 예시는 가장 기본적인 허용/차단 설정입니다.
네이버 Yeti 로봇만 허용

User-agent: Yeti
Allow:/
위처럼 작성한 뒤 robots.txt라는 이름으로 저장하면, 네이버 Yeti 크롤러는 사이트 전체에 자유롭게 접근할 수 있습니다. 메모장을 열어 내용을 입력한 다음 UTF-8 인코딩으로 저장해 두면 인코딩 문제도 피할 수 있습니다.
직접 작성하는 게 번거롭다면 아래에서 제공한 파일을 그대로 받아 이름만 확인하고 업로드해도 됩니다.
이 파일은 네이버 검색로봇이 사이트를 정상적으로 수집할 수 있도록 허용하는 기본 robots.txt라고 보면 됩니다.
네이버 Yeti 로봇만 차단
User-agent: Yeti
Disallow:/
반대로 네이버 노출을 막고 싶다면 위와 같이 Disallow:/로 설정된 robots.txt를 사용할 수 있습니다.
즉 Yeti에 대해서는 Allow:/ 또는 Disallow:/ 두 줄로 검색 허용 여부를 명확하게 지정할 수 있고, 이 설정 하나만 잘못되어 있어도 네이버 검색창에서 내 사이트가 통째로 사라질 수 있다는 점을 기억해 두면 좋습니다.
워드프레스용 robots.txt 예시와 사이트맵 추가
워드프레스에서 가장 많이 사용하는 형태는 모든 검색엔진을 허용하면서, 관리자 화면이나 불필요한 시스템 파일만 막고, 사이트맵 주소를 함께 명시하는 방식입니다. 예시를 보면 구조가 훨씬 쉽습니다.
User-agent: *
Disallow:
Sitemap: [https://homepage.co.kr/sitemap.xml](https://homepage.co.kr/sitemap.xml)
Sitemap: [https://homepage.co.kr/post-sitemap.xml](https://homepage.co.kr/post-sitemap.xml)
Disallow: /wp-admin/
Disallow: /readme.html
위 예시는 모든 검색로봇(User-agent: *)을 허용하면서, 워드프레스 기본 사이트맵 2개를 안내하고, 관리자와 불필요한 파일만 수집 대상에서 빼는 형태입니다. 실제 도메인에 맞게 https://homepage.co.kr/ 부분만 내 사이트 주소로 바꿔주면 됩니다.
| 설정구문 | 의미 | 워드프레스에서 역할 |
User-agent: * |
모든 검색엔진 로봇에 적용 | 구글, 네이버, 다음, 빙 등 전체에 동일 규칙 적용 |
Disallow: |
비워두면 전체 허용 | 사이트 전체를 수집 가능 상태로 둠 |
Sitemap: ... |
사이트맵 파일 위치 안내 | 검색로봇이 URL 구조를 빠르게 파악 |
Disallow: /wp-admin/ |
관리자 디렉터리 차단 | 로그인·관리 화면을 검색 결과에서 제외 |
Disallow: /readme.html |
워드프레스 버전 정보 노출 방지 | 보안·불필요 페이지 노출 방지에 도움 |
실무에서는 대부분 위와 같은 기본 구조에, 필요에 따라 특정 카테고리나 검색 페이지를 Disallow로 추가하는 식으로 사용합니다.
네이버 검색을 중점적으로 보고 있다면, Yeti에 대한 규칙을 함께 적어 두는 것도 좋습니다.
FTP(파일질라)로 워드프레스 robots.txt 업로드 위치
robots.txt 파일은 반드시 도메인 최상위 경로에 있어야 검색엔진이 올바르게 인식합니다.
주소창에 https://내도메인/robots.txt를 입력했을 때 내용이 그대로 보이는 위치라고 이해하면 됩니다.

워드프레스를 설치했다면 보통 public_html, www, httpdocs 같은 폴더 아래에 wp-admin, wp-content, wp-includes 폴더가 보일 텐데, 이 세 폴더가 보이는 바로 그 위치에 robots.txt 파일을 함께 두면 됩니다.
이때 파일질라 같은 FTP 프로그램을 이용하면 워드프레스 파일을 보다 쉽게 업로드·관리할 수 있습니다.
파일질라 FTP 워드프레스 플러그인 설치 및 사용방법 - 노랗IT월드
워드프레스 설치형의 최대 강점이 바로 FTP를 이용해 원하는 데이터를 쉽게 다운로드 하고 업로드할수 있다는 부분입니다. 보다 손쉽게 백업 및 복원을 하기위해서는 파일질라 FTP 를 사용하는것
yellowit.co.kr
FTP에 접속한 뒤, 로컬 컴퓨터에서 준비한 robots.txt를 드래그해서 워드프레스 최상위 경로에 업로드하면 기본 작업은 끝입니다.

업로드 후에는 브라우저에서 https://내도메인/robots.txt를 직접 열어 내용이 깨지지 않고 그대로 보이는지 마지막으로 한 번만 확인해 주면 됩니다.
네이버 웹마스터도구에서 robots.txt 재검증 및 수집 요청
robots.txt를 수정했다면, 네이버 웹마스터도구에서 설정이 정상적으로 반영되었는지 다시 한 번 확인하는 과정이 필요합니다. 네이버에서도 robots.txt 파일을 직접 다운로드할 수 있기 때문에, FTP 작업이 익숙하지 않다면 웹마스터도구에서 간편 생성·다운로드 기능을 활용하는 것도 좋은 방법입니다.
참고로 robots.txt 파일은 네이버 웹마스터도구에서도 다운로드할 수 있습니다.

네이버 웹마스터에 접속한 뒤 robots.txt 간단 생성 메뉴에서 네이버 검색로봇만 허용할지, 모든 검색로봇을 허용할지를 선택하고 파일을 내려받을 수 있습니다. 이렇게 생성된 파일을 FTP로 올려도 되고, 내용을 참고해서 직접 수정해도 괜찮습니다.
robots 설정이 끝났다면, 다시 웹페이지 수집 요청 단계로 돌아갑니다. 로봇 설정이 제대로 되어 있는지 확인하고, 이상이 없다면 수집 요청을 눌러 네이버 쪽에 변경 사실을 알려줍니다.

수집 요청을 보낸 뒤에는 설정된 로봇 규칙에 따라 실제로 페이지를 수집할 수 있는지, 상태가 “수집 가능”으로 바뀌었는지 다시 확인합니다.

위와 같이 로봇 수집 가능 상태로 바뀌었다면, 네이버 검색엔진에서 사이트를 수집하고 노출할 준비가 거의 끝난 것입니다. 이후에는 사이트맵 제출, RSS 제출, 메타정보 정리 등을 같이 진행하면서 조금씩 검색 노출을 지켜보면 됩니다.
정리해 보면, 워드프레스에서 네이버 검색 노출을 제대로 가져가려면 robots.txt 설정 → FTP 업로드 → 웹마스터도구 수집 검증이라는 흐름만 잘 기억해 두면 됩니다. 검색엔진 입장에서는 “들어가도 되냐, 어디부터 보면 되냐”를 묻는 단계라서, 이 부분만 깔끔하게 열어두면 이후 SEO 작업이 훨씬 수월해집니다.
네이버 웹마스터도구·사이트맵·RSS 연계 참고 링크
robots 설정과 함께 챙겨두면 좋은 네이버 웹마스터도구 관련 내용도 정리해 두었습니다. 사이트 제목과 설명, RSS 크기, 사이트맵 제출까지 한 번에 맞춰두면 네이버 관점에서 보는 사이트 기본 정보가 안정적으로 세팅됩니다.
아래 글들은 네이버 SEO와 웹마스터도구 활용에 도움이 되는 내용이라, robots.txt 문제를 해결한 뒤 이어서 확인해 보면 좋습니다.
네이버 웹마스터도구 참고
- [IT 리뷰/블로그 SEO] - 네이버 웹마스터도구 올바른 RSS가 아닙니다 RSS 본문 크기를 줄여주세요
- [IT 리뷰/블로그 SEO] - 네이버 웹마스터도구 사이트제목 사이트설명 없음 등록방법
- [IT 리뷰/블로그 SEO] - 네이버 검색엔진 웹마스터도구 사이트맵 RSS 제출
워드프레스 네이버 robots 설정 관련 자주 묻는 질문 FAQ
네이버에서 robots.txt 차단 메시지가 계속 뜨는데 어디부터 확인해야 할까요?
가장 먼저 https://내도메인/robots.txt에 직접 접속해서 내용을 눈으로 확인하는 것이 좋습니다.
파일이 아예 없거나, Disallow:/처럼 전체 차단이 걸려 있는 경우가 많습니다. 그다음에는 네이버 웹마스터도구의 robots 테스트 도구에서 특정 URL이 실제로 차단되는지, 어떤 규칙 때문에 막히는지 함께 확인해 보면 원인을 찾기 수월합니다.
워드프레스 설정에서 ‘검색 엔진이 이 사이트를 인덱스하지 못하도록’ 체크되어 있으면 어떻게 되나요?
워드프레스 관리자에서 설정 → 읽기 메뉴에 있는 “검색 엔진이 이 사이트를 인덱스하지 못하도록 요청합니다” 옵션을 체크하면, robots.txt와는 별개로 메타 태그로 noindex 요청을 하게 됩니다.
개발 단계에서 잠깐 꺼두고 잊어버리는 경우가 종종 있어서, 네이버 검색이 잘 안 보인다면 robots.txt와 함께 이 옵션도 반드시 함께 확인해 보는 게 좋습니다.
네이버만 허용하고 다른 검색엔진은 막아도 괜찮을까요?
가능은 하지만, 최근에는 구글·네이버·다음·빙 등을 함께 가져가는 경우가 많기 때문에 특별한 이유가 없다면 전체 허용이 더 일반적입니다.
꼭 네이버만 허용하고 싶다면 User-agent: Yeti 규칙을 따로 두고, 그 외 검색엔진에 대한 Disallow 규칙을 추가하는 식으로 세밀하게 조정할 수 있습니다. 다만 장기적으로는 여러 검색엔진에 노출되는 편이 트래픽 분산에도 유리하다는 점도 같이 고민해 보는 게 좋습니다.
robots.txt 수정 후 검색 반영까지 얼마나 걸리나요?
robots.txt를 수정하면 네이버 웹마스터도구에서 수집 요청을 보냈는지 여부에 따라 반영 속도가 달라질 수 있습니다.
보통은 로봇이 다시 방문하는 주기에 맞춰 변경 내용이 반영되는데, 새로 만든 사이트보다 이미 어느 정도 인덱스가 잡힌 사이트가 훨씬 빨리 반영되는 편입니다. 따라서 중요한 변경을 했다면 웹마스터도구에서 수집 요청을 보내고, 며칠 간격으로 상태를 한 번씩 확인해 보는 정도가 좋습니다.
사이트맵 주소를 robots.txt에 꼭 넣어야 하나요?
네이버·구글 웹마스터도구(서치콘솔)에 사이트맵을 직접 제출했다면 꼭 넣을 필요는 없지만, robots.txt에 함께 적어 두면 크롤러가 구조를 파악하는 데 도움이 됩니다. 특히 여러 개의 사이트맵을 사용하는 대형 사이트라면, robots.txt에 주요 사이트맵을 한 번에 정리해 두는 편이 관리하기에도 편합니다.
잘못된 robots 설정 때문에 기존에 노출되던 글이 사라질 수도 있나요?
네, 전체 차단(Disallow:/)이나 중요한 카테고리 경로를 막아 두면 이미 인덱스되어 있던 페이지도 시간이 지나면서 검색 결과에서 빠질 수 있습니다.
다행히 이런 경우에도 설정을 다시 허용으로 바꾸고 수집을 재요청하면 대부분 다시 노출되지만, 기간이 길어질수록 회복까지 시간이 더 오래 걸릴 수 있으니 로봇 설정은 변경 전에 꼭 백업해 두는 편이 안전합니다.
여러 개의 robots.txt가 있을 때 네이버는 어떤 파일을 기준으로 하나요?
검색엔진은 기본적으로 도메인 루트의 /robots.txt만 인식합니다.
워드프레스 플러그인이 내부적으로 가상 robots.txt를 만들어 주는 경우도 있지만, 실제 파일과 충돌이 날 수 있으니 가능하면 한 가지 방식으로만 관리하는 것이 좋습니다. 이미 실제 파일을 사용하고 있다면, 플러그인 쪽 robots 설정 기능은 꺼두는 편이 충돌을 줄이는 데 도움이 됩니다.
robots.txt에서 너무 많은 경로를 막아도 되나요?
보안이나 중복 콘텐츠를 막는다는 이유로 카테고리, 태그, 검색 페이지, 페이지네이션 등 너무 많은 경로를 Disallow로 막아버리면, 오히려 검색엔진이 사이트 구조를 제대로 이해하지 못하는 경우가 생길 수 있습니다.
기본적으로는 관리자(/wp-admin/), 시스템 파일(readme.html 등) 정도만 차단하고, 나머지는 사이트 구조와 SEO 전략을 고려해 신중하게 결정하는 게 좋습니다.
티스토리나 다른 블로그에서도 robots.txt를 비슷하게 적용할 수 있나요?
원리는 같습니다. 다만 티스토리처럼 플랫폼에서 robots.txt를 직접 관리하는 구조에서는 사용자가 파일을 업로드할 수 없고, 설정 화면에서 일부 옵션만 조정할 수 있습니다.
설치형 워드프레스의 강점은 이렇게 robots.txt를 직접 만들고 서버에 올릴 수 있다는 점이기 때문에, 자체 서버를 쓰는 환경이라면 이 자유도를 최대한 활용하는 게 좋습니다.
'IT 리뷰 > 블로그 SEO' 카테고리의 다른 글
| 워드프레스 테이블 표 만들기와 셀 병합 · TinyMCE Advanced 활용법 (0) | 2025.12.01 |
|---|---|
| 워드프레스 이미지 최적화 · Gzip 압축 PageSpeed 점수후기 (Smush · Hummingbird · WP Rocket) (0) | 2025.12.01 |
| 티스토리 2차도메인 등록 및 카페24 개인 도메인 - A레코드 DNS 설정 (0) | 2025.11.24 |
댓글