본문 바로가기

IT 리뷰/블로그 SEO

구글 페이지스피드 Robots.txt AI봇 차단 해결후기

반응형
Rest api가 예상치 못한 결과를 발생했습니다.

웹사이트 운영자라면 한 번쯤 마주하게 되는 구글 서치콘솔과 페이지스피드 인사이트의 빨간 경고등. 최근 저도 robots.txt 유효성 오류REST API 403 Forbidden 문제를 해결하며 진땀을 뺐습니다.

Robots.txt가 유효하지 않습니다.
Robots.txt가 유효하지 않습니다.

우선 저는 워드프레스에서 클라우드플레어에 연동한 뒤 AI봇 차단이 문제가 되었느데요 이에 클라우드플레어(Cloudflare)와 워드프레스 환경에서 발생하는 주요 기술적 오류들을 어떻게 완벽하게 해결했는지, 그 과정과 최적화 코드를 공유해 드립니다.

📌 주요 해결 내용 요약

  • robots.txt Unknown directive: 클라우드플레어 비표준 지시어 제거 및 표준화
  • REST API 403 Forbidden: 서버 루프백 통신 및 PHP 핸들러 버전 충돌 수정
  • AI 봇 차단: GPTBot, Google-Extended 등 최신 AI 크롤러 완벽 차단

1. robots.txt 유효하지 않음 (Unknown directive) 해결

구글 페이지스피드 검사에서 robots.txt 파일의 29번 라인 등에 오류가 뜨는 경우가 있습니다.

클라우드플레어에서 robots.txt 구성 사용중지

이는 주로 클라우드플레어의 '콘텐츠 신호 정책' 기능이 비표준 문구를 강제로 삽입하기 때문입니다.

💡 해결 방법

  • 클라우드플레어 설정 변경: [Security] > [Bots] 메뉴에서 'robots.txt 구성 사용 중지'를 선택합니다.
  • 표준 문법 적용: 아래와 같이 구글이 이해할 수 있는 표준 문법으로 AI 봇을 차단해야 합니다.
User-agent: GPTBot
Disallow: /
User-agent: Google-Extended
Disallow: /
User-agent: *
Allow: /
    

2. REST API 403 Forbidden 오류 조치

워드프레스 '사이트 건강' 메뉴에서 REST API 응답이 403으로 뜬다면, 서버 내부 통신이 보안 규칙에 의해 막혀있을 가능성이 99%입니다.

💡 해결 방법

.htaccess 파일에서 핫링크 방지(Hotlink Protection)봇 차단 코드를 점검해야 합니다.

특히 PHP 버전 핸들러가 현재 서버 사양(예: PHP 8.3)과 일치하는지 반드시 확인하세요.

3. 검색 엔진 크롤링 최적화 (가독성 개선)

<a href="javascript:void(0)">와 같은 코드는 검색 엔진 로봇이 길을 잃게 만듭니다.

링크를 크롤링할 수 없습니다.

기능을 수행하는 요소는 <button> 태그로 교체하여 접근성과 SEO 점수를 동시에 잡아야 합니다.

✅ 해결 후기 결과는 어떨까?

모든 설정을 마치고 클라우드플레어의 Purge Everything(캐시 전체 삭제)과 워드프레스 Redis 캐시 제거를 진행했습니다.

결과는 대성공이었습니다.

  • 서치콘솔 오류 해결: 며칠 뒤 확인 결과 유효하지 않은 robots.txt 경고가 사라졌습니다.
  • 페이지 성능 향상: 비표준 코드를 제거하고 태그를 최적화하니 Lighthouse 점수가 눈에 띄게 개선되었습니다.

기술적인 오류는 방치할수록 검색 순위에 악영향을 미칩니다. 혹시 비슷한 문제로 고민 중이시라면 위 가이드대로 설정을 점검해 보시길 권장합니다!

728x90
반응형
그리드형