[블로그 관리]

티스토리 블로그, 웹 페이지 최적화(robots.txt, 페이지 설명, Open Graph 설명 등) - 네이버 서치 어드바이저 2

극꼼 2021. 6. 4. 15:52
반응형

 


 

웹마스터에 제 블로그가 제대로 등록되어 있는지 확인하기 위해 서치어드바이저 사이트에서

"웹마스터 도구 - 검증 - 웹 페이지 최적화" 로 들어가서 

 

 

URL 입력란에 아무것도 입력하지 않은 상태로 확인을 누릅니다.

아래와 같이 항목과 상태가 나옵니다. (네이버 검색로봇이 사이트 진단을 할 수 없습니다. 라고 뜰 경우 하루이틀 더 기다려줍니다.)

 

 

제 경우에는 위의 캡쳐처럼 3가지(robots.txt, 페이지 설명, OpenGraph 제목)의 상태가 초록색으로 표시가 안 됐습니다. 

이 3가지 항목을 어떻게 초록색 체크표시가 뜨게 만들 수 있는지에 대해 알아보겠습니다.

 


1. robots.txt

https://searchadvisor.naver.com/guide/seo-basic-robots

 

robots.txt 설정하기

robots.txt는 검색로봇에게 사이트 및 웹페이지를 수집할 수 있도록 허용하거나 제한하는 국제 권고안입니다. robots.txt 파일은 항상 사이트의 루트 디렉터리에 위치해야 하며 로봇 배제 표준을 따

searchadvisor.naver.com

robots.txt는 검색로봇에게 사이트 및 웹페이지를 수집할 수 있도록 허용하거나 제한하는 국제 권고안입니다. robots.txt 파일은 항상 사이트의 루트 디렉터리에 위치해야 하며 로봇 배제 표준을 따르는 일반 텍스트 파일로 작성해야 합니다. 네이버 검색로봇은 robots.txt에 작성된 규칙을 준수하며, 만약 사이트의 루트 디렉터리에 robots.txt 파일이 없다면 모든 콘텐츠를 수집할 수 있도록 간주합니다.

네이버 서치어드바이저에서 설명하는 robots.txt에 대한 설명입니다. 간단하게 말하자면 사이트에서 어떤 부분은 수집하게 해주고, 어떤 부분은 수집하지 않게 설정해주는 것입니다.

 

 

웹마스터 도구 - 검증 - robots.txt 페이지에 들어가서, 

robots.txt 간단생성을 해줍니다. (생성에 앞서, "네이버 검색로봇"과 "모든 검색로봇" 둘 중 선택할 수 있는데요, "네이버 검색로봇"은 말 그대로 네이버 검색로봇(Yeti)만 접근 가능한 설정이므로, 포털사이트의 모든 로봇들도 검색할 수 있게 저는 "모든 검색로봇"으로 설정해줬습니다. 대표 검색로봇으로는 구글(Googlebot), 구글 이미지(Googlebot-image), Msn(MSNBot), Daum(Daumoa) 등이 있습니다.

 

다운로드를 눌러준 후, 

자신의 티스토리 설정의 스킨편집으로 들어와줍니다.

 

html 편집을 누른 후, 파일 업로드 페이지로 들어와줍니다.

 

 

추가 버튼을 누른 후, 방금 다운받은 'robots.txt'파일을 업로드 하고 적용 버튼을 눌러줍니다. 

 

 

다시 네이버 웹마스터 도구 페이지로 돌아와서 검증 "확인" 버튼을 누르면 해당 홈페이지는 '수집이 가능하다'는 메시지가 뜨며, "수집요청" 버튼을 성공적으로 수집되는 것을 확인할 수 있습니다. 

 

최적화 페이지에서도 이제 초록색 체크표시가 뜹니다. 

 

* 아래는 robots.txt 파일의 규칙 예제입니다. 

 


2. 페이지 설명, Open Graph 설명

이 두가지 오류의 경우, 블로그 설명란에 제가 아무것도 적지 않아 생기는 것이라 합니다.

 

블로그 설정 - 관리 - 블로그 페이지에 들어가서 설명 글을 적은 후, 기다리면 해결됩니다. 

 

 

 

 

 

반응형