2월 9일 저녁
1차주소로의 1:1 검색제외 요청을 했다. 처음 요청했을땐 변화가 없어서 몇 주가 지나 재요청 하는 것이다.
그리고 1차주소의 네이버 웹마스터도구 소유확인 태그를 삭제하고, 연동사이트에서 아예 지워버렸다.
2월 10일 오전
요청대로 1차주소로 검색됐던 자료들이 다 나오지 않고 있다. 잘된거겠지? 유입자수는 또 떨어지겠지만..
2차주소로 이제 잘 노출되게 만들기만 하면된다.. 로봇 메타태그 수정했으니 효과가 있길 오늘 하루 기다려봐야겠다.
2월 11일
네이버에 내 자료들이 전혀 노출이 되질 않고있다.
수집 페이지수도 여전히 적다.
User-agent: * Disallow: /owner Disallow: /admin Disallow: /oldadmin Disallow: /search Disallow: /m/search Disallow: /m/admin Allow: / User-agent: Mediapartners-Google Allow: / |
네이버 웹마스터 도구에서 보니 내 블로그의 robots.txt가 이렇게 나와있다.
많은 부분에 Disallow 가 되어있어서 그런지..게시물 500개 중 수집된 페이지의 수는 170개 가량이었다.
수집이 안되니 유입자수가 늘리가 만무...
티스토리는 robots.txt의 설정을 바꿀 수 있는 권한이 없어서
꾸미기-HTML/CSS 편집에서 메타 태그를 삽입해주는 방식으로 로봇접근을 제어할 수 있다고 한다.
상단에 위치한 head 와 head 사이에
<meta name="Robots" content="ALL">
<meta name="Robots" content="index,follow"> 이라고도 해보고
<meta name="NaverBot" content="All">
<meta name="NaverBot" content="index,follow">
<meta name="Yeti" content="All">
<meta name="Yeti" content="index,follow"> 이렇게도 해보고...
둘다 같이 넣어서
<meta name="Robots" content="ALL">
<meta name="Robots" content="index,follow">
<meta name="NaverBot" content="All">
<meta name="NaverBot" content="index,follow">
<meta name="Yeti" content="All">
<meta name="Yeti" content="index,follow"> 이렇게도 해보는 중....
왜 여전히 robots.txt는 여전이 Disallow로 나올까....
네이버에 전혀 노출이 안되어버리니 이거 원...ㅠ.ㅠ
2차주소로의 수집요청을 다시 하루에 50개씩 해봐야겠다 ㅠ.ㅠ..
해결 방법 아시는 분이 계시다면..경험자 분이 계시다면 조언 좀 부탁드립니다ㅠ.ㅠ
'*공지&잡담*' 카테고리의 다른 글
갑자기 늘어난 티스토리블로그방문자폭주 무슨일인지 알아보니 카카오톡유입 (1) | 2017.09.12 |
---|---|
티스토리글이 네이버 블로그에 노출이 안되고 웹문서에 검색된다. (8) | 2017.02.27 |
아직도 네이버 최적화가 되질 않고 있다.. (10) | 2017.02.06 |
감성고자 크나나의 막찍는 세상 2차주소로 블로그 사이트등록완료 (14) | 2017.01.20 |
블로그이름과 주소를 바꾼후 블로그 최적화시키기 과정 (4) | 2017.01.15 |
댓글