robots.txt ¸¦ »ç¿ëÇÑ º¿ Á¢±Ù ¸·±â¿¡¼­

¹«¾Æ   
   Á¶È¸ 3092   Ãßõ 0    

 게시판을 운영중인 웹사이트에 트래픽 초과문제가 생기는데 트래픽 유발하는 놈을 보니

bc.googleusercontent.com 라는데서 크롤링 하듯이 긁어가네요.


#HitsFilesKBytesVisitsHostname

Top 30 of 15132 Total Sites By KBytes
1162361.34%147841.73%990674333.59%140.02%240.23.226.35.bc.googleusercontent.com
219658616.21%15426518.06%365428712.39%1790.30%121.161.216.250
312447110.26%10250712.00%23445867.95%2460.42%218.50.99.55
41067738.80%8768210.27%19992056.78%1720.29%121.157.113.126
5498334.11%392544.60%9347753.17%800.14%220.126.244.47
653750.44%52940.62%4277261.45%410.07%87.221.225.35.bc.googleusercontent.com



robots.txt 에서 저기를 막고 싶은데 어떻게 해주면 될까요?

현재 설정은

User-Agent : *
Disallow : /

으로 되어있습니다.


혹.. 대소문자와 띄워쓰기 문제인가요? 인터넷에 보면

User-agent: *
Disallow: /

면 된다고 되어있는데 저랑 다른 부분은 대소문자와 띄워쓰기가 다르네요

...
ªÀº±Û Àϼö·Ï ½ÅÁßÇÏ°Ô.
Á¶¿ë¿ø 2018-03
º¿¼³Á¤ ¹«½ÃÇÏ°íµµ ÆÛ°©´Ï´Ù.

ÁøÂ¥ ±¸±ÛÀ̶ó¸é ¹®¹ýÀÌ Æ²¸®½Å°Å°°¾Æ¿ä

ÀÎÅͳݰɷΠ¹Ù±Åº¸¼¼¿ä


QnA
Á¦¸ñPage 4403/5611
2014-05   4586492   Á¤ÀºÁØ1
2015-12   1135093   ¹é¸Þ°¡
2017-07   3103   ´ÃÆĶõ
2016-04   3103   °­Çѱ¸
2017-04   3103   ±ô¹Ú±ô¹Ú°¡
2019-07   3103   ¼öÆÛ½ÎÀ̾ð
2020-10   3103   ±èȲÁß
2017-06   3103   ´ÃÆĶõ
2017-09   3103   ¹«¾Æ
2014-03   3103   À̵¿¿øCH
2019-01   3103   ¼­¹öÀü¹®°¡¡¦
2016-02   3103   Çϼ¿È£ÇÁ
2018-12   3103   ²Ù¶ì¿÷
2017-05   3103   ¿Õ¿ëÇÊ
2018-07   3103   ½Ã°ñ³ëÀÎ
2021-08   3103   nicenas
2020-12   3103   ÆÈÄÚ
2015-03   3103   ȲÁø¿ì
2015-02   3103   ¹Ì´ã
2017-03   3103   ¹«¾Æ
2019-03   3103   pmnxis
2019-10   3103   ¾Æ»Ç¸®