robots.txt ¸¦ »ç¿ëÇÑ º¿ Á¢±Ù ¸·±â¿¡¼­

¹«¾Æ   
   Á¶È¸ 3399   Ãßõ 0    

 게시판을 운영중인 웹사이트에 트래픽 초과문제가 생기는데 트래픽 유발하는 놈을 보니

bc.googleusercontent.com 라는데서 크롤링 하듯이 긁어가네요.


#HitsFilesKBytesVisitsHostname

Top 30 of 15132 Total Sites By KBytes
1162361.34%147841.73%990674333.59%140.02%240.23.226.35.bc.googleusercontent.com
219658616.21%15426518.06%365428712.39%1790.30%121.161.216.250
312447110.26%10250712.00%23445867.95%2460.42%218.50.99.55
41067738.80%8768210.27%19992056.78%1720.29%121.157.113.126
5498334.11%392544.60%9347753.17%800.14%220.126.244.47
653750.44%52940.62%4277261.45%410.07%87.221.225.35.bc.googleusercontent.com



robots.txt 에서 저기를 막고 싶은데 어떻게 해주면 될까요?

현재 설정은

User-Agent : *
Disallow : /

으로 되어있습니다.


혹.. 대소문자와 띄워쓰기 문제인가요? 인터넷에 보면

User-agent: *
Disallow: /

면 된다고 되어있는데 저랑 다른 부분은 대소문자와 띄워쓰기가 다르네요

...
ªÀº±Û Àϼö·Ï ½ÅÁßÇÏ°Ô.
Á¶¿ë¿ø 2018-03
º¿¼³Á¤ ¹«½ÃÇÏ°íµµ ÆÛ°©´Ï´Ù.

ÁøÂ¥ ±¸±ÛÀ̶ó¸é ¹®¹ýÀÌ Æ²¸®½Å°Å°°¾Æ¿ä

ÀÎÅͳݰɷΠ¹Ù±Åº¸¼¼¿ä


QnA
Á¦¸ñPage 1260/5678
2015-12   1478109   ¹é¸Þ°¡
2014-05   4941286   Á¤ÀºÁØ1
2021-10   3365   ShortLJ
2018-11   3365   Äô¦Äô¦
2019-06   3365   ±¸Â÷´Ï
2021-09   3365   ±â¹¦ÇÑ»ýÈ°
2022-03   3365   À±°Ç
2020-12   3365   Á¶Áø¼®
2017-09   3365   ºí·¢ÆÞ
2017-03   3365   DoubleSH
2017-04   3365   ±³Á¤±â°ø»ç
2018-07   3365   ´ÃÆĶõ
2017-09   3365   Çϼ¿È£ÇÁ
2016-03   3365   ¿ôÀÚ¿ôÀÚ
2018-08   3365   ¿À¼º±â
2020-08   3366   isaiah
2015-07   3366   DaVinci
2016-02   3366   ³ë¾Æµð
2021-07   3366   ´Þ¸®´ÂºÕº½
2019-02   3366   Risingdream
2018-08   3366   Æ丣¼¼¿ì½º
2019-01   3366   ±è°Ç¿ì