应用程序根目录中的dos.yaml文件(旁边 app.yaml)为您的配置DoS保护服务黑名单 应用。以下是dos.yaml文件的示例:
blacklist: - subnet: 1.2.3.4 description: a single IP address - subnet: 1.2.3.4/24 description: an IPv4 subnet - subnet: abcd::123:4567 description: an IPv6 address - subnet: abcd::123:4567/48 description: an IPv6 subnet
https://cloud.google.com/appengine/docs/python/config/dos
我想通过删除url接收参数(url到另一个页面)解决了这个问题。
我认为机器人试图弄清楚哪个网址是开放的,以便伪造对特定网站的访问权限(也许是为了扩大金额访问权限)。我的网址被清楚地暴露出来(只是通过地址同时是一个GET)。
但感谢答案的人。
您可以尝试使用robots.txt禁止该特定目录或页面 http://www.robotstxt.org/robotstxt.html
你应该写 robots.txt 至少要阻止正版googlebot访问旧网址,他们会尝试频繁访问索引网址,直到网址返回404或任何其他方式被标记为已删除。
robots.txt
我不确定它是不是真的假机器人,因为googlebot本身就像垃圾邮件一样,在短时间内访问页面太多了。
要减少来自googlebot(假冒或正版)的访问权限,这样怎么样?
#allows access 100times/m dos_n = memcache.get(key=bot_ip) if dos_n != None: if dos_n>100: self.abort(400) dos_n = memcache.incr(bot_ip) else: memcache.add(key= bot_ip, value=0, time=60)
而且仅仅是为了获取信息,如果主机不在gae上,您可以在网站管理员工具中更改抓取频率。 https://www.google.com/webmasters/tools/
似乎Googlebot正在接收已经存储在您的网站本身或其他攻击者的注入,这些攻击者已经在他的网站中对这些URL进行了硬编码,并且正在使用Googlebots发起攻击。
Web应用程序防火墙可以为您提供良好的解决方案,可以检测这些签名并明确拒绝此类请求
留意Google中的Apache-ModSecurity或Nginx NAXSI!
此可疑功能与您的网址上的googleBot网页抓取有关,如果您最近在网站上添加或更改了网页,则可以要求Google使用Google抓取方式(重新)对其进行索引。