robots.txt的是一个可视化编辑器机器人排除文件和日志分析软件。它允许用户快速轻松地创建指示搜索引擎蜘蛛,这是一个网站的一部分,不应被编入索引,由一般的Web公众进行搜索所需要的的robots.txt文件,然后找出蜘蛛,这不坚持这些指令。该程序提供给用户的方式登录到他的FTP或本地网络服务器,然后选择文件的,哪些是不被可搜索目录。通过这一计划的手段,你将能够在视觉上产生行业标准的robots.txt文件;识别恶意和不必要的蜘蛛,并禁止他们从您的网站;直接搜索引擎抓取到相应的页面多语言网站;让蜘蛛您的网站的敏感和私人领域;追踪蜘蛛访问等。免费program`s更新和升级无限制的时间; 。无限数量的网站与合作
要求:
的Windows 98 / ME / NT / 2000 / XP / 2003服务器
评论没有发现