linux下怎样使用wget命令复制网站代码做镜像?这里小维就给大家分享一下linux下通过命令简单镜像网站代码的几种方法。
- 通过wget命令获取网站镜像
网站代码抓取对于做前端模版的人来说是非常简单易行的方法,一般来说使用wget就已经可以满足需要了。
wget本身没有图形界面,所以要进入终端进行操作
wget -m -e robots=off -k -E “http://www.abc.net/”
可以将全站下载以本地的当前工作目录,生成可访问、完整的镜像。
解释:
-m //镜像,就是整站抓取
-e robots=off //忽略robots协议,强制、流氓抓取
-k //将绝对URL链接转换为本地相对URL
-E //将所有text/html文档以.html扩展名保存
2.通过HTTrack:克隆一个网站页面到本地
安装:centos :yum install httrack
ubuntu:apt-get install httrack
使用起来也比较简单:
直接一条命令执行:
httrack “http://aliyun.blog.163.com” -O /heome/backup/myweb/ “+.aliyun.blog.163.com/” -v
注释:
“+.aliyun.blog.163.com/” 表示以 “.aliyun.blog.163.com/” 开头的所有页面,当然这里也可以直接是 “+http://aliyun.blog.163.com/“,因为网易博客前面就只有 http!
如果还没有linux服务器,可以联系小维客服购买一台性价比超高的阿里云服务器哦。QQ 442956988 微信:timesisp