打开某个网站(www.xxx.xxx.html)最笨的方法就是人工操作,右键-》另存为。这个工作量大,而且容易缺失。爬虫,自己编写爬虫程序。首先爬去packages.html中的url,然后,在将这些url下载到本地。利用开源软件。现在爬虫工具多得是,自己要学会利用网上的开源工具,在小伙伴的帮助下,在网上下载了Jspider。很实用,只要一行命令,就可以搞定了。Jspider的使用方法:1)在官网上下载,解压文件。2)打开命令行,进入到--\jspider-src-0.5.0-dev\bin目录中,输入命令jspider网址(www.xxx.xxx.html) download