我正在尝试使MDN的Javascript参考可供离线浏览(个人使用)。 我不是网站的所有者或开发者,我只能访问其生成的输出。 我的第一个想法是在页面中注入一个HTML5 appcache.manifest ; 使用manifestR我已经生成了页面资源的列表。 然后,我试着使用file:///协议指向我的本地清单文件,使用http://协议,最后使用base64 string表示文件的内容( data:text/cache-manifest, )。 似乎没有任何工作。 Google搜了一下之后,我偶然发现了他们的公共FTP 。 还没有完全抓取它。 但是还是没有发现任何js文档的提及。 我曾考虑使用浏览器的另存为命令来保存HTML页面; 但我宁愿开发一个基于JavaScript的爬虫,而不是单独保存每一个页面。 我在哪里可以find离线版本的MDN文档? 或者如何在离线状态下浏览MDN文档?
我想下载一个网页的本地副本,并获得所有的CSS,图像,JavaScript等 在以前的讨论中(比如这里和这里 ,两者都是两年多的时间),通常会提出两个build议: wget -p和httrack 。 但是,这些build议都失败了。 我非常感谢帮助使用这些工具来完成任务; 替代品也很可爱。 选项1: wget -p wget -p成功下载所有网页的先决条件(css,images,js)。 但是,当我在Web浏览器中加载本地副本时,页面无法加载先决条件,因为这些先决条件的path尚未从Web上的版本进行修改。 例如: 在页面的html中,需要修改<link rel="stylesheet href="/stylesheets/foo.css" />指向foo.css的新的相对path 在CSS文件中,同样需要调整background-image: url(http://img.dovov.combar.png) 。 有没有办法修改wget -p ,使path是正确的? 选项2: httrack httrack似乎是一个用于镜像整个网站的好工具,但是我不清楚如何使用它来创build单个页面的本地副本。 在httrack论坛中有很多关于这个话题的讨论(例如这里 ),但似乎没有人能够有一个防弹的解决scheme。 选项3:另一种工具? 有人提出了有偿工具,但我不相信那里没有免费的解决scheme。 非常感谢!