Компьютерра, интернет-версия, удивляет порой странными статьями. И вот как назло наткнулся на рассказ о сохранении веб-сайта на диск от Надежды Баловсяк. Пусть девушка не обижается, если вдруг наткнется, я не шовинист и не женоненавистник. Меня просто бесят ситуации, когда девушки пишут всякую муть…
Решить столь необычную задачу можно, используя специальное программное обеспечение для скачивания сайтов целиком, допустим, Offline Explorer Pro.
Начнем с того, что ничего «необычного» в задаче нет. Есть прорва программ для подобных целей. На память приведу wget (бесплатная, GPL если не ошибаюсь, работает из командной строки), HTTrack (аналогично забесплатно, ближе к окошкам), Teleport Pro (довольно популярная, любителям окошек рекомендуется, shareware). Так извините, зачем OEP за 70 баксов когда есть аналоги? Очередная реклама-замануха?
Wget — http://www.gnu.org/software/wget/
HTTrack — http://www.httrack.com/
Teleport Pro — 39.95$ — http://www.tenmax.com/teleport/pro/home.htm
PS: Кстати — http://www.metaproducts.com сайт производителей Offline Explorer, а не metaprodActs.com
Но помимо обычных веб-проектов, состоящих из набора простых HTML-страничек, Offline Explorer Pro умеет работать и с динамическимипроектами, то есть сайтами, выполненными с использованием технологий PHP, JSP и др.
Хотелось бы поинтересоваться у милой дамы, а кто не умеет из новых? Она у себя в браузере чувствует разницу между проектом выполненном в чистом HTML или с применением PHP? С удовольствием послушаю впечатления.
Кроме этого, программа умеет мониторить веб-сайты на предмет изменений.С указанным интервалом времени приложение будет проверять обновления насайтах и копировать изменившиеся объекты поверх старых.
Кстати, а вот этой фишкой я не воспользовался или не заметил? Правда, видел OEP довольно давно… стоит на нее еще раз посмотреть что ли.