imho.ws |
![]() |
![]() |
|
Результаты опроса: Какая, на Ваш взгляд, лучшая сайтокачалка? | |||
Disco Pump |
![]() ![]() ![]() ![]() |
30 | 6.19% |
GetRight |
![]() ![]() ![]() ![]() |
33 | 6.80% |
Teleport Pro |
![]() ![]() ![]() ![]() |
228 | 47.01% |
Wget |
![]() ![]() ![]() ![]() |
20 | 4.12% |
Web Copier |
![]() ![]() ![]() ![]() |
55 | 11.34% |
Website Extractor |
![]() ![]() ![]() ![]() |
5 | 1.03% |
WebZip |
![]() ![]() ![]() ![]() |
24 | 4.95% |
Offline Explorer |
![]() ![]() ![]() ![]() |
90 | 18.56% |
Голосовавшие: 485. Вы еще не голосовали в этом опросе |
Сообщения:
Перейти к новому /
Последнее
|
Опции темы |
![]() |
# 162 |
Member
Регистрация: 20.05.2004
Сообщения: 385
![]() ![]() ![]() ![]() ![]() |
freeware - WinHTTrack Website Copier
http://www.httrack.com поддерживает много языков, в т.ч. русский |
![]() |
![]() |
# 163 |
Guest
Сообщения: n/a
|
ну незнаю сможет ли мне кто помочь...
короче задача в том чтобы скачать все файлы формата *.eps с этого сайта www.brandsoftheworld.com конечно teleport ultra скажете вы, но там гораздо больше чем 250000 адресов... offline - сжирает навиг всю оперативку (1гиг вроде немало, а лопает) web copier зависает уже на 35 000 адресов ... короче говоря, подскажите где можно достать teleport exec/vlx или каким оразом в телепорте можно разбить проект на части... или может есть другой способ скачать сайт который обьемом около 20 гигов и 500 000 адресов ??? |
![]() |
# 166 |
Full Member
Регистрация: 11.12.2002
Сообщения: 864
![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() |
Alexej На сколько я знаю - не должен. В любом случае , особого выбора у тебя нет
![]() |
![]() |
![]() |
# 167 |
Guest
Сообщения: n/a
|
Offline Explorer - самая функциональная качалка. Посмотрите ради интереса сравнительную таблицу на сайте metaproducts. К тому же OE непрерывно совершенствуется, почти ежедневно. Новые версии с новыми возможностями выходят регулярно. А вообще, у других у качалок нет абсолютно никаких преимуществ перед OE, а вот наоборот сколько угодно.
Не знаю почему Teleport побеждает в опросе, ведь он OE даже в подметки не годиться. Убедитесь в этом сами. |
![]() |
# 168 |
Newbie
Регистрация: 26.05.2005
Сообщения: 34
![]() |
1. Какой программой возможно, после полной закачки сайта и сохранения его на харде, после переустановки виндов или самой качалки, подключив этот архив (проект), докачивать и обновлять файлы, страницы с сайта?
2. Какой программой, перед закачкой сайта, можно определить его размер? |
![]() |
![]() |
# 169 | ||
Newbie
Регистрация: 23.11.2001
Адрес: Kazan
Сообщения: 28
![]() |
Цитата:
Цитата:
|
||
![]() |
![]() |
# 170 |
Member
Регистрация: 25.10.2004
Адрес: Там где то.
Сообщения: 248
![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() |
Offline Explorer у меня качает значительно быстрее того же телепорта, пробовала ещё несколько, но наблюдения показали, что они уступают по скорости. к тому же в Offline очень гибкие настройки и удобные, что позврляет качать даже с самых "непробиваемых" для качалок сайтов.
Offline Explorer форевер!!! ![]()
__________________
- Как Господь смог создать мир всего за три дня? - Ему не надо было поддерживать совместимость… |
![]() |
![]() |
# 171 |
Guest
Сообщения: n/a
|
Alexej
короче говоря, подскажите где можно достать teleport exec/vlx или каким оразом в телепорте можно разбить проект на части...
или может есть другой способ скачать сайт который обьемом около 20 гигов и 500 000 адресов ???[/QUOTE] Alexej для тебя наверное подойдет, мне не хватает для полного счастья контекстного поиска. Ни одного приемлемого вариоанта никто не слабал. Вот описание называется GET URL List v.3 прога наша ничего круче не найти поверь мне, я столько времени убил, хваленый Teleport Ultra просто детский сад Не у всех есть выделенная линия к Интернет. И не все имеют тарифный план Unlimited, позволяющий часами сидеть в Инете и не спеша почитывать новости. Тем не менее практически все пользователи Сети регулярно посещают новостные сайты или страницы новостей в различных порталах. Обычно, чтобы добраться до всех страниц с новостями, надо: войти на главную страничку сайта найти ссылку на последние новости прочитать (скопировать для последующего чтения в офф-лайне, для чего выбрать локальный каталог на диске, выбрать имя для файла, в MS Explorer еще надо задать формат-сохранять ли весь файл (с изображениями), или только html..., бла-бла-бла) повторить пункты 1-3 для всех остальных сайтов, которые нас интересуют. А если нужно получить новости за вчерашний, позавчерашний день, придется найти ссылки в архиве новостей, и т.п... В полученных html-страницах часто "мусора" больше, чем нужной информации: ссылки по сайту, баннеры, счетчики, формы поиска и т.д. - и хочется все это обрезать, чтобы получить "чистый" файл, содержащий только нужный текст. Многим приходится по нескольку раз в день скачивать файлы с прайс-листами, ожидая увидеть обновления. И часто убеждаться, что загрузка была не нужна - скачался тот же, необновленный файл. Закачка многотомных архивов и других (file.part001.rar, file.part002.rar, ...) "номерных" ресурсов требует терпения и сноровки. Хорошо бы было сказать - "хочу скачать rar-файлы с 1-го по 50-ый..." - и пошел процесс. Иногда нужно выкачивать книги, документацию и прочие материалы, организованные как группа html-страниц: одна, основная, в качестве "оглавления", и остальные - как главы, на которые ведут ссылки с основной страницы. Такую страницу можно скачать с помощью многих программ - например, Reget имеет команду "закачать все при помощи Reget". Однако в результате сохранения файлов в один каталог ссылки с основной страницы часто становятся "инвалидными", и приходится исправлять их, чтобы сделать возможными переходы между сохраненными страницами. Если нужно скачать очень большой файл, скорости одного модема для этого не хватит. Но у Вас есть много друзей с выходом в Интернет, и можно было бы распределить закачку между ними. Во многих домах и общежитиях сейчас есть локальные сети (с выходом в интернет или без него), и их члены копируют из "общих" папок соседних компьютеров большие файлы (MP3, DivX/Mpeg4, и т.д.), однако из-за загруженности сети это часто не удается сделать за то время, что компьютер доступен в сети. Владелец выключает его, копирование обрывается. Завтра надо начинать заново. К тому же хозяину ресурса редко нравится, если файлы с его компьютера качают на максимальной скорости, затормаживая его работу. Поэтому была бы полезной возможность задать ограничение скорости копирования. Get URL List Downloader (GUL) позволяет "немного" облегчить решение перечисленных задач и будет полезна как тем, кто выходит в интернет по модему, так и владельцам выделенных каналов. Возможности программы GUL 3.0 Закачка ресурсов с элементами даты в адресе. Такие ресурсы могут запрашиваться как за текущую дату, так и за нужное число дней назад/вперед (получение "вчерашних" новостей) Закачка "серийных" ресурсов (с последовательно нарастающим номером). "Номер" в них может быть представлен не только десятичными цифрами, но 16-ичными, а также просто буквой лат.алфавита (например, file-A.zip, file-B.zip, ... file-Z.zip) Загрузка только в случае обновления файлов на сайте (с изменившимся размером и/или датой создания) Поддержка "http://", "ftp://" и "file://" типов ссылок (file:// - для загрузки файлов из локальной NETBIOS - сети) Докачка ресурсов, включая файлы в локальной сети Планировщик: старт заданий по расписанию с настройкой времени старта и остановки; Настраиваемый режим загрузки HTML-страниц: только сама страница, либо со встроенными объектами (фреймы, файлы CSS-стилей, графика, модули JavaScript, апплеты Java, ролики Macromedia Flash, аудио- и видео-файлы - загрузка включается индивидуально для каждого типа файлов) DOC-режим : основная страница считается "оглавлением", и вместе с ней закачиваются документы, на которые с нее есть ссылки (файлы - "главы"). При этом перекрестные ссылки между страницами по возможности преобразуются, для сохранения "ссылочной целостности". Распределенная загрузка больших файлов (имея несколько друзей с модемами и выходом в интернет, распределяем загрузку между ними) Запуск внешней программы после закачки каждого ресурса публикация полученных файлов по FTP-протоколу Поддержка неограниченного числа списков закачек, легкий перенос закачек между списками Мульти-язычный интерфейс, с возможностью самостоятельного добавления новых языков Многопоточная загрузка механизмы пост-обработки закачанных HTML и TXT-файлов - поиск строк с заменой или вырезанием (удаление банеров, смена дизайна, выделение только нужной информации) - поиск-замена, BanneRipper (вырезание стандартных рекламных блоков), SiteRipper (вырезание ненужных HTML-блоков, присутствующих на всех страницах данного сайта) Так как механизм поиска и замены строк может быть вручную применен к любой папке, программой можно пользоваться просто для групповой замены (или удаления) однотипных конструкций в собственных наборах файлов - например, если нужно сменить дизайн во всех своих HTML-страничках. |
![]() |
# 173 | |
Junior Member
Регистрация: 06.01.2004
Адрес: Москва
Сообщения: 165
![]() ![]() ![]() |
Цитата:
в режиме бесплатной регистрации остаются некоторые ограничения в функциональности программы : 1. Число одновременно выполняемых закачек: 2 2. Ограничение скорости загрузки "внешних" ресурсов: 5,5 КБайт/сек 3. Ограничение скорости загрузки "локальных" ресурсов: 64 КБайт/сек |
|
![]() |
![]() |
# 174 |
Junior Member
Регистрация: 05.07.2005
Адрес: Санкт-Петербург
Сообщения: 75
![]() ![]() |
Я пользовался немногими, но первое, что мне попадалось в своё время - это WebSnake. От него я был далеко не в восторге. Потом узнал про WebCopier, он оказался существенно лучше, хотя тоже не без нареканий.
|
![]() |
![]() |
# 176 |
Junior Member
Регистрация: 29.03.2005
Сообщения: 76
![]() |
Offline Explorer. По функциональности самый полный.
Годен для Продвинутых и не очень! ![]() Визард легкий и удобный. Настраивается всё! Что немешало очено легко перейти на него с Telepor-а. Telepor - Удобно, красиво, Легко. Но так как в функциональности проигрывает - Убрал. WebCopier - Хорош но были проблемы при скачке. Глюковатость и не продуманный интерфейс. Убрал. Удачи. |
![]() |
![]() |
# 179 | ||
Member
Регистрация: 11.08.2002
Сообщения: 269
![]() ![]() |
Цитата:
Цитата:
|
||
![]() |
![]() |
# 180 |
Junior Member
Регистрация: 03.06.2004
Адрес: CZ, Praha
Пол: Male
Сообщения: 119
![]() ![]() ![]() |
Поскольку в основном мне нужно качнуть какую то документацию(типа FreeBSD Handbook или подобное с последующей конвертацией в chm) и там ненужно ничего фильтровать и особых возможностей, то я использую Spiderzilla (Firefox plugin) - для задач которые я пред ним ставлю он подходит
![]()
__________________
Слова -это просто колыхание воздуха! Все нужно доказивать делом! |
![]() |