IMHO.WS

IMHO.WS (http://www.imho.ws/index.php)
-   Голосуем за лучшие программы (http://www.imho.ws/forumdisplay.php?f=160)
-   -   Лучшая сайтокачалка (http://www.imho.ws/showthread.php?t=3220)

Builder 16.02.2005 00:24

Чем это Teleport Pro лучше Offline Explorer? У меня две стоят. Но Offline Explorer быстрее качает. :) Я считаю, что Offline Explorer лучшая.

UriF 28.02.2005 09:44

freeware - WinHTTrack Website Copier
http://www.httrack.com
поддерживает много языков, в т.ч. русский

Alexej 06.05.2005 09:42

ну незнаю сможет ли мне кто помочь...

короче задача в том чтобы скачать все файлы формата *.eps с этого сайта www.brandsoftheworld.com

конечно teleport ultra скажете вы, но там гораздо больше чем 250000 адресов... offline - сжирает навиг всю оперативку (1гиг вроде немало, а лопает) web copier зависает уже на 35 000 адресов ...

короче говоря, подскажите где можно достать teleport exec/vlx или каким оразом в телепорте можно разбить проект на части...

или может есть другой способ скачать сайт который обьемом около 20 гигов и 500 000 адресов ???

crawler 06.05.2005 17:20

Alexej Попробуй wget . по идее должна сработать.

Alexej 06.05.2005 19:31

а точно не обломается ? ") а то попробовать это пару дней как минимум надо

crawler 07.05.2005 11:46

Alexej На сколько я знаю - не должен. В любом случае , особого выбора у тебя нет :) Хотя 500 К адресов - это не так уж и много, непонятно почему другие обламываются. Посмотри внимательно настройки, если есть что-то вроде "построить карту сайта перед скачиванием" - убери. Также следи чтобы со сторонних серверов не качало.

STNG 08.05.2005 01:02

Offline Explorer - самая функциональная качалка. Посмотрите ради интереса сравнительную таблицу на сайте metaproducts. К тому же OE непрерывно совершенствуется, почти ежедневно. Новые версии с новыми возможностями выходят регулярно. А вообще, у других у качалок нет абсолютно никаких преимуществ перед OE, а вот наоборот сколько угодно.
Не знаю почему Teleport побеждает в опросе, ведь он OE даже в подметки не годиться. Убедитесь в этом сами.

$erge 30.05.2005 23:59

1. Какой программой возможно, после полной закачки сайта и сохранения его на харде, после переустановки виндов или самой качалки, подключив этот архив (проект), докачивать и обновлять файлы, страницы с сайта?
2. Какой программой, перед закачкой сайта, можно определить его размер?

Marat 31.05.2005 14:35

Цитата:

Сообщение от $erge
1. Какой программой возможно, после полной закачки сайта и сохранения его на харде, после переустановки виндов или самой качалки, подключив этот архив (проект), докачивать и обновлять файлы, страницы с сайта?

Думаю, на это способны многие порграммы, поддерживающие "докачку" сайта (точнее - просто игнорирование файлов, не обновленных с момента предыдущей закачки). Главное - они должны все настройки проекта держать в самом проекте или отдельном файле (кот. тоже нужно сохранить)

Цитата:

Сообщение от $erge
2. Какой программой, перед закачкой сайта, можно определить его размер?

В случае с ftp можно, например, в фаре нажать F3, выделив интересующие папки. В случае с http - гораздо сложнее: тебе по-любому придется скачивать все html-файлы, т.к. только в них ты найдешь ссылки на другие файлы (у протокола http, насколько мне известно, нет команды получения оглавления каталога). Не знаю, какая программа будет скачивать только заголовки файлов и сохранять их - по-моему, даже wget с этим не справится...

nata83 07.06.2005 20:34

Offline Explorer у меня качает значительно быстрее того же телепорта, пробовала ещё несколько, но наблюдения показали, что они уступают по скорости. к тому же в Offline очень гибкие настройки и удобные, что позврляет качать даже с самых "непробиваемых" для качалок сайтов.
Offline Explorer форевер!!! :yees:

ICQ 13.07.2005 17:07

Alexej
 
короче говоря, подскажите где можно достать teleport exec/vlx или каким оразом в телепорте можно разбить проект на части...

или может есть другой способ скачать сайт который обьемом около 20 гигов и 500 000 адресов ???[/QUOTE]

Alexej для тебя наверное подойдет, мне не хватает для полного счастья контекстного поиска. Ни одного приемлемого вариоанта никто не слабал.

Вот описание называется GET URL List v.3 прога наша ничего круче не найти поверь мне, я столько времени убил, хваленый Teleport Ultra просто детский сад

Не у всех есть выделенная линия к Интернет. И не все имеют тарифный план Unlimited, позволяющий часами сидеть в Инете и не спеша почитывать новости. Тем не менее практически все пользователи Сети регулярно посещают новостные сайты или страницы новостей в различных порталах.

Обычно, чтобы добраться до всех страниц с новостями, надо:

войти на главную страничку сайта
найти ссылку на последние новости
прочитать (скопировать для последующего чтения в офф-лайне, для чего выбрать локальный каталог на диске, выбрать имя для файла, в MS Explorer еще надо задать формат-сохранять ли весь файл (с изображениями), или только html..., бла-бла-бла)
повторить пункты 1-3 для всех остальных сайтов, которые нас интересуют.
А если нужно получить новости за вчерашний, позавчерашний день, придется найти ссылки в архиве новостей, и т.п...
В полученных html-страницах часто "мусора" больше, чем нужной информации: ссылки по сайту, баннеры, счетчики, формы поиска и т.д. - и хочется все это обрезать, чтобы получить "чистый" файл, содержащий только нужный текст.
Многим приходится по нескольку раз в день скачивать файлы с прайс-листами, ожидая увидеть обновления. И часто убеждаться, что загрузка была не нужна - скачался тот же, необновленный файл.

Закачка многотомных архивов и других (file.part001.rar, file.part002.rar, ...) "номерных" ресурсов требует терпения и сноровки. Хорошо бы было сказать - "хочу скачать rar-файлы с 1-го по 50-ый..." - и пошел процесс.

Иногда нужно выкачивать книги, документацию и прочие материалы, организованные как группа html-страниц: одна, основная, в качестве "оглавления", и остальные - как главы, на которые ведут ссылки с основной страницы. Такую страницу можно скачать с помощью многих программ - например, Reget имеет команду "закачать все при помощи Reget". Однако в результате сохранения файлов в один каталог ссылки с основной страницы часто становятся "инвалидными", и приходится исправлять их, чтобы сделать возможными переходы между сохраненными страницами.

Если нужно скачать очень большой файл, скорости одного модема для этого не хватит. Но у Вас есть много друзей с выходом в Интернет, и можно было бы распределить закачку между ними.

Во многих домах и общежитиях сейчас есть локальные сети (с выходом в интернет или без него), и их члены копируют из "общих" папок соседних компьютеров большие файлы (MP3, DivX/Mpeg4, и т.д.), однако из-за загруженности сети это часто не удается сделать за то время, что компьютер доступен в сети. Владелец выключает его, копирование обрывается. Завтра надо начинать заново. К тому же хозяину ресурса редко нравится, если файлы с его компьютера качают на максимальной скорости, затормаживая его работу. Поэтому была бы полезной возможность задать ограничение скорости копирования.

Get URL List Downloader (GUL) позволяет "немного" облегчить решение перечисленных задач и будет полезна как тем, кто выходит в интернет по модему, так и владельцам выделенных каналов.



Возможности программы GUL 3.0
Закачка ресурсов с элементами даты в адресе. Такие ресурсы могут запрашиваться как за текущую дату, так и за нужное число дней назад/вперед (получение "вчерашних" новостей)
Закачка "серийных" ресурсов (с последовательно нарастающим номером). "Номер" в них может быть представлен не только десятичными цифрами, но 16-ичными, а также просто буквой лат.алфавита (например, file-A.zip, file-B.zip, ... file-Z.zip)
Загрузка только в случае обновления файлов на сайте (с изменившимся размером и/или датой создания)
Поддержка "http://", "ftp://" и "file://" типов ссылок (file:// - для загрузки файлов из локальной NETBIOS - сети)
Докачка ресурсов, включая файлы в локальной сети
Планировщик: старт заданий по расписанию с настройкой времени старта и остановки;
Настраиваемый режим загрузки HTML-страниц: только сама страница, либо со встроенными объектами (фреймы, файлы CSS-стилей, графика, модули JavaScript, апплеты Java, ролики Macromedia Flash, аудио- и видео-файлы - загрузка включается индивидуально для каждого типа файлов)
DOC-режим : основная страница считается "оглавлением", и вместе с ней закачиваются документы, на которые с нее есть ссылки (файлы - "главы"). При этом перекрестные ссылки между страницами по возможности преобразуются, для сохранения "ссылочной целостности".
Распределенная загрузка больших файлов (имея несколько друзей с модемами и выходом в интернет, распределяем загрузку между ними)
Запуск внешней программы после закачки каждого ресурса
публикация полученных файлов по FTP-протоколу
Поддержка неограниченного числа списков закачек, легкий перенос закачек между списками
Мульти-язычный интерфейс, с возможностью самостоятельного добавления новых языков
Многопоточная загрузка
механизмы пост-обработки закачанных HTML и TXT-файлов - поиск строк с заменой или вырезанием (удаление банеров, смена дизайна, выделение только нужной информации) - поиск-замена, BanneRipper (вырезание стандартных рекламных блоков), SiteRipper (вырезание ненужных HTML-блоков, присутствующих на всех страницах данного сайта)
Так как механизм поиска и замены строк может быть вручную применен к любой папке, программой можно пользоваться просто для групповой замены (или удаления) однотипных конструкций в собственных наборах файлов - например, если нужно сменить дизайн во всех своих HTML-страничках.

R'c's Red Mage 02.08.2005 21:31

WebZip - если настроить как надо, то и качает что надо. И фэйс ничего.

Partyzan 03.08.2005 13:07

Цитата:

Вот описание называется GET URL List v.3 прога наша ничего круче не найти поверь мне, я столько времени убил, хваленый Teleport Ultra просто детский сад
...
Get URL List Downloader (GUL) позволяет "немного" облегчить решение перечисленных задач
Интересно ты описал, надо глянуть. Вот его офсайт, для exUSSR бесплатная регистрация, но...

в режиме бесплатной регистрации остаются некоторые ограничения в функциональности программы :
1. Число одновременно выполняемых закачек: 2
2. Ограничение скорости загрузки "внешних" ресурсов: 5,5 КБайт/сек
3. Ограничение скорости загрузки "локальных" ресурсов: 64 КБайт/сек

Ilya81 16.08.2005 19:36

Я пользовался немногими, но первое, что мне попадалось в своё время - это WebSnake. От него я был далеко не в восторге. Потом узнал про WebCopier, он оказался существенно лучше, хотя тоже не без нареканий.

JSD 17.08.2005 18:25

Teleport - пользуюсь давно :)

MaD_MaX 05.09.2005 03:25

Offline Explorer. По функциональности самый полный.
Годен для Продвинутых и не очень! :)
Визард легкий и удобный. Настраивается всё! Что немешало очено легко перейти на него с Telepor-а.

Telepor - Удобно, красиво, Легко. Но так как в функциональности проигрывает - Убрал.

WebCopier - Хорош но были проблемы при скачке. Глюковатость и не продуманный интерфейс. Убрал.

Удачи.

jeka777 03.11.2005 04:05

GetRight и уже много лет (привычка).

mulgikapsad 03.04.2006 16:01

FlashXP ,качаю много с ФТП ,качалка достаточно наворочена и с логическим интерфейсом,особых глюков не отмечалось

PAUL2 03.04.2006 17:25

Цитата:

Сообщение от mulgikapsad
FlashXP ,качаю много с ФТП ,качалка достаточно наворочена и с логическим интерфейсом,особых глюков не отмечалось

Это файлокачалка, а тема поста какая? Может тут и Флешгет тоже будем обсуждать?

Цитата:

Сообщение от Marat
Я давно пользуюсь Website Extractor 6.03. Это старая версия, в ней очень много недостатков... Хотелось бы скачать че-то получше, но что?..

В принципе этот мир достаточно тесен-выбор междуOffline Explorer Enterprise4 с вечным подбором кряков к новым версиям и Teleport Pro или Ultra без этого гемороя. В принципе можно остановиться на какой-нибудь нормально сломаной версии первого офлайнброузера и новых версий в упор не замечать. С телепортом проблем нет вообще никаких.,это ветеран нашего движения.

rserg 22.03.2007 17:55

Поскольку в основном мне нужно качнуть какую то документацию(типа FreeBSD Handbook или подобное с последующей конвертацией в chm) и там ненужно ничего фильтровать и особых возможностей, то я использую Spiderzilla (Firefox plugin) - для задач которые я пред ним ставлю он подходит :)

konstantin.l.z 08.04.2007 15:31

Однозначно Teleport Pro - лучший

Jaaph Krupnik 04.05.2007 20:23

Дискокачалка xD она лучшая в этом !

levada19 12.08.2008 07:08

мы тоже пользуемся телепортом

skul 09.10.2008 15:13

Offline Explorer Enterprise надо бы попробовать. Teleport не идет

i1cho 30.01.2009 01:52

карады, :help:
есть такой замечательный ресурс - http://web.archive.org
никакая качалка не берет с него страницы, их формат очень хитрый. кто сталкивался и как/чем победили ?
зы.
уважаемые модераторы. не пинайте сильно. какая качалка скачает отуда, такая и самая мегасуперная :D

FedorKorkunov 20.03.2011 07:13

Давно пользуюсь Offline Explorer - богатый функционал и очень продуманная программа. Всем рекомендую.


Часовой пояс GMT +4, время: 00:02.

Powered by vBulletin® Version 3.8.5
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.