imho.ws
IMHO.WS  

Вернуться   IMHO.WS > Программы и Операционные системы > Обсуждение программ > Голосуем за лучшие программы
Результаты опроса: Какая, на Ваш взгляд, лучшая сайтокачалка?
Disco Pump 30 6.19%
GetRight 33 6.80%
Teleport Pro 228 47.01%
Wget 20 4.12%
Web Copier 55 11.34%
Website Extractor 5 1.03%
WebZip 24 4.95%
Offline Explorer 90 18.56%
Голосовавшие: 485. Вы еще не голосовали в этом опросе

Опции темы
Старый 16.02.2005, 00:24     # 161
Builder
Junior Member
 
Аватар для Builder
 
Регистрация: 13.02.2005
Адрес: в одном месте
Сообщения: 170

Builder МолодецBuilder МолодецBuilder Молодец
Чем это Teleport Pro лучше Offline Explorer? У меня две стоят. Но Offline Explorer быстрее качает. Я считаю, что Offline Explorer лучшая.
Builder вне форума  
Старый 28.02.2005, 09:44     # 162
UriF
Member
 
Регистрация: 20.05.2004
Сообщения: 385

UriF Луч света в тёмном царствеUriF Луч света в тёмном царствеUriF Луч света в тёмном царствеUriF Луч света в тёмном царствеUriF Луч света в тёмном царстве
freeware - WinHTTrack Website Copier
http://www.httrack.com
поддерживает много языков, в т.ч. русский
UriF вне форума  
Старый 06.05.2005, 09:42     # 163
Alexej
Guest
 
Сообщения: n/a

ну незнаю сможет ли мне кто помочь...

короче задача в том чтобы скачать все файлы формата *.eps с этого сайта www.brandsoftheworld.com

конечно teleport ultra скажете вы, но там гораздо больше чем 250000 адресов... offline - сжирает навиг всю оперативку (1гиг вроде немало, а лопает) web copier зависает уже на 35 000 адресов ...

короче говоря, подскажите где можно достать teleport exec/vlx или каким оразом в телепорте можно разбить проект на части...

или может есть другой способ скачать сайт который обьемом около 20 гигов и 500 000 адресов ???
 
Старый 06.05.2005, 17:20     # 164
crawler
Full Member
 
Регистрация: 11.12.2002
Сообщения: 864

crawler Имеются все основания чтобы гордиться собойcrawler Имеются все основания чтобы гордиться собойcrawler Имеются все основания чтобы гордиться собойcrawler Имеются все основания чтобы гордиться собойcrawler Имеются все основания чтобы гордиться собойcrawler Имеются все основания чтобы гордиться собойcrawler Имеются все основания чтобы гордиться собойcrawler Имеются все основания чтобы гордиться собойcrawler Имеются все основания чтобы гордиться собойcrawler Имеются все основания чтобы гордиться собой
Alexej Попробуй wget . по идее должна сработать.
crawler вне форума  
Старый 06.05.2005, 19:31     # 165
Alexej
Guest
 
Сообщения: n/a

а точно не обломается ? ") а то попробовать это пару дней как минимум надо
 
Старый 07.05.2005, 11:46     # 166
crawler
Full Member
 
Регистрация: 11.12.2002
Сообщения: 864

crawler Имеются все основания чтобы гордиться собойcrawler Имеются все основания чтобы гордиться собойcrawler Имеются все основания чтобы гордиться собойcrawler Имеются все основания чтобы гордиться собойcrawler Имеются все основания чтобы гордиться собойcrawler Имеются все основания чтобы гордиться собойcrawler Имеются все основания чтобы гордиться собойcrawler Имеются все основания чтобы гордиться собойcrawler Имеются все основания чтобы гордиться собойcrawler Имеются все основания чтобы гордиться собой
Alexej На сколько я знаю - не должен. В любом случае , особого выбора у тебя нет Хотя 500 К адресов - это не так уж и много, непонятно почему другие обламываются. Посмотри внимательно настройки, если есть что-то вроде "построить карту сайта перед скачиванием" - убери. Также следи чтобы со сторонних серверов не качало.
crawler вне форума  
Старый 08.05.2005, 01:02     # 167
STNG
Guest
 
Сообщения: n/a

Offline Explorer - самая функциональная качалка. Посмотрите ради интереса сравнительную таблицу на сайте metaproducts. К тому же OE непрерывно совершенствуется, почти ежедневно. Новые версии с новыми возможностями выходят регулярно. А вообще, у других у качалок нет абсолютно никаких преимуществ перед OE, а вот наоборот сколько угодно.
Не знаю почему Teleport побеждает в опросе, ведь он OE даже в подметки не годиться. Убедитесь в этом сами.
 
Старый 30.05.2005, 23:59     # 168
$erge
Newbie
 
Регистрация: 26.05.2005
Сообщения: 34

$erge Косячил раньше, старается исправиться
1. Какой программой возможно, после полной закачки сайта и сохранения его на харде, после переустановки виндов или самой качалки, подключив этот архив (проект), докачивать и обновлять файлы, страницы с сайта?
2. Какой программой, перед закачкой сайта, можно определить его размер?
$erge вне форума  
Старый 31.05.2005, 14:35     # 169
Marat
Newbie
 
Регистрация: 23.11.2001
Адрес: Kazan
Сообщения: 28

Marat Путь к славе только начался
Цитата:
Сообщение от $erge
1. Какой программой возможно, после полной закачки сайта и сохранения его на харде, после переустановки виндов или самой качалки, подключив этот архив (проект), докачивать и обновлять файлы, страницы с сайта?
Думаю, на это способны многие порграммы, поддерживающие "докачку" сайта (точнее - просто игнорирование файлов, не обновленных с момента предыдущей закачки). Главное - они должны все настройки проекта держать в самом проекте или отдельном файле (кот. тоже нужно сохранить)

Цитата:
Сообщение от $erge
2. Какой программой, перед закачкой сайта, можно определить его размер?
В случае с ftp можно, например, в фаре нажать F3, выделив интересующие папки. В случае с http - гораздо сложнее: тебе по-любому придется скачивать все html-файлы, т.к. только в них ты найдешь ссылки на другие файлы (у протокола http, насколько мне известно, нет команды получения оглавления каталога). Не знаю, какая программа будет скачивать только заголовки файлов и сохранять их - по-моему, даже wget с этим не справится...
Marat вне форума  
Старый 07.06.2005, 20:34     # 170
nata83
Member
 
Аватар для nata83
 
Регистрация: 25.10.2004
Адрес: Там где то.
Сообщения: 248

nata83 Сэнсэйnata83 Сэнсэйnata83 Сэнсэйnata83 Сэнсэйnata83 Сэнсэйnata83 Сэнсэйnata83 Сэнсэйnata83 Сэнсэйnata83 Сэнсэйnata83 Сэнсэйnata83 Сэнсэйnata83 Сэнсэйnata83 Сэнсэйnata83 Сэнсэй
Offline Explorer у меня качает значительно быстрее того же телепорта, пробовала ещё несколько, но наблюдения показали, что они уступают по скорости. к тому же в Offline очень гибкие настройки и удобные, что позврляет качать даже с самых "непробиваемых" для качалок сайтов.
Offline Explorer форевер!!!
__________________
- Как Господь смог создать мир всего за три дня?
- Ему не надо было поддерживать совместимость…
nata83 вне форума  
Старый 13.07.2005, 17:07     # 171
ICQ
Guest
 
Сообщения: n/a

Alexej

короче говоря, подскажите где можно достать teleport exec/vlx или каким оразом в телепорте можно разбить проект на части...

или может есть другой способ скачать сайт который обьемом около 20 гигов и 500 000 адресов ???[/QUOTE]

Alexej для тебя наверное подойдет, мне не хватает для полного счастья контекстного поиска. Ни одного приемлемого вариоанта никто не слабал.

Вот описание называется GET URL List v.3 прога наша ничего круче не найти поверь мне, я столько времени убил, хваленый Teleport Ultra просто детский сад

Не у всех есть выделенная линия к Интернет. И не все имеют тарифный план Unlimited, позволяющий часами сидеть в Инете и не спеша почитывать новости. Тем не менее практически все пользователи Сети регулярно посещают новостные сайты или страницы новостей в различных порталах.

Обычно, чтобы добраться до всех страниц с новостями, надо:

войти на главную страничку сайта
найти ссылку на последние новости
прочитать (скопировать для последующего чтения в офф-лайне, для чего выбрать локальный каталог на диске, выбрать имя для файла, в MS Explorer еще надо задать формат-сохранять ли весь файл (с изображениями), или только html..., бла-бла-бла)
повторить пункты 1-3 для всех остальных сайтов, которые нас интересуют.
А если нужно получить новости за вчерашний, позавчерашний день, придется найти ссылки в архиве новостей, и т.п...
В полученных html-страницах часто "мусора" больше, чем нужной информации: ссылки по сайту, баннеры, счетчики, формы поиска и т.д. - и хочется все это обрезать, чтобы получить "чистый" файл, содержащий только нужный текст.
Многим приходится по нескольку раз в день скачивать файлы с прайс-листами, ожидая увидеть обновления. И часто убеждаться, что загрузка была не нужна - скачался тот же, необновленный файл.

Закачка многотомных архивов и других (file.part001.rar, file.part002.rar, ...) "номерных" ресурсов требует терпения и сноровки. Хорошо бы было сказать - "хочу скачать rar-файлы с 1-го по 50-ый..." - и пошел процесс.

Иногда нужно выкачивать книги, документацию и прочие материалы, организованные как группа html-страниц: одна, основная, в качестве "оглавления", и остальные - как главы, на которые ведут ссылки с основной страницы. Такую страницу можно скачать с помощью многих программ - например, Reget имеет команду "закачать все при помощи Reget". Однако в результате сохранения файлов в один каталог ссылки с основной страницы часто становятся "инвалидными", и приходится исправлять их, чтобы сделать возможными переходы между сохраненными страницами.

Если нужно скачать очень большой файл, скорости одного модема для этого не хватит. Но у Вас есть много друзей с выходом в Интернет, и можно было бы распределить закачку между ними.

Во многих домах и общежитиях сейчас есть локальные сети (с выходом в интернет или без него), и их члены копируют из "общих" папок соседних компьютеров большие файлы (MP3, DivX/Mpeg4, и т.д.), однако из-за загруженности сети это часто не удается сделать за то время, что компьютер доступен в сети. Владелец выключает его, копирование обрывается. Завтра надо начинать заново. К тому же хозяину ресурса редко нравится, если файлы с его компьютера качают на максимальной скорости, затормаживая его работу. Поэтому была бы полезной возможность задать ограничение скорости копирования.

Get URL List Downloader (GUL) позволяет "немного" облегчить решение перечисленных задач и будет полезна как тем, кто выходит в интернет по модему, так и владельцам выделенных каналов.



Возможности программы GUL 3.0
Закачка ресурсов с элементами даты в адресе. Такие ресурсы могут запрашиваться как за текущую дату, так и за нужное число дней назад/вперед (получение "вчерашних" новостей)
Закачка "серийных" ресурсов (с последовательно нарастающим номером). "Номер" в них может быть представлен не только десятичными цифрами, но 16-ичными, а также просто буквой лат.алфавита (например, file-A.zip, file-B.zip, ... file-Z.zip)
Загрузка только в случае обновления файлов на сайте (с изменившимся размером и/или датой создания)
Поддержка "http://", "ftp://" и "file://" типов ссылок (file:// - для загрузки файлов из локальной NETBIOS - сети)
Докачка ресурсов, включая файлы в локальной сети
Планировщик: старт заданий по расписанию с настройкой времени старта и остановки;
Настраиваемый режим загрузки HTML-страниц: только сама страница, либо со встроенными объектами (фреймы, файлы CSS-стилей, графика, модули JavaScript, апплеты Java, ролики Macromedia Flash, аудио- и видео-файлы - загрузка включается индивидуально для каждого типа файлов)
DOC-режим : основная страница считается "оглавлением", и вместе с ней закачиваются документы, на которые с нее есть ссылки (файлы - "главы"). При этом перекрестные ссылки между страницами по возможности преобразуются, для сохранения "ссылочной целостности".
Распределенная загрузка больших файлов (имея несколько друзей с модемами и выходом в интернет, распределяем загрузку между ними)
Запуск внешней программы после закачки каждого ресурса
публикация полученных файлов по FTP-протоколу
Поддержка неограниченного числа списков закачек, легкий перенос закачек между списками
Мульти-язычный интерфейс, с возможностью самостоятельного добавления новых языков
Многопоточная загрузка
механизмы пост-обработки закачанных HTML и TXT-файлов - поиск строк с заменой или вырезанием (удаление банеров, смена дизайна, выделение только нужной информации) - поиск-замена, BanneRipper (вырезание стандартных рекламных блоков), SiteRipper (вырезание ненужных HTML-блоков, присутствующих на всех страницах данного сайта)
Так как механизм поиска и замены строк может быть вручную применен к любой папке, программой можно пользоваться просто для групповой замены (или удаления) однотипных конструкций в собственных наборах файлов - например, если нужно сменить дизайн во всех своих HTML-страничках.
 
Старый 02.08.2005, 21:31     # 172
R'c's Red Mage
Guest
 
Сообщения: n/a

WebZip - если настроить как надо, то и качает что надо. И фэйс ничего.
 
Старый 03.08.2005, 13:07     # 173
Partyzan
Junior Member
 
Регистрация: 06.01.2004
Адрес: Москва
Сообщения: 165

Partyzan МолодецPartyzan МолодецPartyzan Молодец
Цитата:
Вот описание называется GET URL List v.3 прога наша ничего круче не найти поверь мне, я столько времени убил, хваленый Teleport Ultra просто детский сад
...
Get URL List Downloader (GUL) позволяет "немного" облегчить решение перечисленных задач
Интересно ты описал, надо глянуть. Вот его офсайт, для exUSSR бесплатная регистрация, но...

в режиме бесплатной регистрации остаются некоторые ограничения в функциональности программы :
1. Число одновременно выполняемых закачек: 2
2. Ограничение скорости загрузки "внешних" ресурсов: 5,5 КБайт/сек
3. Ограничение скорости загрузки "локальных" ресурсов: 64 КБайт/сек
Partyzan вне форума  
Старый 16.08.2005, 19:36     # 174
Ilya81
Junior Member
 
Регистрация: 05.07.2005
Адрес: Санкт-Петербург
Сообщения: 75

Ilya81 МолодецIlya81 Молодец
Я пользовался немногими, но первое, что мне попадалось в своё время - это WebSnake. От него я был далеко не в восторге. Потом узнал про WebCopier, он оказался существенно лучше, хотя тоже не без нареканий.
Ilya81 вне форума  
Старый 17.08.2005, 18:25     # 175
JSD
Guest
 
Сообщения: n/a

Teleport - пользуюсь давно
 
Старый 05.09.2005, 03:25     # 176
MaD_MaX
Junior Member
 
Аватар для MaD_MaX
 
Регистрация: 29.03.2005
Сообщения: 76

MaD_MaX Путь к славе только начался
Offline Explorer. По функциональности самый полный.
Годен для Продвинутых и не очень!
Визард легкий и удобный. Настраивается всё! Что немешало очено легко перейти на него с Telepor-а.

Telepor - Удобно, красиво, Легко. Но так как в функциональности проигрывает - Убрал.

WebCopier - Хорош но были проблемы при скачке. Глюковатость и не продуманный интерфейс. Убрал.

Удачи.
MaD_MaX вне форума  
Старый 03.11.2005, 04:05     # 177
jeka777
Guest
 
Сообщения: n/a

GetRight и уже много лет (привычка).
 
Старый 03.04.2006, 16:01     # 178
mulgikapsad
Guest
 
Сообщения: n/a

FlashXP ,качаю много с ФТП ,качалка достаточно наворочена и с логическим интерфейсом,особых глюков не отмечалось
 
Старый 03.04.2006, 17:25     # 179
PAUL2
Member
 
Регистрация: 11.08.2002
Сообщения: 269

PAUL2 Известность не заставит себя ждатьPAUL2 Известность не заставит себя ждать
Цитата:
Сообщение от mulgikapsad
FlashXP ,качаю много с ФТП ,качалка достаточно наворочена и с логическим интерфейсом,особых глюков не отмечалось
Это файлокачалка, а тема поста какая? Может тут и Флешгет тоже будем обсуждать?

Цитата:
Сообщение от Marat
Я давно пользуюсь Website Extractor 6.03. Это старая версия, в ней очень много недостатков... Хотелось бы скачать че-то получше, но что?..
В принципе этот мир достаточно тесен-выбор междуOffline Explorer Enterprise4 с вечным подбором кряков к новым версиям и Teleport Pro или Ultra без этого гемороя. В принципе можно остановиться на какой-нибудь нормально сломаной версии первого офлайнброузера и новых версий в упор не замечать. С телепортом проблем нет вообще никаких.,это ветеран нашего движения.
PAUL2 вне форума  
Старый 22.03.2007, 17:55     # 180
rserg
Junior Member
 
Аватар для rserg
 
Регистрация: 03.06.2004
Адрес: CZ, Praha
Пол: Male
Сообщения: 119

rserg Молодецrserg Молодецrserg Молодец
Поскольку в основном мне нужно качнуть какую то документацию(типа FreeBSD Handbook или подобное с последующей конвертацией в chm) и там ненужно ничего фильтровать и особых возможностей, то я использую Spiderzilla (Firefox plugin) - для задач которые я пред ним ставлю он подходит
__________________
Слова -это просто колыхание воздуха! Все нужно доказивать делом!
rserg вне форума  


Ваши права в разделе
Вы НЕ можете создавать новые темы
Вы не можете отвечать в темах.
Вы НЕ можете прикреплять вложения
Вы НЕ можете редактировать свои сообщения

BB код Вкл.
Смайлы Вкл.
[IMG] код Вкл.
HTML код Выкл.

Быстрый переход


Часовой пояс GMT +4, время: 20:12.




Powered by vBulletin® Version 3.8.5
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.