![]() |
Чем это Teleport Pro лучше Offline Explorer? У меня две стоят. Но Offline Explorer быстрее качает. :) Я считаю, что Offline Explorer лучшая.
|
freeware - WinHTTrack Website Copier
http://www.httrack.com поддерживает много языков, в т.ч. русский |
ну незнаю сможет ли мне кто помочь...
короче задача в том чтобы скачать все файлы формата *.eps с этого сайта www.brandsoftheworld.com конечно teleport ultra скажете вы, но там гораздо больше чем 250000 адресов... offline - сжирает навиг всю оперативку (1гиг вроде немало, а лопает) web copier зависает уже на 35 000 адресов ... короче говоря, подскажите где можно достать teleport exec/vlx или каким оразом в телепорте можно разбить проект на части... или может есть другой способ скачать сайт который обьемом около 20 гигов и 500 000 адресов ??? |
Alexej Попробуй wget . по идее должна сработать.
|
а точно не обломается ? ") а то попробовать это пару дней как минимум надо
|
Alexej На сколько я знаю - не должен. В любом случае , особого выбора у тебя нет :) Хотя 500 К адресов - это не так уж и много, непонятно почему другие обламываются. Посмотри внимательно настройки, если есть что-то вроде "построить карту сайта перед скачиванием" - убери. Также следи чтобы со сторонних серверов не качало.
|
Offline Explorer - самая функциональная качалка. Посмотрите ради интереса сравнительную таблицу на сайте metaproducts. К тому же OE непрерывно совершенствуется, почти ежедневно. Новые версии с новыми возможностями выходят регулярно. А вообще, у других у качалок нет абсолютно никаких преимуществ перед OE, а вот наоборот сколько угодно.
Не знаю почему Teleport побеждает в опросе, ведь он OE даже в подметки не годиться. Убедитесь в этом сами. |
1. Какой программой возможно, после полной закачки сайта и сохранения его на харде, после переустановки виндов или самой качалки, подключив этот архив (проект), докачивать и обновлять файлы, страницы с сайта?
2. Какой программой, перед закачкой сайта, можно определить его размер? |
Цитата:
Цитата:
|
Offline Explorer у меня качает значительно быстрее того же телепорта, пробовала ещё несколько, но наблюдения показали, что они уступают по скорости. к тому же в Offline очень гибкие настройки и удобные, что позврляет качать даже с самых "непробиваемых" для качалок сайтов.
Offline Explorer форевер!!! :yees: |
Alexej
короче говоря, подскажите где можно достать teleport exec/vlx или каким оразом в телепорте можно разбить проект на части...
или может есть другой способ скачать сайт который обьемом около 20 гигов и 500 000 адресов ???[/QUOTE] Alexej для тебя наверное подойдет, мне не хватает для полного счастья контекстного поиска. Ни одного приемлемого вариоанта никто не слабал. Вот описание называется GET URL List v.3 прога наша ничего круче не найти поверь мне, я столько времени убил, хваленый Teleport Ultra просто детский сад Не у всех есть выделенная линия к Интернет. И не все имеют тарифный план Unlimited, позволяющий часами сидеть в Инете и не спеша почитывать новости. Тем не менее практически все пользователи Сети регулярно посещают новостные сайты или страницы новостей в различных порталах. Обычно, чтобы добраться до всех страниц с новостями, надо: войти на главную страничку сайта найти ссылку на последние новости прочитать (скопировать для последующего чтения в офф-лайне, для чего выбрать локальный каталог на диске, выбрать имя для файла, в MS Explorer еще надо задать формат-сохранять ли весь файл (с изображениями), или только html..., бла-бла-бла) повторить пункты 1-3 для всех остальных сайтов, которые нас интересуют. А если нужно получить новости за вчерашний, позавчерашний день, придется найти ссылки в архиве новостей, и т.п... В полученных html-страницах часто "мусора" больше, чем нужной информации: ссылки по сайту, баннеры, счетчики, формы поиска и т.д. - и хочется все это обрезать, чтобы получить "чистый" файл, содержащий только нужный текст. Многим приходится по нескольку раз в день скачивать файлы с прайс-листами, ожидая увидеть обновления. И часто убеждаться, что загрузка была не нужна - скачался тот же, необновленный файл. Закачка многотомных архивов и других (file.part001.rar, file.part002.rar, ...) "номерных" ресурсов требует терпения и сноровки. Хорошо бы было сказать - "хочу скачать rar-файлы с 1-го по 50-ый..." - и пошел процесс. Иногда нужно выкачивать книги, документацию и прочие материалы, организованные как группа html-страниц: одна, основная, в качестве "оглавления", и остальные - как главы, на которые ведут ссылки с основной страницы. Такую страницу можно скачать с помощью многих программ - например, Reget имеет команду "закачать все при помощи Reget". Однако в результате сохранения файлов в один каталог ссылки с основной страницы часто становятся "инвалидными", и приходится исправлять их, чтобы сделать возможными переходы между сохраненными страницами. Если нужно скачать очень большой файл, скорости одного модема для этого не хватит. Но у Вас есть много друзей с выходом в Интернет, и можно было бы распределить закачку между ними. Во многих домах и общежитиях сейчас есть локальные сети (с выходом в интернет или без него), и их члены копируют из "общих" папок соседних компьютеров большие файлы (MP3, DivX/Mpeg4, и т.д.), однако из-за загруженности сети это часто не удается сделать за то время, что компьютер доступен в сети. Владелец выключает его, копирование обрывается. Завтра надо начинать заново. К тому же хозяину ресурса редко нравится, если файлы с его компьютера качают на максимальной скорости, затормаживая его работу. Поэтому была бы полезной возможность задать ограничение скорости копирования. Get URL List Downloader (GUL) позволяет "немного" облегчить решение перечисленных задач и будет полезна как тем, кто выходит в интернет по модему, так и владельцам выделенных каналов. Возможности программы GUL 3.0 Закачка ресурсов с элементами даты в адресе. Такие ресурсы могут запрашиваться как за текущую дату, так и за нужное число дней назад/вперед (получение "вчерашних" новостей) Закачка "серийных" ресурсов (с последовательно нарастающим номером). "Номер" в них может быть представлен не только десятичными цифрами, но 16-ичными, а также просто буквой лат.алфавита (например, file-A.zip, file-B.zip, ... file-Z.zip) Загрузка только в случае обновления файлов на сайте (с изменившимся размером и/или датой создания) Поддержка "http://", "ftp://" и "file://" типов ссылок (file:// - для загрузки файлов из локальной NETBIOS - сети) Докачка ресурсов, включая файлы в локальной сети Планировщик: старт заданий по расписанию с настройкой времени старта и остановки; Настраиваемый режим загрузки HTML-страниц: только сама страница, либо со встроенными объектами (фреймы, файлы CSS-стилей, графика, модули JavaScript, апплеты Java, ролики Macromedia Flash, аудио- и видео-файлы - загрузка включается индивидуально для каждого типа файлов) DOC-режим : основная страница считается "оглавлением", и вместе с ней закачиваются документы, на которые с нее есть ссылки (файлы - "главы"). При этом перекрестные ссылки между страницами по возможности преобразуются, для сохранения "ссылочной целостности". Распределенная загрузка больших файлов (имея несколько друзей с модемами и выходом в интернет, распределяем загрузку между ними) Запуск внешней программы после закачки каждого ресурса публикация полученных файлов по FTP-протоколу Поддержка неограниченного числа списков закачек, легкий перенос закачек между списками Мульти-язычный интерфейс, с возможностью самостоятельного добавления новых языков Многопоточная загрузка механизмы пост-обработки закачанных HTML и TXT-файлов - поиск строк с заменой или вырезанием (удаление банеров, смена дизайна, выделение только нужной информации) - поиск-замена, BanneRipper (вырезание стандартных рекламных блоков), SiteRipper (вырезание ненужных HTML-блоков, присутствующих на всех страницах данного сайта) Так как механизм поиска и замены строк может быть вручную применен к любой папке, программой можно пользоваться просто для групповой замены (или удаления) однотипных конструкций в собственных наборах файлов - например, если нужно сменить дизайн во всех своих HTML-страничках. |
WebZip - если настроить как надо, то и качает что надо. И фэйс ничего.
|
Цитата:
в режиме бесплатной регистрации остаются некоторые ограничения в функциональности программы : 1. Число одновременно выполняемых закачек: 2 2. Ограничение скорости загрузки "внешних" ресурсов: 5,5 КБайт/сек 3. Ограничение скорости загрузки "локальных" ресурсов: 64 КБайт/сек |
Я пользовался немногими, но первое, что мне попадалось в своё время - это WebSnake. От него я был далеко не в восторге. Потом узнал про WebCopier, он оказался существенно лучше, хотя тоже не без нареканий.
|
Teleport - пользуюсь давно :)
|
Offline Explorer. По функциональности самый полный.
Годен для Продвинутых и не очень! :) Визард легкий и удобный. Настраивается всё! Что немешало очено легко перейти на него с Telepor-а. Telepor - Удобно, красиво, Легко. Но так как в функциональности проигрывает - Убрал. WebCopier - Хорош но были проблемы при скачке. Глюковатость и не продуманный интерфейс. Убрал. Удачи. |
GetRight и уже много лет (привычка).
|
FlashXP ,качаю много с ФТП ,качалка достаточно наворочена и с логическим интерфейсом,особых глюков не отмечалось
|
Цитата:
Цитата:
|
Поскольку в основном мне нужно качнуть какую то документацию(типа FreeBSD Handbook или подобное с последующей конвертацией в chm) и там ненужно ничего фильтровать и особых возможностей, то я использую Spiderzilla (Firefox plugin) - для задач которые я пред ним ставлю он подходит :)
|
Однозначно Teleport Pro - лучший
|
Дискокачалка xD она лучшая в этом !
|
мы тоже пользуемся телепортом
|
Offline Explorer Enterprise надо бы попробовать. Teleport не идет
|
карады, :help:
есть такой замечательный ресурс - http://web.archive.org никакая качалка не берет с него страницы, их формат очень хитрый. кто сталкивался и как/чем победили ? зы. уважаемые модераторы. не пинайте сильно. какая качалка скачает отуда, такая и самая мегасуперная :D |
Давно пользуюсь Offline Explorer - богатый функционал и очень продуманная программа. Всем рекомендую.
|
Часовой пояс GMT +4, время: 00:02. |
Powered by vBulletin® Version 3.8.5
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.