IMHO.WS

IMHO.WS (http://www.imho.ws/index.php)
-   Руководство для новичков (http://www.imho.ws/forumdisplay.php?f=35)
-   -   Как выкачать файлы? (http://www.imho.ws/showthread.php?t=60743)

ExtinctSun 03.06.2004 21:23

Как выкачать файлы?
 
Есть сайт на котором выложены ссылки на файлы (около 2000). нажимаешь на ссылку переходишь на страничку на которой дана ссылка на один конкретный файл ZIP. нажимаешь - скачиваешь (.../files/имя_файла.zip, имена файлов разные) Доступ свободный, но влом тысячи раз кликать. Есть ли проги которым можно задать скачать .../files/*.zip и пойти покурить (пока там эти 3 гига прокачаются...)?
Или может есть проги чтоб натравить на сайт и она все ссылки выдрала?

Blurr 03.06.2004 21:25

а может попробовать скачать эти файлы какой-нибудь сайтокачалкой?

ExtinctSun 03.06.2004 21:35

Teleport и WebZIP сдались... :(

nibl 03.06.2004 22:36

wget?

Interceptor 03.06.2004 22:45

ExtinctSun
Вообще, данная опция есть в качалке ReGet Deluxe в Автоматизация->Создать нумерованный список.

Есть отдельные проги для таких целей, но мне известны лишь те, что могут качать нумерованные картинки, а не zip-файлы :(

Argvlan 03.06.2004 22:51

WebCopier :cool:

vikmor 04.06.2004 00:46

Практически во всех качалках (flashget, downloadmaster) есть опция: закачать ВСЕ.

ExtinctSun 04.06.2004 09:10

Цитата:

Сообщение от vikmor
Практически во всех качалках (flashget, downloadmaster) есть опция: закачать ВСЕ.

А можно поподробней на примере FlashGet-a?

ildar 04.06.2004 10:57

ExtinctSun
При установленном флэшгете жмешь правую кнопку мыши на линке и выбираешь Закачать все при помощи Flashget, появиться окно со всем содержимым странички, жмешь кнопку Фильтр, выбираешь расширение (к примеру zip), выделятся только архивы zip, кликаешь на ОК, выбираешь папку куда сохранять. Ну вот и вся процедура на которую намекал vikmor.

ExtinctSun 04.06.2004 12:28

Цитата:

Сообщение от ildar
ExtinctSun
При установленном флэшгете жмешь правую кнопку мыши на линке и выбираешь Закачать все при помощи Flashget, появиться окно со всем содержимым странички, жмешь кнопку Фильтр, выбираешь расширение (к примеру zip), выделятся только архивы zip, кликаешь на ОК, выбираешь папку куда сохранять. Ну вот и вся процедура на которую намекал vikmor.

Может чего-то не понимаю, но это работает когда ты на страничке с прямыми ссылками. А здесь ссылки на страницы, на каждой из которых стоит прямая ссылка на один файл.
Может есть какие-то проги-роботы, которые выдирают со всего сайта ссылки?

nibl 05.06.2004 20:51

Примерно так:
Код:

wget  url  -r --level=2 --reject html

nibl 06.06.2004 01:45

Или так:
Код:

var URL = 'http://targeturl';
var oIE  = WScript.CreateObject("InternetExplorer.Application");
var oIE1 = WScript.CreateObject("InternetExplorer.Application");
var fso = new ActiveXObject("Scripting.FileSystemObject");
var URLlist = fso.CreateTextFile("urllist.txt", true);

oIE.navigate( URL );
oIE.visible = 1;                // Keep visible
while (oIE.Busy) {WScript.Sleep(200);}        // Important: wait until Internet Explorer is ready.

for( i=0; i<oIE.document.links.length; i++ ){
        oIE1.navigate( oIE.document.links[i] );
        while (oIE1.Busy) {WScript.Sleep(200);}
        for( j=0; j<oIE1.document.links.length; j++ ){
                URLlist.WriteLine( oIE1.document.links[j] );
        };
};
URLlist.Close();
WScript.Echo( 'Done');

На выходе файл urllist.txt, который можно запихнуть в любую качалку.
Вот только работать будет долго.


Часовой пояс GMT +4, время: 23:16.

Powered by vBulletin® Version 3.8.5
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.