Master-X
Форум | Новости | Статьи
Главная » Форум » Программинг, Скрипты, Софт, Сервисы » 
Тема: Скачать огромный архив
цитата
14/04/10 в 12:55
 Rams
мне надо скачать tar размером болле 100гг. как это сделать? все качалки показывают что файл 2гг
цитата
14/04/10 в 13:04
 nordic
Качал разок подобное через CuteFTP. Если честно не смотрел что он там по размеру показывал, но все скачалось как надо.

Ну и линуховые
wget
curl
могут помочь

http://ru.wikipedia.org/wiki/Wget
цитата
14/04/10 в 15:56
 Alex AWM
+1 за wget smail54.gif
цитата
14/04/10 в 16:07
 kebzu
cute или ftpvoyager
цитата
15/04/10 в 17:19
 Noobus Boobus
Убедись, главное, что файловая система поддерживает файлы нужного размера.
цитата
15/04/10 в 19:07
 Soft-Com
скорее всего у тебя не качалка показывает 2 гига, а сервер(веб или фтп, через что ты тянешь) - потому что не собран с поддержкой больших файлов, и по этому он не отдаст корректно этот файл.
цитата
15/04/10 в 23:13
 msth
apache обычно лимитит все файлы до 2Гб, если пытаешься утянуть файл больше - он дает 403.

качай через фтп..
цитата
15/04/10 в 23:18
 Vyacheslav
Интересно, что можно хранить в таких архивах!?
цитата
16/04/10 в 00:23
 nordic
бэкап сервера например... и это еще совсем не много ;)
кстати, если сервак линуксовый, можно глянуть еще rsync - очень мощная утилитка
цитата
26/04/10 в 23:14
 NetSpider
можно попробовать WinSCP (по протоколу SCP). но может быть немного медленнее, чем просто по ФТП.
цитата
26/04/10 в 23:40
 alex.raven
msth писал:
apache обычно лимитит все файлы до 2Гб, если пытаешься утянуть файл больше - он дает 403.
качай через фтп..


curl ftp://example.com/archive.tar --user myuser:mypass -o /path/to/file/archive.tar

качал архив 20 гб, нормально прошло.
цитата
28/04/10 в 06:54
 msth
alex.raven писал:
curl ftp://example.com/archive.tar --user myuser:mypass -o /path/to/file/archive.tar
качал архив 20 гб, нормально прошло.


собственно речь была о http, а не о ftp..
цитата
28/04/10 в 08:57
 NetSpider
msth писал:
собственно речь была о http, а не о ftp..

в этом случае все зависит от того, поддерживает ли веб-сервер файлы большого размера и отдает ли он их правильно.

проверить можно по заголовкам:
wget --spider -S http://site.com/file.tgz

или
curl -I http://site.com/file.tgz

или с помощью сайта:
http://web-sniffer.net/
предварительно установив метод HEAD

в полученном заголовке должен быть правильный Content-Length


Эта страница в полной версии