Master-X
Регистрация
|
Вход
Форум
|
Новости
|
Статьи
Главная
»
Форум
»
Программинг, Скрипты, Софт, Сервисы
»
Тема:
Скачать огромный архив
Новая тема
Ответить
цитата
14/04/10 в 12:55
Rams
мне надо скачать tar размером болле 100гг. как это сделать? все качалки показывают что файл 2гг
цитата
14/04/10 в 13:04
nordic
Качал разок подобное через CuteFTP. Если честно не смотрел что он там по размеру показывал, но все скачалось как надо.
Ну и линуховые
wget
curl
могут помочь
http://ru.wikipedia.org/wiki/Wget
цитата
14/04/10 в 15:56
Alex AWM
+1 за wget
цитата
14/04/10 в 16:07
kebzu
cute или ftpvoyager
цитата
15/04/10 в 17:19
Noobus Boobus
Убедись, главное, что файловая система поддерживает файлы нужного размера.
цитата
15/04/10 в 19:07
Soft-Com
скорее всего у тебя не качалка показывает 2 гига, а сервер(веб или фтп, через что ты тянешь) - потому что не собран с поддержкой больших файлов, и по этому он не отдаст корректно этот файл.
цитата
15/04/10 в 23:13
msth
apache обычно лимитит все файлы до 2Гб, если пытаешься утянуть файл больше - он дает 403.
качай через фтп..
цитата
15/04/10 в 23:18
Vyacheslav
Интересно, что можно хранить в таких архивах!?
цитата
16/04/10 в 00:23
nordic
бэкап сервера например... и это еще совсем не много ;)
кстати, если сервак линуксовый, можно глянуть еще rsync - очень мощная утилитка
цитата
26/04/10 в 23:14
NetSpider
можно попробовать WinSCP (по протоколу SCP). но может быть немного медленнее, чем просто по ФТП.
цитата
26/04/10 в 23:40
alex.raven
msth писал:
apache обычно лимитит все файлы до 2Гб, если пытаешься утянуть файл больше - он дает 403.
качай через фтп..
curl
ftp://example.com/archive.tar
--user myuser:mypass -o /path/to/file/archive.tar
качал архив 20 гб, нормально прошло.
цитата
28/04/10 в 06:54
msth
alex.raven писал:
curl
ftp://example.com/archive.tar
--user myuser:mypass -o /path/to/file/archive.tar
качал архив 20 гб, нормально прошло.
собственно речь была о http, а не о ftp..
цитата
28/04/10 в 08:57
NetSpider
msth писал:
собственно речь была о http, а не о ftp..
в этом случае все зависит от того, поддерживает ли веб-сервер файлы большого размера и отдает ли он их правильно.
проверить можно по заголовкам:
wget --spider -S
http://site.com/file.tgz
или
curl -I
http://site.com/file.tgz
или с помощью сайта:
http://web-sniffer.net/
предварительно установив метод
HEAD
в полученном заголовке должен быть правильный Content-Length
Новая тема
Ответить
Эта страница в полной версии