to post messages and comments.

Говно. Нету Download master для Linux. Хочу я скачать pdf`ки журнала "Мир фантастики" за 2015 год. Иду я на сайт, получаю ссылку на список файлов, сохраняю файл со списком и wget -ci ifh8qWYgNS9UwXpbe8SRgc\?folder\=422542 --content-disposition --trust-server-names=on --restrict-file-names=nocontrol и idn_encode failed (3): ‘Non-digit/letter/hyphen in input’
** Error in `wget': double free or corruption (!prev): 0x0000000001211b00 **

Первый раз в жизни добился, чтобы wget научился безопасно в SSL. Оказывается, все сертификаты нужно переименовать при помощи c_rehash, и, оказывается, C:\GnuWin32\etc\wgetrc не считается за глобальный файл настроек, а C:\GnuWin32\bin\wget.ini — вполне себе да.

У меня создалось устойчивое впечатление, что Мировое Хакерское Сообщество сговорилось и пытается сделать всё, чтобы отвлечь впадающий в безумие ксенофобии мир от поклейки танчиков. Что ни неделя, то новая дыра в безопасности. Что ни дыра, то глупее и мощнее. Мой уютный бложик превратился в поток инфобеза... :) vk.com

‰ wget 'http://img1.joyreactor.cc/pics/post/открытки-auto-149811.jpeg'
--2013-02-16 13:15:55-- img1.joyreactor.cc
Распознаётся img1.joyreactor.cc... 50.7.172.170
Подключение к img1.joyreactor.cc|50.7.172.170|:80... соединение установлено.
HTTP-запрос отправлен. Ожидание ответа... 200 OK
Длина: 54535 (53K) [image/jpeg]
Сохранение в каталог: ««о\321%82к\321%80\321%8B\321%82ки-auto-149811.jpeg»».

100%[=====================================================>] 54,535 30.6K/s за 1.7s

2013-02-16 13:15:57 (30.6 KB/s) — «о\321%82к\321%80\321%8B\321%82ки-auto-149811.jpeg» saved [54535/54535]


Когда это говнище починят уже?

Какая-то мистика, не могу с помощью wget вытянуть страницу по https, получаю какую-то загадочную ошибку
OpenSSL: error:140820A7:SSL routines:SSL3_CHECK_CERT_AND_ALGORITHM:missing export tmp rsa key
Не удается установить соединение SSL.

Спустя два года после выпуска предыдущей версии состоялся релиз консольного менеджера загрузок Wget 1.13.

Изменения по сравнению с версией 1.12:
поддержка HTTP/1.1;
улучшена обработка незакрытых HTML-тегов;
имя сохраняемого файла при перенаправлении запроса сервером определяется из оригинального URL, прежнее поведение можно включить при помощи ключа --trust-server-names;
используется непрерывное соединение с proxy-серверами, поддерживающими такую возможность;
ключ --config для указания при запуске конфигурационного файла, отличного от системного;
ключ --adjust-extension не изменяет расширение .htm файлов;
вновь по умолчанию используется GNU TLS бэкэнд;
исправление проблем с портабельностью;
отображение общего времени рекурсивных загрузок;
передача диагностических сообщений в stderr вместо stdout;
прочие мелкие улучшения и исправления.

всё таки я что-то упустил. В текущем коде wget'а если локальная кодировка UTF-8, то поддержка IDN ломается. Причем при самоочевидных фиксах, убирающих лишнюю проверку, ломается либо очередь урлов, либо перестает скачиваться robots.txt, либо ломается поведение с ключами -E -k, так что на эту ошибку в логике завязано ещё несколько ряд кусков программы. Третьетег значит, что я за 40 минут не разкурил полностью поведение вгета, так что правильных патчей не будет.

Все таки Linux сила, только надо уметь им пользоваться. Зачем к примеру нужны громоздкие крутые и навороченные программы для скачивания сайта, если есть бесплатный wget.

В .Xdefaults есть запись:
URxvt.matcher.pattern.4: %regexp%
URxvt.matcher.launcher.4: wget -c $0
Теперь когда кликаю по ссылке соответствующей регекспу, wget скачивает файл в текущую директорию, но делает это в фоне и прогрессбара и ETA не видно. Что нужно сделать, чтобы видеть вывод wget'a в терминале, в котором ткнул на ссылку?

Жуйк, почему wget может не хотеть скачивать рекурсивно один сайтик, сделанный на docuwiki? при всех указанных ключах качает лишь заглавную страничку. Вроде всё верно. На других сайтиках работает. Может есть какой-то нюанс или другая возможность скачать [s]весь интернет[/s] сайт, работающий желательно.

%username%, а какие способы использования wget ты знаешь?
естественно, за исключением wget %URL%.
я вот, например, иногда делаю так:
$ cat | wget -c -i —
тут список URL'ов по одному на строку
^D

Жуйк, а объясни-ка. Качаю вгетом с фтп. по окончании загрузки вгет встает в ступор и чего-то ждет. Как бы его научить выходить по окончании загрузки с фтп, или переходить к следующей при использовании списка ссылок.

Товарищи красноглазики, нужна ваша помощь. Хочу замутить, что бы роутер, если у него поменялся айпишник (такое бывает изредка), оповещал меня каким-либо образом.
Самым удобным получается twitter. Вычитал, что можно заюзать wget с параметрами --user — password --post-data и т.п., но на роутере wget эмулируется самим BusyBox'ом, и не имеет этих параметров, т.е. обрезан по самые яйки.
Как можно решить данное недоразумение? Или может другим способом оповещать меня?

Вопрос линуксоидам — можно ли вгету скормить список урлов(хтмл страницы) с картинками, дабы он эти картинки скачал? А то лень 100500 картинок ручками качать ( З.Ы. мне не лень почитать ман, просто может кто знает.

Жуйк! Подскажи, как объяснить wget при обнаружении похожего файла (имя,размер) в сравнении со скачеваемым, не качать его второй раз и не переименовывать (файл, файл1, файл2)?