Случилось так, что у меня сгорел диск с архивами фоток. И понадобилось мне скачать обратно на диск мои фотографии из photofile
Кликать мышкой на каждой из пары сотен? Это не наш метод.
Прошерстил я гугл и нашел, что был плагин к Total Commander, выполняющий такую операцию. Но оказалось, что автор год назад прекратил его поддержку и заботливо поудалял все исходники и архивы с ним.
Не знаю уж что с ним делали: били-ли, паяльником паяли-ли или бабла заплатили. Но факт налицо.
Я таки нашел этот плагин в польских закоулках, поковырялся с ним минут 10 и написал небольшой скрипт на bash, с похожей функциональностью.
Вот он:
Для http://photofile.name
#!/bin/sh # gpf.sh - simple script for save photo from http://photofile.name wget $1all -O- | grep '#mainImageLink' | sed -e 's/<img src=.*//' -e 's/\/#mainImageLink">/.jpg/' -e 's/^ *//' | awk -F/ '{printf "http://%s.%s.photofile.ru/photo/%s/%s/%s\n", $3, $2, $3, $4, $5 }' | wget -i-
Сохраняем скрипт на диск в каталог куда будим фотки даунлоадить. Даем ему права на исполнение.
Как им пользоваться? Проще простого:
- Открываем phtotfile.ru на нужном нам альбоме
- Копируем в буфер обмена URL.
- В терминале вводим команду :
./gpf.sh <URL>
В данном примере:
./gpf.sh http://photofile.name/users/axa_ru/3218616/
- Все. Фотографии скачиваются в текущий каталог.
Пьем пиво.
Пытливые и любознательные могут упростить/усложнить скрипт для скачивания фоток из закрытых альбомов и/или других ресурсов.
Вот аналогичный скрипт для http://picasaweb.google.com(ru)
#!/bin/sh # gpcs.sh - simple script for save photo from http://picasaweb.google.com(ru) wget $1 -O- | grep '<div><img src="' | sed -e :a -e 's/<\/div>/\x0A/' -e 's/<div><img src=\"//' -e ta | sed -e 's/".*//' -e 's/s160\///' | wget -i-
Для http://www.flickr.com
Есть отдельное комьюнити посвященное управлению фотографиями для http://code.flickr.com/
Flickr - наверное один из самых навороченных сервисов, по хранению фотоконтента. Его парадигма близка к идеологии мака. Нет папок, есть сеты и теги.
Под сетом обычно подразумевается коллекция фотографий, объединенная по какому либо признаку, по времени, месту или жанру.
#!/bin/sh # gflk.sh - simple script for save photo from http://www.flickr.com/photos wget $1 -O- | grep 'title=' | grep 'photo_container pc_m' | sed -e 's/.*http/http/' -e 's/m.jpg.*/b_d.jpg/' | wget -i-
Скрипт скачивает 18 фотографий за раз (столько выдает flickr на одну страницу)
Скачивание аналогично, как и для photofile.name.
PS.
- Скрипты написаны в стиле unix, но легко могут быть переделаны для WinDos.
- Никаких гарантий ни за что не несу.
Если кто спросит где все файлы - отмазка "сбой произошел"
Если придет управление "К" - бегите в M$. Там помогут.
- Не понимаю, нахрен было городить какой то плагин к total commader?
Вот похожая тема на форуме про Asus WL500gP: http://wl500g.info/showthread.php?t=19035&highlight=midnight+commander
Если нет подходящей темы, открывайте новую.