известный хостинг файлов Rapidshare предоставляет огромный объём различной информации, но для того чтобы скачать её от туда необходимо,
- если нет специального платного аккаунта, заходить на страничку закачки главного файла
- от туда по очереди заходить на странички частей этого файла, а он обычно разбит на несколько частей и запакован с помощью RAR,
- выбрать кнопкой свой бесплатный аккаунт,
- после этого появляется сообщение, что через N секунд, обычно 80, можно будет скачать файл,
- подождав заданное время появляется кнопка,
- нажав на которую начинается закачка 1 части файла,
- затем эта же процедура повторяется для остальных частей разбитого файла.
- После того скачивания всех частей необходимо расспаковать и собрать единый файл, что делаетсся с помощью unrar e имя_первого_архива
В общем, очень муторная процедура, вынуждающая приобретать этот коммерческую учётную запись на этом сайте.
Если вы не не можете или не желаете платить или вам просто интересно то можно попробовать скрипт автоматически выполняющий практически все перечисленные действия.
Для работы он использует bash,wget,sed,awk и sleep
При запуске скрипт должен получить URL главной страницы разбитого файла, например вот этот http://rapidshare.com/users/XS29LA/23, как видите с этой страницы видны все ссылки на куски разбитого файла
Затем, скрипт автоматически выкачивает это старницу, выбирает все ссылки на страницы кусков, сортирует и начинает обходить их по очереди
Зайди на страницу куска, он ишет URL страницы закачки куска, найди его идёт туда, там находит URL на файл, затем ждёт 81 секунду и начинает закачку файла
#!/usr/bin/env bash
#Copyright © Basmanov Illya 2008.07
#Mailto: ffsdmad@gmail.com
#Desc: download files from rapidshare.com
# выбирает с главной страницы закачки адреса страничек отдельных кусков разбитого файла
function select_page {
wget -O /dev/stdout $1 2> /dev/null | sed s/\<a/\\n\<a/g | grep -E "a href.*rar" | awk -F "\"" '{print $2}' | sort
}
# выбирает со странички куска файла адрес странички закачки это куска
function select_download_page {
wget -O /dev/stdout $1 2> /dev/null | sed s/\</\\n\</g | grep "form action" | awk -F "\"" '{print $2}' |tail -n1
}
# выбирает со странички куска файла урл на сам кусок главного файла
function select_download_files {
wget -O /dev/stdout --post-data="dl.start=Free" $1 2> /dev/null | sed s/\</\\n\</g | grep -E "dlf.*post" |awk -F "\"" '{print $4}'
}
function download_rapid {
pages=`select_page $1`
echo "работает с страницей $1"
for page in $pages;do
echo " переходим на $page"
down_page=`select_download_page $page`
echo " страница закачки $down_page"
urls=`select_download_files $down_page`
for url in $urls;do
echo " скачиваем $url"
echo " ждём 81 секунду"
sleep 81
echo " начинаем закачку"
wget -c --user-agent="FIREFOX/3.0" $url # 2> /dev/null
done
done
}
download_rapid $1
Для работы сохраните его например в таком файле: ~/down_rapida.sh
установите права на запуск chmod u+x ~/down_rapida.sh
и используйте так:
~/down_rapida.sh http://rapidshare.com/users/XS29LA/23