Под влиянием
Antropos начал сочинять скрипт, скачивающий дневник пользователя li.ru. Пока так:
#!/bin/sh
getpage ()
{
# $1,$2,$3,$4,$5 - url,mozdir,uid,ext,postid
wget ${1}/${3}/${5}/ --load-cookies ${2}/cookies.txt -O ${3}${5}.htm
cntr=`cat ${3}${5}.htm | grep "var maxpages="`
cntr=`echo ${cntr#*maxpages=}`
cntr=`echo ${cntr%;*}`
cntr=`expr $cntr - 1`
while [ $cntr -gt 0 ]
do
wget ${1}/${3}/${5}/page${cntr}${4} --load-cookies ${mozdir}/cookies.txt -O ${3}${5}${cntr}.htm
cat ${3}${5}${cntr}.htm >> ${3}${5}.htm
rm ${3}${5}${cntr}.htm
cntr=`expr $cntr - 1`
done
}
getpostid ()
{
ltmp=`echo ${1%/}`
ltmp=`echo ${ltmp##*/}`
echo $ltmp
}
url="http://www.liveinternet.ru/users"
mozdir="."
#uid="1333262"
uid="braindump"
getpage $url $mozdir $uid .shtml
tmp=`cat ${uid}.htm | grep class=\"TTL\" | koi2koi`
cntr="0"
for strings in $tmp
do
cntr=`expr $cntr + 1`
tmp1=`echo $strings | grep href= `
if [ "" != "$tmp1" ]
then
tmp1=`echo ${tmp1#*\"}`
tmp1=`echo ${tmp1%\"*}`
#echo $tmp1 >> jposts.tmp
#getpostid $tmp1 >> jpostids.tmp
getpostid $tmp1
#echo $ltmp
getpage $url $mozdir $uid .html $ltmp
fi
done
#grep class=\"ZAG\" |
Геморойненько у меня получается, опыта shell-программизма маловато. Однако ж вроде работает. Теперь надо парсить страницы постов с комментами - вытягивать собственно пост, комментарии юзеров...