Gute Frage, schließe mich an!Wollte noch mal nachfragen ob die neuste Labor auf der 7390 mit FL läuft bzw. ob dies mittlerweile mal jemand getestet hat ??
FritzLoad gestartet 19.04.2011 17:37:41: ./fritzload.sh 1 -pl /var/media/ftp/FUJITSU-MHV2080BH-01/XXX_jobs1.txt
### rapidshare_com-premium: http://rapidshare.com/XXX.rar
17:37:42 Warte auf Internetverbindung...
17:37:43 GET1: https://api.rapidshare.com/cgi-bin/rsapi.cgi?sub=getaccountdetails_v1&withcookie=1&withpublicid=1&login=Name&password=XXX Options: -k --cookie-jar /var/tmp/fritzload1/dl.cookie.txt
17:37:43 GET2: https://api.rapidshare.com/cgi-bin/rsapi.cgi?sub=download_v1&fileid=456634139&filename=XXX.rar&try=1&cookie=F47BA400AE09B0D12DFF53B75D4A6F017F80AE0434B9FCD3D62AA2B8998990D85F6F4FBC44A5FBEF7DDC18E68FC6130C\n&cbf=RSAPIDispatcher&cbid=2 Options: -k --cookie /var/tmp/fritzload1/dl.cookie.txt --cookie-jar /var/tmp/fritzload1/dl.cookie.txt
./fritzload.sh: eval: line 1: DSP: not found
Freier Speicher auf /var/media/ftp/FUJITSU-MHV2080BH-01/XXXownloaded: 36227 Mbyte
URL-Download (T:1/R:9): http:// 64
/cgi-bin/rsapi.cgi?sub=download_v1&cookie=F47BA400AE09B0D12DFF53B75D4A6F017F80AE0434B9FCD3D62AA2B8998990D85F6F4FBC44A5FBEF7DDC18E68FC6130C\n&editparentlocation=1&fileid=456634139&filename=XXX (File: XXX.rar)
cat: can't open '/var/tmp/fritzload1/dl.head': No such file or directory
FAILED: 17:37: Download: 6 Couldn't resolve host. The given remote host was not resolved. / HTTP-Code:(000) / HEAD:<code></code>
FAILED: 17:37: Download failed (http://rapidshare.com/XXX.rar)
17:37:49 Downloadliste ist leer.
UNRAR: deaktiviert
17:37:54 FritzLoad beendet
Könnte man nicht einen Refresh oder zumindest eine Ausgabe in die Funktion einbauen? Habs mal in den code reingeschrieben:@uragan: Ich vermute schon das es klappt, das Problem ist nur das der Auswertteil von Solo0815, welcher die anderen Links extrahieren soll hier ewig dauert. Vielleicht stell ich die SJ Funktion dann doch mal irgendwann frei, da sie scheinbar genutzt wird
_get_links_from_html(){
...
329 # Hosterliste aus den *.sh Dateien extrahieren
330 # 1. Unterstriche durch Punkte ersetzen
331 # 2. .sh-Endung abschneiden
332 # 3. Nur Hoster, keine Verzeichnisstruktur ausgeben
333 for FILEHOSTER in $(ls -l $pdir/lib/hoster/*.sh | sed 's/_/\./g; s/\.sh//g; s/^.*\/.*\///g') ; do
334
# neu
echo "${FILEHOSTER}-Links werden extrahiert ..."
# /neu
335 # fuege vor http einen Zeilenumbruch ein
336 addLinkstmp1="$(echo "$addLinks" | sed 's/http/\nhttp/g')"
...
345 # Falls verschiedene Hoster in den Links sind, alle uebernehmen, Leerzeichen am Anfang loeschen, falls doppelt, aussortieren (sort -u)
346 addLinkstmp3="$(echo -e "$addLinkstmp3 $addLinkstmp2" | sed 's/$\ *//g' | ${BBox} uniq -u)"
# neu
echo "${FILEHOSTER}: abgeschlossen ..."
# /neu
347 done
348 # Gültige Links an FL zurückgeben
349 #TODO: ACHTUNG nicht huebsch: hier erst einfuegen der Links von _getlinks_from_serienjunkies()
350 if [ -e $pdir/tmp/sj.txt ];then
351 addLinks="$(cat $pdir/tmp/sj.txt) $addLinkstmp3"
352 rm -f $pdir/tmp/sj.txt
353 else
354 echo "No serienjunkies/dokujunkies links found"
355 addLinks=$addLinkstmp3
356 fi
357 }