Fritz!Load - (Oneclickhoster-) Down- und Uploads via FB

So isses, vielen Dank!
 
Wollte noch mal nachfragen ob die neuste Labor auf der 7390 mit FL läuft bzw. ob dies mittlerweile mal jemand getestet hat ??
 
hallo
kann es auch bestätigen, rapid-free läuft wieder.
DANKE

mfg
 
Hm, irgendwie funktioniert RS bei mir trotz 1507 immer noch nicht. Weder mit Premium noch mit Free (gestern Mittag gings noch):

Code:
FritzLoad gestartet 19.04.2011 17:37:41: ./fritzload.sh 1 -pl /var/media/ftp/FUJITSU-MHV2080BH-01/XXX_jobs1.txt  
### rapidshare_com-premium: http://rapidshare.com/XXX.rar
17:37:42 Warte auf Internetverbindung...
17:37:43 GET1: https://api.rapidshare.com/cgi-bin/rsapi.cgi?sub=getaccountdetails_v1&withcookie=1&withpublicid=1&login=Name&password=XXX Options: -k --cookie-jar /var/tmp/fritzload1/dl.cookie.txt
17:37:43 GET2: https://api.rapidshare.com/cgi-bin/rsapi.cgi?sub=download_v1&fileid=456634139&filename=XXX.rar&try=1&cookie=F47BA400AE09B0D12DFF53B75D4A6F017F80AE0434B9FCD3D62AA2B8998990D85F6F4FBC44A5FBEF7DDC18E68FC6130C\n&cbf=RSAPIDispatcher&cbid=2 Options: -k --cookie /var/tmp/fritzload1/dl.cookie.txt --cookie-jar /var/tmp/fritzload1/dl.cookie.txt
./fritzload.sh: eval: line 1: DSP: not found
Freier Speicher auf /var/media/ftp/FUJITSU-MHV2080BH-01/XXXownloaded: 36227 Mbyte
URL-Download (T:1/R:9): http:// 64
/cgi-bin/rsapi.cgi?sub=download_v1&cookie=F47BA400AE09B0D12DFF53B75D4A6F017F80AE0434B9FCD3D62AA2B8998990D85F6F4FBC44A5FBEF7DDC18E68FC6130C\n&editparentlocation=1&fileid=456634139&filename=XXX (File: XXX.rar)
cat: can't open '/var/tmp/fritzload1/dl.head': No such file or directory
FAILED: 17:37: Download: 6 Couldn't resolve host. The given remote host was not resolved. / HTTP-Code:(000) / HEAD:<code></code>
FAILED: 17:37: Download failed (http://rapidshare.com/XXX.rar)
17:37:49 Downloadliste ist leer.
UNRAR: deaktiviert
17:37:54 FritzLoad beendet

Jemand ne Ahnung was da kaputt ist? :)
 
@-uragan-: Probier es doch einfach aus. Ich habe es nicht getestet. Die neueste Revision hat jetzt (ungetestete) allgemeine https-Unterstützung, aber die Linkerkennung für rapidshare habe ich mir jetzt nicht noch mal angeschaut.
@Guron: keine Ahnung woran das liegt. Sieht nach einem https-Problem aus. Probier es mit der neuesten Revision noch mal.

@ralalla & Co:
Ich vermute, dass die Laborversionen von Fritz!Load noch nicht richtig unterstützt werden, da kein entsprechender Code eingecheckt wurde. Mangels Laborversion habe ich dies aber natürlich nicht getestet.
 
@roadman

Vielen Dank. Mit der 1508 gehts jetzt wieder. :)
 
Kann es sein, dass (u.a.) in gui_decrypt.cgi die $targetdir leer ist? Stand hier nicht immer $targetdirDOWNLOAD? Ich musste es jedenfalls daraufhin abändern, da ich das Protokoll wahrlich nicht ins rootfs mounten wollte.

PS: Rev. 1508, $Q_wmanuell
 
Hi, hab aktuelle 1508 drauf, aber der URL-Decrypter will nicht. Habe eth0 als Interface (wie immer) und mache im Jdownloader den Linkcheck, aber F!L findet leider keine Links (in diesem Fall rs). :(
 
Hi,

könnt Ihr die sehr nützliche dokujunkies-funktion auch für die httpS-Links anpassen?
Danke vorab!
 
@uragan: Verstehe nicht was du meinst, die extrahierten DJ links sind doch weiterhin vom Format http://rapidshare.com/files/XXX und werden auch so extracted...?
 
@wetzstein

also bei mir steht nur da "Try to extract serienjunkies/dokujunkies links " und es passiert nichts mehr. Wenn ich dann nach einiger Zeit auf aktualisieren clicke, ist die DL-Liste leer
 
@uragan: gerade nochmal getestet geht bei mir einwandfrei, sowohl DJ/SJ und neuester SVN... (Versuchs mal mit ner Seite von max. 4 Links dann sollte es auch nicht sehr lange dauern)
 
@wetzstein
Du hast absolut recht! Es liegt an der Anzahl der DL-Links. Habs gerade mit 4 Stück versucht - funktioniert einwandfrei.
Die Datei, bei der ich es versucht habe, hat 110 links - das klappt nicht.
 
@uragan: Ich vermute schon das es klappt, das Problem ist nur das der Auswertteil von Solo0815, welcher die anderen Links extrahieren soll hier ewig dauert. Vielleicht stell ich die SJ Funktion dann doch mal irgendwann frei, da sie scheinbar genutzt wird :)
 
Nach mehreren Versuchen (kleine Linkanzahl) wurde nun auch die große Liste mit 118 Links richtig ausgewertet und hinzugefügt.
Ich finde diese Funktion SEHR nützlich und nutze sie auch ziemlich oft!
 
Abend zusammen, ich hätte einen Verbesserungsvorschlag

Unter Config kann man ja Star und Stopp Zeiten aller 4 Instanzen festlegen, wäre es da nicht auch sinnvoll das ich unterscheiden kann, das Instanz 1 Als Premium lädt, Instanz 3 aber als Free? In Moment kann ich nur Eine Einstellung treffen, und diese gilt für alle Instanzen gleichermaßen.

Dann müsste eben Instanz 1 nach einen Download schauen, ob eine andere Instanz einen Reconnet braucht, und diesen veranlassen.

Dies müsste doch funktionieren?

Vielen Dank auf alle Fälle für das sehr gute Programm
 
Zuletzt bearbeitet:
@uragan: Ich vermute schon das es klappt, das Problem ist nur das der Auswertteil von Solo0815, welcher die anderen Links extrahieren soll hier ewig dauert. Vielleicht stell ich die SJ Funktion dann doch mal irgendwann frei, da sie scheinbar genutzt wird :)
Könnte man nicht einen Refresh oder zumindest eine Ausgabe in die Funktion einbauen? Habs mal in den code reingeschrieben:
Code:
_get_links_from_html(){
...
329	        # Hosterliste aus den *.sh Dateien extrahieren
330	        # 1. Unterstriche durch Punkte ersetzen
331	        # 2. .sh-Endung abschneiden
332	        # 3. Nur Hoster, keine Verzeichnisstruktur ausgeben
333	        for FILEHOSTER in $(ls -l $pdir/lib/hoster/*.sh | sed 's/_/\./g; s/\.sh//g; s/^.*\/.*\///g') ; do
334

# neu
echo "${FILEHOSTER}-Links werden extrahiert ..."
# /neu

335	                # fuege vor http einen Zeilenumbruch ein
336	                addLinkstmp1="$(echo "$addLinks" | sed 's/http/\nhttp/g')"
...
345	                # Falls verschiedene Hoster in den Links sind, alle uebernehmen, Leerzeichen am Anfang loeschen, falls doppelt, aussortieren (sort -u)
346	                addLinkstmp3="$(echo -e "$addLinkstmp3 $addLinkstmp2" | sed 's/$\ *//g' | ${BBox} uniq -u)"

# neu
echo "${FILEHOSTER}: abgeschlossen ..."
# /neu

347	        done
348	        # Gültige Links an FL zurückgeben
349	        #TODO: ACHTUNG nicht huebsch: hier erst einfuegen der Links von _getlinks_from_serienjunkies()
350	        if [ -e $pdir/tmp/sj.txt ];then
351	                addLinks="$(cat $pdir/tmp/sj.txt) $addLinkstmp3" 
352	                rm -f $pdir/tmp/sj.txt
353	        else
354	                echo "No serienjunkies/dokujunkies links found"
355	                addLinks=$addLinkstmp3
356	        fi
357	}
Hilft sowas gegen einen Timeout? Das Timeout-Problem hab ich auch oft bei sehr vielen HTML-Links.
 
Zuletzt bearbeitet:
@Solo0815
Ob das gegen das Timeout-Problem hilft weiß ich auch nicht, aber wieso optimierst du nicht deinen Code, dass er schneller läuft. Du musst doch nicht die gleichen Operationen für jeden Hoster ( über 50 ) durchführen, sondern könntest die Hoster gleichzeitig abarbeiten, oder wenigstens exakt gleiche Sachen nicht immer wieder neu zu bestimmen wie zum Beispiel addLinkstmp1.
 
So, hab mir meinen alten Code nochmal angeschaut und ein bisschen optimiert. Sollte jetzt schneller fertig sein. Bitte mal Rev >= 1509 testen. Danke an roadman für den Hinweis ;)
 
Holen Sie sich 3CX - völlig kostenlos!
Verbinden Sie Ihr Team und Ihre Kunden Telefonie Livechat Videokonferenzen

Gehostet oder selbst-verwaltet. Für bis zu 10 Nutzer dauerhaft kostenlos. Keine Kreditkartendetails erforderlich. Ohne Risiko testen.

3CX
Für diese E-Mail-Adresse besteht bereits ein 3CX-Konto. Sie werden zum Kundenportal weitergeleitet, wo Sie sich anmelden oder Ihr Passwort zurücksetzen können, falls Sie dieses vergessen haben.