Forum als Nachschlagkatalog offline?

A

Anonymous

Guest
Hi Leute,

ich wollte da mal einen interessanten Gedanken in die Runde schmeisen.. wie fändet ihr es, wenn man das Forum als Nachschlagewerk zum Download anbieten würde, so das man es offline als kleines Lexicon verwenden kann...

Also nur mal so theoretisch... ich stelle mir das so vor, dass ca. 2 mal im Jahr eine ZIP-Datei packt, in der das Forum mit den kompletten Theards enthalten ist, so dass man diese Datei runter läd, auf seinem Rechner entpackt und die Suchfunktion nutzen kann, um so offline die ganzen bisherigen Theards lesen zu können...

Wie gesagt, nur so ein Gedanke und ob das technisch geht, wäre wohl in erster Linie mal die Frage...

bis denn,
-NILS
 
A

Anonymous

Guest
Tach Nils!

Sollte das Forum in irgendeiner Weise eine "Export"-Funktion haben,
könnte es gehen. Gibts aber glaube ich nicht...
Andernfalls müsstest Du dir den Microsoft IIS-Server installieren
und eine Datenbank (ich schätze mal hier Microsoft SQL).
Und das wäre weder das Geld noch den "Überspiel"-Aufwand von Doc oder von Dir wert.
-elvis

P.S. bist Du der guitarmaniacs.de-Nils?

i saw elvis - he sat between me and bigfoot on the ufo...
 
A

Anonymous

Guest
warum denn iis? *rofl* aber stimmt schon. die daten werden erst aus der datenbank geholt und vom webserver in die endgültige form gebracht, wenn einer die seite aufruft.
also einfach zippen geht nicht.

Allerdings könnte man die (zB) FAQs und wichtigen Threads zusammenkopieren und so eine Private zusammenfassung machen, und diese den anderen anbieten. Ich hätte zB interesse daran, aber nicht unbedingt die zeit das zusammenzukopieren.


~~ Mun/Jester ~~
 
A

Anonymous

Guest
<table border="0" width="90%" align="center"><tr><td class="quote">quote:Originally posted by Munjai
warum denn iis? *rofl* aber stimmt schon. die daten werden erst aus der datenbank geholt und vom webserver in die endgültige form gebracht, wenn einer die seite aufruft.
also einfach zippen geht nicht.

Allerdings könnte man die (zB) FAQs und wichtigen Threads zusammenkopieren und so eine Private zusammenfassung machen, und diese den anderen anbieten. Ich hätte zB interesse daran, aber nicht unbedingt die zeit das zusammenzukopieren.


~~ Mun/Jester ~~
</td></tr></table>
Tach!

Warum IIS? Wer führt denn sonst die ASP-Seiten aus? Ein komerzielles
mod_asp für dan apache wäre evtl. auch ’ne Alternative, kann sein.
-elvis

i saw elvis - he sat between me and bigfoot on the ufo...
 
A

Anonymous

Guest
jep nen kommerzieller Apache Mod. ist immernoch billiger als nen Win2k server. oder gibt es den iis etwa aucheinzeln um ihn auf ner Win2k Prof installation laufen zu lassen? selbst dann wär das ganze noch teurer als nen Apache+mod

~~ Mun/Jester ~~
 
A

Anonymous

Guest
hehe, da wären wir wiedermal bei der "TCO Linux vs. Windows"-Diskussion.
Kann gut sein, das Du Recht hast. Ein Mod_ASP kann ncht so teuer sein,
wie ein IIS+W2K. Hoffen wir, das es dann aber auch wirklich 100%ig kompatibel ist.
-elvis (Desktop: RedHat7.3)


i saw elvis - he sat between me and bigfoot on the ufo...
 
A

Anonymous

Guest
so genau weiss ich das auch nicht, bin nur fast ausgelernter Fachinformatiker (also hab jetz prüfung) und bevorzuge halt Linux =) ne bin davon ausgegganen dass das board in PHP ist, wie die meisten dieser Art. und IIS ist nunmal verbunden mit Windows was mich imemr ein wenig lächeln lässt *G*

~~ Mun/Jester ~~
 
A

Anonymous

Guest
<table border="0" width="90%" align="center"><tr><td class="quote">quote:(Desktop: RedHat7.3</td></tr></table>
ich bin da schon eher so nen Debian/Gentoo kandidat ;)


~~ Mun/Jester ~~
 
A

Anonymous

Guest
Hallo!
Also im Grunde genommen kein Problem ! Ein Perl-Skript (oder was auch immer) dass einen Index führt welche Seiten/Bilder es schon runtergeladen hat und dann einfach alle Links verfolgt und mit entsprechenden Requests aufruft, das ist doch kein Problem, eigentlich? Und ich glaube es gibt sogar ein freies mod_asp, mit der korrekten Ausführung dürfte auch das kein Problem haben, da das Forum nicht soo komplex ist (ich hatte schonmal das "Vergnügen" am Quellcode zu basteln ...). Nur wer hat schon einen Apache und eine MySQL Datenbank zuhause laufen? Vielleicht ... 1-3 % :)
Gruss, Peter

beavis.gif
butthead.gif
 
A

Anonymous

Guest
deßhalb mein ich ja, dass es irgendwer rauskopiert, bzw zusammenkopiert oder so. ich weiss ja nicht um welche inhalte es sich da handelt, die sonic-23 erhalten haben möchte. ob es alle sind, nur ein Paar infos oder sonst was?

~~ Mun/Jester ~~
 
A

Anonymous

Guest
Also so wie Sonic das schreibt möchte er einfach das komplette Forum haben, als Backup quasi.
Ich könnte das Skript wohl schreiben, aber das würde etwas dauern (hab gerade einiges zu tun), und auch nur, wenn wirklich ein Großteil daran interessiert ist !
Gruss, Peter

beavis.gif
butthead.gif
 
A

Anonymous

Guest
<table border="0" width="90%" align="center"><tr><td class="quote">quote:Originally posted by Floyd
Hallo!
Also im Grunde genommen kein Problem ! Ein Perl-Skript (oder was auch immer) dass einen Index führt welche Seiten/Bilder es schon runtergeladen hat und dann einfach alle Links verfolgt und mit entsprechenden Requests aufruft, das ist doch kein Problem, eigentlich? Und ich glaube es gibt sogar ein freies mod_asp, mit der korrekten Ausführung dürfte auch das kein Problem haben, da das Forum nicht soo komplex ist (ich hatte schonmal das "Vergnügen" am Quellcode zu basteln ...). Nur wer hat schon einen Apache und eine MySQL Datenbank zuhause laufen? Vielleicht ... 1-3 % :)
Gruss, Peter

beavis.gif
butthead.gif

</td></tr></table>
Tach Floyd!
Man kann natürlich alle Topic-IDs wget-en,
am besten gleich mit "whichpage" bis 7 oder 8
und die ganzen 404er löschen. Aber:
die Suchfunktion geht dann natürlich nicht mehr,
und das wollte Nils ja!
Gruß,
elvis


i saw elvis - he sat between me and bigfoot on the ufo...
 
A

Anonymous

Guest
Hallo!
Achso, hmm, ja, wobei die Suchfunktion ... mit grep ;) ...
Gruss, Peter

beavis.gif
butthead.gif
 
A

Anonymous

Guest
<table border="0" width="90%" align="center"><tr><td class="quote">quote:Originally posted by Floyd
Hallo!
Achso, hmm, ja, wobei die Suchfunktion ... mit grep ;) ...
Gruss, Peter

beavis.gif
butthead.gif

</td></tr></table>
hmm, vielleicht taugt dazu htdig?
SuSE hatte mal fürs Offline-Hilfesystem was damit gebastelt.
-elvis

i saw elvis - he sat between me and bigfoot on the ufo...
 
A

Anonymous

Guest
Na ja, du musst aber schauen, dass nicht jeder hier Linux hat ! Deswegen würde ich sagen würde eine Java-Lösung in Verbindung mit deinem Standardbrowser am meisten bringen..
Gruss, Peter

beavis.gif
butthead.gif
 
A

Anonymous

Guest
wenn einer es mit nem linuxspezifischen programm alle 2-3 wochen macht, und es onlinestellt spielt das OS doch nciht wirklich ne rolle? da steht dann doch alles im klaren html code oder?

~~ Mun/Jester ~~
 
A

Anonymous

Guest
<table border="0" width="90%" align="center"><tr><td class="quote">quote:Originally posted by Munjai
wenn einer es mit nem linuxspezifischen programm alle 2-3 wochen macht, und es onlinestellt spielt das OS doch nciht wirklich ne rolle? da steht dann doch alles im klaren html code oder?

~~ Mun/Jester ~~
</td></tr></table>
@Floyd: ahh, ich vergaß, die htdig-Lösung funzt
latürnich nicht unter Windows.
@Munjai: Nicht mit der "eingebauten" Suche :-(

Man könnte natürlich eine eigene Suchseite mit ´nem Applet bauen. Ich hab aber keine Lust drauf :)
-elvis

i saw elvis - he sat between me and bigfoot on the ufo...
 
A

Anonymous

Guest
suche? => find *g*
ne du kannst ja ganz einfach in den html seiten nach nem begriff suchen, allerdings postings von nem bestimmten user, das wird dann schon schwieriger, aber wenn du ein stichwort hast dürfte es doch gehen.

~~ Mun/Jester ~~
 
A

Anonymous

Guest
<table border="0" width="90%" align="center"><tr><td class="quote">quote:Originally posted by Munjai
suche? => find *g*
ne du kannst ja ganz einfach in den html seiten nach nem begriff suchen, allerdings postings von nem bestimmten user, das wird dann schon schwieriger, aber wenn du ein stichwort hast dürfte es doch gehen.

~~ Mun/Jester ~~
</td></tr></table>

Suche = grep ;)

Ich glaub nicht das deine Methode funktioniert *g* Oder möchtest du weil du nach irgendwas suchst im schlimmsten Fall 10.000 Seiten öffnen und jedesmal nach deinem Stichwort suchen ?

beavis.gif
butthead.gif
 
A

Anonymous

Guest
naja ich mach das mit meinem mp3cd archiv so, jede cd eine txt datei, wenn ich jetz nen bestimmtes lied suche, einfach kompletten ordner mit den dateien durchsuchen, dann schmeisst er mir schon die datei raus die ich will. und wenn du nen bestimmtes schlagwort ahst, wie zb mein emg81 thread, dann gibst du emg81 ein und er spuckt dir 3-4 seiten aus, du ja schnell durchgeguckt sind.

~~ Mun/Jester ~~
 

Ähnliche Themen

DerOnkel
Antworten
27
Aufrufe
3K
Anonymous
A
A
Antworten
1
Aufrufe
659
Al
 
Oben Unten