aktuell laufende Diskussionen über Vermeidung von Slurps
Unser Wiki: MoinTng
Dse-Wiki: SlurpProbleme SlurpProblemeDiskussion
Wards Wiki: WikiSlurp WikiMirrors
Ziel dieser Seite ist es, die Pro- und contra-Argumente zu bündeln. Damit man nicht immer wieder von vorn anfangen muss. Ein Verweis auf diese Seite reicht dann.
vom diskutieren kommen wir nicht weiter! die seite MoinTng ist eigentlich nur eine zusammenfassung was wir (bastian, thomas und ich) am lulug-stammtisch diskutiert haben, was wiederum nicht viel mehr als eine zusammenfassung der diskussionen im wiki darstellt. -> es ist zeit für taten. -- RonnyBuchmann 18.10.2002 00:44:40
Achso, meinst du damit auch diese download-diskussion? --DanielBrüßler
Ergebnis der "Rechner ohne online-Verbindung"-Umfrage siehe hier: MoinTng
Generelle Diskussion über solchen Download - unabhängig von der "Technik"
Pro (+) / Contra (-) / Kommentare (!) / Fragen (?):
- - Derzeit relativ unnötig und bald noch unnötiger. Die Zukunft sind ONLINE-Verbindungen.
- Wozu? Sorry, aber das ist Schnickschnack imho
- ! Wozu? Wieviele Rechner ohne online-Verbindung habt ihr (oder genauer gesagt: wieviele, die nicht leicht eine Online-Verbindung haben könnten?). Jeder spreche bitte nur für sich und stelle keine vaguen Vermutungen an...
Ergebnis der "Rechner ohne online-Verbindung"-Umfrage siehe hier: MoinTng
- + Der Bedarf ist da (Wiki-Slurps sollte es nicht geben) und kann tatsächlich "befriedigt" werden
- Und nochmal: wer braucht warum PDF?
- Niemand hat gesagt das er es braucht, nur das es möglich ist.
Wäre das nicht eher was für Diskussion im MoinMoin-Wiki?
- worüber haben wir gestern gesprochen...
- trotzdem kannst Du ja erstmal mit dem Autor drüber reden
- worüber haben wir gestern gesprochen...
- ! Wenn wir Teile des Wikis zum Download anbieten wollen, brauchen wir erstmal identifizierbare Teile. Das würde zumindest eine abgeschwächte Dokumentenstruktur voraussetzen, die unser Wiki derzeit nicht hat. Evtl. ist es aber eine gute Idee so etwas in das Wiki hineinzubekommen.
- ! Eine Möglichkeit wäre es manuell "Inhaltsverzeichnise" anzugelegen (haben wir auf sehr hoher Ebene schon) und diese samt deren direkten Unterseiten als Dokument zubetrachten, dass man dann in beliebige Formate konvertieren kann.
Überblick über Lösungsmöglichkeiten
Vorschlag: Als einzelne Dateien (="nicht-linear". gepackt als .zip, .tar)
Pro (+) / Contra (-) / Kommentare (!) / Fragen (?):
- Und was machst Du dann damit? Damit kann man ohne Wiki-Engine nur notdürftig was anfangen (ist zwar alles Klartext und nett abgelegt, die Verlinkung und Markup->HTML-Expandierung kriegt man aber eben nur mit einer installierten/konfigurierten Wiki-Engine.
- + Die Idee dahinter: So wie man die Selfhtml-HTML-Seiten als ZIP-File downloaden kann, könnte man dies auch für ein Wiki anbieten.
- ! Ein möglicher Algorithmus wäre: [geringer Aufwand im Vergleich zum PDF] In einem Nachtlauf werden alle paar Tage mal sämtliche Wikiseiten als HTML-Seiten generiert - und zwar mit folgenden Besonderheiten: (a) Jede Datei heißt Wikiseitenname.html. (b) Die Struktur ist völlig flach und auch die Unterseiten - das heißt alle HTML-Seiten liegen im selben Ordner. (c) Diese HTML-Seiten lassen sich leicht als TAR oder ZIP packen und somit zum Download anbieten. (d) Die Links auf andere Seiten im Wiki werden als relative Links zur jeweiligen HTML-Seite umgesetzt (e) statt automatischer Suche gibt es eine Selectbox über die die gewünschte Seite ausgewählt wird. (f) Im Header sind lediglich Wiki-Logo und die Selectbox zu finden.
- ! Teil von möglichem Algorithmus: download bedeutet ja nicht linear, gegen einen download (gerendert oder source oder irgendwas dazwischen ist ja egal)
! ist woanders Realität: In Wards Wiki werden wöchentlich bestimmte Seiten nach HTML konvertiert und in eine .zip-Datei gepackt (WikiMirrors).
Einfach mal "moin-dump" aufrufen statt ewig zu diskutieren könnte auch helfen. :> Siehe auch MoinDump.
Vorschlag: PDF generieren (="linear")
Pro (+) / Contra (-) / Kommentare (!) / Fragen (?):
+ Vielleicht kann man sich sogar Ansätze überlegen, die verlinkte Struktur im Wiki in eine lineare Form zu transformieren, so dass man z.B. das Wissen eines Wiki in einem PDF Speichern kann! -- JanRoehrich 17.10.2002 14:57:38
- - kompliziert (vermutlich dann auch im Ergebnis unbefriedigend?) und oft unnötig
+ man erhält zu einem Themengebiet (=mehrere Wikiseiten) ein PDF und kann dieses leicht ausdrucken. Vorausgesetzt es handelt sich um Fachthemen, und die reinen Fakten zu dem Thema ändern sich recht selten (z. B. Dokumentation zu HTML4, oder Infos über geläufige Filesysteme) --DanielBrüßler
- ! Teil von möglichem Algorithmus: PDF-Renderer sollte kein Problem sein, wenn die internen Datenstrukturen klar definiert sind.
- - wiki in was lineares zu quetschen macht keinen sinn, das haben wir schon x-mal durchdiskutiert
! ich biete mich an, beim Thema PDF mitzuarbeiten. --DanielBrüßler
- ! ein möglicher Algorithmus: "Tiefen-Suche" = Dfs. Dieser kann aus einem Wiki (=Baum mit Vorwärtskanten, Rückwärtskanten, Kreuzkanten) eine lineare Liste erstellen. Dazu muss man aber einen Start-Knoten angeben. Dies könnte die Seite des Haupt-Themas sein. Diese PDFs sollten aber nicht on-the-fly erzeugt werden können (da große Prozessor-Last), sondern in einem Nachtlauf alle paar Tage mal. Ein PDF lässt sich dann mit XML-Formatting Objects zum Beispiel generieren. Ist zwar noch ein Plug-In, spart aber viel Eigen-Entwicklungs-Arbeit. Hope That Helps
- ! Wiki ist kein Baum, sondern ein gerichteter Graph.
? Was bitteschön ist ein gerichteter Graph?
! wenn Du ne formelle Definition willst, schau in ein Informatik-Lexikon
- grob und in Kürze: eine Menge an Knoten (Seiten), zwischen denen beliebige, aber gerichtete Verbindungen (Links) existieren
Rückwärtslinks in Wiki ist nur eine durch Volltextsuche erzeugte Illusion (aber ne gute)
- ! ein Baum ist eine speziellere Struktur, dort gibt es z.B. keine Querverbindungen zwischen den Blättern (oder Gabelungen)
- ! Wiki ist kein Baum, sondern ein gerichteter Graph.
Vorschlag: Export als XML
Pro (+) / Contra (-) / Kommentare (!) / Fragen (?):
- ! als XML arbeitet der Autor dran (z.B. für Wiki-Backup) und alles andere finde ich ziemlich überflüssig, weil unnötig, unbrauchbar oder nicht vernünftig implementierbar
- hm. hab ich das jetzt richtig verstanden, dass du meinst, dass generell einzelne seiten als xml generierbar sind - und beim backuperstellen dann aus allen wikiseiten xml-seiten erzeugt werden?
Vorschlag: das Wiki einfach zum download anzubieten
! eine mögliche Lösung: Wäre es nicht deutlich einfacher das Wiki einfach als Wiki zum download anzubieten? Einfach alle aktuellen Dateien (ich würde die Backupversionen weglassen) + die MoinMoin Sourcen + einen kleinen Webserver in Python der dann z.B. über localhost:8080 angesprochen werden kann.
- + stop, aus. fakt ist, ein komplettexport ist kein problem, da drüber muss man wirklich nicht diskutieren