Algorithmus für Worttrennungen?

Datumsansicht Baumansicht Betreffansicht Attachement-Sicht

From: Michael Lestinsky (michael_at_lestinsky.de)
Date: 24. Dec 2001


Hallo allerseits,

hat jemand von euch zufällig einen Algorithmus um möglichst intelligent
Silben zu erkennen und Wörter zu trennen? Eine Beschränkung auf deutsch-
sprachige Texte ist im angedachten Anwendungsfall legitim.

Und weil heut Weihnachten ist, vielleicht auch noch etwas um Tabellen zu
setzen, wobei Feinheiten wie "Seitenumbruch" mit berücksichtigt werden.

Hintergrund: Ich möchte mit PDFlib und PHP dynamische Seiten erstellen.
Kennt vielleicht jemand was? Bei den PEAR-Modulen hab ich auf den ersten
Blick nix passendes gefunden. Bisher bin ich den Weg Latex-Source ->
kompilieren -> dvips -> ps2pdf (aka. ghostscript) gegangen. Dies erzeugt
zwar bildschöne Resultate, bedeutet aber beträchtlichen Rechenaufwand.
Ausserdem ist es recht fehleranfällig (falsch maskierte Sonderzeichen...).
Und die nakte PDFlib (3.0) ist für meine Begriffe zu viel Handarbeit.

Frohe Feiertage weiterhin,
Michael

-- 
> How about GNU/OpenBSD? [...] How would we build our system w/o gcc,
> binutils and groff[...]?
Better ?
    -- Hannah Schröter & Marc Espie in misc_at_openbsd.org


Datumsansicht Baumansicht Betreffansicht Attachement-Sicht

Dieses Archiv wurde generiert von hypermail 2.1.2 : 11. Mar 2002 CET