Deutschland konnte Dokumentensoftware. Deutschland kann es wieder.

Deutschland konnte Dokumentensoftware. Deutschland kann es wieder.

Dokumentensouveränität beginnt beim Dokument – und dort liegt das Problem. Ich habe einen Traum. Keinen großen, keinen politischen. Einen technischen.

Dass in Deutschland wieder Software geschrieben wird, die sinnvoll Dokumente erzeugen lässt. Dass jemand denkt, ein anderer finanziert – und die Nutzer endlich arbeiten können, statt Formatvorlagen zu reparieren.

Das klingt utopisch. Es ist das Gegenteil. Denn es hat schon einmal funktioniert.

250 Bytes statt 35.000

In den 1980er Jahren baute ein Freiburger Mittelständler namens kühn&weyh ein Textsystem, das einer einfachen Regel folgte: Der Autor schreibt den Inhalt. Das System kümmert sich um die Darstellung.

Das System hieß M/TEXT. Ein Geschäftsbrief darin war 250 Bytes groß. Derselbe Brief in Microsoft Word: 35.000 Bytes. Also Faktor 140. Der Unterschied ist dabei nicht Zufall. Er ist Konstruktionsprinzip.

M/TEXT trennte, was heute verschmolzen ist: Inhalt und Layout. Was in der Datei stand, war Text. Nur Text. Die Formatierung – Briefkopf, Schriftart, Seitenränder, Faltmarken – fügte das System erst bei der Ausgabe hinzu. Also nicht bei der Speicherung. Folglich war die Datei auf der Platte reiner Inhalt. Hundert Prozent Nutzlast.

Insgesamt 800 Großkunden nutzten dieses System. Darunter die Münchener Rück, der ADAC, alle Berufsgenossenschaften und der Deutsche Sparkassenverlag. Weltweit vertrieb Cincom Systems das Produkt unter dem Namen MANTEXT – nicht weil es billig war, sondern weil es etwas konnte, das kein anderes Produkt konnte. Tatsächlich hatte kühn&weyh doppelt so viele Nutzer wie die IBM mit Text/370. Ein Mittelständler mit weniger als hundert Mitarbeitern schlug also den größten IT-Konzern der Welt. Nicht durch Marketing. Sondern durch ein Prinzip.

Was die Trennung ermöglichte

Die Kunden kamen nicht wegen der Trennung. Vielmehr kamen sie wegen dem, was die Trennung ermöglichte.

Der ADAC beispielsweise verschickte Millionen Briefe an Mitglieder. Branchendurchschnitt für Serienbriefe: ein Prozent Rücklauf. Mit M/TEXT hingegen: bis zu vierzig Prozent. Faktor vierzig. Denn M/TEXT konnte personalisieren – hunderttausend Briefe, jeder anders, jeder persönlich, jeder korrekt formatiert. Ohne dass ein Mensch am Layout eines einzigen Briefs gearbeitet hätte.

Aus M/TEXT und der Grafiksprache M/GRAF entwickelte sich schließlich M/OMS – ein Output-Management-System, das ich mitentwickelt habe. Es läuft seit 39 Jahren. Störungsfrei. Nicht weil es perfekt ist, sondern weil es das richtige Prinzip umsetzt: Was nicht im Dokument steckt, kann nicht kaputtgehen. Das ist Dokumentensouveränität in Reinform.

Vergleichen Sie das einmal mit Ihrem Word-Dokument von 2005. Öffnen Sie es in Word 2024. Zählen Sie die Formatierungsfehler. Fragen Sie sich, warum die eingebettete Excel-Tabelle nicht mehr funktioniert. Und dann fragen Sie sich, warum ein System aus den Achtzigern problemlos läuft – während Ihr Dokument von vor zwanzig Jahren es nicht tut.

Dokumentensouveränität: Was verloren ging

Die Ideen waren da. Produkte ebenso. Und auch die Kunden fehlten nicht. Was jedoch fehlte, war die Entscheidung, den eigenen Weg weiterzugehen.

kühn&weyh ließ den Nachfolger sterben, weil der eigene Vertrieb sein Produkt schützte. Marco Börries wiederum verkaufte StarDivision an Sun, weil er in Deutschland keine Partner fand – daraus wurde OpenOffice, dann LibreOffice. Und in Neustadt an der Weinstraße entwickelte die SER zeitbezogene Speicherung, die Amazon heute als S3 Glacier verkauft.

Stück für Stück verschwand die Unabhängigkeit. Allerdings nicht durch feindliche Übernahme und auch nicht durch technische Unterlegenheit. Sondern durch Entscheidungen, die kurzfristig vernünftig und langfristig fatal waren.

Heute nutzt deshalb jedes deutsche Unternehmen Microsoft Word. Speichert in einer amerikanischen Cloud. Verwaltet den Ballast mit einem DMS, das nur existiert, weil die Dokumente zu komplex geworden sind. Und bezahlt für all das – in Lizenzen, in Speicher, in Migrationskosten, in verlorener Dokumentensouveränität.

80 Prozent Ballast: Warum Dokumentensouveränität messbar ist

In meinem neuen Buch „Nutzlast – Was Ihre Dokumente wirklich transportieren“ habe ich vermessen, was niemand vermisst: den tatsächlichen Inhalt von Unternehmensdokumenten.

Das Ergebnis, quer durch Branchen und Unternehmensgrößen: Typischerweise 80 Prozent Ballast. Dabei handelt es sich um Layout-Informationen, XML-Strukturen, Editor-Artefakte, eingebettete Themes und Revisionsdaten – also alles Dinge, die kein Leser braucht und kein Geschäftsprozess nutzt.

Bei einem Unternehmen mit 1.000 Mitarbeitern summiert sich das auf geschätzte 2,3 Millionen Euro pro Jahr. Wohlgemerkt nicht für den Inhalt – sondern für die Verpackung.

Zudem ist die Methode in dreißig Minuten reproduzierbar: Zehn DOCX-Dokumente in ZIP umbenennen, entpacken, den reinen Textinhalt messen, durch die Dateigröße teilen. Die Zahl wird zwischen 3 und 25 Prozent Nutzlast liegen. Wahrscheinlich näher an 10.

Warum Dokumentensouveränität jetzt möglich ist

40 Jahre nach M/TEXT ist die Frage, die kühn&weyh richtig beantwortete, wieder die richtige Frage: Was braucht der Inhalt? Und was braucht die Darstellung? Und warum müssen beide in derselben Datei stecken?

Die Trennung ist technisch einfacher denn je. Markdown, Pandoc, Git, Template-Engines – alles Open Source, alles verfügbar. Dennoch fehlt nicht die Technologie. Was vielmehr fehlt, ist das Bewusstsein, dass es einen Rückweg gibt. Und Unternehmer, die diesen Weg gehen.

Vor allem für KI-Anwendungen wird das Thema existenziell: Sprachmodelle arbeiten mit Tokens. Jeder Token kostet Geld. 80 Prozent Ballast bedeutet folglich: 80 Prozent der Token-Kosten entfallen auf Information, die keine ist. Wer also seine Dokumente entschlackt, bevor er KI darauf loslässt, spart nicht nur Speicher – er spart bei jedem einzelnen API-Call.

Der Traum: Dokumentensouveränität, konkret

Was ich mir wünsche, ist keine Rückkehr zu M/TEXT. Die Welt hat sich weitergedreht. Aber das Prinzip – Inhalt und Darstellung trennen, Ballast eliminieren statt verwalten, die Anforderung hinterfragen statt das nächste Werkzeug kaufen – dieses Prinzip ist heute aktueller als je zuvor.

Zunächst müsste jemand denken: ein Architekt, der Dokumentenerzeugung von Grund auf neu entwirft. Leicht. Sicher. Souverän. Ohne die 47 XML-Dateien, die in jeder DOCX-Datei stecken.

Dann müsste jemand finanzieren: ein Investor, der versteht, dass Dokumentensouveränität kein Schlagwort ist, sondern ein Markt. Dass 80 Prozent Ballast eine Geschäftsmöglichkeit sind, keine Naturkonstante.

Und die Nutzer – die könnten endlich arbeiten. Statt Formatvorlagen zu reparieren, Serienbriefe zu debuggen oder Kompatibilitätsprobleme zu googeln.

Es gelang uns damals. Es gelänge uns heute wieder. Dokumentensouveränität ist keine Utopie – man muss nur die Frage stellen.

Das Buch – und die sechs anderen

„Nutzlast“ ist Buch 6 der KI-Macherreihe 2026 – sieben Bücher, geschrieben vom Macher für Macher. Die Leitfrage der Reihe: Wer steuert die Veränderung – das Werkzeug oder der Mensch, der es einsetzt?

Jedes Buch steht für sich. Wer mehrere liest, erkennt die Verbindungen:

  1. Greenfield – Das Fundament. Vier Stufen: Bevor etwas Neues auf Bestehendes gestapelt wird, stellt sich die Frage, ob das Bestehende überhaupt die richtige Basis ist.
  2. Managed Services richtig verstehen – Die Betriebslücke. Was ein Provider verspricht und was er im laufenden Betrieb liefert – dazwischen liegt das Risiko.
  3. Das Helferlein-Paradox – Das Rechercheur-Modell. KI recherchiert, der Mensch entscheidet. Das deutschsprachige Grundlagenwerk zur KI-Rolle in der IT-Entscheidung.
  4. The Little Helper Paradox – Das Rechercheur-Modell im internationalen Kontext.
  5. Plausible Lügen – Datenqualität als Entscheidungsrisiko. Was passiert, wenn die Daten fehlerhaft sind – und die KI trotzdem ein überzeugendes Ergebnis liefert.
  6. Nutzlast – Die Ballast-Ratio. 80 Prozent Ballast in Ihren Dokumenten, messbar, bezifferbar, vermeidbar. Dieses Buch.
  7. Ordnungsenergie (in Arbeit) – Warum jede Integration laufend Energie braucht und Go-Live kein Endpunkt ist.

Was die Bücher verbindet

Die Ballast-Ratio aus Nutzlast liefert dabei den Maßstab, mit dem Ordnungsenergie Integrationsarchitekturen bewertet. Gleichzeitig schärft die Warnung vor plausiblen Lügen den Blick für KI-Ergebnisse, die überzeugend aussehen und trotzdem falsch sind. Und der Greenfield Approach liefert schließlich die Methode, um aufgelaufene Entropie auf null zu setzen, statt sie endlos zu verwalten.

Alle Bücher der Reihe

„Nutzlast – Was Ihre Dokumente wirklich transportieren“ ist erhältlich als Taschenbuch bei Amazon (ISBN 978-3-96459-037-4, €24,99) und als Kindle-Edition (€9,99). Für alle, die Dokumentensouveränität nicht nur fordern, sondern messen wollen.

Wer den Ballast in seinem Unternehmen messen will, bevor er das Buch liest: Die Methode steht in Kapitel 3. Dreißig Minuten. Zehn Dokumente. Eine Zahl.

Und wer danach reden will: Erstgespräch vereinbaren – eine Stunde, kostenlos, unverbindlich.


Michael Schmid ist Physiker, Principal Consultant und Eigentümer der it-dialog e.K. in Stuttgart. Er arbeitet seit 1985 in der Softwareentwicklung und hat die Dokumententechnologie von M/TEXT über Output Management bis zur heutigen Cloud-Architektur von innen erlebt.

Warum Tiefe sich lohnt: Eine Bestandsaufnahme zu KI in kritischen Anwendungen

Warum Tiefe sich lohnt: Eine Bestandsaufnahme zu KI in kritischen Anwendungen

KI Managed Service – das klingt nach Vereinfachung. Doch Tiefe ist mühsam. Sie kostet Zeit und verlangt Konzentration. Deshalb wird sie gern vermieden.

Doch in meiner Erfahrung führt genau diese Vermeidung zu dem, was alle vermeiden wollen: unnötige Kosten, unnötige Risiken, unnötige Nacharbeit.

Mein neues Buch „Das Helferlein-Paradox“ entstand aus einer einfachen Frage: Was passiert, wenn ich versuche, für einen KI Managed Service ein Service Level Agreement zu schreiben?

Die Antwort war unbequem. Aber sie hilft, Unnötiges zu vermeiden.

KI Managed Service: Was Sie erwartet

Wenn Sie Entscheidungen verantworten: Sie erfahren, warum die Compliance-Kosten für KI Managed Service in kritischen Anwendungen bei 500.000 bis 800.000 Euro im ersten Jahr liegen können – und warum diese Zahl keine Panikmache ist, sondern eine nüchterne Kalkulation.

Wenn Sie entwickeln oder konstruieren: Sie finden eine Sprache für das, was Sie vermutlich längst spüren. Den Unterschied zwischen einem Industrieroboter, der zuverlässig schweißt, und einem Sprachmodell, das plausibel klingt, aber nicht verlässlich ist. Und Sie finden Argumente für das nächste Gespräch mit jemandem, der meint, „mit KI läuft das doch von selbst“.

Wenn Sie lokale LLM-Infrastruktur aufbauen: Sie verstehen, warum das Researcher-Modell – KI als Werkzeug, nicht als Entscheider – der einzig gangbare Weg für verantwortungsvolle Anwendungen ist. Und was das für Ihre Architekturentscheidungen bedeutet.

Wenn Sie in Technologieunternehmen investieren: Sie lernen, welche Fragen Sie stellen sollten, bevor Sie in ein KI-Startup investieren. Was kann vertraglich zugesichert werden? Was nicht? Wo endet das Versprechen, wo beginnt die Hoffnung?

Wie dieses Buch über KI Managed Service entstand

Ich habe dieses Buch nicht gegen KI geschrieben. Ich habe es mit KI geschrieben. Und ich habe KI gebaut.

Meine Forschung war praktisch: der Entwurf einer LLM-Architektur für AWS. Persönliche Erfahrungen mit OpenAI und Anthropic über Monate hinweg. Versuche mit LMStudio und Ollama in meinem eigenen Lab – lokal, internetunabhängig, unter meiner Kontrolle.

Ich habe Agentensysteme getestet und dabei erlebt, wie sich APIs laufend ändern. Was gestern funktionierte, funktioniert heute anders – oder gar nicht mehr. Ich habe Online-Plattformen wie marblism.com evaluiert, die versprechen, fertige Agentenlösungen bereitzustellen. Und ich habe Microsoft Copilot Studio untersucht, um zu verstehen, wie Enterprise-Anbieter das Thema KI Managed Service angehen.

Jeder dieser Versuche lieferte Erkenntnisse. Nicht immer die erhofften. Aber immer nützliche.

Auch die Hardware-Frage stellte sich konkret. Mein Sohn baut gerne Rechner selbst – er spielt mit den besten verfügbaren Grafikkarten. Wir überlegten, ob er einen Rechner für mein Lab zusammenbauen würde. Also rechnete ich den Bedarf nach: Welche GPU-Speicher brauche ich für lokale Modelle in brauchbarer Größe? Was kostet das? Die Zahlen waren ein weiteres Argument, dieses Buch zu schreiben. Wer über KI-Infrastruktur entscheidet, sollte wissen, was sie wirklich kostet.

Ich wollte wissen, wie sich diese Systeme verhalten, wenn niemand zusieht. Was sie können. Wo sie scheitern. Und ob das, was die Anbieter versprechen, dem entspricht, was ich erlebe.

Die Fähigkeit, Service Level Agreements kritisch zu lesen und zu formulieren, kam nicht aus dem Nichts. Sie entstand durch jahrzehntelange Arbeit an Verträgen bei Kunden – und durch meine eigenen Entwürfe für einen Konzern, der einen Managed Service für kritische Infrastruktur vertraglich absichern musste. Wer einmal versucht hat, Garantien für etwas zu formulieren, das sich nicht garantieren lässt, vergisst diese Erfahrung nicht.

Claude, das Sprachmodell von Anthropic, wurde dabei mein Recherchewerkzeug, Sparringspartner und kritischer Gegenleser. Über Monate hinweg. In hunderten von Gesprächen.

Dabei habe ich genau das praktiziert, was ich im Buch als „Researcher-Modell“ beschreibe: Die KI liefert Material, Perspektiven, Formulierungsvorschläge. Die Entscheidung, was davon stimmt, was brauchbar ist, was veröffentlicht wird – die liegt bei mir.

Das ist keine Einschränkung. Das ist die einzige Arbeitsweise, die in kritischen Kontexten funktioniert.

Zwei Sprachen, drei Kontinente

Die deutschsprachige Ausgabe ist seit Januar 2026 verfügbar – als Kindle, in Kürze als Taschenbuch, und über Tolino im deutschen Buchhandel.

Die englische Ausgabe „The Little Helper Paradox“ erscheint in zwei Wochen. Sie durchläuft gerade den sprachlichen Feinschliff – validiert von einer kanadischen Lektorin, nach demselben Prinzip: KI als Werkzeug, Mensch als Entscheider.

Was mich besonders freut: Das Buch wird aktuell von IT-Profis in Indien gelesen, mit denen ich seit zwanzig Jahren zusammenarbeite. Unsere gemeinsame Erfahrung – was in der Zusammenarbeit zwischen deutschen und indischen Teams funktioniert und was nicht – ist direkt ins Buch eingeflossen. Kapitel 13a zieht die Parallele: Wer gelernt hat, dass erfolgreiche Offshore-Zusammenarbeit explizite Strukturen braucht, wird auch mit LLMs besser arbeiten. Die Verantwortung für klare Aufträge liegt beim Auftraggeber – nicht beim Ausführenden.

Und ja, ich erwarte auch die Auseinandersetzung mit amerikanischen Interessenvertretern. Ein Buch, das fragt, was KI nicht leisten kann, wird nicht überall Applaus ernten. Das ist in Ordnung. Die Fragen bleiben trotzdem richtig.

Was Leser über KI Managed Service sagen

Die ersten Rückmeldungen überraschen mich – in ihrer Bandbreite.

Eine Bibliothekarin schrieb, das Buch habe ihr Aufschluss gegeben, was es im verantwortlichen Entwicklungsumfeld alles zu beachten gäbe. Sie arbeitet nicht in der IT. Aber sie versteht jetzt, welche Fragen gestellt werden müssen.

Ein ehemaliger Schüler von mir – jemand, der jahrelang Beschaffungsentscheidungen in einem hochregulierten Industrieumfeld verantwortete, wo Fehler keine Option sind – formulierte es so:

„Ein ziemlich nahe an Wahnsinn und Ehrlichkeit gezeichnetes Buch. Respekt an deine tiefsinnigen Antworten auf noch ungestellte Fragen.“

Antworten auf noch ungestellte Fragen – das trifft es vielleicht am besten. Dieses Buch versucht nicht, den aktuellen Hype zu bedienen. Es versucht, die Fragen zu formulieren, die in zwei Jahren auf jedem Schreibtisch liegen werden.

Warum KI Managed Service nicht funktioniert

Große Sprachmodelle können beeindruckende Ergebnisse liefern. Aber sie können eines nicht: garantieren, dass das Ergebnis korrekt ist.

Das ist kein Bug. Das ist Systemverhalten.

Und deshalb funktioniert das klassische KI Managed Service-Modell – „Sie zahlen, wir garantieren“ – für LLM-Anwendungen in kritischen Bereichen nicht. Nicht aus technischen Gründen allein. Sondern aus vertraglichen, aus haftungsrechtlichen, aus organisatorischen.

Wer das versteht, kann KI sinnvoll einsetzen. Wer es ignoriert, wird Lehrgeld zahlen. Eine systematische GAP-Analyse hilft, die Lücken zwischen Versprechen und Realität sichtbar zu machen.

Für wen ist dieses Buch?

Für alle, die mit KI arbeiten wollen, ohne die Verantwortung abzugeben.

Für Ingenieure, die wissen, dass Fehler Konsequenzen haben.

Für Entscheider, die verstehen wollen, bevor sie unterschreiben.

Für Investoren, die wissen möchten, was hinter dem Versprechen liegt.

Und für alle, die glauben, dass tiefes Nachdenken keine Zeitverschwendung ist – sondern die einzige Art, Unnötiges zu vermeiden.


Das Helferlein-Paradox: LLM zwischen Versprechen und Verantwortung
Verfügbar als Kindle: Bei Amazon kaufen
Taschenbuch und Tolino: in Kürze

The Little Helper Paradox (Englisch)
Erscheint Februar 2026

Fragen zum Buch oder zu KI Managed Service in Ihrem Unternehmen? Nehmen Sie Kontakt auf.