Tour Online Strategiepapier

Es war einmal ein Drache...

Ein besonders scheußlicher Drache. Aus dem großen, grausamen Maul ragte ein einziger langer Zahn unsagbar abstoßend hervor.

Weiterlesen

In Michael Endes Jim Knopf lebt Frau Mahlzahn als furchteinflößende Drachin in der Stadt der Drachen. Sie betreibt eine Schule, in der Kinder unter strengster Aufsicht lernen. Wissen wird eingetrichtert, nicht verstanden.

Doch als Jim Knopf und Lukas sie besiegen — ohne sie zu vernichten — geschieht etwas Außergewöhnliches: Frau Mahlzahn verwandelt sich in den Goldenen Drachen der Weisheit.

Frau Mahlzahn

Wissen wird erzwungen. Fehler werden bestraft. Die Lernenden haben Angst vor dem, was sie nicht verstehen.

Goldener Drache

Wissen wird geteilt. Neugier wird belohnt. Die Lernenden verstehen und gestalten mit.

Mahlzahn ist unsere Plattform für genau diese Verwandlung: Aus einem Wirrwarr an KI-Werkzeugen und Sprachmodellen wird eine klare, tagesaktuelle Wissenslandschaft — für alle bei Tour Online.

Die Herausforderung

Alle zwei Wochen eine neue Welt

Die Welt der Künstlichen Intelligenz bewegt sich so schnell, dass kein Mensch allein mithalten kann. Was heute als das beste Werkzeug gilt, ist morgen schon überholt.

2 → 2 Unser Ziel: Entwicklungszyklen von 2 Jahren auf 2 Wochen
~100 Mitarbeitende in Wernau und Leipzig, die KI verstehen und nutzen sollen
Kombinationen aus Sprachmodellen, Werkzeugen und Diensten — jede mit eigenen Stärken und Risiken

Das betrifft nicht nur die Entwicklung. Marketing braucht Bildgenerierung. Der Vertrieb braucht Recherche-Werkzeuge. Der Support braucht intelligente Antworten. Jede Abteilung hat andere Anforderungen — aber alle brauchen aktuelles, verlässliches Wissen.

Die Frage ist nicht, ob wir KI einsetzen. Die Frage ist: Wie stellen wir sicher, dass alle im Team wissen, was funktioniert, was sicher ist und was sich wirklich lohnt?

Die Lösung

Mahlzahn

Eine Wissens- und Lernplattform, die KI-Wissen lebendig hält. Tagesaktuell, personalisiert, für jede Abteilung. Nicht noch ein Wiki, das nach drei Wochen veraltet. Sondern ein System, das mit dem Tempo der KI-Welt Schritt hält.

1

Wissensdatenbank

Alle KI-Modelle, Werkzeuge, Dienste und deren Zusammenspiel — strukturiert, verknüpft und immer aktuell. Inklusive Datenschutz-Bewertung.

2

Tagesaktuelle Lektionen

Stell eine Frage und bekomme eine Präsentation mit etwa 10 Folien. Automatisch generiert aus dem neuesten Wissen. Nie veraltet.

3

Persönliches Wissensradar

Jeder sieht, was er schon kann und wo Lücken sind. Empfehlungen, die zum eigenen Arbeitsbereich passen — nicht eine Schulung für alle.

4

Strukturierte Experimente

Neues Werkzeug ausprobieren? Mahlzahn begleitet den Test, erinnert an die Auswertung und teilt Erkenntnisse mit dem Team.

5

Info-Magazin

Kuratierte Erkenntnisse und Warnungen — ein Feed, der zeigt, was in der Firma gerade ausprobiert wird und funktioniert.

6

Rollen und Zugänge

Wer hat Zugang zu welchen KI-Diensten? Welche Abos und Lizenzen nutzt die Firma? Transparenz statt Schatten-IT.

Die Vision

Das KI-Hausmeister-Team

Mahlzahn hat eigene Agenten — kleine KI-Programme, die rund um die Uhr im Hintergrund arbeiten und dafür sorgen, dass alles aktuell bleibt. Niemand muss manuell nachpflegen.

Neues Modell? Google veröffentlicht Gemini 4.0 — der Agent erkennt das, legt das Modell an und ergänzt es automatisch in allen Vergleichstabellen und Folien, in denen es relevant ist. Veraltete Folie? Die Folie „Aktuelle Bildmodelle" ist 3 Wochen alt — der Agent prüft, ob neue Bewertungen vorliegen, und aktualisiert die Inhalte. Die nächste Präsentation zeigt den neuesten Stand. Neuer Anbieter? Ein europäischer Cloud-Dienst bietet jetzt Llama-Hosting an — der Agent trägt die neue Option ein und bewertet den Datenschutz-Kontext automatisch. Preisänderung? Ein Dienst wird teurer oder günstiger — der Agent aktualisiert die Account-Informationen und markiert betroffene Szenarien zur Überprüfung. Modell abgekündigt? GPT-4o wird eingestellt — der Agent erkennt das, markiert das Modell als „Eingestellt" und benachrichtigt alle, die es per API-Key in eigenen Anwendungen nutzen: „Achtung, eure App verwendet ein auslaufendes Modell. Hier sind die empfohlenen Alternativen."

So bleibt das Wissen in Mahlzahn lebendig — ohne dass das AI-Committee jede Änderung von Hand nachpflegen muss. Die Agenten übernehmen die Fleißarbeit, die Menschen kümmern sich um Einordnung und Qualität.

Das Fundament

Alles hängt zusammen

Die KI-Welt besteht nicht aus einzelnen Werkzeugen. Es geht immer um Kombinationen: Welches Sprachmodell nutze ich, in welchem Werkzeug, bei welchem Anbieter? Und ist das datenschutzkonform?

Was Mahlzahn kennt

Hersteller Modellfamilie Modell Modellvariante Werkzeug / App IDE-Integration Erweiterung Anbieter / Hosting Account / Abo Szenario Bewertung Wissensartikel

Klicke auf eine Kategorie, um Beispiele zu sehen

Hersteller — Wer entwickelt die Modelle?
Vom Silicon-Valley-Giganten bis zum Berliner Startup — KI-Modelle kommen aus der ganzen Welt.
Anthropic (USA) OpenAI (USA) Google DeepMind (USA) Meta (USA) xAI / Elon Musk (USA) Cohere (Kanada) Black Forest Labs (USA/DE) Mistral AI (Frankreich) Aleph Alpha (Deutschland) Stability AI (UK) Suno (UK) ElevenLabs (UK/PL) DeepSeek (China) Alibaba / Qwen (China) Zhipu AI / GLM (China) MiniMax (China) 01.AI / Yi (China)
■ USA / Kanada ■ Europa ■ China
Modellfamilien — Produktlinien der Hersteller
Jeder Hersteller hat mehrere Modellfamilien mit unterschiedlichen Stärken und Preisklassen.
Opus (Anthropic, High-End) Sonnet (Anthropic, Allrounder) Haiku (Anthropic, Schnell) Mythos (Anthropic, Neu) GPT (OpenAI, Allrounder) o-Serie (OpenAI, Reasoning) Gemini (Google, Allrounder) Gemma (Google, Offen) Llama (Meta, Offen) Grok (xAI) Mistral (Mistral AI) Mixtral (Mistral AI, MoE) Codestral (Mistral, Code) Devstral (Mistral, Agents) Pixtral (Mistral, Vision) FLUX (Black Forest Labs, Bilder) Stable Diffusion (Stability AI, Bilder) DeepSeek (DeepSeek) Qwen (Alibaba) Suno (Musik) ElevenLabs (Sprache)
■ US-Anbieter ■ Europa ■ China ■ Open Weight
Modelle — Konkrete Versionen
Neue Versionen erscheinen alle paar Wochen. Was heute Spitze ist, kann morgen überholt sein.
Claude Opus 4.6 Claude Sonnet 4.6 Claude Haiku 4.5 GPT-5.2 GPT-4o o4-mini o3 Gemini 3.1 Gemini 2.5 Pro Gemma 4 Llama 4 Maverick Llama 4 Scout Grok 3 Grok 3 Mini Mistral Large 2 Codestral 25.01 Devstral Small Pixtral Large DeepSeek V3 DeepSeek R1 Qwen 3 Qwen 2.5 Max FLUX 1.1 Pro FLUX Schnell Stable Diffusion 3.5 Nano Banana 3 (Gemini) DALL-E 4 Suno v4.5 ElevenLabs Turbo v3 MiniMax Speech-02 Sora (OpenAI, Video) Kling 2.0 (Kuaishou, Video)
Modellvarianten — Größe und Quantisierung
Offene Modelle gibt es in verschiedenen Größen. Kleinere laufen auf dem Laptop, größere brauchen starke Server.
Gemma 4 9B Q4_K_M (6 GB, Laptop) Gemma 4 27B Q8 (28 GB, Workstation) Llama 4 Scout 17B (12 GB, Laptop) Llama 4 Maverick 400B (Server) Qwen 3 8B GGUF (5 GB, Laptop) Qwen 3 32B (22 GB, Workstation) Qwen 3 235B (Server-Cluster) DeepSeek R1 7B Q4 (4 GB, Laptop) DeepSeek R1 70B (Server) DeepSeek R1 671B (Multi-GPU) Mistral Small 24B (16 GB) Devstral Small 24B GGUF FLUX Schnell FP8 (12 GB GPU) SD 3.5 Large Turbo (8 GB GPU)
■ Alle offen — können lokal oder auf eigenem Server betrieben werden
Werkzeuge und Apps — Womit arbeitet man?
Vom Browser-Chat bis zum Profi-Terminal — für jedes Erfahrungslevel und jeden Anwendungsfall.
Claude.ai (Chat) ChatGPT (Chat) Gemini App (Chat) Perplexity (Recherche) Grok.com (Chat) Claude Code CLI (Terminal) Gemini CLI (Terminal) Aider (Terminal, offen) Open Code (Terminal, offen) Ollama (Lokal) LM Studio (Lokal) Open WebUI (Lokal) Jan (Lokal) Flora.ai (Bilder, Aggregator) Freepik AI (Bilder, Aggregator) Midjourney (Bilder) Canva AI (Design) Suno (Musik) Udio (Musik) ElevenLabs (Sprache) MiniMax (Text/Bild/Video/Musik) Higgsfield (Video) Runway (Video) Kling (Video) Cursor IDE (Code) Windsurf IDE (Code)
■ Cloud-Dienst ■ Europa ■ China ■ Open Source ■ Lokal installierbar
IDE-Integrationen — KI direkt im Editor
Programmier-Umgebungen, in die KI-Assistenten als Erweiterung eingebaut werden.
Claude-Plugin f. VS Code Claude-Plugin f. Antigravity Claude-Plugin f. PHPStorm GitHub Copilot f. VS Code Cline f. VS Code Continue f. VS Code Cody (Sourcegraph) f. VS Code Cursor (eingebaute KI) Windsurf (eingebaute KI) Antigravity (eingebaute KI) JetBrains AI Assistant
Erweiterungen — Skills, MCPs, Plugins
Zusatzfähigkeiten, die auf Werkzeugen aufsetzen. Wie Apps auf dem Smartphone.
Firecrawl MCP (Web-Scraping) Figma MCP (Design) GitHub MCP (Code-Verwaltung) Playwright MCP (Browser-Test) Supabase MCP (Datenbank) Stripe MCP (Zahlungen) Gmail MCP (E-Mail) Google Calendar MCP (Kalender) Slack MCP (Chat) Frontend-Design Skill Brainstorming Skill Code-Review Skill TDD Skill (Testgetrieben) nano-banana Skill (Bilder) Context7 (Dokumentation) Cursor Rules
Anbieter und Hosting — Wo laufen die Modelle?
Derselbe Algorithmus an verschiedenen Orten — mit ganz unterschiedlichen Datenschutz-Konsequenzen.
Anthropic API (USA) OpenAI API (USA) Google Cloud AI (USA/EU) Azure OpenAI (USA/EU) AWS Bedrock (USA/EU) Groq (USA, ultraschnell) Together AI (USA) Fireworks AI (USA) Replicate (USA) HuggingFace (USA) IONOS (Deutschland) Hetzner (Deutschland) OVH (Frankreich) Scaleway (Frankreich) Mistral API (Frankreich) DeepSeek API (China) Alibaba Cloud (China) Eigener Rechner (lokal) Firmenserver (intern)
■ USA — Daten verlassen EU ■ Europa — DSGVO-konform ■ China — Datenschutz kritisch ■ Lokal — maximale Kontrolle
Accounts und Abos — Wer hat Zugang wozu?
Vom persönlichen Abo bis zum Firmen-API-Key — Mahlzahn behält den Überblick.
Claude Max (persönlich) Claude Team (Abteilung) ChatGPT Plus (persönlich) ChatGPT Enterprise (Firma) Gemini Advanced (persönlich) Perplexity Pro (persönlich) Flora.ai Team-Abo (Marketing) Midjourney Business (Design) Cursor Pro (Entwicklung) Suno Pro (Marketing) ElevenLabs Scale (Firma) Anthropic API-Key (Entwicklung) OpenAI API-Key (Entwicklung) Google AI API-Key (Entwicklung) Groq API-Key (Entwicklung) HuggingFace Pro (Entwicklung)
Szenarien — Bewährte Kombinationen
Vom AI-Committee geprüfte Best Practices: Was funktioniert, was ist sicher, was lohnt sich?
Datenschutzkonformes Coding: Claude Code + Gemma 4 lokal Maximale Code-Qualität: Claude Code + Opus 4.6 via Anthropic Marketing-Bilder: Flora.ai Team-Abo + Nano Banana 3 Recherche mit Quellen: Perplexity Pro (keine Kundendaten!) Support-Antworten: Ollama + Gemma 4 auf Firmenserver EU-konformes LLM: Mistral Large via Mistral API (FR) Musik für Content: Suno v4.5 Pro-Abo Warnung: DeepSeek via DeepSeek API (CN) — nicht für sensible Daten
Bewertungen — Erfahrungen aus der Praxis
Jede Bewertung hat einen Zeitstempel und verliert über Zeit an Relevanz. Kuratoren-Stimmen wiegen stärker.
Claude Code + Opus 4.6: Best Practice für Code-Refactoring. Zeitersparnis ~60%. — Sophia, Entwicklung, vor 5 Tagen Flora.ai + Nano Banana 3: Beste Bildqualität für Social Media. Lernkurve mittel. — Tom, Marketing, vor 12 Tagen Gemma 4 32B lokal: Gute Qualität, läuft auf Workstation stabil. Für Support-Antworten top. — Marco, Support, vor 3 Wochen Perplexity + Opus: Exzellent für Hotelrecherche, aber Vorsicht mit Kundendaten. — Lisa, Vertrieb, vor 1 Woche GPT-4o für Code: Gut, aber Opus 4.6 inzwischen deutlich besser. — verblasst, vor 4 Monaten
Wissensartikel — Das Fundament
Permanentes Grundlagenwissen, das sich selten ändert. Die Basis, auf der alles andere aufbaut.
Was ist ein Large Language Model (LLM)? Wie wird ein KI-Modell trainiert? Open Source vs. proprietär — was bedeutet das? Wie funktioniert Bildgenerierung? Datenschutz bei KI-Diensten: Was darf wo hin? Was ist ein Prompt, und wie schreibt man einen guten? Lokal vs. Cloud: Wann lohnt sich was? Was sind Tokens und warum kosten sie Geld? Halluzinationen: Warum erfindet die KI manchmal Dinge? RAG: Wie bringt man einer KI firmeneigenes Wissen bei?

Das Entscheidende: Ob ein KI-Werkzeug sicher ist, hängt nicht vom Werkzeug allein ab. Es hängt davon ab, welches Sprachmodell man nutzt und wo es betrieben wird. Das gleiche Werkzeug kann sicher oder problematisch sein — je nach Kombination.

Ein Beispiel: Claude Code ist ein Programmier-Assistent. Nutzt man ihn mit dem Opus-Modell über den amerikanischen Dienst Anthropic, fließen Daten in die USA. Nutzt man stattdessen ein offenes Modell wie Gemma auf dem eigenen Rechner, bleibt alles lokal. Gleiches Werkzeug, ganz anderer Datenschutz.

Probier es aus: Der Kombinationsrechner

Klicke in jeder Spalte auf eine Option und sieh, wie sich die Datenschutz-Bewertung verändert.

Werkzeug
Claude Code CLI
Flora.ai
Perplexity
Ollama
Cursor IDE
Sprachmodell
Opus 4.6
Gemini 3.1
Gemma 4 (offen)
DeepSeek V3 (offen)
GPT-5.2
Betrieben bei
Anthropic (USA)
Google Cloud (EU)
IONOS (Deutschland)
Eigener Rechner
DeepSeek (China)

Wähle je eine Option pro Spalte...

Praxisbeispiele

Für jede Abteilung relevant

Mahlzahn ist kein reines Entwickler-Werkzeug. Jede Abteilung bei Tour Online hat eigene Berührungspunkte mit KI — und eigene Fragen. Hier einige Szenarien.

Sophia aus der Entwicklung arbeitet an der DIRS21-Buchungsschnittstelle. Sie nutzt Claude Code CLI mit dem Opus 4.6-Modell, um bestehenden Code zu verbessern und neue Endpunkte zu schreiben.

Auf Mahlzahn hat sie gesehen, dass das Firecrawl-MCP — eine Erweiterung für Claude Code — automatisch die Dokumentation von Wettbewerber-Schnittstellen auslesen kann. Das hat sie über das Wissenslücken-Radar entdeckt: „80% der Power-User nutzen MCP-Erweiterungen — du noch nicht."

Sie legt ein Experiment an: „Firecrawl-MCP für API-Dokumentation", Laufzeit 2 Wochen.

Ergebnis nach 2 Wochen

  • Zeitersparnis ~60%
  • Reproduzierbar Mit Anleitung
  • Empfehlung Alle Devs
  • Datenschutz Unbedenklich

Tom aus dem Marketing erstellt wöchentlich Bilder für LinkedIn-Posts. Bisher nutzt er Stockfotos, die nie wirklich zum Inhalt passen.

Auf Mahlzahn findet er im Info-Magazin den Beitrag: „Bildgenerierung 2026 — welche Werkzeuge liefern die besten Ergebnisse?" Er erfährt, dass Flora.ai viele verschiedene Bildmodelle unter einem Dach bündelt und dass das Marketing-Team bereits ein gemeinsames Abo hat.

Tom startet ein Experiment: „Flora.ai für LinkedIn-Hotel-Bilder". Er beschreibt im Chat einfach, was er vorhat — Mahlzahn strukturiert das automatisch.

Ergebnis nach 2 Wochen

  • Zeitersparnis 30 Min / Bild
  • Bildqualität Deutlich besser
  • Lernkurve Mittel
  • Empfehlung Marketing-Team

Lisa im Vertrieb bereitet Kundengespräche vor. Sie muss verstehen, welchen technischen Stand ein Hotel hat, um DIRS21 passend anzubieten.

Über Mahlzahn weiß sie, dass Perplexity eine Recherche-Plattform ist, die verschiedene Sprachmodelle nutzt und Quellen direkt verlinkt. Für Hotelrecherche ist das ideal: In Minuten statt Stunden findet sie heraus, welche Buchungssysteme ein Hotel aktuell nutzt.

Mahlzahn zeigt ihr auch: „Achtung — Perplexity speichert Suchanfragen. Keine vertraulichen Kundendaten eingeben."

Ergebnis

  • Recherchezeit -70%
  • Angebotsqualität Individueller
  • Datenschutz Beachten
  • Empfehlung Sales-Team

Marco im Support beantwortet täglich Dutzende Kundenanfragen zur DIRS21-Konfiguration. Viele Fragen wiederholen sich, aber die Antworten müssen präzise sein.

Auf Mahlzahn hat er gelernt, dass man ein offenes Sprachmodell wie Gemma 4 auf dem eigenen Rechner betreiben kann — völlig datenschutzkonform, weil keine Daten das Haus verlassen. Er hat das Modell mit der DIRS21-Dokumentation gefüttert.

Sein Experiment: „Lokales Gemma-4-Modell für DIRS21-Support-Antworten".

Ergebnis nach 3 Wochen

  • Antwortzeit -40%
  • Genauigkeit Hoch
  • Datenschutz Lokal = sicher
  • Empfehlung Gesamter Support

Die Geschäftsführung will wissen: Wie steht es um die KI-Kompetenz in der Firma? Wo lohnen sich Investitionen? Welche Risiken gibt es?

Mahlzahn liefert ein Dashboard mit klaren Kennzahlen: Wie viele Mitarbeitende haben Grundlagen-Lektionen abgeschlossen? Welche Abteilung experimentiert am meisten? Wo werden die größten Zeiteinsparungen erzielt?

Und: Welche KI-Dienste sind im Einsatz, was kosten sie, und gibt es Datenschutz-Risiken durch unkontrollierte Nutzung?

Kennzahlen auf einen Blick

  • Grundlagen-Level 73% erreicht
  • Aktive Experimente 12 laufend
  • Meiste Tests Marketing
  • Höchster ROI Support

Die praktische Seite

Wie arbeite ich eigentlich mit KI?

Es reicht nicht zu wissen, dass es Claude, Gemini oder Ollama gibt. Die entscheidende Frage ist: Wie setze ich das konkret ein? Auf meinem Rechner? Auf einem Server? In der Cloud? Und welche Erweiterungen brauche ich?

Wo läuft die KI?

A

Auf deinem Rechner

Du installierst ein Werkzeug wie Claude Code CLI oder Ollama direkt auf deinem Laptop. Ideal für den Einstieg und für Aufgaben, bei denen Daten das Haus nicht verlassen sollen. Wie eine App, die du startest und mit der du direkt loslegen kannst.

Beispiel: Sophia öffnet ihr Terminal und tippt eine Frage an Claude Code — direkt neben ihrem Programmcode.

B

Auf einem Firmenserver

Ein leistungsstarker Rechner im Unternehmen, auf dem offene Modelle wie Gemma 4 oder Llama laufen. Alle Mitarbeitenden können darauf zugreifen — mehr Rechenleistung als der eigene Laptop, und trotzdem bleiben alle Daten intern.

Beispiel: Marco im Support nutzt das Firmen-Gemma für Kundenantworten — schneller als lokal und 100% datenschutzkonform.

C

In der Cloud

Dienste wie Claude.ai, ChatGPT oder Flora.ai laufen beim jeweiligen Anbieter. Einfachster Einstieg — Browser öffnen und loslegen. Dafür fließen Daten an den Anbieter. Auch automatisierte Agenten können in der Cloud laufen und eigenständig Aufgaben erledigen.

Beispiel: Ein Cloud-Agent prüft jede Nacht, ob neue KI-Modelle erschienen sind, und aktualisiert die Wissensdatenbank.

Mahlzahn dokumentiert für jede dieser Varianten: Was brauche ich dafür? Was kostet es? Und welche Daten verlassen meinen Arbeitsplatz?

Das Erweiterungs-Ökosystem

Moderne KI-Werkzeuge sind keine geschlossenen Systeme mehr. Sie lassen sich erweitern — wie ein Smartphone, auf dem man Apps installiert. Diese Erweiterungen machen den eigentlichen Unterschied im Arbeitsalltag.

Skills

Spezialisierte Fähigkeiten, die man einem KI-Werkzeug beibringen kann. Ein „Brainstorming"-Skill führt strukturiert durch Ideenfindung. Ein „Frontend-Design"-Skill erstellt professionelle Webseiten. Ein „Code-Review"-Skill prüft Programmcode auf Fehler.

Wie eine Spezialisierung: Die KI kann vieles, aber mit dem richtigen Skill wird sie richtig gut in einer bestimmten Sache.

MCP-Server

Verbindungen zu externen Diensten. Statt Daten manuell hin- und herzukopieren, greift die KI direkt auf Werkzeuge zu: Figma-Designs lesen, Datenbanken abfragen, E-Mails versenden, Webseiten analysieren, Kalender verwalten.

Wie Adapter: Die KI wird an bestehende Systeme angeschlossen und kann dort lesen und schreiben.

Befehle und Workflows

Häufig genutzte Abläufe als Kurzbefehl. Statt jedes Mal zu erklären, was man braucht, tippt man z.B. /commit und die KI erstellt eine saubere Änderungsbeschreibung. Oder /review für eine automatische Code-Prüfung.

Wie Makros: Komplexe Abläufe auf einen einzigen Befehl reduziert.

Automatische Regeln

Regeln, die im Hintergrund mitlaufen. Zum Beispiel: „Prüfe vor jedem Speichern, ob versehentlich Passwörter im Code gelandet sind." Oder: „Wenn eine Datei geändert wird, formatiere sie automatisch nach unseren Firmenstandards."

Wie ein Sicherheitsnetz: Schützt vor häufigen Fehlern, ohne dass man daran denken muss.

Was sollte ich installiert haben?

Genau das ist eine der Kernfragen, die Mahlzahn beantwortet — personalisiert nach Abteilung und Aufgabengebiet. Statt einer allgemeinen Liste bekommt jeder Empfehlungen, die zu seiner Arbeit passen.

Für Entwickler

  • Claude Code CLI mit Code-Review-Skill
  • Firecrawl-MCP für API-Dokumentation
  • Git-Hooks für automatische Sicherheitsprüfungen
  • IDE-Integration (Cursor, VS Code, Antigravity)

Für alle anderen Abteilungen

  • Claude.ai oder ChatGPT für Text und Recherche
  • Flora.ai oder Freepik für Bildgenerierung
  • Perplexity für Faktenrecherche mit Quellenangabe
  • Suno oder MiniMax für Audio und Video

Diese Empfehlungen veralten. Was heute gilt, ist in 3 Monaten vielleicht überholt. Deshalb kommen sie nicht aus einer statischen Liste, sondern aus Mahlzahn — tagesaktuell, basierend auf den Erfahrungen aller 100 Kolleginnen und Kollegen.

Wo halte ich mich auf dem Laufenden?

Genau dafür gibt es Mahlzahn. Statt zehn Newsletter, fünf YouTube-Kanäle und drei Slack-Gruppen zu verfolgen, gibt es eine zentrale Anlaufstelle:

1 Info-Magazin öffnen — kuratierte, aktuelle Präsentationen zu den wichtigsten Themen 2 Wissensradar checken — was hat sich seit meinem letzten Besuch verändert? 3 Experimente verfolgen — was testen Kollegen gerade, und was sind die Ergebnisse? 4 Frage stellen — zu jedem Thema eine aktuelle Lektion generieren lassen

Die Lektions-Engine

Frag einfach — und lerne

Statt eines starren Lehrplans funktioniert Mahlzahn wie eine kluge Kollegin: Du stellst eine Frage, und bekommst eine aktuelle, verständliche Präsentation mit etwa 10 Folien.

So funktioniert es

1
Du fragst — z.B. „Welche Modelle erzeugen gerade die besten Bilder?"
Mahlzahn prüft — Gibt es die Frage schon? Du siehst Vorschläge und wählst oder lässt neu generieren.
2
Präsentation wird erstellt — etwa 10 Folien, generiert aus dem aktuellen Wissensbestand.
Du lernst — Durchblättern wie eine Präsentation oder als Artikel lesen.

So sieht eine Folie aus

Bildgenerierung 2026 — Die Top-Modelle im Vergleich

ModellHerstellerStärkeVerfügbar über
Nano Banana 3GoogleFotorealismusGemini, Flora.ai
DALL-E 4OpenAIKreative StileChatGPT, API
Flux UltraBlack Forest LabsSchnelligkeitFreepik, Flora.ai
Stable Diffusion 4Stability AILokal nutzbarOllama, eigener Server

Stand: April 2026 · Basierend auf 47 Bewertungen · Nächste Aktualisierung in 12 Tagen

Nie veraltet

Jede Folie weiß, worauf sie sich bezieht. Wenn ein neues Modell erscheint oder sich Bewertungen ändern, erkennt ein Hintergrundprozess das automatisch und aktualisiert die betroffenen Folien. Die Folie „Aktuelle Bildmodelle" zeigt immer den neuesten Stand — nicht den von vor sechs Monaten.

Besonders gute Präsentationen werden vom AI-Committee angepinnt und erscheinen im Info-Magazin — einem kuratierten Feed, in dem alle auf dem Laufenden bleiben können.

Angepinnt

Bildgenerierung: Was funktioniert wirklich?

Vergleich der aktuellen Bildmodelle mit Praxisbewertungen aus Marketing und Design.

10 Folien · Aktualisiert vor 3 Tagen · 34 Aufrufe
Neu

Lokale Modelle: Was läuft auf dem eigenen Rechner?

Von Gemma 4 bis Llama 3 — welche Modelle funktionieren ohne Cloud und ohne Datenschutzsorgen.

8 Folien · Erstellt heute · 12 Aufrufe
Bestseller

Was passiert eigentlich, wenn ich ChatGPT eine Frage stelle?

Für alle, die verstehen wollen wie Sprachmodelle funktionieren — ohne Informatikstudium.

12 Folien · Aktualisiert vor 1 Woche · 89 Aufrufe

Strukturiertes Lernen

Experimente statt Bauchgefühl

Jemand hat ein neues KI-Werkzeug entdeckt? Statt es still und leise auszuprobieren und die Erkenntnisse für sich zu behalten, macht Mahlzahn daraus einen strukturierten Prozess — mit Auswertung und geteiltem Wissen.

Tom beschreibt, was er vorhat

Kein Formular, sondern ein Gespräch:

Tom
Ich möchte Flora.ai testen, ob wir damit bessere Bilder für unsere LinkedIn-Posts hinbekommen als mit Canva. Würde das zwei Wochen lang ausprobieren.
Mahlzahn
Verstanden! Ich lege das an: „Flora.ai für LinkedIn-Hotel-Bilder", Zielgruppe Marketing, Laufzeit 2 Wochen, Vergleich mit Canva. Du hast Zugang über das Marketing-Team-Abo. Passt das?

Das Experiment läuft

Tom arbeitet zwei Wochen mit Flora.ai. Das Experiment ist auf Mahlzahn sichtbar — andere sehen: „Tom testet gerade Flora.ai für Social-Media-Bilder". Keine Doppelarbeit.

Erinnerung: Zeit für ein Fazit

Nach zwei Wochen bekommt Tom eine Nachricht: „Dein Experiment läuft seit 2 Wochen — wie ist dein Eindruck?"

Auswertung als KI-Interview

Kein Formular, sondern wieder ein Gespräch:

Mahlzahn
Hat sich Flora.ai für deine LinkedIn-Bilder bewährt?
Tom
Ja, die Bilder sind deutlich besser als Canva-Stock. Man braucht etwas Übung mit den Eingaben, aber es spart locker 30 Minuten pro Bild.
Mahlzahn
Würdest du es anderen empfehlen?
Tom
Auf jeden Fall, aber mit einer kurzen Einführung. Ohne Anleitung ist der Einstieg holprig.

Ergebnis fließt zurück

Mahlzahn fasst das Gespräch als strukturierte Bewertung zusammen. Tom bestätigt mit einem Klick. Danach passiert automatisch:

  • Flora.ai wird als empfehlenswert für Marketing markiert
  • Die Folie „Beste Bild-Werkzeuge" wird aktualisiert
  • Im Info-Magazin erscheint: „Tom hat Flora.ai getestet — empfehlenswert"
  • Kollegen mit ähnlichem Profil sehen: „Neues Experiment relevant für dich"

Personalisierung

Dein persönliches Wissensradar

Mahlzahn zeigt dir nicht nur, was es gibt — sondern was dir noch fehlt. Basierend auf deiner Rolle, deinen genutzten Werkzeugen und deinem bisherigen Lernfortschritt.

Beispiel-Ansicht für eine Marketing-Mitarbeiterin

KI-Grundlagen
Bildgenerierung
Text und Prompting
Datenschutz und Anbieter
Videogenerierung

Das Radar zeigt: Grundlagen sitzen, Bildgenerierung ist gut — aber beim Thema Datenschutz und bei Videogenerierung gibt es Lücken. Mahlzahn empfiehlt passende Lektionen und zeigt Experimente von Kollegen, die hier schon Erfahrung gesammelt haben.

Die Vision

Der Goldene Drache der Weisheit

Frau Mahlzahn wurde nicht getötet. Sie wurde verwandelt. Aus Angst vor dem Unbekannten wurde fundiertes Wissen. Aus chaotischem Ausprobieren wurde strukturiertes Lernen. Aus Einzelkämpfern wurde eine lernende Organisation.

100 Mitarbeitende mit aktuellem KI-Wissen
1 zentrale, lebendige Wissensquelle
0 veraltete Schulungsunterlagen

Mahlzahn macht aus Tour Online den Goldenen Drachen — eine Organisation, die KI nicht fürchtet, sondern versteht und meistert.

TOUR ONLINE · DIRS21 · WERNAU · LEIPZIG