
Wenn es darum geht, Inhalte oder Vorgänge zu bewerten oder einzuordnen, ist der Mensch ziemlich gut. Allerdings ist er langsam. Deutlich schneller arbeiten KIs: Wir können sie als nimmermüde Schiedsrichter, Bewerter, Gutachter oder Aufgabenverteiler einsetzen. Meistens wird dafür der Begriff LLM-as-a-Judge verwendet. Dass das nicht immer glatt läuft, versteht sich von selbst. In diesem Artikel gibt’s einen teils ernüchternden, teils hoffnungsfrohen Test.
Inhalt
- Artikel zu ähnlichen Themen
- Was ist LLM-as-a-Judge?
- Analogie: Fußball
- Praxistest: So kritisch ist der Einsatz von LLM-Judges
- Das Test-Setup
- Der Sytem Prompt – die "Spielregeln" für den KI-Schiri
- Fangen wir an mit Claude 4 Sonnet (im Thinking-/Reasoning-Modus):
- Claude 4 Opus antwortet so:
- Lassen wir Claude 3.7 Sonnet ran:
- Wechseln wir zu OpenAI: Wie schlägt sich das Premium-LLM o3?
- Fragen wir GPT 4.1 – also ein modernes Modell ohne Reasoning:
- Und so bewertet die KI die optimierten KI-Texte:
- Vorteile der KI-Schiris
- Bewertungsansätze
- Praxisbeispiele
- Strategische Empfehlungen
- Fazit
Was ist LLM-as-a-Judge?
LLM-as-a-Judge ist eine Evaluierungsmethode, bei der LLMs, also große KI-Sprachmodelle, die Qualität von KI-generierten – oder auch menschlichen – Inhalten bewerten. Statt menschliche Prüfer für jede Bewertung zu beauftragen, übernimmt im Idealfall ein weiteres KI-Modell diese Rolle. Zudem kannst du mehrere KIs miteinander verknüpfen bzw. hintereinanderschalten.
Analogie: Fußball
Wenn wir eine KI als Schiri einsetzen wollen läuft das ähnlich ab wie beim Fußball:
- Es gibt eine Ausgangssituation, also einen Input. Beispiel: Der Ball ist auf der Torlinie. Ist es ein Tor oder nicht? Ein Schiri muss also eine Entscheidung treffen. Auch eine KI muss als Judge eine Bewertung abgeben – entweder für eine konkrete Situation oder einen A/B-Vergleich.
- Damit der Schiri arbeiten kann, braucht er verbindliche Regeln. Diese Regeln müssen wir festlegen – bei einer KI über den System Prompt etc.
- Als ersten Schiri setzen wir einen Linienrichter ein. Denn zuerst müssen wir wissen, ob wir über das Thema Abseits sprechen müssen. Auf die KI-Welt übertragen könnte das bedeuteten, dass du für den ersten Bewertungsschritt gezielt nach speziellen Auffälligkeiten suchen lässt. Dieser „Linienrichter“ darf allein noch keine finale Entscheidung treffen.
- Als zweiten Schiri haben wir den normalen Schiedsrichter. Dieser bekommt das vom Linienrichter bewertete Ergebnis und nimmt eine Gesamtschau vor.
- Bei kippligen Fällen, wenn sich also der Schiri unsicher ist, kann er den Videoschiedsrichter im Kölner Keller dazuschalten.
- Im Ergebnis sollte das Bewertungsgesamtresultat einigermaßen belastbar sein.
LLM-as-a-Judge: Der Schiedsrichter-Leitfaden
Praxistest: So kritisch ist der Einsatz von LLM-Judges
Zwei Juristen, drei Meinungen: Dieser alte Spruch gilt auch für LLM-as-a-Judge. Ich habe in einem Test-Setup LLMs als Judge (bzw. „Lektor“) für einen KI-generierten LinkedIn-Posting-Text eingesetzt – und alle Ergebnisse waren unterschiedlich.
Das bedeutet: Wenn du LLM-as-a-Judge nutzen willst, musst du gründlich testen, wie sich dein Schiri verhält.
In dieser Tabelle siehst du, wie die verschiedenen LLMs den Input-Text bewertet haben. Bei identischem System Prompt schwankt die Bewertung zwischen 6,0 und 7,5. Der System Prompt hat die Vorgabe, dass unter 7,9 Punkten die KI einen Verbesserungsvorschlag machen soll.
In der dritten Spalte ist meine Bewertung des optimierten Postings – die Ergebnisse sind fast immer brauchbar.
| LLM | Eingangsbewertung | Meine Bewertung nach Optimierung |
| Claude 4 Sonnet | 7,5/10 | Nutzbar |
| Claude 4 Opus | 6,8/10 | Gut nutzbar |
| Claude 3.7 Sonnet | 6,5/10 | Nicht nutzbar (halluziniert) |
| OpenAI o3 | 6,0/10 | Gut nutzbar |
| OpenAI GPT 4.1 | 6,9/10 | Nutzbar |
Am Ende des Vergleichs habe ich noch, wie beim Fußball, eine Schiri-Kaskade aufgesetzt – diese liefert das beste Ergebnis:
- Linienrichter: Input geht an Claude 4 Opus – Opus optimiert, aber ist noch nicht ideal
- Schiedsrichter: Das Ergebnis geht an OpenAI o3 – o3 optimiert, ist aber noch nicht ideal
- Videoschiedsrichter: Das Ergebnis von o3 geht wieder an Claude 4 Opus – jetzt ist das Ergebnis richtig gut
Das Test-Setup
Ich nutze in diesem WordPress-Blog das Plugin AIOSEO. Dieses Plugin bietet an, dass es aus Blogartikeln – per ungenannter KI – Texte für Social-Media-Postings generiert. Coole Sache, der deutsche Output ist jedoch leicht grottig.
Hier ist der AIOSEO-LinkedIn-Posting-Text zum Artikel über MCP:
Haben Sie schon von MCP (Model Context Protocol) gehört? Es ist die Zukunft der nahtlosen KI-Integration in Unternehmen. Stellen Sie sich vor, verschiedene Tools für Kundendaten, Terminplanung oder Bildbearbeitung sprechen eine gemeinsame Sprache – MCP macht das möglich.
Hier die Kernaussagen:
- MCP vereinfacht den Austausch zwischen unterschiedlichen KI-Tools und Software, reduziert Programmieraufwand und erhöht die Flexibilität.
- Ähnlich wie OpenAI mit ChatGPT Agents setzt MCP auf standardisierte Schnittstellen, sogenannte Connectors, die bereits heute viele Tools miteinander verbinden.
- Für Unternehmen bedeutet das mehr Effizienz, geringere Kosten und skalierbare Prozesse – vorausgesetzt, die Tools unterstützen den MCP-Standard.
Persönlich finde ich die Entwicklung spannend, weil sie den Weg für noch smartere Automatisierungen ebnet. Gerade in der Praxis, etwa bei automatisierter Dokumentenerstellung oder Datenanalyse, zeigt sich das enorme Potenzial.
Was denken Sie: Wird MCP das neue Standard-Framework für KI-Integration in Unternehmen? Ich freue mich auf Ihre Meinungen und Erfahrungen! Mehr dazu lesen Sie in meinem ausführlichen Artikel: hier.
#KünstlicheIntelligenz #Digitalisierung #Automatisierung #MCP #Innovationen
Der Text ist aus meiner Sicht nicht besonders gut:
- „Es ist die Zukunft“ („it’s the future“) – das ist ist sehr reißerisch
- „Stellen Sie sich vor“ – „Imagine“, das ist ein wenig viel Verkoofe-Storytelling
- „nahtlos“ – das amerikanische „seamless“
- „zeigt sich das enorme Potential“ – ziemlich drüber
Lassen wir also andere LLMs darüber richten.
Der Sytem Prompt – die „Spielregeln“ für den KI-Schiri
Das ist der System-Prompt – hier wird der grobe Arbeitsauftrag definiert, vor allem die Punktevergabe. Der Prompt ist die Version „0.2“ und wurde mit Claude 4 Opus optimiert, da die Version „0.1“ keine guten Ergebnisse lieferte.
Du handelst als "LLM-as-a-Judge" zur Bewertung von Content-Qualität.
Bewertungsaufgabe:
Bewerte Input-Texte auf einer Skala von 0 bis 10 nach folgenden Kriterien:
Authentizität und menschlicher Schreibstil
Vermeidung typischer KI-Formulierungen (z.B. "revolutioniert", "transformiert", "bahnbrechend", übermäßige Superlative)
Erfüllung von Best Practices für den jeweiligen Texttyp
Konkretheit und Nachvollziehbarkeit
Output-Varianten:
Punktzahl 8-10: "Freigabe erteilt"
Punktzahl 0-7,9: "Freigabe nicht erteilt" + Verbesserte Version erstellen
Wichtige Regeln für Verbesserungen:
Keine neuen Fakten erfinden: Arbeite ausschließlich mit den im Original vorhandenen Informationen
Keine persönlichen Anekdoten hinzufügen: Keine "Ich"-Geschichten oder erfundene Beispiele
Struktur und Formulierung optimieren: Fokus auf bessere Wortwahl, klarere Struktur, natürlicheren Sprachfluss
Bestehende Aussagen konkretisieren: Vorhandene Informationen besser ausformulieren, nicht erweitern
Verbesserungsprozess:
Identifiziere KI-typische Formulierungen und ersetze sie durch natürlichere Alternativen
Strukturiere den Text für bessere Lesbarkeit
Bewerte die verbesserte Version erneut
Bei Bewertung unter 7,9: Weitere Verbesserungsrunde (maximal 3 Iterationen)
Verbotene Ergänzungen:
Erfundene Zeitangaben, Personen oder Ereignisse
Neue Statistiken oder Daten
Persönliche Erfahrungen, die nicht im Original stehen
Fangen wir an mit Claude 4 Sonnet (im Thinking-/Reasoning-Modus):
Hier ist der Output:
Bewertung: 7,5/10 - Freigabe nicht erteilt
Verbesserte Version:
Kennen Sie schon MCP (Model Context Protocol)? Dahinter steckt ein interessanter Ansatz für die KI-Integration in Unternehmen. Die Grundidee: Verschiedene Tools – von Kundendatenbanken über Terminplanung bis zur Bildbearbeitung – sollen über eine gemeinsame Schnittstelle miteinander kommunizieren können.
Die wichtigsten Punkte im Überblick:
MCP soll den Austausch zwischen unterschiedlichen KI-Tools und Software vereinfachen. Weniger Programmieraufwand, mehr Flexibilität – so das Versprechen.
Ähnlich wie OpenAI mit ChatGPT Agents arbeitet MCP mit standardisierten Schnittstellen. Diese Connectors verbinden bereits heute verschiedene Tools miteinander.
Für Unternehmen könnte das mehr Effizienz bedeuten – geringere Kosten und bessere Skalierbarkeit inklusive. Voraussetzung: Die genutzten Tools müssen den MCP-Standard unterstützen.
Aus meiner Sicht eine spannende Entwicklung. Besonders bei automatisierter Dokumentenerstellung oder Datenanalyse sehe ich interessante Möglichkeiten. Allerdings wird sich erst in der Praxis zeigen, wie gut das Konzept wirklich funktioniert.
Wie schätzen Sie das ein: Wird MCP zum Standard für KI-Integration in Unternehmen? Teilen Sie gerne Ihre Erfahrungen und Gedanken dazu! Mehr Details finden Sie in meinem ausführlichen Artikel: hier.
#KünstlicheIntelligenz #Digitalisierung #Automatisierung #MCP #Innovation
Bewertung der verbesserten Version: 8,5/10 - Freigabe erteilt
Meine Bewertung: Der Text ist sprachlich besser, aber nutzt nicht alle Best Practices. Denn: Das Posting „siezt“. Aber gut, das ist Geschmackssache – und der System Prompt macht keine Vorgabe.
Claude 4 Opus antwortet so:
Bewertung: 6,8/10
Status: Freigabe nicht erteilt
Verbesserte Version:
Kennen Sie MCP (Model Context Protocol)? Ich bin kürzlich darauf gestoßen und finde den Ansatz ziemlich clever.
Das Problem kennt vermutlich jeder: Marketing nutzt Tool A, Vertrieb arbeitet mit Tool B, und die IT jongliert mit Tool C. Alle Systeme für sich genial – aber miteinander reden? Fehlanzeige.
MCP will genau das ändern:
- Einheitliche Sprache zwischen verschiedenen KI-Tools und Software-Systemen
- Weniger Programmieraufwand durch standardisierte Schnittstellen (Connectors)
- Tools wie CRM, Kalender oder Bildbearbeitung können endlich miteinander kommunizieren
Was bedeutet das konkret für Unternehmen? Aus meiner Sicht vor allem drei Dinge: Schnellere Workflows, weniger Doppelarbeit und flexiblere Prozesse. Voraussetzung ist natürlich, dass die eingesetzten Tools den MCP-Standard unterstützen.
Besonders bei der automatisierten Dokumentenerstellung oder wenn Daten aus verschiedenen Quellen zusammengeführt werden müssen, könnte das richtig Zeit sparen.
Meine Frage an Sie: Haben Sie schon Erfahrungen mit MCP gesammelt? Oder nutzen Sie andere Lösungen für die Tool-Integration? Bin gespannt auf Ihre Einschätzungen!
Den vollständigen Artikel finden Sie hier: [Link]
#KünstlicheIntelligenz #Digitalisierung #Automatisierung #MCP #ToolIntegration
Neubewertung: 8,2/10
Status: Freigabe erteilt
Claude 4 Opus macht einige Sachen anders:
- Bewertung: 6,8 von 10 – ähnlich zu Claude 4 Sonnet (da waren es 7,5 von 10)
- Sprachlich ist das noch besser
Lassen wir Claude 3.7 Sonnet ran:
Bewertung des LinkedIn-Posts
Punktzahl: 6.5/10 - Freigabe nicht erteilt
Analyse
Der Post enthält mehrere KI-typische Formulierungen und bleibt bei der Beschreibung von MCP zu abstrakt. Phrasen wie "die Zukunft der nahtlosen KI-Integration", "das enorme Potenzial" und "noch smartere Automatisierungen" sind typische KI-Marker, die zu werblich klingen. Dem Text fehlen konkrete Anwendungsbeispiele, die MCP greifbarer machen würden.
Verbesserte Version
Kennen Sie schon MCP (Model Context Protocol)? Dieses Framework entwickelt sich zu einem wichtigen Baustein für die KI-Integration in Unternehmen. In unserem Fachbereich beobachten wir, wie es die Kommunikation zwischen verschiedenen Systemen deutlich vereinfacht.
Drei Hauptvorteile von MCP:
- Einfacherer Datenaustausch: Ihre Kundendatenbank, Terminplaner und Bildbearbeitungstools können mit weniger Aufwand miteinander kommunizieren
- Standardisierte Verbindungen: Ähnlich wie bei OpenAIs ChatGPT Agents nutzt MCP sogenannte Connectors, die verschiedene Programme verbinden
- Höhere Flexibilität: Bestehende Systeme bleiben nutzbar, solange sie den MCP-Standard unterstützen
Bei der Dokumentenerstellung und Datenanalyse zeigen sich bereits heute praktische Vorteile – wo früher mehrere manuelle Schritte nötig waren, können Prozesse jetzt direkter ablaufen.
Was meinen Sie: Könnten standardisierte Schnittstellen wie MCP auch in Ihrem Arbeitsumfeld Prozesse verbessern? Falls Sie mehr erfahren möchten: Den ausführlichen Artikel finden Sie hier.
#KI #Digitalisierung #Prozessoptimierung #MCP #Unternehmenstechnologie
Dieses LLM ist in der Bewertung härter. Dafür ist der Output-Text schlechter – es wird gegen das Halluzinier-Verbot verstoßen („In unserem Fachbereich beobachten wir“ – das ist doch Murks).
Wechseln wir zu OpenAI: Wie schlägt sich das Premium-LLM o3?
Freigabe nicht erteilt
(Originalbewertung: 6,0 / 10)
Verbesserte Version
Kennt jemand bereits MCP, das Model Context Protocol? Der Standard zielt darauf ab, den Datenaustausch zwischen KI-Anwendungen und bestehenden Softwaresystemen zu vereinfachen. Wenn CRM, Terminplanung oder Bildbearbeitung dieselbe Schnittstelle nutzen, lassen sich Abläufe leichter automatisieren.
Wesentliche Punkte
• Einheitliche Schnittstellen: MCP stellt sogenannte Connectors bereit. Damit entfällt viel individueller Programmieraufwand.
• Vergleich zu ChatGPT Agents: Wie bei den von OpenAI genutzten APIs erfolgen Aufrufe über definierte Standards, sodass sich vorhandene Tools schnell verknüpfen lassen.
• Nutzen für Unternehmen: Prozesse werden skalierbarer, Wartungskosten sinken – vorausgesetzt, die eingesetzten Anwendungen unterstützen MCP.
In Szenarien wie automatisierter Dokumentenerstellung oder Datenanalyse treten die Vorteile bereits klar zutage.
Wie seht ihr das? Könnte MCP sich als bevorzugtes Framework für KI-Integration etablieren? Eure Erfahrungen interessieren mich. Mehr Details gibt es im verlinkten Artikel.
#KünstlicheIntelligenz #Digitalisierung #Automatisierung #MCP
Bewertung der verbesserten Version: 8,5 / 10 – Freigabe erteilt
Interessant: o3 schwenkt auf Duzen um – das gefällt mir gut. Der Text wirkt menschlich. Ein wenig blutleer, ja. Der Einstieg „Kennt jemand bereits MCP?“ kann okay sein, wenn die Leserschaft nicht zu nerdig ist.
Fragen wir GPT 4.1 – also ein modernes Modell ohne Reasoning:
Bewertung des Originaltexts:
- Authentizität und menschlicher Schreibstil: 7/10 – Der Text liest sich relativ natürlich, beinhaltet aber gelegentlich generische Phrasierungen und Superlative.
- Vermeidung typischer KI-Formulierungen: 6,5/10 – Begriffe wie „die Zukunft der nahtlosen KI-Integration“, „enormes Potenzial“, „ebnet den Weg“ wirken marktschreierisch und sind typische KI-Floskeln.
- Erfüllung von Best Practices für LinkedIn-Posts: 7/10 – Grundstruktur und Ansprache sind passend, aber der Text könnte prägnanter sein und auf persönliche Anekdoten verzichten.
- Konkret und nachvollziehbar: 7/10 – Die Beschreibung bleibt auf einer allgemeinen Ebene, wirkt an einigen Stellen abstrakt („enormes Potenzial“, „smartere Automatisierungen“).
Gesamtbewertung: 6,9/10
Output: Freigabe nicht erteilt
Verbesserte Version:
Haben Sie schon von MCP (Model Context Protocol) gehört? Mit MCP können verschiedene Unternehmensanwendungen wie Tools für Kundendaten, Terminplanung oder Bildbearbeitung einfacher miteinander kommunizieren.
Das Wichtigste in Kürze:
- MCP erleichtert die Verbindung zwischen unterschiedlichen KI-Tools und Software, reduziert den Aufwand bei der Programmierung und erhöht die Flexibilität.
- Über standardisierte Schnittstellen, sogenannte Connectors, werden bereits heute viele Anwendungen miteinander verknüpft.
- Für Unternehmen kann MCP dazu beitragen, Abläufe effizienter zu gestalten und Kosten zu sparen – sofern die genutzten Tools den MCP-Standard unterstützen.
- Die Entwicklung von MCP ist vor allem für automatisierte Prozesse wie Dokumentenerstellung oder Datenanalyse interessant.
Wie sehen Sie das: Hat MCP das Potenzial, ein Standard für die Integration von KI-Anwendungen in Unternehmen zu werden? Teilen Sie Ihre Einschätzung gern in den Kommentaren. Einen ausführlichen Artikel dazu finden Sie hier.
#KünstlicheIntelligenz #Digitalisierung #Automatisierung #MCP #Innovationen
Bewertung der verbesserten Version:
- Authentizität und menschlicher Schreibstil: 8,5/10 – Sachliche und natürliche Formulierungen, keine übertriebenen Versprechen.
- Vermeidung typischer KI-Formulierungen: 9/10 – Text verzichtet auf Superlative und bleibt konkret.
- Erfüllung Best Practices für LinkedIn-Posts: 8/10 – Gut strukturierte Zusammenfassung, konkrete Call-to-Action, klare Ansprache.
- Konkret und nachvollziehbar: 8,5/10 – Die Aussagen sind klar formuliert und gut nachvollziehbar.
Gesamtbewertung: 8,5/10
Output: Freigabe erteilt
Das Erfgebnis ist in Ordnung, aber nicht der Oberhammer.
Und so bewertet die KI die optimierten KI-Texte:
Claude 4 Opus – mein „Testsieger“-LLM von Anthropic – darf nun über den durch o3 optimierten Text richten. o3 bewertete seinen Text mit 8,5 – Claude 4 Opus vergibt nur 6,5 Punkte. Durchgefallen!
Das Ergebnis ist nun wirklich besser geworden: Der beste Judge im Test aus der OpenAI-Welt (o3) liefert dem besten Judge aus der Anthropic-Welt (Claude 4 Opus) zu – und am Ende ist das Ergebnis in der Tat optimiert.
Bewertung: 6,5/10
Freigabe nicht erteilt
Der Text ist sachlich korrekt, wirkt aber zu förmlich und distanziert für LinkedIn. Formulierungen wie "treten die Vorteile bereits klar zutage" und "zielt darauf ab" sind typische KI-Marker.
Verbesserte Version:
Kennt jemand bereits MCP, das Model Context Protocol?
Dieser neue Standard macht den Datenaustausch zwischen KI-Anwendungen und bestehender Software deutlich einfacher. Stellt euch vor: CRM, Terminplanung und Bildbearbeitung sprechen alle dieselbe Sprache – Automatisierung wird damit zum Kinderspiel.
Was macht MCP besonders?
- Einheitliche Schnittstellen: Die sogenannten Connectors ersparen uns jede Menge individuellen Programmieraufwand
- Ähnlich wie ChatGPT Agents: Aufrufe laufen über definierte Standards – vorhandene Tools lassen sich im Handumdrehen verknüpfen
- Echter Mehrwert für Unternehmen: Prozesse werden skalierbarer, Wartungskosten sinken (sofern die genutzten Anwendungen MCP unterstützen)
Bei automatisierter Dokumentenerstellung oder Datenanalyse zeigen sich die Stärken schon jetzt.
Wie seht ihr das? Hat MCP das Zeug zum Standard für KI-Integration? Bin gespannt auf eure Einschätzungen!
Link zum ausführlichen Artikel in den Kommentaren
#KünstlicheIntelligenz #Digitalisierung #Automatisierung #MCP
Bewertung der verbesserten Version: 8,2/10
Freigabe erteilt
Das Spiel kann man endlos weiterspielen. Werfen wir diesen 8,2-Punkte-Text von Opus dem Premium-Modell o3 zum Fraß vor.
o3 findet den Text nicht optimal und optimiert deshalb. Das Ergebnis ist etwas Business-mäßiger.
Punktzahl: 7,5
Begründung:
Der Text ist verständlich und erklärt die Vorteile von MCP anhand von nachvollziehbaren Beispielen. Allerdings finden sich Formulierungen mit typischem KI- oder Marketingsprech wie "deutlich einfacher", "im Handumdrehen", "Automatisierung wird damit zum Kinderspiel", "echter Mehrwert", die sprachlich etwas werblich wirken. Die Ansprache ist nahbar, doch einzelne Sätze könnten natürlicher und weniger plakativ formuliert werden. Best Practices für LinkedIn-Posts sind grundsätzlich erfüllt, aber mit Optimierungspotenzial.
Freigabe nicht erteilt
Verbesserte Version:
Kennt ihr schon das Model Context Protocol (MCP)? Dieser Standard erleichtert den Austausch von Daten zwischen KI-Anwendungen und bestehender Software. So können zum Beispiel CRM-Systeme, Terminplaner und Bildbearbeitungstools nahtlos zusammenarbeiten.
Was zeichnet MCP aus?
- Einheitliche Schnittstellen: Die sogenannten Connectors reduzieren den individuellen Programmieraufwand.
- Ähnlichkeiten zu ChatGPT Agents: Über definierte Standards lassen sich vorhandene Tools miteinander verbinden.
- Vorteile für Unternehmen: Geschäftsprozesse werden flexibler, und der Aufwand für Wartung sinkt – vorausgesetzt, die eingesetzten Anwendungen unterstützen MCP.
Gerade bei automatisierter Dokumentenerstellung oder bei der Analyse von Daten lässt sich das heute schon beobachten.
Was denkt ihr: Könnte MCP der Standard für KI-Integration werden? Ich freue mich auf eure Meinungen.
Den ausführlichen Artikel findet ihr in den Kommentaren.
#KünstlicheIntelligenz #Digitalisierung #Automatisierung #MCP
Bewertung der verbesserten Version:
Punktzahl: 8,5
Freigabe erteilt
Opus mag den Text von o3 nicht:
Bewertung: 6,5 von 10 Punkten
Freigabe nicht erteilt
Hauptkritikpunkte:
- Zu generische Formulierungen ("nahtlos zusammenarbeiten", "flexibler")
- Fehlende Konkretheit bei Beispielen
- Vage Aussage "lässt sich das heute schon beobachten" ohne spezifische Anwendungsfälle
- Insgesamt zu abstrakt für einen LinkedIn-Post
Verbesserte Version:
Schon vom Model Context Protocol (MCP) gehört?
Stellt euch vor: Euer CRM spricht direkt mit dem Kalender, und die Bildbearbeitung greift auf Kundendaten zu – ohne komplizierte Zwischenschritte. Genau das macht MCP möglich.
Die wichtigsten Punkte:
- Connectors statt Custom-Code: Einmal entwickelt, überall nutzbar. Das spart Entwicklungszeit.
- Wie ChatGPT Agents, nur offener: Verschiedene Tools arbeiten über standardisierte Schnittstellen zusammen.
- Weniger Wartung, mehr Möglichkeiten: Wenn eure Software MCP unterstützt, könnt ihr Prozesse schneller anpassen.
Praktisches Beispiel: Bei der Dokumentenerstellung holt sich das System automatisch aktuelle Kundendaten aus dem CRM und fügt sie ins Template ein. Bei Datenanalysen greifen Tools direkt auf verschiedene Quellen zu – ohne manuellen Export-Import.
Meine Frage an euch: Seht ihr MCP als den kommenden Standard für KI-Integration? Oder gibt es aus eurer Sicht bessere Alternativen?
Link zum ausführlichen Artikel in den Kommentaren
#KünstlicheIntelligenz #Digitalisierung #Automatisierung #MCP
Bewertung der verbesserten Version: 8,2 von 10 Punkten
Freigabe erteilt
Die verbesserte Version wirkt deutlich authentischer durch:
- Konkretere Beispiele (CRM mit Kalender verbinden)
- Natürlichere Sprache ("spricht direkt mit")
- Klarere Struktur mit prägnanten Überschriften
- Spezifischere Anwendungsfälle
Diese letzte Version (o3 -> Opus -> o3 -> Opus) ist in der Tat ganz gut geworden.
Vorteile der KI-Schiris
Kosteneffizienz: Menschliche Bewerter kosten bei großen Datenmengen erheblich mehr als automatisierte Bewerter – und dann kommen bei Menschen auch noch mögliche Sprachbarrieren dazu. Ein LLM-Judge ist (meistens) schneller und kostengünstiger.
Konsistenz: Während menschliche Bewerter unterschiedliche Standards anlegen können, liefern LLM-Richter reproduzierbare Ergebnisse nach einheitlichen Kriterien. Das gilt zumindest in der Theorie. In der Praxis sind die Antworten von LLMs – gerade als „Bewerter“ – oft „ausgewürfelt“, wenn dein Prompt nicht detailliert genug war.
Extra-Problem: LLMs werden laufend weiterentwickelt. Neue Versionen kommen, alte Versionen werden abgeschaltet. Mit einem Wechsel auf eine neue Version wird sich der Output ändern.
Skalierbarkeit: Die KI-Nutzung lässt sich meist beliebig steigern – beispielsweise beim Übergang vom Test-Einsatz in den Produktiv-Einsatz – während das bei menschlichen Bewertern nicht so einfach geht.
Bewertungsansätze
Einzelbewertung
Das LLM bewertet einen Input nach definierten Kriterien wie Genauigkeit oder Nützlichkeit und gibt eine Punktzahl aus. Zusätzlich kannst du, wie oben gezeigt, ein Wenn-dann-Verhalten „einprogrammieren“: Sollte die Punktzahl zu niedrig sein, wird das Ergebnis optimiert oder an einen Menschen delegiert. Solltest du den „Richterspruch“ automatisiert weiterverarbeiten wollen, bietet sich natürlich eine Ausgabe im Format JSON an.
Paarweise Vergleiche
Zwei Antworten werden verglichen, und das LLM wählt die bessere aus. Das Problem: Was ist „besser“? Das ist oft Geschmackssache oder eine Frage von Nuancen.
Batch-Ranking
Mehrere Antworten werden gleichzeitig bewertet und in eine Rangfolge gebracht. Wie beim paarweisen Vergleich kann das Ergebnis unplausibel sein.
Praxisbeispiele
Kundensupport-Bewertung: Unternehmen könnten LLM-Judges nutzen, um die Qualität ihrer Chatbot-Antworten zu bewerten, bevor sie an Kunden weitergeleitet werden. Hier erstellt dann KI 1 die faktische Antwort (basierend auf antrainierten Fakten / RAG), während KI 2 im Anschluss das sprachliche Ergebnis bewertet. So eine Doppelstrategie hat den Charme, dass man seine mühsam feingetunte Wissens-/FAQ-/Support-KI im Dauerbetrieb nutzen kann, und eine zweite „Edelfeder“-KI – ohne Extra-Wissen – einfach nur die Sprache optimiert. Diese Zweit-KI kannst du dann nach Lust und Laune auswechseln, wenn die LLM-Anbieter neue (= bessere) Versionen rausbringen.
Content-Moderation: Social-Media-Anbieter können LLM-Judges einsetzen, um potenziell schädliche oder irreführende Inhalte zu identifizieren. Hier „richtet“ dann KI über User Generated Content (der auch KI-generiert sein kann). Bei Grenzfällen delegiert der LLM-Judge an den menschlichen Supervisor hoch.
Strategische Empfehlungen
Pilotprojekte: Beginne mit unkritischen Anwendungen und sammle Erfahrungen, bevor du LLM-Judges produktiv einsetzt. Der Weg kann lang und steinig sein. Ermittle auch die Kosten.
Bias-Monitoring: Du siehst es am Beispiel oben – keine der LLMs hat einen Input freigegeben, sondern immer den Input optimiert, selbst wenn dieser schon ziemlich gut war. Die Systeme haben also einen Bias („Alle Inputs sind Mist“), und sowas musst du a) erkennen und b) durch die Optimierung des System Prompt in den Griff bekommen.
Was hilft: Lege dir ein paar dutzend reale Beispiele zurecht (inklusive menschlicher Bewertung) und lasse sie von den KIs bewerten. Optimiere den System Prompt, damit die Bewertung der KI mit der menschlichen Bewertung (oft) übereinstimmt – und keine grob falschen Ergebnisse liefert. Wie das im Detail funktioniert, liest du hier: https://huggingface.co/learn/cookbook/llm_judge
Schiri-Teams: Nutze mehrere LLM-Richter verschiedener Anbieter, um Einzelmodell-Bias zu reduzieren. Ein hintereinanderschalten von mehreren LLMs mit Reasoning-Modus kann die besten Ergebnisse liefern. Das ist allerdings vergleichsweise teuer.
In einer Agenten-Architektur könntest du kostensensibler vorgehen: Nutze kleine und kostengünstige LLMs für Routineaufgaben wie Datenformatierung, einfache Klassifikationen oder Textbereinigung. Darüber steht ein leistungsstärkeres „Supervisor-LLM“, das als Bewertungsinstanz fungiert.
Rechtliche Compliance: Berücksichtige rechtliche Anforderungen, insbesondere in stark regulierten Branchen (Finanzen, Gesundheit, Bildung…), Stichwort AI Act.
Fazit
LLM-as-a-Judge bietet erhebliche Effizienzgewinne bei der KI-gestützten Bewertung von Inputs (oder Outputs), aber es ist kein Selbstläufer. Grundsätzlich ist es jedoch schlau, die Outputs einer KI durch eine andere KI (eines anderen Anbieters) bewerten zu lassen. Investiere Fleiß und Geduld, und bleibe skeptisch: 100 % Trefferquote wirst du wahrscheinlich nicht erreichen. Die Frage ist, wie du mit 80 % Trefferquote umgehst – sind die 20 % schädlich für dein Geschäft? Oder hast du KI so gut eingestellt, dass die 20 % Fehlerquote automatisch erkannt und an Menschen hocheskaliert wird?
Über den Autor
Stefan Golling, Köln. Seit 2011 unterstütze ich freiberuflich Unternehmen bzw. Agenturen mit kreativen Ideen, Konzepten und (textlichen) Umsetzungen rund ums (Online-)Marketing. Vorher: 1998 mit Radiowerbung in Stuttgart gestartet, 2000 als Junior-Werbetexter zu Publicis München, 2001 Counterpart Köln, 2002 als Copywriter zu Red Cell Düsseldorf (heißt heute Scholz & Friends), dort ab 2007 Creative Director.
Artikel zu ähnlichen Themen
- Abo statt Frust: Honorarvereinbarungen (Retainer)

- KI-Bilder erkennen: Kennzeichnung via „Content Credentials“

- Die beste KI

- Markenidentität trotz KI-Nutzung konsistent halten: Tipps, Anregungen & Finetuning

- LLM-as-a-Judge: KI-Modelle als Bewertungsinstanz

- MCP: Die Universal-API der KI-Welt

- Human in the Loop: So schlägt die KI das „gefürchtete“ Atari-Schach

- Longevity Marketing: So finden Kunden und Marken zusammen

- Projektmanagement im Marketing: PRINCE2 oder V-Modell® XT?

- Marketing-Digitalisierung: Mehr als nur Software und Automatisierung

- Öffentlichkeitsarbeit: Instrumente, die auch Digital und Social funktionieren

- Employer Branding Kampagnen: Darum solltest du viel mehr KPIs messen

- Recruiting: Vom Employer Branding zum Job Content Branding

- Dynamic Pricing, mal echt anschaulich

- Marketing Automation: 3fach gedacht, plus Customer Experience

- UX-Writing Crashkurs: Do’s und To do’s

- Social-Media-Management-Workflow? Mehrsprachig!

- Website-Audit-Planungshilfe

- KI-Agenten: talentierte Helferlein

- Prompting aufgeschlüsselt: Vieles ist unsichtbar

- KI-Bildgenerierung: SVG, Diffusion oder GAN?

- LLMs verstehen: Token und Vektoren als Dashboard

- Claude: Was kann die KI von Anthropic?

- Performance Marketing: Leistung braucht Kreativität

- Marketingberatung: Erst das Rezept, dann ans Werk

- Social Selling: Hallo wer? Oder Ja gern?

- KI-Ethik und EU AI Act: Mitdenken ist Pflicht

- Customer Journey: Das Ziel ist das Ziel

- Chat GPT: Überblick, GPTs nutzen, Alternativen

- Google Gemini: KI mit Riesenhirn


