Chat GPT: Plus? Nein. Team? Ja. 2 Gründe

Chat GPT: Plus sieht alles, Team ist besser
Chat GPT und Datenschutz: Plus musst du „tunen“, Team ist out of the Box besser

Du fragst dich, welche ChatGPT Version du nehmen sollst – Gratis, Chat GPT Plus, Chat GPT Team oder die Enterprise-Variante? Wenn du’s geschäftlich einsetzen willst, also im Team mit mindestens 2 Leuten, ist ChatGPT Team die glasklare Empfehlung. Ab ca. 150 Mitarbeitern ist die (teure) Enterprise-Variante leider noch besser geeignet – mehr Leistung, mehr Admin-Features, mehr DSGVO-Suppport…

Warum Teams für die meisten KMU (oder auch Familien) im Vorteil ist, liest du in diesem Artikel. (Für versierte Einzelnutzer geht auch Plus, wenn du einen Tweak nutzt).

Die Hauptgründe für Team sind

  • das out-of-the-box datenschutzkonformere Datenhandling (bei Free und Plus muss man das manuell einstellen)
  • die besseren Funktionen für Teams – wie eine Anbindungsmöglichkeit an euer SharePoint.
  • Und – im Vergleich zu Plus – fällt mit Teams das Nutzungslimit bei GPT-4o weg. Mit Teams spart man sich also als Heavy User den „Bitte warten“-Frust
  • Übrigens untersagt der US-Congress (neben WhatsApp) in seinem „Herrschaftsbereich“ die Nutzung der Free-Version (und von Microsoft Copilot…).

Außerdem liegt die „Mindestabnahme“ für Chat GPT Team Lizenzen nur bei 2 Stück, das kann man sich durchaus leisten. Im Vergleich dazu musst du bei Claude mindestens 5 Lizenzen abnehmen (wobei Claude dennoch sehr interessant ist – weil die sehr guten „Reasoning“-LLMs Sonnet bzw. Opus sehr stark sind. Außerdem ist Anthropic pro Person ein wenig preisgünstiger; Bildgenerierung klappt allerdings nicht).

Es gibt da drüber noch eine ChatGPT Version namens Enterprise, die ist was für Großunternehmen. Wer es sich leisten kann und will: Enterprise ist wesentlich besser – allein schon weil das Kontextfenster (das „Kurzzeitgedächtnis“ bei 128.000 Token liegt, statt bei 32.000 Token wie bei Plus und Team); außerdem kannst du einen Wunsch-Datenstandort nehmen (z.B. Europa…). Für Unis und Vereine gibt’s Rabatte, dazu gleich mehr.

Weiter unten findest du

  • einen sehr praktischen ChatGPT Plus / Team / Enterprise Lizenzkostenrechner, der die jährlichen Kosten errechnet.
  • Einen detaillierten Vergleich der (nicht) inkludierten Leistungen der ChatGPT Pläne
Inhalt

Am Ende des Artikels gibt noch einen kleinen Ausflug in Richtung Anthropic Claude, Mistral Le Chat, Google Gemini und Microsoft Power Automate, die Alternativen zu ChatGPT sein können. Beim Thema „eingebaute Bildgenerierung“ ist ChatGPT seit März 2025 dank des „Image Creator“ ziemlich gut dabei; das ist schon nicht uninteressant (basiert auf DALL-E wie eh und je, kann jetzt aber besser mit Texten umgehen etc.)

Für die Grundlagen empfehle ich dir die Artikel über ChatGPT, Token, Prompting oder das Zusammenspiel von ML / GenAI / RPA.

+++ Werbeeinblendung +++ Wenn du Marketing-Ideen brauchst: Das ist mein Hauptgeschäft. Klicke auf Kontakt. Schreibe, mir an welchem Task du festhängst +++

Sofortmaßnahme: ChatGPT-Datenschutz-Tweak

ChatGPT „Free“ und Plus nutzen deine Inputs (und die KI-Outputs) standardmäßig dazu, die KI-Sprachmodelle zu trainieren. Team und Enterprise nicht.

Das heißt, dass dein Wissen (bzw. die von dir hochgeladenen Dokumente) im Big Brain von Open AI landen, um das Sprachmodell zu verbessern. Das willst du nicht.

Die gute Nachricht: Du kannst das ausschalten.

Gehe jetzt auf https://chatgpt.com/#settings/DataControls

Es öffnen sich die Einstellungen, mit den Datenkontrollen.

Dort siehst du den Punkt „Das Modell für alle verbessern“. (So kann man das auch nennen… da wird einem ein schlechtes Gewissen gemacht… hahaha)

Da klickst du drauf und legst den Schalter auf „aus“ um.

Dann werden deine Daten nicht zu Trainingsdaten. Fertig!

Die Einstellung gilt für deinen Account, auch wenn du dich woanders einloggst (anderer Rechner, App).

Warum will man das kostenpflichtige Chat GPT Plus oder Team Abo haben?

  • Wegen der geringeren Einschränkungen (Rate Limits = Interaktionen)
  • Um die besseren Sprachmodelle von Open AI zu nutzen
  • Um GPTs zu nutzen, also die Plugins (auch von Fremdanbietern)
  • Und um Zugriff auf ChatGPT Canvas – die Editierfunktion des Outputs – zu haben.
  • Und wegen der eingebauten „Suchmaschine“ ChatGPT Search (eigentlich eine Antwortmaschine)

Du willst nur den Genuss von „Custom GPTs“, also der KI-Mini-Apps, zu kommen? Dann kannst du als freie Alternative Hugging Chat Assistants inklusive einer großen Auswahl an spannenden Sprachmodellen (u.a. LLama 3.2) ausprobieren (im Link findest du Vergleich und Anleitung).

Chat GPT: Die 4 Preismodelle im Check

ChatGPT gibt es in vier „Abo“-Preismodellen:

  • „Kostenfreier Plan“, da bekommst du nur einen Teil der Fähigkeiten.
  • Chat GPT Plus, da zahlst du ein monatliches Abo und, wenn du’s nicht deaktivierst, mit deinen Daten (Irrsinn).
  • Chat GPT für Teams, da zahlst du mindestens 2 Lizenzen im Monat – das ist OK.
  • Chat GPT Enterprise für Großkonzerne: superteuer

Außer der Reihe:

  • ChatGPT Pro: Der „Pro“-Plan kostet sportliche 229 Euro im Monat und ist nur ein aufgebohrter „Plus“-Plan – und nicht für Teams erhältlich. Unterschied: Du kannst die Reasoning-Sprachmodell „o1-pro“, „o3-pro“, „o3“, „o4-mini“ und zusätzlich GPT-4o ohne Limit nutzen (obwohl es natürlich trotzdem Limits gibt), und „Advanced Voice“ – und Video-Generierung mit Sora.
    Warum das so teuer ist?
    Weil man als „Power User“ bei einer KI mit „Nachdenk“-Modus UND Bildgenerierung UND Videogenerierung etc. 200 Dollar schon an einem Tag verbraten kann. Auch ich habe es schon geschafft, bei einem kleinen „Programmier“-Projekt mit Claude Code in wenigen Tagen 100 Dollar auszugeben. Und das ist nur Code, kein Video. Einen realistischen Flatrate-Preis mit Coding und Video etc. müsste man bei 2.000 Dollar im Monat ansetzen. Dahin wird die Reise auch gehen – wenn sich Flatrates durchsetzen.
  • Chat GPT Edu: Die Education-Variante für (Hoch-)Schulen und Forschung. Die Features entsprechen der Enterprise-Version. Kosten: Verhandlungssache. KI mit Edu-Tarifen gibt es auch von Microsoft Welt – da kann man Copilot mit ins Office 365 Paket reinnehmen (Microsoft 365 Education), wohl aber nur fürs Hochschul-Personal, nicht aber für die Studis. Hier bitte die echten MS-Lizenzexperten fragen, das Thema ist einfach zu krass.

Zusätzlich gibt es noch:

Ausflug: Vektor Storage – So sieht er aus

Im Open AI Playground kannst du du eigenen Dateien bzw. Daten in einem Speicher ablegen, einem „Vector Store“. Hochladen kannst du u.a. PDFs. Anschließend setzt du einen Chat-Bot (Assistenten) auf, der auf diese Daten zugreift. Diesen Chatbot kannst du u.a. als JSON-Code exportieren und z.B. in dein Intranet reinbasteln. Sensationell: Mit Konzepten wie „Chunking“ oder musst du dich (vorerst) nicht auseinandersetzen, aber irgendwann kommt man nicht dran vorbei.

Kosten? Gering – für die Speicherung. Man zahlt nur für die Nutzung. 3 Dollar je GB im Monat kann man sich geradenoch leisten. Die Daten werden dann wahrscheinlich auf Azure-Hyperscalern liegen. ABER: Jeder Chat verbrät Token ohne Ende. Ein paar Seiten PDF und ein paar Bilder, und schon hast du bei o3-mini 100.000 Token weg, was 10 Cent entspricht. Außerdem kannst du recht schnell in ein „Rate Limit“ laufen, z.B. ist dann bei 200.000 Token pro Minute Schluss. Das wird dann schon schnell eng.

ChatGPT Kosten: Vergleich

Die Chat GPT Kosten sind pro Person bzw. User. angegeben und liegen zwischen Null und 60 Dollar im Monat. Der Preis für Chat GPT Enterprise, die teuerste Varianate, ist eine Schätzung, da es keine offiziellen Preis gibt. Die Preise für API-Calls zeigen, dass die ChatGPT-Monatspreise eine Mischkalkulation sind: Wer viele Token verbrät, weil Heavy User, sorgt beim Anbieter für Verluste. Wer es wenig nutzt, verschenkt Geld.

Die API wird übrigens immer wichtiger: Die neuen Features von Chat GPT (Audio / „Call Center Chatbot“, Video) werden a) zuerst für API-Kunden zur Verfügung gestellt und b) sind besonders sinnvoll in Apps nutzbar, also über die API.

ChatGPT Lizenkostenrechner

ChatGPT Standard ChatGPT Plus ChatGPT Pro ChatGPT Team ChatGPT Enterprise OpenAI API Aufrufe¹
Kostenlos 23 EUR / Monat 229 EUR / Monat 29 EUR / Benutzer/Monat (jährlich)
34 EUR / Benutzer/Monat (monatlich)
52 EUR / Benutzer/Monat (jährlich) ca. 0,075 – 120 EUR / 1 Million Token



Jährliche Lizenzkosten:


¹ API-Aufrufkosten sind nicht im Rechner enthalten.

² „Gemeinnützige Organisationen“: 20% Rabatt auf ChatGPT Team, 50% auf Enterprise.

Den Rechner habe ich mir übrigens mit Claude machen lassen (und auf die neuen Preise updaten lassen). Das ist also eine echte No-Code-Lösung. War ne Sache von 10 Minuten. Bitte mit leichtem Staunen beachten: Die komplette Logik mit Mindest-Lizenzzahlen und dem Edu-Rabatt ist hinterlegt - und das alles in reinem HTML bzw. JavaScript.

Bekommst du den Rabatt? Wenn du ein e.V. bist, oder eine Stiftung - also von Karnevalsverein bis Family Office.

Interessant: OpenAI nutzt einen Validierungsservice von percent, der das gesamte Vereinsregister kennt. Du kannst den Rabatt also schnell in Anspruch nehmen, wenn du in der Liste aufgeführt bist.

Ob ihr für die Uni bzw. Hochschule ChatGPT als Edu-Lizenz für alle anschaffen wollt: Nun ja, das geht ins Geld. Allerdings stellt es gleichwertige Verhältnisse her, und zwar innerhalb der Studentenschaft und im nationalen / internationalen Vergleich.

Also Low-Budget-Variante könnte man bei Stack IT (Schwarz-Gruppe) / Aleph Alpha anklopfen, die verkaufen m.W. "KI-Assistenzsysteme" ab € 1,50 im Monat an Behörden. Das könnte für die Hochschulverwaltung interessant sein. Vielleicht kommt da auch auch was mit GenAI.

GPT-Zugang im Vergleich

Mit einer besseren ChatGPT-Version verbessert sich auch die Nutzung von GPTs.

ChatGPT "Kostenlos"ChatGPT PlusChatGPT TeamsChatGPT Enterprise
GPT-NutzungEinige Fremd-GPTsAlle Fremd-GPTs & eigene GPTs erstellenZusätzlich zu Plus: Eigene GPTs mit dem Team teilenWie Team

1. Chat GPT Gratis („kostenloser Plan“)

ChatGPT Free ist die klassische Gratisversion, basierend auf dem Modell GPT-4o1 (mini) (das o steht für Omnni, also "kann alles"). GPT-4o mini ist für die Free-Version gegenüber dem 4 ohne mini stark limitiert. Es kann eigentlich Bilder "lesen" und mit lesbarem (!) Text generieren sowie flüssig sprechen und singen, aber natürlich nicht für Leute die kein Geld ausgeben wollen. Die benötigte Rechenpower ist hoch.

GPT-4o (mini) im kostenlosen ChatGPT-Angebot hat ein paar Tücken: Es ist jetzt ähnlicher zum Microsoft Copilot (der ja GPT-4 Turbo nutzt), kann also im Internet suchen (Bing) und halbwegs Quellen angeben. Das klappt manchmal automatisch, mal nicht. Um die Online-Funktion zu aktivieren, hilft es, wenn du im Prompt die aktuelle Jahreszahl reinschreibst. Das ist ein Trigger, um das Sprachmodell zu aktuellen Ergebnissen zu zwingen. Trotzdem können die Ergebnisse halluniziert sein.

Beispiel: Lasse dir eine Tabelle generieren, die eine Liste mit Namen und E-Mail-Adressen von, sagen wir mal, Werbeagenturen in Köln, liefert. Das Ergebnis? Copy & Paste von schrottigen SEO-Seiten, die Nonsens-Listen von Unternehmen anbieten. Das Ergebnis ist nicht verwendbar und stiehlt dir letztlich Zeit, weil du das Ergebnis erst qualifizieren musst. Da kannste genauso gut den Bürohund fragen, der stellt sich nicht schlechter an.

Mit der "Texte in Bilder schreiben" Funktion handelt man sich übrigens größere Urheberrechtsprobleme als bisher ein: Der generierte Text kann urheberrechtlich geschützte Teile enthalten - ohne dass du es weißt - und damit das Bild lizenzrechtlich noch problematischer als bisher machen.

Beispiel: Du lässt dir ein Werbebanner generieren, und Chat GPT "denkt" sich auf deinen Wunsch eine Headline aus und schreibt sie ins Bild rein. Da Chat GPT mit Texten aus "Quelle Internet" trainiert wurde sowie von Usern wie dir mit Trainingsdaten gefüttert wird, ist es möglich, dass die generierte Headline nicht neu ist sondern zufälligerweise von einem Wettbewerber stammt. So was ist natürlich ziemlich blöd bzw. peinlich. Um das zu verhindern, musst du generierte Inhalte stets umfassend prüfen.

(Teils) kostenlose GPTs

Was ChatGPT "kostenlos" schon kann, sind manche GPTs - also die Nutzung vorgeprompteter kleiner Helferlein. Da kann man aus einer stattlichen Bibliothek auswählen. Ganz cool ist, dass ChatGPT zu einer Art Hub für Drittanbieter wird, u.a. gibt es GPTs von Canva oder zum Generieren von KI-Videos (veed.io.)

Nachteil: Du kannst nur nutzen, was da ist. Eigene GPTs erstellen und mit dem Team teilen geht erst mit dem ChatGPT Team Abo. Außerdem kannst du die kostenfreien GPTs nicht feintunen. Otto-Normal-User wird das nicht stören, der hat weder Zeit noch Lust auf Prompt-Customzing.

GPTs von ChatGPT in der kostenfreien Version

Auch kannst du in der Free-Version immerhin schon Datenquellen einbinden: Aus der Cloud gehen Google Drive & Microsoft OneDrive (inkl. Sharepoint), oder du kannst Daten von deinem eigenen Rechner hochladen. Das ist interessant, wenn du bspw. mit einem PDF "chatten" willst oder du Hilfe bei Code oder einer Excel-Tabelle brauchst.

Vorsicht Falle: Die Auswahl ist mega, aber nicht alle GPTs kannst du for free nutzen. Für u.a. Bilder brauchst du - im Gegensatz zu Copilot - ein Abo.

Bilder generieren mit ChatGPT erfordert ChatGPT Plus

Über Datenschutz brauchen wir da nicht reden: Du lädst deine Daten irgendwo hoch, und damit können irgendwelche Dinge passieren. Auch wenn du das Training mit deinen Daten ausgeschlossen hast: Vertrauen ist gut, kein Vertrauen ist besser.

2. ChatGPT Plus: viele Vorteile & Riesennachteil

Was kann Chat GPT Plus? Es bietet für 20 US-Dollar bzw. 23 Euro als Vorteil nicht nur das viel bessere GPT-4o bzw. das Schwester-LLM OpenAI o12, sondern vor allem die die Möglichkeit, eigene Vorlagen („GPTs“) zu erstellen. Außerdem kann das Ding dann schon im Internet surfen und KI-Bilder generieren (Basis: DALL-E), und ein paar Videos mit Sora, und bspw. eine Excel-Datei analysieren, du du hochlädst. Chat GPT 4 gibt es als "App", aber auch als API. In einigen KI-Apps steckt ohnehin ChatGPT drin, ohne dass man es direkt weiß.

Trotzdem läufst du mit GPT Plus, trotz Abo, in "Message Limits". Unendlich viel rumspielen geht also nicht, obwohl das "Rate Limit" deutlich angehoben wurde.

On top gibt es ab Chat GPT Plus den "ChatGPT Advanced Voice" Modus, das ist der Sprach-Chatbot von Open AI. Er ergibt vor allem auf dem Smartphone Sinn. Das öffnet die Tür zu allgemein verfügbaren "Sprachcomputern". Die technische Basis ist nicht sooo komplex, da "Text to Speech" (TTS), also die Stimmgenerierung nix Neues ist. Bei manchen KI-Tools genügen ein paar Sekunden Sprachaufnahme einer Person, um die Stimme sehr gut zu klonen. Auch das Verstehen von Sprache per KI ist schon länger kein Ding. Der Game Changer ist jedoch die geringe Latenz, die das Führen von Gesprächen ermöglicht - und die Qualität der generierten Inhalte.

Was ist OpenAI o1?

OpenAI o1 ist ein großes Sprachmodell von Open AI, das in ChatGPT verwendet wird. Da steckt viel Rechenleistung drin. Diese Sprachmodell-Reihe soll weniger halluzinieren, da sie auf "Reasoning" getrimmt wurde - mittels der Prompt Engineering Technik "Chain of Thought", die du auch manuell anwenden kannst. Das ist vor allem fürs Coding wichtig, da phantasierter Code unbrauchbar ist.

Der bekannteste KI-Fail ist, wenn das LLM beim Zählen des Buchstabens "r" in Strawberry scheitert. Das liegt in der Natur der LLMs, außer man bringt es separat bei. ChatGPT hatte da wohl ein peinliches Problem. Claude von Anthropic nicht, aber auch die LLMs von Mistral nicht. Das Problem ist mit o1 wohl abgestellt.

Neben OpenAI o1 gibt es OpenAI o1-mini, das kleiner, schneller und billiger in der Nutzung ist.
Preisbeispiel aus der API: 1 Million Output-Token kosten bei o1 "preview" 60 USD, für o1-mini 12 USD, während sie bei GPT 4o 10 USD und bei GPT 4o mini nur 0,30 USD kosten. Im Vergleich: Bei Anthropic kosten die Output-Token bei Claude 3.5 Sonnet, das echt gut ist, 15 USD / Mio., und bei Claude 3 Opus 75 USD / Mio. Faustregel: 100 (englische) Wörter entsprechen in etwa 75 Token.
An den Kosten kann man erkennen, dass o1 intern Token ohne Ende verbrät, weswegen die Kosten so hoch sind. Das könnte ein Hinweis darauf sein, dass OpenAI versucht, die Mängel der KI mit schierer Rechenleistung wegzuoptimieren. Das ist ziemlich schräg, da die halbe Welt versucht, die Sprachmodelle durch Training effizienter zu machen.
Tipp: Wenn's um Coding geht, ist auch Codestral von Mistral AI sehr stark.

Kostenfrei GPTs bauen

GPTs, also vorgepromptete Assistenten, kannst du mit den Hugging Chat Assistants - eingeschränkt - bauen. Das Sprachmodell GPT-4 gibt es da nicht, aber von Mistral AI gibt es da eine vernünftige Alternative - und natürlich LLaMa.

Die Qualität des Bing Copilot zu schlagen ist allerdings schwer, wenn du eine Faktensuchmaschine erstellen willst.

Die Mistral-LLMs fühlen sich in den Ergebnissen manchmal "europäischer" an, während die Ergebnisse der Open AI LLMs, und erst recht Google Gemini, oft wie aus dem Englischen übersetzt klingen. Der Grund: Intern arbeiten viele LLMs auf Englisch und übersetzen hin und her. Das bringt durchaus krasse Übersetzungsfehler rein, die auf den ersten Blick gar nicht auffallen. Beispiel: In einem Text von Anthropic Claude 3.5 Sonnet hatte ich mal das Wort "Konto" drinstehen, womit "Account" gemeint war - im Sinne von "Kunde." Dumm gelaufen.

3. Was ist ChatGPT Team? Die klare Empfehlung

ChatGPT Team ist kleinste ChatGPT-Variante, mit der du sinnvoll mit mehreren Leuten zusammenarbeiten kannst. Der Schlüssel dazu sind

  • erstens die "Custom GPTs", das sind kleine, selbstgebaute KI-Apps, die man zur Nutzung durch das gesamte Team freigeben kann
  • zweitens die Integrationsmöglichkeit deiner Firmendaten (SharePoint, Google Drive, Dropbox...)
  • drittens Admin-Funktion wie Single Sign On (SAML SSO) etc.

Das Preis- und Lizenzmodell von Chat GPT Team ähnelt Chat GPT Plus, kostet aber bei monatlicher Zahlung mindestens 60 US-Dollar bzw. 58 Euro im Monat (2 mal $30 bzw. € 29, da mindestens 2 User-Lizenzen abonniert werden müssen).

Oder du nimmst die volle Chat GPT Enterprise-Variante, doch dazu gleich mehr.

2 Gründe, warum du ChatGPT Plus nicht nehmen solltest.

1. Bei Chat GPT Team werden aus deinen Daten standardmäßig keine Trainingsdaten

Alles, absolut alles, was du bei Chat GPT eingibst oder „bestellst“, wird von Chat GPT wieder als Trainingsdaten verwendet - wenn du es nicht ausstellst. Wie das geht, steht weiter oben im Artikel. Das ist ein absolutes No-Go und die röteste aller Red Flags.

Das Abstellen ist kein Problem, wenn man weiß wie es geht.

Zum Problem wird es aber, wenn deine Mitarbeiter (oder Lieferanten) Chat GPT Free oder Plus nutzen - und die Datenschutzprobleme nicht kennen.

Lösungen:

  • Stelle deinen Mitarbeitern ChatGPT Team (oder Copilot, oder Anthropic Claude Team) zur Verfügung.
  • Spreche mit deinen Lieferanten über KI und Datenschutz, wenn diese sensible Dokumente von dir verarbeiten.

Warum Datenschutz wichtig ist? Sobald du Firmeninterna als Quelle nutzt, und die Trainingsdatenfunktion nicht ausgeschaltet hast, landen die Daten im "Daten-Hochregallager" des großen Sprachmodells und können dort vom Wettbewerb per Zufall oder per Durchtriebenheit abgerufen werden.

Wir reden jetzt noch nicht mal von der DS-GVO oder über juristische Fragen, sondern von realen Problemen. Gut, mit dem EU AI Act sind wir schon im Problembereich, denke mal daran, dass ein Mitarbeiter von dir eine Excel-Tabelle mit Privatadressen deiner Kunden hochlädt. Die Daten sind dann - möglicherweise - Teil der KI geworden.

Fiktives Beispiel: Du hast aus der Technischen Entwicklung eine sehr technische Produktbeschreibung für eine absolut geheime Innovation erhalten. Diese willst du in Bullet Points zusammenfassen lassen und daraus eine Vermarktungsstrategie entwickeln, und zwar für ein Sales Meeting. Durch das Eingeben von ungeschwärzten Daten fütterst du das Sprachmodell quasi mit Top-Secret-Infos.

Sehr blöd wird es, wenn dein Wettbewerber in einem ganz ähnlichen Feld forscht und einer der Ingenieure bei ChatGPT nach Ideen für eine Innovation fragt. Und Potzblitz: Das System rattert eure Innovation runter. Na bravo. In der Chat GPT Team-Version kann das (angeblich) nicht passieren. Große Firmen lassen deshalb "ihr" Chat GPT auf eigenen Servern laufen - oder haben für sowas eigene KI, Chatbots und RAG-Tools. Aus Gründen.

2. ChatGPT Team: GPTs für Teams bauen

Was ist ChatGPT Team? Ideal für Teams, da ist der Name also korrekt gewählt. Denn: Im Unternehmenseinsatz von KI-Tools geht es doch fast immer darum, wiederkehrende Aufgaben zu vereinfachen. Das kennen wir seit der Industrialisierung, als Maschinen auf den Plan traten. GPTs sind die Maschinen – oder Roboter – der generativen KI. Mit ihnen baust du Templates, die du im gesamten Team verwenden kannst. Dadurch werden die Outputs besser, und vor allem spart es Zeit: Nicht jeder hat das Talent, die Lust oder die Zeit, sich ins Prompt Engineering einzufuchsen. Das bedeutet: Du brauchst nur eine Person im Team, die im Prompting ziemlich gut ist (oder niemanden, da du auch einen Freelancer buchen kannst), und alle Mitglieder des Teams profitieren von diesen Mini-Apps.

Um Workflows zu automatisieren, solltest du dich separat in der Welt der RPA (Robotic Process Automation) umsehen. Da fließt gerade Generative KI mit rein, das ist spannend. Zapier oder Make sind da oft hilfreich: Ich nutze z.B. Zapier, um Leads aus einem Google-Ads-Lead-Formular automatisch ins HubSpot "zu beamen".

Beispiel für Team-GPTs: Ihr habt einen Onlineshop mit 100.000 Artikeln und wollt diese mit Produkttexten anreichern. Man könnte ein GPT bauen, das diese Texte in der passenden Länge und im richtigen Format erstellt - und zwar besser als mit den eingebauten KI-Tools des Shopsystems. Dieses GPT stellst du dann den Teams zur Verfügung.

Um solche GPTs mit dem Team zu teilen, brauchst du Chat GPT Team. Plus reicht nicht.

Allerdings musst du massiv Teams-Abos abschließen. Ob sich das lohnt? Klar definierte GPTs kannst du genauso gut mit anderen Tools bauen (Gradio) und das exakt passende Sprachmodell per API einbinden. Dadurch werden dann auch (Teil-)Automatisierungen möglich. Um bei den Produkttexten zu bleiben: Ich habe mal spaßeshalber ein Gradio-Notebook gebaut - also eine Art Website - mit einem Eingabefeld für eine URL. Du gibst deine URL ein, im Hintergrund generiert Anthropic via API einen Produkttext - und gibt ihn aus.

Eine Frage bleibt deshalb: der Use Case, also der konkret sinnvolle Nutzen im Unternehmen. Den sollte man zuerst ermitteln. Das gelingt unter anderem mittels KI-Beratung, Umfragen in der Belegschaft (Nutzt ihr Chat GPT? Was nervt euch? Welche Arbeiten fressen Zeit?).

4: ChatGPT Enterprise (€ 100.000+ p.a.)

Die ganz große Variante Chat GPT Enterprise hat keine offizielle Preisliste. Man soll den Vertrieb kontaktieren. Angeblich3 liegt der Preis bei $60 im Monat, bei einer Mindestabnahme von 150 Einzelplatzlizenzen ("Seats"). Das wären $9.000 im Monat bzw. $108.000 im Jahr.

Größte Vorteile: Du kannst das Sprachmodell in deiner eigenen Cloud laufen lassen, mit der API rumspielen und es mit Single-Sign-On in deine Unternehmens-IT-Sicherheits-/Passwort-Richtlinie einbauen.

Letztlich wird das eine Mischkalkulation seitens OpenAI sein: Die Heavy User verbrauchen Token, also teure Rechenleistung, ohne Ende, während Normal-User es wenig nutzen.

ChatGPT-Alternativen? U.a. Office Copilot, Hugging Chat, iStock, Bria

  • Für normale Bürojobs dürfte der (ähnlich bepreiste) Microsoft Office 365 Copilot interessanter sein, da Zaubertricks wie Mach-mir-eine-PowerPoint-aus-meinem-Word-Dokument möglich sind. Wirklich gut funktioniert das leider trotzdem nicht. Außerdem kannst du dir Mail-Threads im Posteingang zusammenfassen lassen. Microsoft hat das Open-AI-Sprachmodell übrigens auf eigenen Servern laufen, und deine Daten werden nicht zu Trainingsdaten4. Das hört sich gar nicht schlecht an. Der Copilot ist insgesamt ziemlich gut, da er Quellen bzw. Fußnoten einbaut.
  • Wenn du Google Workspace nutzt, ist Gemini besser - es ist einfach komplett integiert. Datenschutz? Sehr eigenwillig. Puh...
    Allerdings kannst du in ChatGPT auch Google Drive integrieren, was einem ausreichen kann.
  • Um "Apps" zu bauen, bzw. um Prozesse zu automatisieren, kann man sich bei Microsoft "Power Automate" ansehen. Je nach Office-365-Version ist das schon mit drin, speziell in der Edu-Welt.
    Da gibt es schon fertig konfigurierte No-Code-Mini-Apps wie "Stimmung in E-Mails mit AI Builder analysieren und Ergebnisse an Teams senden". Das ist dann ein automatisierter Workflow der a) das Microsoft Dataverse nutzt, b) E-Mails in Outlook liest, c) den Inhalt analysiert (Sentiment Analysis) und d) das Ergbnis in Teams postet. Das ist für den Kundenservice interessant, um bspw. Beschwerden schnell an die richtigen Leute zu leiten. Auch PowerBI und Visio lassen sich damit verknüpfen, aber da braucht man dann schon fähige IT Consultants.
    Aber Achtung: Emotionserkennung ist, speziell bei Mitarbeitern, de facto verboten. Mehr dazu im Artikel über den EU AI Act / DSGVO / KI-Ethik.
  • Um aus Prompts Apps zu machen, also den Prompt als API-Call in Python o.ä. reinzudengeln, ist Anthropic mit Claude ziemlich spitze. Da wird es dann allerdings schon ziemlich nerdig.
    Beispiel:
    • Du kannst mit Anthropic einen Prompt mit einer Variablen bauen, sagen wir mal einer URL. Diesen Prompt kannst du dir als Python-Code ausspucken lassen.
    • Dann kannst du mit HuggingFace ein Gradio-Notebook anlegen (= HuggingFace Space) und den Python-Code in die app.py reinpasten (und ein paar weitere Handgriffe muss man noch machen). Voilà, du hast eine KI-App gebaut.
      Tipp: Anthropic hat ein Prompt Engineering Tool, das echt gut funktioniert.
  • Die Welt der Sprachmodelle ist groß, und es gibt immer mehr Spezialisierungen. Als Coding-Helfer ist u.a. Claude Code recht talentiert (oder auch katastrophal schlecht - Jekyll & Hyde)
  • Bei der Bildmanipulation ist Bria.ai relativ safe, da die Trainingsdaten lizensiert wurden. Ganz sicher sein darfst du dich nicht, da in dort zusätzlich verfügbaren Stockbildern (z.B. von Unsplash) Bilder drin sind, die Editorial-only sind, also nicht für Werbezwecke verwendet werden dürfen - und es steht nicht dabei. Also: Vorsichtig sein.
  • Bei der AI-Bildgenerierung ist neben Adobe Firefly (Abo-Modell) auch iStock interessant (auch Abo), da dort auf lizenrechtliche Sauberkeit geachtet wird. Zum Einsatz kommt bei iStock NVIDIA Picasso. Der Spaß kostet immer Geld, und die Ergebnisse haben nicht unbedingt immer Foto-Qualität. Bria und Firefly sind besser. Illustrations-artige Bilder sehen aber super aus!
  • Spannend ist auch, sich mit Open Source Sprachmodellen ein eigenes oder sogar selbst gehostetes GPT zu bauen. Dieses sendet keine Daten an irgendwen. Zum herumspielen bietet sich Hugging Chat Assistants von Hugging Face an, das ist vergleichbar mit den Custom GPTs bei Chat GPT; einen damit erstellen Chat-Bot findest du auf der Seite Marketingmaßnahmen.
  • Statt eine KI für alles einzusetzen kannst du auch ein "Team" aus "Spezialisten" zusammenstellen. Eine "Master-KI" wie ChatGPT oder Claude ist dann der "Abteilungsleiter", und unter der Haube werden bei Bedarf vorkonfigurierte Spezial-KIs unterbeauftragt (z.B. Bildbearbeitung) - oder auch Daten eingebunden (Datenbankzugriff). Das Zauberwort lautet "MCP-Server". Programmieraufwand ist hierfür nötig.
  • Die große Lösung: Ein Open-Source-Sprachmodell nehmen, dieses auf einem eigenen Server nutzen und mit eigenen Daten trainieren, und die damit erstellten Tools nur von Mitarbeitern verwenden lassen. Der Nachteil ist, dass du im Grunde eine Woche nach Fertigstellung vom Stand der Technik überholt wurdest - und du dir auch die Frage nach dem "entlernen" von Daten stellen musst. Beispiel: Du hast deine Firmen-KI mit einer FAQ zu deinen Produkten trainiert. Jetzt lancierst du ein neues Produkt, das ein Altprodukt ersetzt. Die FAQ ändert sich. Wie bringst du deiner KI bei, dass sie auf Fragen zum neuen Produkt teilweise nicht das alte Wissen verwenden soll?

Fazit

Nur die Preismodelle ChatGPT Team bzw. ChatGPT Enterprise können im Gegensatz zu ChatGPT Plus und Free für anspruchsvollere Aufgaben bei sensiblen Daten out of the Box sauber genutzt werden. Bei Free und Plus solltest du die Datenschutz-Einstellungen ändern.

Kontakt


Artikel zu ähnlichen Themen

  1. https://openai.com/index/hello-gpt-4o/ ↩︎
  2. https://openai.com/index/introducing-openai-o1-preview/ ↩︎
  3. Quelle: Reddit. Das ist natürlich keine echte, belastbare Quelle. ↩︎
  4. https://learn.microsoft.com/de-de/microsoft-365-copilot/microsoft-365-copilot-overview ↩︎

⌀ 5. Stimmen: 5
Teilen / Share
Zu Hause » KI » Chat GPT: Plus? Nein. Team? Ja. 2 Gründe

Erstellt am:

Zuletzt aktualisiert: