
Du fragst dich, welche ChatGPT Version du nehmen sollst – Gratis, Chat GPT Plus, Chat GPT Team oder die Enterprise-Variante? Wenn du’s geschäftlich einsetzen willst, also im Team mit mindestens 2 Leuten, ist ChatGPT Team die glasklare Empfehlung. Ab ca. 150 Mitarbeitern ist die (teure) Enterprise-Variante leider noch besser geeignet – mehr Leistung, mehr Admin-Features, mehr DSGVO-Suppport…
Warum Teams für die meisten KMU (oder auch Familien) im Vorteil ist, liest du in diesem Artikel. (Für versierte Einzelnutzer geht auch Plus, wenn du einen Tweak nutzt).
Die Hauptgründe für Team sind
- das out-of-the-box datenschutzkonformere Datenhandling (bei Free und Plus muss man das manuell einstellen)
- die besseren Funktionen für Teams – wie eine Anbindungsmöglichkeit an euer SharePoint.
- Und – im Vergleich zu Plus – fällt mit Teams das Nutzungslimit bei GPT-4o weg. Mit Teams spart man sich also als Heavy User den „Bitte warten“-Frust
- Übrigens untersagt der US-Congress (neben WhatsApp) in seinem „Herrschaftsbereich“ die Nutzung der Free-Version (und von Microsoft Copilot…).
Außerdem liegt die „Mindestabnahme“ für Chat GPT Team Lizenzen nur bei 2 Stück, das kann man sich durchaus leisten. Im Vergleich dazu musst du bei Claude mindestens 5 Lizenzen abnehmen (wobei Claude dennoch sehr interessant ist – weil die sehr guten „Reasoning“-LLMs Sonnet bzw. Opus sehr stark sind. Außerdem ist Anthropic pro Person ein wenig preisgünstiger; Bildgenerierung klappt allerdings nicht).
Es gibt da drüber noch eine ChatGPT Version namens Enterprise, die ist was für Großunternehmen. Wer es sich leisten kann und will: Enterprise ist wesentlich besser – allein schon weil das Kontextfenster (das „Kurzzeitgedächtnis“ bei 128.000 Token liegt, statt bei 32.000 Token wie bei Plus und Team); außerdem kannst du einen Wunsch-Datenstandort nehmen (z.B. Europa…). Für Unis und Vereine gibt’s Rabatte, dazu gleich mehr.
Weiter unten findest du
- einen sehr praktischen ChatGPT Plus / Team / Enterprise Lizenzkostenrechner, der die jährlichen Kosten errechnet.
- Einen detaillierten Vergleich der (nicht) inkludierten Leistungen der ChatGPT Pläne
Inhalt
- Sofortmaßnahme: ChatGPT-Datenschutz-Tweak
- Warum will man das kostenpflichtige Chat GPT Plus oder Team Abo haben?
- Artikel zu ähnlichen Themen
- Chat GPT: Die 4 Preismodelle im Check
- Ausflug: Vektor Storage – So sieht er aus
- ChatGPT Kosten: Vergleich
- ChatGPT Lizenkostenrechner
- 1. Chat GPT Gratis („kostenloser Plan“)
- 2. ChatGPT Plus: viele Vorteile & Riesennachteil
- 3. Was ist ChatGPT Team? Die klare Empfehlung
- 2 Gründe, warum du ChatGPT Plus nicht nehmen solltest.
- 4: ChatGPT Enterprise (€ 100.000+ p.a.)
- ChatGPT-Alternativen? U.a. Office Copilot, Hugging Chat, iStock, Bria
Am Ende des Artikels gibt noch einen kleinen Ausflug in Richtung Anthropic Claude, Mistral Le Chat, Google Gemini und Microsoft Power Automate, die Alternativen zu ChatGPT sein können. Beim Thema „eingebaute Bildgenerierung“ ist ChatGPT seit März 2025 dank des „Image Creator“ ziemlich gut dabei; das ist schon nicht uninteressant (basiert auf DALL-E wie eh und je, kann jetzt aber besser mit Texten umgehen etc.)

Für die Grundlagen empfehle ich dir die Artikel über ChatGPT, Token, Prompting oder das Zusammenspiel von ML / GenAI / RPA.
+++ Werbeeinblendung +++ Wenn du Marketing-Ideen brauchst: Das ist mein Hauptgeschäft. Klicke auf Kontakt. Schreibe, mir an welchem Task du festhängst +++
Sofortmaßnahme: ChatGPT-Datenschutz-Tweak
ChatGPT „Free“ und Plus nutzen deine Inputs (und die KI-Outputs) standardmäßig dazu, die KI-Sprachmodelle zu trainieren. Team und Enterprise nicht.
Das heißt, dass dein Wissen (bzw. die von dir hochgeladenen Dokumente) im Big Brain von Open AI landen, um das Sprachmodell zu verbessern. Das willst du nicht.
Die gute Nachricht: Du kannst das ausschalten.
Gehe jetzt auf https://chatgpt.com/#settings/DataControls

Es öffnen sich die Einstellungen, mit den Datenkontrollen.
Dort siehst du den Punkt „Das Modell für alle verbessern“. (So kann man das auch nennen… da wird einem ein schlechtes Gewissen gemacht… hahaha)
Da klickst du drauf und legst den Schalter auf „aus“ um.
Dann werden deine Daten nicht zu Trainingsdaten. Fertig!
Die Einstellung gilt für deinen Account, auch wenn du dich woanders einloggst (anderer Rechner, App).
Warum will man das kostenpflichtige Chat GPT Plus oder Team Abo haben?
- Wegen der geringeren Einschränkungen (Rate Limits = Interaktionen)
- Um die besseren Sprachmodelle von Open AI zu nutzen
- Um GPTs zu nutzen, also die Plugins (auch von Fremdanbietern)
- Und um Zugriff auf ChatGPT Canvas – die Editierfunktion des Outputs – zu haben.
- Und wegen der eingebauten „Suchmaschine“ ChatGPT Search (eigentlich eine Antwortmaschine)
Du willst nur den Genuss von „Custom GPTs“, also der KI-Mini-Apps, zu kommen? Dann kannst du als freie Alternative Hugging Chat Assistants inklusive einer großen Auswahl an spannenden Sprachmodellen (u.a. LLama 3.2) ausprobieren (im Link findest du Vergleich und Anleitung).
Chat GPT: Die 4 Preismodelle im Check
ChatGPT gibt es in vier „Abo“-Preismodellen:
- „Kostenfreier Plan“, da bekommst du nur einen Teil der Fähigkeiten.
- Chat GPT Plus, da zahlst du ein monatliches Abo und, wenn du’s nicht deaktivierst, mit deinen Daten (Irrsinn).
- Chat GPT für Teams, da zahlst du mindestens 2 Lizenzen im Monat – das ist OK.
- Chat GPT Enterprise für Großkonzerne: superteuer
Außer der Reihe:
- ChatGPT Pro: Der „Pro“-Plan kostet sportliche 229 Euro im Monat und ist nur ein aufgebohrter „Plus“-Plan – und nicht für Teams erhältlich. Unterschied: Du kannst die Reasoning-Sprachmodell „o1-pro“, „o3-pro“, „o3“, „o4-mini“ und zusätzlich GPT-4o ohne Limit nutzen (obwohl es natürlich trotzdem Limits gibt), und „Advanced Voice“ – und Video-Generierung mit Sora.
Warum das so teuer ist?
Weil man als „Power User“ bei einer KI mit „Nachdenk“-Modus UND Bildgenerierung UND Videogenerierung etc. 200 Dollar schon an einem Tag verbraten kann. Auch ich habe es schon geschafft, bei einem kleinen „Programmier“-Projekt mit Claude Code in wenigen Tagen 100 Dollar auszugeben. Und das ist nur Code, kein Video. Einen realistischen Flatrate-Preis mit Coding und Video etc. müsste man bei 2.000 Dollar im Monat ansetzen. Dahin wird die Reise auch gehen – wenn sich Flatrates durchsetzen. - Chat GPT Edu: Die Education-Variante für (Hoch-)Schulen und Forschung. Die Features entsprechen der Enterprise-Version. Kosten: Verhandlungssache. KI mit Edu-Tarifen gibt es auch von Microsoft Welt – da kann man Copilot mit ins Office 365 Paket reinnehmen (Microsoft 365 Education), wohl aber nur fürs Hochschul-Personal, nicht aber für die Studis. Hier bitte die echten MS-Lizenzexperten fragen, das Thema ist einfach zu krass.
Zusätzlich gibt es noch:
- Mein Tipp: ChatGPT via API. Wenn du – oder dein Team – die API von OpenAI nutzt, musst du kein Abo abschließen. Stattdessen zahlst du für die reine Nutzung (= verbrauchte Token). Das ist sehr fair. Du kannst für jede Aufgabe ein anderes Sprachmodell wählen: Für einfache Tasks nimmst du ein schnelles, billiges Sprachmodell, und für aufwändige Sachen dann das teure Modell. Außerdem kannst du die API nutzen, um ChatGPT in deine „Apps“ zu integrieren.
Das hört sich jetzt grausam kompliziert an, ist es aber nicht. Denn: Die API kannst du fast so einfach wie ChatGPT nutzen. Der Unterschied ist nur, dass der Zugang über den OpenAI Playground funktioniert.
Nimm dir ein wenig Zeit und arbeite dich ein paar Minuten ein. Das macht Spaß und ermöglicht dir letztlich mehr kreativen Freiraum und mehr Kontrolle über das Ergebnis. Allerdings geht nicht alles – Bildgenerierung klappt nicht.
Dafür ist im Playground Open AI o1 Pro ohne Abo und für ein paar Cent nutzbar, wofür man im Abomodell für die Vollnutzung das sauteure Pro-Abo bräuchte (und mit Team ist nur eine eingeschränkte Nutzung möglich).
So einen Playground hat u.a. auch Anthropic („Workbench“).
Im Playground kannst du auch einen Datenspeicher anlegen, damit du mit deinen Daten chatten kannst – mit dem Sprachmodell deiner Wahl, also o1, Chat GPT 4.5 oder was auch immer. Dafür fallen dann Cloud-Speicherkosten an (bei geringer Nutzung sind das ein paar Cent im Monat).
- ChatGPT lizensieren: Das geht. Du fragst, wie Microsoft, bei Open AI an und sagst, dass du eine eigene KI auf eigenen Servern trainieren und laufen lassen willst, damit deine Daten nirgendwohin abwandern. Kosten? Verhandlungssache.
Der Witz an der Sache: So was geht auch für Null Euro Grundkosten, in dem du dir Ollama holst und damit ein Open-Source-LLM auf deinem Laptop laufen lässt. Für echte Anwendungen benötigst du eine Serverfarm, also im Hyperscaler / Cloud (wie AWS oder Azure) einmieten, oder richtig Geld auf den Tisch legen und ein Rechenzentrum bauen.
Ausflug: Vektor Storage – So sieht er aus
Im Open AI Playground kannst du du eigenen Dateien bzw. Daten in einem Speicher ablegen, einem „Vector Store“. Hochladen kannst du u.a. PDFs. Anschließend setzt du einen Chat-Bot (Assistenten) auf, der auf diese Daten zugreift. Diesen Chatbot kannst du u.a. als JSON-Code exportieren und z.B. in dein Intranet reinbasteln. Sensationell: Mit Konzepten wie „Chunking“ oder musst du dich (vorerst) nicht auseinandersetzen, aber irgendwann kommt man nicht dran vorbei.
Kosten? Gering – für die Speicherung. Man zahlt nur für die Nutzung. 3 Dollar je GB im Monat kann man sich geradenoch leisten. Die Daten werden dann wahrscheinlich auf Azure-Hyperscalern liegen. ABER: Jeder Chat verbrät Token ohne Ende. Ein paar Seiten PDF und ein paar Bilder, und schon hast du bei o3-mini 100.000 Token weg, was 10 Cent entspricht. Außerdem kannst du recht schnell in ein „Rate Limit“ laufen, z.B. ist dann bei 200.000 Token pro Minute Schluss. Das wird dann schon schnell eng.

ChatGPT Kosten: Vergleich
Die Chat GPT Kosten sind pro Person bzw. User. angegeben und liegen zwischen Null und 60 Dollar im Monat. Der Preis für Chat GPT Enterprise, die teuerste Varianate, ist eine Schätzung, da es keine offiziellen Preis gibt. Die Preise für API-Calls zeigen, dass die ChatGPT-Monatspreise eine Mischkalkulation sind: Wer viele Token verbrät, weil Heavy User, sorgt beim Anbieter für Verluste. Wer es wenig nutzt, verschenkt Geld.
Die API wird übrigens immer wichtiger: Die neuen Features von Chat GPT (Audio / „Call Center Chatbot“, Video) werden a) zuerst für API-Kunden zur Verfügung gestellt und b) sind besonders sinnvoll in Apps nutzbar, also über die API.
ChatGPT Lizenkostenrechner
ChatGPT Standard | ChatGPT Plus | ChatGPT Pro | ChatGPT Team | ChatGPT Enterprise | OpenAI API Aufrufe¹ |
---|---|---|---|---|---|
Kostenlos | 23 EUR / Monat | 229 EUR / Monat | 29 EUR / Benutzer/Monat (jährlich) 34 EUR / Benutzer/Monat (monatlich) |
52 EUR / Benutzer/Monat (jährlich) | ca. 0,075 – 120 EUR / 1 Million Token |
Jährliche Lizenzkosten:
¹ API-Aufrufkosten sind nicht im Rechner enthalten.
² „Gemeinnützige Organisationen“: 20% Rabatt auf ChatGPT Team, 50% auf Enterprise.
Den Rechner habe ich mir übrigens mit Claude machen lassen (und auf die neuen Preise updaten lassen). Das ist also eine echte No-Code-Lösung. War ne Sache von 10 Minuten. Bitte mit leichtem Staunen beachten: Die komplette Logik mit Mindest-Lizenzzahlen und dem Edu-Rabatt ist hinterlegt - und das alles in reinem HTML bzw. JavaScript.
Bekommst du den Rabatt? Wenn du ein e.V. bist, oder eine Stiftung - also von Karnevalsverein bis Family Office.
Interessant: OpenAI nutzt einen Validierungsservice von percent, der das gesamte Vereinsregister kennt. Du kannst den Rabatt also schnell in Anspruch nehmen, wenn du in der Liste aufgeführt bist.
Ob ihr für die Uni bzw. Hochschule ChatGPT als Edu-Lizenz für alle anschaffen wollt: Nun ja, das geht ins Geld. Allerdings stellt es gleichwertige Verhältnisse her, und zwar innerhalb der Studentenschaft und im nationalen / internationalen Vergleich.
Also Low-Budget-Variante könnte man bei Stack IT (Schwarz-Gruppe) / Aleph Alpha anklopfen, die verkaufen m.W. "KI-Assistenzsysteme" ab € 1,50 im Monat an Behörden. Das könnte für die Hochschulverwaltung interessant sein. Vielleicht kommt da auch auch was mit GenAI.
GPT-Zugang im Vergleich
Mit einer besseren ChatGPT-Version verbessert sich auch die Nutzung von GPTs.
ChatGPT "Kostenlos" | ChatGPT Plus | ChatGPT Teams | ChatGPT Enterprise | |
---|---|---|---|---|
GPT-Nutzung | Einige Fremd-GPTs | Alle Fremd-GPTs & eigene GPTs erstellen | Zusätzlich zu Plus: Eigene GPTs mit dem Team teilen | Wie Team |
1. Chat GPT Gratis („kostenloser Plan“)
ChatGPT Free ist die klassische Gratisversion, basierend auf dem Modell GPT-4o1 (mini) (das o steht für Omnni, also "kann alles"). GPT-4o mini ist für die Free-Version gegenüber dem 4 ohne mini stark limitiert. Es kann eigentlich Bilder "lesen" und mit lesbarem (!) Text generieren sowie flüssig sprechen und singen, aber natürlich nicht für Leute die kein Geld ausgeben wollen. Die benötigte Rechenpower ist hoch.
GPT-4o (mini) im kostenlosen ChatGPT-Angebot hat ein paar Tücken: Es ist jetzt ähnlicher zum Microsoft Copilot (der ja GPT-4 Turbo nutzt), kann also im Internet suchen (Bing) und halbwegs Quellen angeben. Das klappt manchmal automatisch, mal nicht. Um die Online-Funktion zu aktivieren, hilft es, wenn du im Prompt die aktuelle Jahreszahl reinschreibst. Das ist ein Trigger, um das Sprachmodell zu aktuellen Ergebnissen zu zwingen. Trotzdem können die Ergebnisse halluniziert sein.
Beispiel: Lasse dir eine Tabelle generieren, die eine Liste mit Namen und E-Mail-Adressen von, sagen wir mal, Werbeagenturen in Köln, liefert. Das Ergebnis? Copy & Paste von schrottigen SEO-Seiten, die Nonsens-Listen von Unternehmen anbieten. Das Ergebnis ist nicht verwendbar und stiehlt dir letztlich Zeit, weil du das Ergebnis erst qualifizieren musst. Da kannste genauso gut den Bürohund fragen, der stellt sich nicht schlechter an.
Mit der "Texte in Bilder schreiben" Funktion handelt man sich übrigens größere Urheberrechtsprobleme als bisher ein: Der generierte Text kann urheberrechtlich geschützte Teile enthalten - ohne dass du es weißt - und damit das Bild lizenzrechtlich noch problematischer als bisher machen.
Beispiel: Du lässt dir ein Werbebanner generieren, und Chat GPT "denkt" sich auf deinen Wunsch eine Headline aus und schreibt sie ins Bild rein. Da Chat GPT mit Texten aus "Quelle Internet" trainiert wurde sowie von Usern wie dir mit Trainingsdaten gefüttert wird, ist es möglich, dass die generierte Headline nicht neu ist sondern zufälligerweise von einem Wettbewerber stammt. So was ist natürlich ziemlich blöd bzw. peinlich. Um das zu verhindern, musst du generierte Inhalte stets umfassend prüfen.
(Teils) kostenlose GPTs
Was ChatGPT "kostenlos" schon kann, sind manche GPTs - also die Nutzung vorgeprompteter kleiner Helferlein. Da kann man aus einer stattlichen Bibliothek auswählen. Ganz cool ist, dass ChatGPT zu einer Art Hub für Drittanbieter wird, u.a. gibt es GPTs von Canva oder zum Generieren von KI-Videos (veed.io.)
Nachteil: Du kannst nur nutzen, was da ist. Eigene GPTs erstellen und mit dem Team teilen geht erst mit dem ChatGPT Team Abo. Außerdem kannst du die kostenfreien GPTs nicht feintunen. Otto-Normal-User wird das nicht stören, der hat weder Zeit noch Lust auf Prompt-Customzing.

Auch kannst du in der Free-Version immerhin schon Datenquellen einbinden: Aus der Cloud gehen Google Drive & Microsoft OneDrive (inkl. Sharepoint), oder du kannst Daten von deinem eigenen Rechner hochladen. Das ist interessant, wenn du bspw. mit einem PDF "chatten" willst oder du Hilfe bei Code oder einer Excel-Tabelle brauchst.
Vorsicht Falle: Die Auswahl ist mega, aber nicht alle GPTs kannst du for free nutzen. Für u.a. Bilder brauchst du - im Gegensatz zu Copilot - ein Abo.

Über Datenschutz brauchen wir da nicht reden: Du lädst deine Daten irgendwo hoch, und damit können irgendwelche Dinge passieren. Auch wenn du das Training mit deinen Daten ausgeschlossen hast: Vertrauen ist gut, kein Vertrauen ist besser.
2. ChatGPT Plus: viele Vorteile & Riesennachteil
Was kann Chat GPT Plus? Es bietet für 20 US-Dollar bzw. 23 Euro als Vorteil nicht nur das viel bessere GPT-4o bzw. das Schwester-LLM OpenAI o12, sondern vor allem die die Möglichkeit, eigene Vorlagen („GPTs“) zu erstellen. Außerdem kann das Ding dann schon im Internet surfen und KI-Bilder generieren (Basis: DALL-E), und ein paar Videos mit Sora, und bspw. eine Excel-Datei analysieren, du du hochlädst. Chat GPT 4 gibt es als "App", aber auch als API. In einigen KI-Apps steckt ohnehin ChatGPT drin, ohne dass man es direkt weiß.
Trotzdem läufst du mit GPT Plus, trotz Abo, in "Message Limits". Unendlich viel rumspielen geht also nicht, obwohl das "Rate Limit" deutlich angehoben wurde.
On top gibt es ab Chat GPT Plus den "ChatGPT Advanced Voice" Modus, das ist der Sprach-Chatbot von Open AI. Er ergibt vor allem auf dem Smartphone Sinn. Das öffnet die Tür zu allgemein verfügbaren "Sprachcomputern". Die technische Basis ist nicht sooo komplex, da "Text to Speech" (TTS), also die Stimmgenerierung nix Neues ist. Bei manchen KI-Tools genügen ein paar Sekunden Sprachaufnahme einer Person, um die Stimme sehr gut zu klonen. Auch das Verstehen von Sprache per KI ist schon länger kein Ding. Der Game Changer ist jedoch die geringe Latenz, die das Führen von Gesprächen ermöglicht - und die Qualität der generierten Inhalte.
Was ist OpenAI o1?
OpenAI o1 ist ein großes Sprachmodell von Open AI, das in ChatGPT verwendet wird. Da steckt viel Rechenleistung drin. Diese Sprachmodell-Reihe soll weniger halluzinieren, da sie auf "Reasoning" getrimmt wurde - mittels der Prompt Engineering Technik "Chain of Thought", die du auch manuell anwenden kannst. Das ist vor allem fürs Coding wichtig, da phantasierter Code unbrauchbar ist.
Der bekannteste KI-Fail ist, wenn das LLM beim Zählen des Buchstabens "r" in Strawberry scheitert. Das liegt in der Natur der LLMs, außer man bringt es separat bei. ChatGPT hatte da wohl ein peinliches Problem. Claude von Anthropic nicht, aber auch die LLMs von Mistral nicht. Das Problem ist mit o1 wohl abgestellt.
Neben OpenAI o1 gibt es OpenAI o1-mini, das kleiner, schneller und billiger in der Nutzung ist.
Preisbeispiel aus der API: 1 Million Output-Token kosten bei o1 "preview" 60 USD, für o1-mini 12 USD, während sie bei GPT 4o 10 USD und bei GPT 4o mini nur 0,30 USD kosten. Im Vergleich: Bei Anthropic kosten die Output-Token bei Claude 3.5 Sonnet, das echt gut ist, 15 USD / Mio., und bei Claude 3 Opus 75 USD / Mio. Faustregel: 100 (englische) Wörter entsprechen in etwa 75 Token.
An den Kosten kann man erkennen, dass o1 intern Token ohne Ende verbrät, weswegen die Kosten so hoch sind. Das könnte ein Hinweis darauf sein, dass OpenAI versucht, die Mängel der KI mit schierer Rechenleistung wegzuoptimieren. Das ist ziemlich schräg, da die halbe Welt versucht, die Sprachmodelle durch Training effizienter zu machen.
Tipp: Wenn's um Coding geht, ist auch Codestral von Mistral AI sehr stark.
Kostenfrei GPTs bauen
GPTs, also vorgepromptete Assistenten, kannst du mit den Hugging Chat Assistants - eingeschränkt - bauen. Das Sprachmodell GPT-4 gibt es da nicht, aber von Mistral AI gibt es da eine vernünftige Alternative - und natürlich LLaMa.
Die Qualität des Bing Copilot zu schlagen ist allerdings schwer, wenn du eine Faktensuchmaschine erstellen willst.
Die Mistral-LLMs fühlen sich in den Ergebnissen manchmal "europäischer" an, während die Ergebnisse der Open AI LLMs, und erst recht Google Gemini, oft wie aus dem Englischen übersetzt klingen. Der Grund: Intern arbeiten viele LLMs auf Englisch und übersetzen hin und her. Das bringt durchaus krasse Übersetzungsfehler rein, die auf den ersten Blick gar nicht auffallen. Beispiel: In einem Text von Anthropic Claude 3.5 Sonnet hatte ich mal das Wort "Konto" drinstehen, womit "Account" gemeint war - im Sinne von "Kunde." Dumm gelaufen.
3. Was ist ChatGPT Team? Die klare Empfehlung
ChatGPT Team ist kleinste ChatGPT-Variante, mit der du sinnvoll mit mehreren Leuten zusammenarbeiten kannst. Der Schlüssel dazu sind
- erstens die "Custom GPTs", das sind kleine, selbstgebaute KI-Apps, die man zur Nutzung durch das gesamte Team freigeben kann
- zweitens die Integrationsmöglichkeit deiner Firmendaten (SharePoint, Google Drive, Dropbox...)
- drittens Admin-Funktion wie Single Sign On (SAML SSO) etc.
Das Preis- und Lizenzmodell von Chat GPT Team ähnelt Chat GPT Plus, kostet aber bei monatlicher Zahlung mindestens 60 US-Dollar bzw. 58 Euro im Monat (2 mal $30 bzw. € 29, da mindestens 2 User-Lizenzen abonniert werden müssen).
Oder du nimmst die volle Chat GPT Enterprise-Variante, doch dazu gleich mehr.
2 Gründe, warum du ChatGPT Plus nicht nehmen solltest.
1. Bei Chat GPT Team werden aus deinen Daten standardmäßig keine Trainingsdaten
Alles, absolut alles, was du bei Chat GPT eingibst oder „bestellst“, wird von Chat GPT wieder als Trainingsdaten verwendet - wenn du es nicht ausstellst. Wie das geht, steht weiter oben im Artikel. Das ist ein absolutes No-Go und die röteste aller Red Flags.
Das Abstellen ist kein Problem, wenn man weiß wie es geht.
Zum Problem wird es aber, wenn deine Mitarbeiter (oder Lieferanten) Chat GPT Free oder Plus nutzen - und die Datenschutzprobleme nicht kennen.
Lösungen:
- Stelle deinen Mitarbeitern ChatGPT Team (oder Copilot, oder Anthropic Claude Team) zur Verfügung.
- Spreche mit deinen Lieferanten über KI und Datenschutz, wenn diese sensible Dokumente von dir verarbeiten.
Warum Datenschutz wichtig ist? Sobald du Firmeninterna als Quelle nutzt, und die Trainingsdatenfunktion nicht ausgeschaltet hast, landen die Daten im "Daten-Hochregallager" des großen Sprachmodells und können dort vom Wettbewerb per Zufall oder per Durchtriebenheit abgerufen werden.
Wir reden jetzt noch nicht mal von der DS-GVO oder über juristische Fragen, sondern von realen Problemen. Gut, mit dem EU AI Act sind wir schon im Problembereich, denke mal daran, dass ein Mitarbeiter von dir eine Excel-Tabelle mit Privatadressen deiner Kunden hochlädt. Die Daten sind dann - möglicherweise - Teil der KI geworden.
Fiktives Beispiel: Du hast aus der Technischen Entwicklung eine sehr technische Produktbeschreibung für eine absolut geheime Innovation erhalten. Diese willst du in Bullet Points zusammenfassen lassen und daraus eine Vermarktungsstrategie entwickeln, und zwar für ein Sales Meeting. Durch das Eingeben von ungeschwärzten Daten fütterst du das Sprachmodell quasi mit Top-Secret-Infos.
Sehr blöd wird es, wenn dein Wettbewerber in einem ganz ähnlichen Feld forscht und einer der Ingenieure bei ChatGPT nach Ideen für eine Innovation fragt. Und Potzblitz: Das System rattert eure Innovation runter. Na bravo. In der Chat GPT Team-Version kann das (angeblich) nicht passieren. Große Firmen lassen deshalb "ihr" Chat GPT auf eigenen Servern laufen - oder haben für sowas eigene KI, Chatbots und RAG-Tools. Aus Gründen.
2. ChatGPT Team: GPTs für Teams bauen
Was ist ChatGPT Team? Ideal für Teams, da ist der Name also korrekt gewählt. Denn: Im Unternehmenseinsatz von KI-Tools geht es doch fast immer darum, wiederkehrende Aufgaben zu vereinfachen. Das kennen wir seit der Industrialisierung, als Maschinen auf den Plan traten. GPTs sind die Maschinen – oder Roboter – der generativen KI. Mit ihnen baust du Templates, die du im gesamten Team verwenden kannst. Dadurch werden die Outputs besser, und vor allem spart es Zeit: Nicht jeder hat das Talent, die Lust oder die Zeit, sich ins Prompt Engineering einzufuchsen. Das bedeutet: Du brauchst nur eine Person im Team, die im Prompting ziemlich gut ist (oder niemanden, da du auch einen Freelancer buchen kannst), und alle Mitglieder des Teams profitieren von diesen Mini-Apps.
Um Workflows zu automatisieren, solltest du dich separat in der Welt der RPA (Robotic Process Automation) umsehen. Da fließt gerade Generative KI mit rein, das ist spannend. Zapier oder Make sind da oft hilfreich: Ich nutze z.B. Zapier, um Leads aus einem Google-Ads-Lead-Formular automatisch ins HubSpot "zu beamen".
Beispiel für Team-GPTs: Ihr habt einen Onlineshop mit 100.000 Artikeln und wollt diese mit Produkttexten anreichern. Man könnte ein GPT bauen, das diese Texte in der passenden Länge und im richtigen Format erstellt - und zwar besser als mit den eingebauten KI-Tools des Shopsystems. Dieses GPT stellst du dann den Teams zur Verfügung.
Um solche GPTs mit dem Team zu teilen, brauchst du Chat GPT Team. Plus reicht nicht.
Allerdings musst du massiv Teams-Abos abschließen. Ob sich das lohnt? Klar definierte GPTs kannst du genauso gut mit anderen Tools bauen (Gradio) und das exakt passende Sprachmodell per API einbinden. Dadurch werden dann auch (Teil-)Automatisierungen möglich. Um bei den Produkttexten zu bleiben: Ich habe mal spaßeshalber ein Gradio-Notebook gebaut - also eine Art Website - mit einem Eingabefeld für eine URL. Du gibst deine URL ein, im Hintergrund generiert Anthropic via API einen Produkttext - und gibt ihn aus.
Eine Frage bleibt deshalb: der Use Case, also der konkret sinnvolle Nutzen im Unternehmen. Den sollte man zuerst ermitteln. Das gelingt unter anderem mittels KI-Beratung, Umfragen in der Belegschaft (Nutzt ihr Chat GPT? Was nervt euch? Welche Arbeiten fressen Zeit?).
4: ChatGPT Enterprise (€ 100.000+ p.a.)
Die ganz große Variante Chat GPT Enterprise hat keine offizielle Preisliste. Man soll den Vertrieb kontaktieren. Angeblich3 liegt der Preis bei $60 im Monat, bei einer Mindestabnahme von 150 Einzelplatzlizenzen ("Seats"). Das wären $9.000 im Monat bzw. $108.000 im Jahr.
Größte Vorteile: Du kannst das Sprachmodell in deiner eigenen Cloud laufen lassen, mit der API rumspielen und es mit Single-Sign-On in deine Unternehmens-IT-Sicherheits-/Passwort-Richtlinie einbauen.
Letztlich wird das eine Mischkalkulation seitens OpenAI sein: Die Heavy User verbrauchen Token, also teure Rechenleistung, ohne Ende, während Normal-User es wenig nutzen.
ChatGPT-Alternativen? U.a. Office Copilot, Hugging Chat, iStock, Bria
- Für normale Bürojobs dürfte der (ähnlich bepreiste) Microsoft Office 365 Copilot interessanter sein, da Zaubertricks wie Mach-mir-eine-PowerPoint-aus-meinem-Word-Dokument möglich sind. Wirklich gut funktioniert das leider trotzdem nicht. Außerdem kannst du dir Mail-Threads im Posteingang zusammenfassen lassen. Microsoft hat das Open-AI-Sprachmodell übrigens auf eigenen Servern laufen, und deine Daten werden nicht zu Trainingsdaten4. Das hört sich gar nicht schlecht an. Der Copilot ist insgesamt ziemlich gut, da er Quellen bzw. Fußnoten einbaut.
- Wenn du Google Workspace nutzt, ist Gemini besser - es ist einfach komplett integiert. Datenschutz? Sehr eigenwillig. Puh...
Allerdings kannst du in ChatGPT auch Google Drive integrieren, was einem ausreichen kann. - Um "Apps" zu bauen, bzw. um Prozesse zu automatisieren, kann man sich bei Microsoft "Power Automate" ansehen. Je nach Office-365-Version ist das schon mit drin, speziell in der Edu-Welt.
Da gibt es schon fertig konfigurierte No-Code-Mini-Apps wie "Stimmung in E-Mails mit AI Builder analysieren und Ergebnisse an Teams senden". Das ist dann ein automatisierter Workflow der a) das Microsoft Dataverse nutzt, b) E-Mails in Outlook liest, c) den Inhalt analysiert (Sentiment Analysis) und d) das Ergbnis in Teams postet. Das ist für den Kundenservice interessant, um bspw. Beschwerden schnell an die richtigen Leute zu leiten. Auch PowerBI und Visio lassen sich damit verknüpfen, aber da braucht man dann schon fähige IT Consultants.
Aber Achtung: Emotionserkennung ist, speziell bei Mitarbeitern, de facto verboten. Mehr dazu im Artikel über den EU AI Act / DSGVO / KI-Ethik. - Um aus Prompts Apps zu machen, also den Prompt als API-Call in Python o.ä. reinzudengeln, ist Anthropic mit Claude ziemlich spitze. Da wird es dann allerdings schon ziemlich nerdig.
Beispiel:- Du kannst mit Anthropic einen Prompt mit einer Variablen bauen, sagen wir mal einer URL. Diesen Prompt kannst du dir als Python-Code ausspucken lassen.
- Dann kannst du mit HuggingFace ein Gradio-Notebook anlegen (= HuggingFace Space) und den Python-Code in die app.py reinpasten (und ein paar weitere Handgriffe muss man noch machen). Voilà, du hast eine KI-App gebaut.
Tipp: Anthropic hat ein Prompt Engineering Tool, das echt gut funktioniert.
- Die Welt der Sprachmodelle ist groß, und es gibt immer mehr Spezialisierungen. Als Coding-Helfer ist u.a. Claude Code recht talentiert (oder auch katastrophal schlecht - Jekyll & Hyde)
- Bei der Bildmanipulation ist Bria.ai relativ safe, da die Trainingsdaten lizensiert wurden. Ganz sicher sein darfst du dich nicht, da in dort zusätzlich verfügbaren Stockbildern (z.B. von Unsplash) Bilder drin sind, die Editorial-only sind, also nicht für Werbezwecke verwendet werden dürfen - und es steht nicht dabei. Also: Vorsichtig sein.
- Bei der AI-Bildgenerierung ist neben Adobe Firefly (Abo-Modell) auch iStock interessant (auch Abo), da dort auf lizenrechtliche Sauberkeit geachtet wird. Zum Einsatz kommt bei iStock NVIDIA Picasso. Der Spaß kostet immer Geld, und die Ergebnisse haben nicht unbedingt immer Foto-Qualität. Bria und Firefly sind besser. Illustrations-artige Bilder sehen aber super aus!
- Spannend ist auch, sich mit Open Source Sprachmodellen ein eigenes oder sogar selbst gehostetes GPT zu bauen. Dieses sendet keine Daten an irgendwen. Zum herumspielen bietet sich Hugging Chat Assistants von Hugging Face an, das ist vergleichbar mit den Custom GPTs bei Chat GPT; einen damit erstellen Chat-Bot findest du auf der Seite Marketingmaßnahmen.
- Statt eine KI für alles einzusetzen kannst du auch ein "Team" aus "Spezialisten" zusammenstellen. Eine "Master-KI" wie ChatGPT oder Claude ist dann der "Abteilungsleiter", und unter der Haube werden bei Bedarf vorkonfigurierte Spezial-KIs unterbeauftragt (z.B. Bildbearbeitung) - oder auch Daten eingebunden (Datenbankzugriff). Das Zauberwort lautet "MCP-Server". Programmieraufwand ist hierfür nötig.
- Die große Lösung: Ein Open-Source-Sprachmodell nehmen, dieses auf einem eigenen Server nutzen und mit eigenen Daten trainieren, und die damit erstellten Tools nur von Mitarbeitern verwenden lassen. Der Nachteil ist, dass du im Grunde eine Woche nach Fertigstellung vom Stand der Technik überholt wurdest - und du dir auch die Frage nach dem "entlernen" von Daten stellen musst. Beispiel: Du hast deine Firmen-KI mit einer FAQ zu deinen Produkten trainiert. Jetzt lancierst du ein neues Produkt, das ein Altprodukt ersetzt. Die FAQ ändert sich. Wie bringst du deiner KI bei, dass sie auf Fragen zum neuen Produkt teilweise nicht das alte Wissen verwenden soll?
Fazit
Nur die Preismodelle ChatGPT Team bzw. ChatGPT Enterprise können im Gegensatz zu ChatGPT Plus und Free für anspruchsvollere Aufgaben bei sensiblen Daten out of the Box sauber genutzt werden. Bei Free und Plus solltest du die Datenschutz-Einstellungen ändern.
Kontakt
Artikel zu ähnlichen Themen
- Longevity Marketing: So finden Kunden und Marken zusammen
- Projektmanagement im Marketing: PRINCE2 oder V-Modell® XT?
- Marketing-Digitalisierung: Mehr als nur Software und Automatisierung
- Öffentlichkeitsarbeit: Instrumente, die auch Digital und Social funktionieren
- Employer Branding Kampagnen: Darum solltest du viel mehr KPIs messen
- Recruiting: Vom Employer Branding zum Job Content Branding
- Dynamic Pricing, mal echt anschaulich
- Marketing Automation: 3fach gedacht, plus Customer Experience
- UX-Writing Crashkurs: Do’s und To do’s
- Social-Media-Management-Workflow? Mehrsprachig!
- Website-Audit-Planungshilfe
- KI: Machine Learning, Generative KI & RPA als Team
- Prompting aufgeschlüsselt: Vieles ist unsichtbar
- KI-Bildgenerierung: SVG, Diffusion oder GAN?
- LLMs verstehen: Token und Vektoren als Dashboard
- Claude: Was kann die KI von Anthropic?
- Performance Marketing: Leistung braucht Kreativität
- Marketingberatung: Erst das Rezept, dann ans Werk
- Social Selling: Hallo wer? Oder Ja gern?
- KI-Ethik und EU AI Act: Mitdenken ist Pflicht
- Customer Journey: Das Ziel ist das Ziel
- Chat GPT: Überblick, GPTs nutzen, Alternativen
- Google Gemini: KI mit Riesenhirn
- Statt Online Marketing Agentur: Flexibler mit Freelancern?
- TikTok für Unternehmen: 4 schnelle Tipps plus Ads-Tutorial
- KI-Videogenerator: Meine Testergebnisse
- KI-Bild generieren: und die Lizenz? Mit Vergleichstest!
- Hugging Chat Assistants: Alternative zu Custom GPTs
- Marketingmaßnahmen als 5-Dimensionen-Modell (mit Chat Bot)
- Hugging Face Spaces: der KI-Abenteuerspielplatz
- https://openai.com/index/hello-gpt-4o/ ↩︎
- https://openai.com/index/introducing-openai-o1-preview/ ↩︎
- Quelle: Reddit. Das ist natürlich keine echte, belastbare Quelle. ↩︎
- https://learn.microsoft.com/de-de/microsoft-365-copilot/microsoft-365-copilot-overview ↩︎