Chat GPT: Plus? Nein. Team? Ja. 2 Gründe

Chat GPT: Plus sieht alles, Team ist besser
Chat GPT und Datenschutz: Plus musst du „tunen“, Team ist out of the Box besser

Du fragst dich, welche ChatGPT Version du nehmen sollst – Gratis, Chat GPT Plus, Chat GPT Team oder die Enterprise-Variante? Wenn du’s geschäftlich einsetzen willst, also im Team mit mindestens 2 Leuten, ist ChatGPT Team die glasklare Empfehlung.

Warum das so ist, liest du in diesem Artikel: Die Hauptgründe sind das out-of-the-box datenschutzkonformere Datenhandling (bei Free und Plus muss man das manuell einstellen) und die besseren Funktionen für Teams. Außerdem liegt die „Mindestabnahme“ für Chat GPT Team Lizenzen nur bei 2 Stück, das kann man sich durchaus leisten. Im Vergleich dazu musst du bei Claude mindestens 5 Lizenzen abnehmen (wobei Claude dennoch sehr interessant ist).

Es gibt da drüber noch eine Version namens Enterprise, die ist was für Großunternehmen. Für Unis und Vereine gibt’s Rabatte, dazu gleich mehr.

Weiter unten findest du

  • einen sehr praktischen ChatGPT Plus / Team / Enterprise Lizenzkostenrechner, der die jährlichen Kosten errechnet. ChatGPT Pro ist nicht im Rechner drin (aus Gründen).
  • Einen detaillierten Vergleich der (nicht) inkludierten Leistungen der ChatGPT Pläne
Inhalt

Am Ende des Artikels gibt noch einen kleinen Ausflug in Richtung Anthropic Claude, Mistral Le Chat, Google Gemini und Microsoft Power Automate, die Alternativen zu ChatGPT sein können.

Für die Grundlagen empfehle ich dir die Artikel über ChatGPT, Token, Prompting oder das Zusammenspiel von ML / GenAI / RPA.

Als Einstieg ins Thema ChatGPT Plus oder Chat GPT Teams kannst du dir als „Abstract“ mein 1-Minuten-Video auf Englisch ansehen.

Chat GPT Plus oder Team: Das Video entstand als Quick & Dirty Test mit KI-Support, also bitte nicht zu kritisch sein.
Auf LinkedIn folgen

Über den Autor

Stefan Golling, Köln. Seit 2011 Freelance Creative Director, freier Texter, Creative Consultant und Online-Marketing-Berater mit Kunden von Mittelstand bis S&P 500. Erfahrung: 1998 mit Radiowerbung in Stuttgart gestartet, 2000 als Junior-Werbetexter zu Publicis München, 2001 Counterpart Köln, 2002 als Copywriter zu Red Cell Düsseldorf (heißt heute Scholz & Friends), dort ab 2007 Creative Director.

Wenn du größeren Informationsbedarf hast: Buche fürs Geschäft bei mir eine KI-Beratung, einen KI-Workshop oder eine KI-Schulung. Wenn du dich vor allem für Marketing-Support interessierst, ist auch der Artikel zu KI-Marketing-Tools interessant, oder, ganz generell, zu B2B-Marketing.

+++ Werbeeinblendung +++ Wenn du Marketing-Ideen brauchst: Das ist mein Hauptgeschäft. Klicke auf Kontakt. Schreibe, mir an welchem Task du festhängst +++

Und der nächste Schritt?

Sofortmaßnahme: ChatGPT-Datenschutz-Tweak

ChatGPT „Free“ und Plus nutzen deine Inputs (und die KI-Outputs) standardmäßig dazu, die KI-Sprachmodelle zu trainieren. Team und Enterprise nicht.

Das heißt, dass dein Wissen (bzw. die von dir hochgeladenen Dokumente) im Big Brain von Open AI landen, um das Sprachmodell zu verbessern. Das willst du nicht.

Die gute Nachricht: Du kannst das ausschalten.

Gehe jetzt auf https://chatgpt.com/#settings/DataControls

Es öffnen sich die Einstellungen, mit den Datenkontrollen.

Dort siehst du den Punkt „Das Modell für alle verbessern“. (So kann man das auch nennen… da wird einem ein schlechtes Gewissen gemacht… hahaha)

Da klickst du drauf und legst den Schalter auf „aus“ um.

Dann werden deine Daten nicht zu Trainingsdaten. Fertig!

Die Einstellung gilt für deinen Account, auch wenn du dich woanders einloggst (anderer Rechner, App).

Warum will man das kostenpflichtige Chat GPT Plus oder Team Abo haben?

  • Wegen der geringeren Einschränkungen (Rate Limits = Interaktionen)
  • Um die besseren Sprachmodelle von Open AI zu nutzen
  • Um GPTs zu nutzen, also die Plugins (auch von Fremdanbietern)
  • Und um Zugriff auf ChatGPT Canvas – die Editierfunktion des Outputs – zu haben.
  • Und wegen der eingebauten „Suchmaschine“ ChatGPT Search (eigentlich eine Antwortmaschine)

Du willst nur den Genuss von „Custom GPTs“, also der KI-Mini-Apps, zu kommen? Dann kannst du als freie Alternative Hugging Chat Assistants inklusive einer großen Auswahl an spannenden Sprachmodellen (u.a. LLama 3.2) ausprobieren (im Link findest du Vergleich und Anleitung).

Chat GPT: Die 4 Preismodelle im Check

ChatGPT gibt es in vier „Abo“-Preismodellen:

  • „Kostenfreier Plan“, da bekommst du nur einen Teil der Fähigkeiten.
  • Chat GPT Plus, da zahlst du ein monatliches Abo und, wenn du’s nicht deaktivierst, mit deinen Daten (Irrsinn).
  • Chat GPT für Teams, da zahlst du mindestens 2 Lizenzen im Monat – das ist OK.
  • Chat GPT Enterprise für Großkonzerne: superteuer

Außer der Reihe:

  • ChatGPT Pro: Der „Pro“-Plan kostet komplett bekloppte 200 Dollar im Monat und ist nur ein aufgebohrter „Plus“-Plan – und nicht für Teams erhältlich. Unterschied: Du kannst das Sprachmodell „o1“ ohne Limit nutzen (obwohl es natürlich trotzdem Limits gibt), und „Advanced Voice“.
    Warum das so teuer ist?
    Möglichkeit 1: Es ist ein PR-Joke, um weltweit gratis Werbung zu bekommen, weil alle drüber berichten.
    Möglichkeit 2: o1 ist absolut verbockt programmiert und verbraucht Token & Rechenleistung ohne Ende und muss deshalb so teuer kalkuliert werden – weil es intern 10x mal mehr Kosten verursacht. Wenn das so ist, hatte der Laden keine Ideen und keine Ressourcen, um ein schlankeres und gleich gutes Sprachmodell zu liefern. Und: Das „Context Window“ liegt bei Pro endlich bei 128.000 Token (was Claude Sonnet schon „ewig“ hat, und Google lächelt über sowas nur müde). Für mich ist o1 ein Restomod eines „Personal Luxury Coupé“ Oldtimers: Teuer, prestigeträchtig, aber an der Ampel lässt dich jeder stehen.
  • Chat GPT Edu: Die Education-Variante für (Hoch-)Schulen und Forschung. Die Features entsprechen der Enterprise-Version. Kosten: Verhandlungssache. KI mit Edu-Tarifen gibt es auch von Microsoft Welt – da kann man Copilot mit ins Office 365 Paket reinnehmen (Microsoft 365 Education), wohl aber nur fürs Hochschul-Personal, nicht aber für die Studis. Hier bitte die echten MS-Lizenzexperten fragen, das Thema ist einfach zu krass.

Zusätzlich gibt es noch:

  • ChatGPT via API, da zahlt man für Token – das ist sehr fair. Du kannst für jede Aufgabe ein anderes Sprachmodell wählen: Für einfache Tasks nimmst du ein schnelles, billiges Sprachmodell, und für aufwändige Sachen dann das teure Modell.
    Tipp: Schaue mal in den OpenAI Playground rein, dort kannst du mit den (Assistenten-Funktionen) der API spielen, inkl. TTS. Nimm dir ein wenig Zeit. So einen Playground hat u.a. auch Anthropic.
  • ChatGPT lizensieren: Das geht. Du fragst, wie Microsoft, bei Open AI an und sagst, dass du eine eigene KI auf eigenen Servern trainieren und laufen lassen willst, damit deine Daten nirgendwohin abwandern. Kosten? Verhandlungssache.
    Der Witz an der Sache: So was geht auch für Null Euro Grundkosten, in dem du dir Ollama holst und damit ein Open-Source-LLM auf deinem Laptop laufen lässt. Für echte Anwendungen benötigst du eine Serverfarm, also im Hyperscaler / Cloud (wie AWS oder Azure) einmieten, oder richtig Geld auf den Tisch legen und ein Rechenzentrum bauen.

ChatGPT Kosten: Vergleich

Die Chat GPT Kosten sind pro Person bzw. User. angegeben und liegen zwischen Null und 60 Dollar im Monat. Der Preis für Chat GPT Enterprise, die teuerste Varianate, ist eine Schätzung, da es keine offiziellen Preis gibt. Die Preise für API-Calls zeigen, dass die ChatGPT-Monatspreise eine Mischkalkulation sind: Wer viele Token verbrät, weil Heavy User, sorgt beim Anbieter für Verluste. Wer es wenig nutzt, verschenkt Geld.

Die API wird übrigens immer wichtiger: Die neuen Features von Chat GPT (Audio / „Call Center Chatbot“, Video) werden a) zuerst für API-Kunden zur Verfügung gestellt und b) sind besonders sinnvoll in Apps nutzbar, also über die API.

ChatGPT Lizenkostenrechner

Chat GPT Standard Chat GPT Plus Chat GPT Team Chat GPT Enterprise Open AI API Aufrufe¹
Kostenlos 20 USD / Monat 30 USD / Monat 60 USD / Monat ca. 0,075 – 120 USD / 1 Million Token




Jährliche Lizenzkosten:


¹ API-Aufrufkosten sind nicht im Rechner enthalten.

² „Gemeinnützige Organisationen“: 20% Rabatt auf ChatGPT Team, 50% auf Enterprise.

Den Rechner habe ich mir übrigens mit Claude machen lassen. Das ist also eine echte No-Code-Lösung. War ne Sache von 10 Minuten. Bitte mit leichtem Staunen beachten: Die komplette Logik mit Mindest-Lizenzzahlen und dem Edu-Rabatt ist hinterlegt - und das alles in reinem HTML bzw. JavaScript.

Bekommst du den Rabatt? Wenn du ein e.V. bist, oder eine Stiftung - also von Karnevalsverein bis Family Office.

Interessant: OpenAI nutzt einen Validierungsservice von percent, der das gesamte Vereinsregister kennt. Du kannst den Rabatt also schnell in Anspruch nehmen, wenn du in der Liste aufgeführt bist.

Ob ihr für die Uni bzw. Hochschule ChatGPT als Edu-Lizenz für alle anschaffen wollt: Nun ja, das geht ins Geld. Allerdings stellt es gleichwertige Verhältnisse her, und zwar innerhalb der Studentenschaft und im nationalen / internationalen Vergleich.

Also Low-Budget-Variante könnte man bei Stack IT (Schwarz-Gruppe) / Aleph Alpha anklopfen, die verkaufen m.W. "KI-Assistenzsysteme" ab € 1,50 im Monat an Behörden. Das könnte für die Hochschulverwaltung interessant sein. Vielleicht kommt da auch auch was mit GenAI.

GPT-Zugang im Vergleich

Mit einer besseren ChatGPT-Version verbessert sich auch die Nutzung von GPTs.

ChatGPT "Kostenlos"ChatGPT PlusChatGPT TeamsChatGPT Enterprise
GPT-NutzungEinige Fremd-GPTsAlle Fremd-GPTs & eigene GPTs erstellenZusätzlich zu Plus: Eigene GPTs mit dem Team teilenWie Team

1. Chat GPT Gratis („kostenloser Plan“)

ChatGPT Free ist die klassische Gratisversion, basierend auf dem Modell GPT-4o1 (mini) (das o steht für Omnni, also "kann alles"). GPT-4o mini ist für die Free-Version gegenüber dem 4 ohne mini stark limitiert. Es kann eigentlich Bilder "lesen" und mit lesbarem (!) Text generieren sowie flüssig sprechen und singen, aber natürlich nicht für Leute die kein Geld ausgeben wollen. Die benötigte Rechenpower ist hoch.

GPT-4o (mini) im kostenlosen ChatGPT-Angebot hat ein paar Tücken: Es ist jetzt ähnlicher zum Microsoft Copilot (der ja GPT-4 Turbo nutzt), kann also im Internet suchen (Bing) und halbwegs Quellen angeben. Das klappt manchmal automatisch, mal nicht. Um die Online-Funktion zu aktivieren, hilft es, wenn du im Prompt die aktuelle Jahreszahl reinschreibst. Das ist ein Trigger, um das Sprachmodell zu aktuellen Ergebnissen zu zwingen. Trotzdem können die Ergebnisse halluniziert sein.

Beispiel: Lasse dir eine Tabelle generieren, die eine Liste mit Namen und E-Mail-Adressen von, sagen wir mal, Werbeagenturen in Köln, liefert. Das Ergebnis? Copy & Paste von schrottigen SEO-Seiten, die Nonsens-Listen von Unternehmen anbieten. Das Ergebnis ist nicht verwendbar und stiehlt dir letztlich Zeit, weil du das Ergebnis erst qualifizieren musst. Da kannste genauso gut den Bürohund fragen, der stellt sich nicht schlechter an.

Mit der "Texte in Bilder schreiben" Funktion handelt man sich übrigens größere Urheberrechtsprobleme als bisher ein: Der generierte Text kann urheberrechtlich geschützte Teile enthalten - ohne dass du es weißt - und damit das Bild lizenzrechtlich noch problematischer als bisher machen.

Beispiel: Du lässt dir ein Werbebanner generieren, und Chat GPT "denkt" sich auf deinen Wunsch eine Headline aus und schreibt sie ins Bild rein. Da Chat GPT mit Texten aus "Quelle Internet" trainiert wurde sowie von Usern wie dir mit Trainingsdaten gefüttert wird, ist es möglich, dass die generierte Headline nicht neu ist sondern zufälligerweise von einem Wettbewerber stammt. So was ist natürlich ziemlich blöd bzw. peinlich. Um das zu verhindern, musst du generierte Inhalte stets umfassend prüfen.

(Teils) kostenlose GPTs

Was ChatGPT "kostenlos" schon kann, sind manche GPTs - also die Nutzung vorgeprompteter kleiner Helferlein. Da kann man aus einer stattlichen Bibliothek auswählen. Ganz cool ist, dass ChatGPT zu einer Art Hub für Drittanbieter wird, u.a. gibt es GPTs von Canva oder zum Generieren von KI-Videos (veed.io.)

Nachteil: Du kannst nur nutzen, was da ist. Eigene GPTs erstellen und mit dem Team teilen geht erst mit dem ChatGPT Team Abo. Außerdem kannst du die kostenfreien GPTs nicht feintunen. Otto-Normal-User wird das nicht stören, der hat weder Zeit noch Lust auf Prompt-Customzing.

GPTs von ChatGPT in der kostenfreien Version

Auch kannst du in der Free-Version immerhin schon Datenquellen einbinden: Aus der Cloud gehen Google Drive & Microsoft OneDrive (inkl. Sharepoint), oder du kannst Daten von deinem eigenen Rechner hochladen. Das ist interessant, wenn du bspw. mit einem PDF "chatten" willst oder du Hilfe bei Code oder einer Excel-Tabelle brauchst.

Vorsicht Falle: Die Auswahl ist mega, aber nicht alle GPTs kannst du for free nutzen. Für u.a. Bilder brauchst du - im Gegensatz zu Copilot - ein Abo.

Bilder generieren mit ChatGPT erfordert ChatGPT Plus

Über Datenschutz brauchen wir da nicht reden: Du lädst deine Daten irgendwo hoch, und damit können irgendwelche Dinge passieren. Auch wenn du das Training mit deinen Daten ausgeschlossen hast: Vertrauen ist gut, kein Vertrauen ist besser.

2. ChatGPT Plus: viele Vorteile & Riesennachteil

Was kann Chat GPT Plus? Es bietet für 20 US-Dollar als Vorteil nicht nur das viel bessere GPT-4o bzw. das Schwester-LLM OpenAI o12, sondern vor allem die die Möglichkeit, eigene Vorlagen („GPTs“) zu erstellen. Außerdem kann das Ding dann schon im Internet surfen und KI-Bilder generieren (Basis: DALL-E) und bspw. eine Excel-Datei analysieren, du du hochlädst. Chat GPT 4 gibt es als "App", aber auch als API. In einigen KI-Apps steckt Chat GPT drin, ohne dass man es direkt weiß.

Trotzdem läufst du mit GPT Plus, trotz Abo, in "Message Limits". Unendlich viel rumspielen geht also nicht, obwohl das "Rate Limit" deutlich angehoben wurde.

On top gibt es ab Chat GPT Plus den "ChatGPT Advanced Voice" Modus, das ist der Sprach-Chatbot von Open AI. Er ergibt vor allem auf dem Smartphone Sinn. Das öffnet die Tür zu allgemein verfügbaren "Sprachcomputern". Die technische Basis ist nicht sooo komplex, da "Text to Speech" (TTS), also die Stimmgenerierung nix Neues ist. Bei manchen KI-Tools genügen ein paar Sekunden Sprachaufnahme einer Person, um die Stimme sehr gut zu klonen. Auch das Verstehen von Sprache per KI ist schon länger kein Ding. Der Game Changer ist jedoch die geringe Latenz, die das Führen von Gesprächen ermöglicht - und die Qualität der generierten Inhalte.

Was ist OpenAI o1?

OpenAI o1 ist ein großes Sprachmodell von Open AI, das in ChatGPT verwendet wird. Da steckt viel Rechenleistung drin. Diese Sprachmodell-Reihe soll weniger halluzinieren, da sie auf "Reasoning" getrimmt wurde - mittels der Prompt Engineering Technik "Chain of Thought", die du auch manuell anwenden kannst. Das ist vor allem fürs Coding wichtig, da phantasierter Code unbrauchbar ist.

Der bekannteste KI-Fail ist, wenn das LLM beim Zählen des Buchstabens "r" in Strawberry scheitert. Das liegt in der Natur der LLMs, außer man bringt es separat bei. ChatGPT hatte da wohl ein peinliches Problem. Claude von Anthropic nicht, aber auch die LLMs von Mistral nicht. Das Problem ist mit o1 wohl abgestellt.

Neben OpenAI o1 gibt es OpenAI o1-mini, das kleiner, schneller und billiger in der Nutzung ist.
Preisbeispiel aus der API: 1 Million Output-Token kosten bei o1 "preview" 60 USD, für o1-mini 12 USD, während sie bei GPT 4o 10 USD und bei GPT 4o mini nur 0,30 USD kosten. Im Vergleich: Bei Anthropic kosten die Output-Token bei Claude 3.5 Sonnet, das echt gut ist, 15 USD / Mio., und bei Claude 3 Opus 75 USD / Mio. Faustregel: 100 (englische) Wörter entsprechen in etwa 75 Token.
An den Kosten kann man erkennen, dass o1 intern Token ohne Ende verbrät, weswegen die Kosten so hoch sind. Das könnte ein Hinweis darauf sein, dass OpenAI versucht, die Mängel der KI mit schierer Rechenleistung wegzuoptimieren. Das ist ziemlich schräg, da die halbe Welt versucht, die Sprachmodelle durch Training effizienter zu machen.
Tipp: Wenn's um Coding geht, ist auch Codestral von Mistral AI sehr stark.

ChatGPT 4 kostenfrei ausprobieren

Um Chat GPT 4 gratis auszuprobieren, benutze einfach den Bing Copilot - speziell in den Apps. Hier wird GPT-4 Turbo3 genutzt. Bedenke, dass Microsoft seinen Copolit auf eigenen Servern (Azure) laufen lässt und ein eigenes Basis-Prompting hat. Der Bing Copilot verlässt sich out of the Box gern auf Suchergebnisse und gibt Fußnoten an, weswegen die Generierungs-Ergebnisse sich deutlich von Chat GPT unterscheiden. Allerdings nutzt der Copilot als Suchmaschine Bing, und das ist, sorry, zweite Wahl.

GPT-4o ist die Basis der Chat GPT Gratis-Variante, aber die Plausibilität der Ergebnisse - vor allem wenn Internetzugriff gefragt ist - liegt unter dem Bing Copilot. Dafür ist GPT-4o bei Chat GPT deutlich weniger zimperlich: Der Bing Copilot gibt ungern persönliche Daten heraus (Namen), Chat GPT hat damit kein Problem.

Kostenfrei GPTs bauen

GPTs, also vorgepromptete Assistenten, kannst du mit den Hugging Chat Assistants - eingeschränkt - bauen. Das Sprachmodell GPT-4 gibt es da nicht, aber von Mistral AI gibt es da eine vernünftige Alternative - und natürlich LLaMa.

Die Qualität des Bing Copilot zu schlagen ist allerdings schwer, wenn du eine Faktensuchmaschine erstellen willst.

Die Mistral-LLMs fühlen sich in den Ergebnissen manchmal "europäischer" an, während die Ergebnisse der Open AI LLMs, und erst recht Google Gemini, oft wie aus dem Englischen übersetzt klingen. Der Grund: Intern arbeiten viele LLMs auf Englisch und übersetzen hin und her. Das bringt durchaus krasse Übersetzungsfehler rein, die auf den ersten Blick gar nicht auffallen. Beispiel: In einem Text von Anthropic Claude 3.5 Sonnet hatte ich mal das Wort "Konto" drinstehen, womit "Account" gemeint war - im Sinne von "Kunde." Dumm gelaufen.

3. Was ist ChatGPT Team? Die klare Empfehlung

ChatGPT Team ist kleinste ChatGPT-Variante, mit der du sinnvoll mit mehreren Leuten zusammenarbeiten kannst. Der Schlüssel dazu sind die "Custom GPTs", das sind kleine, selbstgebaute KI-Apps, die man zur Nutzung durch das gesamte Team freigeben kann.

Das Preis- und Lizenzmodell von Chat GPT Team ähnelt Chat GPT Plus, kostet aber bei monatlicher Zahlung mindestens 60 US-Dollar im Monat (2 mal $30, da mindestens 2 User-Lizenzen abonniert werden müssen). Das sind $720 im Jahr, also 670 Euro (Stand Februar 2024). Mit jährlicher Vorkasse sinkt der Preis auf $25 je Nutzer, also sind auf einen Schlag erstmal mindestens $600 weg. Trotzdem ist das die Minimal-Variante, die man sinnvoll fürs Geschäft einsetzen sollte.

Oder du nimmst die volle Chat GPT Enterprise-Variante, doch dazu gleich mehr.

2 Gründe, warum du ChatGPT Plus nicht nehmen solltest.

1. Bei Chat GPT Team werden aus deinen Daten standardmäßig keine Trainingsdaten

Alles, absolut alles, was du bei Chat GPT eingibst oder „bestellst“, wird von Chat GPT wieder als Trainingsdaten verwendet - wenn du es nicht ausstellst. Wie das geht, steht weiter oben im Artikel. Das ist ein absolutes No-Go und die röteste aller Red Flags.

Das Abstellen ist kein Problem, wenn man weiß wie es geht.

Zum Problem wird es aber, wenn deine Mitarbeiter (oder Lieferanten) Chat GPT Free oder Plus nutzen - und die Datenschutzprobleme nicht kennen.

Lösungen:

Warum Datenschutz wichtig ist? Sobald du Firmeninterna als Quelle nutzt, und die Trainingsdatenfunktion nicht ausgeschaltet hast, landen die Daten im "Daten-Hochregallager" des großen Sprachmodells und können dort vom Wettbewerb per Zufall oder per Durchtriebenheit abgerufen werden.

Wir reden jetzt noch nicht mal von der DS-GVO oder über juristische Fragen, sondern von realen Problemen. Gut, mit dem EU AI Act sind wir schon im Problembereich, denke mal daran, dass ein Mitarbeiter von dir eine Excel-Tabelle mit Privatadressen deiner Kunden hochlädt. Die Daten sind dann - möglicherweise - Teil der KI geworden.

Fiktives Beispiel: Du hast aus der Technischen Entwicklung eine sehr technische Produktbeschreibung für eine absolut geheime Innovation erhalten. Diese willst du in Bullet Points zusammenfassen lassen und daraus eine Vermarktungsstrategie entwickeln, und zwar für ein Sales Meeting. Durch das Eingeben von ungeschwärzten Daten fütterst du das Sprachmodell quasi mit Top-Secret-Infos.

Sehr blöd wird es, wenn dein Wettbewerber in einem ganz ähnlichen Feld forscht und einer der Ingenieure bei ChatGPT nach Ideen für eine Innovation fragt. Und Potzblitz: Das System rattert eure Innovation runter. Na bravo. In der Chat GPT Team-Version kann das (angeblich) nicht passieren. Große Firmen lassen deshalb "ihr" Chat GPT auf eigenen Servern laufen - oder haben für sowas eigene KI, Chatbots und RAG-Tools. Aus Gründen.

2. ChatGPT Team: GPTs für Teams bauen

Was ist ChatGPT Team? Ideal für Teams, da ist der Name also korrekt gewählt. Denn: Im Unternehmenseinsatz von KI-Tools geht es doch fast immer darum, wiederkehrende Aufgaben zu vereinfachen. Das kennen wir seit der Industrialisierung, als Maschinen auf den Plan traten. GPTs sind die Maschinen – oder Roboter – der generativen KI. Mit ihnen baust du Templates, die du im gesamten Team verwenden kannst. Dadurch werden die Outputs besser, und vor allem spart es Zeit: Nicht jeder hat das Talent, die Lust oder die Zeit, sich ins Prompt Engineering einzufuchsen. Das bedeutet: Du brauchst nur eine Person im Team, die im Prompting ziemlich gut ist (oder niemanden, da du auch einen Freelancer buchen kannst), und alle Mitglieder des Teams profitieren von diesen Mini-Apps.

Um Workflows zu automatisieren, solltest du dich separat in der Welt der RPA (Robotic Process Automation) umsehen. Da fließt gerade Generative KI mit rein, das ist spannend. Zapier oder Make sind da oft hilfreich: Ich nutze z.B. Zapier, um Leads aus einem Google-Ads-Lead-Formular automatisch ins HubSpot "zu beamen".

Beispiel für Team-GPTs: Ihr habt einen Onlineshop mit 100.000 Artikeln und wollt diese mit Produkttexten anreichern. Man könnte ein GPT bauen, das diese Texte in der passenden Länge und im richtigen Format erstellt - und zwar besser als mit den eingebauten KI-Tools des Shopsystems. Dieses GPT stellst du dann den Teams zur Verfügung.

Um solche GPTs mit dem Team zu teilen, brauchst du Chat GPT Team. Plus reicht nicht.

Allerdings musst du massiv Teams-Abos abschließen. Ob sich das lohnt? Klar definierte GPTs kannst du genauso gut mit anderen Tools bauen (Gradio) und das exakt passende Sprachmodell per API einbinden. Dadurch werden dann auch (Teil-)Automatisierungen möglich. Um bei den Produkttexten zu bleiben: Ich habe mal spaßeshalber ein Gradio-Notebook gebaut - also eine Art Website - mit einem Eingabefeld für eine URL. Du gibst deine URL ein, im Hintergrund generiert Anthropic via API einen Produkttext - und gibt ihn aus.

Eine Frage bleibt deshalb: der Use Case, also der konkret sinnvolle Nutzen im Unternehmen. Den sollte man zuerst ermitteln. Das gelingt unter anderem mittels KI-Beratung, Umfragen in der Belegschaft (Nutzt ihr Chat GPT? Was nervt euch? Welche Arbeiten fressen Zeit?) oder mittels eines KI-Workshops. Im nächsten Schritt kann man ermitteln, welche Tools ideal geeignet sind. Im Rahmen der Einführung sind KI-Schulungen hilfreich.

4: ChatGPT Enterprise (€ 100.000+ p.a.)

Die ganz große Variante Chat GPT Enterprise hat keine offizielle Preisliste. Man soll den Vertrieb kontaktieren. Angeblich4 liegt der Preis bei $60 im Monat, bei einer Mindestabnahme von 150 Einzelplatzlizenzen ("Seats"). Das wären $9.000 im Monat bzw. $108.000 im Jahr.

Größte Vorteile: Du kannst das Sprachmodell in deiner eigenen Cloud laufen lassen, mit der API rumspielen und es mit Single-Sign-On in deine Unternehmens-IT-Sicherheits-/Passwort-Richtlinie einbauen.

Letztlich wird das eine Mischkalkulation seitens OpenAI sein: Die Heavy User verbrauchen Token, also teure Rechenleistung, ohne Ende, während Normal-User es wenig nutzen.

ChatGPT-Alternativen? U.a. Office Copilot, Hugging Chat, iStock, Bria

Fazit

Nur die Preismodelle ChatGPT Team bzw. ChatGPT Enterprise können im Gegensatz zu ChatGPT Plus und Free für anspruchsvollere Aufgaben bei sensiblen Daten out of the Box sauber genutzt werden. Bei Free und Plus solltest du die Datenschutz-Einstellungen ändern.

KI-Beratung anfordern


Artikel zu ähnlichen Themen

  1. https://openai.com/index/hello-gpt-4o/ ↩︎
  2. https://openai.com/index/introducing-openai-o1-preview/ ↩︎
  3. https://blogs.microsoft.com/blog/2023/12/05/celebrating-the-first-year-of-copilot-with-significant-new-innovations/ ↩︎
  4. Quelle: Reddit. Das ist natürlich keine echte, belastbare Quelle. ↩︎
  5. https://learn.microsoft.com/de-de/microsoft-365-copilot/microsoft-365-copilot-overview ↩︎

⌀ 5. Stimmen: 5
Teilen / Share
Zu Hause » KI » Chat GPT: Plus? Nein. Team? Ja. 2 Gründe

Erstellt am:

Zuletzt aktualisiert: