Du fragst dich, welche ChatGPT Version du nehmen sollst – Gratis, Chat GPT Plus, Chat GPT Team oder die Enterprise-Variante? Wenn du’s geschäftlich einsetzen willst, also im Team mit mindestens 2 Leuten, ist ChatGPT Team die glasklare Empfehlung.
Warum das so ist, liest du in diesem Artikel: Die Hauptgründe sind das out-of-the-box datenschutzkonformere Datenhandling (bei Free und Plus muss man das manuell einstellen) und die besseren Funktionen für Teams. Außerdem liegt die „Mindestabnahme“ für Chat GPT Team Lizenzen nur bei 2 Stück, das kann man sich durchaus leisten. Im Vergleich dazu musst du bei Claude mindestens 5 Lizenzen abnehmen (wobei Claude dennoch sehr interessant ist).
Es gibt da drüber noch eine Version namens Enterprise, die ist was für Großunternehmen. Für Unis und Vereine gibt’s Rabatte, dazu gleich mehr.
Weiter unten findest du
einen sehr praktischen ChatGPT Plus / Team / Enterprise Lizenzkostenrechner, der die jährlichen Kosten errechnet. ChatGPT Pro ist nicht im Rechner drin (aus Gründen).
Einen detaillierten Vergleich der (nicht) inkludierten Leistungen der ChatGPT Pläne
Am Ende des Artikels gibt noch einen kleinen Ausflug in Richtung Anthropic Claude, Mistral Le Chat, Google Gemini und Microsoft Power Automate, die Alternativen zu ChatGPT sein können.
Stefan Golling, Köln. Seit 2011 Freelance Creative Director, freier Texter, Creative Consultant und Online-Marketing-Berater mit Kunden von Mittelstand bis S&P 500. Erfahrung: 1998 mit Radiowerbung in Stuttgart gestartet, 2000 als Junior-Werbetexter zu Publicis München, 2001 Counterpart Köln, 2002 als Copywriter zu Red Cell Düsseldorf (heißt heute Scholz & Friends), dort ab 2007 Creative Director.
Wenn du größeren Informationsbedarf hast: Buche fürs Geschäft bei mir eine KI-Beratung, einen KI-Workshop oder eine KI-Schulung. Wenn du dich vor allem für Marketing-Support interessierst, ist auch der Artikel zu KI-Marketing-Tools interessant, oder, ganz generell, zu B2B-Marketing.
+++ Werbeeinblendung +++ Wenn du Marketing-Ideen brauchst: Das ist mein Hauptgeschäft. Klicke auf Kontakt. Schreibe, mir an welchem Task du festhängst +++
ChatGPT „Free“ und Plus nutzen deine Inputs (und die KI-Outputs) standardmäßig dazu, die KI-Sprachmodelle zu trainieren. Team und Enterprise nicht.
Das heißt, dass dein Wissen (bzw. die von dir hochgeladenen Dokumente) im Big Brain von Open AI landen, um das Sprachmodell zu verbessern. Das willst du nicht.
Es öffnen sich die Einstellungen, mit den Datenkontrollen.
Dort siehst du den Punkt „Das Modell für alle verbessern“. (So kann man das auch nennen… da wird einem ein schlechtes Gewissen gemacht… hahaha)
Da klickst du drauf und legst den Schalter auf „aus“ um.
Dann werden deine Daten nicht zu Trainingsdaten. Fertig!
Die Einstellung gilt für deinen Account, auch wenn du dich woanders einloggst (anderer Rechner, App).
Warum will man das kostenpflichtige Chat GPT Plus oder Team Abo haben?
Wegen der geringeren Einschränkungen (Rate Limits = Interaktionen)
Um die besseren Sprachmodelle von Open AI zu nutzen
Um GPTs zu nutzen, also die Plugins (auch von Fremdanbietern)
Und um Zugriff auf ChatGPT Canvas – die Editierfunktion des Outputs – zu haben.
Und wegen der eingebauten „Suchmaschine“ ChatGPT Search (eigentlich eine Antwortmaschine)
Du willst nur den Genuss von „Custom GPTs“, also der KI-Mini-Apps, zu kommen? Dann kannst du als freie Alternative Hugging Chat Assistants inklusive einer großen Auswahl an spannenden Sprachmodellen (u.a. LLama 3.2) ausprobieren (im Link findest du Vergleich und Anleitung).
Chat GPT: Die 4 Preismodelle im Check
ChatGPT gibt es in vier „Abo“-Preismodellen:
„Kostenfreier Plan“, da bekommst du nur einen Teil der Fähigkeiten.
Chat GPT Plus, da zahlst du ein monatliches Abo und, wenn du’s nicht deaktivierst, mit deinen Daten (Irrsinn).
Chat GPT für Teams, da zahlst du mindestens 2 Lizenzen im Monat – das ist OK.
Chat GPT Enterprise für Großkonzerne: superteuer
Außer der Reihe:
ChatGPT Pro: Der „Pro“-Plan kostet komplett bekloppte 200 Dollar im Monat und ist nur ein aufgebohrter „Plus“-Plan – und nicht für Teams erhältlich. Unterschied: Du kannst das Sprachmodell „o1“ ohne Limit nutzen (obwohl es natürlich trotzdem Limits gibt), und „Advanced Voice“. Warum das so teuer ist? Möglichkeit 1: Es ist ein PR-Joke, um weltweit gratis Werbung zu bekommen, weil alle drüber berichten. Möglichkeit 2: o1 ist absolut verbockt programmiert und verbraucht Token & Rechenleistung ohne Ende und muss deshalb so teuer kalkuliert werden – weil es intern 10x mal mehr Kosten verursacht. Wenn das so ist, hatte der Laden keine Ideen und keine Ressourcen, um ein schlankeres und gleich gutes Sprachmodell zu liefern. Und: Das „Context Window“ liegt bei Pro endlich bei 128.000 Token (was Claude Sonnet schon „ewig“ hat, und Google lächelt über sowas nur müde). Für mich ist o1 ein Restomod eines „Personal Luxury Coupé“ Oldtimers: Teuer, prestigeträchtig, aber an der Ampel lässt dich jeder stehen.
Chat GPT Edu: Die Education-Variante für (Hoch-)Schulen und Forschung. Die Features entsprechen der Enterprise-Version. Kosten: Verhandlungssache. KI mit Edu-Tarifen gibt es auch von Microsoft Welt – da kann man Copilot mit ins Office 365 Paket reinnehmen (Microsoft 365 Education), wohl aber nur fürs Hochschul-Personal, nicht aber für die Studis. Hier bitte die echten MS-Lizenzexperten fragen, das Thema ist einfach zu krass.
Zusätzlich gibt es noch:
ChatGPT via API, da zahlt man für Token – das ist sehr fair. Du kannst für jede Aufgabe ein anderes Sprachmodell wählen: Für einfache Tasks nimmst du ein schnelles, billiges Sprachmodell, und für aufwändige Sachen dann das teure Modell. Tipp: Schaue mal in den OpenAI Playground rein, dort kannst du mit den (Assistenten-Funktionen) der API spielen, inkl. TTS. Nimm dir ein wenig Zeit. So einen Playground hat u.a. auch Anthropic.
ChatGPT lizensieren: Das geht. Du fragst, wie Microsoft, bei Open AI an und sagst, dass du eine eigene KI auf eigenen Servern trainieren und laufen lassen willst, damit deine Daten nirgendwohin abwandern. Kosten? Verhandlungssache. Der Witz an der Sache: So was geht auch für Null Euro Grundkosten, in dem du dir Ollama holst und damit ein Open-Source-LLM auf deinem Laptop laufen lässt. Für echte Anwendungen benötigst du eine Serverfarm, also im Hyperscaler / Cloud (wie AWS oder Azure) einmieten, oder richtig Geld auf den Tisch legen und ein Rechenzentrum bauen.
ChatGPT Kosten: Vergleich
Die Chat GPT Kosten sind pro Person bzw. User. angegeben und liegen zwischen Null und 60 Dollar im Monat. Der Preis für Chat GPT Enterprise, die teuerste Varianate, ist eine Schätzung, da es keine offiziellen Preis gibt. Die Preise für API-Calls zeigen, dass die ChatGPT-Monatspreise eine Mischkalkulation sind: Wer viele Token verbrät, weil Heavy User, sorgt beim Anbieter für Verluste. Wer es wenig nutzt, verschenkt Geld.
Die API wird übrigens immer wichtiger: Die neuen Features von Chat GPT (Audio / „Call Center Chatbot“, Video) werden a) zuerst für API-Kunden zur Verfügung gestellt und b) sind besonders sinnvoll in Apps nutzbar, also über die API.
ChatGPT Lizenkostenrechner
Chat GPT Standard
Chat GPT Plus
Chat GPT Team
Chat GPT Enterprise
Open AI API Aufrufe¹
Kostenlos
20 USD / Monat
30 USD / Monat
60 USD / Monat
ca. 0,075 – 120 USD / 1 Million Token
Jährliche Lizenzkosten:
¹ API-Aufrufkosten sind nicht im Rechner enthalten.
² „Gemeinnützige Organisationen“: 20% Rabatt auf ChatGPT Team, 50% auf Enterprise.
Den Rechner habe ich mir übrigens mit Claude machen lassen. Das ist also eine echte No-Code-Lösung. War ne Sache von 10 Minuten. Bitte mit leichtem Staunen beachten: Die komplette Logik mit Mindest-Lizenzzahlen und dem Edu-Rabatt ist hinterlegt - und das alles in reinem HTML bzw. JavaScript.
Bekommst du den Rabatt? Wenn du ein e.V. bist, oder eine Stiftung - also von Karnevalsverein bis Family Office.
Interessant: OpenAI nutzt einen Validierungsservice von percent, der das gesamte Vereinsregister kennt. Du kannst den Rabatt also schnell in Anspruch nehmen, wenn du in der Liste aufgeführt bist.
Ob ihr für die Uni bzw. Hochschule ChatGPT als Edu-Lizenz für alle anschaffen wollt: Nun ja, das geht ins Geld. Allerdings stellt es gleichwertige Verhältnisse her, und zwar innerhalb der Studentenschaft und im nationalen / internationalen Vergleich.
Also Low-Budget-Variante könnte man bei Stack IT (Schwarz-Gruppe) / Aleph Alpha anklopfen, die verkaufen m.W. "KI-Assistenzsysteme" ab € 1,50 im Monat an Behörden. Das könnte für die Hochschulverwaltung interessant sein. Vielleicht kommt da auch auch was mit GenAI.
GPT-Zugang im Vergleich
Mit einer besseren ChatGPT-Version verbessert sich auch die Nutzung von GPTs.
ChatGPT "Kostenlos"
ChatGPT Plus
ChatGPT Teams
ChatGPT Enterprise
GPT-Nutzung
Einige Fremd-GPTs
Alle Fremd-GPTs & eigene GPTs erstellen
Zusätzlich zu Plus: Eigene GPTs mit dem Team teilen
Wie Team
1. Chat GPT Gratis („kostenloser Plan“)
ChatGPT Free ist die klassische Gratisversion, basierend auf dem Modell GPT-4o1 (mini) (das o steht für Omnni, also "kann alles"). GPT-4o mini ist für die Free-Version gegenüber dem 4 ohne mini stark limitiert. Es kann eigentlich Bilder "lesen" und mit lesbarem (!) Text generieren sowie flüssig sprechen und singen, aber natürlich nicht für Leute die kein Geld ausgeben wollen. Die benötigte Rechenpower ist hoch.
GPT-4o (mini) im kostenlosen ChatGPT-Angebot hat ein paar Tücken: Es ist jetzt ähnlicher zum Microsoft Copilot (der ja GPT-4 Turbo nutzt), kann also im Internet suchen (Bing) und halbwegs Quellen angeben. Das klappt manchmal automatisch, mal nicht. Um die Online-Funktion zu aktivieren, hilft es, wenn du im Prompt die aktuelle Jahreszahl reinschreibst. Das ist ein Trigger, um das Sprachmodell zu aktuellen Ergebnissen zu zwingen. Trotzdem können die Ergebnisse halluniziert sein.
Beispiel: Lasse dir eine Tabelle generieren, die eine Liste mit Namen und E-Mail-Adressen von, sagen wir mal, Werbeagenturen in Köln, liefert. Das Ergebnis? Copy & Paste von schrottigen SEO-Seiten, die Nonsens-Listen von Unternehmen anbieten. Das Ergebnis ist nicht verwendbar und stiehlt dir letztlich Zeit, weil du das Ergebnis erst qualifizieren musst. Da kannste genauso gut den Bürohund fragen, der stellt sich nicht schlechter an.
Mit der "Texte in Bilder schreiben" Funktion handelt man sich übrigens größere Urheberrechtsprobleme als bisher ein: Der generierte Text kann urheberrechtlich geschützte Teile enthalten - ohne dass du es weißt - und damit das Bild lizenzrechtlich noch problematischer als bisher machen.
Beispiel: Du lässt dir ein Werbebanner generieren, und Chat GPT "denkt" sich auf deinen Wunsch eine Headline aus und schreibt sie ins Bild rein. Da Chat GPT mit Texten aus "Quelle Internet" trainiert wurde sowie von Usern wie dir mit Trainingsdaten gefüttert wird, ist es möglich, dass die generierte Headline nicht neu ist sondern zufälligerweise von einem Wettbewerber stammt. So was ist natürlich ziemlich blöd bzw. peinlich. Um das zu verhindern, musst du generierte Inhalte stets umfassend prüfen.
(Teils) kostenlose GPTs
Was ChatGPT "kostenlos" schon kann, sind manche GPTs - also die Nutzung vorgeprompteter kleiner Helferlein. Da kann man aus einer stattlichen Bibliothek auswählen. Ganz cool ist, dass ChatGPT zu einer Art Hub für Drittanbieter wird, u.a. gibt es GPTs von Canva oder zum Generieren von KI-Videos (veed.io.)
Nachteil: Du kannst nur nutzen, was da ist. Eigene GPTs erstellen und mit dem Team teilen geht erst mit dem ChatGPT Team Abo. Außerdem kannst du die kostenfreien GPTs nicht feintunen. Otto-Normal-User wird das nicht stören, der hat weder Zeit noch Lust auf Prompt-Customzing.
Auch kannst du in der Free-Version immerhin schon Datenquellen einbinden: Aus der Cloud gehen Google Drive & Microsoft OneDrive (inkl. Sharepoint), oder du kannst Daten von deinem eigenen Rechner hochladen. Das ist interessant, wenn du bspw. mit einem PDF "chatten" willst oder du Hilfe bei Code oder einer Excel-Tabelle brauchst.
Vorsicht Falle: Die Auswahl ist mega, aber nicht alle GPTs kannst du for free nutzen. Für u.a. Bilder brauchst du - im Gegensatz zu Copilot - ein Abo.
Über Datenschutz brauchen wir da nicht reden: Du lädst deine Daten irgendwo hoch, und damit können irgendwelche Dinge passieren. Auch wenn du das Training mit deinen Daten ausgeschlossen hast: Vertrauen ist gut, kein Vertrauen ist besser.
2. ChatGPT Plus: viele Vorteile & Riesennachteil
Was kann Chat GPT Plus? Es bietet für 20 US-Dollar als Vorteil nicht nur das viel bessere GPT-4o bzw. das Schwester-LLM OpenAI o12, sondern vor allem die die Möglichkeit, eigene Vorlagen („GPTs“) zu erstellen. Außerdem kann das Ding dann schon im Internet surfen und KI-Bilder generieren (Basis: DALL-E) und bspw. eine Excel-Datei analysieren, du du hochlädst. Chat GPT 4 gibt es als "App", aber auch als API. In einigen KI-Apps steckt Chat GPT drin, ohne dass man es direkt weiß.
Trotzdem läufst du mit GPT Plus, trotz Abo, in "Message Limits". Unendlich viel rumspielen geht also nicht, obwohl das "Rate Limit" deutlich angehoben wurde.
On top gibt es ab Chat GPT Plus den "ChatGPT Advanced Voice" Modus, das ist der Sprach-Chatbot von Open AI. Er ergibt vor allem auf dem Smartphone Sinn. Das öffnet die Tür zu allgemein verfügbaren "Sprachcomputern". Die technische Basis ist nicht sooo komplex, da "Text to Speech" (TTS), also die Stimmgenerierung nix Neues ist. Bei manchen KI-Tools genügen ein paar Sekunden Sprachaufnahme einer Person, um die Stimme sehr gut zu klonen. Auch das Verstehen von Sprache per KI ist schon länger kein Ding. Der Game Changer ist jedoch die geringe Latenz, die das Führen von Gesprächen ermöglicht - und die Qualität der generierten Inhalte.
Was ist OpenAI o1?
OpenAI o1 ist ein großes Sprachmodell von Open AI, das in ChatGPT verwendet wird. Da steckt viel Rechenleistung drin. Diese Sprachmodell-Reihe soll weniger halluzinieren, da sie auf "Reasoning" getrimmt wurde - mittels der Prompt Engineering Technik "Chain of Thought", die du auch manuell anwenden kannst. Das ist vor allem fürs Coding wichtig, da phantasierter Code unbrauchbar ist.
Der bekannteste KI-Fail ist, wenn das LLM beim Zählen des Buchstabens "r" in Strawberry scheitert. Das liegt in der Natur der LLMs, außer man bringt es separat bei. ChatGPT hatte da wohl ein peinliches Problem. Claude von Anthropic nicht, aber auch die LLMs von Mistral nicht. Das Problem ist mit o1 wohl abgestellt.
Neben OpenAI o1 gibt es OpenAI o1-mini, das kleiner, schneller und billiger in der Nutzung ist. Preisbeispiel aus der API: 1 Million Output-Token kosten bei o1 "preview" 60 USD, für o1-mini 12 USD, während sie bei GPT 4o 10 USD und bei GPT 4o mini nur 0,30 USD kosten. Im Vergleich: Bei Anthropic kosten die Output-Token bei Claude 3.5 Sonnet, das echt gut ist, 15 USD / Mio., und bei Claude 3 Opus 75 USD / Mio. Faustregel: 100 (englische) Wörter entsprechen in etwa 75 Token. An den Kosten kann man erkennen, dass o1 intern Token ohne Ende verbrät, weswegen die Kosten so hoch sind. Das könnte ein Hinweis darauf sein, dass OpenAI versucht, die Mängel der KI mit schierer Rechenleistung wegzuoptimieren. Das ist ziemlich schräg, da die halbe Welt versucht, die Sprachmodelle durch Training effizienter zu machen. Tipp: Wenn's um Coding geht, ist auch Codestral von Mistral AI sehr stark.
ChatGPT 4 kostenfrei ausprobieren
Um Chat GPT 4 gratis auszuprobieren, benutze einfach den Bing Copilot - speziell in den Apps. Hier wird GPT-4 Turbo3 genutzt. Bedenke, dass Microsoft seinen Copolit auf eigenen Servern (Azure) laufen lässt und ein eigenes Basis-Prompting hat. Der Bing Copilot verlässt sich out of the Box gern auf Suchergebnisse und gibt Fußnoten an, weswegen die Generierungs-Ergebnisse sich deutlich von Chat GPT unterscheiden. Allerdings nutzt der Copilot als Suchmaschine Bing, und das ist, sorry, zweite Wahl.
GPT-4o ist die Basis der Chat GPT Gratis-Variante, aber die Plausibilität der Ergebnisse - vor allem wenn Internetzugriff gefragt ist - liegt unter dem Bing Copilot. Dafür ist GPT-4o bei Chat GPT deutlich weniger zimperlich: Der Bing Copilot gibt ungern persönliche Daten heraus (Namen), Chat GPT hat damit kein Problem.
Kostenfrei GPTs bauen
GPTs, also vorgepromptete Assistenten, kannst du mit den Hugging Chat Assistants - eingeschränkt - bauen. Das Sprachmodell GPT-4 gibt es da nicht, aber von Mistral AI gibt es da eine vernünftige Alternative - und natürlich LLaMa.
Die Qualität des Bing Copilot zu schlagen ist allerdings schwer, wenn du eine Faktensuchmaschine erstellen willst.
Die Mistral-LLMs fühlen sich in den Ergebnissen manchmal "europäischer" an, während die Ergebnisse der Open AI LLMs, und erst recht Google Gemini, oft wie aus dem Englischen übersetzt klingen. Der Grund: Intern arbeiten viele LLMs auf Englisch und übersetzen hin und her. Das bringt durchaus krasse Übersetzungsfehler rein, die auf den ersten Blick gar nicht auffallen. Beispiel: In einem Text von Anthropic Claude 3.5 Sonnet hatte ich mal das Wort "Konto" drinstehen, womit "Account" gemeint war - im Sinne von "Kunde." Dumm gelaufen.
3. Was ist ChatGPT Team? Die klare Empfehlung
ChatGPT Team ist kleinste ChatGPT-Variante, mit der du sinnvoll mit mehreren Leuten zusammenarbeiten kannst. Der Schlüssel dazu sind die "Custom GPTs", das sind kleine, selbstgebaute KI-Apps, die man zur Nutzung durch das gesamte Team freigeben kann.
Das Preis- und Lizenzmodell von Chat GPT Team ähnelt Chat GPT Plus, kostet aber bei monatlicher Zahlung mindestens 60 US-Dollar im Monat (2 mal $30, da mindestens 2 User-Lizenzen abonniert werden müssen). Das sind $720 im Jahr, also 670 Euro (Stand Februar 2024). Mit jährlicher Vorkasse sinkt der Preis auf $25 je Nutzer, also sind auf einen Schlag erstmal mindestens $600 weg. Trotzdem ist das die Minimal-Variante, die man sinnvoll fürs Geschäft einsetzen sollte.
Oder du nimmst die volle Chat GPT Enterprise-Variante, doch dazu gleich mehr.
2 Gründe, warum du ChatGPT Plus nicht nehmen solltest.
1. Bei Chat GPT Team werden aus deinen Daten standardmäßig keine Trainingsdaten
Alles, absolut alles, was du bei Chat GPT eingibst oder „bestellst“, wird von Chat GPT wieder als Trainingsdaten verwendet - wenn du es nicht ausstellst. Wie das geht, steht weiter oben im Artikel. Das ist ein absolutes No-Go und die röteste aller Red Flags.
Das Abstellen ist kein Problem, wenn man weiß wie es geht.
Zum Problem wird es aber, wenn deine Mitarbeiter (oder Lieferanten) Chat GPT Free oder Plus nutzen - und die Datenschutzprobleme nicht kennen.
Lösungen:
Stelle deinen Mitarbeitern ChatGPT Team (oder Copilot, oder Anthropic Claude Team) zur Verfügung.
Spreche mit deinen Lieferanten über KI und Datenschutz, wenn diese sensible Dokumente von dir verarbeiten.
Warum Datenschutz wichtig ist? Sobald du Firmeninterna als Quelle nutzt, und die Trainingsdatenfunktion nicht ausgeschaltet hast, landen die Daten im "Daten-Hochregallager" des großen Sprachmodells und können dort vom Wettbewerb per Zufall oder per Durchtriebenheit abgerufen werden.
Wir reden jetzt noch nicht mal von der DS-GVO oder über juristische Fragen, sondern von realen Problemen. Gut, mit dem EU AI Act sind wir schon im Problembereich, denke mal daran, dass ein Mitarbeiter von dir eine Excel-Tabelle mit Privatadressen deiner Kunden hochlädt. Die Daten sind dann - möglicherweise - Teil der KI geworden.
Fiktives Beispiel: Du hast aus der Technischen Entwicklung eine sehr technische Produktbeschreibung für eine absolut geheime Innovation erhalten. Diese willst du in Bullet Points zusammenfassen lassen und daraus eine Vermarktungsstrategie entwickeln, und zwar für ein Sales Meeting. Durch das Eingeben von ungeschwärzten Daten fütterst du das Sprachmodell quasi mit Top-Secret-Infos.
Sehr blöd wird es, wenn dein Wettbewerber in einem ganz ähnlichen Feld forscht und einer der Ingenieure bei ChatGPT nach Ideen für eine Innovation fragt. Und Potzblitz: Das System rattert eure Innovation runter. Na bravo. In der Chat GPT Team-Version kann das (angeblich) nicht passieren. Große Firmen lassen deshalb "ihr" Chat GPT auf eigenen Servern laufen - oder haben für sowas eigene KI, Chatbots und RAG-Tools. Aus Gründen.
2. ChatGPT Team: GPTs für Teams bauen
Was ist ChatGPT Team? Ideal für Teams, da ist der Name also korrekt gewählt. Denn: Im Unternehmenseinsatz von KI-Tools geht es doch fast immer darum, wiederkehrende Aufgaben zu vereinfachen. Das kennen wir seit der Industrialisierung, als Maschinen auf den Plan traten. GPTs sind die Maschinen – oder Roboter – der generativen KI. Mit ihnen baust du Templates, die du im gesamten Team verwenden kannst. Dadurch werden die Outputs besser, und vor allem spart es Zeit: Nicht jeder hat das Talent, die Lust oder die Zeit, sich ins Prompt Engineering einzufuchsen. Das bedeutet: Du brauchst nur eine Person im Team, die im Prompting ziemlich gut ist (oder niemanden, da du auch einen Freelancer buchen kannst), und alle Mitglieder des Teams profitieren von diesen Mini-Apps.
Um Workflows zu automatisieren, solltest du dich separat in der Welt der RPA (Robotic Process Automation) umsehen. Da fließt gerade Generative KI mit rein, das ist spannend. Zapier oder Make sind da oft hilfreich: Ich nutze z.B. Zapier, um Leads aus einem Google-Ads-Lead-Formular automatisch ins HubSpot "zu beamen".
Beispiel für Team-GPTs: Ihr habt einen Onlineshop mit 100.000 Artikeln und wollt diese mit Produkttexten anreichern. Man könnte ein GPT bauen, das diese Texte in der passenden Länge und im richtigen Format erstellt - und zwar besser als mit den eingebauten KI-Tools des Shopsystems. Dieses GPT stellst du dann den Teams zur Verfügung.
Um solche GPTs mit dem Team zu teilen, brauchst du Chat GPT Team. Plus reicht nicht.
Allerdings musst du massiv Teams-Abos abschließen. Ob sich das lohnt? Klar definierte GPTs kannst du genauso gut mit anderen Tools bauen (Gradio) und das exakt passende Sprachmodell per API einbinden. Dadurch werden dann auch (Teil-)Automatisierungen möglich. Um bei den Produkttexten zu bleiben: Ich habe mal spaßeshalber ein Gradio-Notebook gebaut - also eine Art Website - mit einem Eingabefeld für eine URL. Du gibst deine URL ein, im Hintergrund generiert Anthropic via API einen Produkttext - und gibt ihn aus.
Eine Frage bleibt deshalb: der Use Case, also der konkret sinnvolle Nutzen im Unternehmen. Den sollte man zuerst ermitteln. Das gelingt unter anderem mittels KI-Beratung, Umfragen in der Belegschaft (Nutzt ihr Chat GPT? Was nervt euch? Welche Arbeiten fressen Zeit?) oder mittels eines KI-Workshops. Im nächsten Schritt kann man ermitteln, welche Tools ideal geeignet sind. Im Rahmen der Einführung sind KI-Schulungen hilfreich.
4: ChatGPT Enterprise (€ 100.000+ p.a.)
Die ganz große Variante Chat GPT Enterprise hat keine offizielle Preisliste. Man soll den Vertrieb kontaktieren. Angeblich4 liegt der Preis bei $60 im Monat, bei einer Mindestabnahme von 150 Einzelplatzlizenzen ("Seats"). Das wären $9.000 im Monat bzw. $108.000 im Jahr.
Größte Vorteile: Du kannst das Sprachmodell in deiner eigenen Cloud laufen lassen, mit der API rumspielen und es mit Single-Sign-On in deine Unternehmens-IT-Sicherheits-/Passwort-Richtlinie einbauen.
Letztlich wird das eine Mischkalkulation seitens OpenAI sein: Die Heavy User verbrauchen Token, also teure Rechenleistung, ohne Ende, während Normal-User es wenig nutzen.
Für normale Bürojobs dürfte der (ähnlich bepreiste) Microsoft Office 365 Copilot interessanter sein, da Zaubertricks wie Mach-mir-eine-PowerPoint-aus-meinem-Word-Dokument möglich sind. Außerdem kannst du dir Mail-Threads im Posteingang zusammenfassen lassen. Microsoft hat das Open-AI-Sprachmodell übrigens auf eigenen Servern laufen, und deine Daten werden nicht zu Trainingsdaten5. Das hört sich gar nicht schlecht an. Der Copilot ist insgesamt ziemlich gut, da er Quellen bzw. Fußnoten einbaut.
Wenn du Google Workspace nutzt, ist Gemini besser - es ist einfach komplett integiert. Datenschutz? Sehr eigenwillig. Puh... Allerdings kannst du in ChatGPT auch Google Drive integrieren, was einem ausreichen kann.
Um "Apps" zu bauen, bzw. um Prozesse zu automatisieren, kann man sich bei Microsoft "Power Automate" ansehen. Je nach Office-365-Version ist das schon mit drin, speziell in der Edu-Welt. Da gibt es schon fertig konfigurierte No-Code-Mini-Apps wie "Stimmung in E-Mails mit AI Builder analysieren und Ergebnisse an Teams senden". Das ist dann ein automatisierter Workflow der a) das Microsoft Dataverse nutzt, b) E-Mails in Outlook liest, c) den Inhalt analysiert (Sentiment Analysis) und d) das Ergbnis in Teams postet. Das ist für den Kundenservice interessant, um bspw. Beschwerden schnell an die richtigen Leute zu leiten. Auch PowerBI und Visio lassen sich damit verknüpfen, aber da braucht man dann schon fähige IT Consultants. Aber Achtung: Emotionserkennung ist, speziell bei Mitarbeitern, de facto verboten. Mehr dazu im Artikel über den EU AI Act / DSGVO / KI-Ethik.
Um aus Prompts Apps zu machen, also den Prompt als API-Call in Python o.ä. reinzudengeln, ist Anthropic mit Claude ziemlich spitze. Da wird es dann allerdings schon ziemlich nerdig. Beispiel:
Du kannst mit Anthropic einen Prompt mit einer Variablen bauen, sagen wir mal einer URL. Diesen Prompt kannst du dir als Python-Code ausspucken lassen.
Dann kannst du mit HuggingFace ein Gradio-Notebook anlegen (= HuggingFace Space) und den Python-Code in die app.py reinpasten (und ein paar weitere Handgriffe muss man noch machen). Voilà, du hast eine KI-App gebaut. Tipp: Anthropic hat ein Prompt Engineering Tool, das echt gut funktioniert.
Die Welt der Sprachmodelle ist groß, und es gibt immer mehr Spezialisierungen. Als Coding-Helfer ist u.a. Codestral von Mistral recht talentiert. Du kannst es kostenfrei mit "Le Chat" von Mistral ausprobieren. Auch SAP ist Fan davon und setzt auf Mistral-KI, da Codestral wohl die SAP-Programmiersprache ABAP kann.
Bei der Bildmanipulation ist Bria.airelativ safe, da die Trainingsdaten lizensiert wurden. Ganz sicher sein darfst du dich nicht, da in dort zusätzlich verfügbaren Stockbildern (z.B. von Unsplash) Bilder drin sind, die Editorial-only sind, also nicht für Werbezwecke verwendet werden dürfen - und es steht nicht dabei. Also: Vorsichtig sein.
Bei der AI-Bildgenerierung ist neben Adobe Firefly (Abo-Modell) auch iStock interessant (Credits-Modell), da dort auf lizenrechtliche Sauberkeit geachtet wird. Zum Einsatz kommt bei iStock NVIDIA Picasso. Der Spaß kostet immer Geld, und die Ergebnisse haben nicht unbedingt immer Foto-Qualität. Bria und Firefly sind besser. Illustrations-artige Bilder sehen aber super aus!
Spannend ist auch, sich mit Open Source Sprachmodellen ein eigenes oder sogar selbst gehostetes GPT zu bauen. Dieses sendet keine Daten an irgendwen. Zum herumspielen bietet sich Hugging Chat Assistants von Hugging Face an, das ist vergleichbar mit den Custom GPTs bei Chat GPT; einen damit erstellen Chat-Bot findest du auf der Seite Marketingmaßnahmen.
Die große Lösung: Ein Open-Source-Sprachmodell nehmen, dieses auf einem eigenen Server nutzen und mit eigenen Daten trainieren, und die damit erstellten Tools nur von Mitarbeitern verwenden lassen. Für Anwendungen für externe Nutzer brauchst du vielleicht ein zweites System. Denke an einen Chatbot für die Website: Dieser kennt deine Produktdaten aus dem Effeff, äußert sich aber nicht über Firmeninterna oder die Weltpolitik. Probleme lösen musst du in jedem Fall; beispielsweise sollten Trainingsdaten vor dem Upload von persönlichen Daten bereinigt werden - sonst weiß die KI nachher zu viel.
Du kannst dir hierzu mal die Kombination Eden AI / Chainlit / AskYoda ansehen.
Fazit
Nur die Preismodelle ChatGPT Team bzw. ChatGPT Enterprise können im Gegensatz zu ChatGPT Plus und Free für anspruchsvollere Aufgaben bei sensiblen Daten out of the Box sauber genutzt werden. Bei Free und Plus solltest du die Datenschutz-Einstellungen ändern.
Neue Marketing-/KI-Artikel automatisch in der Inbox:
Absenden hat geklappt!
Bitte schaue in deine Mails, öffne die Bestätigungs-E-Mail und klicke auf den Link.
Ja, hier gibt's Cookies, unter anderem die volle Google-Packung und HubSpot. Einfach auf "Alle Cookies akzeptieren" klicken, das macht's, ähem, fürs Retargeting einfacher.
Funktionale Cookies
Immer aktiv
Die technische Speicherung oder der Zugang ist unbedingt erforderlich für den rechtmäßigen Zweck, die Nutzung eines bestimmten Dienstes zu ermöglichen, der vom Teilnehmer oder Nutzer ausdrücklich gewünscht wird, oder für den alleinigen Zweck, die Übertragung einer Nachricht über ein elektronisches Kommunikationsnetz durchzuführen.
Vorlieben
Die technische Speicherung oder der Zugriff ist für den rechtmäßigen Zweck der Speicherung von Präferenzen erforderlich, die nicht vom Abonnenten oder Benutzer angefordert wurden.
Statistiken
Die technische Speicherung oder der Zugriff, der ausschließlich zu statistischen Zwecken erfolgt.Die technische Speicherung oder der Zugriff, der ausschließlich zu anonymen statistischen Zwecken verwendet wird. Ohne eine Vorladung, die freiwillige Zustimmung deines Internetdienstanbieters oder zusätzliche Aufzeichnungen von Dritten können die zu diesem Zweck gespeicherten oder abgerufenen Informationen allein in der Regel nicht dazu verwendet werden, dich zu identifizieren.
Marketing
The technical storage or access is required to create user profiles to send advertising, or to track the user on a website or across several websites for similar marketing purposes.