Du fragst dich, welche ChatGPT Version du nehmen sollst – Gratis, ChatGPT Plus oder ChatGPT Team? Sparen ist hier speziell für Teams fehl am Platz. Bei der Bewertung Chat GPT Plus vs. Team gibt es einen unanfechtbaren Sieger: Die sinnvolle Mindestvariante der Preismodelle heißt Team – auch für Einzelpersonen. Enterprise ist natürlich viel besser.
Um in den Genuss von “Custom GPTs”, also Mini-Apps, zu kommen, kannst du als freie Alternative Hugging Chat Assistants inklusive einer großen Auswahl an spannenden Sprachmodellen (u.a. LLama 3.1) ausprobieren (im Link findest du Vergleich und Anleitung), und am Ende des Artikels gibt es noch einen kleinen, oberflächlichen Ausflug in Richtung Antrophic Claude, Mistral Le Chat, Google Gemini und Microsoft Power Automate, die Alternativen zu ChatGPT sein können.
Als Einstieg ins Thema ChatGPT Plus oder Chat GPT Teams kannst du dir als “Abstract” mein 1-Minuten-Video auf Englisch ansehen.
Wenn du größeren Informationsbedarf hast: Buche fürs Geschäft bei mir eine KI-Beratung, einen KI-Workshop oder eine KI-Schulung. Wenn du dich vor allem für Marketing-Support interessierst, ist auch der Artikel zu KI-Marketing-Tools interessant, oder, ganz generell, zu B2B-Marketing.
Für die Grundlagen empfehle ich dir den Artikel über ChatGPT.
Inhalt
- Über den Autor
- Artikel zu ähnlichen Themen
- Chat GPT: Die 4 Preismodelle im Check
- ChatGPT: Kosten im Vergleich
- GPT-Zugang im Vergleich
- 1. Chat GPT Gratis („kostenloser Plan“)
- (Teils) kostenlose GPTs
- 2. ChatGPT Plus: viele Vorteile & Riesennachteil
- Was ist OpenAI o1?
- ChatGPT 4 kostenfrei ausprobieren
- Kostenfrei GPTs bauen
- 3. Was ist ChatGPT Team? Die klare Empfehlung
- 2 Gründe, warum du ChatGPT Plus nicht nehmen solltest.
- 4: ChatGPT Enterprise (€ 100.000+ p.a.)
- Alternativen? U.a. Office Copilot, Eden AI, Hugging Chat, Firefly, iStock, Bria
- Fazit
Chat GPT: Die 4 Preismodelle im Check
ChatGPT gibt es in vier “Abo”-Preismodellen:
- “Kostenfreier Plan”, da zahlst du mit deinen Daten und bekommst nur einen Teil der Fähigkeiten.
- ChatGPT Plus, da zahlst du ein monatliches Abo UND mit deinen Daten (Irrsinn).
- ChatGPT für Teams, da zahlst du mindestens 2 Lizenzen im Monat – das ist OK.
- ChatGPT Enterprise für Großkonzerne: superteuer
Außer der Reihe:
- ChatGPT Edu: Die Education-Variante für (Hoch-)Schulen und Forschung. Die Features entsprechen der Enterprise-Version. Kosten: Verhandlungssache. In der Microsoft Welt gibt es auch Edu-Tarife inkl. Copilot, wie Microsoft 365 Education (v.a. für Lehrkräfte).
Zusätzlich gibt es noch:
- ChatGPT via API, da zahlt man für Token – das ist sehr fair. Du kannst für jede Aufgabe ein anderes Sprachmodell wählen: Für einfache Tasks nimmst du ein schnelles, billiges Sprachmodell, und für aufwändige Sachen dann das teure Modell.
Tipp: Schaue mal in den OpenAI Playground rein, dort kannst du mit den (Assistenten-Funktionen) der API spielen, inkl. TTS. Nimm dir ein wenig Zeit. So einen Playground hat u.a. auch Anthropic. - ChatGPT lizensieren: Du fragst, wie Microsoft, bei Open AI an und sagst, dass du eine eigene KI auf eigenen Servern trainieren und laufen lassen willst, damit deine Daten nirgendwohin abwandern. Das geht. Kosten? Verhandlungssache.
Der Witz an der Sache: So was geht auch für Null Euro Grundkosten, in dem du dir Ollama holst und damit ein Open-Source-LLM auf deinem Laptop laufen lässt. Für echte Anwendungen benötigst du eine Serverfarm, also im Hyperscaler / Cloud einmieten, oder richtig Geld auf den Tisch legen und ein Rechenzentrum bauen.
ChatGPT: Kosten im Vergleich
Die Chat-GPT-Kosten sind pro Person bzw. User. angegeben. Der Preis für Chat GPT Enterprise ist eine Schätzung, da es keine offiziellen Preis gibt. Der Preis für API-Calls zeigen, dass die Chat GPT Monatspreise eine Mischkalkulation sind: Wer viele Token verbrät, weil Heavy User, sorgt beim Anbieter für Verluste.
Die API wird übrigens immer wichtiger: Die neuen Features von GPT-4o (Audio / “Call Center Chatbot”, Video) werden a) zuerst für API-Kunden zur Verfügung gestellt und b) sind besonders sinnvoll in Apps nutzbar, also über die API.
Chat GPT Standard | Chat GPT Plus | Chat GPT Team | Chat GPT Enterprise | Open AI API Calls1 |
---|---|---|---|---|
Kostenlos | 20 USD / Monat | 30 USD / Monat | ca. 60 USD / Monat | ca. 0,075 – 120 USD / 1 Million Token |
Rabatte für “Nonprofits”2: 20 % Rabatt auf ChatGPT Team, 50 % auf Enterprise. Bekommst du den Rabatt? Wenn du ein e.V. bist, oder eine Stiftung – also von Karnevalsverein bis Family Office. Interessant: OpenAI nutzt einen Validierungsservice von percent, der das gesamte Vereinsregister kennt.
GPT-Zugang im Vergleich
Mit einer besseren ChatGPT-Version verbessert sich auch die Nutzung von GPTs.
ChatGPT “Kostenlos” | ChatGPT Plus | ChatGPT Teams | ChatGPT Enterprise | |
---|---|---|---|---|
GPT-Nutzung | Einige Fremd-GPTs | Alle Fremd-GPTs & eigene GPTs erstellen | Zusätzlich zu Plus: Eigene GPTs mit dem Team teilen | Wie Team |
1. Chat GPT Gratis („kostenloser Plan“)
ChatGPT Free ist die klassische Gratisversion, basierend auf dem Modell GPT-4o3 (mini) (das o steht für Omnni, also “kann alles”). GPT-4o mini ist für die Free-Version gegenüber dem 4 ohne mini stark limitiert. Es kann eigentlich Bilder “lesen” und mit lesbarem (!) Text generieren sowie flüssig sprechen und singen, aber natürlich nicht für Leute die kein Geld ausgeben wollen. Die benötigte Rechenpower ist hoch.
GPT-4o (mini) im kostenlosen ChatGPT-Angebot hat ein paar Tücken: Es ist jetzt ähnlicher zum Microsoft Copilot (der ja GPT-4 Turbo nutzt), kann also im Internet suchen (Bing) und halbwegs Quellen angeben. Das klappt manchmal automatisch, mal nicht. Um die Online-Funktion zu aktivieren, hilft es, wenn du im Prompt die aktuelle Jahreszahl reinschreibst. Das ist ein Trigger, um das Sprachmodell zu aktuellen Ergebnissen zu zwingen. Trotzdem können die Ergebnisse halluniziert sein. Beispiel: Lasse dir eine Tabelle generieren, die eine Liste mit Namen und E-Mail-Adressen von, sagen wir mal, Werbeagenturen in Köln, liefert. Das Ergebnis? Copy & Paste von schrottigen SEO-Seiten, die Nonsens-Listen von Unternehmen anbieten. Das Ergebnis ist nicht verwendbar und stiehlt dir letztlich Zeit, weil du das Ergebnis erst qualifizieren musst. Da kannste genauso gut den Bürohund fragen, der stellt sich nicht schlechter an.
Mit der “Texte in Bilder schreiben” Funktion handelt man sich übrigens größere Urheberrechtsprobleme als bisher ein: Der generierte Text kann urheberrechtlich geschützte Teile enthalten – ohne dass du es weißt – und damit das Bild lizenzrechtlich noch problematischer als bisher machen.
Beispiel: Du lässt dir ein Werbebanner generieren, und Chat GPT “denkt” sich auf deinen Wunsch eine Headline aus und schreibt sie ins Bild rein. Da Chat GPT mit Texten aus “Quelle Internet” trainiert wurde sowie von Usern wie dir mit Trainingsdaten gefüttert wird, ist es möglich, dass die generierte Headline nicht neu ist sondern zufälligerweise von einem Wettbewerber stammt. So was ist natürlich ziemlich blöd bzw. peinlich. Um das zu verhindern, musst du generierte Inhalte stets umfassend prüfen.
(Teils) kostenlose GPTs
Was ChatGPT “kostenlos” schon kann, sind manche GPTs – also die Nutzung vorgeprompteter kleiner Helferlein. Da kann man aus einer stattlichen Bibliothek auswählen. Ganz cool ist, dass ChatGPT zu einer Art Hub für Drittanbieter wird, u.a. gibt es GPTs von Canva oder zum Generieren von KI-Videos (veed.io.)
Nachteil: Du kannst nur nutzen, was da ist. Eigene GPTs erstellen und mit dem Team teilen geht erst mit dem ChatGPT Team Abo. Außerdem kannst du die kostenfreien GPTs nicht feintunen. Otto-Normal-User wird das nicht stören, der hat weder Zeit noch Lust auf Prompt-Customzing.
Auch kannst du in der Free-Version Datenquellen einbinden: Aus der Cloud Google Drive & Microsoft OneDrive (inkl. Sharepoint), oder du kannst Daten von deinem eigenen Rechner hochladen. Das ist interessant, wenn du bspw. mit einem PDF “chatten” willst oder du Hilfe bei Code oder einer Excel-Tabelle brauchst.
Vorsicht Falle: Die Auswahl ist mega, aber nicht alle GPTs kannst du for free nutzen. Für u.a. Bilder brauchst du – im Gegensatz zu Copilot – ein Abo.
Über Datenschutz brauchen wir da nicht reden: Du lädst deine Daten irgendwo hoch, und damit können irgendwelche Dinge passieren.
2. ChatGPT Plus: viele Vorteile & Riesennachteil
Was kann Chat GPT Plus? Es bietet für 20 US-Dollar als Vorteil nicht nur das viel bessere GPT-4o bzw. das Schwester-LLM OpenAI o14, sondern vor allem die die Möglichkeit, eigene Vorlagen („GPTs“) zu erstellen. Außerdem kann das Ding dann schon im Internet surfen und KI-Bilder generieren (Basis: DALL-E) und bspw. eine Excel-Datei analysieren, du du hochlädst. Chat GPT 4 gibt es als “App”, aber auch als API. In einigen KI-Apps steckt Chat GPT drin, ohne dass man es direkt weiß.
Trotzdem läufst du mit GPT Plus, trotz Abo, in “Message Limits”. Unendlich viel rumspielen geht also nicht, obwohl das “Rate Limit” deutlich angehoben wurde.
Was ist OpenAI o1?
OpenAI o1 ist ein großes Sprachmodell von Open AI, das in ChatGPT verwendet wird. Da steckt viel Rechenleistung drin. Diese Sprachmodell-Reihe soll weniger halluzinieren, da sie auf “Reasoning” getrimmt wurde – mittels der Prompt Engineering Technik “Chain of Thought”, die auch manuell anwenden kannst. Das ist vor allem fürs Coding wichtig, da phantasierter Code unbrauchbar ist.
Der bekannteste KI-Fail ist, wenn das LLM beim Zählen des Buchstabens “r” in Strawberry scheitert. Das liegt in der Natur der LLMs, außer man bringt es separat bei. ChatGPT hatte da wohl ein peinliches Problem. Claude von Anthropic nicht, aber auch die LLMs von Mistral nicht. Das Problem ist mit o1 wohl abgestellt.
Neben OpenAI o1 gibt es OpenAI o1-mini, das kleiner, schneller und billiger in der Nutzung ist.
Preisbeispiel: 1 Million Output-Token kosten bei o1 “preview” 60 USD, für o1-mini 12 USD, während sie bei GPT 4o 10 USD und bei GPT 4o mini nur 0,30 USD kosten. Im Vergleich: Bei Anthropic kosten die Output-Token bei Claude 3.5 Sonnet, das echt gut ist, 15 USD / Mio., und bei Claude 3 Opus 75 USD / Mio. Faustregel: 100 (englische) Wörter entsprechen in etwa 75 Token.
An den Kosten kann man erkennen, dass o1 intern Token ohne Ende verbrät, weswegen die Kosten so hoch sind. Das könnte ein Hinweis darauf sein, dass OpenAI versucht, die Mängel der KI mit schierer Rechenleistung wegzuoptimieren. Das ist ziemlich schräg, da die halbe Welt versucht, die Sprachmodelle durch Training effizienter zu machen.
Wenn’s um Coding geht, ist auch Codestral von Mistral AI sehr stark.
ChatGPT 4 kostenfrei ausprobieren
Um Chat GPT 4 gratis auszuprobieren, benutze einfach den Bing Copilot – speziell in den Apps. Hier wird GPT-4 Turbo5 genutzt. Bedenke, dass Microsoft seinen Copolit auf eigenen Servern (Azure) laufen lässt und ein eigenes Basis-Prompting hat. Der Bing Copilot verlässt sich out of the Box gern auf Suchergebnisse und gibt Fußnoten an, weswegen die Generierungs-Ergebnisse sich deutlich von Chat GPT unterscheiden.
GPT-4o ist die Basis der Chat GPT Gratis-Variante, aber die Plausibilität der Ergebnisse – vor allem wenn Internetzugriff gefragt ist – liegt unter dem Bing Copilot. Dafür ist GPT-4o bei Chat GPT deutlich weniger zimperlich: Der Bing Copilot gibt ungern persönliche Daten heraus (Namen), Chat GPT hat damit kein Problem.
Kostenfrei GPTs bauen
GPTs, also vorgepromptete Assistenten, kannst du mit den Hugging Chat Assistants – eingeschränkt – bauen. Das Sprachmodell GPT-4 gibt es da nicht, aber von Mistral AI gibt es da eine vernünftige Alternative.
Die Qualität des Bing Copilot zu schlagen ist allerdings schwer, wenn du eine Faktensuchmaschine erstellen willst.
Außerdem gibt es da ganz viele Sprachmodelle. Microsoft hat deswegen einen Exklusivdeal mit Mistral AI geschlossen, um “Mistral Large6” (spreche es Französisch aus) für Kunden anzubieten. Die Mistral-LLMs fühlen sich in den Ergebnissen manchmal “europäischer” an, während die Ergebnisse der Open AI LLMs oft wie aus dem Englischen übersetzt klingen. Der Grund: Intern arbeiten viele LLMs auf Englisch und übersetzen hin und her. Das bringt durchaus krasse Übersetzungsfehler rein, die auf den ersten Blick gar nicht auffallen.
3. Was ist ChatGPT Team? Die klare Empfehlung
Chat GPT Team ist kleinste Chat-GPT-Variante, mit der du sinnvoll mit mehreren Leuten zusammenarbeiten kannst. Der Schlüssel dazu sind die “Custom GPTs”, das sind kleine, selbstgebaute KI-Apps, die man zur Nutzung durch das gesamte Team freigeben kann.
Das Preis- und Lizenzmodell von Chat GPT Team ähnelt Chat GPT Plus, kostet aber bei monatlicher Zahlung mindestens 60 US-Dollar im Monat (2 mal $30, da mindestens 2 User-Lizenzen abonniert werden müssen). Das sind $720 im Jahr, also 670 Euro (Stand Februar 2024). Mit jährlicher Vorkasse sinkt der Preis auf $25 je Nutzer, also sind auf einen Schlag erstmal mindestens $600 weg. Trotzdem ist das die einzige Minimal-Variante, die man fürs Geschäft einsetzen sollte.
Oder du nimmst die volle Chat GPT Enterprise-Variante, doch dazu gleich mehr.
2 Gründe, warum du ChatGPT Plus nicht nehmen solltest.
1. Bei Chat GPT Team werden aus deinen Daten keine Trainingsdaten
Alles, absolut alles, was du bei Chat GPT eingibst oder „bestellst“, wird von Chat GPT wieder als Trainingsdaten verwendet. Das ist ein absolutes No-Go und die röteste aller Red Flags.
Warum? Sobald du Firmeninterna als Quelle nutzt, landen die im Big Brain des großen Sprachmodells und können dort vom Wettbewerb per Zufall oder per Durchtriebenheit abgerufen werden.
Wir reden jetzt noch nicht mal von der DS-GVO oder über juristische Fragen, sondern von realen Problemen. Gut, mit dem EU AI Act sind wir schon im Problembereich, denke mal daran, dass ein Mitarbeiter von dir eine Excel-Tabelle mit Privatadressen deiner Kunden hochlädt. Die Daten sind dann – möglicherweise – Teil der KI geworden.
Fiktives Beispiel: Du hast aus der Technischen Entwicklung eine sehr technische Produktbeschreibung für eine absolut geheime Innovation erhalten. Diese willst du in Bullet Points zusammenfassen lassen und daraus eine Vermarktungsstrategie entwickeln, und zwar für ein Sales Meeting. Durch das Eingeben von ungeschwärzten Daten fütterst du das Sprachmodell quasi mit Top-Secret-Infos.
Sehr blöd wird es, wenn dein Wettbewerber in einem ganz ähnlichen Feld forscht und einer der Ingenieure bei Chat GPT nach Ideen für eine Innovation fragt. Und Potzblitz: Das System rattert eure Innovation runter. Na bravo. In der Chat GPT Team-Version kann das (angeblich) nicht passieren. Große Firmen lassen deshalb “ihr” Chat GPT auf eigenen Servern laufen. Aus Gründen.
2. ChatGPT Team: GPTs für Teams bauen
Was ist ChatGPT Team? Ideal für Teams, da ist der Name also korrekt gewählt. Denn: Im Unternehmenseinsatz von KI-Tools geht es doch fast immer darum, wiederkehrende Aufgaben zu vereinfachen. Das kennen wir seit der Industrialisierung, als Maschinen auf den Plan traten. GPTs sind die Maschinen – oder Roboter – der generativen KI. Mit ihnen baust du Templates, die du im gesamten Team verwenden kannst. Dadurch werden die Outputs besser, und vor allem spart es Zeit: Nicht jeder hat das Talent, die Lust oder die Zeit, sich ins Prompt Engineering einzufuchsen. Das bedeutet: Du brauchst nur eine Person im Team, die im Prompting ziemlich gut ist (oder niemanden, da du auch einen Freelancer buchen kannst), und alle Mitglieder des Teams profitieren von diesen Mini-Apps.
Beispiel: Ihr habt einen Onlineshop mit 100.000 Artikeln und wollt diese mit Produkttexten anreichern. Man könnte ein GPT bauen, das diese Texte in der passenden Länge und im richtigen Format erstellt – und zwar besser als mit den eingebauten KI-Tools des Shopsystems. Oder du brauchst Übersetzungen in andere Sprachen.
Um solche GPTs mit dem Team zu teilen, brauchst du Chat GPT Team. Plus reicht nicht.
Allerdings musst du massiv Teams-Abos abschließen. Ob sich das lohnt? Klar definierte GPTs kannst du genauso gut mit anderen Tools bauen (Gradio) und das exakt passende Sprachmodell per API einbinden. Dadurch werden dann auch (Teil-)Automatisierungen möglich.
Eine Frage bleibt deshalb: der Use Case, also der konkret sinnvolle Nutzen im Unternehmen. Den sollte man zuerst ermitteln. Das gelingt unter anderem mittels KI-Beratung, Umfragen in der Belegschaft (Nutzt ihr Chat GPT? Was nervt euch? Welche Arbeiten fressen Zeit?) oder mittels eines KI-Workshops. Im nächsten Schritt kann man ermitteln, welche Tools ideal geeignet sind. Im Rahmen der Einführung sind KI-Schulungen hilfreich.
4: ChatGPT Enterprise (€ 100.000+ p.a.)
Die ganz große Variante Chat GPT Enterprise hat keine offizielle Preisliste. Man soll den Vertrieb kontaktieren. Angeblich7 liegt der Preis bei $60 im Monat, bei einer Mindestabnahme von 150 Einzelplatzlizenzen (“Seats”). Das wären $9.000 im Monat bzw. $108.000 im Jahr.
Größte Vorteile: Du kannst das Sprachmodell in deiner eigenen Cloud laufen lassen, mit der API rumspielen und es mit Single-Sign-On in deine Unternehmens-IT-Sicherheits-/Passwort-Richtlinie einbauen.
Letztlich wird das eine Mischkalkulation seitens OpenAI sein: Die Heavy User verbrauchen Token, also teure Rechenleistung, ohne Ende, während Normal-User es wenig nutzen.
ChatGPT-Alternativen? U.a. Office Copilot, Hugging Chat, iStock, Bria
- Für normale Bürojobs dürfte der (ähnlich bepreiste) Microsoft Office 365 Copilot interessanter sein, da Zaubertricks wie Mach-mir-eine-PowerPoint-aus-meinem-Word-Dokument möglich sind. Außerdem kannst du dir Mail-Threads im Posteingang zusammenfassen lassen. Microsoft hat das Open-AI-Sprachmodell übrigens auf eigenen Servern laufen, und deine Daten werden nicht zu Trainingsdaten8. Das hört sich gar nicht schlecht an. Der Copilot ist insgesamt ziemlich gut, da er Quellen bzw. Fußnoten einbaut.
- Wenn du Google Workspace nutzt, ist Gemini besser – es ist einfach komplett integiert. Datenschutz? Sehr eigenwillig. Puh…
Allerdings kannst du in ChatGPT auch Google Drive integrieren, was einem reichen kann. - Um “Apps” zu bauen, bzw. um Prozesse zu automatisieren, kann man sich bei Microsoft “Power Automate” ansehen. Je nach Office-365-Version ist das schon mit drin, speziell in der Edu-Welt.
Da gibt es schon No-Code-Mini-Apps wie “Stimmung in E-Mails mit AI Builder analysieren und Ergebnisse an Teams senden“. Das ist dann ein automatisierter Workflow der a) das Microsoft Dataverse nutzt, b) E-Mails in Outlook liest, c) den Inhalt analysiert (Sentiment Analysis) und d) das Ergbnis in Teams postet. Das ist für den Kundenservice interessant, um bspw. Beschwerden schnell an die richtigen Leute zu leiten. Auch PowerBI und Visio lassen sich damit verknüpfen, aber da braucht man dann schon fähige IT Consultants.
Aber Achtung: Emotionserkennung ist, speziell bei Mitarbeitern, eine Red Flag. Mehr dazu im Artikel über den EU AI Act / DSGVO / KI-Ethik. - Um aus Prompts De-facto-Apps zu machen, also den Prompt als API-Call in Python o.ä. reinzudengeln, ist Anthropic mit Claude ziemlich spitze. Da wird es dann allerdings schon ziemlich nerdig.
Beispiel:- Du kannst mit Anthropic einen Prompt mit einer Variablen bauen, sagen wir mal einer URL. Diesen Prompt kannst du dir als Python-Code ausspucken lassen.
- Dann kannst du mit HuggingFace ein Gradio-Notebook anlegen (= HuggingFace Space) und den Python-Code in die app.py reinpasten (und ein paar weitere Handgriffe muss man noch machen). Voilà, du hast eine KI-App gebaut.
Tipp: Antrophic hat ein Prompt Engineering Tool, das echt gut funktioniert.
- Die Welt der Sprachmodelle ist groß, und es gibt immer mehr Spezialisierungen. Als Coding-Helfer ist u.a. Codestral von Mistral recht talentiert. Du kannst es kostenfrei mit “Le Chat” von Mistral ausprobieren.
- Bei der Bildmanipulation ist Bria.ai relativ safe, da die Trainingsdaten lizensiert wurden. Ganz sicher sein darfst du dich nicht, da in dort zusätlich verfügbaren Stockbildern (z.B. von Unsplash) Bilder drin sind, die Editorial-only sind, also nicht für Werbezwecke verwendet werden dürfen – und es steht nicht dabei. Also: Vorsichtig sein.
- Bei der AI-Bildgenerierung ist neben Adobe Firefly (Abo-Modell) auch iStock interessant (Credits-Modell), da dort auf lizenrechtliche Sauberkeit geachtet wird. Zum Einsatz kommt bei iStock NVIDIA Picasso. Der Spaß kostet immer Geld, und die Ergebnisse haben nicht unbedingt immer Foto-Qualität. Bria und Firefly sind besser. Illustrations-artige Bilder sehen aber super aus!
- Spannend ist auch, sich mit Open Source Sprachmodellen ein eigenes oder sogar selbst gehostetes GPT zu bauen. Dieses sendet keine Daten an irgendwen. Zum herumspielen bietet sich Hugging Chat Assistants von Hugging Face an, das ist vergleichbar mit den Custom GPTs bei Chat GPT; einen damit erstellen Chat-Bot findest du auf der Seite Marketingmaßnahmen.
- Die große Lösung: Ein Open-Source-Sprachmodell nehmen, dieses auf einem eigenen Server nutzen und mit eigenen Daten trainieren, und die damit erstellten Tools nur von Mitarbeitern verwenden lassen. Für Anwendungen für externe Nutzer brauchst du vielleicht ein zweites System. Denke an einen Chatbot für die Website: Dieser kennt deine Produktdaten aus dem Effeff, äußert sich aber nicht über Firmeninterna oder die Weltpolitik.
Probleme lösen musst du in jedem Fall; beispielsweise sollten Trainingsdaten vor dem Upload von persönlichen Daten bereinigt werden – sonst weiß die KI nachher zu viel. - Du kannst dir hierzu mal die Kombination Eden AI / Chainlit / AskYoda ansehen.
Fazit
Nur die Preismodelle ChatGPT Team bzw. ChatGPT Enterprise können im Gegensatz zu ChatGPT Plus für anspruchsvollere Aufgaben bei sensiblen Daten einigermaßen sauber genutzt werden. Wer mit Unternehmensdaten oder, je nach Standpunkt noch schlimmer, mit personenbezogenen Daten von Mitarbeitern oder Kunden das Sprachmodell trainiert (und in der Variante Plus auch noch dafür zahlt), dem ist eigentlich nicht zu helfen. Und zu DS-GVO-Themen wird den Aufsichtsbehörden und den Juristen mit Sicherheit bald was einfallen.
Über den Autor
Stefan Golling, Köln. Seit 2011 Freelance Creative Director, freier Texter, Creative Consultant und Online-Marketing-Berater mit Kunden von Mittelstand bis S&P 500. Erfahrung: 1998 mit Radiowerbung in Stuttgart gestartet, 2000 als Junior-Werbetexter zu Publicis München, 2001 Counterpart Köln, 2002 als Copywriter zu Red Cell Düsseldorf (heißt heute Scholz & Friends), dort ab 2007 Creative Director.
KI-Beratung anfordern
Und der nächste Schritt?
Artikel zu ähnlichen Themen
- KI-Ethik und EU AI Act: Mitdenken ist Pflicht
- Customer Journey: Das Ziel ist das Ziel
- Chat GPT: Überblick, GPTs nutzen, Alternativen
- Google Gemini: KI mit Riesenhirn
- Statt Online Marketing Agentur: Flexibler mit Freelancern?
- TikTok für Unternehmen: 4 schnelle Tipps
- KI-Videogenerator: Meine Testergebnisse
- KI-Bild generieren: und die Lizenz? Mit Vergleichstest!
- Hugging Chat Assistants: Alternative zu Custom GPTs
- Marketingmaßnahmen als 5-Dimensionen-Modell (mit Chat Bot)
- Hugging Face Spaces: der KI-Abenteuerspielplatz
- Chat GPT: Plus? Nein. Team? Ja. 2 Gründe
- Prompt Engineering: 5 Text-to-Text-Konzepte für Nicht-Nerds & Ausblick
- KI im Marketing: Turbo-Praktikanten und die Zukunft
- KI-Marketing-Tools: 5x gratis ausprobieren
- https://openai.com/pricing ↩︎
- https://openai.com/chatgpt/pricing/ ↩︎
- https://openai.com/index/hello-gpt-4o/ ↩︎
- https://openai.com/index/introducing-openai-o1-preview/ ↩︎
- https://blogs.microsoft.com/blog/2023/12/05/celebrating-the-first-year-of-copilot-with-significant-new-innovations/ ↩︎
- https://azure.microsoft.com/en-us/blog/microsoft-and-mistral-ai-announce-new-partnership-to-accelerate-ai-innovation-and-introduce-mistral-large-first-on-azure/ ↩︎
- Quelle: Reddit. Das ist natürlich keine echte, belastbare Quelle. ↩︎
- https://learn.microsoft.com/de-de/microsoft-365-copilot/microsoft-365-copilot-overview ↩︎