Methode 1: KI verbieten
Dies ist der scheinbar einfachste Weg. Viele Unternehmen erlauben einfach nicht, ChatGPT oder andere Chatbots bei der Arbeit zu benutzen. Einer Befragung im Sommer 2023 zufolge erwogen drei Viertel der weltweiten Unternehmen ein solches Verbot.
Doch dieser scheinbar einfache Plan hat zwei große Schwierigkeiten: Einmal entgehen einem dadurch auch mögliche Produktivitätssteigerungen durch die smarte Nutzung von KI-Helfern. Und dann ist fraglich, ob sich die Mitarbeiter wirklich daran halten. Eine Befragung des Unternehmens Salesforce ermittelte schon 2023: Viele Büroangestellte nutzen KI im Alltag – und das teilweise ohne die Erlaubnis ihrer Chefs.
Methode 2: KI nur selektiv erlauben
Auch diesen Weg gehen aktuell viele Unternehmen: ChatGPT & Co sind grundsätzlich gestattet – aber es dürfen nur bestimmte Daten in die KI eingegeben werden. Tabu sind hier in der Regel Kundendaten und Informationen für den rein internen Gebrauch.
Hierfür ist es notwendig, Mitarbeiter über den korrekten Gebrauch der KI aufzuklären – etwas, das der AI Act der Europäischen Union ohnehin vorsieht.
Methode 3: Smarte Cloud-Lösungen
Nicht jede Chatbot-App ist gleich aufgebaut. Wer die normale Verbraucher-Version von ChatGPT verwendet, hat wenig Kontrolle darüber, was mit den internen Daten passiert. Zwar gibt es die Funktion „Provisorischer Chat“, bei der die Eingaben nicht fürs Training verwendet werden sollen. Dennoch legt man hier sein Vertrauen in die Angaben von OpenAI.
Viele Cloud-Anbieter setzen deshalb auf eigene, in Europa gehostete, Server-Strukturen für KI. Diese können in der Regel über andere Cloud-Pakete mitgebucht werden. Dann lassen sich ChatGPT & Co genauso benutzen wie andere Tools für Videokonferenzen und Absprachen. Auch beim französischen KI-Anbieter Mistral gehört es zum Softwarepaket dazu, dass die Daten nicht fürs Training verwendet werden. Allerdings kann es auch hier – ähnlich wie bei Microsoft Teams – zu Unsicherheiten bei der Datenschutz-Frage kommen. Diese müssen im Zweifelsfall einzeln besprochen und abgewogen werden.
Methode 4: Lokale Modelle
Was vor Kurzem noch als Option für echte Experten galt, wird allmählich breiter zugänglich: Ein freies Open Source-Modell (etwa von Meta oder DeepSeek) herunterladen und auf eigener, lokaler Hardware betreiben. So kann man sicherstellen, dass keine Daten abfließen, und alles im lokalen Unternehmen bleibt.
Der Nachteil: So etwas aufzusetzen ist nicht einfach – und vermutlich wird man auch nicht die gleiche Leistung wie die besten Modelle von OpenAI und Anthropic erzielen. Allerdings gibt es auch hier stetige Fortschritte – und KI-taugliche Computer werden immer erschwinglicher: Nvidia hat vor Kurzem einen KI-Rechner für etwa 3.000 Euro vorgestellt.