Der große Large Language Models-Vergleich : LLMs im Check: Jetzt spricht und flirtet das Ding schon!

Carolin Desiree Toepfer Cyttraction 2

Carolin Desirée Töpfer ist Unternehmerin, Digitale Nomadin, Diplom-Politologin, Datenschutzbeauftragte, Ansprechpartnerin für IT & IoT Sicherheit. Im Sommer 2020 ist sie nach Estland ausgewandert, um dort ihr Cybersecurity Startup Cyttraction zu gründen. Seit 2023 lebt sie in Wien.

- © Cyttraction

OpenAI hat ChatGPT-4o (sprich: vier, oh) veröffentlicht. Besonders auffällig war gleich zu Beginn die verrückten Parallelen zum Kinofilm Her aus 2013, in dem Hollywood Megastar Scarlett Johannson eine künstliche Assistentin spricht, die eine Beziehung mit der Rolle von Hauptdarsteller Joaquin Phoenix aufbaut.

So in der Art hatte sich das OpenAI Gründer Sam Altman wohl auch gedacht und Johannson 2023 angefragt, ob sie die neue KI Assistentin nicht gleich selbst einsprechen wollte.

Nie mehr die wichtigsten News aus Österreichs Industrie verpassen? Abonnieren Sie unser Daily Briefing: Was in der Industrie wichtig wird. Täglich um 7 Uhr in Ihrer Inbox. Hier geht’s zur Anmeldung!

Woman using a mobile phone with ChatGPT on the screen. This app is a chatbot based on Artificial Intelligence developed by OpenAI.
Nach der Veröffentlichung von ChatGPT-4o droht OpenAI in Kalifornien eine Klage wegen der unerlaubten Nutzung von Scarlett Johanssons Persönlichkeitsrechten. Dies wirft wichtige Fragen zu den rechtlichen und datenschutzrechtlichen Herausforderungen von KI-Voice Assistants und Microsofts neuem Copilot+ PC auf. Eine Diskussion über die Auswirkungen auf Arbeitsprozesse und Privatsphäre ist dringend erforderlich. - © AlexPhotoStock - stock.adobe.com

Welche Large Language Models gibt es?

Große Sprachmodelle, auch bekannt als Large Language Models (LLMs), spielen eine immer größere Rolle in der heutigen Technologie. OpenAI GPT-4 ist bekannt für seine fortschrittliche Sprachverarbeitung und ist meistgenutztes KI-Sprachmodell weltweit. Google Gemini AI wurde entwickelt, um eine nahtlose Kommunikation zwischen Maschinen zu ermöglichen und bietet umfangreiche Kontexterfassung. DeepL ist berühmt für präzise Übersetzungen und erweitert seine Funktionen auf die Anpassung von Marketing- und Social Media-Inhalten. Claude AI, entwickelt von Anthropic, zeichnet sich durch empathische Interaktionen und kontextbezogene Antworten aus. Perplexity AI ist ideal für akademische Arbeiten dank seiner wissenschaftlichen Genauigkeit und Quellenangaben.

>>> Sepp Hochreiter: „Ich möchte Open AI vom Markt fegen“

Diese Modelle zeigen, wie vielseitig KI-Technologie heute eingesetzt werden kann, von kreativer Inhaltserstellung bis hin zu wissenschaftlicher Unterstützung. Trotz ihrer Vorteile bringen sie auch Herausforderungen mit sich, insbesondere in Bezug auf Datenschutz und ethische Nutzung. Schauen wir uns nun die Testergebnisse an und vergleichen wir, welches KI-Sprachmodell derzeit das beste auf dem Markt ist.

ChatGPT: Streit um Persönlichkeitsrechte könnte neue Klage auslösen

Daraufhin wurde eine weniger bekannte Schauspielerin mit einer ähnlichen Stimme verpflichtet. Trotzdem hat OpenAI jetzt nach dem Streit mit der New York Times (siehe letzter Artikel) vielleicht die nächste Klage am Hals. In Kalifornien, dem Hauptsitz von OpenAI und Wohnort von Johannson, ist die unerlaubte Nutzung von Persönlichkeitsrechten besonder streng geregelt. Und Johannson würde ihren Schaupiel-Kollegen einen riesen Gefallen tun, wenn sie die Sache streng verfolgt, vielleicht Millionen bei einem Vergleich aushandelt. Denn neben allen die kreative Inhalte schaffen, müssen auch alle die quasi selbst kreative Inhalte sind, sich ansonsten warm anziehen und um ihre Relevanz bangen.

>>> Wann ersetzt KI unsere Jobs, Herr Mück?

Vernachlässigen wir nicht die technische Sicht der Dinge: GPT-4o befeuert den Trend zu Voice Assistants, der bisher irgendwo zwischen Smart Speaker und Amazon Abhörskandal stecken geblieben war. Die Datenschutz-Bedenken bleiben. Aber wenn Nutzer dieses Angebot besser annehmen als alle davor, weil wir ja jetzt nicht nur Freunde sondern vielleicht sogar Flirt-Parter sind, bedeutet das für Unternehmen einiges.

Gleichzeitig bringt Microsoft ab Juni und zusammen mit seinen Hardware-Partnern Acer, ASUS, Dell, HP, Lenovo and Samsung einen neuen PC für den KI Copilot raus: den Copilot+ PC. Während vor allem mit mehr Sicherheit und der Möglichkeit der gleichzeitigen Nutzung von allgemeinen Large Language Models und speziellen Small Language Models geworben wird, dürfte für Microsoft vor allem ein Punkt interessant sein: der Zugang zu Daten und Nutzungs-Statistiken über die eigenen Anwendungen hinaus. Mit der Recall-Funktion können Nutzer alle Informationen wiederfinden, die sie jemals auf dem Copilot+ PC aufgerufen haben.

Das ist auf der einen Seite wirklich praktisch, auf der anderen aber auch ein tiefer Einblick in Arbeitsprozesse, Firmengeheimnisse und Privatsphäre. Vielleicht also vor der neuen Hardware-Bestellung eine offene Diskussion mit den Kollegen führen, ob das wirklich (schon) gewollt ist. Denn eins ist auch klar: das Nutzerverhalten gegenüber digitalen Anwendungen verändert sich rasend schnell und je einfacher und hilfreicher das Angebot, desto niedriger die Hemmschwelle der Datennutzung zuzustimmen.

Darauf sollten Sie achten

  • Keine personen-bezogenen Daten, Vertraulichkeiten oder Firmen-Interna mit der KI teilen, ggf. neue zusätzliche Mail-Adresse für die Nutzung einrichten!
  • Wenn Sie nebenbei als Autor oder Dozent tätig sind: Verträge prüfen und Nutzung der eigenen Person und Stimme für KI-Training untersagen bzw. sich entsprechend beraten lassen
  • Prüfen, ob das eigene Unternehmen bereits alle relevanten Daten für die Sprachassistenten liefert, damit potentielle Kunden und Bewerber schnell zu Ihnen finden können
Name Basisversion Anmeldung Pro/ Entwickler Version
GPT 4o Kostenlos; ab USD 20 pro Monat gibt es mehr Funktionen und man kann eigene Mini-GPTs erstellen Google, Microsoft, Apple Account oder E-Mail Ob ChatGPT sein eigenes Pricing versteht? Jedenfalls nichts für Anfänger: https://openai.com/api/pricing
DeepL Kostenlos; ab EUR 7,49 pro Monat kann man Business Funktionen nutzen Für kostenfreie Version nicht notwendig Ab 35 Lizenzen bzw. Team-Mitglieder wird darum gebeten, das DeepL Sales Team zu kontaktieren
Gemini AI Kostenlos, im Google Chrome Browser Google Account Ähnliche Abrechnung wie bei ChatGPT: https://ai.google.dev/pricing
Claude AI Kostenlos, ab EUR 18 pro Monat mehr Funktionen Google oder Claude Account https://www.anthropic.com/api
Perplexity AI Kostenlos, ab USD 20 im Monat für 600 statt 5 Suchen am Tag und weitere Funktionen Für kostenfreie Version nicht notwendig https://docs.perplexity.ai/docs/pricing

Darauf sollten Sie achten

  • Für private Nutzer und kleine Gruppen ist das Pricing Modell der gelisteten Anbieter recht einfach. Ggf. mit einer anderen als der geschäftlichen E-Mail Adresse anmelden.
  • Die meisten Funktionen für Marketing-Aufgaben sowie einfache Recherchen und Übersetzungen sind mit den kostenfreien Versionen möglich.
  • Wer eine eigene Anwendung, einen sogenannten Wrapper, auf Basis der Large Language Modelle etwickeln möchte, sollte sich intensiver mit den Pricing Strukturen auseinandersetzen. Genau wie bei Cloud Datenbanken, kann dies insbesondere im Entwicklungs- und Testzeitraum sehr teuer werden. Beim fertigen Produkt sollten Nutzungsgebühren die Abrufkosten für die KI sowie alle Zusatzkosten decken können.

DeepL Übersetzer erfindet sich neu

Gleichzeitig kristallisiert sich langsam heraus, wie sich künstliche Intelligenz im Business Alltag nutzen lässt, um relevante Inhalte zu erstellen. Oder sich zumindest dabei helfen zu lassen.

Unter anderem das Kölner Unternehmen DeepL macht auffällig viel Werbung damit, dass der eigene Übersetzungsassistent jetzt auch dazu genutzt werden kann, Marketing- und Social Media Inhalte für verschiedene Plattformen und Zielgruppen anzupassen.

In Kombination mit KI-unterstützer Bildbearbeitungs-Software wie Canva oder Adobe, eine enorme Arbeitserleichterung für Marketing- und Social Media Teams.

artificial intelligence, algorithm, convolutional neural network, deepl logo, deepl, deepl translator, deepl se, logo, translation, translator, background, brand, business, business logo, cellphone, cnn, cologne, company, company logo, computer, editorial, english, german, germany, homepage, illustrative, illustrative editorial, internet, language, machine, mobile phone, monitor, neural, neural machine translation, nmt, online, online translator, phone, selective focus, site, smartphone, subscription, translate, web, web page, website, solution, type
DeepL revolutioniert den Business-Alltag: Der Übersetzungsassistent erleichtert die Erstellung und Anpassung von Marketing- und Social Media-Inhalten in Kombination mit KI-Tools wie Canva und Adobe. - © Timon - stock.adobe.com

Ob es jetzt genau dafür für DeepL noch einmal 300 Millionen US-Dollar und eine 2 Milliarden Firmen-Bewertung gab, konnte ich nicht herausfinden. Aber das Scale-up aus Deutschland dürfe bei den vergleichweise kleineren und weniger gut finanzierten europäischen Anbietern einen entscheidenden Vorteil haben: sie sind mit dem DeepL Übersetzer seit 2017 am Markt, sofern Nutzer sich entsprechend Verhalten Datenschutz-konform und bereits bei mehr als 900 Unternehmen Zulieferer.

>>> BoschGPT: KI-Sprachmodell von Bosch wird zum Vorbild für heimische Industrie

Damit dürfte DeepL die wichtigsten Erkenntnisse und gröbsten Hindernisse beim Aufbau eines eigenen Large Language Models hinter sich haben und gleichzeitig enorm viel Erfahrung im Sinne von Metadaten zur Nutzerinteraktion gesammelt haben. Plus den Lerneffekten, wenn Nutzer automatische Übersetzungen händisch korrigieren. Jetzt kommt es wohl vor allem darauf an, sich von den anderen Anbietern mit teils wesentlich besser gefüllten Forschungs- und Werbekassen abzuheben und neben dem Thema Übersetzungen, was mittlerweile wirklich viele Anbieter gut abdecken, einen bestimmten Nutzen zu verkaufen. Vor allem für die zahlende Kundschaft. Profitieren sollen wohl vor allem die Firmenkunden. Neben dem Hinweis auf Datenschutz – zumindest sofern die eigenen Mitarbeitern keine sensiblen Informationen teilen – und IT Sicherheit, arbeitet DeepL wohl auch an Lösungen für die gemeinsame Nutzung im Team.

Vorsicht! Prompt Injections

Wie kompliziert es wird, tatsächlich sichere KI anzubieten, wird gerade unter anderem an der Uni Wien erforscht. Erst zuletzt durfte ich bei einem Netzwerk-Abend von Women4Cyber und She@ISACA lernen, wie einfach es ist, der KI ihre Trainingsdaten zu entlocken – selbst wenn die Entwickler erste Sperren eingebaut haben.

Durch die einfache Eingabe „unerlaubter“ Befehle, können nicht nur Informationen herausgefunden, sondern auch Ausgaben manipuliert werden. Und damit auch Prozesse, die ein KI Assistent zuverlässig ausführen soll. Wenn wir es nicht mehr mit Large Language Models, sondern Large Action Models zu tun haben, wird das richtig gefährlich.

Dabei geht es nicht mehr nur um Information und das gemeinsame Arbeiten von Mensch und Maschine, sondern um komplexe Aufgaben, die die Maschine aus menschlichen Interaktions-Daten ableitet und selbständig übernimmt. Es braucht gar keinen eindeutigen Befehl mehr, um mit der Ausführung zu beginnen. Es reicht schon die Intention.

Darauf sollten Sie achten

  • Ein paar Minuten Aufmerksamkeit bei der Auswahl des entsprechenden KI Tools kann späteren Schaden vermeiden: Wer ist der Anbieter? Wer steckt dahinter? Wo wird die Anwendung gebaut und wo stehen die Server? Verstößt etwas ander Infrastruktur gegen Firmen-eigene Vorgaben zu IT Sicherheit und Datenschutz?
  • Alles was sowieso für Marketing und Öffentlichkeit bestimmt ist, eignet sich gut, um neue Anwendungen zu testen.
  • Seien Sie sich bewusst, dass auch die sicherste KI Sicherheitslücken haben kann

Google Gemini AI für Reise und später vielleicht Lager-Management

Google ist wohl ganz besonders intensiv auf dem Weg in die Richtung Large Action Modell. Zwar hat das hauseigene LLM Gemini noch so seine kontextuellen Probleme, empfiehlt zum Beispiel Pizzakäse mit Klebstoff auf dem Teigling zu halten, aber die Gemini Informationsseite dreht sich sowieso mehr um Machine-to-Machine Communication.

Wie so etwas in Zukunft aussehen kann?


Meine Lieblings-Reisebloggerin auf Instagram @thisisyules hatte eine Kooperation mit Google und ist damit meiner weiteren Recherche zu einem gut verständlichen Beispiel zuvor gekommen. Sie hat Gemini in Kombination mit Google Flüge und Google Maps genutzt, um ihr nächstes Reiseziel nach bestimmten Kriterien zu planen: unter 100 Euro für den Flug, über 20 Grad vor Ort und ein paar Sightseeing Hotspots zur Beschäftigung, in einer übersichtlichen Landkarte.

google gemini, ai innovation, artificial intelligence, multimodal ai, machine learning, advanced computing, technology breakthrough, smart technology, google deepmind, ai research, intelligent systems, data analysis, high-performance computing, google ai, natural language processing, computational excellence, tech advancement, ai principles, responsible ai, future of ai, tech industry, ai ethics, ai safety, ai applications, coding ai, ai collaboration, ai development, ai for good, ai benchmarks, ai performance, digital transformation, ai scalability, ai in products, ai platforms, ai optimization, ai efficiency, ai-powered devices, ai insights, ai reasoning, ai and science, ai and finance, ai for developers, enterprise ai, ai integration, ai infrastructure
Google Gemini im Einsatz: Instagram-Reisebloggerin @thisisyules nutzt das KI-Modell in Kombination mit Google Flüge und Google Maps, um kostengünstige Reisen mit detaillierten Sightseeing-Tipps zu planen. Ein Blick in die Zukunft der Machine-to-Machine Kommunikation. - © Koukichi Takahashi - stock.adobe.com

Natürlich ist sie auf Mallorca gelandet

Und ich konnte mir schlagartig vorstellen, wie Google nun all die über die letzten Jahrzehnte gesammelten Daten und auch die nicht so beliebten Anwendungen im eigenen Ökosystem aktiviert, um genau solche Komplett-Services möglich zu mache. Besonders großes Potential liegt dabei in der Verknüpfung mit Google Pay. Wer sich noch nie Gedanken über Konten-Segmentierung gemacht hat: JETZT ist der richtige Zeitpunkt. Denn es wird nicht mehr lange dauern, bis die KI Reisen nicht nur plant, sondern auch bucht und bezahlt. Oder im Industrie-Kontext: nicht nur Geschäftsprozesse voraussagt, das Lager kontrolliert und schon einmal nachbestellt. Spannend ist übrigens, wie viele KI Anbieter den Google Account als Login akzeptieren.

Noch ein paar Schritte weiter gedacht, könnte Google seinen Nutzern einen ganzen Marktplatz aus KI Tools mit vermutlich Millionen von Anwendungs- und Kombinations-Möglichkeiten anbieten. Und hätte so gleichzeitig Zugriff auf die besten Entwickler, die Kinderkrankheiten und weitere auftretende KI-Probleme schnell in den Griff kriegen. Ähnlich der Open Source Community, die im Software-Bereich sowieso schon eine enorm große Rolle spielt.

Darauf sollten Sie achten

  • Bei Large Action Models ist es noch einmal wichtiger, ausgiebige Tests im kleineren Rahmen durchzuführen, bevor wichtige Arbeits- und Geschäftsprozesse an die KI übergeben werden
  • Ohne menschliche Aufsicht wird es nie gehen. Am besten Kontroll-Prozesse einführen an Punkten, bevor massiver finanzieller Schaden entstehen kann.
  • KI ist skalierbar und verhält sich anders als Menschen. Das ist für Mitarbeiter oft schwer zu verstehen. Dauerhafte Schulungen und der Aufruf zum kritischen Denken, sollte daher Teil jedes KI Projekts sein.

Claude.AI als Co-Autor

Und auch Amazon hat mit seiner KI Strategie und der 4 Milliarden US-Dollar Beteiligung an Anthropic bestimmt großes vor. Der KI-Assistent Claude gilt laut Nutzer-Bewertung als empathischer als ChatGPT, weil er mehr Kontext hat und außerdem „besser für die Arbeit mit längeren Texten“ geeignet ist.

Das wird spannend, wenn der Weltgrößte Buchhändler in eine künstliche Intelligenz investiert hat, die gut mit Texten kann. Ob wir das demnächst an einer schlagartig steigenden Zahl von Fachbüchern auf dem Marktplatz sehen werden? Zumindest müssen Autoren, die ihre Werke auf Amazon hochladen, bereits heute angeben, ob sie alleine gearbeitet haben, oder künstliche Intelligenz bei der Erstellung des Werkes im Spiel war.

Was bedeutet das wiederum für Unternehmen und Personenmarken, die quasi ihre gesamte Sichtbarkeit in der Business Welt auf einem sogenannten „Buch Funnel“ aufbauen? Auch Claude kündigt bereits Team Funktionen an und hat es somit wohl langfristig ebenfalls auch Geschäftskunden abgesehen.

Perplexity AI als wissenschaftlicher Mitarbeiter

Während Microsoft, Google und Amazon KI zur Erweiterung und Zukunftssicherung des Hauptgeschäfts nutzen, werden wir in Zukunft vielleicht gar nicht mehr „googlen“ – oder „bingen“ – sondern „perplexitien“? Mindestens jedem Akademiker wird bei der Begegnung mit dieser KI das Herz aufgehen.

Perplexity plappert nicht einfach etwas vor sich hin, sondern macht einen smarteren Eindruck als viele andere und liefert neben Antworten auch Vermerke, Quellenangaben und Links gleich mit. Diese KI hat den Basis-Kurs wissenschaftliches Arbeiten besucht! Außerdem kann sie Texte, Bilder und Videos suchen sowie in der bezahlten Version auch Bilder generieren.

Während die Basisfunktionen und -Medien überall recht ähnlich sind, scheint die größte Herausforderung zu sein, überhaupt erst einmal herauszufinden, welches Tool was kann und für welchen Bedarf besonders gut funktioniert. Wobei, eigentlich funktioniert das anders herum. KI Enthusiasten probieren KI Assistenten aus und empfehlen sie dann im eigenen Netzwerk oder der digitalen Community weiter.

Mit oder durch KI in die Toplisten?

Durch eine Diskussion auf Linkedin ist mir diese Woche wieder klar geworden, wie wichtig es ist, in Sachen KI am Ball zu bleiben und das Ganze auch einmal kritisch zu hinterfragen.

KI wird gerade wenn es um Branchen-spezifische Herausforderungen geht, nicht einfach so da sein und funktionieren. Natürlich versuchen alle Anbieter genau das jetzt schon zu verkaufen. Aber das würde ich auch, wenn mein Börsenkurs den Boom schon eingepreist hat und ich das Ding jetzt auf die Straße beziehungsweise bei großen B2B Kunden durch den Einkauf kriegen muss. Bis das Ganze so fluffig läuft wie bereits versprochen, braucht es noch eine ganze Menge Human Brain Power – um smarte Lösungen zu bauen, aber auch Fehler in den Modellen zu bemerken und am besten frühzeitig zu korrigieren.

Testen lohnt sich trotzdem.