Open Source LLMs auf dem Vormarsch
In einer Zeit, in der künstliche Intelligenz in vielen Geschäftsprozessen schon tief verwurzelt ist, ist es logisch, dass die Zahl der Anbieter von z.B. Chatbots oder Diensten für automatisierte Datenanalyse schnell steigt. Allerdings zeichnet sich hier in der jüngeren Vergangenheit ein klarer Wechsel im Geschäftskurs ab: Europäische Hersteller wie Mistral AI aus Frankreich oder Apertus aus der Schweiz setzen auf offene Modelle und gewinnen unter anderem dadurch an Popularität. Immer mehr Anbieter distanzieren sich von geschlossenen Modellen und so bietet zuletzt auch der KI Riese OpenAI mit gpt-oss120b und gpt-oss20b zwei Versionen des weltweit verbreiteten LLMs Chat-GPT als Open-Source Software an. Doch woher kommt dieser Trend und welchen Einfluss hat er auf Ihr Unternehmen?
Um direkt mit altem Aberglauben aufzuräumen: Open-Source-LLM Modelle sind mittlerweile auf einem Leistungsniveau, welches den klassischen Modellen die Stirn bieten kann. OpenAI betont, dass ihre Open Source Variante gpt-oss-120b mit dem bisherigen Topmodell (o4-mini) in Sachen logischer Aufgaben problemlos mithalten und dabei auf einer einzigen 80GB-Grafikkarte betrieben werden kann.
Selbst die leichter gpt-oss-20b Version erzielt Ergebnisse, welche vergleichbar mit o3-mini sind und läuft dabei schon auf hochwertigen Laptops mit gerade mal 16GB Arbeitsspeicher.
Das bedeutet, dass Sie performante LLMs, welche Ihren Anforderungen mehr als gerecht werden, ohne große Kosten auf schon vorhandener Hardware betreiben können. So bleiben Sie stets in der Entscheidungsmacht darüber, wie das LLM trainiert werden soll und welche Daten hierfür herangezogen werden dürfen. In Sachen Sicherheit also ein maßgeblicher Vorteil.
In der Frage um den Nutzen von Open-Source Modellen, lassen sich viele gute Punkte anführen. Wir haben Ihnen im Folgenden die, unserer Meinung nach, wichtigsten Punkte für eine Open Source Lösung aufgearbeitet.
Falls mindestens einer dieser Punkte bei Ihnen auf Anwendung trifft, könnte der Wechsel auf ein Open Source LLM eine Überlegung wert sein. Aufgrund von unterschiedlichsten Informationsquellen kann allerdings die Frage, welches Modell am besten zu Ihren Bedürfnissen passt unter Umständen schwierig zu beantworten sein. Um etwas Klarheit zu schaffen, haben wir die aktuellen Neuigkeiten in diesem Bereich hier aufgeschlüsselt.
Mistral AI: Das französische Startup positioniert sich als europäische Alternative zu Big Tech. Mistral hat seit 2023 eine ganze Produktpalette offener LLMs vorgestellt von Mistral Large (General-Aufgaben) über das spezialisierte Devstral (Code-Generierung) bis hin zu Voxtral (Audioverarbeitung). Viele Modelle stehen unter Apache-Lizenz (z.B. Devstral, Les Ministraux für Edge-Geräte) und dürfen kommerziell genutzt werden. Mistral betont Wirtschaftlichkeit und Deployment-Flexibilität: So liefert das Modell Medium 3 laut eigenen Angaben „state-of-the-art performance at 8× lower cost”. Unternehmen können diese Modelle on-premises oder in eigenen Cloud-Umgebungen eingesetzt werden.
Neben diesem Open-Source-Kernprodukt bietet Mistral auch diverse Enterprise-Lösungen (APIs, On-Premise-Services, spezialisierte Assistenten). Große Firmen wie AI Swedden, Orange und Snowflake arbeiten bereits mit Mistral- und OpenAI-Open-Source-Modellen auf eigenen Servern und der französische Präsident Macron lobt Mistrals Chatbot Le Chat als Alternative zu Chat-GPT.
OpenAI GPT-OSS: Mit der gpt-oss-Serie (120B und 20B) hat OpenAI im Sommer 2025 ernst gemacht. Die Modelle sind unter Apache-2.0-Lizenz frei nutzbar und laut Hersteller auf geringe Kosten optimiert. In Tests erreichen gpt-oss-120b auf Logik- und Codierungs-Aufgaben praktisch die Qualität des bisherigen Topmodells o4-mini, wohingegen gpt-oss-20b dem kleineren o3-mini entspricht und dank 16-GB-Anforderung direkt auf Endgeräten läuft. OpenAI hebt hervor, dass Entwickler diese Modelle mit bestehenden APIs (z.B. Hugging Face, VLLM) nutzen, feinjustieren und mit eigenen Daten anreichern können. Damit setzt OpenAI ein starkes Zeichen: Diese open-weight-Modelle sollen allen eine eigene Infrastruktur ermöglichen.
Apertus
Mit Apertus haben ETH Zürich, EPFL und das CSCS im September 2025 ein vollständig offenes, mehrsprachiges LLM vorgestellt. Das Modell kommt in Varianten mit 8 und 70 Milliarden Parametern und ist unter einer permissiven Open-Source-Lizenz frei nutzbar.
Im Unterschied zu vielen anderen Open-Source-Modellen ist bei Apertus der gesamte Trainingsprozess transparent dokumentiert, inklusive Datensätzen, Checkpoints und Architektur. Zudem deckt es über 1000 Sprachen ab, mit starkem Fokus auf nicht-englische und seltene Dialekte, was es besonders attraktiv für europäische Unternehmen macht, die Modelle jenseits des englischen Bias einsetzen wollen.
In Benchmarks erreicht Apertus-70B Leistungen auf Augenhöhe mit GPT-3.5 und Mistral Large, bei Aufgaben wie Logik, Code und Multilingualität sogar bessere Ergebnisse in weniger verbreiteten Sprachen. Durch seine Offenheit und Sprachvielfalt bietet es damit einen klaren Wettbewerbsvorteil: Forschende und Unternehmen können es nicht nur frei anpassen, sondern auch in souveränen Infrastrukturen wie Swisscoms KI-Plattform betreiben.
Neben Mistral, OpenAI und Apertus gibt es weitere offene LLM-Angebote (z.B. Metas LLaMA-Modelle, Stable Beluga, Mixtral).
Zusammengefasst: Offene Sprachmodelle gewinnen in Unternehmen an Bedeutung, weil sie Flexibilität, Kostentransparenz und Datensicherheit bieten. Proprietäre Systeme haben dennoch klare Stärken: Sie sind in der Regel leistungsfähiger, da Unternehmen wie OpenAI, Anthropic oder Google Milliarden in Forschung und Training investieren. Zudem bieten sie garantierte Verfügbarkeit, umfassende Sicherheits- und Compliance-Zertifizierungen sowie direkten Support. Faktoren, die für viele Unternehmen im produktiven Einsatz entscheidend sind, doch OpenAI selbst signalisiert mit GPT-OSS, dass Open Source im KI-Markt kein Nischendasein mehr führt. Parallel treiben Pioniere wie Mistral und Apertus die Technologie aus Europa voran. Diese Entwicklungen ermöglichen es Firmen, KI-Lösungen dort einzusetzen, wo sie wirklich gebraucht werden und machen offene Modelle zu einem entscheidenden strategischen Vorteil.
Wir bei SquareNeo haben diesen Trend früh erkannt und setzen in unseren Projekten wie etwa unserem KI-getriebenen SalesCoach auf leistungsstarke Sprachmodelle. Damit Unternehmen die volle Kontrolle über ihre Daten behalten, bieten wir die Möglichkeit, die für Ihren Einsatz des Sales Coach verwendeten Modelle nicht nur in der Cloud, sondern auch lokal in Ihrer Infrastruktur oder bei uns zu betreiben.
So profitieren Sie von modernster KI in Ihren Vertriebsprozessen, ohne Kompromisse bei Datenschutz oder Compliance eingehen zu müssen. Egal ob On-Premise oder in unserer sicheren Hosting-Umgebung sorgen wir dafür, dass Ihr Sprachmodell zuverlässig läuft und optimal auf Ihre Anforderungen abgestimmt ist.
Buchen Sie eine kostenlose Beratung lassen Sie sich von unseren Services und Lösungen überzeugen auf: https://squreneo.de/demo.html .
Quellen: