Warum LLMs nicht gleich KI sind
Large Language Models und künstliche Intelligenz sind dasselbe. Oder? Falsch. Gerade in industriellen Anwendungen greift diese Gleichsetzung zu kurz. Nikita Golovko, Principal Architect Industrial AI bei Siemens, erklärt im Videocast software-architektur.tv warum die Unterscheidung entscheidend ist.
Das Missverständnis
ChatGPT, Claude, Gemini. Für viele sind diese Systeme „die KI". Aber Large Language Models sind nur eine Teilmenge der künstlichen Intelligenz. Sie können Texte generieren, Fragen beantworten und Code schreiben. Sie sind gut in kreativen oder explorativen Aufgaben.
Aber KI ist mehr als Textproduktion. Es gibt Machine Learning für Vorhersagen, Computer Vision für Bilderkennung, Optimierungsalgorithmen für Logistik, Reinforcement Learning für Steuerungen. Jede dieser Technologien hat ihre eigene Stärke. Die richtige Zuordnung von Werkzeug und Problem führt zu besseren Ergebnissen.
Das Kernproblem: Wahrscheinlichkeit vs. Bestimmtheit
Im Zentrum von Golovkos Argument steht eine Grundspannung industrieller Automatisierung verlangt Zuverlässigkeit, Präzision und Kontrolle. KI-Modelle liefern inhärent unscharfe Ergebnisse. Ein LLM kann in zwei identischen Situationen unterschiedliche Antworten geben. Das ist kein Bug, das ist Feature.
Die Frage ist: Wie integriert man probabilistische Systeme in deterministische Umgebungen? Golovko betont, dass eine sichere Architektur nötig sei, die diesen Spannungsbogen auflöst. Nicht jedes Problem braucht ein LLM. Manchmal reicht ein simplerer Algorithmus, der zuverlässig dasselbe Ergebnis liefert.
Was wofür taugt
Generative KI punktet bei kreativen Aufgaben. Texte schreiben, Varianten erkunden, Ideen generieren. Andere KI-Verfahren eignen sich besser für Vorhersage- oder Optimierungsszenarien in der Produktion. Machine Learning für Qualitätskontrolle, Predictive Maintenance, Supply Chain Optimierung.
Die Industrie braucht nicht den nächsten Chatbot. Sie braucht Systeme, die zuverlässig Vorhersagen treffen, Prozesse optimieren und Abweichungen erkennen. Genau dort liegen die KI-Methoden, die selten in den Schlagzeilen stehen.
Was das konkret bedeutet
Wer KI einführt, sollte nicht mit dem schlagzeilenträchtigsten Modell anfangen, sondern mit dem passendsten. Ein LLM im Fertigungsprozess zu integrieren, wenn ein simpler Klassifikator besser arbeiten würde, ist wie einen LKW zum Einkaufen zu schicken. Möglich, aber ineffizient.
Das Problem ist nicht nur technisch, sondern auch organisatorisch. Viele Unternehmen springen auf den LLM-Zug auf, weil die Geschäftsführung ChatGPT gesehen hat und “sowas auch will”. Aber die Frage “Was soll das System konkret leisten?” wird selten gestellt. Textgenerierung ist nicht gleich Prozessoptimierung. Und ein Modell, das kreativ Varianten generiert, ist das falsche Werkzeug für eine Anomalieerkennung in der Produktion.
Persönliche Perspektive
Ich nutze täglich einen LLM-basierten Agenten für Texte, E-Mails, Code-Reviews und Recherchen. Aber wenn ich wissen will, ob der RAID-Controller auf einem meiner Server demnächst ausfällt, ist ein LLM das falsche Werkzeug. Dafür braucht es Predictive-Maintenance-Modelle, die auf Sensorwerten trainiert sind.
Golovkos Argument trifft einen Nerv: Die öffentliche Wahrnehmung von KI wurde von LLMs gekapert. Aber die KI, die in Fabriken, im Rettungsdienst oder in der Logistik den größten Nutzen stiftet, ist oft unsichtbar und hat nichts mit Textgenerierung zu tun.
Golovko tritt beim TechRiders Summit am 17. und 18. Juni 2026 auf dem Euronova Campus in Hürth bei Köln auf. Unter der Schirmherrschaft des Bundesministeriums für Digitales und Staatsmodernisierung mit über 140 Speakern. Themen: Industrial AI, Edge-Systeme, Cybersecurity.
Quellen: