Ich hatte gestern ein interessantes Gespräch mit einem meiner Kontakte. Dabei ging es genau um diese
Frage: Was hält euch davon ab, diese Technologie einzusetzen bzw. von ihren Vorteilen zu profitieren?
Antwort: Bei uns hat schlicht keiner Zeit, sich mit diesem Thema auseinander zu setzen.
Das erinnert mich an die gute, alte Geschichte vom Holzfäller:
„Ein ehrgeiziger Holzfäller beginnt seine Arbeit mit großem Erfolg, fällt anfangs achtzehn Bäume pro Tag. Durch den Druck, diese Leistung zu wiederholen, vernachlässigt er jedoch die Pflege seiner Axt. Seine Produktivität nimmt ab, und als der Vorarbeiter nachfragt, gesteht der Holzfäller, dass er die Axt nie geschärft hat, weil er zu sehr mit dem Fällen von Bäumen beschäftigt war.“
PS: Die Zusammenfassung der Geschichte hat eine KI für mich übernommen
Ich beschäftige mich seit längerem (d.h. lange vor ChatGPT und “Attention is all you need”) mit vielen Varianten des Themas. Interessant finde ich, dass die Leute (v.a. fachfremde) gefühlt die falschen KIs für den falschen Einsatzzweck einsetzen würden. Also z.B. LLMs wie ChatGPT, um exakte Daten oder Berechnungen zu erfragen. Dabei war ja gerade das bahnbrechend überraschende, dass nicht die “stumpf berechnenden” KIs ala Data von Raumschiff Enterprise populär wurden, sondern die kreativen, die Marketingtexte, Märchen und künstlerische Bilder erzeugen können. Für exakte Fragen sind LLMs aber die falschen - sie können einfachste Berechnungen nur dann beantworten, wenn sie die Lösung im Internet gefunden hatten bzw. damit trainiert wurden. Das tückische ist, dass sie dennoch eine plausibel klingende, aber falsche Antwort geben - das berühmte Halluzinieren. Die Lösung, z.B. die Kombination aus Wolfram-Alpha, klassischem NN und LLM mit “Beweis-URLs” im Ergebnis ist zwar noch nicht da, wird aber sicherlich bald kommen.
Als kleines Beispiel was ich meine ein lustiges Experiment mit ChatCPT 3.5:
PS: LLMs können aber durchaus sagen wo man die richtige Lösung findet und sogar “berechnende” KIs (Fraud-Protection, Bilderkennung, Wettervorhersage, …) optimieren. Letzteres ist aber vermutliche eher etwas für Entwickler und nicht die breite Masse.
Direkte Antwort auf die Fragen:
Ja.
Verbesserung von Texten, Spracherkennung, Lösungsentwürfe, Ticket-Klassifikation, Muster-Mining usw.
Nichts - nur eben nicht die falsche KI für die falschen Aufgaben.
Einmal kann ich mein Produkt mit einer KI ausstatten. Das sehe ich aktuell schnell als schwierig, da ich dann irgendwie an die Cloud muss und das Thema Datenschutz dann mit meinen Kunden individuell diskutieren muss (Konzernumfeld).
Zur Unterstützung für uns selbst, bei der Entwicklung von Produkten, ist das ganze schon eher nutzbar. Der Erfolg ist aber schlecht quantifizierbar, damit kontrovers, und ein großes Problem ist das teilweise parallele Angebot. Nehmen wir die .NET Welt, so hat die interne KI schon ganz schön was drauf, GitHub CoPilot verbessert es für manche Situationen, aber es ist nicht immer transparent, was jetzt die Leistung der Erweiterung ist. Der zusätzliche interne Chat macht dann noch mal etwas Ahnliches, wie ich auch ChatGPT abverlangen kann.
Das Problem ist hier oft schlich, dass es ein Stundengrab ist und der Erfolg ist je nach Lage durchaus nur durchwachsen. Das macht den Vergleich mit der Axt nicht immer zutreffend.
Der Einsatz von KI kann auch rein lokal (ohne Cloud-Anbindung) realisiert werden. Das erleichtert die Einhaltung von Datenstandards natürlich.
Aber das ganze Thema Datenschutz DSGVO, GDPR, Firmenwissen und geistiges Eigentum ist enorm wichtig und darf nicht außer Acht gelassen werden.
Steffen hat das in seinem Blog ganz gut zusammen gefasst:
Das Potenzial von KI liegt im Einsatz von autonomen Agenten, mit der komplette Abläufe/Prozesse inzwischen sehr gut (teil)automatisiert werden können. Der Erfolg ist imho nicht durchwachsen und die „Leistung“ kann genau getrackt werden. Somit vergleichbar und müsste sich nach kurzer Zeit deutlich bemerkbar machen.