Wilhelm Niehoff (Dipl. Mathematiker) hat nach einigen Jahren in Forschung und Lehre zur Wahrscheinlichkeitstheorie, Mathematischen Statistik und Informationstheorie an der Wilhelms Universität Münster, beim Bundesverband deutscher Banken zahlreiche Banken-Gremien zur Standardisierung des digitalen Geschäfts, zu Gesetzgebungsmaßnahmen in Europa geleitet, insbesondere als Projektleiter der Einführung des Euro-Buchgeldes für die deutschen Banken in Frankfurt, Brüssel und Paris. Über bankenübergreifende Initiativen in Deutschland wechselte er dann zur Hypovereinsbank/UniCredit in München, um die Projektleitung für die Bank in einem globalen e-Business Projekt in New York zu übernehmen. In der Bank befasste er sich mit technologischen Innovationen und dem Zahlungsverkehr und setzte u.a. regulatorische Projekte als Projektleiter um, zum Abschluss das konzernweite MiFID-Projekt, um danach ab Mitte 2007 die Geschäftsführung des Bank-Verlags zu übernehmen, bis Ende 2022 als Sprecher der Geschäftsführung. Seit Anfang 2023 widmet er sich in der selbst gegründeten synscale GmbH hochinnovativen Themen aus der Technologie mit ihren Auswirkungen auf Bankgeschäftsmodelle. Aktuell stehen dabei Verfahren der künstlichen Intelligenz, insbesondere Foundation Models, Large Language Models und Generative AI im Fokus.

Large Language Models und RAG

Zusammenfassung
Die Besonderheit an LLMs: sie können mit natürlicher Sprache befragt werden und antwoten auch mit natürlicher Sprache. Das dazu nötige Wissen wurde während des umfangreichen Trainings mit riesigen Datenmengen in den Parametern des LLM gespeichert („parametrischer Speicher“). Die manchmal unzureichende Qualität der Antworten, insbesondere in spezifischen Domänen lässt sich auf Basis von „In Context Learning“ – Ansätzen mit Methoden des Prompt-Engineerings oder des aufwändigeren Finetunings des LLMs verbessern. Dies ist eine von zwei Dimensionen der Verbesserungsmöglichkeiten, man ändert die Fähigkeiten des LLM und/oder die Qualität des zugeführten Kontextes.
Im letzten Beitrag dieser Serie zu generativer künstlicher Intelligenz wurde aufgezeigt, welche Eigenschaften und Schwachstellen LLMs aufweisen sowie Ansätze möglicher Verbesserungen. Bisher nicht genauer behandelt wurde eine weitere erwähnte Dimension der LLM-Verbesserung: die kontextuelle Erweiterung mittels eines Retrieval Augmented Generation (RAG)-Verfahrens, die es dem LLM ermöglicht externes Wissen zu nutzen, um aktuelle und fachspezifische Antworten zu geben. Im Rahmen dieses Blogbeitrags stellt Wilhelm Niehoff das RAG-Verfahren und aktuelle Entwicklungsansätze vor.

Continue reading »

Eigenschaften der LLMs, Schwachstellen und Verbesserungsmassnahmen bei der Domänenanpassung von Anwendungen

Die Übertragung des KI-Paradigmas „Foundation Models“ im Sprachbereich führt zu Large Language Models (LLMs), mit denen in natürlicher Sprache kommuniziert werden kann und die aufgrund des «breiten Trainings» für unterschiedliche Aufgaben vielfältig einsetzbar sind. Hierzu bedarf es jedoch Anpassungen der Modelle für die spezifischen Anwendungsdomänen. In diesem zweiten Teil seiner Blogserie stellt Wilhelm Niehoff die drei Methodenbereiche In Context Learning (ICL), Prompt-Engineering und Fine-Tuning vor, die hierfür genutzt werden. Durch die Ansprache und Nutzung der LLMs treten jedoch konstruktionsbedingte Schwächen wie Halluzinationen, fehlende Aktualität und Expertise in Detailthemen auf. Über die drei Methodenbereiche hinausgehend, existieren „aktuellste“ Ansätze wie zum Beispiel DSPy und TextGrad, die darauf abzielen, dem User die Konstruktion von Eingabeaufforderungen abzunehmen. Entsprechend werden die Schwächen beseitigt durch die Hinzunahme weiterer Komponenten, die durch LLMs koordiniert werden.

Continue reading »

Large Language Models: Entstehung-Nutzung-Weiterentwicklung

Große Sprachmodelle oder Large Language Models (LLMs) haben im Gebiet der maschinellen Sprachverarbeitung (Natural Language Processing, NLP) in den letzten fünf Jahren sowohl im Verständnis (Natural Language Understanding, NLU) als auch in der Erzeugung (Natural Language Generation, NLG) einen Quantensprung in der Entwicklung der Kommunikation mit Computern gemacht. Das ist mit ChatGPT auch einer breiten Öffentlichkeit bewusst geworden. Die Nutzungsmöglichkeiten in Unternehmen beginnen mehr und mehr relevant zu werden. In einer kleinen Serie von Beiträgen sollen die Entstehung, die Einbindungsmöglichkeiten in Prozesse und Auswirkungen der LLMs beschrieben werden. In diesem Beitrag soll die Entstehungsgeschichte der LLMs bis zum heutigen Status dargelegt werden, mit dem Ziel auf dieser Grundlage im nächsten Beitrag Stärken, Schwächen und Erscheinungsformen darzustellen.

Continue reading »