Interview mit CarbonFreed-Gründer Marko Ibsch zur Umsetzung der NELEV Novelle und Änderung der Leistungsgrenze für die Anlagenzertifizierung

Proof-Of-Concept mit LLM-API von OpenAI: Realisierung eines QA-Systems

Proof-Of-Concept mit LLM-API von OpenAI: Realisierung eines QA-Systems

Der Einsatz von LLM (Large Language Model) zur Verarbeitung von großen Datenmengen wurde im letzten Blogeintrag grob beschrieben. Nun geht es in diesem Beitrag darum, dieses Konzept in ein produkt-ähnliches Proof-Of-Concept (PoC) umzusetzen.

Zwei Hauptrichtungen

Es gibt momentan hauptsächlich zwei große Richtungen, wie man LLM einsetzt. Das eine ist Fine-Tuning und das andere ist In-Context-Learning. Im letzten Blogbeitrag wurde kurz erwähnt, dass ein Sprachmodell extra für VDE-AR-N-4110 domänenspezifisch trainiert wurde, das beschreibt den Vorgang von Fine-Tuning. Mit diesem PoC untersuchen wir die Möglichkeit von In-Context-Learning.

Datenmengen nach VDE-AR-N 4110 können mit einer ausgewählten KI verarbeitet und fachspezifische Fragen beantwortet werden.

 

Bei In-Context-Learning wird ein bereits trainiertes LLM eingesetzt. Alle Steuerung und Kontrolle über das LLM geschieht durch Instruktionen und Daten im Prompt. Das LLM „lernt“ anhand des Kontexts im Prompt und generiert entsprechende Ausgaben.

Nutzung von OpenAIs GPT 3.5 für Vorgehensweise nach VDE-AR-N 4110

In unserem Fall haben wir uns zunächst für OpenAIs GPT 3.5 Modell entschieden.

Alle Passagen der VDE 4110 Norm wurden in numerischer Vektordarstellung in einer Datenbank gespeichert, dazu verwenden wir die Embedding-Funktionalität von OpenAI, die die Umwandlung in Vektordarstellung ermöglicht.

Eine Abfrage wird zunächst ebenfalls in die Vektordarstellung umgewandelt und anhand des gängigen KNN-Algorithmus mit den Einträgen in der Datenbank verglichen.

Aufbau der KI.

 

Aus den Abfragen werden Textpassagen, die die größte numerische Ähnlichkeit mit der Abfrage haben, aufgelistet. Das LLM benutzt diese Textpassagen als Kontext, um spezielles Wissen zu der VDE-Norm zu „lernen“, und generiert daraus einen zusammenhängenden Text.

Datenmengen nach VDE-AR-N 4110 können mit einer ausgewählten KI verarbeitet und fachspezifische Fragen beantwortet werden.

 

Der Einsatz von LLM ist zwar nicht teuer, aber auch nicht kostenfrei. Mit dem Hinblick auf die Skalierbarkeit des Systems wäre es sinnvoll, eine separate Datenbank anzulegen, um qualitativ hochwertige Antworten, die bereits durch LLM generiert sind, zu speichern.

Wie man hier in dem Screenshot sehen kann, sucht sich der Algorithmus immer die Antwort aus, die die größte Übereinstimmung mit der Abfrage hat. Die Antwort auf die Frage, ob man mit einer 100 kW Anlage ein Anlagenzertifikat B braucht, wurde für die nächste Abfrage aktualisiert.

Beispielfrage in der KI.

 

Für die Fälle, von denen die Norm keine Antwort liefern kann, besteht die Möglichkeit, das Frage-Antwort-Paar manuell einzugeben.

 

Datenmengen nach VDE-AR-N 4110 können mit einer ausgewählten KI verarbeitet und fachspezifische Fragen beantwortet werden.

Durch dieses System könnte man ein System bauen, in dem alle möglichen Fragen und Antworten sowohl zu VDE-AR-N 4110 als auch zu allen möglichen Regelungen gesammelt, gespeichert und verarbeitet werden.

 

Hier erfahrt ihr mehr über unsere aktuellen Entwicklungen wie unser KI-Chatbot und gridcheck, und über die Idee hinter der KI-Software.

Solar- und Speicheranlagen mit gridcert auf der Überholspur zertifizieren!

Ähnliche Blogartikel

CarbonFreed auf der Intersolar Europe 2025
CarbonFreed ist Teil der Intersolar 2025, die im Mai im Rahmen der The Smarter E Europe stattfindet.
Der Energizer: Folge 3 und 4 online
CBDO Leonie und CEO Marko von CarbonFreed sprechen in Folge 3 und 4 des Energizers über den Markt der Erneuerbaren und die Bedeutung von Großspeichern für die Energiewende.
BSW-Solar: Speichermarkt wächst rasant 
Die Nachfrage nach Batteriespeichern in Deutschland steigt unaufhaltsam. 2023 wurden rund 600.000 neue Speicher installiert – ein Marktwachstum von 50 Prozent.
Nach oben scrollen