Abstract
Protected
constructorVorbereitete Chat-Instanz (z. B. new ChatOllama({ model: 'llama3.2', temperature: 0 })
).
Output-Channel für Logs und Hinweise.
Protected
modelVorbereitete Chat-Instanz (z. B. new ChatOllama({ model: 'llama3.2', temperature: 0 })
).
Protected
outputOutput-Channel für Logs und Hinweise.
Protected
safeFührt einen sicheren Modellaufruf mit einem einzigen HumanMessage
aus
und gibt die reine Textantwort zurück.
Handhabt interne Fehler und schreibt verständliche Hinweise in den
Output-Channel (z. B. ob ollama serve
läuft oder das Modell gepullt ist).
Vollständiger Prompt-String für das Modell.
Inhalt der Modellantwort als String (Code/Plaintext – ohne weitere Struktur). Arrays werden rekursiv zusammengeführt.
Protected
unwrapEntpackt unterschiedliche Antwortformen (String, Array, Sonstiges) zu einem einheitlichen String.
Antwortinhalt aus der LLM-Nachricht (AIMessage.content
).
Zusammengeführter Text. Für Arrays werden die Elemente rekursiv
zu Zeilen zusammengefügt; null/undefined
wird als leerer String
behandelt.
Abstrakte Basisklasse für alle LLM-gestützten Agents.
Zentralisiert:
ChatOllama
),Remarks
llama3.2
,temperature: 0
) und reicht es an konkrete Agents weiter.SelectorsAgent
,StepsAgent
oderRefactorAgent
rufen die LLM-Interaktion über BaseAgent.safeInvoke auf und kümmern sich nur um Prompt-Aufbau und Nachbearbeitung.Example