diva-e-cypress - v1.0.3
    Preparing search index...

    Class BaseAgentAbstract

    Abstrakte Basisklasse für alle LLM-gestützten Agents.

    Zentralisiert:

    • den Modellaufruf (LangChain ChatOllama),
    • Logging in das VS Code Output-Panel,
    • robustes Fehler-Handling inkl. hilfreicher Hinweise,
    • das Entpacken/Flatten der Modellantwort zu einem String.
    • Der Orchestrator erstellt das Modell (z. B. llama3.2, temperature: 0) und reicht es an konkrete Agents weiter.
    • Konkrete Implementierungen wie SelectorsAgent, StepsAgent oder RefactorAgent rufen die LLM-Interaktion über BaseAgent.safeInvoke auf und kümmern sich nur um Prompt-Aufbau und Nachbearbeitung.
    export class MyAgent extends BaseAgent {
    async generate(someInput: string): Promise<string> {
    const prompt = `Do something with: ${someInput}`;
    // Einheitlicher, fehlertoleranter Modellaufruf:
    const raw = await this.safeInvoke(prompt);
    return raw.trim();
    }
    }

    Hierarchy (View Summary)

    Index

    Constructors

    Properties

    Methods

    Constructors

    • Parameters

      • model: ChatOllama

        Vorbereitete Chat-Instanz (z. B. new ChatOllama({ model: 'llama3.2', temperature: 0 })).

      • output: OutputChannel

        Output-Channel für Logs und Hinweise.

      Returns BaseAgent

    Properties

    model: ChatOllama

    Vorbereitete Chat-Instanz (z. B. new ChatOllama({ model: 'llama3.2', temperature: 0 })).

    output: OutputChannel

    Output-Channel für Logs und Hinweise.

    Methods

    • Führt einen sicheren Modellaufruf mit einem einzigen HumanMessage aus und gibt die reine Textantwort zurück.

      Handhabt interne Fehler und schreibt verständliche Hinweise in den Output-Channel (z. B. ob ollama serve läuft oder das Modell gepullt ist).

      Parameters

      • prompt: string

        Vollständiger Prompt-String für das Modell.

      Returns Promise<string>

      Inhalt der Modellantwort als String (Code/Plaintext – ohne weitere Struktur). Arrays werden rekursiv zusammengeführt.

      Re-throws den Originalfehler nach Logging, damit der aufrufende Agent entscheiden kann, wie weiter verfahren wird.

      const answer = await this.safeInvoke("Return only valid TypeScript.");
      // -> "export function ... { ... }"
    • Entpackt unterschiedliche Antwortformen (String, Array, Sonstiges) zu einem einheitlichen String.

      Parameters

      • content: unknown

        Antwortinhalt aus der LLM-Nachricht (AIMessage.content).

      Returns string

      Zusammengeführter Text. Für Arrays werden die Elemente rekursiv zu Zeilen zusammengefügt; null/undefined wird als leerer String behandelt.