Vorbereitete Chat-Instanz (z. B. new ChatOllama({ model: 'llama3.2', temperature: 0 })
).
VS Code Output-Channel für Logs/Status.
Protected
modelVorbereitete Chat-Instanz (z. B. new ChatOllama({ model: 'llama3.2', temperature: 0 })
).
Protected
outputOutput-Channel für Logs und Hinweise.
Baut den SelectorsPrompt aus Gherkin-Feature und HTML-Snapshot und startet die Generierung.
Inhalt der .feature
-Datei (Gherkin).
HTML-Snapshot der Zielseite.
Bereinigter, validierter und ggf. auto-reparierter TypeScript-Code (nur Code, keine Erklärungen).
Protected
safeFührt einen sicheren Modellaufruf mit einem einzigen HumanMessage
aus
und gibt die reine Textantwort zurück.
Handhabt interne Fehler und schreibt verständliche Hinweise in den
Output-Channel (z. B. ob ollama serve
läuft oder das Modell gepullt ist).
Vollständiger Prompt-String für das Modell.
Inhalt der Modellantwort als String (Code/Plaintext – ohne weitere Struktur). Arrays werden rekursiv zusammengeführt.
Protected
unwrapEntpackt unterschiedliche Antwortformen (String, Array, Sonstiges) zu einem einheitlichen String.
Antwortinhalt aus der LLM-Nachricht (AIMessage.content
).
Zusammengeführter Text. Für Arrays werden die Elemente rekursiv
zu Zeilen zusammengefügt; null/undefined
wird als leerer String
behandelt.
Agent zur Generierung/Normalisierung von Cypress-Selektoren. Baut Prompts aus Feature + HTML, ruft das LLM über die Basisklasse auf und stellt sicher, dass am Ende reiner TS-Code zurückgegeben wird.