Vorbereitete Chat-Instanz (z. B. new ChatOllama({ model: 'llama3.2', temperature: 0 })
).
VS Code Output-Channel für Logs/Status.
Protected
modelVorbereitete Chat-Instanz (z. B. new ChatOllama({ model: 'llama3.2', temperature: 0 })
).
Protected
outputOutput-Channel für Logs und Hinweise.
Baut den StepsPrompt aus Feature, Selectors-Modulpfad/Inhalt und einer temporären Steps-Datei und startet die Generierung.
Gherkin-Featuretext (Inhalt der .feature
-Datei).
Inhalt der Selectors-TS-Datei (Exports der Helper).
Inhalt der temporären Steps-TS-Datei (Skelett mit TODOs).
Bereinigter TypeScript-Code mit vollständigen Step-Definitions.
Protected
safeFührt einen sicheren Modellaufruf mit einem einzigen HumanMessage
aus
und gibt die reine Textantwort zurück.
Handhabt interne Fehler und schreibt verständliche Hinweise in den
Output-Channel (z. B. ob ollama serve
läuft oder das Modell gepullt ist).
Vollständiger Prompt-String für das Modell.
Inhalt der Modellantwort als String (Code/Plaintext – ohne weitere Struktur). Arrays werden rekursiv zusammengeführt.
Protected
unwrapEntpackt unterschiedliche Antwortformen (String, Array, Sonstiges) zu einem einheitlichen String.
Antwortinhalt aus der LLM-Nachricht (AIMessage.content
).
Zusammengeführter Text. Für Arrays werden die Elemente rekursiv
zu Zeilen zusammengefügt; null/undefined
wird als leerer String
behandelt.
Agent zur Generierung der Cypress-Step-Definitions auf Basis eines Features und der zuvor erzeugten Selectors.
Verwendet StepsPrompt, ruft das Modell über die Basisklasse auf und bereinigt die Antwort zu kompilierbarem TS.