| Variable | Source | Value | Phase Status |
|---|---|---|---|
| User Story |
|
Empty
|
|
| System Doc: Webform Policy Application |
|
Empty
|
|
| System Doc: Policy Manager |
|
Empty
|
|
| System Doc: Application Data Service |
|
Empty
|
|
| System Doc: Output Service |
|
Empty
|
|
| System Doc: End-to-End |
|
Empty
|
Erstelle eine kurze, präzise Zusammenfassung des Systemkontexts und der Testgrenzen für die gegebene User Story. ## Systemkontext (kurz) - In Scope: [betroffene Systeme/Komponenten/Prozesse] - Out of Scope: [nicht betroffene Bereiche] ## Testfokus - Schwerpunkte: [wesentliche Prüfziele] - Wichtige Datenpunkte: [wesentliche Werte/Felder]
User Story:
{userInput}
Systemdokumentation:
Webform Policy Application: {system_doc_webform_policy_application}
Policy Manager: {system_doc_policy_manager}
Application Data Service: {system_doc_application_data_service}
Output Service: {system_doc_output_service}
End-to-End: {system_doc_end_to_end}
Analysiere die User Story innerhalb der Systemgrenzen und formuliere 8–12 präzise Fragen zu Kernaspekten (Geschäftslogik, Daten, Ausnahmen, Randwerte, Integrationen). Nummeriere die Fragen 1..n.
User Story:
{userInput}
Systemgrenzen:
{system_context_extraction}
Analysiere die Dokumentation im Kontext der Fragen. Erzeuge eine Tabelle: | ID | Frage | Relevanter Abschnitt | Antwort | |----|-------|----------------------|---------| Regeln: - Nur Fragen aufnehmen, die aus diesem Chunk beantwortbar sind - Keine Markdown-Syntax in Zellen - Innerhalb der Systemgrenzen bleiben - Tabelle muss gültiges Markdown sein
Systemgrenzen:
{system_context_extraction}
Fragen:
{user_story_analysis}
Dokumentation (Webform Policy Application):
{system_doc_webform_policy_application}
Wie oben. Gleiche Tabellenspalten und Regeln.
Systemgrenzen:
{system_context_extraction}
Fragen:
{user_story_analysis}
Dokumentation (Policy Manager):
{system_doc_policy_manager}
Wie oben. Gleiche Tabellenspalten und Regeln.
Systemgrenzen:
{system_context_extraction}
Fragen:
{user_story_analysis}
Dokumentation (Application Data Service):
{system_doc_application_data_service}
Wie oben. Gleiche Tabellenspalten und Regeln.
Systemgrenzen:
{system_context_extraction}
Fragen:
{user_story_analysis}
Dokumentation (Output Service):
{system_doc_output_service}
Wie oben. Gleiche Tabellenspalten und Regeln.
Systemgrenzen:
{system_context_extraction}
Fragen:
{user_story_analysis}
Dokumentation (End-to-End):
{system_doc_end_to_end}
Extrahiere testrelevante Anforderungen, Daten und Abdeckungsbereiche. Erzeuge Abschnitte und Tabellen: ### Datenpunkte (änderungsrelevant) | Datenpunkt | Gültige Werte | Ungültige Werte | Änderungsbezug | |------------|---------------|-----------------|----------------| ### Abdeckungsbereiche | Bereich | Begründung | Priorität | |--------|-----------|----------| ### Anforderungen | Anforderung | Einfluss der Änderung | Testansatz | |-------------|-----------------------|-----------| Regeln: - Nur dokumentierte Informationen verwenden - Unbekanntes mit "Nicht dokumentiert" kennzeichnen
User Story:
{userInput}
Systemgrenzen:
{system_context_extraction}
Analysen:
Webform: {analysis_webform_policy_application}
Policy Manager: {analysis_policy_manager}
Application Data Service: {analysis_application_data_service}
Output Service: {analysis_output_service}
End-to-End: {analysis_end_to_end}
Erzeuge eine Liste präziser Nachfragen zu fehlenden Werten/Regeln/Randbereichen. Nummeriere die Fragen.
User Story:
{userInput}
Systemgrenzen:
{system_context_extraction}
Anforderungsanalyse:
{test_requirements_analysis}
Beantworte die Nachfragen anhand aller Doku-Chunks. Erzeuge Tabelle: | Frage | Relevanter Abschnitt | Antwort | |-------|----------------------|---------| Regeln: - Keine Markdown-Syntax in Zellen - Quelle angeben, falls vorhanden - Wenn nicht auffindbar: "Nicht dokumentiert"
Systemgrenzen:
{system_context_extraction}
Nachfragen:
{missing_data_followup}
Webform: {system_doc_webform_policy_application}
Policy Manager: {system_doc_policy_manager}
Application Data Service: {system_doc_application_data_service}
Output Service: {system_doc_output_service}
End-to-End: {system_doc_end_to_end}
Leite aus Kontext/Anforderungen einen klaren, konsolidierten Ablauf über die beteiligten Anwendungen ab. Gib eine kurze nummerierte Liste aus, wobei jeder Schritt die verantwortliche Anwendung im Präfix trägt, z. B. [Webform], [Policy Manager], etc.
Systemkontext:
{system_context_extraction}
Anforderungen:
{test_requirements_analysis}
Nachschlage-Ergebnisse:
{followup_answers}
Du bist Test-Analyst. Erzeuge aus Kontext/Anforderungen/Nachschlage-Ergebnissen GENAU EINEN manuellen Testfall auf Deutsch. ANFORDERUNGEN: - Eine EINZIGE Markdown-Tabelle mit den Spalten: | Aktion/Schritt | Testdaten | Erwartetes Ergebnis | - Konsolidiere alle notwendigen Schritte über die Anwendungen in sinnvoller Reihenfolge. Nutze in der ersten Spalte Präfixe zur Klarstellung der Anwendung, z. B. [Webform], [Policy Manager], [Application Data Service], [Output Service]. - Verdichte positive/negative Varianten in einer linearen Schrittfolge; nutze eindeutige Bedingungen in der Aktionsspalte (z. B. "falls ungültiger Wert"). - Verwende ausschließlich dokumentierte Informationen und konkrete Werte. Unbekanntes als "Nicht dokumentiert" kennzeichnen. - Keine Gherkin-Syntax, keine zusätzlichen Überschriften oder Fließtext außerhalb der EINEN Tabelle. - Sprache: Deutsch.
User Story:
{userInput}
Systemkontext:
{system_context_extraction}
Anforderungen:
{test_requirements_analysis}
Nachschlage-Ergebnisse:
{followup_answers}
Konsolidierter Ablauf:
{cross_app_flow}