In dieser Episode diskutieren wir die Herausforderungen und Lösungen beim Testen von Formularen. Wie kann der Tester einer immensen Vielfalt von Formularen und Eingabefeldern ausfallen?. Wir besprechen, wie diese Aufgabe durch den Einsatz von Automatisierung und modellbasierten Ansätzen erfolgreich bewältigt wurde. Der Fokus liegt auf der Verwendung von Datenmodellen, Validierungs- und Berechnungsregeln sowie der Implementierung automatisierter Tests, um den manuellen Aufwand erheblich zu reduzieren. Abschließend geht es darum, wie entscheidend es ist, frühzeitig Fehler zu erkennen und zu beheben, um eine hohe Qualität sicherzustellen.
“Wir hatten einen wahnsinnig hohen manuellen Testaufwand, bei dem wir im Endeffekt nicht mehr hinterhergekommen sind, dass wir alle Variationen wirklich abdecken.” – Lilia Gargouri, Simon Bergler
Lilia Gargouri, eine erfahrene Softwareentwicklerin und Leiterin der Qualitätssicherung bei mgm technology partners, zeichnet sich durch ein umfassendes technisches Wissen und herausragende Fähigkeiten in der kreativen Problemfindung aus. Ihre einzigartigen Fähigkeiten im kreativen Testen aus Anwendersicht, kombiniert mit ihrer tiefgreifenden Expertise in der End-to-End Testautomatisierung, machen sie zur treibenden Kraft hinter effizienter Qualitätssicherung, selbst bei komplexer und langlebiger Enterprise-Software.
Simon Bergler begann seine Karriere als Naturwissenschaftler mit einem Studium der Allgemeinen Biologie und einem Masterabschluss in Virologie. Nach drei Jahren im Projektmanagement in der Biotechnologie wechselte er als Quereinsteiger in die IT-Branche. Dort begann er bei mgm technology partners als manueller QA-Tester und wechselte wenig später erfolgreich in die Testautomatisierung. Simon kombiniert nun sein wissenschaftliches Know-how mit den erworbenen IT-Fähigkeiten, um qualitativ hochwertige Lösungen zu liefern.
Highlights in dieser Episode:
In dieser Podcast-Episode diskutieren Richie, Lilia und Simon die Herausforderungen und Lösungen beim Testen einer Vielzahl von Formularvariationen. Sie sprechen über die Bedeutung der Automatisierung und den Einsatz von Modellierungstools, um den Testaufwand zu minimieren.
Hallo und herzlich willkommen zu einer neuen Folge des Podcasts ‘Software Testing’. Ich bin Richie, euer Host, und freue mich, euch heute eine spannende Diskussion vom German Testing Day 2024 präsentieren zu können. Das heutige Thema ist das Testen von Formularen – eine scheinbar unendliche Aufgabe angesichts der Vielzahl an Varianten und Eingabefeldern. Unsere Gäste, Lilia und Simon, haben sich intensiv mit dieser Herausforderung auseinandergesetzt. In dieser Episode teilen sie ihre Erfahrungen und Lösungen, um den Formulardschungel zu meistern.
Lilia und Simon standen vor der Aufgabe, eine große Anzahl von Formularen zu testen, die für alle Bundesländer angepasst werden mussten. Diese Formulare stammten aus dem steuerlichen Kontext und hatten daher spezifische Anforderungen. Simon erklärt: ‘Im Wesentlichen ging es darum, dass wir uns um sehr viele Formulare gleichzeitig kümmern durften.’ Mit über 255 Formularvariationen pro Bundesland mit jeweils mehr als 100 Feldern wurde schnell klar, dass manuelle Tests nicht ausreichen würden. Die Komplexität war enorm und erforderte innovative Ansätze.
Die erste Erkenntnis war, dass manuelle Tests allein nicht ausreichend waren. ‘Wir hatten einen wahnsinnig hohen manuellen Testaufwand,’ erinnert sich Simon. Um dem entgegenzuwirken, setzten sie auf Automatisierung. Ein entscheidender Schritt war die Nutzung eines Datenmodells zusammen mit einem UI-Modell, das auf der A12-Low-Code-Plattform basiert. Lilia beschreibt: ‘Die Experten der Fachlichkeit gießen die gesamte Fachlichkeit des Formulars zunächst in ein Datenmodell.’ Diese Modelle ermöglichten es ihnen, die Testdaten automatisch zu generieren und so eine hohe Testabdeckung zu gewährleisten.
Ein weiteres Werkzeug im Arsenal von Lilia und Simon war der Einsatz eines SMT-Solvers zur Generierung valider Testdatensätze. ‘Dieser SMT-Solver umfasst die Implementierung von Algorithmen für die Feldbelegung,’ erklärt Lilia. Durch diese automatisierte Generierung konnten sie sicherstellen, dass ihre Tests immer auf aktuellen Daten basierten. Dies war besonders wichtig, da sich die Anforderungen häufig änderten. Weiterhin nutzten sie modellbasierte Ansätze, um automatisiert UI-Tests durchzuführen. Dadurch konnten sie den Wartungsaufwand minimieren und schnell auf Änderungen reagieren.
Die Ergebnisse ihrer Bemühungen waren beeindruckend. ‘Wenn wir alles zusammenrechnen und alles mal laufen lassen, dann schauen wir auf eine Gesamttestdauer von 12 bis 14 Stunden für ein Bundesland,’ berichtet Simon. Diese Zeit hätte manuell mehrere hundert Stunden in Anspruch genommen. Durch die Automatisierung konnten sie nicht nur Zeit sparen, sondern auch die Qualität ihrer Tests erheblich steigern. Sie entwickelten zudem eine Bibliothek für UI-Tests mit Smart-IDs, was den Prozess weiter optimierte.
Obwohl schon viele Fortschritte erzielt wurden, gibt es immer noch Raum für Verbesserungen. Lilia berichtet, dass aktuell an einer Lösung gearbeitet wird, um PDF-Inhalte automatisiert zu prüfen – ein wichtiger Aspekt für Branchen wie Versicherungen und e-Government. Zudem wird an einer Accessibility-Library gearbeitet, um sicherzustellen, dass alle Anwendungen barrierefrei sind. Diese kontinuierlichen Verbesserungen zeigen das Engagement des Teams für Qualität und Effizienz im Testprozess.