Autonomous Reply unterstützt Unternehmen dabei, mit neuen Methoden im Software-Testing, sicherere Systeme zu entwickeln und gleichzeitig Zeit zu sparen
Im Level 3 des Autonomen Fahrens wird das Backend, also die Cloud, zu einem integrierten Bestandteil des Ökosystems. Das bedeutet, die Komplexität im Zusammenspiel der Software-Module und Algorithmen für Funktionen nimmt stark zu, was die Entwicklung sicherer Systeme zu einer größeren Herausforderung macht.
Nach wie vor ist der Prozess, in dem die Sicherheit der Systeme getestet wird, einer der wichtigsten Abschnitte in der Entwicklung. Mit der neuen Komplexität geraten allerdings klassische Software-Test-Methoden, die alle Variablen berücksichtigen, an ihre zeit- und wirtschaftlichen Grenzen.
Zusätzlich zeichnet sich immer mehr ab, dass Machine-Learning-(ML)-Algorithmen die bisher handgeschriebenen Softwarecodes, vor allem bei komplexen und nichtlinearen Problemstellungen, verdrängen. Autonomous Reply nutzt virtuelle Testmethoden, damit Unternehmen schon während des Trainings von Machine-Learning-Modellen Szenarientests durchführen und dadurch Zeit sparen können.
Für das BlackBox-Testing von ML-Modellen setzt Autonomous Reply auf virtuelle Test-Tools. Dabei werden aus den Anforderungen an die Software, beziehungsweise an das System, Szenarien abgeleitet, die den Use Case am besten repräsentieren. Nach dieser Definition des Szenarios kann durch automatisierte Variationen der virtuellen Umgebung und weitere Parametrierungen eine Vielzahl an Simulationsdurchläufen erstellt werden. Diese Simulationen werden dann parallel nebeneinander in einer Cloud-Infrastruktur ausgeführt, um in relativ kurzer Zeit eine Vielzahl an Simulations-Iterationen zu automatisieren.
Das zu testende System wird in jedem Zeitschritt der Simulation mit den in der Anforderung definierten Systemgrenzen verglichen und ausgewertet. In diesem Prozess werden dem Tester Auffälligkeiten und Bugs als Auswertung zurückgemeldet und können für das erneute Training der Software mitberücksichtigt werden. Dadurch werden Fehler schon im ML-Trainingsprozess korrigiert. In der Software-Entwicklung für komplexe Systeme mit vermehrtem Nutzen von Machine-Learning-Algorithmen minimiert Autonomous Reply dadurch den Zeitaufwand für das Testing der Komponenten. Die Anwendung virtueller Simulationsabläufe macht die Komponenten zudem sicherer, weil mehr Bugs gefunden werden, die vor dem Release behoben werden können.