Parasoft-Logo

Entdecken Sie das TÜV-zertifizierte GoogleTest mit Agentic AI für C/C++-Tests!
Details ansehen »

Erleben Sie Servicevirtualisierung in Aktion!

Starten Sie Ihre 14-tägige kostenlose Testversion.

Loslegen

WEBINAR

Sehen Sie sich an, wie Sie mit Ihrem LLM-Klienten realistische Dienstleistungsabhängigkeiten aufbauen.

LLM-Clients haben sich schnell zu einem gängigen Werkzeug für Entwickler entwickelt, die Code schreiben und mit APIs arbeiten. Doch beim Testen dieser APIs stoßen die meisten Teams auf ein bekanntes Problem. Sie greifen auf manuell erstellte Mocks und fehleranfällige Stubs zurück oder warten darauf, dass andere Teams Zugriff auf abhängige Dienste gewähren.

In dieser Session erfahren Sie, wie Sie Ihren bestehenden LLM-Client nutzen können, um die benötigten Serviceabhängigkeiten zu simulieren, ohne das Tool wechseln oder komplexe Workflows erlernen zu müssen. Durch die direkte Verbindung eines LLM-Clients mit Parasoft Virtualize können Sie die API-Simulationen für Ihre Testfälle generieren und gleichzeitig die Erstellung, Bereitstellung und laufende Wartung KI-gesteuert durchführen lassen.

Schauen Sie sich diese Sitzung an, um zu erfahren, wie Service-Virtualisierung Es fügt sich in neue, KI-basierte Entwicklungs-Workflows ein. Sie sehen eine Demo, in der ein LLM-Client virtuelle Dienste in Echtzeit generiert, bereitstellt und verwaltet.

Wichtige Erkenntnisse

  • KI-Agenten und LLM-Clients können nun simulierte Serviceabhängigkeiten in Echtzeit generieren, bereitstellen und verwalten.
  • Dieser Ansatz ermöglicht es, auf einfache Weise realistische API-Simulationen zu erhalten, selbst wenn ein Dienst nicht verfügbar oder fertiggestellt ist.
  • Workflows lassen sich direkt in die Tools integrieren, die Entwickler bereits verwenden, wie GitHub Copilot, VS Code oder terminalbasierte Schnittstellen.

Die Verlangsamung: Serviceabhängigkeiten in einer Welt der Hochgeschwindigkeitsentwicklung

Entwickler können heutzutage mithilfe von KI-Tools in Rekordzeit Code erstellen. Sobald jedoch Integrationstests für eine API anstehen, verlangsamt sich der Prozess. Warum? Weil die abhängigen Dienste – ob real oder simuliert – nicht immer dann bereit sind, wenn man selbst bereit ist.

So sieht der übliche Ablauf aus:

  1. Programmieren Sie mit Ihrem KI-Assistenten (superschnell!).
  2. Wir stießen auf ein Problem, als wir auf die API eines anderen Teams oder einen nachgelagerten Dienst warteten.
  3. Handgefertigte Attrappen oder Stummel, die leicht zerbrechen oder unrealistisch wirken.
  4. Zeitverschwendung und Frustration.

KI verspricht eine Lösung: Was wäre, wenn Sie Service-Simulationen mit demselben LLM-Client generieren könnten, den Sie auch zum Codieren verwenden?

Verwendung von LLM-Agenten zur Simulation von Dienstabhängigkeiten

Parasoft Virtualisieren Funktioniert nun mit gängigen LLM-Clients mithilfe des sogenannten Model Context Protocol (MCP). Im Wesentlichen ermöglicht es KI-Agenten, zusätzliche Funktionen zu nutzen – wie beispielsweise das Erstellen und Aktualisieren virtueller APIs in Echtzeit.

Stellen Sie sich vor, Sie arbeiten in Ihrem Terminal und sagen: „Hey, erstelle einen simulierten Bestellservice für meine Test-App.“ Der LLM-Agent (wie Copilot oder Warp) kontaktiert Parasoft Virtualize, ermittelt Ihre Anforderungen, fragt gegebenenfalls nach einem Namen oder Bereitstellungspfad und richtet eine virtuelle API ein, die wie das Original reagiert.

Übliche Schritte:

  • Teilen Sie dem KI-Agenten mit, welchen simulierten oder virtuellen Dienst Sie benötigen.
  • Beantworten Sie ein paar Fragen, zum Beispiel wie Sie es nennen und wo Sie es einsetzen möchten.
  • Der KI-Agent kann sogar einen realen Endpunkt (sofern vorhanden) abfragen, um realistische Beispieldaten aufzuspüren – oder sie einfach erfinden.
  • Verhaltensweisen optimieren, weitere Beispielantworten hinzufügen oder die Daten anreichern – alles mit Hilfe von Anweisungen in einfacher Sprache.

Beispieltabelle: Schritte zum Generieren eines virtuellen Dienstes

Schritt Action
1 Prompt AI („Simulation der Auftragserstellungs-API“)
2 Dienstnamen und Pfad angeben
3 Die KI ruft Beispieldaten ab oder generiert Daten.
4 KI setzt den virtuellen Dienst ein
5 Starten Sie die Tests mit dem neuen Endpunkt.

Es ist flexibel – die KI kann sich mit Datenbanken und Jira verbinden oder Daten aus bestehendem Code und Tests abrufen, wodurch Ihre Simulationen intelligenter und aktueller werden.

Einführung der Servicevirtualisierung in die Pipeline

Und das Beste daran? Das alles lässt sich in Ihrer CI/CD-Pipeline automatisieren. Wenn ein Pull Request einen API-Vertrag aktualisiert oder einen neuen Dienst hinzufügt, kann der LLM-Agent Folgendes tun:

  • Siehe die Änderungen
  • Automatische Erstellung einer passenden virtuellen API
  • Stellen Sie es bereit, damit Entwickler und Tester sofort loslegen können.

Sie erhalten dynamische Testumgebungen, selbst wenn die tatsächlichen Abhängigkeiten noch nicht vorhanden sind.

Wie Teams profitieren: Von einmaligen Simulationen bis hin zu gemeinsamen virtuellen Dienstleistungen

Wenn Teams virtuelle Dienste als gemeinsam genutzte Bausteine ​​und nicht nur als einmalig verwendbare Simulationen betrachten, profitieren alle:

  • Sie vermeiden es, die gleiche Arbeit in verschiedenen Abteilungen zu wiederholen.
  • Tester können ihre eigenen Tests ausführen, ohne darauf warten zu müssen, dass Entwickler spezielle Stubs erstellen.
  • Die virtuellen Dienste bleiben durch neuen Code und API-Verträge stets auf dem neuesten Stand.
  • Die Servicevirtualisierung ist team- und projektübergreifend skalierbar.

Forschungsüberblick:
A QA-Finanzstudie Unternehmen, die Parasoft Virtualize einsetzen, konnten im Durchschnitt eine um 39 % kürzere Projektlaufzeit und einen Rückgang kritischer Fehler um 74 % verzeichnen als Teams, die keine Servicevirtualisierung nutzen.

Ein Schub für Kompetenzzentren und alltägliche Tester

Ein gängiger Ansatz zur Implementierung von Servicevirtualisierung in großen Unternehmen besteht darin, ein zentrales Kompetenzzentrum (COE) zu bilden, das alle gemeinsam genutzten virtuellen Dienste erstellt und wartet. Dies kann jedoch mitunter zu Engpässen führen, da Tester neue virtuelle Dienste beim CEO-Team anfordern müssen, um ihre Tests fortzusetzen, wenn Abhängigkeiten nicht verfügbar sind. Mit KI-Agenten können nun einzelne Teams und sogar Nicht-Entwickler:

  • Neue Service-Simulationen anfordern oder erstellen – mithilfe von natürlichsprachlichen Eingabeaufforderungen
  • Bestehende virtuelle Endpunkte selbstständig aktualisieren
  • Schnelle Generierung virtueller Dienste ohne Verlassen des KI-Arbeitsbereichs ermöglicht frühere Integrationstests.

Die Kompetenzzentren können weniger Zeit mit der grundlegenden Aufnahmearbeit und mehr Zeit mit der Integration, Schulung und Unterstützung komplexer Bedürfnisse verbringen.

Was sind Agentenfähigkeiten?

Stellen Sie sich „Agentenfähigkeiten“ wie wiederverwendbare Befehlsvorlagen oder Anweisungssätze für Ihren KI-Agenten vor. Anstatt Befehle neu zu schreiben, definieren Sie Fähigkeiten wie „Sicherheitstests aus statischen Analyseergebnissen generieren“ oder „10 Aufträge mit verschiedenen Status für die Auftrags-API synthetisieren“. Dadurch können Agenten die Konventionen Ihres Teams automatisch befolgen.

Sie können Fähigkeiten auf persönlicher, Team- oder Organisationsebene aufbauen – denken Sie an Mini-Leitfäden für Ihre KI.

Fazit

KI-gestützte Servicevirtualisierung Diese Lösung revolutioniert die Art und Weise, wie Entwickler und Tester mit abhängigen Diensten umgehen. Indem sie es jedem ermöglicht, virtuelle Dienste mit bereits vorhandenen Tools zu erstellen, zu pflegen und zu nutzen, werden Hürden abgebaut und Tests können schneller und häufiger durchgeführt werden. Weniger Wartezeit, weniger manuelle Arbeit – und deutlich weniger Ärger.

Wenn Sie neugierig sind, wie Sie dies in Ihr Team einbringen können, ist jetzt ein guter Zeitpunkt, es auszuprobieren – die Hürden sind gerade deutlich niedriger geworden.