Gehen Sie einen schnelleren, intelligenteren Weg zur KI-gestützten C/C++-Testautomatisierung. Erfahren Sie mehr >>
KI und die Zukunft der Entwicklung funktionaler Sicherheitssoftware: Ein pragmatischer Weg nach vorn
KI verspricht, die funktionale Sicherheitssoftware zu revolutionieren, doch der Weg dorthin ist zweigleisig. Lesen Sie weiter, um einen pragmatischen Fahrplan für die sichere Nutzung von KI zu erhalten und die Entwicklung bereits heute zu beschleunigen. Dabei sollten Sie die Risiken der Einbettung in kritische Systeme sorgfältig berücksichtigen.
KI verspricht, die funktionale Sicherheitssoftware zu revolutionieren, doch der Weg dorthin ist zweigleisig. Lesen Sie weiter, um einen pragmatischen Fahrplan für die sichere Nutzung von KI zu erhalten und die Entwicklung bereits heute zu beschleunigen. Dabei sollten Sie die Risiken der Einbettung in kritische Systeme sorgfältig berücksichtigen.
Künstliche Intelligenz (KI) verändert Branchen in beispiellosem Tempo. Entwicklung eingebetteter Software Funktionale Sicherheitssysteme bilden da keine Ausnahme. Von der Automobilindustrie bis zur Luft- und Raumfahrt erforschen Entwickler, wie KI die Produktivität steigern, die Qualität verbessern und die Markteinführung beschleunigen kann. Doch wie bei jeder transformativen Technologie muss der Weg in die Zukunft mit Bedacht gewählt werden, insbesondere wenn es um die Sicherheit geht.
Lassen Sie uns zwei unterschiedliche Dimensionen der KI im Kontext der funktionalen Sicherheit untersuchen:
Obwohl beide vielversprechend sind, weisen sie sehr unterschiedliche Risikoprofile und Reifegrade auf. KI-gestützte Tools und Automatisierung verspricht kurzfristig eine Steigerung der Produktivität und Innovation in einem bekanntermaßen vorsichtigen Bereich, während der Einsatz von KI-Modellen in sicherheitskritischen eingebetteten Umgebungen zwar im Entstehen begriffen ist, aber eine gewisse Vorsicht und ein Bewusstsein für die Risiken erfordert.
Der Softwareentwicklungszyklus für sicherheitskritische Systeme ist bekanntermaßen streng. Normen wie DO-178C, ISO 26262 und IEC 61508 verlangen eine umfassende Dokumentation, Rückverfolgbarkeit und Verifizierung des gesamten Entwicklungsprozesses. Diese Komplexität ist zwar für die Sicherheit unerlässlich, verlangsamt aber oft Innovationen und erhöht die Kosten.
Hier kann KI glänzen – nicht als Ersatz für Ingenieure, sondern als deren Unterstützung. Human-in-the-Loop-Entwicklungsprozesse mit KI-gestützten Tools versprechen Produktivitätssteigerungen durch:
Diese Anwendungen sind deterministisch, überprüfbar und begrenzt, wodurch sie sich gut für sicherheitskritische Entwicklungsumgebungen eignen. Sie treffen keine autonomen Entscheidungen. Sie unterstützen Menschen dabei, bessere Entscheidungen zu treffen. Sicherheit kann nicht ausgelagert werden, aber geführte Prozesse können zu einer höheren Produktivität führen und so schnellere Lieferzyklen und mehr Innovation ermöglichen.
Es ist wichtig zu wissen, dass die bei der Entwicklung funktionaler Sicherheitssoftware verwendeten Tools Konformitätsstandards unterliegen können, um potenzielle unbeabsichtigte Fehler während des Entwicklungsprozesses zu vermeiden. Daher kann eine Qualifizierung erforderlich sein.
Um den Aufwand für die Tool-Qualifizierung zu minimieren und die sichere Entwicklung kritischer Anwendungen zu unterstützen, bieten Unternehmen wie Parasoft Qualifizierungskits für viele Embedded-Software-Tools an. In Zukunft wird Parasoft ein TÜV SÜD-Zertifikat für C/C++test CT mit GoogleTest um Organisationen zu unterstützen, die verschiedene Standards einhalten müssen.
Der Einsatz von KI-Modellen, insbesondere Inferenzmaschinen wie neuronalen Netzwerken, in eingebetteten Systemen bringt eine Reihe von Herausforderungen mit sich, die noch nicht vollständig gelöst sind.
Funktionale Sicherheit erfordert vorhersehbares Verhalten. KI-Modelle, insbesondere Deep-Learning-Systeme, sind von Natur aus probabilistisch. Ihre Ergebnisse können aufgrund geringfügiger Änderungen der Eingaben variieren, was ihre Validierung im Rahmen herkömmlicher Sicherheitsrahmen erschwert.
Große Sprachmodelle (LLMs) und andere generative KI-Systeme können Ergebnisse produzieren, die zwar plausibel klingen, aber sachlich falsch sind. In sicherheitskritischen Kontexten ist dies inakzeptabel.
KI-Modelle funktionieren oft wie Blackboxen. Im Gegensatz zu regelbasierten Systemen ist ihre interne Logik nicht leicht zu interpretieren. Diese mangelnde Erklärbarkeit untergräbt das Vertrauen und erschwert die Zertifizierung.
Während die Werkzeugautomatisierung bestehenden Standards entspricht, fehlt für den Einsatz von KI in eingebetteten Systemen ein ausgereifter regulatorischer Rahmen. Zwar laufen entsprechende Bemühungen, doch Konsens und Vorgaben befinden sich branchenübergreifend in unterschiedlichem Reifegrad. Ein Beispiel hierfür ist die KI-Roadmap der FAA in der Avionik oder neue Standards wie ISO 8800 im Automobilbereich.
Herkömmliche V&V-Methoden haben Schwierigkeiten, mit der nichtlinearen, hochdimensionalen Natur von KI-Modellen umzugehen. Der Nachweis, dass sich ein KI-System in allen Szenarien sicher verhält, ist eine enorme Herausforderung.
Angesichts dieser Realitäten sollte die kurzfristige Strategie für Organisationen, die im Bereich der funktionalen Sicherheit arbeiten, klar sein:
KI ist kein Allheilmittel, aber ein mächtiges Werkzeug. Im Bereich der funktionalen Sicherheit liegt ihr größter Nutzen heute in der Verbesserung des Entwicklungsprozesses, noch nicht im Ersatz deterministischer Logik in eingebetteten Systemen, obwohl auch in diesem Bereich Verbesserungen im Gange sind.
Durch die Konzentration auf die Werkzeugautomatisierung können Unternehmen ihre Produktivität steigern und Innovationen beschleunigen – ohne die strengen Sicherheitsstandards zu gefährden, die Leben schützen.
Die Zukunft der KI in eingebetteten Sicherheitssystemen wird kommen, muss aber auf Vertrauen, Transparenz und nachgewiesener Wirksamkeit basieren. Bis dahin sollten wir KI dort einsetzen, wo sie am stärksten ist: um Menschen dabei zu helfen, sicherere Systeme schneller zu entwickeln.
Gewährleistung der KI/ML-Sicherheit in eingebetteten Systemen