Gehen Sie einen schnelleren, intelligenteren Weg zur KI-gestützten C/C++-Testautomatisierung. Erfahren Sie mehr >>
Whitepaper
Werfen Sie unten einen Blick auf eine Vorschau der wichtigsten Neuerungen aus unserem Whitepaper.
Künstliche Intelligenz (KI) und maschinelles Lernen (ML) revolutionieren sicherheitskritische eingebettete Systeme in Branchen wie der Automobilindustrie, dem Gesundheitswesen und der Verteidigungsindustrie. Von autonomen Fahrzeugen bis hin zur medizinischen Diagnostik ermöglichen diese Technologien revolutionäre neue Fähigkeiten und autonome Abläufe. Ihre Integration stellt sie jedoch vor große Herausforderungen.
Die Integration von KI/ML in diese Systeme geht über die bloße Einhaltung strenger Vorschriften hinaus. Sie erfordert einen zuverlässigen Betrieb unter erheblichen Einschränkungen. KI-Modelle benötigen beträchtliche Rechenleistung und Speicherkapazität, die in eingebetteter Hardware oft knapp sind. Noch kritischer ist, dass die Unvorhersehbarkeit mancher KI-Modelle ein direktes Risiko für die hohe Genauigkeit und Zuverlässigkeit darstellt, die sicherheitskritische Anwendungen erfordern.
In diesem Whitepaper werden wir diese Herausforderungen und die neuesten Fortschritte untersuchen und darauf eingehen, wie man:
Eingebettete Systeme unterliegen strengen Beschränkungen hinsichtlich Energie, Speicher und Rechenleistung. Beispiele hierfür sind medizinische Geräte, autonome Fahrzeuge und industrielle Steuerungssysteme. Es handelt sich dabei nicht nur um Softwareprojekte, sondern um physische Systeme mit klar definierten Leistungsgrenzen.
In den meisten Fällen fehlt der Platz für einen sperrigen Computerchip oder einen Lüfter zur Kühlung der Komponente. Ein weiterer Aspekt ist der Stromverbrauch. Viele eingebettete Systeme laufen mit Batterien, die jahrelang halten müssen. KI-Modelle hingegen, insbesondere große, verbrauchen Unmengen an Energie.
Selbst wenn man die Hardware verkleinert und den Stromverbrauch optimiert, kann der Dauerbetrieb komplexer KI zu Überhitzung führen. Hitze zerstört Elektronik. Doch es geht nicht nur um das Gerät selbst.
Eingebettete Systeme Sie arbeiten oft unter extremen Bedingungen: eisiger Kälte, sengender Hitze, vibrierenden Maschinen oder sogar unter Wasser. Wenn die Hardware den Elementen nicht standhält, ist die KI nutzlos. Integration von KI in eingebettete Systeme Es geht nicht nur darum, intelligentere Algorithmen zu programmieren. Es ist ein ständiges Tauziehen zwischen den Bedürfnissen der KI und den Gegebenheiten der physischen Welt.
Um das Potenzial von KI mit den Gegebenheiten vor Ort in Einklang zu bringen, setzen Entwickler Strategien ein, um die Modellgröße und den Rechenaufwand effektiv zu reduzieren und gleichzeitig die kritische Leistungsfähigkeit zu erhalten. Zu diesen Strategien gehören:
Wir werden beide Strategien später in diesem Whitepaper genauer behandeln.
Darüber hinaus stellen Determinismus, Zertifizierbarkeit und Widerstandsfähigkeit gegenüber widrigen Bedingungen Herausforderungen dar, die über die Leistungsoptimierung hinausgehen.
Die Implementierung von KI/ML in eingebetteten sicherheitskritischen Systemen folgt einem strukturierten Ablauf. Zunächst werden grundlegende Hardwarebeschränkungen durch Modelloptimierung wie Pruning und Quantisierung behoben, um die Effizienz zu gewährleisten. Anschließend werden Determinismus und Vorhersagbarkeit durch das Einfrieren von Modellen und die Verwendung statischer Speicherverwaltung sichergestellt.
Schließlich werden Sicherheit und Zertifizierbarkeit durch die Integration von erklärbarer KI (XAI) für Transparenz und die Einbettung des Modells in ein System regelbasierter Schutzmechanismen zur Laufzeit erreicht, wodurch die Einhaltung strenger Industriestandards gewährleistet wird.
Sicherheitskritische Systeme wie Kfz-Bremsen und Flugsteuerungen erfordern deterministisches Verhalten, d. h. konsistente und vorhersagbare Ausgaben für gegebene Eingaben innerhalb garantierter Zeitvorgaben. KI/ML-Modelle, insbesondere neuronale Netze, sind jedoch von Natur aus probabilistisch und liefern häufig nichtdeterministische Ausgaben. Man denke beispielsweise an autonome Fahrzeuge, die eine Hinderniserkennung in Sekundenbruchteilen benötigen. Jede unvorhersehbare Verzögerung könnte den Bremsvorgang um Millisekunden verzögern und somit die Sicherheitsanforderungen verletzen. Sicherheitsnorm ISO 26262.
Das Einfrieren trainierter Modelle (Sperren der Gewichte, um Laufzeitabweichungen zu verhindern) und die Verwendung statischer Speicherverwaltung zur Eliminierung von Zeitvariabilität erzwingen Deterministik. Dies wiederum gewährleistet vorhersagbare Echtzeitreaktionen.

Sicherheitskritische Systeme müssen strenge Zertifizierungsstandards wie ISO 26262 (Automobilindustrie) oder IEC 62304 (Medizintechnik) erfüllen. Die „Black-Box“-Natur vieler KI/ML-Modelle mit ihren intransparenten Entscheidungsprozessen stellt jedoch eine grundlegende Herausforderung dar, da es schwierig ist, Entscheidungen nachzuvollziehen und ihre Robustheit nachzuweisen.
Um dem entgegenzuwirken, können Entwicklungsteams eingebetteter Systeme die Systemsicherheit und Zertifizierbarkeit durch die Implementierung von Schutzarchitekturen verbessern. Bei diesem Ansatz wird das KI-Modell als eine Komponente innerhalb eines größeren, verwalteten Systems betrachtet. Das umgebende System wird dann mit expliziten Sicherheitsschichten ausgestattet, die das Verhalten der KI überwachen und einschränken.
Dies kann Folgendes umfassen:
Durch die Einbettung der KI in einen solchen Schutzrahmen können Teams ein insgesamt sichereres, besser vorhersagbares und besser zertifizierbares System schaffen, wodurch die Einhaltung von Standards wie ISO 26262 oder FDA-Richtlinien ermöglicht wird.
Eingebettete Systeme operieren häufig in unkontrollierten Umgebungen, wie beispielsweise Industrieroboter und Drohnen. Sie sind Angriffen ausgesetzt, etwa durch manipulierte Sensordaten, die ML-Modelle täuschen und zu Fehlklassifizierungen führen sollen. Ein konkretes Beispiel hierfür ist der gehackte Dosierungsalgorithmus einer Insulinpumpe: Wenn manipulierte Daten die Sicherheitsprüfungen umgehen, kann es zu einer Überdosierung kommen.
Um Modellen Widerstandsfähigkeit gegenüber widrigen Bedingungen zu verleihen, gibt es verschiedene Möglichkeiten.
Teams können Risiken weiter minimieren, indem sie Update-Protokolle absichern, beispielsweise durch kryptografisch signierte OTA-Patches, und Redundanz schaffen, etwa durch Abstimmungssysteme für mehrere Modelle. Diese Maßnahmen bilden mehrschichtige Schutzmechanismen, die die Flexibilität von KI/ML mit den strengen Sicherheitsanforderungen eingebetteter Systeme in Einklang bringen.
Die Wahrscheinlichkeitsnatur von KI/ML-Ergebnissen, wie beispielsweise Konfidenzintervallen, spiegelt die statistischen Zuverlässigkeitsmetriken wider, die für Hardwarekomponenten verwendet werden. Obwohl die Risikoquellen unterschiedlich sind, gelten die Kernprinzipien der Risikominderung gleichermaßen. Diese Kernprinzipien sind:
Organisationen legen Kriterien für die Risikoakzeptanz bei Hardwareausfällen in sicherheitskritischen Systemen fest, beispielsweise tolerierbare Ausfallraten für Komponenten wie Sensoren oder Prozessoren. Ebenso müssen sie Risikoschwellenwerte für KI/ML-gesteuerte Systeme definieren.
Dieser Prozess beinhaltet die Quantifizierung und Qualifizierung der durch KI/ML entstehenden Risiken im Hinblick auf die Sicherheitsziele des Systems, regulatorische Anforderungen und gesellschaftliche Erwartungen. Beispielsweise könnte ein Entwickler autonomer Fahrzeuge festlegen, dass die Fehlklassifizierungsrate eines neuronalen Netzes einen bestimmten Schwellenwert nicht überschreiten darf, um die allgemeinen Sicherheitsziele des Systems zu erreichen. Dies ist vergleichbar mit der Begrenzung der Ausfallrate einer Hardwarekomponente.
Es gibt jedoch wesentliche Unterschiede in der Art und Weise, wie Teams Risiken bewerten und managen. Physikalische Abnutzung, Herstellungsfehler oder Umwelteinflüsse sind häufig die Ursache für Hardwareausfälle. Diese Ausfälle sind zwar probabilistisch, aber durch historische Daten und standardisierte Tests, wie beispielsweise die mittlere Betriebsdauer zwischen Ausfällen (MTBF), relativ gut charakterisiert.
Die Risiken von KI/ML resultieren hingegen aus algorithmischer Unsicherheit, Datenabhängigkeiten und emergenten Verhaltensweisen, die sich einer deterministischen Analyse entziehen. Beispielsweise kann ein Modell des maschinellen Lernens im Testbetrieb einwandfrei funktionieren, aber unvorhersehbar versagen, wenn es mit neuen, realen Szenarien konfrontiert wird, die nicht in seinen Trainingsdaten enthalten sind.
Trotz dieser Unterschiede bleibt das Grundprinzip dasselbe: Organisationen müssen akzeptable Risikoniveaus auf der Grundlage des betrieblichen Kontexts des Systems, des potenziellen Schadens und der Möglichkeiten zur Risikominderung definieren.
Regulierungsstandards wie ISO 26262 für Automobilsysteme und IEC 61508 für industrielle Sicherheit Sie erfordern bereits eine strenge Risikoklassifizierung für Hardware und Software. Ein Beispiel hierfür sind die Automotive Safety Integrity Levels (ASILs).
Für KI/ML entstehen analoge Rahmenwerke. ISO 21448, „Sicherheit der beabsichtigten Funktionalität (SOTIF) autonomer Systeme“, befasst sich mit den Leistungsgrenzen KI-gesteuerter Komponenten. Diese Rahmenwerke betonen, dass KI/ML-Risiken – genau wie Hardware-Risiken – begrenzt, validiert und kontinuierlich überwacht werden müssen, um sicherzustellen, dass sie innerhalb akzeptabler Grenzwerte bleiben.
Definieren Sie akzeptable Ausfallwahrscheinlichkeiten für KI/ML-Ausgaben, wie z. B. Objekterkennungsfehler in selbstfahrenden Autos, die den allgemeinen Sicherheitszielen des Systems entsprechen.
Kombinieren Sie traditionelle Sicherheitstechnik (FMEA, Fehlerbaumanalyse) mit KI-spezifischen Methoden (Erklärbarkeitswerkzeuge, Robustheitstests), um Risiken ganzheitlich zu bewerten.
Im Gegensatz zu statischen Hardwarekomponenten können sich KI/ML-Systeme beispielsweise durch Updates oder Nachschulungen weiterentwickeln, was eine kontinuierliche Neubewertung der Risiken erforderlich macht.
Die Integration von KI und ML in eingebettete sicherheitskritische Systeme birgt sowohl Chancen als auch Herausforderungen. KI-gesteuerte Automatisierung Die Verbesserung der Systemleistung führt jedoch auch zu Komplexitäten wie Nichtdeterminismus, Compliance-Hürden und Sicherheitslücken. Um Zuverlässigkeit zu gewährleisten, ist eine Kombination aus Modelloptimierungstechniken, spezialisierter Hardware und strengen Verifizierungsmethoden erforderlich.
Techniken wie Pruning, Quantisierung und spezialisierte Hardware ermöglichen es KI, innerhalb eingebetteter Beschränkungen effizient zu funktionieren. Sicherheit und Compliance erfordern jedoch zusätzliche Maßnahmen:
Diese Strategien tragen dazu bei, die der KI inhärente Unvorhersehbarkeit zu mindern und die Einhaltung von Sicherheitsstandards wie ISO 26262 und IEC 62304 zu gewährleisten. Letztendlich hängt der erfolgreiche Einsatz von KI in eingebetteten Systemen von einem ausgewogenen Verhältnis zwischen Innovation und regulatorischer Konformität ab. Mit der Weiterentwicklung KI-spezifischer Verifizierungsmethoden wird die Integration traditioneller Software-Sicherheitspraktiken mit KI-gestützten Techniken unerlässlich sein, um sicherzustellen, dass KI-gesteuerte eingebettete Systeme in realen Anwendungen sicher, zuverlässig und zertifizierbar bleiben.
Bereit, tiefer einzutauchen?