KI-gesteuertes Testen ist jetzt noch intelligenter. Entdecken Sie SOAtest 2025.1. >>
Zum Abschnitt springen
Ein praktischer Leitfaden für KI in sicherheitskritischen eingebetteten Systemen
Entdecken Sie die wichtigsten Herausforderungen beim Einsatz von KI und ML in eingebetteten Systemen. Erfahren Sie mehr über die Strategien, die Entwicklungsteams zur Gewährleistung von Sicherheit und Compliance einsetzen.
Zum Abschnitt springen
Zum Abschnitt springen
Künstliche Intelligenz (KI) und maschinelles Lernen (ML) verändern eingebettete sicherheitskritische Systeme in Branchen wie der Automobilindustrie, dem Gesundheitswesen und der Verteidigung. Sie ermöglichen evolutionäre Technologien, die den autonomen und effizienten Betrieb eingebetteter Systeme ermöglichen.
Die Integration von KI/ML in eingebettete sicherheitskritische Systeme bringt jedoch einzigartige Herausforderungen mit sich:
- Hohe Ausfallrisiken
- Strenge Compliance-Anforderungen
- Unvorhersehbares Modellverhalten
Stellen Sie sich ein autonomes Auto vor, das in Sekundenbruchteilen Bremsentscheidungen trifft, oder einen Herzschrittmacher, der lebensbedrohliche Herzrhythmusstörungen erkennt. Ein Ausfall ist für diese Systeme keine Option. KI-gestützte eingebettete Systeme.
Warum KI in sicherheitskritischen Systemen spezielle Tests erfordert
Eingebettete Systeme arbeiten unter strengen Einschränkungen hinsichtlich begrenzter Rechenleistung, Speicherkapazität und Energie. Gleichzeitig funktionieren sie oft in rauen Umgebungen mit extremen Temperaturen und Vibrationen.
KI-Modelle, insbesondere Deep-Learning-Netzwerke, erfordern erhebliche Rechenressourcen und erschweren so deren effiziente Implementierung. Zu den größten Herausforderungen für Entwicklungsingenieure zählen:
- Ressourcenbeschränkungen. KI-Modelle verbrauchen übermäßig viel Strom und Speicher und stehen im Konflikt mit den Einschränkungen eingebetteter Geräte.
- Determinismus. Sicherheitskritische Anwendungen wie autonomes Bremsen erfordern vorhersehbare Reaktionen in Echtzeit. Leider können KI-Modelle unvorhersehbares Verhalten zeigen.
- Zertifizierung und ComplianceRegulatorische Standards wie ISO 26262 und IEC 62304 verlangen Transparenz. KI-Modelle agieren jedoch oft als Blackboxes.
- Sicherheitsrisiken. Gegnerische Angriffe können KI-Modelle manipulieren und so gefährliche Fehler verursachen, beispielsweise die Manipulation einer falschen Dosierung bei medizinischen Geräten.
Um diese Hürden zu überwinden, setzen Ingenieure Optimierungstechniken, spezielle Hardware und strenge Testmethoden ein.
Strategien für einen zuverlässigen und sicheren Einsatz von KI/ML
1. Modelloptimierung: Beschneiden und Quantisieren
Da eingebettete Systeme keine massiven KI-Modelle unterstützen können, komprimieren Ingenieure sie, ohne dabei an Genauigkeit einzubüßen.
- Durch Pruning werden redundante neuronale Verbindungen entfernt. So hat die NASA beispielsweise 40 % des Geländeklassifizierungsmodells ihres Marsrovers beschnitten und so die Verarbeitungszeit um 30 % reduziert, ohne die Genauigkeit zu beeinträchtigen.
- Durch Quantisierung wird die numerische Präzision reduziert, wodurch der Speicherbedarf um 75 % gesenkt wird. Beispielsweise werden 32-Bit-Werte in 8-Bit-Ganzzahlen umgewandelt. Fitbit nutzte dies, um die Batterielaufzeit von Fitness-Trackern bei gleichbleibender Leistung zu verlängern.
2. Sicherstellung des Determinismus mit eingefrorenen Modellen
Sicherheitskritische Systeme wie Spurhalteassistenten, Insulinpumpen und die Flugsteuerung von Flugzeugen erfordern ein konsistentes Verhalten. KI-Modelle können jedoch bei unterschiedlichen Eingaben abweichen oder sich unvorhersehbar verhalten.
Die Lösung? Das Modell einfrieren. Das bedeutet, die Gewichte nach dem Training zu sperren, um sicherzustellen, dass sich die KI genau wie getestet verhält. Tesla beispielsweise verwendet eingefrorene neuronale Netze im Autopilot und aktualisiert sie erst nach umfassender Validierung der nächsten Revision.
3. Erklärbare KI (XAI) für Compliance
Regulierungsbehörden fordern Transparenz bei KI-Entscheidungen. Erklärbare KI-Tools (XAI) wie LIME und SHAP helfen dabei:
- Visualisieren Sie, wie Modelle Entscheidungen treffen.
- Identifizieren Sie Vorurteile oder Schwachstellen.
- Erfüllen Sie Zertifizierungsanforderungen wie ISO 26262.
4. Robustheit und Sicherheit gegenüber Angriffen
KI-Modelle in eingebetteten Systemen sind Cyberbedrohungen ausgesetzt. Beispielsweise können manipulierte Sensordaten zu Fehlklassifizierungen führen. Zu den Abwehrstrategien gehören:
- Adversarial Training. Modelle werden während der Entwicklung böswilligen Eingaben ausgesetzt.
- Eingabebereinigung. Herausfiltern verdächtiger Daten.
- Redundanz- und Laufzeitüberwachung. Querprüfung der KI-Ausgaben mit regelbasierten Fallbacks.
Die Rolle spezialisierter Hardware
Allzweck-CPUs haben mit KI-Workloads zu kämpfen, was zu Innovationen wie diesen führt:
- Neuronale Verarbeitungseinheiten (NPUs). Optimiert für KI-Aufgaben wie die Snapdragon-NPUs von Qualcomm ermöglichen sie KI-Fotografie in Echtzeit auf Smartphones.
- Tensor Processing Units (TPUs). Beschleunigen Sie Deep-Learning-Inferenzen in eingebetteten Geräten.
Diese Fortschritte ermöglichen einen effizienten Betrieb der KI auch in Umgebungen mit eingeschränkter Stromversorgung.
Traditionelle Verifizierung für KI-gestützte Systeme
Auch mit KI bleibt die traditionelle Verifizierung entscheidend:
Methode | Rolle in KI-Systemen |
---|---|
Statische Analyse | Überprüft die Struktur des Modells auf Konstruktionsfehler. |
Unit Tests | Validiert Nicht-KI-Komponenten wie Sensorschnittstellen, während KI-Modelle einer datengesteuerten Validierung unterzogen werden. |
Code-Abdeckung | Gewährleistet umfassende Tests wie MC/DC auf Konformität mit ISO 26262. |
Rückverfolgbarkeit | Ordnet das KI-Verhalten den Systemanforderungen zu, was für Audits von entscheidender Bedeutung ist. |
Für die Zertifizierung sind hybride Ansätze – die Kombination klassischer Tests mit KI-spezifischen Methoden – unerlässlich. |
Strategien-Schnellliste
- Optimieren Sie KI-Modelle (Beschneiden, Quantisieren), um eingebetteten Einschränkungen zu entsprechen.
- Frieren Sie trainierte Modelle ein, um deterministisches, zertifizierbares Verhalten sicherzustellen.
- Verwenden Sie XAI-Tools für Transparenz und Compliance.
- Härten Sie Modelle gegen feindliche Angriffe.
- Nutzen Sie spezialisierte Hardware (NPUs, TPUs) für eine effiziente KI-Ausführung.
- Kombinieren Sie traditionelle Verifizierung (statische Analyse, Unit-Test) mit KI-fähigen Techniken.
Zusammenfassung
Obwohl KI/ML eingebettete Systeme transformiert, haben Sicherheit und Compliance weiterhin höchste Priorität. Durch die Kombination von Innovation mit strengen Tests, Modelloptimierung und regulatorischer Konformität können Teams KI-gesteuerte eingebettete Systeme bereitstellen, die sicher und geschützt sind.
So gewährleisten Sie die Sicherheit in KI-/ML-gesteuerten eingebetteten Systemen
Verwandte Post + Ressourcen

