Newsletter
Erhalten Sie monatlich Informationen über aktuelle Themen und laufende Aktivitäten. Zusätzlich ist eine Auswahl von Themenschwerpunkten optional möglich. Sie werden jedenfalls zum allgemeinen Newsletter angemeldet.
Systeme der künstlichen Intelligenz (KI) spielen eine immer größere Rolle als Teil von Entscheidungs- und Kontrollsystemen in verschiedenen Anwendungen. Ob Bilderkennung, Empfehlungssysteme, Chatbots, Diagnostik oder Prognosen - maschinelle Lernmodelle, die mit großen Datenmengen trainiert werden, sind bereits in vielen Alltagsanwendungen zu finden und verleihen ihnen "Intelligenz".
Derzeit übernehmen KI-Systeme vor allem begrenzte, wiederkehrende Tätigkeiten oder sehr spezialisierte Aufgaben, die sie schneller und effizienter als Menschen bearbeiten können, wie beispielsweise die Analyse einer Vielzahl von Daten. Zukünftig wird es darauf ankommen, dass wir neue Wege der Zusammenarbeit zwischen Menschen und Maschine oder System definieren. Das bedeutet, dass Menschen und Maschinen am besten im Team arbeiten.
Maschinelles Lernen wird unser technisches Umfeld und unser gesamtes Leben langfristig massiv beeinflussen. Umso wichtiger ist es, mit der Zertifizierung von Machine-Learning-Anwendungen das Vertrauen der Anwender und Konsumenten in diese Technologie zu stärken.
Kann ich ihnen trauen?
Die Anwendung von Künstlicher Intelligenz verunsichert und wirft Fragen auf: Ist diese vertrauenswürdig und sicher? Erfüllt die KI die von ihr erwartete Funktion? Sind die für das Training verwendeten Daten korrekt? Wird mit der großen Menge an sensiblen Daten sorgfältig umgegangen?
TÜV AUSTRIA arbeitet gemeinsam mit dem Institut für Maschinelles Lernen der Johannes Kepler Universität und der Software Competence Center Hagenberg GmbH an geeigneten Zertifzierungsmethoden, um Hersteller bei der Entwicklung von sicheren, zuverlässigen und qualitativ hochwertigen Machine-Learning-Modellen zu unterstützten und Anwendern ein Gütesiegel für vertrauenswürdige KI-Systeme zu bieten.
Auf Herz und Nieren geprüft
Die erste Stufe des Erfolges ist erreicht: AI-Anwendungen von "supervised learning"-Methoden im niedrigen bis mittleren Risikobereich können bereits heute zertifiziert werden. In den nächsten Phasen der Entwicklungskooperation werden die bisherigen Ansätze erweitert, um auch sicherheitskritische Anwendungen auf Basis eines breiteren Spektrums an maschinellen Lernverfahren zertifizieren zu können.
Warum sollten Unternehmen KI einsetzen und diese auch zertifizieren?
Die Bedeutung von KI für die Geschäftstätigkeit wird von den meisten Unternehmen, die KI einsetzen, als wichtig eingestuft. Dies bedeutet, dass KI für diese Unternehmen deutliche Verbesserungen mit sich bringt, indem KI-Anwendungen, Geschäftsprozesse oder Produktionsaktivitäten schneller, genauer, flexibler, zuverlässiger oder kostengünstiger macht oder die Kapazitäten erhöht. Umso wichtiger ist es daher, dass die zugrunde liegenden KI-Anwendungen auch die Erwartungen und Anforderungen der Nutzer erfüllen. Eine Zertifizierung kann sowohl die Erfüllung der zugesicherten Eigenschaften als auch die Eignung für bestimmte Einsatzzwecke und einen sicheren Einsatz neutral und unabhängig bestätigen und somit das Vertrauen in KI nachhaltig stärken.
Für Anwender bietet eine Zertifizierung Orientierung bei der Auswahl geeigneter KI-Produkte und für Anbieter einen Vorteil in der Vermarktung durch die Bestätigung der Qualität ihrer Produkte und Services.
Der Prüfkatalog
Im Rahmen der Zertifizierung werden die Machine-Learning-Modelle und deren Entwicklungsprozesse in mehreren Dimensionen detailliert geprüft. So wird nicht nur die tatsächliche Funktion und Zuverlässigkeit der trainierten Modelle untersucht, sondern auch die Sicherheit der Software und ob sie für die Anforderungen ihres Einsatzgebietes angemessen entwickelt wurde. Darüber hinaus wird geprüft, ob mit personenbezogenen Daten vertraulich umgegangen wird und mögliche ethische Fragen angemessen berücksichtigt werden.
Herzstück des Audit-Katalogs sind die funktionalen Anforderungen. Dieser Bereich deckt alle Prüfaspekte zur Modellentwicklung, einschließlich Modellauswahl und Dokumentation ab. Auch Datenerfassung, Datenvorverarbeitung, Datenanalyse, qualitative Modellinspektion, Modellbereitstellung, Anforderungen an den sicheren Applikationsbetrieb, Fehlerbehandlung, Dokumentation oder Erklärbarkeit und Interpretierbarkeit der Modelle sind Bestandteil des Audits.
Weitere Informationen und Details zur Überprüfung von vertrauenswürdigen KI-Systemen können Sie unter www.tuv.at/trusted-ai abrufen.
Über die Autoren
Thomas Doms ist seit vielen Jahren als Experte für Digitalisierung, Innovation, Informationssicherheit und Datenschutz in verschiedensten Projekten tätig. Beim TÜV AUSTRIA ist er für die Entwicklung neuer digitaler Services, wie z.B. TRUSTED AI und die Internationalisierung des Informationssicherheitsgeschäfts verantwortlich.
Bernhard Nessler ist promovierter Wissenschaftler und Forscher im Bereich des Maschinellen Lernens und der theoretischen Neurowissenschaften. Als langjähriger Mitarbeiter von Prof. Sepp Hochreiter hat er an der JKU bei einem der Gründerväter der modernen KI geforscht und gelehrt. Seit kurzem ist er darüber hinaus am Software Competence Center Hagenberg für Deep Learning und AI Certification verantwortlich.
E-Mail: Bernhard.Nessler@scch.at
Über das Unternehmen
Das Software Competence Center ist ein COMET-K1 Zentrum in den Bereichen Data Science und Software Science. Gemeinsam mit unseren wissenschaftlichen und wirtschaftlichen Partnern treiben wir Innovationen voran und verhelfen Unternehmen ihre Wettbewerbsfähigkeit auszubauen und Technologievorsprünge zu sichern. | LinkedIn
Dieser Beitrag ist Teil des DIGI FOR SDG Projekts und wird von der Industriellenvereinigung und Wirtschaftskammer unterstützt!
Newsletter
Erhalten Sie monatlich Informationen über aktuelle Themen und laufende Aktivitäten. Zusätzlich ist eine Auswahl von Themenschwerpunkten optional möglich. Sie werden jedenfalls zum allgemeinen Newsletter angemeldet.