Wissenschaftsjahr 2024: Freiheit

Das aktuelle Wissenschaftsjahr des Bundesministeriums für Bildung und Forschung steht unter dem Motto »Freiheit«. Was die Themen Freiheit und Vertrauenswürdigkeit im Bereich KI miteinander verbindet, zeigen wir mit dem Exponat »Who’s deciding here?!«, das ab Mai 2024 auf der MS Wissenschaft zu sehen und zu erleben ist.

Die Nachfrage der Industrie nach KI-Lösungen ist groß. Aber nur, wenn die Anwendungen und Systeme im höchsten Maße verlässlich sind, können sie auch in der Serienproduktion und oder der Qualitätskontrolle eingesetzt werden. Die neuen Möglichkeiten der »Generativen KI« bringen also auch neue Herausforderungen mit sich: Kann ich mich als Anwender*in auf die Auskünfte eines Chatbots verlassen, der mir die Bedienung einer Maschine erklärt? Wie erkenne ich als Entwickler*in oder als Prüfer*in systematische Schwachstellen eines KI-Modells? Wie kann ich garantieren, dass meine Daten sicher aufgehoben sind?

Vertrauenswürdigkeit und Sichheit sind demnach wichtige Erfolgsfaktoren für Unternehmen.

Wir von Fraunhofer haben deshalb Lösungen und Tools für Unternehmen entwickelt, die leistungsstark und gleichzeitig vertrauenswürdig und zuverlässig sind, sowie den europäischen Datenschutzstandards entsprechen.

»Who‘s deciding here?!«

Wer soll entscheiden – Mensch oder KI?

Im Wissenschaftsjahr 2024 des Bundesministeriums für Bildung und Forschung steht das Thema Freiheit mit all seinen Facetten im Mittelpunkt. Darin geht Fraunhofer unter dem Aspekt Entscheidungsfreiheit den Fragen nach: Wie beeinflussen Technologien wie Künstliche Intelligenz unsere Freiheit? Wie vertrauenswürdig sind die KI-Systeme, die sich in immer mehr sicherheitsrelevanten Bereichen finden – und die Entscheidungen, die sie treffen?  

Technologien wie Künstliche Intelligenz (KI) werden zunehmend in sicherheitsrelevanten Bereichen eingesetzt – ob als Fahrassistenz in autonomen Fahrzeugen, in Robotersystemen für eine sichere Produktion, zur Erkennung von Fake News oder als Entlastung und Entscheidungsunterstützung in der Medizin. Entscheidet eine KI falsch, könnte das also weitreichende Folgen haben. Das Exponat zeigt in Form eines Spiels Beispiele, bei denen KI uns Menschen bereits gut unterstützen kann. Die große Herausforderung dabei ist, die Leistungsfähigkeit der KI gut einschätzen zu können. KI wird immer besser, aber ist noch nicht perfekt: Einige der dargestellten Beispiele zeigen deshalb auch typische Herausforderungen, die bei der Entwicklung und dem Einsatz von KI zu beachten sind. 

Besuchen Sie das Exponat »Who‘s deciding here?!« auf der MS Wissenschaft. Ab dem 14. Mai 2024 tourt das schwimmende Science Center durch Deutschland und Österreich. Und dann heißt es wieder: nicht (nur) schauen und staunen, sondern auch ausprobieren und mitmachen.

Anwendungsbeispiele Vertrauenwürdige KI

Entdecken Sie unsere Beispiele für leistungsstarke und vertrauenswürde KI-Systeme aus verschiedenen Anwendungsbereichen. Die verbindende Fragestellung aller Use Cases: Wie lässt sich KI-Technologie kontrolliert und sicher einsetzen?

3 Fragen an Sebastian Schmidt, Data Scientist für vertrauenswürdige KI

Sebastian Schmidt, Data Scientist für vertrauenswürdige KI, Fraunhofer IAIS

Wie beeinflusst KI unsere Freiheit?
KI verändert schon heute unsere Gesellschaft und unsere Arbeitswelt. So gewinnen wir auf der einen Seite Freiheit, in dem wir Prozesse und Aufgaben vereinfachen.

Auf der anderen Seite besteht die Gefahr, uns abhängig zu machen von den Fähigkeiten der Modelle - auf persönlicher Ebene können wir Selbstständigkeit und Fähigkeiten verlernen, auf geopolitischer Ebene uns zu sehr von auf die Modellbetreiber außerhalb von Europa verlassen.

Ob wir Freiheit gewinnen oder verlieren, hängt letztlich an unserem Umgang mit dieser neuen Technologie.

Wie vertrauenswürdig sind KI-Systeme, die sich in immer mehr sicherheitsrelevanten Bereichen finden – und die Entscheidungen, die sie treffen? Und was tut Fraunhofer, um die Vertrauenswürdigkeit von KI-Systemen zu erhöhen?
Mit dem vermehrten Einsatz von KI sehen wir immer mehr Fälle, in denen der unbedachte Einsatz von KI drastische Auswirkungen hat, sei es bei Datenschutzlücken, halluzinierenden Modellausgaben oder Diskriminierung durch die KI.

Wir bieten auf der einen Seite Lösungen an, die diese Probleme technisch adressieren und auf der anderen Seite eine Vertrauenswürdigkeitsprüfung bestehender KI-Systeme, um so den Einsatz abzusichern. Durch die Prüfung und Absicherung ergeben sich so auch neue Einsatzmöglichkeiten, für die ein ungeprüftes System nicht denkbar wäre.

Fraunhofer ist außerdem Teil von Open GPT-X, ein Projekt, in dem wir ein eigenes Sprachmodell auf europäischen Sprachen und mit europäischen Standards trainieren und so die Abhängigkeit von amerikanischen Anbietern angehen.

Wie schaust du persönlich auf das Thema Freiheit und Autonomie? Welche Chancen und Gefahren siehst du mit Blick auf KI und ihre Auswirkungen?
Persönlich bin ich überzeugt, dass diese neuen Technologien großes Potenzial besitzen, unsere Arbeitswelt und gegenwärtige Berufsbilder grundlegend zu verändern und neue Freiheiten zu schaffen. Der Einsatz kompetitiver kleinerer Open-Source-Modelle kann helfen, dabei keine neuen Abhängigkeiten zu schaffen.

Gleichzeitig ergeben sich Gefahren für die menschliche Autonomie, denen man begegnen muss – Deepfakes und automatisch generierte Fake News, neue Angriffspunkte für Cyberattacken und Einsatz zur Überwachung und im Krieg in dieser geopolitisch angespannten Situation. 

KI-Forschung für die technologische Souveränität Deutschlands

Mit ihren Lösungen leisten unsere Fraunhofer-Forscherinnen und Forscher einen wichtigen Beitrag, das Potenzial der KI auch konkret nutzbar zu machen.

»Gerade die aktuelle Entwicklung von Generativer KI zeigt das riesige Potenzial, aber auch die Herausforderungen dieser Zukunftstechnologie in Hinblick auf Sicherheit, Transparenz und Datenschutz auf. Viele Technologien und Lösungen kommen aktuell nicht aus Europa. Die Forschung der Fraunhofer-Gesellschaft trägt dazu bei, die technologische Souveränität und Unabhängigkeit deutscher Unternehmen zu erhalten und auszubauen«, sagt Dr. Sonja Holl-Supra, Geschäftsführerin der Fraunhofer-Allianz Big Data AI – einem Zusammenschluss aus über 30 Fraunhofer-Instituten, der die KI-Kompetenzen von Fraunhofer bündelt.

 

Leitfaden

KI-Prüfkatalog

Der KI-Prüfkatalog ist ein strukturierter, kostenfreier Leitfaden für die Gestaltung vertrauenswürdiger Künstlicher Intelligenz. Er enthält ein vierstufiges Vorgehen für die Beurteilung von KI-Anwendungen und unterstützt Entwickler*innen bei der Gestaltung sowie Prüfer*innen bei der Evaluation und Qualitätssicherung von KI-Anwendungen.

 

Certified Security Champion Training

Umfassender Kompetenzaufbau im Themengebiet der sicheren Softwareentwicklung. Mit dem Security Champion Training erlernen Softwareentwickler*innen, wie sie Security im Arbeitsalltag konsequent berücksichtigen können.

Mehrwöchiges Intensivtraining mit Fachvorträgen, interaktiven Übungen, Selbstlernphasen, Demonstrationen von Werkzeugen und Tools sowie Best-Practice-Beispielen aus der Industrie. Abschlussgespräch und Prüfung am Ende.

  • Dauer: 13 Wochen in Teilzeit (ca. 98 Stunden)
  • Kurssprache: Deutsch oder Englisch
  • Kursgröße: 6 - 12 Personen

Certified Data Scientist Specialized in Assuring Safety

Teilnehmer*innen lernen mögliche Strategien für den sicheren Einsatz von KI-Lösungen kennen und erproben eine Auswahl von Ansätzen, die ihnen dabei helfen, konkrete Herausforderungen zu adressieren und maßgeschneiderte Safety-Konzepte abzuleiten.

Mehrtägiges Training mit Fachvorträgen, interaktiven Übungen, Selbstlernphasen, Demonstrationen von Werkzeugen und Tools sowie Best-Practice-Beispielen zur Übertragung in den beruflichen Alltag. Abschlussgespräch und Prüfung am Ende.

  • Dauer: 4 Tage
  • Kurssprache: Deutsch
  • Kursgröße: bis zu 15 Personen

Kontaktformular

* Pflichtfelder

Anrede