25.09.2018
Wenn eine KI nicht das macht was sie eigentlich soll, dann werden im schlimmsten Fall echte Menschen in Mitleidenschaft gezogen. Sogenannte Adversarial Effects können eine KI aufgrund von Täuschung, ob bewusst oder unbewusst, während des maschinellen Lernens in die Irre führen und dafür sorgen, dass sie Sachverhalte falsch interpretiert. Gefordert wird deswegen eine Art KI-TÜV. Charamel setzt im Projekt EmmA bereits auf eine unabhängige Ethikunterstützung, dem ELSI-Beirat. Projekt EmmA: https://www.technik-zum-menschen-bringen.de/projekte/emma |