Entscheidungen, die durch Systeme sog. Künstlicher Intelligenz (KI) geprägt werden, kommen in Unternehmen immer öfter vor: Kundenscoring, Bewerberauswahl, Produktionsteuerung, Compliancefragen usw. Nicht selten bleibt im Dunkeln, warum die KI so und nicht anders befunden hat. Die KI-Software ist eben nicht wie herkömmliche Programme linear angelegt („wenn – dann“), sondern agiert in gewissem Maße selbständig. Sie verzeichnet den Input (Daten) und den Output (Ergebnisse), aber die dazwischen liegenden „neuronalen Netze“ der Entscheidungsfindung sind nicht offenkundig. Daher ist in der gesellschaftsrechtlichen Fachliteratur bezweifelt worden, dass die Geschäftsleitung eine solche „Black Box“ einsetzen darf. Der Vorstand sei etwa nicht in der Lage, dem Aufsichtsrat über die KI-gesteuerten Geschäftsvorfälle umfänglich zu berichten.
Das Black-Box-Problem ist in der KI-Forschung erkannt worden. Die Fraunhofer-Gesellschaft hat die Nachvollziehbarkeit sogar als das wichtigste Forschungsziel bezeichnet („explainable AI“). Erklärbarkeit bedeutet, dass für eine konkrete KI-Entscheidung die wesentlichen Einflussfaktoren aufgezeigt werden können. Ferner wird darüber nachgedacht, eine Kontroll-KI einzusetzen, welche die Entscheider-KI überprüft. Doch wer kontrolliert die Kontrolle? » weiterlesen