Entscheidungen, die durch Systeme sog. Künstlicher Intelligenz (KI) geprägt werden, kommen in Unternehmen immer öfter vor: Kundenscoring, Bewerberauswahl, Produktionsteuerung, Compliancefragen usw. Nicht selten bleibt im Dunkeln, warum die KI so und nicht anders befunden hat. Die KI-Software ist eben nicht wie herkömmliche Programme linear angelegt („wenn – dann“), sondern agiert in gewissem Maße selbständig. Sie verzeichnet den Input (Daten) und den Output (Ergebnisse), aber die dazwischen liegenden „neuronalen Netze“ der Entscheidungsfindung sind nicht offenkundig. Daher ist in der gesellschaftsrechtlichen Fachliteratur bezweifelt worden, dass die Geschäftsleitung eine solche „Black Box“ einsetzen darf. Der Vorstand sei etwa nicht in der Lage, dem Aufsichtsrat über die KI-gesteuerten Geschäftsvorfälle umfänglich zu berichten.
Das Black-Box-Problem ist in der KI-Forschung erkannt worden. Die Fraunhofer-Gesellschaft hat die Nachvollziehbarkeit sogar als das wichtigste Forschungsziel bezeichnet („explainable AI“). Erklärbarkeit bedeutet, dass für eine konkrete KI-Entscheidung die wesentlichen Einflussfaktoren aufgezeigt werden können. Ferner wird darüber nachgedacht, eine Kontroll-KI einzusetzen, welche die Entscheider-KI überprüft. Doch wer kontrolliert die Kontrolle?
Die technischen Entwicklungen werden voranschreiten, doch soll bis dahin – den Bedenkenträgern folgend –der Unternehmenseinsatz von KI-Programmen aufgeschoben werden? Das wäre eine praktisch unhaltbare Folgerung, die auch rechtlich nicht geboten ist. Die Verantwortung der Leitung liegt darin, auf Grund angemessener Information zum Wohle des Unternehmens zu handeln. Angemessen bedeutet hier, dass die grundlegende Wirkweise der KI bekannt ist, nicht aber das technische Detail der Umsetzung. Wenn der Vorstand für Maßnahmen der Geschäftsführung auf künstliche Intelligenz setzt, so ist dies im Grundsatz nicht anders zu bewerten als der Einsatz natürlicher Intelligenz. Die Gedanken des Mitarbeiters sind frei, sein Gehirn opak. Es kommt darauf an, ob der Mitarbeiter sorgfältig ausgesucht und hinreichend beaufsichtigt wird, den richtigen Platz in der Unternehmensorganisation hat. Die Leitung ist für die Struktur zuständig, in der die Akteure sich bewegen. Ob Menschen oder eine KI innerhalb dieses Rasters agieren, ist allein mit Blick auf die Funktion, Arbeitsergebnisse zu produzieren, einerlei.
Bei wichtigen Geschäftsentscheidungen, die keinen Routinen folgen, werden auch Begründungen erwartet. Indessen wird die äußere Begründung bei einem Menschen vielfach von der inneren Herstellung, dem Gedankenprozess, abweichen. Ähnlich läge es bei einer KI, der man eine Darstellung der Herstellung programmiert – auch diese Darstellung wäre das Produkt des inneren Prozessierens, der selbst (bislang) verschlossen bleibt. Daher sollte man von diesen äußeren Herleitungen nicht zu viel erwarten.
Eine andere Beurteilung könnte geboten sein, wenn die KI nicht nur für den laufenden Geschäftsbetrieb, sondern für originäre Leitungsentscheidungen genutzt wird. Ob eine M&A-Transaktion angegangen oder eine grundlegende Finanzierungsmaßnahme ins Werk gesetzt wird, entscheiden Vorstand und ggf. Aufsichtsrat. Wenn sich die Leitungen dabei durch ein KI-System beraten lassen, also (technischen) Expertenrat einholen, wird man sich an die Ision-Rechtsprechung des BGH erinnern (DB 2011, 2484). Mit Blick auf den Rechtsrat bei einer Kapitalfrage verlangte der II. Zivilsenat nach einem unabhängigen qualifizierten Berufsträger, dessen Beurteilung durch den Vorstand einer sorgfältigen Plausibilitätskontrolle zu unterziehen ist. Die 1:1-Übertragung dieser Grundsätze auf eine KI-Vorstandsberatung dürfte schwerlich gelingen. Hier steht die Diskussion nach ganz am Anfang, nicht zuletzt, weil es solche auf Leitungsebene eingesetzten KI-Systeme soweit ersichtlich in Deutschland noch nicht gibt, also praktisches Material fehlt. Soviel dürfte aber schon klar sein: Um das Business Judgement Rule-Element der angemessenen Information für den Vorstand zu aktivieren, ist eine Herleitung des KI-Vorschlags erforderlich.