Responsible Commerce


Leitlinien zum verantwortungsvollen Umgang mit künstlicher Intelligenz


Künstliche Intelligenz (KI) ist von Menschen programmiert. Sie entspricht somit menschlichen Denk- und Verhaltensmustern, Annahmen und kulturellen Prägungen – bleibt aber eine Maschine. Um ein verantwortungsvolles Miteinander von Mensch und Maschine zu erreichen, sollten wir sowohl über das Warum als auch über das Wie einer Zusammenarbeit sprechen. Wir erzeugen Vertrauen, indem sich Algorithmen auch an ethischen Grundsätzen orientieren.

Daher sind uns bei der Entwicklung automatisierter Entscheidungen auf Basis künstlicher Intelligenz oder statistischer Verfahren folgende Leitlinien wichtig. Oberste Prämisse: Wir entwickeln KI-Anwendungen für den Menschen – nicht gegen ihn. Als Leitplanken dienen uns regulatorische Rahmenbedingungen, geltende Gesetze und ethische Prinzipien – primär der Code of Ethics der Otto Group sowie unsere OSP-Unternehmenswerte.

Stern

1. Mensch Vorrang vor KI

Menschliches Handeln hat Vorrang vor der KI – sie unterstützt die Entscheidungsfindung. Wir überwachen die Performance unserer Anwendungen und haben jederzeit die Möglichkeit, einzugreifen. KI-Modelle werden auch im Betrieb regelmäßig von uns validiert. Ergebnisse visualisieren wir, um Auffälligkeiten schnell zu erkennen. Dieses Vorgehen kommt vor allem in Anwendungsfällen zum Tragen, in denen weitreichende Konsequenzen und Vertrauensverluste möglich sind. Eine Bewertung darüber trifft der Fachbereich.

Pfeil Contour

2. Vertrauen durch Transparenz

Eine KI-Anwendung wird nur dann erfolgreich, wenn die Verbraucher*innen ihren Mehrwert erkennen und sie Vertrauen generiert. Wir teilen Anwender*innen daher mit, dass sie mit einer KI interagieren, und kennzeichnen dies. Wir kommunizieren offen über die Möglichkeiten und Grenzen unserer KI. Wichtig ist uns, die Funktionsweise der KI verständlich zu machen und sofern möglich auch die Ergebnisse der Anwendung zu erklären. Wir prüfen kritisch, ob sich ein Ziel ohne wesentliche Qualitätseinbußen auch mit einem algorithmischen System erreichen lässt, das weniger komplex und leichter nachvollziehbar ist.

Pluszeichen

3. Nichtdiskriminierung, Vielfalt und Fairness

Vielfalt ist uns wichtig. Unser Ziel ist es, KI-Modelle zu entwickeln, die faire Entscheidungen treffen und nicht diskriminieren. Daher sollten Annahmen und Daten, auf denen die KI basiert, möglichst repräsentativ sein. Es ist uns jedoch bewusst, dass auch automatisierte Entscheidungsführung zu Diskriminierung führen kann, da unterschiedliche Fairnesskriterien – diese gilt es beim Programmieren des Algorithmus zu definieren – zuweilen miteinander konkurrieren. Demnach lassen sich diskriminierende Verzerrungen auch mit KI-basierten Entscheidungssystemen nicht ausnahmslos vermeiden, weil das Beheben einer Form der Unfairness gleichzeitig andere Formen der Unfairness zutage fördern kann. Wir berücksichtigen dies bei der KI-Entwicklung und -Programmierung und überprüfen unsere Ergebnisse dahin gehend kritisch. Dabei gilt für uns das Prinzip der Umkehrbarkeit: Die Ergebnisse der KI sind grundsätzlich reversibel, sodass bei entsprechender Beweisführung Entscheidungen durch menschliches Eingreifen rückgängig gemacht werden können.

Semikolon

4. Nachhaltigkeit

Wir entwickeln eine KI-Anwendung nur, wenn sie sinnvoll ist. Funktioniert eine einfache Methode besser, verwenden wir diese und machen unsere Kunden darauf aufmerksam. Zudem gilt für uns das Prinzip des Datenminimalismus: Wir wählen gezielt Daten für unsere Modelle aus, die wirklich notwendig sind, und verschlanken unsere Modelle falls möglich. Dies dient dem Datenschutz, der Laufzeit und dem geringeren Ressourcenverbrauch.

Pfeil + Slash

5. Sicherheit und Robustheit gegenüber Manipulation

Wir sind uns bewusst, dass KI-Anwendungen absichtlich getäuscht oder manipuliert werden können. Daher berücksichtigen wir für produktive Anwendungen die jeweils aktuellen Sicherheitsstandards und legen Augenmerk darauf, die Daten- und Entscheidungsbasis gegen gewollte und ungewollte Manipulation zu schützen. Hierfür investieren wir bewusst Zeit in die notwendige anwendungsspezifische Recherche – insbesondere in Fällen, in denen Daten von außen eingespielt werden. Unser Ziel: eine KI, die Menschen dient und ihnen nicht schadet.

Gleichzeichen

6. Datenschutz und Datenmanagement

Verantwortungsvolles Datenmanagement und eine sichere Datenspeicherung sind für uns als Mitglied der Otto Group nicht nur Verpflichtung, sondern auch Vertrauensmerkmal. Daher ist uns der hohe Schutzbedarf von persönlichen und sensiblen Daten bewusst. Wir kommunizieren so transparent wie möglich, welche Daten von wem zu welchem Zweck verwendet werden.

Geschwungene Klammer

7. Verantwortung, Haftung und Rechenschaftspflicht

Wir definieren für unsere automatisierten Anwendungen klar, wer für welches System und welche Funktion verantwortlich ist, und dokumentieren dies. Die fachliche Verantwortung liegt beim entsprechenden Fachbereich und wird abhängig von der Tragweite der Entscheidung nach den Prinzipien Human-in-command (HIC), Human-in-the-loop (HITL) und Human-on-the-loop (HOTL) wahrgenommen. So kommen HIC und HITL bei eher kritischen Anwendungen zum Einsatz, HOTL hingegen bei eher unkritischen wie Recommendations. Die damit verbundenen Aufgaben müssen den zuständigen Personen bewusst sein – dies gilt auch bei geteilter Verantwortung. Haftungsfragen werden im Rahmen rechtlich geltender Vorgaben beantwortet.

Künstliche Intelligenz ist für uns kein Selbstzweck, sondern ein wichtiges Werkzeug, um Handel und Logistik zu unterstützen. Der Mensch bleibt dabei immer in der Verantwortung. Das bedeutet für uns Responsible Commerce.