Interview mit Analytics-Vordenker Donald Farmer
Donald Farmer verfügt über mehr als 30 Jahre Erfahrung im Bereich Datenmanagement und Data Analytics. Er hat mit Anbietern wie Microsoft und Qlik zusammengearbeitet und marktführende Analytics-Software entwickelt. Jetzt arbeitet er als strategischer Berater für Investoren, Unternehmen und Softwareanbieter, die den Wert von Daten in ihrer Arbeit maximieren möchten. Kontakt LinkedIn
Herr Farmer, Data Ethics, also die Auseinandersetzung mit den moralischen und ethischen Implikationen von maschineller Intelligenz, ist nichts Neues.
Donald Farmer: Seit es Computer gibt, wird über deren moralische und ethische Implikationen diskutiert. Bereits in den 1940er Jahren definierte der US-Amerikaner Norbert Wiener erste Problemstellungen rund um maschinelle Intelligenz. Heute sind maschinelles Lernen, Künstliche Intelligenz und neuronale Netze so weit entwickelt, dass die Frage nach Moral oder Ethik von maschineller Intelligenz und Algorithmen immer wichtiger und relevanter wird. Während jedoch frühere ethische Konzepte (z. B. Bentham, Kant, Konfuzianismus) als Reaktion auf lokale Entwicklungen und Bedürfnisse entstanden, ist Datenethik global, kultur- und gesellschaftsübergreifend relevant.
Sollte eine KI überhaupt moralische Entscheidungen treffen können?
DF: Es gibt zwei grundsätzliche Ansätze damit umzugehen. Wir können versuchen der Künstlichen Intelligenz Moral „beizubringen“. Eine unglaublich komplexe Aufgabe, wie beispielsweise die Diskussion um autonomes Fahren gezeigt hat: Was, wenn die KI zwischen dem Überleben des Fahrers und dem einer Fußgängergruppe entscheiden muss: Wie wird priorisiert, wie verschiedene Interessen abgewogen? Kann die KI überhaupt eine „richtige“ Entscheidung treffen?
Die Alternative wäre nur „amoralische“ KIs zu entwickeln, die gar nicht in die Situation kommen, ethische oder unethische Entscheidungen zu treffen. Das würde aber ihren Einsatz und Nutzen extrem beschränken.
Kann ein Algorithmus Vorurteile oder Bias haben?
DF: Selbstverständlich! Algorithmen sind codiertes Bias. In einem bekannten Beispiel experimentierte Amazon mit einem automatischen Bewertungssystem von Bewerbern, dass Frauen systematisch benachteiligte. Die Entwickler hatten ursprünglich nicht die Intention Frauen zu diskriminieren. Das System schloss nachvollziehbar alle Bewerber aus, bei denen längere Krankheitszeiten bzw. Ausfallzeiten zu erwarten waren. Dass es sich hierbei oft um Schwangerschaften handelte, konnte das System aber nicht einordnen. Der gesellschaftliche Wert der Schwangerschaft wurde nicht berücksichtigt, der Algorithmus „diskriminiert“ also gegen Frauen. Es ist eher die Frage, welcher Bias akzeptabel ist. Wir müssen die sozialen Konsequenzen unserer Arbeit verstehen.
Ein schönes Beispiel dafür ist auch eine App, die kreiert wurde, um Frauen in Saudi Arabien das Reisen zu ermöglichen. In Saudi Arabien konnten Frauen bislang nicht ohne die Erlaubnis ihres Mannes reisen. Man wollte diesen Prozess vereinfachen. Aus diesem Grund wurde eine App erschaffen, die Männern ermöglichte, diese Erlaubnis per Telefon zu erteilen.
Als Reaktion gab es in der westlichen Welt einen „Shitstorm“ für Apple und Google, weil sie diese App in ihren Stores anboten. Es wurde argumentiert, sie seien Teil eines Unterdrückungssystems. Viele der Menschen, die in dem System leben, waren aber froh über die neue App, da sie für weniger Unterdrückung sorgte. Ich selbst habe Freunde in Saudi Arabien, kenne Frauen die denken, diese App sei das Beste überhaupt, da sie nun viel schneller und unkomplizierter die Erlaubnis einholen können. Sie dachten also es sei eine großartige Idee, doch andere waren extrem wütend auf Apple und Google.
China wird oft erwähnt, wenn es um Horrorszenarien von KI-Anwendungen geht, da der Eindruck entsteht, dass riesige Datenmengen „unreguliert“ verfügbar gemacht werden.
Auch in China ist nicht alles schwarz oder weiß. Beispielsweise hat China strenge Datenschutzgesetze, die jedoch nur für Privatunternehmen und nicht für die Regierung gelten. Das Vorurteil, dass China in Bezug auf Datensammlung keine moralischen oder ethischen Vorgaben hat, stimmt also nicht, denn zumindest für Privatunternehmen sind die Regeln sehr streng.
Ein Paradebeispiel für den Missbrauch von persönlichen Daten ist der Skandal um Cambridge Analytica, der höchstwahrscheinlich für Wählerbeeinflussung in großem Stil verantwortlich war, sowohl bei den US-Wahlen als auch bei der Brexit-Wahl.
DF: Ich glaube in fast allen Fällen ist es nicht die Absicht der involvierten Personen, unethisch zu agieren, sondern es geht eher um unbeabsichtigte Folgen einer zunächst ethisch neutralen oder „guten“ Handlung. Das berührt eine sehr spannende philosophische Frage, ob Menschen bewusst schlecht handeln oder immer in irgendeiner Art und Weise denken müssen, dass ihre Handlungen gut sind.
Im Fall von Cambridge Analytica kann man wohl davon ausgehen, dass die Verantwortlichen wussten, dass Betroffene wahrscheinlich nicht glücklich über den Modus Operandi waren. Wahrscheinlich dachten Sie selbst aber, dass ihre Handlungen einem guten Zweck dienen. Aus diesem Grund ist Transparenz so wichtig. Wir sollten wissen, was andere mit unseren Informationen machen.
Ich denke in Zukunft werden wir ein ganz anderes Verhältnis zu unseren Daten haben, sie als wichtigen Teil unserer Persönlichkeit ansehen. Ich kann mir sogar eine Entwicklung vorstellen, in der unsere Daten unser persönliches Eigentum sind und wir die volle Kontrolle über sie haben. So würde beispielsweise nicht Facebook Informationen über unsere Browser-Aktivitäten besitzen, sondern sie lägen in einer Art virtuellem Tresor. Wenn ein Unternehmen dann unsere Daten haben will oder nutzen möchten, müssten sie uns erst fragen. Sie könnten sie uns abkaufen oder im Gegenzug einen kostenlosen Service bereitstellen. Aber wir hätten zumindest Kontrolle und volle Transparenz wer was mit unseren Daten macht. Heute ist den meisten klar, dass sie für die Nutzung von Facebook persönliche Daten preisgeben, Anfangs war das glaube ich nicht so.
In Deutschland gibt es schon länger das Konzept der „Medienkompetenz“ und seit neuerem das der Datenkompetenz (engl. „Data Literacy“). Noch passender wäre eventuell der Begriff „Informationskompetenz“?
DF: Absolut, den Begriff Data Literacy/Datenkompetenz finde ich zu kurz gegriffen. Informationskompetenz trifft es besser. Hier muss man aber unterscheiden zwischen individueller Kompetenz, der Kompetenz eines Unternehmens oder einer Gesellschaft. Als Beispiel ist in Deutschland die Alphabetisierungsrate bei 98 %, wenn man also nicht lesen und schreiben kann, wird man sehr viele Probleme im Alltag bekommen. Im Gegensatz dazu leben 40 % aller Analphabeten der Welt in Indien. Die Gesellschaft ist dementsprechend ganz anders strukturiert als die deutsche.
Wenn ich also in ein Unternehmen gehe und eine Person finde, die gut darin ist, Diagramme zu erstellen und Daten versteht, dann ist das nicht sehr hilfreich. Gibt es zwei solcher Personen, kann man sich schon entsprechend unterhalten. Wenn ich aber fünf oder zehn oder 50 solcher Personen finde, dann reden wir von einer anderen Art von Unternehmen. Man dachte immer, dass es „Datenanalysten“ gibt. Das ist auch eine inzwischen gängige Berufsbezeichnung. Aber was, wenn wir alle Datenanalysten sind und diese Kompetenzen beherrschen? Das ist viel aufregender.
Also ja, für mich ist das Konzept der Informationskompetenz ein Schlüssel für uns als Gesellschaft, um die neuen Herausforderungen der Künstlichen Intelligenz bewältigen zu können.
Wie können wir sicherstellen, dass KI „ethisch“ agiert?
DF: Das klingt vielleicht kraftlos, aber die Antwort darauf ist, dass man drüber nachdenken muss. Wir müssen Ethik als wesentlichen Bestandteil unseres Prozesses für Software-Design, Software-Entwicklung und Software-Tests festlegen. Genauso wie Softwareentwickler Sicherheit, Skalierbarkeit oder Lokalisierung neuer Lösungen prüfen, sollte es einen Prozess zum Festlegen, Entwickeln und Testen des ethischen Verhaltens der Software geben.