Interview

Daten sind nicht neutral

Mag. Sophie Martinetz, Gründerin der Legal-Tech-Plattform Future-Law: Künstliche Intelligenz kann Vorurteile „lernen“.

Kriminalpolizei: Künstliche Intelligenzen haben nicht den besten Ruf. In Medienberichten ist die Rede von Vorurteilen, die KIs aus von Menschen verfassten Texten „gelernt“ haben. Besteht durch den Einsatz von Legal Tech die Gefahr, dass juristische Entscheidungen durch Vorurteile beeinflusst werden?
Sophie Martinetz: Derzeit ist Legal Tech noch nicht so weit, dass von AIs gelernte Vorurteile eine Rolle spielen könnten. Artificial Intelligence gibt es zwar schon seit rund 40 Jahren, aber erst durch die Vergrößerung der Rechenleistung ist sie für Anwälte interessant geworden. Vor zwei, drei Jahren ist Legal Tech international aufgekommen.
Generell kommt es darauf an, wofür Artificial Intelligence eingesetzt wird. Wenn es nur darum geht, Vertragskonstruktionen zu analysieren, spielen Vorurteile keine Rolle. Wenn es um große strafrechtlich relevante Themen wie Insolvenzen, um Verschuldensfragen geht, muss man sich die Entscheidungskriterien anschauen. Liegt diesen ein Gesetzestext zugrunde und ist dieser in Ordnung, gibt es keine Bias. Aber auch Gesetze können Vorurteile transportieren, z.&8200;B. war Homosexualität früher strafbar.
Wie lernt eine KI diese Vorurteile?
Martinetz: Die Maschine lernt aufgrund unserer Bias. Wenn beispielsweise Tätowierte öfter verurteilt werden als nicht Tätowierte, könnte die AI nachfragen, ob der Mandant tätowiert ist. Hat er eine Tätowierung, könnte sie ihm nahelegen, sich schuldig zu bekennen, was sie bei einem anderen Mandanten vielleicht nicht getan hätte. Dabei geht es um Predictive Analytics, also um eine Vorhersage, wie ein Fall ausgehen könnte. Die AI analysiert dafür hunderte Fälle und schlägt dann vor, wie die Argumentation vor Gericht aussehen könnte.
Aber die Bias kann schon viel früher beginnen, und zwar bei der Polizei, wenn z. B. Tätowierte, Farbige oder Homosexuelle öfter verhaftet werden als andere. Aber das hat nichts mit der AI zu tun.
Wie kann man vermeiden, dass eine AI menschliche Vorurteile übernimmt?
Martinetz: Die AI lässt uns nicht aus der Verantwortung, sie lernt auf der Basis menschlicher Entscheidungen und Normen. Wir müssen uns fragen, welche wir korrigieren müssen. Wir müssen uns z. B. die Frage stellen, ob gewisse Tatbestände wirklich bei gewissen Gruppen wie z.B. Tätowierten, Farbigen oder Homosexuellen häufiger vorkommen – oder ob diese nur häufiger erwischt oder verurteilt werden. Die große Gefahr ist, dass die Digitalisierung bestehende Vorurteile verschärfen kann.
Ein Problem besteht darin, dass Data Scientists davon ausgehen, die Daten sind neutral, was aber oft nicht stimmt. Meist schreiben weiße Männer 40-plus einen Code und gehen von dem aus, was für sie normal ist. Es ist erstaunlich, was ein Algorithmus kann, was sich aus anonymen Daten zurückverfolgen lässt.
Was lässt sich zurückverfolgen?
Martinetz: Man kann z. B. aus dem Wohnort, dem Telefonie- und Internetverhalten relativ einfach Schlüsse auf die soziale Situation einer Person ziehen.
Anwälte haben aber keinen Zugriff auf Telefon- und Internetdaten ...
Martinetz: Der Staat hat Zugriff und kann auch Gerichtsurteile auswerten. Ein Privater, z. B. ein Wohnbaubetreiber mit 20.000 Wohnungen, kann heute schon mit AI-Systemen – heute gibt es Systeme wie Kira oder Leverton – Verträge nach gewissen Kriterien wie Höhe der Miete, Wohnfläche und Kündigungsfrist durchsuchen und Informationen über die Mieter in einer Wohngegend herauslesen. Das ist heute schon mit regelbasierten Systemen möglich.
Was ist derzeit noch nicht möglich?
Martinetz: Es hängt noch sehr viel vom menschlichen Input ab. Bei Legal Tech ist die juristische Sprache die größte Herausforderung.
Wie schätzen Sie die zukünftige Entwicklung von Künstlicher Intelligenz im Bereich Legal Tech ein?
Martinetz: #Jede standardisierbare Tätigkeit wird automatisiert werden. Was nie ersetzt werden kann, ist das detaillierte Überlegen, der menschliche Aspekt. Da geht es um Vertrauen und um Gerechtigkeit.
Interview: Rosemarie Pexa