„Alexa ist der Spion in Ihrem Haus“
NRW-Justizminister Biesenbach sieht viele Risiken im Umgang mit künstlicher Intelligenz. Debatte zeigt aber auch neue Perspektiven für die Strafverfolgung auf.
Seinen Impulsvortrag hätte NRW-Justizminister Peter Biesenbach (CDU) auch mit der bewährten Einstiegsfrage starten können: „Möchten Sie zuerst die gute oder die schlechte Nachricht hören...?“. Er nahm dem Publikum aber die Wahl ab und entschied sich für die schlechte: „Cyberkriminalität ist ein mächtiges Werkzeug für Kriminelle geworden. 70 Prozent der Unternehmen in Deutschland und beinahe jeder zweite Internetnutzer sind schon einmal Opfer einer Attacke geworden. Wer heute noch eine Bank überfällt, um an Geld zu kommen, hat die kriminellen Zeichen der Zeit nicht erkannt. Wir Strafverfolger laufen hinterher, es ist wie ein Rennen E-Bike gegen Porsche.“
Rumms, damit war der Hirschlandsaal im Essener Museum Folkwang wach, in den die Bonner Akademie für Forschung und Lehre Praktischer Politik (BAPP) zur durch die Brost-Stiftung unterstützte Diskussionsveranstaltung „Mehr als „Alexa“: Künstliche Intelligenz im Dienst von Justiz und Strafverfolgung“ eingeladen hatte.
Ein durchaus auch von guten Nachrichten begleitetes Themenfeld, wie Biesenbach im Folgenden ausführte. Mit Hilfe eines von Microsoft entwickelten Programms konnten NRW-Ermittler gewaltige Mengen kinderpornografischer Daten auswerten, 228 von über 1800 anhängigen Verfahren führen. „Uns liegen insgesamt 1800 Terrabyte an Kinderpornographie vor, ohne künstliche Intelligenz brauchten die Ermittler 2000 Jahre, um diese auszuwerten.“ Und solange die Auswertung ausbleibe, würden weiter Säuglinge und Kleinstkinder in widerlicher Weise missbraucht.
Rumms, damit war der Hirschlandsaal im Essener Museum Folkwang wach, in den die Bonner Akademie für Forschung und Lehre Praktischer Politik (BAPP) zur durch die Brost-Stiftung unterstützte Diskussionsveranstaltung „Mehr als „Alexa“: Künstliche Intelligenz im Dienst von Justiz und Strafverfolgung“ eingeladen hatte.
Ein durchaus auch von guten Nachrichten begleitetes Themenfeld, wie Biesenbach im Folgenden ausführte. Mit Hilfe eines von Microsoft entwickelten Programms konnten NRW-Ermittler gewaltige Mengen kinderpornografischer Daten auswerten, 228 von über 1800 anhängigen Verfahren führen. „Uns liegen insgesamt 1800 Terrabyte an Kinderpornographie vor, ohne künstliche Intelligenz brauchten die Ermittler 2000 Jahre, um diese auszuwerten.“ Und solange die Auswertung ausbleibe, würden weiter Säuglinge und Kleinstkinder in widerlicher Weise missbraucht.
„NRW-Staatsanwälte haben aktuell etwa 1,2 Millionen Vorgänge zur Bearbeitung auf dem Tisch.“
NRW-Justizminister Peter Biesenbach
Im konkreten Fall ist es der Justiz gelungen, die Täter zu überlisten. Da die Verbreitung von Kinderpornografie verboten ist, macht sich auch die Polizei eigentlich strafbar, wenn sie verdächtige Daten zur Prüfung weitergibt. Im Rahmen des Forschungsprogramms gelang es Microsoft jedoch, die beschlagnahmten Bilder derart unkenntlich zu machen, dass sie nur noch von speziell programmierten Computern später als Kinderpornographie erkannt werden können. Die Ermittler übermitteln also keine strafbewehrten Inhalte in die Cloud, sondern nur Farbpixel.
Biesenbachs Referat, wie auch die anschließende Podiumsdiskussion, zeigten jedoch, dass der Vormarsch lernender Maschinen für Menschen und Gesellschaft große Herausforderungen mit sich bringt. Längst sammeln Algorithmen nicht nur Daten von Handys oder Kreditkarten, sondern werten diese aus und treffen Entscheidungen. Spezielle Programme werten das Nutzerverhalten aus, um daraus Persönlichkeitsprofile zu erstellen. Auf diese greifen zum Beispiel immer mehr Firmen bei Einstellungsgesprächen zurück. Aber auch Kriminelle können auf die zweifelhaft gesammelten und ungesicherten Datenberge zurückgreifen. Biesenbach: „Wir hatten einen Fall, in dem jemand einen im gutsituierten Kölner Stadtteil gezielt zusammengestellten Datensatz für 78 Euro gekauft hat. Darauf waren die Anschriften älterer, alleinstehender Damen verzeichnet. Perfekte Opfer für den Enkeltrick oder andere Betrugsmaschen.“
Wo liegt die Grenze zwischen den Vorteilen der Nutzung künstlicher Intelligenz (KI) für die Gesellschaft (z.B. Bewertung sonst unbeherrschbarer Datenmengen) und dem Eingriff in Freiheits- oder Bürgerrechte? Diese Frage stand im Kern der Debatte zwischen Biesenbach, Carla Hustedt (Bertelsmann Stiftung) sowie Thomas Langkabel (Microsoft Deutschland), die WAZ-Chefredakteur Andreas Tyrock moderierte.
Biesenbachs Referat, wie auch die anschließende Podiumsdiskussion, zeigten jedoch, dass der Vormarsch lernender Maschinen für Menschen und Gesellschaft große Herausforderungen mit sich bringt. Längst sammeln Algorithmen nicht nur Daten von Handys oder Kreditkarten, sondern werten diese aus und treffen Entscheidungen. Spezielle Programme werten das Nutzerverhalten aus, um daraus Persönlichkeitsprofile zu erstellen. Auf diese greifen zum Beispiel immer mehr Firmen bei Einstellungsgesprächen zurück. Aber auch Kriminelle können auf die zweifelhaft gesammelten und ungesicherten Datenberge zurückgreifen. Biesenbach: „Wir hatten einen Fall, in dem jemand einen im gutsituierten Kölner Stadtteil gezielt zusammengestellten Datensatz für 78 Euro gekauft hat. Darauf waren die Anschriften älterer, alleinstehender Damen verzeichnet. Perfekte Opfer für den Enkeltrick oder andere Betrugsmaschen.“
Wo liegt die Grenze zwischen den Vorteilen der Nutzung künstlicher Intelligenz (KI) für die Gesellschaft (z.B. Bewertung sonst unbeherrschbarer Datenmengen) und dem Eingriff in Freiheits- oder Bürgerrechte? Diese Frage stand im Kern der Debatte zwischen Biesenbach, Carla Hustedt (Bertelsmann Stiftung) sowie Thomas Langkabel (Microsoft Deutschland), die WAZ-Chefredakteur Andreas Tyrock moderierte.
„Die Künstliche Intelligenz wird wohl nie so klug wie die Menschen.“
Carla Hustedt, Bertelsmann Stiftung
„Menschen entwickeln und nutzen die Systeme“, erklärte Hustedt. „Diese besitzen weder Bewusstsein noch Abstraktionsvermögen. Mich stört der Begriff künstliche Intelligenz, wir sollten besser von lernenden Maschinen sprechen.“ Zum angemessenen Umgang gehöre eine breite gesellschaftliche Debatte ebenso wie eine Kontrolle der Systeme. Hustedt: „Außerdem muss jeder Einzelne mehr Kompetenz im Umgang entwickeln. Und die Systeme müssen vielfältiger werden.“ Untersuchungen belegten, dass z.B. von einer Gruppe Männer entwickelte Anwendungen die gleichen Vorurteile und Stereotypen aufwiesen wie ihre Programmierer.
Entscheidend für die Nutzung sei auch die Transparenz, welche Bewertungskriterien ein System nutze. „In Frankreich stellte sich bei der vom Computer vorgenommenen Zuweisung von Studenten auf Universitäten heraus, dass die Nähe des Wohnorts zur Uni positiv bewertet wurde. Da die meisten Eliteunis im Herzen von Paris liegen, kamen dort überwiegend Bewerber hin, die sich den teuren Wohnsitz Paris leisten konnten. Eine klare gesellschaftliche Benachteiligung.“
Für Thomas Langkabel liegt neben den vom Gesetzgeber zu errichtenden Leitplanken die Verantwortung auch bei den Entwicklern. „Wir machen manche Dinge bewusst nicht, etwa im Bereich der Gesichtserkennung. Vor klarem Hintergrund ist ein Gesicht bei günstigem Winkel der Kamera gut zu identifizieren. Das ändert sich, wenn Schatten dazu kommen, unter Bäumen etwa. Weil die Identifikation zweifelhaft wird, halten wir uns aus diesem Feld heraus.“
In China habe man diese Bedenken offenbar nicht, dort würden mittels omnipräsenter Überwachungskameras Menschen sozial herauf- oder herabgestuft. Langkabel: „Die Politik muss entscheiden, ob wir hier auch solche Systeme wollen.“
Entscheidend für die Nutzung sei auch die Transparenz, welche Bewertungskriterien ein System nutze. „In Frankreich stellte sich bei der vom Computer vorgenommenen Zuweisung von Studenten auf Universitäten heraus, dass die Nähe des Wohnorts zur Uni positiv bewertet wurde. Da die meisten Eliteunis im Herzen von Paris liegen, kamen dort überwiegend Bewerber hin, die sich den teuren Wohnsitz Paris leisten konnten. Eine klare gesellschaftliche Benachteiligung.“
Für Thomas Langkabel liegt neben den vom Gesetzgeber zu errichtenden Leitplanken die Verantwortung auch bei den Entwicklern. „Wir machen manche Dinge bewusst nicht, etwa im Bereich der Gesichtserkennung. Vor klarem Hintergrund ist ein Gesicht bei günstigem Winkel der Kamera gut zu identifizieren. Das ändert sich, wenn Schatten dazu kommen, unter Bäumen etwa. Weil die Identifikation zweifelhaft wird, halten wir uns aus diesem Feld heraus.“
In China habe man diese Bedenken offenbar nicht, dort würden mittels omnipräsenter Überwachungskameras Menschen sozial herauf- oder herabgestuft. Langkabel: „Die Politik muss entscheiden, ob wir hier auch solche Systeme wollen.“
„Wichtig ist die Entmystifizierung von künstlicher Intelligenz. Es handelt sich um Instrumente aus Mathematik und Wahrscheinlichkeitsrechnung.“
Thomas Langkabel, Microsoft
Für den Profi im Umgang mit Daten gehört sachverständiger Umgang mit künstlicher Intelligenz in den Ausbildungskanon von allen Bereichen öffentlicher Verwaltung. „Wir haben 4,3 Millionen Verwaltungsangestellte in Deutschland. Die müssten in einem speziellen Digitalpakt auf den Umgang mit künstlicher Intelligenz geschult werden.“ Das gelte auch für weite Bereiche der Justiz, in denen die Datenmengen der Verfahren nur noch durch die Nutzung von KI beherrscht werden könnten. In den USA würden bereits Systeme in Gerichtsverfahren erprobt, in denen alle früheren Urteile erfasst wurden und ein Musterurteil vom Computer vorgeschlagen werde.
Biesenbach reduzierte das komplexe Thema am Ende noch einmal auf den einzelnen Bürger und seine Verantwortung für die von ihm erhobenen Daten. „Facebook kündigt Innovationen im Bereich der Stimmerkennung an, bald soll es möglich sein, das Handy mit der Kraft von Gedanken zu steuern. Umso wichtiger wird es, dass jeder bewusst mit seinen Daten umgeht. Ändern Sie immer wieder Ihre Passwörter. Und denken Sie daran: Alexa ist der Spion in Ihrem Haus, der 24 Stunden alles aufzeichnet. Sie wissen nicht wer mithört und Ihre Daten vielleicht später verkauft.“
Biesenbach reduzierte das komplexe Thema am Ende noch einmal auf den einzelnen Bürger und seine Verantwortung für die von ihm erhobenen Daten. „Facebook kündigt Innovationen im Bereich der Stimmerkennung an, bald soll es möglich sein, das Handy mit der Kraft von Gedanken zu steuern. Umso wichtiger wird es, dass jeder bewusst mit seinen Daten umgeht. Ändern Sie immer wieder Ihre Passwörter. Und denken Sie daran: Alexa ist der Spion in Ihrem Haus, der 24 Stunden alles aufzeichnet. Sie wissen nicht wer mithört und Ihre Daten vielleicht später verkauft.“