Predictive Policing: Vom gläsernen Menschen zum berechneten Täter

„Predicitive Policing“,  Prognose-Software auf der Grundlage der Algorithmen zur prädiktiven Verhaltensanalyse, soll Straftaten verhindern.

 

Das ist ja ein alter Traum der Kriminalisten: Wissen, wann ein Mensch wo ein Verbrechen begehen wird, um ihn daran zu hindern. Ein halbes Dutzend Softwarehersteller versprechen, dass die Polizei genau das mit ihrer Software berechnen kann.

 

In München und Nürnberg laufen seit Oktober 2014 Pilotversuche mit dem Programm „Precobs“, das die Wahrscheinlichkeit von Wohnungseinbrüchen für bestimmte Stadtviertel und Straßen berechnet. In Nordrhein-Westfalen, Niedersachsen und Berlin soll eine solche Software zur Prognose von Straftaten demnächst flächendeckend eingeführt werden. Das Bundeskriminalamt testet eine Software namens „Content Analytics“ in Kombination mit verschiedenen Geoinformationssystemen.

 

Precobs in München wertet zum Beispiel die polizeilichen Berichte über Wohnungseinbrüche aus und berechnet sogenannte Tatmuster und deren Wahrscheinlichkeiten. Die Ergebnisse dieser Big-Data-Analyse fließen in die Dienstpläne der Streifen ein. Stellen die Precobs-Analysten in einer bestimmten Straße eine erhöhte Einbruchwahrscheinlichkeit fest, lassen sie dort des öfteren Streifen vorbeifahren. Allerdings geben die Analysten die errechneten Prognosen nicht einfach direkt an die Streifenplaner weiter. Die Precobs-Operatoren müssen die Berechnungergebnisse hinterfragen. Erfahrung und Intuition der Polizisten sollen in München dadurch gerade nicht ersetzt werden.

 

Das sehen Polizisten in anderen Ländern durchaus anders. In Los Angeles zum Beispiel fließen die Berechnungsergebnisse der Prognosesoftware Predpol eins zu eins an die Dienstplaner weiter – mit bemerkenswerten Folgen. So passierte vor einiger Zeit in Gebieten mit starker Polizeipräsenz nichts, kein einziger Einbruch. Allerdings wurde zeitgleich ein Villenviertel regelrecht leer geräumt, für das Predpol eine äußerst geringe Einbruchwahrscheinlichkeit berechnet hatte. Sofort kam der Verdacht auf, dass die organisierte Kriminalität sich in die Polizeiserver gehackt und Predpol manipuliert habe.

 

Doch Sicherheitsexperten haben eine andere Erklärung. Das Einbruchskartell habe für die Prognosesoftware irreführende Daten erzeugt. Während in München nur die Einbruchsdaten aus den Polizeiberichten für die Prognose verwendet werden, greifen die Predpol-Sachbearbeiter in Los Angeles auch auf Wetterdaten, Verbindungsdaten aus dem Mobilfunk und Daten aus dem KFZ-Scanning zurück.

 

Wird zum Beispiel verstärkt von Handys mit Prepaid-Karten telefoniert oder gesimst und fahren öfter als sonst Lieferwagen mit ausländischen KFZ-Kennzeichen oder denen anderer Bundesstaaten durch Wohnviertel, errechnet Predpol eine stärkere Einbruchswahrscheinlichkeit. Das können Kriminelle leicht ausnutzen und solche Daten gezielt erzeugen, um von ihrem Operationsgebiet abzulenken – und das haben sie denn auch getan in Los Angeles.

 

Dann ist die Prognosesoftware nutzlos, entfaltet sogar kontraproduktive Wirkung. Deshalb hat man sich in Müchen dazu entschlossen, ausschließlich sogenannte polizeiliche Vorgangsdaten für die Berechnung der Wahrscheinlichkeiten zu verwenden und keine externen Daten.

 

Kritisiert wird außerdem, dass amerikanische und britische Sicherheitsbehörden Daten aus der Massenüberwachung, wie dem KFZ-Scanning oder Verbindungsaufzeichnungen im Mobilfunk und im Internet in die Prognosesysteme einspeisen. Werden dann noch Personenprofile erstellt, schrillen bei den Datenschützern die Alarmglocken.

 

So hat die britische Polizei Rückfälligkeitsprognosen von verurteilten Gang-Mitgliedern mit solcher Vorhersagesoftware berechnen lassen. Vor einem halben Jahr konnten wie eine interessante Diskussion in Großbritannien verfolgen.

 

Die Metropolitan Police in London setzt neben Predpol eine Content-Analytics-Software ein, um die Wahrscheinlichkeit sogenannter „islamistischer Gefährder“ zu berechnen. Ergaben sich für das Profil Einzelner, eine hohe Wahrscheinlichketi, das sie einen Terroranschlag in Erwägung ziehen könnten, wurden sie stärker überwacht und auch von Mitarbeitern des Inlandsnachrichtendienstes angesprochen.

 

Das sei, fanden einige Tory-Politiker, zu wenig. Man müsse neue Formen entwickeln, mit solchen Gefährdern umzugehen. Und tatsächlich wurden von elektronischen Fußfesseln bis zu Internierungslagern Vorschläge ins Spiel gebracht, an deren Vereinbarkeit mit rechtsstaatlichen Prinzipien zumindest gezweifelt werden kann.

 

Auch die Polizei in Chicago nutzt eine Prognosesoftware, um Wahrscheinlichkeitswerte bestimmter Straftaten für einzelne Menschen zu errechnen. Wer auf diese Weise als potenzieller Straftäter identifiziert wurde, landet auf einer sogenannten „heißen Liste“ und wird von speziell geschulten Beamten angesprochen und betreut.

 

Die ägyptische Regierung setzt Prognosesoftware ein, um die Wahrscheinlichkeit von lokalen gewalttätigen Protesten berechnen zu können. Und die US-Regierung lässt die Wahrscheinlichkeit berechnen, mit der Regierungsmitarbeiter zu Whistleblowern werden. Um die kümmern sich dann Mitarbeiter eines eigens gegründeten Betreuungsstabes. Das machen die übrigens erst nach den Enthüllungen von Edward Snowden.

 

Pionier auf dem Gebiet der polizeilichen Vorhersagesoftware war der amerikanische Computerkonzern IBM. IBM profitierte dabei ganz direkt von den Ergebnissen prädiktiver Analysen im Open Computerlab des Cern, an dem IBM-Wissenschaftler mitwirkten.

 

Die erste für Prognosezwecke entwickelte Software von Big Blue wurde von der Polizei im amerikanischen Memphis eingesetzt, um Tatorte und Tatzeitpunkte vorhersagen zu können. Die Blue Crush genante Software basierte im wesentlichen auf dem Statistikprogramm SPSS und einem Geoinformationssystem. Seitdem hat IBM mit ihrem Programm „Content Analytics“ Algorithmen für Big-Data-Analysen zur Prognose von Straftaten entwickelt, die auch vom BKA intensiv getestet werden.

 

Die Prognosesoftware Predpol entstand aus Algorithmen für die Erdbebenwarnung. Sie wird gemeinsam von der Polizeibehörde in Los Angeles mit kalifornischen Universitäten entwickelt. Predpol wurde von der Metropolitan Police in London dann ganz wesentlich weiter entwickelt, und zwar in Zusammenarbeit mit der Beratungsfirma Accenture zur Prognose von ganz unterschiedlichen Straftaten.

 

Den Kriminalisten interessieren die Tatumstände, die Prognosesoftware benötigt Daten über das Verhalten der Kriminellen vor und während der Tat. Telefonieren sie überwiegend mit Handys, die eine Prepaid-Karte haben? Schicken die Kriminellen einander SMS? Schauen sie sich von bestimmten Internet-Protokolladressen aus die künftigen Tatorte in Streetview an? Schlagen sie insbesondere zu, während gerade eine Großveranstaltung in der Stadt, weil viele Menschen dann vermutlich nicht zu Hause sind?

 

Die Prognosesoftware wertet solche Begleitumstände früherer Straftaten aus, ermittelt regelrechte Verhaltensmuster und berechnet im Vergleich zu diesen Verhaltensmustern Wahrscheinlichkeitswerte für künftiges Verhalten. Solche Wahrscheinlichkeiten können dann auf Grundlage dieser Muster für bestimmte Orte und Zeiten oder auch für einzelne Personen berechnet werden.

 

Um Kriminalprävention ging es auch bei den Indect-Forschungsprogrammen bis Anfang 2014. Peter Welchering aus unserem Rechercheverbund-T konnte 2012 und 2013 mehrere Labors besuchen, vor allen Dingen auch bei beteiligten Instituten in Polen.

 

Das Indect-Projekt, das die Europäische Union aufgelegt hat, geht davon aus, dass man Verhaltensmodelle berechnet und diese Verhaltensmodelle dann mit dem wirklichen Verhalten von Menschen ständig abgleicht. Das heißt, die Videokameras, die auf Bahnhöfen, auf Flughäfen, in anderen Bereichen hängen, werten aus, ob ein riskantes Verhalten von Menschen vorliegt.

 

Also, jemand tritt an eine Bahnsteigkante, tritt dort mal zurück, bekreuzigt sich, tritt wieder an die Bahnsteigkante. Da ist eine hohe Suizidgefahr gegeben und es muss eingegriffen werden. Jemand lässt einen Rucksack auf einem Bahnhof stehen und geht behänden Schrittes davon. Es gibt ungefähr drei Dutzend solcher Verhaltensmodelle, mit denen man etwas anfangen kann.

 

Aber es geht weiter. Mit Verhaltensmodellen beispielsweise, die meine Mimik auswerten, die meine Laufwege auswerten. Normalerweise läuft man direkt vom Fahrkartenschalter ohne Umwege zum Bahnsteig. Ich tue das nicht. Das ist ein abnormes Verhalten in einigen Indect-Projekten. Dann bin ich schon verdächtig.

 

Man sollte auf die National Security Agency auch nicht immer nur schimpfen, denn einen Fall haben sie Big-Data-Algorithmen sehr professionell eingesetzt, nämlich im Falle der Auseinandersetzung um die Senkaku-Inseln zwischen China und Japan.

 

Sie werden es mitbekommen haben, das ist schon ein bisschen her, als China und Japan anfingen, sich um eine völlig unwirtliche Inselgruppe stritten. Unter dieser Inselgruppe werden Bodenschätze vermutet, ein bisschen Gas, ein bisschen Öl. Und da hat die NSA mit einer prädiktiven Verhaltensanalyse den Japanern geholfen. Die Frage lautete: Müssen wir mit richtig massiven Kriegsschiffen, mit richtig martialischem Auftritt, mit Säbelrasseln und allem Möglichen vor den Senkaku-Inseln auftreten, um China zu beeindrucken?

 

Nach Auswertung aller Daten, auch unstrukturierter Daten, Kommunikationsdaten, die die National Security Agency hatte, die sie an die befreundeten Geheimdienste in Japan weitergegeben hat, kam man zu der Einschätzung: Nein, ihr müsst nicht martialisch auftreten, aber ihr müsst sie ein wenig vorführen. Setzt auf euren Kriegsschiffen die großen Feuerlöscheinrichtungen in Gang, d. h. spritzt die Kriegsschiffe der Chinesen nass. Und dann werden die sich zurücknehmen.

 

Und das geschah dann auch tatsächlich so wie prognostiziert. Ausgewertet haben die Geheimdienstanalysten dafür den Telefon- und Mailverkehr der beteiligten chinesischen Entscheidungsträger, also Militärs und Politiker, den sie abgehört haben. Außerdem haben sie sämtliche chinesische Medien ausgewertet, die Kommunikation auf den sozialen Medien, Regierungsverlautbarungen und Interviews.

 

Das war also das Ergebnis einer Big-Data-Analyse. Wir haben es hier mit sehr ausgefeilter prädiktiver Verhaltenanalyse zu tun. Es geht dabei um das Verhalten einzelner Menschen. Man kann das herunterbrechen auf das Verhalten von Menschengruppen, man kann das herunterbrechen auf die Strategiesimulation von Militärs, wie im Fall China und Japan, und man kann das herunterbrechen auf das Verhalten von bestimmten Menschengruppen, die sich durch bestimmte soziale Merkmale, durch bestimmte finanzielle Merkmale, durch bestimmte politische Anschauungen, durch bestimmte gesellschaftliche Einschätzungen zu einer bestimmten Kohorte zusammenfassen lassen.

 

Dafür ist eine Technologie ganz wichtig, oder besser gesagt eine Technik, ganz wichtig, nämlich die sogenannte In-Memory-Technik. Das heißt, ich brauche Arbeitsspeicher, die mir erlauben, die Auswertungsanalysen, also das, was an allen unstrukturierten Daten hereingekommen ist und nun prädiktiv berechnet und in ein Verhaltensmodell eingepasst werden soll, gleichzeitig zu fahren, während neue Daten in diesen Speicher hineinkommen. Das ist eine Neuerung, die haben wir erst seit, ich sage mal, seit ungefähr drei Jahren implementiert.

 

In-Memory-Technik erlaubt uns, dass die gesamte Datenbasis ständig erweitert wird und dass während dieser Erweiterung der Analysebetrieb weiterläuft, also nicht ausgesetzt werden muss. Big Data Analysen, die also vorher 48 bis 72 Stunden gebraucht haben, weil zwischendurch immer wieder die Datenbasis angereichert werden musste und dafür der Analyselauf gestoppt werden musste, können jetzt weiterlaufen und wir haben diese Ergebnisse in sechs, vier oder drei Stunden.

 

Die National Security Agency hat genau dafür in Bluffdale ein Rechenzentrum im Bereich der sogenannten Zeta-Scale Anwendungen gebaut. Das ist eine Trilliarde Bytes, die da verarbeitet werden kann innerhalb von weniger als einer Stunde, eine Trilliarde, zehn hoch einundzwanzig, einundzwanzig Nullen hinter einer Eins. Das sind sehr viele Daten von Ihnen, von mir und von anderen Menschen, zum Beispiel von chinesischen Entscheidungsträgern.

 

Das heißt, die Datenbasis wird immer größer, die Verarbeitungsgeschwindigkeit steigt dadurch, und es können unstrukturierte Daten einbezogen werden, so dass dann auch die Summe der Verhaltenskriterien sehr viel weiter gefasst werden kann als das bisher geschehen konnte.

 

Deshalb hat die National Security Agency übrigens auch Bluffdale gebaut und da enorm viel Geld in dieses Rechenzentrum investiert, das übrigens noch nicht in der Endausbaustufe ist, weil sie Stromversorgungsprobleme haben. Was sie damit machen wollen ist, dass sie die Summe der Verhaltenskriterien, die bisher vor allen Dingen bei der Analyse der Metadaten noch einigermaßen plump daher kommt, um Faktor 100 erhöhen und damit die Prognose extrem verfeinern.

 

Bisher sind zum Beispiel die Verhaltenskriterien, um terroristische Aktivitäten ausfindig zu machen, so definiert: Wenn jemand fünf-/sechsmal von seinem Mobiltelefon zu anderen Mobiltelefonen Kontakt aufgenommen hat, sich anschließend auf Google Maps einen bestimmten Ort anschaut, diese Google Maps Koordinaten per Mail weiterverschickt an einen Kommunikationspartner, anschließend noch einmal telefoniert, sich daraufhin in einen verschlüsselten Chat hängt und anschließend noch einmal einen Austausch über beispielsweise andere soziale Plattformen, die sich nicht sofort dem Literarsinn nach erschließen lassen, so wie früher ja von den Regierungssendern solche Dinge wie „Onkel Otto hat grüne Socken an“ – das sollte den Spion vor der Polizei warnen, weitergetragen wurden. Wenn so etwas passiert, dann haben wir es mit hoher Wahrscheinlichkeit mit terroristischem Verhalten zu tun.

 

Das Problem ist, wenn Sie und ich uns zu einer Fahrradtour verabreden, dann haben wir vielleicht zweimal telefoniert. Vielleicht wir beide hier vorne. Dann sagen wir, wir starten am Haus der bayerischen Wirtschaft. „Haus der bayerischen Wirtschaft“, noch nie gehört, sagen Sie vielleicht, ich gucke mal auf Google Maps nach. Machen wir beide. Anschließend telefoniere ich oder chatte kurz mit Ihnen und sage: „Ja, habe ich gefunden, ich weiß, wo ich hin muss, wir können morgen um 10 starten.“ Und wir mailen noch mal: „Sie bringen bitte die Ersatzluftpumpe mit und ich das Picknick und dann starten wir hier“.

 

Dann ist für die NSA nach den Verhaltenskriterien ganz klar, wir beide sind hochgradig des Terrorismus verdächtig.

 

Da haben die natürlich auch gemerkt, dass es so nicht geht, aus diesen Metadaten mit diesen Verhaltenskriterien solche prädiktiven Verhaltensprognosen abzuleiten, macht uns viel Arbeit. Es gibt nämlich viel zu viele Blindalarme. Dann müssen wir die Verhaltenskriterien deutlich ausdehnen, wir müssen wie Keith Alexander gesagt hat, beispielsweise dahin kommen, dass wir etwa 1.500 dimensionale Verhaltenskriterien hier ansetzen können.

 

Das sind dann Big Data Analysen und Simulationsläufe, die brauchen Zeit, die brauchen sehr viele Daten. Und dann müssen sie noch mal berechnet werden, nämlich einfach mit einer ganz trockenen konventionellen statistischen Fehlerberechnung, damit man eine prädiktive Fehlerberechnung hinbekommt und anschließend auch wirklich sagen kann: Ok, hier haben wir beispielsweise eine Verhaltensprognose, aber nach unserer Fehlerberechnung haben wir unter Umständen noch ein Gewichtungsproblem an bestimmten Daten, die eingeflossen sind. Die müssen wir noch mal verfeinern, weil wir jetzt nur mit einer 70-prozentigen Wahrscheinlichkeit nach dieser Fehlerrechnung sagen können, dass dieses Verhalten auch wirklich eintritt.

 

Im Fall der Big-Data-Analyse für die politische Strategieberatung in Sachen Senkaku-Inseln hatte die NSA bis zum Jahr 2014 die Nase vorn. Und das lag an der Technologie.

 

Big-Data-Analysen beruhen zunächst einmal auf Algorithmen, die unstrukturierte und strukturierte Daten zusammenbringen und aus denen ein geschichtliches Verhalten von Menschen erkannt und in ein Modell geschrieben werden kann. Da kann also algorithmisch ausgewertet werden, was die Muster sind, nach denen sich die führenden chinesischen Militärs und die Politiker des Zentralkomitees der Kommunistischen Partei Chinas oder das Kabinett Obama verhalten. Damit aber ein Geheimdienst oder eben auch ein Unternehmen damit arbeiten kann, wie sich bestimmte Menschen oder Menschengruppen morgen verhalten, brauchen sie eine Simulation.

 

Im Supercomputerzentrum der NSA werden solche Verhaltenssimulationen auf der Grundlage linearer Gleichungssysteme gerechnet. Die Daten für diese linearen Gleichungen, die da eingefüttert werden müssen, damit zum Beispiel die NSA sie entsprechend berechnen und lösen kann, kommen aus den unstrukturierten und strukturierten Daten der Big Data Analysen, die aus Social Media, aus Metadaten-Analysen und ähnlichem diese Daten gewinnen.

 

Die Gleichungssysteme, die von der NSA für diese Algorithmik eingesetzt werden, bestehen aus neun bis elf Millionen linearer Gleichungen. Mehr lässt sich derzeit weder in Fort Meade noch in Bluffdale realisieren, weil im Rahmen der politischen Strategieberatung nur Rechenzeitungen bis zu 36 Stunden möglich sind. Dann muss ein Strategiekonzept durchsimuliert sein.

 

Und da haben die Amerikaner zur Zeit ein Problem. Denn im Augenblick steht der schnellste Rechner der Welt, der Tianhe 2 - Tianhe heißt auf Deutsch Milchstraße - in Guangzhou in der Guangdong Provinz, und zwar an der Nationalen Universität für Verteidigungstechnologie, und Professor Ruibu Wang arbeitet sehr stark daran, solche Simulationen extrem granular zu fahren, um Verhaltenssimulationen berechnen zu können.

 

Das bedeutet zur Zeit rein von den Zahlen her: auf den Tianhe 2 werden für Menschen, deren Verhalten man berechnen will, so über den Daumen gepeilt zwischen 15 und 18 Millionen lineare Gleichungen gelöst. Und in diesen linearen Gleichungen liegt unser Verhalten. Deshalb sind die prädiktiven Verhaltensanalysen, die gegenwärtig von chinesischen Analysten geliefert werden, auch sehr viel präziser als die Prognosen ihrer amerikanischen Kollegen.

 

Und dann kommt Ruibu Wang, den Peter Welchering 2014 mal treffen konnte, und der dessen Verhalten mal berechnet hat, zu erstaunlich präzisen Vorhersagen des Verhaltens zum Beipsiel von Peter Welchering. Professor Wang konnte wirklich sagen, was Peter Welchering am nächsten Tag tun würde, und das mit einer prädiktiven Fehlerberechnung, die ihm fast keine Möglichkeit mehr gegeben hat, sich wirklich anders zu verhalten. Wenn Sie das auf die Regierung Obama übertragen, sehen Sie vor welchem Problem die NSA gerade steht.

 

Daraus ergeben sich natürlich einige Fragen. Eine dieser Fragen lautet, wie weit wir einer Ausweitung der Datenbasis hier zustimmen wollen. Wollen wir sie irgendwie begrenzen? Das ist eine politische Frage, die wir uns stellen müssen. Das ist übrigens eine Frage, die die Bundesregierung konsequent seit mehreren Jahrzehnten ablehnt zu diskutieren.

 

Dabei ist es egal, welche Farbe gerade dahinter steckt. Wir müssen uns klar machen, dass wir es hier immer mit einem erkenntnistheoretischen Vorbehalt zu tun haben. Wann immer Big Data Anbieter auf mich zukommen und sagen: Ja, wir können eine Verhaltensprognose abgeben, endlich, oder vor allem wenn Sicherheitsbehörden das tun, vor dem Täter am Tatort sein. Dann müssen wir ihnen sagen: Ja, aber auf welcher Grundlage könnt ihr denn eine Verhaltensprognose wirklich abgeben. Es sind Inferenzen, es sind statistische Wahrscheinlichkeiten. Mehr nicht. Nur statistische Wahrscheinlichkeiten.

 

Dazu hat Prof. Günter Müller aus Freiburg mal den schönen Satz geprägt: Im Prinzip geht es eigentlich darum, dass auch Geheimdienste nach dem Grundsatz verfahren, wer grüne Socken trägt, isst auch gerne Schnitzel.

 

Darum geht es. Das ist genau die prädiktive Verhaltensanalyse, und auf diesem Niveau findet das Ganze auch statt. Denn es handelt sich immer nur um Wahrscheinlichkeitsrechnungen. Nicht um mehr. Und das müssen wir uns klar machen.

 

Wenn Sicherheitsvertreter, wenn Big Data Anwender und Anbieter, wenn Entwickler von Algorithmen auftreten und sagen: Wir können mit Big Data tatsächlich die Zukunft vorhersagen, wir haben es jetzt endlich geschafft, die Kristallkugel in Algorithmen zu bringen. Was machen wir dann mit einer solchen Aussage?

 

Zunächst einmal müssen wir sagen: Sie haben nicht ganz unrecht. Sie können mit einer guten statistischen Wahrscheinlichkeitsrechnung tatsächlich und mit einer guten Fehlerberechnung in einem sehr großen Maße bestimmte Verhaltensmuster simulieren und dann aus einer Simulationsanalyse errechnen, wie sich jemand verhält.

 

Wer grüne Socken trägt, isst gerne Schnitzel. Mehr kann dazu also eigentlich gar nicht gesagt werden. Und auf dieser Ebene werden dann plötzlich Menschen in potenzielle Straftäter, hochrisikobelastete Autofahrer und ähnliches eingeteilt.

 

 Welche Prognosen also sind erlaubt? Welche Prognosen braucht die Gesellschaft und welche Prognosen sollen nicht erlaubt sein. Durch die Kombination von Big-Data-Analysen mit datenforensischen Verfahren entsteht zudem eine ganz neue Prognosequalität.

 

Soll künftig ein Sicherheitsbeamter per Simulation und virtueller Realität einen ganzen Flughafen überwachen können? Sollen Piloten während des Fluges mit Elektroden, Infrarot-Augenkamera und anderen Körperdaten ständig überwacht werden, um unerwünschtes und vielleicht sogar gefährliches Verhalten rechtzeitig erkennen und dann unterbinden zu können? Sollen Whistleblower, Menschen die den Medien Informationen über einen Skandal oder eine gefährliche Entwicklung in einer Behörde oder in einem Unternehmen mit forensischen Methoden enttarnt werden, damit sie wegen Geheimnisverrats vor Gericht gestellt werden können, oder braucht die Gesellschaft auch die Möglichkeit, dass auch anonym auf Missstände aufmerksam gemacht werden kann?

 

Der gesellschaftliche Diskurs über solche Fragen beginnt gerade erst. Und dass es hier um teilweise extrem komplexe technische Methoden und Abläufe geht, macht die Sache nicht einfacher.

 

Kommentar schreiben

Kommentare: 0

Was kann ein Comiccast?