Als ich diesen Krimi sah, dachte ich darüber nach, wie sehr mich das Thema KI im Moment beschäftigt. Ich fordere Euch auf, KI ab sofort zu nutzen, fürchte zudem, dass der Job des Synchronsprechers gefährdet ist. Doch über die Polizei dachte ich in dem Zusammenhang bisher kaum nach. In der Folge wurden riesige Datenmengen (etwa Bewegungsprofile) kombiniert. Am Ende lieferte die KI eine Liste möglicher Täter mit hoher Wahrscheinlichkeit – und der wahrscheinlichste war es dann auch.
Lass uns gemeinsam schauen, wie KI sich heute schon im Polizeieinsatz bewährt, was noch kommen wird – und welche Risiken wir dabei nicht übersehen dürfen.
Status Quo – So hilft KI der Polizei heute schon
Künstliche Intelligenz ist längst kein Zukunftsthema mehr – vor allem in der Polizeiarbeit nicht. Vieles läuft heute schon im Hintergrund, besonders dort, wo große Datenmengen ausgewertet werden müssen. Algorithmen und KI übernehmen das schneller und genauer, als es Menschen ohne technische Hilfe könnten.
Videoüberwachung und Bilderkennung
In vielen Städten wie London, New York oder auch mancherorts in Deutschland wird KI genutzt, um Live-Bilder auszuwerten. Sie erkennt nicht nur Gesichter, sondern auch verdächtige Bewegungen – etwa eine Prügelei – und liest Kennzeichen in Echtzeit. Gerade in Großbritannien gibt es darüber immer wieder Diskussionen. Denn oft werden People of Color fälschlich erkannt – ein großes Problem.
Predictive Policing
Algorithmen analysieren historische Kriminalitätsdaten, um vorherzusagen, wo und wann mit besonders hoher Wahrscheinlichkeit ein Verbrechen geschehen könnte. In Deutschland wurde das etwa unter dem Projektnamen „Precobs“ in Hessen und Bayern getestet – allerdings nur mit durchwachsenem Erfolg. Kritiker sprechen von einer „selbsterfüllenden Prophezeiung“. Weil die Polizei sich durch solche Systeme vor allem in sozial benachteiligten Vierteln blicken lasse. In Deutschland wurden diese Tests inzwischen gestoppt.
Auswertung digitaler Spuren
Ob Handydaten, Social-Media-Beiträge, E-Mails oder Bewegungsprofile – besonders bei Cybercrime oder Terrorgefahr hilft KI, die Datenflut zu ordnen. Selbst Emojis oder Sprachmuster können Hinweise geben, die bei Ermittlungen nützlich sind. Ein Europol-Bericht betont: KI kann die Polizeiarbeit stark verändern – von Datenanalyse bis hin zur schnellen Identifikation mithilfe biometrischer Merkmale.
Sprach- & Textanalyse in Verhören oder Online-Chats
Auch das wird getestet: KI soll erkennen, ob jemand lügt, nervös ist oder sich widerspricht – einfach anhand von Sprache oder Tonfall – all das kann auf einen Täuschungsversuch, auf schlechtes Gewissen oder generell die emotionale Verfassung hindeuten. Bei einem Notruf kann KI die Dringlichkeit aus der Stimme herauslesen. Außerdem hilft sie, Gespräche bei Verhören automatisch zu transkribieren und auszuwerten.
In den USA an den Grenzen kommen solche KI-Tools längst zum Einsatz: Emotionen, Phrasen oder bestimmte Begriffe werden analysiert, Social-Media-Profile und weitere Internetspuren durchleuchtet – all das ergibt schnell ein erstes Bild von der einreisenden Person.
Deepfakes & KI bei der Spurensicherung
KI wird auch forensisch immer wichtiger. Ob gefälschte Videos entlarvt oder Tatabläufe nachgestellt werden – mit KI lassen sich verwackelte Aufnahmen stabilisieren, Stimmen herausfiltern oder Bilder nachschärfen. Ein echter Fortschritt für die Spurensicherung!
Chancen: Effizienz, Entlastung, neue Möglichkeiten
Also gut: Heute gibt es schon viele KI-gestützte Tools, die die Polizei bei ihrer Arbeit unterstützen. Wie wir gesehen haben, läuft das zwar nicht immer reibungslos – aber trotzdem bietet der Einsatz von KI auch große Chancen.
Ein klarer Vorteil: Riesige Datenmengen lassen sich viel schneller sammeln und auswerten. Das spart Zeit und macht die Arbeit effizienter. Gleichzeitig entlastet es die Polizisten im Alltag. Laut Theorie könnte so auch das Personal gezielter eingesetzt werden – dort, wo es gerade wirklich gebraucht wird.
Unterm Strich ist KI also ein guter Weg, um die oft unterbesetzten Dienststellen zu stärken. So bleibt mehr Zeit für das, worum es eigentlich geht: Sicherheit und Unterstützung für die Menschen im Land.
Grenzen & Risiken – Wenn Maschinen ermitteln
Aber ja, es gibt leider auch eine Menge gute Gründe, skeptisch zu sein, wenn es darum geht, dass künstliche Intelligenz die Polizei unterstützt.
Der Lie-to-me-Effekt und die Wahrheit dahinter
Kennst du die Serie „Lie to me?“ Da erkennt der schlaue Helfer der Polizei anhand winziger Gesichtsausdrücke, ob jemand lügt. Klingt beeindruckend – ist aber umstritten. Denn Emotionen lassen sich leicht falsch deuten. Vielleicht war ich heimlich in das Opfer verliebt, ohne mit der Tat etwas zu tun zu haben. Schon reagiert mein Körper im Verhör anders als bei anderen – obwohl ich unschuldig bin.
Und wenn dann nicht mal ein Mensch, sondern eine KI solche Reaktionen bewertet, wird’s heikel. Klar, sie erkennt Stress. Aber Stress muss nichts mit Lügen zu tun haben. Auch Scham, ein Trauma oder kulturelle Unterschiede können KI-Systeme in die Irre führen.
Der Trainingsdaten-Bias
Erinnerst du dich an den Google-Fail, als „Google Fotos“ schwarze Menschen als Gorillas markierte? Solche Fehler passieren, wenn die KI vor allem mit Daten weißer Männer trainiert wird – und weniger mit Bildern von People of Color. Das Ergebnis: Die KI erkennt bestimmte Gruppen besser als andere. Und ja, die Systeme werden selbstverständlich besser. Aber Diskriminierung ist oft weiter eingebaut – ohne böse Absicht, aber mit echten Folgen.
Intransparenz: Was tun sie da, Lieutenant KI?
Wir verstehen schon jetzt oft nicht mehr, wie eine KI zu ihren Ergebnissen kommt. Manchmal spricht sie plötzlich eine Sprache, auf die sie nie trainiert wurde. Die Technik funktioniert wie eine Black Box: gutes Ergebnis, aber kaum nachzuvollziehen, wie es zustande kam. Neue Modelle dokumentieren ihre Denkschritte – trotzdem bleibt die Gefahr, dass man sich zu sehr auf KI verlässt, ohne kritisch zu hinterfragen, wie verlässlich die Antwort ist.
Fragen, die sich stellen: Warum soll in Viertel A häufiger patrouilliert werden als in B? Warum ist Person X auffälliger als Y? Und wer haftet, wenn KI eine unschuldige Person verdächtigt oder gar verhaften lässt? Das führt mich direkt zum nächsten Punkt:
Findet eine Privatisierung der Exekutive statt?
KI wird nicht aus dem Nichts entwickelt. Dahinter stehen Unternehmen – Firmen, die mit ihren Produkten Geld verdienen wollen. Dagegen ist erstmal nichts zu sagen. Aber: Wollen wir wirklich, dass private Tech-Konzerne mitentscheiden, wer als verdächtig gilt? Dass Software, die vielleicht versteckte Schwachstellen hat, über Menschen urteilt?
Fakt ist: Damit verlagert sich Macht – von staatlichen Behörden hin zu Firmen, die auf Profit fokussiert sind. Und wie das ausgehen kann, wenn solche Unternehmen zu viel Einfluss bekommen, sehen wir jeden Tag in den sozialen Netzwerken. Leider.
Die gesellschaftliche Dimension – Vertrauen wir der KI?
…und damit sind wir bei einem Punkt, den wir nicht aus dem Blick verlieren dürfen: Wie fein ist es für uns als Gesellschaft, wenn die Polizei – unser Freund und Helfer – immer mehr Verantwortung an KI abgibt? Also an Systeme, die von privaten Firmen entwickelt wurden?
Wir leben in Zeiten, in denen das Vertrauen in staatliche Institutionen wackelt. Viele glauben der Regierung nicht mehr. Politiker? Lügen doch eh. Medien? Gekauft. Experten? Auch nicht besser.
Da stellt sich doch die Frage, was das dann mit unserem Vertrauen in die Polizei macht, wenn wir die KI zunehmend an der Seite der Ermittelnden sehen? Vertraust du selbst denn der Polizei? Glaubst du, dass sie wirklich unparteiisch und neutral mit jedem von uns umgeht? Und wie sehr vertraust du einer Polizei, von der du weißt, dass sie Software Entscheidungen treffen lässt?
Was, wenn du dich unfair behandelt fühlst? In einem demokratischen Rechtsstaat muss man Entscheidungen anfechten können. Wenn Fehler passieren, sollten sie nachvollziehbar und korrigierbar sein. Aber wie fechte ich einen Algorithmus an, der nicht mal sagt, wie er zu seinem Ergebnis gekommen ist? Schau als Beispiel dafür auf die USA und das System COMPAS.
Das soll per Algorithmus die Rückfallgefahr von Straftätern in den USA vorhersagen. Die NGO ProPublica fand bei einer Untersuchung heraus, dass COMPAS Schwarze Menschen benachteiligt. So wird bei schwarzen Menschen die Rückfallgefahr überschätzt, während sie bei Weißen unterschätzt würde.
Wollen wir wirklich, dass Maschinen entscheiden, ob wir ins Gefängnis kommen oder nicht? Klar, KI wird bald schlauer sein als viele Richter. Aber das ersetzt nicht Transparenz. Wenn wir nicht mehr nachvollziehen können, wie Entscheidungen zustande kommen, verlieren wir Vertrauen – in Polizei, Justiz, Staat. Und das wäre fatal.
Blick in die Zukunft: Utopie oder Dystopie – wie läuft Polizeiarbeit 2035?
Da mein Text zuletzt ein bisschen düster wurde, versuche ich es erstmal mit einem optimistischen Blick nach vorn. Denn ich habe – trotz aller Kritik – ein solides Grundvertrauen in künstliche Intelligenz. Also, stell dir das Jahr 2035 vor. Die Polizeiarbeit hat sich komplett gewandelt. Wenn wir es richtig angehen, sähe das vielleicht so aus:
Die eingesetzten Algorithmen sind fair. Es gibt keine parteiischen Bewertungen mehr – weder durch Menschen noch durch Maschinen. Keine Diskriminierung. Keine Vorurteile. Nur neutrale Entscheidungen.
Transparenz wird großgeschrieben. Es ist bis ins Detail nachvollziehbar, warum jemand ins Visier der Polizei gerät. Und was heute schon hilft, ist auch in zehn Jahren ein Gamechanger: riesige Datenmengen werden in Sekunden verarbeitet. Wer 2035 eine Straftat plant, überlegt sich das besser zweimal.
Und vielleicht – ja, vielleicht – erkennt die Gesellschaft in dieser KI endlich das, was sie sein kann: ein hilfreiches, gerechtes Werkzeug. Eins, das das Vertrauen in die Polizei wieder stärkt. Predictive Policing? Vielleicht bedeutet das 2035, dass Konflikte erkannt und gelöst werden, bevor sie eskalieren.
Polizei auf diesem Niveau wäre nicht nur schneller, sondern auch fairer!
Und wenn es nicht gut läuft: Die Dystopie für 2035
Jetzt zur dunklen Seite. Was, wenn das alles ganz anders kommt?
Vielleicht landen wir in einem Überwachungsstaat. Drohnen, Bodycams, fest installierte Kameras – alles glotzt auf uns. Immer. Überall. Nicht, um zu schützen, sondern um zu bewerten. Predictive Policing erkennt keine Risiken – sondern wiederholt alte Vorurteile.
Die Polizei? Verlässt sich blind auf das, was die KI sagt. Entscheidungen werden nicht mehr hinterfragt. Fehler gibt es offiziell nicht mehr – weil niemand sie prüft. Die Transparenz geht uns also komplett verloren.
Und wer entscheidet, wie gut die Software funktioniert? Ob sie Updates bekommt? Nicht die Polizei. Nicht der Staat. Sondern das Unternehmen, das sie verkauft.
In dieser Vision ist die Polizeiarbeit 2035 effizienter, klar. Aber auch intransparent. Und zutiefst entmenschlicht.
Mein Fazit: Kommissar KI braucht (aktuell noch) Dienstaufsicht
Am Ende lande ich – wie so oft, wenn es um KI geht – bei einem ganz ähnlichen Fazit: Alles steht und fällt mit unserem Umgang. Künstliche Intelligenz ist nicht gut, nicht böse – sie ist erstmal nur eins: neutral. Und genau deshalb kann sie beides sein: eine mächtige Unterstützung oder eine gefährliche Waffe. Wohin die Reise geht? Das weiß heute niemand mit Sicherheit.
Die eigentlich spannende Frage ist für mich auch nicht mehr, ob KI die Polizeiarbeit verändert. Das tut sie längst. Wir profitieren heute schon von ihren Fähigkeiten – schneller Datenabgleich, bessere Vorhersagen, effizientere Prozesse. Die entscheidende Frage lautet vielmehr: Wer setzt die Spielregeln? Und wer kontrolliert die Maschinen – und die, die sie bauen?
Das, was wir heute entscheiden und zulassen, formt bereits die Exekutive von morgen. Wir müssen also dringend Regeln festlegen, in welcher Form künstliche Intelligenz polizeilich wirken darf. Und wie bei jeder anderen Aufgabe, jedem anderen Job auch, bei der uns KI über kurz oder lang den Rang abläuft: Wir als Gesellschaft müssen dafür sorgen, dass die richtigen Menschen an der Macht sind, bis KI uns übertrumpft!