KI im Asylverfahren: Repression, Profit und Testlabor auf Kosten der Schwächsten

Ein Text auf der Startseite von Open AI

In Österreich kommen KI-Tools für Übersetzung, Gesichtserkennung und Textanalyse im Asylverfahren zum Einsatz. Was als Effizienz verkauft wird, bedeutet Repression – und macht Geflüchtete zu Versuchspersonen für fehlerhafte Systeme. mosaik-Redakteur Dejan Aleksić war bei der Präsentation des Forschungsprojekts A.I.SYL in Wien dabei und ordnet die politischen Hintergründe ein.

Die europäische Grenzsicherheitsindustrie – auch als „Border Security Industrial Complex“ bezeichnet – erlebt derzeit einen rasanten Aufschwung. Die Europäische Agentur für die Grenz- und Küstenwache Frontex soll bis 2025 ein Jahresbudget von nahezu einer Milliarde Euro erhalten – 2016 waren es „nur“ 233 Millionen. Mit immer ausgefeilterer Hochtechnologie schottet sich die EU ab, überwacht ihre Außengrenzen und verwandelt sie in eine Infrastruktur der Abschreckung.

Bisher baute diese Politik vor allem auf Drohnen, biometrische Systeme oder automatisierte Datenbanken. Nun spielt der Einsatz von Künstlicher Intelligenz eine zunehmend große Rolle. Obwohl die Technologie noch jung ist, kommt sie bereits in Asylverfahren zum Einsatz – meist unter dem Vorwand von Effizienz und Kostenersparnis. Doch gemeint ist damit oft etwas anderes: die technisch legitimierte Aushöhlung des Rechts auf Asyl im Rahmen eines politisch inszenierten „Kampfs gegen illegale Migration“.

Welche KI-Technologien in Österreich bereits im Einsatz – und welche in Planung – sind und welche Risiken sie für Schutzsuchende bergen, war Gegenstand des Forschungsprojekts A.I.SYL an der Universität Graz. Die Forscher*innen Angelika Adensamer und Laura Jung präsentierten am 6. Mai 2025 in Wien zentrale Erkenntnisse aus ihrer Untersuchung. Neben einer kritischen Analyse bestehender und künftiger Anwendungen lag der Fokus auch auf der praxisnahen Unterstützung zivilgesellschaftlicher Akteur*innen.

Vier Systeme bereits im Einsatz – weitere in Vorbereitung

Die Forscher*innen konnten vier KI-gestützte Systeme identifizieren, die bereits heute im österreichischen Asylverfahren zum Einsatz kommen. Dafür nutzen sie eine Kombination aus deskriptiver Analyse, Expert*inneninterviews und Auskunftsersuchen beim Innenministerium. Unter diese Systeme fallen die automatisierte Datenträgerauswertung, Gesichtserkennung, Übersetzungstools sowie intelligente Such- und Textverarbeitungssysteme. Zum Einsatz kommen dabei sowohl etablierte Programme wie DeepL oder das Recherchesystem Complexity, als auch eigens entwickelte Anwendungen.

Darüber hinaus sieht das aktuelle Regierungsprogramm die Prüfung weiterer Technologien vor – insbesondere von KI-gestützter Sprach- und Dialekterkennung. Ziel solcher Verfahren ist es, Personen anhand sprachlicher Merkmale einem bestimmten Herkunftsland zuzuordnen. Neben den bereits eingesetzten Systemen beleuchtet das Forschungsprojekt auch Technologien, die aktuell zwar nicht verwendet werden, deren Einführung jedoch im europäischen Kontext diskutiert wird. Darunter fallen KI-basierte Lügendetektoren, individuelle Risikoanalysen und digitale Selbstregistrierungstools. Hinweise auf solche Entwicklungen finden sich nicht nur in der EU-KI-Verordnung, sondern auch in zahlreichen Berichten und Förderprogrammen auf europäischer Ebene.

Übersetzung und Textverarbeitung: funktional, aber fehleranfällig

Die automatisierte Übersetzung sowie die KI-gestützte Textverarbeitung bewerten die Forscher*innen grundsätzlich als funktional. Sie sehen aber gerade in diesen Bereichen einen dringenden Bedarf an Qualitätssicherung, damit Übersetzungsprozesse sensibel, präzise und diskriminierungsfrei ablaufen können. Doch der aktuelle Stand der Technik ist laut ihrer Einschätzung mit erheblichen Risiken verbunden. Ein zentrales Problem: sogenannte „Halluzinationen“. KI-Systeme können Inhalte erfinden oder verfälscht wiedergeben – und dabei dennoch den Anschein von Objektivität erzeugen.

Die Grundlage dieser Systeme, sogenannte Large Language Models (LLMs), beruhen auf statistischen Wahrscheinlichkeiten. Sie berechnen, welche Antwort vermutlich gemeint ist – ohne zwischen „richtig“ und „falsch“ unterscheiden zu können. Gerade dadurch entstehen systematische Verzerrungen und Fehleinschätzungen, die in asylrechtlichen Verfahren gravierende Folgen haben können. Die Fehleranfälligkeit sei enorm, so Laura Jung. Selbst bei den neuesten „Reasoning-Modellen“ liege die Fehlerwahrscheinlichkeit laut Studien zwischen 30 und 80 Prozent.

Aber auch ältere, als stabil geltende Modelle seien keineswegs verlässlich: Eine fehlerfreie Übersetzung sei derzeit nicht möglich. Besonders bei weniger verbreiteten Sprachen fehlen den Modellen oft ausreichende Trainingsdaten. Die Systeme liefern dann häufig erratene Inhalte, die ihnen lediglich als wahrscheinlich erscheinen. So entstehen Scheinübersetzungen, mit potenziell fatalen Folgen: Wichtige Angaben der Schutzsuchenden landen durch falsche Übersetzungen verzerrt im Protokoll. Das kann unter anderem dazu führen, dass Asylanträge abgelehnt werden, da die Entscheidung stark auf den Aussagen im Interview basiert.

Biometrie und Gesichtserkennung: Ausweitung auf Kosten der Rechte

Besonders kritisch bewerten die Forscher*innen den Einsatz automatisierter Gesichtserkennung im Asylbereich. Zum Einsatz kommen soll hier die sogenannte Facial Recognition Technology (FRT), die dazu dient, Identitäten biometrisch zu erfassen. Die jüngste Reform des Gemeinsamen Europäischen Asylsystems (GEAS) sieht eine starke Ausweitung dieser Technologien vor: Neben Fingerabdrücken sollen nun auch Gesichtsmerkmale erhoben und gespeichert werden.

Diese biometrischen Daten werden in der EU-weiten Datenbank Eurodac zentral gesammelt – und künftig nicht mehr nur zur Anwendung der Dublin-Verordnung genutzt, also zur Feststellung des für ein Asylverfahren zuständigen Landes. Neu ist, dass sie auch für Zwecke der öffentlichen Ordnung oder bei Grenzkontrollen herangezogen werden dürfen. Die Nutzungsmöglichkeiten der Daten wurden also deutlich erweitert – und damit auch die Risiken von Missbrauch.

Hinzu kommt, dass Betroffene oft nicht ausreichend über die Datenverarbeitung informiert werden, obwohl sie ein Recht auf Information hätten, kritisiert Angelika Adensamer. Besonders alarmierend: Künftig sollen bereits Kinder ab sechs Jahren in die Datenbank aufgenommen werden – bisher lag die Altersgrenze bei 14 Jahren. Neben schwerwiegenden kinderrechtlichen Bedenken weisen die Forscherinnen darauf hin, dass sich Kindergesichter altersbedingt stark verändern, was die Fehleranfälligkeit weiter erhöht. Dazu kommen rassistische Verzerrungen – Studien zufolge schneiden Systeme bei Schwarzen Personen deutlich schlechter ab als bei weißen. Ein falsch negatives Ergebnis bei der Gesichtserkennung kann etwa dazu führen, dass ein Kind fälschlich einem anderen EU-Staat zugewiesen oder erneut registriert wird – mit tiefgreifenden Folgen für das Asylverfahren und das Recht auf familiäre Einheit.

Dialekterkennung: Pseudowissenschaftliche Herkunftszuschreibungen

Noch weitreichender sind die Bedenken des Projekts A.I.SYL hinsichtlich eines geplanten KI-Tools zur Dialekterkennung. Dabei handelt es sich um eine KI-gestützte Analyse kurzer Sprachproben, um die Herkunft der Person zu bestimmen – etwa, aus welchem Land sie stammt. Doch die Kritik wiegt schwer: Technisch betrachtet ist die Methode fehleranfällig – insbesondere bei selteneren oder nicht-standardisierten Dialekten.

Auch hier greifen die Systeme schlechter bei Sprachvarianten, die weniger in den Trainingsdaten vertreten sind – das betrifft vor allem Sprachen, die in der Regel marginalisierte Gruppen sprechen. Doch jenseits der technischen Mängel stellt sich eine grundsätzliche Frage: Wie sinnvoll ist die Annahme, dass Sprache oder Dialekt verlässlich Rückschlüsse auf die Staatsangehörigkeit zulassen? Dieser Zusammenhang sei massiv überschätzt, warnt Adensamer. Migration, Mehrsprachigkeit und individuelle Lebensgeschichten können dazu führen, dass Menschen anders sprechen, als es ihrer Staatsangehörigkeit vermeintlich entsprechen würde.

Profit durch Abschottung: Wenn Repression zum Geschäftsmodell wird

In der abschließenden Podiumsdiskussion richtete sich der Blick auf ein bislang wenig beleuchtetes, aber zentrales Thema: die Rolle privatwirtschaftlicher Akteure bei der Entwicklung und Implementierung von KI-Systemen im Asylbereich – vor allem hinsichtlich der Intransparenz. Öffentliche Ausschreibungen bleiben schwer nachvollziehbar, die beteiligten Firmen sind kaum identifizierbar. Und wie genau diese Unternehmen mit hochsensiblen personenbezogenen Daten umgehen, bleibt oft unklar.

Damit trifft die migrationspolitische Kritik auf die Kapitalismuskritik. Es ist kein Zufall, dass privatwirtschaftliche Interessen mit repressiven Praktiken kompatibel sind. Die Logik des Kapitals ist mit der Logik der Abschottung offenbar bestens vereinbar, auch wenn sich Abschreckung nicht bloß auf Profitmaximierung reduzieren lässt. Aber wenn die Aushöhlung des Asylrechts ein menschenrechtlicher und zivilisatorischer Skandal ist, dann ist der Kapitalismus als soziale Ordnung genauso in Verantwortng – insofern er auf solche Verhältnisse zurückgreift und sie reproduziert.

Keine neutrale Technik: Warum Wissenschaft Haltung zeigen muss

Während der gesamten Präsentation machten die Forscherinnen deutlich: Ihr Anliegen ist nicht eine abstrakte Technikbewertung, sondern eine konkrete politische Intervention. Es geht um die Anwendung dieser Technologien an einer Gruppe, die strukturell entrechtet und marginalisiert ist. Damit positioniert sich das Projekt bewusst jenseits der Idee einer „neutralen Wissenschaft“ – und nimmt im Spannungsfeld von Forschung, Politik und gesellschaftlicher Verantwortung Haltung ein.

Die Bilanz fällt deutlich aus: Auch wenn einzelne Anwendungen theoretisch Verfahren beschleunigen könnten, sind sie derzeit hoch fehleranfällig und verlangen eine ernsthafte Risikobewertung. Die abschließenden Worte von Laura Jung bringen es auf den Punkt: Gerade weil Asylsuchende so stark entrechtet sind, werden sie nahezu widerstandslos zu Versuchspersonen neuer Technologien. In jedem anderen Kontext – bei dieser Fehleranfälligkeit, mit diesen potenziell fatalen Konsequenzen – wäre der öffentliche Aufschrei gewaltig.

Foto: Jonathan Kemper on Unsplash

Spenden CTA Image

Dir hat der Text gefallen?

Unsere Texte sind für alle gedacht, und alle sollen unsere Texte lesen können. Allerdings ist unsere Arbeit nur durch die Unterstützung unserer Leser*innen möglich. Nur durch freiwillige Spenden können wir linken, kritischen, unabhängigen Journalismus in Österreich weiterführen – jeder Betrag hilft uns!

Nach oben scrollen