Regierungsbehörden in ganz Südafrika setzen zunehmend auf digitale Werkzeuge, um öffentliche Programme zu bewerten und die Leistung zu überwachen. Dies ist Teil umfassenderer Reformen im öffentlichen Sektor. Ihre Ziele sind es, die Rechenschaftspflicht zu verbessern, auf Prüfungsdruck zu reagieren und groß angelegte Programme mit begrenztem Personal und Budget zu verwalten.
Hier ist ein Beispiel. Nationale Behörden, die die Bereitstellung von Wohnraum, Sozialzuschüsse oder den Infrastrukturausbau verfolgen, verlassen sich auf digitale Leistungssysteme statt auf periodische papierbasierte Berichte. Dashboards – eine Möglichkeit, visuelle Daten an einem Ort anzuzeigen – bieten nahezu Echtzeit-Updates zur Dienstleistungserbringung.
Ein weiteres Beispiel ist die Nutzung von Plattformen, die mobile Daten sammeln. Diese ermöglichen es Beamten an vorderster Front und Auftragnehmern, Informationen direkt vor Ort hochzuladen.
Beide Beispiele eignen sich für den Einsatz von künstlicher Intelligenz (KI), um große Datensätze zu verarbeiten und Erkenntnisse zu generieren, deren Analyse früher Monate gedauert hätte.
Diese Verschiebung wird oft als Schritt nach vorn für Rechenschaftspflicht und Effizienz im öffentlichen Sektor dargestellt.
Ich bin ein Wissenschaftler für öffentliche Politik mit besonderem Interesse an der Überwachung und Bewertung von Regierungsprogrammen. Meine jüngste Forschung zeigt einen besorgniserregenden Trend: Die Hinwendung zur Technologie vollzieht sich viel schneller als die ethischen und Governance-Rahmenwerke, die sie regulieren sollen.
In allen von mir untersuchten Fällen waren digitale Werkzeuge bereits in routinemäßige Überwachungs- und Bewertungsprozesse eingebettet. Es gab jedoch keine klaren Standards, die ihre Verwendung regelten.
Dies birgt Risiken in Bezug auf Überwachung, Ausgrenzung, Datenmissbrauch und schlechtes professionelles Urteilsvermögen. Diese Risiken sind nicht abstrakt. Sie prägen, wie Bürger den Staat erleben, wie ihre Daten behandelt werden und wessen Stimmen letztendlich bei politischen Entscheidungen zählen.
Wenn Technologie der Politik davonläuft
Die Bewertung im öffentlichen Sektor umfasst die Beurteilung von Regierungsprogrammen und -richtlinien. Sie bestimmt, ob:
- öffentliche Ressourcen effektiv genutzt werden
- Programme ihre beabsichtigten Ergebnisse erzielen
- Bürger den Staat für seine Leistung zur Rechenschaft ziehen können.
Traditionell stützten sich diese Bewertungen auf persönliche Interaktionen zwischen Gemeinden, Gutachtern, der Regierung und anderen. Sie umfassten qualitative Methoden, die Nuancen, Erklärungen und Vertrauensbildung ermöglichten.
Digitale Werkzeuge haben dies verändert.
In meiner Forschung habe ich Gutachter aus Regierung, NGOs, akademischen Einrichtungen, Berufsverbänden und privaten Beratungsfirmen befragt. Ich fand ein durchgängiges Anliegen. Digitale Systeme werden oft ohne ethische Anleitung eingeführt, die auf die Bewertungspraxis zugeschnitten ist.
Ethische Anleitung würde klare, praktische Regeln dafür liefern, wie digitale Werkzeuge in Bewertungen verwendet werden. Zum Beispiel sollte die Anleitung bei der Verwendung von Dashboards oder automatisierter Datenanalyse von Gutachtern verlangen, zu erklären, wie Daten generiert werden, wer Zugang zu ihnen hat und wie Ergebnisse die bewerteten Gemeinden beeinflussen können. Sie sollte auch die Verwendung digitaler Systeme verhindern, um Einzelpersonen ohne Zustimmung zu überwachen oder Programme auf eine Weise zu bewerten, die den Kontext ignoriert.
Südafrikas Gesetz zum Schutz personenbezogener Daten bietet einen allgemeinen rechtlichen Rahmen für den Datenschutz. Es geht jedoch nicht auf die spezifischen ethischen Dilemmata ein, die entstehen, wenn Bewertung automatisiert, cloudbasiert und algorithmisch vermittelt wird.
Das Ergebnis ist, dass Gutachter oft ohne klare Standards durch komplexes ethisches Terrain navigieren müssen. Dies zwingt Institutionen dazu, sich auf Präzedenzfälle, informelle Gewohnheiten, frühere Praktiken und Software-Standardeinstellungen zu verlassen.
Schleichende Überwachung und Datenmissbrauch
Digitale Plattformen ermöglichen es, große Datenmengen zu sammeln. Sobald Daten in cloudbasierte Systeme oder Drittanbieterplattformen hochgeladen werden, verlagert sich die Kontrolle über ihre Speicherung, Wiederverwendung und Weitergabe häufig von den Gutachtern auf andere.
Mehrere Gutachter beschrieben Situationen, in denen von ihnen im Auftrag von Regierungsbehörden gesammelte Daten später von den Behörden oder anderen staatlichen Stellen wiederverwendet wurden. Dies geschah ohne ausdrückliches Bewusstsein der Teilnehmer. Zustimmungsprozesse in digitalen Umgebungen werden oft auf einen einzigen Klick reduziert.
Beispiele für andere Verwendungen umfassten andere Formen der Analyse, Berichterstattung oder institutionellen Überwachung.
Eines der ethischen Risiken, das aus der Forschung hervorging, war die Verwendung dieser Daten zur Überwachung. Dies ist die Verwendung von Daten zur Überwachung von Einzelpersonen, Gemeinden oder Mitarbeitern an vorderster Front.
Digitale Ausgrenzung und unsichtbare Stimmen
Digitale Bewertungswerkzeuge werden oft als Erweiterung von Reichweite und Teilhabe präsentiert. In der Praxis können sie jedoch bereits marginalisierte Gruppen ausschließen. Gemeinden mit begrenztem Internetzugang, geringer digitaler Kompetenz, Sprachbarrieren oder unzuverlässiger Infrastruktur nehmen weniger wahrscheinlich vollständig an digitalen Bewertungen teil.
Automatisierte Werkzeuge haben Einschränkungen. Sie können beispielsweise Schwierigkeiten haben, mehrsprachige Daten, lokale Akzente oder kulturell spezifische Ausdrucksformen zu verarbeiten. Dies führt zu partiellen oder verzerrten Darstellungen gelebter Erfahrungen. Gutachter in meiner Studie sahen dies in der Praxis geschehen.
Diese Ausgrenzung hat schwerwiegende Konsequenzen, insbesondere in einem Land mit Ungleichheit wie Südafrika. Bewertungen, die stark auf digitale Werkzeuge angewiesen sind, könnten städtische, vernetzte Bevölkerungsgruppen erfassen und ländliche oder informelle Gemeinden statistisch unsichtbar machen.
Dies ist nicht nur eine technische Einschränkung. Es prägt, welche Bedürfnisse anerkannt werden und wessen Erfahrungen politische Entscheidungen beeinflussen. Wenn Bewertungsdaten die Verwundbarsten unterrepräsentieren, können öffentliche Programme effektiver erscheinen, als sie sind. Dies verschleiert strukturelle Versagen, anstatt sie anzugehen.
In meiner Studie berichteten einige Bewertungen über positive Leistungstrends, obwohl Gutachter Lücken in der Datenerfassung feststellten.
Algorithmen sind nicht neutral
Gutachter äußerten auch Bedenken hinsichtlich der wachsenden Autorität, die algorithmischen Ergebnissen zugestanden wird. Dashboards, automatisierte Berichte und KI-gesteuerte Analysen werden oft als wahres Bild behandelt. Dies geschieht selbst dann, wenn sie mit feldbasiertem Wissen oder kontextuellem Verständnis in Konflikt stehen.
Beispielsweise können Dashboards ein Ziel als auf Kurs anzeigen. Aber bei einem Beispiel eines Standortbesuchs können Gutachter Mängel oder Unzufriedenheit feststellen.
Mehrere Teilnehmer berichteten von Druck seitens Geldgebern oder Institutionen, sich auf die Analyse der Zahlen zu verlassen.
Dennoch spiegeln Algorithmen die Annahmen, Datensätze und Prioritäten wider, die in ihr Design eingebettet sind. Wenn sie unkritisch angewendet werden, können sie Voreingenommenheit reproduzieren, soziale Dynamiken zu stark vereinfachen und qualitative Erkenntnisse außer Acht lassen.
Wenn digitale Systeme vorschreiben, wie Daten gesammelt, analysiert und berichtet werden müssen, laufen Gutachter Gefahr, zu Technikern zu werden und nicht zu unabhängigen Fachleuten, die Urteilsvermögen ausüben.
Warum Afrika kontextsensible Ethik braucht
In ganz Afrika orientieren sich nationale Strategien und Richtlinien zu digitalen Technologien oft stark an internationalen Rahmenwerken. Diese wurden in sehr unterschiedlichen Kontexten entwickelt. Globale Prinzipien zur KI-Ethik und Data Governance bieten nützliche Bezugspunkte. Sie gehen jedoch nicht angemessen auf die Realitäten von Ungleichheit, historischem Misstrauen und ungleichem digitalem Zugang in weiten Teilen des öffentlichen Sektors Afrikas ein.
Meine Forschung argumentiert, dass ethische Governance für digitale Bewertung kontextsensibel sein muss. Standards müssen sich mit folgenden Punkten befassen:
- wie Zustimmung eingeholt wird
- wer Bewertungsdaten besitzt
- wie algorithmische Werkzeuge ausgewählt und geprüft werden
- wie die Unabhängigkeit der Gutachter geschützt wird.
Ethische Rahmenwerke müssen bereits in der Entwurfsphase digitaler Systeme eingebettet werden.![]()
Lesedi Senamele Matlala, Senior Lecturer und Forscher für öffentliche Politik, Monitoring und Evaluierungen, Universität Johannesburg
Dieser Artikel wurde von The Conversation unter einer Creative-Commons-Lizenz erneut veröffentlicht. Lesen Sie den Originalartikel.



