23.05.2023
N°1 2023

Hinter den Kulissen künstlicher Intelligenz: ein soziologischer Blick auf Gefahren und Potenziale adaptiver Lernsoftware

Der Einsatz von künstlicher Intelligenz (KI) in Bildungskontexten wirft fundamentale Gerechtigkeitsfragen auf. So wird mit KI häufig das Versprechen verbunden, gerechtere, weil radikal personalisierte Bildungsprozesse gestalten zu können. Dem steht das Risiko der Reproduktion bestehender Ungleichheiten durch Bildungstechnologien entgegen. Vor diesem Hintergrund stellt der Artikel ein laufendes Forschungsprojekt vor, das dem Zusammenspiel von technologischem und pädagogischem Feld in der Entwicklung und Implementation von KI-gestützten Bildungstechnologien nachgeht. Erste Erkenntnisse aus diesem Projekt unterstreichen die Notwendigkeit, über neue Formen des empirischen Monitorings und der kollaborativen Reflexion von KI in der Bildung nachzudenken.  

Spätestens mit dem Hype rund um die automatisierte Textproduktion durch den Bot ChatGPT zu Beginn dieses Jahres ist die Diskussion um die zukünftige Rolle von künstlicher Intelligenz (KI) in Bildungskontexten voll entbrannt. Die beeindruckende Fähigkeit zur Imitation von Genres und zur plausiblen Kopplung von Inhalten hat den Fokus dieser Diskussionen auf das Problem von «Authentizität und Fälschung» und den angemessenen pädagogischen Umgang mit solchen Technologien rücken lassen. Eine andere Thematik ist dabei tendenziell aus dem Blick geraten: die grundlegenden Gerechtigkeitsfragen, die mit dem Einsatz von KI in Bildungskontexten einhergehen. 

Diese Fragen ergeben sich aus dem zentralen Versprechen, das mit KI in der Bildung verbunden wird: durch die radikale Personalisierung von Lernprozessen mehr Bildungsgerechtigkeit zu ermöglichen. Dieser Hoffnung stehen ernstzunehmende Warnungen vor den Gefahren algorithmischer Diskriminierung gegenüber: KI identifiziert Muster in grossen, historischen Datensätzen und ist daher anfällig dafür, bestehende Benachteiligungsmuster zu reproduzieren. 

Diese Problematik ist Ausgangspunkt für ein vom Schweizerischen Nationalfonds (SNF) finanziertes Forschungsprojekt, das vor Kurzem an der Pädagogischen Hochschule Zürich begonnen wurde. In diesem Artikel konturieren wir die leitende Problemstellung dieses Projekts und geben einen Ausblick auf mögliche Erkenntnisse und Erträge des Vorhabens. Im Fokus stehen die voraussetzungs- und folgenreichen Klassifikationen, die mit künstlicher Intelligenz bzw. mit Methoden maschinellen Lernens einhergehen. Um diese Klassifikationen und ihre Implikationen angemessen zu verstehen, muss zunächst das Wechselspiel von pädagogischem und technologischem Feld in der Entwicklung und Nutzung solcher Bildungstechnologien entschlüsselt werden. 

Im Folgenden wird zunächst ein Überblick zu aktuellen Formen und Funktionen KI-gestützter Bildungstechnologien gegeben. Auf dieser Grundlage werden dann leitende Annahmen, Anliegen und zu erwartende Erkenntnisse des Projekts «Algorithmic Sorting in Education»1 skizziert.

Was genau ist künstliche Intelligenz und was macht sie?

KI wird in medialen Debatten häufig als ultimative Zukunftsvision unseres digitalen Zeitalters präsentiert (Jasanoff, 2015; Selwyn, 2022). Diese Form der Rahmung lenkt davon ab, dass von künstlicher Intelligenz schon seit vielen Jahrzehnten die Rede ist – und sich die grundlegenden Visionen gerade hinsichtlich ihrer Nutzung in Bildungsbereichen erstaunlich wenig verändert haben. Im Zentrum steht stets die Vision einer automatisierten und radikalen Personalisierung des Lernens (Skinner, 1958; du Boulay, 2019). 

Aktuelle Spielarten künstlicher Intelligenz zeichnen sich vor allem durch die Art und Weise aus, wie sie diese Vision verwirklichen sollen. Im Kern geht es um das Erkennen von Mustern (statistischen Regelmässigkeiten ohne jede Unterstellung von kausalen Zusammenhängen) in grossen Datenmengen zur Kategorisierung von neuen Daten. Mit den heute vorliegenden enormen Datenmengen aus verschiedensten Quellen wird KI-gestützte Klassifikation für vielfältige Zwecke genutzt. So werden aus Daten zu Lern- und Prüfungsverhalten individuelle Erfolgsprognosen abgeleitet, um frühzeitig vermeintlich problematische Lernverläufe zu identifizieren. KI kann aber beispielsweise auch für die automatisierte Bewertung von Texten eingesetzt werden. Im Hintergrund werden dabei stets neue mit alten (in bestehenden Daten abgebildeten) Fällen verglichen. Der ambitionierte Begriff der Intelligenz wird also auf eine einzige kognitive Funktion reduziert: Klassifikation (Horvath, 2020). 

Von anderen Algorithmen unterscheidet sich das, was heute als KI bezeichnet wird, durch die implizite und indirekte Form, zu solchen Klassifikationen zu kommen (Dourish, 2016). Ein Algorithmus ist zunächst nichts anderes als eine Sammlung von Regeln zur Erledigung von Aufgaben. «Traditionelle» Algorithmen bestehen beispielsweise aus Regeln der Form «Wenn …, dann …», in denen Handlungsbedingungen und -anweisungen explizit benannt werden (Neyland & Möllers, 2017). 

KI-gestützte Algorithmen im heute üblichen Sprachgebrauch folgen demgegenüber der Idee Maschinellen Lernens: Der Algorithmus wird mit einem grossen Datensatz «trainiert». Bestimmten Handlungsanweisungen folgend sucht er darin nach auffälligen Mustern, die in Verbindung mit einem bestimmten Ergebnis auftreten. KI-Algorithmen «lernen» also zunächst an vorgelegten Beispielen, wie diese einzuschätzen sind. Die gefundenen Muster werden als Entscheidungsregeln auf neue Daten angewendet. 

Welche Faktoren in welcher Kombination und welcher Gewichtung dabei im Hintergrund den Ausschlag geben, bleibt selbst für Programmierer:innen solcher Algorithmen meist unklar. Klar ist nur, welche Daten dem Algorithmus zur Verfügung stehen, nicht aber, wie diese genau zur Klassifikation von Fällen genutzt werden. KI-gestützte Algorithmen ähneln damit der Kategorisierungsarbeit durch Expert:innen, die auf Basis langjähriger Erfahrung mehr oder weniger unbewusst Muster erkennen und darauf reagieren können. Sie «spüren», was für eine Art von Fall gerade vorliegt. 

Nicht nur der Begriff der künstlichen Intelligenz ist seit Langem gebräuchlich, auch die konkreten Techniken, die heute zum Einsatz kommen, sind alles andere als neu. Ob neuronale Netze oder Entscheidungsbäume – in ihren Grundzügen sind die Verfahren, die moderne KI nutzt, seit vielen Jahrzehnten etabliert. Neu sind aber die schiere Menge an Daten, in denen Algorithmen heute nach Mustern suchen können, sowie die Geschwindigkeit, mit der sie das aufgrund heutiger Rechnerleistungen tun. 

Einsatzgebiete von KI in der (Weiter-)Bildung 

Das Potenzial von KI liegt in der Vielfalt an Aufgaben, für die sie genutzt werden kann. Gerade in der Erwachsenen- und Weiterbildung sind solche Technologien heute an vielen Orten bereits routinemässig im Einsatz (Bartolomé et al., 2018; Gibson, 2017; Kirkwood & Price, 2014; Prinsloo, 2020). Zu den bestehenden Anwendungen zählen: 

  • Tools zur Prognose von Lernerfolgen (Riazy et al., 2020): Im englischsprachigen Raum wird KI bereits an vielen Hochschulen für Frühwarnsysteme genutzt. Diese Programme nutzen vielfältige Daten (neben Prüfungsleistungen z.B. auch Zugriffszahlen auf Inhalte, Bearbeitungszeiten, aber auch Eye-Tracking-Daten etc.), um Studierende hinsichtlich ihres weiteren Studienverhaltens und des erwarteten Studienerfolgs zu klassifizieren.  
  • «Intelligente» Tutorensysteme (Ma et al., 2014): Ein anderes Einsatzfeld liegt in Software, die Lerninhalte und Lernpfade adaptiv gestaltet. KI wird in diesen Fällen einerseits genutzt, um Nutzer:innen hinsichtlich ihrer Stärken, Schwächen, Bedürfnisse und Interessen zu klassifizieren, und andererseits, um Inhalte und Aufgaben hinsichtlich ihrer «Lösbarkeit» für verschiedene Gruppen von Lernenden einzuordnen. 
  • «Intelligente» Dashboards (Jarke & Macgilchrist, 2021; Verbert et al., 2020): KI wird zudem in Dashboards genutzt, in denen Lehrende in Echtzeit Informationen zu ihren Lerngruppen erhalten. Auch hier kommt KI zum Einsatz, um z.B. «kritische» Lernsituationen und vom Scheitern bedrohte Studierende zu identifizieren. 
  • Essay-Helper-Systeme (Dixon-Román et al., 2020): Ein anderes Anwendungsfeld von KI liegt in der automatisierten Bewertung von Texten. Leitend ist die Vision von Programmen, die formatives Feedback auf Texte geben – teilweise schon während des Schreibprozesses. 

Das Versprechen: KI bringt mehr Bildungsgerechtigkeit 

Für den Einsatz von KI werden verschiedene Argumente ins Feld geführt. Neben der Effizienzsteigerung und Kostensenkung spielen dabei insbesondere Gerechtigkeitsversprechen eine Schlüsselrolle (Dencik et al., 2019; Francis et al., 2020; Riazy et al., 2020). KI soll erlauben, Bildung gerechter zu gestalten, weil sie erstens im Gegensatz zu Menschen zu einem vorurteilsfreien, «objektiven» Blick auf Lernende imstande sei und zweitens eben genau weil sie Adaptivität ermöglicht: Personalisierte Bildungsangebote sind demzufolge gerechter, weil sie die Bedürfnisse, Interessen und Talente jeder und jedes Einzelnen zu berücksichtigen erlauben. KI soll damit qualitativ hochwertige, individualisierte Bildung «für alle» möglich machen und damit gleichzeitig die Bedürfnisse eines (zukünftigen) Arbeitsmarktes nach flexiblen, selbstständigen und kompetenten Arbeitskräften befriedigen. 

Narrative dieser Art sind weit verbreitet (Horvath et al. 2023). Die Hoffnung ist aber in mehreren Hinsichten etwas voreilig. Ein Bedenken betrifft die unhinterfragte Gleichsetzung von Adaptivität und Bildungsgerechtigkeit (Selwyn 2022). Personalisierte Bildung ist nicht zwangsläufig gerechter. Die Personalisierung von Lernwegen kann ganz im Gegenteil Muster sozialer Selektivität von Bildung verstärken. So können sich beispielsweise folgenreiche Feedbackschleifen zwischen Selbstbildern von Lernenden und algorithmischen Klassifikationen ergeben: Weniger Vertrauen in die eigene Leistung führt zu langsamerem Bearbeiten von Aufgaben; diese Information wird vom Algorithmus als Leistungsschwäche bewertet; diese Einordnung führt wiederum dazu, dass komplexere Aufgaben nicht zugeteilt werden und so weiter.

Zweitens ist zu fragen, was und auf welcher Basis eine gegebene KI denn eigentlich genau personalisiert (Bartolomé et al. 2018). Gesprochen wird häufig von Personalisierung entlang von Bedürfnissen, Interessen und Talenten. In der Praxis fällt auf, dass zu diesen Aspekten aber kaum jemals Informationen erhoben werden (Horvath et al. 2023). Zur Mustererkennung verarbeiten kann ein Algorithmus aber nun einmal nur, was in Datenform vorliegt. Derzeit gebräuchliche KI-gestützte Programme beschränken sich meist auf Leistungsdaten wie die Korrektheit von Antworten oder Bearbeitungszeiten von Aufgaben. 

Drittens ist auch das Versprechen der Vorurteilsfreiheit mit Vorsicht zu geniessen. Denn KI kann sehr wohl diskriminieren. Für das Verständnis der Herausforderungen, vor die KI Bildungseinrichtungen und pädagogische Praxis stellt, ist dieses Phänomen von herausragender Bedeutung. 

Die Gefahr: KI führt zu algorithmischer Diskriminierung 

Dass KI-Algorithmen «diskriminierend» wirken können, ist keine neue Einsicht (Beer, 2017; Eubanks, 2017; O’Neil 2016; Noble, 2018). Beispiele für Verzerrungen entlang von Gender oder Hautfarbe gibt es zuhauf – von Algorithmen, die für die Justiz in der USA das Rückfallrisiko von Verurteilten einschätzen sollen und dabei Menschen nichtweisser Hautfarbe systematisch benachteiligen, über sexistische Muster von KI-gestützten Suchalgorithmen hin zur sozial verzerrten «Korrektur» von Prüfungsergebnissen in Grossbritannien, als zu Beginn der Corona-Pandemie eine zu lasche Beurteilung der Abschlussprüfungen von Schüler:innen befürchtet wurde (Williamson, 2021; Selwyn, 2022). 

Solche Formen «algorithmischer Diskriminierung» haben einen einfachen Grund: KI-gestützte Algorithmen reproduzieren Muster, die sie in bestehenden Daten finden. Wenn also in der Vergangenheit systematisch Hautfarbe als Indikator für Rehabilitationsfähigkeit, Kreditwürdigkeit etc. genutzt wurde, wird ein nicht entsprechend kontrollierter und korrigierend eingreifender Algorithmus diese Muster zwangsläufig fortschreiben. Eines der stärksten Argumente für den Einsatz von KI wird damit zum Gegenargument. 

Der Umgang mit diesem Problem stellt Entwickler:innen vor eine programmiertechnische Gestaltungsaufgabe: Wie soll und kann in der täglichen Arbeit an und mit KI mit dem Risiko algorithmischer Diskriminierungen umgegangen werden? Eine der zentralen Entscheidungs- und Gestaltungsspielräume ergibt sich dabei hinsichtlich der Frage, wie Algorithmen mit sozialen Hintergrundvariablen umgehen sollen (Whitman, 2020).  

Der entscheidende Punkt ist, dass Entwickler:innen hier Entscheidungen treffen müssen, die potenziell folgenreich sind, deren exakte Auswirkungen aber schwer abzuschätzen sind. Zwei Fragen stellen sich damit: (1) Auf welcher Grundlage werden diese Entscheidungen gefällt – welche Aspekte werden dabei berücksichtigt, welche Gründe sind tragend? (2) Welche Wirkungen entfalten einmal gestaltete Technologien am Weg ihrer praktischen Umsetzung in konkreten Bildungssettings? An diesen Fragen setzt das Projekt «Algorithmic Sorting in Education» an. 

Das Forschungsproblem: implizite und unkontrollierte Vorannahmen 

Für ein Verständnis der Herausforderungen und Folgen von KI in Bildungskontexten ist zentral, dass KI permanent Entscheidungen trifft – und zwar auf Basis impliziter und unbekannter Regeln (Al-Amoudi & Latsis, 2019). Die pädagogische, bildungspolitische und technologische Kontrolle dieser algorithmischen Entscheidungen muss sich daher mit der Definition und Reflexion von Rahmenbedingungen für das Entscheidungssystem Algorithmus befassen: Welche Daten sollen genutzt werden? Welche Methode bzw. welcher Algorithmentyp genau soll zum Einsatz kommen? Welche Sicherheits- und Monitoringmassnahmen sollen getroffen werden? Nach welchen Kriterien soll die Arbeit der KI bewertet werden und wer entscheidet dies? 

Das angesprochene Forschungsprojekt geht nun der Frage nach, wie diese Rahmenbedingungen der Entwicklung und Nutzung von KI in Bildungskontexten von involvierten Akteuren im technologischen und pädagogischen Feld ausgestaltet werden. Dazu werden zwei empirische Bausteine kombiniert: (1) In Fokusgruppen wird untersucht, auf welche pädagogischen und technologischen Vorannahmen Akteur:innen zurückgreifen, wenn sie über algorithmische Sortierungen in der Bildung nachdenken und debattieren. (2) In Fallstudien wird untersucht, wie auf Grundlage dieser Vorstellungen im Berufsalltag konkrete Entscheidungen zur technologischen Ausgestaltung bzw. zum pädagogischen Einsatz von KI-gestützten Bildungstechnologien getroffen werden. Der Schwerpunkt liegt dabei zunächst auf der Volksschule, aber auch andere Bildungsbereiche inklusive der Erwachsenen- und Weiterbildung sollen im Projektverlauf berücksichtigt werden. 

Unsere ersten empirischen Annäherungen legen bereits nahe, dass dabei – ähnlich der KI selbst – vielfach eher verborgene Entscheidungs- und Gestaltungsprozesse auf Basis impliziter und nicht bewusst reflektierter Ad-hoc-Annahmen stattfinden. Um die Bedeutung solcher Vorannahmen greifbarer zu machen: Für Programmierer:innen geht die Entwicklung von KI-gestützter Software offensichtlich mit vielen im weiteren Sinne technologischen Festlegungen einher – von der Wahl einer geeigneten Programmiersprache bis zum Design einer funktionalen Benutzer:innenoberfläche. Darüber hinaus sind aber auch pädagogische Setzungen unausweichlich (Horvath et al. 2023):

  • Eine Bildungstechnologie kommt nicht umhin, irgendeine Theorie davon, was Lernen eigentlich ist und wie es funktioniert, «in Szene zu setzen». Zu erwarten sind dabei in den seltensten Fällen elaboriert ausbuchstabierte Lerntheorien, aber irgendeine Konzeption von Lernen ist unausweichlich in den Code eingebaut. 
  • Damit zusammenhängend sind auch implizite Wertentscheidungen verbunden. Dabei geht es vorrangig um die Frage, worin «gutes» Lernen besteht. 
  • Diese Definition von Bildungsqualität ist eng verwoben mit Fragen der Relevanz: Jede Auswahl von Aufgaben und Inhalten impliziert eine Festlegung davon, was als «wichtiger» Lerninhalt gelten kann und soll. 
  • Parallel dazu schwingt – ob reflektiert oder nicht – immer auch eine Vorstellung davon mit, wann Bildung «gerecht» ist und wann Lernprozesse als ungerecht gelten müssen. Gerade diese Frage wird in der Praxis häufig ex negativo relevant: Die Technologie kann als unbedenklich gelten und vermarktet werden, solange keine Gerechtigkeitsbedenken formuliert werden. 
  • Schliesslich impliziert jede Bildungstechnologie eine Annahme dazu, wo Lernen im Alltag eigentlich stattfindet und wer in welcher Rolle daran beteiligt ist.

Diese Vorannahmen werden in den seltensten Fällen bewusst ausgehandelt und festgelegt. Eher fliessen sie auf subtilen, indirekten Wegen in die Technologieentwicklung und -nutzung ein. Beispielsweise übernehmen viele KI-gestützte Bildungstechnologien Skalen und Items aus bestehenden psychometrischen Messinstrumenten, wie sie etwa in Large Scale Assessments verwendet werden (Perrotta & Selwyn, 2020). Mit den Skalen werden aber zwangsläufig auch die entsprechenden Vorstellungen von Bildungs- und Lernerfolg übernommen. 

Auch im pädagogischen Feld müssen wir mit unzureichend reflektierten Vorannahmen rechnen – wenn auch in diesem Fall eher und folgenreicher in Form von Vorstellungen davon, was KI eigentlich ist und was bestimmte Technologien tatsächlich tun. Die Gefahr besteht in diesem Fall darin, dass die eigene Kompetenz zur kritischen Reflexion nicht als ausreichend empfunden wird und Urteile der KI unhinterfragt übernommen werden. Denkbar wäre aber auch, dass Lehrpersonen sich der Anwendung – qua ihrer professionellen Freiheit – verweigern oder die Technologie in der pädagogischen Praxis anders eingesetzt wird, als dies ursprünglich intendiert gewesen ist. 

Die Herausforderung: Das Zusammenspiel von Pädagogik und Technologie verstehen 

Für unser Forschungsprojekt ist die Vermutung leitend, dass ein vertieftes Verständnis dieser alltäglichen Gestaltungs- und Nutzungsprozesse mitsamt der ihnen zugrundeliegenden Werte und Vorannahmen eine Grundvoraussetzung für die diversitäts- und ungleichheitssensible Nutzung von KI in der Bildung ist.

Das Anliegen des Projekts besteht darin, hinter die Kulissen KI-gestützter Bildungstechnologien zu blicken – beziehungsweise genauer: den Prozessen des Abwägens, Überlegens, Aushandelns und Gestaltens nachzuspüren, die die Entwicklung und Nutzung KI-gestützter Technologien prägen, wenn Akteure im pädagogischen und im technologischen Feld in ganz konkreten Situationen ihres Berufsalltags tätig werden. Wir vermuten vielfältige, aber bislang weitgehend unverstandene Bezüge und Wechselwirkungen zwischen diesen beiden Feldern. 

Dass hier folgenreiche Spannungen – und damit Anlässe für Reflexion und Diskussion – zu erwarten sind, zeichnet sich schon in unseren ersten empirischen Annäherungen ab. Um ein Beispiel zu geben: 

Für die Entwicklung innovativer Bildungstechnologien spielen Start-ups eine führende Rolle. Diese jungen und stets mit der Gefahr des Scheiterns konfrontierten Unternehmen sind mit einem ganz spezifischen Handlungsdruck konfrontiert: Vorstellungen «guter und gerechter Bildung» stehen hier auf den ersten Blick nicht im Vordergrund; in erster Linie geht es darum, finanzstarke Individuen («Business Angels») oder Investment Fonds von der Markttauglichkeit einer Idee zu überzeugen. Und doch sind pädagogische und bildungspolitische Annahmen unausweichlich Teil des Geschäfts: Sie fliessen in Form von Annahmen über potenzielle Kund:innen und deren Anliegen und Vorlieben, in Form von Vermutungen zu brauchbaren Marketingstrategien oder auch in Form von Skalen und Aufgaben ein.

Schon bei einer ersten empirischen Annäherung drängt sich dabei das konfliktreiche Verhältnis von divergierenden, aber gleichzeitig vorhandenen Vorstellungen von Bildungsqualität und -gerechtigkeit auf. Narrativen, die Kreativität, Individualität und Authentizität als Zeichen «guter und gerechter» Bildung ins Zentrum rücken, stehen Technologien gegenüber, die vor allem auf Vereinfachung, Standardisierung und Effizienzsteigerung ausgerichtet sind. 

Nun können sowohl selbstregulierte Lernumgebungen (die kreativitätszentrierten Narrativen folgen) als auch standardisierte Lernkontexte (die stärker «industrialisierten» Logiken einer guten und gerechten Bildung folgen) soziale Selektivität erzeugen – aber auf sehr unterschiedlichen Wegen: In standardisierten Lernkontexten ergeben sich systematische Benachteiligungen aus häufig subtilen, aber systematischen Verzerrungen von standardisierten Prüfungsformaten, in selbstregulierten Lernumgebungen eher aus Formen der Selbstsortierung. 

Diese verschiedenen Wege der systematischen Benachteiligung sind aus der bildungssoziologischen Forschung der letzten Jahrzehnte bekannt und können daher auch professionell im Auge behalten und reflektiert werden. Schwierig wird es, wenn eine narrativ als «kreativitätsorientierte» und «individualisierend» gerahmte Technologie auch tatsächlich in entsprechend gestalteten (selbstregulierten) Umgebungen eingesetzt wird, die Technologie selbst Lernende aber nach ganz anderen, standardisiert vermessenden Logiken einordnet und adressiert. Die Gefahr ist in einem solchen Fall unkontrollierter «vermengter» Logiken, dass ungewollte Benachteiligungen stattfinden – die aber deutlich schwerer zu erkennen und zu problematisieren sind als in Lernumgebungen, die nach einer in sich schlüssigen und explizit reflektierten pädagogischen Logik gestaltet sind. 

Dieser erste Einblick unterstreicht die Notwendigkeit, wissenschaftliche Forschung mit politischer und pädagogischer Reflexion zu verknüpfen. Wissenschaftliche, politische und praktische Relevanz finden dabei in der Forderung zusammen, über neue Formen des empirischen Monitorings und der kollaborativen Reflexion KI-gestützter Bildungstechnologien nachzudenken. 

Jasanoff, S. (2015). Future imperfect: Science, technology, and the imaginations of modernity. In: Dreamscapes of Modernity: Sociotechnical Imaginaries and the Fabrication of Power. University of Chicago Press. https://doi.org/10.7208/chicago/9780226276663.001.0001

 

Williamson, B. (2021). Education Technology Seizes a Pandemic Opening. Current History, 120(822), 15–20. https://doi.org/10.1525/curh.2021.120.822.15

Whitman, M. (2020). «We called that a behavior»: The making of institutional data. Big Data & Society, 7(1), 2053951720932200. https://doi.org/10.1177/2053951720932200

Verbert, K., Ochoa, X., De Croon, R., Dourado, R. A. & De Laet, T. (2020). Learning analytics dashboards: The past, the present and the future. Proceedings of the Tenth International Conference on Learning Analytics & Knowledge, 35–40. https://doi.org/10.1145/3375462.3375504

Skinner, B. F. (1958). Teaching Machines. Science, 128(3330), 2969–2977.

Selwyn, N. (2022). The future of AI and education: Some cautionary notes. European Journal of Education, 00, 1–12. https://doi.org/10.1111/ejed.12532

Riazy, S., Simbeck, K. & Schreck, V. (2020). Fairness in Learning Analytics: Student At-risk Prediction in Virtual Learning Environments: Proceedings of the 12th International Conference on Computer Supported Education, 15–25. https://doi.org/10.5220/0009324100150025

Prinsloo, P. (2020). Of ‘black boxes’ and algorithmic decision-making in (higher) education – A commentary. Big Data & Society, 7(1), 1–6. https://doi.org/10.1177/2053951720933994

Perrotta, C. & Selwyn, N. (2020). Deep learning goes to school: Toward a relational understanding of AI in education. Learning, Media and Technology, 45(3), 251–269. https://doi.org/10.1080/17439884.2020.1686017

Noble, S. U. (2018). Algorithms of oppression: How search engines reinforce racism. New York University Press.

Neyland, D. & Möllers, N. (2017). Algorithmic IF … THEN rules and the conditions and consequences of power. Information, Communication & Society, 20(1), 45–62. https://doi.org/10.1080/1369118X.2016.1156141

Ma, W., Adesope, O. O., Nesbit, J. C. & Liu, Q. (2014). Intelligent tutoring systems and learning outcomes: A meta-analysis. Journal of Educational Psychology, 106(4), 901–918. https://doi.org/10.1037/a0037123

Kirkwood, A. & Price, L. (2014). Technology-enhanced learning and teaching in higher education: What is ‘enhanced’ and how do we know? A critical literature review. Learning, Media and Technology, 39(1), 6–36. https://doi.org/10.1080/17439884.2013.770404

Quellen

Jarke, J. & Macgilchrist, F. (2021). Dashboard stories: How narratives told by predictive analytics reconfigure roles, risk and sociality in education. Big Data & Society, 8(1), 20539517211025560. https://doi.org/10.1177/20539517211025561

Horvath, K., Steinberg, M. & Frei, A.I. (2023). Bridging Inquiry and Critique: a neo-pragmatic perspective on the making of educational futures and the role of social research,  online first in Learning, Media and Technology. https://doi.org/10.1080/17439884.2023.2193412

Horvath, K. (2020). Klassifikationen zwischen Politik und Ungleichheit. Pädagogisches Unterscheidungswissen in migrationsgesellschaftlichen Kontexten [Habilitation, University of Lucerne]. https://osf.io/preprints/socarxiv/pzjgw/

Gibson, D. (2017). Big Data in Higher Education: Research Methods and Analytics Supporting the Learning Journey. Technology, Knowledge and Learning, 22(3), 237–241. https://doi.org/10.1007/s10758-017-9331-2

Francis, P., Broughan, C., Foster, C. & Wilson, C. (2020). Thinking critically about learning analytics, student outcomes, and equity of attainment. Assessment & Evaluation in Higher Education, 45(6), 811–821. https://doi.org/10.1080/02602938.2019.1691975

du Boulay, B. (2019). Escape from the Skinner Box: The case for contemporary intelligent learning environments. British Journal of Educational Technology, 50(6), 2902–2919. https://doi.org/10.1111/bjet.12860

Dourish, P. (2016). Algorithms and their others: Algorithmic culture in context. Big Data & Society, 3(2), 205395171666512. https://doi.org/10.1177/2053951716665128

Dixon-Román, E., Nichols, T. P. & Nyame-Mensah, A. (2020). The racializing forces of/in AI educational technologies. Learning, Media and Technology, 45(3), 236–250. https://doi.org/10.1080/17439884.2020.1667825

Dencik, L., Hintz, A., Redden, J. & Treré, E. (2019). Exploring Data Justice: Conceptions, Applications and Directions. Information, Communication & Society, 22(7), 873–881. https://doi.org/10.1080/1369118X.2019.1606268

Beer, D. (2017). The social power of algorithms. Information, Communication & Society, 20(1), 1–13. https://doi.org/10.1080/1369118X.2016.1216147

Bartolomé, A., Castañeda, L. & Adell, J. (2018). Personalisation in educational technology: The absence of underlying pedagogies. International Journal of Educational Technology in Higher Education, 15(1), 14. https://doi.org/10.1186/s41239-018-0095-0

Al-Amoudi, I. & Latsis, J. (2019). Anormative black boxes. Artificial intelligence and health policy. In: I. Al-Amoudi & E. Lazega (Hrsg.), Post-Human Institutions and Organizations: Confronting the Matrix (S. 119–142). Routledge. https://doi.org/10.4324/9781351233477