Logo der Bayerischen Akademie der Wissenschaften

Kommission für bayerische Landesgeschichte

Menu

Aktuelle Rezensionen


Lina Franken

Digitale Methoden für qualitative Forschung. Computationelle Daten und Verfahren

Münster 2023, Waxmann, 279 Seiten mit Abbildungen, ISBN 978-3-8252-5947-1


Rezensiert von Marion Näser-Lather
In: Bayerisches Jahrbuch für Volkskunde
Erschienen am 26.08.2024

Digitale Welten und Methoden durchdringen längst unseren Forschungsalltag: Wir ethnografieren online-Communities und Computerspiele, führen remote teilnehmende Beobachtungen durch und treten mit Personen, die an unserer Forschung teilnehmen, über Social Media in Kontakt. Die digitale Ethnografie ist mittlerweile seit Jahrzehnten etabliert. In zu Klassikern avancierten Werken (z.B. Marotzki 2003, Kozinets 2010, Boellstorff u.a. 2012, Pink u.a. 2016) ebenso wie in Methodenbüchern jüngeren Datums (Fleischhack 2019, König 2020) wurden detaillierte Darstellungen dazu vorgelegt, welche Neuerungen und Modifikationen sowie ethische Anforderungen das Forschen über digitale Phänomene, in digitalen Umgebungen und mit digital gestützten Methoden bedingt.

Aber nicht darum geht es – wie man vielleicht ausgehend vom Titel meinen könnte – Lina Franken mit ihrem vorliegenden Werk; vielmehr widmet sie sich der Frage, wie „computationelle“ Methoden für die qualitative Forschung eingesetzt werden können. Franken möchte damit nicht nur eine Lücke im Bestand vorhandener Publikationen schließen, sondern auch dazu beitragen, dem von ihr konstatierten Missstand Abhilfe zu schaffen, dass speziell qualitativ Forschende die Möglichkeiten digitaler Daten und computationeller Verfahren noch nicht entdeckt haben oder sie noch nicht hinreichend nutzen.

Unter computationellen Methoden versteht Franken unter Bezug auf die Digital Humanities (DH) und die Computational Social Sciences (CCS) den Umgang mit digitalen Daten als Adaption von Verfahren der Datenextrahierung und -verarbeitung aus Informatik und Informationswissenschaften. Gestützt auf automatisierte Verfahren und maschinelles Lernen sollen solche Vorgehensweisen der Erweiterung und Ergänzung der Analyse dienen. Der Schwerpunkt liegt damit auf quantitativen Verfahren, die für den qualitativen Bereich fruchtbar gemacht werden. An dieser Schnittstelle verortet Franken auch ihr Buch und plädiert für eine engere Verzahnung qualitativer und quantitativer Perspektiven (28).

Inwiefern sind computationelle Verfahren für Forschende der Empirischen Kulturwissenschaft anwendbar? Insbesondere bei großen Datenmengen können sie hilfreich sein, um automatisiert relevante Daten zu sammeln, sich einen Überblick über Tendenzen im Material zu verschaffen und erste Erkenntnisse zu gewinnen. Sie sind damit einerseits für die explorative Phase sinnvoll; andererseits erfordert ihr Einsatz bereits ein relativ genaues Wissen über den Gegenstand beziehungsweise die Daten und Möglichkeiten ihrer Modellierung. Computationelle Methoden lassen sich vor allem für Zahlen und Texte einsetzen, die allerdings häufig erst aufbereitet werden müssen, um maschinenlesbar zu werden. Mit dem Einsatz solcher Methoden ist also ein gewisser Aufwand verbunden; andererseits bieten sie spannende neue Möglichkeiten, über die das Buch in insgesamt neun Kapiteln einen fundierten Überblick gibt.

Auf eine Einleitung folgt ein Kapitel zu Grundlagen und Entwicklungslinien, in dem Franken die Bezüge zu DH und CSS vertieft, und die Geschichte des Computers und computationeller Methoden sowie deren anfängliche Anwendung in Editionsprojekten und den Naturwissenschaften darstellt und auf forschungsethische Fragen eingeht. Kapitel drei beschreibt unterschiedliche Datentypen wie geografische oder Social Media-Daten und unterschiedliche Textsorten. Im vierten Kapitel werden Verfahren des Findens (Webcrawling) und Speicherns (Scraping) von Daten sowie deren Aufbereitung für die Nachnutzung vorgestellt. Das fünfte Kapitel beschreibt detailliert und kenntnisreich digitale Analyseverfahren, unter anderem Social Media-Analyse, Text Mining (Auffinden von Bedeutungsstrukturen und Kerninformationen), Topic Modelling (Entdeckung von Themen in Texten), Natural Language Processing, automatisierte Annotation, Netzwerkanalyse, Sentimentanalyse, Visualisierungen und Aufbereitungen. In diesem Kapitel finden sich auch praxisnahe Tipps, zum Beispiel hinsichtlich der Konfiguration von Häufigkeitssuchen. In Kapitel sechs wird beschrieben, wie der Forschungsprozess mit digitalen Methoden unterstützt werden kann, etwa über Zitationstools wie Zotero oder in Form von kollaborativer Forschung mit Mindmaps, Etherpads oder auf der PECE-Plattform. Kapitel sieben diskutiert die Notwendigkeit von Programmierkenntnissen zur Anpassung von Tools und der Skripterstellung. Kapitel acht zeigt die Grenzen digitaler Daten und Verfahren als Werkzeuge auf. Das Abschlusskapitel fasst die dargestellten Methoden zusammen und gibt einen Ausblick auf die Implikationen computationeller Verfahren für den Forschungsprozess, vor allem die Orientierung hin zu Teamarbeit und Interdisziplinarität.

Ergänzt werden die inhaltlichen Ausführungen durch ein Glossar mit einem Überblick von Repositorien und konkreten Software-Tools. Das Arbeiten mit dem Buch wird unterstützt durch eine jedem Kapitel vorgeschaltete kurze Auflistung des Inhalts und Übungsaufgaben jeweils am Kapitelende, die mögliche Einsatzszenarien der beschriebenen Verfahren konkretisieren.

Frankens Monografie stellt eine Mischung aus Lehrbuch und allgemeineren kultur- beziehungsweise technikgeschichtlichen Ausführungen dar. So finden sich eingestreute Reflexionen zu den epistemologischen Implikationen des Forschens mit digitalen Methoden, etwa der Handlungsmacht digitaler Daten (58) oder den positivistischen Tendenzen der data driven science (59–60) und Darstellungen zur Reproduzierbarkeit von Daten (80–81), der Geschichte des Computers und des Internets (Kapitel 3.4) sowie zu technischen Hintergründen, beispielsweise des Machine Learnings (Kapitel 5.1). Im Kontext der unterschiedlichen Methoden werden zudem jeweils Hinweise zu Spezifika digitaler Daten gegeben, die ein besonderes forschungsethisches Vorgehen verlangen, etwa in Bezug auf informierte Einwilligung, Persönlichkeits- und Urheberrechte.

Frankens Darstellung überzeugt durch Einordnungen des Stellenwertes der einzelnen Methoden für den Forschungsprozess und das Aufzeigen von Möglichkeiten wie auch Limitationen computationeller Verfahren. Wiederholt betont sie die Notwendigkeit des an konkrete Fragestellungen angepassten Einsatzes solcher Methoden und die Relevanz der eigenen Analyse und des menschlichen Blicks auf die Daten (221).

Das Lesen wird allerdings ein wenig erschwert durch den nicht immer konsistenten Aufbau. Die Ausführungen im zweiten Kapitel zu Datenethik und Datenschutz wären am Ende des Buches besser aufgehoben gewesen, da sie dort in das Wissen um die verschiedenen Möglichkeiten des Arbeitens mit digitalen Daten hätten eingebettet werden können; ähnlich weitere im zweiten Kapitel verhandelte Fragen wie Softwareentwicklung oder das Zukunftsszenario zu digitalen Arbeitsumgebungen (56). Einige Inhalte erscheinen für qualitatives Forschen eher weniger relevant wie Clustering und Regressionsanalyse (148). Leider nur sehr kurz fallen die Ausführungen zur Bedeutung digitaler Verfahren für Inhalts- und Dokumentenanalyse (148) und dazu aus, wie die dargestellten Methoden im Rahmen einer digitalen Ethnografie angewendet werden können (Kapitel 5.9). Manche Themen werden behandelt, ohne ihre Bedeutung im Gesamtkontext zu erläutern, beispielsweise in Kapitel drei die Relevanz der Unterscheidung verschiedener Datentypen. Häufig finden sich Stellen, an denen Themen nur angerissen, aber nicht ausgeführt werden, mit Querverweisen auf nachfolgende Kapitel. Das Buch eignet sich daher weniger für das lineare Lesen als vielmehr für das hyperlinkartige Nachschlagen und die gezielte Suche nach Begriffen und Vorgehensweisen.

Auch dem im Klappentext formulierten Anspruch, „in verständlicher Form mit konkreten Lösungen […] [zu beschreiben] welche Verfahren für welche Analyseschritte geeignet sind“, wird das Buch nur bedingt gerecht. Während Teile der Darstellung sehr voraussetzungsreich sind, erscheinen andere unnötig ausführlich, zum Beispiel in Kapitel 2.4 die Beschreibung des allgemeinen Vorgehens beim induktiven Forschen und Unterschiede zwischen qualitativem und quantitativem Vorgehen oder die sehr ausführliche Beschreibung unterschiedlicher Textsorten sowie Bild- und audiovisueller Daten (Kapitel 3.2 und 3.3).

Einige Ausführungen bleiben abstrakt und unkonkret, ihr Sinn und Zweck erschließt sich nur schwer oder erst im weiteren Verlauf, etwa wenn logische Operationen wie „If then else“ (45), Programme wie Github (107) oder Verfahren zur Erstellung von Lexika mit eindeutigen Begriffsdefinitionen (Kapitel 4.5) genannt werden, aber (zunächst) nicht ihre Funktion erläutert wird. Häufig werden Begriffe eingeführt, die erst wesentlich später erklärt werden, wie born digital Daten (39), APIs, also Programmierschnittstellen (93), Verfahren wie Crawling, Scraping, Part of Speech Tagging (Kapitel 4.5) oder Natural Language Processing (105). Auch wesentlich mehr konkrete Beispiele hätten das Verständnis deutlich erleichtert.

Für Personen, die noch keine Forschungserfahrung aufweisen, eignet sich das Buch daher weniger; eher ist es für erfahrene Lesende geeignet. Gerade Studierende dürften mit der über Strecken zumeist abstrakten Darstellung vermutlich eher überfordert sein und auf der Suche nach konkreten Anweisungen nur bedingt von den epistemologisch-wissenschaftstheoretischen Ausführungen profitieren, die für an technikgeschichtlichen Entwicklungslinien Interessierte hingegen einen Mehrwert darstellen.

Fazit: Obgleich ein solches Buch aufgrund der sich rapide wandelnden Software-Landschaft natürlich nur eine Momentaufnahme sein kann und beispielsweise angesichts jüngster Entwicklungen im Bereich generativer KI bereits einer Neuauflage bedürfte, stellt es einen verdienstvollen, kenntnisreichen Überblick der Verfahren und Anwendungsmöglichkeiten computationeller Methoden dar.