Abschließende Bemerkungen zur Springschool

Wenn ich abschließend auf die Springschool für digitale Geschichtswissenschaft zurückblicke, so bin ich zuallererst froh, dass ich an ihr teilgenommen habe, denn ich habe viel gelernt. Was uns in dieser Springschool geboten wurde war keine Konzentration auf ein Thema, sondern ein großer Überblick über das gesamte Feld der „Digital Humanities“, im Besonderen der digitalen Geschichtswissenschaft. Die Liste der Themen ist für fünf Tage, denn so lange dauerte die Springschool, recht lang. Wir haben uns in dieser kurzen Zeit mit den Digital Humanities im Allgemeinen, mit digitaler Editorik, mit Recherchemöglichkeiten, mit Digitalisierungsverfahren, mit Datenbanken, mit TEI/XML, mit digitaler Textanalyse, mit MaxQDA, mit Ruby, mit digitalen Medien in der Geschichtsdidaktik und mit Wissenschaftskommunikation beschäftigt.

Mein Interesse wurde hierbei im Besonderen bei dem Textanalyseprogramm MaxQDA geweckt. Andreas Müller hat bei dieser Gelegenheit seine Masterarbeit über Hexenverfolgung in der Frühen Neuzeit vorgestellt, welche zu einem erheblichen Teil auf MaxQDA basierte. Anhand seiner Arbeit wurde mir und dem restlichen Publikum eindrucksvoll deutlich gemacht, welche enormen Möglichkeiten die digitale Textanalyse bietet. Auch ich kann mir vorstellen, mich intensiver mit MaxQDA zu beschäftigen, vorausgesetzt es ist für die Beantwortung meiner Fragestellung von Nutzen und vorausgesetzt, dass ich den Zugang zu einer nötigen Lizenz erlange. Auch die Arbeit an einer TEI-Edition einer Urkunde zur Gründung Jesuitenuniversität in Paderborn gehörte zu meinen Highlights, denn es bereitet mir generell Freude, mich intensiv mit einer Quelle zu beschäftigen und Quellenkritik zu betreiben. Dies ist auch ein Grund, wieso ich mich der Forschungsgruppe angeschlossen habe, die aus der Springschool entstanden ist. Positiv überrascht war ich auch von der Einführung in die Programmiersprache Ruby, denn ich konnte mir vor der Springschool nicht wirklich vorstellen, wieso es als Historiker nützlich sein kann, Programmiersprachen zu beherrschen. Das hat sich nun geändert. Hinzu kommt, dass meine aus der Schulzeit verbliebenden Programmiersprachenkenntnisse bereits etwas eingerostet waren; da kam eine kleine Auffrischung gerade recht.

Es versteht sich von selbst, dass man bei dieser Fülle an verschiedene Themen in einer so kurzen Zeit kein besonders großes Wissen über ein Thema aufbauen kann. Es war schlicht unmöglich sich intensiv mit einem Bereich der Digital Humanities zu beschäftigen, doch genau das stellte sich als großer Vorteil der Springschool heraus. Statt intensives Wissen über einen kleinen Bereich, habe ich einen großen Gesamteindruck der digitalen Geschichtswissenschaft gesammelt. Ich weiß jetzt, welche Möglichkeiten ich habe, um die verschiedensten Programme für meine Arbeiten zu nutzen. Ich weiß jetzt, welche Potentiale die digitale Geschichtswissenschaft bietet und ich weiß jetzt, und das ist nicht zu unterschätzen, welche Wege ich einschlagen muss, wollte ich mich intensiver mit einem Bereich beschäftigen. Eine intensivere Beschäftigung mit einem Thema bietet mir z.B. die entstandene Forschungsgruppe.

XML/TEI

Ein Schwerpunkt der Springschool war die Arbeit mit TEI (Text Encoding Initiative). TEI ist ein eine auf der Auszeichnungssprache XML (Extensive Markup Language) basierendes Dokumentenformat. Konkret wird versucht eine Urkunde aus der Frühen Neuzeit in einer Weise auszuzeichnen, sodass unsere digitale Edition möglichst gut als Ersatz für die Originalurkunde dienen kann. Im Folgenden werden vier Möglichkeiten der Auszeichnung beispielhaft vorgeführt.

Um das Siegel zu beschreiben, habe ich mich für <sealDesc> entschieden, was Teil von <physDesc> ist. Bei meiner Urkunde ist das Siegel gar nicht mehr vorhanden, allerdings kann man noch deutlich die Löcher erkennen, in denen das Siegel wahrscheinlich eingehängt war.

Um Bindestriche am Zeilenende zu markieren habe ich <lb break =“no“/> gewählt. Das „lb“ steht hierbei für „linebreak“, das „break=no“ bedeutet, dass das Wort nicht von dem darauffolgenden getrennt ist.

Stellen, bei denen ich Leseschwierigkeiten hatte und bei denen ich mir folglich nicht sicher bin, habe ich mit <unclear> markiert. Durch „reason“ können noch genauere Informationen angeben werden, wieso man sich hier unsicher ist. In meinem Fall war das Ende des Wortes durch eine Falte im Pergament verdeckt.

Textstellen, die sich durch ihre grafische Gestaltung von anderen abheben, können durch <hi rend=““> markiert werden. In meinem Fall war der Name Matthias sowohl in goldener, großer Schrift als auch komplett in Großbuchstaben.

 

Es ist nicht ganz leicht das Erstellen einer TEI-Edition in die Arbeitsbereiche der historischen Methode einzuordnen, denn es greift in mehrere Bereiche hinein. Zum Teil kann man das Erstellen einer TEI-Edition der Heuristik und der Findung einer Fragestellung zuordnen, denn die Entscheidung, so eine Digitalisierung durchzuführen, setzt bereits die Überzeugung voraus, hierbei könne es sich um eine relevante Quelle handeln, aus der man Antworten auf bestimmte Fragestellungen erlangen könne. Auch ist das Anfertigen einer TEI-Edition zum großen Teil Quellenkritik, denn um die Quelle entsprechend auszuzeichnen, muss zwangsweise eine äußere und innere Quellenkritik vorgenommen werden. Die äußere Quellenkritik geschieht hierbei etwa bei allen Auszeichnungen der <physDesc>, also der Beschreibung der äußerlichen Merkmale der Quelle. Eine innere Quellenkritik wird vorgenommen´, wenn der Inhalt der Quelle genauer ausgezeichnet wird, etwa die Beziehung von bestimmten Personen. Auch ist die Editionsanfertigung Teil der Interpretation, wenn z.B. entschieden werden muss, ob ein Wort wohl absichtlich nicht richtig durchgestrichen worden ist oder was wohl eine bestimmte Abkürzung zu bedeuten hat. Und zuallerletzt ist sie auch Teil der Darstellung, schließlich bieten wir anderen Historikern unsere TEI-Edition und damit unsere Quellenkritik und Interpretation an, um als Quelle genutzt zu werden.

Das Arbeiten an einer TEI-Edition in der Springschool und auch darauf folgend in der Forschungsgruppe hat mit sehr viel Freude bereitet. Man ist als Ersteller der Edition gefordert, sich sehr genau mit der vorliegenden Quelle zu beschäftigen, denn man möchte dem späteren Nutzer dieser Quelle ein möglichst genaues Bild der Originalquelle vermitteln. TEI und XML an sich stellten sich als erstaunlich einsteigerfreundlich heraus, was schnell zu den ersten Erfolgserlebnissen führte. Besonders die TEI-Guidelines waren hierbei eine große Hilfe. Ich werde TEI auch in Zukunft gerne nutzen.

Voyant Tools (Noch in Arbeit)

Ein weiteres nützliches Programm, welches in der Springschool vorgestellt wurde, ist das Textanalyseprogramm Voyant Tools. Voyant Tools steht entweder völlig kostenlos zum Download bereit oder kann alternativ online per Browser genutzt werden. Die verschiedenen Funktionen und Möglichkeiten, die Voyant bietet, werde ich im Folgenden nicht theoretisch behandeln, sondern lieber an einem konkreten Beispiel demonstrieren. Mein Textkorpus besteht hierbei aus verschiedenen Hitlerreden von 1933 bis 1945, welche mir als Txt-Datei vorliegen.

Genau wie bei jeder anderen geschichtswissenschaftlichen Untersuchung sollte man zuallererst klarstellen, was eigentlich herausgefunden werden soll, sprich: Ich brauche eine Fragestellung. In der Springschool haben wir die Reden beispielhaft hinsichtlich der der religiösen Dimensionen im Nationalsozialismus untersucht, weswegen meine konkrete Untersuchung nun danach fragt, inwieweit Hitler Gott und Religion benutzt, um sein politisches Handeln zu legitimieren.

Sind alle Txt-Dateien Programm eingespeist, sollte man als Erstes die automatische Wortfilterung aktivieren, um inhaltsarme Wörter, wie Pronomen, Präpositionen, Konjunktionen etc., der Untersuchung zu entziehen. Ist dies geschehen, werfe ich zunächst einen Blick auf die generierte Word-Cloud, hier unter „Cirrus“ aufrufbar“, um mir einen ersten Gesamteindruck zu verschaffen.

Hierbei werden uns die im Text am häufigsten genannten Wörter präsentiert. Nicht sehr überraschend verwendet Hitler anscheinend häufig Wörter, die man in einer nationalistischen und faschistischen Rede erwarten würde, wie etwa „deutsch“, „Volk“, „Nation“ und „Führung“. Wir vermissen allerdings für eine religiöse Legitimation typische Begriffe wie „Gott“ oder „heilig“. Schon jetzt kann man die vorsichtige Annahme treffen, dass Hitler Religion wahrscheinlich nicht im quantitativ hohen Maße als Legitimation verwendet und stattdessen an das völkische Denken seiner Adressaten appelliert. Der Textkorpus bedarf also einer genaueren Untersuchung, wobei uns Voyant Tools weitere Funktionen an die Hand gibt.

Ein Folgeschritt wäre, erst einmal herauszufinden, in welchen Reden Hitler häufiger religiöse Begriffe verwendet als in anderen. Hierbei kann uns die Trends-Funktion sehr nützlich sein, in der man sich genau dies unkompliziert durch Graphen anzeigen lassen kann.

In diesem Fall habe ich nach der Häufigkeit von speziell religiösen Begriffen gesucht und mit die Graphen für die Begriffe „gott*“, „heilig*“, „priest*“, „christ*“ und „bibel*“ ausgeben lassen. Das Sternchen bedeutet hierbei, dass auch Wortvarianten akzeptiert, solange der Begriff in ihm enthalten ist. Ein Suche nach „gott*“ würde also auch „Gottes“ oder „Gotteskrieger“ mit einschließen. Es fällt sofort ins Auge, dass wir bei den Reden von 1938 bis 1941 einen hohen Anstieg der Häufigkeit von religiösen Begriffen vorfinden. Sowohl „gott*“ also auch „heilig*“, „priest*“ und „bibel*“ erreichen in diesem Zeitraum ihren quantitativen Höhepunkt. Lediglich „christ*“ bildet eine Ausnahme mit einer häufigen Verwendung am Parteitag 1935. Es wäre nun darauf aufbauend interessant herauszufinden, wieso die religiösen Begriffe in diesem Zeitraum zuzunehmen und nach ihm abzunehmen zu scheinen. Es wäre denkbar, dass Hitler an dieser Stelle versucht, den Krieg religiös zu rechtfertigen.

+++++++++++++++++++++++++++UNTER BEARBEITUNG++++++++++++++++++++

Zwei Möglichkeiten der Nutzung digitaler Medien im Unterricht: das digitale Schulbuch und die digitale Exkursion

Da viele Teilnehmer der Springschool Geschichte auf Lehramt studieren, wurden zwei Möglichkeiten der Nutzung von digitalen Medien im Geschichtsunterricht vorgestellt und anschließend über ihre Vor- und Nachteile diskutierte. Stellvertretend für das digitale Schulbuch haben wir einen genaueren Blick auf das mBook geworfen, beispielhaft für eine virtuelle Exkursion besuchten wir die digitale Umsetzung des Anne-Frank-Museums. Die beiden folgenden Abschnitte beinhalten meine Gedanken über die Potentiale der digitalen Umsetzungen im Vergleich zu ihren analogen Vorbildern.

1.) Das digitale Schulbuch

Ein Anspruch, den man an ein Schulbuch stellt, ist, dass es möglichst den aktuellen Forschungsstand des jeweiligen Faches widergeben sollte. Bei einem analogen Schulbuch ist dieser Anspruch nur sehr eingeschränkt zu erfüllen, denn die jeweilige Schule wäre gezwungen, in sehr hoher Frequenz neue Bücher anzuschaffen. Dass dies schon allein aus Kostengründen unmöglich ist, versteht sich von selbst. Eine umsetzbare Lösung könnte hierbei das digitale Schulbuch bieten. Anstatt das komplette Buch neu anzuschaffen, müsste die Schule lediglich das Schulbuch auf den neusten Stand „updaten“, indem die aktualisierte Datei des Herstellers heruntergeladen wird. Je nach Vertrag mit dem Hersteller sollte es so möglich sein, kostengünstiger den aktuellen Forschungsstand darzustellen. Vorstellbar wäre etwa ein Zeitvertrag zwischen Schule und Hersteller, in welchem der Hersteller für einen Zeitraum regelmäßige Updates auf den aktuellen Forschungsstand garantiert. Ein weiterer Vorteil des digitalen Schulbuchs besteht in der Vielfalt der Aufgaben und der Quellen. Während sich die medialen Darstellungsformen in einem analogen Schulbuch zwangsweise auf Bilder und Texte beschränken, können in einem digitalen Schulbuch zusätzlich Videos und Audiospuren genutzt werden, um sowohl Quellen als auch Aufgaben darzustellen. In dem mir vorliegendem mBook besteht zusätzlich die Möglichkeit, sich Bilder in hoher Auflösungen anzusehen und in sie hineinzuzoomen. Die Größe eines abgedruckten Bildes ist im Gegensatz dazu durch die Größe des Buches limitiert. Nicht nur können Aufgaben durch weitere Medien vielfältiger gestaltet werden, auch bei der Binnendifferenzierung kann das digitale Schulbuch der Lehrkraft eine Hilfe sein. Es wäre etwa denkbar, dass den Schülerinnen und Schülern individuell abhängige Aufgaben angezeigt werden, die sich sowohl methodisch als auch inhaltlich unterscheiden. Um das Textverständnis eines schwächeren Schüler zu unterstützen, könnte ein Text beispielsweise zusätzlich in gesprochener Form durch eine Audiospur vermittelt werden. Darauf aufbauend bietet das digitale Schulbuch Möglichkeiten die Diagnose von Schülerinnen und Schülern für die Lehrkraft zu erleichtern. Es ist etwa vorstellbar, dass das Programm dem Schüler/ der Schülerinn und der Lehrkraft automatisch Rückmeldung über die Richtigkeit der bearbeiteten Aufgabe gibt. Sowohl der Schüler/ die Schülerinn selbst als auch die Lehrkraft können sich so einen Überblick über die jeweiligen Schwächen und Stärken verschaffen. Auch wäre es theoretisch möglich, dass das Programm mithilfe dieser Daten die Aufgaben automatisch an das Individuum anpasst und dadurch wiederum die Binnendifferenzierung fördert. Auch eine leichtere Hausaufgabenkontrolle wäre durch eine Online-Abgabe denkbar. Einen letzten Vorteil des digitalen Geschichtsbuches im Vergleich mit einem analogen, den ich hier noch vorstellen will, ist die Möglichkeit, Kommentare zu setzen; eine Funktion, die auch in dem mir vorliegendem mBook angeboten wird. Schülerinnen und Schüler können hierbei beliebige Stellen im Buch markieren und kommentieren und dadurch etwa unsichere Stellen oder Fragen zu bestimmten Themen leicht wiederfinden. Auch die Lehrkraft kann diese Funktion nutzen und die jeweiligen Kommentare sogar für anderes Lehrpersonal sichtbar schalten. Den Lehrkräften ermöglicht dies eine erleichterte Absprache etwa über Fehler innerhalb des Schulbuches oder über Stellen, an denen Schülerinnen und Schüler häufig auf Probleme stoßen.

Doch meine ich auch artspezifische Nachteile eines digitalen Schulbuches zu erkennen. Einerseits ist es zwar, wie schon beschrieben, für die Schule günstiger mithilfe von Updates auf dem aktuellen Stand der Forschung zu bleiben, andererseits wird allerdings ein, im Vergleich mit einem physischen Buch, relativ teures Gerät benötigt, um das digitale Schulbuch überhaupt nutzen zu können. Zwar kann man mittlerweile, und in der nahen Zukunft noch mehr, davon ausgehen, dass jeder Schüler so ein Gerät besitzt, doch auch diese können ausfallen und dies wird wahrscheinlich häufiger geschehen als bei einem analogen Buch. Auch fällt mir, jedenfalls bei diesem speziellen mBook, negativ auf, dass Videos häufig nicht in dem Programm an sich gespeichert sind, sondern nur auf ein Youtube-Video verwiesen wird. Dadurch ergeben sich mir zwei Probleme. Erstens bedeutet dies eine Abhängigkeit vom Internet. Gerade in einer Schule mit vielen Schülern, in der man noch nicht einmal davon ausgehen kann, dass das Internet überhaupt in einer stabilen Weise zur Verfügung steht, ist es nicht unwahrscheinlich, dass die Internetverbindung schlicht zu langsam ist, um das Video allen Schülern zur Verfügung zu stellen. Zweitens macht sich der Hersteller des digitalen Schulbuches damit meiner Meinung nach zur sehr von dem Anbieter des Videos abhängig. Dieser kann das Video etwa  jederzeit löschen oder es kann wegen falschen Nutzungsrechten gesperrt werden. Zuallerletzt besteht noch die Gefahr, dass Schülerinnen und Schüler durch ein digitales Schulbuch leichter abgelenkt werden als mit einem analogen. Es könnte beispielsweise dazu kommen, dass sich die Schülerinnen und Schüler lieber dazu entscheiden, alle Videos anzuschauen, anstatt auch die Texte zu lesen. Auch bieten die Geräte, an denen das digitale Buch genutzt wird, selbstverständlich noch weitere Funktionen, wie etwa das Surfen im Internet; ein Vorgang, welcher von der Lehrkraft schwer zu kontrollieren ist.

2.) Die virtuelle Exkursion

Auch die digitale Umsetzung einer Exkursion bietet viele Vorteile. Es ist um einiges einfacher, ein virtuelles Museum zu betreten, denn der Benutzer ist unabhängig von Zeit und Ort. Auch während des Besuches bleibt der Nutzer unabhängiger, er kann sich bestimmte Dinge so lange ansehen wie er möchte und kann den Besuch sogar frühzeitig abbrechen und später fortsetzen. Auch bieten virtuelle Exkursionen oft die Möglichkeit mithilfe von Rekonstruktionen Orte zu besuchen, die uns nicht mehr erhalten sind und in Folge dessen auch gar nicht mehr real besucht werden können, so geschehen etwa bei der antiken Stadt Troja. Bei meinem konkreten Beispiel, der virtuellen Umsetzung des Anne-Frank-Hauses, ist dies allerdings nicht der Fall, denn das Haus kann man auch „ganz in Echt“ betreten. Ob man sich nun mit einer Schulklasse für einen Besuch im echten Anne-Frank-Museum entscheidet oder doch lieber die virtuelle Variante nutzt, ist eine Entscheidung, die von bestimmten Faktoren abhängig ist. Einer von ihnen ist z.B., ob überhaupt die Zeit und die finanziellen Mittel zur Verfügung stehen, um das echte Museum zu besuchen, schließlich befindet sich das Anne-Frank-Haus in Amsterdam. Sollten diese Mittel nicht zur Verfügung stehen, sehe ich die virtuelle Exkursion als gute Alternative an, denn man kann sich relativ frei bewegen und umsehen und auch die Sprachausgabe erinnert ein wenig an eine Museumsführerin. Ganz auf einen Besuch des echten Museums verzichten würde ich nach Möglichkeit jedoch nicht. Durch den realen Besuch bekommen die Schülerinnen und Schüler, auch durch die Aura des Ortes, verstärkt den Eindruck, dass es sich hierbei um etwas „Besonderes“ handelt; ein Effekt, der in hohem Maße das Interesse und die Neugier der Schülerinnen und Schüler wecken kann. Auch wird die Aufmerksamkeit durch die verstärkte emotionale Bindung an den Ort erhöht. Die Schülerinnen und Schüler können sich vor Ort leichter in die Situation der Verfolgten hineinversetzen. Die virtuelle Exkursion sollte man meiner Meinung nach nicht als Ersatz, sondern nach Möglichkeit als Ergänzung zur echten Exkursion verwenden. Als Ergänzung zur echten Exkursion bietet das virtuelle Museum den Vorteil, dass in den Räumen persönliche Gegenstände der Menschen präsentiert werden, die normalerweise nicht zu sehen sind. Darauf aufbauend kann das Wissen und der Eindruck, welche mit dem Besuch des Hauses entstanden sind, verfestigt werden, indem dem Benutzer ergänzende Informationen in Form von Film, Sprache und Text dargeboten werden.

Rehbein: Digitalisierung

Bei dem folgenden Text handelt es sich um eine Zusammenfassung der wichtigsten Informationen aus Rehbein, Malte: Digitalisierung. In: Fotis Jannidis, Hubertus Kohle und Malte Rehbein (Hgg.): Digital Humanities. Eine Einführung. Stuttgart 2017, S. 179-198. Der Aufsatz bietet einen ersten Überblick über verschiedene Verfahren und Fachbegriffe der Bilddigitalisierung.

Der von Rehbein verfasste Text handelt von der Digitalisierung analoger Originale, insbesondere der Bilddigitalisierung. Hierbei werden zunächst die Vorteile der neuen Bilddigitalisierung vorgestellt. Die früheren Abbildungen hatten etwa noch den Nachteil, dass sie durch ihre physische Form in ihrer Zugänglichkeit eingeschränkt waren und weitere Kopien Kosten und gegebenenfalls Informationsverlust zur Folge hat. Dies ist bei der Bilddigitalisierung nicht der Fall, denn besonders die computergestützte Vernetzung bietet, im Vergleich mit der Arbeit am Original, neue Zugangsmöglichkeiten. Auch ist die Anfertigung weiterer Kopien kostengünstiger und verlustfrei möglich. Im Weiteren werden die Begriffe „Auflösung“ und „Abtastrate“ im Rahmen der Analog-Digital-Wandler, welche mittels Sensoren ein Objekt messen und die Messdaten speichern, eingeführt. Darauf aufbauend werden in ausführlicher Form zwei Möglichkeiten unterschieden, unsere Bilder in digitaler Form zu repräsentieren: die Raster- und die Vektorgrafik. Dieser Abschnitt ist m.E. von hoher Bedeutung, denn die beiden Möglichkeiten haben für uns als Historiker jeweils entscheidende Vor- und Nachteile. Bei einer Rastergrafik wird das Bild in ein zweidimensionales Koordinatensystem eingeteilt, wobei jeder Punkt in diesem Koordinatensystem mit einem Wert versehen wird, welcher den jeweiligen Farbwert angibt. Rastergrafiken können anhand ihrer Bildgröße und ihrer Farbtiefe unterschieden werden. Die Bildgröße wird durch die Anzahl der Punkte im Koordinatensystem bestimmt, wobei dieser Wert entweder in einer Spalten-mal-Zeilen-Form oder in einer Multiplikation dieser dargestellt werden kann. Die Farbtiefe beschreibt, wie viele verschiedene Helligkeits- und Farbwerte von einem Bildpunkt im Koordinatensystem, also von einem Pixel, angenommen werden können. Ein Bild mit einer Farbtiefe von 1 kann nur die Werte schwarz und weiß annehmen. Auch bei Schwarz-weiß-Bildern gibt es jedoch die Möglichkeit, das Bild weiter in Graustufen auszudifferenzieren; ein Bild mit einer Farbtiefe von 8 Bit hätte z.B. 256 verschiedene Graustufen, trotzdem hätte es nur einen Farbkanal. Moderne ist jedoch die Digitalisierung in Farbe, wobei das RGB-Farbmodell vorgestellt wird. Hierbei wird jeder Bildpunkt mit drei Werten versehen, die jeweils für die Grundfarben Rot, Grün und Blau stehen. Der Bildpunkt nimmt nun neue Farben an, indem die Grundfarben in verschiedenen Abstufungen miteinander vermischt werden. Dadurch, dass es sich um drei Farbkanäle handelt, sind bei einer Farbtiefe von 8 Bit pro Kanal bereits 16.277.216 verschiedene Farbwerte möglich. Der Anstieg der Bildgröße und Farbtiefe ist jedoch auch mit einem Anstieg der Datenmengen und einem daraus resultierenden Kostenanstieg verbunden, weswegen in das Thema der Bildkompression eingeführt wird. Hierbei wird zwischen verlustfreier und verlustbehafteter Kompression unterschieden. Bei der verlustbehafteten Kompression wird auf Informationen verzichtet, die als überflüssig betrachtet wird, dies hängt jedoch ganz vom Verwendungszweck ab. Ein Beispiel für ein verlustbehaftetes Bildformat wäre JPG. Die verlustfreie Kompression hingegen speichert hingegen Informationen über die Muster und Flächen eines Bildes, anstatt jeden einzelnen Pixel. Durch einen Algorithmus ist dies verlustfrei möglich, jedoch sollte dieser offengelegt werden. Ein Beispiel für ein verlustfreies Bildformat wäre TIFF. Eine weitere Möglichkeit, neben der Rastergrafik, Bilder in digitaler Form zu präsentieren, ist die Vektorgrafik. Die Vektorgrafik beschreibt nicht jeden Bildpunkt einzeln, sondern versucht das Bild in seinem Aufbau zu erfassen und diesem sogenannte grafische Primitive (Punkte, Linien, Formen, Farbe etc.) zuzuordnen. Vektor- und Rastergrafik unterscheiden sich voneinander stark, was zu jeweiligen Vor- und Nachteilen führt. Ein wesentlicher Unterschied liegt in den Möglichkeiten der Skalierung. Ist eine Skalierung bei einer Rastergrafik nur mit einer Veränderung der Bildpunktanzahl möglich, was zu Qualitätsverlust führen kann, so werden die grafischen Primitiven einer Vektorgrafik lediglich verlustfrei und umkehrbar an die neue Größe angepasst. Der Speicherbedarf ist bei einer Rastergrafik abhängig von Bildgröße und Farbtiefe, der einer Vektorgrafik von ihrer jeweiligen Komplexität. Der Speicherbedarf einer Rastergrafik ist also kalkulierbarer. Hinzu kommt, dass für die Darstellung einer Vektorgrafik auf dem Bildschirm ein gewisser Rechenaufwand erforderlich ist. Weitere Vorteile einer Vektorgrafik liegen vor allem in der einfachen Umwandlung in eine Rastergrafik, dies ist anders herum schwieriger, und in der Bildbearbeitung.

Bei der Bilddigitalisierung, also der Messung von Licht, welches von einem Objekt reflektiert wird, werden zwei Instrumente unterschieden: Digitalkameras und Scanner. Als analoge Alternative besitzen die Mikroformen eine hohe Relevanz. Mikroformen sind stark verkleinerte Abbildungen auf Polyester-basiertem Filmmaterial, welche aufgrund ihrer Haltbarkeit von 500 Jahren, besonders gut für die Langzeitarchivierung geeignet sind. Auch ist technologische Unabhängigkeit gegeben, was die Langzeitverfügbarkeit sicherstellt. Bei der Digitalkamera halte ich es für nicht sehr relevant, zu beschreiben, wie diese genau funktioniert. Erwähnt seien jedoch die Begriffe Fokussierung, also die Anpassung der Optik an die Entfernung, Verschlusszeit, welche die Dauer der Belichtung beeinflusst, und die Größe der Blendenöffnung, welche die Schärfentiefe beeinflusst, denn diese können sowohl automatisch als auch durch den Benutzer eingestellt werden. Das andere Instrument der Bilddigitalisierung ist der Scanner. Scanner sind im Allgemeinen Geräte, die ein Objekt systematisch erfassen und in ein digitales Signal umwandeln. Für Historiker ist besonders der Bildscanner relevant. Beim Bildscanner können der Flachbettscanner und der Buchscanner unterschieden werden. Beim Flachbettscanner wird das Objekt mit der zu scannenden Seite nach unten auf eine Glasplatte gelegt, unter welcher verschiedene Spiegel das Licht zu einem Bildsensor führen. Ein Problem ist hierbei, dass, aufgrund der mangelnden Schärfentiefe, das Objekt fest auf der Glasplatte liegen muss, was z.B. bei Buchbindungen eine Schwierigkeit darstellt. Der Buchscanner hingegen ist speziell für das Scannen von Büchern spezialisiert. Hierbei wird das zu scannende Buch aufgeschlagen auf einer Buchwippe platziert und anschließend von einer Digitalkamera, welche vorher an die Lichtverhältnisse und Buchgröße angepasst werden muss, abgelichtet. Auch hier kann es zu Problemen mit dem Buchrücken kommen, denn das Buch muss bis zum einem Winkel von 180 Grad geöffnet werden. Hilfe kann hierbei der Wolfenbütteler Buchspiegel gewähren, er ermöglicht einen Öffnungswinkel von lediglich 45 Grad. Das Umblättern der einzelnen Seiten kann entweder langsam per Hand oder effektiver durch Scan-Roboter geschehen, welche die Seiten ansaugen und automatisch umblättern. Unabhängig davon, für welche Form der Bilddigitalisierung ich mich entscheide, ist es von hoher Wichtigkeit, dem Digitalisat die nötigen Parameter anzuhängen, um mögliche Fehlinterpretationen zu verhindern. Diese Parameter können sowohl Aussagen etwa darüber geben, ob die Quelle noch eine Beschriftung der Rückseite besitzt, als auch technische Parameter der Digitalisierung sein. Technische Parameter beinhalten unter anderem Informationen über die Auflösung eines Scans, also der Dichte an Bildpunkten pro Streckeneinheit. In der Regel wird die Auflösung in pixel per inch (ppi) angegeben, wobei ein höherer Wert auch eine höhere Schärfe bedeutet. Welche Auflösung für welches Objekt verwendet wird, hängt ganz vom Verwendungszweck des Digitalisats ab. Um die Betrachtung mit dem bloßen Auge zu simulieren ist etwa eine Auflösung von 300ppi ausreichend, für genauere Analysen des Objekts werden jedoch höhere Auflösungen benötigt.

Um etwa die Auffindbarkeit eines Digitalisats zu gewährleisten, müssen sogenannte Metadaten erzeugt werden. Hierbei können deskriptive, welche zum Auffinden eines Objektes herangezogen werden, strukturelle, welche verwendet werden, um das Objekt in seinem Aufbau zu erfassen, technische, welche verwendet werden, um die Qualität des Objekts zu beurteilen und administrative Metadaten, welche verwendet werden, um etwa Nutzungsrechte zu dokumentieren, unterschieden werden. Diese Trennung ist allerdings nicht strikt. Im Rahmen dieser Metadaten gibt es verschiedene internationale Standards, wie Dublin Core, METS, MODS, TEI, EAD und SAFT. Ich halte es an dieser Stelle nicht für nötig, alle Standards vorstellen, werde jedoch TEI kurz zusammenfassen, denn mit diesem Standard haben wir uns in der Spring School beschäftigt. TEI steht für Text Encoding Initiative und bietet hauptsächlich Richtlinien und XML-Schemata für das Kodieren elektronischer Texte. Auch skriptive und strukturelle Metadaten können etwa im Header angegeben werden.

Bei der Digitalisierung eines Textes stößt man schnell auf das Problem, dass beim Abbilden in einer zweidimensionalen Tabelle zwar die einzelnen Pixel, jedoch nicht ihr Bedeutungszusammenhang erfasst wird. Um dies zu gewährleisten, ist eine Transkription nötig, wobei zwischen manueller und automatischer Transkription unterschieden werden kann. Bei der manuellen Transkription wird der Text per Hand abgetippt. Um dadurch auftretende Fehler zu vermeiden, können etwa zwei Transkriptionen unabhängig voneinander angefertigt werden, welche anschließend verglichen werden. Für die automatische Transkription kommt das OCR-Verfahren (Optical Character Recognition) zur Anwendung. Das Verfahrend gliedert sich in mehrere Phasen: Die Vorverarbeitung, in welcher versucht wird die Rastergrafik für die OCR zu optimieren, die Binarisierung, in welcher das Bild in Hinter- und Vordergrund gegliedert wird, die Analyse des Layouts und die Segmentierung der Vorlage, in welcher erkannt werden soll, welche Stellen Text erhalten und in welcher das Objekt logisch strukturiert wird, die Zeichenerkennung, in welcher die Buchstaben etwa in eine Matrix eingesetzt werden, um sie mit bekannten Buchstaben zu vergleichen, und schließlich die Nachbereitung, in welcher mithilfe von z.B. Wörterbüchern versucht wird die Texterkennung zu korrigieren. Ein Qualitätskriterium für die Transkription ist die Erkennungsgenauigkeit, über welche man sich als Historiker im Vorfeld stets erkundigen sollte. Die Erkennungsgenauigkeit wird in Prozent angegeben, wobei eine Transkription als „wissenschaftlich zuverlässig“ gilt, wenn sie eine Genauigkeit von 99,95 Prozent aufweist. Je älter eine Quelle allerdings ist, desto niedriger ist häufig auch die Erkennungsgenauigkeit. Gerade bei Handschriften sollte auf die manuelle Transkription zurückgegriffen werden, auch wenn diese durch computerbasierte paläographische Hilfsmittel unterstützt werden kann.

Abschließend sollen noch drei weitere Digitalisierungsverfahren kurz vorgestellt werden. Zum einen ist die Objektdigitalisierung zu nennen. Im Gegensatz zu den bisher vorgestellten Digitalisierungsverfahren wird hierbei kein zwei- sondern ein dreidimensionaler Raum abgebildet. Dadurch wird z.B. die Tiefe der Prägung einer Münze für den Betrachter ersichtlich. Ein weiteres Verfahren ist die Multispektralfotografie. Dabei wird das Lichtspektrum nicht in die drei Bereich Rot, Grün, Blau, sondern in sogenannte Spektralbänder unterteilt, was es erlaubt, auch für das menschliche Auge nicht sichtbares Licht zu erfassen. Man damit z.B. Rückschlüsse auf die chemische Zusammensetzung des Objekts ziehen. Die Audiodigitalisierung beschäftigt sich im Gegensatz dazu, mit der Digitalisierung von vorliegenden analogen Tonaufzeichnungen. Auch eine Transkription dieser Tonaufzeichnungen ist etwa bei gesprochener Sprache möglich.

Sekundärliteratur

Rehbein, Malte: Digitalisierung. In: Fotis Jannidis, Hubertus Kohle und Malte Rehbein (Hgg.): Digital Humanities. Eine Einführung. Stuttgart 2017, S. 179-198.

Zotero

Ein Programm, das ich seit der Springschool im Frühling des Jahres 2016 sehr häufig nutze, ist das Literaturverwaltungsprogramm Zotero. Zotero lässt sich völlig kostenlos downloaden und nutzen. Einmal installiert (auf Wunsch auch als Browser-Erweiterung) bietet es die Möglichkeit, verschiedene Arten von Medien, wie z.B. Monographien, Zeitungsartikel, Videosequenzen aber auch Webseiten, zu sammeln, zu speichern, zu strukturieren und zu kommentieren. Ein großer Vorteil besteht hierbei darin, dass ich durch ein Cloud-System meine Daten auf mehreren Geräten synchronisieren kann, was die Recherchearbeit an externen Orten, wie etwa einer Bibliothek, deutlich erleichtert.

Im Folgenden habe ich zur Veranschaulichung einen Ordner mit dem Namen „Jesuitenbibliothek Paderborn“ erstellt und beispielhaft drei Werke und drei Internetseiten, die sich mit dem Thema beschäftigen, eingefügt.

Auch habe ich angefangen, meinen privaten Besitz an physischen Werken in Zotero zu integrieren. Dies kann jedoch nur schrittweise geschehen, denn es ist keine sehr abwechslungsreiche Aufgabe. Um die Werke möglichst übersichtlich zu ordnen, habe ich mich unter anderem für eine Unterteilung in Epochen entschieden. Das Ganze sieht aktuell bei mir folgendermaßen aus:

Eine hilfreiche Funktion, die ich bei meiner Beschäftigung mit dem Programm entdeckte, ist die Möglichkeit, Werke mit Begriffen zu „taggen„.

Hier habe ich eine Monographie über den Frankfurter Auschwitz-Prozess (1963-1965) mit den Begriffen „Auschwitz“, „Deutschland“, „Drittes Reich“, „Holocaust“, „Nachkriegsdeutschland“ und „Nationalsozialismus“ verbunden. Wenn ich nun alle Bücher angezeigt bekommen will, die sich mit dem Holocaust beschäftigen, muss lediglich den Tag „Holocaust“ in die Zotero-Suchleiste einspeisen. Es werden nun alle Werke mit einem Holocaust-Tag herausgefiltert, egal in welchem Ordner sie ursprünglich gespeichert sind.