Schluss

 

 

Nachdem ich nun die fünf Aufgabenbereiche der Reihe nach abgearbeitet habe, komme ich nun zu einem Fazit und zu einer Reflexion der Digital Humanities.

Zunächst einmal lässt sich definitv festhalten, dass ich die Digital Humanities und damit auch die Digital History als sehr nützlichen Bereich ansehe. Die verschiedenen vorgestellten Programme haben mir einen tiefen Einblick in Vorgehensweisen geliefert, wie man Quellen mit der Unterstützung der Technik des 21. Jahrhunderts sinnvoll und schneller bearbeiten kann. Dabei war es zunächst sehr hilfreich einen Einblick zu bekommen, worum es sich bei der Digital Humanities überhaupt handelt. Vorher hatte ich keine große Vorstellung davon und habe es auch, um ehrlich zu sein, eher für Bereiche eines Nerds gehalten. Mein damaliger Mitbewohner, der Informatik studierte, hantierte quasi jeden Tag in der Wohnung mit Programmen herum wie die, die hier auch ihre Verwendung fanden. Gerade das Programmieren kam mir dabei immer sehr kryptisch vor. Durch die Spring School habe ich dann einen kleinen Einblick in dieses Thema erhalten. Allerdings bin ich im Rahmen dieses Blogs nicht auf das Programmieren eingegangen, weil es dann doch ein bisschen meine Fähigkeiten überstieg. Vielleicht hätte man sich in diesem Bereich noch mehr Zeit nehmen, können, denn für mich schien das Thema sehr interessant.

Das Programm Zotero fand ich sehr hilfreich bei der Erstellung von Literatur. Ich kann jedem Studenten/Studentin nur empfehlen sich ebenfalls ein solches Verzeichnis zuzulegen. Gerade wenn man am Anfang seines Studiums steht, hilft einem dies, bereits verwendete Literatur wieder zu sichten und zur Benutzung gegebenenfalls verfügbar zu machen.

Das Experimentieren mit TEI war auch sehr aufschlussreich. Zunächst hatte ich meine Schwierigkeiten mich dort hineinzufinden. Aber wenn man das Prinzip erstmal verstanden hat und sich an die standardmäßig gegebenen Regeln hält, geht es sehr schnell mit der Bearbeitung von Quellen. Wichtig bei TEI ist neben den angesprochenen Regeln dazu auch, dass man möglichst genau darauf achtet das Richtige einzutippen. Es klingt auf dem ersten Blick banal, aber es kann wirklich frustrierend sein, wenn am Rand Fehlermeldungen auftreten und man einfach nicht versteht warum. Dann neigt man dazu dem System eventuell die Schuld in die Schuhe zu schieben, wobei dieses selbstverständlich nur Befehle befolgt. Man sucht dann häufig so lange, bis man sich an die Stirn schlägt weil man lediglich einen Buchstabendreher in der Beschreibung hat oder dergleichen.

Des Weiteren war die Arbeit mit Voyant, wie in dem Blogbeitrag an sich schon angemerkt, sehr spaßig. Es macht einfach Spaß mit den verschiedenen Tools herum zu probieren und dabei immer neue Grafiken auszuprobieren. Die Neugier nach den Tools weckt den Erfindergeist und man wird erfahrener. Selbstverständlich hat Voyant auch den großen Vorteil, dass alle Diagramme auch einfach sehr schick aussehen. Gerade wenn man irgendwas präsentieren muss eignet sich Voyant also um bestimmte Ergebnisse zu visualisieren.

Der didaktische Ausblick auf das Web 2.0 war für mich als zukünftigen Lehrer natürlich von besonderer Bedeutung. Wie sich die Technik in den Jahren verbessert hat im Hinblick auf digitale Präsentationen von historischen Orten war beeindruckend. Ich denke auch gerade für die jetzige Generation fällt das Mbook auf fruchtbaren Boden. Die Möglichkeit sich Videos oder Kommentare anzusehen, wirkt auf den Schüler ganz anders, als wenn man es lediglich liest. Es werden sicherlich auch ganz andere Arten von Schülern angesprochen. Natürlich darf man dabei aber auch nicht den kritischen Blick auf diese Art der Medien verlieren. Medienkompetenz gehört auch zum Unterricht dazu, nur dass in diesem Fall nicht Medien aus historischer Perspektive beleuchtet werden müssen, wie etwa Tagebücher, sondern dass die Schüler imstande sind, sich mit den neuen Medien kritisch auseinander zu setzen, wie ebenjenem Mbook. Und zuletzt bleibt ja noch die Tatsache, dass die Klausuren immer noch in schriftlicher Form zu bewältigen sind, also darf man der Schriftlichkeit nicht ganz abschwören. Ich denke daher, dass das Mbook zunächst eine gute Ergänzung für den Unterricht darstellt. Denn es hängt nicht zuletzt vom Lehrer ab, ob die Quellen gefallen können oder nicht. Hierbei unterliegt es dann freilich den gleichen Kriterien wie seinem Vorgänger, dem klassischen Schulbuch.

Ausblick

Ein kleiner Wehrmutstropfen im positiven Sinne war, dass wir nicht länger mit MAXQDA arbeiten konnten. Dieses Programm hat wirklich meinen Neugier geweckt. Da die Lizenz für das Programm kostenpflichtig ist und dabei auch nicht ganz günstig ist, konnte ich es nicht weiter in Augenschein nehmen. Nichtsdestotrotz werde ich es im Hinterkopf behalten, denn möglicherweise könnten die Preise ja purzeln, da sich Technik dauernd ändert und MAXQDA irgendwann ersetzt werden könnte.

Was mich auch ein bisschen traurig stimmt ist, dass ich an der Ringvorlesung, die im Rahmen der Digital Humanities stattfinden, nicht teilnehmen kann. Diese findet immer zeitgleich mit meinem Kolloqium statt und sind daher außerhalb meiner Reichweite. Nichtsdestotrotz muss eigentlich viel Werbung für die Ringvorlesung und die Digital Humanities gemacht werden, da ich sie für einen wichtigen Bereich für die Zukunft halte.

Geschichtsdidaktik

 

Durch das Lehramtsstudium an der Universtiät Paderborn im Bereich Geschichte ist es für mich freilich offensichtlich, dass ich mich im Rahmen der Spring School auch mit der digitalen Geschichtsdidaktik befassen möchte und muss. In diesem Zusammenhang wurde durch Felix Hinz genauer auf die Entwicklung von Schulbüchern eingegangen. Das klassische Lehrbuch trage immer noch einen wichtigen Beitrag zum Unterricht bei war dabei der Tenor. Während seiner Ausführungen ging Herr Hinz allerdings auch auf die Zukunft und die sogenannten Mbooks ein, die möglicherweise das klassische Geschichtsbuch verdrängen könnten. Während meines Studiums kann ich auch schon auf ein paar Kenntnisse in Richtung Schulgeschichtsbuch zurückblicken. Daneben hatte ich wärhrend meines Praxissemesters auch häufiger mit dem Geschichtsbuch zu tun, denn gerade als ich an der Schule begann zu unterrichten, wurde beschlossen ein neues Geschichtsbuch einzuführen. Dadurch war mir die Möglichkeit gegeben einen direkten Vergleich zwischen Vorgänger und Nachfolger zu vollziehen.

Im Folgenden findet nun ein Vergleich der didaktischen Möglichkeiten zwischen dem Mbook und einem klassischen Geschichtsbuch statt.

Neben den klassischen Kategorien, die ein modernes Geschichtsbuch beinhalten sollte (methodisch vielfältig, problemorientiert, genderorientiert, quellenbasiert, operationalisierte Aufgaben, binnendifferenziert, kompetenzorientiert, multiperspektivisch) kann das Mbook mit weiteren Vorteilen in didaktischer Hinsicht aufwarten.

Das Mbook selber ist noch nicht auf dem Markt, aber während der Spring School hat man trotzdem die Chance bekommen sich eine Demoversion anzusehen. Einige Vorteile des Mbooks liegen dabei auf der Hand. Zum einen wäre da das Angebot Filme zu nutzen. Filme bieten eine gute Möglichkeit Geschichte zu visulisieren und den SuS greifbar zu machen. Sicherlich dienen ihnen diese auch ein Stück weit zur Unterhaltung und wecken das Interesse. Man muss dabei allerdings immer im Hinterkopf behalten, dass die Filme auch das Geschichtsbild des Verlags vermitteln und daher nicht unbedingt im Einklang mit dem des Lehrers steht. Wenn die Filme allerdings gelungen scheinen, haben sie dazu auch noch den großen Vorteil, dass sie in jedem Fall Zeit einsparen, da man nicht mühselig den alten Fernseher aus dem Medienraum herauswuchten muss.

Einen weiteren Vorteil bietet das Mbook dahingehend, dass man neben Filmen auch Audiodateien zur Verfügung hat. Man kann so originale Aufnahmen von Reden beispielsweise abspielen und analysieren lassen. Durch die Tonqualität fühlen sich die SuS auch möglicherweise besser mit Geschichte verbunden. Es ist definitiv ein großer Unterschied, ob eine Rede nur gelesen wird oder sie tatsächlich auch gehört werden kann, da häufig auch die Betonung und Pausen eine ganz andere Grundstimmung vermitteln und ebenfalls analysiert werden können. Hinzu kommt noch, dass man sich Texte auch vorlesen lassen kann. Diese beiden Kategorien schulen dazu selbstverständlich noch die Medienkompetenz.

Neben diesen beiden eher medialen Vorteilen bietet das Mbook aber auch ein Sprachrohr für die Autoren, die erstmals mittels eines Films angeben können, wie das Buch konzipiert ist und was deren eigene Motivation ist sich einem Geschichtsbuch zu widmen. Das ist insofern interessant, als dass die Menschen die hinter einem Geschichtsbuch stehen, endlich ein Gesicht bekommen. Daneben ist es auch sicherlich von Vorteil, dass durch Updates die Version des Mbooks immer wieder erneuert werden kann und somit auf dem neusten Stand gebracht wird was Forschung betrifft.

Insgesamt kann ich sagen, dass ich das Mbook für sehr sinnvoll halte. In der Demo konnte uns lediglich das Kapitel zum Ersten Weltkrieg gezeigt werden, daher sind weitere Diskussionen und Anmerkungen erstmal nicht vorhanden. Das, was ich gesehen habe hat mich aber überzeugt. Es bleibt allerdings abzuwarten, wie das Mbook realisiert werden kann und wie die SuS selber auf diese Neuauflage eines Schulbuchs reagieren. Ich stelle es mir beispielsweise schwer vor, wie sich jede Familie einen eigenen Laptop für die SuS zulegen soll, nur damit er am Geschichtsunterricht teilnehmen kann. Zudem würde es mich auch interessieren, wie das dann mit den Lizenzen ist, da diese möglicherweise nur für ein Jahr gelten und dann wieder erworben werden müssten. Das größte Problem sollte allerdings die Wartung dieses Programms sein. Gerade in der heutigen Zeit veraltet Technik ziemlich schnell, sodass es dazu kommen kann, dass irgendwann die Technik dieses Programms nicht mehr unterstützt wird oder ausläuft.

Außer dem Mbook, bekamen wir allerdings auch noch einen Einblick in die digitale Exkursion. Zunächst wurde uns eine ältere Version einer digitalen Exkursion in Form einer Wiederherstellung einer zerstörten Stadt gezeigt. Es ist dabei gar nicht so einfach eine zerstörte Stadt aus der Antike zu rekonstruieren, da man eben nicht genau weiß, wie diese aussah, aufgrund der Tatsache, dass es keine Bilder davon gibt. Die zweite Exkursion führte uns in das bekannte Anne-Frank Haus in Amsterdam. Aber welche Art der Exkursion ist nun sinnvoller für SuS? Die reale Exkursion oder die digitale?

Bei einer realen Exkursion hat man definitiv den Vorteil, dass man die Geschichte (in einigen Fällen) wirklich berühren kann. Es ist einfach ein anderen Gefühl für die SuS, wenn man Gegenstände selber haptisch erfahren kann. Hierdurch bekommen die SuS auch eine ganz andere Beziehung zur Geschichte. Man kann in die einzelnen Zimmer der Familie Frank hineingehen und sich alles haargenau ansehen. Man nimmt neben den Gegenständen auch Gerüche wahr und kann Gegenstände ertasten. Die SuS bekommen dadurch einen sehr intensiven Einblick davon, wie es war sich hier zu verstecken unter den damaligen Umständen. Dies kann aber auch teilweise zu negativen Nebeneffekten führen. Gerade sensible SuS könnten bei dieser Erfahrung von ihren Emotionen überwältigt werden. Ganz wichtig an dieser Stelle ist wahrscheinlich auch das Vorhandensein von Ansprechpartnern im Anne-Frank Haus. Hier haben die SuS dann die Möglichkeit angeleitet das Haus zu erkunden. Der Ansprechpartner kann auch auf eventuelle Details hinweisen, die während einer digitalen „Tour“ vielleicht übersehen wurden. Daneben kann der Ansprechpartner auch zusätzliche Informationen geben und auch Hinweise für den Lehrer bereit haben, gerade wenn es sich bei den Ansprechpartnern um Museumspädagogen handelt. Sicherlich könnte auch der Spaß einfach im Vordergrund stehen. Die SuS können selber das Haus erkunden und angeleitet durch den Lehrer mit eine Aufgabenstellung diese Aufgaben lösen.

Aber auch bei der digitalen Exkursion können operationalisiert Aufgaben verteilt werden. Die SuS bekommen zudem Informationen von einer Sprecherin und können diese gegebenenfalls im wieder abhören. Was bei der digitalen Exkursion auffällt, ist, dass im Hintergrund eher schwermütige Musik gespielt wird, was der ganzen Exkursion eine sehr traurige Note verleiht. Hierdurch wird auch nochmal zusätzliches bestimmtes Geschichtsbild vermittelt.

Im Allgemeinen lässt sich festhalten, dass ich eine reale Exkursion bevorzugen würde. Das hat schon alleine mit dem Flair zu tun, was das Anne-Frank Haus eigentlich nur so richtig vermitteln kann, wenn man dort ist. Sich Gegenstände genau anzusehen, gegebenenfalls anzufassen wirkt einfach ganz anders auf die SuS statt des bloßen Beobachtens. Für mich bieten digitale Exkursionen eine gute Alternative, wenn der nächste Exkursionsort einfach zu weit entfernt ist. Man kann zudem solche digitalen Exkursionen sehr direkt in den eigenen Unterricht einfließen lassen.

Voyant

 

Im Bereich der Geschichte geht es häufiger um die quantitative Auswertung von Quellen. Dabei ist es offensichtlich, dass bei dieser Art der Textanalyse es weit schnellere Wege gibt Quellen auf eine bestimmte Sprache hin zu untersuchen. Gerade wenn man im Begriff ist eine Unmenge an Quellen auf bestimmte Begriffe und deren Kontext zu untersuchen, ist es mühselig dies, wie vor 50 Jahren durch das sogenannte Scanning durchzuführen. Scanning beschreibt hierbei das bloße Überfliegen eines Textes während man auf Schlüsselbegriffe achtet. Dass hierbei oftmals Begriffe übersehen werden können, scheint nur alzu logisch. Daher haben sich Informatiker angeschickt eine Software zu entwickeln, die einem Historiker diesen zeitaufwendigen Vorgang erspart. Das Ergebnis ist ein Programm mit dem Namen Voyant. Voyant kann mittels des sogenannten distant readings einen Text auf bestimmte Begriffe hin untersuchen und übersichtlich in einer Grafik darstellen. Aus diesen lassen sich im Anschluss Erkenntnisse gewinnen, die bei der Analyse einer Quelle durchaus hilfreich sind.

Im Folgenden werde ich anhand einiger Begriffsbeispiele eine kurze Analyse zu Adolf Hitlers Reden von 1933-45 durchführen. Hierbei liegt die Konzentration auf Begriffe, die einen Bezug zur Relgion herstellten sollen. Durch die relativ große zeitliche Spanne lassen sich genauere Aussagen über die Unterschiede innerhalb der Reden herausarbeiten.

Zunächst möchte ich in diesem Rahmen mit dem Wort Erlös beginnen. Um damit möglichst alle Variationen des Begriffs abzudecken ( zum Beispiel: Erlösung, erlösen,…etc.), gibt Voyant automatisch vor, den Begriff mit einem Sternchen zu markieren. Dieser Trick ist übrigens auch sinnvoll bei der Suche wenn Google verwendet wird. Wie auf der nachfolgenden Abbildung zu sehen ist, zeigen sich kaum Ausschläge, was die Häufigkeit betrifft. In den Reden von 1933-36 findet erlös* dabei gar keine Nennung. Im Jahre 1937 und 1942 findet sich dieser Begriff lediglich einmal in der Rede wohingegen in der Rede im Reichstag von 1939 erlös* ganze sechsmal zu verzeichnen ist. Eine erste Vermutung könnte sein, dass Hitler dabei eine Art Übersicht zur Schau stellt, in der er bekundet von welchem Unheil er die deutsche Bevölkerung seiner Meinung nach erlöst habe. Das könnte in diesem Fall beispielsweise die aus seiner Sicht verhasste Weimarer Republik sein, die er als eher schwaches System ansah. Somit versuchte er dem Volk das Vertrauen in sich selbst und der eigenen Stärke wieder zu beleben. Ironischerweise verweist Hitler bei der letzten Verwendung von erlös* auf das fünfjähriger Bestehen des Nichtangriffspaktes mit Polen, in welchem Abschnitt er daraufhin nicht müde wird zu betonen, welchen Dienst er damit beiden Staaten erwiesen habe. Wenig später überfiel die Wehrmacht dann eben jenes Polen und stürzte Europa damit in einen Krieg.

Neben der absoluten Häufigkeit von erlös* kann man sich aber auch den Kontext direkt zeigen lassen und dabei die Länge des Kontextes mit der Anzahl der umgebenden Wörter beschreiben.

Wurde gerade auf ein Wort eingegangen, was sich eher auf die Vergangenheit und deren Wertung berief, kommt nun mit „Hoffnung“ eines, was sich eher an die Zukunft orientiert. Wenn man sich hier nun die absoluten Zahlen ansieht, wie häufig das Wort „Hoffnung“ in den Reden zwischen 1933-45 verwendet wurde, dann fällt auf, dass Hitler in der ersten Rede mit keinem Wort Hoffnung erwähnt. Erst 1934 ist ein ganz starker Ausschlag zu verzeichnen, der sich in einer Häufigkeit von siebenmal äußert und damit den größten Ausschlag zeigt. Nach einigen Aufs und Abs stellen sich dann 1940 und 1941 die letzten Peaks ein. Im Anschluss an das Jahr 1941 sinkt die Häufigkeit und damit sprichwörtlich die Hoffnung auf 0. Daraus lässt sich ableiten, dass Hitler diese Euphorie und die Nutzung der Hoffnung in eine bessere Zukunft erst 1934 richtig ergriff. Allerdings verwendet er diesen Begriff nicht nur um die Hoffnung der Anhänger auszudrücken, sondern auch um die (vergebliche) Hoffnung seiner Gegner zu zerstören. Wenn man sich hingegen die Kurve ab 1941 ansieht, dann wird augenscheinlich, dass der Begriff Hoffnung bei jeder Niederlage der deutschen Streitkräfte während des Krieges schwächer ausgeprägt war. Ab 1943, welches auch Jahr auch gleichzeitig die Niederlage in Stalingrad markierte und damit die Wende an der Ostfront einleitete, kommt in den hier gezeigten Reden kein Hoffnungsbegriff mehr vor.

Neben den absoluten Zahlen kann man sich auch noch das relative Verhältnis der Häufigkeit von Hoffnung zu der Anzahl der insgesamt verwendeten Wörter in der Rede ansehen, wordurch sich ein etwas anderes Bild ergibt.

 

Reflektionstext

Ich war im ersten Moment überrascht, was alles möglich ist mit einem Textverarbeitungsprogramm wie Voyant. Es gibt eine Vielzahl an Tools die einem bei einer quantitativen Anlyse sicherlich weiterhelfen können, wenn man eine große Anzahl an Quellen vor sich liegen hat. Auf der anderen Seite ist man aber auch darauf angewiesen, dass die Quelle zunächst digital vorliegt und in zweiter Instanz auch als richtige Dateiart vorliegt. Des Weiteren eignet sich dieses Tool lediglich zur quantitativen Methode. Um wirklich aussagekräftige Erkenntnisse zu sammeln, genügt es des Öfteren nicht bloße Zahlen sich vor Augen zu halten, sondern es muss auch eine inhaltliche Analyse, also eine qualitative Untersuchung erfolgen, wobei man dann nicht um die alte Fähigkeit des Lesens herum kommt.

Ich habe hier in diesem kleinen Blogeintrag nicht mal die Hälfte der Tools verwendet, die Voyant zur Verfügung stellt, daher kann eine abschließende Beurteilung zu diesem Zeitpunkt noch nicht erfolgen. Was ich allerdings schon hier ausdrücken kann ist, dass Voyant sicherlich hilfreich ist, wenn es um eine Präsentation der Ergebnisse geht, selbt wenn es sich hierbei lediglich um Worthäufigkeiten geht. Es sieht einfach klasse aus solche Wortkarten zu erstellen und diese dann in vielen verschiedenen Farben darzustellen. Auch der Spaßfaktor sollte hierbei nicht unterschätzt werden.

TEI

 

 

TEI (Text Encoding Initiative) ist ein nützliches Programm, um dem Computer Bedeutungen von Texten näher zu bringen. Bei anderen Textverarbeitungsprogrammen wie etwa Word und Open Office oder ähnlichen fehlt diese Fähigkeit. Außerdem können diese Dokumente leicht in ein anderes Format wie etwa PDF oder HTML umgewandelt werden. Wie zu Beginn des Blogs angedeutet, kann der Computer hier nur registrieren, dass eine bestimmte Anordnung von Pixeln und deren Farbtiefe vorhanden ist. Dass hieraus Wörter entstehen, die eine über eine Bedeutung verfügen ist dem Computer an dieser Stelle nicht klar. Ein Leitsatz während der Spring School war dementsprechend auch, dass der Computer freilich Einiges kann, ihm das allerdings noch beigebracht werden muss. Herr Stadler hat uns auf diesem Wege während der Spring School auch mit Rat und Tat zur Seite gestanden, um uns einen möglichst glatten Zugang zu TEI XML zu verschaffen. Als Aufgabe war es dann an uns selber aus einer Quelle zur Paderborner Jesuitenschule unsere ersten Schritte in Richtung einer Edierung vorzunehmen. Äußerst praktisch hierbei ist, dass wir durch TEI beispielsweise dem Computer Namen, Orte oder auch Angaben zur Lagerung der Urkunde (sogenannte Markups) vornehmen konnten. Es ist sogar möglich das Siegel zu beschreiben und durch den Zusatz „type“ die Farbe dieser beispielsweise auszumachen. Daneben ist es auch möglich die Urkunde in ihre typischen Teile (Intitulatio, Arenga,…etc.) aufzudröseln. Dabei ist hervorzuheben, dass diese Arbeit sehr viel Erfahrung braucht. Eine neutrale Edierung ist außerdem ebenso wenig möglich, da schon einzelne Striche oder Beschädigungen zu einer anderen Interpretation der Quelle führen können. TEI eignet sich dementsprechend nicht nur zur bloßen Beschreibung eines Quellenkorpus, sondern darüber hinaus auch zur Analyse und Interpretation.

 

Für mich selbst war das alles auf den ersten Blick zunächst einmal sehr erschlagend. Ich brauchte ein paar Momente, um langsam hinter dieses System zu kommen. Durch die Hilfestellung meiner Sitznachbarn und auch der Experten schaffte ich es aber, mich in dieses Thema hereinzuarbeiten und zumindest den Ansatz einer Edierung vorzunehmen. Es dauert am Anfang ein bisschen bis man angemessen mit TEI arbeiten kann. Zudem muss man hierbei beachten, dass man zu Beginn nur eine Testversion über einen kurzen Zeitraum zur Verfügung hatte. Auf der anderen Seite überwiegen allerdings freilich die Vorteile. Durch das einfache Umwandeln in andere Formate kann ein großer Leserkreis erreicht werden. Zudem erachte ich es auch als wichtig, dass die Geschichte endlich Anschluss findet an das digitale Zeitalter. Andere Bereiche arbeiten schon länger erfolgreich mit Computertechnologie und haben hierdurch große Fortschritte erzielt. Dies wäre der Geschichte auch zu wünschen.

 

Für den Blog habe ich dafür das Siegel einer der vorgestellten Urkunden beschrieben:

Dazu habe ich noch einen Namen in der Urkunde beschrieben mit der Spezifizierung als Person:

Als weiteres Beispiel bekam eine Jahreszahl auch die Beschreibung einer kardinalen Nummerierung:

Zuletzt habe ich dann noch eine Abkürzung heraus gesucht und dieser eine ausgeschriebene Auflösung hinzugefügt:

Zotero

 

 

Als Einführung zur Arbeit mit Zotero diente uns eine kurze Präsentation von Ramon Voges. Neben einigen Basics zu Arbeitsbereichen der Historischen Methoden, bekamen wir auch einen Einblick in die Arbeit mit Zotero. Ich hatte schon im Grundstudium ein paar Randaspekte über die Verwaltung von Literatur mittels Computerprogramme erfahren, allerdings wurden mir diese nie wirklich näher gebracht, sodass ich den ersten Umgang erst während der Spring School erlernte. Ich hatte in diesem Zusammenhang lediglich mal von Citavi gehört, was sehr hilfreich sein soll, da man die bisher verwendete Literatur aus anderen schriftlichen Arbeiten dort prima verwalten kann und für weitere Arbeiten benutzt werden können.

Die Quellen, zu denen wir eine Literaturliste und eine Liste mit Onlinematerialien herausarbeiten sollten, lagen während der Spring School in verschiedenen Formen vor. Zum einen wären da die Originalquellen, die beim Studienfond in der Erzbischöflichen Akademischen Bibliothek in Paderborn untergebracht sind. Zum Anderen wurden für die Spring School Abschriften und Fotos in digitaler Form bereit gestellt. Die digitalisierten Abschriften stammen alle aus der Quellensammlung „Urkunden zur Gründung des Jesuitenkollegs und der Universität in Paderborn 1604-1615“ von Friedrich Gerhard Hohmann ab und sind wiederum selber Abschriften. Bei diesen Abschriften fehlt dabei jegliche Verzierung, die bei den Originalquellen vorhanden ist. Auf der einen Seite erleichtert dies die inhaltliche Analyse mit Hilfe eines Programms zur Erkennung von Texten, auf der anderen Seite könnten hierdurch aber wichtige Fakten übersehen werden, die im Zusammenhang mit dem Text stehen.

 

Zur Rechercheaufgabe selbst kann ich sagen, dass ich wie bei eigentlich jeder schriftlichen Ausarbeitung, wofür Literatur benötigt wird, zunächst einmal einen Blick in den Katalog der Universitätsbibliothek Paderborn geworfen habe. Dabei fand ich einige nützliche Titel zu den oben genannten Quellen. Neben dem Katalog der Universitätsbibliothek Paderborn war auch meine Suche im Karlsruher Virtuellen Katalog (KVK) von Erfolg gekrönt. Ich bin also in meiner Recherche systematisch vorgegangen. Allerdings muss ich an dieser Stelle auch einräumen, dass das unsystematische Recherchieren schon häufiger funktionierte. Gerade wenn man sich bei Wikipedia über bestimmte Themen einen Überblick verschaffen möchte, sind die unten angegebenen Literaturhinweise sehr sinnvoll. Die benötigten Onlinematerialien habe ich dann nach etwas längerer Suche über Google dann auch finden können.

Die Literatur und die Websites habe ich im Anschluss (wenig themenrelevant muss ich zugeben) unter Spring School abgespeichert und verzeichnet.

Im Allgemeinen halte ich eine solche Literaturliste für sehr empfehlenswert, da sie relativ einfach in der Handhabung ist und auf der anderen Seite sehr praktisch daher kommt mit einem hohen Wiederverwendungswert.

 

 

Digitalisierung

 

In einer einführenden Präsentation ist Anna Michel während der Spring School auf die allgemeinen Aspekte bezüglich der Digitalisierung eingegangen. Mit der Hilfe von Malte Rehbein wird nun im Rahmen dieses Blogs eine Reflexion meiner Erfahrungen mit dem Vorgang des Digitalisierens vorgestellt.

Durch meine Arbeit im Universitätsarchiv bin ich zum Teil auch schon mit dem Digitalisieren, also dem Einpflegen von materiellen analogen Objekten auf dem Computer in Form eines Abbildes, an sich vertraut. Den Löwenanteil machte dabei bisher immer das Einscannen von Fotos aus. Dabei bergen Digitalisate mehrere Große Vorurteile: Wenn ein bestimmtes Foto beispielsweise benötigt wird, muss man nicht mehr extra zum Archiv hinfahren, um es zu untersuchen. Diese können stattdessen einem dann einfach auf dem Computer zugeschickt werden. Neben dem Aufwand spart man sich auch die Kosten einer möglichen Kopie, zumal häufig die Qualität durch die Vervielfältigung die Kopien leidet.

Um eine Digitalisierung vorzunehmen braucht man selbstverständlich die nötigen Apparaturen. Am häufigsten verwende ich dabei den Flachbettscanner, da dieser sich freilich am besten für jegliche Dokumente und Fotos eignet. Auch zu Hause verwende ich dieses Gerät gerne, da ich so wichtige Unterlagen zu anderen Stellen (Rechtsanwalt, Arzt, Sportverein) schnell und bequem senden kann, wenn ich diese zuvor eingescannt habe. Beim Scannvorgang wird das Foto oder Dokument mit der bedruckten Seite nach unten auf die Glasplatte des Scanners gelegt. Das Objekt wird mit Licht angestrahlt und auf einen festen Spiegel gespiegelt. Der Spiegel wirft das Licht im Anschluss auf einen Bildsensor. Dieser wandelt die Lichtsignale Schritt für Schritt durch Pixel in ein Digitalsignal um. Neben dem Flachbettscanner gibt es aber auch Scanner die speziell für Bücher verwendet werden. Im Anschluss lässt sich mit Hilfe von Programmen das digitale Bild weiter bearbeiten. So lassen sich Ränder entfernen oder das Abbild in eine bestimmte Art von Datei umwandeln.

Häufige Nutzung finden neben Flachscannern auch Buchscanner in der Bibliothek, da Studenten häufig ausliegendes Material nicht mitnehmen dürfen, aufgrund der Tatsache, dass es sich um Präsenzbestände handelt. Buchscanner haben dabei den Vorteil, dass sie den Buchrücken schonen. Wenn man beispielsweise versucht Seiten aus einem Buch mit dem Flachbettscanner zu bearbeiten kann der Buchrücken beschädigt werden, da die obere Klappe auf diesem lastet. Zudem fällt es schwer die inneren Seiten korrekt einzuscannen. Hierbei schafft die Buchwippe des Buchscanners Abhilfe, die das Buch mechanisch fixiert. Die Technik die dabei verwendet wird ist die gleiche wie bei der Digitalkamera.

Die Digitalkamera ist sicherlich ein Gegenstand, den man so ziemlich in jedem Haushalt vorfindet. Sie eignet sich prima um Schnappschüsse im Urlaub zu machen oder persönlich wichtige Momente in Form eines Bildes festzuhalten. Im Gegensatz zu analogen Kameras wird hierfür kein empfindlicher Film innerhalb der Kamera benötigt. An dessen Stelle ist ein elektronischer Bildsensor getreten. Der Vorteil hierbei ist, dass man nun nicht mehr die Filme entwickeln lassen muss, um sich die Bilder anzusehen, da man die Digitalkamera problemlos mit dem Computer verbinden kann und sich diese dort anzeigen lassen. Neben dem privaten Gebrauch finden Digitalkameras aber auch Verwendung in den Archiven. Häufig werden diese dort genutzt um beispielsweise die Entwicklung von Neubauten zu verfolgen. Obschon die Digitalkamera sicherlich die praktischere Variante darstellt, erlebt aber dennoch die auch die Analogkamera ein kleines Revival. Gerade die Einwegkameras haben auch ihre praktischen Vorzüge, da man diese Kindern ohne schlechtes Gewissen aushändigen kann. Im Gegensatz zu teuren Digitalkameras kosten diese nicht viel und sind äußerst robust. Zudem haben sie den amüsanten Nebeneffekt, dass man die Bilder nicht direkt auf der Kamera wieder löschen kann wie auf der Digitalkamera. Das bedeutet, dass man nie weiß was letztlich auf der Kamera zu sehen ist. Erst wenn die Filme entwickelt sind lüftet sich das Geheimnis mit oftmals erheiternden Überraschungen.

Wenn man digitale Bilder auf dem Computer hierbei digital darstellen möchte, gibt es dabei zwei unterschiedliche Möglichkeiten: die Rastergrafik und die Vektorgrafik.

Rastergrafiken werden dabei von der Bildgröße sowie der Farbtiefe bestimmt. Die Bildgröße wiederum zeichnet sich durch die Anzahl der einzelnen Pixel aus. Je mehr Pixel ein Bild enthält, desto größer ist dieses. Die Farbtiefe zeigt an wie viele Helligkeits- und Farbwerte ein einzelnes Pixel beschreiben. Wenn man nun tief in ein Foto hineinzoomt, fällt auf, dass das Bild mit der Rastergrafik ungenauer wird und man infolgedessen jedes einzelne Pixel sehen kann. Ein weiteres Kennzeichen von Rastergrafiken ist, dass dieses Format viel Speicherkapazitäten benötigt. Aus diesem Grund werden häufig Bildkompressionen verwendet, die die Größe der Dateien verkleinern. Dabei kann man auf verlustbehaftete Kompressionen zurückgreifen oder auf verlustfreie. Bei verlustbehafteten Kompressionen werden überflüssige Informationen aus den Daten entfernt. Als Beispiel lässt sich hier die Musikdatei anfügen, in der es Töne gibt, die für das menschliche Ohr nicht zu hören sind und daher entfernt werden können. Bei Bildern verhält es sich dementsprechend ähnlich: Details die das menschliche Auge nicht erfassen kann, werden einfach entfernt. Allerdings muss hier angemerkt werden, dass es hierfür keine allgemeine Definition gibt, was erkennbar ist und was nicht. Wie der Name schon suggeriert geht bei der verlustfreien Kompression keine Informationen verloren. Es ändert sich nur die Art der Speicherung. Der Kompressionsalgorithmus ist demnach so ausgelegt, dass er, statt jedes Pixel einzeln zu speichern, die Information über regelmäßig wiederkehrende Pixel und Gestalt und Position dieser speichert. Verlustbehaftete Formate sind zum Beispiel jpeg verlustfreie sind tiff Formate.

Die Vektorgrafik beschreibt Bilder nicht anhand von einzelnen Pixeln sondern sogenannter grafischer Primitive, wie zum Beispiel Punkte, Linien, Polygone, Kreise und Ellipsen. Außerdem zählen dazu noch Information über Farbe, Strichform, Füllung und Behandlungen wie Spiegelungen. Als Grundordnung dient hierbei ein Koordinatensystem. Der Vorteil bei Vektorgrafiken ist dabei, dass diese beim Hineinzoomen keinen Qualitätsverlust verzeichnen. Zudem unterscheiden sich die beiden Formate dahingehend, dass der Speicherbedarf einer Rastergrafik abhängig ist aus dem Produkt von Bildgröße und Farbtiefe wohingegen die Vektorgrafik abhängig ist von der Komplexität eines Bildes. Zudem ist der Aufwand für die Wiedergabe einer Vektorgrafik aufwendiger als bei der Rastergrafik, da der Computer zunächst das Bild aus grafischen Primitiven zusammenrechnen muss. Die Umwandlung einer Rastergrafik in eine Vektorgrafik ist sehr aufwendig wohingegen die Umwandlung von Vektorgrafiken in Rastergrafiken sehr viel einfacher ist.

Ein Computer kann aber lediglich die einzelnen Pixel erkennen. Ähnlich würde es sich bei der Digitalisierung von Texten verhalten. Die einzelnen Pixel können gelesen werden, jedoch erkennt der Computer keine Sinnzusammenhänge. Früher hat man diese Texte bearbeitet indem man sie transkribierte. Auch heute ist das noch nötig, gerade wenn es um handschriftliche Quellen aus dem Mittelalter geht. Zumeist wählt man zwei Personen aus, die unabhängig voneinander die Texte abtippen und dann vergleichen, damit etwaige Flüchtigkeitsfehler oder Lesefehler vermieden werden. Allerdings ist man heute schon so weit, dass auch Computerprogramme in der Lage sind Texte zu erkennen mit der automatischen Texterfassung, dem Optical Character Recognition. Hierbei startet das Programm damit, die Vorlage zu optimieren, zum Beispiel werden eventuelle Verzerrungen ausgeglichen. Ebenfalls kommt es in der Vorverarbeitung dazu, dass die Pixel entweder dem Text oder dem Hintergrund zugeordnet werden. Nach der eigentlichen Zeichenerkennung folgt die Nachbearbeitung, in der versucht wird, das Textbild qualitativ aufzuwerten. Wichtig für dieses Verfahren ist die Erkennungsgenauigkeit von Buchstaben und Wörtern, also wie korrekt die Wiedergabe dieser im Verhältnis zur Vorlage ist. Bei modernen Buchdruck- und Computerschriftarten ergeben sich keine großen Probleme. Auch Dokumente aus Schreibmaschinen können gut erkannt werden durch den Computer. Allerdings wird es spätestens bei der Erkennung von handschriftlich verfassten Dokumenten schwierig für ein Computerprogramm.

Digital History – Ein kleiner Einblick

 

Einleitung zum Blog:

In diesem Blog geht es um meine persönlichen Erfahrungen im Bezug auf Digital Humanities oder genauer um Digital History. Im Rahmen eines Workshops des Historischen Instituts wurden mir Einführungen und Anwendungsbereiche näher gebracht, die mir womöglich in Zukunft bei der Verfassung von Ausarbeitungen im Bezug auf historische Quellen, aber auch bei meinem späteren Beruf im Lehramt helfen könnten.

Dabei muss ich gestehen, dass ich eher zufällig an auf dieses Angebot gestoßen bin. Während meines Praxissemesters an einer Schule ist mir aufgefallen, dass ich mir neben der Lehrtätigkeit freilich auch vorstellen kann, alternative Berufe im Zusammenhang mit Geschichte im späteren Leben auszuüben. Aus diesem Grund bin ich auch aufmerksam auf das Plakat geworden, was mir bei der Arbeit im Archiv aufgefallen war. Offengestanden habe ich immer eine Hassliebe zu Computern empfunden. PCs machen selbstverständlich viele Dinge einfacher, allerdings schwingt bei mir immer noch eine Art Misstrauen mit, wenn ich damit arbeite, obschon einem von allen Seiten öfters unterstellt wird, dass man als junge Person quasi automisch gute Kenntnisse in diesem Bereich haben muss. Den letzten Stoß bekam ich dann allerdings von meiner Chefin, die mir die Spring School empfahl. Als ich dann noch erfuhr, dass mein Arbeitskollege denselben Gedanken hatte dem Work Shop beizutreten, kam ich nicht mehr umhin zumindest zur ersten Vorstellung der Digital Humanites und zum Kick-Off zu gehen.

Bei der Vorstellung selber fühlte ich mich dann auch sogleich überfordert. Es klang alles sehr plausibel, was vorne erklärt wurde, aber ich war mir nicht sicher, ob es meinen Vorstellungen und Wünschen entsprach, zumal ich vieles auch nicht auf Anhieb verstand. Aus diesem Grund meldete ich mich auch nicht sogleich an, sondern wog ab, ob es sich für mich lohnen würde. Nach kurzem Hin und Her allerdings rang ich mich dazu durch, an dem Work Shop teilzunehmen. Dies hatte auch damit zu tun, dass versichert wurde, dass keine besonderen Vorkenntnisse von Nöten waren, sondern man sich stattdessen lediglich um ein Notebook zu kümmern hatte.

Meine generellen Erwartungen an den Work Shop waren, dass ich einen Einblick in die digitale Geschichtswissenschaft erhalte, da ich von diesen vorher noch nie was gehört hatte und mich dies neugierig machte. Hinzu kam noch, dass ich Programme kennen lernen würde, die mich bei der Textverarbeitung unterstützen können. Gerade wenn man eine Masse an Quellen hat und unter diesen auswählen muss, ist es doch sehr viel Arbeit dies „manuell“ zu erledigen.

Meine Befürchtungen hingegen waren, dass ich zu schnell überfordert werden könnte, dadurch, dass Sachverhalte nicht sofort verstanden werden und infolgedessen das ganze Vorankommen doch deutlich ausgebremst wird. Glücklicherweise wurden meine Befürchtungen relativ schnell zur Seite getragen, da mein anwesender Kollege mich unterstützen konnte, zumal er auch noch über Vorkenntnisse verfügt.