Icon

Clio-Guide: Digitale Werkzeuge und Arbeitstechniken

Thomas Meyer, Clio-Guide: Digitale Werkzeuge und Arbeitstechniken, in: Clio Guide – Ein Handbuch zu digitalen Ressourcen für die Geschichtswissenschaften, hrsg. von Silvia Daniel, Wilfried Enderle, Rüdiger Hohls, Thomas Meyer, Jens Prellwitz, Claudia Prinz, Annette Schuhmann, Silke Schwandt, 3. erw. und aktualisierte Aufl., Berlin 2023–2024, https://doi.org/10.60693/wtsj-4e37

1. Einführung

1.1 „Werkzeuge“ und Geschichtswissenschaften

Vor fünfzig Jahren prognostizierte der französische Historiker und Vertreter der Annales-Schule Emmanuel Le Roy Ladurie den Sprung der Geschichtswissenschaft in die Digitalität. Seine These, der Historiker von morgen müsse Programmierer sein[1], hat sich bisher nicht bewahrheitet. Hintergrund für Laduries These war die Nutzung quantitativer Methoden in der Sozial- und Wirtschaftsgeschichte, ausgehend von Forschungen in den USA, welche neue Erkenntnisse versprachen; mit der Nutzung von Großrechnern konnten nun „Massendaten“ verarbeitet werden, tabellarische „Daten“, wie zum Beispiel Rechnungsbücher, Geburten- und Sterberegister, wurden in großen Mengen auswertbar.[2] Ohne eine gewisse Grundkenntnis basaler digitaler Arbeitstechniken kommen Historiker:innen heute allerdings nicht mehr aus. Schließlich brachte neben der Quantifizierung seit den 1960er-Jahren der Einzug des Personal Computers in Universitäten in den 1980er-Jahren die Digitalisierung des Schreibens mit sich; die flächendeckende Nutzung des Internets seit Ende der 1990er-Jahre mit der Digitalisierung des Lesens, einer umfänglichen Distribution von Daten und schließlich der Möglichkeit, Quellenmaterial digitalisiert maschinell zu verarbeiten, haben grundlegende Arbeitstechniken ins Digitale verlagert. Heute wird von der „Datafizierung“ aller Lebensbereiche gesprochen, da Forschung und Lehre von der durchgängigen Nutzung digitaler Technologien geprägt sind.

Die Computerisierung – der Einsatz von Computern in allen Lebensbereichen – wie auch die Digitalisierung – die Umwandlung analoger Informationen und Abläufe in digitale – wurde und werden von deren Akteuren diskutiert und systematisiert: So entwarf u.a. Manfred Thaller, dessen erster ‚Lehrstuhl‘ für computergestützte oder digitale Geschichtswissenschaften an der Universität zu Köln entstand, bereits in den 1980er-Jahren sein Konzept einer „Historical Workstation“, auf dem erstmals ein umfassendes IT-gestütztes Forschen basierte.[3] Die zwei wichtigsten Dienste des Internet – Email-Kommunikation und das World-Wide-Web als Präsentationswerkzeug und Wissensspeicher – hat Wolfgang Schmale wiederum als wichtige Säulen der „Digitalen Geschichtswissenschaft“ verortet und auf die Potentiale von Hypertext-Strukturen in Forschung und Lehre hingewiesen. Neue elektronische Publikationsmöglichkeiten oder das E-Learning mittels vernetzter Inhalte und deren orts- und zeitunabhängiger Zugang bilden den Schwerpunkt seines Essays. Seinem Resümee, dass die Digitalisierung der Geschichtswissenschaft ein in alle Richtungen völlig offener Prozess ist, ist immer noch zuzustimmen.[4]

Heute findet der wissenschaftliche Forschungs- und Lehralltag ganz selbstverständlich unter Nutzung „digitaler Werkzeuge“ statt. Spätestens mit der Covid-Pandemie waren Lehrende und Studierende auf die Nutzung von Online-Meetings, auf den Austausch von Dokumenten, die digital gestützte Organisation von Projekten usw. angewiesen.[5] Schon vor 2020 waren sämtliche grundlegenden wissenschaftlichen Arbeitstechniken in der Regel bereits mit digitalen Werkzeugen verknüpft: von der Recherche und Erschließung von Materialien über deren digitale Bearbeitung sowie das Schreiben von Texten, über das Kommunizieren in der Fachkommunikation, das Analysieren von Quellenmaterial mittels digitaler Methoden bis hin zum Publizieren und Präsentieren.[6] In der universitären Lehre haben in den 2000er-Jahren E-Learning-Umgebungen und -Methoden Einzug gehalten und bieten Funktionen zur Materialbereitstellung, Kommunikation und Leistungsmessung; diese verändern zugleich auch grundlegend die didaktischen Möglichkeiten sowohl für das Studium der Geschichtswissenschaften hin zu einem forschenden Lehren als auch die spätere Praxis von Lehrer:innen.[7] Neben dem Recherchieren und Schreiben zählten die Fachinformation und -kommunikation zu den Feldern, in denen die Akzeptanz digitaler Technologien und Inhalte am längsten und stärksten ausgeprägt ist. Recherchen sind schon seit den 1980er-Jahren digital möglich gewesen. Die Nutzung von OPACs (Online Public Access Catalogues) als grundlegendes Werkzeug der Literaturrecherche sowie von Online-Datenbanken für gedruckte oder retrodigitalisierte Zeitschriften, Nachschlagewerke, Bibliographien etc. bis hin zu aus dem Fach heraus entstandenen Plattformen wie H-Soz-Kult oder genuinen Online-Zeitschriften sind heute gängiger Teil eines „Werkzeuge“-Kanons.[8]

Mit dem Einzug neuer elektronischer Publikationsplattformen Ende der 1990er-Jahre vor allem in Universitäten (in Form von Dokumentenservern) und der Nutzung von Textverarbeitung entwickelten sich erste hybride Publikationsformen. Heute stehen, nicht zuletzt mit Blogs, „Werkzeuge“ für das eigenständige Publizieren zur Verfügung. Blogs sind heute ein Standard-„Werkzeug“ zur Begleitung von Dissertationen und Tagungen, zu einzelnen fortlaufenden thematischen Veranstaltungen, ebenso für Fachverbände und Arbeitsgruppen, die sich der digitalen Geschichtswissenschaft widmen – wie unter anderem das Blog der AG Digitale Geschichtswissenschaft im VHD zeigt.

Mit der endgültigen Digitalisierung des Forschens und der wachsenden Nutzung digitaler Methoden stehen heute schier unendliche Mengen von Daten zur Verfügung, deren Ordnung und Erschließung sich seit ungefähr fünfzehn Jahren Einrichtungen und Projekte rund um das Thema Forschungsdaten verschrieben haben.[10]

Digital gestützte Methoden oder digitale Methoden in den Digital Humanities bzw. in der Digital History werden heute international und interdisziplinär diskutiert.[11] Mit dem Erscheinen des ChatBots ChatGPT von OpenAI stehen nun auch die Entwicklungen des Machine Learnings – im Allgemeinen oft unter dem Terminus Künstliche Intelligenz subsumiert –, im Fokus. Deren rasante Entwicklungen allein im vergangenen Jahr versprechen ein tieferes und schnelleres Erschließen, Verstehen und Verarbeiten großer Datenmengen respektive Textkorpora.[12] Mit dem Erscheinen von ChatGPT ringen schließlich nicht nur die großen Softwarehersteller um Märkte für neue Werkzeuge, sondern viele kleinere Anbieter entwickeln auf der Basis der großen Sprachmodelle (Large Language Models – LLM) spezialisierte Anwendungen: So lassen sich Abstracts aus PDF-Texten erzeugen, Videoinhalte zusammenfassen oder komplexe Sachverhalte visualisieren. Welche Implikationen sich langfristig aus der Nutzung dieser Tools in Forschung und Lehre ergeben, wird bereits diskutiert.[15] Wie schon mit dem Aufkommen der großen Suchmaschinen Ende der 1990er-Jahre und den Debatten um die Auswirkungen der Internetnutzung[16] rückt die Vermittlung von Informationskompetenz[17] – so der Begriff, der bis in die 2010er-Jahre gängig war – in den Fokus. Die Fähigkeit, kritisch Daten und deren Provenienz zu bewerten und diese weiter zu verarbeiten, wird heute nun unter dem Schlagwort Data Literacy verhandelt und stellt am Ende eine Erweiterung der Schlüsselkompetenz von Historiker:innen, der Quellenkritik, dar, nun Daten erweitert.[18]

„Digitale Werkzeuge“ – Software zur Erfassung, Speicherung, Verarbeitung und Ausgabe von Daten – sind unverzichtbar in allen Bereichen von Forschung und Lehre. Grundlegende Arbeitstechniken wie auch Forschungsmethoden greifen auf eine Vielzahl an Werkzeugen zurück. Die vorliegende dritte Fassung des Clio-Guides Digitale Werkzeuge fokussiert angesichts eines breiten Spektrums an „Tools“ auf digitale Werkzeuge zu den klassischen, grundlegenden Arbeitstechniken von Historiker:innen: das Recherchieren, Erschließen von Sekundärliteratur, Erschließung und Aufbereitung von Quellen, Schreiben, Publizieren und Präsentieren sowie Kommunizieren, erweitert um einen Exkurs zum Programmieren, welches schließlich in den Digitalen Geschichtswissenschaften zur grundlegenden Arbeitstechnik zählt. Der Bereich des Präsentierens wird in dieser überarbeiteten Version des Guides um Themen wie Audio- und Video erweitert, schließlich rücken einerseits multimediale Objekte als Quellen immer mehr in den Fokus der Geschichtswissenschaften, andererseits werden Audio und Video in Form von Podcasts oder Screencasts für die Wissensvermittlung genutzt. Das äußerst weite Feld spezifischer digitaler methodischer Instrumente der Digital Humanities bzw. der Digital History bleibt den hierfür vorgesehenen Einführungen im Rahmen der Clio-Guides überlassen.

Schreib-„Werkzeuge“ werden in den Geschichtswissenschaften eher offline als Software auf dem Notebook oder Tablet und als kollaboratives Werkzeug genutzt. Google-Docs und zahlreiche Alternativen ermöglichen das Arbeiten im Netz, vor allem über Cloud-Dienste. Letztere gehören heute zum Standard beim persönlichen Ordnen und Vorhalten von Dokumenten bzw. erleichtern den Austausch von Dokumenten. Solche Speicherdienste sind an allen Universitäten verfügbar. Verknüpft mit Cloud-Diensten rückt Software-as-a-Service (SaaS) immer mehr in den Anwender:innen-Fokus: Applikationen werden nicht mehr als eigenständige Anwendung mit einem Installationspaket ausgeliefert und ausschließlich lokal auf einem Rechner installiert. Stattdessen werden Anwendungen zentral durch den Hersteller auf einem Server bereitgestellt, die Nutzung der Software erfolgt zum Beispiel im Browser und ist somit von einer funktionsfähigen Internetverbindung abhängig. Auch ist heute die Nutzung einer lokal auf PC oder Notebook installierten Software verbreitet, die von weiteren Komponenten auf dem Server eines Softwareherstellers abhängig ist, wie zum Beispiel von einer persönlichen Anmeldung, um die Gültigkeit der Softwarenutzungslizenz zu prüfen. Verknüpft hiermit sind u.U. Lizenzmodelle, bei denen die Nutzung nach Volumen oder Zeiträumen erfolgt, wie zum Beispiel einer monatlichen Abrechnung. Das kann für kleinere Projektkontexte vorteilhaft sein, da nicht mehr Tausende Euro für eine Premium-Videoschnittsoftware investiert werden müssen, sondern das benötigte Paket nur für einen kurzen Zeitraum des Videoschnitts abonniert wird. Bei größeren Projektteams und langfristig benötigten Funktionalitäten können solche Abonnements wiederum schnell sehr teuer werden. Ebenfalls weit verbreitet sind heute Subscription-Modelle, bei denen für ein Jahr eine lokal installierbare Lizenz inklusive Support (Updates der Software, Beratung und Fehlerbehebung durch den Hersteller) erworben wird und die weitere Nutzung nach Ablauf der Subscription zwar möglich ist, Support und Updates jedoch erst mit einer weiteren Subscription wieder zur Verfügung stehen. Auch eine Kombination der genannten Vertriebsmodelle ist möglich.

Neben klassischen Desktop-Anwendungen, Serverdiensten und Cloud-Anwendungen werden Container-basierte Anwendungen genutzt, die verschiedene Server-Komponenten benötigen. Werden also Softwarepakete wie Datenbankserver und Webserver für eine Anwendung vorausgesetzt – zum Beispiel eine Anwendung zur OCR-Erkennung von Texten, die selbst wiederum über einen Webserver gehostet wird und erst dann im Browser nutzbar ist – werden diese in einem Container verpackt. Dieser Container enthält alle notwendigen Komponenten für den Betrieb der (serverbasierten) Software, schließlich kann dieser Container dann auf einem Desktop-PC oder Notebook als fertige Anwendung genutzt werden. Das meist genutzte System hierfür ist heute Docker, welches in allen Betriebssystemumgebungen nutzbar ist. Entstanden sind Container-Umgebungen ursprünglich für die Softwareentwicklung, alle Komponenten für eine Umgebung – zum Beispiel Datenbankserver, Webserver und weitere spezielle Serverdienste – stehen sofort lauffähig „virtualisiert“ auf PC und Notebook bereit, für die Programmierung ist keine aufwändige Installation eines Servers mehr notwendig.

Der Softwaremarkt ist ständigen Veränderungen unterworfen, neue Tools finden ihren Weg in die „Community“, es verschwinden Anwendungen, Anbieter und Hersteller. Wie im World Wide Web, wo gerade im akademischen Bereich heute viele 404-http-Fehler (Seite nicht gefunden) von einem zunehmenden Absterben digitaler Projekte zeugen, „verschwinden“ auch Werkzeuge. Datenformate und Programmiersprachen werden stetig verändert. So mussten sich Nutzer:innen der Präsentationssoftware prezi damit abfinden, dass das kostenfreie „prezi classic“ nicht mehr verfügbar ist, da die zugrundeliegende Technologie flash von Adobe eingestellt wurde; auch wenn weiterhin ein basic-Support alter Präsentationen (noch) angeboten wird. Da jede Software selbst auf Quellcode in einer Programmiersprache basiert und dieser Quellcode in der Regel mit „Compilern“ zu einem lauffähigen Programm kompiliert wird, ist eine grundsätzliche Abhängigkeit von den jeweiligen Funktionen einer Programmiersprache zu einem bestimmten Zeitpunkt gegeben. Wird die Programmiersprache weiter entwickelt, müssen in der Regel auch die damit erzeugten Programme angepasst werden. Geschieht dies nicht, ist mit hoher Wahrscheinlichkeit irgendwann eine Nutzung nicht mehr möglich. Gleiches gilt für den „Compiler“ oder sogar für bestimmte Hardwarefunktionen im Prozessor. Auch Compiler und Hardware befinden sich stetig im Wandel und unterstützen irgendwann nicht mehr ältere Software (oder Quellcode). Nötig ist damit eine Wartung von Software, eine fortlaufende Anpassung an Neuerungen in Programmiersprachen und Compiler. Auch um Sicherheitsproblemen vorzubeugen, ist eine fortlaufende Prüfung und Überarbeitung von Anwendungen nötig.[22]

Neben den bereits genannten Einschränkungen von SaaS und Cloud durch Lizenzmodelle und Abhängigkeiten in der Bereitstellung stellt sich auch die Frage nach dem Datenschutz. Jüngst wurde bekannt, dass Microsoft persönliche Daten und Mails einschließlich von Outlook-Passwörtern auf eigene Cloud-Server überträgt. Das Speichern von Texten in Cloud-basierten Textverarbeitungen kann schnell überraschende Nebeneffekte zeigen, wie im Fall der expliziten Nutzung gespeicherter Texte durch Google für das Training eigener KIs. Ähnlich gilt das übrigens für die weit verbreitete Übersetzungssoftware DeepL, bei der die eingegebenen Texte in der kostenfreien Version zum Training des Überstzungstools weiter genutzt bzw. nicht gelöscht werden. Und Urheberrechtsfragen betreffen nicht nur Textproduzenten, sondern auch Softwarehersteller, auch Code lässt sich schließlich schnell und günstig per KI generieren.

Im Folgenden werden also Werkzeuge vorgestellt, welche für die grundlegenden Arbeitstechniken in den Geschichtswissenschaften relevant und nützlich sind; nicht eingeschlossen sind Anwendungen, welche auf spezielle Methoden der Digital Humanities bzw. der Digitalen Geschichtswissenschaften zugeschnitten sind, eingeschlossen wird aber das Programmieren im Sinne des Thallerschen Konzepts einer Historical Workstation. Die Relevanz der hier vorgestellten Anwendungen bemisst sich nicht allein nach Kostenfragen oder dem Prinzip opensource (offener, zugänglicher Quellcode), sondern möglichst nach deren Verbreitungsgrad, Zugänglichkeit und intuitiver Anwendbarkeit. Daher stehen kommerzielle Anwendungen neben opensource-Paketen, auf spezielle Angebote wie reduzierte educational licences (EDU-Versionen) wird jeweils hingewiesen.

1.2 Institutionen und Verbände

Digital Humanities und Digitale Geschichtswissenschaften

Digitale Werkzeuge werden nicht nur von kommerziellen Herstellern entwickelt, eine Vielzahl wichtiger wissenschaftlich nutzbarer Softwarepakete ist in Projekten der „Digital Humanities“ oder „Digitalen Geschichtswissenschaften“ entstanden oder im Entstehen begriffen. In DH-Projekten entwickelte Werkzeuge stehen in der Regel als open source Anwendung zur Verfügung, das heißt der Quellcode des Programms ist öffentlich frei einsehbar. Je nach „Lizenz“ kann der Quellcode auch verändert oder in eigene Projekte integriert werden. Größere EU- oder BMBF-geförderte Projektverbünde wie DARIAH oder CLARIN EU hatten sich seinerzeit dezidiert der Entwicklung von Tools verschrieben, CLARIN hat speziell auf Texte bzw. Textressourcen ausgerichtete Tools zur Textannotation und Korpusanalyse entwickelt. Zahlreiche weitere Open-Source-Anwendungen sind in Kleinstprojekten entstanden, unter anderem an den Lehrstühlen der Digital Humanities oder Digitalen Geschichtswissenschaft.

Im deutschsprachigen Raum finden sich Institutionen und Projekte im Verband Digital Humanities im Deutschsprachigen Raum (DHD) auf seinen alle zwei Jahren stattfindenden Konferenzen an wechselnden Orten zusammen. Der Verband ist zugleich in der European Association of Digital Humanities (EADH) assoziiert und im internationalen Dachverband Alliance of Digital Humanities Organizations (ADHO) vertreten. In Europa sind die Digital Humanities (DH) recht unterschiedlich gewachsen, einen ersten, nicht mehr ganz aktuellen Überblick von 2014 über die Situation der DH in Schweden, Portugal, Niederlande, Griechenland, Russland, Schweiz, Spanien, Slowenien und Norwegen geben verschiedene Beiträge im H-Soz-Kult Themenschwerpunkt: The Status Quo of Digital Humanities in Europe. Speziell in Österreich war das Grazer Zentrum für Informationsmodellierung - Austrian Center for Digital Humanities eines der ersten Institute im DH-Bereich,mittlerweile ist auch hier ein weit verzweigtes Netzwerk an Institutionen und Projekten der digital humanities austria tätig. In der Schweiz vermitteln das Digital Humanities Lab an der Uni Basel und die Digital Humanities an der Uni Bern Kenntnisse im Umgang mit digitalen Werkzeugen. Das Luxembourg Centre for Contemporary and Digital History (C²DH) in Luxemburg wiederum gehört zu einem der renommiersten und projektstärksten Institute, an dem Anwendungen implementiert werden.

Sehr früh interdiszplinär ausgerichtet waren die Institute in Passau oder am Trier Center for Digital Humanities. Auch bieten einige Fachhochschulen im Rahmen der Ausbildung von Archivaren und Bibliothekaren softwaretechnische Schwerpunkte wie zum Beispiel an der FH Potsdam. Für Fragen der digitalen Quellenerschließung und der Anwendung digitaler Methoden auf historischen Dokumenten hat sich das Institut für Dokumentologie und Editorik e.V. als zentraler Anlaufpunkt etabliert; dessen Mitglieder stammen aus bekannten Editions- und Forschungsprojekten, mit einem Schwerpunkt auf den vormodernen Epochen. Neben Publikationen, Tagungen und Projekthinweisen finden sich hier gängige Werkzeuge aus diesem Bereich. Für weitere Spezialthemen gibt es kleinere Arbeitsgruppen in den Verbänden, wie die AG Graphen und Netzwerke, die sich u.a. mit dem Einsatz von Graphendatenbanken beschäftigt. Einen nahezu umfassenden Einblick in die Landschaft der Studiengänge und somit potentiellen Entstehungsorten digitaler Werkzeuge an europäischen Hochschulen erhält man über die CLARIN-Studiengangsdatenbank bzw. Registry.

In den USA ist das Roy Rosenzweig Center for History and New Media eines der wichtigsten Institute im Bereich der Softwareentwicklung, welches heute weit verbreitete Werkzeuge wie Zotero oder Omeka hervorgebracht hat. An vielen weiteren Universitäten finden sich Projekte, die an der Schnittstelle zwischen Digitaler Geschichswissenschaft und Public History agieren. Einen guten Überblick hierzu erhält man über die das Forum H-DigitalHistory des H-NET, in dem Ankündigungen und Projekte vor allem aus den USA annonciert werden, aber auch über die American Historical Association.

In der Akademienlandschaft finden sich Arbeitsgruppen, in denen sich dort angesiedelte Projekte organisieren. Ursprünglich existierten zwei Arbeitsgruppen mit unterschiedlichen Aufgabenbereichen wie die Arbeitsgruppe Digitale Forschung der Akademien, speziell ausgerichtet auf die langfristige Sicherung und Verfügbarhaltung von Forschungsdaten und den Einsatz von IT in den einzelnen Akademieprojekten. Diese, wie auch eine zweite Arbeitsgruppe Elektronisches Publizieren in der Union der deutschen Akademien der Wissenschaften, sind mittlerweile in einer Arbeitsgruppe eHumanites aufgegangen. In Österreich werden die Akademienaktivitäten unter dem Dach des Austrian Centre for Digital Humanities and Cultural Heritage (ACDH-CH) zusammengeführt. Auf der Ebene der Leibniz-Institute werden Forschungsinfrastrukturen in der entsprechenden Roadmap ausgewiesen, es lassen sich hier auch Informationen zu speziellen an Leibniz-Instituten angesiedelten Projekten der Geschichtswissenschaften finden, somit auch Verweise auf deren Werkzeuge und Methoden.

Ein Großteil der bis hier genannten Projektträger sowie Nachfolgeprojekte aus dem CLARIN- und DARIAH-Umfeld sind heute Partner in verschiedenen Konsortien der Nationalen Forschungsdaten Initiative (NFDI). NFDI ist eine Förder- und Projektinitiative aus dem BMBF, um fachliche und interdisziplinäre Konsortien zum Aufbau und Betrieb von Forschungsdatenzentren zu unterstützen und in den einzelnen Fächern Unterstützung bei der Erhebung und Erschließung von Forschungsdaten anzubieten. Die Geisteswissenschaften sind im Verbund durch NFDI4Memory (historisch arbeitenden Geisteswissenschaften), Text+ (sprach- und textbasierte Infrastruktur) sowie NFDI4Objects (materialle und immaterielle Kulturgüte) vertreten; teils sind die Verbünde aus früheren Projektkooperation hervorgegangen und knüpfen damit an bestehende Infrastrukturen an.

Der Austausch über digitale Werkzeuge findet wie überall auf einer Vielzahl an Konferenzen vor allem der genannten Projektverbünde statt. Eine wichtige Anlaufadresse, um von neueren Entwicklungen im Bereich Werkzeuge zu erfahren sind die Jahrestagungen des Verbands DHd „Digital Humanities“ und eine Vielzahl an Konferenzen, deren Ankündigungen beim Verband oder auf H-Soz-Kult zu finden sind. Die AG Digitale Geschichtswissenschaften im Verband der Historiker und Historikerinnen Deutschlands (VHD), gegründet auf dem Historikertag 2012 in Mainz, hat sich als Interessensvertretung für digitale Methoden (und somit auch Werkzeuge) im Fach formiert, die von der Beteiligung Einzelner und verschiedener Projekte lebt. Diese AG organisiert regelmäßig AG-Tagungen, Workshops und Sektionen, unter anderem mit dem Praxislabor auf dem Deutschen Historikertag.

Über Förderlinien der DFG und des BMBF wurden seit der zweiten Hälfte der 1990er-Jahre zahlreiche Projekte finanziert: Die Datenbanken zur Verzeichnung geförderter Vorhaben sind ein guter Einstiegspunkt in Recherchen zu in Entwicklung befindlichen oder bereits abgeschlossenen Projekten und Werkzeugen. Von der DFG geförderte Projekte können mittels GEPRIS oder RI-Resources recherchiert werden, ebenso Projekte aus dem Bereich „Scholarly Communication“ der MELLON FOUNDATION und Förderungen des National endowment for the humanities (NEH). Etwas aufwändiger gestaltet sich die Suche nach BMBF-geförderten Projekten da eine Suche nach einzelnen Programmen nur schwer möglich ist. Auf EU-Ebene lassen sich die Förderprogramme des laufenden Programms Horizon Europe derzeit nur anhand einschlägiger Online-Veröffentlichungen recherchieren. Mit CORDIS als öffentlichem Repositorium und Portal der Europäischen Kommission können Informationen über EU-finanzierte Forschungsprogramme sowie deren Ergebnisse abgerufen werden. Speziell in Großbritannien unterstützt die JISC eine Vielzahl digitaler Projekte in den Geisteswissenschaften. Zwei wichtige EU-geförderte Verbünde, die sich zwar eher der Förderung von Open Access–Infrastrukturen widmen, aber auch digitale Werkzeuge im Bereich des digitalen Publizierens sowie der Erschließung entwickeln, sind OPERAS und OpenAIRE. Letzteres bietet mit einem Knowledge Graph Zugriff Ansatz auf Informationen über Software, allerdings für die Geschichtswissenschaften bisher nur rudimentär; die OpenAIRE-Webinare geben Einblicke in die verschiedenen Werkzeuge vor allem in den Bereichen Recherche und Forschungsdaten.

makerspaces

Eine vollständige Übersicht über alle für die Geschichtswissenschaften relevanten digitalen Werkzeuge gibt es, stattdessen aber eine neuere, vielversprechende Idee der makerspaces. Unter einem makerspace werden reale und virtuelle Werkräume verstanden, in denen Tools bereitgestellt werden. Sie sind sowohl Ort der Vermittlung und des Austauschs über technologische Möglichkeiten, aber eben auch Ort des „machens“, also der Praxis selbst. Entstanden ist die maker-Bewegung aus einer Subkultur, die sich nutzerorientiert und mit einem non-profit-Gedanken dem selbstständigen Herstellen von Dingen widmet, es existieren eigene Magazine wie make aus dem heise-Verlag. Mittlerweile ist diese Bewegung in der akademischen Welt angekommen: An Universitäten und Bibliotheken sind Räume wie zum Beispiel der scholarly makerspace an der Humboldt-Universität zu Berlin geschaffen worden, weitere sind im Entstehen begriffen. Die digitale Praxis kehrt somit aus den um die 2010er-Jahre propagierten Virtuellen Forschungsumgebungen nun zurück in reale Räume an den Universitäten und Bibliotheken, wie zuletzt auch der Stabi Tools Tuesday zeigt. Im Rahmen von makerspaces entwickelte Tool-Registries sollen zukünftig eine (hinsichtlich der Datenbasis) gesicherte Umgebung für die Verzeichnung von Werkzeugen bzw. deren Recherche bieten, das Wikidata:WikiProject DH Tool Registry ist ein erster Ansatz; dessen Datenbasis soll zukünftig auch in Anwendungen zur Verzeichnung und Recherche von Werkzeugen integrierbar sein.

2. Informationsressourcen und Medien

2.1 Informationsressourcen und Medien

Neben einschlägigen Monographien zu Digitalen Geschichtswissenschaften enthalten Fachzeitschriften Berichte und Verweise zu Projekten und Werkzeugen. Eine regelmäßige Kolumne zu Internetressourcen bieten die kurzen Beiträge in Geschichte in Wissenschaft und Unterricht, die meist dem Schwerpunktthema der Ausgaben gewidmet sind. Digitalen Methoden und Werkzeugen widmet sich auch die Zeitschrift für digitale Geisteswissenschaften. Traditionell computergestützten Methoden gegenüber offen ist schon seit Jahrzehnten das Journal Historical Social Research, vor allem mit Sonderbänden wie den Heften HSR-Supplement Digital Humanities[83]. Das Journal of Digital Humanities 2015 hat zeitweise Besprechungen von Werkzeugen veröffentlicht, die im Umfeld der Digital Humanities entwickelt werden oder zur Anwendung kommen, erscheint aber seit 2015 nicht mehr. Eine wichtige Ressource für Tools ist derzeit das Journal of digital history. Weitere Journale sind darüber hinaus bei JSTOR, Project Muse und dem Directory of Open Access Journals recherchierbar, auf der Journalplattform revues.org findet sich das Journal of the text encoding initiative.

Nicht nur in den ‚traditionellen‘ Geisteswissenschaften, auch die Digital Humanities / Digitale Geschichtswissenschaft bringen eine Vielzahl an Journalen, Monographien und Sammelbänden hervor. Daher finden sich im Print-Bereich wichtige Einführungen zu Arbeitstechniken und Werkzeugen[90] – manchmal ergänzt um online verfügbare Übungen oder kommentierte Kurzeinführungen und Linksammlungen[92]. Eine neuere Buchreihe mit Einblicken in einzelne Themen und somit auch Tools bieten De Gruyter und die Universität Luxemburg mit den Studies in Digital History and Hermeneutics. Per definitionem umfassen die Digital Humanities alle Geisteswissenschaften, sodass auch Literatur aus den Sozialwissenschaften, Literaturwissenschaften usw. ebenfalls Verweise auf nützliche Anwendungen enthalten; manch engagierte Literatur-Übersicht zu den DH allerdings droht zu verwaisen. Ein Blick in gängige Suchmaschinen zu Stichworten wie Bibliografie Digital Humanities oder Tool Digital Humanities lohnt wiederum jederzeit. Zum Handwerkszeug für Historiker:innen gehören außerdem Bibliografien; die Spezialbibliografien des Journal of Digital Humanities oder übergreifende Bibliografien wie die Deutsche Historische Bibliografie bergen weitere wertvolle Verweise. Im Übrigen lohnt sich auch immer ein Blick in die Tagespresse oder Archive, der digitale Wandel wird schließlich auch hier täglich in Artikelserien und Debatten kommentiert und diskutiert.[99]

Wichtige Websites und digitale Publikationen

Viele Verbände und Institutionen mit Bezug zu digitalen Methoden und Werkzeugen bieten Mailinglisten, Publikationen oder Informationen zum Tagungsgeschehen, die auf den jeweiligen Websites zu finden sind, so unter anderem beim deutschsprachigen Verband der DH oder auf dem DHd-Blog. Verschiedene Einführungen und Hinweise auf Werkzeuge werden im Blog der AG Digitale Geschichtswissenschaften gegeben. Die AG bietet außerdem regelmäßig mit ihrem Praxislabor Einführungen zu verschiedenen Werkzeugen und Methoden in den digitalen Geschichtswissenschaften. Blogs wie Archivalia oder der Blog-Aggregator Planet-Clio bieten Einstiege in verschiedene Bereiche der „Werkzeuge“-Nutzung. Neben Veranstaltungshinweisen zum Thema Digitale Geschichtswissenschaften auf Foren wie H-Soz-Kult sind Informationen rund um das aktuelle Tagungsgeschehen bzw. auch vergangene Tagungen und Publikationen für die digitalen Geisteswissenschaften auch bei H-Digital-History, einem der zahlreichen Subforen des H-NET, zu finden.

Auf Softwaresuiten und Programme ausgerichtete Sammlungen finden sich im DH Toychest: Digital Humanities Tools.

Die Website Programming Historian zählt heute zu einem der wichtigsten Einstiege zu Werkzeugen für die digitalen Geisteswissenschaften und speziell für das Programmieren. Die primär auf Forschungsdaten ausgerichtet Website forschungsdaten.info bietet Einführungen zu Programmiersprachen, Forschungsdaten und speziellen Tools im Bereich der Softwareentwicklung und Datenaufbereitung.

Für tägliche Routineaufgaben, teils aber auch für spezielle Forschungs- und Lehrkontexte sind kommerzielle oder freie Softwarepakete immer noch die erste Wahl. Daher sind Software-Verzeichnisse wie jenes des Heise-Verlags oder deren ct-Software-Kollektionen, jederzeit ein guter Einstieg bei der Suche nach einem passenden Werkzeug. Dort können unter anderem über eine rubrizierte Suche spezielle Anwendungen wie Statistikpakete der Sprache R oder Data-Mining-Werkzeuge wie den Konstanz Information Miner gefunden werden. Anwendungen zur Textverarbeitung, Grafikbearbeitung, zum Publizieren usw. sind ebenso vorhanden. Im akademischen Bereich ist seit geraumer Zeit eine Sonderausgabe Digital Tools des Journal of Digital History angekündigt, die eine Übersicht zu aktuellen Entwicklungen und Werkzeugen verspricht.

An vielen akademische Einrichtungen werden (oftmals redundate) Listen und Verzeichnisse zu digitalen Werkzeugen geführt; umso wichtiger wird daher eine gezieltere Auswahl bzw. Fokussierung. Rezensionen[117] einerseits und die im vorangegangenen Kapitel erwähnten makerspaces und tool registries andererseits sollten daher bei der Auswahl von Werkzeugen zu Rate gezogen werden. Einführungen und umfangreichere Spezialartikel zu digitalen Werkzeugen insbesondere aus dem kommerziellen oder opensource-Bereich, sind in zwei der wichtigsten Computerzeitschriten ct und iX des heise-Verlags zu finden. Das kostenpflichtige Paket heise+ bietet Zugriff auf viele lesenswerte Artikel des Verlags, zeitweise wird das plus-Paket inclusive der Zeitschriften zum gleichen Preis angeboten; über die heise-online Website lässt sich kostenfrei eine fortlaufende aktuelle Übersicht zu neuen Beiträgen lesen, ein Teil dessen wird ohne Bezahlschranke angeboten. Weitere akademische Zeitschriften, die sich mit digitalen Werkzeugen befassen, finden sich unter anderem in einer Übersicht der Gesellschaft für Informatik.

3. Werkzeuge

3.1 Recherchieren

Recherchieren als grundlegende Arbeitstechnik stellt heute angesichts der Fülle digitaler Informationsressourcen nicht nur Studierende vor neue Herausforderungen. Suchmaschinen wie Google suggerieren eine umfassende Erschließung von Wissen, führen letztlich aber dazu, dass sich der Wissensraum nachhaltig verringert.[123] Und das sogenannte „invisible web“ oder „deep web“ schließt wichtige Fachressourcen wie Nachschlagewerke oder Lexika, vor allem aber zahlreiche Literatur- und Quellendatenbanken aus.[124] Es ist sicher nicht notwendig, die Funktionsweise gängiger Suchmaschinen umfassend zu verstehen. Hilfreich sind jedoch Grundkenntnisse von Rankingverfahren und Suchanfragesyntax: Ersteres richtet sich mittlerweile bei kommerziellen Suchmaschinen längst nicht nur nach der Popularität einer Ressource, heute spielen auch der Standort der Nutzer:innen oder das Suchverhalten innerhalb der Suchergebnisse eine weitaus größere Rolle, wie auch die Aktualität einer Seite, deren technologische Zugänglichkeit und Lade-Geschwindigkeit.[125] Die Anwendung spezieller Suchsyntax als „Abfragesprache“ von Suchmaschinen wiederum kann Recherchen beschleunigen: „site:academia.edu digital history“ oder site:hsozkult.de digital* geschicht* werkzeug* bringen im ersten Fall alle Dokumente von academia.edu mit den Begriffen „digital _und_ history“, im zweiten Fall alle Dokumente von H-Soz-Kult mit den Wortstämmen „digital“, „geschicht“ und „werkzeug“. Letzteres includiert somit auch „digitale“ und „geschichtswissenschaften“.

Für jede Epoche, jedes Thema und jede Region existiert eine Vielzahl an Werkzeugen, die die Literaturrecherche und den Online-Zugang zu entsprechendem Quellenmaterial ermöglichen. Werkzeuge wie Bibliografien, Fachportale, Zeitschriftensuchmaschinen usw. sind in den weiteren Clio-Guides ausführlich erklärt und werden daher hier nicht behandelt. Im Übrigen sind bibliografische Recherchewerkzeuge heute auch in den Programmen zur Literaturverwaltung zu finden. Viele dieser Programme bieten die direkte Recherche nach Literatur über ISBN-Nummern oder Suchbegriffe zu bibliografischen Angaben in allen gängigen nationalen und internationalen Katalogen und Datenbanken, näheres dazu im Kapitel zur Literaturverwaltung; ebenso kann Quellenmaterial heute bei zahlreichen Archiven online recherchiert werden.

Einführungen in das Arbeiten mit wichtigen Werkzeugen der Fachinformation bieten neben den Clio-Guides auch die teils umfänglichen Linksammlungen vieler Universitätslehrstühle; ferner auch Informationssysteme wie LOTSE: Darin werden Einführungen in das fachbezogene wissenschaftliche Arbeiten bzw. das Recherchieren, Schreiben oder Veröffentlichen angeboten. Und trotz eines begrenzten Suchraumes bieten natürlich auch kommerzielle Suchmaschinen Zugang zu wissenschaftlicher Literatur: Google Scholar weist eine Fülle wissenschaftlicher Artikel nebst Zitationen der gefundenen Artikel nach (insofern die zitierenden Beiträge natürlich selbst über Google Scholar erschlossen sind). Neben kommerziellen Angeboten wurden Werkzeuge aus dem akademischen Bereich für die Recherche mittlerweile deutlich ausgebaut: Bereits seit vielen Jahren hat die Suchmaschine BASE Bielefeld viele Inhalte aus den Geschichtswissenschaften erschlossen. Mit Open Knowledge Maps ist sogar ein visueller Zugriff auf die Ergebnisse von Base möglich. Ähnlich bietet GoTriple des EU-geförderten Konsortiums OPERAS Zugriff auf Inhalte europäischer Bibliotheken, Forschungseinrichtungen und anderer Gedächtnisinstitutionen. Einen weiterführenden Überblick über Recherchewerkzeuge bietet auch historicum.net als Portal des Fachinformationsdienstes Geschichte.

KI-basierte Recherche

Mit dem Durchbruch KI-basierter Erschließung von Inhalten, insbesondere durch den Launch von ChatGPT im November 2022 bahnt sich ein weiterer Umbruch und Paradigmenwechsel an. Neben den eigentlichen KI-Umgebungen wie ChatGPT versprechen spezialisierte Plugins (teils von Drittanbietern entwickelt) schnelle Unterstützung bei diversen Aufgaben, allerdings sind die meisten dieser Werkzeuge kostenpflichtig. Für den Umgang mit ChatGPT (und auch anderen zukünftigen KI-basierten Werkzeugen) wird das sog. „Prompting“ bzw die Eingabeformulierung wichtig, da die Qualität der Anfrage auch immer die Qualität der Ausgabe und darin mögliche Fehler beeinflusst.[134] Eine erste Übersicht zu Möglichkeiten KI-basierter Recherche hat u.a. die Hochschul- und Landesbibliothek der Hochschule Rhein-Main zusammengestellt. Die Nutzung von KI steht erst am Anfang, sodass in Kürze zahlreiche weitere Einführungen zum Thema zu erwarten sind. Welche Potentiale Künstliche Intelligenz nicht nur für das Recherchieren bietet, versuchen derzeit erste Projekte in den Geschichtswissenschaften auszuloten; das Thema wird in absehbarer Zeit in einem eigenen Clio-Guide zu erörtern sein.[136] Werden KI basierte Werkzeuge für die Literaturrecherche in Betracht gezogen, sollte man sich bzgl. der Aktualität des erschlossenen Textraums der „KI“ im Klaren sein, dass eine Vollständigkeit hinsichtlich aktueller Literatur nicht gegeben ist. So ist die freie ChatGPT Version derzeit auf eine maximale Erschließung bis April 2023 beschränkt. Zudem sind Textgeneratoren wie GPT auf die Generierung von Text angelegt, das Halluzinieren nicht existenter Literatur kann also - bisher - nicht ausgeschlossen werden.

3.2 Ideen und Projekte managen

Mindmapping und Wissensmanagement

Die mittlerweile in den gängigen Literaturverwaltungsprogrammen angebotenen Funktionen zur Wissensverwaltung machen die Nutzung spezieller Tools zum Mindmapping nicht unbedingt obsolet. So können auf der Online-Plattform MIRO visuell Ideen und Konzepte festgehalten und strukturiert sowie kollaborativ bearbeitet und kommentiert werden. Mit dem synapsen-Programm von Markus Krajewski oder dem Zettelkasten-nach-Luhmann können ebenso eigene Ideen und Literaturexzerpte zusammengeführt werden. Für das kollaborative Kommentieren und Annotieren von Dokumenten lässt sich Hypothes.Is verwenden. Etwas weiter als klassisches Mindmapping geht mittlerweile die online frei verfügbare mindmapping-Plattform yed-live: Über ein Eingabefeld können sogenannte Prompts wie bei ChatGPT eingegeben werden, um erste mindmap-Ideen KI-basiert bzw. automatisiert entwerfen zu lassen. Kurios hier ist allerdings, dass bei ausführlicheren Anfragen weniger ausgereifte mindmaps vorgeschlagen werden, als bei kurzen, prägnanten Anfragen. Eine jüngst veröffentlichte Einführung ins Thema bei heise online verweist auf weitere Mindmapping Tools und führt grundsätzlich in den Umgang mit Mindmapping Tools ein.[143] Aus der Vielzahl an Notiz-Applikationen ragt derzeit das Programm Obsidian heraus, in dem Materialien aus dem Dateisystem und eigene Notizen zusammengeführt werden können.[145]

Projektmanagement

Fließend sind die Grenzen der Anwendungsmöglichkeiten in Confluence, das als wiki, Kollaborationsplattform und Projektmanagementtool mittlerweile weit verbreitet ist und in dem sich überdies Diagramme als Mindmapping-Werkzeug ergänzend nutzen lassen. Allerdings gilt hier wie bei allen cloud-basierten Anwendungen: Zuerst sollten die Geschäftsbedingungen und Datenschutzrichtlinien hinsichtlich der eigenen Bedürfnisse und Möglichkeiten geprüft werden. Als opensource-Alternative mit klassischen Projektmanagementtools wie Aufgabenverwaltung und deren Visualisierung in Gantt-Diagrammen, empfiehlt sich OpenProject. Trello als eher einfach gehaltenes Aufgabenboard gehört ebenfalls zum Confluence-Betreiber Atlassian und erfreut sich wie viele Kollaborationswerkzeuge seit der Covid-Pandemie großer Beliebtheit auch in der Lehre und Forschung. Im Desktopbereich bietet Microsoft mit seinem MS Project weiterhin ein recht teures, aber auch mächtiges Werkzeug zum Verwalten vieler Projekte, Mitarbeiter:innen und finanzieller Ressourcen. Das Angebot an Projektmanagementtools ist mittlerweile recht weit gefächert, da in den letzten Jahren eine Vielzahl webbasierter Tools erschienen ist. Ob und wie man sogar spezielle Projektformen und Projektmanagementmethoden wie Prince2 oder Scrum nutzt und dafür entsprechende Software auswählt, hängt letztlich vom Nutzungsszenario ab; eine Einführung in die Grundsätze des Projektmanagements sollte jedoch bei jeder Nutzung einer Projektmanagementsoftware zu Rate gezogen werden, um dessen Funktionen sinnvoll nutzen zu können.

3.3 Komplexe Daten erheben und erschließen: Datenbanken

Daten und Datenbanken

Ein grundlegendes Werkzeug in den Geschichtswissenschaften stellen Datenbanken dar: Für die Speicherung von Literatur und Quellen, als „Backend“ für online-Datenbanken und Websites oder als Basis für methodische Analysen sind sie unverzichtbar. Die Speicherung und Auswertung von Daten, das Erheben von Materialien/Quellen und deren Auswertung benötigen eine strukturierte Datenerfassung und -auswertung. Aber nicht nur standardisierte und strukturierte, auch unstrukturierte Daten lassen sich in verschiedenen Datenbankkonzepten abbilden. Für die Geschichtswissenschaften bieten Datenbanken mit ihren umfassenden Abfragemöglichkeiten viele „interpretatorische(n) Freiheiten“, die Vielzahl an Abfragemöglichkeiten lässt schließlich Raum für unterschiedliche Auslegungen der Ergebnisse.[152]

Einfache Datenerfassungen können schon mit Excel bewerkstelligt werden: Es lassen sich einfache Datenstrukturen in den Spalten einer Tabelle abbilden bzw. in Form von Datensätzen in Tabellenzeilen erfassen. Selbst mit einem Text-Editor können tabellarische Daten in Komma-separierten Dateien (comma-separated values: csv) abgelegt werden. Hierzu werden Datensätze zeilenweise in der Datei angegeben, zum Trennen der einzelnen Datenfelder bzw. der Kennzeichnung der Datenstruktur werden Trennzeichen wie Tabulatoren, Semikolon oder Komma verwendet. Natürlich verbietet sich je nach verwendetem Separator-Zeichen dessen Verwendung in den Daten selbst; oder die Daten werden in Anführungszeichen eingefasst. Für die komfortable Aufbereitung solcher Datenstrukturen empfiehlt sich OpenRefine, mit dem Daten auch zwischen gängigen Formaten wie HTML, JSON und eben CSV konvertiert werden können.

Relationale Datenbanken

Mit relationalen Datenbankmanagementsystemen (DBMS) wie MS Access als Teil des MS Office Pakets oder FileMaker stehen Datenbankmanagementsysteme für PC und Notebook zur Verfügung: Hiermit lassen sich komplexe Datenstrukturen abbilden, Daten erfassen und auswerten. Wie bei Microsoft Office bringen auch die freien Office-Suiten OpenOffice und LibreOffice entsprechende Datenbanksysteme mit. Werden Datenbanken heute in Forschung und Lehre verwendet, ist oft die gemeinsame Nutzung angestrebt. Die zuletzt erwähnten Datenbanksysteme sind für kollaborative Projekte aber meist nicht ausreichend, da sie auf die Einzelplatznutzung ausgelegt sind. Sollen Daten außerdem mit Programmiersprachen oder anderen Bearbeitungs- oder Analysewerkzeuge prozessiert werden, ist von sog. Einzelplatzdatenbanken ebenso abzuraten.

Ein Umstieg von einer Tabellenkalkulation oder per Texteditor erfassten Datenstruktur auf eine umfassendere relationale Datenbank ist jederzeit möglich, alle gängigen Tabellenkalkulationen bieten entsprechende Exportfunktionen, die meisten DBMS wiederum einen passenden Import. Sollen einfache tabellierte Daten im Team erfasst werden, stehen online Tabellenkalkulationen wie Ethercalc, Zoho oder die Tabellenkalkulationen diverser Cloudanbieter bereit.

SQL und Serverdatenbanken

Für größere Vorhaben, bei denen möglichst auch mehrere Benutzer:innen von unterschiedlichen Standorten aus zugreifen können, müssen Serverdatenbanken in Betracht gezogen werden. Diese relationalen Datenbanken arbeiten nach dem SQL-Standard. Bei SQL handelt es sich um eine Datenbankabfragesprache – Structured Query Language. Es gibt eine Vielzahl kostenfrei nutzbarer Versionen verschiedener Anbieter, passend für Forschungs- und Lehrprojektanwendungen. SQL-Datenbanken zeichnen sich durch Tabellenstrukturen aus, hier werden die Daten in einem sog. relationalen Schema hinterlegt. Das heißt, Daten werden auf verschiedene Tabellen aufgeteilt, um Redundanzen von Daten zu vermeiden und darüber die Performanz zu erhöhen. Dies wird durch Umsetzung der Tabellen in sog. Normalformen erreicht. Hierzu werden doppelt oder mehrfach auftretende Daten in eigene Tabellen ausgelagert, die Tabellen werden anschließend miteinander in Relation gesetzt. So ist es zum Beispiel unsinnig, in Adressdaten in jedem Datensatz die Postleitzahl abzuspeichern. Diese werden vielmehr in eine eigene Tabelle ausgelagert, deren Daten dann mit der Ursprungstabelle mit den Adressdaten verknüpft werden. Die Tabellen stehen dann in Beziehungen (Relationen) zueinander. Die jeweiligen Daten werden nach Datentypen wie Text, Zahl, Datum oder binären Daten unterschieden, wobei diese einfache Unterscheidung nochmals in viele Untertypen wie zum Beispiel Gleitkommazahlen oder Ganzzahlen weiter aufgefächert wird. Relationale bzw. SQL-Datenbanken eignen sich sehr gut für umfassende, komplexe Datenstrukturen, die schnell abfragbar sein sollen. Auch Daten, die anfangs in Excel verwendet wurden, lassen sich – aufgrund der Tabellenstruktur – leicht in SQL weiter verarbeiten, vor allem aber auswerten; mit SQL steht eine mächtige Abfragesprache bereit, die in den jeweiligen Datenbanksystemen verschiedener Hersteller noch eigene Dialekte und Funktionen mit sich bringen. Im Übrigen kann Excel auch als Oberfläche für die Datenverwaltung in SQL-Datenbanken genutzt werden.

Relationale Datenbanken wurden in den 1970er-Jahren vor allem für Unternehmensanwendungen konzipiert und entwickelt, um Skalierbarkeit und Performanz zu gewährleistet.[162] Sichergestellt wird dies durch das sogenannte ACID-Modell: atomicity, consistency, isolation und durability. Diese Eigenschaften werden durch Transaktion gewährleistet, alle Operationen, insbesondere das Einfügen oder Ändern von Daten werden so ausgeführt, dass jederzeit der Zustand der Daten gesichert ist bzw. nach Fehlern wiederhergestellt werden kann und sich unterschiedliche Operationen nicht in die Quere kommen.[163]

Ein sehr einfaches SQL-System ist SQLite, welches auf Servern und lokal auf einem Rechner genutzt werden kann und einen leichten Einstieg in die SQL-Welt bietet; es müssen keine Serverdienste u.a. konfiguriert werden. Über eine integrierte Managementoberfläche können schnell Daten aus CSV-Dateien importiert und ausgewertet werden. Komplexere serverbasierte Lösungen werden in allen Universitäten meist durch die Rechenzentren angeboten, in der Regel auf der Basis von Open Source-Produkten wie mysql-Server oder aber professionelleren Produkten wie postgresql. Ähnlich wie auf lokalen Datenbanken lassen sich mittels Web-Oberflächen wie phpmyadmin für mysql-Server eigene Datenbanken erstellen, verwalten und sichern. Auch für den lokalen Gebrauch eignet sich mysql in der freien Community-Version. Für die Datenverwaltung sollte man dabei auf die MySQL Workbench zurückgreifen, welche die Administration und Auswertung deutlich vereinfacht. Auch die von mysql abgeleitete opensource-Datenbank MariaDB kann mit der Workbench verwaltet werden. Verschiedenen Tests zufolge soll MariaDB deutlich performanter sein, zudem ist sie als opensource-Produkt deutlich günstiger, wenn es um große Serverdatenbanken geht. Letztlich bietet MariaDB mit dem JSON-Datentyp deutlich flexiblere Möglichkeiten zur Integration unstrukturierter Daten. Gleiches bietet auch das bereits erwähnte postgresql: Hier wurde frühzeitig Wert auf die Integration spezieller Datentypen wie Bild, Audio- und Video sowie JSON gelegt, sodass sich Anwendungen mit komplexen Datenstrukturen implementieren lassen, zudem zählt es seit Jahrzehnten zu den leistungsfähigen Serverdatenbanksystemen. Große Anwendungen mit tausenden Nutzer:innen (wie zum Beispiel eine moodle-Installation für eine Universität) lassen sich mit diesem freien DBMS sicher und performant betreiben. Wie alle anderen bisher genannten ist auch dieses DBMS lokal auf PC und Notebook mit wenigen Klicks installiert und nutzbar.

Auch ohne Lizenzkosten nutzbar ist mssqlexpress, es handelt sich hier um eine Light-Version der vor allem auf Unternehmensanwendungen ausgelegten SQL-Datenbank von Microsoft. Die Express-Version ist limitiert in der Anzahl der nutzbaren Prozessoren sowie der nutzbaren Arbeitsspeichergröße, außerdem kann die Datenbank höchstens 10GB umfassen. Eine Besonderheit der MSSQL Datenbanken ist die Integration von R und python. Damit können direkt in der Datenbank Abfragen und Auswertungen in diesen beiden, heute populären Programmiersprachen und Auswertungswerkzeugen umgesetzt werden. Mehr noch lassen sich mit der „Unified AI platform“ sogar Machine Learning und AI direkt im SQL Server ausführen.[172] Das von Oracle angebotene gleichnamige Datenbanksystem spielt heute im akademischen Bereich eher für Verwaltungsaufgaben eine Rolle, da die Lizenzkosten für einzelne Forschungsprojekte einfach zu hoch sind. Weitere freie Datenbanken wie Firebird, ingres oder MaxDB sind weniger verbreitet als die bisher genannten, können aber ebenso für Projekte in Erwägung gezogen werden. Zu bedenken gilt hier nur, dass Support und vor allem die verfügbaren Fragen und Antworten aus einer aktiven „Community“ deutlich weniger verfügbar sein dürften, als bei den oben genannten „Flagschiffen“.

Eine immer größere Rolle, zumindest für Unternehmen, spielen Datenbanksysteme bei Cloudanbietern. Microsoft stellt seine Angebotspalette immer mehr auf die die Azure-Plattform um, lokale Installationen des hauseigenen SQL-Servers lassen sich sogar mit der Cloud verknüpfen. Wer nur kleinere Datenbanken (< 32 GB Speicher) mit moderater Nutzungsfrequenz (< 27 Stunden Rechenzeit pro Monat) für eine kurze Laufzeit (< 12 Monate) einzusetzen plant, kann sich ggf. mit dem kostenfreien Azure-SQL-Angebot befassen. Man spart nicht nur Lizenzkosten, sondern auch Sicherungen, Software-Updates u.v.m. Amazon bietet im Rahmen seiner AWS-Services wiederum eine Vielzahl an Datenbankmanagementsystemen, auch im sog. NoSQL-Bereich, die für Projekte mit kurzen Laufzeiten interessant sind. Vor allem, wenn erst einmal mögliche Lösungsansätze evaluiert werden sollen, empfiehlt sich – die Vereinbarkeit mit eigenen Datenschutz- und Sicherheitsanforderungen vorausgesetzt – der Griff zur Cloud-Datenbank. Googles Cloud-Datenbankhosting ist durchgängig kostenpflichtig, auch andere Hosting-Firmen bieten gegen Entgelt verschiedene DBMS im Hosting an, eine Recherche per Suchmaschine bringt hierzu einschlägige kleine und große Anbieter.

NoSQL

Für unstrukturierte Daten bieten sich heute NoSQL-Datenbanken an. Dabei steht NoSQL nicht etwa für „Kein SQL“, sondern „not only SQL“. Die ursprüngliche Idee war eine Datenbank, die nicht nur Tabellendaten, sondern zusätzlich auch unstrukturierte Daten verwalten kann. Unstrukturiert meint hier vor allem, dass Daten und/oder Dokumente in flexiblen Datenschemata in einer Datenbank gemeinsam verwaltet und verarbeitet werden können. Gerade mit Blick auf historische Daten, die eben keine nachträgliche „Strukturierung“ durch das Einpassen in ein Spaltenschema einer Tabelle erfahren sollen, sind NoSQL Datenbanken interessant. Es werden in diesem Bereich verschiedene Ansätze zur Speicherung der Daten unterschieden: Dokumentenorientiert, in einem Graphen, spaltenorientiert oder als Schlüssel-Werte-Paar (key-value-pairs). Damit sind verschiedenste Anwendungsszenarien denkbar, wie beispielsweise die Verwaltung unterschiedlicher Dokumente in einer Datenbank oder die Abbildung hierarchischer Objekte und ihrer Beziehungen in einem Graph, wie zum Beispiel ein soziales Netzwerk. Die Vor- und Nachteile von sql und nosql-Lösungen sollten sorgfältig abgewogen werden, da eine nachträgliche Konversion in der Regel sehr komplex, vor allem aber zeit- und personalintensiv ist. Vor allem muss in Betracht gezogen werden, dass die jeweils unterschiedlichen No-SQL-Typen – Graphorientiert, Dokumentenorientiert, Schlüssel-Werte-Paar – jeweils unterschiedliche Abfragemöglichkeiten bieten und Limitationen aufweisen. So sind komplexe Abfragen auf Schlüssel-Werte-Paaren-Datenbanken nicht möglich, hier sind SQL-Datenbanken durch ihre Tabellen-Relationen-Struktur klar im Vorteil; zudem lassen sich in einigen SQL-Datenbanken komplexen Datentypen wie JSON speichern und abfragen. Für komplexe Abfragen von Daten aus NoSQL Datenbank sollten wiederum weitere Werkzeuge hinzugezogen werden, die Daten zum Beispiel im Volltext indexieren und über einen Suchindex auswertbar machen; realisierbar entweder über einen SOLR-Server oder aber kostenpflichtige Erweiterungen wie im Falle von mongodb-Atlas-Search. Der SOLR-Server selbst wird mittlerweile sogar als NoSQL-Datenbank gesehen.[180]

Für Forschungs- und Lehrszenarien eignet sich mongodb, welches zu den bekannten und weit verbreiteten Systemen zählt. Die Datenbank wird u.a. von einigen Content-Management-Systemen oder Blogsoftware als Datenspeicher verwendet, eine Vielzahl von Drittanbietern bietet Werkzeuge wie zum Beispiel die Code-freie Erstellung von Apps, auch die integration von Mongodb-Cloud-Lösungen ist hier möglich. neo4j als Graphdatenbanken ist nicht ganz so populär, hat sich aber in den Geschichtswissenschaften bereits für die Modellierung, Speicherung und Auswertung hierarchischer Personen- und Dokumentenbeziehungen bewährt.[184]apache cassandra als verteilte NoSQL Datenbank ist nur sinnvoll für Anwendungen mit hohem Workload, benötigter Lastverteilung auf mehrere Server (nodes) und möglichst hoher Ausfallsicherung. couchdb aus dem Bereich der dokumentenorientierten Datenbanken wird gerne für Apps auf mobilen Geräten verwendet, da sich hier eine Serverdatenbank mit einer lokalen Kopie auf dem Endgerät gut synchronisieren lässt; auch kleinere Webapplikationen für unterschiedlich strukturierte Dokumentenarten lassen sich mit Skriptsprachen, die im Endgerät selbst die Inhalte darstellen („rendern“), schnell umsetzen.

Objekt-Relationale Mapper

Werden Datenbanken als Speicher für Anwendungen im Web oder einer App genutzt, sind Einfügungen, Löschungen und Abfragen nicht mit den Datenbank-eigenen Werkzeugen zu bewerkstelligen. Vielmehr wird mit Anwendungsfunktionen, programmiert in höheren Programmiersprachen, auf die Daten zugegriffen. Die Programmierung von Datenbanken füllt meterweise Buchregale bzw. zahlreiche digitale Kompendien, sodass hier nicht im Detail darauf eingegangen wird; dennoch an dieser Stelle ein kleiner Exkurs: Die Verarbeitung von Daten(banken) mittels Programmiersprachen ist hochkomplex und erfordert ein gut strukturiertes Konzept zu den Funktionen, die eine Software auf einer Datenbank erfüllen soll. In Sprachen wie PHP oder python lassen sich Daten direkt in der Datenbank manipulieren, indem SQL-Befehle über den Programmcode an die Datenbank übermittelt werden. Diese Technik ist jedoch fehleranfällig, je mehr Abfragen (inserts, deletes, selects usw.) programmiert werden müssen. Die Daten für Einfügungen müssen außerdem direkt im Programmcode aufbereitet werden oder beim Auslesen aus der Datenbank in entsprechende Formen für die Ausgabe zum Beispiel auf Webseiten überführt werden. Je mehr Ansichtsformen, Einfügemöglichkeiten oder komplexe Abfragen erforderlich sind, desto komplexer und fehleranfälliger wird der Code. Außerdem lassen sich von außen gerade bei Web-Anwendungen unberechtigte Aktionen mittels sog. SQL-Injections auslösen, bis hin zum Löschen ganzer Datenbanken. Abhilfe schaffen hier Objekt-Relationale-Mapper. Hierbei handelt es sich um Programmbibliotheken, mit denen die Struktur der Datenbank in einer objektorientierten Programmiersprache im Code abgebildet wird: Tabellen lassen sich dann über Klassen bzw. als Objekte (Tabelle) mit Eigenschaften (Daten in der Datenstruktur) ansprechen.[188]

Archivierung von Datenbanken

Datenbanken zählen derzeit immer noch zu den langlebigsten Softwareprodukten, schließlich bilden Datenbanksysteme die Grundlage von Anwendungen in allen Bereichen. Nichtsdestotrotz stellt sich auch bei Datenbanken die Frage nach der Langzeitarchivierung. Relationale Datenbanken, die auf gängigen Systemen umgesetzt sind, lassen sich in der Regel problemlos auf Folgeversionen oder sogar andere SQL-Systeme migrieren, solange keine spezifischen Funktionen eines bestimmten Datenbanksystems (zum Beispiel Python-Code in SQL-Abfragen in Microsoft SQL-Server) verwendet werden. Außerdem bieten alle heutigen Datenbanksysteme Exportfunktionen, mit denen Daten und meist auch SQL-Skripte bequem in strukturierte Textformate ausgegeben werden können. Neuerdings existiert mit dem SIARD-Standard ein Format, mit dem SQL-Daten für die Archivierung u.a. mit der SIARD-Suite des schweizerischen Bundesarchivs gespeichert werden können; dies soll langfristig die Nutzung der Daten in ggf. anderen SQL-System ermöglichen.

3.4 Literatur und Quellen verwalten

Eine der Hauptanwendungen von Datenbanken in den Geschichtswissenschaften sind Literaturverwaltungsprogramme. Funktionen zur Aufnahme, Verwaltung und Erschließung von Publikationen sowie zur Integration von Zitationen und Generierung von Literaturlisten in Textverarbeitungsprogrammen bieten alle hier genannten Programmpakete. Unterschiede finden sich vor allem bei Teamfunktionen. Auch sind einige Anwendungen kostenpflichtig, andere wiederum erst ab der Nutzung bestimmter Funktionen.

In der Regel werden Rechercheergebnisse in einer Literaturverwaltung mit Desktop-Programmen zusammengefasst: Mit LiTLink (vor allem für Mac-Nutzer interessant, aber scheinbar nur noch rudimentär gepflegt), Endnote und Citavi können Suchen in Bibliothekskatalogen und weiteren Online-Datenbanken durchgeführt und die Ergebnisse direkt strukturiert übernommen werden. Ansonsten bieten alle drei Systeme Funktionen zum Verwalten von Exzerpten und Textauszügen sowie zum Speichern der Originalliteratur. Die Online-Version von Endnote setzt übrigens eine normale Desktop-Lizenz voraus. Auch Citavi kann mittlerweile in der Cloud über citavi-Web genutzt werden und ist damit auch Mac-User:innen und Linux-Enthusiast:innen zugänglich. Programme wie Mendeley (mit Unterstützung für iPhone, iPod und iPad) oder Citavi bieten kollaborativ nutzbare Funktionen, wie die gemeinsame Bearbeitung von Literaturreferenzen. Zotero ist genuin als online-Werkzeug am Roy-Rosenzweig-Center entstanden und ebenso als Desktop-Version erhältlich. Hierfür gibt es diverse zotero-Plugins zur Verwaltung, Übersetzung, Informationsextraktion von Dateien, OCR-Texterkennung, Einbindung in Textverarbeitung u.v.m. Die Nutzung von Teamfunktionen oder ein Speicherbedarf größer als 300 MB führt auch bei zotero zu Lizenzkosten.

Eines der jüngeren Tools, wirklich kostenfrei und in den Geschichtswissenschaften vermutlich dennoch wenig bekannt, ist jabref, welches für alle Plattformen von Windows über MacOS bis Linux verfügbar ist. Auch dieses Tool bietet eine, wenn auch weniger umfassende Suche in Online-Katalogen und die direkte Übernahme von Referenzen. Die Daten werden übrigens alle als bibtex-File gespeichert, das Format lässt sich mit zahlreichen anderen Literaturverwaltungsprogrammen weiterverarbeiten.

Neben der Literaturverwaltung bieten die meisten Programme auch Unterstützung bei der Erfassung von Exzerpten und deren Einordnung in eigene Kategorisierungen oder Systematisierungen (zum Beispiel die Kapitelstruktur einer Arbeit). Die Software Bibliographix, für Windows und Linux, war eines der ersten Pakete, welches auch das Wissensmanagement unterstützte. Allen Programmen gemeinsam ist die Unterstützung der automatisierten Ausgabe von Literaturlisten und formatierten Fußnoten, die strukturierte Erfassung von Literatur – und natürlich auch Quellen – sowie die Nutzung vorgegebener „Citation-Styles“. Auch lassen sich Anmerkungen nach selbst erstellten Kategorienschemata als Text exportieren und der Arbeitsprozess dokumentieren (Aufgabenverwaltung in Bezug auf Literatur usw.) Lohnenswert ist immer die Nachfrage beim lokalen Rechenzentrum, inwieweit spezielle Campuslizenzen der Software vor Ort kostenfrei angeboten werden. Der umfassende Blog zur Literaturverwaltung wird zwar nicht mehr aktiv gepflegt, bietet aber weiterhin einen guten Einstieg zu Funktionen gängiger Programme und zum Thema Wissensorganisation. Eine recht aktuelle (Stand 2022) Übersicht der TU München kann ebenso bei der Auswahl hilfreich sei.

Für die Übernahme bibliographischer Daten spielen die sogenannten Zotero-Coins eine wichtige Rolle: Dahinter verbergen sich Metadaten bzw. bibliografische Daten, die in Webseiten bzw. Dokumente eingebettet sind. Das Programm Zotero oder ein Plugin für den Browser kann diese Daten aus der betreffenden Seite auslesen. Bei installiertem Zotero klickt man hierfür einfach auf das Dokumentensymbol von Zotero in der Browserzeile, damit werden die in die Seite eingebetteten Daten in die lokale Zotero-Programmdatenbank übernommen. Neben der Verwaltung eigener Bibliografien bietet Zotero die Möglichkeit, entsprechende Zitationen aufzunehmen. Um die Daten jederzeit von beliebigen Orten bzw. Computer abrufen zu können, gibt es bei Zotero in der erweiterten kostenpflichtigen Variante auch einen Online-Speicher, in den die eigene lokale Datenbank synchronisiert werden kann. Ebenfalls ein wichtiges Feature: die "Collaboration"-Funktion, mittels derer man mit Kollegen und Kolleginnen bibliografische Daten austauschen oder gemeinsam Literaturlisten erstellen und verwalten kann. Alle anderen gängigen Programme bieten ähnliche Funktionen zum „Grabben“ von Informationen wie zum Beispiel der Citavi-Picker.

Erwähnenswert ist auch die Software Augias Biblio, welche auf die Verwaltung kleinerer Bibliotheksbestände und weniger auf den privaten Gebrauch ausgerichtet ist. Und auch mit dem LIDOS - Literaturinformations- und -dokumentationssystem können einfache Literaturdatenbanken umgesetzt werden.

Direkt online lassen sich unter anderem mit der Google Scholarly Library im persönlichen Google-Account Literaturfundstellen verwalten, optimal im Zusammenspiel mit GoogleScholar; was allerdings keine wirkliche Alternative zu den etablierten Literaturverwaltungsprogrammen wegen fehlender Integration von Zitationen in Textverarbeitungsprogramme darstellt. Ebenso online verwalten lassen sich Literatur und Bookmarks mit Bibsonomy, ein Kooperationsprojekt verschiedener informationswissenschatlicher Lehrstühle, wobei hier der Fokus eher auf Funktionen eines sozialen Netzwerks bzw. des gemeinsamen Bearbeitens und Austauschs liegt. Den derzeitig vorhandenen „popular tags“ zur Gruppierung von Literaturverweisen und Bookmarks zufolge scheint das Netzwerk in den Geisteswissenschaften nur eine untergeordnete Rolle, es finden sich bisher kaum geisteswissenschaftliche Themen. Sucht man im bibsonomy-Netzwerk, werden nur Publikationen und Bookmarks erschlossen, die bereits im Netzwerk erfasst wurden. In einem Beitrag der Computerzeitschrift ct' finden sich weitere Vergleiche von Funktionen und Kosten der jeweiligen Programme.[208]

Quellen

Werkzeuge zur Literaturverwaltung eignen sich auch zur Erschließung und Ordnung von Quellen. Mit Citavi oder Zotero können neben Sekundärliteratur auch archivalische Quellen recherchiert, strukturiert erfasst und zitierfähig aufbereitet werden. Für Projektarchive allerdings empfiehlt sich die Nutzung genuiner Archivwerkzeuge. Meist sind diese kostenpflichtig. Einen guten Überblick und Einstieg in die derzeit gängigen Werkzeuge bietet eine Übersicht beim LWL-Archivamt für Westfalen, der wikipedia-Eintrag zu Archivsoftware ist umfassender und geht etwas detaillierter auf die technischen Anforderungen wie zum Beispiel Datenbankmanagementsysteme ein, in denen letztlich die Daten gespeichert werden. Die Übersicht zu Archivsoftware von infoclio.ch stellt einige in Deutschland weniger bekannte Programme vor, hierunter auch einige opensource-Angebote wie Archivmatica oder ArchivesSpace.

Zu unterscheiden von Archiv-Werkzeugen sind hier übrigens Systeme für das digitale Archivieren, die eher in den Bereich des Dokumenten-Management gehören. Neben den explizit auf archivalische Erschließung ausgerichteten Archivprogrammen gibt es eine Vielzahl an Dokumentenmanagementsystemen, die der Verwaltung von Dokumenten aller Art dienen; viele bieten Funktionen zur digitalen Archivierung, die nicht zwingend etwas mit der Archivierung im Sinne eines historischen Archivs zu tun haben, sondern eher eine steuerrechtlich bedingt strukturierte langfristige Datenhaltung von Unternehmensdaten anbieten. Explizit zur kostenlosen digitalen Archivierung für Verwaltungsschriftgut von Behörden hat das Landesarchiv Baden-Württemberg eine Software entwickelt. Für die Verwaltung digitalisierter, also als Bild vorliegender Quellen, eignet sich tropy, welches als opensource Werkzeug für Windows vorliegt und im akademischen Bereich zunehmend Bedeutung erlangt.[216]

3.5 Multimedia bearbeiten und verwalten

Neben Publikationen spielen multimediale Objekte eine zunehmend wichtige Rolle in der Geschichtswissenschaft. Einerseits rücken Bild- und Tonquellen in der Visual History und der Sound History immer mehr in den Fokus der Forschung, andererseits ist die Veröffentlichung von Bild- und Tonmaterial aus digitalen Publikationen oder eigenständige Publikationsform als Video oder Podcast nicht mehr wegzudenken.[217]

Bilder

Für die Verwaltung und Aufbereitung von Bildmaterial ist wie bei allgemeinen Datenbanken zwischen Einzelplatz- und serverbasierten Programmen zu unterscheiden. Heute populär sind Programme wie GIMP oder Paint.net, um einfache Bildbearbeitungsaufgaben zu erledigen, beide sind kostenfrei bzw. es kann eine freiwillige Gebühr entrichtet werden – im Übrigen sollten solche Projekte tatsächlich Anerkennung durch wenigstens kleine finanzielle Zuwendungen erhalten. Für GIMP gibt es eine Vielzahl an Plugins, mit denen z.B. Arbeitsschritte automatisiert werden können, einige ältere Plugins zum Batch-Processing werden unter Umständen nicht mehr gepflegt, sind aber immer noch brauchbar. GIMP ist auch wegen seiner Verfügbarkeit für Linux und MacOS weit verbreitet, sodass hier auch auf ein breites Expertenwissen einer community zurückgegriffen werden kann.

Im kommerziellen Bereich bietet die Adobe Creative Cloud (vormals Creative Suite) mit Photoshop und Illustrator sehr ausgereifte Werkzeuge, deren Funktionsumfang allerdings den wirklichen Bedarf für einfache Bildbearbeitung oft übersteigt. Hier sollten Kosten gegen den tatsächlichen Nutzen abgewogen werden. Für die Produktion aufwändiger Grafiken und grafischer Produktionen, natürlich auch in Satz und Layout hohen Ansprüchen genügenden Publikationen ist Adobe natürlich fast ein Standard. Auch bei Adobe hat sich Software-as-a-Service durchgesetzt, einzelne Programme oder das Gesamtpaket können monatsweise „gemietet“ werden, was zeitlich befristeten Projekten entgegenkommt.

Neben der Bearbeitung von Bildern ist auch die Verwaltung und Erfassung von Herkunftsdaten oder Rechte-Informationen wichtig. Hierfür eignen sich wieder kleinere Werkzeuge wie easydb – einem „Asset“-Management, hilfreich für die Verwaltung vor allem digitaler Bild-, Ton- und Videodokumente; oder das serverbasierte Tool-Set imeji zur Online-Verwaltung multimedialer Objekte, hervorgegangen aus einem Kooperationsprojekt des Instituts für Kunstgeschichte der HU, der Max-Planck-Digital Library und des Konrad Zuse Internet Archive an der FU Berlin. Speziell für die Erschließung und zugleich Aufbereitung von Material für Online-Ausstellungen konzipiert ist die Web-Anwendung OMEKA des Roy-Rosenzweig-Centers.

In der Regel ist die Verwaltung digitaler Assets mit viel Speicherplatzverbrauch verbunden. Lohnenswert kann daher auch die kombinierte Anschaffung von Hard- und Software sein. Zahlreiche Hersteller sogenannter NAS (Network Attached Storage)-Lösungen – hierbei handelt es sich um kleine Server für den ‚Hausgebrauch‘ mit meist weniger als 300 Euro Anschaffungskosten – bringen einerseits bereits ausreichend Speicherplatz mit Backuplösung, Rechenleistung für die Verarbeitung und gleichzeitigem Netzwerkzugriff (von überall verschlüsselt) mit und bieten andererseits mit ihren eigenen Software-Suiten auf dem NAS-Gerät weitere Tools (oft auch KI-gestützt) für Bild-, Video- und Tondatei-Management und -bearbeitung. Im WWW gibt es unzählige Vergleichslisten, in der Regel lohnt sich aber ein eigener Vergleich gängiger Hersteller wie QNAP, Western Digital oder Synology anhand einer eigenen Kriterienliste. Auch hilfreich sind Geräte- und Softwaretests langjährig etablierter Computermagazinverlage wie heise.

Audio

Die Bereitstellung hochwertiger Audioproduktionen stellt heute keine Schwierigkeit mehr da. Podcasts oder Audiowalks sind auch in den Geschichtswissenschaften mittlerweile ein sehr beliebter Weg, um Forschungsergebnisse der Öffentlichkeit zu präsentieren. Der Markt an Werkzeugen zum Aufnehmen und Aufbereiten ist hier übersichtlich, insbesondere bieten immer mehr Dienste Funktionen für die schnelle online Aufnahme und Produktion von Interviews oder Podcasts. Und schon mit dem eigenen Smartphone und entsprechenden Apps lassen sich schnell Aufnahmen speichern. Audacity als OpenSource Audiowerkzeug für Windows ist weit verbreitet und bekannt, verfügt über eine Vielzahl an Plugins, Einführungen zur Arbeit mit Audacity gibt es ausreichend, u.a. auf Delamar; für eine gute Aufbereitung ist etwas Expertenwissen nötig, um die Vielzahl an Funktionen (Effekte) und Plugins wirklich sinnvoll und auch qualitativ hörbar in der Endproduktion einzusetzen. Und entscheidend ist schließlich die möglichst exzellente Qualität der Aufnahme.

Kommerziell und im professionellen Bereich haben sich mit Apples LogicPro und Steinbergs WaveLab zur Bearbeitung von Audiodaten und Steinbergs Cubase als Sequencer und virtuelles Tontudio Suiten zur Audiobearbeitung etabliert. Weniger bekannt sind Programme wie Bitwig Studio – lauffähig auf allen Betriebssystemen, aber letztlich preislich nicht günstiger als die genannten Großen; Cakewalk ist dagegen kostenfrei und bietet alle Funktionen, die für die Aufbereitung von Audiomaterial nötig sind. Das opensource Projekt Ardour ist eigentlich auch kostenfrei, für die Windows-Version muss allerdings eine kleiner Obulus entrichtet werden. Exclusiv für Linux bietet sich noch Radium – the Music Editor an, ein opensource Paket, das ebenfalls alle wichtigen Funktionen für Audioproduktionen enthält.

Speziell auf Podcast-Produktionen zugeschnitten ist WaveLab Cast. Für den Kauf lohnt sich übrigens das Warten auf Rabatt-Aktionen, die regelmäßig über die Hersteller-Newsletter von Steinberg angekündigt werden. Und wie bei allen anderen kommerziellen Werkzeugen lohnt sich auch im Audiobereich die Suche nach den deutlich günstigeren EDU-Versionen für Forschung und Lehre.

Neben den eigentlichen Produktionsprogrammen gibt es eine Vielzahl an VST-Plugins für Effekte und Funktionen. Der VST-Standard wurde in den 1980er-Jahren von Steinberg als einheitliche Schnittstelle für Audioplugins entwickelt. Dieser Standard wird heute von allen Audioprogrammen unterstützt, sodass Plugins meist quer durch verschiedene Programmpakete nutzbar sind.

Video

Die Bearbeitung und Verwaltung von Videos gehört für Historiker:innen sicherlich nicht zum primären Aktionsfeld, für die Öffentlichkeitsarbeit von Projekten, Lehrstühlen, Instituten u.a.m. spielen Videos allerdings eine wichtige Rolle; gerade jüngere Rezipient:innen sind schließlich eher visuell erreichbar. Kleine Videos lassen sich schon mit dem Handy produzieren, eine Vielzahl von Apps bietet alle notwendigen Funktionen von Aufnahme über Bearbeitung bis zum Upload auf Streamingportale, hierzu sind Empfehlungen von Video-Streaming-Profis recht hilfreich; die wichtigsten Aufnahme- und Schnittfunktionen deckt ansonsten auch der Video VN Editor kostenfrei ab. Ein zweites Feld, auf dem Videos in den Geschichtswissenschaften in den letzten Jahren tatsächlich eine wichtige Bedeutung erlangt haben, ist die Lehre. Von kürzeren Einführungen bis zu kompletten Vorlesungen reicht mittlerweile das Angebotsspektrum.

Adobe Premiere für Windows und MacOs sowie Apples Final Cut Pro bieten ein großes Funktionsspektrum und gehören sowohl preislich als auch im Funktionsumfang in den Profibereich und sind für die akademische Nutzung nur bei umfangreicheren Projekten mit geschultem Personal zu empfehlen. Apples Produkt kann mit einer größeren Einmalzahlung erworben werden, Adobes Premiere ist wie alle anderen Adobe Produkte leider nur noch im Abo-Modell verfügbar. Wer langfristig produzieren möchte, tut dies mit einer Einmalzahlung vermutlich günstiger. Wer allerdings neben der Videobearbeitung auch regelmäßig professionelle Bildbearbeitung und Layoutwerkzeuge benötigt, spart wiederum am Ende ein wenig mit der gesamten Adobe Creative Cloud inclusive der Bild- und Layoutprogramme. Deutlich günstiger können Lehr- und PR-Videos mit Magix Video Deluxe verarbeitet werden. Eher auf „Video-Laien“ zugeschnitten und dennoch mit allen notwendigen Funktionen versehen, ist Camtasia; der Hersteller wartet mit speziellen Kaufoptionen für den Bildungsbereich auf und das Paket ist wirklich einfach zu bedienen und für den Einsatz im akademischen Bereich empfehlenswert, insbesondere auch für screencasts. Auf den letzteren Bereich zugeschnitten ist auch OBS-Studio, eine opensource-Alternative. Zuletzt genannt sei auch noch DaVinci Resolve, eine Schnittsoftware aus dem Profibereich, die allerdings in der Basisversion kostenfrei nutzbar ist; diese reicht für die Produktion von Lehrvideos oder Material für die Öffentlichkeitsarbeit völlig aus. Wer nicht auf das 4K-Format angewiesen ist und nur einfache Schnittfunktionalität benötigt, kommt sicherlich auch mit der Free-Option von Lightworks aus. Auch mit einem breiten Funktionsspektrum und gleichermaßen wie Profi-Werkzeuge nutzbar ist shotcut, welches kostenfrei und opensource für alle Betriebssysteme verfügbar und heute sehr weit verbreitet ist.

Neben diesen Werkzeugen existiert noch eine Vielzahl an freien opensource-Programmen, die aber meist nur einen sehr begrenzten Funktionsumfang bieten und leider oftmals fehleranfällig sind; die Verarbeitung großer Videodateien stellt einige Anforderungen an Hard- und Software bzw. erfordert eine gut ausprogrammierte Software. Zudem sind viele kleinere Werkzeuge nur auf wenige Funktionen fokussiert; ein Tool ist dezidiert für den Videoschnitt verwendbar, ein anderes nur für die Verarbeitung von screencasts.

3.6 Schreiben

Der Erschließung des eigenen Literatur- und Materialfundus schließt sich in der Regel das Schreiben an, damit verknüpft ist heute auch die Aufbereitung für verschiedene Publikationsformate – weiterhin oft im Druckverfahren, für Zeitschriften zunehmend digital oder in beiden Formen als Hybridpublikation. Nachfolgend werden zuerst einmal Texteditoren und Textverarbeitungsprogramme vorgestellt. Eine Vielzahl dieser Anwendungen dient auch dem Layout und Satz von Texten, auf die Produktion von Publikationen wird im Folgekapitel eingegangen. Noch einmal hingewiesen werden soll an dieser Stelle auch auf die heute leicht zu bewerkstelligende Verknüpfung von Recherche und (automatisierter) Literaturerfassung und dem Schreiben in gängigen Textverarbeitungen. Über Plugins werden beide Anwendungen verknüpft, es lassen sich Literaturangaben oder Fußnoten, meist auch Exzerpte zwischen Literaturverwaltung und Textverarbeitungen austauschen.

Texteditoren und Textverarbeitung

Am weitesten verbreitet und allen ökonomischen und datenschutzrechtlichen Debatten und ideellen Vorbehalten zum Trotz ist weiterhin das Programm WORD in verschiedenen Ausführungen. Es gibt sogenannte Educational-Versionen (EDU) der Office-Suite oder neuerdings zeitlich begrenzt abonnierbare Versionen wie Office 365, die für eine geringe Verwaltungsgebühr (über Campuslizenzen an Universitäten) angeboten werden: Studierenden und Angehörigen von Forschungseinrichtungen stehen dann über gesonderte Verträge, wie das Microsoft Workplace Discount Program, entsprechende Lizenzen zur Verfügung. Ähnliches bieten auch viele andere Softwarehersteller, genauere Informationen sollten über das Rechenzentrum der Universität zu finden sein. Zunehmend verbreitet sind auch die freien Alternativen OpenOffice oder LibreOffice, beide auf allen Betriebssystemen (Windows, Mac OS/iOS, Linux) nutzbar. Hilfreich sind auch hier Vergleiche der Office-Suiten, insbesondere der freien Versionen, letztlich kann man die Wahl anhand persönlicher Präferenzen treffen, sofern nicht durch institutionelle Vorgaben bereits eine Anwendung vorgegeben ist. Als Server-Installation und dann im Browser nutzbar ist OnlyOffice. Häufig ist dieses Paket als Tool in Universitäts-Clouds anzutreffen. Wer etwas versiert im Umgang mit Containern und Docker ist, siehe hierzu die Anmerkungen in Kapitel 1.1, kann OnlyOffice auch lokal auf PC und Notebook installieren. Für die eher kleinere Linux-Community kann das bereits erwähnte LibreOffice genutzt werden. Schon seit den Ursprüngen von Linux bekannt ist das Satzpaket LaTeX (verfügbar auch für Windows), für das mittlerweile Wysiwyg-Oberflächen wie TeXStudio verfügbar sind, sodass kein schwer lesbarer LaTeX-Code editiert werden muss. Für Apple-Enthusiasten gehört neben Microsofts Office das hauseigene Apple iWorks zum Standard.

Reine Texteditoren wie der Editor in Windows oder der vi in Linux werden heute mit dem Betriebssystem mitgeliefert. Weitaus mehr Funktionen bieten Windows-Programme wie Notepad++ als eine kostenfreie Alternative oder im Fall von Editplus für ein paar Euro Lizenzgebühr. Letzteres kann u.a. auch zur Übertragung von Dateien via ftp genutzt werden. Beide bieten umfassende Werkzeuge zur strukturierten Datenaufbereitung, Webseiten-Erstellung und Programmierung, außerdem lassen sich Arbeitsschritte und Datenaufbereitungen automatisieren oder Anbindung an Datenbanken realisieren. Hierfür steht entweder eine Vielzahl an Plugins bereit, oder diese Funktionen sind bereits implementiert. Im Linux-Bereich sind vi, vim oder nano heute Standard, auch viele weitere freie Editoren können hier genutzt werden. Speziell auf das akademische Schreiben und Publizieren ist fiduswriter ausgerichtet, welches primär für Ubuntu entwickelt wurde, unter anderen Betriebssystemen jedoch als Docker-Image nutzbar ist.

Kostenfrei sind heute viele Online-Textwerkzeuge nutzbar. In diesem Bereich hat Google sich mit dem Kauf eines bereits bestehenden Unternehmens bzw. dessen Anwendung WRITELY im Jahr 2006 auf einem weiteren Sektor positioniert, heute bekannt als Google-Docs. Dem stehen Alternativen wie Dropbox-Paper gebenüber, integriert in Microsofts Cloudspeicher Dropbox; das Programm kann auch als App auf Rechner und Mobilgerät installiert werden. cryptpad.fr zeichnet sich gegenüber den großen Anbietern durch seine Sicherheitsfunktionen aus. StackEdit oder Writeurl reichen mit ihrem deutlich kleinerem Funktionsumfang für kleinere Texte aus; Etherpad wiederum erfordert eigene Installationen auf einem Server und dienen dem kollaborativen Schreiben.

Mit dem Einzug von wiki-Plattformen hatte die kollaborative Produktion von Texten ursprünglich in den Geschichtswissenschaften deutlich an Fahrt aufgenommen. Gerade für das digitale Publizieren von Nachschlagewerken haben sich wikis als Plattformen in den Geschichtswissenschaften etabliert. Mit mediawiki oder der Erweiterung semantic wiki können analog zur Wikipedia u.a. Handbücher oder Nachschlagewerke im Internet gemeinsam bearbeitet und veröffentlicht werden, ebenso Forschungstexte.[277] Auch Projektdokumentationen oder Projektmanagementaufgaben lassen sich damit gut abbilden.

Über das gemeinsame Schreiben in Textumgebungen hinaus gewinnt das kollaborative Arbeiten auf Online-Plattformen immer mehr an Bedeutung. Online-Meetings mit Zoom, Webex, Skype oder Teams sind heute gängige Werkzeuge für Online-Meetings. Daher hat u.a. Zoom auf diese Erfordernisse reagiert und stellt in die Zoom-Plattform integrierte Werkzeuge bereit. Auch in Microsoft Teams lassen sich verschiedene Apps nutzen.

3.7 Publizieren und Präsentieren

Publizieren

Die Aufbereitung von Qualifikationsarbeiten und Forschungsergebnissen erfolgt heute in der Regel mit den zuvor aufgeführten Textverarbeitungsprogrammen. Für Hybridpublikationen und reine Online-Publikationen sowie für den seitenweisen Satz von Zeitschriften und Büchern werden indes spezielle Programmpakete benötigt. Für das Setzen von Texten finden sich in der Adobe Creative Cloud (ehemals Suite) zwei wichtige Anwendungen: Mit Adobe Framemaker und Adobe InDesign können Texte seitenweise für den Druck bzw. für verschiedene PDF- und andere Ausgabeformate gesetzt werden, ebenso von Informationsmaterialien wie Broschüren, Flyer usw. Framemaker ist vor allem ein nützliches Werkzeug, wenn auch HTML und verschiedene Ebook-Formate (epub, kindle) ausgegeben werden sollen. Mit dem InDesign-Server lassen sich sogar wiederkehrende Publikationsabläufe automatisieren.[284] Auch die freie Satz-Alternative LaTex kann für wiederkehrende Publikationsabläufe große Hilfestellungen leisten, da vorgefertige Layouttemplates auf Texte wiederholt angewendet werden können. Für LaTeX-Unkundige empfiehlt sich die Nutzung sog. WYSIWYG-Editoren wie Texmaker oder Lyx, um Dokumente nicht manuell in der komplexen Code-Struktur von LaTeX selbst „programmieren“ zu müssen. Im akademischen Umfeld findet sich hin und wieder noch TUSTEP (Tübinger System von Textverarbeitungs Programmen).

Wer über eine Installation der Blog-Software Wordpress verfügt, kann mit dem vom Roy-Rosenzweig-Center entwickelten Plugin Anthologize einfach strukturierte Texte direkt online erfassen und in verschiedene Formate konvertieren. Speziell für den Umgang mit TEI als Auszeichnungsformat für Quellen, aber auch Dokumente anderer Provenienz existieren Konverter und Plugins: Um TEI-formatierte Dokumente aus gängigen Textverarbeitungen heraus zu erzeugen oder vice versa auf TEI entsprechende Textformate zu generieren, kann auf OxGarage zurückgegriffen werden. Eine Vielzahl an Publikationsformaten kann auch über pandoc.org generiert bzw. konvertiert werden, dort finden sich auch Einführungen zu heute wichtigen Formaten für das Publizieren, Präsentieren und die Verwaltung und das Zitieren von Publikationen. Im Zusammenspiel mit pandoc sowie weiteren neueren Werkzeugen wie Jupyter Notebooks lässt sich quarto zum Publizieren gemischter Inhalte wie Text, Programmcode und Visualisierungen von Daten nutzen.

Die Ausgabe von Publikationen erfolgt in der Regel im PDF-Format, so kann aus jeder Applikation bei installiertem Adobe Acrobat direkt oder über PDF-Drittanbieter-Plugins oder -Software ein PDF-Dokument erzeugt werden. Für Online-Projekte interessant ist die Möglichkeit, aus HTML und CSS eine PDF-Ausgabe zu erzeugen; hierfür stehen in jüngerer Zeit immer mehr HTML-CSS-to-PDF-Generatoren zur Verfügung. Möglich wird damit ein sog. Multichannel-Publishing mit Webseiten als Textbasis. Genuin elektronische Publikationen in den heute üblichen eBook-Reader-Formaten können mit Calibre erstellt werden.

Weit verbreitet im akademischen Bereich für genuine Online-Publikationen sind Blogs und Blogplattformen. Viele Universitätsrechenzentren bieten über eigene „Blogfarmen“ eine Nutzung der gängigen Software Wordpress an, die unter anderem auch über die Blogfarm Wordpress selbst genutzt werden kann. Im geschichtswissenschaftlichen Kontext wurde mit de.hypotheses.org ein deutschsprachiger Ableger der französischen Blogplattform hypotheses.org aufgebaut, in dem vor allem Nachwuchswissenschaftler:innen und Projekte aus eigenen Vorhaben berichten oder die Plattform für die Präsentation und Dokumentation von Tagungen nutzen.

Nach eigener Aussage das weltweit bekannteste System für Online- und Hybrid-Publikation von Zeitschriften, PrePrints und ähnlichem ist das Open Journal System bzw. Open PrePrint System und Open Book, welches von verschiedenen Universitäten gepflegt wird und verschiedene Plugins für die Integration in bestehende Infrastrukturen enthält.

Für größere Projekte, die ein umfassendes Content Mangement benötigen, empfehlen sich neben dem bereits erwähnten Wordpress heute typo3, drupal, aber auch joomla!. Erstgenanntes ist vor allem im deutschsprachigen Raum weit verbreitet, sodass hier auf eine breite deutschsprachige Wissensbasis zurückgegriffen werden kann, während Drupal sehr stark im englisch-sprachigen Raum genutzt wird. Die Entscheidung für ein CMS ist von vielen Faktoren abhängig: Zuerst benötigen CMS eine Datenbank, um die Inhalte und die Struktur einer Website abzuspeichern; weiterhin sind für die Generierung der Webseiten aus den Inhalten Skripte in einer Programmiersprache nötig, oftmals sogar ein Framework der verwendeten Programmiersprache. Gegebenenfalls werden auch Erweiterungen benötigt, die erst noch programmiert werden müssen. Verfügt man selbst nicht über das nötige KnowHow oder entsprechendes Personal, muss externes Wissen und gar Personal eingekauft werden.

Wer für kleinere Projekte Websites erstellen oder im kleinen Umfang als HTML-Seiten veröffentlichen möchte, kann auf sog Flat-File Content-Management-Systeme zurückgreifen. Diese einfachen CMS können meist ohne Programmierkenntnisse und großen Installationsaufwand eingesetzt werden; außerdem benötigen sie keine Datenbank für die Speicherung von Seiten und Struktur und können ggf. von Server zu Server mitgenommen werden. Webseiten werden schließlich als Dateien auf einem Webserver abgelegt und von diesem an den Browser ausgeliefert.

Neben den klassischen CMS gibt es außerdem noch sogenannte Single-Page-Applikationen, die über Javascript-Frameworks bereitgestellt werden und die durch Apps im Handy-Bereich sehr populär geworden sind. Diese eignen sich ausschließlich für Projekte, für die Programmierer:innen bereitstehen und das möglichst langfristig, da die erzeugten Applikationen (Websites) in der Regel mit Updates der verwendeten Frameworks versorgt werden müssen. Gleiches gilt auch für die oben angeführten CMS.

Wikis waren lange Zeit durch die Popularität und Diskussion über die Potentiale von wikipedia als Publikationsplattform sehr beliebt.[306] Die zugrunde liegende Software mediawiki wurde eine Zeit auch in größeren geschichtswissenschaftlichen Projekten eingesetzt, um Handbücher oder Handbuch-ähnliche Publikationsformen zu veröffentlichen.

Präsentieren

Präsentationstools gehören in der Geschichtswissenschaft zum Standard-Werkzeug. Die Vermittlung von Präsentationstechniken ist heute Teil schulischer Bildung, an dieser Stelle werden daher ergänzend zu den gängigen Präsentationswerkzeugen in den Office-Suiten von Microsoft u.a. nur einige ausgewählte freie, online und kollaborativ nutzbare Plattformen angeführt.

prezi ist seit vielen Jahren weit verbreitet, kostenfrei aber nur noch in der Basic-Version nutzbar; erweiterte Team-Funktionen stehen erst in kostenpflichtigen Versionen zur Verfügung. Ebenso bekannt ist Miro.com, weitreichende Team-Funktionen kosten auch hier monatliche Gebühren, ähnlich verhält es sich mit Google-Slides, über welches man zumindest mit Freigabe-Links gemeinsam an Dateien arbeiten kann. Canva bietet in der freien Version bereits fertige Präsentationslayouts und viele Formatierungsmöglichkeiten, für den Bildungsbereich werden weitere Team-Funktionen wie Berechtigungsvergaben oder Genehmigungsworkflows reduziert kostenpflichtig angeboten.

Visualisieren: Online-Ausstellungen und GIS

Eine Möglichkeit der Visualisierung von Forschungsergebnissen stellen Online-Ausstellungen dar. Mit OMEKA wird ein umfassendes Tool-Set zur Verfügung gestellt, mit dem online-Ausstellungen kuratiert werden können, was sich unter anderem im Europeana-Kontext großer Beliebtheit erfreut.[313] Mit Omeka erstellte Online-Ausstellungen können mit dem Plugin Neatline um Karten und Zeitleisten integriert werden. Dezidiert auf Museen zugeschnitten ist das Angebot md//story, welches über die Plattform museum-digital.de als Teil einer Reihe von Werkzeugen bereitgestellt wird. Mit dem collectionbuilder lassen sich ebenfalls Sammlungen und Ausstellungen digital erschließen und organisieren.

Für die Präsentation von Informationen mit Raum- und Ortsbezug eignen sich GIS-Systeme als Forschungswerkzeug. Im opensource-Bereich ist heute QGIS weit verbreitet und eignet sich für Präsentationen und Forschungsvorhaben.[320] Gängige Plattformen wie OpenStreetMap oder Google Maps können ebenso zur Visualisierung genutzt werden; ArcGis von der Firma ESRI zählt zu den professionellen Werkzeugen, mit denen Karten nicht nur zur Visualisierung von Informationen eingesetzt, sondern auch digitale Karten selbst erstellt werden können. Auch bei ESRI wird die Software mittlerweile über ein Abonnement-Modell vertrieben. Die opensource-Plattform MapServer kann mit weiteren Werkzeugen kombiniert werden, einen Überblick hierzu, wenn auch leider nicht mehr ganz aktuell, sowie Hinweise auf weitere Plattformen, Werkzeuge und auch Einführungen zum Thema bietet maptools.org.

Die Wissensvermittlung über Karten hat in jüngster Zeit für Audiowalks und andere Formen raumbezogener digitaler Geschichtsvermittlung an Bedeutung gewonnen. In Apps lassen sich über Karten digitalisierte Quellen, wissenschaftliche Kommentierung und Wegweiser-Funktionen optimal miteinander verbinden, wie zum Beispiel in der HistoriaApp oder der Berlinhistory.app. Um ähnliche Präsentationen zu erstellen, können die erwähnten Plattformen von Google oder OpenStreetmap genutzt und dort entsprechende GIS-Datenbasen angelegt werden, auch GIS-Systeme bieten entsprechende Plugins wie z.B. in ArcGIS.

3.8 Kommunizieren

Seit der Covid-Pandemie hat die digitale Kommunikation über Videokonferenzen einen enormen Boom erlebt und ist aus dem akademischen Alltag nicht mehr wegzudenken. Zoomen ist wie googlen mittlerweile ein Synonym für den digitalen Austausch per Video. Die gängigen Plattformen für Videokonferenzen wie Microsoft Teams, Zoom und Webex haben das mittlerweile auch von Microsoft übernommen Skype abgelöst und teilen sich in der genannten Reihenfolge auch weit mehr als ein Dreiviertel des Marktes.[330] Schon lange vor Covid verfügbar war der Videokonferenzdienst DFNConf des DFN-Vereins; das DFN ist als Betreiberkonsortium für den Internetanschluss vieler Universitäten tätig, neben dem Videokonferenzdienst steht mit dem PEXIP-Streamingdienst ein Service für die Übertragung von Konferenzen etc. bereit. Im Opensource-Bereich steht mit BigBlueButton eine Software zur Verfügung, die durch Universitäten mit entwickelt wird und bei der auf Datenschutz besonderen Wert gelegt wird.

Ebenfalls populär seit Covid sind Chat-oder Messenger-Dienste wie Slack, mattermost oder Element (Matrix). Steht Slack noch als Clouddienst in einer Grundversion frei zur Verfügung – hier sollte man bedenken, dass der Zugriff auf Inhalte, die vor mehr als einem Jahr Nutzungszeit angelegt wurden, dann eben doch kostenpflichtig ist – müssen Mattermost oder Element für die kostenfreie Nutzung selbst gehostet werden. Ob und wie sich in diesen Chats hinterlegte Inhalte in vielen Jahren tatsächlich noch nutzen lassen, ist offen; schließlich sind diese Werkzeuge nicht durch Internet-Standards bzw. RFCs normiert: somit gibt es keine Regeln für den langfristigen Betrieb und Nutzung wie es beispielsweise für das Hosten von HTML-Seiten oder E-Mail-Kommunikation der Fall ist. Insbesondere für rechtsverbindliche Kommunikation dürften die Web-Chats daher nicht geeignet sein.

Emails werden heute meist mit Microsoft Outlook, thunderbird und den jeweiligen Applikationen von Betriebssystemherstellern und Mailprovidern verwaltet. AddOns für Emailprogramme und Browser bieten hier noch einige interessante Spezialfunktionen. So können im Email-Client Thunderbird mit QuickText Vorlagen für Emails verwaltet, mit Xnote++ können Notizen an Emails angefügt werden. Thunderbird bringt auch für Aufgaben- und Terminmanagement eigene Funktionen mit. Abseits kommerzieller Dienste oder projektbezogener Angebote finden sich Online-Dienste wie die des DFN - Deutsches Forschungsnetz.

3.9 Programmieren

Wie einleitend ankündigt, soll ein kleiner Exkurs zum Programmieren die vorliegende Fassung des Guides beschließen, schließlich lassen sich viele Arbeitstechniken in Forschung und Lehre mit Skripten automatisieren und Projekte mit Text- und Datenverarbeitung erfordern heute meist programmiertechnische Eingriffe.

In der Informatik beschäftigt sich das Software Engineering mit den Anforderungen und Zielen sowie Problemen und Lösungen einer strukturierten Programmierung. Ziel ist es, mit Projektmanagementmethoden und ausgewählten Werkzeugen die Analyse, Konzeption und Gestaltung von Software so zu verbessern, dass Entwicklung, Betrieb und Wartung von Software auch dauerhaft durchführbar sind. Gerade in der Entwurfsphase ist ein gut strukturiertes Vorgehen entscheidend für den Erfolg eines Softwareprojekts. Hierzu zählen das Einbeziehen der zukünftigen Benutzer:innen einer Software, um deren Bedürfnisse zu eruieren, die Überprüfung der Umsetzbarkeit möglicher Funktionalitäten, das Mitdenken unvorgesehener Störfälle oder unvorgesehenen Verhaltens von Nutzer:innen, vor allem aber eine realistische Aufwandschätzung. Auch entscheidend für den Erfolg oder Misserfolg können nachträgliche Änderungen von Anforderungen oder neue Anforderungen sein, wenn der Softwareentwicklungsprozess bereits in vollem Gange ist. Dann müssen oftmals getroffene Architekturentscheidungen umgestellt werden, bereits programmierte Bestandteile werden verworfen, obwohl sie bereits Zeit und Personal gekostet haben, u.U. reicht das Budget nicht mehr aus, um veränderte Anforderungen umzusetzen. Neben Projektmanagement und Werkzeugen werden außerdem auf der technischen Ebene mit der Nutzung von Softwarearchitekturen grundsätzliche Entscheidungen über die Struktur von Programmcode getroffen. Softwarearchitekturen werden verwendet, um effizient Funktionalitäten zu implementieren und zugleich den Code lesbar und wartbar gestalten zu können. Insgesamt ist das Schreiben von Code ein Teil eines Prozesses strukturierten Vorgehens, bei dem Analyse, Planung, Entwurf sowie Implementierung (Programmieren), Test und Wartung einen Kreislauf bilden, der Machbarkeit und Nachhaltigkeit des Programmierens sichert.

Research Software Engineering

Auch die Entwicklung und Verbreitung akademischer Software muss sich den strukturellen Fragen von Konzeption, Design und Programmierung stellen. Über die klassische Softwarearchitektur hinaus hat sich speziell für die akademische Softwareentwicklung mit dem Research Software Engineering eine Bewegung institutionalisiert, welche die Umsetzung von Forschungsmethoden in Software begleiten will. Neben der Sicherung von Qualität, Wartbarkeit und Nachnutzung durch die Anwendung klassischer Softwarearchitektur und Softwareentwicklungsmethoden zielt diese Bewegung darauf, der Entwicklung von Forschungssoftware mehr Anerkennung und Reputation in der akademischen Welt zu verschaffen. Für spezielle Anforderungen bei der Entwicklung von Forschungssoftware haben sich erste Research Software Engineering Sektionen entwickelt; speziell in den Geisteswissenschaften befasst sich die AG Research Software Engineering in den Digital Humanities mit dem Thema.

Integrated Development Environment – IDE

Theoretisch kann man mit einem simplen Texteditor in das Programmieren einsteigen und sogar größere Programmierprojekte umsetzen. Professioneller ist aber die Nutzung sog. IDE - Integrated Development Environments. Diese bestehen nicht nur aus einem Code-Editor, sondern stellen Funktionen für Fehlersuche, Testen und Integration zur Verfügung. Außerdem bieten IDEs in der Regel eine Code-Vervollständigung, mit der sich das Programmieren enorm beschleunigen lässt: Die IDE versucht eingegebene Code-Strukturen zu erkennen und schlägt passende Code-Segmente vor. Eine der gängigen IDEs heute ist Komodo IDE in der kostenfreien Version, diese unterstützt gängige Programmiersprachen; deren kostenpflichtige Versionen sind vor allem auf die Nutzung älterer Programmiersprachen wie PERL oder auf das Programmieren im Team ausgerichtet. Microsoft hat mit Visual Studio Code eine reduzierte Version seiner Flagschiff-IDE Visual Studio freigegeben, die ebenfalls den Ansprüchen wissenschaftlicher Softwareprojekte genügt. Komplett kostenfrei verfügbar sind netbeans und eclipse (insbesondere für die Programmiersprache java), beide sind heute weit verbreitet. Notwendig für deren Nutzung ist allerdings die Installation eines java-Frameworks. Mit der Einführung von Kosten für das Standard-Java durch die Eigentümerfirma Oracle sollte man hier auf freie Java-Frameworks ausweichen, diese sind in einigen Installationsoptionen beider Frameworks aber mittlerweile integriert.

Viele Anbieter und opensource-Projekte stellen auf einzelne Sprachen zugeschnittene IDEs oder plugins für die bereits genannten IDEs bereit, aktuelle Übersichten inklusive ausführliche Feature-Vergleiche können im WWW unter anderem für die weit verbreiteten Sprachen PHP und python konsultiert werden. Insbesondere für das heute in den Geisteswissenschaften beliebte python gibt es mit der jupyter-Notebook-Umgebung (sowie der Servervariante jupyterhub) eine Umgebung, mit der Programmieranfänger:innen leicht in das Erlernen der Sprache einsteigen können: Hier steht eine IDE bereit, mit der zugleich Programmschritte einzeln ausgeführt und dokumentiert werden können. Zahlreiche weitere im Browser nutzbare online Entwicklungsumgebungen bieten Unterstützung für gängige Programmiersprachen.

Neben lokal installierten IDEs können auch online Coding-Plattformen genutzt werden. Hierüber kann im Browser cloudbasiert programmiert werden. Diese Form der Programmierung ist zum Beispiel mittels Firebase von Google für die mobile App-Entwicklung interessant. Zu unterscheiden hiervon sind Coding Practice Plattformen wie leetcode, die dem Erlernen von Programmiersprachen und praktischem Üben dienen sollen, theoretisch aber auch zum Testen kleinerer Code-Segmente genutzt werden können. Daneben existieren zahlreiche weitere auf Frameworks zugeschnittene Plattformen, die das Programmieren und Testen von Code-Segmenten für eben das jeweilige Framework erlauben, meist erstrecken diese sich aber auf Design-orientierte Frameworks: So können beispielsweise mit bootstrap.io Layouts für das populäre bootstrap-Framework (Erstellung von Webdesigns/Websites) ausgearbeitet und getestet werden.

Modularisierung und Frameworks

Eine der Säulen einer strukturierten und nachhaltigen Softwareentwicklung ist die Modularisierung von Programmen: Je umfassender der Programmcode wird, desto wichtiger ist eine strukturierte Anordnung der verschiedenen Skripte bzw. Programmcode-Teile. So kann Programmcode in bestimmten Datei- und Ordnerstrukturen im Dateisystem angeordnet und/oder nach den Funktionen der jeweiligen Programmcodeteile aufgeteilt und ausprogrammiert werden. Die jeweiligen Programmcodeteile können dann gegenseitig die jeweils bereitgestellten Funktionen nutzen, später bleibt dadurch die Pflege des Programmcodes übersichtlich. In python spricht man hierbei von Modulen, in anderen Sprachen von Plugins oder Bibliotheken. Zusätzlich sollten auch Coding-Standards angewendet werden, die vor allem in opensource-Projekten die Verbreitung und weitere Entwicklung und Wartung von Programmcode vereinfachen: durch Regeln für die Formatierung von Code, für die Gestaltung von Funktionen und Code-Gerüsten bis hin zur Anordnung von Code-Dateien und deren Referenzierung (Verwendung von Code-Dateien in anderen Code-Dateien). So existieren für die Sprache PHP zahlreiche PSR-Standards, die die Interoperabilität – also die Funktionsfähigkeit von Code-Strukturen untereinander und deren Lesbarkeit für Entwickler:innen – sicherstellen.

Module oder Bibliotheken werden in allen Programmiersprachen mit Hilfe bestimmter Mechanismen und Werkzeuge bereitgestellt und ausgestauscht. In PHP kommt heute der Composer zum Einsatz, ein Kommandozeilenwerkzeug, mit dem eigene Code-Strukturen organisiert und externe Code-Bibliotheken in eigene Projekte eingebunden werden können. In Python werden Module mit einem extra Programm, dem pip-manager verwaltet, der meist mit python mit installiert wird. Je mehr Module man verwendet, möglicherweise sogar verschiedene Projekte entwickelt und verwaltet, desto mehr Abhängigkeiten entstehen durch die jeweils benötigten Programm-Module von Dritten. Hier kann schnell Chaos entstehen, wenn verschiedene Projekte verschiedene Versionen eines python-Modules benötigen. Daher empfiehlt sich in python die Nutzung einer python-Distribution wie z.B. Anaconda. Damit lassen sich die einzelnen Projekte bequem managen bzw. in voneinander abgetrennten Laufzeit-Umgebungen entwickeln und ausführen. Diese environments lassen sich aber auch ohne eine Distribution verwalten.

Wird eine Vielzahl von Modulen oder Bibliotheken zusammengefasst, spricht man auch von Frameworks. Für alle Programmiersprachen sind solche sehr komplexen und umfassenden Sammlungen von Programmbibliotheken bzw. Anwendungsgerüsten verfügbar. Sie erleichtern das Konzentrieren auf die eigentlich Programmierlösung durch die Bereitstellung einer Vielzahl von Funktionen, die man nutzen kann. Meist werden grundlegende Funktionen zur Ein- und Ausgabe von Daten, zur Manipulation von Daten, zur Nutzung der Netzwerkkommunikation u.v.m. vom Framework bereitgestellt. Ausgewählte Frameworks bieten zudem die Integration in oder die Bereitstellung von Websites, Desktop-Benutzeroberflächen oder die Einbettung in spezielle Endgeräte, auch für das Testen von Software bis hin zur Entwicklung von Machine-Learning-Lösungen.

Code organisieren

Neben der strukturierten Programmierung und der Nutzung von IDEs stellt die Code-Verwaltung und Code-Versionierung eine weitere wichtige Säule des Programmierens dar: Die Bereitstellung verschiedener Versionen eines Skript, eines Programms oder eines ganzen Softwarepakets ist nötig, um die fortlaufende Entwicklung neuer Funktionen und gleichzeitig Updates für mögliche Fehler in einer Software bereitstellen zu können. Als Standardwerkzeug hierfür hat sich gitetabliert, es bietet alle Funktionen, um Programmcode in Teams verteilt zu bearbeiten, zu versionieren und das deployment (Verteilung) der selbst erstellen Programme zu steuern. Die Befehle von git werden über eine Kommandozeile eingegeben, können aber auch über graphische Benutzungsoberflächen wie Tortoise erfolgen; noch sinnvoller ist die Nutzung von git-Plattformen wie gitlab oder github. Beide enthalten neben git auch Werkzeuge zum Softwareprojektmanagement einschließlich dem Einsammeln von Fehlermeldungen (issues) und der Dokumentation ihrer Behebung. Letzteres ist für Softwareprojekte unerlässlich, soll eine langfristige Wartung möglich sein. Komplette Softwareprojektverwaltungen bieten auch bekannte Online-Anbieter wie Jira von Atlassian oder JetBrains.

Code-Generatoren

Durch die Verfügbarkeit von Large Language Modellen (LLM) wie GPT und den darauf aufsetzenden Werkzeugen wie ChatGPT ist es heute leicht, von einfachen Codekonstrukten bis hin zu ausgefeilten Programmen Quellcode erstellen zu lassen. Sowohl Anfänger als auch Fortgeschrittene können sich mit gut formulierten Prompts Algorithmen in allen Programmiersprachen ausgeben lassen. Je verbreiteter die Programmiersprache, desto höher ist die Wahrscheinlichkeit, dass ein brauchbares bzw. lauffähiges Codegerüst generiert wird, schließlich basieren die LLMs auf vorhandenen Texten. Neben dem einfachen Chat-Prompting können auch speziell auf das Programmieren zugeschnittene Code-Generatoren genutzt werden: Copilot zählt derzeit zu den bekanntesten, ist aber kostenpflichtig. Wenig überraschend ist in diesem Segment auch Google mit seinem KI-Assistenten Bard aktiv an der Entwicklung entsprechender Tools beteiligt.[372]

Werkzeuge zur Code-Generierung aus dem “Vor-ChatGPT-Zeitalter” haben trotz GPT & Co ihre Existenzberechtigung aber nicht verloren. Viele dieser Werkzeuge wie Visual Paradigm sind so konzipiert, dass man von der Konzeption einer zu programmierenden Software bis zur Generierung einzelner Segmente viele Schritte automatisieren kann. Meist sind auch Funktionen zur Dokumentation von Code enthalten. Stehen sogar Designwerkzeuge für eine erste graphische Notation von Funktionalitäten, Daten und Abläufen eines geplanten Programms zur Verfügung, lässt sich langfristig die Wartung von Programmcode deutlich vereinfachen. Detaillierte Übersichten über viele weitere Tools finden sich auf sourceforge, wo man unter anderem nach Integrationsmöglichkeiten in die eingangs erwähnten IDEs filtern kann. Die Plattform yed aus dem Bereich Mindmapping bietet ebenso eine Code-Generation-Plattform yworks App Generator, mit der ohne Code bzw. Programmiererfahrung über graphische Elemente Code-Strukturen mit Datenflüssen erzeugt werden können.

4. Fazit

Heute einen vollständigen Überblick über die für die Geschichtswissenschaften relevanten „Werkzeuge“ für basale Arbeitstechniken zu geben ist unmöglich, zu weit gefächert ist auch die Definition von „Werkzeugen“. Und schließlich sind alle „Arbeitsschritte“ im Alltag von Historiker:innen heute ohne digitale Werkzeuge nicht mehr denkbar. Ein Teil heutiger Werkzeuge wie Office-Suiten, Literaturverwaltung oder Präsentationssoftware besteht meist noch aus monolithischen, kommerziellen Programmen; diese werden heute nicht mehr ausschließlich auf stationären Computern, sondern zunehmend mobil genutzt. Mit dem Internet gewinnt Software as a Service immer mehr an Bedeutung, vor allem für Softwarehersteller als Vertriebsmodell, sodass immer mehr Anwendungen nur noch über Abonnementmodelle zur Verfügung stehen. Zugleich bringt die Verlagerung von Werkzeugen in die Cloud Vorteile für Anwender:innen mit sich: So steht immer die neueste Version einer Anwendung bereit, ohne dass Downloads und lokale Installationen notwendig sind. Letztlich können Anwendungen im Netz von allen Endgeräten – PC, Notebook, Handy, Tablet – parallel genutzt werden, vor allem, wenn die Daten über Cloudspeicher vorliegen. Das digitale Arbeiten in den Geschichtswissenschaften verlagert sich somit stetig weiter ins Netz.

Literaturhinweise

Antenhofer, Christina; Kühberger, Christoph; Strohmeyer, Arno, Digital Humanities in den Geschichtswissenschaften, Wien 2024.
Brügger, Niels, When the Present Web is Later the Past: Web Historiography, Digital History, and Internet Studies, in: Historical Social Research 37 (2012) 4, S. 102–117, http://www.ssoar.info/ssoar/handle/document/38378.
Classen, Christoph; Kinnebrock, Susanne; Löblich, Maria, Towards web history: sources, methods and challenges in the digital age; an introduction, in: Historical Social Research 37 (2012) 4, S. 97–101, http://www.ssoar.info/ssoar/bitstream/handle/document/38377/ssoar-hsr-2012-4-classen_et_al-Towards_web_history__sources.pdf?sequence=1.
Cohen, Daniel J; Scheinfeldt, Tom, Hacking the Academy. New approaches to scholarship and teaching from the Digital Humanities, 4. Aufl., Ann Arbor 2016.
Döring, Karoline Dominika; Haas, Stefan; König, Mareike; Wettlaufer, Jörg, Digital History: Konzepte, Methoden und Kritiken Digitaler Geschichtswissenschaft, Berlin 2022, https://doi.org/10.1515/9783110757101.
Eder, Franz X.; Berger, Heinrich; Casutt-Schneeberger, Julia; Tantner, Anton: Geschichte online. Einführung in das wissenschaftliche Arbeiten, Wien 2006.
Fickers, Andres: Update für die Hermeneutik. Geschichtswissenschaft auf dem Weg zur digitalen Forensik, in: Zeithistorische Forschungen, 1 (2020), S. 157–168, https://zeitgeschichte-digital.de/doks/frontdoor/deliver/index/docId/1765/file/ZF_1_2020_157_168_Fickers.pdf.
Föhr, Pascal, Historische Quellenkritik im Digitalen Zeitalter, Basel 2018.
Forum: The Status Quo of Digital Humanities in Europe, in: H-Soz-Kult. http://www.hsozkult.de/text/id/texte-2535.
Forum: Digitales Lehren: Erfahrungen und Ausblicke, In: H-Soz-Kult, https://www.hsozkult.de/debate/id/fddebate-132409.
Gold, Matthew K, Debates in the Digital Humanities, Minneapolis 2012.
Gantert, Klaus, Elektronische Informationsressourcen für Historiker, Berlin 2011, http://www.reference-global.com/doi/book/10.1515/9783110234985.
Gasteiner, Martin u.a. (Hrsg.), Digitale Arbeitstechniken für Geistes- und Kulturwissenschaften, Wien u.a. 2010.
Haber, Peter, Digital Past. Geschichtswissenschaft im digitalen Zeitalter, München 2011.
Hiltmann, Torsten, Hermeneutik in Zeit der KI. Large Language Models als hermeneutische Instrumente in den Geschichtswissenschaften, in: Schreiber, Gerhard; Ohly, Lukas (Hrsg.): KI:Text: Diskurse über KI-Textgeneratoren, Berlin, Boston 2024, S. 201–232, https://doi.org/10.1515/9783111351490-014.
Jannidis, Fotis; Kohle, Hubertus; Rehbein, Malte (Hrsg.), Einführung in die Digital Humanities, Stuttgart 2017.
Oehlmann, Doina, Erfolgreich recherchieren – Geschichte, Berlin 2012.
Rehbein, Malte, Künstliche Intelligenz und Datenmobilisierung zwischen Geschichtswissenschaft und Archiv. Über Forschung in der digitalen Transfor-mation und die Notwendigkeit des Umdenkens, 2024, https://doi.org/10.17613/5m74-sk48.
Schmale, Wolfgang, Digitale Geschichtswissenschaft, Wien u.a. 2010.
Schmale, Wolfgang, Digital Humanities, Stuttgart 2015.
Thaller, Manfred, The historical workstation project, in: Historical Social Research, 16 (1991) 4, S. 51–61.
Thaller, Manfred (Hrsg.), Controversies around the Digital Humanities. Köln: GESIS Leibniz Inst. for the Social Sciences (=Historical social research Special issue, Bd. 37), Köln 2012, http://www.hsr-retro.de.

Fußnoten

  1. [1] Ladurie, Emmanuel Le Roy, Le Territoire de l’historien, Paris 1973, S. 14.
  2. [2] Zur Entwicklung der Quantifizierung bzw. historischen Statistik siehe https://guides.clio-online.de/guides/sammlungen/historisch-statistische-daten/2023.
  3. [3] Thaller, Manfred, The historical workstation project, in: Historical Social Research, 16 (1991) 4, S. 51–61.
  4. [4] Schmale, Wolfgang, Digitale Geschichtswissenschaft, Wien u.a. 2010, S. 130.
  5. [5] Vgl. hierzu die H-Soz-Kult Themenschwerpunkte: Meyer, Thomas; Prinz, Claudia (Hrsg.), Forum Digitales Lehren: Erfahrungen und Ausblicke, in: H-Soz-Kult, https://www.hsozkult.de/debate/id/fddebate-132409, 24.07.2020; Prinz, Claudia (Hrsg.), Wissenschaft als virtuelle Gemeinschaft? Die Covid-19 Pandemie und die beschleunigte Digitalisierung der wissenschaftlichen Kommunikation in den Geschichtswissenschaften, in: H-Soz-Kult, https://www.hsozkult.de/debate/id/fddebate-132461, 18.11.2022.
  6. [6] Vgl. Horvath, Peter, Geschichte Online: neue Möglichkeiten für die historische Fachinformation(=Historical Social Research, Supplement, Beih. 8) Köln 1997 Zu Arbeitstechniken siehe unter anderem Biste, Bärbel; Hohls, Rüdiger (Hrsg.), Fachinformation und EDV-Arbeitstechniken für Historiker. Einführung und Arbeitsbuch (=Historical Social Research, Supp., Bd. 12), Köln 2000, http://www.hsr-retro.de; Koschorreck, Michael; Suppanz, Frank, Geisteswissenschaften studieren mit dem Computer. Eine praxisorientierte Einführung, Stuttgart 2003; Eder, Franz X.; Berger, Heinrich; Casutt-Schneeberger, Julia; Tantner, Anton, Geschichte online. Einführung in das wissenschaftliche Arbeiten, Wien 2006; Haber, Peter, Digital Past. Geschichtswissenschaft im digitalen Zeitalter, München 2011. Zuletzt Döring, Karoline Dominika;, Haas, Stefan; König, Mareike; Wettlaufer, Jörg, Digital History: Konzepte, Methoden und Kritiken Digitaler Geschichtswissenschaft, Berlin 2022, https://doi.org/10.1515/978311001; Antenhofer, Christina; Kühberger, Christoph; Strohmeyer, Arno, Digital Humanities in den Geschichtswissenschaften, Wien 2024.
  7. [7] Vgl. Freitag, Klaus; Ruffing, Kai (Hrsg.), Beiträge zu E-Learning und Geo-Information in den Geschichtswissenschaften, St. Katharinen 2005; Schmale, Wolfgang, E-Learning Geschichte, Wien 2011; Gasteiner, Martin, Digitale Arbeitstechniken für Geistes- und Kulturwissenschaften, Wien u.a. 2010; Bihrer, Andreas; Bruhn, Stephan, Fritz, Fiona, Forschendes Lernen in Geschichtswissenschaft und Geschichtsstudium. in: Kaufmann, Margrit; Satilmis, Ayla; Mieg, Harald (Hrsg.), Forschendes Lernen in den Geisteswissenschaften, Wiesbaden 2018, https://doi.org/10.1007/978-3-658-21738-9_6.
  8. [8] Zur Fachinformation: Gantert, Klaus, Elektronische Informationsressourcen für Historiker, Berlin 2011. Eingeschränkt zugänglich unter https://dx.doi.org/10.1515/9783110234985; Oehlmann, Doina, Erfolgreich recherchieren – Geschichte, Berlin 2012; Schröter, Markus, Erfolgreich recherchieren – Altertumswissenschaften, Berlin 2017.
  9. [10] Siehe Clio-Guide Forschungsdaten, erscheint voraussichtlich 2024.
  10. [11] Siehe Clio-Guide Digital Humanities: https://guides.clio-online.de/guides/arbeitsformen-und-techniken/digital-humanities/2018.
  11. [12] Vgl. exemplarisch Eckenstaler, Sophie, ChatGPT in den Geschichtswissenschaften? Ein Praxisversuch, https://hochschulforumdigitalisierung.de/de/blog/chatgpt-den-geschichtswissenschaften-ein-praxisversuch, 07.03.2023; ChatGPT kann nicht Geschichte schreiben, https://www.oeaw.ac.at/news/chatgpt-kann-nicht-geschichte-schreiben, 23.05.2023; Guffler, Felix, Der Einsatz von künstlicher Intelligenz in der Geschichtswissenschaft – ein Zwischenbericht zu ChatGPT und Midjourney, in: Archivalia, https://archivalia.hypotheses.org/172934, 06.05.2023.
  12. [15] Vgl. Rehbein, Malte, Künstliche Intelligenz und Datenmobilisierung zwischen Geschichtswissenschaft und Archiv. Über Forschung in der digitalen Transformation und die Notwendigkeit des Umdenkens, 2024, https://doi.org/10.17613/5m74-sk48; Hiltmann, Torsten, Hermeneutik in Zeit der KI. Large Language Models als hermeneutische Instrumente in den Geschichtswissenschaften, in: Schreiber, Gerhard; Ohly, Lukas (Hrsg.): KI:Text: Diskurse über KI-Textgeneratoren, Berlin, Boston 2024, S. 201–232, https://doi.org/10.1515/9783111351490-014.
  13. [16] Vgl. Haber, Peter, Digital Past: Geschichtswissenschaft im digitalen Zeitalter, Berlin 2011, S. 73–98, https://doi.org/10.1515/9783486712339-006.
  14. [17] Vgl. Sühl-Strohmenger, Wilfried, Handbuch Informationskompetenz, Berlin 2016, https://doi.org/10.1515/9783110403367.
  15. [18] Hierzu u.a. Föhr, Pascal, Historische Quellenkritik im Digitalen Zeitalter, Basel 2018; Fickers, Andreas: Update für die Hermeneutik. Geschichtswissenschaft auf dem Weg zur digitalen Forensik, in: Zeithistorische Forschungen, 1 (2020), S. 157–168, https://zeitgeschichte-digital.de/doks/frontdoor/deliver/index/docId/1765/file/ZF_1_2020_157_168_Fickers.pdf; Piotrowski, Swantje: Strg+Alt+Entf: Ein Neustart für die Geschichtswissenschaft durch die Digital Humanities? in: Auge, Oliver; Schwedler, Gerald (Hrsg.): Impulse der Kieler Geschichtsforschung einst und heute für die deutschsprachige Geschichtswissenschaft: Zum 150-jährigen Bestehen des Historischen Seminars der Christian-Albrechts-Universität zu Kiel, Kiel 2022, S.127–144, https://doi.org/10.38072/978-3-928794-80-0/p6.
  16. [22] Software bzw. Programmcode enthält in der Regel Fehler. Diese Fehler können die Manipulation von Daten durch Zugang von außen ermöglichen.
  17. [83] Siehe z.B. Thaller, Manfred (Hrsg.), Controversies around the Digital Humanities. Köln: GESIS Leibniz Inst. for the Social Sciences (=Historical Social Research Special issue, Bd. 37), Köln 2012, http://www.hsr-retro.de.
  18. [90] Neben den bereits erwähnten Monographien siehe auch Düring, Marten; Eumann, Ulrich; Stark, Martin; von Keyserlingk, Linda (Hrsg.), Handbuch Historische Netzwerkforschung. Grundlagen und Anwendungen, Berlin 2016; Jannidis, Fotis; Kohle, Hubertus; Rehbein, Malte (Hrsg.), Einführung in die Digital Humanities, Stuttgart 2017.
  19. [92] Zum Beispiel Koller, Guido, Geschichte digital. Historische Welten neu vermessen, Stuttgart 2016.
  20. [99] Vgl. u.a. die Artikelserie in der FAZ, hier insbesondere Krischke, Wolfgang, Sprachwissenschaft: Altbewährtes frischgemacht – Digitale Humanities Teil 1/6, in: Frankfurter Allgemeine Zeitung, 09.05.2018, http://www.faz.net/aktuell/feuilleton/hochschule/digital-humanities-eine-bilanz-1-6-sprachwissenschaft-15579104.html und weitere Artikel in dieser Serie; Götz, Eva-Maria, Wie die IT die Geisteswissenschaften verändert, in: Deutschlandfunk, 17.07.2014, http://www.deutschlandfunk.de/forschungsmethoden-wie-die-it-die-geisteswissenschaften.1148.de.html?dram:article_id=292172.
  21. [117] Vgl. hierzu Neuber, Friederike, Nachlese zum Panel „Alles ist im Fluss – Ressourcen und Rezensionen in den Digital Humanities“ #dhd2018, https://dhd-blog.org/?p=9750, 16.04.2018 sowie Neuber, Friederike; Sahle, Patrick, Nach den Büchern: Rezensionen digitaler Forschungsressourcen, in: H-Soz-Kult, 10.05.2022, https://www.hsozkult.de/debate/id/fddebate-132457.
  22. [123] Vgl. dazu das „Google-Syndrom“ bei Haber, Digital Past, 2011, S. 73–98.
  23. [124] Lewandowki, Dirk, Web Information Retrieval. Technologien zur Informationssuche im Internet, Frankfurt am Main 2005, S. 51 ff., http://www.durchdenken.de/lewandowski/web-ir.
  24. [125] Searchmetrics Ranking-Faktoren 2015: Das Keyword ist tot, lang lebe relevanter, holistischer Content, in: Ecommerce News, 03.08.2015, https://ecommerce-news-magazin.de/online-marketing/seo/searchmetrics-ranking-faktoren-2015-das-keyword-ist-tot-lang-lebe-relevanter-holistischer-content.
  25. [134] Seiller, Matthias, Das Prompt-Engineering meistern: ausprobieren, experimentieren, lernen und üben, in: heise-online, 10.07.2023, https://www.heise.de/hintergrund/Entwicklung-der-Promptkompetenz-ausprobieren-experimentieren-lernen-und-ueben-9210218.html.
  26. [136] Vgl. z.B. Felix Guffler, Der Einsatz von künstlicher Intelligenz in der Geschichtswissenschaft – ein Zwischenbericht zu ChatGPT und Midjourney, in: archivalia, https://archivalia.hypotheses.org/172934.
  27. [143] Vgl. Wiegand, Dorothee, Navi fürs Hirn. So helfen Mindmapping-Tools, Gedanken zu ordnen, in: ct', 19/2024, S. 64, https://www.heise.de/select/ct/2024/19/2420615174829226679.
  28. [145] Wischner, Stefan, Sammeln, Ordnen, Verknüpfen. Einführung in das Wissensmanagement mit Obsidian, in: ct', 19/2024, S. 52, https://www.heise.de/select/ct/2024/19/2416611325796033043.
  29. [152] Vgl. David Gugerli, Die Welt als Datenbank. Zur Relation von Softwareentwicklung, Abfragetechnik und Deutungsautonomie, in: Nach Feierabend 3 (2007), S. 11– 36, https://www.tg.ethz.ch/fileadmin/user_upload/2007_Gugerli_Die_Welt_als_Datenbank.pdf; siehe auch Feichtinger, Moritz, Materialität und Praxis. Zur Analyse historischer Datenverarbeitung am Beispiel des Vietnamkrieges, in: König 2022, https://www.degruyter.com/document/doi/10.1515/9783110757101-013/html.
  30. [162] Vgl zur Geschichte der SQL-Datenbank auch Gugerli: Die Welt als Datenbank.
  31. [163] Zur Vertiefung: vgl. https://openbook.rheinwerk-verlag.de/it_handbuch/12_001.html#dodtpad35a439-6979-4e91-b0d7-60ec6492c4c2. Darüber hinaus sollte Literatur zum jeweils verwendeten Datenbanksystem zu Rate gezogen werden, die Buchmarkt hierzu ist schier unübersichtlich, ohne Anspruch auf Vollständigkeit empfehlenswert sind Bücher der Verlage O’Reilly https://oreilly.de/, Hanser https://www.hanser-fachbuch.de/it-grundlagen. Keineswegs nur für Dummies bieten auch die durchaus preiswerten Bücher der gleichnamigen Reihe aus dem MITP-Verlag brauchbare Einstiegshilfen.
  32. [172] Hyong, Wee: Doing Data Science and AI with SQL Server, in: MSDN Magazine 32 (7), 2017, https://learn.microsoft.com/en-us/archive/msdn-magazine/2017/july/machine-learning-doing-data-science-and-ai-with-sql-server.
  33. [180] Groves, Antony, Using Solr as a NoSQL Database Instead of a Search Engine, 2019, https://medium.com/@anthonygroves/using-solr-as-a-nosql-database-instead-of-a-search-engine-a89113cee7dd.
  34. [184] Vgl Kuzcera, Andreas, Graphdatenbanken für Historiker, 05.05.2015, https://mittelalter.hypotheses.org/5995#__RefHeading__1905_369048808.
  35. [188] Zur Einführung in die gesamte Thematik und speziell zum Thema ORM: Kleuker, Stefan, Grundkurs Datenbankentwicklung: Von der Anforderungsanalyse zur kompexen Datenbankabfrage, überarb. 5. Aufl., Wiesbaden 2024.
  36. [208] Vgl. Patsch, Sabrina, Effizienter zitieren. Software zum Literaturmanagement im Test, in: ct', 19/2024, S. 58, https://www.heise.de/select/ct/2024/19/2419211591019256260.
  37. [216] Siehe hierzu Quo Vadis-Praxisatelier II: Wege durchs digitale Labyrinth. Mediävistisches Arbeiten mit digitalen Sammlungen (8.11.2024), Workshop der AG Digitale Geschichtswissenschaften im Rahmen des Praxislabors der AG 2024, https://digigw.hypotheses.org/tag/tropy.
  38. [217] Exemplarisch sowohl für Forschung als auch die Nutzung multimedialer Objekte siehe das Interview mit Annette Vohwinckel, Sozialistischer Bildertausch: Analoge und Digitale Quellenarbeit, in: Visual History https://visual-history.de/en/2023/03/13/vowinckel-santos-sucutardean-sozialistischer-bildertausch/; Zur Einführung in die Visual History: Gerhard Paul, Visual History, in: docupedia zeitgeschichte, https://docupedia.de/zg/Visual_History_Version_3.0_Gerhard_Paul Zur Sound History; vgl. Daniel Morat, Perspektiven auf die Klanggeschichte des 20. Jahrhundert, in: Zeithistorische Forschungen, Daniel Morat, Perspektiven auf die Klanggeschichte des 20. Jahrhunderts. Einleitung, in: Zeithistorische Forschungen/Studies in Contemporary History, Online-Ausgabe, 8 (2011), H. 2, https://doi.org/10.14765/zzf.dok-1658, Druckausgabe: S. 260–261.
  39. [277] Als Beispiel: Borgolte, Michael; Burckhardt, Daniel; Eremie, Jens; Schiel, Juliane, Mediävistik trifft Technik. Ungewöhnliche Grenzerfahrungen zwischen den Disziplinen, in: Humboldt-Spektrum 1 (2008), S. 34–40, https://www.hu-berlin.de/de/forschung/szf/forschungsmanagement/veroeffentlichungen/spektrum/borgolte_108.pdf.
  40. [284] Auch beim Arbeiten mit InDesign lässt sich per Literaturverwaltung erschlossene Literatur verarbeiten: Nachdem im Ursprungsdokument in Word oder OpenOffice und der jeweiligen Literaturverwaltung das Rohdokument inclusive Fußnoten und Literaturverzeichnis erstellt sind, kann das Dokument im RTF-Format nach InDesign überführt und dort weiter verarbeitet werden.
  41. [306] Vgl. Wozniak, Thomas, Nemitz, Jürgen, Rohwedder, Uwe (Hrsg.), Wikipedia und Geschichtswissenschaft, Berlin 2015. https://doi.org/10.1515/9783110376357.
  42. [313] Vgl. die mit in Europeana erschlossenen Materialien aufbereiteten Ausstellungen unter http://exhibitions.europeana.eu.
  43. [320] Vgl. Henning Borggräfe, Rekonstruktion von Verfolgungswegen im KZ-System, In: hypotheses.org, 09. März 2021, https://nghm.hypotheses.org/2749.
  44. [330] Vgl. Umfrage zur Software für Videokonferenzen in der Unternehmenskommunikation 2021, veröffentlicht von Statista Research Department, 02.01.2024, https://de.statista.com/statistik/daten/studie/1242172/umfrage/software-fuer-videokonferenzen-in-der-unternehmenskommunikation/.
  45. [372] Vgl. Moritz Föster: Bard statt ChatGPT: Google-KI kommt per No Code in klassische Firmenanwendungen, https://www.heise.de/news/Bard-statt-ChatGPT-Google-KI-kommt-per-No-Code-in-klassische-Firmenanwendungen-8257555.html.

Thomas Meyer M.A. arbeitet und lehrt am Institut für Geschichtswissenschaften (Bereich Historische Fachinformatik) an der Humboldt-Universität zu Berlin. Neben der redaktionellen Betreuung von H-Soz-Kult und Clio-online entwickelt und programmiert er die Datenbanken und Websites der Online-Projekte.

[Weiter zur ergänzenden Linkliste...]
Für Clio-online verfasst von:

Thomas Meyer

Thomas Meyer

Thomas Meyer M.A. arbeitet und lehrt am Institut für Geschichtswissenschaften (Bereich Historische Fachinformatik) an der Humboldt-Universität zu Berlin. Neben der redaktionellen Betreuung von H-Soz-Kult und Clio-online entwickelt und programmiert er die Datenbanken und Websites der Online-Projekte.