Hier finden Sie eine Übersicht über die von mir angebotenen Dienstleistungen in meiner Tätigkeit als IT-Dienstleister und Entwickler. Bitte beachten Sie, dass ich nur Angebote annehmen kann, die in keiner direkten Verbindung oder Konkurrenz zu meiner Haupttätigkeit als Research Software Engineer an der Ruhr-Universität Bochum stehen.
Die von mir angebotenen Leistungen umfassen die folgenden Bereiche:
- Beratung & Datenanalyse
- Redaktionsworkflows & -software
- Webentwicklung
- Automatisierungs- & KI-Beratung
Bei Rückfragen können Sie mich unter der folgenden E-Mail-Adresse erreichen: kontakt@tjurczyk.com
Beratung, Datenanalyse & Projektbegleitung
Die Digital Humanities stellen Forschungsprojekte vor spezifische technische Herausforderungen: Welche Werkzeuge eignen sich für die Textanalyse meines Korpus? Wie strukturiere ich heterogene Forschungsdaten nachhaltig? Welche statistischen oder maschinellen Lernverfahren sind für meine Fragestellung geeignet – und wie interpretiere ich die Ergebnisse im geisteswissenschaftlichen Kontext?
Mit einer doppelten Qualifikation in Informatik und den Geisteswissenschaften berate und begleite ich Projekte an der Schnittstelle beider Disziplinen – auf Basis eigener Forschungspraxis.
Mehr lesen
Als Research Software Engineer im DFG-Sonderforschungsbereich 1475 „Metaphern der Religion" (Ruhr-Universität Bochum) habe ich Forschungssoftware für textanalytische Fragestellungen entwickelt und eingesetzt. Am Dr. Eberle Zentrum für digitale Kompetenzen der Universität Tübingen habe ich Studierende und Promovierende in angewandter Programmierung und Data Science ausgebildet. Darüber hinaus habe ich alleine und gemeinsam mit anderen mehrere Artikel zu DH-bezogenen Themen publiziert.
Forschungsprojekte verfügen häufig über umfangreiche Datenbestände, deren Potenzial noch nicht vollständig ausgeschöpft ist – sei es ein historisches Textkorpus, eine Umfragedatenbank oder ein bibliometrischer Datensatz. Ich unterstütze bei der systematischen Analyse solcher Daten: von der ersten explorativen Sichtung bis zur Anwendung maschineller Lernverfahren, stets mit Blick auf die geisteswissenschaftliche Forschungslogik und die Nachvollziehbarkeit der Ergebnisse.
Schwerpunkte
- Textanalyse und -aufbereitung (NLP-Methoden, Korpusanalyse, Topic Modeling, Named Entity Recognition)
- Explorative Datenanalyse (EDA), Visualisierung und Datenbereinigung
- Maschinelles Lernen: Klassifikation, Clustering, Regression
- Datenvorbereitung, -modellierung und -speicherung
- Einsatz und Evaluation von KI- und ML-Verfahren im Forschungskontext
- Abwägung zwischen Standardlösungen und individueller Softwareentwicklung
Leistungsumfang
- Beratung zur Methoden- und Toolwahl sowie Projektplanung
- Durchführung von Analysen als einmaliges Projekt oder kontinuierliche Begleitung
- Aufbereitung und Dokumentation der Ergebnisse in nachvollziehbarer Form
- Übergabe von reproduzierbarem, dokumentiertem Code
- Konzeption und Begleitung von DH-Projekten von der Planungsphase bis zur Umsetzung
Automatisierung von Redaktionsworkflows
Die Aufbereitung und Publikation wissenschaftlicher Texte ist in vielen Redaktionen noch immer mit erheblichem manuellem Aufwand verbunden – von der Formatierung eingereichter Manuskripte über den Satz bis zur Bereitstellung in mehreren Ausgabeformaten. Ich entwickle und implementiere Lösungen, die diesen Prozess systematisch automatisieren und dabei den spezifischen Anforderungen wissenschaftlicher Publikationsstandards gerecht werden.
Mehr lesen
Grundlage meiner Arbeit in diesem Bereich ist die Praxis: Ich habe als Entwickler und Mitarbeiter für die Zeitschriften Engangled Religions und Philosophy and the Mind Sciences (PhiMiSci) gearbeitet und die Redaktionsabläufe beider Publikationen aus erster Hand kennengelernt. Als Hauptentwickler des Magic Manuscript Maker habe ich eine produktiv eingesetzte Lösung entwickelt, die auf einem Markdown-basierten Single-Source-Publishing-Ansatz (SSP) basiert – Manuskripte werden einmalig erfasst und automatisiert in mehrere Ausgabeformate überführt.
Technologien & Erfahrungen
- Single-Source-Publishing mit Markdown und Pandoc
- Open Journal Systems (OJS) – Einrichtung, Anpassung und Workflow-Integration
- Automatisierte Konvertierung in gängige Publikationsformate (HTML, PDF, XML/JATS u. a.)
- Redaktionelle Praxis in akademischen Zeitschriftenprojekten
Leistungsumfang
- Analyse und Optimierung bestehender Redaktionsworkflows
- Entwicklung und Implementierung automatisierter Publikationspipelines
- Einrichtung und Anpassung von OJS-Instanzen
- Schulung redaktioneller Teams im Umgang mit neuen Systemen
Webentwicklung & Webhosting
Eine professionelle digitale Präsenz ist heute für Forschungsprojekte, Institutionen und Verlage gleichermaßen unverzichtbar – ob als Projektwebsite, Publikationsplattform oder digitale Ausstellung. Ich entwickle maßgeschneiderte Weblösungen, die sich an den konkreten Anforderungen und dem Budget des jeweiligen Projekts orientieren.
Je nach Umfang und Anforderung kommen dabei unterschiedliche Ansätze zum Einsatz: Für inhaltsschwere, interaktive Anwendungen setze ich auf moderne Frameworks wie Svelte oder WordPress; für schlanke, schnelle und wartungsarme Auftritte bieten sich statische Lösungen mit Jekyll oder Hugo an – besonders geeignet für Projektwebsites mit überschaubarem Pflegeaufwand.
Mehr lesen
Individuelle Lösungen hoste ich auf eigener, dedizierter Infrastruktur (Hetzner). Alle gehosteten Projekte laufen auf europäischer Serverinfrastruktur und sind damit DSGVO-konform – was kurze Abstimmungswege und eine zuverlässige, langfristige Betreuung ermöglicht.
Leistungsumfang
- Konzeption und Entwicklung dynamischer Webanwendungen (Svelte, WordPress)
- Erstellung statischer Websites (Jekyll, Hugo) – performant, sicher und einfach zu pflegen
- Langfristige technische Betreuung und Wartung (bei Bedarf)
- Hosting auf dedizierter, europäischer Serverinfrastruktur (DSGVO-konform)
Integration von KI und Large Language Models
Large Language Models (LLMs) bieten im Bereich der Textverarbeitung erhebliche Potenziale – sie eignen sich jedoch nicht für jeden Anwendungsfall gleichermaßen. Ob und wie KI-gestützte Verfahren sinnvoll in bestehende Arbeitsabläufe integriert werden können, hängt von den konkreten Anforderungen, dem verfügbaren Datenmaterial und den Qualitätsansprüchen des jeweiligen Vorhabens ab.
Mehr lesen
Dabei ist die Wahl des Modells keine Nebensache. Für viele Institutionen – insbesondere im öffentlichen und akademischen Bereich – sind datenschutzrechtliche Anforderungen und digitale Souveränität entscheidende Kriterien. Ich beziehe daher explizit lokale Lösungen (d. h. Modelle, die auf eigener Infrastruktur betrieben werden) sowie europäische Alternativen wie Mistral in die Beratung ein – als gleichwertige Optionen neben den bekannten US-amerikanischen Anbietern.
Typische Anwendungsfelder
- Automatisierung und Unterstützung bestehender Prozesse (z. B. Textzusammenfassung, Klassifikation, Strukturerkennung, automatisierte Übersetzungen)
- Textanalyse und -annotation in Forschungskontexten (z. B. semantische Auszeichnung, Mustererkennung in großen Korpora)
Leistungsumfang
- Machbarkeitsanalyse: Ist LLM-Einsatz für Ihr Vorhaben sinnvoll – und wenn ja, in welcher Form und mit welchem Modell?
- Implementierung: Entwicklung und Integration maßgeschneiderter LLM-basierter Lösungen in bestehende Systeme und Workflows – wahlweise cloudbasiert, europäisch gehostet oder vollständig lokal