Frei zugänglich
Refine
Year of publication
Document Type
- Master's Thesis (61)
- Bachelor Thesis (51)
- Diploma Thesis (2)
- Doctoral Thesis (2)
- Preprint (2)
Has Fulltext
- yes (118)
Is part of the Bibliography
- no (118)
Keywords
- Entwicklung (10)
- Implementierung (8)
- Analyse (7)
- Software (7)
- Konzeption (6)
- Evaluation (5)
- Patient (5)
- Strahlentherapie (5)
- Tumor (5)
- Anwendung (4)
Institute
- Medizinische Informatik (66)
- Informatik (44)
- Bibliothek (2)
- Mechanik und Elektronik (2)
- Elektrotechnik und Informationstechnik (1)
Mit der Entdeckung der Röntgenstrahlen im Jahre 1895 begründete Wilhelm Conrad Röntgen die medizinische Bildgebung. Diese ermöglichte erstmals, zu diagnostischen oder therapeutischen Zwecken einen Blick in das Innere des Menschen zu werfen, ohne dass sich dieser einer unter Umständen riskanten Operation unterziehen musste. Die Röntgentechnik gestattet allerdings nur die Projektion anatomischer Strukturen auf ein zweidimensionales Bild. Erst die Erweiterung der Bildgebung auf tomographische Verfahren, wie der Computer und Magnetresonanztomographie, erlaubte es, kontrastreiche, überlagerungsfreie 3D Schichtbilder zu erzeugen [13, S. 1]. Weitere Unterstützung hat die medizinische Bildgebung durch die Computertechnik erfahren, die eine digitale Nachbearbeitung der Bilder oder oft auch eine umfassende Bildanalyse ermöglicht. Im Zuge der technischen Weiterentwicklung kommen immer leistungsfähigere Computer zum Einsatz. Daher ist es nicht verwunderlich, dass medizinische Bilder heute hauptsächlich digital gespeichert, verschickt und bearbeitet werden. Auch entwickeln sich die bildgebenden Modalitäten weiter, was zu immer höher aufgelösten Bildern führt, in denen immer feinere Strukturen erkennbar sind. Simultan bedeutet das, dass für immer größere Datenmengen eine digitale Bearbeitung am Computer bewerkstelligt werden muss. Es ist deshalb ein zentrales Anliegen, effziente bildverarbeitende Algorithmen zu entwickeln.
3D-Ultraschall beim MITK
(2017)
In dieser Bachelorthesis wird ein Frei-Hand-3D-Ultraschallsystem entwickelt. Dieses
soll 3D-Ultraschallbildgebung im MITK ermöglichen. Basis hierfür sind ein konventionelles
2D-Ultraschallgerät und ein optisches Trackingsystem. Die nötigen Teilschritte
werden erläutert und beschrieben.
Ergebnis ist ein Plugin für das MITK, das aus aufgenommenen 2D-Ultraschallbildern
ein 3D-Volumen berechnet.
Clinical diagnosis ideally relies on quantitative measures of disease. For a number of diseases, diagnostic guidelines require or at least recommend neuroimaging exams to support the clinical findings. As such, there is also an increasing interest to derive quantitative results from magnetic resonance imaging (MRI) examinations, i.e. images providing quantitative T1, T2, T2* tissue parameters. Quantitative MRI protocols, however, often require prohibitive long acquisition times (> 10 minutes), nor standards have been established to regulate and control MRI-based quantification. This work aims at exploring the technical feasibility to accelerate existing MRI acquisition schemes to enable a -3 minutes clinical imaging protocol of quantitative tissue parameters such as T2 and T2* and at identifying technical factors that are key elements to obtain accurate results. In the first part of this thesis, the signal model of an existing quantitative T2-mapping algorithm is expanded to explore the methodology for a broader use including the application to T2* and its use in the presence of imperfect imaging conditions and system related limitations of the acquisition process. The second part of this thesis is dedicated to optimize the iterative mapping algorithm for a robust clinical application including the integration on a clinical MR platform. This translation of technology is a major step to enable and validate such new methodology in a realistic clinical environment. The robustness and accuracy of the developed and implemented model is investigated by comparing with the "gold standard" information from fully sampled phantom and in-vivo MRI data.
Access, Handling and Visualization Tools for Multiple Data Types for Breast Cancer Decision Support
(2011)
Breast cancer is the most commonly diagnosed cancer among U.S women, besides skin cancer. More than 1 in 4 cancers among women are breast cancer. And though death rates have been decreasing since 1990, about 40,170 women in the U.S. were expected to die in 2009 from breast cancer. The progress of molecular profiling, in the last decade has revolutionized the understanding of cancer, but also introduced more complexity with new data such as gene expression, copy number variation, mutations and DNA methylation. These new data open up the possibility of differential diagnosis, much more precise prognosis as well as prediction of therapy response than any of the diagnostic tools that are available in the current practice. Additionally, epidemiological databases store clinically relevant information on hundreds of thousands of patients. However, with the abundance of all this information, clinicians will need new tools to access and visualize such data and use the information gained to treat new patients. The general problem will be to access, filter and analyze the data and then visualize them in a clinical context. This data ranges from clinico-pathological information, to molecular profiles from highthroughput genomic measurements and imaging data. Furthermore, data from patient populations is aggregated on epidemiological level and can be found under numerous clinical studies.
An architectural concept for implementing the socio-technical workflow of Digital Pathology in Chile
(2014)
Virtual Microscopy opens up the possibility to remotely access high quality images at large scales for scientific research, education, and clinical application. For clinical diagnostics, Digital Pathology (DP) presents a novel opportunity to reduce variability [Bauer et al., 2013] due to the reproducible access to Whole Slide Imaging, quantitative parameters (e.g. HER2 stained membrane) [Al-Janabi et al., 2012], second opinion and Quality Assurance [Ho et al., 2013]. Despite of the mentioned advantages, the challenge remains to incorporate DP into the pathologists workflow within a heterogeneous environment of systems and infrastructures [Stathonikos
et al., 2013]. Different issues must be solved in order to optimize the impact of DP in the daily clinical practice [Daniel et al., 2012] [Ho et al., 2006]. The integration needs precise planning and comprehensive evaluation for adopting this technology
[Stathonikos et al., 2013]. This thesis will focus on an organizational development approach based on a Socio-Technical System (STS). The socio-technical approach covers: (i) the technical issue: tissue-scanner, NDP.view, NDP.serve, analysis software, and (ii) the social issue: pathologists, technicians. In order to improve the integration, a joint optimization (of i and ii) is necessary. The developed STS approach will optimize the integration of DP towards improved workflows in clinical environments. The improved workflows will reduce the pathologists turnaround time, improve the certainty of the diagnostics, and provide a more effective patient care within the covered institutions. An overt multi-site Participatory Observation, Questionnaires, and Business Process Modelling Notation will be used to analyse the existing pathological workflows. Based on this, the system will be modelled with the 3lgm2 Toolkit [Winter et al., 2007] under consideration of various technical subsystems that are present in the clinical environment. Afterwards, the interfaces between subsystems and its possible interoperabilities will be evaluated, taking into account the different existing standards and guidelines for image processing and management, as well as business processes in DP. In order to analyse the existing preconditions a questionnaire will be evaluated to establish a robust and valid view. In addition, the overt participatory observation will support this elevation, giving a deeper insight on the social part. This observation also covers the technical side including the whole pathological process. The socio technical model will then reveal measurable potential for optimization with incorporated DP (e.g. higher throughput for slides). The organizational development approach consists of a Socio-Technical System based on overt multi-site participatory observations, questionnaires, business process modelling and 3LGM2, will optimize the use of Digital Pathology in the daily clinical practice and raise the acceptance to incorporate integrate the new technology within the dayly workflow through the user centred process of incorporation.
• Perform and evaluate a questionnaire and a participant observation of pathologists work days in private & public institutions
• Create and evaluate a 3lgm2 model
• Model the current pathological process (viewpoint of pathologist & technical assistant) & perform and evaluate a contextual inquiry to elevate the pathologists requirements & expectations towards the system
• Test the future WF according the model parameters.
This project will detect unsuspected interrelations and interdependencies within the socio- technical workflow with a pathology laboratory. The observation will reveal the action conformity as well as the environment in which the process has to be embedded. Furthermore it will establish an optimized workflow for a specific clinical environment to prepare the implementation of DP. Additionally it will be possible to
quantify digitized images in order to improve decision making and lastly to improve patient care. In the future it will be possible to extend automated image analysis in order to support clinical decision support. Depending on acceptance, this can lead towards an automated clinical decision support for cases with low complexity.
Ziel dieser Bachelorthesis ist es, den Datenbestand des Klinischen Krebsregisters am
Tumorzentrum Heilbronn-Franken auf seine Vollständigkeit, Vollzähligkeit und seine
Repräsentativität zu untersuchen.
Diese werden am Beispiel des Kolorektalen Karzinoms untersucht.
Folgende Fragen lassen sich formulieren:
• Lassen sich mit den in einem einrichtungsbezogenen klinischen Krebsregister, wie
dem am Gesundbrunnen Heilbronn, erhobene regionale Daten ggfs. überregionale und
eventuell sogar bundesweite Aussagen ableiten?
• Sind die erfassten Daten vollständig bzw. wie vollständig sind die Datenbestände der
registrierten Patienten?
• Sind die erfassten Daten im Tumorzentrum Heilbronn-Franken am Gesundbrunnen
Heilbronn vollzählig? Werden im Klinischen Krebsregister der SLK-Kliniken alle
Neuerkrankungen erfasst?
Wird bei einem Patienten mit Kolorektalkarzinom der Tumor erfolgreich entfernt, beginnt die Nachsorgephase. Der Nachsorgeplan, welchen die Patienten bei der
Entlassung erhalten, orientiert sich an der S3-Leitlinie des Leitlinienprogramms für Onkologie. Der Patient kann selbst entscheiden, wo die Nachsorge stattfinden wird. Entweder lässt er seine Nachsorgeuntersuchungen in der Klinik durchführen (klinikinterne Nachsorge) oder er sucht einen niedergelassenen Onkologen auf (klinikexterne Nachsorge). Gegenstand dieser Arbeit ist die Analyse der klinikinternen und
-externen Nachsorge in Bezug auf die Einhaltung der S3-Leitlinie. Ziel ist es, festzustellen, ob anhand der erhobenen Daten Rückschlüsse auf die Leitlinientreue in Bezug auf die Nachsorge der Patienten gezogen werden kann. Im Rahmen dieser Thesis werden Patienten mit einem UICC-Stadium II oder III und einem Diagnosedatum zwischen 2009 und 2013 betrachtet. Basierend auf den Kriterien wurden 562 Datensätze aus dem GTDS exportiert. Nach anschließendem Bearbeiten und Aussortieren wurden 426 Patienten analysiert. Im seit 2001 in Heilbronn eingesetzten Gießener Tumordokumentationssystem (GTDS) werden die Falldaten der Tumorpatienten dokumentiert und gespeichert. Die Verlaufsdaten der
TNM-Dokumentation werden mindestens einmal jährlich zu den Patienten erhoben. Diese Daten werden analysiert, um die Leitlinientreue zu überprüfen.
Der Vergleich zwischen S3-Leitlinie und vorgenommenen Untersuchungen kann sich aufgrund lokaler Dokumentationspraxis nur auf den zeitlichen Ablauf der Untersuchungstermine beschränken, da im GTDS keinerlei Informationen zu der Art der vorgenommenen Untersuchung vorliegen. Um die zeitlichen Abläufe zu analysieren, werden aus den vorliegenden Datumswerten für jeden Patient ein Pfad bestehend aus Zuständen (Tumorfreiheit, Untersuchung 1, etc.) gebildet. Die Übergangswahrscheinlichkeiten
stellen einen Indikator für die Termintreue der Patienten dar. Es wurden 146 Patienten klinikintern und 149 Patienten klinikextern behandelt. 131 Patienten erhielten eine gemischte Nachsorge. Zusammenfassend lässt sich sagen, dass die Informationen aus dem GTDS nicht ausreichen, um eine Leitlinienkonformität der Nachsorge von Kolorektalkarzinompatienten nachzuweisen, da im GTDS ausschließlich der Tumorverlauf dokumentiert wird, aber nicht, wie sich die Nachsorge im Speziellen gestaltet.
Der Zuwachs medizinischen Wissens ist gewaltig, man spricht von einer Verdopplung in unter 10 Jahren[01], dies macht die Analyse historischer Daten zwingend erforderlich. Um dieses Wissen zu beherrschen werden Datenbanken benötigt, in denen man Krankheits- und Therapieverläufe ablegen kann, um diese dann anschließend unter unterschiedlichsten Anforderungen zu analysieren. Im Falle der Krebstherapie gibt es hierfür sogenannte Krebsregister. Hier werden anonymisierte Daten der Patienten gespeichert, wie zum Beispiel der Verlauf der Krankheit und die Therapie. Ziel ist es, dass alle Krebsfälle in irgendeinem Krebsregister gehalten werden. Dies soll zu einer Verbesserung der medizinischen Leistung am Patienten, sowie der Sicherstellung, dass Patienten überall mit neuesten Therapietechniken und Leistungen versorgt werden, führen. Leider werden die Informationen in den Krebsregistern viel zu wenig genutzt, da viele Ärzte und Wissenschaftler oft nicht Ausreichend vertiefte Kenntnisse in Informationstechnologie und/oder Statistik haben. Diese Tatsache macht es für sie schwierig die riesigen Datenmengen, die vorhanden sind, richtig zu analysieren. Um dieses Problem zu beheben kann man nun in regelmäßigen Abständen einen Statistiker beauftragen, der solche Analysen durchführt. Oft haben Ärzte aber statistisch wenig anspruchsvolle Anfragen oder es fällt ihnen erst auf, nachdem der Statistiker wieder gegangen ist. Solange es also eine solche Schwierigkeit darstellt, die Daten richtig zu analysieren, sind die Krebsregister ein Datenfriedhof, deren riesiges Potential nicht ausgenutzt wird. Dieser Zustand ist sowohl für Patienten, als auch für die Ärzte, nicht zufriedenstellend und bedarf dringend einer Änderung. Die Ziele sind: 1. Eine Analyse einer Software zur statistischen Auswertung von Daten aus einem Krebsregister (OCDM-Software), sowohl im Bezug auf ihre Software-Architektur, als auch auf ihre Funktion. 2. Das Erstellen einer Anforderungsanalyse, welche die Erweiterungen beschreibt, die an der oben erwähnten OCDM-Software vorzunehmen sind. 3. Die Umsetzung dieser Anforderungsanalyse in die bestehende Anwendung. 4. Ein abschließender Systemtest der Anwendung, um einen reibungslosen Ablauf im Klinikalltag zu gewährleisten. Ziel der Erweiterung ist es, den Ärzten die Analyse der gesammelten Patientendaten zum Pankreaskarzinom zu vereinfachen und somit die medizinische Betreuung in der Klinik zu verbessern.
Die Popularität der drahtlosen Datenübertragung wächst, seit dem der Standard 802.11 im Jahr 1997 vom Institute of Electrical and Electronics Engineers (IEEE) für die private Nutzung ausgegeben wurde, stetig an. Hierbei beschränken sich die meisten Anwendungen auf das Wesentliche: die Übertragung von Nutzdaten zwischen einem Access Point und verschiedenen Endgeräten. Der konventionelle Weg der Datenverarbeitung in drahtlosen Netzwerk-Modulen sieht vor, dass zunächst digitale Daten in analogen Verfahren moduliert werden. Nach der Übertragung als elektromagnetische Welle, werden die analogen Daten wieder von eingebetteten Systemen in einen digitalen Datenstrom übersetzt und zum Weiterverarbeiten weitergereicht. Durch die steigende Rechenleistung von Computern gibt es auch andere Wege der Übertragung. Mit der Idee, den Datenstrom nicht analog weiterzuverarbeiten, sondern ihn in digitaler Form zu modulieren oder zu demodulieren entstanden die ersten ‚Software-Radios‘. Zu Beginn der drahtlosen Ära wurden Software-Radios zum Beispiel dazu genutzt, um Sicherheitslücken in Wi-Fi Übertragungen zu finden. Heutzutage finden Software-Radios immer mehr Anwendungen in wissenschaftlichen Bereichen abseits der üblichen Datenübertragung. Als alternative Vorreiter gelten die Arbeiten der Universität Washington „Whole-Home Gesture Recognition Using Wireless Signals“ (Quifan et al., 2013a) und die des Massachusetts Institute of Technology „See Through Walls with Wi-Fi“ (Adib F. and Katabi D., 2013). Die erst genannte Anwendung beruht auf der Theorie des Doppler-Effekts für elektromagnetische Wellen und zeigt auf, dass es möglich ist, die Übertragungsverfahren des IEEE 802.11 zu überwachen und Bewegungen nahe den Antennen zu erfassen. Die Zweite zeigt auf, dass ähnliche Ergebnisse auch ohne den Doppler-Effekt sondern nur durch die gemessenen Reflexionen von Signalen erreicht werden können. Die Möglichkeiten dieser Techniken reichen von einer Gestensteuerung, die ohne zusätzliche Sensoren am Menschen auskommt, bis zum Visualisieren von Bewegungen hinter Wänden.
Der Gegenstand der vorliegenden Arbeit ist grundliegende Problematiken der Detektion des Doppler-Effekts in digitalen Modulationen aufzuzeigen. Hierfür werden Grundlagen der Empfangstechnik erläutert. Weiterhin wird der Einsatz aktueller Grafikkarten in Software-Radios zur Detektion des Doppler-Effekts untersucht.
In der Kernresonanzspektroskopie, wie auch in anderen spektroskopischen Disziplinen, unterliegt die
Genauigkeit und Vollständigkeit eines Spektrums den verschiedenen Einstellungen des Messgeräts
sowie dem verwendeten Gerätetypen. Um das gemessene Spektrum besser analysieren zu können,
wird versucht, es an die Realität anzunähern. Eine allgemeine Annahme dazu ist, dass mehrere, sich
teilweise überlagernde Peaks das Spektrum bilden. Alle Peaks verlaufen dabei gemäß einer Funktion,
deren Modellparameterwerte variieren.
Es gibt verschiedene Ansätze zur Bestimmung des Spektrums, zum Beispiel die Modellanpassung und
die Maximum-Entropie-Methode. Eine große, gegen Unendlich strebende Anzahl an Peaks scheint
die gemessenen Spektrumdaten am besten nachzubilden. Dies ist jedoch wenig naturgetreu.
In dieser Arbeit gehe ich dem Bayes’schen Ansatz zur Datenanalyse nach, um die Peakanzahl auszumachen,
für die die größte Wahrscheinlichkeit in den Messdaten liegt.
Während meiner Diplomarbeit hat sich die anfängliche Annahme, dass die Peaks nach der Lorentz-
Funktion geformt sind, revidiert. Letztendlich habe ich versucht, die Bestimmung der Peakanzahl mit
Peaks in Form des Pseudo-Voigt-Profils durchzuführen.
Für die Berechnung der Posterior-Wahrscheinlichkeit einer Peakanzahl war es nötig, ein multiples
Integral zu lösen. Dieses entstand durch die Marginalisierung einiger Störparameter.
Ein Ziel dieser Diplomarbeit war es, das multidimensionale Integral numerisch zu berechnen. Umgesetzt
werden sollte dies mit dem VEGAS-Algorithmus, der das Monte-Carlo-Verfahren zur Integration
verwendet. Ich habe den Algorithmus und die Anwendungen der Arbeit in Matlab implementiert.
Um die Integration mit dem VEGAS-Algorithmus zu testen, habe ich eine Beispielanwendung zur
Integration unterschiedlich dimensionaler Rosenbrock-Funktionen durchgeführt.
Die Anwendung zur Bestimmung der Peakanzahl in einem Spektrum habe ich zunächst für simulierte
Daten mit zwei unterschiedlichen Formeln der Lorentzfunktion umgesetzt.
Die erste Lorentzfunktion enthält zwei Modellparameter, die Lage der Amplitude und die Halbwertsbreite,
und ist zu eins normiert. Bei ihr ist die Amplitude abhängig von der Halbwertsbreite.
Die zweite Formel besteht aus drei unabhängigen Modellparametern: der Amplitude, ihrer Lage und
der Halbwertsbreite. Damit ist sie für die Auswertung realer Messdaten geeigneter als die vorherige
normierte Lorentzfunktion.
Bei der Anwendung mit simulierten Daten mit drei Modellparametern sowie mit gemessenen Daten
und dem Modell des Pseudo-Voigt-Profils konnte die Anzahl der Peaks nicht bestimmt werden.
Die Schwierigkeit der Bestimmung der Peakanzahl mit dem VEGAS-Algorithmus lag anscheinend
bei der Integration über die Amplitude. Zur Klärung des Problems habe ich die Anwendung mit
dem Pseudo-Voigt-Profil und den realen Messdaten über einen anderen Lösungsweg zur numerischen
Integration, mit einer Likelihood-Matrix, untersucht.
Dadurch kam die Vermutung auf, dass die Diskretisierung in y-Richtung durch das Importance
Sampling des VEGAS-Algorithmus nicht konform mit der Messpunktverteilung ist. Ich habe versucht
über eine Präzisionsanpassung der Amplitudenstützwerte das Problem zu lösen, was teilweise gelang.
Die in dieser Arbeit erstellte Anwendung kann zur Plausibilitätsprüfung von Ergebnissen anderer
Bayes’ basierter Verfahren zur Peakanzahlbestimmung dienen.
Mit geschätzten Werten für die Modellparameter aller Peaks wird die multiple Integration mit dem
VEGAS-Algorithmus nicht gebraucht. Die Posterior-Wahrscheinlichkeiten können somit berechnet
werden und eine quantitative Bewertung der Ergebnisse unterschiedlicher Peakzahlen für das gemessene
Spektrum liefern.
Behandlungen von Tumoren zielen in erster Linie auf eine Verlängerung der Überlebenszeit des Patienten ab. Es ist für Ärzte eine Hilfe, wenn zu Beginn der Behandlung die voraussichtliche Überlebenszeit abgeschätzt werden kann. Dies geschieht aktuell oftmals mit Hilfe einer manuellen Einteilung in Risikoklassen. Für diese sind aus Erfahrungswerten typische Überlebenszeiten bekannt. In Zeiten der zunehmenden Digitalisierung ist es nur logisch den Versuch zu starten, die Klassifizierung automatisch vorzunehmen. In dieser explorativen Grundlagenarbeit werden zwei Data Mining–Verfahren — namentlich „naiver Bayes Klassifikator“ und „k–means Clustering“ — auf ihre Fähigkeit bezüglich der Überlebenszeitprognose hin untersucht. Dazu werden verschiedene Feature Selection Verfahren (Information Gain, Expertenselektion, Forward Selection, Backward Elimination und No Selection) getestet. Nach dem k–means Clustering können Kaplan–Meier–Kurven der einzelnen Cluster gezeichnet werden. Aus diesen kann eine Prognose der Überlebenszeit abgelesen werden. Der naive Bayes Klassifikator errechnet nach einer (äquifrequenten oder äquidistanten) Diskretisierung der Überlebenszeit für jeden Patienten individuell eine Überlebens–Wahrscheinlichkeits Verteilung. Das Training der Data Mining–Verfahren erfolgte auf der Basis von Datensätzen kolorektaler Tumorpatienten des Tumorregisters des Tumorzentrums Heilbronn–Franken.
This thesis examines the new major concepts for communicating radiotherapy-related data with DICOM, introduced in Supplement 147. As the existing DICOM information objects, used to transfer radiotherapy-related information, are mostly overloaded and static, new concepts to describe this data are developed at the moment in Supplement 147. These concepts facilitate a more convenient representation of new treatment devices and treatment techniques in DICOM and solve other issues with first-generation DICOM RT objects. Hence Supplement 147 is replacing the entire working concept strategy for a complete domain, and the supplement itself is extensive in comparison to other supplements, an overview whether all these concepts work together just by examining them on a drawing board is hardly possible. Therefore, this thesis investigates the information separation into different Information Object Definitions (IODs), the new radiation prescription object and the new concept to enable abstract access to volumetric objects, which are considered to be the major conceptual changes.
Die chronisch-obstruktive Lungenerkrankung (COPD) schränkt in ihren letzten Stadien die Lebensqualität der Patienten schwerwiegend ein und die einhergehenden Verschlechterungen des Gesundheitszustandes (Exazerbationen) können zum Tode führen. Für die Versorgung von COPD-Patienten im häuslichen Umfeld und Unterstützung im Alltag existieren bereits mobile und technische Geräte. Um eine weitergehende Unterstützung bedarfsgerecht zu planen, müssen Bedürfnisse der Patienten ermittelt und bereits existierende Lösungen zur COPD im Bereich Ambient Assisted Living (AAL) untersucht werden. Daraus können Anforderungen an eine elektronische Gesundheitsakte (eGA) zur Unterstützung von COPD-Patienten abgeleitet werden. Zur Ermittlung der Bedürfnisse wurden Vorgespräche mit COPD-Patienten geführt um einen Interviewleitfaden entwickeln zu können. Der Interviewleitfaden war Grundlage für semi-strukturierte Interviews mit Patienten der Medizinischen Klinik V des Universitätsklinikums des Saarlandes, die an den Untersuchungstagen zu einem Interview bereit waren. Insgesamt wurden zehn Patienten interviewt, zwei Frauen und acht Männer. Anhand der Ergebnisse aus den Interviews konnten wesentliche Bedürfnisse der COPD-Patienten ermittelt werden. Diese sind: Dauerhafter Erhalt von Informationen über die COPD; Kontakt zu Bekannten, Verwandten, Freunden und anderen COPD-Patienten; Mehr nichtmedikamentöse Behandlung; Sofortiger Einblick in die persönlichen medizinischen Daten. Sehr wichtig ist den COPD-Patienten auch, dass sie selbstständig Alltagstätigkeiten meistern können, beziehungsweise Unterstützung bei der Durchführung erhalten und sich in den eigenen vier Wänden sicher fühlen.
Die Online-Enzyklopädie Wikipedia kann für die Analyse der Beziehungen zwischen
Konzepten als wertvolle Datenquelle dienen. Aus ihren klar deffinierten Strukturen,
wie z.B. der baumartigen Kategorisierung, Weiterleitungen, Infoboxen und Links zwischen
Artikeln ergibt sich die Möglichkeit, ausgehend von einem bestimmten Konzept
eine Fülle enzyklopädischen Wissens zu extrahieren, das für viele Anwendungszwecke
in der medizinischen Informatik genutzt werden kann. Trotz der einfachen Verfügbarkeit
von Wikipedia-MySQL-Backups ist es weder besonders intuitiv noch effizient,
diese Beziehungen direkt aus diesen relationalen Datenbanken abzuleiten. Stattdessen
wäre ein weitaus intuitiverer Ansatz für die Datenanalyse, die genannten Strukturen
und ihre Beziehungen zueinander als Knoten und Kanten in einem Graphen abzubilden.
Ausgehend von einem bestehenden Wikipedia-Graph-API zielte diese Arbeit
darauf ab, ein effizientes System zu entwickeln, das Wikipediastrukturen aus einem
MySQL-Backup extrahiert, diese verarbeitet und in eine Graphdatenbank speichert.
Eine Analyse von Graphdatenbank-Managementsystemen im Rahmen dieser Arbeit
ergab, dass Neo4j für diesen Anwendungszweck optimal geeignet ist, da seine Anfragesprache
Cypher eine intuitive Möglichkeit darstellt, Graphdaten zu analysieren. Das
Ergebnis dieser Arbeit ist NeoWiki, ein System, das sowohl eine Möglichkeit zur Generierung
von strukturellen Wikipedia-Graphen bietet als auch als Java Library die
Arbeit mit den erstellten Graph-Entitäten als Java-Objekten unterstützt. Obgleich
derzeit noch Raum für Verbesserungen hinsichtlich der Performance bei der Graphgenerierung
besteht, stellt NeoWiki doch bereits jetzt ein Tool zur intuitiven Analyse
von Wikipedia-Daten dar.
Augmented Reality Anwendungen können in der Medizin Eingriffe erleichtern, beispielsweise durch intraoperative Projektion von Zugangswegen oder Tumo-ren und Risikostrukturen auf den Patienten. Gründe, weshalb die Verwendung von Augmented Reality noch keinen Einzug in den Operationssaal gefunden hat, sind unter anderem eine erschwerte Tiefenwahrnehmung der virtuellen Objekte in der echten Szene und fehlende Möglichkeiten, um die Fülle der zusätzlich visualisierten Objekte zu kontrollieren. Diesen Hindernissen entgegenzutreten ist das Ziel dieser Arbeit. Weiterhin gehört eine echtzeitfähige Implementierung zu den Anforderungen dieser Arbeit, um die Visualisierung im Rahmen eines Projektes zu nutzen, welches Augmented Reality auf mobilen Geräten direkt am Patienten zeigt. Um diese Ziele zu erreichen, wurde zunächst eine Texturprojektion kombiniert mit einem selbstentwickelten Grafikkartenprogramm realisiert, um dem Betrachter die Orientierung innerhalb der Augmented Reality Szene zu erleichtern und die Berechnung der perspektivischen Projektion der Textur zugleich effizient zu halten. Um die Tiefenwahrnehmung in der Szene zu verbessern, wurde ein weiteres Grafikkartenprogramm entwickelt, welches in eine gegebene Oberfläche eine Öffnung zeichnet, durch welche der Betrachter in das Innere des Patienten blicken kann. Weiterhin wurde ein Konzept umgesetzt, mit dessen Hilfe die Anzahl an abgebildeten Objekten in der Augmented Reality Szene gesteuert werden kann. Dieses Konzept dient außerdem der Untergliederung von Objekten in verschiedene Familien, für die dann unterschiedliche Darstellungen umgesetzt werden können. Ergebnis ist sowohl eine sichtbar verbesserte Tiefenwahrnehmung als auch ein Konzept zur Kontrolle der Fülle an abgebildeten Informationen in einer echtzeitfähigen Implementierung.
In dem transregionalen Sonderforschungsbereich SFB/TRR 77 untersuchen Heidelberger und Hannoveraner Wissenschaftler Entstehungsmechanismen und neue Therapieansätze des Leberzellkarzinoms, einer der tödlichsten Tumorerkrankungen unserer Zeit. Die IT-Plattform Pelican, die ein Teil des Gebiets Z2 ist, soll dem Forschungsverbund die softwaregestütze Analyse und die nachhaltige Bereitstellung von Leberkrebs-Forschungsdaten ermöglichen [Ganzinger et al. 2011]. Ein Teil von Pelican soll eine gemeinsame Informationsplattform anbieten, die die biomedizinischen Daten der verschiedenen medizinischen und biologischen Projekte integriert und den beteiligten Projektgruppen biostatistische Programme und projektübergreifende Auswertungen zur Verfügung stellt. Die Integration von Gewebe-, Molekül-, Genetik- und Klinikdaten in eine gemeinsame Plattform ermöglicht Datenerhaltung und umfassende Analysen. Die integrierte Analyse begegnet durch die Verknüpfung verschiedener Forschungsprojekte des SFB/TRR 77 den Herausforderungen der Multidisziplinarität klinischer Forschung und Genforschung. Mit dem Next-Generation DNA Sequencing ist durch Kostenreduzierung und immenser Zeiteinsparung die DNA Sequenzierung einem breiten Spektrum an Wissenschaftlern zugänglich geworden und hat Kompetenzen zur Sequenzierung von zentralen Stellen in die Hände vieler individueller Forscher gelegt [Shendure and Ji 2008, Ding et al. 2010, Wetterstrand 2011]. Die Kombination dieser hochentwickelten Technologien aus der Gentechnik und rechnerbasierten Werkzeugen erlaubt die Beantwortung biologischer Fragestellungen in erheblich umfangreicherer Art und Weise als dies bisher möglich gewesen ist [Shaer et al. 2013]. Die rasche Entwicklung des Next-Generation Sequencing beinhaltet auch das Konstruieren neuer Ansätze zur bioinformatischen Datenanalyse, ohne die kein Informationsgewinn, wie beispielsweise die Entdeckung von Genvariationen, möglich wäre. Das dabei neu gewonnene Wissen kann zu erheblichen Fortschritten in der Krebsforschung führen, beispielsweise wenn es um das Identifizieren der Genomveränderungen einer Tumorzelle geht [Ding et al. 2010]. Anstatt Sequenzierungen in kleinem Maßstab durchzuführen, können Forscher inzwischen Sequenzierungen in weit umfangreicherem Ausmaß realisieren, in denen Informationen von multiplen Genen und Genomen vermessen, dokumentiert und in Datenbanken gespeichert werden können. Die DNA Sequenzen werden nach der Sequenzierung in einer Kette aus vielen Prozessschritten – eine bioinformatische Pipeline – analysiert und verarbeitet. Zu den Einzelschritte, wie zum Beispiel Alignment oder die Entfernung von Duplikaten, gibt es oftmals viele Alternativen.
Bevor eine neue Therapie zur Medikation zugelassen wird, muss sie in einer klinischen Studie ihren Nutzen beweisen. Da heutzutage die besten Ergebnisse bei solchen Fragestellungen aus randomisierten klinischen Studien kommen, ist eine gute Randomisationssoftware für den Ablauf der Studie von einer großen Bedeutung. In Abhängigkeit von dem Studienaufbau wird ein geeigneter Randomisationsalgorithmus für die Zuweisung der Studienteilnehmer zu den Therapien gewählt. Ziel dieser Diplomarbeit ist eine schon bestehende Open Source Software RANDI2 zu analysieren und um ein weiteres Randomisationsverfahren zu erweitern. Dieses Verfahren soll zu der Familie der response-adaptiven Randomisationsverfahren gehören. Im Weiteren werden unterschiedliche Randomisationsalgorithmen mit jeweiligen Vorteilen, Nachteilen und Funktionsweisen vorgestellt. Nachdem ein passendes Verfahren gefunden wird, werden die Möglichkeiten untersucht, ihn in schon vorhandene Software zu implementieren. Anschließend wird die Implementierung gemacht und das Ergebnis getestet. Nach der Erweiterung von RANDI2 soll bei einer response-adaptiven Studie schon während des Ablaufs festgestellt werden können, welche Therapie bessere Ergebnisse erzielt. Mit dieser Kenntnis können mehr Patienten während der Studie eine bessere Behandlung bekommen und früher von dem Nutzen profitieren.
Diese Arbeit entwirft und implementiert ein neues Modul, das den Arzt bei der Arztbriefschreibung am Ende des Behandlungsprozesses unterstützt. Das Modul Arztbriefgenerierung in ENTstatistics erlaubt es dem Arzt als Anwender, per Mausklick aus den strukturierten Daten Text zu generieren und diese in einem Arztbrief darzustellen. Dazu kann er Vorlagen mit flexiblem Inhalt definieren und in diese je nach Empfänger andere Informationen einfließen lassen. Sowohl Vorlage als auch Brief können in einem WYSIWYG-Editor bearbeitet werden. Der Arztbrief wird intern als HL7-CDA-Dokument hinterlegt, einem standardisierten XML-Format für Arztbriefe. Außerdem kann er in die Formate PDF und RTF transformiert werden, falls andere Programme den CDA-Standard noch nicht unterstützen.
Die heutige Software-Entwicklung ist davon geprägt, dass Anwendungen immer komplexer
und aufwändiger werden. Gleichzeitig steigen die Erwartungen der Kunden an
die Qualität der Software.
Für die Software-Entwickler ist die Telemetrie zu einem unverzichtbaren Werkzeug
geworden. Sie ist ein wesentlicher Baustein, um die Beobachbarkeit (Observability)
von Applikationen zu erhöhen und somit die Grundlage für eine bessere Qualität in
der Software Entwicklung. Hierbei ist zu analysieren, welche Bedeutung die Telemetrie
für den gesamten Software Development Life Cyle hat.
Der aktuelle Stand der Software-Telemetrie wird am Beispiel des Projektes OpenTelemetry
dargelegt.
OpenTelemetry hat sich zum Ziel gesetzt, die universelle Plattform für den Austausch
von Telemetriedaten zu werden.
Die Ergebnisse des Projektes OpenTelemetry werden analysiert und bewertet.
A considerable amount of research in the field of modern robotics deals with mobile agents and their autonomous operation in unstructured, dynamic, and unpredictable environments. Designing robust controllers that map sensory input to action in order to avoid obstacles remains a challenging task. Several biological concepts are amenable to autonomous navigation and reactive obstacle avoidance.
We present an overview of most noteworthy, elaborated, and interesting biologically-inspired approaches for solving the obstacle avoidance problem. We categorize these approaches into three groups: nature inspired optimization, reinforcement learning, and biorobotics. We emphasize the advantages and highlight potential drawbacks of each approach. We also identify the benefits of using biological principles in artificial intelligence in various research areas.
Aside from hardware, a major component of a Brain Computer Interface is the software that provides the tools for translating raw acquired brain signals into commands to control an application or a device. There’s a range of software, some proprietary, like MATLAB and some free and open source (FOSS), accessible under the GNU General Public License (GNU GPL). OpenViBE is one such freely accessible software. This thesis carries out a functionality and usability test of the platform, looking at its portability, architecture and communication protocols. To investigate the feasibility of reproducing the P300 xDAWN speller BCI presented by OpenViBE, users focused on a character on a 6x6 alphanumeric grid which contained a sequence of random flashes of the rows and columns. Visual stimulus is presented to a user every time the character they are focusing on is highlighted in a row or column. A TMSi analog-to-digital converter was used together with a 32-channel active electrode cap (actiCAP) to record user’s Electroencephalogram (EEG) which was then used in an offline session to train the spatial filter algorithm, and the classifier to identify the P300 evoked potentials, elicited as a user’s reaction to an external stimulus. In an online session, the users tried to spell with the application using the power of their brain signal. Aspects of evoked potentials (EP), both auditory (AEP) and visual (VEP) are further investigated as a validation of results of the P300 speller.
Es ist bekannt, dass Sport wichtig für unser Wohlbefinden ist. Darüber hinaus ist körperliche Aktivität gesundheitsfördernd. Bei fast allen kardiovaskulären Erkrankungen wird ergänzend zur medikamentösen Behandlung ein Gehtraining verschrieben („Sport auf Rezept“). Bedauerlicherweise wird Sport in der heutigen Gesellschaft viel zu sehr vernachlässigt. Ein konsequentes Gehtraining ist speziell im Bereich der peripheren Durchblutungsstörungen ausschlaggebend. In Anbetracht dessen ist es erforderlich, dass die Durchführung des Trainings mittels geeigneter Software von Ärzten engmaschig überwacht werden kann. In diesem Zusammenhang wird in Zusammenarbeit mit Herrn Prof. Dr. med. Thomas Dengler, Direktor der medizinischen Klinik I im Klinikum am Plattenwald, ein Dokumentations- und Überwachungssystem für medizinisches Gehtraining bei Patienten mit peripherer arterieller Verschlusskrankheit entwickelt.
Anhand der Beschleunigungssignale des Oberkörpers, die mit einem mobilen Messsystem (Brustgurt) aufgezeichnet wurden, sind Erkennungsverfahren für Kniebeugen und Liegestützen entwickelt worden. Die 20 rekrutierten Probanden sind in 2 Kollektive aufgeteilt. Das erste Kollektiv besteht aus 5 und das zweite Kollektiv auf 15 Probanden. Beide Probandenkollektive führten ein Bewegungsprogramm durch, das aus 5 Kniebeugen und 5 Liegestützen besteht. Somit konnten die Erkennungsverfahren mit 100 aufgezeichneten Bewegungen je Bewegungsart auf ihre Erkennungsrate getestet werden.
Die meisten Internetzugriffe erfolgen heute über das Smartphone. Während vor dem Jahr
2010 überwiegend der PC dafür verwendet wurde, nutzten 2016 81% aller Internet-User
ein Mobiltelefon für den Online-Zugang [1]. Die digitale Modulation von HF-Signalen ist
dabei immer von Bedeutung, unabhängig ob WLAN oder ein Mobilfunkstandard, wie
LTE angewandt wird. Die Weiterentwicklung drahtloser Kommunikationstechnik für das
Internet erscheint als interessante Alternative zur leitungsbasierten Anbindung an das
Breitbandnetz. Der Ausbau mit Glasfaserkabeln ist kostenintensiv, zeitaufwendig und
bei der Versorgung abgelegener Orte für den Provider unrentabel. Aus technischer Sicht
können drahtlose Anbindungen sogar zu einer Verringerung zeitlicher Verzögerungen
führen. Die Ausbreitungsgeschwindigkeit elektromagnetischer Wellen ist in Luft höher
als in Kupfer oder Glas [2]. Das Mobilfunknetz ist allerdings nicht zur flächendeckenden
Internetversorgung von PCs vorgesehen. Alle Online-Zugriffe durch Mobilfunk in einem
bestimmten Gebiet erfolgen über die selbe Funkzelle einer Basisstation. Bei gleichzeitiger
Benutzung durch viele Teilnehmer, reduziert sich die Datenrate merklich. Einige Mobilfunkbetreiber
verbieten rechtlich die ausschließliche Nutzung des Mobilfunk-Internets für
PCs [3]. Die Zugangskosten für den Verbraucher sind deutlich teurer als bei DSL. Zudem
existieren kaum Tarife für unbegrenzten Zugang. Genauso wie beim Leitungsnetz sind lokale
Schwankungen der Internetgeschwindigkeit vorhanden. Während beim Kabelzugang
die Geschwindigkeit vorherbestimmt werden kann, ist sie beim Mobilfunk individuell
auszutesten. Notebooks und Desktop-PCs besitzen in der Regel keine Empfangseinrichtung
für Mobilfunk. LTE-Router übersetzten das Protokoll in den WLAN-Standard.
Diese Umwandlung erfolgt durch separate Geräte oder als integrierte Funktion in einem
Smartphone (Hotspot). Einige dieser Router bieten auch einen Kabelzugang zum PC,
um die Verluste der WLAN-Verbindung zu vermeiden. Sie werden häufig in Form von
USB-Sticks angeboten. Die private Nutzung des Mobilfunk-Internets für PCs ist also
mit Einschränkungen verbunden. Für Unternehmen ist dies meist nicht hinnehmbar.
Die geschilderten Hindernisse bedeuten allerdings nicht, dass das Internet grundsätzlich
leitungsgebunden vermittelt wird und in drahtlose Online-Technologien zukünftig keine
Investitionen fließen. Die Richtfunkanbindung von Basisstationen erfolgt, wenn sich
das Verlegen von Leitungen nicht lohnt (Abbildung 1). Die Umwandlung im Großen ähnelt
dem Prinzip der privaten Hotspots. Eine Richtfunkantenne empfängt die gebündelte
elektromagnetische Energie. Nach der Umwandlung senden mehrere Sektorantennen mit
Rundstrahlcharakteristik die Wellen in das Umfeld des Masts. Außerdem ist die weitere
Übertragung nach einer Richtfunkstrecke durch ein Kabel möglich. Dementsprechend
kann das Internet über Richtfunkabschnitte zum Verbraucher gelangen, auch wenn es
schließlich beim Router über ein Kabel ankommt.
The aim of this master’s thesis is the design and implementation of a dedicated software system, for planning and implementation of occupational therapy intervention and research studies, in a driving simulator environment. In the first part, the concept based on user requirements is presented. It consists of architectural patterns and guidelines with the main focus on utility and application security. The result of this part is the design of a web application which supports integration in a clinical as well as a research environment. The second part presents the reference implementation of the previously introduced concept. It was developed under a case study in a research facility which hosts a driving simulator. A close cooperation and the influence the researcher’s experience led into a product which provides advanced usability for the target users. In conclusion, the thesis validated the concept indirectly under a testing phase of the reference implementation. It provides the base for a follow-up project to refine the software product and extend the concept to different fields of application.
Background: Stroke rehabilitation is a complex process that requires collaboration between stroke patients
and various health professionals. One important component of the rehabilitation is to set goals collaboratively with health professionals. The goal setting process can be time-consuming. In many cases, it is complicated for the patient and difficult to track for the health professionals. A simple user interface that supports patients, their family members and health professionals can help both sides to make the goal setting and attainment process easier.
Objectives: The aim is to design and develop a software for the goal attainment process of stroke patients with milder disabilities that facilitates goal setting process and the traceability of the goal progress for patients and health professionals.
Methods: Based on previous evaluated results, the web interface was developed and improved. Using this knowledge, a goal setting interface was added. To analyze the the goal setting process, goal attainment scaling (GAS) was included as well as parts of the International Classification of Functioning, Disability and Health (ICF) core set for stroke. The results were discussed afterwards in focus groups and evaluated based on two stroke patients, one family member and health professionals.
Results: We developed an interactive prototype, that can aid the rehabilitation at home by inserting
problems with ICF codes and different kinds of goals, creating new activities and tracing goal progress by reviewing the different goals. With the help of the GAS the outcome of the patient’s goals are visualized by a line chart presenting the positive or negative outcomes of the stroke rehabilitation.
Conclusion: The interactive prototype showed that it can support stroke patients during their rehabilitation
at home. A usability test indicated that the goal setting and attainment process was perceived as useful for patients and their family members. Small improvements have to be made to simplify use and error handling. For health professionals, the prototype could also simplify the documentation process by using ICF in the prototype, and also improving collaboration when using the tool for coordination.
Background: An important factor in approaching the challenges of chronic diseases, requiring long-term management and high costs, is the active participation of the patient in the care process. Objectives: Facing the problem of lacking patient-tailored, comprehensive health management software, the aim of this thesis is to generate ideas for a graphical user interface (GUI) to support stroke patients in the management of their individual care process. The objectives are to prototype a GUI for a patient e-service and to evaluate its usefulness and usability with stroke patients. Methods: A scenario-based, user-centered design method was used to envision ideas for the user interface. Static prototypes were realized with the tool Pencil and for the implementation of a dynamic prototype web programming techniques were used. For the evaluation of the prototypes the methods of focus group discussion and cooperative evaluation were applied. Results: The situation of a representative stroke patient and his interaction with the e-service were described in scenarios. Graphical user interfaces of the involved system views were derived from the scenarios and illustrated with static wireframe prototypes. A welcome screen, a care process timeline overview, and a diary with data sharing functionality were designed. The diary functionality was further examined by implementing a prototypical web application. During the evaluation, feedback for further improvements was gathered, and assumptions about the user information and functionality needs could be verified. Conclusion: The developed prototypes represent a suitable graphical user interface and visualizations to support stroke patients in the management of their care process. An overview of appointments on the welcome screen, a diary to document and monitor health, a timeline overview of all time-related health information and a selected sharing functionality were found to be important features of a personal health system for stroke patients.
Development and validation of a neural network for adaptive gait cycle detection from kinematic data
(2020)
(1) Background: Instrumented gait analysis is a tool for quantification of the different
aspects of the locomotor system. Gait analysis technology has substantially evolved over
the last decade and most modern systems provide real-time capability. The ability to
calculate joint angles with low delays paves the way for new applications such as real-time
movement feedback, like control of functional electrical stimulation in the rehabilitation
of individuals with gait disorders. For any kind of therapeutic application, the timely
determination of different gait phases such as stance or swing is crucial. Gait phases are
usually estimated based on heuristics of joint angles or time points of certain gait events.
Such heuristic approaches often do not work properly in people with gait disorders due to
the greater variability of their pathological gait pattern. To improve the current state-ofthe-
art, this thesis aims to introduce a data-driven approach for real-time determination
of gait phases from kinematic variables based on long short-term memory recurrent neural
networks (LSTM RNNs).
(2) Methods: In this thesis, 56 measurements with gait data of 11 healthy subjects,
13 individuals with incomplete spinal cord injury and 10 stroke survivors with walking
speeds ranging from 0.2 m
s up to 1 m
s were used to train the networks. Each measurement
contained kinematic data from the corresponding subject walking on a treadmill for 90
seconds. Kinematic data was obtained by measuring the positions of reflective markers on
body landmarks (Helen Hayes marker set) with a sample rate of 60Hz. For constructing a
ground truth, gait data was annotated manually by three raters. Two approaches, direct
regression of gait phases and estimation via detection of the gait events Initial Contact
and Final Contact were implemented for evaluation of the performance of LSTM RNNs.
For comparison of performance, the frequently cited coordinate- and velocity-based event
detection approaches of Zeni et al. were used. All aspects of this thesis have been
implemented within MATLAB Version 9.6 using the Deep Learning Toolbox.
(3) Results: The mean time difference between events annotated by the three raters
was −0.07 ± 20.17ms. Correlation coefficients of inter-rater and intra-rater reliability
yielded mainly excellent or perfect results. For detection of gait events, the LSTM RNN
algorithm covered 97.05% of all events within a scope of 50ms. The overall mean time
difference between detected events and ground truth was −11.62 ± 7.01ms. Temporal
differences and deviations were consistently small over different walking speeds and gait
pathologies. Mean time difference to the ground truth was 13.61 ± 17.88ms for the
coordinate-based approach of Zeni et al. and 17.18 ± 15.67ms for the velocity-based
approach. For estimation of gait phases, the gait phase was determined as a percentage.
Mean squared error to the ground truth was 0.95 ± 0.55% for the proposed algorithm
using event detection and 1.50 ± 0.55% for regression. For the approaches of Zeni et al.,
mean squared error was 2.04±1.23% for the coordinate-based approach and 2.24±1.34%
for the velocity-based approach. Regarding mean absolute error to the ground truth, the
proposed algorithm achieved a mean absolute error of 1.95±1.10% using event detection
and one of 7.25 ± 1.45% using regression. Mean absolute error for the coordinate-based
approach of Zeni et al. was 4.08±2.51% and 4.50±2.73% for the velocity-based approach.
(4) Conclusion: The newly introduced LSTM RNN algorithm offers a high recognition
rate of gait events with a small delay. Its performance outperforms several state-of-theart
gait event detection methods while offering the possibility for real-time processing
and high generalization of trained gait patterns. Additionally, the proposed algorithm
is easy to integrate into existing applications and contains parameters that self-adapt
to individuals’ gait behavior to further improve performance. In respect to gait phase
estimation, the performance of the proposed algorithm using event detection is in line
with current wearable state-of-the-art methods. Compared with conventional methods,
performance of direct regression of gait phases is only moderate. Given the results,
LSTM RNNs demonstrate feasibility regarding event detection and are applicable for
many clinical and research applications. They may be not suitable for the estimation
of gait phases via regression. For LSTM RNNs, it can be assumed, that with a more
optimal configuration of the networks, a much higher performance is achieved.
In dieser Arbeit wird eine Software entwickelt, um das Koppeln des Thalmic MYOArmbands
mit dem Stimulator MotionStim8 zu vereinfachen. In einer vorherigen Arbeit
[15] wurden für die Kopplung MATLAB Skripte benutzt. Diese sollen durch die
Software vollständig ersetzt werden. Auÿerdem soll der Stimulator eine drahtlose Anbindung
über zwei British Broadcasting Corporation (BBC) micro:bit Systeme erhalten.
Dazu wird zuerst eine Anforderungsanalyse durchgeführt, woraus konkrete UseCases der
Software formuliert werden konnten. Hierzu werden aus der Problemstellung und den
daraus resultierenden Zielen dieser Arbeit Funktionale und nicht-Funktionale Anforderungen
extrahiert. Es müssen Gesten, sowie deren Myo- und Stimulations-Daten verwaltet
werden können. Auch müssen sowohl Myo-Armband als auch MotionStim8 drahtlos
angebunden, sowie gekoppelt werden.
Nachdem die Anforderungen feststehen, wird ein Konzept zur Umsetzung entwickelt.
Dazu wird eine Entwicklungsumgebung gewählt und eine Softwarearchitektur ausgearbeitet.
Es wird ein Model-View-Controller (MVC)-Modell angestrebt. Für die Entwicklungsumgebung
der Steuersoftware wird VisualStudio, bzw. C#, und für die drahtlos
Anbindung Mu, bzw. MicroPython, verwendet. Auch wird eine Übersicht über die Komponenten
angefertigt. Daraus sind die Hardware-Schnittstellen, PC zu micro:bit, micro:
bit zu micro:bit, micro:bit zu MotionStim8, sowie Myo-Armband zu PC, ableitbar.
Für das Myo-Armband existieren bereits Software-Bibliotheken, welche eingebunden werden
können und somit das Entwickeln einer eigenen Schnittstelle nicht notwendig machen.
Zum Schluss der Konzeption werden Ideen für eine Benutzeroberäche erarbeitet. Dafür
werden die Nicht-Funktionalen Anforderungen, modularer Aufbau sowie Benutzerfreundlichkeit
und Übersichtlichkeit, aus der Anforderungsanalyse aufgegrien. In dieser Phase
werden bereits erste MockUps erstellt.
Die Implementierung ndet in zwei Schritten statt.
Die Drahtlosfunktion, bzw. der Python-Teil, kann separat entwickelt werden. Dafür werden
die seriellen Schnittstellen, PC zu micro:bit und micro:bit zu MotionStim8, sowie
die Übertragung zwischen den beiden micro:bits implementiert. Auÿerdem werden die
Befehle im micro:bit an die benötigte Command Structure des Stimulators angepasst.
Die Steuersoftware beinhaltet eine Graphical User Interface (GUI) mit modulübergreifenden
Funktionen. Die einzelnen Module, Myo Controller, Stimulation Controller und
Gesture Controller besitzen ihre eigene Oberäche und können in die GUI modular integriert
werden. Die Gesten-, Myo- und Stimulations-Daten können über das jeweilige
Modul verwaltet werden. Über das Beenden der Anwendung hinaus werden alle Daten
in einer Extensible Markup Language (XML)-Datei gespeichert. Die Kopplung des Myo-
Armbands mit dem MotionStim8 ndet über einen Mapper statt, welcher eine Mapping-
Matrix für eine Geste errechnet. Dafür müssen vorab Myo- und Stimulations-Daten für
jede Position dieser Geste gesetzt werden. Die Echtzeitfunktion wird übergeordnet über
die GUI gestartet und berechnet für eingehende Myo-Daten die Pulsweiten für die Stimulation.
Für diese Berechnung wird die Mapping-Matrix benötigt.
Hiernach kann die entwickelte Steuersoftware für die denierten Anforderungen, bzw.
UseCases, verwendet werden.
Dynamische Feldschwächung bei am einphasigen Netz betriebenen EC-Motoren mit schlankem Zwischenkreis
(2017)
Die vorliegende Arbeit beschäftigt sich mit dem Betrieb von einphasig gespeisten ECLüftermotoren
mit schlankem Zwischenkreis. Beim einphasigen Industrienetz besteht das
Problem, dass im Lüftermotor aufgrund der bis auf null Volt pulsierenden Zwischenkreisspannung
ein Luftspaltdrehmoment mit hohem Anteil an Oberschwingungen auftritt. Um
dies zu vermeiden, müssen in der Praxis diskrete Speicherelemente wie
Elektrolytkondensatoren und Eisenkerndrosseln als Energiespeicher in den Zwischenkreis
des Umrichters eingebaut werden. In der vorliegenden Arbeit wird ein neuartiges Verfahren
vorgestellt, welches ein nahezu konstantes Luftspaltdrehmoment bei einphasig gespeisten
EC-Lüftermotoren mit schlankem Zwischenkreis gewährleistet. Mit dem Verfahren, der so
genannten dynamischen Feldschwächung, können die bislang erforderlichen Energiespeicher
wie Spulen und Elektrolytkondensatoren ersetzt werden.
Zur Herleitung des Verfahrens der dynamischen Feldschwächung sind auf der Basis eines
sättigungsfrei und damit linear arbeitenden Lüftermotors die notwendigen mathematischen
Grundgleichungen entwickelt worden. Der Ansatz eines sättigungsfrei arbeitenden
Lüftermotors erlaubt die einfache Umsetzung einer Konstruktionsvorschrift für einen speziell
auf das Verfahren abgestimmten Motor auf Basis der regelungstechnisch relevanten
Motorparameter. Mithilfe eines nichtlinearen Kalman-Filters zur automatischen Bestimmung
der regelungstechnischen Motorparameter wird dann der gebaute sättigungsfrei arbeitende
Lüftermotor auf einem Prüfstand vermessen. Dabei hat sich gezeigt, dass das Verfahren der
dynamischen Feldschwächung eine gute Übereinstimmung zwischen den analytischen und
den simulierten Ergebnissen liefert.
Das Verfahren der dynamischen Feldschwächung kommt bei einer mittleren Motorleistung
von etwa P123 = 200 W und einem Wirkungsgrad von ca. η = 80 % mit einer sehr kleinen
Zwischenkreiskapazität von Czk = 14 μF aus. Im Vergleich dazu benötigt ein Serienlüftermotor
eine Zwischenkreiskapazität von Czk = 204 μF.
Diese Bachelorarbeit trägt den Titel „E-Learning in der Medizin im französischen Sprachraum insbesondere mit virtuellen Patienten“. Sie skizziert, was sich hinter E-Learning im medizinischen Bereich und virtuellen Patienten verbirgt und betrachtet die vorherrschende Situation in diesem Bereich in französischsprachigen Ländern/Regionen näher. Durch die Entwicklung von Informations-und Kommunikationstechnologie(IKT)hat sich der Austausch von Daten unabhängig von Raum und Ort stark weiterentwickelt. Dank dieser Evolution hat sich das Prinzip vom Lernen in nahezu allen Bereichen durch Suchmaschinen, Wissensdatenbanken oder Computersimulationen im Laufe der Zeit und speziell in den letzten 20 Jahren extrem stark verändert und spielt täglich eine große Rolle im Lernprozess von Menschen und dem Umgang mit vorhandenem Wissen. Im Allgemeinen hängt die Art des Lernens mit Hilfe von digitalen oder elektronischen Medien häufig mit der wirtschaftlichen Situation und internen Kultur eines Landes zusammen. Die positive Entwicklung des Landes und des sozialen Lebensstands der Menschen begünstigt demnach Fähigkeit neue Technologien einzusetzen und sie effektiv zu nutzen. Die Idee für die bestehende Arbeit entstand bei der Feststellung in der Fakultät für Informatik an der Hochschule Heilbronn, dass es noch keine Informationen über E-Learning und Einsatz von virtuellen Patienten in den französischsprachigen Ländern gibt. Dem Lernen mit Hilfe des Computers kommt in der Medizin eine große Bedeutung zu. Es ermöglicht sich selbst effektiv aus-und weiterzubilden, effizienter (schneller!) auf benötigte Informationen zuzugreifen. Ein weiterer Vorteil besteht darin, dass die Lernenden nicht in direktem Kontakt mit dem Lehrenden und anderen Lernenden stehen müssen. Das Zieldieser Arbeit ist, ein Licht in das Konzept von E-Learning und virtuellen Patienten in der französischen Welt zu bringen .Zum tieferen Verständnis werden im ersten Teil der Arbeit Begriffe und Definitionen vorgestellt, zudem die Grundlagen, Voraussetzungen und Ziele für ein effektives E-Learning erläutert. Im zweiten Teil der Arbeit werden das E-Learning und der virtuelle Patientin Bezug auf ihre Potentiale und vorhandene Ausprägungen analysiert. Die Vor-und Nachteile von E-Learning werden im Bezug auf seine Verwendung gegeben. Da sich diese Arbeit vornehmlich auf den französischen Sprachraum konzentriert, ist zur Einordnung der Ergebnisse ein Vergleich mit anderen Sprachräumen sinnvoll. Dadurch soll gezeigt werden inwiefern sich die sich das E-Learning mit virtuellen Patienten zu dem in anderen Sprachräumen unterscheidet.
Medical imaging produces many images every day in clinical routine. Keeping up with the
daily image analysis task and this vast amount of data is quite a challenge for radiologists.
However, these analysis tasks can be automated with well-proven automatic segmentation
methods. Segmentation reviewing of an expert is necessary because learningbased
automatic segmentation methods may not perform well on exceptional image
data. Creating valid segmentations by reviewing them also improve the learning-based
methods.
Combining established standards with modern technologies creates a flexible environment
to efficiently evaluate multiple segmentation algorithm outputs based on different metrics
and visualizations and report these analysis results back to a clinical system environment.
The presented software system can inspect such quantitative results in a fast and intuitive
way, potentially improving the daily repetitive segmentation review and rework of a
research radiologist. The presented system is designed to be integrated into a virtual
distributed computing environment with other systems and analysis methods. Critical
factors for this particular environment are the handling of many patient data and routine
automated analysis with state of the art technology.
First experiments show that the time to review automatic segmentation results can be
roughly divided in half while the confidence of the radiologist is enhanced. The system
is also able to highlight individual slices which are essential for the expert’s review
decision. For this highlighting, different metric scores are compared and evaluated.
Effiziente Berechnung von Kookkurrenzwerten unter Verwendung von öffentlichen Suchmaschinen-Indizes
(2012)
Im Kern der Bachelorarbeit steht die Berechnung der semantische Nähe zwischen zwei medizinischen Konzepten. Es ist das primäre Ziel, ein Verfahren zu implementieren, welches durch Verwendung von Suchmaschinen-Indizes Signifikanzwerte für die Konzeptrelationen von sogenannten Wiki-Graphen berechnet [Hei11]. Derartige Datenstrukturen finden in sogenannten Health Recommender Systemen (HRS) zur Berechnung von Empfehlungen Anwendung ([WP10], [Hei11]). Ein besonderes Augenmerk liegt auf der Skalierbarkeit der zu entwickelnde Softwarekomponente. Da eine sehr hohe Anzahl an zu verarbeitenden Konzeptrelationen, d.h. Kanten im Wiki-Graphen, vorliegt und die Antwortzeit von öffentlichen Suchmaschinen-APIs limitiert ist, wurde eine verteilte Berechnung mit Hilfe eines Rechenclusters konzipiert.
Im Zeitalter der Informationsgesellschaft stellt das Internet eine zentrale Bedeutung für die Wissens- und Informationsbeschaung dar. Immer mehr Menschen informieren sich mit Hilfe des Internets über das Thema Gesundheit. Gerade im Gesundheitssektor ist es wichtig, aus der großen Masse an Informationen diejenigen Quellen herauszufinden, die inhaltlich korrekt, d.h. keine Fehlinformationen enthalten, und möglichst vollständig sind, da falsche Informationen für den Nutzer sogar gesundheitsschädliche Konsequenzen haben könnten. Als Laie medizinische Begriffe oder Zusammenhänge zwischen zwei oder mehreren Begriffen zu verstehen ist schwierig. Bei der Fülle an Informationen, die im Web angeboten werden ertrinkt der Nutzer sprichwörtlich an der Informationsflut. Die freie Online-Enzyklopädie Wikipedia scheint in diesem Kontext eine vielversprechende Quelle zur Informationsbeschaung zu sein. Der Gesundheitssektor der Wikipedia umfasst in der deutschen Sprache ca. 92.000 Artikel. In der englischen Sprache sind es ungefähr 350.000 Artikel. Im Rahmen einer Diplomarbeit an der Hochschule Heilbronn, wurde von B. Trinzcek ein Framework zur Darstellung der Wikipedia als Graph entwickelt. Durch die Verlinkungen in den Artikeln ist es möglich, Zusammenhänge zwischen verschiedenen Artikeln und somit Begriffen zu visualisieren. Der durch das Framework erstellte Graph der Domäne Gesundheit wird als Gesundheitsgraph bezeichnet [27].
Mobile-Anwendungen nehmen eine zentrale Rolle in der IT-Branche ein und gewinnen zunehmend an Bedeutung. Unzählige Softwarelösungen, wie beispielsweise in den Bereichen Schulung, Banking, Navigation oder Logistik, stehen den privaten und kommerziellen Nutzern als Mobile-Anwendung zur Verfügung. An der Hochschule Heilbronn steht derzeit das Stundenplan-System „SPlan“ zur Verfügung, welches den Studierenden, Mitarbeitern und Dozenten einer Suchanfrage nach Stundenpläne und dem Raumbelegungspläne des jeweiligen Semesters ermöglicht. Für eine benutzerfreundlichere und effektivere Nutzung dieses Stundenplan-Systems entstand die Idee, dieses System im Rahmen meiner Diplomarbeit als Mobile-Anwendung bereit zu stellen. Das für diese Diplomarbeit konkretisierte Ziel ist nun, das Stundenplan-System „SPlan“ in eine Mobile-Anwendung, basierend auf dem Android-Betriebssystem, umzusetzen. Mithilfe der mobilen-Anwendung kann der Anwender die Stundepläne des betreffenden Semesters mit den entsprechenden Studiengängen und die jeweils zugehörigen Studentengruppen anzeigen lassen. Genauso können für den Raumbelegungspläne des betreffenden Semesters, die Standorte und die jeweils zugehörigen Räume definiert werden. Optional bietet sich die Möglichkeit, Einzelbuchungen und Blockveranstaltungen der beiden Suchanfragen anzeigen zu lassen. Außerdem werden die Suchanfragen automatisch anhand der gewählten benutzer-spezifischen Eingaben als Profil in der Anwendung gespeichert. Somit lässt sich die Anwendung personalisieren.
Heutzutage ist es für Unternehmen immer wichtiger, dass man in kürzester Zeit die richtigen Informationen erhalten kann, um Entscheidungsprozesse optimal bilden zu können. Die Informationstechnologie lässt sich zurzeit in der Welt weit und breit nutzen. Sie kann nicht nur den Daten sammeln und austauschen, sondern auch kann die Informationen systematisch und rapid verarbeiten, verwalten, analysieren und interpretieren. Die wachsende Datenmenge und Komplexitat erfordert immer stärker Analyseinstrumente gewinnen an Bedeutung. In großen Unternehmen Umgebungen stoßen einfache Abfrage Werkzeuge für den Datenzugriff schnell an die Grenzen ihre Leistungsfähigkeit und der Performance-Gewinn wird auch zum zentralen Thema. Aus diesen Gründen wird das Unternehmen T-Mobile den Analysewerkzeuge, den sogenannten OLAP (Online Analytical Processing)-Tools, einsetzen, um die Daten in sogenannten mehrdimensionalen Tabellenstrukturen flexibel und schnell analysieren bzw. auswerten zu können. Ein weiterer Punkt warum das Analysieren der Call Daten interessant sein könnte ist das Überwachen von Fehlern. Durch diese Technologie kann die Lösungsqualität hinsichtlich der zu verarbeitenden Komplexität erhöht werden. Als Grundlage für die OLAP Anfragen wurde zunächst ein Data Warehouse aufgebaut, in dem die Daten aus dem Quellsystem integriert und strukturiert bereitgestellt werden. Des weiteren ist zu erstellen, in wie weit der Einsatz von Reporting-Tools und zusätzlicher OLAP-Werkzeuge, um die gewünschten Berichtsfunktionalitäten zu ermöglichen. Diese Funktionalitäten sollen Schließlich in geeigneter Weise umgesetzt und bereitgestellt werden. Dabei sind die Anforderungen der Mitarbeiter und damit der Benutzer des Systems und die Rahmenbedingungen der Firma T-Mobile, z.B. bezüglich Auswahl der Software, zu berücksichtigen.
Im Zuge einer immer weiter voranschreitenden Digitalisierung der medizinischen Dokumentation und der Abläufe in den Kliniken, aufbauend auf die Einführung der elektronischen Patientenakte (EPA), ist Hagen Hupperts vom Geschäftsbereich IT der Berliner Charité überzeugt, dass „der Klinische Arbeitsplatz der Zukunft … mobil“ ist. Damit ist vor allem die mobile Visite gemeint, deren Infrastruktur und Möglichkeiten immer weiter optimiert werden (sollen). Grundsätzlich sind „Visiten … ein wichtiges Element im Behandlungsprozess und gehören im Krankenhaus zur täglichen Routine. Ärzte und Pflegekräfte gehen gemeinsam von Bett zu Bett, um den gesundheitlichen Zustand und die gesundheitliche Entwicklung der einzelnen Patienten zu bewerten und die weitere Behandlung zu planen.“ [1] In einem Pilotprojekt der Berliner Charité wurde die Nutzbarkeit von Tablet-PCs in Zusammenarbeit mit der Siemens AG und SAP untersucht. Die Fachabteilung der Neurologie arbeitet momentan mit dem Krankenhausinformationssystem i.s.h. med und dem digitalen Archiv Soarian Health Archive, kurz SHA. Nachdem in einer ersten Phase 2010 die Neurologische Klinik mit WLAN ausgestattet und in Eigenregie eine mobile Visite mit Laptops aufgebaut wurde, sollte nun der nächste Schritt mit Tablets gegangen werden. Über die App „SAP Electronic Medical Record (EMR)“ kann sowohl auf das KIS und das SHA zugegriffen werden, als auch auf das Bildarchivierungssystem.
Einleitung: Die Datenerhebung in klinischen Studien erfordert eine ausgiebige, gewissenhafte Dokumentation. Dafür werden nicht nur vom Personal Informationen gewonnen, sondern z.T. auch von Patienten mit Hilfe von Fragebögen erhoben. In der chilenischen PRECISO-Studie wird zur Verwaltung und Erfassung von Studiendaten OpenClinica (OC) verwendet. Zur mobilen Patientenbefragung soll die am Institut für Medizinische Informatik (IMI) der Universitätsklinik Münster (UKM) entwickelte Anwendung MoPat2 eingesetzt werden. Dafür sollen die "Operational Data Model" (ODM)-Import- und Export-Funktionen von OC und MoPat2, beispielhaft anhand der "Quality of Life" (QOL)-Bögen der PRECISO-Studie, auf ihre syntaktische und semantische Kompatibilität getestet, Diskrepanzen dokumentiert und die Implementierung in MoPat2 angepasst werden. Mit der Arbeit soll bewertet werden, mit welchen Arbeits-/Interpretationsschritten der ODM-Standard für solch ein Projekt ein geeignetes Datenaustauschformat darstellt.
Methodik: In allen Arbeitsschritten wurde iterativ getestet, Fehler analysiert und verbessert. Basierend auf der Analyse wurden an der Struktur der aus OC exportierten ODM-Datei Ände-rungen vorgenommen. Aus der ODM-Datei wurden die Metadaten in MoPat2 importiert und daraus der QOL-Fragebogen generiert. Mit dem QOL-Bogen wurden Befragungen getestet und Fehler ausgewertet. Für den Export aus MoPat2 wurde die Implementierung der ODM-Export-Funktion erweitert.
Ergebnisse: Nur durch Änderungen konnten die Metadaten nach MoPat2 importiert und zur Generierung des QOL-Bogens genutzt werden. Befragungen mit dem QOL-Bogen haben sich als möglich aber fehlerbehaftet erwiesen. Durch Implementierungen in MoPat2 konnten mit Hilfe eines ExportTemplates Patientendaten ODM-konform exportiert werden.
Diskussion: Der ODM-Standard ist im Anwendungsfall zum Datenaustausch zwischen OC und MoPat2 gut nutzbar, jedoch mussten trotz Verwendung des Standards diverse Änderungen vorgenommen werden. Die Ergebnisse zeigen somit auf, dass die ODM-Schnittstellen beider Anwendungen erweitert und aufeinander angepasst werden müssen, um einen fehlerfreien Studiendatenaustausch zu ermöglichen.
Die Versorgung und Unterstützung von Palliativpatienten stellt häufig hohe Anforderungen an deren Angehörige. Es ist wenig bekannt über den Informationsbedarf dieser Angehörigen und deshalb können sie nicht immer optimal nach ihren Bedürfnissen unterstützt und informiert werden. Ferner ist nicht genügend erforscht, wie Angehörige motiviert werden können, um über bekannte Anforderungen hinaus, eigene Vorstellungen und Ideen bezüglich des Informationsbedarfs zu entwickeln. In der vorliegenden Arbeit wird zunächst eine Literaturrecherche zur Informationsbedarfsanalyse durchgeführt, um einen Überblick über Methoden zur Erhebung eines Informationsbedarfs zu bekommen. Als Vorgehensweise für die Literaturrecherche wurden das Schneeballsystem und die systematische Suche in Schlagwortkatalogen identifiziert. Um eine geeignete Methode zur Ermittlung des Informationsbedarfs von Angehörigen von Palliativpatienten auswählen oder entwickeln zu können, wurden Interviews geführt. Neben einem Interview mit einer Familie erfolgten weitere Interviews im Rahmen von Hospitationen an drei verschiedenen medizinischen Einrichtungen: eine Palliativstation in Heidelberg, ein Hospiz in Wiesloch und eine spezialisierte ambulante Palliativversorgungseinheit in Buchen. Diese flossen in einen Interviewleitfaden ein, der als Methodik zur Erhebung des Informationsbedarfs speziell von Angehörigen von Palliativpatienten verwendet werden kann. Es hat sich gezeigt, dass die Befragung als ein qualitatives Interview durchgeführt werden sollte. Der Interviewleitfaden besteht aus 5 Fragenblöcken. Durch offene Fragestellungen werden die Subjektivität und ein tiefer Informationsgehalt erlangt. Im letzten Teil der Fragen werden papierbasierte Prototypen von einigen Ideen für mobile Systeme vorgestellt und besprochen. Dieser Interviewleitfaden wurde in einer Vorstudie erprobt. Dafür wurden 3 pflegende Angehörige von Palliativpatienten befragt. Durch das Umsetzen der Erkenntnisse aus den Interviews konnte die Methodik angepasst und Schwachstellen verbessert werden. Nach Abschluss dieser Testphase wurde ein allgemeiner Studienplan für eine Studie entworfen. Dieser beschreibt die Durchführung einer qualitativen Studie. Dabei soll die Wirklichkeit anhand der subjektiven Sicht der befragten Angehörigen abgebildet werden.
Die Identifizierung von Angehörigen der Hochschule Heilbronn erfolgt in der Regel
über die Kombination aus Benutzername und Passwort. In verschiedenen Einsatzgebieten,
wie z.B. an einer Parkschranke, ist eine Eingabe der Benutzermerkmale nicht
möglich oder hinderlich. Hierfür soll die Mensakarte des Studentenwerks Heidelberg
als identifizierendes Merkmal erschlossen werden. Dies macht die Verknüpfung von
Benutzerkonto und Karte notwendig.
Im Rahmen dieser Bachelorarbeit werden zunächst verschiedene Umsetzungsmöglichkeiten
für mobile Anwendungen zur Verknüpfung von Benutzer und Karte unter Verwendung
der NFC-Technologie analysiert und ausgewertet. Anschließend wird ein
funktionaler Prototyp für Smartphones der Android-Plattform entwickelt, der die einfache
Einbindung weiterer Funktionalität ermöglichen soll.
Der entwickelte Prototyp ist im Hochschulnetz testweise für die Registrierung und
Deregistrierung von NFC-Karten einsetzbar. Vor einer realen Nutzung des Systems
müssen der Datenschutz und andere organisatorische und rechtliche Pflichten, wie
zum Beispiel das Telemediengesetz, berücksichtigt werden.
Informationslücken sind in der Notfallmedizin besonders folgenschwer, da sie zu einer
ineffizienten Versorgung der Patienten führen und lebensbedrohlich sein können. Sie
entstehen, wenn Patienten sich nicht mehr adäquat artikulieren können oder nicht wissen, welche Vorerkrankungen sie haben und welche Medikamente sie einnehmen. So kann es beispielsweise zu schwerwiegenden Wechselwirkungen zwischen Medikamenten kommen oder zu allergischen Reaktionen auf ein Medikament.
Im Rahmen dieser Arbeit soll ein System entwickelt werden, das diese Informationslücken zwischen Patienten und Erst- und Zweithelfern schließen soll. Es besteht aus einer mobilen Anwendung für Android Smartphones und NFC-Tags. Dazu schreiben
Patienten ihre medizinischen Notfalldaten mit der mobilen Anwendung auf einen NFC-Tag. Diesen NFC-Tag tragen sie in Form einer Halskette, eines Armbands, eines Schlüsselanhängers o. ä. bei sich. In einem Notfall können Erst- und Zweithelfer diesen
NFC-Tag mit der mobilen Anwendung auslesen und bekommen so Informationen über den Patienten geliefert.
Die implementierte mobile Anwendung kann testweise für Evaluationen eingesetzt werden.
Für einen produktiven Einsatz müssen allerdings organisatorische sowie rechtliche
Pflichten wie der Datenschutz oder das Medizinproduktegesetz berücksichtigt werden.
Entwicklung einer performanten Volume Rendering Komponente für das Operationsplanungssystem MOPS 3D
(2012)
Computergestützte Planung von chirurgischen Eingrien gehört in der heutigen Zeit zum klinischen Alltag. Besonders in der Neurochirurgie ist ein hohes Maÿ an Präzision erforderlich, so dass es hilfreich ist, die räumlichen Gegebenheiten des individuellen Gehirns, die für die Operation von Bedeutung sind, schon im Voraus zu kennen. MOPS 3D ist ein Operationsplanungssystem, das imstande ist, verschiedene medizinische Bilddaten einzulesen und dem Chirurgen eine dreidimensionale Darstellung des Körperinneren zu präsentieren. Statt mit der herkömmlichen Oberflächendarstellung kann dieses seit Kurzem auch mit Hilfe von Volumenvisualisierung (Volume Rendering) dargestellt werden, da das Volume Rendering Framework Voreen prototypisch in MOPS 3D integriert wurde. In der nachfolgenden Arbeit wird diese prototypische Integration auf Schwachstellen im Verhalten und auf Verbesserungspotential von Performanz und Stabilität untersucht. Danach werden entsprechende Verbesserungen und funktionale Neuerungen konzipiert und in der Volume Rendering Komponente implementiert.
Nach der Operation ist die Strahlentherapie die erfolgreichste und meist genutzte Krebstherapie. Sie wird bei mehr als 50% der Patienten angewandt, die an Krebs erkrankt sind. Das Ziel der Strahlentherapie ist es, eine Strahlendosis zu applizieren, die hoch genug ist, um die Tumorzellen zu töten. Dies ist sowohl aus physikalischer als auch aus technischer Sicht häufig eine schwere Aufgabe, da besonders maligne Tumore oft sehr nahe an Organen lokalisiert werden, die eine hohe Sensitivität gegenüber Strahlen aufweisen. Hierzu zählen Organe wie die Augen, Sehnerven, der Hirnstamm oder die Lunge[Sch06]. Aus diesem Grunde muss die Strahlentherapie sorgfältig geplant werden. Dies ermöglicht es dem Benutzer, bestimmte Szenarien zu simulieren und die beste Konfiguration zu finden, um eine Strahlentherapie auszuführen. Das optimalste Ergebnis ist dabei, dass der Tumor 100% der benötigten Strahlendosis erfährt und das umliegende Gewebe sowie die umliegenden Organe vollständig geschont werden. Eine Methode der Strahlentherapieplanung ist die Virtuelle Strahlentherapiesimulation die auch Gegenstand dieser Arbeit ist.
Die vorliegende Arbeit beschäftigt sich mit der Entwicklung einer Aufnahmesoftware sowie der Optimierung einer Aufnahmeapparatur zur Messung von Autofluoreszenzlebensdauern und Autofluoreszenzintensitäten im Bereich der Retina. Mithilfe eines blauen Lasers werden fluoreszierende Moleküle in der Retina, Fluorophore, zum Abstrahlen von Licht, der so genannten Fluoreszenz, angeregt. Die Abklingzeit der Fluoreszenzintensität bis zum Ende der Lichtemission eines Moleküls, wird als Fluoreszenzlebensdauer bezeichnet. Die Software ermöglicht es, durch den Einsatz eines speziellen Detektors und einer sehr genauen Stoppuhr diese Fluoreszenzlebensdauer im Pikosekundenbereich zu messen. Anhand der für jeden Stoff individuellen Fluoreszenzlebensdauer können die Moleküle exakt bestimmt werden. Mit einem Messgerät, welches die im Auge vorkommenden Substanzen und deren Verhältnis zueinander messen kann, lassen sich bei Abweichungen von der Norm Diagnosen erstellen und eine Behandlung einleiten. Soft- und Hardware sind in der Lage, die Augenbewegung während einer Messung auszugleichen, sodass selbst bei Messungen im Bereich von einigen Minuten verlässliche Messdaten generiert werden. Ziel dieser Arbeit ist die Fertigstellung eines für den Routineeinsatz geeigneten Prototyps.
Das neurochirurgische Operationsplanungssystem MOPS 3D wurde am Institut für Medizinische Biometrie und Informatik der Universität Heidelberg entwickelt. Es unterstützt den Chirurgen mit einer Vielzahl von Methoden bei der Operationsplanung und der Durchführung. Dabei hat sich der Funktionsumfang von MOPS 3D im Laufe der Zeit stetig erweitert. Seit neuem gehört hierzu die Möglichkeit der Volumenvisualisierung, diese wurde mit dem Framework Voreen, welches auf OpenGL basiert, realisiert. Eine weiter Neuerung, die für diese Diplomarbeit von maßgeblicher Bedeutung ist, ist die Entwicklung des OpenCLStandards. Durch diesen wird es nicht nur möglich Anwendungen hochgradig parallel auf der Grafikkarte auszuführen, es ist des Weiteren möglich mit OpenCL direkt auf Darstellungen, die durch OpenGL generierten wurden, zu operieren. Hierdurch ergeben sich vielversprechende Perspektiven bei der Entwicklung neuer Werkzeuge für das Planungssystem MOPS 3D. So wird in der nachfolgenden Arbeit eine neue unabhängige Segmentierungskomponente für das Planungssystem MOPS 3D konzipiert und implementiert. Dabei wird auf die Interoperabilität zwischen OpenGL und OpenCL gesetzt, um ein konstantes visuelles Feedback über den Segmentierungsverlauf an den Anwender in Form von 3D-Volumendarstellungen zu gewährleisten.
Im Rahmen der interdisziplinären Leberkrebsforschung des ‚SFB/TRR 77’ ‚Leberkrebs von der molekularen Pathogenese zur zielgerichteten Therapie’ fallen Genomdaten an, welche in unterschiedlichen Formaten gespeichert werden. Der ‚SFB/TRR 77’ wird technisch durch die integrierte Informationsplattform ‚pelican’ (platform enhancing livercancer networked research) unterstützt. ‚pelican’ erlaubt Forschern ihre (Genom-)Daten zentral zu speichern und Daten von anderen Projekten einzusehen. Die Informationsplattform ist nach dem Prinzip der modernen service-orientierten Architektur (SOA) aufgebaut, nach welcher Dienste über einheitliche Schnittstellen an unterschiedlichen Orten spezifische (Teil-)Aufgaben erfüllen, um so größere Prozesse zu realisieren. Damit die Genomdaten für umfassende Analysen einheitlich zur Verfügung stehen, bedarf es eines Genkonvertierungs-Dienstes zur Abbildung von Genbezeichnungen aufeinander, der in die SOA von ‚pelican’ integriert werden kann. Verschiedene Gendatenbanken und biomedizinische Standards wurden auf ihre Eignung untersucht, Gene eindeutig zu identifizieren. Auch die Tools des ‚cancer Biomedical Informatics Grid’ (caBIG) werden auf Methoden und Werkzeuge zur Unterstützung einer eindeutigen Genidentifikation analysiert. Aus den verschiedenen Genidentifikationsmöglichkeiten wird eine optimale Methode ausgewählt, mit der im Genkonvertierungs-Dienst gearbeitet werden kann. Diese ist das ‚Gensymbol’, da es Gendatenbank übergreifend ist und von dem Human Genome Organisation (HUGO) Gene No-menclature Committee (HGNC) standardisiert wird. Die Daten aus der HGNC-Datenbank werden in eine eigene MySQL-Datenbank transferiert. Auf Basis dieser Datenbank wird ein Webservice entwickelt, der dann in die SOA der Informationsplattform eingebunden werden kann. Der erstellte Webservice steht zur Abfrage von Genomdaten bereit. Mittels entsprechenden Tests wird die Funktionalität des neuen Services validiert.
Entwicklung eines haptischen Interfaces für die roboterassistierte Ultraschallbildakquisition
(2021)
Motivation:
Die Bedienung eines Roboters bei einer roboterassistierten Ultraschallbildakquisition
zur Lagekontrolle eines Tumors während einer Strahlentherapie ist mit einem groÿen
Aufwand verbunden. Eine externe Applikation oder ein externes Bediengerät ist dazu
notwendig. In dieser Arbeit wird die intuitivere Möglichkeit erforscht, dem Roboter
Befehle durch Berührungen zu erteilen. Für eine solche Gestensteuerung wird anhand
von Sensordaten eines sensitiven Leichtbauroboters bewertet, inwieweit eine Steuerung
durch ein haptisches Interface umsetzbar ist und dafür ein Klassifikator entwickelt.
Methodik:
Die Erhebung der Sensordaten erfolgte an einem KUKA LBR-iiwa7-800 Roboter. Es
wurden acht repräsentative Gesten für ein haptisches Interface definiert. Diese Gesten
wurden an verschiedenen Roboterposen von Probanden ausgeführt, während Sensordaten
erhoben wurden. Die Messungen wurden im statischen Zustand des Roboters
und im Impedanzmodus des Roboters durchgeführt, da mithilfe des Impedanzmodus
die Atemkompensation während einer Ultraschallbildakquisition realisiert wird. Die
Messdaten wurden in Matlab ausgewertet.
Ergebnisse:
Vier der definierten Gesten sind allein durch Bestimmung der kartesischen Kräfte x, y z
detektierbar und voneinander unterscheidbar. Diese vier Gesten sind Gesten, die durch
Berührung am Tool (Ultraschallkopf) oder Toolnähe (Roboterhand) ausgeführt werden.
Die Unterscheidung von Gesten, die am Roboterellenbogen ausgeführt wurden,
ist anhand der kartesischen Kräfte nicht möglich. An Roboterposen, die singularnahe
oder singulare Achsstellungen aufweisen, ist eine Detektion von Gesten ebenfalls problematisch.
Ansonsten ist eine Detektion posen- und nutzer-unabhängig durchführbar.
In Messungen während einer Atemkompensation wurden diese Gesten ebenfalls richtig
detektiert.
Fazit:
Ein haptisches Interface für roboterassistierte Ultraschallbildakquisition ist realisierbar
für Gesten, die am Roboter in der Nähe des TCPs ausgeführt werden. Für die Detektion
und Klassifizierung dieser Gesten ist die Krafteinschätzung am TCP ausreichend.
Das Registrieren medizinischer Bilddatensätze ist ein komplexer und zeitintensiver Prozess. Ohne die Entwicklung effizienter und schneller Registrierungsverfahren müssten erhebliche personelle Ressourcen in das manuelle Registrieren investiert oder teilweise ganz auf deren Resultate und den einhergehenden Erkenntnissen verzichtet werden. Daher ist es besonders wichtig Neuentwicklungen in diesem Gebiet voranzutreiben und Programmstrukturen zu entwickeln, die diese neuen Verfahren einbinden, evaluieren und anschließend optimieren können. Das Ziel dieser Arbeit war die Entwicklung eines Softwaretools, das Registrierungsprozesse von der Vorverarbeitung über die eigentliche Registrierung bis hin zur visuellen Evaluierung unterstützt. Dabei sollte die Applikation so entwickelt werden, dass sowohl Funktionalitäten als auch Benutzeroberfläche einfach erweitert oder modifiziert werden können. Zu Beginn der Entwicklung musste ein geeignetes Framework (bzw. Entwicklungsumgebung) gefunden werden. Dieses sollte sowohl eine stabile Umgebung als auch einen möglichst großen Funktionsumfang im Bereich des Prä- und Postprocessing der Registrierung bieten können. Zudem sollte diese Entwicklungsumgebung auch Strukturen bieten, die es ermöglichen neue Funktionalitäten einfach hinzuzufügen. Auf Grund der Ergebnisse der durchgeführten Analyse kam im Rahmen dieser Diplomarbeit MeVisLab zum Einsatz.
Im Rahmen dieser Bachelorarbeit wurde ein Triangulations-Algorithmus basierend auf dem Marching Cube Algorithmus konzeptioniert und implementiert. Der Algorithmus soll in der Software für die Strahlentherapieplanung VIRTUOS verwendet werden und die speziellen Anforderungen dieser Software erfüllen. Diese sind im Kapitel 1.3 beschrieben. Der Algorithmus soll eine Triangulation von Konturen mit Subpixel-Auflösung mit dem Marching Cube Verfahren ermöglichen. Diese Triangulation soll kanten- bzw. punkterhaltend sein. Somit darf sich die Position existierender Konturpunkte nicht ändern. Die Anzahl der erzeugten Dreiecke soll möglichst gering sein. Des Weiteren soll der Algorithmus in seiner Performanz optimiert sein. Die Implementierung des in dieser Arbeit beschriebenen Algorithmus ist wie VIRTUOS in C/C++ geschrieben und soll die bisherige Delaunay Triangulation ablösen.
Eine Anwendung nur mit Gedanken steuern? — Das geht! Mit Hilfe von Brain-Computer-Interfaces (BCIs). Heutzutage gibt es viele BCI-Frameworks, bei denen die
unterschiedlichen Konzepte wie zum Beispiel P300-Speller, Imagined Movement oder SSVEP untersucht und angewendet werden können. Für diese Thesis wird das Framework Buffer-BCI verwendet. Es wurde untersucht, ob
sich dieses für eine Aufgabe im Praktikum Medizinische Signal- und Bildverarbeitung (PSB) des Studiengangs Medizinische Informatik eignet. An mehreren Probanden wurde getestet, ob Reproduzierbarkeit und Erkennungsgenauigkeit hoch genug sind,
um auch bei vielen unterschiedlichen Menschen vergleichbar funktionieren und sinnvolle Ergebnisse liefern zu können. Auch hinsichtlich zeitlicher Latenzen, der prinzipiellen Architektur des Frameworks und der Kommunikationskette für Ereignisse wurde Buffer- BCI untersucht.
Ein Ergebnis dieser Thesis ist die Beschreibung der Architektur und der Kommunikationskette von Buffer-BCI. Ein weiteres Ergebnis ist eine Aufgabenstellung für das PSB bezüglich einer P300-Speller-Anwendung auf Basis des Buffer-BCI-Frameworks. Die Aufgabenstellung kann noch um Imagined Movement- oder SSVEP-Experimente
erweitert werden, was jedoch nicht mehr Teil dieser Thesis ist.
Ultraschallelastographie (USE) ist ein bildgebendes Verfahren, mit dem die Ausbreitung mechanischer Scherwellen, die durch externe Schwingungen in den menschlichen Körper eingekoppelt werden, mittels Ultraschall gemessen und dargestellt werden kann. Die Ausbreitungsgeschwindigkeit der Scherwellen steht dabei in einem direkten qualitativen Zusammenhang zu den elastischen Eigenschaften des Gewebes. Als apparative Palpation wird die transiente USE daher in der medizinischen Diagnostik bereits eingesetzt, denn viele Krankheiten, wie z.B. die Leberfibrose, gehen mit einer Veränderung der elastischen Kenngrößen der betroffenen Gewebe einher. Das im Rahmen dieser Arbeit weiter entwickelte USE-Diagnosesystem unterscheidet sich von der transienten USE dadurch, dass die angewandten Scherwellen zeitharmonisch sind und aus mehreren überlagerten Frequenzkomponenten bestehen. Um die Auswertung zu objektivieren und die Performance zu steigern wurde die bisherige interaktive retrospektive Auswertungsmethode durch einen vollautomatischen Algorithmus ersetzt. Dazu war es notwendig, manuelle Aussortierung schlechter Messungen ebenfalls zu automatisieren. Auf dieser Basis wurde zusätzlich ein Echtzeitauswertungsalgorithmus entwickelt, um erstmals unmittelbar während einer Untersuchung Resultate der Leberelastizitätsmessungen auszugeben. Die neuen Algorithmen wurden mit Softwarephantom, Rinderleberproben und gegenüber der Magnetresonanz-Elastographie (MRE) als Referenzmethode validiert. Es hat sich gezeigt, dass die vollautomatisch ermittelten Elastizitätsergebnisse mit denen der MRE gut übereinstimmen und die Performance gegenüber der bisherigen Auswertung deutlich gesteigert wurde. Nachfolgend wurden diese Algorithmen erfolgreich in einer Pilotstudie an gesunden Freiwilligen eingesetzt.
Die visuelle Analyse der kindlichen Spontanmotorik hat sich als aussagekräftiges Verfahren zur Prognose schwerer neurologischer Störungen erwiesen. Eine computergestützte Entscheidungsunterstützung könnte Ärzten eine wertvolle objektive Hilfe bei der Prognosestellung geben. Mit dem Ziel ein solches entscheidungsunterstützendes System zu entwickeln, wurde am Institut für Medizinische Biometrie und Informatik der Universität Heidelberg ein Forschungsprojekt durchgeführt. Darin wurde u.a. ein Softwarepaket für Forscher entwickelt. Die Ergebnisse der Forschung wurden bislang nicht für Ärzte zugänglich gemacht. Diese Arbeit ergänzt das Softwarepaket des Projekts um zwei Komponenten. Ein grafischer Editor erleichtert die Nutzung des bestehenden Softwarepakets, indem es den Forscher bei der Ablaufsteuerung des entscheidungsunterstützenden Prozesses unterstützt. Eine Präsentationskomponente macht die Ergebnisse des entscheidungsunterstützenden Prozesses für Ärzte nutzbar. Die beiden Komponenten werden mit ähnlichen Komponenten anderer Forschungsprojekte im selben Kontext verglichen und exemplarisch evaluiert.
In dieser Arbeit wurde am Deutschen Krebsforschungszentrum (DKFZ) in Heidelberg eine Anwendung für das Trainieren von Klassifikatoren, das Klassifizieren und für die Durchführung eines Leave-One-Out-Tests entwickelt. Auf der Grundlage von Methoden aus einem bereits existierenden Programm, das zum automatischen Erkennen von osteolytischen und osteoblastischen Läsionen bei Patienten mit einem multiplen Myelom genutzt wird, wurde eine Benutzeroberfläche implementiert, die das aufwendige und manuelle Anpassen an neue Fragestellungen erleichtern soll. Zusätzlich soll eine Visualisierung von Merkmalen dem Benutzer beim Trainieren eines Klassifikators die Auswahl verdeutlichen und vereinfachen. Damit die Anwendung auch für andere Klassifikationsaufgaben genutzt werden kann, wurde eine Erweiterungsmöglichkeit der grafischen Benutzeroberfläche auf Basis von XML integriert.
Auf dem Markt der Android Applikationen gibt es ein breites Spektrum an
Lernanwendungen. Allerdings exisitiert ein Mangel an gut strukturierten
inhaltlichen Zusammenfassungen der schulischen Themen, gerade im
Fach Mathematik.
Mein Ziel der Bachelorarbeit ist, eine Education App zu entwickeln, diese
im realen Betrieb zu testen und somit einen Lösungsansatz für den
Mangel an solchen Apps zu erhalten. Ich werde am Beispiel der 8. Klasse
Realschule im Fach Mathematik eine thematische Zusammenfassung
erzeugen und als App umsetzen. Mathematische Grundlage hierfür bildet
das Schulbuch Schnittpunkt 8 des Klettverlages (Differenzierende
Ausgabe, 2015).
Bugfixing und Evaluierung verläuft Hand in Hand, um am Ende des
Entwicklungsprozesses eine voll funktionsfähige, getestete App zu
bekommen.
Mit Hilfe eines Fragebogens wird dabei direkt auf die Zielgruppe
eingegangen.
Die App wird im Anschluss des Entwicklungsprozesses nach dem Open-
Closed Prinzip fungieren. Ist also für Erweiterungen offen. Diese Funktion
erreiche ich durch genau definierte Schnittstellen. Es wird möglich sein,
neue Klassen ebenso wie Schularten hinzuzufügen. Als
Entwicklungsumgebung dient mir IntelliJ, als Testgerät ein Samsung
Smartphone.
Die App wird den Namen MaTHive Spectre tragen, um direkt auf das
Potential aufmerksam zu machen und einen einprägsamen Namen zu
erhalten.
Die vorliegende Arbeit wurde zusammen mit der Abteilung Radiologie am Deutschen Krebsforschungszentrum (DKFZ) erarbeitet. Das Ziel war es, durch Evaluation der IT Strategie und durch Einsatz verschiedener Methoden zukünftige Handlungsfelder zu be-stimmen. Ein Handlungsfeld wurde exemplarisch an einem Beispiel bis hin zu konkreten Verbesserungsmaßnahmen operationalisiert. In der vorliegenden Arbeit, wird eine Eva-luation der IT Strategie in der Abteilung Radiologie des deutschen Krebsforschungszent-rum (DKFZ) vollzogen. Es wird im Grundlagen Kapitel die derzeitige Situation der Abtei-lung widergespiegelt. Darauf aufbauend werden zukünftige Handlungsfelder, mit Hilfe der Methode der SWOT Analyse identifiziert. Durch die SWOT Analyse wird der derzeiti-ge Ist- Zustand, mit Hilfe der Stärken und Schwächen abgebildet. Chancen und Risiken der Umwelt werden durch die SWOT Analyse abgebildet und ermöglichen es in Kombi-nation mit den Stärken und Schwächen der Abteilung Radiologie als Teil des DKFZ, zu-künftige Handlungsfelder zu bestimmen. Anschließend werden die Handlungsfelder prio-risiert. Bei dem Handlungsfeld mit der höchsten Priorität handelt es sich um das Hand-lungsfeld des abteilungsinternen Wissensmanagements. Das Handlungsfeld wird durch die strategischen Wege, welche die Umsetzung ermöglichen sollen, weiter ausgestaltet. Als Basis für die Entwicklung der strategischen Wege dienen die Mission, die Vision und das Leitbild, welche im DKFZ vorherrschen. Durch die anschließende Anwendung der Methode der Balanced Score Card erfolgt eine kritische Auseinandersetzung der einzel-nen strategischen Wege mit dem Ziel die Messung, Dokumentation und Steuerung der Maßnahmen des zu verfolgenden Handlungsfeldes zu analysieren. Mittels der Priorisie-rung der Maßnahmen, wird im Folgenden die höchst priorisierte Maßnahme konzeptio-nell weiterverfolgt, hierbei handelt es sich um das Zugriffskonzept des abteilungsinternen Wissensmanagementsystems. Die Diskussion setzt sich mit den verwendeten Methoden auseinander. Es wird aufgezeigt, warum es notwendig ist das Handlungsfeld, des abtei-lungsinternen Wissensmanagement, und die damit verbundenen Maßnahmen weiter zu verfolgen. Im abschließenden Fazit wird auf das Zweite zu verfolgende Handlungsfeld eingegangen und weitere zielführende Maßnahmen aufgezeigt, welche notwendig sind, um das abteilungsinterne Wissensmanagementsystem einzuführen.
Diese Arbeit befasst sich mit der Analyse der Secondary Use Systeme der Vanderbilt Universität, Nashville Tennessee (USA), und einem anknüpfenden Vergleich mit deutschen Konzepten und unter Berücksichtigung der deutschen Gesetzeslage. Dabei wurden, auf Basis einer vor Ort durchgeführten Analyse, wichtige Prozesse modelliert und im Anschluss mit den Datenschutzkonzepten der Technologie- und Methodenplattform für die vernetzte medizinische Forschung (TMF) verglichen. Weiterhin wurde darauf eingegangen, inwiefern eine Übertragung der Prozesse und Methoden mit dem deutschen Datenschutz vereinbar wäre. Die Bewertung der Ergebnisse zeigt, dass ein Großteil der zugrundeliegenden Prozesse in Vanderbilt auf Deutschland übertragen werden können, jedoch bei gewissen Methoden andere Ansätze gewählt werden müssen. Es wird ebenfalls hervorgehoben, dass es trotz Schutzmaßnahmen und -mechanismen Risiken für die Privatsphäre gibt.
Every year, hundreds of thousands of patients are affected by treatment failure or adverse drug reactions, many of which could be revented by pharmacogenomic testing. To address these deficiencies in care, clinics require
automated clinical decision support through computer based systems, which provide clinicians with patient-specific ecommendations. The primary knowledge needed for clinical pharmacogneomics is currently being
developed through textual and unstructured guidelines.
In this thesis, it is evaluated whether a web service can annotate clinically relevant genetic variants with guideline information using web services and identify areas of challenge. The proposed tool displays a formal representation of pharmacogenomic guideline information through a web service and existing resources. It enables the annotation of variant call format (VCF) files with clinical guideline information from the Pharmacogenomic Knowledge Base (PharmGKB) and Clinical Pharmacogenetics Implementation Consortium (CPIC).
The applicability of the web service to nnotate clinically relevant variants with pharmacogenomics guideline information is evaluated by translating five guidelines to a web service workflow and executing the process to annotate publically available genomes. The workflow finds genetic variants covered in CPIC guidelines and influenced drugs.
The results show that the web service could be used to annotate in real time clinically relevant variants with up-to-date pharmacogenomics guideline information, although several challenges such as translating variants into star allele nomenclature and the absence of a unique haplotype nomenclature
remain before the clinical implementation of this approach and the use on other drugs.
1.1 Gegenstand und Motivation Die bereits in den 1970er-Jahren [1] entwickelte Technologie NAVSTAR GPS (GPS) arbeitet elektronisch und eignet sich 1 besonders zur Navigation in großen und freiliegenden Gebieten, da sie die Standorte der Endgeräte satellitengestützt errechnet. In Gebäuden stößt diese Technik aufgrund der Signaldämpfung durch Hindernisse, wie Decken, schnell an ihre Grenzen. GPS-Signale sind im Inneren eines Gebäudes um 20-30 dB (Faktor 100-1000) schwächer, als im Außenraum [2]. Auch die Differenzierung verschiedener Etagen ist mittels der GPS-Technologie nicht möglich. Die herkömmliche Navigation in Gebäuden wird zurzeit häufig mittels Pfeilen und Karten realisiert. Aufgrund immer größer werdender Gebäude und dem Wunsch, ortsbezogene Informationen zu übermitteln, steigt die Nachfrage einer elektronischen Indoor-Navigation stetig. Eine mögliche Lösung zur Indoor-Navigation bietet iBeacon. Dieser proprietäre Standard wurde 2013 von der Apple Inc.2 eingeführt und basiert auf der Bluetooth Low Energy-Technologie (BLE), welche durch einen geringen Energieverbrauch gekennzeichnet ist. Ursprünglich dient iBeacon dazu, einem BLE fähigem Endgerät mitzuteilen, dass es sich in der Reichweite eines iBeacons befindet. Das Endgerät kann so ortsspezifische Informationen an den Benutzer übermitteln, da das Endgerät den Standort des iBeacons kennt. So können z.B. Informationen zu einem Patienten eines Krankenhauses an den Tabletcomputer (Tablet) des medizinischen Personals übermittelt werden. Dies geschieht durch eine Abstandsmessung zwischen dem iBeacon und dem Endgerät. Unter der Hinzunahme zwei weiterer iBeacons kann theoretisch eine Positionsbestimmung des Mobiltelefons und damit eine Navigation durchgeführt werden.
Gammastrahlung ist hochenergetische elektromagnetische Strahlung, die zum Beispiel
beim Zerfall radioaktiver Stoffe auftritt und besteht aus ungeladenen Photonen. Jeder
dieser Gammastrahler strahlt Photonen mit einer für ihn spezifischen Energie aus, woran
man ihn auch erkennen kann. So hat jeder Gammastrahler sozusagen seinen eigenen
Fingerabdruck.
Wenn man wissen will, welche Gammastrahler in einer Probe vorhanden sind, kann auf
die Gammaspektroskopie zurückgegriffen werden. Diese misst, wie der Name schon sagt,
das Spektrum, also die Energie und die Intensität, der Gammastrahlen. Aus dem daraus
entstehenden Graphen kann dann anhand der Ausschläge abgelesen werden, welche
Gammastrahler in der Probe enthalten sind, da sich diese über ihr Energiemaß bestimmen
lassen.
Die beiden grundsätzlichen Bestandteile eines solchen Gammastrahlenspektrometers sind
ein Detektor und eine Strahlungsquelle, meist eine radioaktive Probe. Die Probe wird so
angebracht, dass sie auf den Detektor strahlt. Dieser registriert dann die Impulse, die
durch Wechselwirkung zwischen den Gammastrahlen und den Elektronen des Detektors
entstehen.
Es gibt zwei hauptsächlich auftretende Effekte. Der Wichtigste ist wohl der Photoeffekt.
Hierbei trifft ein Photon auf ein Elektron und das Photon wird vollständig vom Elektron
absorbiert, wodurch das Elektron aus seiner aktuellen Bindung, innerhalb des Atoms,
gelöst wird. Dies ist der wichtigste Effekt, weil er genau die Information liefert, die gesucht
wird. Das ist die exakte Energie, mit der ein radioaktives Nuklid abstrahlt. Den durch
gehäuftes Vorkommen dieses Effektes auftretenden Ausschlag nennt man Photopeak. Er
stellt die spezifische Energie von einem der, in der Probe vorhandenen, Gammastrahlern
dar. Anhand dieses Peaks ist es letztendlich möglich die enthaltenen Gammastrahler zu
identifizieren.
Der zweite Effekt nennt sich Compton-Effekt. Hierbei trifft ebenfalls ein Photon auf ein
Elektron. Dieses Mal wird das Photon aber nicht absorbiert, sondern gibt lediglich einen
Teil seiner Energie an das Elektron ab und wird dann in einem Winkel von 0° bis 180°
gestreut. Es setzt seinen Weg also mit geringerer Energie und damit größerer Wellenlänge
fort.
Leider ist das obige Spektrum im jetzigen Zustand noch lange nicht perfekt. Noch sind zu
viele Störungen und Fehlinformationen enthalten. Zwar könnte damit gearbeitet werden,
jedoch mit dem Risiko, dass eventuell Informationen verfälscht, oder sogar gar nicht
ausgelesen werden. Perfekt wäre es, wenn das Spektrum komplett der x-Achse anliegen
würde, vollkommen glatt, ohne Rauschen und nur die Photopeaks zu sehen wären.
Ein kleiner Teil der Störungen, die das Signal beeinflussen, kann schon im obigen Teil
erkannt werden. Es spielen nämlich viel mehr Effekte eine Rolle, als es im besten Fall sein
sollten.
Einer der Störeffekte zum Beispiel, ist der bereits oben erwähnte Compton-Effekt. Dieser
trägt nichts zum Photopeak bei, sondern liefert einen Impuls, dessen Energie bis zu einem
gewissen Punkt, dieser „Punkt“ wird auch Compton-Kante genannt, unterhalb der
spezifischen Energie des Photons liegt. Wenn die spezifische Energie eines Photons zum
Beispiel 600keV betragen würde, dann könnte durch den Compton-Effekt eine Energie
von 400keV geliefert werden. Es ist also möglich, dass angenommen wird es seien zwei
unterschiedliche Gammastrahler in der Probe vorhanden. Glücklicherweise sind die
Impulse, die durch den Compton-Effekt entstehen relativ gleich verteilt und erreichen
kaum die Intensität eines Photopeaks. Dennoch zieht jeder Photopeak einen solchen
Rattenschwanz aus schwächeren Impulsen, welche von 0keV bis zur Energie der
Compton-Kante reichen, hinter sich her. Dies wird auch Compton-Kontinuum genannt. Da
im niedrigeren Bereich des Energiespektrums immer mehr Compton-Kontinuen
aufeinandertreffen, je nachdem wie viele Photopeaks, also unterschiedliche
Gammastrahler, in der Probe vorhanden sind, bildet sich dort oft ein sichtbarer Hügel, oder
eine Steigung. Umgekehrt flacht das Spektrum im höheren Bereich immer weiter ab, da
4
Abbildung 1: Beispielspektrum
weniger Compton-Kontinuen vorhanden sind.
Das Compton-Kontinuum trägt einen Großteil zum Untergrund bei. Der Untergrund füllt
fast den kompletten Bereich zwischen Gammaspektrum und x-Achse aus. Ebenso spielt
hier auch die Umgebungsstrahlung eine Rolle, welche eigentlich immer vorhanden ist und
die man nur schwer ausschließen kann.
Ein weiterer Störfaktor ist das in der Elektrotechnik bekannte Rauschen, welches auch im
obigen Spektrum sehr gut erkannt werden kann.
Dies sind nur einige Störungen, die eine Rolle spielen.
Es werden somit sehr viele Störgrößen ungewollt mit betrachtet und diese Störgrößen
müssen durch Werkzeuge, wie zum Beispiel Algorithmen, entfernt werden. Da ich mich in
dieser Bachelorarbeit auf die Untersuchung von Algorithmen zur Bestimmung des
Untergrundes beziehe, werde ich mich im Weiteren auf diese beschränken und die
anderen Probleme größtenteils außer Acht lassen.
Nun gibt es natürlich bereits Algorithmen, mit denen sich der Untergrund von Gammaspektren
bestimmen lässt. Das Problem hierbei ist, dass diese meist nur bei bekannten
Spektren funktionieren, auf die sie, mehr oder weniger, speziell zugeschnitten sind. Wenn
diese Algorithmen eins zu eins auf ein unbekanntes Spektrum angewandt würden, kann es
schnell vorkommen, dass die Untergrundbestimmung misslingt und weit vom angestrebten
Ergebnis entfernt ist.
Einen einzelnen Algorithmus zu entwickeln, der für alle Spektren einsetzbar wäre, ist aber
auch keine Möglichkeit. Der Aufwand und die Kosten wären noch viel zu hoch. Außerdem
würde sich keine Firma finden,welche sich an solch ein Projekt wagen würde, da auch viel
zu wenige Abnehmer dafür vorhanden sind.
Darum werde ich in dieser Arbeit kleinere, einfachere Algorithmen genauer untersuchen,
um zu verstehen, wie sich diese auf unterschiedliche Spektren anwenden lassen. Das
damit entstehende Ergebnis ist wahrscheinlich nicht perfekt, aber gut genug, um damit
arbeiten zu können.
Ziel dieser Arbeit ist es, zwei Algorithmen zur Untergrundbestimmung zu evaluieren und
einen Überblick über folgende Themen zu geben:
– Einen Ausblick über die Auswirkungen der einzelnen Parameter der Algorithmen zu
geben, um zum Beispiel schnell abschätzen zu können, welcher Parameter in
einem konkreten Fall verändert werden muss.
– Einen groben Rahmen festzulegen, in dem die einzelnen Parameter gewählt
werden können, sodass mit hoher Wahrscheinlichkeit ein gutes Ergebnis erreicht
wird.
– Stärken und Schwächen der Algorithmen herausarbeiten, um zum Beispiel die
Verwendung eines Algorithmus auszuschließen, der sich für den beabsichtigten
Zweck nur schwer oder gar nicht einsetzen ließe.
5
– Einen schnellen Überblick über die Möglichkeiten geben, um mit den Algorithmen
ohne großes Vorwissen zu arbeiten.
There are many drug interactions and to know every single interaction is impossible. In Uganda, a country located in East Africa, patients often do not get a patient information leflaet when a physician prescribes drugs because they only get the drugs without packaging and information inside. Even in developed countries many poeple die because of drug interactions.
This work aims at developing a clinical decision support system for different kinds of drug interactions: 1) drug-drug interaction,
2) drug-food interactions,
3) drug-condition
interactions and
4) drug-disease interactions.
This system must be integrated into an
existing hospital information system called electronic Health Management Information System (eHMIS).
In the first part of this thesis different kinds of clinical decision support systems are described to find out which one is the best for eHMIS. The two different types are knowledge-based and non knowledge-based systems. The second part of this thesis, the data base of eHMIS is extended to have a full
knowledge base for the new module which contains drug-drug interactions, drug-food interactions, drug-disease interactions as well as drug-condition interactions. Therefore new tables were created and filled with data of several data bases with drug interactions. The last part is about designing the clinical decision support system for drug interactions
with the knowledge base of eHMIS, including the implementation considering the integration into the existing system. To know how health professionals in Uganda work
with an electronical health system as well as their other work ows was important. The system now runs in a hospital in Kampala, the capital of Uganda and in a health center level three in Mifumi, a village located in the east of the country.
Im Sommer 2014 stellten Menschen auf der ganzen Welt Videos in das Internet, in denen sie mit Eiswasser überschüttet wurden. Grund dafür war die sogenannte ,,Ice Bucket Challange”. Der genaue Ursprung dieses Internetphänomens ist unbekannt. Sinn und Zweck ist eine Spendensammlung für die Erkrankung Amyotrophe Lateralsklerose, kurz ALS. [54] ,,Rund 100 Millionen US-Dollar kamen mit dieser einfachen Idee in 30 Tagen zusammen.” [6].
ALS ist eine ,,chronisch-degenerative Erkrankung des zentralen Nervensystems, die mit einer Atrophie der Skelettmuskulatur und Pyramidenbahnzeichen einhergeht” [41]. Die Ursache der Krankheit ist unbekannt, ein familiäres gehäuftes Auftreten lässt auf genetische Disposition hinweisen, andere Faktoren sind nicht auszuschließen. [54] Langfristig führt die Krankheit zum Absterben der Zellen, ,,die elektrische Impulse vom Gehirn indie Muskeln leiten” [54]. Dies führt zu einem Muskelschwund. Die aggresiv verlaufende Krankheit führt zu einer Lebenserwartung von 3-5 Jahren nach Eintritt, welche meist im Alter zwischen dem 50. und 70. Lebensjahr geschieht. [54]
Ein bekannter Betroffener dieser Krankheit ist der britische theoretische Physiker und Astrophysiker Stephen William Hawking. Der 1942 geborene Hawking erhielt im Alter
von 21 die Diagnose. Über die Jahre wurde seine körperliche Verfassung immer eingeschränkter, bis er 1985 durch die Folge einer Tracheotomie seine Stimme verlor. Ein kalifornischer Computer Programmierer wurde auf die Situation aufmerksam und entwickelte
einen Sprachcomputer, den Hawking über einen Druckknopf steuern konnte. Nach funktionsverlust der Hand wurde ein Interface entwickelt, welches dem Physiker die Steuerung des Sprachcomputers über eine Backenbewegung ermöglicht, die durch einen Infrarotsensor aufgenommen werden. Da die Krankheit weiter fortschreitet und nun auch seine Gesichtmuskulatur langsam lähmt, wird nach einer neuen Möglichkeit gesucht, die für den Physiker lebenswichtige Steuerung des Sprachcomputers zu ermöglichen. Eine Möglichkeit könnte das Eye Tracking darstellen, bei dem die Augenbewegungen verfolgtwerden. [14] [24] [15]
Im Folgenden wird sich mit dem Thema der Blickrichtungsverfolgung auseinandergesetzt und ein Ansatz für ein Eye Tracking System erforscht.
Alzheimer’s Disease affects millions of people worldwide, but till today, the gold standard
for definitive diagnosis of this disease is a biopsy. Nevertheless, with the progress
of the disease, a volume loss in the Hippocampus can be observed. Therefore, good
segmentation methods are crucial to facilitate quantification of this loss.
The focus of this work is on the development of a Machine Learning algorithm, more
precisely a Generative Adversarial Network, for the automated segmentation of the
human Hippocampus and its substructures in Magnetic Resonance Images. In particular,
the task is to determine if the integration of a pre-trained network that generates
segmentations into a Generative Adversarial Network scheme can improve generated
segmentations. In this context, a segmentation network in form of a U-net corresponds
to the generator. The discriminator is developed separately and merged in a second
step with the generator for combined training.
With a literature review regarding the automated segmentation of the Hippocampus,
current methods in this field and their medical and technological basics were identified.
The datasets were preprocessed to make them suitable for the use in a neural
network. In the training process, the generator was trained first until convergence.
Then, the Generative Adversarial Network including the pre-trained generator was
trained. The outcomes were evaluated via cross-validation in two different datasets
(Kulaga-Yoskovitz and Winterburn). The Generative Adversarial Network scheme
was tested regarding different architectural and training aspects, including the usage
of skip-connections and a combined loss function.
The best results were achieved in the Kulaga-Yoskovitz dataset with a Dice coefficient
of 90.84 % after the combined training of generator and discriminator with a joined
loss function. This improves the current state of the art method in the same task and
dataset with a Dice index of 88.79 % by Romero [Rom17]. Except of two cases in the
Winterburn dataset, the proposed combined method could always improve the Dice
results after the training of only the generator, even though only by a small amount.
Die BPMN 2.0 bietet die Möglichkeit ausführbare Prozesse zu modellieren. Die so modellierten Prozesse können zur Automatisierung genutzt werden. Dies kann die Transparenz erhöhen und die Fehleranfälligkeit reduzieren. Im Klinischen Umfeld wird die Möglichkeit der Prozessautomatisierung mit Hilfe der BPMN 2.0 bisher nicht genutzt.
Im Rahmen dieser Arbeit wird am Beispiel eines Sterilgutaufbereiters evaluiert ob sich die BPMN 2.0 als Modellierungssprache, Signavio als Modellierungswerkzeug und die Camunda BPM als Business-Process-Engine eignen, Prozesse im klinischen Umfeld abzubilden.
Der Schwerpunkt dieser Arbeit liegt auf der Umsetzung der modellierten Prozesse mit Hilfe der Camunda BPM und der anschließenden Evaluation.
Im Anschluss an die Analyse des Beispielszenarios werden mit Hilfe von Signavio BPMN 2.0 konforme Modelle erstellt. Anschließend werden die typischen Elemente der einzelnen Prozesse identifiziert. Die Modelle werden daraufhin mit der Camunda BPM zu
automatisierbaren Prozessen umgesetzt.
Das Beispielszenario konnte in Teilprozesse zerlegt und anschließend automatisiert werden. Die dabei aufgetretenen Probleme wurden analysiert und die notwendigen Anpassungen der Prozesse wurden vorgenommen.
Die Evaluation zeigt, dass die Kombination aus BPMN 2.0, Signavio und der Camunda BPM geeignet ist standardisierte Prozesse aus dem klinischen Umfeld in automatisierte Prozesse umzusetzen.
Am Deutschen Krebsforschungszentrum wird im Rahmen des Projekts TPS++ erforscht, wie ein System für die adaptive Strahlentherapie (ART) konzipiert sein muss. Ziel der adaptiven Strahlentherapie ist, eine optimal auf den individuellen Patienten abgestimmte Behandlung durchzuführen. Basierend auf täglich erstellten Bilddaten müssen Behandlungszielvorgaben überwacht und der Plan innerhalb kürzester Zeit (Minuten) angepasst werden. Die größten Herausforderungen hierbei sind die Menge der zu verarbeitenden und zu visualisierenden Daten sowie die Anforderungen an Flexibilität, Grad der Automatisierung und Möglichkeiten der Interaktion.
Ziel dieser Arbeit ist die Gestaltung und Realisierung einer Benutzeroberfläche (GUI) für dieses neuartige, innovative System. Hierfür muss ein neues Konzept bezüglich der Benutzerführung, Flexibilität der GUI und der Interaktionsmöglichkeiten erstellt, umgesetzt und evaluiert werden. Die GUI muss so gestaltet sein, dass sie die Darstellung von Daten für verschiedenste bekannte Anwendungsszenarien sowie eine einfache Erweiterbarkeit für unbekannte Anwendungsszenarien und Daten leisten kann. Diese flexible Gestaltung der GUI ist notwendig, um adaptive Behandlungsstrategien weiter erforschen zu können. Aus Benutzeraktionen und den vorhandenen Daten muss das System erwünschte Benutzerhandlungen ableiten und die Daten in exakt der benötigten Darstellungsform für das aktuell zu bearbeitende Problem anzeigen.
Ambulant studies are dependent on the behavior and compliance of subjects in their home environment. Especially during interventions on the musculoskeletal system, monitoring physical activity is essential, even for research on nutritional, metabolic, or neuromuscular issues. To support an ambulant study at the German Aerospace Center (DLR), a pattern recognition system for human activity was developed. Everyday activi-ties of static (standing, sitting, lying) and dynamic nature (walking, ascending stairs, descending stairs, jogging) were under consideration. Two tri-axial accelerometers were attached to the hip and parallel to the tibia. Pattern characterizing features from the time domain (mean, standard deviation, absolute maximum) and the frequency domain (main frequencies, spectral entropy, autoregressive coefficients, signal magni-tude area) were extracted. Artificial neural networks (ANN) with a feedforward topology were trained with backpropagation as supervised learning algorithm. An evaluation of the resulting classifier was conducted with 14 subjects completing an activity protocol and a free chosen course of activities. An individual ANN was trained for each subject. Accuracies of 87,99 % and 71,23 % were approached in classifying the activity protocol and the free run, respectively. Reliabilities of 96,49 % and 76,77 % were measured. These performance parameters represent a working ambulant physical activity monitor-ing system.
Implementation of an interactive pattern mining framework on electronic health record datasets
(2019)
Large collections of electronic patient records contain a broad range of clinical information highly relevant for data analysis. However, they are maintained primarily for patient administration, and automated methods are required to extract valuable knowledge for predictive, preventive, personalized and participatory medicine. Sequential pattern mining is a fundamental task in data mining which can be used to find statistically relevant, non-trivial temporal dependencies of events such as disease comorbidities. This works objective is to use this mining technique to identify disease associations based on ICD-9-CM codes data of the entire Taiwanese population obtained from Taiwan’s National Health Insurance Research Database.
This thesis reports the development and implementation of the Disease Pattern Miner – a pattern mining framework in a medical domain. The framework was designed as a Web application which can be used to run several state-of-the-art sequence mining algorithms on electronic health records, collect and filter the results to reduce the number of patterns to a meaningful size, and visualize the disease associations as an interactive model in a specific population group. This may be crucial to discover new disease associations and offer novel insights to explain disease pathogenesis. A structured evaluation of the data and models are required before medical data-scientist may use this application as a tool for further research to get a better understanding of disease comorbidities.
Implementierung des "Bresenhams-Algorithmus" für die Benutzung in einem Rekonstruktionsalgorithmus
(2011)
In der Medizin nimmt die medizinische Bildgebung eine wichtige Rolle ein. Die Reaktionszeit chemischer Reaktionen im menschlichen Körper kann sehr kurz sein, so dass man diese Reaktionen nur schwer beobachten kann. Somit kann die Geschwindigkeit der bildgebender Verfahren in der Diagnostik eine ausschlaggebende Funktion haben. Des Weiteren sind bei der Bildgebung eingesetzte Strahlen potentiell gefährlich. Je länger die Aufnahme dauert, desto mehr Schaden kann angerichtet werden. Im Hinblick auf die Geschwindigkeit der bildgebenden Verfahren haben die unterschiedlichen Bildrekonstruktionsmethoden eine zentrale Bedeutung. Für die Benutzung in einem tomographischen Rekonstruktionsalgorithmus und somit für die Verbesserung der Geschwindigkeit und die Verringerung der eingesetzte Strahlen der Bildgebung, soll in dieser Arbeit der Bresenham-‐Algorithmus in Matlab implementiert werden. Mit Hilfe des Algorithmus werden alle Voxel eines Objektes ermittelt, die innerhalb des bestrahlten Bereichs liegen. Das Ergebnis des Algorithmus, sprich die Menge und die Koordinaten der bestrahlten Voxel, kann dann als Input für die Berechnung des relativen Volumenanteils oder für die Berechnung der Strahllänge im Voxel verwendet werden.
Im Rahmen eines Kooperationsprojektes zwischen dem Heidelberger Institut für Medizinische Informatik und Biometrie (IMBI) und der Mund- Kiefer und Gesichtschirurgie (MKG) des Universitätsklinikums Heidelberg soll ein MITK-Plugin für die Segmentierung von knöchernen Strukturen aus Schichtbilddaten der Computertomographie (CT), sowie der digitalen Volumentomographie (DVT) mit möglichst wenigen Nutzerinteraktionen entwickelt und evaluiert werden.
Hierbei ist insbesondere eine hohe Segmentierungsqualität im Bereich des Kiefers und der Zähne relevant. Dabei erweisen sich Zahnspangen bzw. Zahnfüllungen als besondere Herausforderung. Die Arbeit, sowie das MITK-Plugin behandelt drei Aufgabenbereiche. Es handelt sich dabei um die Metallartefaktreduktion (MAR), Segmentierung und Oberflächenrekonstruktion. Die bildbasierte Artefaktreduktion kann auf CT-Datensätze entweder manuelle oder automatisch angewendet werden. Dabei stehen zwei verschiedene Methoden zur Auswahl. Es handelt sich dabei um die lineare Interpolation (LI) und die rohdatenfreien MAR (RFMAR). Ziel der Artefaktreduktion ist eine verbesserte 3D-Visualisierung. Dabei zeigen die Methoden stellenweise eine Verbesserung durch reduzierte schwarzer Schatten im Bereich der Metalle. Problematisch wirken sich neue Artefakte, welche durch die Reduktion enstehen, auf das Ergebnis der 3D-Visualierung aus. Für die Segmentierung sind zwei Verfahren implementiert worden. Es handelt sich dabei um ein eigenes automatisches Verfahren LCC (Largest Connected Component), und um einen Region Grower. Das automatische Verfahren ist hierbei robust gegenüber einer ungewollt segmentierten Patientenliege, hat aber den Nachteil dass unter Umständen nicht alle knöchernen Strukturen segmentiert werden. Für diesen Fall kann der Region Grower eingesetzt werden, welcher durch Benutzerinteraktion den Nachteil des LCC-Verfahrens ausgleicht. Die Verfahren zeigen im Bezug auf CT-Datensätze gute Ergebnisse. Durch den schlechten Knochenkontrast des verwendeten DVT-Gerätes müssen bei der Segmentierung der DVT-Datensätze Kompromisse eingegangen werden. Durch eine Histogramm-Analyse hat sich für die automatische Schwellwertbestimmung nach Otsu eine Mindestanzahl von drei Otsu-Schwellwerten ergeben. Weiterhin wurde das LCCVerfahren gegenüber einer Referenzsegmentierung eines MKG-Chirurgen evaluiert. Die Evaluierung zeigt, dass die Wahl zwischen drei und sechs Otsu-Schwellwerte keine signifikanten Auswirkungen auf die Genauigkeit der Segmentierung hat. Durch einen Kompromiss zwischen Laufzeit und Segmentierungsqualität wird die Verwendung von vier Otsu-Schwellwerten empfohlen.
Die großen Datenmengen der klinischen Routine stellen für die medizinische Forschung ein großes Potenzial dar. So lassen sich zum Beispiel doppelte Erhebungen vermeiden oder Studienteilnehmer schneller finden. Sollen diese Daten genutzt werden, bedarf es geeigneter Werkzeuge und Prozesse. Im Rahmen des RWH Projektes der Medizinischen Uniklinik Heidelberg und dem GECKO Institut der Hochschule Heilbronn soll in dieser Arbeit ein Abfragewerkzeug für multidimensionale Datenbanken erstellt und verifiziert werden. Den Schwerpunkt der Arbeit bildet die Wahl einer geeigneten Softwarearchitektur. Im Anschluss an eine Anforderungsanalyse wird das Abfragewerkzeug mit Hilfe von Java Technologien, wie dem Google Web Toolkit und dem Open Java API for OLAP, erstellt. Die Anforderungen werden mit zwei Anwendungsszenarien verifiziert. Der RWH Report-Browser konnte mit der festgelegten Architektur implementiert werden. Zum Erstellen von MDX Anfragen an das DataWarehouse wurde ein Anfragegenerator implementiert. Die Verifikation zeigt, dass der Report-Browser als Plattform für den Zugriff auf klinische Routinedaten geeignet ist. Eine gute Testbarkeit der Architektur konnte nachgewiesen werden.
Medication reconciliation is defined by the American Society of Health- System Pharmacists (ASHP) and the American Pharmacists Association (AphA) as “the comprehensive evaluation of a patient’s medication regimen any time there is a change in therapy in an effort to avoid medication errors such as omissions, duplications, dosing errors or drug interactions, as well as to observe compliance and adherence patterns “. Medication reconciliation is very important to avoid medication errors but it is also a complex and time-consuming process. Medication histories, i.e. records of prescription, purchase, and refill sequences are considered to be a resource from which conclusions about medication reconciliation can be drawn. However, medication histories spread across diverse paper and electronic media may lack the required accuracy. By employing multiple electronic sources this thesis will evaluate if more accurate medication histories can be collected.
Der Einsatz von virtuellen Szenen in der Medizin gewinnt zunehmend an Bedeutung, weil Navigations- und Planungshilfen für den Arzt geschaffen werden. Die Verwendung von komplexen Computersimulationen soll den Behandlungsprozess verkürzen und gleichzeitig die Behandlungsqualität durch eine gezielte Vorgehensweise verbessern. Wegen der hohen Komplexität von Bildverarbeitungsalgorithmen ist es jedoch schwierig, eine einfache Interaktion mit den medizinischen Daten zu ermöglichen. Zudem werden Benutzereingaben durch die Eingabegeräte wie Maus und Tastatur eingeschränkt, da diese in vielen Fällen keine einfache Steuerung zulassen. Diese Diplomarbeit beschäftigt sich mit der Umsetzung intuitiver Interaktionskonzepte für den alltäglichen klinischen Gebrauch durch Verwendung von intuitiven Eingabegeräten (3D Maus, Wii Controller). Die Entwicklungen basieren auf dem Medical Imaging Interaction Toolkit (MITK) des Deutschen Krebsforschungszentrums (DKFZ). Dabei wurden von einer einfachen Kamerafahrt in einer Volumenvisualisierung über die Realisierung eines Headtracking in einer virtuellen Realität bis hin zu der Interaktion mit 3D Objekten konkrete Anwendungsbeispiele erarbeitet, analysiert und bewertet.
The Greifswald University Hospital in Germany conducts a research project called "Greifswald Approach to Individualized Medicine (GANI_MED)", which aims at improving patient care through personalized medicine. As a result of this project, there are multiple regional patient cohorts set up for different common diseases. The collected data of these cohorts will act as a resource for epidemiological research. Researchers are going to get the possibility to use this data for their study, by utilizing a variety of different descriptive metadata attributes. The actual medical datasets of the patients are integrated from multiple clinical information systems and medical devices. Yet, at this point in the process of defining a research query, researchers do not have proper tools to query for existing patient data. There are no tools available which offer a metadata catalogue that is linked to observational data, which would allow convenient research. Instead, researchers have to issue an application for selected variables that fit the conditions of their study, and wait for the results. That leaves the researchers not knowing in advance, whether there are enough (or any) patients fitting the specified inclusion and exclusion criteria. The "Informatics for Integrating Biology and the Bedside (i2b2)" framework has been assessed and implemented as a prototypical evaluation instance for solving this issue. i2b2 will be set up at the Institute for Community Medicine (ICM) at Greifswald, in order to act as a preliminary query tool for researchers. As a result, the development of a research data import routine and customizations of the i2b2 webclient were successfully performed. An important part of the solution is, that the metadata import can adapt to changes in the metadata. New metadata items can be added without changing the import program. The results of this work are discussed and a further outlook is described in this thesis.
In der heutigen Zeit ist es auch für Ärzte nicht immer trivial, diagnostisch präzise Entscheidungen auf Grund von modernsten medizinischen bildgebenden Verfahren zu treffen. Die vorliegende Bachelor-Thesis befasst sich damit wie man eine Software-anwendung mit Hilfe der Support Vector Machine (SVM), eine Technik des maschi-nellen Lernens, in ein bestehendes Framework wie z.B. MITK implementieren kann, um so vollautomatische Tests von Lebertumorsegmenierungen durchführen zu kön-nen. Durch die zusätzliche Integration einer Testklasse wird die entwickelte SVM validiert, um ein möglichst hohes Klassifikationsergebnis zu erreichen. Die in der Thesis entwickelte Softwarekomponente hat gezeigt, dass eine vollautomatische Segmentierung von Lebertumoren bei Patienten in zufriedenstellendem Maße möglich ist.
In this thesis a software system is proposed that provides transparent access to dynamically processed data using a synthetic filesystem for the data transfer as well as interaction with the processing pipeline. Within this context the architecture for such a software solution has been designed and implemented. Using this implementation various profiling measurements have been acquired in order to evaluate the applicability in different data processing scenarios. Usability aspects, considering the interaction with the processing pipeline, have been examined as well. The implemented software is able to generate the processing result on-the-fly without modification of the original input data. Access to the output data is provided by means of a common filesystem interface without the need of implementing yet another communication protocol. Within the processing pipeline the data can be accessed and modified independently from the actual input and output encoding. Currently the data can be modified using a C/C++, GLSL or Java front end. Profiling data has shown that the overhead induced by the filesystem is negligible for most usage patterns and is only critical for realtime processing with a high data throughput e. g. video processing at or above 30 frames per second where typically no file operations are involved.
eHMIS is a Ugandan Hospital Information System (HIS), which targets the Sub-Saharan market. In its first version all forms were programmed statically and adaptations were done by code modifications. In 2014 the development of a second version of eHMIS based on Java started.
This work aims at introducing dynamic forms to this new version. While forms that are significantly important to the workflow of the application will remain static, others are replaced by forms that are dynamically designed by the user. By that, the application will become more flexible and local and situational tailoring will be possible without inducing extra costs.
In this thesis the design, implementation and testing of dynamic forms in eHMIS is discussed. The architecture is based on the questionnaire resource of FHIR®. The module enables the user to create questions and group them into sections and questionnaires. For each question the type of answer expected and other constraints can be defined. A user interface covering all functions was designed, so that no programming skills are required. In a first step dynamic forms were integrated in the application's workflow for recording symptoms, though other fields of application are possible. For testing, a usability experiment was conducted in Tororo Hospital in Eastern Uganda, using the thinking aloud method. Results were analysed and evaluated to detect usability problems and gain a general impression of user satisfaction.
In der vorliegenden Thesis wurde untersucht, ob mit dem derzeitigen Krankenhausinformationssystem sowohl die Patientenversorgung, als auch Forschung unterstützt werden kann. Des Weiteren wurde analysiert, ob sich die erhobenen Patientendaten in einer geeigneten Form befinden, um diese direkt für die Forschung verwenden zu können. Dazu wurde im Rahmen dieser Arbeit eine Prozessanalyse der im Einsatz befindlichen Systeme in der Kinderkardiologie erstellt. Zur Analyse der Prozesse wurde eine IST-Analyse verwendet, welche das Problem der Datenerfassung und -haltung fokussiert. Hierbei wurden zwei Probleme aufgedeckt. Zum einen existierten Medienbrüche zwischen den einzelnen Systemen, welche das Risiko erhöhen, bei der Datenüberführung falsche Werte zu übergeben und dadurch die Qualität der Daten zu mindern. Zum anderen waren einige Informationen innerhalb der Befunde nicht strukturiert. Folglich konnten diese Werte nicht wie beabsichtigt für wissenschaftliche Studien herangezogen werden. Die Weiterverwendung der klinischen Daten in der Forschung (Second Use) war demzufolge nicht möglich. Mittels einer Balanced Scorecard wurde ein Entwicklungsplan erstellt, wie die Vision der Kinderkardiologie erfüllt werden kann. Der strategische Weg der BSC konzentrierte sich darauf, die Patientendaten für die Weiterverwendung bereit zu stellen. Die vier Standardperspektiven der BSC waren für die Kinderkardiologie nicht geeignet und somit mussten andere Perspektiven ausgewählt werden. Es wurden verschiedene Maßnahmen aufgezeigt und miteinander in Hinsicht auf Anwendbarkeit, zeitlichen Aufwand und Verwendung verglichen, um den strategischen Weg der BSC zu erreichen.
Die Langlebigkeit eines zementierten Implantats ist abhängig von einem starken Knochen-Zementinterface, sowie Implantat-Zementinterface, welches die Verbindung zwischen Knochenzement und Implantatmaterialien beschreibt. In einer Studie von Sebastian Jäger et al. [19], wurde die Verteilung des Zements in den Knochen untersucht, anhand von Schnittpräparaten, hergestellt aus zementierten Implantaten. Von den Schnittpräparaten wurden endoprothetische Schnittbilder erstellt, die für eine spätere Auswertung am PC dienen. Das Ziel dieser Arbeit ist es, ein möglichst automatisches Verfahren zu entwickeln, welches es ermöglicht Zement-, Knochen- und Prothesenstrukturen in den endoprothetischen Schichtbildern zu segmentieren. Diese Segmentierung gelingt jedoch nur durch eine Klassifikation der einzelnen Pixel.
Durch die immer härteren Anforderungen an Wirtschaftlichkeit und Qualität ihrer angebotenen Leistungen kommt es in der Medizin zur immer engeren Zusammenarbeit zwischen den Leistungserbringern. Das Universitätsklinikum Heidelberg und die IntercomponentWare AG haben daher ein gemeinsames Projekt ins Leben gerufen dessen Ziel die Entwicklung eines intersektoralen Informationssystems (ISIS) ist. ISIS soll den Austausch versorgungsrelevanter, medizinischer Daten ermöglichen. Patienten müssen der Teilnahme an ISIS und dem Austausch sowie der Verarbeitung ihrer Daten mit den einzelnen an ISIS teilnehmenden Einrichtungen aufgrund der rechtlichen Gegebenheiten in Deutschland explizit zustimmen. Das Management der Einwilligungserklärungen wurde bisher durch Produkte der Industrie nicht zufrieden stellend gelöst. Um das Einwilligungsmanagement befriedigend zu lösen wurde am Universitätsklinikum Heidelberg ein Konzept für ein zentrales Einwilligungsmanagement für ISIS entwickelt.
In dieser Bachelor-Thesis wird ein Ansatz zur robotergestützten Ultraschall-Bildgebun entwickelt. Es wird hierbei hauptsächlich die Kommunikation zwischen Roboter und
Computer, sowie die Steuerung des Roboters, betrachtet. Die Bilderfassung und Darstellung
ist nicht Teil dieser Arbeit. Ergebnis dieser Arbeit sind eine detaillierte Anforderungsanalyse, eine GUI zum Steuern der erstellten Roboterteilprogramme und das Roboterprogramm an sich. Auf Seiten
des Roboters sind Programme für das Beibringen von Positionen, das Anfahren
dieser und das Verfahren des Ultraschallkopfes an diesen (manuelle Steuerung mit einem Joystick) implementiert. Für eine Atembewegungskompensation sind Beispielprogramme erstellt worden. Die Kommunikation zwischen Roboter und Computer baut auf OpenIGTLink auf. Ein weiteres Ergebnis der Thesis ist die Architektur des Programms, die es ermöglicht, dem Roboter beliebig viele neue Befehle beizubringen.
Konzeption und Entwicklung einer robotergestützten und ultraschallbasierten Lokalisationskontrolle
(2018)
Mit Hilfe der Image Guided Therapy wird versucht die Bestrahlung von Tumoren mittels
Bildgebung zu verbessern und die Nebenwirkungen durch die Bestrahlung für den
Patienten zu minimieren. Diese Arbeit verfolgt den Ansatz Ultraschall als echtzeitfähige
Bildverarbeitungsmodalität zu nutzen und darüber eine Lokalisationskontrolle
von Tumoren während der Bestrahlung zu ermöglichen.
Ziel dieser Arbeit war die Entwicklung und Implementierung eines Gesamtkonzeptes
zur ultraschallbasierten und robotergestützten Lokalisationskontrolle. Ergebnis der
Arbeit ist eine auf dem medizinischen Bildverarbeitungsprogramm MITK basierte Applikation.
Diese erlaubt es ein 2D Ultraschallbild über ein Tracking-System oder den
Roboter zu referenzieren und mit registrierten Planungsdaten überlagert darzustellen.
Die Darstellung ist dabei in quasi Echtzeit sowohl in 2D als auch in 3D möglich. Zur
Registrierung wurde ein optisches Tracking-System verwendet, welches über einen eigens
neu entwickelten Filter mit dem Roboter verknüpft werden kann. Weiter lässt
sich aus der Applikation heraus der Roboter steuern und es können automatisierte
Scanverfahren genutzt werden, um mit Hilfe eines 2D Ultraschallkopfes ein 3D Ultraschallbild
zu erstellen. Die Anwendung knüpft an bestehenden Funktionen an und
erlaubt es künftigen Nutzern die neu erstellten Komponenten auch getrennt voneinander
weiter zu verwenden. Dazu gehören Filter für die Zuordnung der Ultraschallbilder,
sowie ein Filter zum Kombinieren von verschiedenen Tracking-Systemen, als auch die
Möglichkeit den Roboter zu nutzen.
Das deutsche Gesundheitswesen ist ein dichtes Netzwerk bestehend aus einer Vielzahl von unterschiedlichen Akteuren im komplexen Zusammenspiel. Ständige Gesundheitsreformen aufgrund steigender Ausgaben im Gesundheitswesen sowie Fortschritte in der Medizin nehmen Einfluss auf die Informationsverarbeitung in diesem Netzwerk. Das hat zur Folge, dass immer mehr Anwendungssysteme zum Einsatz kommen, die hinsichtlich ihrer Zusammenarbeit besondere Herausforderungen stellen. Häufig können die komplexen Abläufe bei der Zusammenarbeit der Anwendungssysteme erst durch ein Modell, welches die Realität abstrahiert, verstanden werden. In diesem Zusammenhang wird das deutsche Gesundheitswesen durch ein virtuelles Gesundheitssystem modelliert, welches die Akteure des deutschen Gesundheitswesens nachbildet. Im Rahmen der vorliegenden Diplomarbeit wird die Population durch einen Generator abgebildet. Der Generator generiert anhand der Patientendaten der Population ereignisbasierte Nachrichtenprofile, die dem virtuellen Gesundheitssystem zur Weiterverarbeitung zur Verfügung gestellt werden.
Für die fortwährende Optimierung von Behandlungsstrategien im Bereich der Strahlentherapie ist es notwendig, Behandlungspläne strukturiert miteinander zu vergleichen. Um die vielfältigen Datenmengen, die sich im Rahmen großer und übergreifender Forschungsprojekte, wie etwa dem ULICE-Projekt [18] ergeben, suffizient auswerten zu können, ist ein leichter Zugriff für alle Projektteilnehmer erstrebenswert. Dieser kann beispielsweise durch den Einsatz einer Telemedizinakte, wie sie z.B. von der Firma CHILI GmbH angeboten wird, erfolgen. Die Telemedizinakte muss unbedingt in der Lage sein, das Datenformat, in dem Therapiepläne abgespeichert werden (DICOM RT), zu verarbeiten. Daher wurde im ersten Schritt dieser Arbeit analysiert, welche Informationen im Rahmen eines DICOM RT Viewing Moduls im CHILI-PACS dargestellt werden können. Als zentrale Aufgabe wurde die Darstellung des Dosis-Volumen-Histogramms (DVH) ermittelt, für dessen Berechnung es Module für die Darstellung der segmentierten Strukturen (RT Structure Set) und die Dosisverteilung (RT Dose) geben muss. Außerdem soll es zu einem späteren Zeitpunkt leicht möglich sein, weitere Module für die Anzeige der übrigen DICOM RT Objekte zu integrieren. Nach der Spezifikation der geforderten Funktionalität wurde ein Konzept für deren Umsetzung erstellt und mit der Implementierung einer der Kernfunktionen begonnen. Durch diese Implementierung soll es anderen Programmierern erleichtert werden, das gewählte Konzept nachzuvollziehen und das DICOM RT Viewing Modul des CHILI-PACS entsprechend erweitern und anpassen zu können, bis letztendlich ein homogenes und vollständiges Gesamtsystem entsteht. Durch die Umsetzung eines Moduls zur Darstellung von RT Structure Sets ist es jetzt möglich, sich die segmentierten Strukturen eines DICOM RT Datensatzes im CHILIPACS anzeigen zu lassen. Es können gezielt einzelne Strukturen an- und abgewählt und deren Konturfarbe geändert werden. Die Darstellung der Konturen ist für die Axial-, die Coronal- und die Sagittalebene möglich. Eine Überprüfung der Funktionalität wurde mit den zur Verfügung stehenden DICOM RT Testdatensätzen durchgeführt.
Im Rahmen dieser Abschlussarbeit wird in Zusammenarbeit mit zwei Physiotherapeuten der IB Medizinischen Akademie Mannheim ein Konzept für das heimbasierte Training
in der Handtherapie erarbeitet. Das Konzept basiert auf der Thalmic Myo, einem Gestensteuerungssystem, das über den Arm gesteuert wird. Der Entwurf wird prototypisch in Verbindung mit einer Android Anwendung realisiert.
Das Myo-Armband ist mit Bewegungssensoren und Elektroden ausgestattet, womit sich Position von Hand und Arm im Raum erfassen und Bewegungen durch elektrische Signale
von Muskeln erkennen lassen. Basierend auf dieser Technologie, soll eine Möglichkeit zur
Verlaufskontrolle der Adhärenz, die Einhaltung der gemeinsam gesetzten Therapieziele, gewährleistet werden können.
Abschließend wird der Prototyp gemeinsam mit sieben Physiotherapeuten hinsichtlich
seiner Funktionalität untersucht und die Akzeptanz und das Nutzererlebnis evaluiert. Bei der Untersuchung wird das Studentenprojekt “LeapPhysio” hinzugezogen, das ähnliche Ziele verfolgt, jedoch auf einer anderen Technologie basiert. Es werden beide Technologien gegenübergestellt und auf ihre Eignung geprüft.
In einem überregionalen Forschungsprojekt untersuchen Heidelberger und Hannoveraner Wissenschaftler Entstehungsmechanismen und neue Therapieansätze des Leberzellkarzinoms, einer der tödlichsten Tumorerkrankungen unserer Zeit. Die IT-Plattform pelican soll dem Forschungsverbund die softwaregestütze Analyse und den Austausch von Leberkrebs-Forschungsdaten ermöglichen. Bisher fehlte dazu ein geeignetes Oberflächenkonzept. Deswegen wurde eine Benutzerschnittstelle entworfen, die in der Lage ist, heterogene Daten und Funktionen darzustellen und dabei flexibel an die Nutzerbedürfnisse angepasst werden kann. Es konnte anhand einer prototypischen Benutzungsoberfläche gezeigt werden, dass sich das Konzept praktisch umsetzen lässt. Mit Hilfe der in einem Evaluierungsprozess ausgewählten Portalsoftware GridSphere wurden mehrere Datendienste als Module in die pelican-Applikation integriert. Als besondere Herausforderungen haben sich die Navigation innerhalb der Oberflächenmodule sowie der Informationsaustausch zwischen den Komponenten herausgestellt. Die erarbeiteten Lösungsansätze wurden dokumentiert und dienen als Basis für die Integration beliebiger neuer Dienste in die Plattform. Zukünftige Entwicklungen können der Krebsforschung weltweit in Form von standardkonformen Diensten im caGrid Umfeld zur Verfügung gestellt werden.
Aktuell ist die Installation, sowie die Konfiguration von RANDI2, sehr umständlich. Parameter oder sogar ganze Konfigurationsdateien werden für die vorhandene Infrastruktur des Anwenders angepasst. Obwohl jede Installation mit Eingaben bezüglich der Institution, verantwortlichen Personen, Logos und vielen anderen Einstellungen parametriert wird, verfügt das System zurzeit über keinen Mechanismus, der den Benutzer bei der Konfiguration unterstützt. Dadurch kann die Installation und Konfiguration meistens nur von erfahrenen Anwendern durchgeführt werden. Ziel dieser Bachelorarbeit ist es, ein Modul zu entwickeln, welches den Administrator dabei unterstützt, das System bei der Installation von RANDI2 optimal einzurichten.
Eine der zentralen Aufgaben der medizinischen Bildverarbeitung ist es, den Arzt durch neue oder verbesserte Methoden zur Diagnostik und Therapieplanung bei medizinischen Entscheidungs- und Behandlungsprozessen zu unterstützen. Für viele Fragestellungen in der Medizin sind Untersuchungen von Gefäÿsystemen oder anderen tubulären Strukturen erforderlich. Die vorliegende Arbeit beschäftigt sich mit der Konzipierung und der Realisierung eines generischen Datenmodells für tubuläre Strukturen. Für die Darstellung dieser Strukturen wurde eine neue Visualisierungsmethode implementiert. Zudem wurden allgemein verwendbare und benutzerfreundliche Interaktionskomponenten entwickelt, die die Exploration, die Modikation, die Attributierung sowie die Analyse der modellierten Systeme ermöglichen.
An der NCT-Gewebebank in Heidelberg werden große Mengen menschlichen Gewebes vorgehalten, welche von Forschern hauptsächlich im Rahmen der Tumorforschung verwendet werden können. Da jede Dienstleistung im Zusammenhang mit diesem Gewebe, sowie die Herausgabe dessen zuerst bewilligt werden muss, müssen die forschenden Ärzte und Wissenschaftler einen Antrag an die Gewebebank stellen. Die
Antragsstellung erfolgt zum aktuellen Zeitpunkt über ein Online bereit gestelltes Formular, welches im besten Falle digital korrekt ausgefüllt, ausgedruckt und unterschrieben an das Sekretariat der NCT-Gewebebank geschickt wird. Da die Anträge dort wieder von Hand digitalisiert werden, soll der Vorgang online erfolgen und so die Antragsverwaltung erleichtern, sowie weniger anfällig für Fehler machen.
Im Rahmen dieser Bachelorarbeit soll ein Konzept entwickelt werden, wie ein Antragsportal funktionieren kann, über das die Forscher online Anträge stellen können.
Diese Arbeit ist auf die folgenden Ziele ausgerichtet:
- Modellierung des aktuellen Zustands des Prozesses der Antragstellung
- Modellierung eines möglichen zukünftigen Prozesses
- Vorstellung der möglichen Verbesserungen im Prozess
- Konzeptionierung eines Antragsportals
- Analyse der Umsetzung dieses Portals mit praktischen Ansätzen
Im Rahmen der sich ausbreitenden Digitalisierung ist die Forderung nach mehr Bandbreite in
aller Munde. Das Schlagwort ist allerdings ein umgangssprachlicher Begriff, welcher nicht
korrekt verwendet wird. Gemeint ist dabei vielmehr die Übertragungsrate. Bandbreite
beschreibt im eigentlichen Sinn den Frequenzumfang, für den ein System ausgelegt wurde. Die
Übertragungsrate ist mittlerweile zu einem Standortfaktor für Unternehmen geworden und kann
als ein Merkmal der Infrastruktur angesehen werden. Für manche Unternehmen ist eine hohe
Übertragungsrate unerlässlich um wettbewerbsfähig zu bleiben. Aus technischer Sicht gibt es
verschiedene Ansätze zur Steigerung der Übertragungsrate. Zunächst wird versucht, ohne
Veränderungen der Hardware eine kostengünstige Verbesserung zu erzielen. Beispielsweise
lässt sich eine Steigerung auf dem Weg der Modulation realisieren, indem mehrere
Trägerfrequenzen verwandt werden. Letztlich ist eine Optimierung der Hardware trotzdem
notwendig. Ursächlich für niedrige Übertragungsraten sind momentan noch die Netze. Die
Empfangseinheiten sind längst für höhere Geschwindigkeiten konzipiert. Sie enthalten neben
der Antenne einen Hochfrequenzverstärker, der die schwachen Antennensignale zur
anschließenden Demodulation und weiteren Verarbeitung verstärkt. Hohe Frequenzen
produzieren in den Leistungsverstärkern große Verlustleistungen aufgrund der Häufigkeit von
Umladevorgängen. Daraus resultieren schlechte Wirkungsgrade. Doch nicht nur an die
Übertragungsrate, sondern auch an den Wirkungsgrad werden hohe Anforderungen gestellt.
Dahinter steht der Bedarf an Mobilität. Von Smartphones und Tablets wird die Fähigkeit
erwartet, mit hoher Geschwindigkeit umfangreiche Datenmengen zu laden. Gleichzeitig wird
eine maximale Akkulaufzeit gefordert.
Im Mittelpunkt dieser Arbeit steht die optimale Betriebsweise von Hochfrequenzverstärkern.
Die Verstärker selbst wurden von den Herstellern optimiert. Darüber hinaus wirkt sich die
Auswahl der Betriebsparameter sehr stark auf den Wirkungsgrad und die Verzerrung und damit
auf die Signalqualität aus.
Aufgabe dieser Arbeit ist es, diverse Messungen mit Hochfrequenzverstärkern durchzuführen
um daraus die optimale Einstellung der Betriebsgrößen zu ermitteln. Die Messungen erfolgen
zunächst mit vier vorgefertigten Verstärkern. Darüber hinaus wird ein Verstärker auf der Basis
eines Verstärker-ICs auf einer Leiterplatte selbst hergestellt, mit welchem anschließend die
selben Messungen erfolgen.
Die Messungen erfolgen mit drei unterschiedlichen Typen von Eingangssignalen:
-CW-Signalen entsprechend Sinus-Signalen.
-Zweitonmessungen. Zwei Sinus-Signale unterschiedlicher Frequenz am Eingang.
-Digitale Telekommunikationsstandards.
Alle nachfolgend genannten Messungen werden im Laufe der Dokumentation erklärt.
Im CW-Fall werden Load-Pull- und Power-Sweep-Messungen durchgeführt. Es folgen
Spektralmessungen zur Bewertung der harmonischen Oberwellen bei Einton-Ansteuerung. Im
Zweiton-Fall werden Spektralmessungen im Bereich der Grundfrequenzen und anschließend
im Bereich der harmonischen Oberwellen durchgeführt. Auf diese Weise sollen
Intermodulationsprodukte bewertet werden. Ebenfalls im Zweiton-Fall erfolgen Load-Pull-
Messungen. Die Betrachtung des Spektrums erfolgt unter Variation der Last. Die Auswirkung
der Last auf den Störabstand wird dabei untersucht. Im Fall der digitalen Ansteuerung werden
unter verschiedenen Betriebsgrößen Messungen der Nachbarkanalleistung durchgeführt.
Der Ausdruck Load-Pull-Messung hat verschiedene Bedeutungen. Zum einen werden mit
Load-Pull-Messungen umgangssprachlich sämtliche Messungen bezeichnet, die zur
Charakterisierung von Hochfrequenzverstärkern dienen. Zum anderen steht Load-Pull-
Messung für ein Messverfahren, bei welchem die Lastimpedanz variiert wird. Die letztgenannte
Load-Pull-Messung stellt die zentrale Messung in dieser Arbeit dar. Um ihre Bedeutung
verständlich zu machen ist eine Auseinandersetzung mit den Grundlagen der
Hochfrequenztechnik von Nöten. Im Folgenden werden all jene Aspekte der
Hochfrequenztechnik behandelt, die zum Verständnis der Messungen dieser Arbeit notwendig
sind.
Ziel dieser Arbeit soll es sein, ein Verfahren zu entwickeln, das bildbasiert mit Hilfe eines Interpolationsmodells die Bewegung von Lungentumoren modellierbar macht, unter der Berücksichtigung, dass die Erkennbarkeit der Tumore während der Therapie nicht immer gewährleistet ist. Als erster Schritt soll daher ein geeignetes internes Surrogat für die Tumorbewegung ermittelt werden. Dessen Bewegungen während der Atmung des Patienten sollen mit Hilfe von kontinuierlich aufgenommenen zweidimensionalen Fluoroskopieaufnahmen quantifiziert werden. Anschließend sollen die gewonnenen Informationen als Eingabewerte für ein Interpolationsmodell genutzt werden, um diese Bewegung auf den Tumor im Inneren der Lunge zu propagieren. Dabei gilt es, ein geeignetes Modell zu entwickeln, das sich für die Modellierung von Tumoren auf Basis der Surrogatinformationen eignet und in der Lage ist, die Tumorbewegung möglichst wahrheitsgetreu zu modellieren. Eine Evaluation der Ergebnisse soll sowohl Aufschluss über eine geeignete Parametrisierung des Modells geben, als auch die Anwendbarkeit eines solchen Modells hinterfragen. Um eine Austauschbarkeit der Modelle gewährleisten zu können, soll eine Schnittstelle entwickelt werden, über die verschiedene Modelle angesprochen werden können. Weitergehend soll ein Ansatz entwickelt werden, der es ermöglicht, die relevanten Positionen des Surrogats ohne manuelle Interaktion während der Therapie zu bestimmen.
In einer vorangegangenen, erst kürzlich abgeschlossenen Bachelorarbeit wurde festgestellt, dass durch die Einführung eines Projektportals das Projektmanagement in der IT-Abteilung der SLK-Kliniken verbessert werden kann. Bisher befindet sich keine Applikation im Einsatz, mit deren man alle nützlichen Features verwalten kann. Ebenfalls ist noch nicht klar welche Anforderungen solch ein Produkt überhaupt erfüllen muss. Da noch nicht ganz klar ist, was für Anforderungen die Applikation besitzen muss und bisher nur eine sehr teure Komponente getestet wird, wird in dieser Bachelorarbeit ermittelt, was für Anforderungen für solch ein Produkt nötig sind. Mit Hilfe eines Wegwerfprototyps wird getestet, ob das Open Source Produkt Liferay Portal den Anforderungen gerecht wird und ob das Produkt in den Betrieb der Klinik integrierbar ist. Ein Analysekatalog zu erstellen ist ein Weiteres Ziel dieser Arbeit. Mit diesem können auch weitere Systeme analysiert und verglichen werden. Zudem wird eine Empfehlung auszusprechen sein, ob es sinnvoll ist das Produkt einzusetzen.
Gegenstand der hier vorgestellten Arbeit ist ein Konzept zum Lehren von Ontologie in der Informatik, des Ontologiemanagementsystems Protégé und des Wissensverwal-tungssytems ProKEt. Dies geschieht in Form von Präsentationen, welche mit Hilfe von PowerPoint erstellt wurden. Dabei wird auf die Installation, die Basics, Kernkonzepte und die Teilwissensbasen im Detail eingegangen. Diese Präsentationen sollen ein alter-natives Konzept für den Unterricht darstellen, um die Lernenden aktiv zu beteiligen, und stellen ein Angebot zum Lehren der entsprechenden Thematiken dar. Zur Überprüfung der Effizienz wird eine Evaluation durchgeführt.
Spinodal Zr0.4Hf0.6Ni1.15Sn half-Heusler thermoelectrics are synthesized and aged. The complex microstructure due to the spinodal decomposition is investigated by powder X-ray diffraction (XRD), scanning electron microscope (SEM) and transmission electron microscope (TEM). By Rietveld refinements, it is confirmed that excess Ni atoms in the arc-melted and spark-plasma-sintered half-Heusler matrix prefer to form nanoscale/ submicron Heusler precipitates via spinodal decomposition and growth during the aging at 1173 K. Such phase separation changes the band gap of semiconductors, reduces the thermal conductivity drastically and improves the performance of thermoelectrics. As a result, a more than 50 % improvement of the ZT value on the unaged specimens was achieved.
Im Bereich der Krebsdiagnose und -therapie gewinnen neue minimalinvasive Verfahren zunehmend an Bedeutung. Beispiele hierfür sind Nadelpunktionen, bei denen zur Diagnose eine Gewebsprobe entnommen (Biopsie) oder durch Zerstörung des Gewebes im Bereich der Nadelspitze eine Krebserkrankung therapiert wird (Ablation). Eine zentrale Herausforderung hierbei ist die genaue Platzierung der Nadel. Am deutschen Krebsforschungszentrum (DKFZ) wurde ein computergestütztes Navigationssystem für Nadelinsertionen entwickelt, das sich im in-vivo Versuch als höchst akkurat zeigte. Trotz der vielversprechenden Ergebnisse kam das System bisher jedoch nicht am Patienten zum Einsatz. Dies ist unter anderem auf die schwierige Integration des Systems in den klinischen Workflow und die erhöhte Invasivität zurückzuführen. Vor diesem Hintergrund war das Ziel dieser Arbeit zum einen die Entwicklung einer flexiblen, erweiterbare Software für die navigierte Weichgewebepunktion, zum anderen die Weiterentwicklung des Navigationssystems durch die Einbindung eines neuen Feldgenerators für das elektromagnetische Trackingsystem NDI Aurora. Die Implementierung der Software erfolgte aufbauend auf der Bibliothek MITK und dem enthaltenen Modul MITK-IGT. Dabei wurde ein komponentenweiser Aufbau umgesetzt, welcher einen einfachen Austausch oder Erweiterungen der einzelnen Komponenten ermöglicht. Des Weiteren wurde der neue Feldgenerator bezüglich Genauigkeit und Präzision in der Einsatzumgebung evaluiert und es erfolgte ein Test des Navigationssystems unter klinischen Bedingungen. Abschließend kann festgestellt werden, dass durch die gezeigte Flexibilität und Erweiterbarkeit der entwickelten Software zahlreiche Möglichkeiten zur Weiterentwicklung offen stehen. Bezüglich des Feldgenerators zeigte sich das vielversprechende Potential dieses Geräts für die Weiterentwicklung medizinischer Navigationssysteme.
Mobile Signalverarbeitung auf dem Raspberry Pi mit Aspekten der Vernetzung mehrerer Messgeräte
(2016)
Bei dem Raspberry Pi handelt es sich um einen Einplatinen-Computer, welcher ich seit dem Verkaufsstart im Jahr 2012 sehr groÿer Beliebtheit erfreut. Nicht zuletzt aufgrund des hohen Grades an Kompatibilität und der groÿen Online-Community wurden bis zum heutigen Tage unzählige Projekte realisiert. In der Zwischenzeit ist der Raspberry Pi in verschiedenen Anwendungsgebieten und Branchen anzutreffen. Dies ist insofern interessant, da dieser ursprünglich für den Einsatz in Bildungseinrichtungen auf Basis einer Stiftung entwickelt wurde [1]. Dabei stellen Anwendungen wie eine Smart-Home Steuerung, ein Multimedia-Center oder eine Wetterstation nur einen Bruchteil der Möglichkeiten dar. Grundlage dieser vielfältigen Anwendungsgebiete ist die Unterstützung sämtlicher standardisierter Hard- und Software-Schnittstellen, zum Beispiel USB, Audio-Klinke, Serial Peripheral Interface (SPI) oder Inter-Integrated Circuit (I2C). Dadurch wird die Einbindung von beispielsweise Global Positioning System (GPS)-Modulen, Wireless Local Area Network (WLAN)-Empfängern oder sogar der eigenen Spiegelreflexkamera ermöglicht. Weiterhin ist mit Hilfe eines Mikrofons die Entwicklung einer Sprachsteuerung denkbar. Der mögliche Anwendungsbereich des Raspberry Pi geht noch weit über die hier genannten Beispiele hinaus. Eine der Schnittstellen des Raspberry Pi stellen die sogenannten General Purpose Input Output (GPIO)-Ports dar. Hierbei handelt es sich um analoge und digitale Ein- und Ausgänge worüber Hardware-Komponenten direkt auf physikalischer Ebene eingebunden werden können. Der Raspberry Pi eignet sich auch zum Nachweis radioaktiver Strahlung.
Ziel der Arbeit soll die Entwicklung eines Gerätes zur Messung der Strahlendosis sein. Dazu gehört die Verwendung eines Geiger-Müller-Zählrohrs, welches mittels eines Arduino Shields ansprechbar ist. Weiterhin sollen im Rahmen dieser Arbeit verschiedene Möglichkeiten zur Weiterentwicklung des Systems betrachtet werden. Das Geiger-Shield, zu dem das Geiger-Müller-Zählrohr und das Arduino-Shield gehören, wurden von dem Hardware-Hersteller Libelium im Jahr 2011 entwickelt. Anlass war der Tsunami in Japan, welcher die Atom-Katastrophe von Fukushima nach sich gezogen hat [2]. Das Geiger-Shield sollte den Alltag der Menschen in Japan vereinfachen, indem sie selbst die Strahlendosis messen konnten. Mit einem Mikrocontroller, einem einfachen LC-Display und einem Akku konnte so jederzeit die aktuelle Strahlendosis bestimmt werden.
The e-commerce turnover has a constant growth rate of about 10%. An additional increase
in complexity and traffic spikes clarify the need for a scalable software architecture to prevent
a potential technical debt, higher financial cost, longer maintenance, or a reduced reliability.
Due to the fact, that existing approaches like the Palladio Approach require a high modelling
overhead and the importance of dropping this overhead was identified this master thesis is
focused on the modelling and simulation of e-commerce web application architectures using
a high-level approach to provide a faster, but possibly more inaccurate prediction of the
scalability.
This is done by the usage of the Design Science Research Process as a frame, a scientific
literature review for use of the existing knowledge base and the Conical Methodology for the
artefact creation. The artefact is a graphical model which is evaluated using a simulation
developed with Python and its framework SimPy. For model creation and evaluation a total
of twelve papers investigating the scalability of e-commerce web application architectures is
split into a test and train group. The training group and parts of the scientific research are
used to identify the components load balancer, application server, web tier, ERP system,
legacy system and database as well as some general characteristics that need to be considered.
The components with the most modelling variables are the application server and web
tier with a total of thirteen, while the ERP and legacy system only required five.
The model is evaluated using a total of three papers from the test group, where an average
throughput error of 5.78% and a response time error of 46.55% or 26.46% was identified. An
additional evaluation based on two non-e-commerce architectures shows the usability of the
model for other types of architectures. Even though the average error gives the impression,
that the model is not providing a good estimation, the graphical results show, that the model
and its simulation can be used to provide a faster scalability prediction. The model is least
accurate for the prediction of the situation, where the response time increases exponentially,
as this is the point, where variables, only accountable for some percentage and thus ignored
for the model, have the highest influence.
Future research can be found in the extension of the model by either adding or investigating
additional components, adding features ignored within this work or applying it to other
types of web application architectures. Additionally, both the low-level and the high-level
approaches can be brought together to combine the advantages from both approaches.
Die Atemfrequenz ist neben anderen ein wichtiger Vitalparameter für die Erkennung von verschiedenen Erkrankungen des Atemsystems. Dennoch gibt es wenige Lösungen dafür, die Atemfrequenz aus der Ferne zu überwachen. Im Rahmen dieser
Arbeit soll deshalb ein dreidimensionaler Beschleunigungssensor für die Aufnahme der Brustkorbbewegung verwendet werden. Aus diesen Bewegungsdaten soll daraufhin mit Hilfe von digitalen Signalverarbeitungsmethoden die Atemfrequenz ermittelt werden. Der Beschleunigungssensor ermittelt die rustkorbbewegung mit einer Abtastrate von 50 Punkten pro Sekunde für jede Achse. Die Rohsignale werden achsenweise mit einem Butterworth-Bandpassfilter gefiltert und daraufhin mit Hilfe der Fast Fourier Transformation in die jeweiligen Frequenzspektren umgerechnet. Die einzelnen Achsen-Spektren werden zusammenaddiert und bilden so die Frequenzen des gesamten Signals ab. In dem Gesamtspektrum wird das absolute Maximum gesucht, das die dominante Frequenz des Signals angibt, aus welcher die Atemfrequenz berechnet werden kann.
Das Hauptziel dieser Arbeit ist es, einen Open-Source Python-Prototypen zu entwickeln, der aus den Sensor-Rohdaten die Atemfrequenz ermitteln kann. Dieser soll nach Fertigstellung veröffentlicht werden. Die Ergebnisse des Prototypen sollen gegen die des „EarlySense VitalsGerätes evaluiert werden. Dabei sind für die Ergebnis-Datensätze die Korrelation berechnet sowie die statistische Signifikanz ermittelt worden. Die Evaluation hat gezeigt, dass der Prototyp gute Ergebnisse liefert, welche in den meisten Fällen eine statistisch signifikante Korrelation aufweisen.
1.1 Gegenstand und Motivation Jeder von uns, der schon mal im Krankenhaus war und ein paar Tage dort verbringen musste, weiß wie einseitig und monoton der Alltag in solchen sterilen Räumen aus-sieht. Und wie froh man ist den ersten Schritt aus dem Krankenhaus zu machen, sich wieder mit Freunden zu treffen und den Alltag zu genießen. Nun gibt es auch schwer erkrankte Menschen, die dem Krankenhaus Alltag nicht nach ein paar Tagen entgehen können. Sie sind oft monatelang, ja sogar jahrelang, ans Kran-kenhaus gebunden. Besonders für Kinder und Jugendliche ist diese Situation ein großes Problem. Oft wird man von einem auf den nächsten Augenblick aus dem Alltag und dem sozialen Umfeld herausgerissen. Selbst, der bis dato doch nervende Schulalltag, fängt einem an zu feh-len. An das Beisammen sein mit Freunden im Klassenzimmer, oder auf dem Schulhof, ist auf einmal nicht zu denken. Stattdessen ist man an ein Krankenhausbett gefesselt und ist von medizinischen Geräten umgeben. Die Stiftung „Große Hilfe für kleine Helden“ will durch das Projekt „virtuelles Klas-senzimmer“ den erkrankten Schülern den virtuellen Besuch des Schulunterrichts ermög-lichen und somit auch den Kontakt mit Mitschülern und die sozialen Bindungen in ers-ter Linie zu pflegen und zu erhalten. Als Fundament für diese Arbeit dient die Abschlussarbeit „Konzeption und Implemen-tierung eines virtuellen Klassenzimmers für schwer erkrankte Kinder und Jugendliche mit Hilfe eines Telepräsenzrobotors“ von Frau Konstantina Georgiadou [3], welche auch den aktuellen Stand des Projekts beschreibt. Eine Überarbeitung des Projekts ist notwendig, da die Multimediale Hardware (Sound / Kamera / Mikrofone) immer noch kabelgebunden ist und somit die nötige Bewegungsfreiheit für den Telepräsenzroboter im Klassenzimmer oder dem Schulhof fehlt. 1.2 Problemstellung und Zielsetzung Zwar hat das Projekt beachtliche Schritte nach vorn gemacht, dennoch gibt es noch zahlreiche Probleme die zu bewältigen sind. Im Rahmen der Abschlussarbeit von Frau Georgiadou wurde ein Roboter Kit namens TurtleBot2 angeschafft. Das Kit beinhaltet eine Kobuki Basis, sowie eine Microsoft Kinect und ein ROS- kompatibles Netbook. Die vorhandene Hardware erweist sich als problematisch, da sie einige Hürden und Hindernisse darstellt die in dieser Abschlussarbeit eliminiert werden sollen. Das Projekt hat also nach diesem Stand eine große Schwäche. Die externen Geräte sind alle kabelgebunden. So benötigen die Station des mobilen Mikrofons, sowie die Audio-box eine externe Stromversorgung. Auch die Kamera, welche über das Netzwerk mittels LAN-Kabel fungiert, schränkt die Mobilität des TurtleBot2 erheblich ein. Da diese von Router und Steckdose abhängt. Ein ähnliches Problem liegt auch bei den Lautsprechern vor, diese sind ebenfalls von einer externen Steckdose abhängig. Das Ziel dieser Arbeit ist es, in erster Linie die eingeschränkte Mobilität des Turtle-Bot2, welche durch die kabelgebunden Geräte verursacht wird, zu beseitigen. Es sollen neue Hardware und Verbesserungsvorschläge für die medialen Probleme gefunden wer-den, wobei die Qualität von Ton und Bild nicht leiden dürfen. Ebenfalls soll eine An-richtung bzw. Verbesserungsvorschlag für den Schüler gefunden werden, welches ihm das Halten des Laptops erspart. Insgesamt soll sich der TurtleBot2 frei im Raum bewe-gen können und dem Schüler im Krankenhaus somit eine verbesserte Integration in die Normalität bzw. den Alltag ermöglichen.
In den letzten Jahrzehnten ist der demographische Wandel in Deutschland immer deutlicher geworden. Die Zahl der pflegebedürftigen Menschen nimmt immer weiter zu und damit auch der Bedarf an Pflegepersonal. Die Anzahl der Pflegekräfte in Deutschland ist derzeit jedoch nicht ausreichend. Aus diesem Grund haben die Pflegekräfte für jeden Bewohner der Pflegeeinrichtung nur einen sehr begrenzten Zeitrahmen zur Verfügung. Da der geistige und körperliche Zustand der Bewohner sehr unterschiedlich ist, muss für jeden Bewohner ein individueller Pflegeplan angeboten werden. Es ist natürlich nicht möglich, sich von jedem Bewohner diese Informationen bzw. Pflegemaßnahmen zu merken, daher ist Dokumentation in einer Pflegeeinrichtung ebenso wichtig, wie eine qualitativ hochwertige Pflege. Die eben erwähnte Dokumentation ist sehr zeitaufwendig, jedoch unabdingbar. Um den Zeitaufwand der Dokumentation zu verkürzen, ist die Verwendung von IT in den letzten Jahren immer wichtiger geworden. Es ist natürlich nur dann eine Zeitersparnis möglich, wenn die Benutzer der Software gut mit selbiger umgehen können und die Verwendung möglichst intuitiv ist.
In this bachelor thesis, different models for predicting the influenza virus are
examined in more detail.
The focus is on epidemiological compartmental models, as well as on different
Machine Learning approaches.
In particular, the basics chapter presents the SIR model and its various extensions.
Furthermore, Deep Learning and Social Network approaches are
investigated and the applied methods of a selected article are analysed in more
detail.
The practical part of this work consists in the implementation of a Multiple
Linear Regression model and an Artificial Neural Network. For the development
of both models the programming language Python was chosen using the
Deep Learning Framework Keras.
Tests were performed with real data from the Réseau Sentinelles, a French
organisation for monitoring national health.
The results of the tests show that the Neural Network is able to make better
predictions than the Multiple Linear Regression model.
The discussion shows ideas for improving influenza prediction including the
establishment of a worldwide collaboration between the surveillance centres as
well as the consolidation of historical data with real-time social media data.
Therefore, this work consists of a state-of-the art of models regarding the
spread of influenza virus, the development and comparison of several models
programmed in Python, evaluated on real data.