Frei zugänglich
Refine
Year of publication
Document Type
- Master's Thesis (61) (remove)
Has Fulltext
- yes (61)
Is part of the Bibliography
- no (61)
Keywords
- Entwicklung (7)
- Anwendung (4)
- Evaluation (4)
- Implementierung (4)
- Analyse (3)
- Konzeption (3)
- Segmentierung (3)
- Software (3)
- Tumor (3)
- Ultraschall (3)
Institute
- Medizinische Informatik (43)
- Informatik (15)
- Bibliothek (2)
- Mechanik und Elektronik (1)
Virtuelle und reale Objekte als natürliche Bewegungsgrenzen in der Virtual Reality Exposure Therapy
(2019)
Zur Behandlung von Angststörungen – welche mit zu den häufigsten psychischen Erkrankungen in Deutschland gehören – bietet die klassische Expositionstherapie gute Erfolgsaussichten [1]. In den letzten Jahren entwickelte sich die Virtual Reality Exposure Therapy (VRET), welche eine interessante Alternative darstellt. Eine Studie zeigte 2013 die Effektivität einer VRET [2]. Problematisch ist allerdings die Lokomotion in psychotherapeutischen Praxen mit geringem Raumangebot. Gängige Sicherheitssysteme zur Kollisionsvermeidung wie Lighthouse‘s Chaperone [3] [4] oder Occulus Guardian [5] zeigen bei Annäherung an die Grenzen des sicheren Bereiches eine auffällige optische Warnung an. Dies kann jedoch bei den Benutzern zu unerwünschten Präsenzeinbrüchen (breaks in presence) führen.
Simeone et al. [6] konnten nachweisen, dass in einer virtuellen Umgebung rein virtuelle Gegenstände oder Wände von den Benutzern als real wahrgenommen und umgangen werden. Dieser Effekt liess sich durch zusätzliche reale Gegenstände im Raum noch verstärken.
In dieser Masterarbeit wurde untersucht, ob sich die Ergebnisse von Simeone et al. [6] auch auf die Anwendung der VRET übertragen lassen.
Dazu wurde eine Studie mit 2 Gruppen zu je 12 Probanden durchgeführt. Alle hielten 2 Vorträge in einer virtuellen Umgebung, je einen Vortrag mit Avatar und einen ohne. Während eine Gruppe sich in einer virtuellen Umgebung mit ausschliesslich virtuellen Objekten bewegte, waren in der anderen Gruppe zusätzlich reale Gegenstände vorhanden.
In der vorliegenden Masterarbeit konnte gezeigt werden, dass die Ergebnisse von Simeone et al. [6] auch für VRET Anwendungen gültig sind. Virtuelle Objekte werden auch von Patienten eines VRET Systems als Begrenzungen akzeptiert. Zudem lassen sich physische Objekte in die virtuelle Umgebung integrieren, ohne dass es zu Kollisionen mit den Benutzern kommt oder die Benutzer eine erhöhte Angst vor Kollisionen haben. Obwohl das Vorhandensein eines Avatars in der durchgeführten Studie keinen Einfluss auf die Ergebnisse hatte, wünschen sich die Benutzer einen Avatar in der VR.
Der sichere Aufenthaltsbereich kann also bereits in der virtuellen Umgebung durch virtuelle Objekte abgegrenzt werden, wodurch - zugunsten der Vermeidung von Präsenzeinbrüchen - auf ein System wie Lighthouse`s Chaperone [3] [4] verzichtet werden kann. Ausserdem müssen reale Gegenstände nicht aus dem Bewegungsbereich der Benutzer ausgeschlossen werden, sondern lassen sich in die virtuelle Umgebung integrieren. Dies stellt eine praktikable Möglichkeit dar, den für VRET nutzbaren Raum in psychotherapeutischen Einrichtungen zu optimieren. Somit stellt die VRET eine echte Alternative zur klassischen Expositionstherapie dar.
Im Mittelpunkt dieser Arbeit steht die Entwicklung eines Verfahrens für das Erzeugen
von möglichst realitätsnahen Telepräsenzsimulationen für die Information von Patienten
in der Strahlentherapie sowie die Anwendung des Verfahrens in der Entwicklung
einer VR-Applikation auf Basis eines Demonstrators.
Nach einer Literaturrecherche bezüglich des aktuellen Stands der Aufklärung von Patienten
wurden die Grundlagen von Virtual und Augmented Reality hinsichtlich der
gegebenen Hardware ermittelt. Hierauf folgte die Auswahl von Software für das Scannen
von realen Objekten mit dem gegebenen Tablet in einem Bestrahlungsraum des
DKFZ sowie die Auswahl einer Game Engine für die Entwicklung des Demonstrators.
Daraufhin wurde ein Rekonstruktionsalgorithmus ausgewählt. Anschließend wurden
verschiedene Objekte im Bestrahlungsraum gescannt, sodass die Parameter des Algorithmus
iterativ hinsichtlich der Qualität der erzeugten Objekte für den Einsatz in
einer VR-Anwendung optimiert werden konnten. Daraufhin erfolgte eine Texturierung
der Oberfläche mit Kamerafotos. Nach einer Aufbereitung der Modelle wurden diese
in ein Virtual Environment importiert. Parallel dazu wurde nach der Auswahl der Unreal
Engine als Game Engine, der Demonstrator entwickelt, in welchen die gescannten
Modelle integriert wurden.
Das Verfahren liefert ausreichend genaue Ergebnisse, um Konzepte in der Strahlentherapieaufklärung
vermitteln zu können. Der Effekt und die Akzeptanz der Technik
spielen eine weitere wichtige Rolle für den Einsatz der Methodik und müssen durch eine
Evaluation im klinischen Alltag validiert werden, wofür die Entwicklung einer klinisch
anwendbaren Software auf Basis der gewonnenen Erkenntnisse notwendig wird.
Viele schwerstkranke Patienten hegen den Wunsch die letzte Zeit ihres Lebens im häuslichen Umfeld, statt im Krankenhaus zu verbringen. Eine wichtige Voraussetzung dafür ist eine gute Kommunikation zwischen allen Beteiligten des Versorgungsprozesses, damit ambulante und stationäre Versorgung gut aufeinander abgestimmt werden können. Derzeit gibt es nur wenige strukturierte Untersuchungen, welche Informationsbedürfnisse die im Bereich der palliativen Versorgung beteiligten Akteure besitzen und ob und in wieweit diese mit mobilen Anwendungen unterstützt werden können. Die vorliegende Arbeit untersucht, welche Akteure hauptsächlich am Prozess der palliativen Versorgung sowohl im ambulanten als auch im stationären Umfeld beteiligt sind und welche Informationsbedürfnisse diese haben. Weiterhin werden bisher verwendete Werkzeuge, Apps und Anwendungssysteme darauf untersucht, inwiefern sie diesen Informationsbedarf erfüllen. Die Untersuchungen basieren auf einer systematischen Literaturrecherche sowie Hospitationen in drei verschiedenen palliativen Einrichtungen: einer spezialisierten ambulanten Palliativversorgungs Einheit in Buchen im Odenwald, einer Palliativ-Station in Heidelberg sowie einer Palliativ-Einrichtung in Santiago de Chile. Es hat sich herausgestellt, dass die stationären Einrichtungen bereits sehr gute Strukturen für Informationsaustausch und -bereitstellung etabliert haben, diese jedoch im ambulanten Bereich weniger wirksam sind. Gründe hierfür liegen in der größeren örtlichen Distanz und den damit verbundenen längeren Kommunikationswegen im ambulanten Bereich. Ebenso ist bedingt durch den zusätzlichen Fahrtaufwand bei gleicher Patientenzahl und Visitendauer nur eine geringere Anzahl an Visiten möglich. Bisher sind hier aber vor allem die informationsverarbeitenden Prozesse aufgrund der geringen Größe der Einrichtungen und der hohen Individualität der Behandlung wenig automatisiert und automatisierbar. Die für die Palliativversorgung existierenden Softwareprodukte sind hierfür zu umfangreich oder nicht ausreichend adaptierbar. Es hat sich gezeigt, dass der Bedarf an mobiler, technischer Unterstützung vor allem in der ambulanten Palliativversorgung in den Bereichen Dokumentation und Abrechnung, aber auch bei der Bildung und Weiterbildung von Fachpersonal, Patienten und Angehörigen derzeit nicht gedeckt werden kann.
This thesis presents a photmetric stereo method based on the work of Schulze [35], who in turn extended the research of Schroeder et al. [33,34] In this approach, three different lightings are obtained by illuminating the object by three colored light sources (red, green and blue). A video of the subject is captured from the front, the back and the side. The single frames are then extracted from the viedo, which are used for the 3D reconstruction of the subject. The aim of this work was to improve the presented method of Schulze with real patient subjects by getting a better sphere calibration and changing some parameters in the patient processing. As the graphical interface was implemented for persons with a technical background, it has been changed to become also more convenient to use for non-technically oriented staff
Ein Tumor ist eine örtlich umschriebene Zunahme des Gewebevolumens, im engeren
Sinn eine gewebliche Neubildung, ein Geschwür in Form eines enthemmten und
irreversiblen Überschusswachstums von körpereigenem Gewebe [33].
,,In Europa sind 3-5% [...] aller malignen Tumoren des Menschen Tumoren der Mundhöhle,
davon stellen die Plattenepithelkarzinome mit 95% den größten Anteil.” [28].
Nur 25-40% der Patienten mit Lymphknotenmetastasierung erreichen die 5-Jahres-Überlebensrate im Gegensatz zu ca. 90% der Patienten ohne Metastatisierung [29].
Oft werden diese Tumore spät erkannt und müssen deshalb durch eine Operation
entfernt werden. Das Plattenepithelkarzinom kann den Kiefer infiltrieren, die notwendige
Resektion des Tumors kann zu einer Verschlechterung der Ästhetik, zum Verlust der Kaufunktionalität und der Sprechfunktionalität führen.
Im Universitätsklinikum Heidelberg (UKHD) werden verschiedene Verfahren zur
Rekonstruktion angewandt, wie die Rekonstruktion mithilfe der körpereigenen Fibula(dt.Wadenbein), deren Schaft dafür entnommen wird. Aus diesem Schaft werden Segmente gesägt, mit welchen dann der ursprüngliche Verlauf der Mandibula
(dt. Unterkiefer), in dem resezierten Bereich, rekonstruiert wird. Die Rekonstruktion
erfolgt mit einer speziellen Platte auf welcher die Fibulasegmente befestigt werden. Diese Platte wird anschließend am Restunterkiefer fixiert.
Die Schwierigkeit besteht in der Nachbildung des Unterkieferverlaufs und der Erhaltung
des Kiefergelenks. Bei dieser Operation muss die Ischämiezeit, die Zeit, welche ein Organ ohne Blutversorgung schadlos überstehen kann, berücksichtigt
werden. Ohne eine genaue Schnittführung ist die Wahrscheinlichkeit größer, dass
die gesägten Segmente nachbearbeitet werden müssen, was wiederum ein zeitliches
Problem ist.
Deshalb wird Rekonstruktion mit Cutting-Guides (dt. Sägeschnittschablone) unterstützt. Diese Guides werden nach der Planung der Operation angefertigt. Sie
werden in der Mund-, Kiefer- und Gesichtschirurgie (MKG) des UKHD von einem
Zahntechniker hergestellt. Alternativ gibt es industrielle Dienstleister, die diese Guides herstellen können. Diese sind jedoch wesentlich teurer als die in der MKG etablierte Lösung.
Die häufigste Todesursache in Deutschland sind Erkrankungen des Herz-Kreislaufsystems. Zwei häufig auftretende Krankheiten sind Aortenaneurysmen und Aortendissektionen. Für die Diagnose und die computerunterstützte OP-Planung wird eine semantische Annotation der präoperativ akquirierten Bilddaten benötigt. Dies wird herkömmlich durch eine manuelle Segmentierung der betroffenen Strukturen erreicht. Mit Verfahren aus der medizinischen Bildverarbeitung, darunter die deformierbaren Modelle, ist es möglich diese Segmentierung weitgehend zu automatisieren. In dieser Masterarbeit wird ein Verfahren vorgestellt, das mit Hilfe von deformierbaren Modellen eine automatische Segmentierung der Aorta und Aortenpathologien in 2D-CTA-Aufnahmen ermöglicht. Hierfür wurde ein geeignetes deformierbares Modell identifiziert, welches mit üblichen Störungen von CTA-Aufnahmen zurecht kommt. Das Verfahren ist eine Kombination aus den Dual Snakes und den GVF-Snakes und wird Dual-GVF-Snakes genannt. Das Besondere an diesem Verfahren ist, dass nicht nur das Lumen der Aorta und eines Aortenaneurysmas, sondern auch die zwei Lumen einer Aortendissektion gleichzeitig segmentiert werden können. Realisiert wird dies durch eine Unterteilung der Kontur in Segmente mit unterschiedlichen Eigenschaften. Das in dieser Arbeit vorgestellte Verfahren wurde zur Segmentierung von Objekten in synthetischen und klinischen Bilder angewendet, wobei die klinischen Bilder die Aorta, ein Aortenaneurysma und verschiedene Aortendissektionen beinhalten. Zur Evaluierung wurde das Verfahren mit den GVF-Snakes und den AB-Snakes verglichen, indem der Abstand zwischen Referenzkonturen und berechneter Konturen ermittelt wurde. Ein Vorteil gegenüber GVF-Snakes ist, dass zwei Objekte segmentiert und voneinander unterschieden werden können. Im Gegensatz zu den GVF-Snakes und den AB-Snakes müssen weniger Parameter eingestellt werden und die Membran zwischen den beiden Lumen der Aortendissektion wird erkannt. Das Verfahren ist robuster gegenüber der Initialisierung und lierfert vergleichbare Ergebnisse wie das GVF-Snakes Verfahren mit gezielter Initialisierung.
Segmentation of the Cerebrospinal Fluid from MRI Images for the Treatment of Disc Herniations
(2010)
About 80 percent of people are affected at some point in their lives by lower back pain, which is one of the most common neurological diseases and reasons for long-term disability in the United States. The symptoms are primarily caused by overly heavy lifting and/or overstretching of the back, leading to a rupture and an outward bulge of an intervertebral disc, which puts pressure on and pinches the nerve fibers of the spine. The most common form is a lumbar disc herniation between the fourth and fifth lumbar vertebra and between the fifth lumbar vertebra and the sacrum. In recent years the diagnosis of lower back pain has improved, mainly due to enhanced imaging techniques and imaging quality, but the surgical therapy remains hazardous. Reasons for this include low visibility when accessing the lumbar area and the high risk of causing permanent damage when touching the nerve fibers. A new approach for increasing patient safety is the segmentation and visualization of the cerebrospinal fluid in the lower lumbar region of the vertebral column. For this purpose a new fully-automatic and a semi-automatic approach were developed for separating the cerebrospinal fluid from its surroundings on T2-weighted MRI scans of the lumbar vertebra. While the fully-automatic algorithm is realized by a model-based searching method and a volume-based segmentation, the semi-automatic algorithm requires a seed point and performs the segmentation on individual axial planes through a combination of a region-based segmentation algorithm and a thresholding filter. Both algorithms have been applied to four T2-weighted MRI datasets and are compared with a gold-standard segmentation. The segmentation overlap with the gold-standard was 78.7 percent for the fully-automatic algorithm and 93.1 percent for the semi-automatic algorithm. In the pathological region the fully-automatic algorithm obtained a similarity of 56.6 percent, compared to 87.8 percent for the semi-automatic algorithm.
Ultraschallbildgebung ist ein in der Medizin häufig verwendetes Verfahren zur Diagnostik und Verlaufskontrolle. Ultraschall bietet vor allem eine große Weichteilauflösung bei gleichzeitig niedrigen Kosten, erfordert aber vom Anwender ein großes Maß an Erfahrung. Aufgrund vieler Artefakte und Verzerrungen in Ultraschallbildern ist die Bildqualität der Bilder deutlich geringer, als die derer, die mittels Magnetresonanztomographie erstellt werden können. Deshalb arbeiten viele verschiedene Forschungsgruppen an der Verbesserung der Modalitäten und Datensätze im Zusammenhang mit Ultraschallbildgebung. Diese Arbeit beschäftigt sich mit der Entwicklung eines robotergestützten Ultraschalltomographen. Das Gerät ist in der Lage tomographische Bildserien von Phantomen und Weichgewebe zu erstellen, die anschließend dreidimensional visualisiert werden können.
Quantitative assessment of Positron Emission Tomography (PET) imaging can be used for diagnosis and staging of tumors and monitoring of response in cancer treatment. In clinical practice, PET analysis is based on normalized indices such as those based on the Standardized Uptake Value (SUV). Although largely evaluated, these indices are considered quite unstable mainly because of the simplicity of their experimental protocol. Development and validation of more sophisticated methods for the purposes of clinical research require a common open platform that can be used both for prototyping and sharing of the analysis methods, and for their evaluation by clinical users. This work was motivated by the lack of such platform for longitudinal quantitative PET analysis. By following a prototype driven software development approach, an open source tool for quantitative analysis of tumor changes based on multi-study PET image data has been implemented. As a platform for this work, 3D Slicer 4, a free open source software application for medical image computing has been chosen. For the analysis and quantification of PET data, the implemented software tool guides the user through a series of workflow steps. In addition to the implementation of a guided workflow, the software was made extensible by integration of interfaces for the enhancement of segmentation and PET quantification algorithms. By offering extensibility, the PET analysis software tool was transformed into a platform suitable for prototyping and development of PET-specific segmentation and quantification methods. The accuracy, efficiency and usability of the platform were evaluated in reproducibility and usability studies. The results achieved in these studies demonstrate that the implemented longitudinal PET analysis software tool fulfills all requirements for the basic quantification of tumors in PET imaging and at the same time provides an efficient and easy to use workflow. Furthermore, it can function as a platform for prototyping of PET-specific segmentation and quantification methods, which in the future can be incorporated in the workflow.
The e-commerce turnover has a constant growth rate of about 10%. An additional increase
in complexity and traffic spikes clarify the need for a scalable software architecture to prevent
a potential technical debt, higher financial cost, longer maintenance, or a reduced reliability.
Due to the fact, that existing approaches like the Palladio Approach require a high modelling
overhead and the importance of dropping this overhead was identified this master thesis is
focused on the modelling and simulation of e-commerce web application architectures using
a high-level approach to provide a faster, but possibly more inaccurate prediction of the
scalability.
This is done by the usage of the Design Science Research Process as a frame, a scientific
literature review for use of the existing knowledge base and the Conical Methodology for the
artefact creation. The artefact is a graphical model which is evaluated using a simulation
developed with Python and its framework SimPy. For model creation and evaluation a total
of twelve papers investigating the scalability of e-commerce web application architectures is
split into a test and train group. The training group and parts of the scientific research are
used to identify the components load balancer, application server, web tier, ERP system,
legacy system and database as well as some general characteristics that need to be considered.
The components with the most modelling variables are the application server and web
tier with a total of thirteen, while the ERP and legacy system only required five.
The model is evaluated using a total of three papers from the test group, where an average
throughput error of 5.78% and a response time error of 46.55% or 26.46% was identified. An
additional evaluation based on two non-e-commerce architectures shows the usability of the
model for other types of architectures. Even though the average error gives the impression,
that the model is not providing a good estimation, the graphical results show, that the model
and its simulation can be used to provide a faster scalability prediction. The model is least
accurate for the prediction of the situation, where the response time increases exponentially,
as this is the point, where variables, only accountable for some percentage and thus ignored
for the model, have the highest influence.
Future research can be found in the extension of the model by either adding or investigating
additional components, adding features ignored within this work or applying it to other
types of web application architectures. Additionally, both the low-level and the high-level
approaches can be brought together to combine the advantages from both approaches.
Im Bereich der Krebsdiagnose und -therapie gewinnen neue minimalinvasive Verfahren zunehmend an Bedeutung. Beispiele hierfür sind Nadelpunktionen, bei denen zur Diagnose eine Gewebsprobe entnommen (Biopsie) oder durch Zerstörung des Gewebes im Bereich der Nadelspitze eine Krebserkrankung therapiert wird (Ablation). Eine zentrale Herausforderung hierbei ist die genaue Platzierung der Nadel. Am deutschen Krebsforschungszentrum (DKFZ) wurde ein computergestütztes Navigationssystem für Nadelinsertionen entwickelt, das sich im in-vivo Versuch als höchst akkurat zeigte. Trotz der vielversprechenden Ergebnisse kam das System bisher jedoch nicht am Patienten zum Einsatz. Dies ist unter anderem auf die schwierige Integration des Systems in den klinischen Workflow und die erhöhte Invasivität zurückzuführen. Vor diesem Hintergrund war das Ziel dieser Arbeit zum einen die Entwicklung einer flexiblen, erweiterbare Software für die navigierte Weichgewebepunktion, zum anderen die Weiterentwicklung des Navigationssystems durch die Einbindung eines neuen Feldgenerators für das elektromagnetische Trackingsystem NDI Aurora. Die Implementierung der Software erfolgte aufbauend auf der Bibliothek MITK und dem enthaltenen Modul MITK-IGT. Dabei wurde ein komponentenweiser Aufbau umgesetzt, welcher einen einfachen Austausch oder Erweiterungen der einzelnen Komponenten ermöglicht. Des Weiteren wurde der neue Feldgenerator bezüglich Genauigkeit und Präzision in der Einsatzumgebung evaluiert und es erfolgte ein Test des Navigationssystems unter klinischen Bedingungen. Abschließend kann festgestellt werden, dass durch die gezeigte Flexibilität und Erweiterbarkeit der entwickelten Software zahlreiche Möglichkeiten zur Weiterentwicklung offen stehen. Bezüglich des Feldgenerators zeigte sich das vielversprechende Potential dieses Geräts für die Weiterentwicklung medizinischer Navigationssysteme.
Ziel dieser Arbeit soll es sein, ein Verfahren zu entwickeln, das bildbasiert mit Hilfe eines Interpolationsmodells die Bewegung von Lungentumoren modellierbar macht, unter der Berücksichtigung, dass die Erkennbarkeit der Tumore während der Therapie nicht immer gewährleistet ist. Als erster Schritt soll daher ein geeignetes internes Surrogat für die Tumorbewegung ermittelt werden. Dessen Bewegungen während der Atmung des Patienten sollen mit Hilfe von kontinuierlich aufgenommenen zweidimensionalen Fluoroskopieaufnahmen quantifiziert werden. Anschließend sollen die gewonnenen Informationen als Eingabewerte für ein Interpolationsmodell genutzt werden, um diese Bewegung auf den Tumor im Inneren der Lunge zu propagieren. Dabei gilt es, ein geeignetes Modell zu entwickeln, das sich für die Modellierung von Tumoren auf Basis der Surrogatinformationen eignet und in der Lage ist, die Tumorbewegung möglichst wahrheitsgetreu zu modellieren. Eine Evaluation der Ergebnisse soll sowohl Aufschluss über eine geeignete Parametrisierung des Modells geben, als auch die Anwendbarkeit eines solchen Modells hinterfragen. Um eine Austauschbarkeit der Modelle gewährleisten zu können, soll eine Schnittstelle entwickelt werden, über die verschiedene Modelle angesprochen werden können. Weitergehend soll ein Ansatz entwickelt werden, der es ermöglicht, die relevanten Positionen des Surrogats ohne manuelle Interaktion während der Therapie zu bestimmen.
Eine der zentralen Aufgaben der medizinischen Bildverarbeitung ist es, den Arzt durch neue oder verbesserte Methoden zur Diagnostik und Therapieplanung bei medizinischen Entscheidungs- und Behandlungsprozessen zu unterstützen. Für viele Fragestellungen in der Medizin sind Untersuchungen von Gefäÿsystemen oder anderen tubulären Strukturen erforderlich. Die vorliegende Arbeit beschäftigt sich mit der Konzipierung und der Realisierung eines generischen Datenmodells für tubuläre Strukturen. Für die Darstellung dieser Strukturen wurde eine neue Visualisierungsmethode implementiert. Zudem wurden allgemein verwendbare und benutzerfreundliche Interaktionskomponenten entwickelt, die die Exploration, die Modikation, die Attributierung sowie die Analyse der modellierten Systeme ermöglichen.
In einem überregionalen Forschungsprojekt untersuchen Heidelberger und Hannoveraner Wissenschaftler Entstehungsmechanismen und neue Therapieansätze des Leberzellkarzinoms, einer der tödlichsten Tumorerkrankungen unserer Zeit. Die IT-Plattform pelican soll dem Forschungsverbund die softwaregestütze Analyse und den Austausch von Leberkrebs-Forschungsdaten ermöglichen. Bisher fehlte dazu ein geeignetes Oberflächenkonzept. Deswegen wurde eine Benutzerschnittstelle entworfen, die in der Lage ist, heterogene Daten und Funktionen darzustellen und dabei flexibel an die Nutzerbedürfnisse angepasst werden kann. Es konnte anhand einer prototypischen Benutzungsoberfläche gezeigt werden, dass sich das Konzept praktisch umsetzen lässt. Mit Hilfe der in einem Evaluierungsprozess ausgewählten Portalsoftware GridSphere wurden mehrere Datendienste als Module in die pelican-Applikation integriert. Als besondere Herausforderungen haben sich die Navigation innerhalb der Oberflächenmodule sowie der Informationsaustausch zwischen den Komponenten herausgestellt. Die erarbeiteten Lösungsansätze wurden dokumentiert und dienen als Basis für die Integration beliebiger neuer Dienste in die Plattform. Zukünftige Entwicklungen können der Krebsforschung weltweit in Form von standardkonformen Diensten im caGrid Umfeld zur Verfügung gestellt werden.
Im Rahmen dieser Abschlussarbeit wird in Zusammenarbeit mit zwei Physiotherapeuten der IB Medizinischen Akademie Mannheim ein Konzept für das heimbasierte Training
in der Handtherapie erarbeitet. Das Konzept basiert auf der Thalmic Myo, einem Gestensteuerungssystem, das über den Arm gesteuert wird. Der Entwurf wird prototypisch in Verbindung mit einer Android Anwendung realisiert.
Das Myo-Armband ist mit Bewegungssensoren und Elektroden ausgestattet, womit sich Position von Hand und Arm im Raum erfassen und Bewegungen durch elektrische Signale
von Muskeln erkennen lassen. Basierend auf dieser Technologie, soll eine Möglichkeit zur
Verlaufskontrolle der Adhärenz, die Einhaltung der gemeinsam gesetzten Therapieziele, gewährleistet werden können.
Abschließend wird der Prototyp gemeinsam mit sieben Physiotherapeuten hinsichtlich
seiner Funktionalität untersucht und die Akzeptanz und das Nutzererlebnis evaluiert. Bei der Untersuchung wird das Studentenprojekt “LeapPhysio” hinzugezogen, das ähnliche Ziele verfolgt, jedoch auf einer anderen Technologie basiert. Es werden beide Technologien gegenübergestellt und auf ihre Eignung geprüft.
Das deutsche Gesundheitswesen ist ein dichtes Netzwerk bestehend aus einer Vielzahl von unterschiedlichen Akteuren im komplexen Zusammenspiel. Ständige Gesundheitsreformen aufgrund steigender Ausgaben im Gesundheitswesen sowie Fortschritte in der Medizin nehmen Einfluss auf die Informationsverarbeitung in diesem Netzwerk. Das hat zur Folge, dass immer mehr Anwendungssysteme zum Einsatz kommen, die hinsichtlich ihrer Zusammenarbeit besondere Herausforderungen stellen. Häufig können die komplexen Abläufe bei der Zusammenarbeit der Anwendungssysteme erst durch ein Modell, welches die Realität abstrahiert, verstanden werden. In diesem Zusammenhang wird das deutsche Gesundheitswesen durch ein virtuelles Gesundheitssystem modelliert, welches die Akteure des deutschen Gesundheitswesens nachbildet. Im Rahmen der vorliegenden Diplomarbeit wird die Population durch einen Generator abgebildet. Der Generator generiert anhand der Patientendaten der Population ereignisbasierte Nachrichtenprofile, die dem virtuellen Gesundheitssystem zur Weiterverarbeitung zur Verfügung gestellt werden.
Konzeption und Entwicklung einer robotergestützten und ultraschallbasierten Lokalisationskontrolle
(2018)
Mit Hilfe der Image Guided Therapy wird versucht die Bestrahlung von Tumoren mittels
Bildgebung zu verbessern und die Nebenwirkungen durch die Bestrahlung für den
Patienten zu minimieren. Diese Arbeit verfolgt den Ansatz Ultraschall als echtzeitfähige
Bildverarbeitungsmodalität zu nutzen und darüber eine Lokalisationskontrolle
von Tumoren während der Bestrahlung zu ermöglichen.
Ziel dieser Arbeit war die Entwicklung und Implementierung eines Gesamtkonzeptes
zur ultraschallbasierten und robotergestützten Lokalisationskontrolle. Ergebnis der
Arbeit ist eine auf dem medizinischen Bildverarbeitungsprogramm MITK basierte Applikation.
Diese erlaubt es ein 2D Ultraschallbild über ein Tracking-System oder den
Roboter zu referenzieren und mit registrierten Planungsdaten überlagert darzustellen.
Die Darstellung ist dabei in quasi Echtzeit sowohl in 2D als auch in 3D möglich. Zur
Registrierung wurde ein optisches Tracking-System verwendet, welches über einen eigens
neu entwickelten Filter mit dem Roboter verknüpft werden kann. Weiter lässt
sich aus der Applikation heraus der Roboter steuern und es können automatisierte
Scanverfahren genutzt werden, um mit Hilfe eines 2D Ultraschallkopfes ein 3D Ultraschallbild
zu erstellen. Die Anwendung knüpft an bestehenden Funktionen an und
erlaubt es künftigen Nutzern die neu erstellten Komponenten auch getrennt voneinander
weiter zu verwenden. Dazu gehören Filter für die Zuordnung der Ultraschallbilder,
sowie ein Filter zum Kombinieren von verschiedenen Tracking-Systemen, als auch die
Möglichkeit den Roboter zu nutzen.
Durch die immer härteren Anforderungen an Wirtschaftlichkeit und Qualität ihrer angebotenen Leistungen kommt es in der Medizin zur immer engeren Zusammenarbeit zwischen den Leistungserbringern. Das Universitätsklinikum Heidelberg und die IntercomponentWare AG haben daher ein gemeinsames Projekt ins Leben gerufen dessen Ziel die Entwicklung eines intersektoralen Informationssystems (ISIS) ist. ISIS soll den Austausch versorgungsrelevanter, medizinischer Daten ermöglichen. Patienten müssen der Teilnahme an ISIS und dem Austausch sowie der Verarbeitung ihrer Daten mit den einzelnen an ISIS teilnehmenden Einrichtungen aufgrund der rechtlichen Gegebenheiten in Deutschland explizit zustimmen. Das Management der Einwilligungserklärungen wurde bisher durch Produkte der Industrie nicht zufrieden stellend gelöst. Um das Einwilligungsmanagement befriedigend zu lösen wurde am Universitätsklinikum Heidelberg ein Konzept für ein zentrales Einwilligungsmanagement für ISIS entwickelt.
In der vorliegenden Thesis wurde untersucht, ob mit dem derzeitigen Krankenhausinformationssystem sowohl die Patientenversorgung, als auch Forschung unterstützt werden kann. Des Weiteren wurde analysiert, ob sich die erhobenen Patientendaten in einer geeigneten Form befinden, um diese direkt für die Forschung verwenden zu können. Dazu wurde im Rahmen dieser Arbeit eine Prozessanalyse der im Einsatz befindlichen Systeme in der Kinderkardiologie erstellt. Zur Analyse der Prozesse wurde eine IST-Analyse verwendet, welche das Problem der Datenerfassung und -haltung fokussiert. Hierbei wurden zwei Probleme aufgedeckt. Zum einen existierten Medienbrüche zwischen den einzelnen Systemen, welche das Risiko erhöhen, bei der Datenüberführung falsche Werte zu übergeben und dadurch die Qualität der Daten zu mindern. Zum anderen waren einige Informationen innerhalb der Befunde nicht strukturiert. Folglich konnten diese Werte nicht wie beabsichtigt für wissenschaftliche Studien herangezogen werden. Die Weiterverwendung der klinischen Daten in der Forschung (Second Use) war demzufolge nicht möglich. Mittels einer Balanced Scorecard wurde ein Entwicklungsplan erstellt, wie die Vision der Kinderkardiologie erfüllt werden kann. Der strategische Weg der BSC konzentrierte sich darauf, die Patientendaten für die Weiterverwendung bereit zu stellen. Die vier Standardperspektiven der BSC waren für die Kinderkardiologie nicht geeignet und somit mussten andere Perspektiven ausgewählt werden. Es wurden verschiedene Maßnahmen aufgezeigt und miteinander in Hinsicht auf Anwendbarkeit, zeitlichen Aufwand und Verwendung verglichen, um den strategischen Weg der BSC zu erreichen.
eHMIS is a Ugandan Hospital Information System (HIS), which targets the Sub-Saharan market. In its first version all forms were programmed statically and adaptations were done by code modifications. In 2014 the development of a second version of eHMIS based on Java started.
This work aims at introducing dynamic forms to this new version. While forms that are significantly important to the workflow of the application will remain static, others are replaced by forms that are dynamically designed by the user. By that, the application will become more flexible and local and situational tailoring will be possible without inducing extra costs.
In this thesis the design, implementation and testing of dynamic forms in eHMIS is discussed. The architecture is based on the questionnaire resource of FHIR®. The module enables the user to create questions and group them into sections and questionnaires. For each question the type of answer expected and other constraints can be defined. A user interface covering all functions was designed, so that no programming skills are required. In a first step dynamic forms were integrated in the application's workflow for recording symptoms, though other fields of application are possible. For testing, a usability experiment was conducted in Tororo Hospital in Eastern Uganda, using the thinking aloud method. Results were analysed and evaluated to detect usability problems and gain a general impression of user satisfaction.
In this thesis a software system is proposed that provides transparent access to dynamically processed data using a synthetic filesystem for the data transfer as well as interaction with the processing pipeline. Within this context the architecture for such a software solution has been designed and implemented. Using this implementation various profiling measurements have been acquired in order to evaluate the applicability in different data processing scenarios. Usability aspects, considering the interaction with the processing pipeline, have been examined as well. The implemented software is able to generate the processing result on-the-fly without modification of the original input data. Access to the output data is provided by means of a common filesystem interface without the need of implementing yet another communication protocol. Within the processing pipeline the data can be accessed and modified independently from the actual input and output encoding. Currently the data can be modified using a C/C++, GLSL or Java front end. Profiling data has shown that the overhead induced by the filesystem is negligible for most usage patterns and is only critical for realtime processing with a high data throughput e. g. video processing at or above 30 frames per second where typically no file operations are involved.
The Greifswald University Hospital in Germany conducts a research project called "Greifswald Approach to Individualized Medicine (GANI_MED)", which aims at improving patient care through personalized medicine. As a result of this project, there are multiple regional patient cohorts set up for different common diseases. The collected data of these cohorts will act as a resource for epidemiological research. Researchers are going to get the possibility to use this data for their study, by utilizing a variety of different descriptive metadata attributes. The actual medical datasets of the patients are integrated from multiple clinical information systems and medical devices. Yet, at this point in the process of defining a research query, researchers do not have proper tools to query for existing patient data. There are no tools available which offer a metadata catalogue that is linked to observational data, which would allow convenient research. Instead, researchers have to issue an application for selected variables that fit the conditions of their study, and wait for the results. That leaves the researchers not knowing in advance, whether there are enough (or any) patients fitting the specified inclusion and exclusion criteria. The "Informatics for Integrating Biology and the Bedside (i2b2)" framework has been assessed and implemented as a prototypical evaluation instance for solving this issue. i2b2 will be set up at the Institute for Community Medicine (ICM) at Greifswald, in order to act as a preliminary query tool for researchers. As a result, the development of a research data import routine and customizations of the i2b2 webclient were successfully performed. An important part of the solution is, that the metadata import can adapt to changes in the metadata. New metadata items can be added without changing the import program. The results of this work are discussed and a further outlook is described in this thesis.
Der Einsatz von virtuellen Szenen in der Medizin gewinnt zunehmend an Bedeutung, weil Navigations- und Planungshilfen für den Arzt geschaffen werden. Die Verwendung von komplexen Computersimulationen soll den Behandlungsprozess verkürzen und gleichzeitig die Behandlungsqualität durch eine gezielte Vorgehensweise verbessern. Wegen der hohen Komplexität von Bildverarbeitungsalgorithmen ist es jedoch schwierig, eine einfache Interaktion mit den medizinischen Daten zu ermöglichen. Zudem werden Benutzereingaben durch die Eingabegeräte wie Maus und Tastatur eingeschränkt, da diese in vielen Fällen keine einfache Steuerung zulassen. Diese Diplomarbeit beschäftigt sich mit der Umsetzung intuitiver Interaktionskonzepte für den alltäglichen klinischen Gebrauch durch Verwendung von intuitiven Eingabegeräten (3D Maus, Wii Controller). Die Entwicklungen basieren auf dem Medical Imaging Interaction Toolkit (MITK) des Deutschen Krebsforschungszentrums (DKFZ). Dabei wurden von einer einfachen Kamerafahrt in einer Volumenvisualisierung über die Realisierung eines Headtracking in einer virtuellen Realität bis hin zu der Interaktion mit 3D Objekten konkrete Anwendungsbeispiele erarbeitet, analysiert und bewertet.
Die großen Datenmengen der klinischen Routine stellen für die medizinische Forschung ein großes Potenzial dar. So lassen sich zum Beispiel doppelte Erhebungen vermeiden oder Studienteilnehmer schneller finden. Sollen diese Daten genutzt werden, bedarf es geeigneter Werkzeuge und Prozesse. Im Rahmen des RWH Projektes der Medizinischen Uniklinik Heidelberg und dem GECKO Institut der Hochschule Heilbronn soll in dieser Arbeit ein Abfragewerkzeug für multidimensionale Datenbanken erstellt und verifiziert werden. Den Schwerpunkt der Arbeit bildet die Wahl einer geeigneten Softwarearchitektur. Im Anschluss an eine Anforderungsanalyse wird das Abfragewerkzeug mit Hilfe von Java Technologien, wie dem Google Web Toolkit und dem Open Java API for OLAP, erstellt. Die Anforderungen werden mit zwei Anwendungsszenarien verifiziert. Der RWH Report-Browser konnte mit der festgelegten Architektur implementiert werden. Zum Erstellen von MDX Anfragen an das DataWarehouse wurde ein Anfragegenerator implementiert. Die Verifikation zeigt, dass der Report-Browser als Plattform für den Zugriff auf klinische Routinedaten geeignet ist. Eine gute Testbarkeit der Architektur konnte nachgewiesen werden.
Implementation of an interactive pattern mining framework on electronic health record datasets
(2019)
Large collections of electronic patient records contain a broad range of clinical information highly relevant for data analysis. However, they are maintained primarily for patient administration, and automated methods are required to extract valuable knowledge for predictive, preventive, personalized and participatory medicine. Sequential pattern mining is a fundamental task in data mining which can be used to find statistically relevant, non-trivial temporal dependencies of events such as disease comorbidities. This works objective is to use this mining technique to identify disease associations based on ICD-9-CM codes data of the entire Taiwanese population obtained from Taiwan’s National Health Insurance Research Database.
This thesis reports the development and implementation of the Disease Pattern Miner – a pattern mining framework in a medical domain. The framework was designed as a Web application which can be used to run several state-of-the-art sequence mining algorithms on electronic health records, collect and filter the results to reduce the number of patterns to a meaningful size, and visualize the disease associations as an interactive model in a specific population group. This may be crucial to discover new disease associations and offer novel insights to explain disease pathogenesis. A structured evaluation of the data and models are required before medical data-scientist may use this application as a tool for further research to get a better understanding of disease comorbidities.
Ambulant studies are dependent on the behavior and compliance of subjects in their home environment. Especially during interventions on the musculoskeletal system, monitoring physical activity is essential, even for research on nutritional, metabolic, or neuromuscular issues. To support an ambulant study at the German Aerospace Center (DLR), a pattern recognition system for human activity was developed. Everyday activi-ties of static (standing, sitting, lying) and dynamic nature (walking, ascending stairs, descending stairs, jogging) were under consideration. Two tri-axial accelerometers were attached to the hip and parallel to the tibia. Pattern characterizing features from the time domain (mean, standard deviation, absolute maximum) and the frequency domain (main frequencies, spectral entropy, autoregressive coefficients, signal magni-tude area) were extracted. Artificial neural networks (ANN) with a feedforward topology were trained with backpropagation as supervised learning algorithm. An evaluation of the resulting classifier was conducted with 14 subjects completing an activity protocol and a free chosen course of activities. An individual ANN was trained for each subject. Accuracies of 87,99 % and 71,23 % were approached in classifying the activity protocol and the free run, respectively. Reliabilities of 96,49 % and 76,77 % were measured. These performance parameters represent a working ambulant physical activity monitor-ing system.
Die BPMN 2.0 bietet die Möglichkeit ausführbare Prozesse zu modellieren. Die so modellierten Prozesse können zur Automatisierung genutzt werden. Dies kann die Transparenz erhöhen und die Fehleranfälligkeit reduzieren. Im Klinischen Umfeld wird die Möglichkeit der Prozessautomatisierung mit Hilfe der BPMN 2.0 bisher nicht genutzt.
Im Rahmen dieser Arbeit wird am Beispiel eines Sterilgutaufbereiters evaluiert ob sich die BPMN 2.0 als Modellierungssprache, Signavio als Modellierungswerkzeug und die Camunda BPM als Business-Process-Engine eignen, Prozesse im klinischen Umfeld abzubilden.
Der Schwerpunkt dieser Arbeit liegt auf der Umsetzung der modellierten Prozesse mit Hilfe der Camunda BPM und der anschließenden Evaluation.
Im Anschluss an die Analyse des Beispielszenarios werden mit Hilfe von Signavio BPMN 2.0 konforme Modelle erstellt. Anschließend werden die typischen Elemente der einzelnen Prozesse identifiziert. Die Modelle werden daraufhin mit der Camunda BPM zu
automatisierbaren Prozessen umgesetzt.
Das Beispielszenario konnte in Teilprozesse zerlegt und anschließend automatisiert werden. Die dabei aufgetretenen Probleme wurden analysiert und die notwendigen Anpassungen der Prozesse wurden vorgenommen.
Die Evaluation zeigt, dass die Kombination aus BPMN 2.0, Signavio und der Camunda BPM geeignet ist standardisierte Prozesse aus dem klinischen Umfeld in automatisierte Prozesse umzusetzen.
There are many drug interactions and to know every single interaction is impossible. In Uganda, a country located in East Africa, patients often do not get a patient information leflaet when a physician prescribes drugs because they only get the drugs without packaging and information inside. Even in developed countries many poeple die because of drug interactions.
This work aims at developing a clinical decision support system for different kinds of drug interactions: 1) drug-drug interaction,
2) drug-food interactions,
3) drug-condition
interactions and
4) drug-disease interactions.
This system must be integrated into an
existing hospital information system called electronic Health Management Information System (eHMIS).
In the first part of this thesis different kinds of clinical decision support systems are described to find out which one is the best for eHMIS. The two different types are knowledge-based and non knowledge-based systems. The second part of this thesis, the data base of eHMIS is extended to have a full
knowledge base for the new module which contains drug-drug interactions, drug-food interactions, drug-disease interactions as well as drug-condition interactions. Therefore new tables were created and filled with data of several data bases with drug interactions. The last part is about designing the clinical decision support system for drug interactions
with the knowledge base of eHMIS, including the implementation considering the integration into the existing system. To know how health professionals in Uganda work
with an electronical health system as well as their other work ows was important. The system now runs in a hospital in Kampala, the capital of Uganda and in a health center level three in Mifumi, a village located in the east of the country.
1.1 Gegenstand und Motivation Die bereits in den 1970er-Jahren [1] entwickelte Technologie NAVSTAR GPS (GPS) arbeitet elektronisch und eignet sich 1 besonders zur Navigation in großen und freiliegenden Gebieten, da sie die Standorte der Endgeräte satellitengestützt errechnet. In Gebäuden stößt diese Technik aufgrund der Signaldämpfung durch Hindernisse, wie Decken, schnell an ihre Grenzen. GPS-Signale sind im Inneren eines Gebäudes um 20-30 dB (Faktor 100-1000) schwächer, als im Außenraum [2]. Auch die Differenzierung verschiedener Etagen ist mittels der GPS-Technologie nicht möglich. Die herkömmliche Navigation in Gebäuden wird zurzeit häufig mittels Pfeilen und Karten realisiert. Aufgrund immer größer werdender Gebäude und dem Wunsch, ortsbezogene Informationen zu übermitteln, steigt die Nachfrage einer elektronischen Indoor-Navigation stetig. Eine mögliche Lösung zur Indoor-Navigation bietet iBeacon. Dieser proprietäre Standard wurde 2013 von der Apple Inc.2 eingeführt und basiert auf der Bluetooth Low Energy-Technologie (BLE), welche durch einen geringen Energieverbrauch gekennzeichnet ist. Ursprünglich dient iBeacon dazu, einem BLE fähigem Endgerät mitzuteilen, dass es sich in der Reichweite eines iBeacons befindet. Das Endgerät kann so ortsspezifische Informationen an den Benutzer übermitteln, da das Endgerät den Standort des iBeacons kennt. So können z.B. Informationen zu einem Patienten eines Krankenhauses an den Tabletcomputer (Tablet) des medizinischen Personals übermittelt werden. Dies geschieht durch eine Abstandsmessung zwischen dem iBeacon und dem Endgerät. Unter der Hinzunahme zwei weiterer iBeacons kann theoretisch eine Positionsbestimmung des Mobiltelefons und damit eine Navigation durchgeführt werden.
Every year, hundreds of thousands of patients are affected by treatment failure or adverse drug reactions, many of which could be revented by pharmacogenomic testing. To address these deficiencies in care, clinics require
automated clinical decision support through computer based systems, which provide clinicians with patient-specific ecommendations. The primary knowledge needed for clinical pharmacogneomics is currently being
developed through textual and unstructured guidelines.
In this thesis, it is evaluated whether a web service can annotate clinically relevant genetic variants with guideline information using web services and identify areas of challenge. The proposed tool displays a formal representation of pharmacogenomic guideline information through a web service and existing resources. It enables the annotation of variant call format (VCF) files with clinical guideline information from the Pharmacogenomic Knowledge Base (PharmGKB) and Clinical Pharmacogenetics Implementation Consortium (CPIC).
The applicability of the web service to nnotate clinically relevant variants with pharmacogenomics guideline information is evaluated by translating five guidelines to a web service workflow and executing the process to annotate publically available genomes. The workflow finds genetic variants covered in CPIC guidelines and influenced drugs.
The results show that the web service could be used to annotate in real time clinically relevant variants with up-to-date pharmacogenomics guideline information, although several challenges such as translating variants into star allele nomenclature and the absence of a unique haplotype nomenclature
remain before the clinical implementation of this approach and the use on other drugs.
Diese Arbeit befasst sich mit der Analyse der Secondary Use Systeme der Vanderbilt Universität, Nashville Tennessee (USA), und einem anknüpfenden Vergleich mit deutschen Konzepten und unter Berücksichtigung der deutschen Gesetzeslage. Dabei wurden, auf Basis einer vor Ort durchgeführten Analyse, wichtige Prozesse modelliert und im Anschluss mit den Datenschutzkonzepten der Technologie- und Methodenplattform für die vernetzte medizinische Forschung (TMF) verglichen. Weiterhin wurde darauf eingegangen, inwiefern eine Übertragung der Prozesse und Methoden mit dem deutschen Datenschutz vereinbar wäre. Die Bewertung der Ergebnisse zeigt, dass ein Großteil der zugrundeliegenden Prozesse in Vanderbilt auf Deutschland übertragen werden können, jedoch bei gewissen Methoden andere Ansätze gewählt werden müssen. Es wird ebenfalls hervorgehoben, dass es trotz Schutzmaßnahmen und -mechanismen Risiken für die Privatsphäre gibt.
Die vorliegende Arbeit wurde zusammen mit der Abteilung Radiologie am Deutschen Krebsforschungszentrum (DKFZ) erarbeitet. Das Ziel war es, durch Evaluation der IT Strategie und durch Einsatz verschiedener Methoden zukünftige Handlungsfelder zu be-stimmen. Ein Handlungsfeld wurde exemplarisch an einem Beispiel bis hin zu konkreten Verbesserungsmaßnahmen operationalisiert. In der vorliegenden Arbeit, wird eine Eva-luation der IT Strategie in der Abteilung Radiologie des deutschen Krebsforschungszent-rum (DKFZ) vollzogen. Es wird im Grundlagen Kapitel die derzeitige Situation der Abtei-lung widergespiegelt. Darauf aufbauend werden zukünftige Handlungsfelder, mit Hilfe der Methode der SWOT Analyse identifiziert. Durch die SWOT Analyse wird der derzeiti-ge Ist- Zustand, mit Hilfe der Stärken und Schwächen abgebildet. Chancen und Risiken der Umwelt werden durch die SWOT Analyse abgebildet und ermöglichen es in Kombi-nation mit den Stärken und Schwächen der Abteilung Radiologie als Teil des DKFZ, zu-künftige Handlungsfelder zu bestimmen. Anschließend werden die Handlungsfelder prio-risiert. Bei dem Handlungsfeld mit der höchsten Priorität handelt es sich um das Hand-lungsfeld des abteilungsinternen Wissensmanagements. Das Handlungsfeld wird durch die strategischen Wege, welche die Umsetzung ermöglichen sollen, weiter ausgestaltet. Als Basis für die Entwicklung der strategischen Wege dienen die Mission, die Vision und das Leitbild, welche im DKFZ vorherrschen. Durch die anschließende Anwendung der Methode der Balanced Score Card erfolgt eine kritische Auseinandersetzung der einzel-nen strategischen Wege mit dem Ziel die Messung, Dokumentation und Steuerung der Maßnahmen des zu verfolgenden Handlungsfeldes zu analysieren. Mittels der Priorisie-rung der Maßnahmen, wird im Folgenden die höchst priorisierte Maßnahme konzeptio-nell weiterverfolgt, hierbei handelt es sich um das Zugriffskonzept des abteilungsinternen Wissensmanagementsystems. Die Diskussion setzt sich mit den verwendeten Methoden auseinander. Es wird aufgezeigt, warum es notwendig ist das Handlungsfeld, des abtei-lungsinternen Wissensmanagement, und die damit verbundenen Maßnahmen weiter zu verfolgen. Im abschließenden Fazit wird auf das Zweite zu verfolgende Handlungsfeld eingegangen und weitere zielführende Maßnahmen aufgezeigt, welche notwendig sind, um das abteilungsinterne Wissensmanagementsystem einzuführen.
Die visuelle Analyse der kindlichen Spontanmotorik hat sich als aussagekräftiges Verfahren zur Prognose schwerer neurologischer Störungen erwiesen. Eine computergestützte Entscheidungsunterstützung könnte Ärzten eine wertvolle objektive Hilfe bei der Prognosestellung geben. Mit dem Ziel ein solches entscheidungsunterstützendes System zu entwickeln, wurde am Institut für Medizinische Biometrie und Informatik der Universität Heidelberg ein Forschungsprojekt durchgeführt. Darin wurde u.a. ein Softwarepaket für Forscher entwickelt. Die Ergebnisse der Forschung wurden bislang nicht für Ärzte zugänglich gemacht. Diese Arbeit ergänzt das Softwarepaket des Projekts um zwei Komponenten. Ein grafischer Editor erleichtert die Nutzung des bestehenden Softwarepakets, indem es den Forscher bei der Ablaufsteuerung des entscheidungsunterstützenden Prozesses unterstützt. Eine Präsentationskomponente macht die Ergebnisse des entscheidungsunterstützenden Prozesses für Ärzte nutzbar. Die beiden Komponenten werden mit ähnlichen Komponenten anderer Forschungsprojekte im selben Kontext verglichen und exemplarisch evaluiert.
Ultraschallelastographie (USE) ist ein bildgebendes Verfahren, mit dem die Ausbreitung mechanischer Scherwellen, die durch externe Schwingungen in den menschlichen Körper eingekoppelt werden, mittels Ultraschall gemessen und dargestellt werden kann. Die Ausbreitungsgeschwindigkeit der Scherwellen steht dabei in einem direkten qualitativen Zusammenhang zu den elastischen Eigenschaften des Gewebes. Als apparative Palpation wird die transiente USE daher in der medizinischen Diagnostik bereits eingesetzt, denn viele Krankheiten, wie z.B. die Leberfibrose, gehen mit einer Veränderung der elastischen Kenngrößen der betroffenen Gewebe einher. Das im Rahmen dieser Arbeit weiter entwickelte USE-Diagnosesystem unterscheidet sich von der transienten USE dadurch, dass die angewandten Scherwellen zeitharmonisch sind und aus mehreren überlagerten Frequenzkomponenten bestehen. Um die Auswertung zu objektivieren und die Performance zu steigern wurde die bisherige interaktive retrospektive Auswertungsmethode durch einen vollautomatischen Algorithmus ersetzt. Dazu war es notwendig, manuelle Aussortierung schlechter Messungen ebenfalls zu automatisieren. Auf dieser Basis wurde zusätzlich ein Echtzeitauswertungsalgorithmus entwickelt, um erstmals unmittelbar während einer Untersuchung Resultate der Leberelastizitätsmessungen auszugeben. Die neuen Algorithmen wurden mit Softwarephantom, Rinderleberproben und gegenüber der Magnetresonanz-Elastographie (MRE) als Referenzmethode validiert. Es hat sich gezeigt, dass die vollautomatisch ermittelten Elastizitätsergebnisse mit denen der MRE gut übereinstimmen und die Performance gegenüber der bisherigen Auswertung deutlich gesteigert wurde. Nachfolgend wurden diese Algorithmen erfolgreich in einer Pilotstudie an gesunden Freiwilligen eingesetzt.
Das Registrieren medizinischer Bilddatensätze ist ein komplexer und zeitintensiver Prozess. Ohne die Entwicklung effizienter und schneller Registrierungsverfahren müssten erhebliche personelle Ressourcen in das manuelle Registrieren investiert oder teilweise ganz auf deren Resultate und den einhergehenden Erkenntnissen verzichtet werden. Daher ist es besonders wichtig Neuentwicklungen in diesem Gebiet voranzutreiben und Programmstrukturen zu entwickeln, die diese neuen Verfahren einbinden, evaluieren und anschließend optimieren können. Das Ziel dieser Arbeit war die Entwicklung eines Softwaretools, das Registrierungsprozesse von der Vorverarbeitung über die eigentliche Registrierung bis hin zur visuellen Evaluierung unterstützt. Dabei sollte die Applikation so entwickelt werden, dass sowohl Funktionalitäten als auch Benutzeroberfläche einfach erweitert oder modifiziert werden können. Zu Beginn der Entwicklung musste ein geeignetes Framework (bzw. Entwicklungsumgebung) gefunden werden. Dieses sollte sowohl eine stabile Umgebung als auch einen möglichst großen Funktionsumfang im Bereich des Prä- und Postprocessing der Registrierung bieten können. Zudem sollte diese Entwicklungsumgebung auch Strukturen bieten, die es ermöglichen neue Funktionalitäten einfach hinzuzufügen. Auf Grund der Ergebnisse der durchgeführten Analyse kam im Rahmen dieser Diplomarbeit MeVisLab zum Einsatz.
Im Rahmen der interdisziplinären Leberkrebsforschung des ‚SFB/TRR 77’ ‚Leberkrebs von der molekularen Pathogenese zur zielgerichteten Therapie’ fallen Genomdaten an, welche in unterschiedlichen Formaten gespeichert werden. Der ‚SFB/TRR 77’ wird technisch durch die integrierte Informationsplattform ‚pelican’ (platform enhancing livercancer networked research) unterstützt. ‚pelican’ erlaubt Forschern ihre (Genom-)Daten zentral zu speichern und Daten von anderen Projekten einzusehen. Die Informationsplattform ist nach dem Prinzip der modernen service-orientierten Architektur (SOA) aufgebaut, nach welcher Dienste über einheitliche Schnittstellen an unterschiedlichen Orten spezifische (Teil-)Aufgaben erfüllen, um so größere Prozesse zu realisieren. Damit die Genomdaten für umfassende Analysen einheitlich zur Verfügung stehen, bedarf es eines Genkonvertierungs-Dienstes zur Abbildung von Genbezeichnungen aufeinander, der in die SOA von ‚pelican’ integriert werden kann. Verschiedene Gendatenbanken und biomedizinische Standards wurden auf ihre Eignung untersucht, Gene eindeutig zu identifizieren. Auch die Tools des ‚cancer Biomedical Informatics Grid’ (caBIG) werden auf Methoden und Werkzeuge zur Unterstützung einer eindeutigen Genidentifikation analysiert. Aus den verschiedenen Genidentifikationsmöglichkeiten wird eine optimale Methode ausgewählt, mit der im Genkonvertierungs-Dienst gearbeitet werden kann. Diese ist das ‚Gensymbol’, da es Gendatenbank übergreifend ist und von dem Human Genome Organisation (HUGO) Gene No-menclature Committee (HGNC) standardisiert wird. Die Daten aus der HGNC-Datenbank werden in eine eigene MySQL-Datenbank transferiert. Auf Basis dieser Datenbank wird ein Webservice entwickelt, der dann in die SOA der Informationsplattform eingebunden werden kann. Der erstellte Webservice steht zur Abfrage von Genomdaten bereit. Mittels entsprechenden Tests wird die Funktionalität des neuen Services validiert.
Das neurochirurgische Operationsplanungssystem MOPS 3D wurde am Institut für Medizinische Biometrie und Informatik der Universität Heidelberg entwickelt. Es unterstützt den Chirurgen mit einer Vielzahl von Methoden bei der Operationsplanung und der Durchführung. Dabei hat sich der Funktionsumfang von MOPS 3D im Laufe der Zeit stetig erweitert. Seit neuem gehört hierzu die Möglichkeit der Volumenvisualisierung, diese wurde mit dem Framework Voreen, welches auf OpenGL basiert, realisiert. Eine weiter Neuerung, die für diese Diplomarbeit von maßgeblicher Bedeutung ist, ist die Entwicklung des OpenCLStandards. Durch diesen wird es nicht nur möglich Anwendungen hochgradig parallel auf der Grafikkarte auszuführen, es ist des Weiteren möglich mit OpenCL direkt auf Darstellungen, die durch OpenGL generierten wurden, zu operieren. Hierdurch ergeben sich vielversprechende Perspektiven bei der Entwicklung neuer Werkzeuge für das Planungssystem MOPS 3D. So wird in der nachfolgenden Arbeit eine neue unabhängige Segmentierungskomponente für das Planungssystem MOPS 3D konzipiert und implementiert. Dabei wird auf die Interoperabilität zwischen OpenGL und OpenCL gesetzt, um ein konstantes visuelles Feedback über den Segmentierungsverlauf an den Anwender in Form von 3D-Volumendarstellungen zu gewährleisten.
Die vorliegende Arbeit beschäftigt sich mit der Entwicklung einer Aufnahmesoftware sowie der Optimierung einer Aufnahmeapparatur zur Messung von Autofluoreszenzlebensdauern und Autofluoreszenzintensitäten im Bereich der Retina. Mithilfe eines blauen Lasers werden fluoreszierende Moleküle in der Retina, Fluorophore, zum Abstrahlen von Licht, der so genannten Fluoreszenz, angeregt. Die Abklingzeit der Fluoreszenzintensität bis zum Ende der Lichtemission eines Moleküls, wird als Fluoreszenzlebensdauer bezeichnet. Die Software ermöglicht es, durch den Einsatz eines speziellen Detektors und einer sehr genauen Stoppuhr diese Fluoreszenzlebensdauer im Pikosekundenbereich zu messen. Anhand der für jeden Stoff individuellen Fluoreszenzlebensdauer können die Moleküle exakt bestimmt werden. Mit einem Messgerät, welches die im Auge vorkommenden Substanzen und deren Verhältnis zueinander messen kann, lassen sich bei Abweichungen von der Norm Diagnosen erstellen und eine Behandlung einleiten. Soft- und Hardware sind in der Lage, die Augenbewegung während einer Messung auszugleichen, sodass selbst bei Messungen im Bereich von einigen Minuten verlässliche Messdaten generiert werden. Ziel dieser Arbeit ist die Fertigstellung eines für den Routineeinsatz geeigneten Prototyps.
Entwicklung einer performanten Volume Rendering Komponente für das Operationsplanungssystem MOPS 3D
(2012)
Computergestützte Planung von chirurgischen Eingrien gehört in der heutigen Zeit zum klinischen Alltag. Besonders in der Neurochirurgie ist ein hohes Maÿ an Präzision erforderlich, so dass es hilfreich ist, die räumlichen Gegebenheiten des individuellen Gehirns, die für die Operation von Bedeutung sind, schon im Voraus zu kennen. MOPS 3D ist ein Operationsplanungssystem, das imstande ist, verschiedene medizinische Bilddaten einzulesen und dem Chirurgen eine dreidimensionale Darstellung des Körperinneren zu präsentieren. Statt mit der herkömmlichen Oberflächendarstellung kann dieses seit Kurzem auch mit Hilfe von Volumenvisualisierung (Volume Rendering) dargestellt werden, da das Volume Rendering Framework Voreen prototypisch in MOPS 3D integriert wurde. In der nachfolgenden Arbeit wird diese prototypische Integration auf Schwachstellen im Verhalten und auf Verbesserungspotential von Performanz und Stabilität untersucht. Danach werden entsprechende Verbesserungen und funktionale Neuerungen konzipiert und in der Volume Rendering Komponente implementiert.
Die Versorgung und Unterstützung von Palliativpatienten stellt häufig hohe Anforderungen an deren Angehörige. Es ist wenig bekannt über den Informationsbedarf dieser Angehörigen und deshalb können sie nicht immer optimal nach ihren Bedürfnissen unterstützt und informiert werden. Ferner ist nicht genügend erforscht, wie Angehörige motiviert werden können, um über bekannte Anforderungen hinaus, eigene Vorstellungen und Ideen bezüglich des Informationsbedarfs zu entwickeln. In der vorliegenden Arbeit wird zunächst eine Literaturrecherche zur Informationsbedarfsanalyse durchgeführt, um einen Überblick über Methoden zur Erhebung eines Informationsbedarfs zu bekommen. Als Vorgehensweise für die Literaturrecherche wurden das Schneeballsystem und die systematische Suche in Schlagwortkatalogen identifiziert. Um eine geeignete Methode zur Ermittlung des Informationsbedarfs von Angehörigen von Palliativpatienten auswählen oder entwickeln zu können, wurden Interviews geführt. Neben einem Interview mit einer Familie erfolgten weitere Interviews im Rahmen von Hospitationen an drei verschiedenen medizinischen Einrichtungen: eine Palliativstation in Heidelberg, ein Hospiz in Wiesloch und eine spezialisierte ambulante Palliativversorgungseinheit in Buchen. Diese flossen in einen Interviewleitfaden ein, der als Methodik zur Erhebung des Informationsbedarfs speziell von Angehörigen von Palliativpatienten verwendet werden kann. Es hat sich gezeigt, dass die Befragung als ein qualitatives Interview durchgeführt werden sollte. Der Interviewleitfaden besteht aus 5 Fragenblöcken. Durch offene Fragestellungen werden die Subjektivität und ein tiefer Informationsgehalt erlangt. Im letzten Teil der Fragen werden papierbasierte Prototypen von einigen Ideen für mobile Systeme vorgestellt und besprochen. Dieser Interviewleitfaden wurde in einer Vorstudie erprobt. Dafür wurden 3 pflegende Angehörige von Palliativpatienten befragt. Durch das Umsetzen der Erkenntnisse aus den Interviews konnte die Methodik angepasst und Schwachstellen verbessert werden. Nach Abschluss dieser Testphase wurde ein allgemeiner Studienplan für eine Studie entworfen. Dieser beschreibt die Durchführung einer qualitativen Studie. Dabei soll die Wirklichkeit anhand der subjektiven Sicht der befragten Angehörigen abgebildet werden.
Im Zuge einer immer weiter voranschreitenden Digitalisierung der medizinischen Dokumentation und der Abläufe in den Kliniken, aufbauend auf die Einführung der elektronischen Patientenakte (EPA), ist Hagen Hupperts vom Geschäftsbereich IT der Berliner Charité überzeugt, dass „der Klinische Arbeitsplatz der Zukunft … mobil“ ist. Damit ist vor allem die mobile Visite gemeint, deren Infrastruktur und Möglichkeiten immer weiter optimiert werden (sollen). Grundsätzlich sind „Visiten … ein wichtiges Element im Behandlungsprozess und gehören im Krankenhaus zur täglichen Routine. Ärzte und Pflegekräfte gehen gemeinsam von Bett zu Bett, um den gesundheitlichen Zustand und die gesundheitliche Entwicklung der einzelnen Patienten zu bewerten und die weitere Behandlung zu planen.“ [1] In einem Pilotprojekt der Berliner Charité wurde die Nutzbarkeit von Tablet-PCs in Zusammenarbeit mit der Siemens AG und SAP untersucht. Die Fachabteilung der Neurologie arbeitet momentan mit dem Krankenhausinformationssystem i.s.h. med und dem digitalen Archiv Soarian Health Archive, kurz SHA. Nachdem in einer ersten Phase 2010 die Neurologische Klinik mit WLAN ausgestattet und in Eigenregie eine mobile Visite mit Laptops aufgebaut wurde, sollte nun der nächste Schritt mit Tablets gegangen werden. Über die App „SAP Electronic Medical Record (EMR)“ kann sowohl auf das KIS und das SHA zugegriffen werden, als auch auf das Bildarchivierungssystem.
Heutzutage ist es für Unternehmen immer wichtiger, dass man in kürzester Zeit die richtigen Informationen erhalten kann, um Entscheidungsprozesse optimal bilden zu können. Die Informationstechnologie lässt sich zurzeit in der Welt weit und breit nutzen. Sie kann nicht nur den Daten sammeln und austauschen, sondern auch kann die Informationen systematisch und rapid verarbeiten, verwalten, analysieren und interpretieren. Die wachsende Datenmenge und Komplexitat erfordert immer stärker Analyseinstrumente gewinnen an Bedeutung. In großen Unternehmen Umgebungen stoßen einfache Abfrage Werkzeuge für den Datenzugriff schnell an die Grenzen ihre Leistungsfähigkeit und der Performance-Gewinn wird auch zum zentralen Thema. Aus diesen Gründen wird das Unternehmen T-Mobile den Analysewerkzeuge, den sogenannten OLAP (Online Analytical Processing)-Tools, einsetzen, um die Daten in sogenannten mehrdimensionalen Tabellenstrukturen flexibel und schnell analysieren bzw. auswerten zu können. Ein weiterer Punkt warum das Analysieren der Call Daten interessant sein könnte ist das Überwachen von Fehlern. Durch diese Technologie kann die Lösungsqualität hinsichtlich der zu verarbeitenden Komplexität erhöht werden. Als Grundlage für die OLAP Anfragen wurde zunächst ein Data Warehouse aufgebaut, in dem die Daten aus dem Quellsystem integriert und strukturiert bereitgestellt werden. Des weiteren ist zu erstellen, in wie weit der Einsatz von Reporting-Tools und zusätzlicher OLAP-Werkzeuge, um die gewünschten Berichtsfunktionalitäten zu ermöglichen. Diese Funktionalitäten sollen Schließlich in geeigneter Weise umgesetzt und bereitgestellt werden. Dabei sind die Anforderungen der Mitarbeiter und damit der Benutzer des Systems und die Rahmenbedingungen der Firma T-Mobile, z.B. bezüglich Auswahl der Software, zu berücksichtigen.
Mobile-Anwendungen nehmen eine zentrale Rolle in der IT-Branche ein und gewinnen zunehmend an Bedeutung. Unzählige Softwarelösungen, wie beispielsweise in den Bereichen Schulung, Banking, Navigation oder Logistik, stehen den privaten und kommerziellen Nutzern als Mobile-Anwendung zur Verfügung. An der Hochschule Heilbronn steht derzeit das Stundenplan-System „SPlan“ zur Verfügung, welches den Studierenden, Mitarbeitern und Dozenten einer Suchanfrage nach Stundenpläne und dem Raumbelegungspläne des jeweiligen Semesters ermöglicht. Für eine benutzerfreundlichere und effektivere Nutzung dieses Stundenplan-Systems entstand die Idee, dieses System im Rahmen meiner Diplomarbeit als Mobile-Anwendung bereit zu stellen. Das für diese Diplomarbeit konkretisierte Ziel ist nun, das Stundenplan-System „SPlan“ in eine Mobile-Anwendung, basierend auf dem Android-Betriebssystem, umzusetzen. Mithilfe der mobilen-Anwendung kann der Anwender die Stundepläne des betreffenden Semesters mit den entsprechenden Studiengängen und die jeweils zugehörigen Studentengruppen anzeigen lassen. Genauso können für den Raumbelegungspläne des betreffenden Semesters, die Standorte und die jeweils zugehörigen Räume definiert werden. Optional bietet sich die Möglichkeit, Einzelbuchungen und Blockveranstaltungen der beiden Suchanfragen anzeigen zu lassen. Außerdem werden die Suchanfragen automatisch anhand der gewählten benutzer-spezifischen Eingaben als Profil in der Anwendung gespeichert. Somit lässt sich die Anwendung personalisieren.
Im Zeitalter der Informationsgesellschaft stellt das Internet eine zentrale Bedeutung für die Wissens- und Informationsbeschaung dar. Immer mehr Menschen informieren sich mit Hilfe des Internets über das Thema Gesundheit. Gerade im Gesundheitssektor ist es wichtig, aus der großen Masse an Informationen diejenigen Quellen herauszufinden, die inhaltlich korrekt, d.h. keine Fehlinformationen enthalten, und möglichst vollständig sind, da falsche Informationen für den Nutzer sogar gesundheitsschädliche Konsequenzen haben könnten. Als Laie medizinische Begriffe oder Zusammenhänge zwischen zwei oder mehreren Begriffen zu verstehen ist schwierig. Bei der Fülle an Informationen, die im Web angeboten werden ertrinkt der Nutzer sprichwörtlich an der Informationsflut. Die freie Online-Enzyklopädie Wikipedia scheint in diesem Kontext eine vielversprechende Quelle zur Informationsbeschaung zu sein. Der Gesundheitssektor der Wikipedia umfasst in der deutschen Sprache ca. 92.000 Artikel. In der englischen Sprache sind es ungefähr 350.000 Artikel. Im Rahmen einer Diplomarbeit an der Hochschule Heilbronn, wurde von B. Trinzcek ein Framework zur Darstellung der Wikipedia als Graph entwickelt. Durch die Verlinkungen in den Artikeln ist es möglich, Zusammenhänge zwischen verschiedenen Artikeln und somit Begriffen zu visualisieren. Der durch das Framework erstellte Graph der Domäne Gesundheit wird als Gesundheitsgraph bezeichnet [27].
Medical imaging produces many images every day in clinical routine. Keeping up with the
daily image analysis task and this vast amount of data is quite a challenge for radiologists.
However, these analysis tasks can be automated with well-proven automatic segmentation
methods. Segmentation reviewing of an expert is necessary because learningbased
automatic segmentation methods may not perform well on exceptional image
data. Creating valid segmentations by reviewing them also improve the learning-based
methods.
Combining established standards with modern technologies creates a flexible environment
to efficiently evaluate multiple segmentation algorithm outputs based on different metrics
and visualizations and report these analysis results back to a clinical system environment.
The presented software system can inspect such quantitative results in a fast and intuitive
way, potentially improving the daily repetitive segmentation review and rework of a
research radiologist. The presented system is designed to be integrated into a virtual
distributed computing environment with other systems and analysis methods. Critical
factors for this particular environment are the handling of many patient data and routine
automated analysis with state of the art technology.
First experiments show that the time to review automatic segmentation results can be
roughly divided in half while the confidence of the radiologist is enhanced. The system
is also able to highlight individual slices which are essential for the expert’s review
decision. For this highlighting, different metric scores are compared and evaluated.
Development and validation of a neural network for adaptive gait cycle detection from kinematic data
(2020)
(1) Background: Instrumented gait analysis is a tool for quantification of the different
aspects of the locomotor system. Gait analysis technology has substantially evolved over
the last decade and most modern systems provide real-time capability. The ability to
calculate joint angles with low delays paves the way for new applications such as real-time
movement feedback, like control of functional electrical stimulation in the rehabilitation
of individuals with gait disorders. For any kind of therapeutic application, the timely
determination of different gait phases such as stance or swing is crucial. Gait phases are
usually estimated based on heuristics of joint angles or time points of certain gait events.
Such heuristic approaches often do not work properly in people with gait disorders due to
the greater variability of their pathological gait pattern. To improve the current state-ofthe-
art, this thesis aims to introduce a data-driven approach for real-time determination
of gait phases from kinematic variables based on long short-term memory recurrent neural
networks (LSTM RNNs).
(2) Methods: In this thesis, 56 measurements with gait data of 11 healthy subjects,
13 individuals with incomplete spinal cord injury and 10 stroke survivors with walking
speeds ranging from 0.2 m
s up to 1 m
s were used to train the networks. Each measurement
contained kinematic data from the corresponding subject walking on a treadmill for 90
seconds. Kinematic data was obtained by measuring the positions of reflective markers on
body landmarks (Helen Hayes marker set) with a sample rate of 60Hz. For constructing a
ground truth, gait data was annotated manually by three raters. Two approaches, direct
regression of gait phases and estimation via detection of the gait events Initial Contact
and Final Contact were implemented for evaluation of the performance of LSTM RNNs.
For comparison of performance, the frequently cited coordinate- and velocity-based event
detection approaches of Zeni et al. were used. All aspects of this thesis have been
implemented within MATLAB Version 9.6 using the Deep Learning Toolbox.
(3) Results: The mean time difference between events annotated by the three raters
was −0.07 ± 20.17ms. Correlation coefficients of inter-rater and intra-rater reliability
yielded mainly excellent or perfect results. For detection of gait events, the LSTM RNN
algorithm covered 97.05% of all events within a scope of 50ms. The overall mean time
difference between detected events and ground truth was −11.62 ± 7.01ms. Temporal
differences and deviations were consistently small over different walking speeds and gait
pathologies. Mean time difference to the ground truth was 13.61 ± 17.88ms for the
coordinate-based approach of Zeni et al. and 17.18 ± 15.67ms for the velocity-based
approach. For estimation of gait phases, the gait phase was determined as a percentage.
Mean squared error to the ground truth was 0.95 ± 0.55% for the proposed algorithm
using event detection and 1.50 ± 0.55% for regression. For the approaches of Zeni et al.,
mean squared error was 2.04±1.23% for the coordinate-based approach and 2.24±1.34%
for the velocity-based approach. Regarding mean absolute error to the ground truth, the
proposed algorithm achieved a mean absolute error of 1.95±1.10% using event detection
and one of 7.25 ± 1.45% using regression. Mean absolute error for the coordinate-based
approach of Zeni et al. was 4.08±2.51% and 4.50±2.73% for the velocity-based approach.
(4) Conclusion: The newly introduced LSTM RNN algorithm offers a high recognition
rate of gait events with a small delay. Its performance outperforms several state-of-theart
gait event detection methods while offering the possibility for real-time processing
and high generalization of trained gait patterns. Additionally, the proposed algorithm
is easy to integrate into existing applications and contains parameters that self-adapt
to individuals’ gait behavior to further improve performance. In respect to gait phase
estimation, the performance of the proposed algorithm using event detection is in line
with current wearable state-of-the-art methods. Compared with conventional methods,
performance of direct regression of gait phases is only moderate. Given the results,
LSTM RNNs demonstrate feasibility regarding event detection and are applicable for
many clinical and research applications. They may be not suitable for the estimation
of gait phases via regression. For LSTM RNNs, it can be assumed, that with a more
optimal configuration of the networks, a much higher performance is achieved.
Background: An important factor in approaching the challenges of chronic diseases, requiring long-term management and high costs, is the active participation of the patient in the care process. Objectives: Facing the problem of lacking patient-tailored, comprehensive health management software, the aim of this thesis is to generate ideas for a graphical user interface (GUI) to support stroke patients in the management of their individual care process. The objectives are to prototype a GUI for a patient e-service and to evaluate its usefulness and usability with stroke patients. Methods: A scenario-based, user-centered design method was used to envision ideas for the user interface. Static prototypes were realized with the tool Pencil and for the implementation of a dynamic prototype web programming techniques were used. For the evaluation of the prototypes the methods of focus group discussion and cooperative evaluation were applied. Results: The situation of a representative stroke patient and his interaction with the e-service were described in scenarios. Graphical user interfaces of the involved system views were derived from the scenarios and illustrated with static wireframe prototypes. A welcome screen, a care process timeline overview, and a diary with data sharing functionality were designed. The diary functionality was further examined by implementing a prototypical web application. During the evaluation, feedback for further improvements was gathered, and assumptions about the user information and functionality needs could be verified. Conclusion: The developed prototypes represent a suitable graphical user interface and visualizations to support stroke patients in the management of their care process. An overview of appointments on the welcome screen, a diary to document and monitor health, a timeline overview of all time-related health information and a selected sharing functionality were found to be important features of a personal health system for stroke patients.
Background: Stroke rehabilitation is a complex process that requires collaboration between stroke patients
and various health professionals. One important component of the rehabilitation is to set goals collaboratively with health professionals. The goal setting process can be time-consuming. In many cases, it is complicated for the patient and difficult to track for the health professionals. A simple user interface that supports patients, their family members and health professionals can help both sides to make the goal setting and attainment process easier.
Objectives: The aim is to design and develop a software for the goal attainment process of stroke patients with milder disabilities that facilitates goal setting process and the traceability of the goal progress for patients and health professionals.
Methods: Based on previous evaluated results, the web interface was developed and improved. Using this knowledge, a goal setting interface was added. To analyze the the goal setting process, goal attainment scaling (GAS) was included as well as parts of the International Classification of Functioning, Disability and Health (ICF) core set for stroke. The results were discussed afterwards in focus groups and evaluated based on two stroke patients, one family member and health professionals.
Results: We developed an interactive prototype, that can aid the rehabilitation at home by inserting
problems with ICF codes and different kinds of goals, creating new activities and tracing goal progress by reviewing the different goals. With the help of the GAS the outcome of the patient’s goals are visualized by a line chart presenting the positive or negative outcomes of the stroke rehabilitation.
Conclusion: The interactive prototype showed that it can support stroke patients during their rehabilitation
at home. A usability test indicated that the goal setting and attainment process was perceived as useful for patients and their family members. Small improvements have to be made to simplify use and error handling. For health professionals, the prototype could also simplify the documentation process by using ICF in the prototype, and also improving collaboration when using the tool for coordination.
The aim of this master’s thesis is the design and implementation of a dedicated software system, for planning and implementation of occupational therapy intervention and research studies, in a driving simulator environment. In the first part, the concept based on user requirements is presented. It consists of architectural patterns and guidelines with the main focus on utility and application security. The result of this part is the design of a web application which supports integration in a clinical as well as a research environment. The second part presents the reference implementation of the previously introduced concept. It was developed under a case study in a research facility which hosts a driving simulator. A close cooperation and the influence the researcher’s experience led into a product which provides advanced usability for the target users. In conclusion, the thesis validated the concept indirectly under a testing phase of the reference implementation. It provides the base for a follow-up project to refine the software product and extend the concept to different fields of application.
Die meisten Internetzugriffe erfolgen heute über das Smartphone. Während vor dem Jahr
2010 überwiegend der PC dafür verwendet wurde, nutzten 2016 81% aller Internet-User
ein Mobiltelefon für den Online-Zugang [1]. Die digitale Modulation von HF-Signalen ist
dabei immer von Bedeutung, unabhängig ob WLAN oder ein Mobilfunkstandard, wie
LTE angewandt wird. Die Weiterentwicklung drahtloser Kommunikationstechnik für das
Internet erscheint als interessante Alternative zur leitungsbasierten Anbindung an das
Breitbandnetz. Der Ausbau mit Glasfaserkabeln ist kostenintensiv, zeitaufwendig und
bei der Versorgung abgelegener Orte für den Provider unrentabel. Aus technischer Sicht
können drahtlose Anbindungen sogar zu einer Verringerung zeitlicher Verzögerungen
führen. Die Ausbreitungsgeschwindigkeit elektromagnetischer Wellen ist in Luft höher
als in Kupfer oder Glas [2]. Das Mobilfunknetz ist allerdings nicht zur flächendeckenden
Internetversorgung von PCs vorgesehen. Alle Online-Zugriffe durch Mobilfunk in einem
bestimmten Gebiet erfolgen über die selbe Funkzelle einer Basisstation. Bei gleichzeitiger
Benutzung durch viele Teilnehmer, reduziert sich die Datenrate merklich. Einige Mobilfunkbetreiber
verbieten rechtlich die ausschließliche Nutzung des Mobilfunk-Internets für
PCs [3]. Die Zugangskosten für den Verbraucher sind deutlich teurer als bei DSL. Zudem
existieren kaum Tarife für unbegrenzten Zugang. Genauso wie beim Leitungsnetz sind lokale
Schwankungen der Internetgeschwindigkeit vorhanden. Während beim Kabelzugang
die Geschwindigkeit vorherbestimmt werden kann, ist sie beim Mobilfunk individuell
auszutesten. Notebooks und Desktop-PCs besitzen in der Regel keine Empfangseinrichtung
für Mobilfunk. LTE-Router übersetzten das Protokoll in den WLAN-Standard.
Diese Umwandlung erfolgt durch separate Geräte oder als integrierte Funktion in einem
Smartphone (Hotspot). Einige dieser Router bieten auch einen Kabelzugang zum PC,
um die Verluste der WLAN-Verbindung zu vermeiden. Sie werden häufig in Form von
USB-Sticks angeboten. Die private Nutzung des Mobilfunk-Internets für PCs ist also
mit Einschränkungen verbunden. Für Unternehmen ist dies meist nicht hinnehmbar.
Die geschilderten Hindernisse bedeuten allerdings nicht, dass das Internet grundsätzlich
leitungsgebunden vermittelt wird und in drahtlose Online-Technologien zukünftig keine
Investitionen fließen. Die Richtfunkanbindung von Basisstationen erfolgt, wenn sich
das Verlegen von Leitungen nicht lohnt (Abbildung 1). Die Umwandlung im Großen ähnelt
dem Prinzip der privaten Hotspots. Eine Richtfunkantenne empfängt die gebündelte
elektromagnetische Energie. Nach der Umwandlung senden mehrere Sektorantennen mit
Rundstrahlcharakteristik die Wellen in das Umfeld des Masts. Außerdem ist die weitere
Übertragung nach einer Richtfunkstrecke durch ein Kabel möglich. Dementsprechend
kann das Internet über Richtfunkabschnitte zum Verbraucher gelangen, auch wenn es
schließlich beim Router über ein Kabel ankommt.