Frei zugänglich
Refine
Year of publication
Document Type
- Master's Thesis (61)
- Bachelor Thesis (51)
- Diploma Thesis (2)
- Doctoral Thesis (2)
- Preprint (2)
Has Fulltext
- yes (118)
Is part of the Bibliography
- no (118)
Keywords
- Entwicklung (10)
- Implementierung (8)
- Analyse (7)
- Software (7)
- Konzeption (6)
- Evaluation (5)
- Patient (5)
- Strahlentherapie (5)
- Tumor (5)
- Anwendung (4)
Institute
- Medizinische Informatik (66)
- Informatik (44)
- Bibliothek (2)
- Mechanik und Elektronik (2)
- Elektrotechnik und Informationstechnik (1)
Virtuelle und reale Objekte als natürliche Bewegungsgrenzen in der Virtual Reality Exposure Therapy
(2019)
Zur Behandlung von Angststörungen – welche mit zu den häufigsten psychischen Erkrankungen in Deutschland gehören – bietet die klassische Expositionstherapie gute Erfolgsaussichten [1]. In den letzten Jahren entwickelte sich die Virtual Reality Exposure Therapy (VRET), welche eine interessante Alternative darstellt. Eine Studie zeigte 2013 die Effektivität einer VRET [2]. Problematisch ist allerdings die Lokomotion in psychotherapeutischen Praxen mit geringem Raumangebot. Gängige Sicherheitssysteme zur Kollisionsvermeidung wie Lighthouse‘s Chaperone [3] [4] oder Occulus Guardian [5] zeigen bei Annäherung an die Grenzen des sicheren Bereiches eine auffällige optische Warnung an. Dies kann jedoch bei den Benutzern zu unerwünschten Präsenzeinbrüchen (breaks in presence) führen.
Simeone et al. [6] konnten nachweisen, dass in einer virtuellen Umgebung rein virtuelle Gegenstände oder Wände von den Benutzern als real wahrgenommen und umgangen werden. Dieser Effekt liess sich durch zusätzliche reale Gegenstände im Raum noch verstärken.
In dieser Masterarbeit wurde untersucht, ob sich die Ergebnisse von Simeone et al. [6] auch auf die Anwendung der VRET übertragen lassen.
Dazu wurde eine Studie mit 2 Gruppen zu je 12 Probanden durchgeführt. Alle hielten 2 Vorträge in einer virtuellen Umgebung, je einen Vortrag mit Avatar und einen ohne. Während eine Gruppe sich in einer virtuellen Umgebung mit ausschliesslich virtuellen Objekten bewegte, waren in der anderen Gruppe zusätzlich reale Gegenstände vorhanden.
In der vorliegenden Masterarbeit konnte gezeigt werden, dass die Ergebnisse von Simeone et al. [6] auch für VRET Anwendungen gültig sind. Virtuelle Objekte werden auch von Patienten eines VRET Systems als Begrenzungen akzeptiert. Zudem lassen sich physische Objekte in die virtuelle Umgebung integrieren, ohne dass es zu Kollisionen mit den Benutzern kommt oder die Benutzer eine erhöhte Angst vor Kollisionen haben. Obwohl das Vorhandensein eines Avatars in der durchgeführten Studie keinen Einfluss auf die Ergebnisse hatte, wünschen sich die Benutzer einen Avatar in der VR.
Der sichere Aufenthaltsbereich kann also bereits in der virtuellen Umgebung durch virtuelle Objekte abgegrenzt werden, wodurch - zugunsten der Vermeidung von Präsenzeinbrüchen - auf ein System wie Lighthouse`s Chaperone [3] [4] verzichtet werden kann. Ausserdem müssen reale Gegenstände nicht aus dem Bewegungsbereich der Benutzer ausgeschlossen werden, sondern lassen sich in die virtuelle Umgebung integrieren. Dies stellt eine praktikable Möglichkeit dar, den für VRET nutzbaren Raum in psychotherapeutischen Einrichtungen zu optimieren. Somit stellt die VRET eine echte Alternative zur klassischen Expositionstherapie dar.
Im Mittelpunkt dieser Arbeit steht die Entwicklung eines Verfahrens für das Erzeugen
von möglichst realitätsnahen Telepräsenzsimulationen für die Information von Patienten
in der Strahlentherapie sowie die Anwendung des Verfahrens in der Entwicklung
einer VR-Applikation auf Basis eines Demonstrators.
Nach einer Literaturrecherche bezüglich des aktuellen Stands der Aufklärung von Patienten
wurden die Grundlagen von Virtual und Augmented Reality hinsichtlich der
gegebenen Hardware ermittelt. Hierauf folgte die Auswahl von Software für das Scannen
von realen Objekten mit dem gegebenen Tablet in einem Bestrahlungsraum des
DKFZ sowie die Auswahl einer Game Engine für die Entwicklung des Demonstrators.
Daraufhin wurde ein Rekonstruktionsalgorithmus ausgewählt. Anschließend wurden
verschiedene Objekte im Bestrahlungsraum gescannt, sodass die Parameter des Algorithmus
iterativ hinsichtlich der Qualität der erzeugten Objekte für den Einsatz in
einer VR-Anwendung optimiert werden konnten. Daraufhin erfolgte eine Texturierung
der Oberfläche mit Kamerafotos. Nach einer Aufbereitung der Modelle wurden diese
in ein Virtual Environment importiert. Parallel dazu wurde nach der Auswahl der Unreal
Engine als Game Engine, der Demonstrator entwickelt, in welchen die gescannten
Modelle integriert wurden.
Das Verfahren liefert ausreichend genaue Ergebnisse, um Konzepte in der Strahlentherapieaufklärung
vermitteln zu können. Der Effekt und die Akzeptanz der Technik
spielen eine weitere wichtige Rolle für den Einsatz der Methodik und müssen durch eine
Evaluation im klinischen Alltag validiert werden, wofür die Entwicklung einer klinisch
anwendbaren Software auf Basis der gewonnenen Erkenntnisse notwendig wird.
Die Erfassung eines Elektromyogramms (EMG) ist bisher mit großem zeitlichen und finanziellen Aufwand verbunden. Zudem müssen die Elektroden, welche aufgebracht werden, an den richtigen Stellen fixiert werden. Dies ist essentiell und kann nur von Fachpersonal durchgeführt werden. Somit ist es mit großem Aufwand verbunden.
Durch das Myo-Armband [25] der Firma Thalmic Labs hat sich dies zum Positiven geändert, da hier das Armband nur über den Unterarm gestreift werden muss und durch dieses innovative ”Wearable Device” direkt Elektromyographie-Daten erfasst werden können.
Mithilfe dieses Armbands und einer wohl programmierten Schnittstelle, kann damit sogar eine Drohne ferngesteuert werden. Auch eine Prothese kann damit bewegt werden. Das beste Beispiel hierfür ist ,,Johnny Matheny”. Ihm wurde aufgrund von Krebs der linke Arm oberhalb des Ellenbogens amputiert. Speziell für ihn, wurde eine Prothese konstruiert, welche durch zwei Myo-Armbänder am Oberarm gesteuert werden kann. So kann er laut der Website [1] seine Prothese, wie seither seinen Arm, bewegen.
Es wurde zusätzlich die Idee entwickelt, mithilfe dieser erfassbaren Daten ein Elektrostimulationsgerät zu steuern und eine zuvor erfasste Bewegung zu stimulieren. Dies soll mithilfe des Elektrostimulator MotionStim8 [31] der Fa. Kraut + Timmermann, welcher unter anderem in der Rehabilitation von querschnittgelähmten Patienten Anwendung findet, realisiert werden.
Das Ziel der Arbeit sind grundlegende Untersuchungen zur Kopplung des Myo-Armbands [25] mit dem Motionstim8 [31]. Es soll untersucht werden, inwieweit aufbauend auf der Analyse des EMG-Datenstroms oder der vorhandenen Gestenerkennung geeignete Ansteuersignale für den Motionstim8 [31] erzeugt werden können, die z.B. die Übertragung der Geste/Bewegung einer Quell-Hand auf eine Ziel-Hand ermöglichen. Von Interesse ist unter anderem, welche Gesten beziehungsweise Bewegungen sich hierzu eignen, ob die Stimulation kontinuierlicher Bewegungen prinzipiell möglich ist und wie eine effiziente individuelle Kalibrierung für verschiedene Probanden erfolgen kann.
Viele schwerstkranke Patienten hegen den Wunsch die letzte Zeit ihres Lebens im häuslichen Umfeld, statt im Krankenhaus zu verbringen. Eine wichtige Voraussetzung dafür ist eine gute Kommunikation zwischen allen Beteiligten des Versorgungsprozesses, damit ambulante und stationäre Versorgung gut aufeinander abgestimmt werden können. Derzeit gibt es nur wenige strukturierte Untersuchungen, welche Informationsbedürfnisse die im Bereich der palliativen Versorgung beteiligten Akteure besitzen und ob und in wieweit diese mit mobilen Anwendungen unterstützt werden können. Die vorliegende Arbeit untersucht, welche Akteure hauptsächlich am Prozess der palliativen Versorgung sowohl im ambulanten als auch im stationären Umfeld beteiligt sind und welche Informationsbedürfnisse diese haben. Weiterhin werden bisher verwendete Werkzeuge, Apps und Anwendungssysteme darauf untersucht, inwiefern sie diesen Informationsbedarf erfüllen. Die Untersuchungen basieren auf einer systematischen Literaturrecherche sowie Hospitationen in drei verschiedenen palliativen Einrichtungen: einer spezialisierten ambulanten Palliativversorgungs Einheit in Buchen im Odenwald, einer Palliativ-Station in Heidelberg sowie einer Palliativ-Einrichtung in Santiago de Chile. Es hat sich herausgestellt, dass die stationären Einrichtungen bereits sehr gute Strukturen für Informationsaustausch und -bereitstellung etabliert haben, diese jedoch im ambulanten Bereich weniger wirksam sind. Gründe hierfür liegen in der größeren örtlichen Distanz und den damit verbundenen längeren Kommunikationswegen im ambulanten Bereich. Ebenso ist bedingt durch den zusätzlichen Fahrtaufwand bei gleicher Patientenzahl und Visitendauer nur eine geringere Anzahl an Visiten möglich. Bisher sind hier aber vor allem die informationsverarbeitenden Prozesse aufgrund der geringen Größe der Einrichtungen und der hohen Individualität der Behandlung wenig automatisiert und automatisierbar. Die für die Palliativversorgung existierenden Softwareprodukte sind hierfür zu umfangreich oder nicht ausreichend adaptierbar. Es hat sich gezeigt, dass der Bedarf an mobiler, technischer Unterstützung vor allem in der ambulanten Palliativversorgung in den Bereichen Dokumentation und Abrechnung, aber auch bei der Bildung und Weiterbildung von Fachpersonal, Patienten und Angehörigen derzeit nicht gedeckt werden kann.
Während der Therapie unbewegte Tumore lassen sich durch eine gezielte Bestrahlung präzise behandeln, bei gleichzeitiger Schonung des umliegenden Gewebes. Lässt sich eine Bewegung des Tumors während einer Bestrahlung aber nicht vermeiden, so werdenVerfahren benötigt, die eine solche Bewegung kompensieren. Diese Arbeit stellt einen Multi-Template-Ansatz vor, der eine direkte Bewegungserkennung des Tumors während der Bestrahlung ermöglicht. Um zu jeder Zeit eine individuelle und exakte Tumorposition zu erhalten, wurde ein bereits bestehendes System um eine Positionsbestimmung des Tumors innerhalb der Templates erweitert. Anschließend wurde ein Matching-Algorithmus in das System integriert. Die Ergebnisse wurden anhand eines Phantom- und Patientendatensatzes evaluiert und auf eine Eignung für ein Gating- oder Tracking- Verfahren überprüft.
This thesis presents a photmetric stereo method based on the work of Schulze [35], who in turn extended the research of Schroeder et al. [33,34] In this approach, three different lightings are obtained by illuminating the object by three colored light sources (red, green and blue). A video of the subject is captured from the front, the back and the side. The single frames are then extracted from the viedo, which are used for the 3D reconstruction of the subject. The aim of this work was to improve the presented method of Schulze with real patient subjects by getting a better sphere calibration and changing some parameters in the patient processing. As the graphical interface was implemented for persons with a technical background, it has been changed to become also more convenient to use for non-technically oriented staff
Im fortschreitenden Alter fällt es Menschen schwer, regelmäßig Medikamente zum richtigen Zeitpunkt einzunehmen. Oft wird dies durch eine große Anzahl verschiedener Medikamente
noch erschwert, die über den Tag eingenommen werden müssen.
In Zusammenarbeit mit dem Praktikum Informationssysteme/Telemedizinische Anwendungen an der Hochschule Heilbronn wird eine Smartwatch-Anwendung für die Apple Watch entwickelt. Diese basiert stark auf dezenten Benachrichtigungen am Handgelenk. Auch eine native Anwendung, die der Nutzer aktiv bedienen kann, wird erstellt. Die Anwendung ist aufgrund fehlender Prototypen-Werkzeuge für die Apple Watch nativ in Swift realisiert. Hierbei wird auf Swift als relativ neue Programmiersprache eingegangen. Die Evaluierung wird an stationären Patienten im Alter von 70-85 vorgenommen. Die Aussage der Befragung ergibt, dass sich eine Uhr als Medium sehr gut eignet, da sie etwas Vertrautes ausstrahlt. Die touchscreen-basierte Steuerung fällt aufgrund reduzierter sensomotorischer Fähigkeiten der Probanden negativ auf. Während die Benachrichtigung mit einhergehender Vibration sehr gut aufgenommen wird, ist die Interaktion mit der Uhr schwerfällig. Die Patienten haben Probleme eine native Anwendung zu starten. In
Zukunft könnten diese Probleme mit Hilfe von Accessibility Funktionen der Plattform gelöst werden. Weiter bietet die Uhr interessante Anwendungsmöglichkeiten Menschen im Alltag zu unterstützen.
Im Rahmen dieser Arbeit wird eine eigens entwickelte Plagiatserkennungsoftware für Java-Programme namens Plagiarism Finder vorgestellt. Der Plagiatserkennungsprozess dieser Software basiert auf dem Java-Bytecode. Es werden die Grundlagen der Plagiatserkennung und des Java-Bytecodes umfassend erläutert. Des Weiteren wird die Funktionsweise, der Entwurf, die Benutzeroberfläche und die Evaluierung von Plagiarism Finder dargestellt. Hierbei wird auf folgende von der Wissenschaft bisher nicht betrachteten Aspekte eingegangen:
-Die Art der Normalisierung des Bytecodes vor dem Vergleich.
-Wie gelöst werden kann, dass das Verschieben von Methoden keinen Einfluss auf die ermittelten Ergebnisse hat.
-Wie bei der Plagiatserkennung Vorlagen gefiltert werden können. Die Arbeit kommt zu dem Resultat, dass sich die Ergebnisse von Plagiarism Finder stabil gegenüber Änderungen des Wortlautes, des Textsatzes und dem Verschieben von Methoden verhalten. Änderungen an Kontrollstrukturen (z.B. For- statt While- Schleifen), an Zugriffsmodifikatoren und an der Anzahl von Methoden führen zu einem instabilen Verhalten der Ergebnisse. Alles in allem kann Plagiarism Finder mit einer etablierten Plagiatserkennugssoftware
wie JPlag [MP00] mithalten. Auf Grundlage der untersuchten Daten ist Plagiarism Finder im Erkennen von Plagiaten leicht schlechter als JPlag. Plagiarism Finder ist hingegen deutlich besser im Erkennen von nicht plagiierter Software. Bei wortwörtlichen Kopien sowie bei Änderungen an der Textgestaltung und an Bezeichnungen sind die Ergebnisse der Programme nahezu identisch.
Ein Tumor ist eine örtlich umschriebene Zunahme des Gewebevolumens, im engeren
Sinn eine gewebliche Neubildung, ein Geschwür in Form eines enthemmten und
irreversiblen Überschusswachstums von körpereigenem Gewebe [33].
,,In Europa sind 3-5% [...] aller malignen Tumoren des Menschen Tumoren der Mundhöhle,
davon stellen die Plattenepithelkarzinome mit 95% den größten Anteil.” [28].
Nur 25-40% der Patienten mit Lymphknotenmetastasierung erreichen die 5-Jahres-Überlebensrate im Gegensatz zu ca. 90% der Patienten ohne Metastatisierung [29].
Oft werden diese Tumore spät erkannt und müssen deshalb durch eine Operation
entfernt werden. Das Plattenepithelkarzinom kann den Kiefer infiltrieren, die notwendige
Resektion des Tumors kann zu einer Verschlechterung der Ästhetik, zum Verlust der Kaufunktionalität und der Sprechfunktionalität führen.
Im Universitätsklinikum Heidelberg (UKHD) werden verschiedene Verfahren zur
Rekonstruktion angewandt, wie die Rekonstruktion mithilfe der körpereigenen Fibula(dt.Wadenbein), deren Schaft dafür entnommen wird. Aus diesem Schaft werden Segmente gesägt, mit welchen dann der ursprüngliche Verlauf der Mandibula
(dt. Unterkiefer), in dem resezierten Bereich, rekonstruiert wird. Die Rekonstruktion
erfolgt mit einer speziellen Platte auf welcher die Fibulasegmente befestigt werden. Diese Platte wird anschließend am Restunterkiefer fixiert.
Die Schwierigkeit besteht in der Nachbildung des Unterkieferverlaufs und der Erhaltung
des Kiefergelenks. Bei dieser Operation muss die Ischämiezeit, die Zeit, welche ein Organ ohne Blutversorgung schadlos überstehen kann, berücksichtigt
werden. Ohne eine genaue Schnittführung ist die Wahrscheinlichkeit größer, dass
die gesägten Segmente nachbearbeitet werden müssen, was wiederum ein zeitliches
Problem ist.
Deshalb wird Rekonstruktion mit Cutting-Guides (dt. Sägeschnittschablone) unterstützt. Diese Guides werden nach der Planung der Operation angefertigt. Sie
werden in der Mund-, Kiefer- und Gesichtschirurgie (MKG) des UKHD von einem
Zahntechniker hergestellt. Alternativ gibt es industrielle Dienstleister, die diese Guides herstellen können. Diese sind jedoch wesentlich teurer als die in der MKG etablierte Lösung.
Das Ziel dieser Bachelorarbeit war es, ein Programm zu entwickeln, welches die doppelte
Lichtbrechung und die Reflexion eines Laserstrahls berechnen kann. Hierbei wird zuerst auf
die physikalischen Grundlagen eingegangen. Anschließend wird das dazu verwendete Programm
mit dem Algorithmus inklusive den Berechnungen vorgestellt. Das Programm kann
die doppelte Lichtbrechung und auch die Reflexion eines Laserstrahls berechnen und zusätzlich
bestimmen, ob der Laserstrahl gebrochen oder total reflektiert wird. Die Prüfung dafür,
erfolgt über den Größenvergleich zwischen dem Einfallswinkel und dem kritischen Winkel.
Der Algorithmus ist für beliebige Laserstrahlen unter Berücksichtigung der Brechungsindexe
geeignet.
Die häufigste Todesursache in Deutschland sind Erkrankungen des Herz-Kreislaufsystems. Zwei häufig auftretende Krankheiten sind Aortenaneurysmen und Aortendissektionen. Für die Diagnose und die computerunterstützte OP-Planung wird eine semantische Annotation der präoperativ akquirierten Bilddaten benötigt. Dies wird herkömmlich durch eine manuelle Segmentierung der betroffenen Strukturen erreicht. Mit Verfahren aus der medizinischen Bildverarbeitung, darunter die deformierbaren Modelle, ist es möglich diese Segmentierung weitgehend zu automatisieren. In dieser Masterarbeit wird ein Verfahren vorgestellt, das mit Hilfe von deformierbaren Modellen eine automatische Segmentierung der Aorta und Aortenpathologien in 2D-CTA-Aufnahmen ermöglicht. Hierfür wurde ein geeignetes deformierbares Modell identifiziert, welches mit üblichen Störungen von CTA-Aufnahmen zurecht kommt. Das Verfahren ist eine Kombination aus den Dual Snakes und den GVF-Snakes und wird Dual-GVF-Snakes genannt. Das Besondere an diesem Verfahren ist, dass nicht nur das Lumen der Aorta und eines Aortenaneurysmas, sondern auch die zwei Lumen einer Aortendissektion gleichzeitig segmentiert werden können. Realisiert wird dies durch eine Unterteilung der Kontur in Segmente mit unterschiedlichen Eigenschaften. Das in dieser Arbeit vorgestellte Verfahren wurde zur Segmentierung von Objekten in synthetischen und klinischen Bilder angewendet, wobei die klinischen Bilder die Aorta, ein Aortenaneurysma und verschiedene Aortendissektionen beinhalten. Zur Evaluierung wurde das Verfahren mit den GVF-Snakes und den AB-Snakes verglichen, indem der Abstand zwischen Referenzkonturen und berechneter Konturen ermittelt wurde. Ein Vorteil gegenüber GVF-Snakes ist, dass zwei Objekte segmentiert und voneinander unterschieden werden können. Im Gegensatz zu den GVF-Snakes und den AB-Snakes müssen weniger Parameter eingestellt werden und die Membran zwischen den beiden Lumen der Aortendissektion wird erkannt. Das Verfahren ist robuster gegenüber der Initialisierung und lierfert vergleichbare Ergebnisse wie das GVF-Snakes Verfahren mit gezielter Initialisierung.
Segmentation of the Cerebrospinal Fluid from MRI Images for the Treatment of Disc Herniations
(2010)
About 80 percent of people are affected at some point in their lives by lower back pain, which is one of the most common neurological diseases and reasons for long-term disability in the United States. The symptoms are primarily caused by overly heavy lifting and/or overstretching of the back, leading to a rupture and an outward bulge of an intervertebral disc, which puts pressure on and pinches the nerve fibers of the spine. The most common form is a lumbar disc herniation between the fourth and fifth lumbar vertebra and between the fifth lumbar vertebra and the sacrum. In recent years the diagnosis of lower back pain has improved, mainly due to enhanced imaging techniques and imaging quality, but the surgical therapy remains hazardous. Reasons for this include low visibility when accessing the lumbar area and the high risk of causing permanent damage when touching the nerve fibers. A new approach for increasing patient safety is the segmentation and visualization of the cerebrospinal fluid in the lower lumbar region of the vertebral column. For this purpose a new fully-automatic and a semi-automatic approach were developed for separating the cerebrospinal fluid from its surroundings on T2-weighted MRI scans of the lumbar vertebra. While the fully-automatic algorithm is realized by a model-based searching method and a volume-based segmentation, the semi-automatic algorithm requires a seed point and performs the segmentation on individual axial planes through a combination of a region-based segmentation algorithm and a thresholding filter. Both algorithms have been applied to four T2-weighted MRI datasets and are compared with a gold-standard segmentation. The segmentation overlap with the gold-standard was 78.7 percent for the fully-automatic algorithm and 93.1 percent for the semi-automatic algorithm. In the pathological region the fully-automatic algorithm obtained a similarity of 56.6 percent, compared to 87.8 percent for the semi-automatic algorithm.
Ultraschallbildgebung ist ein in der Medizin häufig verwendetes Verfahren zur Diagnostik und Verlaufskontrolle. Ultraschall bietet vor allem eine große Weichteilauflösung bei gleichzeitig niedrigen Kosten, erfordert aber vom Anwender ein großes Maß an Erfahrung. Aufgrund vieler Artefakte und Verzerrungen in Ultraschallbildern ist die Bildqualität der Bilder deutlich geringer, als die derer, die mittels Magnetresonanztomographie erstellt werden können. Deshalb arbeiten viele verschiedene Forschungsgruppen an der Verbesserung der Modalitäten und Datensätze im Zusammenhang mit Ultraschallbildgebung. Diese Arbeit beschäftigt sich mit der Entwicklung eines robotergestützten Ultraschalltomographen. Das Gerät ist in der Lage tomographische Bildserien von Phantomen und Weichgewebe zu erstellen, die anschließend dreidimensional visualisiert werden können.
Initial results of an ongoing research in the field of reactive mobile autonomy are presented. The aim is to create a reactive obstacle avoidance method for mobile agent operating in dynamic, unstructured, and unpredictable environment. The method is inspired by the stimulus-response behavior of simple animals. An obstacle avoidance controller is developed that uses raw visual information of the environment. It employs reinforcement learning and is therefore capable of self-developing. This should result with obstacle avoidance behavior that is adaptable and therefore generalizes on various operational modalities. The general assumptions of the agent capabilities, the features of the environment as well as the initial result of the simulation are presented. The plans for improvement and suitable performance evaluation are suggested.
Die Arbeit gliedert sich in sechs Kapitel. Kapitel 1 stellt die Problematik der Arbeit dar. Nach einer Darlegung der Gefälligkeit des Computer-Trainings werden die vorliegende Software “Gesichter“ und ihre Schwächen sowie mögliche Verbesserungen angesichts des aktuellen Stands der Technik vorgestellt. Die Vorgehensweise wird in der Zielsetzung beschrieben. Im Kapitel 2 werden wichtige medizinische und technische Konzepte vorgestellt, die für die Realisierung der neuen Applikation erforderlich sind. Außerdem wird das menschliche Gehirn vorgestellt. Es wird anschließend gezeigt, wie eine erworbene Hirnschädigung zu Stande kommt und welche Strukturen im Gehirn dabei betroffen sind. Kapitel 3 beschäftigt sich hauptsächlich mit der Untersuchung der vorliegenden Software sowie mit der konkreten Evaluierung der Vorgehensweise und der Auswahl der geeigneten Technologie zur Realisierung der neuen Anwendung. Kapitel 4 beschreibt, wie die Implementierung realisiert wurde. Dabei wird auf die Implementierung einzelner definierten Anforderungen eingegangen. In Kapitel 5 werden Testfälle, die mit dem neuen Programm durchgeführt werden können, vorgestellt. Das letzte Kapitel 6 fasst die Arbeit zusammen. Hierbei werden alle erreichten Ergebnisse entsprechend der Zielsetzung vorgestellt. Abschließend werden im Ausblick Erweiterungsmöglichkeiten für das neue Programm vorgeschlagen.
Quantitative assessment of Positron Emission Tomography (PET) imaging can be used for diagnosis and staging of tumors and monitoring of response in cancer treatment. In clinical practice, PET analysis is based on normalized indices such as those based on the Standardized Uptake Value (SUV). Although largely evaluated, these indices are considered quite unstable mainly because of the simplicity of their experimental protocol. Development and validation of more sophisticated methods for the purposes of clinical research require a common open platform that can be used both for prototyping and sharing of the analysis methods, and for their evaluation by clinical users. This work was motivated by the lack of such platform for longitudinal quantitative PET analysis. By following a prototype driven software development approach, an open source tool for quantitative analysis of tumor changes based on multi-study PET image data has been implemented. As a platform for this work, 3D Slicer 4, a free open source software application for medical image computing has been chosen. For the analysis and quantification of PET data, the implemented software tool guides the user through a series of workflow steps. In addition to the implementation of a guided workflow, the software was made extensible by integration of interfaces for the enhancement of segmentation and PET quantification algorithms. By offering extensibility, the PET analysis software tool was transformed into a platform suitable for prototyping and development of PET-specific segmentation and quantification methods. The accuracy, efficiency and usability of the platform were evaluated in reproducibility and usability studies. The results achieved in these studies demonstrate that the implemented longitudinal PET analysis software tool fulfills all requirements for the basic quantification of tumors in PET imaging and at the same time provides an efficient and easy to use workflow. Furthermore, it can function as a platform for prototyping of PET-specific segmentation and quantification methods, which in the future can be incorporated in the workflow.
In IT-Abteilungen von Krankenhäusern und Universitätskliniken nimmt Kommunikation und Informationsaustausch zwischen Arbeitsgruppen immer mehr an Bedeutung zu. Einheitliche Informationsprozesse innerhalb einer ITAbteilung sind also notwendig, damit vor allem im Bereich des Projektmanagements Klarheit und Stabilität vorhanden ist. Schon in der Projektinitiierungsphase soll damit Fehlerbehebung und -vermeidung stattfinden. Denn die Haupthebelstelle für Projektqualität liegt im Projektentstehungsprozess. Vor diesem Hintergrund befasst sich diese Abschlussarbeit mit der Untersuchung der IT-Projektmanagementprozesse in Bezug auf die Möglichkeit zur EDV-Unterstützung.
Aufgrund der unterschiedlichen Wiederbelebungsabläufe zwischen Erwachsenen
und Kindern, müssen bei der Reanimation eines Kindes andere Behandlungsmaßnahmen
durchgeführt werden. So müssen z.B. Medikamente anders dosiert werden.
Hinzu kommt, dass eine Reanimation an einem Kind nur selten durchgeführt wird.
Dadurch sind Mediziner mit einer Wiederbelebungsmaßnahmen an Kindern aufgrund
mangelnden Routine unsicher bzw. führen falsche Behandlungsmaßnahmen
durch. Zwar sind bereits Leitlinien in digitaler Ausführung vorhanden, jedoch
werden diese in einer für eine Reanimation ungeeigneten Form ausgegeben und
können so nur schlecht in einer Wiederbelebungsmaßnahme genutzt werden. Um
Behandlungsfehler zu minimieren wird in dieser Arbeit untersucht, ob eine Datenbrille
zur Darstellung der Leitlinien verwendet werden und der Mediziner diese
mittels Sprachkommandos steuern kann. Um die Qualität der Sprachsteuerung im
Umgang mit den Leitlinien festzustellen, wurde eine Evaluation dieser durchgeführt.
Dafür wurden die Anwendung mit zehn Personen getestet. Diese ergab, dass
die Nutzung der Sprachsteuerung durch Auswahl geeigneter Sprachkommandos
sowohl bei Zimmerlautstärke, als auch bei Straßenlärm möglich war. Somit ist die
Steuerung einer Datenbrille mit Sprachkommandos in einer Reanimation denkbar,
um den Mediziner durch Informationen zu unterstützen .
In this bachelor thesis, different models for predicting the influenza virus are
examined in more detail.
The focus is on epidemiological compartmental models, as well as on different
Machine Learning approaches.
In particular, the basics chapter presents the SIR model and its various extensions.
Furthermore, Deep Learning and Social Network approaches are
investigated and the applied methods of a selected article are analysed in more
detail.
The practical part of this work consists in the implementation of a Multiple
Linear Regression model and an Artificial Neural Network. For the development
of both models the programming language Python was chosen using the
Deep Learning Framework Keras.
Tests were performed with real data from the Réseau Sentinelles, a French
organisation for monitoring national health.
The results of the tests show that the Neural Network is able to make better
predictions than the Multiple Linear Regression model.
The discussion shows ideas for improving influenza prediction including the
establishment of a worldwide collaboration between the surveillance centres as
well as the consolidation of historical data with real-time social media data.
Therefore, this work consists of a state-of-the art of models regarding the
spread of influenza virus, the development and comparison of several models
programmed in Python, evaluated on real data.
In den letzten Jahrzehnten ist der demographische Wandel in Deutschland immer deutlicher geworden. Die Zahl der pflegebedürftigen Menschen nimmt immer weiter zu und damit auch der Bedarf an Pflegepersonal. Die Anzahl der Pflegekräfte in Deutschland ist derzeit jedoch nicht ausreichend. Aus diesem Grund haben die Pflegekräfte für jeden Bewohner der Pflegeeinrichtung nur einen sehr begrenzten Zeitrahmen zur Verfügung. Da der geistige und körperliche Zustand der Bewohner sehr unterschiedlich ist, muss für jeden Bewohner ein individueller Pflegeplan angeboten werden. Es ist natürlich nicht möglich, sich von jedem Bewohner diese Informationen bzw. Pflegemaßnahmen zu merken, daher ist Dokumentation in einer Pflegeeinrichtung ebenso wichtig, wie eine qualitativ hochwertige Pflege. Die eben erwähnte Dokumentation ist sehr zeitaufwendig, jedoch unabdingbar. Um den Zeitaufwand der Dokumentation zu verkürzen, ist die Verwendung von IT in den letzten Jahren immer wichtiger geworden. Es ist natürlich nur dann eine Zeitersparnis möglich, wenn die Benutzer der Software gut mit selbiger umgehen können und die Verwendung möglichst intuitiv ist.
1.1 Gegenstand und Motivation Jeder von uns, der schon mal im Krankenhaus war und ein paar Tage dort verbringen musste, weiß wie einseitig und monoton der Alltag in solchen sterilen Räumen aus-sieht. Und wie froh man ist den ersten Schritt aus dem Krankenhaus zu machen, sich wieder mit Freunden zu treffen und den Alltag zu genießen. Nun gibt es auch schwer erkrankte Menschen, die dem Krankenhaus Alltag nicht nach ein paar Tagen entgehen können. Sie sind oft monatelang, ja sogar jahrelang, ans Kran-kenhaus gebunden. Besonders für Kinder und Jugendliche ist diese Situation ein großes Problem. Oft wird man von einem auf den nächsten Augenblick aus dem Alltag und dem sozialen Umfeld herausgerissen. Selbst, der bis dato doch nervende Schulalltag, fängt einem an zu feh-len. An das Beisammen sein mit Freunden im Klassenzimmer, oder auf dem Schulhof, ist auf einmal nicht zu denken. Stattdessen ist man an ein Krankenhausbett gefesselt und ist von medizinischen Geräten umgeben. Die Stiftung „Große Hilfe für kleine Helden“ will durch das Projekt „virtuelles Klas-senzimmer“ den erkrankten Schülern den virtuellen Besuch des Schulunterrichts ermög-lichen und somit auch den Kontakt mit Mitschülern und die sozialen Bindungen in ers-ter Linie zu pflegen und zu erhalten. Als Fundament für diese Arbeit dient die Abschlussarbeit „Konzeption und Implemen-tierung eines virtuellen Klassenzimmers für schwer erkrankte Kinder und Jugendliche mit Hilfe eines Telepräsenzrobotors“ von Frau Konstantina Georgiadou [3], welche auch den aktuellen Stand des Projekts beschreibt. Eine Überarbeitung des Projekts ist notwendig, da die Multimediale Hardware (Sound / Kamera / Mikrofone) immer noch kabelgebunden ist und somit die nötige Bewegungsfreiheit für den Telepräsenzroboter im Klassenzimmer oder dem Schulhof fehlt. 1.2 Problemstellung und Zielsetzung Zwar hat das Projekt beachtliche Schritte nach vorn gemacht, dennoch gibt es noch zahlreiche Probleme die zu bewältigen sind. Im Rahmen der Abschlussarbeit von Frau Georgiadou wurde ein Roboter Kit namens TurtleBot2 angeschafft. Das Kit beinhaltet eine Kobuki Basis, sowie eine Microsoft Kinect und ein ROS- kompatibles Netbook. Die vorhandene Hardware erweist sich als problematisch, da sie einige Hürden und Hindernisse darstellt die in dieser Abschlussarbeit eliminiert werden sollen. Das Projekt hat also nach diesem Stand eine große Schwäche. Die externen Geräte sind alle kabelgebunden. So benötigen die Station des mobilen Mikrofons, sowie die Audio-box eine externe Stromversorgung. Auch die Kamera, welche über das Netzwerk mittels LAN-Kabel fungiert, schränkt die Mobilität des TurtleBot2 erheblich ein. Da diese von Router und Steckdose abhängt. Ein ähnliches Problem liegt auch bei den Lautsprechern vor, diese sind ebenfalls von einer externen Steckdose abhängig. Das Ziel dieser Arbeit ist es, in erster Linie die eingeschränkte Mobilität des Turtle-Bot2, welche durch die kabelgebunden Geräte verursacht wird, zu beseitigen. Es sollen neue Hardware und Verbesserungsvorschläge für die medialen Probleme gefunden wer-den, wobei die Qualität von Ton und Bild nicht leiden dürfen. Ebenfalls soll eine An-richtung bzw. Verbesserungsvorschlag für den Schüler gefunden werden, welches ihm das Halten des Laptops erspart. Insgesamt soll sich der TurtleBot2 frei im Raum bewe-gen können und dem Schüler im Krankenhaus somit eine verbesserte Integration in die Normalität bzw. den Alltag ermöglichen.
Die Atemfrequenz ist neben anderen ein wichtiger Vitalparameter für die Erkennung von verschiedenen Erkrankungen des Atemsystems. Dennoch gibt es wenige Lösungen dafür, die Atemfrequenz aus der Ferne zu überwachen. Im Rahmen dieser
Arbeit soll deshalb ein dreidimensionaler Beschleunigungssensor für die Aufnahme der Brustkorbbewegung verwendet werden. Aus diesen Bewegungsdaten soll daraufhin mit Hilfe von digitalen Signalverarbeitungsmethoden die Atemfrequenz ermittelt werden. Der Beschleunigungssensor ermittelt die rustkorbbewegung mit einer Abtastrate von 50 Punkten pro Sekunde für jede Achse. Die Rohsignale werden achsenweise mit einem Butterworth-Bandpassfilter gefiltert und daraufhin mit Hilfe der Fast Fourier Transformation in die jeweiligen Frequenzspektren umgerechnet. Die einzelnen Achsen-Spektren werden zusammenaddiert und bilden so die Frequenzen des gesamten Signals ab. In dem Gesamtspektrum wird das absolute Maximum gesucht, das die dominante Frequenz des Signals angibt, aus welcher die Atemfrequenz berechnet werden kann.
Das Hauptziel dieser Arbeit ist es, einen Open-Source Python-Prototypen zu entwickeln, der aus den Sensor-Rohdaten die Atemfrequenz ermitteln kann. Dieser soll nach Fertigstellung veröffentlicht werden. Die Ergebnisse des Prototypen sollen gegen die des „EarlySense VitalsGerätes evaluiert werden. Dabei sind für die Ergebnis-Datensätze die Korrelation berechnet sowie die statistische Signifikanz ermittelt worden. Die Evaluation hat gezeigt, dass der Prototyp gute Ergebnisse liefert, welche in den meisten Fällen eine statistisch signifikante Korrelation aufweisen.
The e-commerce turnover has a constant growth rate of about 10%. An additional increase
in complexity and traffic spikes clarify the need for a scalable software architecture to prevent
a potential technical debt, higher financial cost, longer maintenance, or a reduced reliability.
Due to the fact, that existing approaches like the Palladio Approach require a high modelling
overhead and the importance of dropping this overhead was identified this master thesis is
focused on the modelling and simulation of e-commerce web application architectures using
a high-level approach to provide a faster, but possibly more inaccurate prediction of the
scalability.
This is done by the usage of the Design Science Research Process as a frame, a scientific
literature review for use of the existing knowledge base and the Conical Methodology for the
artefact creation. The artefact is a graphical model which is evaluated using a simulation
developed with Python and its framework SimPy. For model creation and evaluation a total
of twelve papers investigating the scalability of e-commerce web application architectures is
split into a test and train group. The training group and parts of the scientific research are
used to identify the components load balancer, application server, web tier, ERP system,
legacy system and database as well as some general characteristics that need to be considered.
The components with the most modelling variables are the application server and web
tier with a total of thirteen, while the ERP and legacy system only required five.
The model is evaluated using a total of three papers from the test group, where an average
throughput error of 5.78% and a response time error of 46.55% or 26.46% was identified. An
additional evaluation based on two non-e-commerce architectures shows the usability of the
model for other types of architectures. Even though the average error gives the impression,
that the model is not providing a good estimation, the graphical results show, that the model
and its simulation can be used to provide a faster scalability prediction. The model is least
accurate for the prediction of the situation, where the response time increases exponentially,
as this is the point, where variables, only accountable for some percentage and thus ignored
for the model, have the highest influence.
Future research can be found in the extension of the model by either adding or investigating
additional components, adding features ignored within this work or applying it to other
types of web application architectures. Additionally, both the low-level and the high-level
approaches can be brought together to combine the advantages from both approaches.
Mobile Signalverarbeitung auf dem Raspberry Pi mit Aspekten der Vernetzung mehrerer Messgeräte
(2016)
Bei dem Raspberry Pi handelt es sich um einen Einplatinen-Computer, welcher ich seit dem Verkaufsstart im Jahr 2012 sehr groÿer Beliebtheit erfreut. Nicht zuletzt aufgrund des hohen Grades an Kompatibilität und der groÿen Online-Community wurden bis zum heutigen Tage unzählige Projekte realisiert. In der Zwischenzeit ist der Raspberry Pi in verschiedenen Anwendungsgebieten und Branchen anzutreffen. Dies ist insofern interessant, da dieser ursprünglich für den Einsatz in Bildungseinrichtungen auf Basis einer Stiftung entwickelt wurde [1]. Dabei stellen Anwendungen wie eine Smart-Home Steuerung, ein Multimedia-Center oder eine Wetterstation nur einen Bruchteil der Möglichkeiten dar. Grundlage dieser vielfältigen Anwendungsgebiete ist die Unterstützung sämtlicher standardisierter Hard- und Software-Schnittstellen, zum Beispiel USB, Audio-Klinke, Serial Peripheral Interface (SPI) oder Inter-Integrated Circuit (I2C). Dadurch wird die Einbindung von beispielsweise Global Positioning System (GPS)-Modulen, Wireless Local Area Network (WLAN)-Empfängern oder sogar der eigenen Spiegelreflexkamera ermöglicht. Weiterhin ist mit Hilfe eines Mikrofons die Entwicklung einer Sprachsteuerung denkbar. Der mögliche Anwendungsbereich des Raspberry Pi geht noch weit über die hier genannten Beispiele hinaus. Eine der Schnittstellen des Raspberry Pi stellen die sogenannten General Purpose Input Output (GPIO)-Ports dar. Hierbei handelt es sich um analoge und digitale Ein- und Ausgänge worüber Hardware-Komponenten direkt auf physikalischer Ebene eingebunden werden können. Der Raspberry Pi eignet sich auch zum Nachweis radioaktiver Strahlung.
Ziel der Arbeit soll die Entwicklung eines Gerätes zur Messung der Strahlendosis sein. Dazu gehört die Verwendung eines Geiger-Müller-Zählrohrs, welches mittels eines Arduino Shields ansprechbar ist. Weiterhin sollen im Rahmen dieser Arbeit verschiedene Möglichkeiten zur Weiterentwicklung des Systems betrachtet werden. Das Geiger-Shield, zu dem das Geiger-Müller-Zählrohr und das Arduino-Shield gehören, wurden von dem Hardware-Hersteller Libelium im Jahr 2011 entwickelt. Anlass war der Tsunami in Japan, welcher die Atom-Katastrophe von Fukushima nach sich gezogen hat [2]. Das Geiger-Shield sollte den Alltag der Menschen in Japan vereinfachen, indem sie selbst die Strahlendosis messen konnten. Mit einem Mikrocontroller, einem einfachen LC-Display und einem Akku konnte so jederzeit die aktuelle Strahlendosis bestimmt werden.
Im Bereich der Krebsdiagnose und -therapie gewinnen neue minimalinvasive Verfahren zunehmend an Bedeutung. Beispiele hierfür sind Nadelpunktionen, bei denen zur Diagnose eine Gewebsprobe entnommen (Biopsie) oder durch Zerstörung des Gewebes im Bereich der Nadelspitze eine Krebserkrankung therapiert wird (Ablation). Eine zentrale Herausforderung hierbei ist die genaue Platzierung der Nadel. Am deutschen Krebsforschungszentrum (DKFZ) wurde ein computergestütztes Navigationssystem für Nadelinsertionen entwickelt, das sich im in-vivo Versuch als höchst akkurat zeigte. Trotz der vielversprechenden Ergebnisse kam das System bisher jedoch nicht am Patienten zum Einsatz. Dies ist unter anderem auf die schwierige Integration des Systems in den klinischen Workflow und die erhöhte Invasivität zurückzuführen. Vor diesem Hintergrund war das Ziel dieser Arbeit zum einen die Entwicklung einer flexiblen, erweiterbare Software für die navigierte Weichgewebepunktion, zum anderen die Weiterentwicklung des Navigationssystems durch die Einbindung eines neuen Feldgenerators für das elektromagnetische Trackingsystem NDI Aurora. Die Implementierung der Software erfolgte aufbauend auf der Bibliothek MITK und dem enthaltenen Modul MITK-IGT. Dabei wurde ein komponentenweiser Aufbau umgesetzt, welcher einen einfachen Austausch oder Erweiterungen der einzelnen Komponenten ermöglicht. Des Weiteren wurde der neue Feldgenerator bezüglich Genauigkeit und Präzision in der Einsatzumgebung evaluiert und es erfolgte ein Test des Navigationssystems unter klinischen Bedingungen. Abschließend kann festgestellt werden, dass durch die gezeigte Flexibilität und Erweiterbarkeit der entwickelten Software zahlreiche Möglichkeiten zur Weiterentwicklung offen stehen. Bezüglich des Feldgenerators zeigte sich das vielversprechende Potential dieses Geräts für die Weiterentwicklung medizinischer Navigationssysteme.
Spinodal Zr0.4Hf0.6Ni1.15Sn half-Heusler thermoelectrics are synthesized and aged. The complex microstructure due to the spinodal decomposition is investigated by powder X-ray diffraction (XRD), scanning electron microscope (SEM) and transmission electron microscope (TEM). By Rietveld refinements, it is confirmed that excess Ni atoms in the arc-melted and spark-plasma-sintered half-Heusler matrix prefer to form nanoscale/ submicron Heusler precipitates via spinodal decomposition and growth during the aging at 1173 K. Such phase separation changes the band gap of semiconductors, reduces the thermal conductivity drastically and improves the performance of thermoelectrics. As a result, a more than 50 % improvement of the ZT value on the unaged specimens was achieved.
Gegenstand der hier vorgestellten Arbeit ist ein Konzept zum Lehren von Ontologie in der Informatik, des Ontologiemanagementsystems Protégé und des Wissensverwal-tungssytems ProKEt. Dies geschieht in Form von Präsentationen, welche mit Hilfe von PowerPoint erstellt wurden. Dabei wird auf die Installation, die Basics, Kernkonzepte und die Teilwissensbasen im Detail eingegangen. Diese Präsentationen sollen ein alter-natives Konzept für den Unterricht darstellen, um die Lernenden aktiv zu beteiligen, und stellen ein Angebot zum Lehren der entsprechenden Thematiken dar. Zur Überprüfung der Effizienz wird eine Evaluation durchgeführt.
In einer vorangegangenen, erst kürzlich abgeschlossenen Bachelorarbeit wurde festgestellt, dass durch die Einführung eines Projektportals das Projektmanagement in der IT-Abteilung der SLK-Kliniken verbessert werden kann. Bisher befindet sich keine Applikation im Einsatz, mit deren man alle nützlichen Features verwalten kann. Ebenfalls ist noch nicht klar welche Anforderungen solch ein Produkt überhaupt erfüllen muss. Da noch nicht ganz klar ist, was für Anforderungen die Applikation besitzen muss und bisher nur eine sehr teure Komponente getestet wird, wird in dieser Bachelorarbeit ermittelt, was für Anforderungen für solch ein Produkt nötig sind. Mit Hilfe eines Wegwerfprototyps wird getestet, ob das Open Source Produkt Liferay Portal den Anforderungen gerecht wird und ob das Produkt in den Betrieb der Klinik integrierbar ist. Ein Analysekatalog zu erstellen ist ein Weiteres Ziel dieser Arbeit. Mit diesem können auch weitere Systeme analysiert und verglichen werden. Zudem wird eine Empfehlung auszusprechen sein, ob es sinnvoll ist das Produkt einzusetzen.
Ziel dieser Arbeit soll es sein, ein Verfahren zu entwickeln, das bildbasiert mit Hilfe eines Interpolationsmodells die Bewegung von Lungentumoren modellierbar macht, unter der Berücksichtigung, dass die Erkennbarkeit der Tumore während der Therapie nicht immer gewährleistet ist. Als erster Schritt soll daher ein geeignetes internes Surrogat für die Tumorbewegung ermittelt werden. Dessen Bewegungen während der Atmung des Patienten sollen mit Hilfe von kontinuierlich aufgenommenen zweidimensionalen Fluoroskopieaufnahmen quantifiziert werden. Anschließend sollen die gewonnenen Informationen als Eingabewerte für ein Interpolationsmodell genutzt werden, um diese Bewegung auf den Tumor im Inneren der Lunge zu propagieren. Dabei gilt es, ein geeignetes Modell zu entwickeln, das sich für die Modellierung von Tumoren auf Basis der Surrogatinformationen eignet und in der Lage ist, die Tumorbewegung möglichst wahrheitsgetreu zu modellieren. Eine Evaluation der Ergebnisse soll sowohl Aufschluss über eine geeignete Parametrisierung des Modells geben, als auch die Anwendbarkeit eines solchen Modells hinterfragen. Um eine Austauschbarkeit der Modelle gewährleisten zu können, soll eine Schnittstelle entwickelt werden, über die verschiedene Modelle angesprochen werden können. Weitergehend soll ein Ansatz entwickelt werden, der es ermöglicht, die relevanten Positionen des Surrogats ohne manuelle Interaktion während der Therapie zu bestimmen.
Im Rahmen der sich ausbreitenden Digitalisierung ist die Forderung nach mehr Bandbreite in
aller Munde. Das Schlagwort ist allerdings ein umgangssprachlicher Begriff, welcher nicht
korrekt verwendet wird. Gemeint ist dabei vielmehr die Übertragungsrate. Bandbreite
beschreibt im eigentlichen Sinn den Frequenzumfang, für den ein System ausgelegt wurde. Die
Übertragungsrate ist mittlerweile zu einem Standortfaktor für Unternehmen geworden und kann
als ein Merkmal der Infrastruktur angesehen werden. Für manche Unternehmen ist eine hohe
Übertragungsrate unerlässlich um wettbewerbsfähig zu bleiben. Aus technischer Sicht gibt es
verschiedene Ansätze zur Steigerung der Übertragungsrate. Zunächst wird versucht, ohne
Veränderungen der Hardware eine kostengünstige Verbesserung zu erzielen. Beispielsweise
lässt sich eine Steigerung auf dem Weg der Modulation realisieren, indem mehrere
Trägerfrequenzen verwandt werden. Letztlich ist eine Optimierung der Hardware trotzdem
notwendig. Ursächlich für niedrige Übertragungsraten sind momentan noch die Netze. Die
Empfangseinheiten sind längst für höhere Geschwindigkeiten konzipiert. Sie enthalten neben
der Antenne einen Hochfrequenzverstärker, der die schwachen Antennensignale zur
anschließenden Demodulation und weiteren Verarbeitung verstärkt. Hohe Frequenzen
produzieren in den Leistungsverstärkern große Verlustleistungen aufgrund der Häufigkeit von
Umladevorgängen. Daraus resultieren schlechte Wirkungsgrade. Doch nicht nur an die
Übertragungsrate, sondern auch an den Wirkungsgrad werden hohe Anforderungen gestellt.
Dahinter steht der Bedarf an Mobilität. Von Smartphones und Tablets wird die Fähigkeit
erwartet, mit hoher Geschwindigkeit umfangreiche Datenmengen zu laden. Gleichzeitig wird
eine maximale Akkulaufzeit gefordert.
Im Mittelpunkt dieser Arbeit steht die optimale Betriebsweise von Hochfrequenzverstärkern.
Die Verstärker selbst wurden von den Herstellern optimiert. Darüber hinaus wirkt sich die
Auswahl der Betriebsparameter sehr stark auf den Wirkungsgrad und die Verzerrung und damit
auf die Signalqualität aus.
Aufgabe dieser Arbeit ist es, diverse Messungen mit Hochfrequenzverstärkern durchzuführen
um daraus die optimale Einstellung der Betriebsgrößen zu ermitteln. Die Messungen erfolgen
zunächst mit vier vorgefertigten Verstärkern. Darüber hinaus wird ein Verstärker auf der Basis
eines Verstärker-ICs auf einer Leiterplatte selbst hergestellt, mit welchem anschließend die
selben Messungen erfolgen.
Die Messungen erfolgen mit drei unterschiedlichen Typen von Eingangssignalen:
-CW-Signalen entsprechend Sinus-Signalen.
-Zweitonmessungen. Zwei Sinus-Signale unterschiedlicher Frequenz am Eingang.
-Digitale Telekommunikationsstandards.
Alle nachfolgend genannten Messungen werden im Laufe der Dokumentation erklärt.
Im CW-Fall werden Load-Pull- und Power-Sweep-Messungen durchgeführt. Es folgen
Spektralmessungen zur Bewertung der harmonischen Oberwellen bei Einton-Ansteuerung. Im
Zweiton-Fall werden Spektralmessungen im Bereich der Grundfrequenzen und anschließend
im Bereich der harmonischen Oberwellen durchgeführt. Auf diese Weise sollen
Intermodulationsprodukte bewertet werden. Ebenfalls im Zweiton-Fall erfolgen Load-Pull-
Messungen. Die Betrachtung des Spektrums erfolgt unter Variation der Last. Die Auswirkung
der Last auf den Störabstand wird dabei untersucht. Im Fall der digitalen Ansteuerung werden
unter verschiedenen Betriebsgrößen Messungen der Nachbarkanalleistung durchgeführt.
Der Ausdruck Load-Pull-Messung hat verschiedene Bedeutungen. Zum einen werden mit
Load-Pull-Messungen umgangssprachlich sämtliche Messungen bezeichnet, die zur
Charakterisierung von Hochfrequenzverstärkern dienen. Zum anderen steht Load-Pull-
Messung für ein Messverfahren, bei welchem die Lastimpedanz variiert wird. Die letztgenannte
Load-Pull-Messung stellt die zentrale Messung in dieser Arbeit dar. Um ihre Bedeutung
verständlich zu machen ist eine Auseinandersetzung mit den Grundlagen der
Hochfrequenztechnik von Nöten. Im Folgenden werden all jene Aspekte der
Hochfrequenztechnik behandelt, die zum Verständnis der Messungen dieser Arbeit notwendig
sind.
An der NCT-Gewebebank in Heidelberg werden große Mengen menschlichen Gewebes vorgehalten, welche von Forschern hauptsächlich im Rahmen der Tumorforschung verwendet werden können. Da jede Dienstleistung im Zusammenhang mit diesem Gewebe, sowie die Herausgabe dessen zuerst bewilligt werden muss, müssen die forschenden Ärzte und Wissenschaftler einen Antrag an die Gewebebank stellen. Die
Antragsstellung erfolgt zum aktuellen Zeitpunkt über ein Online bereit gestelltes Formular, welches im besten Falle digital korrekt ausgefüllt, ausgedruckt und unterschrieben an das Sekretariat der NCT-Gewebebank geschickt wird. Da die Anträge dort wieder von Hand digitalisiert werden, soll der Vorgang online erfolgen und so die Antragsverwaltung erleichtern, sowie weniger anfällig für Fehler machen.
Im Rahmen dieser Bachelorarbeit soll ein Konzept entwickelt werden, wie ein Antragsportal funktionieren kann, über das die Forscher online Anträge stellen können.
Diese Arbeit ist auf die folgenden Ziele ausgerichtet:
- Modellierung des aktuellen Zustands des Prozesses der Antragstellung
- Modellierung eines möglichen zukünftigen Prozesses
- Vorstellung der möglichen Verbesserungen im Prozess
- Konzeptionierung eines Antragsportals
- Analyse der Umsetzung dieses Portals mit praktischen Ansätzen
Eine der zentralen Aufgaben der medizinischen Bildverarbeitung ist es, den Arzt durch neue oder verbesserte Methoden zur Diagnostik und Therapieplanung bei medizinischen Entscheidungs- und Behandlungsprozessen zu unterstützen. Für viele Fragestellungen in der Medizin sind Untersuchungen von Gefäÿsystemen oder anderen tubulären Strukturen erforderlich. Die vorliegende Arbeit beschäftigt sich mit der Konzipierung und der Realisierung eines generischen Datenmodells für tubuläre Strukturen. Für die Darstellung dieser Strukturen wurde eine neue Visualisierungsmethode implementiert. Zudem wurden allgemein verwendbare und benutzerfreundliche Interaktionskomponenten entwickelt, die die Exploration, die Modikation, die Attributierung sowie die Analyse der modellierten Systeme ermöglichen.
Aktuell ist die Installation, sowie die Konfiguration von RANDI2, sehr umständlich. Parameter oder sogar ganze Konfigurationsdateien werden für die vorhandene Infrastruktur des Anwenders angepasst. Obwohl jede Installation mit Eingaben bezüglich der Institution, verantwortlichen Personen, Logos und vielen anderen Einstellungen parametriert wird, verfügt das System zurzeit über keinen Mechanismus, der den Benutzer bei der Konfiguration unterstützt. Dadurch kann die Installation und Konfiguration meistens nur von erfahrenen Anwendern durchgeführt werden. Ziel dieser Bachelorarbeit ist es, ein Modul zu entwickeln, welches den Administrator dabei unterstützt, das System bei der Installation von RANDI2 optimal einzurichten.
In einem überregionalen Forschungsprojekt untersuchen Heidelberger und Hannoveraner Wissenschaftler Entstehungsmechanismen und neue Therapieansätze des Leberzellkarzinoms, einer der tödlichsten Tumorerkrankungen unserer Zeit. Die IT-Plattform pelican soll dem Forschungsverbund die softwaregestütze Analyse und den Austausch von Leberkrebs-Forschungsdaten ermöglichen. Bisher fehlte dazu ein geeignetes Oberflächenkonzept. Deswegen wurde eine Benutzerschnittstelle entworfen, die in der Lage ist, heterogene Daten und Funktionen darzustellen und dabei flexibel an die Nutzerbedürfnisse angepasst werden kann. Es konnte anhand einer prototypischen Benutzungsoberfläche gezeigt werden, dass sich das Konzept praktisch umsetzen lässt. Mit Hilfe der in einem Evaluierungsprozess ausgewählten Portalsoftware GridSphere wurden mehrere Datendienste als Module in die pelican-Applikation integriert. Als besondere Herausforderungen haben sich die Navigation innerhalb der Oberflächenmodule sowie der Informationsaustausch zwischen den Komponenten herausgestellt. Die erarbeiteten Lösungsansätze wurden dokumentiert und dienen als Basis für die Integration beliebiger neuer Dienste in die Plattform. Zukünftige Entwicklungen können der Krebsforschung weltweit in Form von standardkonformen Diensten im caGrid Umfeld zur Verfügung gestellt werden.
Im Rahmen dieser Abschlussarbeit wird in Zusammenarbeit mit zwei Physiotherapeuten der IB Medizinischen Akademie Mannheim ein Konzept für das heimbasierte Training
in der Handtherapie erarbeitet. Das Konzept basiert auf der Thalmic Myo, einem Gestensteuerungssystem, das über den Arm gesteuert wird. Der Entwurf wird prototypisch in Verbindung mit einer Android Anwendung realisiert.
Das Myo-Armband ist mit Bewegungssensoren und Elektroden ausgestattet, womit sich Position von Hand und Arm im Raum erfassen und Bewegungen durch elektrische Signale
von Muskeln erkennen lassen. Basierend auf dieser Technologie, soll eine Möglichkeit zur
Verlaufskontrolle der Adhärenz, die Einhaltung der gemeinsam gesetzten Therapieziele, gewährleistet werden können.
Abschließend wird der Prototyp gemeinsam mit sieben Physiotherapeuten hinsichtlich
seiner Funktionalität untersucht und die Akzeptanz und das Nutzererlebnis evaluiert. Bei der Untersuchung wird das Studentenprojekt “LeapPhysio” hinzugezogen, das ähnliche Ziele verfolgt, jedoch auf einer anderen Technologie basiert. Es werden beide Technologien gegenübergestellt und auf ihre Eignung geprüft.
Für die fortwährende Optimierung von Behandlungsstrategien im Bereich der Strahlentherapie ist es notwendig, Behandlungspläne strukturiert miteinander zu vergleichen. Um die vielfältigen Datenmengen, die sich im Rahmen großer und übergreifender Forschungsprojekte, wie etwa dem ULICE-Projekt [18] ergeben, suffizient auswerten zu können, ist ein leichter Zugriff für alle Projektteilnehmer erstrebenswert. Dieser kann beispielsweise durch den Einsatz einer Telemedizinakte, wie sie z.B. von der Firma CHILI GmbH angeboten wird, erfolgen. Die Telemedizinakte muss unbedingt in der Lage sein, das Datenformat, in dem Therapiepläne abgespeichert werden (DICOM RT), zu verarbeiten. Daher wurde im ersten Schritt dieser Arbeit analysiert, welche Informationen im Rahmen eines DICOM RT Viewing Moduls im CHILI-PACS dargestellt werden können. Als zentrale Aufgabe wurde die Darstellung des Dosis-Volumen-Histogramms (DVH) ermittelt, für dessen Berechnung es Module für die Darstellung der segmentierten Strukturen (RT Structure Set) und die Dosisverteilung (RT Dose) geben muss. Außerdem soll es zu einem späteren Zeitpunkt leicht möglich sein, weitere Module für die Anzeige der übrigen DICOM RT Objekte zu integrieren. Nach der Spezifikation der geforderten Funktionalität wurde ein Konzept für deren Umsetzung erstellt und mit der Implementierung einer der Kernfunktionen begonnen. Durch diese Implementierung soll es anderen Programmierern erleichtert werden, das gewählte Konzept nachzuvollziehen und das DICOM RT Viewing Modul des CHILI-PACS entsprechend erweitern und anpassen zu können, bis letztendlich ein homogenes und vollständiges Gesamtsystem entsteht. Durch die Umsetzung eines Moduls zur Darstellung von RT Structure Sets ist es jetzt möglich, sich die segmentierten Strukturen eines DICOM RT Datensatzes im CHILIPACS anzeigen zu lassen. Es können gezielt einzelne Strukturen an- und abgewählt und deren Konturfarbe geändert werden. Die Darstellung der Konturen ist für die Axial-, die Coronal- und die Sagittalebene möglich. Eine Überprüfung der Funktionalität wurde mit den zur Verfügung stehenden DICOM RT Testdatensätzen durchgeführt.
Das deutsche Gesundheitswesen ist ein dichtes Netzwerk bestehend aus einer Vielzahl von unterschiedlichen Akteuren im komplexen Zusammenspiel. Ständige Gesundheitsreformen aufgrund steigender Ausgaben im Gesundheitswesen sowie Fortschritte in der Medizin nehmen Einfluss auf die Informationsverarbeitung in diesem Netzwerk. Das hat zur Folge, dass immer mehr Anwendungssysteme zum Einsatz kommen, die hinsichtlich ihrer Zusammenarbeit besondere Herausforderungen stellen. Häufig können die komplexen Abläufe bei der Zusammenarbeit der Anwendungssysteme erst durch ein Modell, welches die Realität abstrahiert, verstanden werden. In diesem Zusammenhang wird das deutsche Gesundheitswesen durch ein virtuelles Gesundheitssystem modelliert, welches die Akteure des deutschen Gesundheitswesens nachbildet. Im Rahmen der vorliegenden Diplomarbeit wird die Population durch einen Generator abgebildet. Der Generator generiert anhand der Patientendaten der Population ereignisbasierte Nachrichtenprofile, die dem virtuellen Gesundheitssystem zur Weiterverarbeitung zur Verfügung gestellt werden.
Konzeption und Entwicklung einer robotergestützten und ultraschallbasierten Lokalisationskontrolle
(2018)
Mit Hilfe der Image Guided Therapy wird versucht die Bestrahlung von Tumoren mittels
Bildgebung zu verbessern und die Nebenwirkungen durch die Bestrahlung für den
Patienten zu minimieren. Diese Arbeit verfolgt den Ansatz Ultraschall als echtzeitfähige
Bildverarbeitungsmodalität zu nutzen und darüber eine Lokalisationskontrolle
von Tumoren während der Bestrahlung zu ermöglichen.
Ziel dieser Arbeit war die Entwicklung und Implementierung eines Gesamtkonzeptes
zur ultraschallbasierten und robotergestützten Lokalisationskontrolle. Ergebnis der
Arbeit ist eine auf dem medizinischen Bildverarbeitungsprogramm MITK basierte Applikation.
Diese erlaubt es ein 2D Ultraschallbild über ein Tracking-System oder den
Roboter zu referenzieren und mit registrierten Planungsdaten überlagert darzustellen.
Die Darstellung ist dabei in quasi Echtzeit sowohl in 2D als auch in 3D möglich. Zur
Registrierung wurde ein optisches Tracking-System verwendet, welches über einen eigens
neu entwickelten Filter mit dem Roboter verknüpft werden kann. Weiter lässt
sich aus der Applikation heraus der Roboter steuern und es können automatisierte
Scanverfahren genutzt werden, um mit Hilfe eines 2D Ultraschallkopfes ein 3D Ultraschallbild
zu erstellen. Die Anwendung knüpft an bestehenden Funktionen an und
erlaubt es künftigen Nutzern die neu erstellten Komponenten auch getrennt voneinander
weiter zu verwenden. Dazu gehören Filter für die Zuordnung der Ultraschallbilder,
sowie ein Filter zum Kombinieren von verschiedenen Tracking-Systemen, als auch die
Möglichkeit den Roboter zu nutzen.
In dieser Bachelor-Thesis wird ein Ansatz zur robotergestützten Ultraschall-Bildgebun entwickelt. Es wird hierbei hauptsächlich die Kommunikation zwischen Roboter und
Computer, sowie die Steuerung des Roboters, betrachtet. Die Bilderfassung und Darstellung
ist nicht Teil dieser Arbeit. Ergebnis dieser Arbeit sind eine detaillierte Anforderungsanalyse, eine GUI zum Steuern der erstellten Roboterteilprogramme und das Roboterprogramm an sich. Auf Seiten
des Roboters sind Programme für das Beibringen von Positionen, das Anfahren
dieser und das Verfahren des Ultraschallkopfes an diesen (manuelle Steuerung mit einem Joystick) implementiert. Für eine Atembewegungskompensation sind Beispielprogramme erstellt worden. Die Kommunikation zwischen Roboter und Computer baut auf OpenIGTLink auf. Ein weiteres Ergebnis der Thesis ist die Architektur des Programms, die es ermöglicht, dem Roboter beliebig viele neue Befehle beizubringen.
Durch die immer härteren Anforderungen an Wirtschaftlichkeit und Qualität ihrer angebotenen Leistungen kommt es in der Medizin zur immer engeren Zusammenarbeit zwischen den Leistungserbringern. Das Universitätsklinikum Heidelberg und die IntercomponentWare AG haben daher ein gemeinsames Projekt ins Leben gerufen dessen Ziel die Entwicklung eines intersektoralen Informationssystems (ISIS) ist. ISIS soll den Austausch versorgungsrelevanter, medizinischer Daten ermöglichen. Patienten müssen der Teilnahme an ISIS und dem Austausch sowie der Verarbeitung ihrer Daten mit den einzelnen an ISIS teilnehmenden Einrichtungen aufgrund der rechtlichen Gegebenheiten in Deutschland explizit zustimmen. Das Management der Einwilligungserklärungen wurde bisher durch Produkte der Industrie nicht zufrieden stellend gelöst. Um das Einwilligungsmanagement befriedigend zu lösen wurde am Universitätsklinikum Heidelberg ein Konzept für ein zentrales Einwilligungsmanagement für ISIS entwickelt.
Die Langlebigkeit eines zementierten Implantats ist abhängig von einem starken Knochen-Zementinterface, sowie Implantat-Zementinterface, welches die Verbindung zwischen Knochenzement und Implantatmaterialien beschreibt. In einer Studie von Sebastian Jäger et al. [19], wurde die Verteilung des Zements in den Knochen untersucht, anhand von Schnittpräparaten, hergestellt aus zementierten Implantaten. Von den Schnittpräparaten wurden endoprothetische Schnittbilder erstellt, die für eine spätere Auswertung am PC dienen. Das Ziel dieser Arbeit ist es, ein möglichst automatisches Verfahren zu entwickeln, welches es ermöglicht Zement-, Knochen- und Prothesenstrukturen in den endoprothetischen Schichtbildern zu segmentieren. Diese Segmentierung gelingt jedoch nur durch eine Klassifikation der einzelnen Pixel.
In der vorliegenden Thesis wurde untersucht, ob mit dem derzeitigen Krankenhausinformationssystem sowohl die Patientenversorgung, als auch Forschung unterstützt werden kann. Des Weiteren wurde analysiert, ob sich die erhobenen Patientendaten in einer geeigneten Form befinden, um diese direkt für die Forschung verwenden zu können. Dazu wurde im Rahmen dieser Arbeit eine Prozessanalyse der im Einsatz befindlichen Systeme in der Kinderkardiologie erstellt. Zur Analyse der Prozesse wurde eine IST-Analyse verwendet, welche das Problem der Datenerfassung und -haltung fokussiert. Hierbei wurden zwei Probleme aufgedeckt. Zum einen existierten Medienbrüche zwischen den einzelnen Systemen, welche das Risiko erhöhen, bei der Datenüberführung falsche Werte zu übergeben und dadurch die Qualität der Daten zu mindern. Zum anderen waren einige Informationen innerhalb der Befunde nicht strukturiert. Folglich konnten diese Werte nicht wie beabsichtigt für wissenschaftliche Studien herangezogen werden. Die Weiterverwendung der klinischen Daten in der Forschung (Second Use) war demzufolge nicht möglich. Mittels einer Balanced Scorecard wurde ein Entwicklungsplan erstellt, wie die Vision der Kinderkardiologie erfüllt werden kann. Der strategische Weg der BSC konzentrierte sich darauf, die Patientendaten für die Weiterverwendung bereit zu stellen. Die vier Standardperspektiven der BSC waren für die Kinderkardiologie nicht geeignet und somit mussten andere Perspektiven ausgewählt werden. Es wurden verschiedene Maßnahmen aufgezeigt und miteinander in Hinsicht auf Anwendbarkeit, zeitlichen Aufwand und Verwendung verglichen, um den strategischen Weg der BSC zu erreichen.
eHMIS is a Ugandan Hospital Information System (HIS), which targets the Sub-Saharan market. In its first version all forms were programmed statically and adaptations were done by code modifications. In 2014 the development of a second version of eHMIS based on Java started.
This work aims at introducing dynamic forms to this new version. While forms that are significantly important to the workflow of the application will remain static, others are replaced by forms that are dynamically designed by the user. By that, the application will become more flexible and local and situational tailoring will be possible without inducing extra costs.
In this thesis the design, implementation and testing of dynamic forms in eHMIS is discussed. The architecture is based on the questionnaire resource of FHIR®. The module enables the user to create questions and group them into sections and questionnaires. For each question the type of answer expected and other constraints can be defined. A user interface covering all functions was designed, so that no programming skills are required. In a first step dynamic forms were integrated in the application's workflow for recording symptoms, though other fields of application are possible. For testing, a usability experiment was conducted in Tororo Hospital in Eastern Uganda, using the thinking aloud method. Results were analysed and evaluated to detect usability problems and gain a general impression of user satisfaction.
In this thesis a software system is proposed that provides transparent access to dynamically processed data using a synthetic filesystem for the data transfer as well as interaction with the processing pipeline. Within this context the architecture for such a software solution has been designed and implemented. Using this implementation various profiling measurements have been acquired in order to evaluate the applicability in different data processing scenarios. Usability aspects, considering the interaction with the processing pipeline, have been examined as well. The implemented software is able to generate the processing result on-the-fly without modification of the original input data. Access to the output data is provided by means of a common filesystem interface without the need of implementing yet another communication protocol. Within the processing pipeline the data can be accessed and modified independently from the actual input and output encoding. Currently the data can be modified using a C/C++, GLSL or Java front end. Profiling data has shown that the overhead induced by the filesystem is negligible for most usage patterns and is only critical for realtime processing with a high data throughput e. g. video processing at or above 30 frames per second where typically no file operations are involved.
In der heutigen Zeit ist es auch für Ärzte nicht immer trivial, diagnostisch präzise Entscheidungen auf Grund von modernsten medizinischen bildgebenden Verfahren zu treffen. Die vorliegende Bachelor-Thesis befasst sich damit wie man eine Software-anwendung mit Hilfe der Support Vector Machine (SVM), eine Technik des maschi-nellen Lernens, in ein bestehendes Framework wie z.B. MITK implementieren kann, um so vollautomatische Tests von Lebertumorsegmenierungen durchführen zu kön-nen. Durch die zusätzliche Integration einer Testklasse wird die entwickelte SVM validiert, um ein möglichst hohes Klassifikationsergebnis zu erreichen. Die in der Thesis entwickelte Softwarekomponente hat gezeigt, dass eine vollautomatische Segmentierung von Lebertumoren bei Patienten in zufriedenstellendem Maße möglich ist.
The Greifswald University Hospital in Germany conducts a research project called "Greifswald Approach to Individualized Medicine (GANI_MED)", which aims at improving patient care through personalized medicine. As a result of this project, there are multiple regional patient cohorts set up for different common diseases. The collected data of these cohorts will act as a resource for epidemiological research. Researchers are going to get the possibility to use this data for their study, by utilizing a variety of different descriptive metadata attributes. The actual medical datasets of the patients are integrated from multiple clinical information systems and medical devices. Yet, at this point in the process of defining a research query, researchers do not have proper tools to query for existing patient data. There are no tools available which offer a metadata catalogue that is linked to observational data, which would allow convenient research. Instead, researchers have to issue an application for selected variables that fit the conditions of their study, and wait for the results. That leaves the researchers not knowing in advance, whether there are enough (or any) patients fitting the specified inclusion and exclusion criteria. The "Informatics for Integrating Biology and the Bedside (i2b2)" framework has been assessed and implemented as a prototypical evaluation instance for solving this issue. i2b2 will be set up at the Institute for Community Medicine (ICM) at Greifswald, in order to act as a preliminary query tool for researchers. As a result, the development of a research data import routine and customizations of the i2b2 webclient were successfully performed. An important part of the solution is, that the metadata import can adapt to changes in the metadata. New metadata items can be added without changing the import program. The results of this work are discussed and a further outlook is described in this thesis.
Der Einsatz von virtuellen Szenen in der Medizin gewinnt zunehmend an Bedeutung, weil Navigations- und Planungshilfen für den Arzt geschaffen werden. Die Verwendung von komplexen Computersimulationen soll den Behandlungsprozess verkürzen und gleichzeitig die Behandlungsqualität durch eine gezielte Vorgehensweise verbessern. Wegen der hohen Komplexität von Bildverarbeitungsalgorithmen ist es jedoch schwierig, eine einfache Interaktion mit den medizinischen Daten zu ermöglichen. Zudem werden Benutzereingaben durch die Eingabegeräte wie Maus und Tastatur eingeschränkt, da diese in vielen Fällen keine einfache Steuerung zulassen. Diese Diplomarbeit beschäftigt sich mit der Umsetzung intuitiver Interaktionskonzepte für den alltäglichen klinischen Gebrauch durch Verwendung von intuitiven Eingabegeräten (3D Maus, Wii Controller). Die Entwicklungen basieren auf dem Medical Imaging Interaction Toolkit (MITK) des Deutschen Krebsforschungszentrums (DKFZ). Dabei wurden von einer einfachen Kamerafahrt in einer Volumenvisualisierung über die Realisierung eines Headtracking in einer virtuellen Realität bis hin zu der Interaktion mit 3D Objekten konkrete Anwendungsbeispiele erarbeitet, analysiert und bewertet.
Medication reconciliation is defined by the American Society of Health- System Pharmacists (ASHP) and the American Pharmacists Association (AphA) as “the comprehensive evaluation of a patient’s medication regimen any time there is a change in therapy in an effort to avoid medication errors such as omissions, duplications, dosing errors or drug interactions, as well as to observe compliance and adherence patterns “. Medication reconciliation is very important to avoid medication errors but it is also a complex and time-consuming process. Medication histories, i.e. records of prescription, purchase, and refill sequences are considered to be a resource from which conclusions about medication reconciliation can be drawn. However, medication histories spread across diverse paper and electronic media may lack the required accuracy. By employing multiple electronic sources this thesis will evaluate if more accurate medication histories can be collected.
Die großen Datenmengen der klinischen Routine stellen für die medizinische Forschung ein großes Potenzial dar. So lassen sich zum Beispiel doppelte Erhebungen vermeiden oder Studienteilnehmer schneller finden. Sollen diese Daten genutzt werden, bedarf es geeigneter Werkzeuge und Prozesse. Im Rahmen des RWH Projektes der Medizinischen Uniklinik Heidelberg und dem GECKO Institut der Hochschule Heilbronn soll in dieser Arbeit ein Abfragewerkzeug für multidimensionale Datenbanken erstellt und verifiziert werden. Den Schwerpunkt der Arbeit bildet die Wahl einer geeigneten Softwarearchitektur. Im Anschluss an eine Anforderungsanalyse wird das Abfragewerkzeug mit Hilfe von Java Technologien, wie dem Google Web Toolkit und dem Open Java API for OLAP, erstellt. Die Anforderungen werden mit zwei Anwendungsszenarien verifiziert. Der RWH Report-Browser konnte mit der festgelegten Architektur implementiert werden. Zum Erstellen von MDX Anfragen an das DataWarehouse wurde ein Anfragegenerator implementiert. Die Verifikation zeigt, dass der Report-Browser als Plattform für den Zugriff auf klinische Routinedaten geeignet ist. Eine gute Testbarkeit der Architektur konnte nachgewiesen werden.