Frei zugänglich
Refine
Document Type
- Master's Thesis (43)
- Bachelor Thesis (23)
Has Fulltext
- yes (66)
Is part of the Bibliography
- no (66)
Keywords
- Entwicklung (10)
- Implementierung (8)
- Analyse (7)
- Software (6)
- Evaluation (5)
- Konzeption (5)
- Patient (5)
- Anwendung (4)
- Medizin (4)
- Segmentierung (4)
Institute
- Medizinische Informatik (66) (remove)
Viele schwerstkranke Patienten hegen den Wunsch die letzte Zeit ihres Lebens im häuslichen Umfeld, statt im Krankenhaus zu verbringen. Eine wichtige Voraussetzung dafür ist eine gute Kommunikation zwischen allen Beteiligten des Versorgungsprozesses, damit ambulante und stationäre Versorgung gut aufeinander abgestimmt werden können. Derzeit gibt es nur wenige strukturierte Untersuchungen, welche Informationsbedürfnisse die im Bereich der palliativen Versorgung beteiligten Akteure besitzen und ob und in wieweit diese mit mobilen Anwendungen unterstützt werden können. Die vorliegende Arbeit untersucht, welche Akteure hauptsächlich am Prozess der palliativen Versorgung sowohl im ambulanten als auch im stationären Umfeld beteiligt sind und welche Informationsbedürfnisse diese haben. Weiterhin werden bisher verwendete Werkzeuge, Apps und Anwendungssysteme darauf untersucht, inwiefern sie diesen Informationsbedarf erfüllen. Die Untersuchungen basieren auf einer systematischen Literaturrecherche sowie Hospitationen in drei verschiedenen palliativen Einrichtungen: einer spezialisierten ambulanten Palliativversorgungs Einheit in Buchen im Odenwald, einer Palliativ-Station in Heidelberg sowie einer Palliativ-Einrichtung in Santiago de Chile. Es hat sich herausgestellt, dass die stationären Einrichtungen bereits sehr gute Strukturen für Informationsaustausch und -bereitstellung etabliert haben, diese jedoch im ambulanten Bereich weniger wirksam sind. Gründe hierfür liegen in der größeren örtlichen Distanz und den damit verbundenen längeren Kommunikationswegen im ambulanten Bereich. Ebenso ist bedingt durch den zusätzlichen Fahrtaufwand bei gleicher Patientenzahl und Visitendauer nur eine geringere Anzahl an Visiten möglich. Bisher sind hier aber vor allem die informationsverarbeitenden Prozesse aufgrund der geringen Größe der Einrichtungen und der hohen Individualität der Behandlung wenig automatisiert und automatisierbar. Die für die Palliativversorgung existierenden Softwareprodukte sind hierfür zu umfangreich oder nicht ausreichend adaptierbar. Es hat sich gezeigt, dass der Bedarf an mobiler, technischer Unterstützung vor allem in der ambulanten Palliativversorgung in den Bereichen Dokumentation und Abrechnung, aber auch bei der Bildung und Weiterbildung von Fachpersonal, Patienten und Angehörigen derzeit nicht gedeckt werden kann.
Während der Therapie unbewegte Tumore lassen sich durch eine gezielte Bestrahlung präzise behandeln, bei gleichzeitiger Schonung des umliegenden Gewebes. Lässt sich eine Bewegung des Tumors während einer Bestrahlung aber nicht vermeiden, so werdenVerfahren benötigt, die eine solche Bewegung kompensieren. Diese Arbeit stellt einen Multi-Template-Ansatz vor, der eine direkte Bewegungserkennung des Tumors während der Bestrahlung ermöglicht. Um zu jeder Zeit eine individuelle und exakte Tumorposition zu erhalten, wurde ein bereits bestehendes System um eine Positionsbestimmung des Tumors innerhalb der Templates erweitert. Anschließend wurde ein Matching-Algorithmus in das System integriert. Die Ergebnisse wurden anhand eines Phantom- und Patientendatensatzes evaluiert und auf eine Eignung für ein Gating- oder Tracking- Verfahren überprüft.
This thesis presents a photmetric stereo method based on the work of Schulze [35], who in turn extended the research of Schroeder et al. [33,34] In this approach, three different lightings are obtained by illuminating the object by three colored light sources (red, green and blue). A video of the subject is captured from the front, the back and the side. The single frames are then extracted from the viedo, which are used for the 3D reconstruction of the subject. The aim of this work was to improve the presented method of Schulze with real patient subjects by getting a better sphere calibration and changing some parameters in the patient processing. As the graphical interface was implemented for persons with a technical background, it has been changed to become also more convenient to use for non-technically oriented staff
Im Rahmen dieser Arbeit wird eine eigens entwickelte Plagiatserkennungsoftware für Java-Programme namens Plagiarism Finder vorgestellt. Der Plagiatserkennungsprozess dieser Software basiert auf dem Java-Bytecode. Es werden die Grundlagen der Plagiatserkennung und des Java-Bytecodes umfassend erläutert. Des Weiteren wird die Funktionsweise, der Entwurf, die Benutzeroberfläche und die Evaluierung von Plagiarism Finder dargestellt. Hierbei wird auf folgende von der Wissenschaft bisher nicht betrachteten Aspekte eingegangen:
-Die Art der Normalisierung des Bytecodes vor dem Vergleich.
-Wie gelöst werden kann, dass das Verschieben von Methoden keinen Einfluss auf die ermittelten Ergebnisse hat.
-Wie bei der Plagiatserkennung Vorlagen gefiltert werden können. Die Arbeit kommt zu dem Resultat, dass sich die Ergebnisse von Plagiarism Finder stabil gegenüber Änderungen des Wortlautes, des Textsatzes und dem Verschieben von Methoden verhalten. Änderungen an Kontrollstrukturen (z.B. For- statt While- Schleifen), an Zugriffsmodifikatoren und an der Anzahl von Methoden führen zu einem instabilen Verhalten der Ergebnisse. Alles in allem kann Plagiarism Finder mit einer etablierten Plagiatserkennugssoftware
wie JPlag [MP00] mithalten. Auf Grundlage der untersuchten Daten ist Plagiarism Finder im Erkennen von Plagiaten leicht schlechter als JPlag. Plagiarism Finder ist hingegen deutlich besser im Erkennen von nicht plagiierter Software. Bei wortwörtlichen Kopien sowie bei Änderungen an der Textgestaltung und an Bezeichnungen sind die Ergebnisse der Programme nahezu identisch.
Die häufigste Todesursache in Deutschland sind Erkrankungen des Herz-Kreislaufsystems. Zwei häufig auftretende Krankheiten sind Aortenaneurysmen und Aortendissektionen. Für die Diagnose und die computerunterstützte OP-Planung wird eine semantische Annotation der präoperativ akquirierten Bilddaten benötigt. Dies wird herkömmlich durch eine manuelle Segmentierung der betroffenen Strukturen erreicht. Mit Verfahren aus der medizinischen Bildverarbeitung, darunter die deformierbaren Modelle, ist es möglich diese Segmentierung weitgehend zu automatisieren. In dieser Masterarbeit wird ein Verfahren vorgestellt, das mit Hilfe von deformierbaren Modellen eine automatische Segmentierung der Aorta und Aortenpathologien in 2D-CTA-Aufnahmen ermöglicht. Hierfür wurde ein geeignetes deformierbares Modell identifiziert, welches mit üblichen Störungen von CTA-Aufnahmen zurecht kommt. Das Verfahren ist eine Kombination aus den Dual Snakes und den GVF-Snakes und wird Dual-GVF-Snakes genannt. Das Besondere an diesem Verfahren ist, dass nicht nur das Lumen der Aorta und eines Aortenaneurysmas, sondern auch die zwei Lumen einer Aortendissektion gleichzeitig segmentiert werden können. Realisiert wird dies durch eine Unterteilung der Kontur in Segmente mit unterschiedlichen Eigenschaften. Das in dieser Arbeit vorgestellte Verfahren wurde zur Segmentierung von Objekten in synthetischen und klinischen Bilder angewendet, wobei die klinischen Bilder die Aorta, ein Aortenaneurysma und verschiedene Aortendissektionen beinhalten. Zur Evaluierung wurde das Verfahren mit den GVF-Snakes und den AB-Snakes verglichen, indem der Abstand zwischen Referenzkonturen und berechneter Konturen ermittelt wurde. Ein Vorteil gegenüber GVF-Snakes ist, dass zwei Objekte segmentiert und voneinander unterschieden werden können. Im Gegensatz zu den GVF-Snakes und den AB-Snakes müssen weniger Parameter eingestellt werden und die Membran zwischen den beiden Lumen der Aortendissektion wird erkannt. Das Verfahren ist robuster gegenüber der Initialisierung und lierfert vergleichbare Ergebnisse wie das GVF-Snakes Verfahren mit gezielter Initialisierung.
Segmentation of the Cerebrospinal Fluid from MRI Images for the Treatment of Disc Herniations
(2010)
About 80 percent of people are affected at some point in their lives by lower back pain, which is one of the most common neurological diseases and reasons for long-term disability in the United States. The symptoms are primarily caused by overly heavy lifting and/or overstretching of the back, leading to a rupture and an outward bulge of an intervertebral disc, which puts pressure on and pinches the nerve fibers of the spine. The most common form is a lumbar disc herniation between the fourth and fifth lumbar vertebra and between the fifth lumbar vertebra and the sacrum. In recent years the diagnosis of lower back pain has improved, mainly due to enhanced imaging techniques and imaging quality, but the surgical therapy remains hazardous. Reasons for this include low visibility when accessing the lumbar area and the high risk of causing permanent damage when touching the nerve fibers. A new approach for increasing patient safety is the segmentation and visualization of the cerebrospinal fluid in the lower lumbar region of the vertebral column. For this purpose a new fully-automatic and a semi-automatic approach were developed for separating the cerebrospinal fluid from its surroundings on T2-weighted MRI scans of the lumbar vertebra. While the fully-automatic algorithm is realized by a model-based searching method and a volume-based segmentation, the semi-automatic algorithm requires a seed point and performs the segmentation on individual axial planes through a combination of a region-based segmentation algorithm and a thresholding filter. Both algorithms have been applied to four T2-weighted MRI datasets and are compared with a gold-standard segmentation. The segmentation overlap with the gold-standard was 78.7 percent for the fully-automatic algorithm and 93.1 percent for the semi-automatic algorithm. In the pathological region the fully-automatic algorithm obtained a similarity of 56.6 percent, compared to 87.8 percent for the semi-automatic algorithm.
Ultraschallbildgebung ist ein in der Medizin häufig verwendetes Verfahren zur Diagnostik und Verlaufskontrolle. Ultraschall bietet vor allem eine große Weichteilauflösung bei gleichzeitig niedrigen Kosten, erfordert aber vom Anwender ein großes Maß an Erfahrung. Aufgrund vieler Artefakte und Verzerrungen in Ultraschallbildern ist die Bildqualität der Bilder deutlich geringer, als die derer, die mittels Magnetresonanztomographie erstellt werden können. Deshalb arbeiten viele verschiedene Forschungsgruppen an der Verbesserung der Modalitäten und Datensätze im Zusammenhang mit Ultraschallbildgebung. Diese Arbeit beschäftigt sich mit der Entwicklung eines robotergestützten Ultraschalltomographen. Das Gerät ist in der Lage tomographische Bildserien von Phantomen und Weichgewebe zu erstellen, die anschließend dreidimensional visualisiert werden können.
Die Arbeit gliedert sich in sechs Kapitel. Kapitel 1 stellt die Problematik der Arbeit dar. Nach einer Darlegung der Gefälligkeit des Computer-Trainings werden die vorliegende Software “Gesichter“ und ihre Schwächen sowie mögliche Verbesserungen angesichts des aktuellen Stands der Technik vorgestellt. Die Vorgehensweise wird in der Zielsetzung beschrieben. Im Kapitel 2 werden wichtige medizinische und technische Konzepte vorgestellt, die für die Realisierung der neuen Applikation erforderlich sind. Außerdem wird das menschliche Gehirn vorgestellt. Es wird anschließend gezeigt, wie eine erworbene Hirnschädigung zu Stande kommt und welche Strukturen im Gehirn dabei betroffen sind. Kapitel 3 beschäftigt sich hauptsächlich mit der Untersuchung der vorliegenden Software sowie mit der konkreten Evaluierung der Vorgehensweise und der Auswahl der geeigneten Technologie zur Realisierung der neuen Anwendung. Kapitel 4 beschreibt, wie die Implementierung realisiert wurde. Dabei wird auf die Implementierung einzelner definierten Anforderungen eingegangen. In Kapitel 5 werden Testfälle, die mit dem neuen Programm durchgeführt werden können, vorgestellt. Das letzte Kapitel 6 fasst die Arbeit zusammen. Hierbei werden alle erreichten Ergebnisse entsprechend der Zielsetzung vorgestellt. Abschließend werden im Ausblick Erweiterungsmöglichkeiten für das neue Programm vorgeschlagen.
Quantitative assessment of Positron Emission Tomography (PET) imaging can be used for diagnosis and staging of tumors and monitoring of response in cancer treatment. In clinical practice, PET analysis is based on normalized indices such as those based on the Standardized Uptake Value (SUV). Although largely evaluated, these indices are considered quite unstable mainly because of the simplicity of their experimental protocol. Development and validation of more sophisticated methods for the purposes of clinical research require a common open platform that can be used both for prototyping and sharing of the analysis methods, and for their evaluation by clinical users. This work was motivated by the lack of such platform for longitudinal quantitative PET analysis. By following a prototype driven software development approach, an open source tool for quantitative analysis of tumor changes based on multi-study PET image data has been implemented. As a platform for this work, 3D Slicer 4, a free open source software application for medical image computing has been chosen. For the analysis and quantification of PET data, the implemented software tool guides the user through a series of workflow steps. In addition to the implementation of a guided workflow, the software was made extensible by integration of interfaces for the enhancement of segmentation and PET quantification algorithms. By offering extensibility, the PET analysis software tool was transformed into a platform suitable for prototyping and development of PET-specific segmentation and quantification methods. The accuracy, efficiency and usability of the platform were evaluated in reproducibility and usability studies. The results achieved in these studies demonstrate that the implemented longitudinal PET analysis software tool fulfills all requirements for the basic quantification of tumors in PET imaging and at the same time provides an efficient and easy to use workflow. Furthermore, it can function as a platform for prototyping of PET-specific segmentation and quantification methods, which in the future can be incorporated in the workflow.
In IT-Abteilungen von Krankenhäusern und Universitätskliniken nimmt Kommunikation und Informationsaustausch zwischen Arbeitsgruppen immer mehr an Bedeutung zu. Einheitliche Informationsprozesse innerhalb einer ITAbteilung sind also notwendig, damit vor allem im Bereich des Projektmanagements Klarheit und Stabilität vorhanden ist. Schon in der Projektinitiierungsphase soll damit Fehlerbehebung und -vermeidung stattfinden. Denn die Haupthebelstelle für Projektqualität liegt im Projektentstehungsprozess. Vor diesem Hintergrund befasst sich diese Abschlussarbeit mit der Untersuchung der IT-Projektmanagementprozesse in Bezug auf die Möglichkeit zur EDV-Unterstützung.