Frei zugänglich
Refine
Year of publication
Document Type
- Master's Thesis (61)
- Bachelor Thesis (51)
- Diploma Thesis (2)
- Doctoral Thesis (2)
- Preprint (2)
Has Fulltext
- yes (118)
Is part of the Bibliography
- no (118)
Keywords
- Entwicklung (10)
- Implementierung (8)
- Analyse (7)
- Software (7)
- Konzeption (6)
- Evaluation (5)
- Patient (5)
- Strahlentherapie (5)
- Tumor (5)
- Anwendung (4)
Institute
- Medizinische Informatik (66)
- Informatik (44)
- Bibliothek (2)
- Mechanik und Elektronik (2)
- Elektrotechnik und Informationstechnik (1)
Die häufigste Todesursache in Deutschland sind Erkrankungen des Herz-Kreislaufsystems. Zwei häufig auftretende Krankheiten sind Aortenaneurysmen und Aortendissektionen. Für die Diagnose und die computerunterstützte OP-Planung wird eine semantische Annotation der präoperativ akquirierten Bilddaten benötigt. Dies wird herkömmlich durch eine manuelle Segmentierung der betroffenen Strukturen erreicht. Mit Verfahren aus der medizinischen Bildverarbeitung, darunter die deformierbaren Modelle, ist es möglich diese Segmentierung weitgehend zu automatisieren. In dieser Masterarbeit wird ein Verfahren vorgestellt, das mit Hilfe von deformierbaren Modellen eine automatische Segmentierung der Aorta und Aortenpathologien in 2D-CTA-Aufnahmen ermöglicht. Hierfür wurde ein geeignetes deformierbares Modell identifiziert, welches mit üblichen Störungen von CTA-Aufnahmen zurecht kommt. Das Verfahren ist eine Kombination aus den Dual Snakes und den GVF-Snakes und wird Dual-GVF-Snakes genannt. Das Besondere an diesem Verfahren ist, dass nicht nur das Lumen der Aorta und eines Aortenaneurysmas, sondern auch die zwei Lumen einer Aortendissektion gleichzeitig segmentiert werden können. Realisiert wird dies durch eine Unterteilung der Kontur in Segmente mit unterschiedlichen Eigenschaften. Das in dieser Arbeit vorgestellte Verfahren wurde zur Segmentierung von Objekten in synthetischen und klinischen Bilder angewendet, wobei die klinischen Bilder die Aorta, ein Aortenaneurysma und verschiedene Aortendissektionen beinhalten. Zur Evaluierung wurde das Verfahren mit den GVF-Snakes und den AB-Snakes verglichen, indem der Abstand zwischen Referenzkonturen und berechneter Konturen ermittelt wurde. Ein Vorteil gegenüber GVF-Snakes ist, dass zwei Objekte segmentiert und voneinander unterschieden werden können. Im Gegensatz zu den GVF-Snakes und den AB-Snakes müssen weniger Parameter eingestellt werden und die Membran zwischen den beiden Lumen der Aortendissektion wird erkannt. Das Verfahren ist robuster gegenüber der Initialisierung und lierfert vergleichbare Ergebnisse wie das GVF-Snakes Verfahren mit gezielter Initialisierung.
Segmentation of the Cerebrospinal Fluid from MRI Images for the Treatment of Disc Herniations
(2010)
About 80 percent of people are affected at some point in their lives by lower back pain, which is one of the most common neurological diseases and reasons for long-term disability in the United States. The symptoms are primarily caused by overly heavy lifting and/or overstretching of the back, leading to a rupture and an outward bulge of an intervertebral disc, which puts pressure on and pinches the nerve fibers of the spine. The most common form is a lumbar disc herniation between the fourth and fifth lumbar vertebra and between the fifth lumbar vertebra and the sacrum. In recent years the diagnosis of lower back pain has improved, mainly due to enhanced imaging techniques and imaging quality, but the surgical therapy remains hazardous. Reasons for this include low visibility when accessing the lumbar area and the high risk of causing permanent damage when touching the nerve fibers. A new approach for increasing patient safety is the segmentation and visualization of the cerebrospinal fluid in the lower lumbar region of the vertebral column. For this purpose a new fully-automatic and a semi-automatic approach were developed for separating the cerebrospinal fluid from its surroundings on T2-weighted MRI scans of the lumbar vertebra. While the fully-automatic algorithm is realized by a model-based searching method and a volume-based segmentation, the semi-automatic algorithm requires a seed point and performs the segmentation on individual axial planes through a combination of a region-based segmentation algorithm and a thresholding filter. Both algorithms have been applied to four T2-weighted MRI datasets and are compared with a gold-standard segmentation. The segmentation overlap with the gold-standard was 78.7 percent for the fully-automatic algorithm and 93.1 percent for the semi-automatic algorithm. In the pathological region the fully-automatic algorithm obtained a similarity of 56.6 percent, compared to 87.8 percent for the semi-automatic algorithm.
Ultraschallbildgebung ist ein in der Medizin häufig verwendetes Verfahren zur Diagnostik und Verlaufskontrolle. Ultraschall bietet vor allem eine große Weichteilauflösung bei gleichzeitig niedrigen Kosten, erfordert aber vom Anwender ein großes Maß an Erfahrung. Aufgrund vieler Artefakte und Verzerrungen in Ultraschallbildern ist die Bildqualität der Bilder deutlich geringer, als die derer, die mittels Magnetresonanztomographie erstellt werden können. Deshalb arbeiten viele verschiedene Forschungsgruppen an der Verbesserung der Modalitäten und Datensätze im Zusammenhang mit Ultraschallbildgebung. Diese Arbeit beschäftigt sich mit der Entwicklung eines robotergestützten Ultraschalltomographen. Das Gerät ist in der Lage tomographische Bildserien von Phantomen und Weichgewebe zu erstellen, die anschließend dreidimensional visualisiert werden können.
Initial results of an ongoing research in the field of reactive mobile autonomy are presented. The aim is to create a reactive obstacle avoidance method for mobile agent operating in dynamic, unstructured, and unpredictable environment. The method is inspired by the stimulus-response behavior of simple animals. An obstacle avoidance controller is developed that uses raw visual information of the environment. It employs reinforcement learning and is therefore capable of self-developing. This should result with obstacle avoidance behavior that is adaptable and therefore generalizes on various operational modalities. The general assumptions of the agent capabilities, the features of the environment as well as the initial result of the simulation are presented. The plans for improvement and suitable performance evaluation are suggested.
Die Arbeit gliedert sich in sechs Kapitel. Kapitel 1 stellt die Problematik der Arbeit dar. Nach einer Darlegung der Gefälligkeit des Computer-Trainings werden die vorliegende Software “Gesichter“ und ihre Schwächen sowie mögliche Verbesserungen angesichts des aktuellen Stands der Technik vorgestellt. Die Vorgehensweise wird in der Zielsetzung beschrieben. Im Kapitel 2 werden wichtige medizinische und technische Konzepte vorgestellt, die für die Realisierung der neuen Applikation erforderlich sind. Außerdem wird das menschliche Gehirn vorgestellt. Es wird anschließend gezeigt, wie eine erworbene Hirnschädigung zu Stande kommt und welche Strukturen im Gehirn dabei betroffen sind. Kapitel 3 beschäftigt sich hauptsächlich mit der Untersuchung der vorliegenden Software sowie mit der konkreten Evaluierung der Vorgehensweise und der Auswahl der geeigneten Technologie zur Realisierung der neuen Anwendung. Kapitel 4 beschreibt, wie die Implementierung realisiert wurde. Dabei wird auf die Implementierung einzelner definierten Anforderungen eingegangen. In Kapitel 5 werden Testfälle, die mit dem neuen Programm durchgeführt werden können, vorgestellt. Das letzte Kapitel 6 fasst die Arbeit zusammen. Hierbei werden alle erreichten Ergebnisse entsprechend der Zielsetzung vorgestellt. Abschließend werden im Ausblick Erweiterungsmöglichkeiten für das neue Programm vorgeschlagen.
Quantitative assessment of Positron Emission Tomography (PET) imaging can be used for diagnosis and staging of tumors and monitoring of response in cancer treatment. In clinical practice, PET analysis is based on normalized indices such as those based on the Standardized Uptake Value (SUV). Although largely evaluated, these indices are considered quite unstable mainly because of the simplicity of their experimental protocol. Development and validation of more sophisticated methods for the purposes of clinical research require a common open platform that can be used both for prototyping and sharing of the analysis methods, and for their evaluation by clinical users. This work was motivated by the lack of such platform for longitudinal quantitative PET analysis. By following a prototype driven software development approach, an open source tool for quantitative analysis of tumor changes based on multi-study PET image data has been implemented. As a platform for this work, 3D Slicer 4, a free open source software application for medical image computing has been chosen. For the analysis and quantification of PET data, the implemented software tool guides the user through a series of workflow steps. In addition to the implementation of a guided workflow, the software was made extensible by integration of interfaces for the enhancement of segmentation and PET quantification algorithms. By offering extensibility, the PET analysis software tool was transformed into a platform suitable for prototyping and development of PET-specific segmentation and quantification methods. The accuracy, efficiency and usability of the platform were evaluated in reproducibility and usability studies. The results achieved in these studies demonstrate that the implemented longitudinal PET analysis software tool fulfills all requirements for the basic quantification of tumors in PET imaging and at the same time provides an efficient and easy to use workflow. Furthermore, it can function as a platform for prototyping of PET-specific segmentation and quantification methods, which in the future can be incorporated in the workflow.
In IT-Abteilungen von Krankenhäusern und Universitätskliniken nimmt Kommunikation und Informationsaustausch zwischen Arbeitsgruppen immer mehr an Bedeutung zu. Einheitliche Informationsprozesse innerhalb einer ITAbteilung sind also notwendig, damit vor allem im Bereich des Projektmanagements Klarheit und Stabilität vorhanden ist. Schon in der Projektinitiierungsphase soll damit Fehlerbehebung und -vermeidung stattfinden. Denn die Haupthebelstelle für Projektqualität liegt im Projektentstehungsprozess. Vor diesem Hintergrund befasst sich diese Abschlussarbeit mit der Untersuchung der IT-Projektmanagementprozesse in Bezug auf die Möglichkeit zur EDV-Unterstützung.
Aufgrund der unterschiedlichen Wiederbelebungsabläufe zwischen Erwachsenen
und Kindern, müssen bei der Reanimation eines Kindes andere Behandlungsmaßnahmen
durchgeführt werden. So müssen z.B. Medikamente anders dosiert werden.
Hinzu kommt, dass eine Reanimation an einem Kind nur selten durchgeführt wird.
Dadurch sind Mediziner mit einer Wiederbelebungsmaßnahmen an Kindern aufgrund
mangelnden Routine unsicher bzw. führen falsche Behandlungsmaßnahmen
durch. Zwar sind bereits Leitlinien in digitaler Ausführung vorhanden, jedoch
werden diese in einer für eine Reanimation ungeeigneten Form ausgegeben und
können so nur schlecht in einer Wiederbelebungsmaßnahme genutzt werden. Um
Behandlungsfehler zu minimieren wird in dieser Arbeit untersucht, ob eine Datenbrille
zur Darstellung der Leitlinien verwendet werden und der Mediziner diese
mittels Sprachkommandos steuern kann. Um die Qualität der Sprachsteuerung im
Umgang mit den Leitlinien festzustellen, wurde eine Evaluation dieser durchgeführt.
Dafür wurden die Anwendung mit zehn Personen getestet. Diese ergab, dass
die Nutzung der Sprachsteuerung durch Auswahl geeigneter Sprachkommandos
sowohl bei Zimmerlautstärke, als auch bei Straßenlärm möglich war. Somit ist die
Steuerung einer Datenbrille mit Sprachkommandos in einer Reanimation denkbar,
um den Mediziner durch Informationen zu unterstützen .
In this bachelor thesis, different models for predicting the influenza virus are
examined in more detail.
The focus is on epidemiological compartmental models, as well as on different
Machine Learning approaches.
In particular, the basics chapter presents the SIR model and its various extensions.
Furthermore, Deep Learning and Social Network approaches are
investigated and the applied methods of a selected article are analysed in more
detail.
The practical part of this work consists in the implementation of a Multiple
Linear Regression model and an Artificial Neural Network. For the development
of both models the programming language Python was chosen using the
Deep Learning Framework Keras.
Tests were performed with real data from the Réseau Sentinelles, a French
organisation for monitoring national health.
The results of the tests show that the Neural Network is able to make better
predictions than the Multiple Linear Regression model.
The discussion shows ideas for improving influenza prediction including the
establishment of a worldwide collaboration between the surveillance centres as
well as the consolidation of historical data with real-time social media data.
Therefore, this work consists of a state-of-the art of models regarding the
spread of influenza virus, the development and comparison of several models
programmed in Python, evaluated on real data.
In den letzten Jahrzehnten ist der demographische Wandel in Deutschland immer deutlicher geworden. Die Zahl der pflegebedürftigen Menschen nimmt immer weiter zu und damit auch der Bedarf an Pflegepersonal. Die Anzahl der Pflegekräfte in Deutschland ist derzeit jedoch nicht ausreichend. Aus diesem Grund haben die Pflegekräfte für jeden Bewohner der Pflegeeinrichtung nur einen sehr begrenzten Zeitrahmen zur Verfügung. Da der geistige und körperliche Zustand der Bewohner sehr unterschiedlich ist, muss für jeden Bewohner ein individueller Pflegeplan angeboten werden. Es ist natürlich nicht möglich, sich von jedem Bewohner diese Informationen bzw. Pflegemaßnahmen zu merken, daher ist Dokumentation in einer Pflegeeinrichtung ebenso wichtig, wie eine qualitativ hochwertige Pflege. Die eben erwähnte Dokumentation ist sehr zeitaufwendig, jedoch unabdingbar. Um den Zeitaufwand der Dokumentation zu verkürzen, ist die Verwendung von IT in den letzten Jahren immer wichtiger geworden. Es ist natürlich nur dann eine Zeitersparnis möglich, wenn die Benutzer der Software gut mit selbiger umgehen können und die Verwendung möglichst intuitiv ist.