000 Allgemeines, Informatik, Informationswissenschaft
Refine
Document Type
- Bachelor Thesis (6)
- Master's Thesis (5)
- Diploma Thesis (1)
Has Fulltext
- yes (12)
Is part of the Bibliography
- no (12)
Keywords
- Applikation (2)
- Maschinelles Lernen (2)
- Neuronales Netz (2)
- Simulation (2)
- Alzheimer (1)
- Android (1)
- Angststörung (1)
- Betriebssystem (1)
- Bildgebung (1)
- Bildverarbeitungsprogramm (1)
Institute
- Informatik (12) (remove)
Virtuelle und reale Objekte als natürliche Bewegungsgrenzen in der Virtual Reality Exposure Therapy
(2019)
Zur Behandlung von Angststörungen – welche mit zu den häufigsten psychischen Erkrankungen in Deutschland gehören – bietet die klassische Expositionstherapie gute Erfolgsaussichten [1]. In den letzten Jahren entwickelte sich die Virtual Reality Exposure Therapy (VRET), welche eine interessante Alternative darstellt. Eine Studie zeigte 2013 die Effektivität einer VRET [2]. Problematisch ist allerdings die Lokomotion in psychotherapeutischen Praxen mit geringem Raumangebot. Gängige Sicherheitssysteme zur Kollisionsvermeidung wie Lighthouse‘s Chaperone [3] [4] oder Occulus Guardian [5] zeigen bei Annäherung an die Grenzen des sicheren Bereiches eine auffällige optische Warnung an. Dies kann jedoch bei den Benutzern zu unerwünschten Präsenzeinbrüchen (breaks in presence) führen.
Simeone et al. [6] konnten nachweisen, dass in einer virtuellen Umgebung rein virtuelle Gegenstände oder Wände von den Benutzern als real wahrgenommen und umgangen werden. Dieser Effekt liess sich durch zusätzliche reale Gegenstände im Raum noch verstärken.
In dieser Masterarbeit wurde untersucht, ob sich die Ergebnisse von Simeone et al. [6] auch auf die Anwendung der VRET übertragen lassen.
Dazu wurde eine Studie mit 2 Gruppen zu je 12 Probanden durchgeführt. Alle hielten 2 Vorträge in einer virtuellen Umgebung, je einen Vortrag mit Avatar und einen ohne. Während eine Gruppe sich in einer virtuellen Umgebung mit ausschliesslich virtuellen Objekten bewegte, waren in der anderen Gruppe zusätzlich reale Gegenstände vorhanden.
In der vorliegenden Masterarbeit konnte gezeigt werden, dass die Ergebnisse von Simeone et al. [6] auch für VRET Anwendungen gültig sind. Virtuelle Objekte werden auch von Patienten eines VRET Systems als Begrenzungen akzeptiert. Zudem lassen sich physische Objekte in die virtuelle Umgebung integrieren, ohne dass es zu Kollisionen mit den Benutzern kommt oder die Benutzer eine erhöhte Angst vor Kollisionen haben. Obwohl das Vorhandensein eines Avatars in der durchgeführten Studie keinen Einfluss auf die Ergebnisse hatte, wünschen sich die Benutzer einen Avatar in der VR.
Der sichere Aufenthaltsbereich kann also bereits in der virtuellen Umgebung durch virtuelle Objekte abgegrenzt werden, wodurch - zugunsten der Vermeidung von Präsenzeinbrüchen - auf ein System wie Lighthouse`s Chaperone [3] [4] verzichtet werden kann. Ausserdem müssen reale Gegenstände nicht aus dem Bewegungsbereich der Benutzer ausgeschlossen werden, sondern lassen sich in die virtuelle Umgebung integrieren. Dies stellt eine praktikable Möglichkeit dar, den für VRET nutzbaren Raum in psychotherapeutischen Einrichtungen zu optimieren. Somit stellt die VRET eine echte Alternative zur klassischen Expositionstherapie dar.
Im Mittelpunkt dieser Arbeit steht die Entwicklung eines Verfahrens für das Erzeugen
von möglichst realitätsnahen Telepräsenzsimulationen für die Information von Patienten
in der Strahlentherapie sowie die Anwendung des Verfahrens in der Entwicklung
einer VR-Applikation auf Basis eines Demonstrators.
Nach einer Literaturrecherche bezüglich des aktuellen Stands der Aufklärung von Patienten
wurden die Grundlagen von Virtual und Augmented Reality hinsichtlich der
gegebenen Hardware ermittelt. Hierauf folgte die Auswahl von Software für das Scannen
von realen Objekten mit dem gegebenen Tablet in einem Bestrahlungsraum des
DKFZ sowie die Auswahl einer Game Engine für die Entwicklung des Demonstrators.
Daraufhin wurde ein Rekonstruktionsalgorithmus ausgewählt. Anschließend wurden
verschiedene Objekte im Bestrahlungsraum gescannt, sodass die Parameter des Algorithmus
iterativ hinsichtlich der Qualität der erzeugten Objekte für den Einsatz in
einer VR-Anwendung optimiert werden konnten. Daraufhin erfolgte eine Texturierung
der Oberfläche mit Kamerafotos. Nach einer Aufbereitung der Modelle wurden diese
in ein Virtual Environment importiert. Parallel dazu wurde nach der Auswahl der Unreal
Engine als Game Engine, der Demonstrator entwickelt, in welchen die gescannten
Modelle integriert wurden.
Das Verfahren liefert ausreichend genaue Ergebnisse, um Konzepte in der Strahlentherapieaufklärung
vermitteln zu können. Der Effekt und die Akzeptanz der Technik
spielen eine weitere wichtige Rolle für den Einsatz der Methodik und müssen durch eine
Evaluation im klinischen Alltag validiert werden, wofür die Entwicklung einer klinisch
anwendbaren Software auf Basis der gewonnenen Erkenntnisse notwendig wird.
Das Ziel dieser Bachelorarbeit war es, ein Programm zu entwickeln, welches die doppelte
Lichtbrechung und die Reflexion eines Laserstrahls berechnen kann. Hierbei wird zuerst auf
die physikalischen Grundlagen eingegangen. Anschließend wird das dazu verwendete Programm
mit dem Algorithmus inklusive den Berechnungen vorgestellt. Das Programm kann
die doppelte Lichtbrechung und auch die Reflexion eines Laserstrahls berechnen und zusätzlich
bestimmen, ob der Laserstrahl gebrochen oder total reflektiert wird. Die Prüfung dafür,
erfolgt über den Größenvergleich zwischen dem Einfallswinkel und dem kritischen Winkel.
Der Algorithmus ist für beliebige Laserstrahlen unter Berücksichtigung der Brechungsindexe
geeignet.
Aufgrund der unterschiedlichen Wiederbelebungsabläufe zwischen Erwachsenen
und Kindern, müssen bei der Reanimation eines Kindes andere Behandlungsmaßnahmen
durchgeführt werden. So müssen z.B. Medikamente anders dosiert werden.
Hinzu kommt, dass eine Reanimation an einem Kind nur selten durchgeführt wird.
Dadurch sind Mediziner mit einer Wiederbelebungsmaßnahmen an Kindern aufgrund
mangelnden Routine unsicher bzw. führen falsche Behandlungsmaßnahmen
durch. Zwar sind bereits Leitlinien in digitaler Ausführung vorhanden, jedoch
werden diese in einer für eine Reanimation ungeeigneten Form ausgegeben und
können so nur schlecht in einer Wiederbelebungsmaßnahme genutzt werden. Um
Behandlungsfehler zu minimieren wird in dieser Arbeit untersucht, ob eine Datenbrille
zur Darstellung der Leitlinien verwendet werden und der Mediziner diese
mittels Sprachkommandos steuern kann. Um die Qualität der Sprachsteuerung im
Umgang mit den Leitlinien festzustellen, wurde eine Evaluation dieser durchgeführt.
Dafür wurden die Anwendung mit zehn Personen getestet. Diese ergab, dass
die Nutzung der Sprachsteuerung durch Auswahl geeigneter Sprachkommandos
sowohl bei Zimmerlautstärke, als auch bei Straßenlärm möglich war. Somit ist die
Steuerung einer Datenbrille mit Sprachkommandos in einer Reanimation denkbar,
um den Mediziner durch Informationen zu unterstützen .
In this bachelor thesis, different models for predicting the influenza virus are
examined in more detail.
The focus is on epidemiological compartmental models, as well as on different
Machine Learning approaches.
In particular, the basics chapter presents the SIR model and its various extensions.
Furthermore, Deep Learning and Social Network approaches are
investigated and the applied methods of a selected article are analysed in more
detail.
The practical part of this work consists in the implementation of a Multiple
Linear Regression model and an Artificial Neural Network. For the development
of both models the programming language Python was chosen using the
Deep Learning Framework Keras.
Tests were performed with real data from the Réseau Sentinelles, a French
organisation for monitoring national health.
The results of the tests show that the Neural Network is able to make better
predictions than the Multiple Linear Regression model.
The discussion shows ideas for improving influenza prediction including the
establishment of a worldwide collaboration between the surveillance centres as
well as the consolidation of historical data with real-time social media data.
Therefore, this work consists of a state-of-the art of models regarding the
spread of influenza virus, the development and comparison of several models
programmed in Python, evaluated on real data.
The e-commerce turnover has a constant growth rate of about 10%. An additional increase
in complexity and traffic spikes clarify the need for a scalable software architecture to prevent
a potential technical debt, higher financial cost, longer maintenance, or a reduced reliability.
Due to the fact, that existing approaches like the Palladio Approach require a high modelling
overhead and the importance of dropping this overhead was identified this master thesis is
focused on the modelling and simulation of e-commerce web application architectures using
a high-level approach to provide a faster, but possibly more inaccurate prediction of the
scalability.
This is done by the usage of the Design Science Research Process as a frame, a scientific
literature review for use of the existing knowledge base and the Conical Methodology for the
artefact creation. The artefact is a graphical model which is evaluated using a simulation
developed with Python and its framework SimPy. For model creation and evaluation a total
of twelve papers investigating the scalability of e-commerce web application architectures is
split into a test and train group. The training group and parts of the scientific research are
used to identify the components load balancer, application server, web tier, ERP system,
legacy system and database as well as some general characteristics that need to be considered.
The components with the most modelling variables are the application server and web
tier with a total of thirteen, while the ERP and legacy system only required five.
The model is evaluated using a total of three papers from the test group, where an average
throughput error of 5.78% and a response time error of 46.55% or 26.46% was identified. An
additional evaluation based on two non-e-commerce architectures shows the usability of the
model for other types of architectures. Even though the average error gives the impression,
that the model is not providing a good estimation, the graphical results show, that the model
and its simulation can be used to provide a faster scalability prediction. The model is least
accurate for the prediction of the situation, where the response time increases exponentially,
as this is the point, where variables, only accountable for some percentage and thus ignored
for the model, have the highest influence.
Future research can be found in the extension of the model by either adding or investigating
additional components, adding features ignored within this work or applying it to other
types of web application architectures. Additionally, both the low-level and the high-level
approaches can be brought together to combine the advantages from both approaches.
Konzeption und Entwicklung einer robotergestützten und ultraschallbasierten Lokalisationskontrolle
(2018)
Mit Hilfe der Image Guided Therapy wird versucht die Bestrahlung von Tumoren mittels
Bildgebung zu verbessern und die Nebenwirkungen durch die Bestrahlung für den
Patienten zu minimieren. Diese Arbeit verfolgt den Ansatz Ultraschall als echtzeitfähige
Bildverarbeitungsmodalität zu nutzen und darüber eine Lokalisationskontrolle
von Tumoren während der Bestrahlung zu ermöglichen.
Ziel dieser Arbeit war die Entwicklung und Implementierung eines Gesamtkonzeptes
zur ultraschallbasierten und robotergestützten Lokalisationskontrolle. Ergebnis der
Arbeit ist eine auf dem medizinischen Bildverarbeitungsprogramm MITK basierte Applikation.
Diese erlaubt es ein 2D Ultraschallbild über ein Tracking-System oder den
Roboter zu referenzieren und mit registrierten Planungsdaten überlagert darzustellen.
Die Darstellung ist dabei in quasi Echtzeit sowohl in 2D als auch in 3D möglich. Zur
Registrierung wurde ein optisches Tracking-System verwendet, welches über einen eigens
neu entwickelten Filter mit dem Roboter verknüpft werden kann. Weiter lässt
sich aus der Applikation heraus der Roboter steuern und es können automatisierte
Scanverfahren genutzt werden, um mit Hilfe eines 2D Ultraschallkopfes ein 3D Ultraschallbild
zu erstellen. Die Anwendung knüpft an bestehenden Funktionen an und
erlaubt es künftigen Nutzern die neu erstellten Komponenten auch getrennt voneinander
weiter zu verwenden. Dazu gehören Filter für die Zuordnung der Ultraschallbilder,
sowie ein Filter zum Kombinieren von verschiedenen Tracking-Systemen, als auch die
Möglichkeit den Roboter zu nutzen.
Alzheimer’s Disease affects millions of people worldwide, but till today, the gold standard
for definitive diagnosis of this disease is a biopsy. Nevertheless, with the progress
of the disease, a volume loss in the Hippocampus can be observed. Therefore, good
segmentation methods are crucial to facilitate quantification of this loss.
The focus of this work is on the development of a Machine Learning algorithm, more
precisely a Generative Adversarial Network, for the automated segmentation of the
human Hippocampus and its substructures in Magnetic Resonance Images. In particular,
the task is to determine if the integration of a pre-trained network that generates
segmentations into a Generative Adversarial Network scheme can improve generated
segmentations. In this context, a segmentation network in form of a U-net corresponds
to the generator. The discriminator is developed separately and merged in a second
step with the generator for combined training.
With a literature review regarding the automated segmentation of the Hippocampus,
current methods in this field and their medical and technological basics were identified.
The datasets were preprocessed to make them suitable for the use in a neural
network. In the training process, the generator was trained first until convergence.
Then, the Generative Adversarial Network including the pre-trained generator was
trained. The outcomes were evaluated via cross-validation in two different datasets
(Kulaga-Yoskovitz and Winterburn). The Generative Adversarial Network scheme
was tested regarding different architectural and training aspects, including the usage
of skip-connections and a combined loss function.
The best results were achieved in the Kulaga-Yoskovitz dataset with a Dice coefficient
of 90.84 % after the combined training of generator and discriminator with a joined
loss function. This improves the current state of the art method in the same task and
dataset with a Dice index of 88.79 % by Romero [Rom17]. Except of two cases in the
Winterburn dataset, the proposed combined method could always improve the Dice
results after the training of only the generator, even though only by a small amount.
Auf dem Markt der Android Applikationen gibt es ein breites Spektrum an
Lernanwendungen. Allerdings exisitiert ein Mangel an gut strukturierten
inhaltlichen Zusammenfassungen der schulischen Themen, gerade im
Fach Mathematik.
Mein Ziel der Bachelorarbeit ist, eine Education App zu entwickeln, diese
im realen Betrieb zu testen und somit einen Lösungsansatz für den
Mangel an solchen Apps zu erhalten. Ich werde am Beispiel der 8. Klasse
Realschule im Fach Mathematik eine thematische Zusammenfassung
erzeugen und als App umsetzen. Mathematische Grundlage hierfür bildet
das Schulbuch Schnittpunkt 8 des Klettverlages (Differenzierende
Ausgabe, 2015).
Bugfixing und Evaluierung verläuft Hand in Hand, um am Ende des
Entwicklungsprozesses eine voll funktionsfähige, getestete App zu
bekommen.
Mit Hilfe eines Fragebogens wird dabei direkt auf die Zielgruppe
eingegangen.
Die App wird im Anschluss des Entwicklungsprozesses nach dem Open-
Closed Prinzip fungieren. Ist also für Erweiterungen offen. Diese Funktion
erreiche ich durch genau definierte Schnittstellen. Es wird möglich sein,
neue Klassen ebenso wie Schularten hinzuzufügen. Als
Entwicklungsumgebung dient mir IntelliJ, als Testgerät ein Samsung
Smartphone.
Die App wird den Namen MaTHive Spectre tragen, um direkt auf das
Potential aufmerksam zu machen und einen einprägsamen Namen zu
erhalten.
Medical imaging produces many images every day in clinical routine. Keeping up with the
daily image analysis task and this vast amount of data is quite a challenge for radiologists.
However, these analysis tasks can be automated with well-proven automatic segmentation
methods. Segmentation reviewing of an expert is necessary because learningbased
automatic segmentation methods may not perform well on exceptional image
data. Creating valid segmentations by reviewing them also improve the learning-based
methods.
Combining established standards with modern technologies creates a flexible environment
to efficiently evaluate multiple segmentation algorithm outputs based on different metrics
and visualizations and report these analysis results back to a clinical system environment.
The presented software system can inspect such quantitative results in a fast and intuitive
way, potentially improving the daily repetitive segmentation review and rework of a
research radiologist. The presented system is designed to be integrated into a virtual
distributed computing environment with other systems and analysis methods. Critical
factors for this particular environment are the handling of many patient data and routine
automated analysis with state of the art technology.
First experiments show that the time to review automatic segmentation results can be
roughly divided in half while the confidence of the radiologist is enhanced. The system
is also able to highlight individual slices which are essential for the expert’s review
decision. For this highlighting, different metric scores are compared and evaluated.