Frei zugänglich
Refine
Year of publication
Document Type
- Master's Thesis (61)
- Bachelor Thesis (51)
- Diploma Thesis (2)
- Preprint (2)
- Doctoral Thesis (1)
Has Fulltext
- yes (117)
Is part of the Bibliography
- no (117)
Keywords
- Entwicklung (10)
- Implementierung (8)
- Analyse (7)
- Software (7)
- Konzeption (6)
- Evaluation (5)
- Patient (5)
- Strahlentherapie (5)
- Tumor (5)
- Anwendung (4)
Institute
- Medizinische Informatik (66)
- Informatik (44)
- Bibliothek (2)
- Mechanik und Elektronik (2)
- Elektrotechnik und Informationstechnik (1)
The e-commerce turnover has a constant growth rate of about 10%. An additional increase
in complexity and traffic spikes clarify the need for a scalable software architecture to prevent
a potential technical debt, higher financial cost, longer maintenance, or a reduced reliability.
Due to the fact, that existing approaches like the Palladio Approach require a high modelling
overhead and the importance of dropping this overhead was identified this master thesis is
focused on the modelling and simulation of e-commerce web application architectures using
a high-level approach to provide a faster, but possibly more inaccurate prediction of the
scalability.
This is done by the usage of the Design Science Research Process as a frame, a scientific
literature review for use of the existing knowledge base and the Conical Methodology for the
artefact creation. The artefact is a graphical model which is evaluated using a simulation
developed with Python and its framework SimPy. For model creation and evaluation a total
of twelve papers investigating the scalability of e-commerce web application architectures is
split into a test and train group. The training group and parts of the scientific research are
used to identify the components load balancer, application server, web tier, ERP system,
legacy system and database as well as some general characteristics that need to be considered.
The components with the most modelling variables are the application server and web
tier with a total of thirteen, while the ERP and legacy system only required five.
The model is evaluated using a total of three papers from the test group, where an average
throughput error of 5.78% and a response time error of 46.55% or 26.46% was identified. An
additional evaluation based on two non-e-commerce architectures shows the usability of the
model for other types of architectures. Even though the average error gives the impression,
that the model is not providing a good estimation, the graphical results show, that the model
and its simulation can be used to provide a faster scalability prediction. The model is least
accurate for the prediction of the situation, where the response time increases exponentially,
as this is the point, where variables, only accountable for some percentage and thus ignored
for the model, have the highest influence.
Future research can be found in the extension of the model by either adding or investigating
additional components, adding features ignored within this work or applying it to other
types of web application architectures. Additionally, both the low-level and the high-level
approaches can be brought together to combine the advantages from both approaches.
Entwicklung eines haptischen Interfaces für die roboterassistierte Ultraschallbildakquisition
(2021)
Motivation:
Die Bedienung eines Roboters bei einer roboterassistierten Ultraschallbildakquisition
zur Lagekontrolle eines Tumors während einer Strahlentherapie ist mit einem groÿen
Aufwand verbunden. Eine externe Applikation oder ein externes Bediengerät ist dazu
notwendig. In dieser Arbeit wird die intuitivere Möglichkeit erforscht, dem Roboter
Befehle durch Berührungen zu erteilen. Für eine solche Gestensteuerung wird anhand
von Sensordaten eines sensitiven Leichtbauroboters bewertet, inwieweit eine Steuerung
durch ein haptisches Interface umsetzbar ist und dafür ein Klassifikator entwickelt.
Methodik:
Die Erhebung der Sensordaten erfolgte an einem KUKA LBR-iiwa7-800 Roboter. Es
wurden acht repräsentative Gesten für ein haptisches Interface definiert. Diese Gesten
wurden an verschiedenen Roboterposen von Probanden ausgeführt, während Sensordaten
erhoben wurden. Die Messungen wurden im statischen Zustand des Roboters
und im Impedanzmodus des Roboters durchgeführt, da mithilfe des Impedanzmodus
die Atemkompensation während einer Ultraschallbildakquisition realisiert wird. Die
Messdaten wurden in Matlab ausgewertet.
Ergebnisse:
Vier der definierten Gesten sind allein durch Bestimmung der kartesischen Kräfte x, y z
detektierbar und voneinander unterscheidbar. Diese vier Gesten sind Gesten, die durch
Berührung am Tool (Ultraschallkopf) oder Toolnähe (Roboterhand) ausgeführt werden.
Die Unterscheidung von Gesten, die am Roboterellenbogen ausgeführt wurden,
ist anhand der kartesischen Kräfte nicht möglich. An Roboterposen, die singularnahe
oder singulare Achsstellungen aufweisen, ist eine Detektion von Gesten ebenfalls problematisch.
Ansonsten ist eine Detektion posen- und nutzer-unabhängig durchführbar.
In Messungen während einer Atemkompensation wurden diese Gesten ebenfalls richtig
detektiert.
Fazit:
Ein haptisches Interface für roboterassistierte Ultraschallbildakquisition ist realisierbar
für Gesten, die am Roboter in der Nähe des TCPs ausgeführt werden. Für die Detektion
und Klassifizierung dieser Gesten ist die Krafteinschätzung am TCP ausreichend.
Die heutige Software-Entwicklung ist davon geprägt, dass Anwendungen immer komplexer
und aufwändiger werden. Gleichzeitig steigen die Erwartungen der Kunden an
die Qualität der Software.
Für die Software-Entwickler ist die Telemetrie zu einem unverzichtbaren Werkzeug
geworden. Sie ist ein wesentlicher Baustein, um die Beobachbarkeit (Observability)
von Applikationen zu erhöhen und somit die Grundlage für eine bessere Qualität in
der Software Entwicklung. Hierbei ist zu analysieren, welche Bedeutung die Telemetrie
für den gesamten Software Development Life Cyle hat.
Der aktuelle Stand der Software-Telemetrie wird am Beispiel des Projektes OpenTelemetry
dargelegt.
OpenTelemetry hat sich zum Ziel gesetzt, die universelle Plattform für den Austausch
von Telemetriedaten zu werden.
Die Ergebnisse des Projektes OpenTelemetry werden analysiert und bewertet.
Development and validation of a neural network for adaptive gait cycle detection from kinematic data
(2020)
(1) Background: Instrumented gait analysis is a tool for quantification of the different
aspects of the locomotor system. Gait analysis technology has substantially evolved over
the last decade and most modern systems provide real-time capability. The ability to
calculate joint angles with low delays paves the way for new applications such as real-time
movement feedback, like control of functional electrical stimulation in the rehabilitation
of individuals with gait disorders. For any kind of therapeutic application, the timely
determination of different gait phases such as stance or swing is crucial. Gait phases are
usually estimated based on heuristics of joint angles or time points of certain gait events.
Such heuristic approaches often do not work properly in people with gait disorders due to
the greater variability of their pathological gait pattern. To improve the current state-ofthe-
art, this thesis aims to introduce a data-driven approach for real-time determination
of gait phases from kinematic variables based on long short-term memory recurrent neural
networks (LSTM RNNs).
(2) Methods: In this thesis, 56 measurements with gait data of 11 healthy subjects,
13 individuals with incomplete spinal cord injury and 10 stroke survivors with walking
speeds ranging from 0.2 m
s up to 1 m
s were used to train the networks. Each measurement
contained kinematic data from the corresponding subject walking on a treadmill for 90
seconds. Kinematic data was obtained by measuring the positions of reflective markers on
body landmarks (Helen Hayes marker set) with a sample rate of 60Hz. For constructing a
ground truth, gait data was annotated manually by three raters. Two approaches, direct
regression of gait phases and estimation via detection of the gait events Initial Contact
and Final Contact were implemented for evaluation of the performance of LSTM RNNs.
For comparison of performance, the frequently cited coordinate- and velocity-based event
detection approaches of Zeni et al. were used. All aspects of this thesis have been
implemented within MATLAB Version 9.6 using the Deep Learning Toolbox.
(3) Results: The mean time difference between events annotated by the three raters
was −0.07 ± 20.17ms. Correlation coefficients of inter-rater and intra-rater reliability
yielded mainly excellent or perfect results. For detection of gait events, the LSTM RNN
algorithm covered 97.05% of all events within a scope of 50ms. The overall mean time
difference between detected events and ground truth was −11.62 ± 7.01ms. Temporal
differences and deviations were consistently small over different walking speeds and gait
pathologies. Mean time difference to the ground truth was 13.61 ± 17.88ms for the
coordinate-based approach of Zeni et al. and 17.18 ± 15.67ms for the velocity-based
approach. For estimation of gait phases, the gait phase was determined as a percentage.
Mean squared error to the ground truth was 0.95 ± 0.55% for the proposed algorithm
using event detection and 1.50 ± 0.55% for regression. For the approaches of Zeni et al.,
mean squared error was 2.04±1.23% for the coordinate-based approach and 2.24±1.34%
for the velocity-based approach. Regarding mean absolute error to the ground truth, the
proposed algorithm achieved a mean absolute error of 1.95±1.10% using event detection
and one of 7.25 ± 1.45% using regression. Mean absolute error for the coordinate-based
approach of Zeni et al. was 4.08±2.51% and 4.50±2.73% for the velocity-based approach.
(4) Conclusion: The newly introduced LSTM RNN algorithm offers a high recognition
rate of gait events with a small delay. Its performance outperforms several state-of-theart
gait event detection methods while offering the possibility for real-time processing
and high generalization of trained gait patterns. Additionally, the proposed algorithm
is easy to integrate into existing applications and contains parameters that self-adapt
to individuals’ gait behavior to further improve performance. In respect to gait phase
estimation, the performance of the proposed algorithm using event detection is in line
with current wearable state-of-the-art methods. Compared with conventional methods,
performance of direct regression of gait phases is only moderate. Given the results,
LSTM RNNs demonstrate feasibility regarding event detection and are applicable for
many clinical and research applications. They may be not suitable for the estimation
of gait phases via regression. For LSTM RNNs, it can be assumed, that with a more
optimal configuration of the networks, a much higher performance is achieved.
Auf dem Markt der Android Applikationen gibt es ein breites Spektrum an
Lernanwendungen. Allerdings exisitiert ein Mangel an gut strukturierten
inhaltlichen Zusammenfassungen der schulischen Themen, gerade im
Fach Mathematik.
Mein Ziel der Bachelorarbeit ist, eine Education App zu entwickeln, diese
im realen Betrieb zu testen und somit einen Lösungsansatz für den
Mangel an solchen Apps zu erhalten. Ich werde am Beispiel der 8. Klasse
Realschule im Fach Mathematik eine thematische Zusammenfassung
erzeugen und als App umsetzen. Mathematische Grundlage hierfür bildet
das Schulbuch Schnittpunkt 8 des Klettverlages (Differenzierende
Ausgabe, 2015).
Bugfixing und Evaluierung verläuft Hand in Hand, um am Ende des
Entwicklungsprozesses eine voll funktionsfähige, getestete App zu
bekommen.
Mit Hilfe eines Fragebogens wird dabei direkt auf die Zielgruppe
eingegangen.
Die App wird im Anschluss des Entwicklungsprozesses nach dem Open-
Closed Prinzip fungieren. Ist also für Erweiterungen offen. Diese Funktion
erreiche ich durch genau definierte Schnittstellen. Es wird möglich sein,
neue Klassen ebenso wie Schularten hinzuzufügen. Als
Entwicklungsumgebung dient mir IntelliJ, als Testgerät ein Samsung
Smartphone.
Die App wird den Namen MaTHive Spectre tragen, um direkt auf das
Potential aufmerksam zu machen und einen einprägsamen Namen zu
erhalten.
Ein Tumor ist eine örtlich umschriebene Zunahme des Gewebevolumens, im engeren
Sinn eine gewebliche Neubildung, ein Geschwür in Form eines enthemmten und
irreversiblen Überschusswachstums von körpereigenem Gewebe [33].
,,In Europa sind 3-5% [...] aller malignen Tumoren des Menschen Tumoren der Mundhöhle,
davon stellen die Plattenepithelkarzinome mit 95% den größten Anteil.” [28].
Nur 25-40% der Patienten mit Lymphknotenmetastasierung erreichen die 5-Jahres-Überlebensrate im Gegensatz zu ca. 90% der Patienten ohne Metastatisierung [29].
Oft werden diese Tumore spät erkannt und müssen deshalb durch eine Operation
entfernt werden. Das Plattenepithelkarzinom kann den Kiefer infiltrieren, die notwendige
Resektion des Tumors kann zu einer Verschlechterung der Ästhetik, zum Verlust der Kaufunktionalität und der Sprechfunktionalität führen.
Im Universitätsklinikum Heidelberg (UKHD) werden verschiedene Verfahren zur
Rekonstruktion angewandt, wie die Rekonstruktion mithilfe der körpereigenen Fibula(dt.Wadenbein), deren Schaft dafür entnommen wird. Aus diesem Schaft werden Segmente gesägt, mit welchen dann der ursprüngliche Verlauf der Mandibula
(dt. Unterkiefer), in dem resezierten Bereich, rekonstruiert wird. Die Rekonstruktion
erfolgt mit einer speziellen Platte auf welcher die Fibulasegmente befestigt werden. Diese Platte wird anschließend am Restunterkiefer fixiert.
Die Schwierigkeit besteht in der Nachbildung des Unterkieferverlaufs und der Erhaltung
des Kiefergelenks. Bei dieser Operation muss die Ischämiezeit, die Zeit, welche ein Organ ohne Blutversorgung schadlos überstehen kann, berücksichtigt
werden. Ohne eine genaue Schnittführung ist die Wahrscheinlichkeit größer, dass
die gesägten Segmente nachbearbeitet werden müssen, was wiederum ein zeitliches
Problem ist.
Deshalb wird Rekonstruktion mit Cutting-Guides (dt. Sägeschnittschablone) unterstützt. Diese Guides werden nach der Planung der Operation angefertigt. Sie
werden in der Mund-, Kiefer- und Gesichtschirurgie (MKG) des UKHD von einem
Zahntechniker hergestellt. Alternativ gibt es industrielle Dienstleister, die diese Guides herstellen können. Diese sind jedoch wesentlich teurer als die in der MKG etablierte Lösung.
Implementation of an interactive pattern mining framework on electronic health record datasets
(2019)
Large collections of electronic patient records contain a broad range of clinical information highly relevant for data analysis. However, they are maintained primarily for patient administration, and automated methods are required to extract valuable knowledge for predictive, preventive, personalized and participatory medicine. Sequential pattern mining is a fundamental task in data mining which can be used to find statistically relevant, non-trivial temporal dependencies of events such as disease comorbidities. This works objective is to use this mining technique to identify disease associations based on ICD-9-CM codes data of the entire Taiwanese population obtained from Taiwan’s National Health Insurance Research Database.
This thesis reports the development and implementation of the Disease Pattern Miner – a pattern mining framework in a medical domain. The framework was designed as a Web application which can be used to run several state-of-the-art sequence mining algorithms on electronic health records, collect and filter the results to reduce the number of patterns to a meaningful size, and visualize the disease associations as an interactive model in a specific population group. This may be crucial to discover new disease associations and offer novel insights to explain disease pathogenesis. A structured evaluation of the data and models are required before medical data-scientist may use this application as a tool for further research to get a better understanding of disease comorbidities.
Die meisten Internetzugriffe erfolgen heute über das Smartphone. Während vor dem Jahr
2010 überwiegend der PC dafür verwendet wurde, nutzten 2016 81% aller Internet-User
ein Mobiltelefon für den Online-Zugang [1]. Die digitale Modulation von HF-Signalen ist
dabei immer von Bedeutung, unabhängig ob WLAN oder ein Mobilfunkstandard, wie
LTE angewandt wird. Die Weiterentwicklung drahtloser Kommunikationstechnik für das
Internet erscheint als interessante Alternative zur leitungsbasierten Anbindung an das
Breitbandnetz. Der Ausbau mit Glasfaserkabeln ist kostenintensiv, zeitaufwendig und
bei der Versorgung abgelegener Orte für den Provider unrentabel. Aus technischer Sicht
können drahtlose Anbindungen sogar zu einer Verringerung zeitlicher Verzögerungen
führen. Die Ausbreitungsgeschwindigkeit elektromagnetischer Wellen ist in Luft höher
als in Kupfer oder Glas [2]. Das Mobilfunknetz ist allerdings nicht zur flächendeckenden
Internetversorgung von PCs vorgesehen. Alle Online-Zugriffe durch Mobilfunk in einem
bestimmten Gebiet erfolgen über die selbe Funkzelle einer Basisstation. Bei gleichzeitiger
Benutzung durch viele Teilnehmer, reduziert sich die Datenrate merklich. Einige Mobilfunkbetreiber
verbieten rechtlich die ausschließliche Nutzung des Mobilfunk-Internets für
PCs [3]. Die Zugangskosten für den Verbraucher sind deutlich teurer als bei DSL. Zudem
existieren kaum Tarife für unbegrenzten Zugang. Genauso wie beim Leitungsnetz sind lokale
Schwankungen der Internetgeschwindigkeit vorhanden. Während beim Kabelzugang
die Geschwindigkeit vorherbestimmt werden kann, ist sie beim Mobilfunk individuell
auszutesten. Notebooks und Desktop-PCs besitzen in der Regel keine Empfangseinrichtung
für Mobilfunk. LTE-Router übersetzten das Protokoll in den WLAN-Standard.
Diese Umwandlung erfolgt durch separate Geräte oder als integrierte Funktion in einem
Smartphone (Hotspot). Einige dieser Router bieten auch einen Kabelzugang zum PC,
um die Verluste der WLAN-Verbindung zu vermeiden. Sie werden häufig in Form von
USB-Sticks angeboten. Die private Nutzung des Mobilfunk-Internets für PCs ist also
mit Einschränkungen verbunden. Für Unternehmen ist dies meist nicht hinnehmbar.
Die geschilderten Hindernisse bedeuten allerdings nicht, dass das Internet grundsätzlich
leitungsgebunden vermittelt wird und in drahtlose Online-Technologien zukünftig keine
Investitionen fließen. Die Richtfunkanbindung von Basisstationen erfolgt, wenn sich
das Verlegen von Leitungen nicht lohnt (Abbildung 1). Die Umwandlung im Großen ähnelt
dem Prinzip der privaten Hotspots. Eine Richtfunkantenne empfängt die gebündelte
elektromagnetische Energie. Nach der Umwandlung senden mehrere Sektorantennen mit
Rundstrahlcharakteristik die Wellen in das Umfeld des Masts. Außerdem ist die weitere
Übertragung nach einer Richtfunkstrecke durch ein Kabel möglich. Dementsprechend
kann das Internet über Richtfunkabschnitte zum Verbraucher gelangen, auch wenn es
schließlich beim Router über ein Kabel ankommt.
In this bachelor thesis, different models for predicting the influenza virus are
examined in more detail.
The focus is on epidemiological compartmental models, as well as on different
Machine Learning approaches.
In particular, the basics chapter presents the SIR model and its various extensions.
Furthermore, Deep Learning and Social Network approaches are
investigated and the applied methods of a selected article are analysed in more
detail.
The practical part of this work consists in the implementation of a Multiple
Linear Regression model and an Artificial Neural Network. For the development
of both models the programming language Python was chosen using the
Deep Learning Framework Keras.
Tests were performed with real data from the Réseau Sentinelles, a French
organisation for monitoring national health.
The results of the tests show that the Neural Network is able to make better
predictions than the Multiple Linear Regression model.
The discussion shows ideas for improving influenza prediction including the
establishment of a worldwide collaboration between the surveillance centres as
well as the consolidation of historical data with real-time social media data.
Therefore, this work consists of a state-of-the art of models regarding the
spread of influenza virus, the development and comparison of several models
programmed in Python, evaluated on real data.
Alzheimer’s Disease affects millions of people worldwide, but till today, the gold standard
for definitive diagnosis of this disease is a biopsy. Nevertheless, with the progress
of the disease, a volume loss in the Hippocampus can be observed. Therefore, good
segmentation methods are crucial to facilitate quantification of this loss.
The focus of this work is on the development of a Machine Learning algorithm, more
precisely a Generative Adversarial Network, for the automated segmentation of the
human Hippocampus and its substructures in Magnetic Resonance Images. In particular,
the task is to determine if the integration of a pre-trained network that generates
segmentations into a Generative Adversarial Network scheme can improve generated
segmentations. In this context, a segmentation network in form of a U-net corresponds
to the generator. The discriminator is developed separately and merged in a second
step with the generator for combined training.
With a literature review regarding the automated segmentation of the Hippocampus,
current methods in this field and their medical and technological basics were identified.
The datasets were preprocessed to make them suitable for the use in a neural
network. In the training process, the generator was trained first until convergence.
Then, the Generative Adversarial Network including the pre-trained generator was
trained. The outcomes were evaluated via cross-validation in two different datasets
(Kulaga-Yoskovitz and Winterburn). The Generative Adversarial Network scheme
was tested regarding different architectural and training aspects, including the usage
of skip-connections and a combined loss function.
The best results were achieved in the Kulaga-Yoskovitz dataset with a Dice coefficient
of 90.84 % after the combined training of generator and discriminator with a joined
loss function. This improves the current state of the art method in the same task and
dataset with a Dice index of 88.79 % by Romero [Rom17]. Except of two cases in the
Winterburn dataset, the proposed combined method could always improve the Dice
results after the training of only the generator, even though only by a small amount.