Informatik
Refine
Document Type
- Bachelor Thesis (26)
- Master's Thesis (15)
- Preprint (2)
- Diploma Thesis (1)
Has Fulltext
- yes (44)
Is part of the Bibliography
- no (44)
Keywords
- Neuronales Netz (3)
- Applikation (2)
- Datenanalyse (2)
- Kolorektalkarzinom (2)
- Maschinelles Lernen (2)
- Simulation (2)
- 3D-Ultraschall (1)
- Algorithmus (1)
- Alzheimer (1)
- Analyse , Datenqualität , Krebsregister (1)
Institute
- Informatik (44)
3D-Ultraschall beim MITK
(2017)
In dieser Bachelorthesis wird ein Frei-Hand-3D-Ultraschallsystem entwickelt. Dieses
soll 3D-Ultraschallbildgebung im MITK ermöglichen. Basis hierfür sind ein konventionelles
2D-Ultraschallgerät und ein optisches Trackingsystem. Die nötigen Teilschritte
werden erläutert und beschrieben.
Ergebnis ist ein Plugin für das MITK, das aus aufgenommenen 2D-Ultraschallbildern
ein 3D-Volumen berechnet.
An architectural concept for implementing the socio-technical workflow of Digital Pathology in Chile
(2014)
Virtual Microscopy opens up the possibility to remotely access high quality images at large scales for scientific research, education, and clinical application. For clinical diagnostics, Digital Pathology (DP) presents a novel opportunity to reduce variability [Bauer et al., 2013] due to the reproducible access to Whole Slide Imaging, quantitative parameters (e.g. HER2 stained membrane) [Al-Janabi et al., 2012], second opinion and Quality Assurance [Ho et al., 2013]. Despite of the mentioned advantages, the challenge remains to incorporate DP into the pathologists workflow within a heterogeneous environment of systems and infrastructures [Stathonikos
et al., 2013]. Different issues must be solved in order to optimize the impact of DP in the daily clinical practice [Daniel et al., 2012] [Ho et al., 2006]. The integration needs precise planning and comprehensive evaluation for adopting this technology
[Stathonikos et al., 2013]. This thesis will focus on an organizational development approach based on a Socio-Technical System (STS). The socio-technical approach covers: (i) the technical issue: tissue-scanner, NDP.view, NDP.serve, analysis software, and (ii) the social issue: pathologists, technicians. In order to improve the integration, a joint optimization (of i and ii) is necessary. The developed STS approach will optimize the integration of DP towards improved workflows in clinical environments. The improved workflows will reduce the pathologists turnaround time, improve the certainty of the diagnostics, and provide a more effective patient care within the covered institutions. An overt multi-site Participatory Observation, Questionnaires, and Business Process Modelling Notation will be used to analyse the existing pathological workflows. Based on this, the system will be modelled with the 3lgm2 Toolkit [Winter et al., 2007] under consideration of various technical subsystems that are present in the clinical environment. Afterwards, the interfaces between subsystems and its possible interoperabilities will be evaluated, taking into account the different existing standards and guidelines for image processing and management, as well as business processes in DP. In order to analyse the existing preconditions a questionnaire will be evaluated to establish a robust and valid view. In addition, the overt participatory observation will support this elevation, giving a deeper insight on the social part. This observation also covers the technical side including the whole pathological process. The socio technical model will then reveal measurable potential for optimization with incorporated DP (e.g. higher throughput for slides). The organizational development approach consists of a Socio-Technical System based on overt multi-site participatory observations, questionnaires, business process modelling and 3LGM2, will optimize the use of Digital Pathology in the daily clinical practice and raise the acceptance to incorporate integrate the new technology within the dayly workflow through the user centred process of incorporation.
• Perform and evaluate a questionnaire and a participant observation of pathologists work days in private & public institutions
• Create and evaluate a 3lgm2 model
• Model the current pathological process (viewpoint of pathologist & technical assistant) & perform and evaluate a contextual inquiry to elevate the pathologists requirements & expectations towards the system
• Test the future WF according the model parameters.
This project will detect unsuspected interrelations and interdependencies within the socio- technical workflow with a pathology laboratory. The observation will reveal the action conformity as well as the environment in which the process has to be embedded. Furthermore it will establish an optimized workflow for a specific clinical environment to prepare the implementation of DP. Additionally it will be possible to
quantify digitized images in order to improve decision making and lastly to improve patient care. In the future it will be possible to extend automated image analysis in order to support clinical decision support. Depending on acceptance, this can lead towards an automated clinical decision support for cases with low complexity.
Ziel dieser Bachelorthesis ist es, den Datenbestand des Klinischen Krebsregisters am
Tumorzentrum Heilbronn-Franken auf seine Vollständigkeit, Vollzähligkeit und seine
Repräsentativität zu untersuchen.
Diese werden am Beispiel des Kolorektalen Karzinoms untersucht.
Folgende Fragen lassen sich formulieren:
• Lassen sich mit den in einem einrichtungsbezogenen klinischen Krebsregister, wie
dem am Gesundbrunnen Heilbronn, erhobene regionale Daten ggfs. überregionale und
eventuell sogar bundesweite Aussagen ableiten?
• Sind die erfassten Daten vollständig bzw. wie vollständig sind die Datenbestände der
registrierten Patienten?
• Sind die erfassten Daten im Tumorzentrum Heilbronn-Franken am Gesundbrunnen
Heilbronn vollzählig? Werden im Klinischen Krebsregister der SLK-Kliniken alle
Neuerkrankungen erfasst?
Wird bei einem Patienten mit Kolorektalkarzinom der Tumor erfolgreich entfernt, beginnt die Nachsorgephase. Der Nachsorgeplan, welchen die Patienten bei der
Entlassung erhalten, orientiert sich an der S3-Leitlinie des Leitlinienprogramms für Onkologie. Der Patient kann selbst entscheiden, wo die Nachsorge stattfinden wird. Entweder lässt er seine Nachsorgeuntersuchungen in der Klinik durchführen (klinikinterne Nachsorge) oder er sucht einen niedergelassenen Onkologen auf (klinikexterne Nachsorge). Gegenstand dieser Arbeit ist die Analyse der klinikinternen und
-externen Nachsorge in Bezug auf die Einhaltung der S3-Leitlinie. Ziel ist es, festzustellen, ob anhand der erhobenen Daten Rückschlüsse auf die Leitlinientreue in Bezug auf die Nachsorge der Patienten gezogen werden kann. Im Rahmen dieser Thesis werden Patienten mit einem UICC-Stadium II oder III und einem Diagnosedatum zwischen 2009 und 2013 betrachtet. Basierend auf den Kriterien wurden 562 Datensätze aus dem GTDS exportiert. Nach anschließendem Bearbeiten und Aussortieren wurden 426 Patienten analysiert. Im seit 2001 in Heilbronn eingesetzten Gießener Tumordokumentationssystem (GTDS) werden die Falldaten der Tumorpatienten dokumentiert und gespeichert. Die Verlaufsdaten der
TNM-Dokumentation werden mindestens einmal jährlich zu den Patienten erhoben. Diese Daten werden analysiert, um die Leitlinientreue zu überprüfen.
Der Vergleich zwischen S3-Leitlinie und vorgenommenen Untersuchungen kann sich aufgrund lokaler Dokumentationspraxis nur auf den zeitlichen Ablauf der Untersuchungstermine beschränken, da im GTDS keinerlei Informationen zu der Art der vorgenommenen Untersuchung vorliegen. Um die zeitlichen Abläufe zu analysieren, werden aus den vorliegenden Datumswerten für jeden Patient ein Pfad bestehend aus Zuständen (Tumorfreiheit, Untersuchung 1, etc.) gebildet. Die Übergangswahrscheinlichkeiten
stellen einen Indikator für die Termintreue der Patienten dar. Es wurden 146 Patienten klinikintern und 149 Patienten klinikextern behandelt. 131 Patienten erhielten eine gemischte Nachsorge. Zusammenfassend lässt sich sagen, dass die Informationen aus dem GTDS nicht ausreichen, um eine Leitlinienkonformität der Nachsorge von Kolorektalkarzinompatienten nachzuweisen, da im GTDS ausschließlich der Tumorverlauf dokumentiert wird, aber nicht, wie sich die Nachsorge im Speziellen gestaltet.
Die Popularität der drahtlosen Datenübertragung wächst, seit dem der Standard 802.11 im Jahr 1997 vom Institute of Electrical and Electronics Engineers (IEEE) für die private Nutzung ausgegeben wurde, stetig an. Hierbei beschränken sich die meisten Anwendungen auf das Wesentliche: die Übertragung von Nutzdaten zwischen einem Access Point und verschiedenen Endgeräten. Der konventionelle Weg der Datenverarbeitung in drahtlosen Netzwerk-Modulen sieht vor, dass zunächst digitale Daten in analogen Verfahren moduliert werden. Nach der Übertragung als elektromagnetische Welle, werden die analogen Daten wieder von eingebetteten Systemen in einen digitalen Datenstrom übersetzt und zum Weiterverarbeiten weitergereicht. Durch die steigende Rechenleistung von Computern gibt es auch andere Wege der Übertragung. Mit der Idee, den Datenstrom nicht analog weiterzuverarbeiten, sondern ihn in digitaler Form zu modulieren oder zu demodulieren entstanden die ersten ‚Software-Radios‘. Zu Beginn der drahtlosen Ära wurden Software-Radios zum Beispiel dazu genutzt, um Sicherheitslücken in Wi-Fi Übertragungen zu finden. Heutzutage finden Software-Radios immer mehr Anwendungen in wissenschaftlichen Bereichen abseits der üblichen Datenübertragung. Als alternative Vorreiter gelten die Arbeiten der Universität Washington „Whole-Home Gesture Recognition Using Wireless Signals“ (Quifan et al., 2013a) und die des Massachusetts Institute of Technology „See Through Walls with Wi-Fi“ (Adib F. and Katabi D., 2013). Die erst genannte Anwendung beruht auf der Theorie des Doppler-Effekts für elektromagnetische Wellen und zeigt auf, dass es möglich ist, die Übertragungsverfahren des IEEE 802.11 zu überwachen und Bewegungen nahe den Antennen zu erfassen. Die Zweite zeigt auf, dass ähnliche Ergebnisse auch ohne den Doppler-Effekt sondern nur durch die gemessenen Reflexionen von Signalen erreicht werden können. Die Möglichkeiten dieser Techniken reichen von einer Gestensteuerung, die ohne zusätzliche Sensoren am Menschen auskommt, bis zum Visualisieren von Bewegungen hinter Wänden.
Der Gegenstand der vorliegenden Arbeit ist grundliegende Problematiken der Detektion des Doppler-Effekts in digitalen Modulationen aufzuzeigen. Hierfür werden Grundlagen der Empfangstechnik erläutert. Weiterhin wird der Einsatz aktueller Grafikkarten in Software-Radios zur Detektion des Doppler-Effekts untersucht.
In der Kernresonanzspektroskopie, wie auch in anderen spektroskopischen Disziplinen, unterliegt die
Genauigkeit und Vollständigkeit eines Spektrums den verschiedenen Einstellungen des Messgeräts
sowie dem verwendeten Gerätetypen. Um das gemessene Spektrum besser analysieren zu können,
wird versucht, es an die Realität anzunähern. Eine allgemeine Annahme dazu ist, dass mehrere, sich
teilweise überlagernde Peaks das Spektrum bilden. Alle Peaks verlaufen dabei gemäß einer Funktion,
deren Modellparameterwerte variieren.
Es gibt verschiedene Ansätze zur Bestimmung des Spektrums, zum Beispiel die Modellanpassung und
die Maximum-Entropie-Methode. Eine große, gegen Unendlich strebende Anzahl an Peaks scheint
die gemessenen Spektrumdaten am besten nachzubilden. Dies ist jedoch wenig naturgetreu.
In dieser Arbeit gehe ich dem Bayes’schen Ansatz zur Datenanalyse nach, um die Peakanzahl auszumachen,
für die die größte Wahrscheinlichkeit in den Messdaten liegt.
Während meiner Diplomarbeit hat sich die anfängliche Annahme, dass die Peaks nach der Lorentz-
Funktion geformt sind, revidiert. Letztendlich habe ich versucht, die Bestimmung der Peakanzahl mit
Peaks in Form des Pseudo-Voigt-Profils durchzuführen.
Für die Berechnung der Posterior-Wahrscheinlichkeit einer Peakanzahl war es nötig, ein multiples
Integral zu lösen. Dieses entstand durch die Marginalisierung einiger Störparameter.
Ein Ziel dieser Diplomarbeit war es, das multidimensionale Integral numerisch zu berechnen. Umgesetzt
werden sollte dies mit dem VEGAS-Algorithmus, der das Monte-Carlo-Verfahren zur Integration
verwendet. Ich habe den Algorithmus und die Anwendungen der Arbeit in Matlab implementiert.
Um die Integration mit dem VEGAS-Algorithmus zu testen, habe ich eine Beispielanwendung zur
Integration unterschiedlich dimensionaler Rosenbrock-Funktionen durchgeführt.
Die Anwendung zur Bestimmung der Peakanzahl in einem Spektrum habe ich zunächst für simulierte
Daten mit zwei unterschiedlichen Formeln der Lorentzfunktion umgesetzt.
Die erste Lorentzfunktion enthält zwei Modellparameter, die Lage der Amplitude und die Halbwertsbreite,
und ist zu eins normiert. Bei ihr ist die Amplitude abhängig von der Halbwertsbreite.
Die zweite Formel besteht aus drei unabhängigen Modellparametern: der Amplitude, ihrer Lage und
der Halbwertsbreite. Damit ist sie für die Auswertung realer Messdaten geeigneter als die vorherige
normierte Lorentzfunktion.
Bei der Anwendung mit simulierten Daten mit drei Modellparametern sowie mit gemessenen Daten
und dem Modell des Pseudo-Voigt-Profils konnte die Anzahl der Peaks nicht bestimmt werden.
Die Schwierigkeit der Bestimmung der Peakanzahl mit dem VEGAS-Algorithmus lag anscheinend
bei der Integration über die Amplitude. Zur Klärung des Problems habe ich die Anwendung mit
dem Pseudo-Voigt-Profil und den realen Messdaten über einen anderen Lösungsweg zur numerischen
Integration, mit einer Likelihood-Matrix, untersucht.
Dadurch kam die Vermutung auf, dass die Diskretisierung in y-Richtung durch das Importance
Sampling des VEGAS-Algorithmus nicht konform mit der Messpunktverteilung ist. Ich habe versucht
über eine Präzisionsanpassung der Amplitudenstützwerte das Problem zu lösen, was teilweise gelang.
Die in dieser Arbeit erstellte Anwendung kann zur Plausibilitätsprüfung von Ergebnissen anderer
Bayes’ basierter Verfahren zur Peakanzahlbestimmung dienen.
Mit geschätzten Werten für die Modellparameter aller Peaks wird die multiple Integration mit dem
VEGAS-Algorithmus nicht gebraucht. Die Posterior-Wahrscheinlichkeiten können somit berechnet
werden und eine quantitative Bewertung der Ergebnisse unterschiedlicher Peakzahlen für das gemessene
Spektrum liefern.
Die Online-Enzyklopädie Wikipedia kann für die Analyse der Beziehungen zwischen
Konzepten als wertvolle Datenquelle dienen. Aus ihren klar deffinierten Strukturen,
wie z.B. der baumartigen Kategorisierung, Weiterleitungen, Infoboxen und Links zwischen
Artikeln ergibt sich die Möglichkeit, ausgehend von einem bestimmten Konzept
eine Fülle enzyklopädischen Wissens zu extrahieren, das für viele Anwendungszwecke
in der medizinischen Informatik genutzt werden kann. Trotz der einfachen Verfügbarkeit
von Wikipedia-MySQL-Backups ist es weder besonders intuitiv noch effizient,
diese Beziehungen direkt aus diesen relationalen Datenbanken abzuleiten. Stattdessen
wäre ein weitaus intuitiverer Ansatz für die Datenanalyse, die genannten Strukturen
und ihre Beziehungen zueinander als Knoten und Kanten in einem Graphen abzubilden.
Ausgehend von einem bestehenden Wikipedia-Graph-API zielte diese Arbeit
darauf ab, ein effizientes System zu entwickeln, das Wikipediastrukturen aus einem
MySQL-Backup extrahiert, diese verarbeitet und in eine Graphdatenbank speichert.
Eine Analyse von Graphdatenbank-Managementsystemen im Rahmen dieser Arbeit
ergab, dass Neo4j für diesen Anwendungszweck optimal geeignet ist, da seine Anfragesprache
Cypher eine intuitive Möglichkeit darstellt, Graphdaten zu analysieren. Das
Ergebnis dieser Arbeit ist NeoWiki, ein System, das sowohl eine Möglichkeit zur Generierung
von strukturellen Wikipedia-Graphen bietet als auch als Java Library die
Arbeit mit den erstellten Graph-Entitäten als Java-Objekten unterstützt. Obgleich
derzeit noch Raum für Verbesserungen hinsichtlich der Performance bei der Graphgenerierung
besteht, stellt NeoWiki doch bereits jetzt ein Tool zur intuitiven Analyse
von Wikipedia-Daten dar.
Die heutige Software-Entwicklung ist davon geprägt, dass Anwendungen immer komplexer
und aufwändiger werden. Gleichzeitig steigen die Erwartungen der Kunden an
die Qualität der Software.
Für die Software-Entwickler ist die Telemetrie zu einem unverzichtbaren Werkzeug
geworden. Sie ist ein wesentlicher Baustein, um die Beobachbarkeit (Observability)
von Applikationen zu erhöhen und somit die Grundlage für eine bessere Qualität in
der Software Entwicklung. Hierbei ist zu analysieren, welche Bedeutung die Telemetrie
für den gesamten Software Development Life Cyle hat.
Der aktuelle Stand der Software-Telemetrie wird am Beispiel des Projektes OpenTelemetry
dargelegt.
OpenTelemetry hat sich zum Ziel gesetzt, die universelle Plattform für den Austausch
von Telemetriedaten zu werden.
Die Ergebnisse des Projektes OpenTelemetry werden analysiert und bewertet.
A considerable amount of research in the field of modern robotics deals with mobile agents and their autonomous operation in unstructured, dynamic, and unpredictable environments. Designing robust controllers that map sensory input to action in order to avoid obstacles remains a challenging task. Several biological concepts are amenable to autonomous navigation and reactive obstacle avoidance.
We present an overview of most noteworthy, elaborated, and interesting biologically-inspired approaches for solving the obstacle avoidance problem. We categorize these approaches into three groups: nature inspired optimization, reinforcement learning, and biorobotics. We emphasize the advantages and highlight potential drawbacks of each approach. We also identify the benefits of using biological principles in artificial intelligence in various research areas.
Background: Stroke rehabilitation is a complex process that requires collaboration between stroke patients
and various health professionals. One important component of the rehabilitation is to set goals collaboratively with health professionals. The goal setting process can be time-consuming. In many cases, it is complicated for the patient and difficult to track for the health professionals. A simple user interface that supports patients, their family members and health professionals can help both sides to make the goal setting and attainment process easier.
Objectives: The aim is to design and develop a software for the goal attainment process of stroke patients with milder disabilities that facilitates goal setting process and the traceability of the goal progress for patients and health professionals.
Methods: Based on previous evaluated results, the web interface was developed and improved. Using this knowledge, a goal setting interface was added. To analyze the the goal setting process, goal attainment scaling (GAS) was included as well as parts of the International Classification of Functioning, Disability and Health (ICF) core set for stroke. The results were discussed afterwards in focus groups and evaluated based on two stroke patients, one family member and health professionals.
Results: We developed an interactive prototype, that can aid the rehabilitation at home by inserting
problems with ICF codes and different kinds of goals, creating new activities and tracing goal progress by reviewing the different goals. With the help of the GAS the outcome of the patient’s goals are visualized by a line chart presenting the positive or negative outcomes of the stroke rehabilitation.
Conclusion: The interactive prototype showed that it can support stroke patients during their rehabilitation
at home. A usability test indicated that the goal setting and attainment process was perceived as useful for patients and their family members. Small improvements have to be made to simplify use and error handling. For health professionals, the prototype could also simplify the documentation process by using ICF in the prototype, and also improving collaboration when using the tool for coordination.
Development and validation of a neural network for adaptive gait cycle detection from kinematic data
(2020)
(1) Background: Instrumented gait analysis is a tool for quantification of the different
aspects of the locomotor system. Gait analysis technology has substantially evolved over
the last decade and most modern systems provide real-time capability. The ability to
calculate joint angles with low delays paves the way for new applications such as real-time
movement feedback, like control of functional electrical stimulation in the rehabilitation
of individuals with gait disorders. For any kind of therapeutic application, the timely
determination of different gait phases such as stance or swing is crucial. Gait phases are
usually estimated based on heuristics of joint angles or time points of certain gait events.
Such heuristic approaches often do not work properly in people with gait disorders due to
the greater variability of their pathological gait pattern. To improve the current state-ofthe-
art, this thesis aims to introduce a data-driven approach for real-time determination
of gait phases from kinematic variables based on long short-term memory recurrent neural
networks (LSTM RNNs).
(2) Methods: In this thesis, 56 measurements with gait data of 11 healthy subjects,
13 individuals with incomplete spinal cord injury and 10 stroke survivors with walking
speeds ranging from 0.2 m
s up to 1 m
s were used to train the networks. Each measurement
contained kinematic data from the corresponding subject walking on a treadmill for 90
seconds. Kinematic data was obtained by measuring the positions of reflective markers on
body landmarks (Helen Hayes marker set) with a sample rate of 60Hz. For constructing a
ground truth, gait data was annotated manually by three raters. Two approaches, direct
regression of gait phases and estimation via detection of the gait events Initial Contact
and Final Contact were implemented for evaluation of the performance of LSTM RNNs.
For comparison of performance, the frequently cited coordinate- and velocity-based event
detection approaches of Zeni et al. were used. All aspects of this thesis have been
implemented within MATLAB Version 9.6 using the Deep Learning Toolbox.
(3) Results: The mean time difference between events annotated by the three raters
was −0.07 ± 20.17ms. Correlation coefficients of inter-rater and intra-rater reliability
yielded mainly excellent or perfect results. For detection of gait events, the LSTM RNN
algorithm covered 97.05% of all events within a scope of 50ms. The overall mean time
difference between detected events and ground truth was −11.62 ± 7.01ms. Temporal
differences and deviations were consistently small over different walking speeds and gait
pathologies. Mean time difference to the ground truth was 13.61 ± 17.88ms for the
coordinate-based approach of Zeni et al. and 17.18 ± 15.67ms for the velocity-based
approach. For estimation of gait phases, the gait phase was determined as a percentage.
Mean squared error to the ground truth was 0.95 ± 0.55% for the proposed algorithm
using event detection and 1.50 ± 0.55% for regression. For the approaches of Zeni et al.,
mean squared error was 2.04±1.23% for the coordinate-based approach and 2.24±1.34%
for the velocity-based approach. Regarding mean absolute error to the ground truth, the
proposed algorithm achieved a mean absolute error of 1.95±1.10% using event detection
and one of 7.25 ± 1.45% using regression. Mean absolute error for the coordinate-based
approach of Zeni et al. was 4.08±2.51% and 4.50±2.73% for the velocity-based approach.
(4) Conclusion: The newly introduced LSTM RNN algorithm offers a high recognition
rate of gait events with a small delay. Its performance outperforms several state-of-theart
gait event detection methods while offering the possibility for real-time processing
and high generalization of trained gait patterns. Additionally, the proposed algorithm
is easy to integrate into existing applications and contains parameters that self-adapt
to individuals’ gait behavior to further improve performance. In respect to gait phase
estimation, the performance of the proposed algorithm using event detection is in line
with current wearable state-of-the-art methods. Compared with conventional methods,
performance of direct regression of gait phases is only moderate. Given the results,
LSTM RNNs demonstrate feasibility regarding event detection and are applicable for
many clinical and research applications. They may be not suitable for the estimation
of gait phases via regression. For LSTM RNNs, it can be assumed, that with a more
optimal configuration of the networks, a much higher performance is achieved.
In dieser Arbeit wird eine Software entwickelt, um das Koppeln des Thalmic MYOArmbands
mit dem Stimulator MotionStim8 zu vereinfachen. In einer vorherigen Arbeit
[15] wurden für die Kopplung MATLAB Skripte benutzt. Diese sollen durch die
Software vollständig ersetzt werden. Auÿerdem soll der Stimulator eine drahtlose Anbindung
über zwei British Broadcasting Corporation (BBC) micro:bit Systeme erhalten.
Dazu wird zuerst eine Anforderungsanalyse durchgeführt, woraus konkrete UseCases der
Software formuliert werden konnten. Hierzu werden aus der Problemstellung und den
daraus resultierenden Zielen dieser Arbeit Funktionale und nicht-Funktionale Anforderungen
extrahiert. Es müssen Gesten, sowie deren Myo- und Stimulations-Daten verwaltet
werden können. Auch müssen sowohl Myo-Armband als auch MotionStim8 drahtlos
angebunden, sowie gekoppelt werden.
Nachdem die Anforderungen feststehen, wird ein Konzept zur Umsetzung entwickelt.
Dazu wird eine Entwicklungsumgebung gewählt und eine Softwarearchitektur ausgearbeitet.
Es wird ein Model-View-Controller (MVC)-Modell angestrebt. Für die Entwicklungsumgebung
der Steuersoftware wird VisualStudio, bzw. C#, und für die drahtlos
Anbindung Mu, bzw. MicroPython, verwendet. Auch wird eine Übersicht über die Komponenten
angefertigt. Daraus sind die Hardware-Schnittstellen, PC zu micro:bit, micro:
bit zu micro:bit, micro:bit zu MotionStim8, sowie Myo-Armband zu PC, ableitbar.
Für das Myo-Armband existieren bereits Software-Bibliotheken, welche eingebunden werden
können und somit das Entwickeln einer eigenen Schnittstelle nicht notwendig machen.
Zum Schluss der Konzeption werden Ideen für eine Benutzeroberäche erarbeitet. Dafür
werden die Nicht-Funktionalen Anforderungen, modularer Aufbau sowie Benutzerfreundlichkeit
und Übersichtlichkeit, aus der Anforderungsanalyse aufgegrien. In dieser Phase
werden bereits erste MockUps erstellt.
Die Implementierung ndet in zwei Schritten statt.
Die Drahtlosfunktion, bzw. der Python-Teil, kann separat entwickelt werden. Dafür werden
die seriellen Schnittstellen, PC zu micro:bit und micro:bit zu MotionStim8, sowie
die Übertragung zwischen den beiden micro:bits implementiert. Auÿerdem werden die
Befehle im micro:bit an die benötigte Command Structure des Stimulators angepasst.
Die Steuersoftware beinhaltet eine Graphical User Interface (GUI) mit modulübergreifenden
Funktionen. Die einzelnen Module, Myo Controller, Stimulation Controller und
Gesture Controller besitzen ihre eigene Oberäche und können in die GUI modular integriert
werden. Die Gesten-, Myo- und Stimulations-Daten können über das jeweilige
Modul verwaltet werden. Über das Beenden der Anwendung hinaus werden alle Daten
in einer Extensible Markup Language (XML)-Datei gespeichert. Die Kopplung des Myo-
Armbands mit dem MotionStim8 ndet über einen Mapper statt, welcher eine Mapping-
Matrix für eine Geste errechnet. Dafür müssen vorab Myo- und Stimulations-Daten für
jede Position dieser Geste gesetzt werden. Die Echtzeitfunktion wird übergeordnet über
die GUI gestartet und berechnet für eingehende Myo-Daten die Pulsweiten für die Stimulation.
Für diese Berechnung wird die Mapping-Matrix benötigt.
Hiernach kann die entwickelte Steuersoftware für die denierten Anforderungen, bzw.
UseCases, verwendet werden.
Medical imaging produces many images every day in clinical routine. Keeping up with the
daily image analysis task and this vast amount of data is quite a challenge for radiologists.
However, these analysis tasks can be automated with well-proven automatic segmentation
methods. Segmentation reviewing of an expert is necessary because learningbased
automatic segmentation methods may not perform well on exceptional image
data. Creating valid segmentations by reviewing them also improve the learning-based
methods.
Combining established standards with modern technologies creates a flexible environment
to efficiently evaluate multiple segmentation algorithm outputs based on different metrics
and visualizations and report these analysis results back to a clinical system environment.
The presented software system can inspect such quantitative results in a fast and intuitive
way, potentially improving the daily repetitive segmentation review and rework of a
research radiologist. The presented system is designed to be integrated into a virtual
distributed computing environment with other systems and analysis methods. Critical
factors for this particular environment are the handling of many patient data and routine
automated analysis with state of the art technology.
First experiments show that the time to review automatic segmentation results can be
roughly divided in half while the confidence of the radiologist is enhanced. The system
is also able to highlight individual slices which are essential for the expert’s review
decision. For this highlighting, different metric scores are compared and evaluated.
Einleitung: Die Datenerhebung in klinischen Studien erfordert eine ausgiebige, gewissenhafte Dokumentation. Dafür werden nicht nur vom Personal Informationen gewonnen, sondern z.T. auch von Patienten mit Hilfe von Fragebögen erhoben. In der chilenischen PRECISO-Studie wird zur Verwaltung und Erfassung von Studiendaten OpenClinica (OC) verwendet. Zur mobilen Patientenbefragung soll die am Institut für Medizinische Informatik (IMI) der Universitätsklinik Münster (UKM) entwickelte Anwendung MoPat2 eingesetzt werden. Dafür sollen die "Operational Data Model" (ODM)-Import- und Export-Funktionen von OC und MoPat2, beispielhaft anhand der "Quality of Life" (QOL)-Bögen der PRECISO-Studie, auf ihre syntaktische und semantische Kompatibilität getestet, Diskrepanzen dokumentiert und die Implementierung in MoPat2 angepasst werden. Mit der Arbeit soll bewertet werden, mit welchen Arbeits-/Interpretationsschritten der ODM-Standard für solch ein Projekt ein geeignetes Datenaustauschformat darstellt.
Methodik: In allen Arbeitsschritten wurde iterativ getestet, Fehler analysiert und verbessert. Basierend auf der Analyse wurden an der Struktur der aus OC exportierten ODM-Datei Ände-rungen vorgenommen. Aus der ODM-Datei wurden die Metadaten in MoPat2 importiert und daraus der QOL-Fragebogen generiert. Mit dem QOL-Bogen wurden Befragungen getestet und Fehler ausgewertet. Für den Export aus MoPat2 wurde die Implementierung der ODM-Export-Funktion erweitert.
Ergebnisse: Nur durch Änderungen konnten die Metadaten nach MoPat2 importiert und zur Generierung des QOL-Bogens genutzt werden. Befragungen mit dem QOL-Bogen haben sich als möglich aber fehlerbehaftet erwiesen. Durch Implementierungen in MoPat2 konnten mit Hilfe eines ExportTemplates Patientendaten ODM-konform exportiert werden.
Diskussion: Der ODM-Standard ist im Anwendungsfall zum Datenaustausch zwischen OC und MoPat2 gut nutzbar, jedoch mussten trotz Verwendung des Standards diverse Änderungen vorgenommen werden. Die Ergebnisse zeigen somit auf, dass die ODM-Schnittstellen beider Anwendungen erweitert und aufeinander angepasst werden müssen, um einen fehlerfreien Studiendatenaustausch zu ermöglichen.
Die Identifizierung von Angehörigen der Hochschule Heilbronn erfolgt in der Regel
über die Kombination aus Benutzername und Passwort. In verschiedenen Einsatzgebieten,
wie z.B. an einer Parkschranke, ist eine Eingabe der Benutzermerkmale nicht
möglich oder hinderlich. Hierfür soll die Mensakarte des Studentenwerks Heidelberg
als identifizierendes Merkmal erschlossen werden. Dies macht die Verknüpfung von
Benutzerkonto und Karte notwendig.
Im Rahmen dieser Bachelorarbeit werden zunächst verschiedene Umsetzungsmöglichkeiten
für mobile Anwendungen zur Verknüpfung von Benutzer und Karte unter Verwendung
der NFC-Technologie analysiert und ausgewertet. Anschließend wird ein
funktionaler Prototyp für Smartphones der Android-Plattform entwickelt, der die einfache
Einbindung weiterer Funktionalität ermöglichen soll.
Der entwickelte Prototyp ist im Hochschulnetz testweise für die Registrierung und
Deregistrierung von NFC-Karten einsetzbar. Vor einer realen Nutzung des Systems
müssen der Datenschutz und andere organisatorische und rechtliche Pflichten, wie
zum Beispiel das Telemediengesetz, berücksichtigt werden.
Informationslücken sind in der Notfallmedizin besonders folgenschwer, da sie zu einer
ineffizienten Versorgung der Patienten führen und lebensbedrohlich sein können. Sie
entstehen, wenn Patienten sich nicht mehr adäquat artikulieren können oder nicht wissen, welche Vorerkrankungen sie haben und welche Medikamente sie einnehmen. So kann es beispielsweise zu schwerwiegenden Wechselwirkungen zwischen Medikamenten kommen oder zu allergischen Reaktionen auf ein Medikament.
Im Rahmen dieser Arbeit soll ein System entwickelt werden, das diese Informationslücken zwischen Patienten und Erst- und Zweithelfern schließen soll. Es besteht aus einer mobilen Anwendung für Android Smartphones und NFC-Tags. Dazu schreiben
Patienten ihre medizinischen Notfalldaten mit der mobilen Anwendung auf einen NFC-Tag. Diesen NFC-Tag tragen sie in Form einer Halskette, eines Armbands, eines Schlüsselanhängers o. ä. bei sich. In einem Notfall können Erst- und Zweithelfer diesen
NFC-Tag mit der mobilen Anwendung auslesen und bekommen so Informationen über den Patienten geliefert.
Die implementierte mobile Anwendung kann testweise für Evaluationen eingesetzt werden.
Für einen produktiven Einsatz müssen allerdings organisatorische sowie rechtliche
Pflichten wie der Datenschutz oder das Medizinproduktegesetz berücksichtigt werden.
Eine Anwendung nur mit Gedanken steuern? — Das geht! Mit Hilfe von Brain-Computer-Interfaces (BCIs). Heutzutage gibt es viele BCI-Frameworks, bei denen die
unterschiedlichen Konzepte wie zum Beispiel P300-Speller, Imagined Movement oder SSVEP untersucht und angewendet werden können. Für diese Thesis wird das Framework Buffer-BCI verwendet. Es wurde untersucht, ob
sich dieses für eine Aufgabe im Praktikum Medizinische Signal- und Bildverarbeitung (PSB) des Studiengangs Medizinische Informatik eignet. An mehreren Probanden wurde getestet, ob Reproduzierbarkeit und Erkennungsgenauigkeit hoch genug sind,
um auch bei vielen unterschiedlichen Menschen vergleichbar funktionieren und sinnvolle Ergebnisse liefern zu können. Auch hinsichtlich zeitlicher Latenzen, der prinzipiellen Architektur des Frameworks und der Kommunikationskette für Ereignisse wurde Buffer- BCI untersucht.
Ein Ergebnis dieser Thesis ist die Beschreibung der Architektur und der Kommunikationskette von Buffer-BCI. Ein weiteres Ergebnis ist eine Aufgabenstellung für das PSB bezüglich einer P300-Speller-Anwendung auf Basis des Buffer-BCI-Frameworks. Die Aufgabenstellung kann noch um Imagined Movement- oder SSVEP-Experimente
erweitert werden, was jedoch nicht mehr Teil dieser Thesis ist.
Auf dem Markt der Android Applikationen gibt es ein breites Spektrum an
Lernanwendungen. Allerdings exisitiert ein Mangel an gut strukturierten
inhaltlichen Zusammenfassungen der schulischen Themen, gerade im
Fach Mathematik.
Mein Ziel der Bachelorarbeit ist, eine Education App zu entwickeln, diese
im realen Betrieb zu testen und somit einen Lösungsansatz für den
Mangel an solchen Apps zu erhalten. Ich werde am Beispiel der 8. Klasse
Realschule im Fach Mathematik eine thematische Zusammenfassung
erzeugen und als App umsetzen. Mathematische Grundlage hierfür bildet
das Schulbuch Schnittpunkt 8 des Klettverlages (Differenzierende
Ausgabe, 2015).
Bugfixing und Evaluierung verläuft Hand in Hand, um am Ende des
Entwicklungsprozesses eine voll funktionsfähige, getestete App zu
bekommen.
Mit Hilfe eines Fragebogens wird dabei direkt auf die Zielgruppe
eingegangen.
Die App wird im Anschluss des Entwicklungsprozesses nach dem Open-
Closed Prinzip fungieren. Ist also für Erweiterungen offen. Diese Funktion
erreiche ich durch genau definierte Schnittstellen. Es wird möglich sein,
neue Klassen ebenso wie Schularten hinzuzufügen. Als
Entwicklungsumgebung dient mir IntelliJ, als Testgerät ein Samsung
Smartphone.
Die App wird den Namen MaTHive Spectre tragen, um direkt auf das
Potential aufmerksam zu machen und einen einprägsamen Namen zu
erhalten.
Every year, hundreds of thousands of patients are affected by treatment failure or adverse drug reactions, many of which could be revented by pharmacogenomic testing. To address these deficiencies in care, clinics require
automated clinical decision support through computer based systems, which provide clinicians with patient-specific ecommendations. The primary knowledge needed for clinical pharmacogneomics is currently being
developed through textual and unstructured guidelines.
In this thesis, it is evaluated whether a web service can annotate clinically relevant genetic variants with guideline information using web services and identify areas of challenge. The proposed tool displays a formal representation of pharmacogenomic guideline information through a web service and existing resources. It enables the annotation of variant call format (VCF) files with clinical guideline information from the Pharmacogenomic Knowledge Base (PharmGKB) and Clinical Pharmacogenetics Implementation Consortium (CPIC).
The applicability of the web service to nnotate clinically relevant variants with pharmacogenomics guideline information is evaluated by translating five guidelines to a web service workflow and executing the process to annotate publically available genomes. The workflow finds genetic variants covered in CPIC guidelines and influenced drugs.
The results show that the web service could be used to annotate in real time clinically relevant variants with up-to-date pharmacogenomics guideline information, although several challenges such as translating variants into star allele nomenclature and the absence of a unique haplotype nomenclature
remain before the clinical implementation of this approach and the use on other drugs.
Gammastrahlung ist hochenergetische elektromagnetische Strahlung, die zum Beispiel
beim Zerfall radioaktiver Stoffe auftritt und besteht aus ungeladenen Photonen. Jeder
dieser Gammastrahler strahlt Photonen mit einer für ihn spezifischen Energie aus, woran
man ihn auch erkennen kann. So hat jeder Gammastrahler sozusagen seinen eigenen
Fingerabdruck.
Wenn man wissen will, welche Gammastrahler in einer Probe vorhanden sind, kann auf
die Gammaspektroskopie zurückgegriffen werden. Diese misst, wie der Name schon sagt,
das Spektrum, also die Energie und die Intensität, der Gammastrahlen. Aus dem daraus
entstehenden Graphen kann dann anhand der Ausschläge abgelesen werden, welche
Gammastrahler in der Probe enthalten sind, da sich diese über ihr Energiemaß bestimmen
lassen.
Die beiden grundsätzlichen Bestandteile eines solchen Gammastrahlenspektrometers sind
ein Detektor und eine Strahlungsquelle, meist eine radioaktive Probe. Die Probe wird so
angebracht, dass sie auf den Detektor strahlt. Dieser registriert dann die Impulse, die
durch Wechselwirkung zwischen den Gammastrahlen und den Elektronen des Detektors
entstehen.
Es gibt zwei hauptsächlich auftretende Effekte. Der Wichtigste ist wohl der Photoeffekt.
Hierbei trifft ein Photon auf ein Elektron und das Photon wird vollständig vom Elektron
absorbiert, wodurch das Elektron aus seiner aktuellen Bindung, innerhalb des Atoms,
gelöst wird. Dies ist der wichtigste Effekt, weil er genau die Information liefert, die gesucht
wird. Das ist die exakte Energie, mit der ein radioaktives Nuklid abstrahlt. Den durch
gehäuftes Vorkommen dieses Effektes auftretenden Ausschlag nennt man Photopeak. Er
stellt die spezifische Energie von einem der, in der Probe vorhandenen, Gammastrahlern
dar. Anhand dieses Peaks ist es letztendlich möglich die enthaltenen Gammastrahler zu
identifizieren.
Der zweite Effekt nennt sich Compton-Effekt. Hierbei trifft ebenfalls ein Photon auf ein
Elektron. Dieses Mal wird das Photon aber nicht absorbiert, sondern gibt lediglich einen
Teil seiner Energie an das Elektron ab und wird dann in einem Winkel von 0° bis 180°
gestreut. Es setzt seinen Weg also mit geringerer Energie und damit größerer Wellenlänge
fort.
Leider ist das obige Spektrum im jetzigen Zustand noch lange nicht perfekt. Noch sind zu
viele Störungen und Fehlinformationen enthalten. Zwar könnte damit gearbeitet werden,
jedoch mit dem Risiko, dass eventuell Informationen verfälscht, oder sogar gar nicht
ausgelesen werden. Perfekt wäre es, wenn das Spektrum komplett der x-Achse anliegen
würde, vollkommen glatt, ohne Rauschen und nur die Photopeaks zu sehen wären.
Ein kleiner Teil der Störungen, die das Signal beeinflussen, kann schon im obigen Teil
erkannt werden. Es spielen nämlich viel mehr Effekte eine Rolle, als es im besten Fall sein
sollten.
Einer der Störeffekte zum Beispiel, ist der bereits oben erwähnte Compton-Effekt. Dieser
trägt nichts zum Photopeak bei, sondern liefert einen Impuls, dessen Energie bis zu einem
gewissen Punkt, dieser „Punkt“ wird auch Compton-Kante genannt, unterhalb der
spezifischen Energie des Photons liegt. Wenn die spezifische Energie eines Photons zum
Beispiel 600keV betragen würde, dann könnte durch den Compton-Effekt eine Energie
von 400keV geliefert werden. Es ist also möglich, dass angenommen wird es seien zwei
unterschiedliche Gammastrahler in der Probe vorhanden. Glücklicherweise sind die
Impulse, die durch den Compton-Effekt entstehen relativ gleich verteilt und erreichen
kaum die Intensität eines Photopeaks. Dennoch zieht jeder Photopeak einen solchen
Rattenschwanz aus schwächeren Impulsen, welche von 0keV bis zur Energie der
Compton-Kante reichen, hinter sich her. Dies wird auch Compton-Kontinuum genannt. Da
im niedrigeren Bereich des Energiespektrums immer mehr Compton-Kontinuen
aufeinandertreffen, je nachdem wie viele Photopeaks, also unterschiedliche
Gammastrahler, in der Probe vorhanden sind, bildet sich dort oft ein sichtbarer Hügel, oder
eine Steigung. Umgekehrt flacht das Spektrum im höheren Bereich immer weiter ab, da
4
Abbildung 1: Beispielspektrum
weniger Compton-Kontinuen vorhanden sind.
Das Compton-Kontinuum trägt einen Großteil zum Untergrund bei. Der Untergrund füllt
fast den kompletten Bereich zwischen Gammaspektrum und x-Achse aus. Ebenso spielt
hier auch die Umgebungsstrahlung eine Rolle, welche eigentlich immer vorhanden ist und
die man nur schwer ausschließen kann.
Ein weiterer Störfaktor ist das in der Elektrotechnik bekannte Rauschen, welches auch im
obigen Spektrum sehr gut erkannt werden kann.
Dies sind nur einige Störungen, die eine Rolle spielen.
Es werden somit sehr viele Störgrößen ungewollt mit betrachtet und diese Störgrößen
müssen durch Werkzeuge, wie zum Beispiel Algorithmen, entfernt werden. Da ich mich in
dieser Bachelorarbeit auf die Untersuchung von Algorithmen zur Bestimmung des
Untergrundes beziehe, werde ich mich im Weiteren auf diese beschränken und die
anderen Probleme größtenteils außer Acht lassen.
Nun gibt es natürlich bereits Algorithmen, mit denen sich der Untergrund von Gammaspektren
bestimmen lässt. Das Problem hierbei ist, dass diese meist nur bei bekannten
Spektren funktionieren, auf die sie, mehr oder weniger, speziell zugeschnitten sind. Wenn
diese Algorithmen eins zu eins auf ein unbekanntes Spektrum angewandt würden, kann es
schnell vorkommen, dass die Untergrundbestimmung misslingt und weit vom angestrebten
Ergebnis entfernt ist.
Einen einzelnen Algorithmus zu entwickeln, der für alle Spektren einsetzbar wäre, ist aber
auch keine Möglichkeit. Der Aufwand und die Kosten wären noch viel zu hoch. Außerdem
würde sich keine Firma finden,welche sich an solch ein Projekt wagen würde, da auch viel
zu wenige Abnehmer dafür vorhanden sind.
Darum werde ich in dieser Arbeit kleinere, einfachere Algorithmen genauer untersuchen,
um zu verstehen, wie sich diese auf unterschiedliche Spektren anwenden lassen. Das
damit entstehende Ergebnis ist wahrscheinlich nicht perfekt, aber gut genug, um damit
arbeiten zu können.
Ziel dieser Arbeit ist es, zwei Algorithmen zur Untergrundbestimmung zu evaluieren und
einen Überblick über folgende Themen zu geben:
– Einen Ausblick über die Auswirkungen der einzelnen Parameter der Algorithmen zu
geben, um zum Beispiel schnell abschätzen zu können, welcher Parameter in
einem konkreten Fall verändert werden muss.
– Einen groben Rahmen festzulegen, in dem die einzelnen Parameter gewählt
werden können, sodass mit hoher Wahrscheinlichkeit ein gutes Ergebnis erreicht
wird.
– Stärken und Schwächen der Algorithmen herausarbeiten, um zum Beispiel die
Verwendung eines Algorithmus auszuschließen, der sich für den beabsichtigten
Zweck nur schwer oder gar nicht einsetzen ließe.
5
– Einen schnellen Überblick über die Möglichkeiten geben, um mit den Algorithmen
ohne großes Vorwissen zu arbeiten.