Informatik
Refine
Document Type
- Bachelor Thesis (26)
- Master's Thesis (15)
- Preprint (2)
- Diploma Thesis (1)
Has Fulltext
- yes (44)
Is part of the Bibliography
- no (44)
Keywords
- Neuronales Netz (3)
- Applikation (2)
- Datenanalyse (2)
- Kolorektalkarzinom (2)
- Maschinelles Lernen (2)
- Simulation (2)
- 3D-Ultraschall (1)
- Algorithmus (1)
- Alzheimer (1)
- Analyse , Datenqualität , Krebsregister (1)
Institute
- Informatik (44) (remove)
3D-Ultraschall beim MITK
(2017)
In dieser Bachelorthesis wird ein Frei-Hand-3D-Ultraschallsystem entwickelt. Dieses
soll 3D-Ultraschallbildgebung im MITK ermöglichen. Basis hierfür sind ein konventionelles
2D-Ultraschallgerät und ein optisches Trackingsystem. Die nötigen Teilschritte
werden erläutert und beschrieben.
Ergebnis ist ein Plugin für das MITK, das aus aufgenommenen 2D-Ultraschallbildern
ein 3D-Volumen berechnet.
An architectural concept for implementing the socio-technical workflow of Digital Pathology in Chile
(2014)
Virtual Microscopy opens up the possibility to remotely access high quality images at large scales for scientific research, education, and clinical application. For clinical diagnostics, Digital Pathology (DP) presents a novel opportunity to reduce variability [Bauer et al., 2013] due to the reproducible access to Whole Slide Imaging, quantitative parameters (e.g. HER2 stained membrane) [Al-Janabi et al., 2012], second opinion and Quality Assurance [Ho et al., 2013]. Despite of the mentioned advantages, the challenge remains to incorporate DP into the pathologists workflow within a heterogeneous environment of systems and infrastructures [Stathonikos
et al., 2013]. Different issues must be solved in order to optimize the impact of DP in the daily clinical practice [Daniel et al., 2012] [Ho et al., 2006]. The integration needs precise planning and comprehensive evaluation for adopting this technology
[Stathonikos et al., 2013]. This thesis will focus on an organizational development approach based on a Socio-Technical System (STS). The socio-technical approach covers: (i) the technical issue: tissue-scanner, NDP.view, NDP.serve, analysis software, and (ii) the social issue: pathologists, technicians. In order to improve the integration, a joint optimization (of i and ii) is necessary. The developed STS approach will optimize the integration of DP towards improved workflows in clinical environments. The improved workflows will reduce the pathologists turnaround time, improve the certainty of the diagnostics, and provide a more effective patient care within the covered institutions. An overt multi-site Participatory Observation, Questionnaires, and Business Process Modelling Notation will be used to analyse the existing pathological workflows. Based on this, the system will be modelled with the 3lgm2 Toolkit [Winter et al., 2007] under consideration of various technical subsystems that are present in the clinical environment. Afterwards, the interfaces between subsystems and its possible interoperabilities will be evaluated, taking into account the different existing standards and guidelines for image processing and management, as well as business processes in DP. In order to analyse the existing preconditions a questionnaire will be evaluated to establish a robust and valid view. In addition, the overt participatory observation will support this elevation, giving a deeper insight on the social part. This observation also covers the technical side including the whole pathological process. The socio technical model will then reveal measurable potential for optimization with incorporated DP (e.g. higher throughput for slides). The organizational development approach consists of a Socio-Technical System based on overt multi-site participatory observations, questionnaires, business process modelling and 3LGM2, will optimize the use of Digital Pathology in the daily clinical practice and raise the acceptance to incorporate integrate the new technology within the dayly workflow through the user centred process of incorporation.
• Perform and evaluate a questionnaire and a participant observation of pathologists work days in private & public institutions
• Create and evaluate a 3lgm2 model
• Model the current pathological process (viewpoint of pathologist & technical assistant) & perform and evaluate a contextual inquiry to elevate the pathologists requirements & expectations towards the system
• Test the future WF according the model parameters.
This project will detect unsuspected interrelations and interdependencies within the socio- technical workflow with a pathology laboratory. The observation will reveal the action conformity as well as the environment in which the process has to be embedded. Furthermore it will establish an optimized workflow for a specific clinical environment to prepare the implementation of DP. Additionally it will be possible to
quantify digitized images in order to improve decision making and lastly to improve patient care. In the future it will be possible to extend automated image analysis in order to support clinical decision support. Depending on acceptance, this can lead towards an automated clinical decision support for cases with low complexity.
Ziel dieser Bachelorthesis ist es, den Datenbestand des Klinischen Krebsregisters am
Tumorzentrum Heilbronn-Franken auf seine Vollständigkeit, Vollzähligkeit und seine
Repräsentativität zu untersuchen.
Diese werden am Beispiel des Kolorektalen Karzinoms untersucht.
Folgende Fragen lassen sich formulieren:
• Lassen sich mit den in einem einrichtungsbezogenen klinischen Krebsregister, wie
dem am Gesundbrunnen Heilbronn, erhobene regionale Daten ggfs. überregionale und
eventuell sogar bundesweite Aussagen ableiten?
• Sind die erfassten Daten vollständig bzw. wie vollständig sind die Datenbestände der
registrierten Patienten?
• Sind die erfassten Daten im Tumorzentrum Heilbronn-Franken am Gesundbrunnen
Heilbronn vollzählig? Werden im Klinischen Krebsregister der SLK-Kliniken alle
Neuerkrankungen erfasst?
Wird bei einem Patienten mit Kolorektalkarzinom der Tumor erfolgreich entfernt, beginnt die Nachsorgephase. Der Nachsorgeplan, welchen die Patienten bei der
Entlassung erhalten, orientiert sich an der S3-Leitlinie des Leitlinienprogramms für Onkologie. Der Patient kann selbst entscheiden, wo die Nachsorge stattfinden wird. Entweder lässt er seine Nachsorgeuntersuchungen in der Klinik durchführen (klinikinterne Nachsorge) oder er sucht einen niedergelassenen Onkologen auf (klinikexterne Nachsorge). Gegenstand dieser Arbeit ist die Analyse der klinikinternen und
-externen Nachsorge in Bezug auf die Einhaltung der S3-Leitlinie. Ziel ist es, festzustellen, ob anhand der erhobenen Daten Rückschlüsse auf die Leitlinientreue in Bezug auf die Nachsorge der Patienten gezogen werden kann. Im Rahmen dieser Thesis werden Patienten mit einem UICC-Stadium II oder III und einem Diagnosedatum zwischen 2009 und 2013 betrachtet. Basierend auf den Kriterien wurden 562 Datensätze aus dem GTDS exportiert. Nach anschließendem Bearbeiten und Aussortieren wurden 426 Patienten analysiert. Im seit 2001 in Heilbronn eingesetzten Gießener Tumordokumentationssystem (GTDS) werden die Falldaten der Tumorpatienten dokumentiert und gespeichert. Die Verlaufsdaten der
TNM-Dokumentation werden mindestens einmal jährlich zu den Patienten erhoben. Diese Daten werden analysiert, um die Leitlinientreue zu überprüfen.
Der Vergleich zwischen S3-Leitlinie und vorgenommenen Untersuchungen kann sich aufgrund lokaler Dokumentationspraxis nur auf den zeitlichen Ablauf der Untersuchungstermine beschränken, da im GTDS keinerlei Informationen zu der Art der vorgenommenen Untersuchung vorliegen. Um die zeitlichen Abläufe zu analysieren, werden aus den vorliegenden Datumswerten für jeden Patient ein Pfad bestehend aus Zuständen (Tumorfreiheit, Untersuchung 1, etc.) gebildet. Die Übergangswahrscheinlichkeiten
stellen einen Indikator für die Termintreue der Patienten dar. Es wurden 146 Patienten klinikintern und 149 Patienten klinikextern behandelt. 131 Patienten erhielten eine gemischte Nachsorge. Zusammenfassend lässt sich sagen, dass die Informationen aus dem GTDS nicht ausreichen, um eine Leitlinienkonformität der Nachsorge von Kolorektalkarzinompatienten nachzuweisen, da im GTDS ausschließlich der Tumorverlauf dokumentiert wird, aber nicht, wie sich die Nachsorge im Speziellen gestaltet.
Die Popularität der drahtlosen Datenübertragung wächst, seit dem der Standard 802.11 im Jahr 1997 vom Institute of Electrical and Electronics Engineers (IEEE) für die private Nutzung ausgegeben wurde, stetig an. Hierbei beschränken sich die meisten Anwendungen auf das Wesentliche: die Übertragung von Nutzdaten zwischen einem Access Point und verschiedenen Endgeräten. Der konventionelle Weg der Datenverarbeitung in drahtlosen Netzwerk-Modulen sieht vor, dass zunächst digitale Daten in analogen Verfahren moduliert werden. Nach der Übertragung als elektromagnetische Welle, werden die analogen Daten wieder von eingebetteten Systemen in einen digitalen Datenstrom übersetzt und zum Weiterverarbeiten weitergereicht. Durch die steigende Rechenleistung von Computern gibt es auch andere Wege der Übertragung. Mit der Idee, den Datenstrom nicht analog weiterzuverarbeiten, sondern ihn in digitaler Form zu modulieren oder zu demodulieren entstanden die ersten ‚Software-Radios‘. Zu Beginn der drahtlosen Ära wurden Software-Radios zum Beispiel dazu genutzt, um Sicherheitslücken in Wi-Fi Übertragungen zu finden. Heutzutage finden Software-Radios immer mehr Anwendungen in wissenschaftlichen Bereichen abseits der üblichen Datenübertragung. Als alternative Vorreiter gelten die Arbeiten der Universität Washington „Whole-Home Gesture Recognition Using Wireless Signals“ (Quifan et al., 2013a) und die des Massachusetts Institute of Technology „See Through Walls with Wi-Fi“ (Adib F. and Katabi D., 2013). Die erst genannte Anwendung beruht auf der Theorie des Doppler-Effekts für elektromagnetische Wellen und zeigt auf, dass es möglich ist, die Übertragungsverfahren des IEEE 802.11 zu überwachen und Bewegungen nahe den Antennen zu erfassen. Die Zweite zeigt auf, dass ähnliche Ergebnisse auch ohne den Doppler-Effekt sondern nur durch die gemessenen Reflexionen von Signalen erreicht werden können. Die Möglichkeiten dieser Techniken reichen von einer Gestensteuerung, die ohne zusätzliche Sensoren am Menschen auskommt, bis zum Visualisieren von Bewegungen hinter Wänden.
Der Gegenstand der vorliegenden Arbeit ist grundliegende Problematiken der Detektion des Doppler-Effekts in digitalen Modulationen aufzuzeigen. Hierfür werden Grundlagen der Empfangstechnik erläutert. Weiterhin wird der Einsatz aktueller Grafikkarten in Software-Radios zur Detektion des Doppler-Effekts untersucht.
In der Kernresonanzspektroskopie, wie auch in anderen spektroskopischen Disziplinen, unterliegt die
Genauigkeit und Vollständigkeit eines Spektrums den verschiedenen Einstellungen des Messgeräts
sowie dem verwendeten Gerätetypen. Um das gemessene Spektrum besser analysieren zu können,
wird versucht, es an die Realität anzunähern. Eine allgemeine Annahme dazu ist, dass mehrere, sich
teilweise überlagernde Peaks das Spektrum bilden. Alle Peaks verlaufen dabei gemäß einer Funktion,
deren Modellparameterwerte variieren.
Es gibt verschiedene Ansätze zur Bestimmung des Spektrums, zum Beispiel die Modellanpassung und
die Maximum-Entropie-Methode. Eine große, gegen Unendlich strebende Anzahl an Peaks scheint
die gemessenen Spektrumdaten am besten nachzubilden. Dies ist jedoch wenig naturgetreu.
In dieser Arbeit gehe ich dem Bayes’schen Ansatz zur Datenanalyse nach, um die Peakanzahl auszumachen,
für die die größte Wahrscheinlichkeit in den Messdaten liegt.
Während meiner Diplomarbeit hat sich die anfängliche Annahme, dass die Peaks nach der Lorentz-
Funktion geformt sind, revidiert. Letztendlich habe ich versucht, die Bestimmung der Peakanzahl mit
Peaks in Form des Pseudo-Voigt-Profils durchzuführen.
Für die Berechnung der Posterior-Wahrscheinlichkeit einer Peakanzahl war es nötig, ein multiples
Integral zu lösen. Dieses entstand durch die Marginalisierung einiger Störparameter.
Ein Ziel dieser Diplomarbeit war es, das multidimensionale Integral numerisch zu berechnen. Umgesetzt
werden sollte dies mit dem VEGAS-Algorithmus, der das Monte-Carlo-Verfahren zur Integration
verwendet. Ich habe den Algorithmus und die Anwendungen der Arbeit in Matlab implementiert.
Um die Integration mit dem VEGAS-Algorithmus zu testen, habe ich eine Beispielanwendung zur
Integration unterschiedlich dimensionaler Rosenbrock-Funktionen durchgeführt.
Die Anwendung zur Bestimmung der Peakanzahl in einem Spektrum habe ich zunächst für simulierte
Daten mit zwei unterschiedlichen Formeln der Lorentzfunktion umgesetzt.
Die erste Lorentzfunktion enthält zwei Modellparameter, die Lage der Amplitude und die Halbwertsbreite,
und ist zu eins normiert. Bei ihr ist die Amplitude abhängig von der Halbwertsbreite.
Die zweite Formel besteht aus drei unabhängigen Modellparametern: der Amplitude, ihrer Lage und
der Halbwertsbreite. Damit ist sie für die Auswertung realer Messdaten geeigneter als die vorherige
normierte Lorentzfunktion.
Bei der Anwendung mit simulierten Daten mit drei Modellparametern sowie mit gemessenen Daten
und dem Modell des Pseudo-Voigt-Profils konnte die Anzahl der Peaks nicht bestimmt werden.
Die Schwierigkeit der Bestimmung der Peakanzahl mit dem VEGAS-Algorithmus lag anscheinend
bei der Integration über die Amplitude. Zur Klärung des Problems habe ich die Anwendung mit
dem Pseudo-Voigt-Profil und den realen Messdaten über einen anderen Lösungsweg zur numerischen
Integration, mit einer Likelihood-Matrix, untersucht.
Dadurch kam die Vermutung auf, dass die Diskretisierung in y-Richtung durch das Importance
Sampling des VEGAS-Algorithmus nicht konform mit der Messpunktverteilung ist. Ich habe versucht
über eine Präzisionsanpassung der Amplitudenstützwerte das Problem zu lösen, was teilweise gelang.
Die in dieser Arbeit erstellte Anwendung kann zur Plausibilitätsprüfung von Ergebnissen anderer
Bayes’ basierter Verfahren zur Peakanzahlbestimmung dienen.
Mit geschätzten Werten für die Modellparameter aller Peaks wird die multiple Integration mit dem
VEGAS-Algorithmus nicht gebraucht. Die Posterior-Wahrscheinlichkeiten können somit berechnet
werden und eine quantitative Bewertung der Ergebnisse unterschiedlicher Peakzahlen für das gemessene
Spektrum liefern.
Die Online-Enzyklopädie Wikipedia kann für die Analyse der Beziehungen zwischen
Konzepten als wertvolle Datenquelle dienen. Aus ihren klar deffinierten Strukturen,
wie z.B. der baumartigen Kategorisierung, Weiterleitungen, Infoboxen und Links zwischen
Artikeln ergibt sich die Möglichkeit, ausgehend von einem bestimmten Konzept
eine Fülle enzyklopädischen Wissens zu extrahieren, das für viele Anwendungszwecke
in der medizinischen Informatik genutzt werden kann. Trotz der einfachen Verfügbarkeit
von Wikipedia-MySQL-Backups ist es weder besonders intuitiv noch effizient,
diese Beziehungen direkt aus diesen relationalen Datenbanken abzuleiten. Stattdessen
wäre ein weitaus intuitiverer Ansatz für die Datenanalyse, die genannten Strukturen
und ihre Beziehungen zueinander als Knoten und Kanten in einem Graphen abzubilden.
Ausgehend von einem bestehenden Wikipedia-Graph-API zielte diese Arbeit
darauf ab, ein effizientes System zu entwickeln, das Wikipediastrukturen aus einem
MySQL-Backup extrahiert, diese verarbeitet und in eine Graphdatenbank speichert.
Eine Analyse von Graphdatenbank-Managementsystemen im Rahmen dieser Arbeit
ergab, dass Neo4j für diesen Anwendungszweck optimal geeignet ist, da seine Anfragesprache
Cypher eine intuitive Möglichkeit darstellt, Graphdaten zu analysieren. Das
Ergebnis dieser Arbeit ist NeoWiki, ein System, das sowohl eine Möglichkeit zur Generierung
von strukturellen Wikipedia-Graphen bietet als auch als Java Library die
Arbeit mit den erstellten Graph-Entitäten als Java-Objekten unterstützt. Obgleich
derzeit noch Raum für Verbesserungen hinsichtlich der Performance bei der Graphgenerierung
besteht, stellt NeoWiki doch bereits jetzt ein Tool zur intuitiven Analyse
von Wikipedia-Daten dar.
Die heutige Software-Entwicklung ist davon geprägt, dass Anwendungen immer komplexer
und aufwändiger werden. Gleichzeitig steigen die Erwartungen der Kunden an
die Qualität der Software.
Für die Software-Entwickler ist die Telemetrie zu einem unverzichtbaren Werkzeug
geworden. Sie ist ein wesentlicher Baustein, um die Beobachbarkeit (Observability)
von Applikationen zu erhöhen und somit die Grundlage für eine bessere Qualität in
der Software Entwicklung. Hierbei ist zu analysieren, welche Bedeutung die Telemetrie
für den gesamten Software Development Life Cyle hat.
Der aktuelle Stand der Software-Telemetrie wird am Beispiel des Projektes OpenTelemetry
dargelegt.
OpenTelemetry hat sich zum Ziel gesetzt, die universelle Plattform für den Austausch
von Telemetriedaten zu werden.
Die Ergebnisse des Projektes OpenTelemetry werden analysiert und bewertet.
A considerable amount of research in the field of modern robotics deals with mobile agents and their autonomous operation in unstructured, dynamic, and unpredictable environments. Designing robust controllers that map sensory input to action in order to avoid obstacles remains a challenging task. Several biological concepts are amenable to autonomous navigation and reactive obstacle avoidance.
We present an overview of most noteworthy, elaborated, and interesting biologically-inspired approaches for solving the obstacle avoidance problem. We categorize these approaches into three groups: nature inspired optimization, reinforcement learning, and biorobotics. We emphasize the advantages and highlight potential drawbacks of each approach. We also identify the benefits of using biological principles in artificial intelligence in various research areas.
Background: Stroke rehabilitation is a complex process that requires collaboration between stroke patients
and various health professionals. One important component of the rehabilitation is to set goals collaboratively with health professionals. The goal setting process can be time-consuming. In many cases, it is complicated for the patient and difficult to track for the health professionals. A simple user interface that supports patients, their family members and health professionals can help both sides to make the goal setting and attainment process easier.
Objectives: The aim is to design and develop a software for the goal attainment process of stroke patients with milder disabilities that facilitates goal setting process and the traceability of the goal progress for patients and health professionals.
Methods: Based on previous evaluated results, the web interface was developed and improved. Using this knowledge, a goal setting interface was added. To analyze the the goal setting process, goal attainment scaling (GAS) was included as well as parts of the International Classification of Functioning, Disability and Health (ICF) core set for stroke. The results were discussed afterwards in focus groups and evaluated based on two stroke patients, one family member and health professionals.
Results: We developed an interactive prototype, that can aid the rehabilitation at home by inserting
problems with ICF codes and different kinds of goals, creating new activities and tracing goal progress by reviewing the different goals. With the help of the GAS the outcome of the patient’s goals are visualized by a line chart presenting the positive or negative outcomes of the stroke rehabilitation.
Conclusion: The interactive prototype showed that it can support stroke patients during their rehabilitation
at home. A usability test indicated that the goal setting and attainment process was perceived as useful for patients and their family members. Small improvements have to be made to simplify use and error handling. For health professionals, the prototype could also simplify the documentation process by using ICF in the prototype, and also improving collaboration when using the tool for coordination.