Refine
Year of publication
Document Type
- Bachelor Thesis (50)
- Master's Thesis (43)
- Other (12)
- Doctoral Thesis (2)
- Course Material (1)
- Diploma Thesis (1)
Language
- German (109) (remove)
Has Fulltext
- yes (109)
Is part of the Bibliography
- no (109)
Keywords
- Analyse (19)
- Reise (11)
- Entwicklung (10)
- Urlaub (10)
- Implementierung (8)
- Konzeption (7)
- Software (6)
- Evaluation (5)
- Strahlentherapie (5)
- Ultraschall (5)
Institute
- Medizinische Informatik (58)
- Informatik (31)
- Bibliothek allgemein (13)
- Bibliothek (2)
- Mechanik und Elektronik (2)
- Elektrotechnik und Informationstechnik (1)
Mit der Entdeckung der Röntgenstrahlen im Jahre 1895 begründete Wilhelm Conrad Röntgen die medizinische Bildgebung. Diese ermöglichte erstmals, zu diagnostischen oder therapeutischen Zwecken einen Blick in das Innere des Menschen zu werfen, ohne dass sich dieser einer unter Umständen riskanten Operation unterziehen musste. Die Röntgentechnik gestattet allerdings nur die Projektion anatomischer Strukturen auf ein zweidimensionales Bild. Erst die Erweiterung der Bildgebung auf tomographische Verfahren, wie der Computer und Magnetresonanztomographie, erlaubte es, kontrastreiche, überlagerungsfreie 3D Schichtbilder zu erzeugen [13, S. 1]. Weitere Unterstützung hat die medizinische Bildgebung durch die Computertechnik erfahren, die eine digitale Nachbearbeitung der Bilder oder oft auch eine umfassende Bildanalyse ermöglicht. Im Zuge der technischen Weiterentwicklung kommen immer leistungsfähigere Computer zum Einsatz. Daher ist es nicht verwunderlich, dass medizinische Bilder heute hauptsächlich digital gespeichert, verschickt und bearbeitet werden. Auch entwickeln sich die bildgebenden Modalitäten weiter, was zu immer höher aufgelösten Bildern führt, in denen immer feinere Strukturen erkennbar sind. Simultan bedeutet das, dass für immer größere Datenmengen eine digitale Bearbeitung am Computer bewerkstelligt werden muss. Es ist deshalb ein zentrales Anliegen, effziente bildverarbeitende Algorithmen zu entwickeln.
3D-Ultraschall beim MITK
(2017)
In dieser Bachelorthesis wird ein Frei-Hand-3D-Ultraschallsystem entwickelt. Dieses
soll 3D-Ultraschallbildgebung im MITK ermöglichen. Basis hierfür sind ein konventionelles
2D-Ultraschallgerät und ein optisches Trackingsystem. Die nötigen Teilschritte
werden erläutert und beschrieben.
Ergebnis ist ein Plugin für das MITK, das aus aufgenommenen 2D-Ultraschallbildern
ein 3D-Volumen berechnet.
Ziel dieser Bachelorthesis ist es, den Datenbestand des Klinischen Krebsregisters am
Tumorzentrum Heilbronn-Franken auf seine Vollständigkeit, Vollzähligkeit und seine
Repräsentativität zu untersuchen.
Diese werden am Beispiel des Kolorektalen Karzinoms untersucht.
Folgende Fragen lassen sich formulieren:
• Lassen sich mit den in einem einrichtungsbezogenen klinischen Krebsregister, wie
dem am Gesundbrunnen Heilbronn, erhobene regionale Daten ggfs. überregionale und
eventuell sogar bundesweite Aussagen ableiten?
• Sind die erfassten Daten vollständig bzw. wie vollständig sind die Datenbestände der
registrierten Patienten?
• Sind die erfassten Daten im Tumorzentrum Heilbronn-Franken am Gesundbrunnen
Heilbronn vollzählig? Werden im Klinischen Krebsregister der SLK-Kliniken alle
Neuerkrankungen erfasst?
Wird bei einem Patienten mit Kolorektalkarzinom der Tumor erfolgreich entfernt, beginnt die Nachsorgephase. Der Nachsorgeplan, welchen die Patienten bei der
Entlassung erhalten, orientiert sich an der S3-Leitlinie des Leitlinienprogramms für Onkologie. Der Patient kann selbst entscheiden, wo die Nachsorge stattfinden wird. Entweder lässt er seine Nachsorgeuntersuchungen in der Klinik durchführen (klinikinterne Nachsorge) oder er sucht einen niedergelassenen Onkologen auf (klinikexterne Nachsorge). Gegenstand dieser Arbeit ist die Analyse der klinikinternen und
-externen Nachsorge in Bezug auf die Einhaltung der S3-Leitlinie. Ziel ist es, festzustellen, ob anhand der erhobenen Daten Rückschlüsse auf die Leitlinientreue in Bezug auf die Nachsorge der Patienten gezogen werden kann. Im Rahmen dieser Thesis werden Patienten mit einem UICC-Stadium II oder III und einem Diagnosedatum zwischen 2009 und 2013 betrachtet. Basierend auf den Kriterien wurden 562 Datensätze aus dem GTDS exportiert. Nach anschließendem Bearbeiten und Aussortieren wurden 426 Patienten analysiert. Im seit 2001 in Heilbronn eingesetzten Gießener Tumordokumentationssystem (GTDS) werden die Falldaten der Tumorpatienten dokumentiert und gespeichert. Die Verlaufsdaten der
TNM-Dokumentation werden mindestens einmal jährlich zu den Patienten erhoben. Diese Daten werden analysiert, um die Leitlinientreue zu überprüfen.
Der Vergleich zwischen S3-Leitlinie und vorgenommenen Untersuchungen kann sich aufgrund lokaler Dokumentationspraxis nur auf den zeitlichen Ablauf der Untersuchungstermine beschränken, da im GTDS keinerlei Informationen zu der Art der vorgenommenen Untersuchung vorliegen. Um die zeitlichen Abläufe zu analysieren, werden aus den vorliegenden Datumswerten für jeden Patient ein Pfad bestehend aus Zuständen (Tumorfreiheit, Untersuchung 1, etc.) gebildet. Die Übergangswahrscheinlichkeiten
stellen einen Indikator für die Termintreue der Patienten dar. Es wurden 146 Patienten klinikintern und 149 Patienten klinikextern behandelt. 131 Patienten erhielten eine gemischte Nachsorge. Zusammenfassend lässt sich sagen, dass die Informationen aus dem GTDS nicht ausreichen, um eine Leitlinienkonformität der Nachsorge von Kolorektalkarzinompatienten nachzuweisen, da im GTDS ausschließlich der Tumorverlauf dokumentiert wird, aber nicht, wie sich die Nachsorge im Speziellen gestaltet.
Der Zuwachs medizinischen Wissens ist gewaltig, man spricht von einer Verdopplung in unter 10 Jahren[01], dies macht die Analyse historischer Daten zwingend erforderlich. Um dieses Wissen zu beherrschen werden Datenbanken benötigt, in denen man Krankheits- und Therapieverläufe ablegen kann, um diese dann anschließend unter unterschiedlichsten Anforderungen zu analysieren. Im Falle der Krebstherapie gibt es hierfür sogenannte Krebsregister. Hier werden anonymisierte Daten der Patienten gespeichert, wie zum Beispiel der Verlauf der Krankheit und die Therapie. Ziel ist es, dass alle Krebsfälle in irgendeinem Krebsregister gehalten werden. Dies soll zu einer Verbesserung der medizinischen Leistung am Patienten, sowie der Sicherstellung, dass Patienten überall mit neuesten Therapietechniken und Leistungen versorgt werden, führen. Leider werden die Informationen in den Krebsregistern viel zu wenig genutzt, da viele Ärzte und Wissenschaftler oft nicht Ausreichend vertiefte Kenntnisse in Informationstechnologie und/oder Statistik haben. Diese Tatsache macht es für sie schwierig die riesigen Datenmengen, die vorhanden sind, richtig zu analysieren. Um dieses Problem zu beheben kann man nun in regelmäßigen Abständen einen Statistiker beauftragen, der solche Analysen durchführt. Oft haben Ärzte aber statistisch wenig anspruchsvolle Anfragen oder es fällt ihnen erst auf, nachdem der Statistiker wieder gegangen ist. Solange es also eine solche Schwierigkeit darstellt, die Daten richtig zu analysieren, sind die Krebsregister ein Datenfriedhof, deren riesiges Potential nicht ausgenutzt wird. Dieser Zustand ist sowohl für Patienten, als auch für die Ärzte, nicht zufriedenstellend und bedarf dringend einer Änderung. Die Ziele sind: 1. Eine Analyse einer Software zur statistischen Auswertung von Daten aus einem Krebsregister (OCDM-Software), sowohl im Bezug auf ihre Software-Architektur, als auch auf ihre Funktion. 2. Das Erstellen einer Anforderungsanalyse, welche die Erweiterungen beschreibt, die an der oben erwähnten OCDM-Software vorzunehmen sind. 3. Die Umsetzung dieser Anforderungsanalyse in die bestehende Anwendung. 4. Ein abschließender Systemtest der Anwendung, um einen reibungslosen Ablauf im Klinikalltag zu gewährleisten. Ziel der Erweiterung ist es, den Ärzten die Analyse der gesammelten Patientendaten zum Pankreaskarzinom zu vereinfachen und somit die medizinische Betreuung in der Klinik zu verbessern.
Die Popularität der drahtlosen Datenübertragung wächst, seit dem der Standard 802.11 im Jahr 1997 vom Institute of Electrical and Electronics Engineers (IEEE) für die private Nutzung ausgegeben wurde, stetig an. Hierbei beschränken sich die meisten Anwendungen auf das Wesentliche: die Übertragung von Nutzdaten zwischen einem Access Point und verschiedenen Endgeräten. Der konventionelle Weg der Datenverarbeitung in drahtlosen Netzwerk-Modulen sieht vor, dass zunächst digitale Daten in analogen Verfahren moduliert werden. Nach der Übertragung als elektromagnetische Welle, werden die analogen Daten wieder von eingebetteten Systemen in einen digitalen Datenstrom übersetzt und zum Weiterverarbeiten weitergereicht. Durch die steigende Rechenleistung von Computern gibt es auch andere Wege der Übertragung. Mit der Idee, den Datenstrom nicht analog weiterzuverarbeiten, sondern ihn in digitaler Form zu modulieren oder zu demodulieren entstanden die ersten ‚Software-Radios‘. Zu Beginn der drahtlosen Ära wurden Software-Radios zum Beispiel dazu genutzt, um Sicherheitslücken in Wi-Fi Übertragungen zu finden. Heutzutage finden Software-Radios immer mehr Anwendungen in wissenschaftlichen Bereichen abseits der üblichen Datenübertragung. Als alternative Vorreiter gelten die Arbeiten der Universität Washington „Whole-Home Gesture Recognition Using Wireless Signals“ (Quifan et al., 2013a) und die des Massachusetts Institute of Technology „See Through Walls with Wi-Fi“ (Adib F. and Katabi D., 2013). Die erst genannte Anwendung beruht auf der Theorie des Doppler-Effekts für elektromagnetische Wellen und zeigt auf, dass es möglich ist, die Übertragungsverfahren des IEEE 802.11 zu überwachen und Bewegungen nahe den Antennen zu erfassen. Die Zweite zeigt auf, dass ähnliche Ergebnisse auch ohne den Doppler-Effekt sondern nur durch die gemessenen Reflexionen von Signalen erreicht werden können. Die Möglichkeiten dieser Techniken reichen von einer Gestensteuerung, die ohne zusätzliche Sensoren am Menschen auskommt, bis zum Visualisieren von Bewegungen hinter Wänden.
Der Gegenstand der vorliegenden Arbeit ist grundliegende Problematiken der Detektion des Doppler-Effekts in digitalen Modulationen aufzuzeigen. Hierfür werden Grundlagen der Empfangstechnik erläutert. Weiterhin wird der Einsatz aktueller Grafikkarten in Software-Radios zur Detektion des Doppler-Effekts untersucht.
In der Kernresonanzspektroskopie, wie auch in anderen spektroskopischen Disziplinen, unterliegt die
Genauigkeit und Vollständigkeit eines Spektrums den verschiedenen Einstellungen des Messgeräts
sowie dem verwendeten Gerätetypen. Um das gemessene Spektrum besser analysieren zu können,
wird versucht, es an die Realität anzunähern. Eine allgemeine Annahme dazu ist, dass mehrere, sich
teilweise überlagernde Peaks das Spektrum bilden. Alle Peaks verlaufen dabei gemäß einer Funktion,
deren Modellparameterwerte variieren.
Es gibt verschiedene Ansätze zur Bestimmung des Spektrums, zum Beispiel die Modellanpassung und
die Maximum-Entropie-Methode. Eine große, gegen Unendlich strebende Anzahl an Peaks scheint
die gemessenen Spektrumdaten am besten nachzubilden. Dies ist jedoch wenig naturgetreu.
In dieser Arbeit gehe ich dem Bayes’schen Ansatz zur Datenanalyse nach, um die Peakanzahl auszumachen,
für die die größte Wahrscheinlichkeit in den Messdaten liegt.
Während meiner Diplomarbeit hat sich die anfängliche Annahme, dass die Peaks nach der Lorentz-
Funktion geformt sind, revidiert. Letztendlich habe ich versucht, die Bestimmung der Peakanzahl mit
Peaks in Form des Pseudo-Voigt-Profils durchzuführen.
Für die Berechnung der Posterior-Wahrscheinlichkeit einer Peakanzahl war es nötig, ein multiples
Integral zu lösen. Dieses entstand durch die Marginalisierung einiger Störparameter.
Ein Ziel dieser Diplomarbeit war es, das multidimensionale Integral numerisch zu berechnen. Umgesetzt
werden sollte dies mit dem VEGAS-Algorithmus, der das Monte-Carlo-Verfahren zur Integration
verwendet. Ich habe den Algorithmus und die Anwendungen der Arbeit in Matlab implementiert.
Um die Integration mit dem VEGAS-Algorithmus zu testen, habe ich eine Beispielanwendung zur
Integration unterschiedlich dimensionaler Rosenbrock-Funktionen durchgeführt.
Die Anwendung zur Bestimmung der Peakanzahl in einem Spektrum habe ich zunächst für simulierte
Daten mit zwei unterschiedlichen Formeln der Lorentzfunktion umgesetzt.
Die erste Lorentzfunktion enthält zwei Modellparameter, die Lage der Amplitude und die Halbwertsbreite,
und ist zu eins normiert. Bei ihr ist die Amplitude abhängig von der Halbwertsbreite.
Die zweite Formel besteht aus drei unabhängigen Modellparametern: der Amplitude, ihrer Lage und
der Halbwertsbreite. Damit ist sie für die Auswertung realer Messdaten geeigneter als die vorherige
normierte Lorentzfunktion.
Bei der Anwendung mit simulierten Daten mit drei Modellparametern sowie mit gemessenen Daten
und dem Modell des Pseudo-Voigt-Profils konnte die Anzahl der Peaks nicht bestimmt werden.
Die Schwierigkeit der Bestimmung der Peakanzahl mit dem VEGAS-Algorithmus lag anscheinend
bei der Integration über die Amplitude. Zur Klärung des Problems habe ich die Anwendung mit
dem Pseudo-Voigt-Profil und den realen Messdaten über einen anderen Lösungsweg zur numerischen
Integration, mit einer Likelihood-Matrix, untersucht.
Dadurch kam die Vermutung auf, dass die Diskretisierung in y-Richtung durch das Importance
Sampling des VEGAS-Algorithmus nicht konform mit der Messpunktverteilung ist. Ich habe versucht
über eine Präzisionsanpassung der Amplitudenstützwerte das Problem zu lösen, was teilweise gelang.
Die in dieser Arbeit erstellte Anwendung kann zur Plausibilitätsprüfung von Ergebnissen anderer
Bayes’ basierter Verfahren zur Peakanzahlbestimmung dienen.
Mit geschätzten Werten für die Modellparameter aller Peaks wird die multiple Integration mit dem
VEGAS-Algorithmus nicht gebraucht. Die Posterior-Wahrscheinlichkeiten können somit berechnet
werden und eine quantitative Bewertung der Ergebnisse unterschiedlicher Peakzahlen für das gemessene
Spektrum liefern.
Behandlungen von Tumoren zielen in erster Linie auf eine Verlängerung der Überlebenszeit des Patienten ab. Es ist für Ärzte eine Hilfe, wenn zu Beginn der Behandlung die voraussichtliche Überlebenszeit abgeschätzt werden kann. Dies geschieht aktuell oftmals mit Hilfe einer manuellen Einteilung in Risikoklassen. Für diese sind aus Erfahrungswerten typische Überlebenszeiten bekannt. In Zeiten der zunehmenden Digitalisierung ist es nur logisch den Versuch zu starten, die Klassifizierung automatisch vorzunehmen. In dieser explorativen Grundlagenarbeit werden zwei Data Mining–Verfahren — namentlich „naiver Bayes Klassifikator“ und „k–means Clustering“ — auf ihre Fähigkeit bezüglich der Überlebenszeitprognose hin untersucht. Dazu werden verschiedene Feature Selection Verfahren (Information Gain, Expertenselektion, Forward Selection, Backward Elimination und No Selection) getestet. Nach dem k–means Clustering können Kaplan–Meier–Kurven der einzelnen Cluster gezeichnet werden. Aus diesen kann eine Prognose der Überlebenszeit abgelesen werden. Der naive Bayes Klassifikator errechnet nach einer (äquifrequenten oder äquidistanten) Diskretisierung der Überlebenszeit für jeden Patienten individuell eine Überlebens–Wahrscheinlichkeits Verteilung. Das Training der Data Mining–Verfahren erfolgte auf der Basis von Datensätzen kolorektaler Tumorpatienten des Tumorregisters des Tumorzentrums Heilbronn–Franken.
This thesis examines the new major concepts for communicating radiotherapy-related data with DICOM, introduced in Supplement 147. As the existing DICOM information objects, used to transfer radiotherapy-related information, are mostly overloaded and static, new concepts to describe this data are developed at the moment in Supplement 147. These concepts facilitate a more convenient representation of new treatment devices and treatment techniques in DICOM and solve other issues with first-generation DICOM RT objects. Hence Supplement 147 is replacing the entire working concept strategy for a complete domain, and the supplement itself is extensive in comparison to other supplements, an overview whether all these concepts work together just by examining them on a drawing board is hardly possible. Therefore, this thesis investigates the information separation into different Information Object Definitions (IODs), the new radiation prescription object and the new concept to enable abstract access to volumetric objects, which are considered to be the major conceptual changes.