The 20 most recently published documents
In this bachelor thesis, different models for predicting the influenza virus are
examined in more detail.
The focus is on epidemiological compartmental models, as well as on different
Machine Learning approaches.
In particular, the basics chapter presents the SIR model and its various extensions.
Furthermore, Deep Learning and Social Network approaches are
investigated and the applied methods of a selected article are analysed in more
detail.
The practical part of this work consists in the implementation of a Multiple
Linear Regression model and an Artificial Neural Network. For the development
of both models the programming language Python was chosen using the
Deep Learning Framework Keras.
Tests were performed with real data from the Réseau Sentinelles, a French
organisation for monitoring national health.
The results of the tests show that the Neural Network is able to make better
predictions than the Multiple Linear Regression model.
The discussion shows ideas for improving influenza prediction including the
establishment of a worldwide collaboration between the surveillance centres as
well as the consolidation of historical data with real-time social media data.
Therefore, this work consists of a state-of-the art of models regarding the
spread of influenza virus, the development and comparison of several models
programmed in Python, evaluated on real data.
Alzheimer’s Disease affects millions of people worldwide, but till today, the gold standard
for definitive diagnosis of this disease is a biopsy. Nevertheless, with the progress
of the disease, a volume loss in the Hippocampus can be observed. Therefore, good
segmentation methods are crucial to facilitate quantification of this loss.
The focus of this work is on the development of a Machine Learning algorithm, more
precisely a Generative Adversarial Network, for the automated segmentation of the
human Hippocampus and its substructures in Magnetic Resonance Images. In particular,
the task is to determine if the integration of a pre-trained network that generates
segmentations into a Generative Adversarial Network scheme can improve generated
segmentations. In this context, a segmentation network in form of a U-net corresponds
to the generator. The discriminator is developed separately and merged in a second
step with the generator for combined training.
With a literature review regarding the automated segmentation of the Hippocampus,
current methods in this field and their medical and technological basics were identified.
The datasets were preprocessed to make them suitable for the use in a neural
network. In the training process, the generator was trained first until convergence.
Then, the Generative Adversarial Network including the pre-trained generator was
trained. The outcomes were evaluated via cross-validation in two different datasets
(Kulaga-Yoskovitz and Winterburn). The Generative Adversarial Network scheme
was tested regarding different architectural and training aspects, including the usage
of skip-connections and a combined loss function.
The best results were achieved in the Kulaga-Yoskovitz dataset with a Dice coefficient
of 90.84 % after the combined training of generator and discriminator with a joined
loss function. This improves the current state of the art method in the same task and
dataset with a Dice index of 88.79 % by Romero [Rom17]. Except of two cases in the
Winterburn dataset, the proposed combined method could always improve the Dice
results after the training of only the generator, even though only by a small amount.
Virtuelle und reale Objekte als natürliche Bewegungsgrenzen in der Virtual Reality Exposure Therapy
(2019)
Zur Behandlung von Angststörungen – welche mit zu den häufigsten psychischen Erkrankungen in Deutschland gehören – bietet die klassische Expositionstherapie gute Erfolgsaussichten [1]. In den letzten Jahren entwickelte sich die Virtual Reality Exposure Therapy (VRET), welche eine interessante Alternative darstellt. Eine Studie zeigte 2013 die Effektivität einer VRET [2]. Problematisch ist allerdings die Lokomotion in psychotherapeutischen Praxen mit geringem Raumangebot. Gängige Sicherheitssysteme zur Kollisionsvermeidung wie Lighthouse‘s Chaperone [3] [4] oder Occulus Guardian [5] zeigen bei Annäherung an die Grenzen des sicheren Bereiches eine auffällige optische Warnung an. Dies kann jedoch bei den Benutzern zu unerwünschten Präsenzeinbrüchen (breaks in presence) führen.
Simeone et al. [6] konnten nachweisen, dass in einer virtuellen Umgebung rein virtuelle Gegenstände oder Wände von den Benutzern als real wahrgenommen und umgangen werden. Dieser Effekt liess sich durch zusätzliche reale Gegenstände im Raum noch verstärken.
In dieser Masterarbeit wurde untersucht, ob sich die Ergebnisse von Simeone et al. [6] auch auf die Anwendung der VRET übertragen lassen.
Dazu wurde eine Studie mit 2 Gruppen zu je 12 Probanden durchgeführt. Alle hielten 2 Vorträge in einer virtuellen Umgebung, je einen Vortrag mit Avatar und einen ohne. Während eine Gruppe sich in einer virtuellen Umgebung mit ausschliesslich virtuellen Objekten bewegte, waren in der anderen Gruppe zusätzlich reale Gegenstände vorhanden.
In der vorliegenden Masterarbeit konnte gezeigt werden, dass die Ergebnisse von Simeone et al. [6] auch für VRET Anwendungen gültig sind. Virtuelle Objekte werden auch von Patienten eines VRET Systems als Begrenzungen akzeptiert. Zudem lassen sich physische Objekte in die virtuelle Umgebung integrieren, ohne dass es zu Kollisionen mit den Benutzern kommt oder die Benutzer eine erhöhte Angst vor Kollisionen haben. Obwohl das Vorhandensein eines Avatars in der durchgeführten Studie keinen Einfluss auf die Ergebnisse hatte, wünschen sich die Benutzer einen Avatar in der VR.
Der sichere Aufenthaltsbereich kann also bereits in der virtuellen Umgebung durch virtuelle Objekte abgegrenzt werden, wodurch - zugunsten der Vermeidung von Präsenzeinbrüchen - auf ein System wie Lighthouse`s Chaperone [3] [4] verzichtet werden kann. Ausserdem müssen reale Gegenstände nicht aus dem Bewegungsbereich der Benutzer ausgeschlossen werden, sondern lassen sich in die virtuelle Umgebung integrieren. Dies stellt eine praktikable Möglichkeit dar, den für VRET nutzbaren Raum in psychotherapeutischen Einrichtungen zu optimieren. Somit stellt die VRET eine echte Alternative zur klassischen Expositionstherapie dar.
Medical imaging produces many images every day in clinical routine. Keeping up with the
daily image analysis task and this vast amount of data is quite a challenge for radiologists.
However, these analysis tasks can be automated with well-proven automatic segmentation
methods. Segmentation reviewing of an expert is necessary because learningbased
automatic segmentation methods may not perform well on exceptional image
data. Creating valid segmentations by reviewing them also improve the learning-based
methods.
Combining established standards with modern technologies creates a flexible environment
to efficiently evaluate multiple segmentation algorithm outputs based on different metrics
and visualizations and report these analysis results back to a clinical system environment.
The presented software system can inspect such quantitative results in a fast and intuitive
way, potentially improving the daily repetitive segmentation review and rework of a
research radiologist. The presented system is designed to be integrated into a virtual
distributed computing environment with other systems and analysis methods. Critical
factors for this particular environment are the handling of many patient data and routine
automated analysis with state of the art technology.
First experiments show that the time to review automatic segmentation results can be
roughly divided in half while the confidence of the radiologist is enhanced. The system
is also able to highlight individual slices which are essential for the expert’s review
decision. For this highlighting, different metric scores are compared and evaluated.
Aufgrund der unterschiedlichen Wiederbelebungsabläufe zwischen Erwachsenen
und Kindern, müssen bei der Reanimation eines Kindes andere Behandlungsmaßnahmen
durchgeführt werden. So müssen z.B. Medikamente anders dosiert werden.
Hinzu kommt, dass eine Reanimation an einem Kind nur selten durchgeführt wird.
Dadurch sind Mediziner mit einer Wiederbelebungsmaßnahmen an Kindern aufgrund
mangelnden Routine unsicher bzw. führen falsche Behandlungsmaßnahmen
durch. Zwar sind bereits Leitlinien in digitaler Ausführung vorhanden, jedoch
werden diese in einer für eine Reanimation ungeeigneten Form ausgegeben und
können so nur schlecht in einer Wiederbelebungsmaßnahme genutzt werden. Um
Behandlungsfehler zu minimieren wird in dieser Arbeit untersucht, ob eine Datenbrille
zur Darstellung der Leitlinien verwendet werden und der Mediziner diese
mittels Sprachkommandos steuern kann. Um die Qualität der Sprachsteuerung im
Umgang mit den Leitlinien festzustellen, wurde eine Evaluation dieser durchgeführt.
Dafür wurden die Anwendung mit zehn Personen getestet. Diese ergab, dass
die Nutzung der Sprachsteuerung durch Auswahl geeigneter Sprachkommandos
sowohl bei Zimmerlautstärke, als auch bei Straßenlärm möglich war. Somit ist die
Steuerung einer Datenbrille mit Sprachkommandos in einer Reanimation denkbar,
um den Mediziner durch Informationen zu unterstützen .
Gegenstand der hier vorgestellten Arbeit ist ein Konzept zum Lehren von Ontologie in der Informatik, des Ontologiemanagementsystems Protégé und des Wissensverwal-tungssytems ProKEt. Dies geschieht in Form von Präsentationen, welche mit Hilfe von PowerPoint erstellt wurden. Dabei wird auf die Installation, die Basics, Kernkonzepte und die Teilwissensbasen im Detail eingegangen. Diese Präsentationen sollen ein alter-natives Konzept für den Unterricht darstellen, um die Lernenden aktiv zu beteiligen, und stellen ein Angebot zum Lehren der entsprechenden Thematiken dar. Zur Überprüfung der Effizienz wird eine Evaluation durchgeführt.
Die Online-Enzyklopädie Wikipedia kann für die Analyse der Beziehungen zwischen
Konzepten als wertvolle Datenquelle dienen. Aus ihren klar deffinierten Strukturen,
wie z.B. der baumartigen Kategorisierung, Weiterleitungen, Infoboxen und Links zwischen
Artikeln ergibt sich die Möglichkeit, ausgehend von einem bestimmten Konzept
eine Fülle enzyklopädischen Wissens zu extrahieren, das für viele Anwendungszwecke
in der medizinischen Informatik genutzt werden kann. Trotz der einfachen Verfügbarkeit
von Wikipedia-MySQL-Backups ist es weder besonders intuitiv noch effizient,
diese Beziehungen direkt aus diesen relationalen Datenbanken abzuleiten. Stattdessen
wäre ein weitaus intuitiverer Ansatz für die Datenanalyse, die genannten Strukturen
und ihre Beziehungen zueinander als Knoten und Kanten in einem Graphen abzubilden.
Ausgehend von einem bestehenden Wikipedia-Graph-API zielte diese Arbeit
darauf ab, ein effizientes System zu entwickeln, das Wikipediastrukturen aus einem
MySQL-Backup extrahiert, diese verarbeitet und in eine Graphdatenbank speichert.
Eine Analyse von Graphdatenbank-Managementsystemen im Rahmen dieser Arbeit
ergab, dass Neo4j für diesen Anwendungszweck optimal geeignet ist, da seine Anfragesprache
Cypher eine intuitive Möglichkeit darstellt, Graphdaten zu analysieren. Das
Ergebnis dieser Arbeit ist NeoWiki, ein System, das sowohl eine Möglichkeit zur Generierung
von strukturellen Wikipedia-Graphen bietet als auch als Java Library die
Arbeit mit den erstellten Graph-Entitäten als Java-Objekten unterstützt. Obgleich
derzeit noch Raum für Verbesserungen hinsichtlich der Performance bei der Graphgenerierung
besteht, stellt NeoWiki doch bereits jetzt ein Tool zur intuitiven Analyse
von Wikipedia-Daten dar.
Konzeption und Entwicklung einer robotergestützten und ultraschallbasierten Lokalisationskontrolle
(2018)
Mit Hilfe der Image Guided Therapy wird versucht die Bestrahlung von Tumoren mittels
Bildgebung zu verbessern und die Nebenwirkungen durch die Bestrahlung für den
Patienten zu minimieren. Diese Arbeit verfolgt den Ansatz Ultraschall als echtzeitfähige
Bildverarbeitungsmodalität zu nutzen und darüber eine Lokalisationskontrolle
von Tumoren während der Bestrahlung zu ermöglichen.
Ziel dieser Arbeit war die Entwicklung und Implementierung eines Gesamtkonzeptes
zur ultraschallbasierten und robotergestützten Lokalisationskontrolle. Ergebnis der
Arbeit ist eine auf dem medizinischen Bildverarbeitungsprogramm MITK basierte Applikation.
Diese erlaubt es ein 2D Ultraschallbild über ein Tracking-System oder den
Roboter zu referenzieren und mit registrierten Planungsdaten überlagert darzustellen.
Die Darstellung ist dabei in quasi Echtzeit sowohl in 2D als auch in 3D möglich. Zur
Registrierung wurde ein optisches Tracking-System verwendet, welches über einen eigens
neu entwickelten Filter mit dem Roboter verknüpft werden kann. Weiter lässt
sich aus der Applikation heraus der Roboter steuern und es können automatisierte
Scanverfahren genutzt werden, um mit Hilfe eines 2D Ultraschallkopfes ein 3D Ultraschallbild
zu erstellen. Die Anwendung knüpft an bestehenden Funktionen an und
erlaubt es künftigen Nutzern die neu erstellten Komponenten auch getrennt voneinander
weiter zu verwenden. Dazu gehören Filter für die Zuordnung der Ultraschallbilder,
sowie ein Filter zum Kombinieren von verschiedenen Tracking-Systemen, als auch die
Möglichkeit den Roboter zu nutzen.
Dynamische Feldschwächung bei am einphasigen Netz betriebenen EC-Motoren mit schlankem Zwischenkreis
(2017)
Die vorliegende Arbeit beschäftigt sich mit dem Betrieb von einphasig gespeisten ECLüftermotoren
mit schlankem Zwischenkreis. Beim einphasigen Industrienetz besteht das
Problem, dass im Lüftermotor aufgrund der bis auf null Volt pulsierenden Zwischenkreisspannung
ein Luftspaltdrehmoment mit hohem Anteil an Oberschwingungen auftritt. Um
dies zu vermeiden, müssen in der Praxis diskrete Speicherelemente wie
Elektrolytkondensatoren und Eisenkerndrosseln als Energiespeicher in den Zwischenkreis
des Umrichters eingebaut werden. In der vorliegenden Arbeit wird ein neuartiges Verfahren
vorgestellt, welches ein nahezu konstantes Luftspaltdrehmoment bei einphasig gespeisten
EC-Lüftermotoren mit schlankem Zwischenkreis gewährleistet. Mit dem Verfahren, der so
genannten dynamischen Feldschwächung, können die bislang erforderlichen Energiespeicher
wie Spulen und Elektrolytkondensatoren ersetzt werden.
Zur Herleitung des Verfahrens der dynamischen Feldschwächung sind auf der Basis eines
sättigungsfrei und damit linear arbeitenden Lüftermotors die notwendigen mathematischen
Grundgleichungen entwickelt worden. Der Ansatz eines sättigungsfrei arbeitenden
Lüftermotors erlaubt die einfache Umsetzung einer Konstruktionsvorschrift für einen speziell
auf das Verfahren abgestimmten Motor auf Basis der regelungstechnisch relevanten
Motorparameter. Mithilfe eines nichtlinearen Kalman-Filters zur automatischen Bestimmung
der regelungstechnischen Motorparameter wird dann der gebaute sättigungsfrei arbeitende
Lüftermotor auf einem Prüfstand vermessen. Dabei hat sich gezeigt, dass das Verfahren der
dynamischen Feldschwächung eine gute Übereinstimmung zwischen den analytischen und
den simulierten Ergebnissen liefert.
Das Verfahren der dynamischen Feldschwächung kommt bei einer mittleren Motorleistung
von etwa P123 = 200 W und einem Wirkungsgrad von ca. η = 80 % mit einer sehr kleinen
Zwischenkreiskapazität von Czk = 14 μF aus. Im Vergleich dazu benötigt ein Serienlüftermotor
eine Zwischenkreiskapazität von Czk = 204 μF.
Das Ziel dieser Bachelorarbeit war es, ein Programm zu entwickeln, welches die doppelte
Lichtbrechung und die Reflexion eines Laserstrahls berechnen kann. Hierbei wird zuerst auf
die physikalischen Grundlagen eingegangen. Anschließend wird das dazu verwendete Programm
mit dem Algorithmus inklusive den Berechnungen vorgestellt. Das Programm kann
die doppelte Lichtbrechung und auch die Reflexion eines Laserstrahls berechnen und zusätzlich
bestimmen, ob der Laserstrahl gebrochen oder total reflektiert wird. Die Prüfung dafür,
erfolgt über den Größenvergleich zwischen dem Einfallswinkel und dem kritischen Winkel.
Der Algorithmus ist für beliebige Laserstrahlen unter Berücksichtigung der Brechungsindexe
geeignet.
Im Mittelpunkt dieser Arbeit steht die Entwicklung eines Verfahrens für das Erzeugen
von möglichst realitätsnahen Telepräsenzsimulationen für die Information von Patienten
in der Strahlentherapie sowie die Anwendung des Verfahrens in der Entwicklung
einer VR-Applikation auf Basis eines Demonstrators.
Nach einer Literaturrecherche bezüglich des aktuellen Stands der Aufklärung von Patienten
wurden die Grundlagen von Virtual und Augmented Reality hinsichtlich der
gegebenen Hardware ermittelt. Hierauf folgte die Auswahl von Software für das Scannen
von realen Objekten mit dem gegebenen Tablet in einem Bestrahlungsraum des
DKFZ sowie die Auswahl einer Game Engine für die Entwicklung des Demonstrators.
Daraufhin wurde ein Rekonstruktionsalgorithmus ausgewählt. Anschließend wurden
verschiedene Objekte im Bestrahlungsraum gescannt, sodass die Parameter des Algorithmus
iterativ hinsichtlich der Qualität der erzeugten Objekte für den Einsatz in
einer VR-Anwendung optimiert werden konnten. Daraufhin erfolgte eine Texturierung
der Oberfläche mit Kamerafotos. Nach einer Aufbereitung der Modelle wurden diese
in ein Virtual Environment importiert. Parallel dazu wurde nach der Auswahl der Unreal
Engine als Game Engine, der Demonstrator entwickelt, in welchen die gescannten
Modelle integriert wurden.
Das Verfahren liefert ausreichend genaue Ergebnisse, um Konzepte in der Strahlentherapieaufklärung
vermitteln zu können. Der Effekt und die Akzeptanz der Technik
spielen eine weitere wichtige Rolle für den Einsatz der Methodik und müssen durch eine
Evaluation im klinischen Alltag validiert werden, wofür die Entwicklung einer klinisch
anwendbaren Software auf Basis der gewonnenen Erkenntnisse notwendig wird.
Spinodal Zr0.4Hf0.6Ni1.15Sn half-Heusler thermoelectrics are synthesized and aged. The complex microstructure due to the spinodal decomposition is investigated by powder X-ray diffraction (XRD), scanning electron microscope (SEM) and transmission electron microscope (TEM). By Rietveld refinements, it is confirmed that excess Ni atoms in the arc-melted and spark-plasma-sintered half-Heusler matrix prefer to form nanoscale/ submicron Heusler precipitates via spinodal decomposition and growth during the aging at 1173 K. Such phase separation changes the band gap of semiconductors, reduces the thermal conductivity drastically and improves the performance of thermoelectrics. As a result, a more than 50 % improvement of the ZT value on the unaged specimens was achieved.
Im Rahmen der sich ausbreitenden Digitalisierung ist die Forderung nach mehr Bandbreite in
aller Munde. Das Schlagwort ist allerdings ein umgangssprachlicher Begriff, welcher nicht
korrekt verwendet wird. Gemeint ist dabei vielmehr die Übertragungsrate. Bandbreite
beschreibt im eigentlichen Sinn den Frequenzumfang, für den ein System ausgelegt wurde. Die
Übertragungsrate ist mittlerweile zu einem Standortfaktor für Unternehmen geworden und kann
als ein Merkmal der Infrastruktur angesehen werden. Für manche Unternehmen ist eine hohe
Übertragungsrate unerlässlich um wettbewerbsfähig zu bleiben. Aus technischer Sicht gibt es
verschiedene Ansätze zur Steigerung der Übertragungsrate. Zunächst wird versucht, ohne
Veränderungen der Hardware eine kostengünstige Verbesserung zu erzielen. Beispielsweise
lässt sich eine Steigerung auf dem Weg der Modulation realisieren, indem mehrere
Trägerfrequenzen verwandt werden. Letztlich ist eine Optimierung der Hardware trotzdem
notwendig. Ursächlich für niedrige Übertragungsraten sind momentan noch die Netze. Die
Empfangseinheiten sind längst für höhere Geschwindigkeiten konzipiert. Sie enthalten neben
der Antenne einen Hochfrequenzverstärker, der die schwachen Antennensignale zur
anschließenden Demodulation und weiteren Verarbeitung verstärkt. Hohe Frequenzen
produzieren in den Leistungsverstärkern große Verlustleistungen aufgrund der Häufigkeit von
Umladevorgängen. Daraus resultieren schlechte Wirkungsgrade. Doch nicht nur an die
Übertragungsrate, sondern auch an den Wirkungsgrad werden hohe Anforderungen gestellt.
Dahinter steht der Bedarf an Mobilität. Von Smartphones und Tablets wird die Fähigkeit
erwartet, mit hoher Geschwindigkeit umfangreiche Datenmengen zu laden. Gleichzeitig wird
eine maximale Akkulaufzeit gefordert.
Im Mittelpunkt dieser Arbeit steht die optimale Betriebsweise von Hochfrequenzverstärkern.
Die Verstärker selbst wurden von den Herstellern optimiert. Darüber hinaus wirkt sich die
Auswahl der Betriebsparameter sehr stark auf den Wirkungsgrad und die Verzerrung und damit
auf die Signalqualität aus.
Aufgabe dieser Arbeit ist es, diverse Messungen mit Hochfrequenzverstärkern durchzuführen
um daraus die optimale Einstellung der Betriebsgrößen zu ermitteln. Die Messungen erfolgen
zunächst mit vier vorgefertigten Verstärkern. Darüber hinaus wird ein Verstärker auf der Basis
eines Verstärker-ICs auf einer Leiterplatte selbst hergestellt, mit welchem anschließend die
selben Messungen erfolgen.
Die Messungen erfolgen mit drei unterschiedlichen Typen von Eingangssignalen:
-CW-Signalen entsprechend Sinus-Signalen.
-Zweitonmessungen. Zwei Sinus-Signale unterschiedlicher Frequenz am Eingang.
-Digitale Telekommunikationsstandards.
Alle nachfolgend genannten Messungen werden im Laufe der Dokumentation erklärt.
Im CW-Fall werden Load-Pull- und Power-Sweep-Messungen durchgeführt. Es folgen
Spektralmessungen zur Bewertung der harmonischen Oberwellen bei Einton-Ansteuerung. Im
Zweiton-Fall werden Spektralmessungen im Bereich der Grundfrequenzen und anschließend
im Bereich der harmonischen Oberwellen durchgeführt. Auf diese Weise sollen
Intermodulationsprodukte bewertet werden. Ebenfalls im Zweiton-Fall erfolgen Load-Pull-
Messungen. Die Betrachtung des Spektrums erfolgt unter Variation der Last. Die Auswirkung
der Last auf den Störabstand wird dabei untersucht. Im Fall der digitalen Ansteuerung werden
unter verschiedenen Betriebsgrößen Messungen der Nachbarkanalleistung durchgeführt.
Der Ausdruck Load-Pull-Messung hat verschiedene Bedeutungen. Zum einen werden mit
Load-Pull-Messungen umgangssprachlich sämtliche Messungen bezeichnet, die zur
Charakterisierung von Hochfrequenzverstärkern dienen. Zum anderen steht Load-Pull-
Messung für ein Messverfahren, bei welchem die Lastimpedanz variiert wird. Die letztgenannte
Load-Pull-Messung stellt die zentrale Messung in dieser Arbeit dar. Um ihre Bedeutung
verständlich zu machen ist eine Auseinandersetzung mit den Grundlagen der
Hochfrequenztechnik von Nöten. Im Folgenden werden all jene Aspekte der
Hochfrequenztechnik behandelt, die zum Verständnis der Messungen dieser Arbeit notwendig
sind.
Gammastrahlung ist hochenergetische elektromagnetische Strahlung, die zum Beispiel
beim Zerfall radioaktiver Stoffe auftritt und besteht aus ungeladenen Photonen. Jeder
dieser Gammastrahler strahlt Photonen mit einer für ihn spezifischen Energie aus, woran
man ihn auch erkennen kann. So hat jeder Gammastrahler sozusagen seinen eigenen
Fingerabdruck.
Wenn man wissen will, welche Gammastrahler in einer Probe vorhanden sind, kann auf
die Gammaspektroskopie zurückgegriffen werden. Diese misst, wie der Name schon sagt,
das Spektrum, also die Energie und die Intensität, der Gammastrahlen. Aus dem daraus
entstehenden Graphen kann dann anhand der Ausschläge abgelesen werden, welche
Gammastrahler in der Probe enthalten sind, da sich diese über ihr Energiemaß bestimmen
lassen.
Die beiden grundsätzlichen Bestandteile eines solchen Gammastrahlenspektrometers sind
ein Detektor und eine Strahlungsquelle, meist eine radioaktive Probe. Die Probe wird so
angebracht, dass sie auf den Detektor strahlt. Dieser registriert dann die Impulse, die
durch Wechselwirkung zwischen den Gammastrahlen und den Elektronen des Detektors
entstehen.
Es gibt zwei hauptsächlich auftretende Effekte. Der Wichtigste ist wohl der Photoeffekt.
Hierbei trifft ein Photon auf ein Elektron und das Photon wird vollständig vom Elektron
absorbiert, wodurch das Elektron aus seiner aktuellen Bindung, innerhalb des Atoms,
gelöst wird. Dies ist der wichtigste Effekt, weil er genau die Information liefert, die gesucht
wird. Das ist die exakte Energie, mit der ein radioaktives Nuklid abstrahlt. Den durch
gehäuftes Vorkommen dieses Effektes auftretenden Ausschlag nennt man Photopeak. Er
stellt die spezifische Energie von einem der, in der Probe vorhandenen, Gammastrahlern
dar. Anhand dieses Peaks ist es letztendlich möglich die enthaltenen Gammastrahler zu
identifizieren.
Der zweite Effekt nennt sich Compton-Effekt. Hierbei trifft ebenfalls ein Photon auf ein
Elektron. Dieses Mal wird das Photon aber nicht absorbiert, sondern gibt lediglich einen
Teil seiner Energie an das Elektron ab und wird dann in einem Winkel von 0° bis 180°
gestreut. Es setzt seinen Weg also mit geringerer Energie und damit größerer Wellenlänge
fort.
Leider ist das obige Spektrum im jetzigen Zustand noch lange nicht perfekt. Noch sind zu
viele Störungen und Fehlinformationen enthalten. Zwar könnte damit gearbeitet werden,
jedoch mit dem Risiko, dass eventuell Informationen verfälscht, oder sogar gar nicht
ausgelesen werden. Perfekt wäre es, wenn das Spektrum komplett der x-Achse anliegen
würde, vollkommen glatt, ohne Rauschen und nur die Photopeaks zu sehen wären.
Ein kleiner Teil der Störungen, die das Signal beeinflussen, kann schon im obigen Teil
erkannt werden. Es spielen nämlich viel mehr Effekte eine Rolle, als es im besten Fall sein
sollten.
Einer der Störeffekte zum Beispiel, ist der bereits oben erwähnte Compton-Effekt. Dieser
trägt nichts zum Photopeak bei, sondern liefert einen Impuls, dessen Energie bis zu einem
gewissen Punkt, dieser „Punkt“ wird auch Compton-Kante genannt, unterhalb der
spezifischen Energie des Photons liegt. Wenn die spezifische Energie eines Photons zum
Beispiel 600keV betragen würde, dann könnte durch den Compton-Effekt eine Energie
von 400keV geliefert werden. Es ist also möglich, dass angenommen wird es seien zwei
unterschiedliche Gammastrahler in der Probe vorhanden. Glücklicherweise sind die
Impulse, die durch den Compton-Effekt entstehen relativ gleich verteilt und erreichen
kaum die Intensität eines Photopeaks. Dennoch zieht jeder Photopeak einen solchen
Rattenschwanz aus schwächeren Impulsen, welche von 0keV bis zur Energie der
Compton-Kante reichen, hinter sich her. Dies wird auch Compton-Kontinuum genannt. Da
im niedrigeren Bereich des Energiespektrums immer mehr Compton-Kontinuen
aufeinandertreffen, je nachdem wie viele Photopeaks, also unterschiedliche
Gammastrahler, in der Probe vorhanden sind, bildet sich dort oft ein sichtbarer Hügel, oder
eine Steigung. Umgekehrt flacht das Spektrum im höheren Bereich immer weiter ab, da
4
Abbildung 1: Beispielspektrum
weniger Compton-Kontinuen vorhanden sind.
Das Compton-Kontinuum trägt einen Großteil zum Untergrund bei. Der Untergrund füllt
fast den kompletten Bereich zwischen Gammaspektrum und x-Achse aus. Ebenso spielt
hier auch die Umgebungsstrahlung eine Rolle, welche eigentlich immer vorhanden ist und
die man nur schwer ausschließen kann.
Ein weiterer Störfaktor ist das in der Elektrotechnik bekannte Rauschen, welches auch im
obigen Spektrum sehr gut erkannt werden kann.
Dies sind nur einige Störungen, die eine Rolle spielen.
Es werden somit sehr viele Störgrößen ungewollt mit betrachtet und diese Störgrößen
müssen durch Werkzeuge, wie zum Beispiel Algorithmen, entfernt werden. Da ich mich in
dieser Bachelorarbeit auf die Untersuchung von Algorithmen zur Bestimmung des
Untergrundes beziehe, werde ich mich im Weiteren auf diese beschränken und die
anderen Probleme größtenteils außer Acht lassen.
Nun gibt es natürlich bereits Algorithmen, mit denen sich der Untergrund von Gammaspektren
bestimmen lässt. Das Problem hierbei ist, dass diese meist nur bei bekannten
Spektren funktionieren, auf die sie, mehr oder weniger, speziell zugeschnitten sind. Wenn
diese Algorithmen eins zu eins auf ein unbekanntes Spektrum angewandt würden, kann es
schnell vorkommen, dass die Untergrundbestimmung misslingt und weit vom angestrebten
Ergebnis entfernt ist.
Einen einzelnen Algorithmus zu entwickeln, der für alle Spektren einsetzbar wäre, ist aber
auch keine Möglichkeit. Der Aufwand und die Kosten wären noch viel zu hoch. Außerdem
würde sich keine Firma finden,welche sich an solch ein Projekt wagen würde, da auch viel
zu wenige Abnehmer dafür vorhanden sind.
Darum werde ich in dieser Arbeit kleinere, einfachere Algorithmen genauer untersuchen,
um zu verstehen, wie sich diese auf unterschiedliche Spektren anwenden lassen. Das
damit entstehende Ergebnis ist wahrscheinlich nicht perfekt, aber gut genug, um damit
arbeiten zu können.
Ziel dieser Arbeit ist es, zwei Algorithmen zur Untergrundbestimmung zu evaluieren und
einen Überblick über folgende Themen zu geben:
– Einen Ausblick über die Auswirkungen der einzelnen Parameter der Algorithmen zu
geben, um zum Beispiel schnell abschätzen zu können, welcher Parameter in
einem konkreten Fall verändert werden muss.
– Einen groben Rahmen festzulegen, in dem die einzelnen Parameter gewählt
werden können, sodass mit hoher Wahrscheinlichkeit ein gutes Ergebnis erreicht
wird.
– Stärken und Schwächen der Algorithmen herausarbeiten, um zum Beispiel die
Verwendung eines Algorithmus auszuschließen, der sich für den beabsichtigten
Zweck nur schwer oder gar nicht einsetzen ließe.
5
– Einen schnellen Überblick über die Möglichkeiten geben, um mit den Algorithmen
ohne großes Vorwissen zu arbeiten.
In der Kernresonanzspektroskopie, wie auch in anderen spektroskopischen Disziplinen, unterliegt die
Genauigkeit und Vollständigkeit eines Spektrums den verschiedenen Einstellungen des Messgeräts
sowie dem verwendeten Gerätetypen. Um das gemessene Spektrum besser analysieren zu können,
wird versucht, es an die Realität anzunähern. Eine allgemeine Annahme dazu ist, dass mehrere, sich
teilweise überlagernde Peaks das Spektrum bilden. Alle Peaks verlaufen dabei gemäß einer Funktion,
deren Modellparameterwerte variieren.
Es gibt verschiedene Ansätze zur Bestimmung des Spektrums, zum Beispiel die Modellanpassung und
die Maximum-Entropie-Methode. Eine große, gegen Unendlich strebende Anzahl an Peaks scheint
die gemessenen Spektrumdaten am besten nachzubilden. Dies ist jedoch wenig naturgetreu.
In dieser Arbeit gehe ich dem Bayes’schen Ansatz zur Datenanalyse nach, um die Peakanzahl auszumachen,
für die die größte Wahrscheinlichkeit in den Messdaten liegt.
Während meiner Diplomarbeit hat sich die anfängliche Annahme, dass die Peaks nach der Lorentz-
Funktion geformt sind, revidiert. Letztendlich habe ich versucht, die Bestimmung der Peakanzahl mit
Peaks in Form des Pseudo-Voigt-Profils durchzuführen.
Für die Berechnung der Posterior-Wahrscheinlichkeit einer Peakanzahl war es nötig, ein multiples
Integral zu lösen. Dieses entstand durch die Marginalisierung einiger Störparameter.
Ein Ziel dieser Diplomarbeit war es, das multidimensionale Integral numerisch zu berechnen. Umgesetzt
werden sollte dies mit dem VEGAS-Algorithmus, der das Monte-Carlo-Verfahren zur Integration
verwendet. Ich habe den Algorithmus und die Anwendungen der Arbeit in Matlab implementiert.
Um die Integration mit dem VEGAS-Algorithmus zu testen, habe ich eine Beispielanwendung zur
Integration unterschiedlich dimensionaler Rosenbrock-Funktionen durchgeführt.
Die Anwendung zur Bestimmung der Peakanzahl in einem Spektrum habe ich zunächst für simulierte
Daten mit zwei unterschiedlichen Formeln der Lorentzfunktion umgesetzt.
Die erste Lorentzfunktion enthält zwei Modellparameter, die Lage der Amplitude und die Halbwertsbreite,
und ist zu eins normiert. Bei ihr ist die Amplitude abhängig von der Halbwertsbreite.
Die zweite Formel besteht aus drei unabhängigen Modellparametern: der Amplitude, ihrer Lage und
der Halbwertsbreite. Damit ist sie für die Auswertung realer Messdaten geeigneter als die vorherige
normierte Lorentzfunktion.
Bei der Anwendung mit simulierten Daten mit drei Modellparametern sowie mit gemessenen Daten
und dem Modell des Pseudo-Voigt-Profils konnte die Anzahl der Peaks nicht bestimmt werden.
Die Schwierigkeit der Bestimmung der Peakanzahl mit dem VEGAS-Algorithmus lag anscheinend
bei der Integration über die Amplitude. Zur Klärung des Problems habe ich die Anwendung mit
dem Pseudo-Voigt-Profil und den realen Messdaten über einen anderen Lösungsweg zur numerischen
Integration, mit einer Likelihood-Matrix, untersucht.
Dadurch kam die Vermutung auf, dass die Diskretisierung in y-Richtung durch das Importance
Sampling des VEGAS-Algorithmus nicht konform mit der Messpunktverteilung ist. Ich habe versucht
über eine Präzisionsanpassung der Amplitudenstützwerte das Problem zu lösen, was teilweise gelang.
Die in dieser Arbeit erstellte Anwendung kann zur Plausibilitätsprüfung von Ergebnissen anderer
Bayes’ basierter Verfahren zur Peakanzahlbestimmung dienen.
Mit geschätzten Werten für die Modellparameter aller Peaks wird die multiple Integration mit dem
VEGAS-Algorithmus nicht gebraucht. Die Posterior-Wahrscheinlichkeiten können somit berechnet
werden und eine quantitative Bewertung der Ergebnisse unterschiedlicher Peakzahlen für das gemessene
Spektrum liefern.
In dieser Arbeit wird eine Software entwickelt, um das Koppeln des Thalmic MYOArmbands
mit dem Stimulator MotionStim8 zu vereinfachen. In einer vorherigen Arbeit
[15] wurden für die Kopplung MATLAB Skripte benutzt. Diese sollen durch die
Software vollständig ersetzt werden. Auÿerdem soll der Stimulator eine drahtlose Anbindung
über zwei British Broadcasting Corporation (BBC) micro:bit Systeme erhalten.
Dazu wird zuerst eine Anforderungsanalyse durchgeführt, woraus konkrete UseCases der
Software formuliert werden konnten. Hierzu werden aus der Problemstellung und den
daraus resultierenden Zielen dieser Arbeit Funktionale und nicht-Funktionale Anforderungen
extrahiert. Es müssen Gesten, sowie deren Myo- und Stimulations-Daten verwaltet
werden können. Auch müssen sowohl Myo-Armband als auch MotionStim8 drahtlos
angebunden, sowie gekoppelt werden.
Nachdem die Anforderungen feststehen, wird ein Konzept zur Umsetzung entwickelt.
Dazu wird eine Entwicklungsumgebung gewählt und eine Softwarearchitektur ausgearbeitet.
Es wird ein Model-View-Controller (MVC)-Modell angestrebt. Für die Entwicklungsumgebung
der Steuersoftware wird VisualStudio, bzw. C#, und für die drahtlos
Anbindung Mu, bzw. MicroPython, verwendet. Auch wird eine Übersicht über die Komponenten
angefertigt. Daraus sind die Hardware-Schnittstellen, PC zu micro:bit, micro:
bit zu micro:bit, micro:bit zu MotionStim8, sowie Myo-Armband zu PC, ableitbar.
Für das Myo-Armband existieren bereits Software-Bibliotheken, welche eingebunden werden
können und somit das Entwickeln einer eigenen Schnittstelle nicht notwendig machen.
Zum Schluss der Konzeption werden Ideen für eine Benutzeroberäche erarbeitet. Dafür
werden die Nicht-Funktionalen Anforderungen, modularer Aufbau sowie Benutzerfreundlichkeit
und Übersichtlichkeit, aus der Anforderungsanalyse aufgegrien. In dieser Phase
werden bereits erste MockUps erstellt.
Die Implementierung ndet in zwei Schritten statt.
Die Drahtlosfunktion, bzw. der Python-Teil, kann separat entwickelt werden. Dafür werden
die seriellen Schnittstellen, PC zu micro:bit und micro:bit zu MotionStim8, sowie
die Übertragung zwischen den beiden micro:bits implementiert. Auÿerdem werden die
Befehle im micro:bit an die benötigte Command Structure des Stimulators angepasst.
Die Steuersoftware beinhaltet eine Graphical User Interface (GUI) mit modulübergreifenden
Funktionen. Die einzelnen Module, Myo Controller, Stimulation Controller und
Gesture Controller besitzen ihre eigene Oberäche und können in die GUI modular integriert
werden. Die Gesten-, Myo- und Stimulations-Daten können über das jeweilige
Modul verwaltet werden. Über das Beenden der Anwendung hinaus werden alle Daten
in einer Extensible Markup Language (XML)-Datei gespeichert. Die Kopplung des Myo-
Armbands mit dem MotionStim8 ndet über einen Mapper statt, welcher eine Mapping-
Matrix für eine Geste errechnet. Dafür müssen vorab Myo- und Stimulations-Daten für
jede Position dieser Geste gesetzt werden. Die Echtzeitfunktion wird übergeordnet über
die GUI gestartet und berechnet für eingehende Myo-Daten die Pulsweiten für die Stimulation.
Für diese Berechnung wird die Mapping-Matrix benötigt.
Hiernach kann die entwickelte Steuersoftware für die denierten Anforderungen, bzw.
UseCases, verwendet werden.
3D-Ultraschall beim MITK
(2017)
In dieser Bachelorthesis wird ein Frei-Hand-3D-Ultraschallsystem entwickelt. Dieses
soll 3D-Ultraschallbildgebung im MITK ermöglichen. Basis hierfür sind ein konventionelles
2D-Ultraschallgerät und ein optisches Trackingsystem. Die nötigen Teilschritte
werden erläutert und beschrieben.
Ergebnis ist ein Plugin für das MITK, das aus aufgenommenen 2D-Ultraschallbildern
ein 3D-Volumen berechnet.
Initial results of an ongoing research in the field of reactive mobile autonomy are presented. The aim is to create a reactive obstacle avoidance method for mobile agent operating in dynamic, unstructured, and unpredictable environment. The method is inspired by the stimulus-response behavior of simple animals. An obstacle avoidance controller is developed that uses raw visual information of the environment. It employs reinforcement learning and is therefore capable of self-developing. This should result with obstacle avoidance behavior that is adaptable and therefore generalizes on various operational modalities. The general assumptions of the agent capabilities, the features of the environment as well as the initial result of the simulation are presented. The plans for improvement and suitable performance evaluation are suggested.
A considerable amount of research in the field of modern robotics deals with mobile agents and their autonomous operation in unstructured, dynamic, and unpredictable environments. Designing robust controllers that map sensory input to action in order to avoid obstacles remains a challenging task. Several biological concepts are amenable to autonomous navigation and reactive obstacle avoidance.
We present an overview of most noteworthy, elaborated, and interesting biologically-inspired approaches for solving the obstacle avoidance problem. We categorize these approaches into three groups: nature inspired optimization, reinforcement learning, and biorobotics. We emphasize the advantages and highlight potential drawbacks of each approach. We also identify the benefits of using biological principles in artificial intelligence in various research areas.
Im Rahmen eines Kooperationsprojektes zwischen dem Heidelberger Institut für Medizinische Informatik und Biometrie (IMBI) und der Mund- Kiefer und Gesichtschirurgie (MKG) des Universitätsklinikums Heidelberg soll ein MITK-Plugin für die Segmentierung von knöchernen Strukturen aus Schichtbilddaten der Computertomographie (CT), sowie der digitalen Volumentomographie (DVT) mit möglichst wenigen Nutzerinteraktionen entwickelt und evaluiert werden.
Hierbei ist insbesondere eine hohe Segmentierungsqualität im Bereich des Kiefers und der Zähne relevant. Dabei erweisen sich Zahnspangen bzw. Zahnfüllungen als besondere Herausforderung. Die Arbeit, sowie das MITK-Plugin behandelt drei Aufgabenbereiche. Es handelt sich dabei um die Metallartefaktreduktion (MAR), Segmentierung und Oberflächenrekonstruktion. Die bildbasierte Artefaktreduktion kann auf CT-Datensätze entweder manuelle oder automatisch angewendet werden. Dabei stehen zwei verschiedene Methoden zur Auswahl. Es handelt sich dabei um die lineare Interpolation (LI) und die rohdatenfreien MAR (RFMAR). Ziel der Artefaktreduktion ist eine verbesserte 3D-Visualisierung. Dabei zeigen die Methoden stellenweise eine Verbesserung durch reduzierte schwarzer Schatten im Bereich der Metalle. Problematisch wirken sich neue Artefakte, welche durch die Reduktion enstehen, auf das Ergebnis der 3D-Visualierung aus. Für die Segmentierung sind zwei Verfahren implementiert worden. Es handelt sich dabei um ein eigenes automatisches Verfahren LCC (Largest Connected Component), und um einen Region Grower. Das automatische Verfahren ist hierbei robust gegenüber einer ungewollt segmentierten Patientenliege, hat aber den Nachteil dass unter Umständen nicht alle knöchernen Strukturen segmentiert werden. Für diesen Fall kann der Region Grower eingesetzt werden, welcher durch Benutzerinteraktion den Nachteil des LCC-Verfahrens ausgleicht. Die Verfahren zeigen im Bezug auf CT-Datensätze gute Ergebnisse. Durch den schlechten Knochenkontrast des verwendeten DVT-Gerätes müssen bei der Segmentierung der DVT-Datensätze Kompromisse eingegangen werden. Durch eine Histogramm-Analyse hat sich für die automatische Schwellwertbestimmung nach Otsu eine Mindestanzahl von drei Otsu-Schwellwerten ergeben. Weiterhin wurde das LCCVerfahren gegenüber einer Referenzsegmentierung eines MKG-Chirurgen evaluiert. Die Evaluierung zeigt, dass die Wahl zwischen drei und sechs Otsu-Schwellwerte keine signifikanten Auswirkungen auf die Genauigkeit der Segmentierung hat. Durch einen Kompromiss zwischen Laufzeit und Segmentierungsqualität wird die Verwendung von vier Otsu-Schwellwerten empfohlen.