Refine
Year of publication
Document Type
- Bachelor Thesis (55) (remove)
Has Fulltext
- yes (55)
Is part of the Bibliography
- no (55)
Keywords
- Implementierung (5)
- Software (5)
- Analyse (4)
- Konzeption (4)
- Daten (3)
- Entwicklung (3)
- Patient (3)
- Strahlentherapie (3)
- Applikation (2)
- Computer (2)
Institute
- Medizinische Informatik (27)
- Informatik (26)
- Mechanik und Elektronik (1)
Entwicklung eines haptischen Interfaces für die roboterassistierte Ultraschallbildakquisition
(2021)
Motivation:
Die Bedienung eines Roboters bei einer roboterassistierten Ultraschallbildakquisition
zur Lagekontrolle eines Tumors während einer Strahlentherapie ist mit einem groÿen
Aufwand verbunden. Eine externe Applikation oder ein externes Bediengerät ist dazu
notwendig. In dieser Arbeit wird die intuitivere Möglichkeit erforscht, dem Roboter
Befehle durch Berührungen zu erteilen. Für eine solche Gestensteuerung wird anhand
von Sensordaten eines sensitiven Leichtbauroboters bewertet, inwieweit eine Steuerung
durch ein haptisches Interface umsetzbar ist und dafür ein Klassifikator entwickelt.
Methodik:
Die Erhebung der Sensordaten erfolgte an einem KUKA LBR-iiwa7-800 Roboter. Es
wurden acht repräsentative Gesten für ein haptisches Interface definiert. Diese Gesten
wurden an verschiedenen Roboterposen von Probanden ausgeführt, während Sensordaten
erhoben wurden. Die Messungen wurden im statischen Zustand des Roboters
und im Impedanzmodus des Roboters durchgeführt, da mithilfe des Impedanzmodus
die Atemkompensation während einer Ultraschallbildakquisition realisiert wird. Die
Messdaten wurden in Matlab ausgewertet.
Ergebnisse:
Vier der definierten Gesten sind allein durch Bestimmung der kartesischen Kräfte x, y z
detektierbar und voneinander unterscheidbar. Diese vier Gesten sind Gesten, die durch
Berührung am Tool (Ultraschallkopf) oder Toolnähe (Roboterhand) ausgeführt werden.
Die Unterscheidung von Gesten, die am Roboterellenbogen ausgeführt wurden,
ist anhand der kartesischen Kräfte nicht möglich. An Roboterposen, die singularnahe
oder singulare Achsstellungen aufweisen, ist eine Detektion von Gesten ebenfalls problematisch.
Ansonsten ist eine Detektion posen- und nutzer-unabhängig durchführbar.
In Messungen während einer Atemkompensation wurden diese Gesten ebenfalls richtig
detektiert.
Fazit:
Ein haptisches Interface für roboterassistierte Ultraschallbildakquisition ist realisierbar
für Gesten, die am Roboter in der Nähe des TCPs ausgeführt werden. Für die Detektion
und Klassifizierung dieser Gesten ist die Krafteinschätzung am TCP ausreichend.
Die heutige Software-Entwicklung ist davon geprägt, dass Anwendungen immer komplexer
und aufwändiger werden. Gleichzeitig steigen die Erwartungen der Kunden an
die Qualität der Software.
Für die Software-Entwickler ist die Telemetrie zu einem unverzichtbaren Werkzeug
geworden. Sie ist ein wesentlicher Baustein, um die Beobachbarkeit (Observability)
von Applikationen zu erhöhen und somit die Grundlage für eine bessere Qualität in
der Software Entwicklung. Hierbei ist zu analysieren, welche Bedeutung die Telemetrie
für den gesamten Software Development Life Cyle hat.
Der aktuelle Stand der Software-Telemetrie wird am Beispiel des Projektes OpenTelemetry
dargelegt.
OpenTelemetry hat sich zum Ziel gesetzt, die universelle Plattform für den Austausch
von Telemetriedaten zu werden.
Die Ergebnisse des Projektes OpenTelemetry werden analysiert und bewertet.
Auf dem Markt der Android Applikationen gibt es ein breites Spektrum an
Lernanwendungen. Allerdings exisitiert ein Mangel an gut strukturierten
inhaltlichen Zusammenfassungen der schulischen Themen, gerade im
Fach Mathematik.
Mein Ziel der Bachelorarbeit ist, eine Education App zu entwickeln, diese
im realen Betrieb zu testen und somit einen Lösungsansatz für den
Mangel an solchen Apps zu erhalten. Ich werde am Beispiel der 8. Klasse
Realschule im Fach Mathematik eine thematische Zusammenfassung
erzeugen und als App umsetzen. Mathematische Grundlage hierfür bildet
das Schulbuch Schnittpunkt 8 des Klettverlages (Differenzierende
Ausgabe, 2015).
Bugfixing und Evaluierung verläuft Hand in Hand, um am Ende des
Entwicklungsprozesses eine voll funktionsfähige, getestete App zu
bekommen.
Mit Hilfe eines Fragebogens wird dabei direkt auf die Zielgruppe
eingegangen.
Die App wird im Anschluss des Entwicklungsprozesses nach dem Open-
Closed Prinzip fungieren. Ist also für Erweiterungen offen. Diese Funktion
erreiche ich durch genau definierte Schnittstellen. Es wird möglich sein,
neue Klassen ebenso wie Schularten hinzuzufügen. Als
Entwicklungsumgebung dient mir IntelliJ, als Testgerät ein Samsung
Smartphone.
Die App wird den Namen MaTHive Spectre tragen, um direkt auf das
Potential aufmerksam zu machen und einen einprägsamen Namen zu
erhalten.
In this bachelor thesis, different models for predicting the influenza virus are
examined in more detail.
The focus is on epidemiological compartmental models, as well as on different
Machine Learning approaches.
In particular, the basics chapter presents the SIR model and its various extensions.
Furthermore, Deep Learning and Social Network approaches are
investigated and the applied methods of a selected article are analysed in more
detail.
The practical part of this work consists in the implementation of a Multiple
Linear Regression model and an Artificial Neural Network. For the development
of both models the programming language Python was chosen using the
Deep Learning Framework Keras.
Tests were performed with real data from the Réseau Sentinelles, a French
organisation for monitoring national health.
The results of the tests show that the Neural Network is able to make better
predictions than the Multiple Linear Regression model.
The discussion shows ideas for improving influenza prediction including the
establishment of a worldwide collaboration between the surveillance centres as
well as the consolidation of historical data with real-time social media data.
Therefore, this work consists of a state-of-the art of models regarding the
spread of influenza virus, the development and comparison of several models
programmed in Python, evaluated on real data.
Alzheimer’s Disease affects millions of people worldwide, but till today, the gold standard
for definitive diagnosis of this disease is a biopsy. Nevertheless, with the progress
of the disease, a volume loss in the Hippocampus can be observed. Therefore, good
segmentation methods are crucial to facilitate quantification of this loss.
The focus of this work is on the development of a Machine Learning algorithm, more
precisely a Generative Adversarial Network, for the automated segmentation of the
human Hippocampus and its substructures in Magnetic Resonance Images. In particular,
the task is to determine if the integration of a pre-trained network that generates
segmentations into a Generative Adversarial Network scheme can improve generated
segmentations. In this context, a segmentation network in form of a U-net corresponds
to the generator. The discriminator is developed separately and merged in a second
step with the generator for combined training.
With a literature review regarding the automated segmentation of the Hippocampus,
current methods in this field and their medical and technological basics were identified.
The datasets were preprocessed to make them suitable for the use in a neural
network. In the training process, the generator was trained first until convergence.
Then, the Generative Adversarial Network including the pre-trained generator was
trained. The outcomes were evaluated via cross-validation in two different datasets
(Kulaga-Yoskovitz and Winterburn). The Generative Adversarial Network scheme
was tested regarding different architectural and training aspects, including the usage
of skip-connections and a combined loss function.
The best results were achieved in the Kulaga-Yoskovitz dataset with a Dice coefficient
of 90.84 % after the combined training of generator and discriminator with a joined
loss function. This improves the current state of the art method in the same task and
dataset with a Dice index of 88.79 % by Romero [Rom17]. Except of two cases in the
Winterburn dataset, the proposed combined method could always improve the Dice
results after the training of only the generator, even though only by a small amount.
Aufgrund der unterschiedlichen Wiederbelebungsabläufe zwischen Erwachsenen
und Kindern, müssen bei der Reanimation eines Kindes andere Behandlungsmaßnahmen
durchgeführt werden. So müssen z.B. Medikamente anders dosiert werden.
Hinzu kommt, dass eine Reanimation an einem Kind nur selten durchgeführt wird.
Dadurch sind Mediziner mit einer Wiederbelebungsmaßnahmen an Kindern aufgrund
mangelnden Routine unsicher bzw. führen falsche Behandlungsmaßnahmen
durch. Zwar sind bereits Leitlinien in digitaler Ausführung vorhanden, jedoch
werden diese in einer für eine Reanimation ungeeigneten Form ausgegeben und
können so nur schlecht in einer Wiederbelebungsmaßnahme genutzt werden. Um
Behandlungsfehler zu minimieren wird in dieser Arbeit untersucht, ob eine Datenbrille
zur Darstellung der Leitlinien verwendet werden und der Mediziner diese
mittels Sprachkommandos steuern kann. Um die Qualität der Sprachsteuerung im
Umgang mit den Leitlinien festzustellen, wurde eine Evaluation dieser durchgeführt.
Dafür wurden die Anwendung mit zehn Personen getestet. Diese ergab, dass
die Nutzung der Sprachsteuerung durch Auswahl geeigneter Sprachkommandos
sowohl bei Zimmerlautstärke, als auch bei Straßenlärm möglich war. Somit ist die
Steuerung einer Datenbrille mit Sprachkommandos in einer Reanimation denkbar,
um den Mediziner durch Informationen zu unterstützen .
Gegenstand der hier vorgestellten Arbeit ist ein Konzept zum Lehren von Ontologie in der Informatik, des Ontologiemanagementsystems Protégé und des Wissensverwal-tungssytems ProKEt. Dies geschieht in Form von Präsentationen, welche mit Hilfe von PowerPoint erstellt wurden. Dabei wird auf die Installation, die Basics, Kernkonzepte und die Teilwissensbasen im Detail eingegangen. Diese Präsentationen sollen ein alter-natives Konzept für den Unterricht darstellen, um die Lernenden aktiv zu beteiligen, und stellen ein Angebot zum Lehren der entsprechenden Thematiken dar. Zur Überprüfung der Effizienz wird eine Evaluation durchgeführt.
Die Online-Enzyklopädie Wikipedia kann für die Analyse der Beziehungen zwischen
Konzepten als wertvolle Datenquelle dienen. Aus ihren klar deffinierten Strukturen,
wie z.B. der baumartigen Kategorisierung, Weiterleitungen, Infoboxen und Links zwischen
Artikeln ergibt sich die Möglichkeit, ausgehend von einem bestimmten Konzept
eine Fülle enzyklopädischen Wissens zu extrahieren, das für viele Anwendungszwecke
in der medizinischen Informatik genutzt werden kann. Trotz der einfachen Verfügbarkeit
von Wikipedia-MySQL-Backups ist es weder besonders intuitiv noch effizient,
diese Beziehungen direkt aus diesen relationalen Datenbanken abzuleiten. Stattdessen
wäre ein weitaus intuitiverer Ansatz für die Datenanalyse, die genannten Strukturen
und ihre Beziehungen zueinander als Knoten und Kanten in einem Graphen abzubilden.
Ausgehend von einem bestehenden Wikipedia-Graph-API zielte diese Arbeit
darauf ab, ein effizientes System zu entwickeln, das Wikipediastrukturen aus einem
MySQL-Backup extrahiert, diese verarbeitet und in eine Graphdatenbank speichert.
Eine Analyse von Graphdatenbank-Managementsystemen im Rahmen dieser Arbeit
ergab, dass Neo4j für diesen Anwendungszweck optimal geeignet ist, da seine Anfragesprache
Cypher eine intuitive Möglichkeit darstellt, Graphdaten zu analysieren. Das
Ergebnis dieser Arbeit ist NeoWiki, ein System, das sowohl eine Möglichkeit zur Generierung
von strukturellen Wikipedia-Graphen bietet als auch als Java Library die
Arbeit mit den erstellten Graph-Entitäten als Java-Objekten unterstützt. Obgleich
derzeit noch Raum für Verbesserungen hinsichtlich der Performance bei der Graphgenerierung
besteht, stellt NeoWiki doch bereits jetzt ein Tool zur intuitiven Analyse
von Wikipedia-Daten dar.
Das Ziel dieser Bachelorarbeit war es, ein Programm zu entwickeln, welches die doppelte
Lichtbrechung und die Reflexion eines Laserstrahls berechnen kann. Hierbei wird zuerst auf
die physikalischen Grundlagen eingegangen. Anschließend wird das dazu verwendete Programm
mit dem Algorithmus inklusive den Berechnungen vorgestellt. Das Programm kann
die doppelte Lichtbrechung und auch die Reflexion eines Laserstrahls berechnen und zusätzlich
bestimmen, ob der Laserstrahl gebrochen oder total reflektiert wird. Die Prüfung dafür,
erfolgt über den Größenvergleich zwischen dem Einfallswinkel und dem kritischen Winkel.
Der Algorithmus ist für beliebige Laserstrahlen unter Berücksichtigung der Brechungsindexe
geeignet.
Im Rahmen der sich ausbreitenden Digitalisierung ist die Forderung nach mehr Bandbreite in
aller Munde. Das Schlagwort ist allerdings ein umgangssprachlicher Begriff, welcher nicht
korrekt verwendet wird. Gemeint ist dabei vielmehr die Übertragungsrate. Bandbreite
beschreibt im eigentlichen Sinn den Frequenzumfang, für den ein System ausgelegt wurde. Die
Übertragungsrate ist mittlerweile zu einem Standortfaktor für Unternehmen geworden und kann
als ein Merkmal der Infrastruktur angesehen werden. Für manche Unternehmen ist eine hohe
Übertragungsrate unerlässlich um wettbewerbsfähig zu bleiben. Aus technischer Sicht gibt es
verschiedene Ansätze zur Steigerung der Übertragungsrate. Zunächst wird versucht, ohne
Veränderungen der Hardware eine kostengünstige Verbesserung zu erzielen. Beispielsweise
lässt sich eine Steigerung auf dem Weg der Modulation realisieren, indem mehrere
Trägerfrequenzen verwandt werden. Letztlich ist eine Optimierung der Hardware trotzdem
notwendig. Ursächlich für niedrige Übertragungsraten sind momentan noch die Netze. Die
Empfangseinheiten sind längst für höhere Geschwindigkeiten konzipiert. Sie enthalten neben
der Antenne einen Hochfrequenzverstärker, der die schwachen Antennensignale zur
anschließenden Demodulation und weiteren Verarbeitung verstärkt. Hohe Frequenzen
produzieren in den Leistungsverstärkern große Verlustleistungen aufgrund der Häufigkeit von
Umladevorgängen. Daraus resultieren schlechte Wirkungsgrade. Doch nicht nur an die
Übertragungsrate, sondern auch an den Wirkungsgrad werden hohe Anforderungen gestellt.
Dahinter steht der Bedarf an Mobilität. Von Smartphones und Tablets wird die Fähigkeit
erwartet, mit hoher Geschwindigkeit umfangreiche Datenmengen zu laden. Gleichzeitig wird
eine maximale Akkulaufzeit gefordert.
Im Mittelpunkt dieser Arbeit steht die optimale Betriebsweise von Hochfrequenzverstärkern.
Die Verstärker selbst wurden von den Herstellern optimiert. Darüber hinaus wirkt sich die
Auswahl der Betriebsparameter sehr stark auf den Wirkungsgrad und die Verzerrung und damit
auf die Signalqualität aus.
Aufgabe dieser Arbeit ist es, diverse Messungen mit Hochfrequenzverstärkern durchzuführen
um daraus die optimale Einstellung der Betriebsgrößen zu ermitteln. Die Messungen erfolgen
zunächst mit vier vorgefertigten Verstärkern. Darüber hinaus wird ein Verstärker auf der Basis
eines Verstärker-ICs auf einer Leiterplatte selbst hergestellt, mit welchem anschließend die
selben Messungen erfolgen.
Die Messungen erfolgen mit drei unterschiedlichen Typen von Eingangssignalen:
-CW-Signalen entsprechend Sinus-Signalen.
-Zweitonmessungen. Zwei Sinus-Signale unterschiedlicher Frequenz am Eingang.
-Digitale Telekommunikationsstandards.
Alle nachfolgend genannten Messungen werden im Laufe der Dokumentation erklärt.
Im CW-Fall werden Load-Pull- und Power-Sweep-Messungen durchgeführt. Es folgen
Spektralmessungen zur Bewertung der harmonischen Oberwellen bei Einton-Ansteuerung. Im
Zweiton-Fall werden Spektralmessungen im Bereich der Grundfrequenzen und anschließend
im Bereich der harmonischen Oberwellen durchgeführt. Auf diese Weise sollen
Intermodulationsprodukte bewertet werden. Ebenfalls im Zweiton-Fall erfolgen Load-Pull-
Messungen. Die Betrachtung des Spektrums erfolgt unter Variation der Last. Die Auswirkung
der Last auf den Störabstand wird dabei untersucht. Im Fall der digitalen Ansteuerung werden
unter verschiedenen Betriebsgrößen Messungen der Nachbarkanalleistung durchgeführt.
Der Ausdruck Load-Pull-Messung hat verschiedene Bedeutungen. Zum einen werden mit
Load-Pull-Messungen umgangssprachlich sämtliche Messungen bezeichnet, die zur
Charakterisierung von Hochfrequenzverstärkern dienen. Zum anderen steht Load-Pull-
Messung für ein Messverfahren, bei welchem die Lastimpedanz variiert wird. Die letztgenannte
Load-Pull-Messung stellt die zentrale Messung in dieser Arbeit dar. Um ihre Bedeutung
verständlich zu machen ist eine Auseinandersetzung mit den Grundlagen der
Hochfrequenztechnik von Nöten. Im Folgenden werden all jene Aspekte der
Hochfrequenztechnik behandelt, die zum Verständnis der Messungen dieser Arbeit notwendig
sind.
Gammastrahlung ist hochenergetische elektromagnetische Strahlung, die zum Beispiel
beim Zerfall radioaktiver Stoffe auftritt und besteht aus ungeladenen Photonen. Jeder
dieser Gammastrahler strahlt Photonen mit einer für ihn spezifischen Energie aus, woran
man ihn auch erkennen kann. So hat jeder Gammastrahler sozusagen seinen eigenen
Fingerabdruck.
Wenn man wissen will, welche Gammastrahler in einer Probe vorhanden sind, kann auf
die Gammaspektroskopie zurückgegriffen werden. Diese misst, wie der Name schon sagt,
das Spektrum, also die Energie und die Intensität, der Gammastrahlen. Aus dem daraus
entstehenden Graphen kann dann anhand der Ausschläge abgelesen werden, welche
Gammastrahler in der Probe enthalten sind, da sich diese über ihr Energiemaß bestimmen
lassen.
Die beiden grundsätzlichen Bestandteile eines solchen Gammastrahlenspektrometers sind
ein Detektor und eine Strahlungsquelle, meist eine radioaktive Probe. Die Probe wird so
angebracht, dass sie auf den Detektor strahlt. Dieser registriert dann die Impulse, die
durch Wechselwirkung zwischen den Gammastrahlen und den Elektronen des Detektors
entstehen.
Es gibt zwei hauptsächlich auftretende Effekte. Der Wichtigste ist wohl der Photoeffekt.
Hierbei trifft ein Photon auf ein Elektron und das Photon wird vollständig vom Elektron
absorbiert, wodurch das Elektron aus seiner aktuellen Bindung, innerhalb des Atoms,
gelöst wird. Dies ist der wichtigste Effekt, weil er genau die Information liefert, die gesucht
wird. Das ist die exakte Energie, mit der ein radioaktives Nuklid abstrahlt. Den durch
gehäuftes Vorkommen dieses Effektes auftretenden Ausschlag nennt man Photopeak. Er
stellt die spezifische Energie von einem der, in der Probe vorhandenen, Gammastrahlern
dar. Anhand dieses Peaks ist es letztendlich möglich die enthaltenen Gammastrahler zu
identifizieren.
Der zweite Effekt nennt sich Compton-Effekt. Hierbei trifft ebenfalls ein Photon auf ein
Elektron. Dieses Mal wird das Photon aber nicht absorbiert, sondern gibt lediglich einen
Teil seiner Energie an das Elektron ab und wird dann in einem Winkel von 0° bis 180°
gestreut. Es setzt seinen Weg also mit geringerer Energie und damit größerer Wellenlänge
fort.
Leider ist das obige Spektrum im jetzigen Zustand noch lange nicht perfekt. Noch sind zu
viele Störungen und Fehlinformationen enthalten. Zwar könnte damit gearbeitet werden,
jedoch mit dem Risiko, dass eventuell Informationen verfälscht, oder sogar gar nicht
ausgelesen werden. Perfekt wäre es, wenn das Spektrum komplett der x-Achse anliegen
würde, vollkommen glatt, ohne Rauschen und nur die Photopeaks zu sehen wären.
Ein kleiner Teil der Störungen, die das Signal beeinflussen, kann schon im obigen Teil
erkannt werden. Es spielen nämlich viel mehr Effekte eine Rolle, als es im besten Fall sein
sollten.
Einer der Störeffekte zum Beispiel, ist der bereits oben erwähnte Compton-Effekt. Dieser
trägt nichts zum Photopeak bei, sondern liefert einen Impuls, dessen Energie bis zu einem
gewissen Punkt, dieser „Punkt“ wird auch Compton-Kante genannt, unterhalb der
spezifischen Energie des Photons liegt. Wenn die spezifische Energie eines Photons zum
Beispiel 600keV betragen würde, dann könnte durch den Compton-Effekt eine Energie
von 400keV geliefert werden. Es ist also möglich, dass angenommen wird es seien zwei
unterschiedliche Gammastrahler in der Probe vorhanden. Glücklicherweise sind die
Impulse, die durch den Compton-Effekt entstehen relativ gleich verteilt und erreichen
kaum die Intensität eines Photopeaks. Dennoch zieht jeder Photopeak einen solchen
Rattenschwanz aus schwächeren Impulsen, welche von 0keV bis zur Energie der
Compton-Kante reichen, hinter sich her. Dies wird auch Compton-Kontinuum genannt. Da
im niedrigeren Bereich des Energiespektrums immer mehr Compton-Kontinuen
aufeinandertreffen, je nachdem wie viele Photopeaks, also unterschiedliche
Gammastrahler, in der Probe vorhanden sind, bildet sich dort oft ein sichtbarer Hügel, oder
eine Steigung. Umgekehrt flacht das Spektrum im höheren Bereich immer weiter ab, da
4
Abbildung 1: Beispielspektrum
weniger Compton-Kontinuen vorhanden sind.
Das Compton-Kontinuum trägt einen Großteil zum Untergrund bei. Der Untergrund füllt
fast den kompletten Bereich zwischen Gammaspektrum und x-Achse aus. Ebenso spielt
hier auch die Umgebungsstrahlung eine Rolle, welche eigentlich immer vorhanden ist und
die man nur schwer ausschließen kann.
Ein weiterer Störfaktor ist das in der Elektrotechnik bekannte Rauschen, welches auch im
obigen Spektrum sehr gut erkannt werden kann.
Dies sind nur einige Störungen, die eine Rolle spielen.
Es werden somit sehr viele Störgrößen ungewollt mit betrachtet und diese Störgrößen
müssen durch Werkzeuge, wie zum Beispiel Algorithmen, entfernt werden. Da ich mich in
dieser Bachelorarbeit auf die Untersuchung von Algorithmen zur Bestimmung des
Untergrundes beziehe, werde ich mich im Weiteren auf diese beschränken und die
anderen Probleme größtenteils außer Acht lassen.
Nun gibt es natürlich bereits Algorithmen, mit denen sich der Untergrund von Gammaspektren
bestimmen lässt. Das Problem hierbei ist, dass diese meist nur bei bekannten
Spektren funktionieren, auf die sie, mehr oder weniger, speziell zugeschnitten sind. Wenn
diese Algorithmen eins zu eins auf ein unbekanntes Spektrum angewandt würden, kann es
schnell vorkommen, dass die Untergrundbestimmung misslingt und weit vom angestrebten
Ergebnis entfernt ist.
Einen einzelnen Algorithmus zu entwickeln, der für alle Spektren einsetzbar wäre, ist aber
auch keine Möglichkeit. Der Aufwand und die Kosten wären noch viel zu hoch. Außerdem
würde sich keine Firma finden,welche sich an solch ein Projekt wagen würde, da auch viel
zu wenige Abnehmer dafür vorhanden sind.
Darum werde ich in dieser Arbeit kleinere, einfachere Algorithmen genauer untersuchen,
um zu verstehen, wie sich diese auf unterschiedliche Spektren anwenden lassen. Das
damit entstehende Ergebnis ist wahrscheinlich nicht perfekt, aber gut genug, um damit
arbeiten zu können.
Ziel dieser Arbeit ist es, zwei Algorithmen zur Untergrundbestimmung zu evaluieren und
einen Überblick über folgende Themen zu geben:
– Einen Ausblick über die Auswirkungen der einzelnen Parameter der Algorithmen zu
geben, um zum Beispiel schnell abschätzen zu können, welcher Parameter in
einem konkreten Fall verändert werden muss.
– Einen groben Rahmen festzulegen, in dem die einzelnen Parameter gewählt
werden können, sodass mit hoher Wahrscheinlichkeit ein gutes Ergebnis erreicht
wird.
– Stärken und Schwächen der Algorithmen herausarbeiten, um zum Beispiel die
Verwendung eines Algorithmus auszuschließen, der sich für den beabsichtigten
Zweck nur schwer oder gar nicht einsetzen ließe.
5
– Einen schnellen Überblick über die Möglichkeiten geben, um mit den Algorithmen
ohne großes Vorwissen zu arbeiten.
In dieser Arbeit wird eine Software entwickelt, um das Koppeln des Thalmic MYOArmbands
mit dem Stimulator MotionStim8 zu vereinfachen. In einer vorherigen Arbeit
[15] wurden für die Kopplung MATLAB Skripte benutzt. Diese sollen durch die
Software vollständig ersetzt werden. Auÿerdem soll der Stimulator eine drahtlose Anbindung
über zwei British Broadcasting Corporation (BBC) micro:bit Systeme erhalten.
Dazu wird zuerst eine Anforderungsanalyse durchgeführt, woraus konkrete UseCases der
Software formuliert werden konnten. Hierzu werden aus der Problemstellung und den
daraus resultierenden Zielen dieser Arbeit Funktionale und nicht-Funktionale Anforderungen
extrahiert. Es müssen Gesten, sowie deren Myo- und Stimulations-Daten verwaltet
werden können. Auch müssen sowohl Myo-Armband als auch MotionStim8 drahtlos
angebunden, sowie gekoppelt werden.
Nachdem die Anforderungen feststehen, wird ein Konzept zur Umsetzung entwickelt.
Dazu wird eine Entwicklungsumgebung gewählt und eine Softwarearchitektur ausgearbeitet.
Es wird ein Model-View-Controller (MVC)-Modell angestrebt. Für die Entwicklungsumgebung
der Steuersoftware wird VisualStudio, bzw. C#, und für die drahtlos
Anbindung Mu, bzw. MicroPython, verwendet. Auch wird eine Übersicht über die Komponenten
angefertigt. Daraus sind die Hardware-Schnittstellen, PC zu micro:bit, micro:
bit zu micro:bit, micro:bit zu MotionStim8, sowie Myo-Armband zu PC, ableitbar.
Für das Myo-Armband existieren bereits Software-Bibliotheken, welche eingebunden werden
können und somit das Entwickeln einer eigenen Schnittstelle nicht notwendig machen.
Zum Schluss der Konzeption werden Ideen für eine Benutzeroberäche erarbeitet. Dafür
werden die Nicht-Funktionalen Anforderungen, modularer Aufbau sowie Benutzerfreundlichkeit
und Übersichtlichkeit, aus der Anforderungsanalyse aufgegrien. In dieser Phase
werden bereits erste MockUps erstellt.
Die Implementierung ndet in zwei Schritten statt.
Die Drahtlosfunktion, bzw. der Python-Teil, kann separat entwickelt werden. Dafür werden
die seriellen Schnittstellen, PC zu micro:bit und micro:bit zu MotionStim8, sowie
die Übertragung zwischen den beiden micro:bits implementiert. Auÿerdem werden die
Befehle im micro:bit an die benötigte Command Structure des Stimulators angepasst.
Die Steuersoftware beinhaltet eine Graphical User Interface (GUI) mit modulübergreifenden
Funktionen. Die einzelnen Module, Myo Controller, Stimulation Controller und
Gesture Controller besitzen ihre eigene Oberäche und können in die GUI modular integriert
werden. Die Gesten-, Myo- und Stimulations-Daten können über das jeweilige
Modul verwaltet werden. Über das Beenden der Anwendung hinaus werden alle Daten
in einer Extensible Markup Language (XML)-Datei gespeichert. Die Kopplung des Myo-
Armbands mit dem MotionStim8 ndet über einen Mapper statt, welcher eine Mapping-
Matrix für eine Geste errechnet. Dafür müssen vorab Myo- und Stimulations-Daten für
jede Position dieser Geste gesetzt werden. Die Echtzeitfunktion wird übergeordnet über
die GUI gestartet und berechnet für eingehende Myo-Daten die Pulsweiten für die Stimulation.
Für diese Berechnung wird die Mapping-Matrix benötigt.
Hiernach kann die entwickelte Steuersoftware für die denierten Anforderungen, bzw.
UseCases, verwendet werden.
3D-Ultraschall beim MITK
(2017)
In dieser Bachelorthesis wird ein Frei-Hand-3D-Ultraschallsystem entwickelt. Dieses
soll 3D-Ultraschallbildgebung im MITK ermöglichen. Basis hierfür sind ein konventionelles
2D-Ultraschallgerät und ein optisches Trackingsystem. Die nötigen Teilschritte
werden erläutert und beschrieben.
Ergebnis ist ein Plugin für das MITK, das aus aufgenommenen 2D-Ultraschallbildern
ein 3D-Volumen berechnet.
Im Rahmen eines Kooperationsprojektes zwischen dem Heidelberger Institut für Medizinische Informatik und Biometrie (IMBI) und der Mund- Kiefer und Gesichtschirurgie (MKG) des Universitätsklinikums Heidelberg soll ein MITK-Plugin für die Segmentierung von knöchernen Strukturen aus Schichtbilddaten der Computertomographie (CT), sowie der digitalen Volumentomographie (DVT) mit möglichst wenigen Nutzerinteraktionen entwickelt und evaluiert werden.
Hierbei ist insbesondere eine hohe Segmentierungsqualität im Bereich des Kiefers und der Zähne relevant. Dabei erweisen sich Zahnspangen bzw. Zahnfüllungen als besondere Herausforderung. Die Arbeit, sowie das MITK-Plugin behandelt drei Aufgabenbereiche. Es handelt sich dabei um die Metallartefaktreduktion (MAR), Segmentierung und Oberflächenrekonstruktion. Die bildbasierte Artefaktreduktion kann auf CT-Datensätze entweder manuelle oder automatisch angewendet werden. Dabei stehen zwei verschiedene Methoden zur Auswahl. Es handelt sich dabei um die lineare Interpolation (LI) und die rohdatenfreien MAR (RFMAR). Ziel der Artefaktreduktion ist eine verbesserte 3D-Visualisierung. Dabei zeigen die Methoden stellenweise eine Verbesserung durch reduzierte schwarzer Schatten im Bereich der Metalle. Problematisch wirken sich neue Artefakte, welche durch die Reduktion enstehen, auf das Ergebnis der 3D-Visualierung aus. Für die Segmentierung sind zwei Verfahren implementiert worden. Es handelt sich dabei um ein eigenes automatisches Verfahren LCC (Largest Connected Component), und um einen Region Grower. Das automatische Verfahren ist hierbei robust gegenüber einer ungewollt segmentierten Patientenliege, hat aber den Nachteil dass unter Umständen nicht alle knöchernen Strukturen segmentiert werden. Für diesen Fall kann der Region Grower eingesetzt werden, welcher durch Benutzerinteraktion den Nachteil des LCC-Verfahrens ausgleicht. Die Verfahren zeigen im Bezug auf CT-Datensätze gute Ergebnisse. Durch den schlechten Knochenkontrast des verwendeten DVT-Gerätes müssen bei der Segmentierung der DVT-Datensätze Kompromisse eingegangen werden. Durch eine Histogramm-Analyse hat sich für die automatische Schwellwertbestimmung nach Otsu eine Mindestanzahl von drei Otsu-Schwellwerten ergeben. Weiterhin wurde das LCCVerfahren gegenüber einer Referenzsegmentierung eines MKG-Chirurgen evaluiert. Die Evaluierung zeigt, dass die Wahl zwischen drei und sechs Otsu-Schwellwerte keine signifikanten Auswirkungen auf die Genauigkeit der Segmentierung hat. Durch einen Kompromiss zwischen Laufzeit und Segmentierungsqualität wird die Verwendung von vier Otsu-Schwellwerten empfohlen.
Mobile Signalverarbeitung auf dem Raspberry Pi mit Aspekten der Vernetzung mehrerer Messgeräte
(2016)
Bei dem Raspberry Pi handelt es sich um einen Einplatinen-Computer, welcher ich seit dem Verkaufsstart im Jahr 2012 sehr groÿer Beliebtheit erfreut. Nicht zuletzt aufgrund des hohen Grades an Kompatibilität und der groÿen Online-Community wurden bis zum heutigen Tage unzählige Projekte realisiert. In der Zwischenzeit ist der Raspberry Pi in verschiedenen Anwendungsgebieten und Branchen anzutreffen. Dies ist insofern interessant, da dieser ursprünglich für den Einsatz in Bildungseinrichtungen auf Basis einer Stiftung entwickelt wurde [1]. Dabei stellen Anwendungen wie eine Smart-Home Steuerung, ein Multimedia-Center oder eine Wetterstation nur einen Bruchteil der Möglichkeiten dar. Grundlage dieser vielfältigen Anwendungsgebiete ist die Unterstützung sämtlicher standardisierter Hard- und Software-Schnittstellen, zum Beispiel USB, Audio-Klinke, Serial Peripheral Interface (SPI) oder Inter-Integrated Circuit (I2C). Dadurch wird die Einbindung von beispielsweise Global Positioning System (GPS)-Modulen, Wireless Local Area Network (WLAN)-Empfängern oder sogar der eigenen Spiegelreflexkamera ermöglicht. Weiterhin ist mit Hilfe eines Mikrofons die Entwicklung einer Sprachsteuerung denkbar. Der mögliche Anwendungsbereich des Raspberry Pi geht noch weit über die hier genannten Beispiele hinaus. Eine der Schnittstellen des Raspberry Pi stellen die sogenannten General Purpose Input Output (GPIO)-Ports dar. Hierbei handelt es sich um analoge und digitale Ein- und Ausgänge worüber Hardware-Komponenten direkt auf physikalischer Ebene eingebunden werden können. Der Raspberry Pi eignet sich auch zum Nachweis radioaktiver Strahlung.
Ziel der Arbeit soll die Entwicklung eines Gerätes zur Messung der Strahlendosis sein. Dazu gehört die Verwendung eines Geiger-Müller-Zählrohrs, welches mittels eines Arduino Shields ansprechbar ist. Weiterhin sollen im Rahmen dieser Arbeit verschiedene Möglichkeiten zur Weiterentwicklung des Systems betrachtet werden. Das Geiger-Shield, zu dem das Geiger-Müller-Zählrohr und das Arduino-Shield gehören, wurden von dem Hardware-Hersteller Libelium im Jahr 2011 entwickelt. Anlass war der Tsunami in Japan, welcher die Atom-Katastrophe von Fukushima nach sich gezogen hat [2]. Das Geiger-Shield sollte den Alltag der Menschen in Japan vereinfachen, indem sie selbst die Strahlendosis messen konnten. Mit einem Mikrocontroller, einem einfachen LC-Display und einem Akku konnte so jederzeit die aktuelle Strahlendosis bestimmt werden.
Die Erfassung eines Elektromyogramms (EMG) ist bisher mit großem zeitlichen und finanziellen Aufwand verbunden. Zudem müssen die Elektroden, welche aufgebracht werden, an den richtigen Stellen fixiert werden. Dies ist essentiell und kann nur von Fachpersonal durchgeführt werden. Somit ist es mit großem Aufwand verbunden.
Durch das Myo-Armband [25] der Firma Thalmic Labs hat sich dies zum Positiven geändert, da hier das Armband nur über den Unterarm gestreift werden muss und durch dieses innovative ”Wearable Device” direkt Elektromyographie-Daten erfasst werden können.
Mithilfe dieses Armbands und einer wohl programmierten Schnittstelle, kann damit sogar eine Drohne ferngesteuert werden. Auch eine Prothese kann damit bewegt werden. Das beste Beispiel hierfür ist ,,Johnny Matheny”. Ihm wurde aufgrund von Krebs der linke Arm oberhalb des Ellenbogens amputiert. Speziell für ihn, wurde eine Prothese konstruiert, welche durch zwei Myo-Armbänder am Oberarm gesteuert werden kann. So kann er laut der Website [1] seine Prothese, wie seither seinen Arm, bewegen.
Es wurde zusätzlich die Idee entwickelt, mithilfe dieser erfassbaren Daten ein Elektrostimulationsgerät zu steuern und eine zuvor erfasste Bewegung zu stimulieren. Dies soll mithilfe des Elektrostimulator MotionStim8 [31] der Fa. Kraut + Timmermann, welcher unter anderem in der Rehabilitation von querschnittgelähmten Patienten Anwendung findet, realisiert werden.
Das Ziel der Arbeit sind grundlegende Untersuchungen zur Kopplung des Myo-Armbands [25] mit dem Motionstim8 [31]. Es soll untersucht werden, inwieweit aufbauend auf der Analyse des EMG-Datenstroms oder der vorhandenen Gestenerkennung geeignete Ansteuersignale für den Motionstim8 [31] erzeugt werden können, die z.B. die Übertragung der Geste/Bewegung einer Quell-Hand auf eine Ziel-Hand ermöglichen. Von Interesse ist unter anderem, welche Gesten beziehungsweise Bewegungen sich hierzu eignen, ob die Stimulation kontinuierlicher Bewegungen prinzipiell möglich ist und wie eine effiziente individuelle Kalibrierung für verschiedene Probanden erfolgen kann.
Im Sommer 2014 stellten Menschen auf der ganzen Welt Videos in das Internet, in denen sie mit Eiswasser überschüttet wurden. Grund dafür war die sogenannte ,,Ice Bucket Challange”. Der genaue Ursprung dieses Internetphänomens ist unbekannt. Sinn und Zweck ist eine Spendensammlung für die Erkrankung Amyotrophe Lateralsklerose, kurz ALS. [54] ,,Rund 100 Millionen US-Dollar kamen mit dieser einfachen Idee in 30 Tagen zusammen.” [6].
ALS ist eine ,,chronisch-degenerative Erkrankung des zentralen Nervensystems, die mit einer Atrophie der Skelettmuskulatur und Pyramidenbahnzeichen einhergeht” [41]. Die Ursache der Krankheit ist unbekannt, ein familiäres gehäuftes Auftreten lässt auf genetische Disposition hinweisen, andere Faktoren sind nicht auszuschließen. [54] Langfristig führt die Krankheit zum Absterben der Zellen, ,,die elektrische Impulse vom Gehirn indie Muskeln leiten” [54]. Dies führt zu einem Muskelschwund. Die aggresiv verlaufende Krankheit führt zu einer Lebenserwartung von 3-5 Jahren nach Eintritt, welche meist im Alter zwischen dem 50. und 70. Lebensjahr geschieht. [54]
Ein bekannter Betroffener dieser Krankheit ist der britische theoretische Physiker und Astrophysiker Stephen William Hawking. Der 1942 geborene Hawking erhielt im Alter
von 21 die Diagnose. Über die Jahre wurde seine körperliche Verfassung immer eingeschränkter, bis er 1985 durch die Folge einer Tracheotomie seine Stimme verlor. Ein kalifornischer Computer Programmierer wurde auf die Situation aufmerksam und entwickelte
einen Sprachcomputer, den Hawking über einen Druckknopf steuern konnte. Nach funktionsverlust der Hand wurde ein Interface entwickelt, welches dem Physiker die Steuerung des Sprachcomputers über eine Backenbewegung ermöglicht, die durch einen Infrarotsensor aufgenommen werden. Da die Krankheit weiter fortschreitet und nun auch seine Gesichtmuskulatur langsam lähmt, wird nach einer neuen Möglichkeit gesucht, die für den Physiker lebenswichtige Steuerung des Sprachcomputers zu ermöglichen. Eine Möglichkeit könnte das Eye Tracking darstellen, bei dem die Augenbewegungen verfolgtwerden. [14] [24] [15]
Im Folgenden wird sich mit dem Thema der Blickrichtungsverfolgung auseinandergesetzt und ein Ansatz für ein Eye Tracking System erforscht.
Die Atemfrequenz ist neben anderen ein wichtiger Vitalparameter für die Erkennung von verschiedenen Erkrankungen des Atemsystems. Dennoch gibt es wenige Lösungen dafür, die Atemfrequenz aus der Ferne zu überwachen. Im Rahmen dieser
Arbeit soll deshalb ein dreidimensionaler Beschleunigungssensor für die Aufnahme der Brustkorbbewegung verwendet werden. Aus diesen Bewegungsdaten soll daraufhin mit Hilfe von digitalen Signalverarbeitungsmethoden die Atemfrequenz ermittelt werden. Der Beschleunigungssensor ermittelt die rustkorbbewegung mit einer Abtastrate von 50 Punkten pro Sekunde für jede Achse. Die Rohsignale werden achsenweise mit einem Butterworth-Bandpassfilter gefiltert und daraufhin mit Hilfe der Fast Fourier Transformation in die jeweiligen Frequenzspektren umgerechnet. Die einzelnen Achsen-Spektren werden zusammenaddiert und bilden so die Frequenzen des gesamten Signals ab. In dem Gesamtspektrum wird das absolute Maximum gesucht, das die dominante Frequenz des Signals angibt, aus welcher die Atemfrequenz berechnet werden kann.
Das Hauptziel dieser Arbeit ist es, einen Open-Source Python-Prototypen zu entwickeln, der aus den Sensor-Rohdaten die Atemfrequenz ermitteln kann. Dieser soll nach Fertigstellung veröffentlicht werden. Die Ergebnisse des Prototypen sollen gegen die des „EarlySense VitalsGerätes evaluiert werden. Dabei sind für die Ergebnis-Datensätze die Korrelation berechnet sowie die statistische Signifikanz ermittelt worden. Die Evaluation hat gezeigt, dass der Prototyp gute Ergebnisse liefert, welche in den meisten Fällen eine statistisch signifikante Korrelation aufweisen.
Am Deutschen Krebsforschungszentrum wird im Rahmen des Projekts TPS++ erforscht, wie ein System für die adaptive Strahlentherapie (ART) konzipiert sein muss. Ziel der adaptiven Strahlentherapie ist, eine optimal auf den individuellen Patienten abgestimmte Behandlung durchzuführen. Basierend auf täglich erstellten Bilddaten müssen Behandlungszielvorgaben überwacht und der Plan innerhalb kürzester Zeit (Minuten) angepasst werden. Die größten Herausforderungen hierbei sind die Menge der zu verarbeitenden und zu visualisierenden Daten sowie die Anforderungen an Flexibilität, Grad der Automatisierung und Möglichkeiten der Interaktion.
Ziel dieser Arbeit ist die Gestaltung und Realisierung einer Benutzeroberfläche (GUI) für dieses neuartige, innovative System. Hierfür muss ein neues Konzept bezüglich der Benutzerführung, Flexibilität der GUI und der Interaktionsmöglichkeiten erstellt, umgesetzt und evaluiert werden. Die GUI muss so gestaltet sein, dass sie die Darstellung von Daten für verschiedenste bekannte Anwendungsszenarien sowie eine einfache Erweiterbarkeit für unbekannte Anwendungsszenarien und Daten leisten kann. Diese flexible Gestaltung der GUI ist notwendig, um adaptive Behandlungsstrategien weiter erforschen zu können. Aus Benutzeraktionen und den vorhandenen Daten muss das System erwünschte Benutzerhandlungen ableiten und die Daten in exakt der benötigten Darstellungsform für das aktuell zu bearbeitende Problem anzeigen.
Im fortschreitenden Alter fällt es Menschen schwer, regelmäßig Medikamente zum richtigen Zeitpunkt einzunehmen. Oft wird dies durch eine große Anzahl verschiedener Medikamente
noch erschwert, die über den Tag eingenommen werden müssen.
In Zusammenarbeit mit dem Praktikum Informationssysteme/Telemedizinische Anwendungen an der Hochschule Heilbronn wird eine Smartwatch-Anwendung für die Apple Watch entwickelt. Diese basiert stark auf dezenten Benachrichtigungen am Handgelenk. Auch eine native Anwendung, die der Nutzer aktiv bedienen kann, wird erstellt. Die Anwendung ist aufgrund fehlender Prototypen-Werkzeuge für die Apple Watch nativ in Swift realisiert. Hierbei wird auf Swift als relativ neue Programmiersprache eingegangen. Die Evaluierung wird an stationären Patienten im Alter von 70-85 vorgenommen. Die Aussage der Befragung ergibt, dass sich eine Uhr als Medium sehr gut eignet, da sie etwas Vertrautes ausstrahlt. Die touchscreen-basierte Steuerung fällt aufgrund reduzierter sensomotorischer Fähigkeiten der Probanden negativ auf. Während die Benachrichtigung mit einhergehender Vibration sehr gut aufgenommen wird, ist die Interaktion mit der Uhr schwerfällig. Die Patienten haben Probleme eine native Anwendung zu starten. In
Zukunft könnten diese Probleme mit Hilfe von Accessibility Funktionen der Plattform gelöst werden. Weiter bietet die Uhr interessante Anwendungsmöglichkeiten Menschen im Alltag zu unterstützen.