Refine
Year of publication
Document Type
- Bachelor Thesis (55) (remove)
Has Fulltext
- yes (55) (remove)
Is part of the Bibliography
- no (55)
Keywords
- Implementierung (5)
- Software (5)
- Analyse (4)
- Konzeption (4)
- Daten (3)
- Entwicklung (3)
- Patient (3)
- Strahlentherapie (3)
- Applikation (2)
- Computer (2)
Institute
- Medizinische Informatik (27)
- Informatik (26)
- Mechanik und Elektronik (1)
Entwicklung eines haptischen Interfaces für die roboterassistierte Ultraschallbildakquisition
(2021)
Motivation:
Die Bedienung eines Roboters bei einer roboterassistierten Ultraschallbildakquisition
zur Lagekontrolle eines Tumors während einer Strahlentherapie ist mit einem groÿen
Aufwand verbunden. Eine externe Applikation oder ein externes Bediengerät ist dazu
notwendig. In dieser Arbeit wird die intuitivere Möglichkeit erforscht, dem Roboter
Befehle durch Berührungen zu erteilen. Für eine solche Gestensteuerung wird anhand
von Sensordaten eines sensitiven Leichtbauroboters bewertet, inwieweit eine Steuerung
durch ein haptisches Interface umsetzbar ist und dafür ein Klassifikator entwickelt.
Methodik:
Die Erhebung der Sensordaten erfolgte an einem KUKA LBR-iiwa7-800 Roboter. Es
wurden acht repräsentative Gesten für ein haptisches Interface definiert. Diese Gesten
wurden an verschiedenen Roboterposen von Probanden ausgeführt, während Sensordaten
erhoben wurden. Die Messungen wurden im statischen Zustand des Roboters
und im Impedanzmodus des Roboters durchgeführt, da mithilfe des Impedanzmodus
die Atemkompensation während einer Ultraschallbildakquisition realisiert wird. Die
Messdaten wurden in Matlab ausgewertet.
Ergebnisse:
Vier der definierten Gesten sind allein durch Bestimmung der kartesischen Kräfte x, y z
detektierbar und voneinander unterscheidbar. Diese vier Gesten sind Gesten, die durch
Berührung am Tool (Ultraschallkopf) oder Toolnähe (Roboterhand) ausgeführt werden.
Die Unterscheidung von Gesten, die am Roboterellenbogen ausgeführt wurden,
ist anhand der kartesischen Kräfte nicht möglich. An Roboterposen, die singularnahe
oder singulare Achsstellungen aufweisen, ist eine Detektion von Gesten ebenfalls problematisch.
Ansonsten ist eine Detektion posen- und nutzer-unabhängig durchführbar.
In Messungen während einer Atemkompensation wurden diese Gesten ebenfalls richtig
detektiert.
Fazit:
Ein haptisches Interface für roboterassistierte Ultraschallbildakquisition ist realisierbar
für Gesten, die am Roboter in der Nähe des TCPs ausgeführt werden. Für die Detektion
und Klassifizierung dieser Gesten ist die Krafteinschätzung am TCP ausreichend.
Die heutige Software-Entwicklung ist davon geprägt, dass Anwendungen immer komplexer
und aufwändiger werden. Gleichzeitig steigen die Erwartungen der Kunden an
die Qualität der Software.
Für die Software-Entwickler ist die Telemetrie zu einem unverzichtbaren Werkzeug
geworden. Sie ist ein wesentlicher Baustein, um die Beobachbarkeit (Observability)
von Applikationen zu erhöhen und somit die Grundlage für eine bessere Qualität in
der Software Entwicklung. Hierbei ist zu analysieren, welche Bedeutung die Telemetrie
für den gesamten Software Development Life Cyle hat.
Der aktuelle Stand der Software-Telemetrie wird am Beispiel des Projektes OpenTelemetry
dargelegt.
OpenTelemetry hat sich zum Ziel gesetzt, die universelle Plattform für den Austausch
von Telemetriedaten zu werden.
Die Ergebnisse des Projektes OpenTelemetry werden analysiert und bewertet.
Auf dem Markt der Android Applikationen gibt es ein breites Spektrum an
Lernanwendungen. Allerdings exisitiert ein Mangel an gut strukturierten
inhaltlichen Zusammenfassungen der schulischen Themen, gerade im
Fach Mathematik.
Mein Ziel der Bachelorarbeit ist, eine Education App zu entwickeln, diese
im realen Betrieb zu testen und somit einen Lösungsansatz für den
Mangel an solchen Apps zu erhalten. Ich werde am Beispiel der 8. Klasse
Realschule im Fach Mathematik eine thematische Zusammenfassung
erzeugen und als App umsetzen. Mathematische Grundlage hierfür bildet
das Schulbuch Schnittpunkt 8 des Klettverlages (Differenzierende
Ausgabe, 2015).
Bugfixing und Evaluierung verläuft Hand in Hand, um am Ende des
Entwicklungsprozesses eine voll funktionsfähige, getestete App zu
bekommen.
Mit Hilfe eines Fragebogens wird dabei direkt auf die Zielgruppe
eingegangen.
Die App wird im Anschluss des Entwicklungsprozesses nach dem Open-
Closed Prinzip fungieren. Ist also für Erweiterungen offen. Diese Funktion
erreiche ich durch genau definierte Schnittstellen. Es wird möglich sein,
neue Klassen ebenso wie Schularten hinzuzufügen. Als
Entwicklungsumgebung dient mir IntelliJ, als Testgerät ein Samsung
Smartphone.
Die App wird den Namen MaTHive Spectre tragen, um direkt auf das
Potential aufmerksam zu machen und einen einprägsamen Namen zu
erhalten.
In this bachelor thesis, different models for predicting the influenza virus are
examined in more detail.
The focus is on epidemiological compartmental models, as well as on different
Machine Learning approaches.
In particular, the basics chapter presents the SIR model and its various extensions.
Furthermore, Deep Learning and Social Network approaches are
investigated and the applied methods of a selected article are analysed in more
detail.
The practical part of this work consists in the implementation of a Multiple
Linear Regression model and an Artificial Neural Network. For the development
of both models the programming language Python was chosen using the
Deep Learning Framework Keras.
Tests were performed with real data from the Réseau Sentinelles, a French
organisation for monitoring national health.
The results of the tests show that the Neural Network is able to make better
predictions than the Multiple Linear Regression model.
The discussion shows ideas for improving influenza prediction including the
establishment of a worldwide collaboration between the surveillance centres as
well as the consolidation of historical data with real-time social media data.
Therefore, this work consists of a state-of-the art of models regarding the
spread of influenza virus, the development and comparison of several models
programmed in Python, evaluated on real data.
Alzheimer’s Disease affects millions of people worldwide, but till today, the gold standard
for definitive diagnosis of this disease is a biopsy. Nevertheless, with the progress
of the disease, a volume loss in the Hippocampus can be observed. Therefore, good
segmentation methods are crucial to facilitate quantification of this loss.
The focus of this work is on the development of a Machine Learning algorithm, more
precisely a Generative Adversarial Network, for the automated segmentation of the
human Hippocampus and its substructures in Magnetic Resonance Images. In particular,
the task is to determine if the integration of a pre-trained network that generates
segmentations into a Generative Adversarial Network scheme can improve generated
segmentations. In this context, a segmentation network in form of a U-net corresponds
to the generator. The discriminator is developed separately and merged in a second
step with the generator for combined training.
With a literature review regarding the automated segmentation of the Hippocampus,
current methods in this field and their medical and technological basics were identified.
The datasets were preprocessed to make them suitable for the use in a neural
network. In the training process, the generator was trained first until convergence.
Then, the Generative Adversarial Network including the pre-trained generator was
trained. The outcomes were evaluated via cross-validation in two different datasets
(Kulaga-Yoskovitz and Winterburn). The Generative Adversarial Network scheme
was tested regarding different architectural and training aspects, including the usage
of skip-connections and a combined loss function.
The best results were achieved in the Kulaga-Yoskovitz dataset with a Dice coefficient
of 90.84 % after the combined training of generator and discriminator with a joined
loss function. This improves the current state of the art method in the same task and
dataset with a Dice index of 88.79 % by Romero [Rom17]. Except of two cases in the
Winterburn dataset, the proposed combined method could always improve the Dice
results after the training of only the generator, even though only by a small amount.
Aufgrund der unterschiedlichen Wiederbelebungsabläufe zwischen Erwachsenen
und Kindern, müssen bei der Reanimation eines Kindes andere Behandlungsmaßnahmen
durchgeführt werden. So müssen z.B. Medikamente anders dosiert werden.
Hinzu kommt, dass eine Reanimation an einem Kind nur selten durchgeführt wird.
Dadurch sind Mediziner mit einer Wiederbelebungsmaßnahmen an Kindern aufgrund
mangelnden Routine unsicher bzw. führen falsche Behandlungsmaßnahmen
durch. Zwar sind bereits Leitlinien in digitaler Ausführung vorhanden, jedoch
werden diese in einer für eine Reanimation ungeeigneten Form ausgegeben und
können so nur schlecht in einer Wiederbelebungsmaßnahme genutzt werden. Um
Behandlungsfehler zu minimieren wird in dieser Arbeit untersucht, ob eine Datenbrille
zur Darstellung der Leitlinien verwendet werden und der Mediziner diese
mittels Sprachkommandos steuern kann. Um die Qualität der Sprachsteuerung im
Umgang mit den Leitlinien festzustellen, wurde eine Evaluation dieser durchgeführt.
Dafür wurden die Anwendung mit zehn Personen getestet. Diese ergab, dass
die Nutzung der Sprachsteuerung durch Auswahl geeigneter Sprachkommandos
sowohl bei Zimmerlautstärke, als auch bei Straßenlärm möglich war. Somit ist die
Steuerung einer Datenbrille mit Sprachkommandos in einer Reanimation denkbar,
um den Mediziner durch Informationen zu unterstützen .
Gegenstand der hier vorgestellten Arbeit ist ein Konzept zum Lehren von Ontologie in der Informatik, des Ontologiemanagementsystems Protégé und des Wissensverwal-tungssytems ProKEt. Dies geschieht in Form von Präsentationen, welche mit Hilfe von PowerPoint erstellt wurden. Dabei wird auf die Installation, die Basics, Kernkonzepte und die Teilwissensbasen im Detail eingegangen. Diese Präsentationen sollen ein alter-natives Konzept für den Unterricht darstellen, um die Lernenden aktiv zu beteiligen, und stellen ein Angebot zum Lehren der entsprechenden Thematiken dar. Zur Überprüfung der Effizienz wird eine Evaluation durchgeführt.
Die Online-Enzyklopädie Wikipedia kann für die Analyse der Beziehungen zwischen
Konzepten als wertvolle Datenquelle dienen. Aus ihren klar deffinierten Strukturen,
wie z.B. der baumartigen Kategorisierung, Weiterleitungen, Infoboxen und Links zwischen
Artikeln ergibt sich die Möglichkeit, ausgehend von einem bestimmten Konzept
eine Fülle enzyklopädischen Wissens zu extrahieren, das für viele Anwendungszwecke
in der medizinischen Informatik genutzt werden kann. Trotz der einfachen Verfügbarkeit
von Wikipedia-MySQL-Backups ist es weder besonders intuitiv noch effizient,
diese Beziehungen direkt aus diesen relationalen Datenbanken abzuleiten. Stattdessen
wäre ein weitaus intuitiverer Ansatz für die Datenanalyse, die genannten Strukturen
und ihre Beziehungen zueinander als Knoten und Kanten in einem Graphen abzubilden.
Ausgehend von einem bestehenden Wikipedia-Graph-API zielte diese Arbeit
darauf ab, ein effizientes System zu entwickeln, das Wikipediastrukturen aus einem
MySQL-Backup extrahiert, diese verarbeitet und in eine Graphdatenbank speichert.
Eine Analyse von Graphdatenbank-Managementsystemen im Rahmen dieser Arbeit
ergab, dass Neo4j für diesen Anwendungszweck optimal geeignet ist, da seine Anfragesprache
Cypher eine intuitive Möglichkeit darstellt, Graphdaten zu analysieren. Das
Ergebnis dieser Arbeit ist NeoWiki, ein System, das sowohl eine Möglichkeit zur Generierung
von strukturellen Wikipedia-Graphen bietet als auch als Java Library die
Arbeit mit den erstellten Graph-Entitäten als Java-Objekten unterstützt. Obgleich
derzeit noch Raum für Verbesserungen hinsichtlich der Performance bei der Graphgenerierung
besteht, stellt NeoWiki doch bereits jetzt ein Tool zur intuitiven Analyse
von Wikipedia-Daten dar.
Das Ziel dieser Bachelorarbeit war es, ein Programm zu entwickeln, welches die doppelte
Lichtbrechung und die Reflexion eines Laserstrahls berechnen kann. Hierbei wird zuerst auf
die physikalischen Grundlagen eingegangen. Anschließend wird das dazu verwendete Programm
mit dem Algorithmus inklusive den Berechnungen vorgestellt. Das Programm kann
die doppelte Lichtbrechung und auch die Reflexion eines Laserstrahls berechnen und zusätzlich
bestimmen, ob der Laserstrahl gebrochen oder total reflektiert wird. Die Prüfung dafür,
erfolgt über den Größenvergleich zwischen dem Einfallswinkel und dem kritischen Winkel.
Der Algorithmus ist für beliebige Laserstrahlen unter Berücksichtigung der Brechungsindexe
geeignet.
Im Rahmen der sich ausbreitenden Digitalisierung ist die Forderung nach mehr Bandbreite in
aller Munde. Das Schlagwort ist allerdings ein umgangssprachlicher Begriff, welcher nicht
korrekt verwendet wird. Gemeint ist dabei vielmehr die Übertragungsrate. Bandbreite
beschreibt im eigentlichen Sinn den Frequenzumfang, für den ein System ausgelegt wurde. Die
Übertragungsrate ist mittlerweile zu einem Standortfaktor für Unternehmen geworden und kann
als ein Merkmal der Infrastruktur angesehen werden. Für manche Unternehmen ist eine hohe
Übertragungsrate unerlässlich um wettbewerbsfähig zu bleiben. Aus technischer Sicht gibt es
verschiedene Ansätze zur Steigerung der Übertragungsrate. Zunächst wird versucht, ohne
Veränderungen der Hardware eine kostengünstige Verbesserung zu erzielen. Beispielsweise
lässt sich eine Steigerung auf dem Weg der Modulation realisieren, indem mehrere
Trägerfrequenzen verwandt werden. Letztlich ist eine Optimierung der Hardware trotzdem
notwendig. Ursächlich für niedrige Übertragungsraten sind momentan noch die Netze. Die
Empfangseinheiten sind längst für höhere Geschwindigkeiten konzipiert. Sie enthalten neben
der Antenne einen Hochfrequenzverstärker, der die schwachen Antennensignale zur
anschließenden Demodulation und weiteren Verarbeitung verstärkt. Hohe Frequenzen
produzieren in den Leistungsverstärkern große Verlustleistungen aufgrund der Häufigkeit von
Umladevorgängen. Daraus resultieren schlechte Wirkungsgrade. Doch nicht nur an die
Übertragungsrate, sondern auch an den Wirkungsgrad werden hohe Anforderungen gestellt.
Dahinter steht der Bedarf an Mobilität. Von Smartphones und Tablets wird die Fähigkeit
erwartet, mit hoher Geschwindigkeit umfangreiche Datenmengen zu laden. Gleichzeitig wird
eine maximale Akkulaufzeit gefordert.
Im Mittelpunkt dieser Arbeit steht die optimale Betriebsweise von Hochfrequenzverstärkern.
Die Verstärker selbst wurden von den Herstellern optimiert. Darüber hinaus wirkt sich die
Auswahl der Betriebsparameter sehr stark auf den Wirkungsgrad und die Verzerrung und damit
auf die Signalqualität aus.
Aufgabe dieser Arbeit ist es, diverse Messungen mit Hochfrequenzverstärkern durchzuführen
um daraus die optimale Einstellung der Betriebsgrößen zu ermitteln. Die Messungen erfolgen
zunächst mit vier vorgefertigten Verstärkern. Darüber hinaus wird ein Verstärker auf der Basis
eines Verstärker-ICs auf einer Leiterplatte selbst hergestellt, mit welchem anschließend die
selben Messungen erfolgen.
Die Messungen erfolgen mit drei unterschiedlichen Typen von Eingangssignalen:
-CW-Signalen entsprechend Sinus-Signalen.
-Zweitonmessungen. Zwei Sinus-Signale unterschiedlicher Frequenz am Eingang.
-Digitale Telekommunikationsstandards.
Alle nachfolgend genannten Messungen werden im Laufe der Dokumentation erklärt.
Im CW-Fall werden Load-Pull- und Power-Sweep-Messungen durchgeführt. Es folgen
Spektralmessungen zur Bewertung der harmonischen Oberwellen bei Einton-Ansteuerung. Im
Zweiton-Fall werden Spektralmessungen im Bereich der Grundfrequenzen und anschließend
im Bereich der harmonischen Oberwellen durchgeführt. Auf diese Weise sollen
Intermodulationsprodukte bewertet werden. Ebenfalls im Zweiton-Fall erfolgen Load-Pull-
Messungen. Die Betrachtung des Spektrums erfolgt unter Variation der Last. Die Auswirkung
der Last auf den Störabstand wird dabei untersucht. Im Fall der digitalen Ansteuerung werden
unter verschiedenen Betriebsgrößen Messungen der Nachbarkanalleistung durchgeführt.
Der Ausdruck Load-Pull-Messung hat verschiedene Bedeutungen. Zum einen werden mit
Load-Pull-Messungen umgangssprachlich sämtliche Messungen bezeichnet, die zur
Charakterisierung von Hochfrequenzverstärkern dienen. Zum anderen steht Load-Pull-
Messung für ein Messverfahren, bei welchem die Lastimpedanz variiert wird. Die letztgenannte
Load-Pull-Messung stellt die zentrale Messung in dieser Arbeit dar. Um ihre Bedeutung
verständlich zu machen ist eine Auseinandersetzung mit den Grundlagen der
Hochfrequenztechnik von Nöten. Im Folgenden werden all jene Aspekte der
Hochfrequenztechnik behandelt, die zum Verständnis der Messungen dieser Arbeit notwendig
sind.
Gammastrahlung ist hochenergetische elektromagnetische Strahlung, die zum Beispiel
beim Zerfall radioaktiver Stoffe auftritt und besteht aus ungeladenen Photonen. Jeder
dieser Gammastrahler strahlt Photonen mit einer für ihn spezifischen Energie aus, woran
man ihn auch erkennen kann. So hat jeder Gammastrahler sozusagen seinen eigenen
Fingerabdruck.
Wenn man wissen will, welche Gammastrahler in einer Probe vorhanden sind, kann auf
die Gammaspektroskopie zurückgegriffen werden. Diese misst, wie der Name schon sagt,
das Spektrum, also die Energie und die Intensität, der Gammastrahlen. Aus dem daraus
entstehenden Graphen kann dann anhand der Ausschläge abgelesen werden, welche
Gammastrahler in der Probe enthalten sind, da sich diese über ihr Energiemaß bestimmen
lassen.
Die beiden grundsätzlichen Bestandteile eines solchen Gammastrahlenspektrometers sind
ein Detektor und eine Strahlungsquelle, meist eine radioaktive Probe. Die Probe wird so
angebracht, dass sie auf den Detektor strahlt. Dieser registriert dann die Impulse, die
durch Wechselwirkung zwischen den Gammastrahlen und den Elektronen des Detektors
entstehen.
Es gibt zwei hauptsächlich auftretende Effekte. Der Wichtigste ist wohl der Photoeffekt.
Hierbei trifft ein Photon auf ein Elektron und das Photon wird vollständig vom Elektron
absorbiert, wodurch das Elektron aus seiner aktuellen Bindung, innerhalb des Atoms,
gelöst wird. Dies ist der wichtigste Effekt, weil er genau die Information liefert, die gesucht
wird. Das ist die exakte Energie, mit der ein radioaktives Nuklid abstrahlt. Den durch
gehäuftes Vorkommen dieses Effektes auftretenden Ausschlag nennt man Photopeak. Er
stellt die spezifische Energie von einem der, in der Probe vorhandenen, Gammastrahlern
dar. Anhand dieses Peaks ist es letztendlich möglich die enthaltenen Gammastrahler zu
identifizieren.
Der zweite Effekt nennt sich Compton-Effekt. Hierbei trifft ebenfalls ein Photon auf ein
Elektron. Dieses Mal wird das Photon aber nicht absorbiert, sondern gibt lediglich einen
Teil seiner Energie an das Elektron ab und wird dann in einem Winkel von 0° bis 180°
gestreut. Es setzt seinen Weg also mit geringerer Energie und damit größerer Wellenlänge
fort.
Leider ist das obige Spektrum im jetzigen Zustand noch lange nicht perfekt. Noch sind zu
viele Störungen und Fehlinformationen enthalten. Zwar könnte damit gearbeitet werden,
jedoch mit dem Risiko, dass eventuell Informationen verfälscht, oder sogar gar nicht
ausgelesen werden. Perfekt wäre es, wenn das Spektrum komplett der x-Achse anliegen
würde, vollkommen glatt, ohne Rauschen und nur die Photopeaks zu sehen wären.
Ein kleiner Teil der Störungen, die das Signal beeinflussen, kann schon im obigen Teil
erkannt werden. Es spielen nämlich viel mehr Effekte eine Rolle, als es im besten Fall sein
sollten.
Einer der Störeffekte zum Beispiel, ist der bereits oben erwähnte Compton-Effekt. Dieser
trägt nichts zum Photopeak bei, sondern liefert einen Impuls, dessen Energie bis zu einem
gewissen Punkt, dieser „Punkt“ wird auch Compton-Kante genannt, unterhalb der
spezifischen Energie des Photons liegt. Wenn die spezifische Energie eines Photons zum
Beispiel 600keV betragen würde, dann könnte durch den Compton-Effekt eine Energie
von 400keV geliefert werden. Es ist also möglich, dass angenommen wird es seien zwei
unterschiedliche Gammastrahler in der Probe vorhanden. Glücklicherweise sind die
Impulse, die durch den Compton-Effekt entstehen relativ gleich verteilt und erreichen
kaum die Intensität eines Photopeaks. Dennoch zieht jeder Photopeak einen solchen
Rattenschwanz aus schwächeren Impulsen, welche von 0keV bis zur Energie der
Compton-Kante reichen, hinter sich her. Dies wird auch Compton-Kontinuum genannt. Da
im niedrigeren Bereich des Energiespektrums immer mehr Compton-Kontinuen
aufeinandertreffen, je nachdem wie viele Photopeaks, also unterschiedliche
Gammastrahler, in der Probe vorhanden sind, bildet sich dort oft ein sichtbarer Hügel, oder
eine Steigung. Umgekehrt flacht das Spektrum im höheren Bereich immer weiter ab, da
4
Abbildung 1: Beispielspektrum
weniger Compton-Kontinuen vorhanden sind.
Das Compton-Kontinuum trägt einen Großteil zum Untergrund bei. Der Untergrund füllt
fast den kompletten Bereich zwischen Gammaspektrum und x-Achse aus. Ebenso spielt
hier auch die Umgebungsstrahlung eine Rolle, welche eigentlich immer vorhanden ist und
die man nur schwer ausschließen kann.
Ein weiterer Störfaktor ist das in der Elektrotechnik bekannte Rauschen, welches auch im
obigen Spektrum sehr gut erkannt werden kann.
Dies sind nur einige Störungen, die eine Rolle spielen.
Es werden somit sehr viele Störgrößen ungewollt mit betrachtet und diese Störgrößen
müssen durch Werkzeuge, wie zum Beispiel Algorithmen, entfernt werden. Da ich mich in
dieser Bachelorarbeit auf die Untersuchung von Algorithmen zur Bestimmung des
Untergrundes beziehe, werde ich mich im Weiteren auf diese beschränken und die
anderen Probleme größtenteils außer Acht lassen.
Nun gibt es natürlich bereits Algorithmen, mit denen sich der Untergrund von Gammaspektren
bestimmen lässt. Das Problem hierbei ist, dass diese meist nur bei bekannten
Spektren funktionieren, auf die sie, mehr oder weniger, speziell zugeschnitten sind. Wenn
diese Algorithmen eins zu eins auf ein unbekanntes Spektrum angewandt würden, kann es
schnell vorkommen, dass die Untergrundbestimmung misslingt und weit vom angestrebten
Ergebnis entfernt ist.
Einen einzelnen Algorithmus zu entwickeln, der für alle Spektren einsetzbar wäre, ist aber
auch keine Möglichkeit. Der Aufwand und die Kosten wären noch viel zu hoch. Außerdem
würde sich keine Firma finden,welche sich an solch ein Projekt wagen würde, da auch viel
zu wenige Abnehmer dafür vorhanden sind.
Darum werde ich in dieser Arbeit kleinere, einfachere Algorithmen genauer untersuchen,
um zu verstehen, wie sich diese auf unterschiedliche Spektren anwenden lassen. Das
damit entstehende Ergebnis ist wahrscheinlich nicht perfekt, aber gut genug, um damit
arbeiten zu können.
Ziel dieser Arbeit ist es, zwei Algorithmen zur Untergrundbestimmung zu evaluieren und
einen Überblick über folgende Themen zu geben:
– Einen Ausblick über die Auswirkungen der einzelnen Parameter der Algorithmen zu
geben, um zum Beispiel schnell abschätzen zu können, welcher Parameter in
einem konkreten Fall verändert werden muss.
– Einen groben Rahmen festzulegen, in dem die einzelnen Parameter gewählt
werden können, sodass mit hoher Wahrscheinlichkeit ein gutes Ergebnis erreicht
wird.
– Stärken und Schwächen der Algorithmen herausarbeiten, um zum Beispiel die
Verwendung eines Algorithmus auszuschließen, der sich für den beabsichtigten
Zweck nur schwer oder gar nicht einsetzen ließe.
5
– Einen schnellen Überblick über die Möglichkeiten geben, um mit den Algorithmen
ohne großes Vorwissen zu arbeiten.
In dieser Arbeit wird eine Software entwickelt, um das Koppeln des Thalmic MYOArmbands
mit dem Stimulator MotionStim8 zu vereinfachen. In einer vorherigen Arbeit
[15] wurden für die Kopplung MATLAB Skripte benutzt. Diese sollen durch die
Software vollständig ersetzt werden. Auÿerdem soll der Stimulator eine drahtlose Anbindung
über zwei British Broadcasting Corporation (BBC) micro:bit Systeme erhalten.
Dazu wird zuerst eine Anforderungsanalyse durchgeführt, woraus konkrete UseCases der
Software formuliert werden konnten. Hierzu werden aus der Problemstellung und den
daraus resultierenden Zielen dieser Arbeit Funktionale und nicht-Funktionale Anforderungen
extrahiert. Es müssen Gesten, sowie deren Myo- und Stimulations-Daten verwaltet
werden können. Auch müssen sowohl Myo-Armband als auch MotionStim8 drahtlos
angebunden, sowie gekoppelt werden.
Nachdem die Anforderungen feststehen, wird ein Konzept zur Umsetzung entwickelt.
Dazu wird eine Entwicklungsumgebung gewählt und eine Softwarearchitektur ausgearbeitet.
Es wird ein Model-View-Controller (MVC)-Modell angestrebt. Für die Entwicklungsumgebung
der Steuersoftware wird VisualStudio, bzw. C#, und für die drahtlos
Anbindung Mu, bzw. MicroPython, verwendet. Auch wird eine Übersicht über die Komponenten
angefertigt. Daraus sind die Hardware-Schnittstellen, PC zu micro:bit, micro:
bit zu micro:bit, micro:bit zu MotionStim8, sowie Myo-Armband zu PC, ableitbar.
Für das Myo-Armband existieren bereits Software-Bibliotheken, welche eingebunden werden
können und somit das Entwickeln einer eigenen Schnittstelle nicht notwendig machen.
Zum Schluss der Konzeption werden Ideen für eine Benutzeroberäche erarbeitet. Dafür
werden die Nicht-Funktionalen Anforderungen, modularer Aufbau sowie Benutzerfreundlichkeit
und Übersichtlichkeit, aus der Anforderungsanalyse aufgegrien. In dieser Phase
werden bereits erste MockUps erstellt.
Die Implementierung ndet in zwei Schritten statt.
Die Drahtlosfunktion, bzw. der Python-Teil, kann separat entwickelt werden. Dafür werden
die seriellen Schnittstellen, PC zu micro:bit und micro:bit zu MotionStim8, sowie
die Übertragung zwischen den beiden micro:bits implementiert. Auÿerdem werden die
Befehle im micro:bit an die benötigte Command Structure des Stimulators angepasst.
Die Steuersoftware beinhaltet eine Graphical User Interface (GUI) mit modulübergreifenden
Funktionen. Die einzelnen Module, Myo Controller, Stimulation Controller und
Gesture Controller besitzen ihre eigene Oberäche und können in die GUI modular integriert
werden. Die Gesten-, Myo- und Stimulations-Daten können über das jeweilige
Modul verwaltet werden. Über das Beenden der Anwendung hinaus werden alle Daten
in einer Extensible Markup Language (XML)-Datei gespeichert. Die Kopplung des Myo-
Armbands mit dem MotionStim8 ndet über einen Mapper statt, welcher eine Mapping-
Matrix für eine Geste errechnet. Dafür müssen vorab Myo- und Stimulations-Daten für
jede Position dieser Geste gesetzt werden. Die Echtzeitfunktion wird übergeordnet über
die GUI gestartet und berechnet für eingehende Myo-Daten die Pulsweiten für die Stimulation.
Für diese Berechnung wird die Mapping-Matrix benötigt.
Hiernach kann die entwickelte Steuersoftware für die denierten Anforderungen, bzw.
UseCases, verwendet werden.
3D-Ultraschall beim MITK
(2017)
In dieser Bachelorthesis wird ein Frei-Hand-3D-Ultraschallsystem entwickelt. Dieses
soll 3D-Ultraschallbildgebung im MITK ermöglichen. Basis hierfür sind ein konventionelles
2D-Ultraschallgerät und ein optisches Trackingsystem. Die nötigen Teilschritte
werden erläutert und beschrieben.
Ergebnis ist ein Plugin für das MITK, das aus aufgenommenen 2D-Ultraschallbildern
ein 3D-Volumen berechnet.
Im Rahmen eines Kooperationsprojektes zwischen dem Heidelberger Institut für Medizinische Informatik und Biometrie (IMBI) und der Mund- Kiefer und Gesichtschirurgie (MKG) des Universitätsklinikums Heidelberg soll ein MITK-Plugin für die Segmentierung von knöchernen Strukturen aus Schichtbilddaten der Computertomographie (CT), sowie der digitalen Volumentomographie (DVT) mit möglichst wenigen Nutzerinteraktionen entwickelt und evaluiert werden.
Hierbei ist insbesondere eine hohe Segmentierungsqualität im Bereich des Kiefers und der Zähne relevant. Dabei erweisen sich Zahnspangen bzw. Zahnfüllungen als besondere Herausforderung. Die Arbeit, sowie das MITK-Plugin behandelt drei Aufgabenbereiche. Es handelt sich dabei um die Metallartefaktreduktion (MAR), Segmentierung und Oberflächenrekonstruktion. Die bildbasierte Artefaktreduktion kann auf CT-Datensätze entweder manuelle oder automatisch angewendet werden. Dabei stehen zwei verschiedene Methoden zur Auswahl. Es handelt sich dabei um die lineare Interpolation (LI) und die rohdatenfreien MAR (RFMAR). Ziel der Artefaktreduktion ist eine verbesserte 3D-Visualisierung. Dabei zeigen die Methoden stellenweise eine Verbesserung durch reduzierte schwarzer Schatten im Bereich der Metalle. Problematisch wirken sich neue Artefakte, welche durch die Reduktion enstehen, auf das Ergebnis der 3D-Visualierung aus. Für die Segmentierung sind zwei Verfahren implementiert worden. Es handelt sich dabei um ein eigenes automatisches Verfahren LCC (Largest Connected Component), und um einen Region Grower. Das automatische Verfahren ist hierbei robust gegenüber einer ungewollt segmentierten Patientenliege, hat aber den Nachteil dass unter Umständen nicht alle knöchernen Strukturen segmentiert werden. Für diesen Fall kann der Region Grower eingesetzt werden, welcher durch Benutzerinteraktion den Nachteil des LCC-Verfahrens ausgleicht. Die Verfahren zeigen im Bezug auf CT-Datensätze gute Ergebnisse. Durch den schlechten Knochenkontrast des verwendeten DVT-Gerätes müssen bei der Segmentierung der DVT-Datensätze Kompromisse eingegangen werden. Durch eine Histogramm-Analyse hat sich für die automatische Schwellwertbestimmung nach Otsu eine Mindestanzahl von drei Otsu-Schwellwerten ergeben. Weiterhin wurde das LCCVerfahren gegenüber einer Referenzsegmentierung eines MKG-Chirurgen evaluiert. Die Evaluierung zeigt, dass die Wahl zwischen drei und sechs Otsu-Schwellwerte keine signifikanten Auswirkungen auf die Genauigkeit der Segmentierung hat. Durch einen Kompromiss zwischen Laufzeit und Segmentierungsqualität wird die Verwendung von vier Otsu-Schwellwerten empfohlen.
Mobile Signalverarbeitung auf dem Raspberry Pi mit Aspekten der Vernetzung mehrerer Messgeräte
(2016)
Bei dem Raspberry Pi handelt es sich um einen Einplatinen-Computer, welcher ich seit dem Verkaufsstart im Jahr 2012 sehr groÿer Beliebtheit erfreut. Nicht zuletzt aufgrund des hohen Grades an Kompatibilität und der groÿen Online-Community wurden bis zum heutigen Tage unzählige Projekte realisiert. In der Zwischenzeit ist der Raspberry Pi in verschiedenen Anwendungsgebieten und Branchen anzutreffen. Dies ist insofern interessant, da dieser ursprünglich für den Einsatz in Bildungseinrichtungen auf Basis einer Stiftung entwickelt wurde [1]. Dabei stellen Anwendungen wie eine Smart-Home Steuerung, ein Multimedia-Center oder eine Wetterstation nur einen Bruchteil der Möglichkeiten dar. Grundlage dieser vielfältigen Anwendungsgebiete ist die Unterstützung sämtlicher standardisierter Hard- und Software-Schnittstellen, zum Beispiel USB, Audio-Klinke, Serial Peripheral Interface (SPI) oder Inter-Integrated Circuit (I2C). Dadurch wird die Einbindung von beispielsweise Global Positioning System (GPS)-Modulen, Wireless Local Area Network (WLAN)-Empfängern oder sogar der eigenen Spiegelreflexkamera ermöglicht. Weiterhin ist mit Hilfe eines Mikrofons die Entwicklung einer Sprachsteuerung denkbar. Der mögliche Anwendungsbereich des Raspberry Pi geht noch weit über die hier genannten Beispiele hinaus. Eine der Schnittstellen des Raspberry Pi stellen die sogenannten General Purpose Input Output (GPIO)-Ports dar. Hierbei handelt es sich um analoge und digitale Ein- und Ausgänge worüber Hardware-Komponenten direkt auf physikalischer Ebene eingebunden werden können. Der Raspberry Pi eignet sich auch zum Nachweis radioaktiver Strahlung.
Ziel der Arbeit soll die Entwicklung eines Gerätes zur Messung der Strahlendosis sein. Dazu gehört die Verwendung eines Geiger-Müller-Zählrohrs, welches mittels eines Arduino Shields ansprechbar ist. Weiterhin sollen im Rahmen dieser Arbeit verschiedene Möglichkeiten zur Weiterentwicklung des Systems betrachtet werden. Das Geiger-Shield, zu dem das Geiger-Müller-Zählrohr und das Arduino-Shield gehören, wurden von dem Hardware-Hersteller Libelium im Jahr 2011 entwickelt. Anlass war der Tsunami in Japan, welcher die Atom-Katastrophe von Fukushima nach sich gezogen hat [2]. Das Geiger-Shield sollte den Alltag der Menschen in Japan vereinfachen, indem sie selbst die Strahlendosis messen konnten. Mit einem Mikrocontroller, einem einfachen LC-Display und einem Akku konnte so jederzeit die aktuelle Strahlendosis bestimmt werden.
Die Erfassung eines Elektromyogramms (EMG) ist bisher mit großem zeitlichen und finanziellen Aufwand verbunden. Zudem müssen die Elektroden, welche aufgebracht werden, an den richtigen Stellen fixiert werden. Dies ist essentiell und kann nur von Fachpersonal durchgeführt werden. Somit ist es mit großem Aufwand verbunden.
Durch das Myo-Armband [25] der Firma Thalmic Labs hat sich dies zum Positiven geändert, da hier das Armband nur über den Unterarm gestreift werden muss und durch dieses innovative ”Wearable Device” direkt Elektromyographie-Daten erfasst werden können.
Mithilfe dieses Armbands und einer wohl programmierten Schnittstelle, kann damit sogar eine Drohne ferngesteuert werden. Auch eine Prothese kann damit bewegt werden. Das beste Beispiel hierfür ist ,,Johnny Matheny”. Ihm wurde aufgrund von Krebs der linke Arm oberhalb des Ellenbogens amputiert. Speziell für ihn, wurde eine Prothese konstruiert, welche durch zwei Myo-Armbänder am Oberarm gesteuert werden kann. So kann er laut der Website [1] seine Prothese, wie seither seinen Arm, bewegen.
Es wurde zusätzlich die Idee entwickelt, mithilfe dieser erfassbaren Daten ein Elektrostimulationsgerät zu steuern und eine zuvor erfasste Bewegung zu stimulieren. Dies soll mithilfe des Elektrostimulator MotionStim8 [31] der Fa. Kraut + Timmermann, welcher unter anderem in der Rehabilitation von querschnittgelähmten Patienten Anwendung findet, realisiert werden.
Das Ziel der Arbeit sind grundlegende Untersuchungen zur Kopplung des Myo-Armbands [25] mit dem Motionstim8 [31]. Es soll untersucht werden, inwieweit aufbauend auf der Analyse des EMG-Datenstroms oder der vorhandenen Gestenerkennung geeignete Ansteuersignale für den Motionstim8 [31] erzeugt werden können, die z.B. die Übertragung der Geste/Bewegung einer Quell-Hand auf eine Ziel-Hand ermöglichen. Von Interesse ist unter anderem, welche Gesten beziehungsweise Bewegungen sich hierzu eignen, ob die Stimulation kontinuierlicher Bewegungen prinzipiell möglich ist und wie eine effiziente individuelle Kalibrierung für verschiedene Probanden erfolgen kann.
Im Sommer 2014 stellten Menschen auf der ganzen Welt Videos in das Internet, in denen sie mit Eiswasser überschüttet wurden. Grund dafür war die sogenannte ,,Ice Bucket Challange”. Der genaue Ursprung dieses Internetphänomens ist unbekannt. Sinn und Zweck ist eine Spendensammlung für die Erkrankung Amyotrophe Lateralsklerose, kurz ALS. [54] ,,Rund 100 Millionen US-Dollar kamen mit dieser einfachen Idee in 30 Tagen zusammen.” [6].
ALS ist eine ,,chronisch-degenerative Erkrankung des zentralen Nervensystems, die mit einer Atrophie der Skelettmuskulatur und Pyramidenbahnzeichen einhergeht” [41]. Die Ursache der Krankheit ist unbekannt, ein familiäres gehäuftes Auftreten lässt auf genetische Disposition hinweisen, andere Faktoren sind nicht auszuschließen. [54] Langfristig führt die Krankheit zum Absterben der Zellen, ,,die elektrische Impulse vom Gehirn indie Muskeln leiten” [54]. Dies führt zu einem Muskelschwund. Die aggresiv verlaufende Krankheit führt zu einer Lebenserwartung von 3-5 Jahren nach Eintritt, welche meist im Alter zwischen dem 50. und 70. Lebensjahr geschieht. [54]
Ein bekannter Betroffener dieser Krankheit ist der britische theoretische Physiker und Astrophysiker Stephen William Hawking. Der 1942 geborene Hawking erhielt im Alter
von 21 die Diagnose. Über die Jahre wurde seine körperliche Verfassung immer eingeschränkter, bis er 1985 durch die Folge einer Tracheotomie seine Stimme verlor. Ein kalifornischer Computer Programmierer wurde auf die Situation aufmerksam und entwickelte
einen Sprachcomputer, den Hawking über einen Druckknopf steuern konnte. Nach funktionsverlust der Hand wurde ein Interface entwickelt, welches dem Physiker die Steuerung des Sprachcomputers über eine Backenbewegung ermöglicht, die durch einen Infrarotsensor aufgenommen werden. Da die Krankheit weiter fortschreitet und nun auch seine Gesichtmuskulatur langsam lähmt, wird nach einer neuen Möglichkeit gesucht, die für den Physiker lebenswichtige Steuerung des Sprachcomputers zu ermöglichen. Eine Möglichkeit könnte das Eye Tracking darstellen, bei dem die Augenbewegungen verfolgtwerden. [14] [24] [15]
Im Folgenden wird sich mit dem Thema der Blickrichtungsverfolgung auseinandergesetzt und ein Ansatz für ein Eye Tracking System erforscht.
Die Atemfrequenz ist neben anderen ein wichtiger Vitalparameter für die Erkennung von verschiedenen Erkrankungen des Atemsystems. Dennoch gibt es wenige Lösungen dafür, die Atemfrequenz aus der Ferne zu überwachen. Im Rahmen dieser
Arbeit soll deshalb ein dreidimensionaler Beschleunigungssensor für die Aufnahme der Brustkorbbewegung verwendet werden. Aus diesen Bewegungsdaten soll daraufhin mit Hilfe von digitalen Signalverarbeitungsmethoden die Atemfrequenz ermittelt werden. Der Beschleunigungssensor ermittelt die rustkorbbewegung mit einer Abtastrate von 50 Punkten pro Sekunde für jede Achse. Die Rohsignale werden achsenweise mit einem Butterworth-Bandpassfilter gefiltert und daraufhin mit Hilfe der Fast Fourier Transformation in die jeweiligen Frequenzspektren umgerechnet. Die einzelnen Achsen-Spektren werden zusammenaddiert und bilden so die Frequenzen des gesamten Signals ab. In dem Gesamtspektrum wird das absolute Maximum gesucht, das die dominante Frequenz des Signals angibt, aus welcher die Atemfrequenz berechnet werden kann.
Das Hauptziel dieser Arbeit ist es, einen Open-Source Python-Prototypen zu entwickeln, der aus den Sensor-Rohdaten die Atemfrequenz ermitteln kann. Dieser soll nach Fertigstellung veröffentlicht werden. Die Ergebnisse des Prototypen sollen gegen die des „EarlySense VitalsGerätes evaluiert werden. Dabei sind für die Ergebnis-Datensätze die Korrelation berechnet sowie die statistische Signifikanz ermittelt worden. Die Evaluation hat gezeigt, dass der Prototyp gute Ergebnisse liefert, welche in den meisten Fällen eine statistisch signifikante Korrelation aufweisen.
Am Deutschen Krebsforschungszentrum wird im Rahmen des Projekts TPS++ erforscht, wie ein System für die adaptive Strahlentherapie (ART) konzipiert sein muss. Ziel der adaptiven Strahlentherapie ist, eine optimal auf den individuellen Patienten abgestimmte Behandlung durchzuführen. Basierend auf täglich erstellten Bilddaten müssen Behandlungszielvorgaben überwacht und der Plan innerhalb kürzester Zeit (Minuten) angepasst werden. Die größten Herausforderungen hierbei sind die Menge der zu verarbeitenden und zu visualisierenden Daten sowie die Anforderungen an Flexibilität, Grad der Automatisierung und Möglichkeiten der Interaktion.
Ziel dieser Arbeit ist die Gestaltung und Realisierung einer Benutzeroberfläche (GUI) für dieses neuartige, innovative System. Hierfür muss ein neues Konzept bezüglich der Benutzerführung, Flexibilität der GUI und der Interaktionsmöglichkeiten erstellt, umgesetzt und evaluiert werden. Die GUI muss so gestaltet sein, dass sie die Darstellung von Daten für verschiedenste bekannte Anwendungsszenarien sowie eine einfache Erweiterbarkeit für unbekannte Anwendungsszenarien und Daten leisten kann. Diese flexible Gestaltung der GUI ist notwendig, um adaptive Behandlungsstrategien weiter erforschen zu können. Aus Benutzeraktionen und den vorhandenen Daten muss das System erwünschte Benutzerhandlungen ableiten und die Daten in exakt der benötigten Darstellungsform für das aktuell zu bearbeitende Problem anzeigen.
Im fortschreitenden Alter fällt es Menschen schwer, regelmäßig Medikamente zum richtigen Zeitpunkt einzunehmen. Oft wird dies durch eine große Anzahl verschiedener Medikamente
noch erschwert, die über den Tag eingenommen werden müssen.
In Zusammenarbeit mit dem Praktikum Informationssysteme/Telemedizinische Anwendungen an der Hochschule Heilbronn wird eine Smartwatch-Anwendung für die Apple Watch entwickelt. Diese basiert stark auf dezenten Benachrichtigungen am Handgelenk. Auch eine native Anwendung, die der Nutzer aktiv bedienen kann, wird erstellt. Die Anwendung ist aufgrund fehlender Prototypen-Werkzeuge für die Apple Watch nativ in Swift realisiert. Hierbei wird auf Swift als relativ neue Programmiersprache eingegangen. Die Evaluierung wird an stationären Patienten im Alter von 70-85 vorgenommen. Die Aussage der Befragung ergibt, dass sich eine Uhr als Medium sehr gut eignet, da sie etwas Vertrautes ausstrahlt. Die touchscreen-basierte Steuerung fällt aufgrund reduzierter sensomotorischer Fähigkeiten der Probanden negativ auf. Während die Benachrichtigung mit einhergehender Vibration sehr gut aufgenommen wird, ist die Interaktion mit der Uhr schwerfällig. Die Patienten haben Probleme eine native Anwendung zu starten. In
Zukunft könnten diese Probleme mit Hilfe von Accessibility Funktionen der Plattform gelöst werden. Weiter bietet die Uhr interessante Anwendungsmöglichkeiten Menschen im Alltag zu unterstützen.
Ziel dieser Bachelorthesis ist es, den Datenbestand des Klinischen Krebsregisters am
Tumorzentrum Heilbronn-Franken auf seine Vollständigkeit, Vollzähligkeit und seine
Repräsentativität zu untersuchen.
Diese werden am Beispiel des Kolorektalen Karzinoms untersucht.
Folgende Fragen lassen sich formulieren:
• Lassen sich mit den in einem einrichtungsbezogenen klinischen Krebsregister, wie
dem am Gesundbrunnen Heilbronn, erhobene regionale Daten ggfs. überregionale und
eventuell sogar bundesweite Aussagen ableiten?
• Sind die erfassten Daten vollständig bzw. wie vollständig sind die Datenbestände der
registrierten Patienten?
• Sind die erfassten Daten im Tumorzentrum Heilbronn-Franken am Gesundbrunnen
Heilbronn vollzählig? Werden im Klinischen Krebsregister der SLK-Kliniken alle
Neuerkrankungen erfasst?
Informationslücken sind in der Notfallmedizin besonders folgenschwer, da sie zu einer
ineffizienten Versorgung der Patienten führen und lebensbedrohlich sein können. Sie
entstehen, wenn Patienten sich nicht mehr adäquat artikulieren können oder nicht wissen, welche Vorerkrankungen sie haben und welche Medikamente sie einnehmen. So kann es beispielsweise zu schwerwiegenden Wechselwirkungen zwischen Medikamenten kommen oder zu allergischen Reaktionen auf ein Medikament.
Im Rahmen dieser Arbeit soll ein System entwickelt werden, das diese Informationslücken zwischen Patienten und Erst- und Zweithelfern schließen soll. Es besteht aus einer mobilen Anwendung für Android Smartphones und NFC-Tags. Dazu schreiben
Patienten ihre medizinischen Notfalldaten mit der mobilen Anwendung auf einen NFC-Tag. Diesen NFC-Tag tragen sie in Form einer Halskette, eines Armbands, eines Schlüsselanhängers o. ä. bei sich. In einem Notfall können Erst- und Zweithelfer diesen
NFC-Tag mit der mobilen Anwendung auslesen und bekommen so Informationen über den Patienten geliefert.
Die implementierte mobile Anwendung kann testweise für Evaluationen eingesetzt werden.
Für einen produktiven Einsatz müssen allerdings organisatorische sowie rechtliche
Pflichten wie der Datenschutz oder das Medizinproduktegesetz berücksichtigt werden.
In der heutigen Zeit ist es auch für Ärzte nicht immer trivial, diagnostisch präzise Entscheidungen auf Grund von modernsten medizinischen bildgebenden Verfahren zu treffen. Die vorliegende Bachelor-Thesis befasst sich damit wie man eine Software-anwendung mit Hilfe der Support Vector Machine (SVM), eine Technik des maschi-nellen Lernens, in ein bestehendes Framework wie z.B. MITK implementieren kann, um so vollautomatische Tests von Lebertumorsegmenierungen durchführen zu kön-nen. Durch die zusätzliche Integration einer Testklasse wird die entwickelte SVM validiert, um ein möglichst hohes Klassifikationsergebnis zu erreichen. Die in der Thesis entwickelte Softwarekomponente hat gezeigt, dass eine vollautomatische Segmentierung von Lebertumoren bei Patienten in zufriedenstellendem Maße möglich ist.
Eine Anwendung nur mit Gedanken steuern? — Das geht! Mit Hilfe von Brain-Computer-Interfaces (BCIs). Heutzutage gibt es viele BCI-Frameworks, bei denen die
unterschiedlichen Konzepte wie zum Beispiel P300-Speller, Imagined Movement oder SSVEP untersucht und angewendet werden können. Für diese Thesis wird das Framework Buffer-BCI verwendet. Es wurde untersucht, ob
sich dieses für eine Aufgabe im Praktikum Medizinische Signal- und Bildverarbeitung (PSB) des Studiengangs Medizinische Informatik eignet. An mehreren Probanden wurde getestet, ob Reproduzierbarkeit und Erkennungsgenauigkeit hoch genug sind,
um auch bei vielen unterschiedlichen Menschen vergleichbar funktionieren und sinnvolle Ergebnisse liefern zu können. Auch hinsichtlich zeitlicher Latenzen, der prinzipiellen Architektur des Frameworks und der Kommunikationskette für Ereignisse wurde Buffer- BCI untersucht.
Ein Ergebnis dieser Thesis ist die Beschreibung der Architektur und der Kommunikationskette von Buffer-BCI. Ein weiteres Ergebnis ist eine Aufgabenstellung für das PSB bezüglich einer P300-Speller-Anwendung auf Basis des Buffer-BCI-Frameworks. Die Aufgabenstellung kann noch um Imagined Movement- oder SSVEP-Experimente
erweitert werden, was jedoch nicht mehr Teil dieser Thesis ist.
In dieser Bachelor-Thesis wird ein Ansatz zur robotergestützten Ultraschall-Bildgebun entwickelt. Es wird hierbei hauptsächlich die Kommunikation zwischen Roboter und
Computer, sowie die Steuerung des Roboters, betrachtet. Die Bilderfassung und Darstellung
ist nicht Teil dieser Arbeit. Ergebnis dieser Arbeit sind eine detaillierte Anforderungsanalyse, eine GUI zum Steuern der erstellten Roboterteilprogramme und das Roboterprogramm an sich. Auf Seiten
des Roboters sind Programme für das Beibringen von Positionen, das Anfahren
dieser und das Verfahren des Ultraschallkopfes an diesen (manuelle Steuerung mit einem Joystick) implementiert. Für eine Atembewegungskompensation sind Beispielprogramme erstellt worden. Die Kommunikation zwischen Roboter und Computer baut auf OpenIGTLink auf. Ein weiteres Ergebnis der Thesis ist die Architektur des Programms, die es ermöglicht, dem Roboter beliebig viele neue Befehle beizubringen.
An der NCT-Gewebebank in Heidelberg werden große Mengen menschlichen Gewebes vorgehalten, welche von Forschern hauptsächlich im Rahmen der Tumorforschung verwendet werden können. Da jede Dienstleistung im Zusammenhang mit diesem Gewebe, sowie die Herausgabe dessen zuerst bewilligt werden muss, müssen die forschenden Ärzte und Wissenschaftler einen Antrag an die Gewebebank stellen. Die
Antragsstellung erfolgt zum aktuellen Zeitpunkt über ein Online bereit gestelltes Formular, welches im besten Falle digital korrekt ausgefüllt, ausgedruckt und unterschrieben an das Sekretariat der NCT-Gewebebank geschickt wird. Da die Anträge dort wieder von Hand digitalisiert werden, soll der Vorgang online erfolgen und so die Antragsverwaltung erleichtern, sowie weniger anfällig für Fehler machen.
Im Rahmen dieser Bachelorarbeit soll ein Konzept entwickelt werden, wie ein Antragsportal funktionieren kann, über das die Forscher online Anträge stellen können.
Diese Arbeit ist auf die folgenden Ziele ausgerichtet:
- Modellierung des aktuellen Zustands des Prozesses der Antragstellung
- Modellierung eines möglichen zukünftigen Prozesses
- Vorstellung der möglichen Verbesserungen im Prozess
- Konzeptionierung eines Antragsportals
- Analyse der Umsetzung dieses Portals mit praktischen Ansätzen
Die Identifizierung von Angehörigen der Hochschule Heilbronn erfolgt in der Regel
über die Kombination aus Benutzername und Passwort. In verschiedenen Einsatzgebieten,
wie z.B. an einer Parkschranke, ist eine Eingabe der Benutzermerkmale nicht
möglich oder hinderlich. Hierfür soll die Mensakarte des Studentenwerks Heidelberg
als identifizierendes Merkmal erschlossen werden. Dies macht die Verknüpfung von
Benutzerkonto und Karte notwendig.
Im Rahmen dieser Bachelorarbeit werden zunächst verschiedene Umsetzungsmöglichkeiten
für mobile Anwendungen zur Verknüpfung von Benutzer und Karte unter Verwendung
der NFC-Technologie analysiert und ausgewertet. Anschließend wird ein
funktionaler Prototyp für Smartphones der Android-Plattform entwickelt, der die einfache
Einbindung weiterer Funktionalität ermöglichen soll.
Der entwickelte Prototyp ist im Hochschulnetz testweise für die Registrierung und
Deregistrierung von NFC-Karten einsetzbar. Vor einer realen Nutzung des Systems
müssen der Datenschutz und andere organisatorische und rechtliche Pflichten, wie
zum Beispiel das Telemediengesetz, berücksichtigt werden.
Einleitung: Die Datenerhebung in klinischen Studien erfordert eine ausgiebige, gewissenhafte Dokumentation. Dafür werden nicht nur vom Personal Informationen gewonnen, sondern z.T. auch von Patienten mit Hilfe von Fragebögen erhoben. In der chilenischen PRECISO-Studie wird zur Verwaltung und Erfassung von Studiendaten OpenClinica (OC) verwendet. Zur mobilen Patientenbefragung soll die am Institut für Medizinische Informatik (IMI) der Universitätsklinik Münster (UKM) entwickelte Anwendung MoPat2 eingesetzt werden. Dafür sollen die "Operational Data Model" (ODM)-Import- und Export-Funktionen von OC und MoPat2, beispielhaft anhand der "Quality of Life" (QOL)-Bögen der PRECISO-Studie, auf ihre syntaktische und semantische Kompatibilität getestet, Diskrepanzen dokumentiert und die Implementierung in MoPat2 angepasst werden. Mit der Arbeit soll bewertet werden, mit welchen Arbeits-/Interpretationsschritten der ODM-Standard für solch ein Projekt ein geeignetes Datenaustauschformat darstellt.
Methodik: In allen Arbeitsschritten wurde iterativ getestet, Fehler analysiert und verbessert. Basierend auf der Analyse wurden an der Struktur der aus OC exportierten ODM-Datei Ände-rungen vorgenommen. Aus der ODM-Datei wurden die Metadaten in MoPat2 importiert und daraus der QOL-Fragebogen generiert. Mit dem QOL-Bogen wurden Befragungen getestet und Fehler ausgewertet. Für den Export aus MoPat2 wurde die Implementierung der ODM-Export-Funktion erweitert.
Ergebnisse: Nur durch Änderungen konnten die Metadaten nach MoPat2 importiert und zur Generierung des QOL-Bogens genutzt werden. Befragungen mit dem QOL-Bogen haben sich als möglich aber fehlerbehaftet erwiesen. Durch Implementierungen in MoPat2 konnten mit Hilfe eines ExportTemplates Patientendaten ODM-konform exportiert werden.
Diskussion: Der ODM-Standard ist im Anwendungsfall zum Datenaustausch zwischen OC und MoPat2 gut nutzbar, jedoch mussten trotz Verwendung des Standards diverse Änderungen vorgenommen werden. Die Ergebnisse zeigen somit auf, dass die ODM-Schnittstellen beider Anwendungen erweitert und aufeinander angepasst werden müssen, um einen fehlerfreien Studiendatenaustausch zu ermöglichen.
Diese Bachelorarbeit trägt den Titel „E-Learning in der Medizin im französischen Sprachraum insbesondere mit virtuellen Patienten“. Sie skizziert, was sich hinter E-Learning im medizinischen Bereich und virtuellen Patienten verbirgt und betrachtet die vorherrschende Situation in diesem Bereich in französischsprachigen Ländern/Regionen näher. Durch die Entwicklung von Informations-und Kommunikationstechnologie(IKT)hat sich der Austausch von Daten unabhängig von Raum und Ort stark weiterentwickelt. Dank dieser Evolution hat sich das Prinzip vom Lernen in nahezu allen Bereichen durch Suchmaschinen, Wissensdatenbanken oder Computersimulationen im Laufe der Zeit und speziell in den letzten 20 Jahren extrem stark verändert und spielt täglich eine große Rolle im Lernprozess von Menschen und dem Umgang mit vorhandenem Wissen. Im Allgemeinen hängt die Art des Lernens mit Hilfe von digitalen oder elektronischen Medien häufig mit der wirtschaftlichen Situation und internen Kultur eines Landes zusammen. Die positive Entwicklung des Landes und des sozialen Lebensstands der Menschen begünstigt demnach Fähigkeit neue Technologien einzusetzen und sie effektiv zu nutzen. Die Idee für die bestehende Arbeit entstand bei der Feststellung in der Fakultät für Informatik an der Hochschule Heilbronn, dass es noch keine Informationen über E-Learning und Einsatz von virtuellen Patienten in den französischsprachigen Ländern gibt. Dem Lernen mit Hilfe des Computers kommt in der Medizin eine große Bedeutung zu. Es ermöglicht sich selbst effektiv aus-und weiterzubilden, effizienter (schneller!) auf benötigte Informationen zuzugreifen. Ein weiterer Vorteil besteht darin, dass die Lernenden nicht in direktem Kontakt mit dem Lehrenden und anderen Lernenden stehen müssen. Das Zieldieser Arbeit ist, ein Licht in das Konzept von E-Learning und virtuellen Patienten in der französischen Welt zu bringen .Zum tieferen Verständnis werden im ersten Teil der Arbeit Begriffe und Definitionen vorgestellt, zudem die Grundlagen, Voraussetzungen und Ziele für ein effektives E-Learning erläutert. Im zweiten Teil der Arbeit werden das E-Learning und der virtuelle Patientin Bezug auf ihre Potentiale und vorhandene Ausprägungen analysiert. Die Vor-und Nachteile von E-Learning werden im Bezug auf seine Verwendung gegeben. Da sich diese Arbeit vornehmlich auf den französischen Sprachraum konzentriert, ist zur Einordnung der Ergebnisse ein Vergleich mit anderen Sprachräumen sinnvoll. Dadurch soll gezeigt werden inwiefern sich die sich das E-Learning mit virtuellen Patienten zu dem in anderen Sprachräumen unterscheidet.
Im Rahmen dieser Arbeit wird eine eigens entwickelte Plagiatserkennungsoftware für Java-Programme namens Plagiarism Finder vorgestellt. Der Plagiatserkennungsprozess dieser Software basiert auf dem Java-Bytecode. Es werden die Grundlagen der Plagiatserkennung und des Java-Bytecodes umfassend erläutert. Des Weiteren wird die Funktionsweise, der Entwurf, die Benutzeroberfläche und die Evaluierung von Plagiarism Finder dargestellt. Hierbei wird auf folgende von der Wissenschaft bisher nicht betrachteten Aspekte eingegangen:
-Die Art der Normalisierung des Bytecodes vor dem Vergleich.
-Wie gelöst werden kann, dass das Verschieben von Methoden keinen Einfluss auf die ermittelten Ergebnisse hat.
-Wie bei der Plagiatserkennung Vorlagen gefiltert werden können. Die Arbeit kommt zu dem Resultat, dass sich die Ergebnisse von Plagiarism Finder stabil gegenüber Änderungen des Wortlautes, des Textsatzes und dem Verschieben von Methoden verhalten. Änderungen an Kontrollstrukturen (z.B. For- statt While- Schleifen), an Zugriffsmodifikatoren und an der Anzahl von Methoden führen zu einem instabilen Verhalten der Ergebnisse. Alles in allem kann Plagiarism Finder mit einer etablierten Plagiatserkennugssoftware
wie JPlag [MP00] mithalten. Auf Grundlage der untersuchten Daten ist Plagiarism Finder im Erkennen von Plagiaten leicht schlechter als JPlag. Plagiarism Finder ist hingegen deutlich besser im Erkennen von nicht plagiierter Software. Bei wortwörtlichen Kopien sowie bei Änderungen an der Textgestaltung und an Bezeichnungen sind die Ergebnisse der Programme nahezu identisch.
Die Arbeit gliedert sich in sechs Kapitel. Kapitel 1 stellt die Problematik der Arbeit dar. Nach einer Darlegung der Gefälligkeit des Computer-Trainings werden die vorliegende Software “Gesichter“ und ihre Schwächen sowie mögliche Verbesserungen angesichts des aktuellen Stands der Technik vorgestellt. Die Vorgehensweise wird in der Zielsetzung beschrieben. Im Kapitel 2 werden wichtige medizinische und technische Konzepte vorgestellt, die für die Realisierung der neuen Applikation erforderlich sind. Außerdem wird das menschliche Gehirn vorgestellt. Es wird anschließend gezeigt, wie eine erworbene Hirnschädigung zu Stande kommt und welche Strukturen im Gehirn dabei betroffen sind. Kapitel 3 beschäftigt sich hauptsächlich mit der Untersuchung der vorliegenden Software sowie mit der konkreten Evaluierung der Vorgehensweise und der Auswahl der geeigneten Technologie zur Realisierung der neuen Anwendung. Kapitel 4 beschreibt, wie die Implementierung realisiert wurde. Dabei wird auf die Implementierung einzelner definierten Anforderungen eingegangen. In Kapitel 5 werden Testfälle, die mit dem neuen Programm durchgeführt werden können, vorgestellt. Das letzte Kapitel 6 fasst die Arbeit zusammen. Hierbei werden alle erreichten Ergebnisse entsprechend der Zielsetzung vorgestellt. Abschließend werden im Ausblick Erweiterungsmöglichkeiten für das neue Programm vorgeschlagen.
Im Rahmen dieser Bachelorarbeit wurde ein Triangulations-Algorithmus basierend auf dem Marching Cube Algorithmus konzeptioniert und implementiert. Der Algorithmus soll in der Software für die Strahlentherapieplanung VIRTUOS verwendet werden und die speziellen Anforderungen dieser Software erfüllen. Diese sind im Kapitel 1.3 beschrieben. Der Algorithmus soll eine Triangulation von Konturen mit Subpixel-Auflösung mit dem Marching Cube Verfahren ermöglichen. Diese Triangulation soll kanten- bzw. punkterhaltend sein. Somit darf sich die Position existierender Konturpunkte nicht ändern. Die Anzahl der erzeugten Dreiecke soll möglichst gering sein. Des Weiteren soll der Algorithmus in seiner Performanz optimiert sein. Die Implementierung des in dieser Arbeit beschriebenen Algorithmus ist wie VIRTUOS in C/C++ geschrieben und soll die bisherige Delaunay Triangulation ablösen.
Augmented Reality Anwendungen können in der Medizin Eingriffe erleichtern, beispielsweise durch intraoperative Projektion von Zugangswegen oder Tumo-ren und Risikostrukturen auf den Patienten. Gründe, weshalb die Verwendung von Augmented Reality noch keinen Einzug in den Operationssaal gefunden hat, sind unter anderem eine erschwerte Tiefenwahrnehmung der virtuellen Objekte in der echten Szene und fehlende Möglichkeiten, um die Fülle der zusätzlich visualisierten Objekte zu kontrollieren. Diesen Hindernissen entgegenzutreten ist das Ziel dieser Arbeit. Weiterhin gehört eine echtzeitfähige Implementierung zu den Anforderungen dieser Arbeit, um die Visualisierung im Rahmen eines Projektes zu nutzen, welches Augmented Reality auf mobilen Geräten direkt am Patienten zeigt. Um diese Ziele zu erreichen, wurde zunächst eine Texturprojektion kombiniert mit einem selbstentwickelten Grafikkartenprogramm realisiert, um dem Betrachter die Orientierung innerhalb der Augmented Reality Szene zu erleichtern und die Berechnung der perspektivischen Projektion der Textur zugleich effizient zu halten. Um die Tiefenwahrnehmung in der Szene zu verbessern, wurde ein weiteres Grafikkartenprogramm entwickelt, welches in eine gegebene Oberfläche eine Öffnung zeichnet, durch welche der Betrachter in das Innere des Patienten blicken kann. Weiterhin wurde ein Konzept umgesetzt, mit dessen Hilfe die Anzahl an abgebildeten Objekten in der Augmented Reality Szene gesteuert werden kann. Dieses Konzept dient außerdem der Untergliederung von Objekten in verschiedene Familien, für die dann unterschiedliche Darstellungen umgesetzt werden können. Ergebnis ist sowohl eine sichtbar verbesserte Tiefenwahrnehmung als auch ein Konzept zur Kontrolle der Fülle an abgebildeten Informationen in einer echtzeitfähigen Implementierung.
Behandlungen von Tumoren zielen in erster Linie auf eine Verlängerung der Überlebenszeit des Patienten ab. Es ist für Ärzte eine Hilfe, wenn zu Beginn der Behandlung die voraussichtliche Überlebenszeit abgeschätzt werden kann. Dies geschieht aktuell oftmals mit Hilfe einer manuellen Einteilung in Risikoklassen. Für diese sind aus Erfahrungswerten typische Überlebenszeiten bekannt. In Zeiten der zunehmenden Digitalisierung ist es nur logisch den Versuch zu starten, die Klassifizierung automatisch vorzunehmen. In dieser explorativen Grundlagenarbeit werden zwei Data Mining–Verfahren — namentlich „naiver Bayes Klassifikator“ und „k–means Clustering“ — auf ihre Fähigkeit bezüglich der Überlebenszeitprognose hin untersucht. Dazu werden verschiedene Feature Selection Verfahren (Information Gain, Expertenselektion, Forward Selection, Backward Elimination und No Selection) getestet. Nach dem k–means Clustering können Kaplan–Meier–Kurven der einzelnen Cluster gezeichnet werden. Aus diesen kann eine Prognose der Überlebenszeit abgelesen werden. Der naive Bayes Klassifikator errechnet nach einer (äquifrequenten oder äquidistanten) Diskretisierung der Überlebenszeit für jeden Patienten individuell eine Überlebens–Wahrscheinlichkeits Verteilung. Das Training der Data Mining–Verfahren erfolgte auf der Basis von Datensätzen kolorektaler Tumorpatienten des Tumorregisters des Tumorzentrums Heilbronn–Franken.
1.1 Gegenstand und Motivation Jeder von uns, der schon mal im Krankenhaus war und ein paar Tage dort verbringen musste, weiß wie einseitig und monoton der Alltag in solchen sterilen Räumen aus-sieht. Und wie froh man ist den ersten Schritt aus dem Krankenhaus zu machen, sich wieder mit Freunden zu treffen und den Alltag zu genießen. Nun gibt es auch schwer erkrankte Menschen, die dem Krankenhaus Alltag nicht nach ein paar Tagen entgehen können. Sie sind oft monatelang, ja sogar jahrelang, ans Kran-kenhaus gebunden. Besonders für Kinder und Jugendliche ist diese Situation ein großes Problem. Oft wird man von einem auf den nächsten Augenblick aus dem Alltag und dem sozialen Umfeld herausgerissen. Selbst, der bis dato doch nervende Schulalltag, fängt einem an zu feh-len. An das Beisammen sein mit Freunden im Klassenzimmer, oder auf dem Schulhof, ist auf einmal nicht zu denken. Stattdessen ist man an ein Krankenhausbett gefesselt und ist von medizinischen Geräten umgeben. Die Stiftung „Große Hilfe für kleine Helden“ will durch das Projekt „virtuelles Klas-senzimmer“ den erkrankten Schülern den virtuellen Besuch des Schulunterrichts ermög-lichen und somit auch den Kontakt mit Mitschülern und die sozialen Bindungen in ers-ter Linie zu pflegen und zu erhalten. Als Fundament für diese Arbeit dient die Abschlussarbeit „Konzeption und Implemen-tierung eines virtuellen Klassenzimmers für schwer erkrankte Kinder und Jugendliche mit Hilfe eines Telepräsenzrobotors“ von Frau Konstantina Georgiadou [3], welche auch den aktuellen Stand des Projekts beschreibt. Eine Überarbeitung des Projekts ist notwendig, da die Multimediale Hardware (Sound / Kamera / Mikrofone) immer noch kabelgebunden ist und somit die nötige Bewegungsfreiheit für den Telepräsenzroboter im Klassenzimmer oder dem Schulhof fehlt. 1.2 Problemstellung und Zielsetzung Zwar hat das Projekt beachtliche Schritte nach vorn gemacht, dennoch gibt es noch zahlreiche Probleme die zu bewältigen sind. Im Rahmen der Abschlussarbeit von Frau Georgiadou wurde ein Roboter Kit namens TurtleBot2 angeschafft. Das Kit beinhaltet eine Kobuki Basis, sowie eine Microsoft Kinect und ein ROS- kompatibles Netbook. Die vorhandene Hardware erweist sich als problematisch, da sie einige Hürden und Hindernisse darstellt die in dieser Abschlussarbeit eliminiert werden sollen. Das Projekt hat also nach diesem Stand eine große Schwäche. Die externen Geräte sind alle kabelgebunden. So benötigen die Station des mobilen Mikrofons, sowie die Audio-box eine externe Stromversorgung. Auch die Kamera, welche über das Netzwerk mittels LAN-Kabel fungiert, schränkt die Mobilität des TurtleBot2 erheblich ein. Da diese von Router und Steckdose abhängt. Ein ähnliches Problem liegt auch bei den Lautsprechern vor, diese sind ebenfalls von einer externen Steckdose abhängig. Das Ziel dieser Arbeit ist es, in erster Linie die eingeschränkte Mobilität des Turtle-Bot2, welche durch die kabelgebunden Geräte verursacht wird, zu beseitigen. Es sollen neue Hardware und Verbesserungsvorschläge für die medialen Probleme gefunden wer-den, wobei die Qualität von Ton und Bild nicht leiden dürfen. Ebenfalls soll eine An-richtung bzw. Verbesserungsvorschlag für den Schüler gefunden werden, welches ihm das Halten des Laptops erspart. Insgesamt soll sich der TurtleBot2 frei im Raum bewe-gen können und dem Schüler im Krankenhaus somit eine verbesserte Integration in die Normalität bzw. den Alltag ermöglichen.
Aside from hardware, a major component of a Brain Computer Interface is the software that provides the tools for translating raw acquired brain signals into commands to control an application or a device. There’s a range of software, some proprietary, like MATLAB and some free and open source (FOSS), accessible under the GNU General Public License (GNU GPL). OpenViBE is one such freely accessible software. This thesis carries out a functionality and usability test of the platform, looking at its portability, architecture and communication protocols. To investigate the feasibility of reproducing the P300 xDAWN speller BCI presented by OpenViBE, users focused on a character on a 6x6 alphanumeric grid which contained a sequence of random flashes of the rows and columns. Visual stimulus is presented to a user every time the character they are focusing on is highlighted in a row or column. A TMSi analog-to-digital converter was used together with a 32-channel active electrode cap (actiCAP) to record user’s Electroencephalogram (EEG) which was then used in an offline session to train the spatial filter algorithm, and the classifier to identify the P300 evoked potentials, elicited as a user’s reaction to an external stimulus. In an online session, the users tried to spell with the application using the power of their brain signal. Aspects of evoked potentials (EP), both auditory (AEP) and visual (VEP) are further investigated as a validation of results of the P300 speller.
In dieser Arbeit wurde am Deutschen Krebsforschungszentrum (DKFZ) in Heidelberg eine Anwendung für das Trainieren von Klassifikatoren, das Klassifizieren und für die Durchführung eines Leave-One-Out-Tests entwickelt. Auf der Grundlage von Methoden aus einem bereits existierenden Programm, das zum automatischen Erkennen von osteolytischen und osteoblastischen Läsionen bei Patienten mit einem multiplen Myelom genutzt wird, wurde eine Benutzeroberfläche implementiert, die das aufwendige und manuelle Anpassen an neue Fragestellungen erleichtern soll. Zusätzlich soll eine Visualisierung von Merkmalen dem Benutzer beim Trainieren eines Klassifikators die Auswahl verdeutlichen und vereinfachen. Damit die Anwendung auch für andere Klassifikationsaufgaben genutzt werden kann, wurde eine Erweiterungsmöglichkeit der grafischen Benutzeroberfläche auf Basis von XML integriert.
In dem transregionalen Sonderforschungsbereich SFB/TRR 77 untersuchen Heidelberger und Hannoveraner Wissenschaftler Entstehungsmechanismen und neue Therapieansätze des Leberzellkarzinoms, einer der tödlichsten Tumorerkrankungen unserer Zeit. Die IT-Plattform Pelican, die ein Teil des Gebiets Z2 ist, soll dem Forschungsverbund die softwaregestütze Analyse und die nachhaltige Bereitstellung von Leberkrebs-Forschungsdaten ermöglichen [Ganzinger et al. 2011]. Ein Teil von Pelican soll eine gemeinsame Informationsplattform anbieten, die die biomedizinischen Daten der verschiedenen medizinischen und biologischen Projekte integriert und den beteiligten Projektgruppen biostatistische Programme und projektübergreifende Auswertungen zur Verfügung stellt. Die Integration von Gewebe-, Molekül-, Genetik- und Klinikdaten in eine gemeinsame Plattform ermöglicht Datenerhaltung und umfassende Analysen. Die integrierte Analyse begegnet durch die Verknüpfung verschiedener Forschungsprojekte des SFB/TRR 77 den Herausforderungen der Multidisziplinarität klinischer Forschung und Genforschung. Mit dem Next-Generation DNA Sequencing ist durch Kostenreduzierung und immenser Zeiteinsparung die DNA Sequenzierung einem breiten Spektrum an Wissenschaftlern zugänglich geworden und hat Kompetenzen zur Sequenzierung von zentralen Stellen in die Hände vieler individueller Forscher gelegt [Shendure and Ji 2008, Ding et al. 2010, Wetterstrand 2011]. Die Kombination dieser hochentwickelten Technologien aus der Gentechnik und rechnerbasierten Werkzeugen erlaubt die Beantwortung biologischer Fragestellungen in erheblich umfangreicherer Art und Weise als dies bisher möglich gewesen ist [Shaer et al. 2013]. Die rasche Entwicklung des Next-Generation Sequencing beinhaltet auch das Konstruieren neuer Ansätze zur bioinformatischen Datenanalyse, ohne die kein Informationsgewinn, wie beispielsweise die Entdeckung von Genvariationen, möglich wäre. Das dabei neu gewonnene Wissen kann zu erheblichen Fortschritten in der Krebsforschung führen, beispielsweise wenn es um das Identifizieren der Genomveränderungen einer Tumorzelle geht [Ding et al. 2010]. Anstatt Sequenzierungen in kleinem Maßstab durchzuführen, können Forscher inzwischen Sequenzierungen in weit umfangreicherem Ausmaß realisieren, in denen Informationen von multiplen Genen und Genomen vermessen, dokumentiert und in Datenbanken gespeichert werden können. Die DNA Sequenzen werden nach der Sequenzierung in einer Kette aus vielen Prozessschritten – eine bioinformatische Pipeline – analysiert und verarbeitet. Zu den Einzelschritte, wie zum Beispiel Alignment oder die Entfernung von Duplikaten, gibt es oftmals viele Alternativen.
Der Zuwachs medizinischen Wissens ist gewaltig, man spricht von einer Verdopplung in unter 10 Jahren[01], dies macht die Analyse historischer Daten zwingend erforderlich. Um dieses Wissen zu beherrschen werden Datenbanken benötigt, in denen man Krankheits- und Therapieverläufe ablegen kann, um diese dann anschließend unter unterschiedlichsten Anforderungen zu analysieren. Im Falle der Krebstherapie gibt es hierfür sogenannte Krebsregister. Hier werden anonymisierte Daten der Patienten gespeichert, wie zum Beispiel der Verlauf der Krankheit und die Therapie. Ziel ist es, dass alle Krebsfälle in irgendeinem Krebsregister gehalten werden. Dies soll zu einer Verbesserung der medizinischen Leistung am Patienten, sowie der Sicherstellung, dass Patienten überall mit neuesten Therapietechniken und Leistungen versorgt werden, führen. Leider werden die Informationen in den Krebsregistern viel zu wenig genutzt, da viele Ärzte und Wissenschaftler oft nicht Ausreichend vertiefte Kenntnisse in Informationstechnologie und/oder Statistik haben. Diese Tatsache macht es für sie schwierig die riesigen Datenmengen, die vorhanden sind, richtig zu analysieren. Um dieses Problem zu beheben kann man nun in regelmäßigen Abständen einen Statistiker beauftragen, der solche Analysen durchführt. Oft haben Ärzte aber statistisch wenig anspruchsvolle Anfragen oder es fällt ihnen erst auf, nachdem der Statistiker wieder gegangen ist. Solange es also eine solche Schwierigkeit darstellt, die Daten richtig zu analysieren, sind die Krebsregister ein Datenfriedhof, deren riesiges Potential nicht ausgenutzt wird. Dieser Zustand ist sowohl für Patienten, als auch für die Ärzte, nicht zufriedenstellend und bedarf dringend einer Änderung. Die Ziele sind: 1. Eine Analyse einer Software zur statistischen Auswertung von Daten aus einem Krebsregister (OCDM-Software), sowohl im Bezug auf ihre Software-Architektur, als auch auf ihre Funktion. 2. Das Erstellen einer Anforderungsanalyse, welche die Erweiterungen beschreibt, die an der oben erwähnten OCDM-Software vorzunehmen sind. 3. Die Umsetzung dieser Anforderungsanalyse in die bestehende Anwendung. 4. Ein abschließender Systemtest der Anwendung, um einen reibungslosen Ablauf im Klinikalltag zu gewährleisten. Ziel der Erweiterung ist es, den Ärzten die Analyse der gesammelten Patientendaten zum Pankreaskarzinom zu vereinfachen und somit die medizinische Betreuung in der Klinik zu verbessern.
Leberpunktionen sind ein elementares Werkzeug zur Diagnosesicherung von Krebserkrankungen. Zentrale Erfolgsfaktoren sind neben dem Treffen der Zielregion die Vermeidung einer Verletzung von Risikostrukturen sowie eine geringe Eingriffsdauer. Es wurden bereits Navigationslösungen für Ultraschall vorgeschlagen, welche aber aufgrund ihrer Komplexität keine weite Verbreitung in der klinischen Praxis fanden. In dieser Masterarbeit wird auf Basis eines neuen, kompakten elektromagnetischen Feldgenerators ein Verfahren vorgestellt, welches das erste mal eine Ultraschallsonde und einen Feldgenerator zu einer einzigen mobilen Modalität verbindet. Mit dieser Modalität können gleichzeitig Patientenanatomie und Instrumente relativ zueinander erfasst und Ultraschallbilder aufgenommen werden. Um eine wart- und weiterentwickelbare Basis für weitere Eingriffe dieser Art zu schaffen, wurde eine Open-Source Umgebung für navigierte Ultraschallpunktionen in das Medical Imaging Interaction Toolkit (MITK) integriert; In diesem Rahmen entstand das Ultraschallmodul MITK-US. In einer Phantomstudie wurde das Gesamtsystem evaluiert und erreichte eine Trefferquote von 92% bei einer mittleren Genauigkeit von 3.1mm (n=24). Diese Ergebnisse bestätigten, dass es sich bei der Methode um einen vielversprechenden Ansatz handelt.
Viele Kinder und Jugendliche in Deutschland leiden unter verschiedenen langwierigen Krankheiten. Die Folge sind oftmals lange Krankenhausaufenthalte. Dadurch werden die Patienten und Schüler aus der Klassengemeinschaft gerissen. Durch die modernen Techniken besteht die Möglichkeit, diese Isolation zu vermindern. Der Begriff „ELearning“ kann mit dieser Problemstellung verknüpft werden. R. Clark und R. Mayer definieren es wie folgt: „We define e-learning as instruction delivered on a digital device such as a computer or mobile device that is intended to support learning.“ [2] Dieser Ansatz zur Problemlösung wird in dieser Thesis verfolgt. Aufgabe ist es, ein bereits bestehendes Projekt zu verbessern. Die Diplomarbeit „Konzeption und prototypische Realisierung eines virtuellen Klassenzimmers für kranke Kinder und Jugendliche“ ist die Grundlage der vorliegenden Arbeit und auch des bestehenden Projektes. Es wurde dort auf Standardtechnik zurückgegriffen, die keine befriedigende Qualität der Übertragung bot. Da das Projekt weiterverfolgt und weiterentwickelt werden soll, muss sich die Qualität der Übertragung verbessern.
Mit zunehmender Anzahl von Smartphones1 und Tablets2 steigt heutzutage auch die Bedeutung mobiler Anwendungen ständig. Die „kleinen“ Anwendungen können immer mehr Aufgaben übernehmen und können durch den Einsatz auf mobilen Geräten sehr flexibel eingesetzt werden. Aus diesem Grund entstand das vom US-Militär geförderte internationale Projekt MoLE3 (Mobile Learning Environment). Die Hochschule Heilbronn ist durch ihr Forschungslabor „e-Learning in Medicine“ des CeLTech4 (Centre for e-Learning Technology) an diesem Projekt beteiligt. Das Ziel des MoLE Projekts ist es, die Telekommunikationsinfrastruktur und die mobilen Geräte wirksam einzusetzen, um Wissen und Ressourcen einfacher miteinander zu teilen. Dazu wurde die „Global MedAid App“ entwickelt, die sowohl auf iOS5 als auch auf Android6 Geräten läuft. Die plattformübergreifende Open-Source7 App ist erweiterbar und beinhaltet eine Schnittstelle zu Lernplattformen.
Cytoscape is an open source platform for complex network analysis and visualisation. The Pathway Interaction Database (PID) is a highly structured, curated collection of information about known biomolecular interactions and key cellular processes assembled into signalling pathways. Despite the obvious potential and advantageous usage of both tool (Cytoscape) and information source (PID), there has been no conclusive effort to merge and synergise them. This project aims to make use of the open source characteristics of Cytoscape and optimally visualise the biomolecular interactions found in the PID. This is made possible by the development of a plugin which imports a user-selected pathway file, converts it into a Cytoscape-readable file, and then visualises it. Finally, the user has options to further optimise the pathway by the use of a filter (Barcode – Affymetrix) that removes nodes from the network which are lowly expressed in the Affymetrix microarray data. The user then obtains visual results in a matter of seconds. Additionally, the process of subgraphing nodes through the shortest path method could be applied to the network. This can further assist the user in identifying the molecular pathways of the nodes of interest, a useful feature in network analysis.
Für die fortwährende Optimierung von Behandlungsstrategien im Bereich der Strahlentherapie ist es notwendig, Behandlungspläne strukturiert miteinander zu vergleichen. Um die vielfältigen Datenmengen, die sich im Rahmen großer und übergreifender Forschungsprojekte, wie etwa dem ULICE-Projekt [18] ergeben, suffizient auswerten zu können, ist ein leichter Zugriff für alle Projektteilnehmer erstrebenswert. Dieser kann beispielsweise durch den Einsatz einer Telemedizinakte, wie sie z.B. von der Firma CHILI GmbH angeboten wird, erfolgen. Die Telemedizinakte muss unbedingt in der Lage sein, das Datenformat, in dem Therapiepläne abgespeichert werden (DICOM RT), zu verarbeiten. Daher wurde im ersten Schritt dieser Arbeit analysiert, welche Informationen im Rahmen eines DICOM RT Viewing Moduls im CHILI-PACS dargestellt werden können. Als zentrale Aufgabe wurde die Darstellung des Dosis-Volumen-Histogramms (DVH) ermittelt, für dessen Berechnung es Module für die Darstellung der segmentierten Strukturen (RT Structure Set) und die Dosisverteilung (RT Dose) geben muss. Außerdem soll es zu einem späteren Zeitpunkt leicht möglich sein, weitere Module für die Anzeige der übrigen DICOM RT Objekte zu integrieren. Nach der Spezifikation der geforderten Funktionalität wurde ein Konzept für deren Umsetzung erstellt und mit der Implementierung einer der Kernfunktionen begonnen. Durch diese Implementierung soll es anderen Programmierern erleichtert werden, das gewählte Konzept nachzuvollziehen und das DICOM RT Viewing Modul des CHILI-PACS entsprechend erweitern und anpassen zu können, bis letztendlich ein homogenes und vollständiges Gesamtsystem entsteht. Durch die Umsetzung eines Moduls zur Darstellung von RT Structure Sets ist es jetzt möglich, sich die segmentierten Strukturen eines DICOM RT Datensatzes im CHILIPACS anzeigen zu lassen. Es können gezielt einzelne Strukturen an- und abgewählt und deren Konturfarbe geändert werden. Die Darstellung der Konturen ist für die Axial-, die Coronal- und die Sagittalebene möglich. Eine Überprüfung der Funktionalität wurde mit den zur Verfügung stehenden DICOM RT Testdatensätzen durchgeführt.
In IT-Abteilungen von Krankenhäusern und Universitätskliniken nimmt Kommunikation und Informationsaustausch zwischen Arbeitsgruppen immer mehr an Bedeutung zu. Einheitliche Informationsprozesse innerhalb einer ITAbteilung sind also notwendig, damit vor allem im Bereich des Projektmanagements Klarheit und Stabilität vorhanden ist. Schon in der Projektinitiierungsphase soll damit Fehlerbehebung und -vermeidung stattfinden. Denn die Haupthebelstelle für Projektqualität liegt im Projektentstehungsprozess. Vor diesem Hintergrund befasst sich diese Abschlussarbeit mit der Untersuchung der IT-Projektmanagementprozesse in Bezug auf die Möglichkeit zur EDV-Unterstützung.
Aktuell ist die Installation, sowie die Konfiguration von RANDI2, sehr umständlich. Parameter oder sogar ganze Konfigurationsdateien werden für die vorhandene Infrastruktur des Anwenders angepasst. Obwohl jede Installation mit Eingaben bezüglich der Institution, verantwortlichen Personen, Logos und vielen anderen Einstellungen parametriert wird, verfügt das System zurzeit über keinen Mechanismus, der den Benutzer bei der Konfiguration unterstützt. Dadurch kann die Installation und Konfiguration meistens nur von erfahrenen Anwendern durchgeführt werden. Ziel dieser Bachelorarbeit ist es, ein Modul zu entwickeln, welches den Administrator dabei unterstützt, das System bei der Installation von RANDI2 optimal einzurichten.
Effiziente Berechnung von Kookkurrenzwerten unter Verwendung von öffentlichen Suchmaschinen-Indizes
(2012)
Im Kern der Bachelorarbeit steht die Berechnung der semantische Nähe zwischen zwei medizinischen Konzepten. Es ist das primäre Ziel, ein Verfahren zu implementieren, welches durch Verwendung von Suchmaschinen-Indizes Signifikanzwerte für die Konzeptrelationen von sogenannten Wiki-Graphen berechnet [Hei11]. Derartige Datenstrukturen finden in sogenannten Health Recommender Systemen (HRS) zur Berechnung von Empfehlungen Anwendung ([WP10], [Hei11]). Ein besonderes Augenmerk liegt auf der Skalierbarkeit der zu entwickelnde Softwarekomponente. Da eine sehr hohe Anzahl an zu verarbeitenden Konzeptrelationen, d.h. Kanten im Wiki-Graphen, vorliegt und die Antwortzeit von öffentlichen Suchmaschinen-APIs limitiert ist, wurde eine verteilte Berechnung mit Hilfe eines Rechenclusters konzipiert.
Implementierung des "Bresenhams-Algorithmus" für die Benutzung in einem Rekonstruktionsalgorithmus
(2011)
In der Medizin nimmt die medizinische Bildgebung eine wichtige Rolle ein. Die Reaktionszeit chemischer Reaktionen im menschlichen Körper kann sehr kurz sein, so dass man diese Reaktionen nur schwer beobachten kann. Somit kann die Geschwindigkeit der bildgebender Verfahren in der Diagnostik eine ausschlaggebende Funktion haben. Des Weiteren sind bei der Bildgebung eingesetzte Strahlen potentiell gefährlich. Je länger die Aufnahme dauert, desto mehr Schaden kann angerichtet werden. Im Hinblick auf die Geschwindigkeit der bildgebenden Verfahren haben die unterschiedlichen Bildrekonstruktionsmethoden eine zentrale Bedeutung. Für die Benutzung in einem tomographischen Rekonstruktionsalgorithmus und somit für die Verbesserung der Geschwindigkeit und die Verringerung der eingesetzte Strahlen der Bildgebung, soll in dieser Arbeit der Bresenham-‐Algorithmus in Matlab implementiert werden. Mit Hilfe des Algorithmus werden alle Voxel eines Objektes ermittelt, die innerhalb des bestrahlten Bereichs liegen. Das Ergebnis des Algorithmus, sprich die Menge und die Koordinaten der bestrahlten Voxel, kann dann als Input für die Berechnung des relativen Volumenanteils oder für die Berechnung der Strahllänge im Voxel verwendet werden.
Medication reconciliation is defined by the American Society of Health- System Pharmacists (ASHP) and the American Pharmacists Association (AphA) as “the comprehensive evaluation of a patient’s medication regimen any time there is a change in therapy in an effort to avoid medication errors such as omissions, duplications, dosing errors or drug interactions, as well as to observe compliance and adherence patterns “. Medication reconciliation is very important to avoid medication errors but it is also a complex and time-consuming process. Medication histories, i.e. records of prescription, purchase, and refill sequences are considered to be a resource from which conclusions about medication reconciliation can be drawn. However, medication histories spread across diverse paper and electronic media may lack the required accuracy. By employing multiple electronic sources this thesis will evaluate if more accurate medication histories can be collected.
Die Langlebigkeit eines zementierten Implantats ist abhängig von einem starken Knochen-Zementinterface, sowie Implantat-Zementinterface, welches die Verbindung zwischen Knochenzement und Implantatmaterialien beschreibt. In einer Studie von Sebastian Jäger et al. [19], wurde die Verteilung des Zements in den Knochen untersucht, anhand von Schnittpräparaten, hergestellt aus zementierten Implantaten. Von den Schnittpräparaten wurden endoprothetische Schnittbilder erstellt, die für eine spätere Auswertung am PC dienen. Das Ziel dieser Arbeit ist es, ein möglichst automatisches Verfahren zu entwickeln, welches es ermöglicht Zement-, Knochen- und Prothesenstrukturen in den endoprothetischen Schichtbildern zu segmentieren. Diese Segmentierung gelingt jedoch nur durch eine Klassifikation der einzelnen Pixel.