Refine
Year of publication
Document Type
- Master's Thesis (63)
- Bachelor Thesis (55)
- Other (12)
- Diploma Thesis (2)
- Doctoral Thesis (2)
- Preprint (2)
- Course Material (1)
Has Fulltext
- yes (137)
Is part of the Bibliography
- no (137)
Keywords
- Analyse (19)
- Entwicklung (11)
- Reise (11)
- Urlaub (10)
- Implementierung (9)
- Software (8)
- Konzeption (7)
- Evaluation (6)
- Patient (5)
- Strahlentherapie (5)
Institute
- Medizinische Informatik (72)
- Informatik (44)
- Bibliothek allgemein (13)
- Bibliothek (2)
- Mechanik und Elektronik (2)
- Elektrotechnik und Informationstechnik (1)
Virtuelle und reale Objekte als natürliche Bewegungsgrenzen in der Virtual Reality Exposure Therapy
(2019)
Zur Behandlung von Angststörungen – welche mit zu den häufigsten psychischen Erkrankungen in Deutschland gehören – bietet die klassische Expositionstherapie gute Erfolgsaussichten [1]. In den letzten Jahren entwickelte sich die Virtual Reality Exposure Therapy (VRET), welche eine interessante Alternative darstellt. Eine Studie zeigte 2013 die Effektivität einer VRET [2]. Problematisch ist allerdings die Lokomotion in psychotherapeutischen Praxen mit geringem Raumangebot. Gängige Sicherheitssysteme zur Kollisionsvermeidung wie Lighthouse‘s Chaperone [3] [4] oder Occulus Guardian [5] zeigen bei Annäherung an die Grenzen des sicheren Bereiches eine auffällige optische Warnung an. Dies kann jedoch bei den Benutzern zu unerwünschten Präsenzeinbrüchen (breaks in presence) führen.
Simeone et al. [6] konnten nachweisen, dass in einer virtuellen Umgebung rein virtuelle Gegenstände oder Wände von den Benutzern als real wahrgenommen und umgangen werden. Dieser Effekt liess sich durch zusätzliche reale Gegenstände im Raum noch verstärken.
In dieser Masterarbeit wurde untersucht, ob sich die Ergebnisse von Simeone et al. [6] auch auf die Anwendung der VRET übertragen lassen.
Dazu wurde eine Studie mit 2 Gruppen zu je 12 Probanden durchgeführt. Alle hielten 2 Vorträge in einer virtuellen Umgebung, je einen Vortrag mit Avatar und einen ohne. Während eine Gruppe sich in einer virtuellen Umgebung mit ausschliesslich virtuellen Objekten bewegte, waren in der anderen Gruppe zusätzlich reale Gegenstände vorhanden.
In der vorliegenden Masterarbeit konnte gezeigt werden, dass die Ergebnisse von Simeone et al. [6] auch für VRET Anwendungen gültig sind. Virtuelle Objekte werden auch von Patienten eines VRET Systems als Begrenzungen akzeptiert. Zudem lassen sich physische Objekte in die virtuelle Umgebung integrieren, ohne dass es zu Kollisionen mit den Benutzern kommt oder die Benutzer eine erhöhte Angst vor Kollisionen haben. Obwohl das Vorhandensein eines Avatars in der durchgeführten Studie keinen Einfluss auf die Ergebnisse hatte, wünschen sich die Benutzer einen Avatar in der VR.
Der sichere Aufenthaltsbereich kann also bereits in der virtuellen Umgebung durch virtuelle Objekte abgegrenzt werden, wodurch - zugunsten der Vermeidung von Präsenzeinbrüchen - auf ein System wie Lighthouse`s Chaperone [3] [4] verzichtet werden kann. Ausserdem müssen reale Gegenstände nicht aus dem Bewegungsbereich der Benutzer ausgeschlossen werden, sondern lassen sich in die virtuelle Umgebung integrieren. Dies stellt eine praktikable Möglichkeit dar, den für VRET nutzbaren Raum in psychotherapeutischen Einrichtungen zu optimieren. Somit stellt die VRET eine echte Alternative zur klassischen Expositionstherapie dar.
Im Mittelpunkt dieser Arbeit steht die Entwicklung eines Verfahrens für das Erzeugen
von möglichst realitätsnahen Telepräsenzsimulationen für die Information von Patienten
in der Strahlentherapie sowie die Anwendung des Verfahrens in der Entwicklung
einer VR-Applikation auf Basis eines Demonstrators.
Nach einer Literaturrecherche bezüglich des aktuellen Stands der Aufklärung von Patienten
wurden die Grundlagen von Virtual und Augmented Reality hinsichtlich der
gegebenen Hardware ermittelt. Hierauf folgte die Auswahl von Software für das Scannen
von realen Objekten mit dem gegebenen Tablet in einem Bestrahlungsraum des
DKFZ sowie die Auswahl einer Game Engine für die Entwicklung des Demonstrators.
Daraufhin wurde ein Rekonstruktionsalgorithmus ausgewählt. Anschließend wurden
verschiedene Objekte im Bestrahlungsraum gescannt, sodass die Parameter des Algorithmus
iterativ hinsichtlich der Qualität der erzeugten Objekte für den Einsatz in
einer VR-Anwendung optimiert werden konnten. Daraufhin erfolgte eine Texturierung
der Oberfläche mit Kamerafotos. Nach einer Aufbereitung der Modelle wurden diese
in ein Virtual Environment importiert. Parallel dazu wurde nach der Auswahl der Unreal
Engine als Game Engine, der Demonstrator entwickelt, in welchen die gescannten
Modelle integriert wurden.
Das Verfahren liefert ausreichend genaue Ergebnisse, um Konzepte in der Strahlentherapieaufklärung
vermitteln zu können. Der Effekt und die Akzeptanz der Technik
spielen eine weitere wichtige Rolle für den Einsatz der Methodik und müssen durch eine
Evaluation im klinischen Alltag validiert werden, wofür die Entwicklung einer klinisch
anwendbaren Software auf Basis der gewonnenen Erkenntnisse notwendig wird.
Die Reiseanalyse ist eine für die gesamte Bundesrepublik Deutschland reprasentative sozial- und wirtschaftswissenschaftliche Grundlagenuntersuchung zum Reiseverhalten der deutschen Bundesbürger, die das 14. Lebensjahr vollendet haben. Der Studienkreis für Tourismus hat die Reiseanalyse 1970 ins Leben gerufen und ist seitdem für Konzeption, Organisation, Durchführung und Vermarktung der Reiseanalyse verantwortlich. Die Bezieher der Reiseanalyse, die das Projekt mitfinanzieren, vertreten unterschiedliche gesellschaftliche Bereiche und lnteressen. lhr gemeinsames Interesse sind die Markt- und Sozialforschungsdaten zur touristischen Nachfrage und zum Urlaubsreiseverhalten.
Die Reiseanalyse ist eine für die gesamte Bundesrepublik Deutschland repräsentative sozial- und wirtschaftswissenschaftliche Grundlagenuntersuchung zum Reiseverhalten der deutschen Bundesbürger, die das 14. Lebensjahr vollendet haben. Der Studienkreis für Tourismus hat die Reiseanalyse 1970 ins Leben gerufen und ist seitdem für Konzeption, Organisation, Durchführung und Vermarktung der Reiseanalyse verantwortlich. Die Bezieher der Reiseanalyse, die das Projekt mitfinanzieren, vertreten unterschiedliche gesellschaftliche Bereiche und lnteressen. lhr gemeinsames Interesse sind die Marktforschungsdaten zur touristischen Nachfrage und zum Urlaubsreiseverhalten.
Anfang 1971 wurde die Feldarbeit der ersten Reiseanalyse (RA 0) auf der Basis von 4.000 Interviews von Infratest (München) durchgeführt. Bereits im zweiten Jahr der Reiseanalyse wurde die Anzahl der Interviews auf 6.000 erhöht. Die Durchführung der Reiseanalyse 1971 wurde an die Marplan Forschungsgesellschaft (Offenbach) vergeben, die auch die folgenden Reiseanalysen einschließlich des Jahres 1980 betreute. Von 1981 bis 1986 wurde die Reiseanalyse von der GfK Marktforschung (Nümberg) bearbeitet. Die RA 87 wurde von M + E und Marplan in Verbindung mit Basis Research durchgeführt. Die Reiseanalysen 1988 und 1989 entstanden ebenfalls mit Hilfe von Basis Research zusammen mit GfM-Getas. Aufgrund der im Laufe des Jahres 1990 absehbaren Vereinigung von Deutschland West und Deutschland Ost und der Tatsache, dass es in der damaligen DDR keine vergleichbare Reiseforschung gab, führte der Studienkreis für Tourismus zur Ausweitung der Reiseanalyse auf dieses Gebiet eine Pilotuntersuchung zum Reiseverhalten durch. Dabei wurde geklärt, ob der Fragebogen der RA auch im Gebiet der ehemaligen DDR verwendet werden kann oder ob er modifiziert und den sprachhchen und begrifflichen Gegebenheiten angepasst werden muss.
Anfang 1971 wurde die Feldarbeit der ersten Reiseanalyse (RA 70) auf der Basis von 4.000 Interviews von Infratest (München) durchgeführt. Bereits im zweiten Jahr der Reiseanalyse wurde die Anzahl der Interviews auf 6.000 erhöht. Die Durchführung der Reiseanalyse 1971 wurde an die Marplan Forschungsgesellschaft (Offenbach) vergeben, die auch die folgenden Reiseanalysen einschließlich des Jahres 1980 betreute. Von 1981 bis 1986 wurde die Reiseanalyse von der GfK Marktforschung (Nürnberg) bearbeitet. Die RA 87 wurde von M + E und Marplan in Verbindung mit Basis Research durchgeführt. Basis Research hat auch die Reiseanalysen 1988 und 1989, zusammen mit GfM-Getas, durchgeführt.
Bei Repräsentativuntersuchungen über das Reiseverhalten spielen sozial- und wirtschaftswissenschaftliche Gesichtspunkte eine wichtige Rolle. Bereits seit den frühen 50er Jahren wurden in der Bundesrepublik Deutschland die gesellschaftlichen und wirtschaftlichen Aspekte des Reisegeschehens erfasst. Ende der 60er Jahre existierten eine Reihe unabhängig voneinander angebotener Marktuntersuchungen, denen es allerdings an direkter Vergleichbarkeit mangelte. Die Zersplitterung der empirischen Tourismusforschung veranlasste den Studienkreis für Tourismus im Jahre 1970, die Interessenten für repräsentative Tourismusuntersuchungen zur Zusammenarbeit an einem einzigen kostengünstigen Gemeinschaftsprojekt zu gewinnen. lm Oktober 1970 fand in Frankfurt das erste Treffen der Interessenten an dem neuen Projekt "Reiseanalyse" statt, das zur Gründung der Arbeitsgemeinschaft Reiseanalyse führte.
Die Reiseanalyse 1985 (RA 85) ist die sechzehnte vom Studienkreis für Tourismus organisierte Erhebung dieser Art. Es handelt sich urn eine sozial- und wirtschaftswissenschaftliche Grundlagenuntersuchung, die repräsentativ für die westdeutsche und Westberliner Bevölkerung über 14 Jahre das Urlaubsverhalten erfasst.
Die Reiseanalyse 1983 ist die vierzehnte vom Studienkreis für Tourismus organisierte Erhebung dieser Art. Es handelt sich urn eine sozial- und wirtschaftswissenschaftliche Grundlagenuntersuchung, die repräsentativ für die westdeutsche und Westberliner Bevölkerung über 14 Jahre das Urlaubsverhalten erfasst.
Der Studienkreis für Tourismus e.V. organisiert seit 1970 die Reiseanalyse als eine sozial- und wirtschaftswissenschaftliche Grundlagenuntersuchung des Tourismus der Deutschen. Die Reiseanalyse 1979 (RA 79), durchgeführt von der MARPLAN Forschungsgesellschaft für Markt und Verbrauch mbH, Offenbach, ist bereits die zehnte dieser jährlich durchgeführten Repraäsentativ-Befragungen, die systematisch und kontinuierlich sowohl die soziologischen Zusammenhänge der Urlaubs- und Reisegewohnheiten der westdeutschen und westberliner Bevölkerung über 14 Jahren als auch die ökonomischen und sozialpsychologischen Einflüsse auf das Urlaubsreisegeschehen analysiert.
Der Studienkreis für Tourismus e.V. organisiert seit 1970 die Reiseanalyse als sozial- und wirtschaftswissenschaftliche Grundlagenuntersuchung. Die Reiseanalyse 1978 (RA 78), durchgeführt von der MARPLAN Forschungsgesellschaft für Markt und Verbrauch mbH, Offenbach, ist nunmehr die neunte dieser jährlich durchgeführten Repräsentativ-Befragungen, die systematisch und kontinuierlich sowohl die soziologischen Zusammenhänge der Urlaubs- und Reisegewohnheiten der westdeutschen und Westberliner Bevölkerung über 14 Jahren als auch die ökonomischen Einflüsse auf das Urlaubsreise geschehen analysiert.
Der Studienkreis für Tourismus e.V. organisiert seit 1970 die Reiseanalyse als sozial- und wirtschaftswissenschaftliche Grundlagenuntersuchung. Die Reiseanalyse 1977 (RA 77) ist nunmehr die achte dieser jahrlich durchgeführten Repräsentativbefragungen, die systematisch und kontinuierlich sowohl die soziologischen Zusammenhänge der Urlaubs- und Reisegewohnheiten der westdeutschen und Westberliner Bevölkerung über 14 Jahre als auch die ökonomischen EinfLüsse auf das Urlaubsreisegeschehen analysiert.
Die Reiseanalyse 1973 des Studienkreises für Tourismus wurde wie in den früheren Jahren im Januar und Februar mit mehr als 6000 Interviews im Bundesgebiet einschließlich West-Berlin durchgeführt. Zum dritten Mal lagen Feldarbeit und Darstellung in Händen der MARPLAN Forschungsgesellschaft für Markt und Verbrauch, Offenbach. Die Beteiligung von rund dreißig Behörden, Fremdenverkehrszentralen, Reiseorganisationen, Verkehrsträgern und Verlagen - zusammengeschlossen in der Arbeitsgemeinschaft Reiseanalyse (AGRA) des Studienkreises für Tourismus - ermöglichte die Durchführung dieser vierten Reiseanalyse seit 1970. Die regelmaßige und systematische Erfassung der Urlaubs- und Reisegewohnheiten der westdeutschen Bevölkerung durch diese Repräsentativ-Untersuchung ist für alle am Tourismus Interessierten von großer Bedeutung.
Die Erfassung eines Elektromyogramms (EMG) ist bisher mit großem zeitlichen und finanziellen Aufwand verbunden. Zudem müssen die Elektroden, welche aufgebracht werden, an den richtigen Stellen fixiert werden. Dies ist essentiell und kann nur von Fachpersonal durchgeführt werden. Somit ist es mit großem Aufwand verbunden.
Durch das Myo-Armband [25] der Firma Thalmic Labs hat sich dies zum Positiven geändert, da hier das Armband nur über den Unterarm gestreift werden muss und durch dieses innovative ”Wearable Device” direkt Elektromyographie-Daten erfasst werden können.
Mithilfe dieses Armbands und einer wohl programmierten Schnittstelle, kann damit sogar eine Drohne ferngesteuert werden. Auch eine Prothese kann damit bewegt werden. Das beste Beispiel hierfür ist ,,Johnny Matheny”. Ihm wurde aufgrund von Krebs der linke Arm oberhalb des Ellenbogens amputiert. Speziell für ihn, wurde eine Prothese konstruiert, welche durch zwei Myo-Armbänder am Oberarm gesteuert werden kann. So kann er laut der Website [1] seine Prothese, wie seither seinen Arm, bewegen.
Es wurde zusätzlich die Idee entwickelt, mithilfe dieser erfassbaren Daten ein Elektrostimulationsgerät zu steuern und eine zuvor erfasste Bewegung zu stimulieren. Dies soll mithilfe des Elektrostimulator MotionStim8 [31] der Fa. Kraut + Timmermann, welcher unter anderem in der Rehabilitation von querschnittgelähmten Patienten Anwendung findet, realisiert werden.
Das Ziel der Arbeit sind grundlegende Untersuchungen zur Kopplung des Myo-Armbands [25] mit dem Motionstim8 [31]. Es soll untersucht werden, inwieweit aufbauend auf der Analyse des EMG-Datenstroms oder der vorhandenen Gestenerkennung geeignete Ansteuersignale für den Motionstim8 [31] erzeugt werden können, die z.B. die Übertragung der Geste/Bewegung einer Quell-Hand auf eine Ziel-Hand ermöglichen. Von Interesse ist unter anderem, welche Gesten beziehungsweise Bewegungen sich hierzu eignen, ob die Stimulation kontinuierlicher Bewegungen prinzipiell möglich ist und wie eine effiziente individuelle Kalibrierung für verschiedene Probanden erfolgen kann.
Viele schwerstkranke Patienten hegen den Wunsch die letzte Zeit ihres Lebens im häuslichen Umfeld, statt im Krankenhaus zu verbringen. Eine wichtige Voraussetzung dafür ist eine gute Kommunikation zwischen allen Beteiligten des Versorgungsprozesses, damit ambulante und stationäre Versorgung gut aufeinander abgestimmt werden können. Derzeit gibt es nur wenige strukturierte Untersuchungen, welche Informationsbedürfnisse die im Bereich der palliativen Versorgung beteiligten Akteure besitzen und ob und in wieweit diese mit mobilen Anwendungen unterstützt werden können. Die vorliegende Arbeit untersucht, welche Akteure hauptsächlich am Prozess der palliativen Versorgung sowohl im ambulanten als auch im stationären Umfeld beteiligt sind und welche Informationsbedürfnisse diese haben. Weiterhin werden bisher verwendete Werkzeuge, Apps und Anwendungssysteme darauf untersucht, inwiefern sie diesen Informationsbedarf erfüllen. Die Untersuchungen basieren auf einer systematischen Literaturrecherche sowie Hospitationen in drei verschiedenen palliativen Einrichtungen: einer spezialisierten ambulanten Palliativversorgungs Einheit in Buchen im Odenwald, einer Palliativ-Station in Heidelberg sowie einer Palliativ-Einrichtung in Santiago de Chile. Es hat sich herausgestellt, dass die stationären Einrichtungen bereits sehr gute Strukturen für Informationsaustausch und -bereitstellung etabliert haben, diese jedoch im ambulanten Bereich weniger wirksam sind. Gründe hierfür liegen in der größeren örtlichen Distanz und den damit verbundenen längeren Kommunikationswegen im ambulanten Bereich. Ebenso ist bedingt durch den zusätzlichen Fahrtaufwand bei gleicher Patientenzahl und Visitendauer nur eine geringere Anzahl an Visiten möglich. Bisher sind hier aber vor allem die informationsverarbeitenden Prozesse aufgrund der geringen Größe der Einrichtungen und der hohen Individualität der Behandlung wenig automatisiert und automatisierbar. Die für die Palliativversorgung existierenden Softwareprodukte sind hierfür zu umfangreich oder nicht ausreichend adaptierbar. Es hat sich gezeigt, dass der Bedarf an mobiler, technischer Unterstützung vor allem in der ambulanten Palliativversorgung in den Bereichen Dokumentation und Abrechnung, aber auch bei der Bildung und Weiterbildung von Fachpersonal, Patienten und Angehörigen derzeit nicht gedeckt werden kann.
Während der Therapie unbewegte Tumore lassen sich durch eine gezielte Bestrahlung präzise behandeln, bei gleichzeitiger Schonung des umliegenden Gewebes. Lässt sich eine Bewegung des Tumors während einer Bestrahlung aber nicht vermeiden, so werdenVerfahren benötigt, die eine solche Bewegung kompensieren. Diese Arbeit stellt einen Multi-Template-Ansatz vor, der eine direkte Bewegungserkennung des Tumors während der Bestrahlung ermöglicht. Um zu jeder Zeit eine individuelle und exakte Tumorposition zu erhalten, wurde ein bereits bestehendes System um eine Positionsbestimmung des Tumors innerhalb der Templates erweitert. Anschließend wurde ein Matching-Algorithmus in das System integriert. Die Ergebnisse wurden anhand eines Phantom- und Patientendatensatzes evaluiert und auf eine Eignung für ein Gating- oder Tracking- Verfahren überprüft.
This thesis presents a photmetric stereo method based on the work of Schulze [35], who in turn extended the research of Schroeder et al. [33,34] In this approach, three different lightings are obtained by illuminating the object by three colored light sources (red, green and blue). A video of the subject is captured from the front, the back and the side. The single frames are then extracted from the viedo, which are used for the 3D reconstruction of the subject. The aim of this work was to improve the presented method of Schulze with real patient subjects by getting a better sphere calibration and changing some parameters in the patient processing. As the graphical interface was implemented for persons with a technical background, it has been changed to become also more convenient to use for non-technically oriented staff
Im fortschreitenden Alter fällt es Menschen schwer, regelmäßig Medikamente zum richtigen Zeitpunkt einzunehmen. Oft wird dies durch eine große Anzahl verschiedener Medikamente
noch erschwert, die über den Tag eingenommen werden müssen.
In Zusammenarbeit mit dem Praktikum Informationssysteme/Telemedizinische Anwendungen an der Hochschule Heilbronn wird eine Smartwatch-Anwendung für die Apple Watch entwickelt. Diese basiert stark auf dezenten Benachrichtigungen am Handgelenk. Auch eine native Anwendung, die der Nutzer aktiv bedienen kann, wird erstellt. Die Anwendung ist aufgrund fehlender Prototypen-Werkzeuge für die Apple Watch nativ in Swift realisiert. Hierbei wird auf Swift als relativ neue Programmiersprache eingegangen. Die Evaluierung wird an stationären Patienten im Alter von 70-85 vorgenommen. Die Aussage der Befragung ergibt, dass sich eine Uhr als Medium sehr gut eignet, da sie etwas Vertrautes ausstrahlt. Die touchscreen-basierte Steuerung fällt aufgrund reduzierter sensomotorischer Fähigkeiten der Probanden negativ auf. Während die Benachrichtigung mit einhergehender Vibration sehr gut aufgenommen wird, ist die Interaktion mit der Uhr schwerfällig. Die Patienten haben Probleme eine native Anwendung zu starten. In
Zukunft könnten diese Probleme mit Hilfe von Accessibility Funktionen der Plattform gelöst werden. Weiter bietet die Uhr interessante Anwendungsmöglichkeiten Menschen im Alltag zu unterstützen.
Im Rahmen dieser Arbeit wird eine eigens entwickelte Plagiatserkennungsoftware für Java-Programme namens Plagiarism Finder vorgestellt. Der Plagiatserkennungsprozess dieser Software basiert auf dem Java-Bytecode. Es werden die Grundlagen der Plagiatserkennung und des Java-Bytecodes umfassend erläutert. Des Weiteren wird die Funktionsweise, der Entwurf, die Benutzeroberfläche und die Evaluierung von Plagiarism Finder dargestellt. Hierbei wird auf folgende von der Wissenschaft bisher nicht betrachteten Aspekte eingegangen:
-Die Art der Normalisierung des Bytecodes vor dem Vergleich.
-Wie gelöst werden kann, dass das Verschieben von Methoden keinen Einfluss auf die ermittelten Ergebnisse hat.
-Wie bei der Plagiatserkennung Vorlagen gefiltert werden können. Die Arbeit kommt zu dem Resultat, dass sich die Ergebnisse von Plagiarism Finder stabil gegenüber Änderungen des Wortlautes, des Textsatzes und dem Verschieben von Methoden verhalten. Änderungen an Kontrollstrukturen (z.B. For- statt While- Schleifen), an Zugriffsmodifikatoren und an der Anzahl von Methoden führen zu einem instabilen Verhalten der Ergebnisse. Alles in allem kann Plagiarism Finder mit einer etablierten Plagiatserkennugssoftware
wie JPlag [MP00] mithalten. Auf Grundlage der untersuchten Daten ist Plagiarism Finder im Erkennen von Plagiaten leicht schlechter als JPlag. Plagiarism Finder ist hingegen deutlich besser im Erkennen von nicht plagiierter Software. Bei wortwörtlichen Kopien sowie bei Änderungen an der Textgestaltung und an Bezeichnungen sind die Ergebnisse der Programme nahezu identisch.
Ein Tumor ist eine örtlich umschriebene Zunahme des Gewebevolumens, im engeren
Sinn eine gewebliche Neubildung, ein Geschwür in Form eines enthemmten und
irreversiblen Überschusswachstums von körpereigenem Gewebe [33].
,,In Europa sind 3-5% [...] aller malignen Tumoren des Menschen Tumoren der Mundhöhle,
davon stellen die Plattenepithelkarzinome mit 95% den größten Anteil.” [28].
Nur 25-40% der Patienten mit Lymphknotenmetastasierung erreichen die 5-Jahres-Überlebensrate im Gegensatz zu ca. 90% der Patienten ohne Metastatisierung [29].
Oft werden diese Tumore spät erkannt und müssen deshalb durch eine Operation
entfernt werden. Das Plattenepithelkarzinom kann den Kiefer infiltrieren, die notwendige
Resektion des Tumors kann zu einer Verschlechterung der Ästhetik, zum Verlust der Kaufunktionalität und der Sprechfunktionalität führen.
Im Universitätsklinikum Heidelberg (UKHD) werden verschiedene Verfahren zur
Rekonstruktion angewandt, wie die Rekonstruktion mithilfe der körpereigenen Fibula(dt.Wadenbein), deren Schaft dafür entnommen wird. Aus diesem Schaft werden Segmente gesägt, mit welchen dann der ursprüngliche Verlauf der Mandibula
(dt. Unterkiefer), in dem resezierten Bereich, rekonstruiert wird. Die Rekonstruktion
erfolgt mit einer speziellen Platte auf welcher die Fibulasegmente befestigt werden. Diese Platte wird anschließend am Restunterkiefer fixiert.
Die Schwierigkeit besteht in der Nachbildung des Unterkieferverlaufs und der Erhaltung
des Kiefergelenks. Bei dieser Operation muss die Ischämiezeit, die Zeit, welche ein Organ ohne Blutversorgung schadlos überstehen kann, berücksichtigt
werden. Ohne eine genaue Schnittführung ist die Wahrscheinlichkeit größer, dass
die gesägten Segmente nachbearbeitet werden müssen, was wiederum ein zeitliches
Problem ist.
Deshalb wird Rekonstruktion mit Cutting-Guides (dt. Sägeschnittschablone) unterstützt. Diese Guides werden nach der Planung der Operation angefertigt. Sie
werden in der Mund-, Kiefer- und Gesichtschirurgie (MKG) des UKHD von einem
Zahntechniker hergestellt. Alternativ gibt es industrielle Dienstleister, die diese Guides herstellen können. Diese sind jedoch wesentlich teurer als die in der MKG etablierte Lösung.
Mit zunehmender Anzahl von Smartphones1 und Tablets2 steigt heutzutage auch die Bedeutung mobiler Anwendungen ständig. Die „kleinen“ Anwendungen können immer mehr Aufgaben übernehmen und können durch den Einsatz auf mobilen Geräten sehr flexibel eingesetzt werden. Aus diesem Grund entstand das vom US-Militär geförderte internationale Projekt MoLE3 (Mobile Learning Environment). Die Hochschule Heilbronn ist durch ihr Forschungslabor „e-Learning in Medicine“ des CeLTech4 (Centre for e-Learning Technology) an diesem Projekt beteiligt. Das Ziel des MoLE Projekts ist es, die Telekommunikationsinfrastruktur und die mobilen Geräte wirksam einzusetzen, um Wissen und Ressourcen einfacher miteinander zu teilen. Dazu wurde die „Global MedAid App“ entwickelt, die sowohl auf iOS5 als auch auf Android6 Geräten läuft. Die plattformübergreifende Open-Source7 App ist erweiterbar und beinhaltet eine Schnittstelle zu Lernplattformen.
Das Ziel dieser Bachelorarbeit war es, ein Programm zu entwickeln, welches die doppelte
Lichtbrechung und die Reflexion eines Laserstrahls berechnen kann. Hierbei wird zuerst auf
die physikalischen Grundlagen eingegangen. Anschließend wird das dazu verwendete Programm
mit dem Algorithmus inklusive den Berechnungen vorgestellt. Das Programm kann
die doppelte Lichtbrechung und auch die Reflexion eines Laserstrahls berechnen und zusätzlich
bestimmen, ob der Laserstrahl gebrochen oder total reflektiert wird. Die Prüfung dafür,
erfolgt über den Größenvergleich zwischen dem Einfallswinkel und dem kritischen Winkel.
Der Algorithmus ist für beliebige Laserstrahlen unter Berücksichtigung der Brechungsindexe
geeignet.
Die häufigste Todesursache in Deutschland sind Erkrankungen des Herz-Kreislaufsystems. Zwei häufig auftretende Krankheiten sind Aortenaneurysmen und Aortendissektionen. Für die Diagnose und die computerunterstützte OP-Planung wird eine semantische Annotation der präoperativ akquirierten Bilddaten benötigt. Dies wird herkömmlich durch eine manuelle Segmentierung der betroffenen Strukturen erreicht. Mit Verfahren aus der medizinischen Bildverarbeitung, darunter die deformierbaren Modelle, ist es möglich diese Segmentierung weitgehend zu automatisieren. In dieser Masterarbeit wird ein Verfahren vorgestellt, das mit Hilfe von deformierbaren Modellen eine automatische Segmentierung der Aorta und Aortenpathologien in 2D-CTA-Aufnahmen ermöglicht. Hierfür wurde ein geeignetes deformierbares Modell identifiziert, welches mit üblichen Störungen von CTA-Aufnahmen zurecht kommt. Das Verfahren ist eine Kombination aus den Dual Snakes und den GVF-Snakes und wird Dual-GVF-Snakes genannt. Das Besondere an diesem Verfahren ist, dass nicht nur das Lumen der Aorta und eines Aortenaneurysmas, sondern auch die zwei Lumen einer Aortendissektion gleichzeitig segmentiert werden können. Realisiert wird dies durch eine Unterteilung der Kontur in Segmente mit unterschiedlichen Eigenschaften. Das in dieser Arbeit vorgestellte Verfahren wurde zur Segmentierung von Objekten in synthetischen und klinischen Bilder angewendet, wobei die klinischen Bilder die Aorta, ein Aortenaneurysma und verschiedene Aortendissektionen beinhalten. Zur Evaluierung wurde das Verfahren mit den GVF-Snakes und den AB-Snakes verglichen, indem der Abstand zwischen Referenzkonturen und berechneter Konturen ermittelt wurde. Ein Vorteil gegenüber GVF-Snakes ist, dass zwei Objekte segmentiert und voneinander unterschieden werden können. Im Gegensatz zu den GVF-Snakes und den AB-Snakes müssen weniger Parameter eingestellt werden und die Membran zwischen den beiden Lumen der Aortendissektion wird erkannt. Das Verfahren ist robuster gegenüber der Initialisierung und lierfert vergleichbare Ergebnisse wie das GVF-Snakes Verfahren mit gezielter Initialisierung.
Segmentation of the Cerebrospinal Fluid from MRI Images for the Treatment of Disc Herniations
(2010)
About 80 percent of people are affected at some point in their lives by lower back pain, which is one of the most common neurological diseases and reasons for long-term disability in the United States. The symptoms are primarily caused by overly heavy lifting and/or overstretching of the back, leading to a rupture and an outward bulge of an intervertebral disc, which puts pressure on and pinches the nerve fibers of the spine. The most common form is a lumbar disc herniation between the fourth and fifth lumbar vertebra and between the fifth lumbar vertebra and the sacrum. In recent years the diagnosis of lower back pain has improved, mainly due to enhanced imaging techniques and imaging quality, but the surgical therapy remains hazardous. Reasons for this include low visibility when accessing the lumbar area and the high risk of causing permanent damage when touching the nerve fibers. A new approach for increasing patient safety is the segmentation and visualization of the cerebrospinal fluid in the lower lumbar region of the vertebral column. For this purpose a new fully-automatic and a semi-automatic approach were developed for separating the cerebrospinal fluid from its surroundings on T2-weighted MRI scans of the lumbar vertebra. While the fully-automatic algorithm is realized by a model-based searching method and a volume-based segmentation, the semi-automatic algorithm requires a seed point and performs the segmentation on individual axial planes through a combination of a region-based segmentation algorithm and a thresholding filter. Both algorithms have been applied to four T2-weighted MRI datasets and are compared with a gold-standard segmentation. The segmentation overlap with the gold-standard was 78.7 percent for the fully-automatic algorithm and 93.1 percent for the semi-automatic algorithm. In the pathological region the fully-automatic algorithm obtained a similarity of 56.6 percent, compared to 87.8 percent for the semi-automatic algorithm.
Ultraschallbildgebung ist ein in der Medizin häufig verwendetes Verfahren zur Diagnostik und Verlaufskontrolle. Ultraschall bietet vor allem eine große Weichteilauflösung bei gleichzeitig niedrigen Kosten, erfordert aber vom Anwender ein großes Maß an Erfahrung. Aufgrund vieler Artefakte und Verzerrungen in Ultraschallbildern ist die Bildqualität der Bilder deutlich geringer, als die derer, die mittels Magnetresonanztomographie erstellt werden können. Deshalb arbeiten viele verschiedene Forschungsgruppen an der Verbesserung der Modalitäten und Datensätze im Zusammenhang mit Ultraschallbildgebung. Diese Arbeit beschäftigt sich mit der Entwicklung eines robotergestützten Ultraschalltomographen. Das Gerät ist in der Lage tomographische Bildserien von Phantomen und Weichgewebe zu erstellen, die anschließend dreidimensional visualisiert werden können.
Initial results of an ongoing research in the field of reactive mobile autonomy are presented. The aim is to create a reactive obstacle avoidance method for mobile agent operating in dynamic, unstructured, and unpredictable environment. The method is inspired by the stimulus-response behavior of simple animals. An obstacle avoidance controller is developed that uses raw visual information of the environment. It employs reinforcement learning and is therefore capable of self-developing. This should result with obstacle avoidance behavior that is adaptable and therefore generalizes on various operational modalities. The general assumptions of the agent capabilities, the features of the environment as well as the initial result of the simulation are presented. The plans for improvement and suitable performance evaluation are suggested.
Die Arbeit gliedert sich in sechs Kapitel. Kapitel 1 stellt die Problematik der Arbeit dar. Nach einer Darlegung der Gefälligkeit des Computer-Trainings werden die vorliegende Software “Gesichter“ und ihre Schwächen sowie mögliche Verbesserungen angesichts des aktuellen Stands der Technik vorgestellt. Die Vorgehensweise wird in der Zielsetzung beschrieben. Im Kapitel 2 werden wichtige medizinische und technische Konzepte vorgestellt, die für die Realisierung der neuen Applikation erforderlich sind. Außerdem wird das menschliche Gehirn vorgestellt. Es wird anschließend gezeigt, wie eine erworbene Hirnschädigung zu Stande kommt und welche Strukturen im Gehirn dabei betroffen sind. Kapitel 3 beschäftigt sich hauptsächlich mit der Untersuchung der vorliegenden Software sowie mit der konkreten Evaluierung der Vorgehensweise und der Auswahl der geeigneten Technologie zur Realisierung der neuen Anwendung. Kapitel 4 beschreibt, wie die Implementierung realisiert wurde. Dabei wird auf die Implementierung einzelner definierten Anforderungen eingegangen. In Kapitel 5 werden Testfälle, die mit dem neuen Programm durchgeführt werden können, vorgestellt. Das letzte Kapitel 6 fasst die Arbeit zusammen. Hierbei werden alle erreichten Ergebnisse entsprechend der Zielsetzung vorgestellt. Abschließend werden im Ausblick Erweiterungsmöglichkeiten für das neue Programm vorgeschlagen.
Quantitative assessment of Positron Emission Tomography (PET) imaging can be used for diagnosis and staging of tumors and monitoring of response in cancer treatment. In clinical practice, PET analysis is based on normalized indices such as those based on the Standardized Uptake Value (SUV). Although largely evaluated, these indices are considered quite unstable mainly because of the simplicity of their experimental protocol. Development and validation of more sophisticated methods for the purposes of clinical research require a common open platform that can be used both for prototyping and sharing of the analysis methods, and for their evaluation by clinical users. This work was motivated by the lack of such platform for longitudinal quantitative PET analysis. By following a prototype driven software development approach, an open source tool for quantitative analysis of tumor changes based on multi-study PET image data has been implemented. As a platform for this work, 3D Slicer 4, a free open source software application for medical image computing has been chosen. For the analysis and quantification of PET data, the implemented software tool guides the user through a series of workflow steps. In addition to the implementation of a guided workflow, the software was made extensible by integration of interfaces for the enhancement of segmentation and PET quantification algorithms. By offering extensibility, the PET analysis software tool was transformed into a platform suitable for prototyping and development of PET-specific segmentation and quantification methods. The accuracy, efficiency and usability of the platform were evaluated in reproducibility and usability studies. The results achieved in these studies demonstrate that the implemented longitudinal PET analysis software tool fulfills all requirements for the basic quantification of tumors in PET imaging and at the same time provides an efficient and easy to use workflow. Furthermore, it can function as a platform for prototyping of PET-specific segmentation and quantification methods, which in the future can be incorporated in the workflow.
In IT-Abteilungen von Krankenhäusern und Universitätskliniken nimmt Kommunikation und Informationsaustausch zwischen Arbeitsgruppen immer mehr an Bedeutung zu. Einheitliche Informationsprozesse innerhalb einer ITAbteilung sind also notwendig, damit vor allem im Bereich des Projektmanagements Klarheit und Stabilität vorhanden ist. Schon in der Projektinitiierungsphase soll damit Fehlerbehebung und -vermeidung stattfinden. Denn die Haupthebelstelle für Projektqualität liegt im Projektentstehungsprozess. Vor diesem Hintergrund befasst sich diese Abschlussarbeit mit der Untersuchung der IT-Projektmanagementprozesse in Bezug auf die Möglichkeit zur EDV-Unterstützung.
Aufgrund der unterschiedlichen Wiederbelebungsabläufe zwischen Erwachsenen
und Kindern, müssen bei der Reanimation eines Kindes andere Behandlungsmaßnahmen
durchgeführt werden. So müssen z.B. Medikamente anders dosiert werden.
Hinzu kommt, dass eine Reanimation an einem Kind nur selten durchgeführt wird.
Dadurch sind Mediziner mit einer Wiederbelebungsmaßnahmen an Kindern aufgrund
mangelnden Routine unsicher bzw. führen falsche Behandlungsmaßnahmen
durch. Zwar sind bereits Leitlinien in digitaler Ausführung vorhanden, jedoch
werden diese in einer für eine Reanimation ungeeigneten Form ausgegeben und
können so nur schlecht in einer Wiederbelebungsmaßnahme genutzt werden. Um
Behandlungsfehler zu minimieren wird in dieser Arbeit untersucht, ob eine Datenbrille
zur Darstellung der Leitlinien verwendet werden und der Mediziner diese
mittels Sprachkommandos steuern kann. Um die Qualität der Sprachsteuerung im
Umgang mit den Leitlinien festzustellen, wurde eine Evaluation dieser durchgeführt.
Dafür wurden die Anwendung mit zehn Personen getestet. Diese ergab, dass
die Nutzung der Sprachsteuerung durch Auswahl geeigneter Sprachkommandos
sowohl bei Zimmerlautstärke, als auch bei Straßenlärm möglich war. Somit ist die
Steuerung einer Datenbrille mit Sprachkommandos in einer Reanimation denkbar,
um den Mediziner durch Informationen zu unterstützen .
In this bachelor thesis, different models for predicting the influenza virus are
examined in more detail.
The focus is on epidemiological compartmental models, as well as on different
Machine Learning approaches.
In particular, the basics chapter presents the SIR model and its various extensions.
Furthermore, Deep Learning and Social Network approaches are
investigated and the applied methods of a selected article are analysed in more
detail.
The practical part of this work consists in the implementation of a Multiple
Linear Regression model and an Artificial Neural Network. For the development
of both models the programming language Python was chosen using the
Deep Learning Framework Keras.
Tests were performed with real data from the Réseau Sentinelles, a French
organisation for monitoring national health.
The results of the tests show that the Neural Network is able to make better
predictions than the Multiple Linear Regression model.
The discussion shows ideas for improving influenza prediction including the
establishment of a worldwide collaboration between the surveillance centres as
well as the consolidation of historical data with real-time social media data.
Therefore, this work consists of a state-of-the art of models regarding the
spread of influenza virus, the development and comparison of several models
programmed in Python, evaluated on real data.
In den letzten Jahrzehnten ist der demographische Wandel in Deutschland immer deutlicher geworden. Die Zahl der pflegebedürftigen Menschen nimmt immer weiter zu und damit auch der Bedarf an Pflegepersonal. Die Anzahl der Pflegekräfte in Deutschland ist derzeit jedoch nicht ausreichend. Aus diesem Grund haben die Pflegekräfte für jeden Bewohner der Pflegeeinrichtung nur einen sehr begrenzten Zeitrahmen zur Verfügung. Da der geistige und körperliche Zustand der Bewohner sehr unterschiedlich ist, muss für jeden Bewohner ein individueller Pflegeplan angeboten werden. Es ist natürlich nicht möglich, sich von jedem Bewohner diese Informationen bzw. Pflegemaßnahmen zu merken, daher ist Dokumentation in einer Pflegeeinrichtung ebenso wichtig, wie eine qualitativ hochwertige Pflege. Die eben erwähnte Dokumentation ist sehr zeitaufwendig, jedoch unabdingbar. Um den Zeitaufwand der Dokumentation zu verkürzen, ist die Verwendung von IT in den letzten Jahren immer wichtiger geworden. Es ist natürlich nur dann eine Zeitersparnis möglich, wenn die Benutzer der Software gut mit selbiger umgehen können und die Verwendung möglichst intuitiv ist.
1.1 Gegenstand und Motivation Jeder von uns, der schon mal im Krankenhaus war und ein paar Tage dort verbringen musste, weiß wie einseitig und monoton der Alltag in solchen sterilen Räumen aus-sieht. Und wie froh man ist den ersten Schritt aus dem Krankenhaus zu machen, sich wieder mit Freunden zu treffen und den Alltag zu genießen. Nun gibt es auch schwer erkrankte Menschen, die dem Krankenhaus Alltag nicht nach ein paar Tagen entgehen können. Sie sind oft monatelang, ja sogar jahrelang, ans Kran-kenhaus gebunden. Besonders für Kinder und Jugendliche ist diese Situation ein großes Problem. Oft wird man von einem auf den nächsten Augenblick aus dem Alltag und dem sozialen Umfeld herausgerissen. Selbst, der bis dato doch nervende Schulalltag, fängt einem an zu feh-len. An das Beisammen sein mit Freunden im Klassenzimmer, oder auf dem Schulhof, ist auf einmal nicht zu denken. Stattdessen ist man an ein Krankenhausbett gefesselt und ist von medizinischen Geräten umgeben. Die Stiftung „Große Hilfe für kleine Helden“ will durch das Projekt „virtuelles Klas-senzimmer“ den erkrankten Schülern den virtuellen Besuch des Schulunterrichts ermög-lichen und somit auch den Kontakt mit Mitschülern und die sozialen Bindungen in ers-ter Linie zu pflegen und zu erhalten. Als Fundament für diese Arbeit dient die Abschlussarbeit „Konzeption und Implemen-tierung eines virtuellen Klassenzimmers für schwer erkrankte Kinder und Jugendliche mit Hilfe eines Telepräsenzrobotors“ von Frau Konstantina Georgiadou [3], welche auch den aktuellen Stand des Projekts beschreibt. Eine Überarbeitung des Projekts ist notwendig, da die Multimediale Hardware (Sound / Kamera / Mikrofone) immer noch kabelgebunden ist und somit die nötige Bewegungsfreiheit für den Telepräsenzroboter im Klassenzimmer oder dem Schulhof fehlt. 1.2 Problemstellung und Zielsetzung Zwar hat das Projekt beachtliche Schritte nach vorn gemacht, dennoch gibt es noch zahlreiche Probleme die zu bewältigen sind. Im Rahmen der Abschlussarbeit von Frau Georgiadou wurde ein Roboter Kit namens TurtleBot2 angeschafft. Das Kit beinhaltet eine Kobuki Basis, sowie eine Microsoft Kinect und ein ROS- kompatibles Netbook. Die vorhandene Hardware erweist sich als problematisch, da sie einige Hürden und Hindernisse darstellt die in dieser Abschlussarbeit eliminiert werden sollen. Das Projekt hat also nach diesem Stand eine große Schwäche. Die externen Geräte sind alle kabelgebunden. So benötigen die Station des mobilen Mikrofons, sowie die Audio-box eine externe Stromversorgung. Auch die Kamera, welche über das Netzwerk mittels LAN-Kabel fungiert, schränkt die Mobilität des TurtleBot2 erheblich ein. Da diese von Router und Steckdose abhängt. Ein ähnliches Problem liegt auch bei den Lautsprechern vor, diese sind ebenfalls von einer externen Steckdose abhängig. Das Ziel dieser Arbeit ist es, in erster Linie die eingeschränkte Mobilität des Turtle-Bot2, welche durch die kabelgebunden Geräte verursacht wird, zu beseitigen. Es sollen neue Hardware und Verbesserungsvorschläge für die medialen Probleme gefunden wer-den, wobei die Qualität von Ton und Bild nicht leiden dürfen. Ebenfalls soll eine An-richtung bzw. Verbesserungsvorschlag für den Schüler gefunden werden, welches ihm das Halten des Laptops erspart. Insgesamt soll sich der TurtleBot2 frei im Raum bewe-gen können und dem Schüler im Krankenhaus somit eine verbesserte Integration in die Normalität bzw. den Alltag ermöglichen.
Die Atemfrequenz ist neben anderen ein wichtiger Vitalparameter für die Erkennung von verschiedenen Erkrankungen des Atemsystems. Dennoch gibt es wenige Lösungen dafür, die Atemfrequenz aus der Ferne zu überwachen. Im Rahmen dieser
Arbeit soll deshalb ein dreidimensionaler Beschleunigungssensor für die Aufnahme der Brustkorbbewegung verwendet werden. Aus diesen Bewegungsdaten soll daraufhin mit Hilfe von digitalen Signalverarbeitungsmethoden die Atemfrequenz ermittelt werden. Der Beschleunigungssensor ermittelt die rustkorbbewegung mit einer Abtastrate von 50 Punkten pro Sekunde für jede Achse. Die Rohsignale werden achsenweise mit einem Butterworth-Bandpassfilter gefiltert und daraufhin mit Hilfe der Fast Fourier Transformation in die jeweiligen Frequenzspektren umgerechnet. Die einzelnen Achsen-Spektren werden zusammenaddiert und bilden so die Frequenzen des gesamten Signals ab. In dem Gesamtspektrum wird das absolute Maximum gesucht, das die dominante Frequenz des Signals angibt, aus welcher die Atemfrequenz berechnet werden kann.
Das Hauptziel dieser Arbeit ist es, einen Open-Source Python-Prototypen zu entwickeln, der aus den Sensor-Rohdaten die Atemfrequenz ermitteln kann. Dieser soll nach Fertigstellung veröffentlicht werden. Die Ergebnisse des Prototypen sollen gegen die des „EarlySense VitalsGerätes evaluiert werden. Dabei sind für die Ergebnis-Datensätze die Korrelation berechnet sowie die statistische Signifikanz ermittelt worden. Die Evaluation hat gezeigt, dass der Prototyp gute Ergebnisse liefert, welche in den meisten Fällen eine statistisch signifikante Korrelation aufweisen.
The e-commerce turnover has a constant growth rate of about 10%. An additional increase
in complexity and traffic spikes clarify the need for a scalable software architecture to prevent
a potential technical debt, higher financial cost, longer maintenance, or a reduced reliability.
Due to the fact, that existing approaches like the Palladio Approach require a high modelling
overhead and the importance of dropping this overhead was identified this master thesis is
focused on the modelling and simulation of e-commerce web application architectures using
a high-level approach to provide a faster, but possibly more inaccurate prediction of the
scalability.
This is done by the usage of the Design Science Research Process as a frame, a scientific
literature review for use of the existing knowledge base and the Conical Methodology for the
artefact creation. The artefact is a graphical model which is evaluated using a simulation
developed with Python and its framework SimPy. For model creation and evaluation a total
of twelve papers investigating the scalability of e-commerce web application architectures is
split into a test and train group. The training group and parts of the scientific research are
used to identify the components load balancer, application server, web tier, ERP system,
legacy system and database as well as some general characteristics that need to be considered.
The components with the most modelling variables are the application server and web
tier with a total of thirteen, while the ERP and legacy system only required five.
The model is evaluated using a total of three papers from the test group, where an average
throughput error of 5.78% and a response time error of 46.55% or 26.46% was identified. An
additional evaluation based on two non-e-commerce architectures shows the usability of the
model for other types of architectures. Even though the average error gives the impression,
that the model is not providing a good estimation, the graphical results show, that the model
and its simulation can be used to provide a faster scalability prediction. The model is least
accurate for the prediction of the situation, where the response time increases exponentially,
as this is the point, where variables, only accountable for some percentage and thus ignored
for the model, have the highest influence.
Future research can be found in the extension of the model by either adding or investigating
additional components, adding features ignored within this work or applying it to other
types of web application architectures. Additionally, both the low-level and the high-level
approaches can be brought together to combine the advantages from both approaches.
Mobile Signalverarbeitung auf dem Raspberry Pi mit Aspekten der Vernetzung mehrerer Messgeräte
(2016)
Bei dem Raspberry Pi handelt es sich um einen Einplatinen-Computer, welcher ich seit dem Verkaufsstart im Jahr 2012 sehr groÿer Beliebtheit erfreut. Nicht zuletzt aufgrund des hohen Grades an Kompatibilität und der groÿen Online-Community wurden bis zum heutigen Tage unzählige Projekte realisiert. In der Zwischenzeit ist der Raspberry Pi in verschiedenen Anwendungsgebieten und Branchen anzutreffen. Dies ist insofern interessant, da dieser ursprünglich für den Einsatz in Bildungseinrichtungen auf Basis einer Stiftung entwickelt wurde [1]. Dabei stellen Anwendungen wie eine Smart-Home Steuerung, ein Multimedia-Center oder eine Wetterstation nur einen Bruchteil der Möglichkeiten dar. Grundlage dieser vielfältigen Anwendungsgebiete ist die Unterstützung sämtlicher standardisierter Hard- und Software-Schnittstellen, zum Beispiel USB, Audio-Klinke, Serial Peripheral Interface (SPI) oder Inter-Integrated Circuit (I2C). Dadurch wird die Einbindung von beispielsweise Global Positioning System (GPS)-Modulen, Wireless Local Area Network (WLAN)-Empfängern oder sogar der eigenen Spiegelreflexkamera ermöglicht. Weiterhin ist mit Hilfe eines Mikrofons die Entwicklung einer Sprachsteuerung denkbar. Der mögliche Anwendungsbereich des Raspberry Pi geht noch weit über die hier genannten Beispiele hinaus. Eine der Schnittstellen des Raspberry Pi stellen die sogenannten General Purpose Input Output (GPIO)-Ports dar. Hierbei handelt es sich um analoge und digitale Ein- und Ausgänge worüber Hardware-Komponenten direkt auf physikalischer Ebene eingebunden werden können. Der Raspberry Pi eignet sich auch zum Nachweis radioaktiver Strahlung.
Ziel der Arbeit soll die Entwicklung eines Gerätes zur Messung der Strahlendosis sein. Dazu gehört die Verwendung eines Geiger-Müller-Zählrohrs, welches mittels eines Arduino Shields ansprechbar ist. Weiterhin sollen im Rahmen dieser Arbeit verschiedene Möglichkeiten zur Weiterentwicklung des Systems betrachtet werden. Das Geiger-Shield, zu dem das Geiger-Müller-Zählrohr und das Arduino-Shield gehören, wurden von dem Hardware-Hersteller Libelium im Jahr 2011 entwickelt. Anlass war der Tsunami in Japan, welcher die Atom-Katastrophe von Fukushima nach sich gezogen hat [2]. Das Geiger-Shield sollte den Alltag der Menschen in Japan vereinfachen, indem sie selbst die Strahlendosis messen konnten. Mit einem Mikrocontroller, einem einfachen LC-Display und einem Akku konnte so jederzeit die aktuelle Strahlendosis bestimmt werden.
Im Bereich der Krebsdiagnose und -therapie gewinnen neue minimalinvasive Verfahren zunehmend an Bedeutung. Beispiele hierfür sind Nadelpunktionen, bei denen zur Diagnose eine Gewebsprobe entnommen (Biopsie) oder durch Zerstörung des Gewebes im Bereich der Nadelspitze eine Krebserkrankung therapiert wird (Ablation). Eine zentrale Herausforderung hierbei ist die genaue Platzierung der Nadel. Am deutschen Krebsforschungszentrum (DKFZ) wurde ein computergestütztes Navigationssystem für Nadelinsertionen entwickelt, das sich im in-vivo Versuch als höchst akkurat zeigte. Trotz der vielversprechenden Ergebnisse kam das System bisher jedoch nicht am Patienten zum Einsatz. Dies ist unter anderem auf die schwierige Integration des Systems in den klinischen Workflow und die erhöhte Invasivität zurückzuführen. Vor diesem Hintergrund war das Ziel dieser Arbeit zum einen die Entwicklung einer flexiblen, erweiterbare Software für die navigierte Weichgewebepunktion, zum anderen die Weiterentwicklung des Navigationssystems durch die Einbindung eines neuen Feldgenerators für das elektromagnetische Trackingsystem NDI Aurora. Die Implementierung der Software erfolgte aufbauend auf der Bibliothek MITK und dem enthaltenen Modul MITK-IGT. Dabei wurde ein komponentenweiser Aufbau umgesetzt, welcher einen einfachen Austausch oder Erweiterungen der einzelnen Komponenten ermöglicht. Des Weiteren wurde der neue Feldgenerator bezüglich Genauigkeit und Präzision in der Einsatzumgebung evaluiert und es erfolgte ein Test des Navigationssystems unter klinischen Bedingungen. Abschließend kann festgestellt werden, dass durch die gezeigte Flexibilität und Erweiterbarkeit der entwickelten Software zahlreiche Möglichkeiten zur Weiterentwicklung offen stehen. Bezüglich des Feldgenerators zeigte sich das vielversprechende Potential dieses Geräts für die Weiterentwicklung medizinischer Navigationssysteme.
Spinodal Zr0.4Hf0.6Ni1.15Sn half-Heusler thermoelectrics are synthesized and aged. The complex microstructure due to the spinodal decomposition is investigated by powder X-ray diffraction (XRD), scanning electron microscope (SEM) and transmission electron microscope (TEM). By Rietveld refinements, it is confirmed that excess Ni atoms in the arc-melted and spark-plasma-sintered half-Heusler matrix prefer to form nanoscale/ submicron Heusler precipitates via spinodal decomposition and growth during the aging at 1173 K. Such phase separation changes the band gap of semiconductors, reduces the thermal conductivity drastically and improves the performance of thermoelectrics. As a result, a more than 50 % improvement of the ZT value on the unaged specimens was achieved.
Gegenstand der hier vorgestellten Arbeit ist ein Konzept zum Lehren von Ontologie in der Informatik, des Ontologiemanagementsystems Protégé und des Wissensverwal-tungssytems ProKEt. Dies geschieht in Form von Präsentationen, welche mit Hilfe von PowerPoint erstellt wurden. Dabei wird auf die Installation, die Basics, Kernkonzepte und die Teilwissensbasen im Detail eingegangen. Diese Präsentationen sollen ein alter-natives Konzept für den Unterricht darstellen, um die Lernenden aktiv zu beteiligen, und stellen ein Angebot zum Lehren der entsprechenden Thematiken dar. Zur Überprüfung der Effizienz wird eine Evaluation durchgeführt.
In einer vorangegangenen, erst kürzlich abgeschlossenen Bachelorarbeit wurde festgestellt, dass durch die Einführung eines Projektportals das Projektmanagement in der IT-Abteilung der SLK-Kliniken verbessert werden kann. Bisher befindet sich keine Applikation im Einsatz, mit deren man alle nützlichen Features verwalten kann. Ebenfalls ist noch nicht klar welche Anforderungen solch ein Produkt überhaupt erfüllen muss. Da noch nicht ganz klar ist, was für Anforderungen die Applikation besitzen muss und bisher nur eine sehr teure Komponente getestet wird, wird in dieser Bachelorarbeit ermittelt, was für Anforderungen für solch ein Produkt nötig sind. Mit Hilfe eines Wegwerfprototyps wird getestet, ob das Open Source Produkt Liferay Portal den Anforderungen gerecht wird und ob das Produkt in den Betrieb der Klinik integrierbar ist. Ein Analysekatalog zu erstellen ist ein Weiteres Ziel dieser Arbeit. Mit diesem können auch weitere Systeme analysiert und verglichen werden. Zudem wird eine Empfehlung auszusprechen sein, ob es sinnvoll ist das Produkt einzusetzen.
Ziel dieser Arbeit soll es sein, ein Verfahren zu entwickeln, das bildbasiert mit Hilfe eines Interpolationsmodells die Bewegung von Lungentumoren modellierbar macht, unter der Berücksichtigung, dass die Erkennbarkeit der Tumore während der Therapie nicht immer gewährleistet ist. Als erster Schritt soll daher ein geeignetes internes Surrogat für die Tumorbewegung ermittelt werden. Dessen Bewegungen während der Atmung des Patienten sollen mit Hilfe von kontinuierlich aufgenommenen zweidimensionalen Fluoroskopieaufnahmen quantifiziert werden. Anschließend sollen die gewonnenen Informationen als Eingabewerte für ein Interpolationsmodell genutzt werden, um diese Bewegung auf den Tumor im Inneren der Lunge zu propagieren. Dabei gilt es, ein geeignetes Modell zu entwickeln, das sich für die Modellierung von Tumoren auf Basis der Surrogatinformationen eignet und in der Lage ist, die Tumorbewegung möglichst wahrheitsgetreu zu modellieren. Eine Evaluation der Ergebnisse soll sowohl Aufschluss über eine geeignete Parametrisierung des Modells geben, als auch die Anwendbarkeit eines solchen Modells hinterfragen. Um eine Austauschbarkeit der Modelle gewährleisten zu können, soll eine Schnittstelle entwickelt werden, über die verschiedene Modelle angesprochen werden können. Weitergehend soll ein Ansatz entwickelt werden, der es ermöglicht, die relevanten Positionen des Surrogats ohne manuelle Interaktion während der Therapie zu bestimmen.
Im Rahmen der sich ausbreitenden Digitalisierung ist die Forderung nach mehr Bandbreite in
aller Munde. Das Schlagwort ist allerdings ein umgangssprachlicher Begriff, welcher nicht
korrekt verwendet wird. Gemeint ist dabei vielmehr die Übertragungsrate. Bandbreite
beschreibt im eigentlichen Sinn den Frequenzumfang, für den ein System ausgelegt wurde. Die
Übertragungsrate ist mittlerweile zu einem Standortfaktor für Unternehmen geworden und kann
als ein Merkmal der Infrastruktur angesehen werden. Für manche Unternehmen ist eine hohe
Übertragungsrate unerlässlich um wettbewerbsfähig zu bleiben. Aus technischer Sicht gibt es
verschiedene Ansätze zur Steigerung der Übertragungsrate. Zunächst wird versucht, ohne
Veränderungen der Hardware eine kostengünstige Verbesserung zu erzielen. Beispielsweise
lässt sich eine Steigerung auf dem Weg der Modulation realisieren, indem mehrere
Trägerfrequenzen verwandt werden. Letztlich ist eine Optimierung der Hardware trotzdem
notwendig. Ursächlich für niedrige Übertragungsraten sind momentan noch die Netze. Die
Empfangseinheiten sind längst für höhere Geschwindigkeiten konzipiert. Sie enthalten neben
der Antenne einen Hochfrequenzverstärker, der die schwachen Antennensignale zur
anschließenden Demodulation und weiteren Verarbeitung verstärkt. Hohe Frequenzen
produzieren in den Leistungsverstärkern große Verlustleistungen aufgrund der Häufigkeit von
Umladevorgängen. Daraus resultieren schlechte Wirkungsgrade. Doch nicht nur an die
Übertragungsrate, sondern auch an den Wirkungsgrad werden hohe Anforderungen gestellt.
Dahinter steht der Bedarf an Mobilität. Von Smartphones und Tablets wird die Fähigkeit
erwartet, mit hoher Geschwindigkeit umfangreiche Datenmengen zu laden. Gleichzeitig wird
eine maximale Akkulaufzeit gefordert.
Im Mittelpunkt dieser Arbeit steht die optimale Betriebsweise von Hochfrequenzverstärkern.
Die Verstärker selbst wurden von den Herstellern optimiert. Darüber hinaus wirkt sich die
Auswahl der Betriebsparameter sehr stark auf den Wirkungsgrad und die Verzerrung und damit
auf die Signalqualität aus.
Aufgabe dieser Arbeit ist es, diverse Messungen mit Hochfrequenzverstärkern durchzuführen
um daraus die optimale Einstellung der Betriebsgrößen zu ermitteln. Die Messungen erfolgen
zunächst mit vier vorgefertigten Verstärkern. Darüber hinaus wird ein Verstärker auf der Basis
eines Verstärker-ICs auf einer Leiterplatte selbst hergestellt, mit welchem anschließend die
selben Messungen erfolgen.
Die Messungen erfolgen mit drei unterschiedlichen Typen von Eingangssignalen:
-CW-Signalen entsprechend Sinus-Signalen.
-Zweitonmessungen. Zwei Sinus-Signale unterschiedlicher Frequenz am Eingang.
-Digitale Telekommunikationsstandards.
Alle nachfolgend genannten Messungen werden im Laufe der Dokumentation erklärt.
Im CW-Fall werden Load-Pull- und Power-Sweep-Messungen durchgeführt. Es folgen
Spektralmessungen zur Bewertung der harmonischen Oberwellen bei Einton-Ansteuerung. Im
Zweiton-Fall werden Spektralmessungen im Bereich der Grundfrequenzen und anschließend
im Bereich der harmonischen Oberwellen durchgeführt. Auf diese Weise sollen
Intermodulationsprodukte bewertet werden. Ebenfalls im Zweiton-Fall erfolgen Load-Pull-
Messungen. Die Betrachtung des Spektrums erfolgt unter Variation der Last. Die Auswirkung
der Last auf den Störabstand wird dabei untersucht. Im Fall der digitalen Ansteuerung werden
unter verschiedenen Betriebsgrößen Messungen der Nachbarkanalleistung durchgeführt.
Der Ausdruck Load-Pull-Messung hat verschiedene Bedeutungen. Zum einen werden mit
Load-Pull-Messungen umgangssprachlich sämtliche Messungen bezeichnet, die zur
Charakterisierung von Hochfrequenzverstärkern dienen. Zum anderen steht Load-Pull-
Messung für ein Messverfahren, bei welchem die Lastimpedanz variiert wird. Die letztgenannte
Load-Pull-Messung stellt die zentrale Messung in dieser Arbeit dar. Um ihre Bedeutung
verständlich zu machen ist eine Auseinandersetzung mit den Grundlagen der
Hochfrequenztechnik von Nöten. Im Folgenden werden all jene Aspekte der
Hochfrequenztechnik behandelt, die zum Verständnis der Messungen dieser Arbeit notwendig
sind.
An der NCT-Gewebebank in Heidelberg werden große Mengen menschlichen Gewebes vorgehalten, welche von Forschern hauptsächlich im Rahmen der Tumorforschung verwendet werden können. Da jede Dienstleistung im Zusammenhang mit diesem Gewebe, sowie die Herausgabe dessen zuerst bewilligt werden muss, müssen die forschenden Ärzte und Wissenschaftler einen Antrag an die Gewebebank stellen. Die
Antragsstellung erfolgt zum aktuellen Zeitpunkt über ein Online bereit gestelltes Formular, welches im besten Falle digital korrekt ausgefüllt, ausgedruckt und unterschrieben an das Sekretariat der NCT-Gewebebank geschickt wird. Da die Anträge dort wieder von Hand digitalisiert werden, soll der Vorgang online erfolgen und so die Antragsverwaltung erleichtern, sowie weniger anfällig für Fehler machen.
Im Rahmen dieser Bachelorarbeit soll ein Konzept entwickelt werden, wie ein Antragsportal funktionieren kann, über das die Forscher online Anträge stellen können.
Diese Arbeit ist auf die folgenden Ziele ausgerichtet:
- Modellierung des aktuellen Zustands des Prozesses der Antragstellung
- Modellierung eines möglichen zukünftigen Prozesses
- Vorstellung der möglichen Verbesserungen im Prozess
- Konzeptionierung eines Antragsportals
- Analyse der Umsetzung dieses Portals mit praktischen Ansätzen
Eine der zentralen Aufgaben der medizinischen Bildverarbeitung ist es, den Arzt durch neue oder verbesserte Methoden zur Diagnostik und Therapieplanung bei medizinischen Entscheidungs- und Behandlungsprozessen zu unterstützen. Für viele Fragestellungen in der Medizin sind Untersuchungen von Gefäÿsystemen oder anderen tubulären Strukturen erforderlich. Die vorliegende Arbeit beschäftigt sich mit der Konzipierung und der Realisierung eines generischen Datenmodells für tubuläre Strukturen. Für die Darstellung dieser Strukturen wurde eine neue Visualisierungsmethode implementiert. Zudem wurden allgemein verwendbare und benutzerfreundliche Interaktionskomponenten entwickelt, die die Exploration, die Modikation, die Attributierung sowie die Analyse der modellierten Systeme ermöglichen.
Aktuell ist die Installation, sowie die Konfiguration von RANDI2, sehr umständlich. Parameter oder sogar ganze Konfigurationsdateien werden für die vorhandene Infrastruktur des Anwenders angepasst. Obwohl jede Installation mit Eingaben bezüglich der Institution, verantwortlichen Personen, Logos und vielen anderen Einstellungen parametriert wird, verfügt das System zurzeit über keinen Mechanismus, der den Benutzer bei der Konfiguration unterstützt. Dadurch kann die Installation und Konfiguration meistens nur von erfahrenen Anwendern durchgeführt werden. Ziel dieser Bachelorarbeit ist es, ein Modul zu entwickeln, welches den Administrator dabei unterstützt, das System bei der Installation von RANDI2 optimal einzurichten.
In einem überregionalen Forschungsprojekt untersuchen Heidelberger und Hannoveraner Wissenschaftler Entstehungsmechanismen und neue Therapieansätze des Leberzellkarzinoms, einer der tödlichsten Tumorerkrankungen unserer Zeit. Die IT-Plattform pelican soll dem Forschungsverbund die softwaregestütze Analyse und den Austausch von Leberkrebs-Forschungsdaten ermöglichen. Bisher fehlte dazu ein geeignetes Oberflächenkonzept. Deswegen wurde eine Benutzerschnittstelle entworfen, die in der Lage ist, heterogene Daten und Funktionen darzustellen und dabei flexibel an die Nutzerbedürfnisse angepasst werden kann. Es konnte anhand einer prototypischen Benutzungsoberfläche gezeigt werden, dass sich das Konzept praktisch umsetzen lässt. Mit Hilfe der in einem Evaluierungsprozess ausgewählten Portalsoftware GridSphere wurden mehrere Datendienste als Module in die pelican-Applikation integriert. Als besondere Herausforderungen haben sich die Navigation innerhalb der Oberflächenmodule sowie der Informationsaustausch zwischen den Komponenten herausgestellt. Die erarbeiteten Lösungsansätze wurden dokumentiert und dienen als Basis für die Integration beliebiger neuer Dienste in die Plattform. Zukünftige Entwicklungen können der Krebsforschung weltweit in Form von standardkonformen Diensten im caGrid Umfeld zur Verfügung gestellt werden.
Im Rahmen dieser Abschlussarbeit wird in Zusammenarbeit mit zwei Physiotherapeuten der IB Medizinischen Akademie Mannheim ein Konzept für das heimbasierte Training
in der Handtherapie erarbeitet. Das Konzept basiert auf der Thalmic Myo, einem Gestensteuerungssystem, das über den Arm gesteuert wird. Der Entwurf wird prototypisch in Verbindung mit einer Android Anwendung realisiert.
Das Myo-Armband ist mit Bewegungssensoren und Elektroden ausgestattet, womit sich Position von Hand und Arm im Raum erfassen und Bewegungen durch elektrische Signale
von Muskeln erkennen lassen. Basierend auf dieser Technologie, soll eine Möglichkeit zur
Verlaufskontrolle der Adhärenz, die Einhaltung der gemeinsam gesetzten Therapieziele, gewährleistet werden können.
Abschließend wird der Prototyp gemeinsam mit sieben Physiotherapeuten hinsichtlich
seiner Funktionalität untersucht und die Akzeptanz und das Nutzererlebnis evaluiert. Bei der Untersuchung wird das Studentenprojekt “LeapPhysio” hinzugezogen, das ähnliche Ziele verfolgt, jedoch auf einer anderen Technologie basiert. Es werden beide Technologien gegenübergestellt und auf ihre Eignung geprüft.
Viele Kinder und Jugendliche in Deutschland leiden unter verschiedenen langwierigen Krankheiten. Die Folge sind oftmals lange Krankenhausaufenthalte. Dadurch werden die Patienten und Schüler aus der Klassengemeinschaft gerissen. Durch die modernen Techniken besteht die Möglichkeit, diese Isolation zu vermindern. Der Begriff „ELearning“ kann mit dieser Problemstellung verknüpft werden. R. Clark und R. Mayer definieren es wie folgt: „We define e-learning as instruction delivered on a digital device such as a computer or mobile device that is intended to support learning.“ [2] Dieser Ansatz zur Problemlösung wird in dieser Thesis verfolgt. Aufgabe ist es, ein bereits bestehendes Projekt zu verbessern. Die Diplomarbeit „Konzeption und prototypische Realisierung eines virtuellen Klassenzimmers für kranke Kinder und Jugendliche“ ist die Grundlage der vorliegenden Arbeit und auch des bestehenden Projektes. Es wurde dort auf Standardtechnik zurückgegriffen, die keine befriedigende Qualität der Übertragung bot. Da das Projekt weiterverfolgt und weiterentwickelt werden soll, muss sich die Qualität der Übertragung verbessern.
Für die fortwährende Optimierung von Behandlungsstrategien im Bereich der Strahlentherapie ist es notwendig, Behandlungspläne strukturiert miteinander zu vergleichen. Um die vielfältigen Datenmengen, die sich im Rahmen großer und übergreifender Forschungsprojekte, wie etwa dem ULICE-Projekt [18] ergeben, suffizient auswerten zu können, ist ein leichter Zugriff für alle Projektteilnehmer erstrebenswert. Dieser kann beispielsweise durch den Einsatz einer Telemedizinakte, wie sie z.B. von der Firma CHILI GmbH angeboten wird, erfolgen. Die Telemedizinakte muss unbedingt in der Lage sein, das Datenformat, in dem Therapiepläne abgespeichert werden (DICOM RT), zu verarbeiten. Daher wurde im ersten Schritt dieser Arbeit analysiert, welche Informationen im Rahmen eines DICOM RT Viewing Moduls im CHILI-PACS dargestellt werden können. Als zentrale Aufgabe wurde die Darstellung des Dosis-Volumen-Histogramms (DVH) ermittelt, für dessen Berechnung es Module für die Darstellung der segmentierten Strukturen (RT Structure Set) und die Dosisverteilung (RT Dose) geben muss. Außerdem soll es zu einem späteren Zeitpunkt leicht möglich sein, weitere Module für die Anzeige der übrigen DICOM RT Objekte zu integrieren. Nach der Spezifikation der geforderten Funktionalität wurde ein Konzept für deren Umsetzung erstellt und mit der Implementierung einer der Kernfunktionen begonnen. Durch diese Implementierung soll es anderen Programmierern erleichtert werden, das gewählte Konzept nachzuvollziehen und das DICOM RT Viewing Modul des CHILI-PACS entsprechend erweitern und anpassen zu können, bis letztendlich ein homogenes und vollständiges Gesamtsystem entsteht. Durch die Umsetzung eines Moduls zur Darstellung von RT Structure Sets ist es jetzt möglich, sich die segmentierten Strukturen eines DICOM RT Datensatzes im CHILIPACS anzeigen zu lassen. Es können gezielt einzelne Strukturen an- und abgewählt und deren Konturfarbe geändert werden. Die Darstellung der Konturen ist für die Axial-, die Coronal- und die Sagittalebene möglich. Eine Überprüfung der Funktionalität wurde mit den zur Verfügung stehenden DICOM RT Testdatensätzen durchgeführt.
Das deutsche Gesundheitswesen ist ein dichtes Netzwerk bestehend aus einer Vielzahl von unterschiedlichen Akteuren im komplexen Zusammenspiel. Ständige Gesundheitsreformen aufgrund steigender Ausgaben im Gesundheitswesen sowie Fortschritte in der Medizin nehmen Einfluss auf die Informationsverarbeitung in diesem Netzwerk. Das hat zur Folge, dass immer mehr Anwendungssysteme zum Einsatz kommen, die hinsichtlich ihrer Zusammenarbeit besondere Herausforderungen stellen. Häufig können die komplexen Abläufe bei der Zusammenarbeit der Anwendungssysteme erst durch ein Modell, welches die Realität abstrahiert, verstanden werden. In diesem Zusammenhang wird das deutsche Gesundheitswesen durch ein virtuelles Gesundheitssystem modelliert, welches die Akteure des deutschen Gesundheitswesens nachbildet. Im Rahmen der vorliegenden Diplomarbeit wird die Population durch einen Generator abgebildet. Der Generator generiert anhand der Patientendaten der Population ereignisbasierte Nachrichtenprofile, die dem virtuellen Gesundheitssystem zur Weiterverarbeitung zur Verfügung gestellt werden.