Refine
Document Type
- Master's Thesis (45)
- Bachelor Thesis (27)
Has Fulltext
- yes (72)
Is part of the Bibliography
- no (72)
Keywords
- Entwicklung (11)
- Implementierung (9)
- Analyse (8)
- Software (7)
- Evaluation (6)
- Konzeption (6)
- Patient (5)
- Anwendung (4)
- Computer (4)
- Medizin (4)
- Segmentierung (4)
- Strahlentherapie (4)
- Tumor (4)
- Daten (3)
- Realisierung (3)
- Ultraschall (3)
- Application (2)
- Auswertung (2)
- Benutzeroberfläche (2)
- Differenz (2)
- Einsatz (2)
- Entwurf (2)
- Extraktion (2)
- Gehirn (2)
- Klassifikation (2)
- Komponente (2)
- MRI (2)
- Management (2)
- Open Source (2)
- Operation (2)
- Optimierung (2)
- Patientendaten (2)
- Punktion (2)
- Roboter (2)
- Struktur (2)
- Terminologie (2)
- Therapie (2)
- Verwaltung (2)
- Verwendung (2)
- Visualisierung (2)
- Wikipedia (2)
- 3D Slicer (1)
- AAL (1)
- Abstimmung (1)
- Accelerated (1)
- Activity recognition (1)
- Akquisition (1)
- Akte (1)
- Ambient Assisted Living (1)
- Ambulanz (1)
- Anatomie (1)
- Android <Systemplattform> (1)
- Anerkennung (1)
- Anforderung (1)
- Aorta (1)
- App (1)
- Applikation (1)
- Arztbrief (1)
- Auswahl (1)
- Automatisch (1)
- Bandscheibenvorfall (1)
- Benennungssystematik (1)
- Benutzung (1)
- Berechnung (1)
- Berücksichtigung (1)
- Betreuung (1)
- Bewegung (1)
- Bewertung (1)
- Bild (1)
- Bildgebung (1)
- Bluetooth-Standard (1)
- Brain (1)
- Browser (1)
- COPD-Patienten (1)
- Computertomographie (1)
- Darstellung (1)
- Data Mining (1)
- Dateisysteme (1)
- Datenbank (1)
- Datenmodell (1)
- Datenverarbeitung (1)
- Definition (1)
- Development (1)
- Dokumentation (1)
- E-Health (1)
- E-Learning (1)
- Einwilligung (1)
- Entscheidung (1)
- Entspannung (1)
- Entwicklungsplan (1)
- Erweiterung (1)
- Experimental (1)
- Feldgenerator (1)
- Forschung (1)
- Französisch (1)
- Genbezeichnungen (1)
- Gendatenbanken (1)
- Generator (1)
- Generierung (1)
- Germany (1)
- Gesundheitsakte (1)
- Gesundheitssystem (1)
- Gesundheitswesen (1)
- Handhabung (1)
- Heidelberg / Deutsches Krebsforschungszentrum (1)
- IT-Projekt (1)
- Idee (1)
- Implementation (1)
- Import (1)
- Improving ; Medication (1)
- Informationsaustausch (1)
- Informationsbedarf (1)
- Initiierung (1)
- Integration (1)
- Interfaces (1)
- Java (1)
- Jugendliche (1)
- Jugendliche ; Bewegungsmangel (1)
- Kind (1)
- Kinder (1)
- Klassenzimmer (1)
- Klinik (1)
- Knochen (1)
- Konfiguration (1)
- Konvertierung (1)
- Konzept (1)
- Kookkurrenzwerte (1)
- Krebsregister (1)
- Low Energy (1)
- Lunge (1)
- Lungenkrebs (1)
- MITK (1)
- MITK-IGT (1)
- MITU (1)
- MOPS (1)
- Mensch (1)
- Messtechnik (1)
- Methode (1)
- Mevislab (1)
- Modellierung (1)
- Motivation (1)
- Motorik (1)
- Multi-Template-Ansatz (1)
- Next-Generation (1)
- Nutzwertanalyse (1)
- OLAP ; T-Mobile (1)
- Oberflächeninterpolation (1)
- OpenCL (1)
- Organmodell (1)
- Palliativversorgung (1)
- Patientenakte (1)
- Periphere arterielle Verschlusskrankheit (1)
- Pflegeüberleitungsbogen (1)
- Photometric ; Stereo (1)
- Plagiarism Finder (1)
- Plagiat (1)
- Plagiatserkennung (1)
- Programmkomponente (1)
- Prozess (1)
- Prozessanalyse (1)
- Prozessunterstützung (1)
- Präsentation (1)
- Quantifizierung (1)
- Radiologie (1)
- Randi 2 (1)
- Randomisationsverfahren (1)
- Randomisierung (1)
- Re-engineering (1)
- Registrierung (1)
- Rekonstruktion (1)
- Relaxation (1)
- Rendering (1)
- Retina (1)
- SLK-Kliniken Heilbronn (1)
- SWOT-Analyse (1)
- Schlaganfall (1)
- Segmentation (1)
- Simulation (1)
- Smartphone (1)
- Softwaretool (1)
- Struktur ; Zement ; Schnittbilder (1)
- Studien (1)
- Stundenplan (1)
- Suchmaschine (1)
- System (1)
- Systemanalyse (1)
- Tablet-PC (1)
- Test (1)
- Tomographie (1)
- Training (1)
- Trainingssoftware (1)
- Treatment (1)
- Tätigkeit (1)
- Unterstützung (1)
- Vanderbilt (1)
- Verbesserung (1)
- Verfahren (1)
- Verifikation (1)
- Versorgung (1)
- Verteilung (1)
- Visualization ; Cancer ; Support (1)
- Volume (1)
- Webapplikation (1)
- Webservice (1)
- Weichgewebe (1)
- Weiterentwicklung (1)
- Wiederverwertung (1)
- Workflow (1)
- Zeit (1)
- accelerometer (1)
- ambulatory monitoring (1)
- artificial neural networks (1)
- computer based training (1)
- cytoscape (1)
- data collection (1)
- database (1)
- disc herniation (1)
- driving simulator (1)
- filesystems (1)
- graphical user interface (1)
- i2b2 (1)
- iBeacon (1)
- java (1)
- krank (1)
- medizinische Ausbildung (1)
- medizinische Strukturen (1)
- patient empowerment (1)
- personal health systems (1)
- personalized medicine (1)
- research planning (1)
- secondary use (1)
- stroke (1)
- study planning (1)
- supervised learning (1)
- therapy planning (1)
- virtuell (1)
- visualization (1)
- web application (1)
- Überwachung (1)
Institute
- Medizinische Informatik (72) (remove)
Diese Bachelorarbeit trägt den Titel „E-Learning in der Medizin im französischen Sprachraum insbesondere mit virtuellen Patienten“. Sie skizziert, was sich hinter E-Learning im medizinischen Bereich und virtuellen Patienten verbirgt und betrachtet die vorherrschende Situation in diesem Bereich in französischsprachigen Ländern/Regionen näher. Durch die Entwicklung von Informations-und Kommunikationstechnologie(IKT)hat sich der Austausch von Daten unabhängig von Raum und Ort stark weiterentwickelt. Dank dieser Evolution hat sich das Prinzip vom Lernen in nahezu allen Bereichen durch Suchmaschinen, Wissensdatenbanken oder Computersimulationen im Laufe der Zeit und speziell in den letzten 20 Jahren extrem stark verändert und spielt täglich eine große Rolle im Lernprozess von Menschen und dem Umgang mit vorhandenem Wissen. Im Allgemeinen hängt die Art des Lernens mit Hilfe von digitalen oder elektronischen Medien häufig mit der wirtschaftlichen Situation und internen Kultur eines Landes zusammen. Die positive Entwicklung des Landes und des sozialen Lebensstands der Menschen begünstigt demnach Fähigkeit neue Technologien einzusetzen und sie effektiv zu nutzen. Die Idee für die bestehende Arbeit entstand bei der Feststellung in der Fakultät für Informatik an der Hochschule Heilbronn, dass es noch keine Informationen über E-Learning und Einsatz von virtuellen Patienten in den französischsprachigen Ländern gibt. Dem Lernen mit Hilfe des Computers kommt in der Medizin eine große Bedeutung zu. Es ermöglicht sich selbst effektiv aus-und weiterzubilden, effizienter (schneller!) auf benötigte Informationen zuzugreifen. Ein weiterer Vorteil besteht darin, dass die Lernenden nicht in direktem Kontakt mit dem Lehrenden und anderen Lernenden stehen müssen. Das Zieldieser Arbeit ist, ein Licht in das Konzept von E-Learning und virtuellen Patienten in der französischen Welt zu bringen .Zum tieferen Verständnis werden im ersten Teil der Arbeit Begriffe und Definitionen vorgestellt, zudem die Grundlagen, Voraussetzungen und Ziele für ein effektives E-Learning erläutert. Im zweiten Teil der Arbeit werden das E-Learning und der virtuelle Patientin Bezug auf ihre Potentiale und vorhandene Ausprägungen analysiert. Die Vor-und Nachteile von E-Learning werden im Bezug auf seine Verwendung gegeben. Da sich diese Arbeit vornehmlich auf den französischen Sprachraum konzentriert, ist zur Einordnung der Ergebnisse ein Vergleich mit anderen Sprachräumen sinnvoll. Dadurch soll gezeigt werden inwiefern sich die sich das E-Learning mit virtuellen Patienten zu dem in anderen Sprachräumen unterscheidet.
Im Rahmen dieser Arbeit wird eine eigens entwickelte Plagiatserkennungsoftware für Java-Programme namens Plagiarism Finder vorgestellt. Der Plagiatserkennungsprozess dieser Software basiert auf dem Java-Bytecode. Es werden die Grundlagen der Plagiatserkennung und des Java-Bytecodes umfassend erläutert. Des Weiteren wird die Funktionsweise, der Entwurf, die Benutzeroberfläche und die Evaluierung von Plagiarism Finder dargestellt. Hierbei wird auf folgende von der Wissenschaft bisher nicht betrachteten Aspekte eingegangen:
-Die Art der Normalisierung des Bytecodes vor dem Vergleich.
-Wie gelöst werden kann, dass das Verschieben von Methoden keinen Einfluss auf die ermittelten Ergebnisse hat.
-Wie bei der Plagiatserkennung Vorlagen gefiltert werden können. Die Arbeit kommt zu dem Resultat, dass sich die Ergebnisse von Plagiarism Finder stabil gegenüber Änderungen des Wortlautes, des Textsatzes und dem Verschieben von Methoden verhalten. Änderungen an Kontrollstrukturen (z.B. For- statt While- Schleifen), an Zugriffsmodifikatoren und an der Anzahl von Methoden führen zu einem instabilen Verhalten der Ergebnisse. Alles in allem kann Plagiarism Finder mit einer etablierten Plagiatserkennugssoftware
wie JPlag [MP00] mithalten. Auf Grundlage der untersuchten Daten ist Plagiarism Finder im Erkennen von Plagiaten leicht schlechter als JPlag. Plagiarism Finder ist hingegen deutlich besser im Erkennen von nicht plagiierter Software. Bei wortwörtlichen Kopien sowie bei Änderungen an der Textgestaltung und an Bezeichnungen sind die Ergebnisse der Programme nahezu identisch.
1.1 Gegenstand und Motivation Die bereits in den 1970er-Jahren [1] entwickelte Technologie NAVSTAR GPS (GPS) arbeitet elektronisch und eignet sich 1 besonders zur Navigation in großen und freiliegenden Gebieten, da sie die Standorte der Endgeräte satellitengestützt errechnet. In Gebäuden stößt diese Technik aufgrund der Signaldämpfung durch Hindernisse, wie Decken, schnell an ihre Grenzen. GPS-Signale sind im Inneren eines Gebäudes um 20-30 dB (Faktor 100-1000) schwächer, als im Außenraum [2]. Auch die Differenzierung verschiedener Etagen ist mittels der GPS-Technologie nicht möglich. Die herkömmliche Navigation in Gebäuden wird zurzeit häufig mittels Pfeilen und Karten realisiert. Aufgrund immer größer werdender Gebäude und dem Wunsch, ortsbezogene Informationen zu übermitteln, steigt die Nachfrage einer elektronischen Indoor-Navigation stetig. Eine mögliche Lösung zur Indoor-Navigation bietet iBeacon. Dieser proprietäre Standard wurde 2013 von der Apple Inc.2 eingeführt und basiert auf der Bluetooth Low Energy-Technologie (BLE), welche durch einen geringen Energieverbrauch gekennzeichnet ist. Ursprünglich dient iBeacon dazu, einem BLE fähigem Endgerät mitzuteilen, dass es sich in der Reichweite eines iBeacons befindet. Das Endgerät kann so ortsspezifische Informationen an den Benutzer übermitteln, da das Endgerät den Standort des iBeacons kennt. So können z.B. Informationen zu einem Patienten eines Krankenhauses an den Tabletcomputer (Tablet) des medizinischen Personals übermittelt werden. Dies geschieht durch eine Abstandsmessung zwischen dem iBeacon und dem Endgerät. Unter der Hinzunahme zwei weiterer iBeacons kann theoretisch eine Positionsbestimmung des Mobiltelefons und damit eine Navigation durchgeführt werden.
Die Arbeit gliedert sich in sechs Kapitel. Kapitel 1 stellt die Problematik der Arbeit dar. Nach einer Darlegung der Gefälligkeit des Computer-Trainings werden die vorliegende Software “Gesichter“ und ihre Schwächen sowie mögliche Verbesserungen angesichts des aktuellen Stands der Technik vorgestellt. Die Vorgehensweise wird in der Zielsetzung beschrieben. Im Kapitel 2 werden wichtige medizinische und technische Konzepte vorgestellt, die für die Realisierung der neuen Applikation erforderlich sind. Außerdem wird das menschliche Gehirn vorgestellt. Es wird anschließend gezeigt, wie eine erworbene Hirnschädigung zu Stande kommt und welche Strukturen im Gehirn dabei betroffen sind. Kapitel 3 beschäftigt sich hauptsächlich mit der Untersuchung der vorliegenden Software sowie mit der konkreten Evaluierung der Vorgehensweise und der Auswahl der geeigneten Technologie zur Realisierung der neuen Anwendung. Kapitel 4 beschreibt, wie die Implementierung realisiert wurde. Dabei wird auf die Implementierung einzelner definierten Anforderungen eingegangen. In Kapitel 5 werden Testfälle, die mit dem neuen Programm durchgeführt werden können, vorgestellt. Das letzte Kapitel 6 fasst die Arbeit zusammen. Hierbei werden alle erreichten Ergebnisse entsprechend der Zielsetzung vorgestellt. Abschließend werden im Ausblick Erweiterungsmöglichkeiten für das neue Programm vorgeschlagen.
Im Rahmen dieser Bachelorarbeit wurde ein Triangulations-Algorithmus basierend auf dem Marching Cube Algorithmus konzeptioniert und implementiert. Der Algorithmus soll in der Software für die Strahlentherapieplanung VIRTUOS verwendet werden und die speziellen Anforderungen dieser Software erfüllen. Diese sind im Kapitel 1.3 beschrieben. Der Algorithmus soll eine Triangulation von Konturen mit Subpixel-Auflösung mit dem Marching Cube Verfahren ermöglichen. Diese Triangulation soll kanten- bzw. punkterhaltend sein. Somit darf sich die Position existierender Konturpunkte nicht ändern. Die Anzahl der erzeugten Dreiecke soll möglichst gering sein. Des Weiteren soll der Algorithmus in seiner Performanz optimiert sein. Die Implementierung des in dieser Arbeit beschriebenen Algorithmus ist wie VIRTUOS in C/C++ geschrieben und soll die bisherige Delaunay Triangulation ablösen.
Augmented Reality Anwendungen können in der Medizin Eingriffe erleichtern, beispielsweise durch intraoperative Projektion von Zugangswegen oder Tumo-ren und Risikostrukturen auf den Patienten. Gründe, weshalb die Verwendung von Augmented Reality noch keinen Einzug in den Operationssaal gefunden hat, sind unter anderem eine erschwerte Tiefenwahrnehmung der virtuellen Objekte in der echten Szene und fehlende Möglichkeiten, um die Fülle der zusätzlich visualisierten Objekte zu kontrollieren. Diesen Hindernissen entgegenzutreten ist das Ziel dieser Arbeit. Weiterhin gehört eine echtzeitfähige Implementierung zu den Anforderungen dieser Arbeit, um die Visualisierung im Rahmen eines Projektes zu nutzen, welches Augmented Reality auf mobilen Geräten direkt am Patienten zeigt. Um diese Ziele zu erreichen, wurde zunächst eine Texturprojektion kombiniert mit einem selbstentwickelten Grafikkartenprogramm realisiert, um dem Betrachter die Orientierung innerhalb der Augmented Reality Szene zu erleichtern und die Berechnung der perspektivischen Projektion der Textur zugleich effizient zu halten. Um die Tiefenwahrnehmung in der Szene zu verbessern, wurde ein weiteres Grafikkartenprogramm entwickelt, welches in eine gegebene Oberfläche eine Öffnung zeichnet, durch welche der Betrachter in das Innere des Patienten blicken kann. Weiterhin wurde ein Konzept umgesetzt, mit dessen Hilfe die Anzahl an abgebildeten Objekten in der Augmented Reality Szene gesteuert werden kann. Dieses Konzept dient außerdem der Untergliederung von Objekten in verschiedene Familien, für die dann unterschiedliche Darstellungen umgesetzt werden können. Ergebnis ist sowohl eine sichtbar verbesserte Tiefenwahrnehmung als auch ein Konzept zur Kontrolle der Fülle an abgebildeten Informationen in einer echtzeitfähigen Implementierung.
Behandlungen von Tumoren zielen in erster Linie auf eine Verlängerung der Überlebenszeit des Patienten ab. Es ist für Ärzte eine Hilfe, wenn zu Beginn der Behandlung die voraussichtliche Überlebenszeit abgeschätzt werden kann. Dies geschieht aktuell oftmals mit Hilfe einer manuellen Einteilung in Risikoklassen. Für diese sind aus Erfahrungswerten typische Überlebenszeiten bekannt. In Zeiten der zunehmenden Digitalisierung ist es nur logisch den Versuch zu starten, die Klassifizierung automatisch vorzunehmen. In dieser explorativen Grundlagenarbeit werden zwei Data Mining–Verfahren — namentlich „naiver Bayes Klassifikator“ und „k–means Clustering“ — auf ihre Fähigkeit bezüglich der Überlebenszeitprognose hin untersucht. Dazu werden verschiedene Feature Selection Verfahren (Information Gain, Expertenselektion, Forward Selection, Backward Elimination und No Selection) getestet. Nach dem k–means Clustering können Kaplan–Meier–Kurven der einzelnen Cluster gezeichnet werden. Aus diesen kann eine Prognose der Überlebenszeit abgelesen werden. Der naive Bayes Klassifikator errechnet nach einer (äquifrequenten oder äquidistanten) Diskretisierung der Überlebenszeit für jeden Patienten individuell eine Überlebens–Wahrscheinlichkeits Verteilung. Das Training der Data Mining–Verfahren erfolgte auf der Basis von Datensätzen kolorektaler Tumorpatienten des Tumorregisters des Tumorzentrums Heilbronn–Franken.
1.1 Gegenstand und Motivation Jeder von uns, der schon mal im Krankenhaus war und ein paar Tage dort verbringen musste, weiß wie einseitig und monoton der Alltag in solchen sterilen Räumen aus-sieht. Und wie froh man ist den ersten Schritt aus dem Krankenhaus zu machen, sich wieder mit Freunden zu treffen und den Alltag zu genießen. Nun gibt es auch schwer erkrankte Menschen, die dem Krankenhaus Alltag nicht nach ein paar Tagen entgehen können. Sie sind oft monatelang, ja sogar jahrelang, ans Kran-kenhaus gebunden. Besonders für Kinder und Jugendliche ist diese Situation ein großes Problem. Oft wird man von einem auf den nächsten Augenblick aus dem Alltag und dem sozialen Umfeld herausgerissen. Selbst, der bis dato doch nervende Schulalltag, fängt einem an zu feh-len. An das Beisammen sein mit Freunden im Klassenzimmer, oder auf dem Schulhof, ist auf einmal nicht zu denken. Stattdessen ist man an ein Krankenhausbett gefesselt und ist von medizinischen Geräten umgeben. Die Stiftung „Große Hilfe für kleine Helden“ will durch das Projekt „virtuelles Klas-senzimmer“ den erkrankten Schülern den virtuellen Besuch des Schulunterrichts ermög-lichen und somit auch den Kontakt mit Mitschülern und die sozialen Bindungen in ers-ter Linie zu pflegen und zu erhalten. Als Fundament für diese Arbeit dient die Abschlussarbeit „Konzeption und Implemen-tierung eines virtuellen Klassenzimmers für schwer erkrankte Kinder und Jugendliche mit Hilfe eines Telepräsenzrobotors“ von Frau Konstantina Georgiadou [3], welche auch den aktuellen Stand des Projekts beschreibt. Eine Überarbeitung des Projekts ist notwendig, da die Multimediale Hardware (Sound / Kamera / Mikrofone) immer noch kabelgebunden ist und somit die nötige Bewegungsfreiheit für den Telepräsenzroboter im Klassenzimmer oder dem Schulhof fehlt. 1.2 Problemstellung und Zielsetzung Zwar hat das Projekt beachtliche Schritte nach vorn gemacht, dennoch gibt es noch zahlreiche Probleme die zu bewältigen sind. Im Rahmen der Abschlussarbeit von Frau Georgiadou wurde ein Roboter Kit namens TurtleBot2 angeschafft. Das Kit beinhaltet eine Kobuki Basis, sowie eine Microsoft Kinect und ein ROS- kompatibles Netbook. Die vorhandene Hardware erweist sich als problematisch, da sie einige Hürden und Hindernisse darstellt die in dieser Abschlussarbeit eliminiert werden sollen. Das Projekt hat also nach diesem Stand eine große Schwäche. Die externen Geräte sind alle kabelgebunden. So benötigen die Station des mobilen Mikrofons, sowie die Audio-box eine externe Stromversorgung. Auch die Kamera, welche über das Netzwerk mittels LAN-Kabel fungiert, schränkt die Mobilität des TurtleBot2 erheblich ein. Da diese von Router und Steckdose abhängt. Ein ähnliches Problem liegt auch bei den Lautsprechern vor, diese sind ebenfalls von einer externen Steckdose abhängig. Das Ziel dieser Arbeit ist es, in erster Linie die eingeschränkte Mobilität des Turtle-Bot2, welche durch die kabelgebunden Geräte verursacht wird, zu beseitigen. Es sollen neue Hardware und Verbesserungsvorschläge für die medialen Probleme gefunden wer-den, wobei die Qualität von Ton und Bild nicht leiden dürfen. Ebenfalls soll eine An-richtung bzw. Verbesserungsvorschlag für den Schüler gefunden werden, welches ihm das Halten des Laptops erspart. Insgesamt soll sich der TurtleBot2 frei im Raum bewe-gen können und dem Schüler im Krankenhaus somit eine verbesserte Integration in die Normalität bzw. den Alltag ermöglichen.
The aim of this master’s thesis is the design and implementation of a dedicated software system, for planning and implementation of occupational therapy intervention and research studies, in a driving simulator environment. In the first part, the concept based on user requirements is presented. It consists of architectural patterns and guidelines with the main focus on utility and application security. The result of this part is the design of a web application which supports integration in a clinical as well as a research environment. The second part presents the reference implementation of the previously introduced concept. It was developed under a case study in a research facility which hosts a driving simulator. A close cooperation and the influence the researcher’s experience led into a product which provides advanced usability for the target users. In conclusion, the thesis validated the concept indirectly under a testing phase of the reference implementation. It provides the base for a follow-up project to refine the software product and extend the concept to different fields of application.
The Greifswald University Hospital in Germany conducts a research project called "Greifswald Approach to Individualized Medicine (GANI_MED)", which aims at improving patient care through personalized medicine. As a result of this project, there are multiple regional patient cohorts set up for different common diseases. The collected data of these cohorts will act as a resource for epidemiological research. Researchers are going to get the possibility to use this data for their study, by utilizing a variety of different descriptive metadata attributes. The actual medical datasets of the patients are integrated from multiple clinical information systems and medical devices. Yet, at this point in the process of defining a research query, researchers do not have proper tools to query for existing patient data. There are no tools available which offer a metadata catalogue that is linked to observational data, which would allow convenient research. Instead, researchers have to issue an application for selected variables that fit the conditions of their study, and wait for the results. That leaves the researchers not knowing in advance, whether there are enough (or any) patients fitting the specified inclusion and exclusion criteria. The "Informatics for Integrating Biology and the Bedside (i2b2)" framework has been assessed and implemented as a prototypical evaluation instance for solving this issue. i2b2 will be set up at the Institute for Community Medicine (ICM) at Greifswald, in order to act as a preliminary query tool for researchers. As a result, the development of a research data import routine and customizations of the i2b2 webclient were successfully performed. An important part of the solution is, that the metadata import can adapt to changes in the metadata. New metadata items can be added without changing the import program. The results of this work are discussed and a further outlook is described in this thesis.
Die Versorgung und Unterstützung von Palliativpatienten stellt häufig hohe Anforderungen an deren Angehörige. Es ist wenig bekannt über den Informationsbedarf dieser Angehörigen und deshalb können sie nicht immer optimal nach ihren Bedürfnissen unterstützt und informiert werden. Ferner ist nicht genügend erforscht, wie Angehörige motiviert werden können, um über bekannte Anforderungen hinaus, eigene Vorstellungen und Ideen bezüglich des Informationsbedarfs zu entwickeln. In der vorliegenden Arbeit wird zunächst eine Literaturrecherche zur Informationsbedarfsanalyse durchgeführt, um einen Überblick über Methoden zur Erhebung eines Informationsbedarfs zu bekommen. Als Vorgehensweise für die Literaturrecherche wurden das Schneeballsystem und die systematische Suche in Schlagwortkatalogen identifiziert. Um eine geeignete Methode zur Ermittlung des Informationsbedarfs von Angehörigen von Palliativpatienten auswählen oder entwickeln zu können, wurden Interviews geführt. Neben einem Interview mit einer Familie erfolgten weitere Interviews im Rahmen von Hospitationen an drei verschiedenen medizinischen Einrichtungen: eine Palliativstation in Heidelberg, ein Hospiz in Wiesloch und eine spezialisierte ambulante Palliativversorgungseinheit in Buchen. Diese flossen in einen Interviewleitfaden ein, der als Methodik zur Erhebung des Informationsbedarfs speziell von Angehörigen von Palliativpatienten verwendet werden kann. Es hat sich gezeigt, dass die Befragung als ein qualitatives Interview durchgeführt werden sollte. Der Interviewleitfaden besteht aus 5 Fragenblöcken. Durch offene Fragestellungen werden die Subjektivität und ein tiefer Informationsgehalt erlangt. Im letzten Teil der Fragen werden papierbasierte Prototypen von einigen Ideen für mobile Systeme vorgestellt und besprochen. Dieser Interviewleitfaden wurde in einer Vorstudie erprobt. Dafür wurden 3 pflegende Angehörige von Palliativpatienten befragt. Durch das Umsetzen der Erkenntnisse aus den Interviews konnte die Methodik angepasst und Schwachstellen verbessert werden. Nach Abschluss dieser Testphase wurde ein allgemeiner Studienplan für eine Studie entworfen. Dieser beschreibt die Durchführung einer qualitativen Studie. Dabei soll die Wirklichkeit anhand der subjektiven Sicht der befragten Angehörigen abgebildet werden.
Ziel dieser Arbeit soll es sein, ein Verfahren zu entwickeln, das bildbasiert mit Hilfe eines Interpolationsmodells die Bewegung von Lungentumoren modellierbar macht, unter der Berücksichtigung, dass die Erkennbarkeit der Tumore während der Therapie nicht immer gewährleistet ist. Als erster Schritt soll daher ein geeignetes internes Surrogat für die Tumorbewegung ermittelt werden. Dessen Bewegungen während der Atmung des Patienten sollen mit Hilfe von kontinuierlich aufgenommenen zweidimensionalen Fluoroskopieaufnahmen quantifiziert werden. Anschließend sollen die gewonnenen Informationen als Eingabewerte für ein Interpolationsmodell genutzt werden, um diese Bewegung auf den Tumor im Inneren der Lunge zu propagieren. Dabei gilt es, ein geeignetes Modell zu entwickeln, das sich für die Modellierung von Tumoren auf Basis der Surrogatinformationen eignet und in der Lage ist, die Tumorbewegung möglichst wahrheitsgetreu zu modellieren. Eine Evaluation der Ergebnisse soll sowohl Aufschluss über eine geeignete Parametrisierung des Modells geben, als auch die Anwendbarkeit eines solchen Modells hinterfragen. Um eine Austauschbarkeit der Modelle gewährleisten zu können, soll eine Schnittstelle entwickelt werden, über die verschiedene Modelle angesprochen werden können. Weitergehend soll ein Ansatz entwickelt werden, der es ermöglicht, die relevanten Positionen des Surrogats ohne manuelle Interaktion während der Therapie zu bestimmen.
Ambulant studies are dependent on the behavior and compliance of subjects in their home environment. Especially during interventions on the musculoskeletal system, monitoring physical activity is essential, even for research on nutritional, metabolic, or neuromuscular issues. To support an ambulant study at the German Aerospace Center (DLR), a pattern recognition system for human activity was developed. Everyday activi-ties of static (standing, sitting, lying) and dynamic nature (walking, ascending stairs, descending stairs, jogging) were under consideration. Two tri-axial accelerometers were attached to the hip and parallel to the tibia. Pattern characterizing features from the time domain (mean, standard deviation, absolute maximum) and the frequency domain (main frequencies, spectral entropy, autoregressive coefficients, signal magni-tude area) were extracted. Artificial neural networks (ANN) with a feedforward topology were trained with backpropagation as supervised learning algorithm. An evaluation of the resulting classifier was conducted with 14 subjects completing an activity protocol and a free chosen course of activities. An individual ANN was trained for each subject. Accuracies of 87,99 % and 71,23 % were approached in classifying the activity protocol and the free run, respectively. Reliabilities of 96,49 % and 76,77 % were measured. These performance parameters represent a working ambulant physical activity monitor-ing system.
Aside from hardware, a major component of a Brain Computer Interface is the software that provides the tools for translating raw acquired brain signals into commands to control an application or a device. There’s a range of software, some proprietary, like MATLAB and some free and open source (FOSS), accessible under the GNU General Public License (GNU GPL). OpenViBE is one such freely accessible software. This thesis carries out a functionality and usability test of the platform, looking at its portability, architecture and communication protocols. To investigate the feasibility of reproducing the P300 xDAWN speller BCI presented by OpenViBE, users focused on a character on a 6x6 alphanumeric grid which contained a sequence of random flashes of the rows and columns. Visual stimulus is presented to a user every time the character they are focusing on is highlighted in a row or column. A TMSi analog-to-digital converter was used together with a 32-channel active electrode cap (actiCAP) to record user’s Electroencephalogram (EEG) which was then used in an offline session to train the spatial filter algorithm, and the classifier to identify the P300 evoked potentials, elicited as a user’s reaction to an external stimulus. In an online session, the users tried to spell with the application using the power of their brain signal. Aspects of evoked potentials (EP), both auditory (AEP) and visual (VEP) are further investigated as a validation of results of the P300 speller.
In dieser Arbeit wurde am Deutschen Krebsforschungszentrum (DKFZ) in Heidelberg eine Anwendung für das Trainieren von Klassifikatoren, das Klassifizieren und für die Durchführung eines Leave-One-Out-Tests entwickelt. Auf der Grundlage von Methoden aus einem bereits existierenden Programm, das zum automatischen Erkennen von osteolytischen und osteoblastischen Läsionen bei Patienten mit einem multiplen Myelom genutzt wird, wurde eine Benutzeroberfläche implementiert, die das aufwendige und manuelle Anpassen an neue Fragestellungen erleichtern soll. Zusätzlich soll eine Visualisierung von Merkmalen dem Benutzer beim Trainieren eines Klassifikators die Auswahl verdeutlichen und vereinfachen. Damit die Anwendung auch für andere Klassifikationsaufgaben genutzt werden kann, wurde eine Erweiterungsmöglichkeit der grafischen Benutzeroberfläche auf Basis von XML integriert.
In dem transregionalen Sonderforschungsbereich SFB/TRR 77 untersuchen Heidelberger und Hannoveraner Wissenschaftler Entstehungsmechanismen und neue Therapieansätze des Leberzellkarzinoms, einer der tödlichsten Tumorerkrankungen unserer Zeit. Die IT-Plattform Pelican, die ein Teil des Gebiets Z2 ist, soll dem Forschungsverbund die softwaregestütze Analyse und die nachhaltige Bereitstellung von Leberkrebs-Forschungsdaten ermöglichen [Ganzinger et al. 2011]. Ein Teil von Pelican soll eine gemeinsame Informationsplattform anbieten, die die biomedizinischen Daten der verschiedenen medizinischen und biologischen Projekte integriert und den beteiligten Projektgruppen biostatistische Programme und projektübergreifende Auswertungen zur Verfügung stellt. Die Integration von Gewebe-, Molekül-, Genetik- und Klinikdaten in eine gemeinsame Plattform ermöglicht Datenerhaltung und umfassende Analysen. Die integrierte Analyse begegnet durch die Verknüpfung verschiedener Forschungsprojekte des SFB/TRR 77 den Herausforderungen der Multidisziplinarität klinischer Forschung und Genforschung. Mit dem Next-Generation DNA Sequencing ist durch Kostenreduzierung und immenser Zeiteinsparung die DNA Sequenzierung einem breiten Spektrum an Wissenschaftlern zugänglich geworden und hat Kompetenzen zur Sequenzierung von zentralen Stellen in die Hände vieler individueller Forscher gelegt [Shendure and Ji 2008, Ding et al. 2010, Wetterstrand 2011]. Die Kombination dieser hochentwickelten Technologien aus der Gentechnik und rechnerbasierten Werkzeugen erlaubt die Beantwortung biologischer Fragestellungen in erheblich umfangreicherer Art und Weise als dies bisher möglich gewesen ist [Shaer et al. 2013]. Die rasche Entwicklung des Next-Generation Sequencing beinhaltet auch das Konstruieren neuer Ansätze zur bioinformatischen Datenanalyse, ohne die kein Informationsgewinn, wie beispielsweise die Entdeckung von Genvariationen, möglich wäre. Das dabei neu gewonnene Wissen kann zu erheblichen Fortschritten in der Krebsforschung führen, beispielsweise wenn es um das Identifizieren der Genomveränderungen einer Tumorzelle geht [Ding et al. 2010]. Anstatt Sequenzierungen in kleinem Maßstab durchzuführen, können Forscher inzwischen Sequenzierungen in weit umfangreicherem Ausmaß realisieren, in denen Informationen von multiplen Genen und Genomen vermessen, dokumentiert und in Datenbanken gespeichert werden können. Die DNA Sequenzen werden nach der Sequenzierung in einer Kette aus vielen Prozessschritten – eine bioinformatische Pipeline – analysiert und verarbeitet. Zu den Einzelschritte, wie zum Beispiel Alignment oder die Entfernung von Duplikaten, gibt es oftmals viele Alternativen.
Ultraschallelastographie (USE) ist ein bildgebendes Verfahren, mit dem die Ausbreitung mechanischer Scherwellen, die durch externe Schwingungen in den menschlichen Körper eingekoppelt werden, mittels Ultraschall gemessen und dargestellt werden kann. Die Ausbreitungsgeschwindigkeit der Scherwellen steht dabei in einem direkten qualitativen Zusammenhang zu den elastischen Eigenschaften des Gewebes. Als apparative Palpation wird die transiente USE daher in der medizinischen Diagnostik bereits eingesetzt, denn viele Krankheiten, wie z.B. die Leberfibrose, gehen mit einer Veränderung der elastischen Kenngrößen der betroffenen Gewebe einher. Das im Rahmen dieser Arbeit weiter entwickelte USE-Diagnosesystem unterscheidet sich von der transienten USE dadurch, dass die angewandten Scherwellen zeitharmonisch sind und aus mehreren überlagerten Frequenzkomponenten bestehen. Um die Auswertung zu objektivieren und die Performance zu steigern wurde die bisherige interaktive retrospektive Auswertungsmethode durch einen vollautomatischen Algorithmus ersetzt. Dazu war es notwendig, manuelle Aussortierung schlechter Messungen ebenfalls zu automatisieren. Auf dieser Basis wurde zusätzlich ein Echtzeitauswertungsalgorithmus entwickelt, um erstmals unmittelbar während einer Untersuchung Resultate der Leberelastizitätsmessungen auszugeben. Die neuen Algorithmen wurden mit Softwarephantom, Rinderleberproben und gegenüber der Magnetresonanz-Elastographie (MRE) als Referenzmethode validiert. Es hat sich gezeigt, dass die vollautomatisch ermittelten Elastizitätsergebnisse mit denen der MRE gut übereinstimmen und die Performance gegenüber der bisherigen Auswertung deutlich gesteigert wurde. Nachfolgend wurden diese Algorithmen erfolgreich in einer Pilotstudie an gesunden Freiwilligen eingesetzt.
Clinical diagnosis ideally relies on quantitative measures of disease. For a number of diseases, diagnostic guidelines require or at least recommend neuroimaging exams to support the clinical findings. As such, there is also an increasing interest to derive quantitative results from magnetic resonance imaging (MRI) examinations, i.e. images providing quantitative T1, T2, T2* tissue parameters. Quantitative MRI protocols, however, often require prohibitive long acquisition times (> 10 minutes), nor standards have been established to regulate and control MRI-based quantification. This work aims at exploring the technical feasibility to accelerate existing MRI acquisition schemes to enable a -3 minutes clinical imaging protocol of quantitative tissue parameters such as T2 and T2* and at identifying technical factors that are key elements to obtain accurate results. In the first part of this thesis, the signal model of an existing quantitative T2-mapping algorithm is expanded to explore the methodology for a broader use including the application to T2* and its use in the presence of imperfect imaging conditions and system related limitations of the acquisition process. The second part of this thesis is dedicated to optimize the iterative mapping algorithm for a robust clinical application including the integration on a clinical MR platform. This translation of technology is a major step to enable and validate such new methodology in a realistic clinical environment. The robustness and accuracy of the developed and implemented model is investigated by comparing with the "gold standard" information from fully sampled phantom and in-vivo MRI data.
Quantitative assessment of Positron Emission Tomography (PET) imaging can be used for diagnosis and staging of tumors and monitoring of response in cancer treatment. In clinical practice, PET analysis is based on normalized indices such as those based on the Standardized Uptake Value (SUV). Although largely evaluated, these indices are considered quite unstable mainly because of the simplicity of their experimental protocol. Development and validation of more sophisticated methods for the purposes of clinical research require a common open platform that can be used both for prototyping and sharing of the analysis methods, and for their evaluation by clinical users. This work was motivated by the lack of such platform for longitudinal quantitative PET analysis. By following a prototype driven software development approach, an open source tool for quantitative analysis of tumor changes based on multi-study PET image data has been implemented. As a platform for this work, 3D Slicer 4, a free open source software application for medical image computing has been chosen. For the analysis and quantification of PET data, the implemented software tool guides the user through a series of workflow steps. In addition to the implementation of a guided workflow, the software was made extensible by integration of interfaces for the enhancement of segmentation and PET quantification algorithms. By offering extensibility, the PET analysis software tool was transformed into a platform suitable for prototyping and development of PET-specific segmentation and quantification methods. The accuracy, efficiency and usability of the platform were evaluated in reproducibility and usability studies. The results achieved in these studies demonstrate that the implemented longitudinal PET analysis software tool fulfills all requirements for the basic quantification of tumors in PET imaging and at the same time provides an efficient and easy to use workflow. Furthermore, it can function as a platform for prototyping of PET-specific segmentation and quantification methods, which in the future can be incorporated in the workflow.
Der Zuwachs medizinischen Wissens ist gewaltig, man spricht von einer Verdopplung in unter 10 Jahren[01], dies macht die Analyse historischer Daten zwingend erforderlich. Um dieses Wissen zu beherrschen werden Datenbanken benötigt, in denen man Krankheits- und Therapieverläufe ablegen kann, um diese dann anschließend unter unterschiedlichsten Anforderungen zu analysieren. Im Falle der Krebstherapie gibt es hierfür sogenannte Krebsregister. Hier werden anonymisierte Daten der Patienten gespeichert, wie zum Beispiel der Verlauf der Krankheit und die Therapie. Ziel ist es, dass alle Krebsfälle in irgendeinem Krebsregister gehalten werden. Dies soll zu einer Verbesserung der medizinischen Leistung am Patienten, sowie der Sicherstellung, dass Patienten überall mit neuesten Therapietechniken und Leistungen versorgt werden, führen. Leider werden die Informationen in den Krebsregistern viel zu wenig genutzt, da viele Ärzte und Wissenschaftler oft nicht Ausreichend vertiefte Kenntnisse in Informationstechnologie und/oder Statistik haben. Diese Tatsache macht es für sie schwierig die riesigen Datenmengen, die vorhanden sind, richtig zu analysieren. Um dieses Problem zu beheben kann man nun in regelmäßigen Abständen einen Statistiker beauftragen, der solche Analysen durchführt. Oft haben Ärzte aber statistisch wenig anspruchsvolle Anfragen oder es fällt ihnen erst auf, nachdem der Statistiker wieder gegangen ist. Solange es also eine solche Schwierigkeit darstellt, die Daten richtig zu analysieren, sind die Krebsregister ein Datenfriedhof, deren riesiges Potential nicht ausgenutzt wird. Dieser Zustand ist sowohl für Patienten, als auch für die Ärzte, nicht zufriedenstellend und bedarf dringend einer Änderung. Die Ziele sind: 1. Eine Analyse einer Software zur statistischen Auswertung von Daten aus einem Krebsregister (OCDM-Software), sowohl im Bezug auf ihre Software-Architektur, als auch auf ihre Funktion. 2. Das Erstellen einer Anforderungsanalyse, welche die Erweiterungen beschreibt, die an der oben erwähnten OCDM-Software vorzunehmen sind. 3. Die Umsetzung dieser Anforderungsanalyse in die bestehende Anwendung. 4. Ein abschließender Systemtest der Anwendung, um einen reibungslosen Ablauf im Klinikalltag zu gewährleisten. Ziel der Erweiterung ist es, den Ärzten die Analyse der gesammelten Patientendaten zum Pankreaskarzinom zu vereinfachen und somit die medizinische Betreuung in der Klinik zu verbessern.