Refine
Year of publication
Document Type
- Master's Thesis (63)
- Bachelor Thesis (55)
- Other (12)
- Diploma Thesis (2)
- Doctoral Thesis (2)
- Preprint (2)
- Course Material (1)
Has Fulltext
- yes (137)
Is part of the Bibliography
- no (137)
Keywords
- Analyse (19)
- Entwicklung (11)
- Reise (11)
- Urlaub (10)
- Implementierung (9)
- Software (8)
- Konzeption (7)
- Evaluation (6)
- Patient (5)
- Strahlentherapie (5)
Institute
- Medizinische Informatik (72)
- Informatik (44)
- Bibliothek allgemein (13)
- Bibliothek (2)
- Mechanik und Elektronik (2)
- Elektrotechnik und Informationstechnik (1)
Heutzutage ist es für Unternehmen immer wichtiger, dass man in kürzester Zeit die richtigen Informationen erhalten kann, um Entscheidungsprozesse optimal bilden zu können. Die Informationstechnologie lässt sich zurzeit in der Welt weit und breit nutzen. Sie kann nicht nur den Daten sammeln und austauschen, sondern auch kann die Informationen systematisch und rapid verarbeiten, verwalten, analysieren und interpretieren. Die wachsende Datenmenge und Komplexitat erfordert immer stärker Analyseinstrumente gewinnen an Bedeutung. In großen Unternehmen Umgebungen stoßen einfache Abfrage Werkzeuge für den Datenzugriff schnell an die Grenzen ihre Leistungsfähigkeit und der Performance-Gewinn wird auch zum zentralen Thema. Aus diesen Gründen wird das Unternehmen T-Mobile den Analysewerkzeuge, den sogenannten OLAP (Online Analytical Processing)-Tools, einsetzen, um die Daten in sogenannten mehrdimensionalen Tabellenstrukturen flexibel und schnell analysieren bzw. auswerten zu können. Ein weiterer Punkt warum das Analysieren der Call Daten interessant sein könnte ist das Überwachen von Fehlern. Durch diese Technologie kann die Lösungsqualität hinsichtlich der zu verarbeitenden Komplexität erhöht werden. Als Grundlage für die OLAP Anfragen wurde zunächst ein Data Warehouse aufgebaut, in dem die Daten aus dem Quellsystem integriert und strukturiert bereitgestellt werden. Des weiteren ist zu erstellen, in wie weit der Einsatz von Reporting-Tools und zusätzlicher OLAP-Werkzeuge, um die gewünschten Berichtsfunktionalitäten zu ermöglichen. Diese Funktionalitäten sollen Schließlich in geeigneter Weise umgesetzt und bereitgestellt werden. Dabei sind die Anforderungen der Mitarbeiter und damit der Benutzer des Systems und die Rahmenbedingungen der Firma T-Mobile, z.B. bezüglich Auswahl der Software, zu berücksichtigen.
Ultraschallbildgebung ist ein in der Medizin häufig verwendetes Verfahren zur Diagnostik und Verlaufskontrolle. Ultraschall bietet vor allem eine große Weichteilauflösung bei gleichzeitig niedrigen Kosten, erfordert aber vom Anwender ein großes Maß an Erfahrung. Aufgrund vieler Artefakte und Verzerrungen in Ultraschallbildern ist die Bildqualität der Bilder deutlich geringer, als die derer, die mittels Magnetresonanztomographie erstellt werden können. Deshalb arbeiten viele verschiedene Forschungsgruppen an der Verbesserung der Modalitäten und Datensätze im Zusammenhang mit Ultraschallbildgebung. Diese Arbeit beschäftigt sich mit der Entwicklung eines robotergestützten Ultraschalltomographen. Das Gerät ist in der Lage tomographische Bildserien von Phantomen und Weichgewebe zu erstellen, die anschließend dreidimensional visualisiert werden können.
Anhand der Beschleunigungssignale des Oberkörpers, die mit einem mobilen Messsystem (Brustgurt) aufgezeichnet wurden, sind Erkennungsverfahren für Kniebeugen und Liegestützen entwickelt worden. Die 20 rekrutierten Probanden sind in 2 Kollektive aufgeteilt. Das erste Kollektiv besteht aus 5 und das zweite Kollektiv auf 15 Probanden. Beide Probandenkollektive führten ein Bewegungsprogramm durch, das aus 5 Kniebeugen und 5 Liegestützen besteht. Somit konnten die Erkennungsverfahren mit 100 aufgezeichneten Bewegungen je Bewegungsart auf ihre Erkennungsrate getestet werden.
Access, Handling and Visualization Tools for Multiple Data Types for Breast Cancer Decision Support
(2011)
Breast cancer is the most commonly diagnosed cancer among U.S women, besides skin cancer. More than 1 in 4 cancers among women are breast cancer. And though death rates have been decreasing since 1990, about 40,170 women in the U.S. were expected to die in 2009 from breast cancer. The progress of molecular profiling, in the last decade has revolutionized the understanding of cancer, but also introduced more complexity with new data such as gene expression, copy number variation, mutations and DNA methylation. These new data open up the possibility of differential diagnosis, much more precise prognosis as well as prediction of therapy response than any of the diagnostic tools that are available in the current practice. Additionally, epidemiological databases store clinically relevant information on hundreds of thousands of patients. However, with the abundance of all this information, clinicians will need new tools to access and visualize such data and use the information gained to treat new patients. The general problem will be to access, filter and analyze the data and then visualize them in a clinical context. This data ranges from clinico-pathological information, to molecular profiles from highthroughput genomic measurements and imaging data. Furthermore, data from patient populations is aggregated on epidemiological level and can be found under numerous clinical studies.
This thesis presents a photmetric stereo method based on the work of Schulze [35], who in turn extended the research of Schroeder et al. [33,34] In this approach, three different lightings are obtained by illuminating the object by three colored light sources (red, green and blue). A video of the subject is captured from the front, the back and the side. The single frames are then extracted from the viedo, which are used for the 3D reconstruction of the subject. The aim of this work was to improve the presented method of Schulze with real patient subjects by getting a better sphere calibration and changing some parameters in the patient processing. As the graphical interface was implemented for persons with a technical background, it has been changed to become also more convenient to use for non-technically oriented staff
Durch die immer härteren Anforderungen an Wirtschaftlichkeit und Qualität ihrer angebotenen Leistungen kommt es in der Medizin zur immer engeren Zusammenarbeit zwischen den Leistungserbringern. Das Universitätsklinikum Heidelberg und die IntercomponentWare AG haben daher ein gemeinsames Projekt ins Leben gerufen dessen Ziel die Entwicklung eines intersektoralen Informationssystems (ISIS) ist. ISIS soll den Austausch versorgungsrelevanter, medizinischer Daten ermöglichen. Patienten müssen der Teilnahme an ISIS und dem Austausch sowie der Verarbeitung ihrer Daten mit den einzelnen an ISIS teilnehmenden Einrichtungen aufgrund der rechtlichen Gegebenheiten in Deutschland explizit zustimmen. Das Management der Einwilligungserklärungen wurde bisher durch Produkte der Industrie nicht zufrieden stellend gelöst. Um das Einwilligungsmanagement befriedigend zu lösen wurde am Universitätsklinikum Heidelberg ein Konzept für ein zentrales Einwilligungsmanagement für ISIS entwickelt.
Diese Arbeit entwirft und implementiert ein neues Modul, das den Arzt bei der Arztbriefschreibung am Ende des Behandlungsprozesses unterstützt. Das Modul Arztbriefgenerierung in ENTstatistics erlaubt es dem Arzt als Anwender, per Mausklick aus den strukturierten Daten Text zu generieren und diese in einem Arztbrief darzustellen. Dazu kann er Vorlagen mit flexiblem Inhalt definieren und in diese je nach Empfänger andere Informationen einfließen lassen. Sowohl Vorlage als auch Brief können in einem WYSIWYG-Editor bearbeitet werden. Der Arztbrief wird intern als HL7-CDA-Dokument hinterlegt, einem standardisierten XML-Format für Arztbriefe. Außerdem kann er in die Formate PDF und RTF transformiert werden, falls andere Programme den CDA-Standard noch nicht unterstützen.
Segmentation of the Cerebrospinal Fluid from MRI Images for the Treatment of Disc Herniations
(2010)
About 80 percent of people are affected at some point in their lives by lower back pain, which is one of the most common neurological diseases and reasons for long-term disability in the United States. The symptoms are primarily caused by overly heavy lifting and/or overstretching of the back, leading to a rupture and an outward bulge of an intervertebral disc, which puts pressure on and pinches the nerve fibers of the spine. The most common form is a lumbar disc herniation between the fourth and fifth lumbar vertebra and between the fifth lumbar vertebra and the sacrum. In recent years the diagnosis of lower back pain has improved, mainly due to enhanced imaging techniques and imaging quality, but the surgical therapy remains hazardous. Reasons for this include low visibility when accessing the lumbar area and the high risk of causing permanent damage when touching the nerve fibers. A new approach for increasing patient safety is the segmentation and visualization of the cerebrospinal fluid in the lower lumbar region of the vertebral column. For this purpose a new fully-automatic and a semi-automatic approach were developed for separating the cerebrospinal fluid from its surroundings on T2-weighted MRI scans of the lumbar vertebra. While the fully-automatic algorithm is realized by a model-based searching method and a volume-based segmentation, the semi-automatic algorithm requires a seed point and performs the segmentation on individual axial planes through a combination of a region-based segmentation algorithm and a thresholding filter. Both algorithms have been applied to four T2-weighted MRI datasets and are compared with a gold-standard segmentation. The segmentation overlap with the gold-standard was 78.7 percent for the fully-automatic algorithm and 93.1 percent for the semi-automatic algorithm. In the pathological region the fully-automatic algorithm obtained a similarity of 56.6 percent, compared to 87.8 percent for the semi-automatic algorithm.
Es ist bekannt, dass Sport wichtig für unser Wohlbefinden ist. Darüber hinaus ist körperliche Aktivität gesundheitsfördernd. Bei fast allen kardiovaskulären Erkrankungen wird ergänzend zur medikamentösen Behandlung ein Gehtraining verschrieben („Sport auf Rezept“). Bedauerlicherweise wird Sport in der heutigen Gesellschaft viel zu sehr vernachlässigt. Ein konsequentes Gehtraining ist speziell im Bereich der peripheren Durchblutungsstörungen ausschlaggebend. In Anbetracht dessen ist es erforderlich, dass die Durchführung des Trainings mittels geeigneter Software von Ärzten engmaschig überwacht werden kann. In diesem Zusammenhang wird in Zusammenarbeit mit Herrn Prof. Dr. med. Thomas Dengler, Direktor der medizinischen Klinik I im Klinikum am Plattenwald, ein Dokumentations- und Überwachungssystem für medizinisches Gehtraining bei Patienten mit peripherer arterieller Verschlusskrankheit entwickelt.
Nach der Operation ist die Strahlentherapie die erfolgreichste und meist genutzte Krebstherapie. Sie wird bei mehr als 50% der Patienten angewandt, die an Krebs erkrankt sind. Das Ziel der Strahlentherapie ist es, eine Strahlendosis zu applizieren, die hoch genug ist, um die Tumorzellen zu töten. Dies ist sowohl aus physikalischer als auch aus technischer Sicht häufig eine schwere Aufgabe, da besonders maligne Tumore oft sehr nahe an Organen lokalisiert werden, die eine hohe Sensitivität gegenüber Strahlen aufweisen. Hierzu zählen Organe wie die Augen, Sehnerven, der Hirnstamm oder die Lunge[Sch06]. Aus diesem Grunde muss die Strahlentherapie sorgfältig geplant werden. Dies ermöglicht es dem Benutzer, bestimmte Szenarien zu simulieren und die beste Konfiguration zu finden, um eine Strahlentherapie auszuführen. Das optimalste Ergebnis ist dabei, dass der Tumor 100% der benötigten Strahlendosis erfährt und das umliegende Gewebe sowie die umliegenden Organe vollständig geschont werden. Eine Methode der Strahlentherapieplanung ist die Virtuelle Strahlentherapiesimulation die auch Gegenstand dieser Arbeit ist.
Mobile-Anwendungen nehmen eine zentrale Rolle in der IT-Branche ein und gewinnen zunehmend an Bedeutung. Unzählige Softwarelösungen, wie beispielsweise in den Bereichen Schulung, Banking, Navigation oder Logistik, stehen den privaten und kommerziellen Nutzern als Mobile-Anwendung zur Verfügung. An der Hochschule Heilbronn steht derzeit das Stundenplan-System „SPlan“ zur Verfügung, welches den Studierenden, Mitarbeitern und Dozenten einer Suchanfrage nach Stundenpläne und dem Raumbelegungspläne des jeweiligen Semesters ermöglicht. Für eine benutzerfreundlichere und effektivere Nutzung dieses Stundenplan-Systems entstand die Idee, dieses System im Rahmen meiner Diplomarbeit als Mobile-Anwendung bereit zu stellen. Das für diese Diplomarbeit konkretisierte Ziel ist nun, das Stundenplan-System „SPlan“ in eine Mobile-Anwendung, basierend auf dem Android-Betriebssystem, umzusetzen. Mithilfe der mobilen-Anwendung kann der Anwender die Stundepläne des betreffenden Semesters mit den entsprechenden Studiengängen und die jeweils zugehörigen Studentengruppen anzeigen lassen. Genauso können für den Raumbelegungspläne des betreffenden Semesters, die Standorte und die jeweils zugehörigen Räume definiert werden. Optional bietet sich die Möglichkeit, Einzelbuchungen und Blockveranstaltungen der beiden Suchanfragen anzeigen zu lassen. Außerdem werden die Suchanfragen automatisch anhand der gewählten benutzer-spezifischen Eingaben als Profil in der Anwendung gespeichert. Somit lässt sich die Anwendung personalisieren.
Bevor eine neue Therapie zur Medikation zugelassen wird, muss sie in einer klinischen Studie ihren Nutzen beweisen. Da heutzutage die besten Ergebnisse bei solchen Fragestellungen aus randomisierten klinischen Studien kommen, ist eine gute Randomisationssoftware für den Ablauf der Studie von einer großen Bedeutung. In Abhängigkeit von dem Studienaufbau wird ein geeigneter Randomisationsalgorithmus für die Zuweisung der Studienteilnehmer zu den Therapien gewählt. Ziel dieser Diplomarbeit ist eine schon bestehende Open Source Software RANDI2 zu analysieren und um ein weiteres Randomisationsverfahren zu erweitern. Dieses Verfahren soll zu der Familie der response-adaptiven Randomisationsverfahren gehören. Im Weiteren werden unterschiedliche Randomisationsalgorithmen mit jeweiligen Vorteilen, Nachteilen und Funktionsweisen vorgestellt. Nachdem ein passendes Verfahren gefunden wird, werden die Möglichkeiten untersucht, ihn in schon vorhandene Software zu implementieren. Anschließend wird die Implementierung gemacht und das Ergebnis getestet. Nach der Erweiterung von RANDI2 soll bei einer response-adaptiven Studie schon während des Ablaufs festgestellt werden können, welche Therapie bessere Ergebnisse erzielt. Mit dieser Kenntnis können mehr Patienten während der Studie eine bessere Behandlung bekommen und früher von dem Nutzen profitieren.
Die chronisch-obstruktive Lungenerkrankung (COPD) schränkt in ihren letzten Stadien die Lebensqualität der Patienten schwerwiegend ein und die einhergehenden Verschlechterungen des Gesundheitszustandes (Exazerbationen) können zum Tode führen. Für die Versorgung von COPD-Patienten im häuslichen Umfeld und Unterstützung im Alltag existieren bereits mobile und technische Geräte. Um eine weitergehende Unterstützung bedarfsgerecht zu planen, müssen Bedürfnisse der Patienten ermittelt und bereits existierende Lösungen zur COPD im Bereich Ambient Assisted Living (AAL) untersucht werden. Daraus können Anforderungen an eine elektronische Gesundheitsakte (eGA) zur Unterstützung von COPD-Patienten abgeleitet werden. Zur Ermittlung der Bedürfnisse wurden Vorgespräche mit COPD-Patienten geführt um einen Interviewleitfaden entwickeln zu können. Der Interviewleitfaden war Grundlage für semi-strukturierte Interviews mit Patienten der Medizinischen Klinik V des Universitätsklinikums des Saarlandes, die an den Untersuchungstagen zu einem Interview bereit waren. Insgesamt wurden zehn Patienten interviewt, zwei Frauen und acht Männer. Anhand der Ergebnisse aus den Interviews konnten wesentliche Bedürfnisse der COPD-Patienten ermittelt werden. Diese sind: Dauerhafter Erhalt von Informationen über die COPD; Kontakt zu Bekannten, Verwandten, Freunden und anderen COPD-Patienten; Mehr nichtmedikamentöse Behandlung; Sofortiger Einblick in die persönlichen medizinischen Daten. Sehr wichtig ist den COPD-Patienten auch, dass sie selbstständig Alltagstätigkeiten meistern können, beziehungsweise Unterstützung bei der Durchführung erhalten und sich in den eigenen vier Wänden sicher fühlen.
Mit der Entdeckung der Röntgenstrahlen im Jahre 1895 begründete Wilhelm Conrad Röntgen die medizinische Bildgebung. Diese ermöglichte erstmals, zu diagnostischen oder therapeutischen Zwecken einen Blick in das Innere des Menschen zu werfen, ohne dass sich dieser einer unter Umständen riskanten Operation unterziehen musste. Die Röntgentechnik gestattet allerdings nur die Projektion anatomischer Strukturen auf ein zweidimensionales Bild. Erst die Erweiterung der Bildgebung auf tomographische Verfahren, wie der Computer und Magnetresonanztomographie, erlaubte es, kontrastreiche, überlagerungsfreie 3D Schichtbilder zu erzeugen [13, S. 1]. Weitere Unterstützung hat die medizinische Bildgebung durch die Computertechnik erfahren, die eine digitale Nachbearbeitung der Bilder oder oft auch eine umfassende Bildanalyse ermöglicht. Im Zuge der technischen Weiterentwicklung kommen immer leistungsfähigere Computer zum Einsatz. Daher ist es nicht verwunderlich, dass medizinische Bilder heute hauptsächlich digital gespeichert, verschickt und bearbeitet werden. Auch entwickeln sich die bildgebenden Modalitäten weiter, was zu immer höher aufgelösten Bildern führt, in denen immer feinere Strukturen erkennbar sind. Simultan bedeutet das, dass für immer größere Datenmengen eine digitale Bearbeitung am Computer bewerkstelligt werden muss. Es ist deshalb ein zentrales Anliegen, effziente bildverarbeitende Algorithmen zu entwickeln.
Das deutsche Gesundheitswesen ist ein dichtes Netzwerk bestehend aus einer Vielzahl von unterschiedlichen Akteuren im komplexen Zusammenspiel. Ständige Gesundheitsreformen aufgrund steigender Ausgaben im Gesundheitswesen sowie Fortschritte in der Medizin nehmen Einfluss auf die Informationsverarbeitung in diesem Netzwerk. Das hat zur Folge, dass immer mehr Anwendungssysteme zum Einsatz kommen, die hinsichtlich ihrer Zusammenarbeit besondere Herausforderungen stellen. Häufig können die komplexen Abläufe bei der Zusammenarbeit der Anwendungssysteme erst durch ein Modell, welches die Realität abstrahiert, verstanden werden. In diesem Zusammenhang wird das deutsche Gesundheitswesen durch ein virtuelles Gesundheitssystem modelliert, welches die Akteure des deutschen Gesundheitswesens nachbildet. Im Rahmen der vorliegenden Diplomarbeit wird die Population durch einen Generator abgebildet. Der Generator generiert anhand der Patientendaten der Population ereignisbasierte Nachrichtenprofile, die dem virtuellen Gesundheitssystem zur Weiterverarbeitung zur Verfügung gestellt werden.
In den letzten Jahrzehnten ist der demographische Wandel in Deutschland immer deutlicher geworden. Die Zahl der pflegebedürftigen Menschen nimmt immer weiter zu und damit auch der Bedarf an Pflegepersonal. Die Anzahl der Pflegekräfte in Deutschland ist derzeit jedoch nicht ausreichend. Aus diesem Grund haben die Pflegekräfte für jeden Bewohner der Pflegeeinrichtung nur einen sehr begrenzten Zeitrahmen zur Verfügung. Da der geistige und körperliche Zustand der Bewohner sehr unterschiedlich ist, muss für jeden Bewohner ein individueller Pflegeplan angeboten werden. Es ist natürlich nicht möglich, sich von jedem Bewohner diese Informationen bzw. Pflegemaßnahmen zu merken, daher ist Dokumentation in einer Pflegeeinrichtung ebenso wichtig, wie eine qualitativ hochwertige Pflege. Die eben erwähnte Dokumentation ist sehr zeitaufwendig, jedoch unabdingbar. Um den Zeitaufwand der Dokumentation zu verkürzen, ist die Verwendung von IT in den letzten Jahren immer wichtiger geworden. Es ist natürlich nur dann eine Zeitersparnis möglich, wenn die Benutzer der Software gut mit selbiger umgehen können und die Verwendung möglichst intuitiv ist.
Die Langlebigkeit eines zementierten Implantats ist abhängig von einem starken Knochen-Zementinterface, sowie Implantat-Zementinterface, welches die Verbindung zwischen Knochenzement und Implantatmaterialien beschreibt. In einer Studie von Sebastian Jäger et al. [19], wurde die Verteilung des Zements in den Knochen untersucht, anhand von Schnittpräparaten, hergestellt aus zementierten Implantaten. Von den Schnittpräparaten wurden endoprothetische Schnittbilder erstellt, die für eine spätere Auswertung am PC dienen. Das Ziel dieser Arbeit ist es, ein möglichst automatisches Verfahren zu entwickeln, welches es ermöglicht Zement-, Knochen- und Prothesenstrukturen in den endoprothetischen Schichtbildern zu segmentieren. Diese Segmentierung gelingt jedoch nur durch eine Klassifikation der einzelnen Pixel.
Medication reconciliation is defined by the American Society of Health- System Pharmacists (ASHP) and the American Pharmacists Association (AphA) as “the comprehensive evaluation of a patient’s medication regimen any time there is a change in therapy in an effort to avoid medication errors such as omissions, duplications, dosing errors or drug interactions, as well as to observe compliance and adherence patterns “. Medication reconciliation is very important to avoid medication errors but it is also a complex and time-consuming process. Medication histories, i.e. records of prescription, purchase, and refill sequences are considered to be a resource from which conclusions about medication reconciliation can be drawn. However, medication histories spread across diverse paper and electronic media may lack the required accuracy. By employing multiple electronic sources this thesis will evaluate if more accurate medication histories can be collected.
Implementierung des "Bresenhams-Algorithmus" für die Benutzung in einem Rekonstruktionsalgorithmus
(2011)
In der Medizin nimmt die medizinische Bildgebung eine wichtige Rolle ein. Die Reaktionszeit chemischer Reaktionen im menschlichen Körper kann sehr kurz sein, so dass man diese Reaktionen nur schwer beobachten kann. Somit kann die Geschwindigkeit der bildgebender Verfahren in der Diagnostik eine ausschlaggebende Funktion haben. Des Weiteren sind bei der Bildgebung eingesetzte Strahlen potentiell gefährlich. Je länger die Aufnahme dauert, desto mehr Schaden kann angerichtet werden. Im Hinblick auf die Geschwindigkeit der bildgebenden Verfahren haben die unterschiedlichen Bildrekonstruktionsmethoden eine zentrale Bedeutung. Für die Benutzung in einem tomographischen Rekonstruktionsalgorithmus und somit für die Verbesserung der Geschwindigkeit und die Verringerung der eingesetzte Strahlen der Bildgebung, soll in dieser Arbeit der Bresenham-‐Algorithmus in Matlab implementiert werden. Mit Hilfe des Algorithmus werden alle Voxel eines Objektes ermittelt, die innerhalb des bestrahlten Bereichs liegen. Das Ergebnis des Algorithmus, sprich die Menge und die Koordinaten der bestrahlten Voxel, kann dann als Input für die Berechnung des relativen Volumenanteils oder für die Berechnung der Strahllänge im Voxel verwendet werden.
Während der Therapie unbewegte Tumore lassen sich durch eine gezielte Bestrahlung präzise behandeln, bei gleichzeitiger Schonung des umliegenden Gewebes. Lässt sich eine Bewegung des Tumors während einer Bestrahlung aber nicht vermeiden, so werdenVerfahren benötigt, die eine solche Bewegung kompensieren. Diese Arbeit stellt einen Multi-Template-Ansatz vor, der eine direkte Bewegungserkennung des Tumors während der Bestrahlung ermöglicht. Um zu jeder Zeit eine individuelle und exakte Tumorposition zu erhalten, wurde ein bereits bestehendes System um eine Positionsbestimmung des Tumors innerhalb der Templates erweitert. Anschließend wurde ein Matching-Algorithmus in das System integriert. Die Ergebnisse wurden anhand eines Phantom- und Patientendatensatzes evaluiert und auf eine Eignung für ein Gating- oder Tracking- Verfahren überprüft.
Die vorliegende Arbeit wurde zusammen mit der Abteilung Radiologie am Deutschen Krebsforschungszentrum (DKFZ) erarbeitet. Das Ziel war es, durch Evaluation der IT Strategie und durch Einsatz verschiedener Methoden zukünftige Handlungsfelder zu be-stimmen. Ein Handlungsfeld wurde exemplarisch an einem Beispiel bis hin zu konkreten Verbesserungsmaßnahmen operationalisiert. In der vorliegenden Arbeit, wird eine Eva-luation der IT Strategie in der Abteilung Radiologie des deutschen Krebsforschungszent-rum (DKFZ) vollzogen. Es wird im Grundlagen Kapitel die derzeitige Situation der Abtei-lung widergespiegelt. Darauf aufbauend werden zukünftige Handlungsfelder, mit Hilfe der Methode der SWOT Analyse identifiziert. Durch die SWOT Analyse wird der derzeiti-ge Ist- Zustand, mit Hilfe der Stärken und Schwächen abgebildet. Chancen und Risiken der Umwelt werden durch die SWOT Analyse abgebildet und ermöglichen es in Kombi-nation mit den Stärken und Schwächen der Abteilung Radiologie als Teil des DKFZ, zu-künftige Handlungsfelder zu bestimmen. Anschließend werden die Handlungsfelder prio-risiert. Bei dem Handlungsfeld mit der höchsten Priorität handelt es sich um das Hand-lungsfeld des abteilungsinternen Wissensmanagements. Das Handlungsfeld wird durch die strategischen Wege, welche die Umsetzung ermöglichen sollen, weiter ausgestaltet. Als Basis für die Entwicklung der strategischen Wege dienen die Mission, die Vision und das Leitbild, welche im DKFZ vorherrschen. Durch die anschließende Anwendung der Methode der Balanced Score Card erfolgt eine kritische Auseinandersetzung der einzel-nen strategischen Wege mit dem Ziel die Messung, Dokumentation und Steuerung der Maßnahmen des zu verfolgenden Handlungsfeldes zu analysieren. Mittels der Priorisie-rung der Maßnahmen, wird im Folgenden die höchst priorisierte Maßnahme konzeptio-nell weiterverfolgt, hierbei handelt es sich um das Zugriffskonzept des abteilungsinternen Wissensmanagementsystems. Die Diskussion setzt sich mit den verwendeten Methoden auseinander. Es wird aufgezeigt, warum es notwendig ist das Handlungsfeld, des abtei-lungsinternen Wissensmanagement, und die damit verbundenen Maßnahmen weiter zu verfolgen. Im abschließenden Fazit wird auf das Zweite zu verfolgende Handlungsfeld eingegangen und weitere zielführende Maßnahmen aufgezeigt, welche notwendig sind, um das abteilungsinterne Wissensmanagementsystem einzuführen.
Das Registrieren medizinischer Bilddatensätze ist ein komplexer und zeitintensiver Prozess. Ohne die Entwicklung effizienter und schneller Registrierungsverfahren müssten erhebliche personelle Ressourcen in das manuelle Registrieren investiert oder teilweise ganz auf deren Resultate und den einhergehenden Erkenntnissen verzichtet werden. Daher ist es besonders wichtig Neuentwicklungen in diesem Gebiet voranzutreiben und Programmstrukturen zu entwickeln, die diese neuen Verfahren einbinden, evaluieren und anschließend optimieren können. Das Ziel dieser Arbeit war die Entwicklung eines Softwaretools, das Registrierungsprozesse von der Vorverarbeitung über die eigentliche Registrierung bis hin zur visuellen Evaluierung unterstützt. Dabei sollte die Applikation so entwickelt werden, dass sowohl Funktionalitäten als auch Benutzeroberfläche einfach erweitert oder modifiziert werden können. Zu Beginn der Entwicklung musste ein geeignetes Framework (bzw. Entwicklungsumgebung) gefunden werden. Dieses sollte sowohl eine stabile Umgebung als auch einen möglichst großen Funktionsumfang im Bereich des Prä- und Postprocessing der Registrierung bieten können. Zudem sollte diese Entwicklungsumgebung auch Strukturen bieten, die es ermöglichen neue Funktionalitäten einfach hinzuzufügen. Auf Grund der Ergebnisse der durchgeführten Analyse kam im Rahmen dieser Diplomarbeit MeVisLab zum Einsatz.
In einem überregionalen Forschungsprojekt untersuchen Heidelberger und Hannoveraner Wissenschaftler Entstehungsmechanismen und neue Therapieansätze des Leberzellkarzinoms, einer der tödlichsten Tumorerkrankungen unserer Zeit. Die IT-Plattform pelican soll dem Forschungsverbund die softwaregestütze Analyse und den Austausch von Leberkrebs-Forschungsdaten ermöglichen. Bisher fehlte dazu ein geeignetes Oberflächenkonzept. Deswegen wurde eine Benutzerschnittstelle entworfen, die in der Lage ist, heterogene Daten und Funktionen darzustellen und dabei flexibel an die Nutzerbedürfnisse angepasst werden kann. Es konnte anhand einer prototypischen Benutzungsoberfläche gezeigt werden, dass sich das Konzept praktisch umsetzen lässt. Mit Hilfe der in einem Evaluierungsprozess ausgewählten Portalsoftware GridSphere wurden mehrere Datendienste als Module in die pelican-Applikation integriert. Als besondere Herausforderungen haben sich die Navigation innerhalb der Oberflächenmodule sowie der Informationsaustausch zwischen den Komponenten herausgestellt. Die erarbeiteten Lösungsansätze wurden dokumentiert und dienen als Basis für die Integration beliebiger neuer Dienste in die Plattform. Zukünftige Entwicklungen können der Krebsforschung weltweit in Form von standardkonformen Diensten im caGrid Umfeld zur Verfügung gestellt werden.
Die großen Datenmengen der klinischen Routine stellen für die medizinische Forschung ein großes Potenzial dar. So lassen sich zum Beispiel doppelte Erhebungen vermeiden oder Studienteilnehmer schneller finden. Sollen diese Daten genutzt werden, bedarf es geeigneter Werkzeuge und Prozesse. Im Rahmen des RWH Projektes der Medizinischen Uniklinik Heidelberg und dem GECKO Institut der Hochschule Heilbronn soll in dieser Arbeit ein Abfragewerkzeug für multidimensionale Datenbanken erstellt und verifiziert werden. Den Schwerpunkt der Arbeit bildet die Wahl einer geeigneten Softwarearchitektur. Im Anschluss an eine Anforderungsanalyse wird das Abfragewerkzeug mit Hilfe von Java Technologien, wie dem Google Web Toolkit und dem Open Java API for OLAP, erstellt. Die Anforderungen werden mit zwei Anwendungsszenarien verifiziert. Der RWH Report-Browser konnte mit der festgelegten Architektur implementiert werden. Zum Erstellen von MDX Anfragen an das DataWarehouse wurde ein Anfragegenerator implementiert. Die Verifikation zeigt, dass der Report-Browser als Plattform für den Zugriff auf klinische Routinedaten geeignet ist. Eine gute Testbarkeit der Architektur konnte nachgewiesen werden.
Die visuelle Analyse der kindlichen Spontanmotorik hat sich als aussagekräftiges Verfahren zur Prognose schwerer neurologischer Störungen erwiesen. Eine computergestützte Entscheidungsunterstützung könnte Ärzten eine wertvolle objektive Hilfe bei der Prognosestellung geben. Mit dem Ziel ein solches entscheidungsunterstützendes System zu entwickeln, wurde am Institut für Medizinische Biometrie und Informatik der Universität Heidelberg ein Forschungsprojekt durchgeführt. Darin wurde u.a. ein Softwarepaket für Forscher entwickelt. Die Ergebnisse der Forschung wurden bislang nicht für Ärzte zugänglich gemacht. Diese Arbeit ergänzt das Softwarepaket des Projekts um zwei Komponenten. Ein grafischer Editor erleichtert die Nutzung des bestehenden Softwarepakets, indem es den Forscher bei der Ablaufsteuerung des entscheidungsunterstützenden Prozesses unterstützt. Eine Präsentationskomponente macht die Ergebnisse des entscheidungsunterstützenden Prozesses für Ärzte nutzbar. Die beiden Komponenten werden mit ähnlichen Komponenten anderer Forschungsprojekte im selben Kontext verglichen und exemplarisch evaluiert.
Der Einsatz von virtuellen Szenen in der Medizin gewinnt zunehmend an Bedeutung, weil Navigations- und Planungshilfen für den Arzt geschaffen werden. Die Verwendung von komplexen Computersimulationen soll den Behandlungsprozess verkürzen und gleichzeitig die Behandlungsqualität durch eine gezielte Vorgehensweise verbessern. Wegen der hohen Komplexität von Bildverarbeitungsalgorithmen ist es jedoch schwierig, eine einfache Interaktion mit den medizinischen Daten zu ermöglichen. Zudem werden Benutzereingaben durch die Eingabegeräte wie Maus und Tastatur eingeschränkt, da diese in vielen Fällen keine einfache Steuerung zulassen. Diese Diplomarbeit beschäftigt sich mit der Umsetzung intuitiver Interaktionskonzepte für den alltäglichen klinischen Gebrauch durch Verwendung von intuitiven Eingabegeräten (3D Maus, Wii Controller). Die Entwicklungen basieren auf dem Medical Imaging Interaction Toolkit (MITK) des Deutschen Krebsforschungszentrums (DKFZ). Dabei wurden von einer einfachen Kamerafahrt in einer Volumenvisualisierung über die Realisierung eines Headtracking in einer virtuellen Realität bis hin zu der Interaktion mit 3D Objekten konkrete Anwendungsbeispiele erarbeitet, analysiert und bewertet.
Im Rahmen der interdisziplinären Leberkrebsforschung des ‚SFB/TRR 77’ ‚Leberkrebs von der molekularen Pathogenese zur zielgerichteten Therapie’ fallen Genomdaten an, welche in unterschiedlichen Formaten gespeichert werden. Der ‚SFB/TRR 77’ wird technisch durch die integrierte Informationsplattform ‚pelican’ (platform enhancing livercancer networked research) unterstützt. ‚pelican’ erlaubt Forschern ihre (Genom-)Daten zentral zu speichern und Daten von anderen Projekten einzusehen. Die Informationsplattform ist nach dem Prinzip der modernen service-orientierten Architektur (SOA) aufgebaut, nach welcher Dienste über einheitliche Schnittstellen an unterschiedlichen Orten spezifische (Teil-)Aufgaben erfüllen, um so größere Prozesse zu realisieren. Damit die Genomdaten für umfassende Analysen einheitlich zur Verfügung stehen, bedarf es eines Genkonvertierungs-Dienstes zur Abbildung von Genbezeichnungen aufeinander, der in die SOA von ‚pelican’ integriert werden kann. Verschiedene Gendatenbanken und biomedizinische Standards wurden auf ihre Eignung untersucht, Gene eindeutig zu identifizieren. Auch die Tools des ‚cancer Biomedical Informatics Grid’ (caBIG) werden auf Methoden und Werkzeuge zur Unterstützung einer eindeutigen Genidentifikation analysiert. Aus den verschiedenen Genidentifikationsmöglichkeiten wird eine optimale Methode ausgewählt, mit der im Genkonvertierungs-Dienst gearbeitet werden kann. Diese ist das ‚Gensymbol’, da es Gendatenbank übergreifend ist und von dem Human Genome Organisation (HUGO) Gene No-menclature Committee (HGNC) standardisiert wird. Die Daten aus der HGNC-Datenbank werden in eine eigene MySQL-Datenbank transferiert. Auf Basis dieser Datenbank wird ein Webservice entwickelt, der dann in die SOA der Informationsplattform eingebunden werden kann. Der erstellte Webservice steht zur Abfrage von Genomdaten bereit. Mittels entsprechenden Tests wird die Funktionalität des neuen Services validiert.
Diese Arbeit befasst sich mit der Analyse der Secondary Use Systeme der Vanderbilt Universität, Nashville Tennessee (USA), und einem anknüpfenden Vergleich mit deutschen Konzepten und unter Berücksichtigung der deutschen Gesetzeslage. Dabei wurden, auf Basis einer vor Ort durchgeführten Analyse, wichtige Prozesse modelliert und im Anschluss mit den Datenschutzkonzepten der Technologie- und Methodenplattform für die vernetzte medizinische Forschung (TMF) verglichen. Weiterhin wurde darauf eingegangen, inwiefern eine Übertragung der Prozesse und Methoden mit dem deutschen Datenschutz vereinbar wäre. Die Bewertung der Ergebnisse zeigt, dass ein Großteil der zugrundeliegenden Prozesse in Vanderbilt auf Deutschland übertragen werden können, jedoch bei gewissen Methoden andere Ansätze gewählt werden müssen. Es wird ebenfalls hervorgehoben, dass es trotz Schutzmaßnahmen und -mechanismen Risiken für die Privatsphäre gibt.
In einer vorangegangenen, erst kürzlich abgeschlossenen Bachelorarbeit wurde festgestellt, dass durch die Einführung eines Projektportals das Projektmanagement in der IT-Abteilung der SLK-Kliniken verbessert werden kann. Bisher befindet sich keine Applikation im Einsatz, mit deren man alle nützlichen Features verwalten kann. Ebenfalls ist noch nicht klar welche Anforderungen solch ein Produkt überhaupt erfüllen muss. Da noch nicht ganz klar ist, was für Anforderungen die Applikation besitzen muss und bisher nur eine sehr teure Komponente getestet wird, wird in dieser Bachelorarbeit ermittelt, was für Anforderungen für solch ein Produkt nötig sind. Mit Hilfe eines Wegwerfprototyps wird getestet, ob das Open Source Produkt Liferay Portal den Anforderungen gerecht wird und ob das Produkt in den Betrieb der Klinik integrierbar ist. Ein Analysekatalog zu erstellen ist ein Weiteres Ziel dieser Arbeit. Mit diesem können auch weitere Systeme analysiert und verglichen werden. Zudem wird eine Empfehlung auszusprechen sein, ob es sinnvoll ist das Produkt einzusetzen.
Effiziente Berechnung von Kookkurrenzwerten unter Verwendung von öffentlichen Suchmaschinen-Indizes
(2012)
Im Kern der Bachelorarbeit steht die Berechnung der semantische Nähe zwischen zwei medizinischen Konzepten. Es ist das primäre Ziel, ein Verfahren zu implementieren, welches durch Verwendung von Suchmaschinen-Indizes Signifikanzwerte für die Konzeptrelationen von sogenannten Wiki-Graphen berechnet [Hei11]. Derartige Datenstrukturen finden in sogenannten Health Recommender Systemen (HRS) zur Berechnung von Empfehlungen Anwendung ([WP10], [Hei11]). Ein besonderes Augenmerk liegt auf der Skalierbarkeit der zu entwickelnde Softwarekomponente. Da eine sehr hohe Anzahl an zu verarbeitenden Konzeptrelationen, d.h. Kanten im Wiki-Graphen, vorliegt und die Antwortzeit von öffentlichen Suchmaschinen-APIs limitiert ist, wurde eine verteilte Berechnung mit Hilfe eines Rechenclusters konzipiert.
Das neurochirurgische Operationsplanungssystem MOPS 3D wurde am Institut für Medizinische Biometrie und Informatik der Universität Heidelberg entwickelt. Es unterstützt den Chirurgen mit einer Vielzahl von Methoden bei der Operationsplanung und der Durchführung. Dabei hat sich der Funktionsumfang von MOPS 3D im Laufe der Zeit stetig erweitert. Seit neuem gehört hierzu die Möglichkeit der Volumenvisualisierung, diese wurde mit dem Framework Voreen, welches auf OpenGL basiert, realisiert. Eine weiter Neuerung, die für diese Diplomarbeit von maßgeblicher Bedeutung ist, ist die Entwicklung des OpenCLStandards. Durch diesen wird es nicht nur möglich Anwendungen hochgradig parallel auf der Grafikkarte auszuführen, es ist des Weiteren möglich mit OpenCL direkt auf Darstellungen, die durch OpenGL generierten wurden, zu operieren. Hierdurch ergeben sich vielversprechende Perspektiven bei der Entwicklung neuer Werkzeuge für das Planungssystem MOPS 3D. So wird in der nachfolgenden Arbeit eine neue unabhängige Segmentierungskomponente für das Planungssystem MOPS 3D konzipiert und implementiert. Dabei wird auf die Interoperabilität zwischen OpenGL und OpenCL gesetzt, um ein konstantes visuelles Feedback über den Segmentierungsverlauf an den Anwender in Form von 3D-Volumendarstellungen zu gewährleisten.
Aktuell ist die Installation, sowie die Konfiguration von RANDI2, sehr umständlich. Parameter oder sogar ganze Konfigurationsdateien werden für die vorhandene Infrastruktur des Anwenders angepasst. Obwohl jede Installation mit Eingaben bezüglich der Institution, verantwortlichen Personen, Logos und vielen anderen Einstellungen parametriert wird, verfügt das System zurzeit über keinen Mechanismus, der den Benutzer bei der Konfiguration unterstützt. Dadurch kann die Installation und Konfiguration meistens nur von erfahrenen Anwendern durchgeführt werden. Ziel dieser Bachelorarbeit ist es, ein Modul zu entwickeln, welches den Administrator dabei unterstützt, das System bei der Installation von RANDI2 optimal einzurichten.
In IT-Abteilungen von Krankenhäusern und Universitätskliniken nimmt Kommunikation und Informationsaustausch zwischen Arbeitsgruppen immer mehr an Bedeutung zu. Einheitliche Informationsprozesse innerhalb einer ITAbteilung sind also notwendig, damit vor allem im Bereich des Projektmanagements Klarheit und Stabilität vorhanden ist. Schon in der Projektinitiierungsphase soll damit Fehlerbehebung und -vermeidung stattfinden. Denn die Haupthebelstelle für Projektqualität liegt im Projektentstehungsprozess. Vor diesem Hintergrund befasst sich diese Abschlussarbeit mit der Untersuchung der IT-Projektmanagementprozesse in Bezug auf die Möglichkeit zur EDV-Unterstützung.
Entwicklung einer performanten Volume Rendering Komponente für das Operationsplanungssystem MOPS 3D
(2012)
Computergestützte Planung von chirurgischen Eingrien gehört in der heutigen Zeit zum klinischen Alltag. Besonders in der Neurochirurgie ist ein hohes Maÿ an Präzision erforderlich, so dass es hilfreich ist, die räumlichen Gegebenheiten des individuellen Gehirns, die für die Operation von Bedeutung sind, schon im Voraus zu kennen. MOPS 3D ist ein Operationsplanungssystem, das imstande ist, verschiedene medizinische Bilddaten einzulesen und dem Chirurgen eine dreidimensionale Darstellung des Körperinneren zu präsentieren. Statt mit der herkömmlichen Oberflächendarstellung kann dieses seit Kurzem auch mit Hilfe von Volumenvisualisierung (Volume Rendering) dargestellt werden, da das Volume Rendering Framework Voreen prototypisch in MOPS 3D integriert wurde. In der nachfolgenden Arbeit wird diese prototypische Integration auf Schwachstellen im Verhalten und auf Verbesserungspotential von Performanz und Stabilität untersucht. Danach werden entsprechende Verbesserungen und funktionale Neuerungen konzipiert und in der Volume Rendering Komponente implementiert.
Im Zeitalter der Informationsgesellschaft stellt das Internet eine zentrale Bedeutung für die Wissens- und Informationsbeschaung dar. Immer mehr Menschen informieren sich mit Hilfe des Internets über das Thema Gesundheit. Gerade im Gesundheitssektor ist es wichtig, aus der großen Masse an Informationen diejenigen Quellen herauszufinden, die inhaltlich korrekt, d.h. keine Fehlinformationen enthalten, und möglichst vollständig sind, da falsche Informationen für den Nutzer sogar gesundheitsschädliche Konsequenzen haben könnten. Als Laie medizinische Begriffe oder Zusammenhänge zwischen zwei oder mehreren Begriffen zu verstehen ist schwierig. Bei der Fülle an Informationen, die im Web angeboten werden ertrinkt der Nutzer sprichwörtlich an der Informationsflut. Die freie Online-Enzyklopädie Wikipedia scheint in diesem Kontext eine vielversprechende Quelle zur Informationsbeschaung zu sein. Der Gesundheitssektor der Wikipedia umfasst in der deutschen Sprache ca. 92.000 Artikel. In der englischen Sprache sind es ungefähr 350.000 Artikel. Im Rahmen einer Diplomarbeit an der Hochschule Heilbronn, wurde von B. Trinzcek ein Framework zur Darstellung der Wikipedia als Graph entwickelt. Durch die Verlinkungen in den Artikeln ist es möglich, Zusammenhänge zwischen verschiedenen Artikeln und somit Begriffen zu visualisieren. Der durch das Framework erstellte Graph der Domäne Gesundheit wird als Gesundheitsgraph bezeichnet [27].
Im Bereich der Krebsdiagnose und -therapie gewinnen neue minimalinvasive Verfahren zunehmend an Bedeutung. Beispiele hierfür sind Nadelpunktionen, bei denen zur Diagnose eine Gewebsprobe entnommen (Biopsie) oder durch Zerstörung des Gewebes im Bereich der Nadelspitze eine Krebserkrankung therapiert wird (Ablation). Eine zentrale Herausforderung hierbei ist die genaue Platzierung der Nadel. Am deutschen Krebsforschungszentrum (DKFZ) wurde ein computergestütztes Navigationssystem für Nadelinsertionen entwickelt, das sich im in-vivo Versuch als höchst akkurat zeigte. Trotz der vielversprechenden Ergebnisse kam das System bisher jedoch nicht am Patienten zum Einsatz. Dies ist unter anderem auf die schwierige Integration des Systems in den klinischen Workflow und die erhöhte Invasivität zurückzuführen. Vor diesem Hintergrund war das Ziel dieser Arbeit zum einen die Entwicklung einer flexiblen, erweiterbare Software für die navigierte Weichgewebepunktion, zum anderen die Weiterentwicklung des Navigationssystems durch die Einbindung eines neuen Feldgenerators für das elektromagnetische Trackingsystem NDI Aurora. Die Implementierung der Software erfolgte aufbauend auf der Bibliothek MITK und dem enthaltenen Modul MITK-IGT. Dabei wurde ein komponentenweiser Aufbau umgesetzt, welcher einen einfachen Austausch oder Erweiterungen der einzelnen Komponenten ermöglicht. Des Weiteren wurde der neue Feldgenerator bezüglich Genauigkeit und Präzision in der Einsatzumgebung evaluiert und es erfolgte ein Test des Navigationssystems unter klinischen Bedingungen. Abschließend kann festgestellt werden, dass durch die gezeigte Flexibilität und Erweiterbarkeit der entwickelten Software zahlreiche Möglichkeiten zur Weiterentwicklung offen stehen. Bezüglich des Feldgenerators zeigte sich das vielversprechende Potential dieses Geräts für die Weiterentwicklung medizinischer Navigationssysteme.
Für die fortwährende Optimierung von Behandlungsstrategien im Bereich der Strahlentherapie ist es notwendig, Behandlungspläne strukturiert miteinander zu vergleichen. Um die vielfältigen Datenmengen, die sich im Rahmen großer und übergreifender Forschungsprojekte, wie etwa dem ULICE-Projekt [18] ergeben, suffizient auswerten zu können, ist ein leichter Zugriff für alle Projektteilnehmer erstrebenswert. Dieser kann beispielsweise durch den Einsatz einer Telemedizinakte, wie sie z.B. von der Firma CHILI GmbH angeboten wird, erfolgen. Die Telemedizinakte muss unbedingt in der Lage sein, das Datenformat, in dem Therapiepläne abgespeichert werden (DICOM RT), zu verarbeiten. Daher wurde im ersten Schritt dieser Arbeit analysiert, welche Informationen im Rahmen eines DICOM RT Viewing Moduls im CHILI-PACS dargestellt werden können. Als zentrale Aufgabe wurde die Darstellung des Dosis-Volumen-Histogramms (DVH) ermittelt, für dessen Berechnung es Module für die Darstellung der segmentierten Strukturen (RT Structure Set) und die Dosisverteilung (RT Dose) geben muss. Außerdem soll es zu einem späteren Zeitpunkt leicht möglich sein, weitere Module für die Anzeige der übrigen DICOM RT Objekte zu integrieren. Nach der Spezifikation der geforderten Funktionalität wurde ein Konzept für deren Umsetzung erstellt und mit der Implementierung einer der Kernfunktionen begonnen. Durch diese Implementierung soll es anderen Programmierern erleichtert werden, das gewählte Konzept nachzuvollziehen und das DICOM RT Viewing Modul des CHILI-PACS entsprechend erweitern und anpassen zu können, bis letztendlich ein homogenes und vollständiges Gesamtsystem entsteht. Durch die Umsetzung eines Moduls zur Darstellung von RT Structure Sets ist es jetzt möglich, sich die segmentierten Strukturen eines DICOM RT Datensatzes im CHILIPACS anzeigen zu lassen. Es können gezielt einzelne Strukturen an- und abgewählt und deren Konturfarbe geändert werden. Die Darstellung der Konturen ist für die Axial-, die Coronal- und die Sagittalebene möglich. Eine Überprüfung der Funktionalität wurde mit den zur Verfügung stehenden DICOM RT Testdatensätzen durchgeführt.
Eine der zentralen Aufgaben der medizinischen Bildverarbeitung ist es, den Arzt durch neue oder verbesserte Methoden zur Diagnostik und Therapieplanung bei medizinischen Entscheidungs- und Behandlungsprozessen zu unterstützen. Für viele Fragestellungen in der Medizin sind Untersuchungen von Gefäÿsystemen oder anderen tubulären Strukturen erforderlich. Die vorliegende Arbeit beschäftigt sich mit der Konzipierung und der Realisierung eines generischen Datenmodells für tubuläre Strukturen. Für die Darstellung dieser Strukturen wurde eine neue Visualisierungsmethode implementiert. Zudem wurden allgemein verwendbare und benutzerfreundliche Interaktionskomponenten entwickelt, die die Exploration, die Modikation, die Attributierung sowie die Analyse der modellierten Systeme ermöglichen.
Die vorliegende Arbeit beschäftigt sich mit der Entwicklung einer Aufnahmesoftware sowie der Optimierung einer Aufnahmeapparatur zur Messung von Autofluoreszenzlebensdauern und Autofluoreszenzintensitäten im Bereich der Retina. Mithilfe eines blauen Lasers werden fluoreszierende Moleküle in der Retina, Fluorophore, zum Abstrahlen von Licht, der so genannten Fluoreszenz, angeregt. Die Abklingzeit der Fluoreszenzintensität bis zum Ende der Lichtemission eines Moleküls, wird als Fluoreszenzlebensdauer bezeichnet. Die Software ermöglicht es, durch den Einsatz eines speziellen Detektors und einer sehr genauen Stoppuhr diese Fluoreszenzlebensdauer im Pikosekundenbereich zu messen. Anhand der für jeden Stoff individuellen Fluoreszenzlebensdauer können die Moleküle exakt bestimmt werden. Mit einem Messgerät, welches die im Auge vorkommenden Substanzen und deren Verhältnis zueinander messen kann, lassen sich bei Abweichungen von der Norm Diagnosen erstellen und eine Behandlung einleiten. Soft- und Hardware sind in der Lage, die Augenbewegung während einer Messung auszugleichen, sodass selbst bei Messungen im Bereich von einigen Minuten verlässliche Messdaten generiert werden. Ziel dieser Arbeit ist die Fertigstellung eines für den Routineeinsatz geeigneten Prototyps.
Der Studienkreis für Tourismus e.V. organisiert seit 1970 die Reiseanalyse als sozial- und wirtschaftswissenschaftliche Grundlagenuntersuchung. Die Reiseanalyse 1977 (RA 77) ist nunmehr die achte dieser jahrlich durchgeführten Repräsentativbefragungen, die systematisch und kontinuierlich sowohl die soziologischen Zusammenhänge der Urlaubs- und Reisegewohnheiten der westdeutschen und Westberliner Bevölkerung über 14 Jahre als auch die ökonomischen EinfLüsse auf das Urlaubsreisegeschehen analysiert.
Die Reiseanalyse ist eine für die gesamte Bundesrepublik Deutschland reprasentative sozial- und wirtschaftswissenschaftliche Grundlagenuntersuchung zum Reiseverhalten der deutschen Bundesbürger, die das 14. Lebensjahr vollendet haben. Der Studienkreis für Tourismus hat die Reiseanalyse 1970 ins Leben gerufen und ist seitdem für Konzeption, Organisation, Durchführung und Vermarktung der Reiseanalyse verantwortlich. Die Bezieher der Reiseanalyse, die das Projekt mitfinanzieren, vertreten unterschiedliche gesellschaftliche Bereiche und lnteressen. lhr gemeinsames Interesse sind die Markt- und Sozialforschungsdaten zur touristischen Nachfrage und zum Urlaubsreiseverhalten.
Cytoscape is an open source platform for complex network analysis and visualisation. The Pathway Interaction Database (PID) is a highly structured, curated collection of information about known biomolecular interactions and key cellular processes assembled into signalling pathways. Despite the obvious potential and advantageous usage of both tool (Cytoscape) and information source (PID), there has been no conclusive effort to merge and synergise them. This project aims to make use of the open source characteristics of Cytoscape and optimally visualise the biomolecular interactions found in the PID. This is made possible by the development of a plugin which imports a user-selected pathway file, converts it into a Cytoscape-readable file, and then visualises it. Finally, the user has options to further optimise the pathway by the use of a filter (Barcode – Affymetrix) that removes nodes from the network which are lowly expressed in the Affymetrix microarray data. The user then obtains visual results in a matter of seconds. Additionally, the process of subgraphing nodes through the shortest path method could be applied to the network. This can further assist the user in identifying the molecular pathways of the nodes of interest, a useful feature in network analysis.
Mit zunehmender Anzahl von Smartphones1 und Tablets2 steigt heutzutage auch die Bedeutung mobiler Anwendungen ständig. Die „kleinen“ Anwendungen können immer mehr Aufgaben übernehmen und können durch den Einsatz auf mobilen Geräten sehr flexibel eingesetzt werden. Aus diesem Grund entstand das vom US-Militär geförderte internationale Projekt MoLE3 (Mobile Learning Environment). Die Hochschule Heilbronn ist durch ihr Forschungslabor „e-Learning in Medicine“ des CeLTech4 (Centre for e-Learning Technology) an diesem Projekt beteiligt. Das Ziel des MoLE Projekts ist es, die Telekommunikationsinfrastruktur und die mobilen Geräte wirksam einzusetzen, um Wissen und Ressourcen einfacher miteinander zu teilen. Dazu wurde die „Global MedAid App“ entwickelt, die sowohl auf iOS5 als auch auf Android6 Geräten läuft. Die plattformübergreifende Open-Source7 App ist erweiterbar und beinhaltet eine Schnittstelle zu Lernplattformen.
Viele Kinder und Jugendliche in Deutschland leiden unter verschiedenen langwierigen Krankheiten. Die Folge sind oftmals lange Krankenhausaufenthalte. Dadurch werden die Patienten und Schüler aus der Klassengemeinschaft gerissen. Durch die modernen Techniken besteht die Möglichkeit, diese Isolation zu vermindern. Der Begriff „ELearning“ kann mit dieser Problemstellung verknüpft werden. R. Clark und R. Mayer definieren es wie folgt: „We define e-learning as instruction delivered on a digital device such as a computer or mobile device that is intended to support learning.“ [2] Dieser Ansatz zur Problemlösung wird in dieser Thesis verfolgt. Aufgabe ist es, ein bereits bestehendes Projekt zu verbessern. Die Diplomarbeit „Konzeption und prototypische Realisierung eines virtuellen Klassenzimmers für kranke Kinder und Jugendliche“ ist die Grundlage der vorliegenden Arbeit und auch des bestehenden Projektes. Es wurde dort auf Standardtechnik zurückgegriffen, die keine befriedigende Qualität der Übertragung bot. Da das Projekt weiterverfolgt und weiterentwickelt werden soll, muss sich die Qualität der Übertragung verbessern.
Sudden cardiac arrest is a leading cause of death world wide, with about 100.000 to 150.000 cases each year in Germany alone [Weidringer and Sefrin, 2006]. This means that annually one out of 1000 citizens are affected [Bahr, 2007]. At standard conditions the human brain has a relative low ischemic1 tolerance. Therefore after 3 - 5 minutes without therapy, irreversible damage is to be expected. The rate of survival drops 7% - 10% each minute, without resuscitation [Bahr, 2007]. Since the arrival of the organized emergency medical service usually takes more than 5 minutes after the emergency call [Wahlen et al., 2003, Weisfeldt et al., 2010], the instant and adequate resuscitation by bystanders in this period is of vital importance. The advantage of basic life support2 (BLS) by laymen shows a fourfold higher rate of survival, once resuscitation has begun, until the arrival of the emergency medical service [Bahr, 2007].
Der Studienkreis für Tourismus e.V. organisiert seit 1970 die Reiseanalyse als sozial- und wirtschaftswissenschaftliche Grundlagenuntersuchung. Die Reiseanalyse 1978 (RA 78), durchgeführt von der MARPLAN Forschungsgesellschaft für Markt und Verbrauch mbH, Offenbach, ist nunmehr die neunte dieser jährlich durchgeführten Repräsentativ-Befragungen, die systematisch und kontinuierlich sowohl die soziologischen Zusammenhänge der Urlaubs- und Reisegewohnheiten der westdeutschen und Westberliner Bevölkerung über 14 Jahren als auch die ökonomischen Einflüsse auf das Urlaubsreise geschehen analysiert.
Im Zeitalter der Informationsgesellschaft stellt das Internet eine zentrale Bedeutung für die Wissens- und Informationsbeschaung dar. Immer mehr Menschen informieren sich mit Hilfe des Internets über das Thema Gesundheit. Gerade im Gesundheitssektor ist es wichtig, aus der großen Masse an Informationen diejenigen Quellen herauszufinden, die inhaltlich korrekt, d.h. keine Fehlinformationen enthalten, und möglichst vollständig sind, da falsche Informationen für den Nutzer sogar gesundheitsschädliche Konsequenzen haben könnten. Als Laie medizinische Begriffe oder Zusammenhänge zwischen zwei oder mehreren Begriffen zu verstehen ist schwierig. Bei der Fülle an Informationen, die im Web angeboten werden ertrinkt der Nutzer sprichwörtlich an der Informationsflut. Die freie Online-Enzyklopädie Wikipedia scheint in diesem Kontext eine vielversprechende Quelle zur Informationsbeschaung zu sein. Der Gesundheitssektor der Wikipedia umfasst in der deutschen Sprache ca. 92.000 Artikel. In der englischen Sprache sind es ungefähr 350.000 Artikel. Im Rahmen einer Diplomarbeit an der Hochschule Heilbronn, wurde von B. Trinzcek ein Framework zur Darstellung der Wikipedia als Graph entwickelt. Durch die Verlinkungen in den Artikeln ist es möglich, Zusammenhänge zwischen verschiedenen Artikeln und somit Begriffen zu visualisieren. Der durch das Framework erstellte Graph der Domäne Gesundheit wird als Gesundheitsgraph bezeichnet [27].
Die Reiseanalyse 1973 des Studienkreises für Tourismus wurde wie in den früheren Jahren im Januar und Februar mit mehr als 6000 Interviews im Bundesgebiet einschließlich West-Berlin durchgeführt. Zum dritten Mal lagen Feldarbeit und Darstellung in Händen der MARPLAN Forschungsgesellschaft für Markt und Verbrauch, Offenbach. Die Beteiligung von rund dreißig Behörden, Fremdenverkehrszentralen, Reiseorganisationen, Verkehrsträgern und Verlagen - zusammengeschlossen in der Arbeitsgemeinschaft Reiseanalyse (AGRA) des Studienkreises für Tourismus - ermöglichte die Durchführung dieser vierten Reiseanalyse seit 1970. Die regelmaßige und systematische Erfassung der Urlaubs- und Reisegewohnheiten der westdeutschen Bevölkerung durch diese Repräsentativ-Untersuchung ist für alle am Tourismus Interessierten von großer Bedeutung.
Der Studienkreis für Tourismus e.V. organisiert seit 1970 die Reiseanalyse als eine sozial- und wirtschaftswissenschaftliche Grundlagenuntersuchung des Tourismus der Deutschen. Die Reiseanalyse 1979 (RA 79), durchgeführt von der MARPLAN Forschungsgesellschaft für Markt und Verbrauch mbH, Offenbach, ist bereits die zehnte dieser jährlich durchgeführten Repraäsentativ-Befragungen, die systematisch und kontinuierlich sowohl die soziologischen Zusammenhänge der Urlaubs- und Reisegewohnheiten der westdeutschen und westberliner Bevölkerung über 14 Jahren als auch die ökonomischen und sozialpsychologischen Einflüsse auf das Urlaubsreisegeschehen analysiert.
Die Reiseanalyse 1983 ist die vierzehnte vom Studienkreis für Tourismus organisierte Erhebung dieser Art. Es handelt sich urn eine sozial- und wirtschaftswissenschaftliche Grundlagenuntersuchung, die repräsentativ für die westdeutsche und Westberliner Bevölkerung über 14 Jahre das Urlaubsverhalten erfasst.
Die Reiseanalyse 1985 (RA 85) ist die sechzehnte vom Studienkreis für Tourismus organisierte Erhebung dieser Art. Es handelt sich urn eine sozial- und wirtschaftswissenschaftliche Grundlagenuntersuchung, die repräsentativ für die westdeutsche und Westberliner Bevölkerung über 14 Jahre das Urlaubsverhalten erfasst.
Bei Repräsentativuntersuchungen über das Reiseverhalten spielen sozial- und wirtschaftswissenschaftliche Gesichtspunkte eine wichtige Rolle. Bereits seit den frühen 50er Jahren wurden in der Bundesrepublik Deutschland die gesellschaftlichen und wirtschaftlichen Aspekte des Reisegeschehens erfasst. Ende der 60er Jahre existierten eine Reihe unabhängig voneinander angebotener Marktuntersuchungen, denen es allerdings an direkter Vergleichbarkeit mangelte. Die Zersplitterung der empirischen Tourismusforschung veranlasste den Studienkreis für Tourismus im Jahre 1970, die Interessenten für repräsentative Tourismusuntersuchungen zur Zusammenarbeit an einem einzigen kostengünstigen Gemeinschaftsprojekt zu gewinnen. lm Oktober 1970 fand in Frankfurt das erste Treffen der Interessenten an dem neuen Projekt "Reiseanalyse" statt, das zur Gründung der Arbeitsgemeinschaft Reiseanalyse führte.
Anfang 1971 wurde die Feldarbeit der ersten Reiseanalyse (RA 70) auf der Basis von 4.000 Interviews von Infratest (München) durchgeführt. Bereits im zweiten Jahr der Reiseanalyse wurde die Anzahl der Interviews auf 6.000 erhöht. Die Durchführung der Reiseanalyse 1971 wurde an die Marplan Forschungsgesellschaft (Offenbach) vergeben, die auch die folgenden Reiseanalysen einschließlich des Jahres 1980 betreute. Von 1981 bis 1986 wurde die Reiseanalyse von der GfK Marktforschung (Nürnberg) bearbeitet. Die RA 87 wurde von M + E und Marplan in Verbindung mit Basis Research durchgeführt. Basis Research hat auch die Reiseanalysen 1988 und 1989, zusammen mit GfM-Getas, durchgeführt.
Anfang 1971 wurde die Feldarbeit der ersten Reiseanalyse (RA 0) auf der Basis von 4.000 Interviews von Infratest (München) durchgeführt. Bereits im zweiten Jahr der Reiseanalyse wurde die Anzahl der Interviews auf 6.000 erhöht. Die Durchführung der Reiseanalyse 1971 wurde an die Marplan Forschungsgesellschaft (Offenbach) vergeben, die auch die folgenden Reiseanalysen einschließlich des Jahres 1980 betreute. Von 1981 bis 1986 wurde die Reiseanalyse von der GfK Marktforschung (Nümberg) bearbeitet. Die RA 87 wurde von M + E und Marplan in Verbindung mit Basis Research durchgeführt. Die Reiseanalysen 1988 und 1989 entstanden ebenfalls mit Hilfe von Basis Research zusammen mit GfM-Getas. Aufgrund der im Laufe des Jahres 1990 absehbaren Vereinigung von Deutschland West und Deutschland Ost und der Tatsache, dass es in der damaligen DDR keine vergleichbare Reiseforschung gab, führte der Studienkreis für Tourismus zur Ausweitung der Reiseanalyse auf dieses Gebiet eine Pilotuntersuchung zum Reiseverhalten durch. Dabei wurde geklärt, ob der Fragebogen der RA auch im Gebiet der ehemaligen DDR verwendet werden kann oder ob er modifiziert und den sprachhchen und begrifflichen Gegebenheiten angepasst werden muss.
Die Reiseanalyse ist eine für die gesamte Bundesrepublik Deutschland repräsentative sozial- und wirtschaftswissenschaftliche Grundlagenuntersuchung zum Reiseverhalten der deutschen Bundesbürger, die das 14. Lebensjahr vollendet haben. Der Studienkreis für Tourismus hat die Reiseanalyse 1970 ins Leben gerufen und ist seitdem für Konzeption, Organisation, Durchführung und Vermarktung der Reiseanalyse verantwortlich. Die Bezieher der Reiseanalyse, die das Projekt mitfinanzieren, vertreten unterschiedliche gesellschaftliche Bereiche und lnteressen. lhr gemeinsames Interesse sind die Marktforschungsdaten zur touristischen Nachfrage und zum Urlaubsreiseverhalten.
Leberpunktionen sind ein elementares Werkzeug zur Diagnosesicherung von Krebserkrankungen. Zentrale Erfolgsfaktoren sind neben dem Treffen der Zielregion die Vermeidung einer Verletzung von Risikostrukturen sowie eine geringe Eingriffsdauer. Es wurden bereits Navigationslösungen für Ultraschall vorgeschlagen, welche aber aufgrund ihrer Komplexität keine weite Verbreitung in der klinischen Praxis fanden. In dieser Masterarbeit wird auf Basis eines neuen, kompakten elektromagnetischen Feldgenerators ein Verfahren vorgestellt, welches das erste mal eine Ultraschallsonde und einen Feldgenerator zu einer einzigen mobilen Modalität verbindet. Mit dieser Modalität können gleichzeitig Patientenanatomie und Instrumente relativ zueinander erfasst und Ultraschallbilder aufgenommen werden. Um eine wart- und weiterentwickelbare Basis für weitere Eingriffe dieser Art zu schaffen, wurde eine Open-Source Umgebung für navigierte Ultraschallpunktionen in das Medical Imaging Interaction Toolkit (MITK) integriert; In diesem Rahmen entstand das Ultraschallmodul MITK-US. In einer Phantomstudie wurde das Gesamtsystem evaluiert und erreichte eine Trefferquote von 92% bei einer mittleren Genauigkeit von 3.1mm (n=24). Diese Ergebnisse bestätigten, dass es sich bei der Methode um einen vielversprechenden Ansatz handelt.
Die häufigste Todesursache in Deutschland sind Erkrankungen des Herz-Kreislaufsystems. Zwei häufig auftretende Krankheiten sind Aortenaneurysmen und Aortendissektionen. Für die Diagnose und die computerunterstützte OP-Planung wird eine semantische Annotation der präoperativ akquirierten Bilddaten benötigt. Dies wird herkömmlich durch eine manuelle Segmentierung der betroffenen Strukturen erreicht. Mit Verfahren aus der medizinischen Bildverarbeitung, darunter die deformierbaren Modelle, ist es möglich diese Segmentierung weitgehend zu automatisieren. In dieser Masterarbeit wird ein Verfahren vorgestellt, das mit Hilfe von deformierbaren Modellen eine automatische Segmentierung der Aorta und Aortenpathologien in 2D-CTA-Aufnahmen ermöglicht. Hierfür wurde ein geeignetes deformierbares Modell identifiziert, welches mit üblichen Störungen von CTA-Aufnahmen zurecht kommt. Das Verfahren ist eine Kombination aus den Dual Snakes und den GVF-Snakes und wird Dual-GVF-Snakes genannt. Das Besondere an diesem Verfahren ist, dass nicht nur das Lumen der Aorta und eines Aortenaneurysmas, sondern auch die zwei Lumen einer Aortendissektion gleichzeitig segmentiert werden können. Realisiert wird dies durch eine Unterteilung der Kontur in Segmente mit unterschiedlichen Eigenschaften. Das in dieser Arbeit vorgestellte Verfahren wurde zur Segmentierung von Objekten in synthetischen und klinischen Bilder angewendet, wobei die klinischen Bilder die Aorta, ein Aortenaneurysma und verschiedene Aortendissektionen beinhalten. Zur Evaluierung wurde das Verfahren mit den GVF-Snakes und den AB-Snakes verglichen, indem der Abstand zwischen Referenzkonturen und berechneter Konturen ermittelt wurde. Ein Vorteil gegenüber GVF-Snakes ist, dass zwei Objekte segmentiert und voneinander unterschieden werden können. Im Gegensatz zu den GVF-Snakes und den AB-Snakes müssen weniger Parameter eingestellt werden und die Membran zwischen den beiden Lumen der Aortendissektion wird erkannt. Das Verfahren ist robuster gegenüber der Initialisierung und lierfert vergleichbare Ergebnisse wie das GVF-Snakes Verfahren mit gezielter Initialisierung.
This thesis examines the new major concepts for communicating radiotherapy-related data with DICOM, introduced in Supplement 147. As the existing DICOM information objects, used to transfer radiotherapy-related information, are mostly overloaded and static, new concepts to describe this data are developed at the moment in Supplement 147. These concepts facilitate a more convenient representation of new treatment devices and treatment techniques in DICOM and solve other issues with first-generation DICOM RT objects. Hence Supplement 147 is replacing the entire working concept strategy for a complete domain, and the supplement itself is extensive in comparison to other supplements, an overview whether all these concepts work together just by examining them on a drawing board is hardly possible. Therefore, this thesis investigates the information separation into different Information Object Definitions (IODs), the new radiation prescription object and the new concept to enable abstract access to volumetric objects, which are considered to be the major conceptual changes.
In der vorliegenden Thesis wurde untersucht, ob mit dem derzeitigen Krankenhausinformationssystem sowohl die Patientenversorgung, als auch Forschung unterstützt werden kann. Des Weiteren wurde analysiert, ob sich die erhobenen Patientendaten in einer geeigneten Form befinden, um diese direkt für die Forschung verwenden zu können. Dazu wurde im Rahmen dieser Arbeit eine Prozessanalyse der im Einsatz befindlichen Systeme in der Kinderkardiologie erstellt. Zur Analyse der Prozesse wurde eine IST-Analyse verwendet, welche das Problem der Datenerfassung und -haltung fokussiert. Hierbei wurden zwei Probleme aufgedeckt. Zum einen existierten Medienbrüche zwischen den einzelnen Systemen, welche das Risiko erhöhen, bei der Datenüberführung falsche Werte zu übergeben und dadurch die Qualität der Daten zu mindern. Zum anderen waren einige Informationen innerhalb der Befunde nicht strukturiert. Folglich konnten diese Werte nicht wie beabsichtigt für wissenschaftliche Studien herangezogen werden. Die Weiterverwendung der klinischen Daten in der Forschung (Second Use) war demzufolge nicht möglich. Mittels einer Balanced Scorecard wurde ein Entwicklungsplan erstellt, wie die Vision der Kinderkardiologie erfüllt werden kann. Der strategische Weg der BSC konzentrierte sich darauf, die Patientendaten für die Weiterverwendung bereit zu stellen. Die vier Standardperspektiven der BSC waren für die Kinderkardiologie nicht geeignet und somit mussten andere Perspektiven ausgewählt werden. Es wurden verschiedene Maßnahmen aufgezeigt und miteinander in Hinsicht auf Anwendbarkeit, zeitlichen Aufwand und Verwendung verglichen, um den strategischen Weg der BSC zu erreichen.
In this thesis a software system is proposed that provides transparent access to dynamically processed data using a synthetic filesystem for the data transfer as well as interaction with the processing pipeline. Within this context the architecture for such a software solution has been designed and implemented. Using this implementation various profiling measurements have been acquired in order to evaluate the applicability in different data processing scenarios. Usability aspects, considering the interaction with the processing pipeline, have been examined as well. The implemented software is able to generate the processing result on-the-fly without modification of the original input data. Access to the output data is provided by means of a common filesystem interface without the need of implementing yet another communication protocol. Within the processing pipeline the data can be accessed and modified independently from the actual input and output encoding. Currently the data can be modified using a C/C++, GLSL or Java front end. Profiling data has shown that the overhead induced by the filesystem is negligible for most usage patterns and is only critical for realtime processing with a high data throughput e. g. video processing at or above 30 frames per second where typically no file operations are involved.
Background: An important factor in approaching the challenges of chronic diseases, requiring long-term management and high costs, is the active participation of the patient in the care process. Objectives: Facing the problem of lacking patient-tailored, comprehensive health management software, the aim of this thesis is to generate ideas for a graphical user interface (GUI) to support stroke patients in the management of their individual care process. The objectives are to prototype a GUI for a patient e-service and to evaluate its usefulness and usability with stroke patients. Methods: A scenario-based, user-centered design method was used to envision ideas for the user interface. Static prototypes were realized with the tool Pencil and for the implementation of a dynamic prototype web programming techniques were used. For the evaluation of the prototypes the methods of focus group discussion and cooperative evaluation were applied. Results: The situation of a representative stroke patient and his interaction with the e-service were described in scenarios. Graphical user interfaces of the involved system views were derived from the scenarios and illustrated with static wireframe prototypes. A welcome screen, a care process timeline overview, and a diary with data sharing functionality were designed. The diary functionality was further examined by implementing a prototypical web application. During the evaluation, feedback for further improvements was gathered, and assumptions about the user information and functionality needs could be verified. Conclusion: The developed prototypes represent a suitable graphical user interface and visualizations to support stroke patients in the management of their care process. An overview of appointments on the welcome screen, a diary to document and monitor health, a timeline overview of all time-related health information and a selected sharing functionality were found to be important features of a personal health system for stroke patients.
Im Zuge einer immer weiter voranschreitenden Digitalisierung der medizinischen Dokumentation und der Abläufe in den Kliniken, aufbauend auf die Einführung der elektronischen Patientenakte (EPA), ist Hagen Hupperts vom Geschäftsbereich IT der Berliner Charité überzeugt, dass „der Klinische Arbeitsplatz der Zukunft … mobil“ ist. Damit ist vor allem die mobile Visite gemeint, deren Infrastruktur und Möglichkeiten immer weiter optimiert werden (sollen). Grundsätzlich sind „Visiten … ein wichtiges Element im Behandlungsprozess und gehören im Krankenhaus zur täglichen Routine. Ärzte und Pflegekräfte gehen gemeinsam von Bett zu Bett, um den gesundheitlichen Zustand und die gesundheitliche Entwicklung der einzelnen Patienten zu bewerten und die weitere Behandlung zu planen.“ [1] In einem Pilotprojekt der Berliner Charité wurde die Nutzbarkeit von Tablet-PCs in Zusammenarbeit mit der Siemens AG und SAP untersucht. Die Fachabteilung der Neurologie arbeitet momentan mit dem Krankenhausinformationssystem i.s.h. med und dem digitalen Archiv Soarian Health Archive, kurz SHA. Nachdem in einer ersten Phase 2010 die Neurologische Klinik mit WLAN ausgestattet und in Eigenregie eine mobile Visite mit Laptops aufgebaut wurde, sollte nun der nächste Schritt mit Tablets gegangen werden. Über die App „SAP Electronic Medical Record (EMR)“ kann sowohl auf das KIS und das SHA zugegriffen werden, als auch auf das Bildarchivierungssystem.
Viele schwerstkranke Patienten hegen den Wunsch die letzte Zeit ihres Lebens im häuslichen Umfeld, statt im Krankenhaus zu verbringen. Eine wichtige Voraussetzung dafür ist eine gute Kommunikation zwischen allen Beteiligten des Versorgungsprozesses, damit ambulante und stationäre Versorgung gut aufeinander abgestimmt werden können. Derzeit gibt es nur wenige strukturierte Untersuchungen, welche Informationsbedürfnisse die im Bereich der palliativen Versorgung beteiligten Akteure besitzen und ob und in wieweit diese mit mobilen Anwendungen unterstützt werden können. Die vorliegende Arbeit untersucht, welche Akteure hauptsächlich am Prozess der palliativen Versorgung sowohl im ambulanten als auch im stationären Umfeld beteiligt sind und welche Informationsbedürfnisse diese haben. Weiterhin werden bisher verwendete Werkzeuge, Apps und Anwendungssysteme darauf untersucht, inwiefern sie diesen Informationsbedarf erfüllen. Die Untersuchungen basieren auf einer systematischen Literaturrecherche sowie Hospitationen in drei verschiedenen palliativen Einrichtungen: einer spezialisierten ambulanten Palliativversorgungs Einheit in Buchen im Odenwald, einer Palliativ-Station in Heidelberg sowie einer Palliativ-Einrichtung in Santiago de Chile. Es hat sich herausgestellt, dass die stationären Einrichtungen bereits sehr gute Strukturen für Informationsaustausch und -bereitstellung etabliert haben, diese jedoch im ambulanten Bereich weniger wirksam sind. Gründe hierfür liegen in der größeren örtlichen Distanz und den damit verbundenen längeren Kommunikationswegen im ambulanten Bereich. Ebenso ist bedingt durch den zusätzlichen Fahrtaufwand bei gleicher Patientenzahl und Visitendauer nur eine geringere Anzahl an Visiten möglich. Bisher sind hier aber vor allem die informationsverarbeitenden Prozesse aufgrund der geringen Größe der Einrichtungen und der hohen Individualität der Behandlung wenig automatisiert und automatisierbar. Die für die Palliativversorgung existierenden Softwareprodukte sind hierfür zu umfangreich oder nicht ausreichend adaptierbar. Es hat sich gezeigt, dass der Bedarf an mobiler, technischer Unterstützung vor allem in der ambulanten Palliativversorgung in den Bereichen Dokumentation und Abrechnung, aber auch bei der Bildung und Weiterbildung von Fachpersonal, Patienten und Angehörigen derzeit nicht gedeckt werden kann.
Der Zuwachs medizinischen Wissens ist gewaltig, man spricht von einer Verdopplung in unter 10 Jahren[01], dies macht die Analyse historischer Daten zwingend erforderlich. Um dieses Wissen zu beherrschen werden Datenbanken benötigt, in denen man Krankheits- und Therapieverläufe ablegen kann, um diese dann anschließend unter unterschiedlichsten Anforderungen zu analysieren. Im Falle der Krebstherapie gibt es hierfür sogenannte Krebsregister. Hier werden anonymisierte Daten der Patienten gespeichert, wie zum Beispiel der Verlauf der Krankheit und die Therapie. Ziel ist es, dass alle Krebsfälle in irgendeinem Krebsregister gehalten werden. Dies soll zu einer Verbesserung der medizinischen Leistung am Patienten, sowie der Sicherstellung, dass Patienten überall mit neuesten Therapietechniken und Leistungen versorgt werden, führen. Leider werden die Informationen in den Krebsregistern viel zu wenig genutzt, da viele Ärzte und Wissenschaftler oft nicht Ausreichend vertiefte Kenntnisse in Informationstechnologie und/oder Statistik haben. Diese Tatsache macht es für sie schwierig die riesigen Datenmengen, die vorhanden sind, richtig zu analysieren. Um dieses Problem zu beheben kann man nun in regelmäßigen Abständen einen Statistiker beauftragen, der solche Analysen durchführt. Oft haben Ärzte aber statistisch wenig anspruchsvolle Anfragen oder es fällt ihnen erst auf, nachdem der Statistiker wieder gegangen ist. Solange es also eine solche Schwierigkeit darstellt, die Daten richtig zu analysieren, sind die Krebsregister ein Datenfriedhof, deren riesiges Potential nicht ausgenutzt wird. Dieser Zustand ist sowohl für Patienten, als auch für die Ärzte, nicht zufriedenstellend und bedarf dringend einer Änderung. Die Ziele sind: 1. Eine Analyse einer Software zur statistischen Auswertung von Daten aus einem Krebsregister (OCDM-Software), sowohl im Bezug auf ihre Software-Architektur, als auch auf ihre Funktion. 2. Das Erstellen einer Anforderungsanalyse, welche die Erweiterungen beschreibt, die an der oben erwähnten OCDM-Software vorzunehmen sind. 3. Die Umsetzung dieser Anforderungsanalyse in die bestehende Anwendung. 4. Ein abschließender Systemtest der Anwendung, um einen reibungslosen Ablauf im Klinikalltag zu gewährleisten. Ziel der Erweiterung ist es, den Ärzten die Analyse der gesammelten Patientendaten zum Pankreaskarzinom zu vereinfachen und somit die medizinische Betreuung in der Klinik zu verbessern.
Quantitative assessment of Positron Emission Tomography (PET) imaging can be used for diagnosis and staging of tumors and monitoring of response in cancer treatment. In clinical practice, PET analysis is based on normalized indices such as those based on the Standardized Uptake Value (SUV). Although largely evaluated, these indices are considered quite unstable mainly because of the simplicity of their experimental protocol. Development and validation of more sophisticated methods for the purposes of clinical research require a common open platform that can be used both for prototyping and sharing of the analysis methods, and for their evaluation by clinical users. This work was motivated by the lack of such platform for longitudinal quantitative PET analysis. By following a prototype driven software development approach, an open source tool for quantitative analysis of tumor changes based on multi-study PET image data has been implemented. As a platform for this work, 3D Slicer 4, a free open source software application for medical image computing has been chosen. For the analysis and quantification of PET data, the implemented software tool guides the user through a series of workflow steps. In addition to the implementation of a guided workflow, the software was made extensible by integration of interfaces for the enhancement of segmentation and PET quantification algorithms. By offering extensibility, the PET analysis software tool was transformed into a platform suitable for prototyping and development of PET-specific segmentation and quantification methods. The accuracy, efficiency and usability of the platform were evaluated in reproducibility and usability studies. The results achieved in these studies demonstrate that the implemented longitudinal PET analysis software tool fulfills all requirements for the basic quantification of tumors in PET imaging and at the same time provides an efficient and easy to use workflow. Furthermore, it can function as a platform for prototyping of PET-specific segmentation and quantification methods, which in the future can be incorporated in the workflow.
Clinical diagnosis ideally relies on quantitative measures of disease. For a number of diseases, diagnostic guidelines require or at least recommend neuroimaging exams to support the clinical findings. As such, there is also an increasing interest to derive quantitative results from magnetic resonance imaging (MRI) examinations, i.e. images providing quantitative T1, T2, T2* tissue parameters. Quantitative MRI protocols, however, often require prohibitive long acquisition times (> 10 minutes), nor standards have been established to regulate and control MRI-based quantification. This work aims at exploring the technical feasibility to accelerate existing MRI acquisition schemes to enable a -3 minutes clinical imaging protocol of quantitative tissue parameters such as T2 and T2* and at identifying technical factors that are key elements to obtain accurate results. In the first part of this thesis, the signal model of an existing quantitative T2-mapping algorithm is expanded to explore the methodology for a broader use including the application to T2* and its use in the presence of imperfect imaging conditions and system related limitations of the acquisition process. The second part of this thesis is dedicated to optimize the iterative mapping algorithm for a robust clinical application including the integration on a clinical MR platform. This translation of technology is a major step to enable and validate such new methodology in a realistic clinical environment. The robustness and accuracy of the developed and implemented model is investigated by comparing with the "gold standard" information from fully sampled phantom and in-vivo MRI data.
Ultraschallelastographie (USE) ist ein bildgebendes Verfahren, mit dem die Ausbreitung mechanischer Scherwellen, die durch externe Schwingungen in den menschlichen Körper eingekoppelt werden, mittels Ultraschall gemessen und dargestellt werden kann. Die Ausbreitungsgeschwindigkeit der Scherwellen steht dabei in einem direkten qualitativen Zusammenhang zu den elastischen Eigenschaften des Gewebes. Als apparative Palpation wird die transiente USE daher in der medizinischen Diagnostik bereits eingesetzt, denn viele Krankheiten, wie z.B. die Leberfibrose, gehen mit einer Veränderung der elastischen Kenngrößen der betroffenen Gewebe einher. Das im Rahmen dieser Arbeit weiter entwickelte USE-Diagnosesystem unterscheidet sich von der transienten USE dadurch, dass die angewandten Scherwellen zeitharmonisch sind und aus mehreren überlagerten Frequenzkomponenten bestehen. Um die Auswertung zu objektivieren und die Performance zu steigern wurde die bisherige interaktive retrospektive Auswertungsmethode durch einen vollautomatischen Algorithmus ersetzt. Dazu war es notwendig, manuelle Aussortierung schlechter Messungen ebenfalls zu automatisieren. Auf dieser Basis wurde zusätzlich ein Echtzeitauswertungsalgorithmus entwickelt, um erstmals unmittelbar während einer Untersuchung Resultate der Leberelastizitätsmessungen auszugeben. Die neuen Algorithmen wurden mit Softwarephantom, Rinderleberproben und gegenüber der Magnetresonanz-Elastographie (MRE) als Referenzmethode validiert. Es hat sich gezeigt, dass die vollautomatisch ermittelten Elastizitätsergebnisse mit denen der MRE gut übereinstimmen und die Performance gegenüber der bisherigen Auswertung deutlich gesteigert wurde. Nachfolgend wurden diese Algorithmen erfolgreich in einer Pilotstudie an gesunden Freiwilligen eingesetzt.
In dem transregionalen Sonderforschungsbereich SFB/TRR 77 untersuchen Heidelberger und Hannoveraner Wissenschaftler Entstehungsmechanismen und neue Therapieansätze des Leberzellkarzinoms, einer der tödlichsten Tumorerkrankungen unserer Zeit. Die IT-Plattform Pelican, die ein Teil des Gebiets Z2 ist, soll dem Forschungsverbund die softwaregestütze Analyse und die nachhaltige Bereitstellung von Leberkrebs-Forschungsdaten ermöglichen [Ganzinger et al. 2011]. Ein Teil von Pelican soll eine gemeinsame Informationsplattform anbieten, die die biomedizinischen Daten der verschiedenen medizinischen und biologischen Projekte integriert und den beteiligten Projektgruppen biostatistische Programme und projektübergreifende Auswertungen zur Verfügung stellt. Die Integration von Gewebe-, Molekül-, Genetik- und Klinikdaten in eine gemeinsame Plattform ermöglicht Datenerhaltung und umfassende Analysen. Die integrierte Analyse begegnet durch die Verknüpfung verschiedener Forschungsprojekte des SFB/TRR 77 den Herausforderungen der Multidisziplinarität klinischer Forschung und Genforschung. Mit dem Next-Generation DNA Sequencing ist durch Kostenreduzierung und immenser Zeiteinsparung die DNA Sequenzierung einem breiten Spektrum an Wissenschaftlern zugänglich geworden und hat Kompetenzen zur Sequenzierung von zentralen Stellen in die Hände vieler individueller Forscher gelegt [Shendure and Ji 2008, Ding et al. 2010, Wetterstrand 2011]. Die Kombination dieser hochentwickelten Technologien aus der Gentechnik und rechnerbasierten Werkzeugen erlaubt die Beantwortung biologischer Fragestellungen in erheblich umfangreicherer Art und Weise als dies bisher möglich gewesen ist [Shaer et al. 2013]. Die rasche Entwicklung des Next-Generation Sequencing beinhaltet auch das Konstruieren neuer Ansätze zur bioinformatischen Datenanalyse, ohne die kein Informationsgewinn, wie beispielsweise die Entdeckung von Genvariationen, möglich wäre. Das dabei neu gewonnene Wissen kann zu erheblichen Fortschritten in der Krebsforschung führen, beispielsweise wenn es um das Identifizieren der Genomveränderungen einer Tumorzelle geht [Ding et al. 2010]. Anstatt Sequenzierungen in kleinem Maßstab durchzuführen, können Forscher inzwischen Sequenzierungen in weit umfangreicherem Ausmaß realisieren, in denen Informationen von multiplen Genen und Genomen vermessen, dokumentiert und in Datenbanken gespeichert werden können. Die DNA Sequenzen werden nach der Sequenzierung in einer Kette aus vielen Prozessschritten – eine bioinformatische Pipeline – analysiert und verarbeitet. Zu den Einzelschritte, wie zum Beispiel Alignment oder die Entfernung von Duplikaten, gibt es oftmals viele Alternativen.
In dieser Arbeit wurde am Deutschen Krebsforschungszentrum (DKFZ) in Heidelberg eine Anwendung für das Trainieren von Klassifikatoren, das Klassifizieren und für die Durchführung eines Leave-One-Out-Tests entwickelt. Auf der Grundlage von Methoden aus einem bereits existierenden Programm, das zum automatischen Erkennen von osteolytischen und osteoblastischen Läsionen bei Patienten mit einem multiplen Myelom genutzt wird, wurde eine Benutzeroberfläche implementiert, die das aufwendige und manuelle Anpassen an neue Fragestellungen erleichtern soll. Zusätzlich soll eine Visualisierung von Merkmalen dem Benutzer beim Trainieren eines Klassifikators die Auswahl verdeutlichen und vereinfachen. Damit die Anwendung auch für andere Klassifikationsaufgaben genutzt werden kann, wurde eine Erweiterungsmöglichkeit der grafischen Benutzeroberfläche auf Basis von XML integriert.
Aside from hardware, a major component of a Brain Computer Interface is the software that provides the tools for translating raw acquired brain signals into commands to control an application or a device. There’s a range of software, some proprietary, like MATLAB and some free and open source (FOSS), accessible under the GNU General Public License (GNU GPL). OpenViBE is one such freely accessible software. This thesis carries out a functionality and usability test of the platform, looking at its portability, architecture and communication protocols. To investigate the feasibility of reproducing the P300 xDAWN speller BCI presented by OpenViBE, users focused on a character on a 6x6 alphanumeric grid which contained a sequence of random flashes of the rows and columns. Visual stimulus is presented to a user every time the character they are focusing on is highlighted in a row or column. A TMSi analog-to-digital converter was used together with a 32-channel active electrode cap (actiCAP) to record user’s Electroencephalogram (EEG) which was then used in an offline session to train the spatial filter algorithm, and the classifier to identify the P300 evoked potentials, elicited as a user’s reaction to an external stimulus. In an online session, the users tried to spell with the application using the power of their brain signal. Aspects of evoked potentials (EP), both auditory (AEP) and visual (VEP) are further investigated as a validation of results of the P300 speller.
Ambulant studies are dependent on the behavior and compliance of subjects in their home environment. Especially during interventions on the musculoskeletal system, monitoring physical activity is essential, even for research on nutritional, metabolic, or neuromuscular issues. To support an ambulant study at the German Aerospace Center (DLR), a pattern recognition system for human activity was developed. Everyday activi-ties of static (standing, sitting, lying) and dynamic nature (walking, ascending stairs, descending stairs, jogging) were under consideration. Two tri-axial accelerometers were attached to the hip and parallel to the tibia. Pattern characterizing features from the time domain (mean, standard deviation, absolute maximum) and the frequency domain (main frequencies, spectral entropy, autoregressive coefficients, signal magni-tude area) were extracted. Artificial neural networks (ANN) with a feedforward topology were trained with backpropagation as supervised learning algorithm. An evaluation of the resulting classifier was conducted with 14 subjects completing an activity protocol and a free chosen course of activities. An individual ANN was trained for each subject. Accuracies of 87,99 % and 71,23 % were approached in classifying the activity protocol and the free run, respectively. Reliabilities of 96,49 % and 76,77 % were measured. These performance parameters represent a working ambulant physical activity monitor-ing system.
Ziel dieser Arbeit soll es sein, ein Verfahren zu entwickeln, das bildbasiert mit Hilfe eines Interpolationsmodells die Bewegung von Lungentumoren modellierbar macht, unter der Berücksichtigung, dass die Erkennbarkeit der Tumore während der Therapie nicht immer gewährleistet ist. Als erster Schritt soll daher ein geeignetes internes Surrogat für die Tumorbewegung ermittelt werden. Dessen Bewegungen während der Atmung des Patienten sollen mit Hilfe von kontinuierlich aufgenommenen zweidimensionalen Fluoroskopieaufnahmen quantifiziert werden. Anschließend sollen die gewonnenen Informationen als Eingabewerte für ein Interpolationsmodell genutzt werden, um diese Bewegung auf den Tumor im Inneren der Lunge zu propagieren. Dabei gilt es, ein geeignetes Modell zu entwickeln, das sich für die Modellierung von Tumoren auf Basis der Surrogatinformationen eignet und in der Lage ist, die Tumorbewegung möglichst wahrheitsgetreu zu modellieren. Eine Evaluation der Ergebnisse soll sowohl Aufschluss über eine geeignete Parametrisierung des Modells geben, als auch die Anwendbarkeit eines solchen Modells hinterfragen. Um eine Austauschbarkeit der Modelle gewährleisten zu können, soll eine Schnittstelle entwickelt werden, über die verschiedene Modelle angesprochen werden können. Weitergehend soll ein Ansatz entwickelt werden, der es ermöglicht, die relevanten Positionen des Surrogats ohne manuelle Interaktion während der Therapie zu bestimmen.
Die Versorgung und Unterstützung von Palliativpatienten stellt häufig hohe Anforderungen an deren Angehörige. Es ist wenig bekannt über den Informationsbedarf dieser Angehörigen und deshalb können sie nicht immer optimal nach ihren Bedürfnissen unterstützt und informiert werden. Ferner ist nicht genügend erforscht, wie Angehörige motiviert werden können, um über bekannte Anforderungen hinaus, eigene Vorstellungen und Ideen bezüglich des Informationsbedarfs zu entwickeln. In der vorliegenden Arbeit wird zunächst eine Literaturrecherche zur Informationsbedarfsanalyse durchgeführt, um einen Überblick über Methoden zur Erhebung eines Informationsbedarfs zu bekommen. Als Vorgehensweise für die Literaturrecherche wurden das Schneeballsystem und die systematische Suche in Schlagwortkatalogen identifiziert. Um eine geeignete Methode zur Ermittlung des Informationsbedarfs von Angehörigen von Palliativpatienten auswählen oder entwickeln zu können, wurden Interviews geführt. Neben einem Interview mit einer Familie erfolgten weitere Interviews im Rahmen von Hospitationen an drei verschiedenen medizinischen Einrichtungen: eine Palliativstation in Heidelberg, ein Hospiz in Wiesloch und eine spezialisierte ambulante Palliativversorgungseinheit in Buchen. Diese flossen in einen Interviewleitfaden ein, der als Methodik zur Erhebung des Informationsbedarfs speziell von Angehörigen von Palliativpatienten verwendet werden kann. Es hat sich gezeigt, dass die Befragung als ein qualitatives Interview durchgeführt werden sollte. Der Interviewleitfaden besteht aus 5 Fragenblöcken. Durch offene Fragestellungen werden die Subjektivität und ein tiefer Informationsgehalt erlangt. Im letzten Teil der Fragen werden papierbasierte Prototypen von einigen Ideen für mobile Systeme vorgestellt und besprochen. Dieser Interviewleitfaden wurde in einer Vorstudie erprobt. Dafür wurden 3 pflegende Angehörige von Palliativpatienten befragt. Durch das Umsetzen der Erkenntnisse aus den Interviews konnte die Methodik angepasst und Schwachstellen verbessert werden. Nach Abschluss dieser Testphase wurde ein allgemeiner Studienplan für eine Studie entworfen. Dieser beschreibt die Durchführung einer qualitativen Studie. Dabei soll die Wirklichkeit anhand der subjektiven Sicht der befragten Angehörigen abgebildet werden.
The Greifswald University Hospital in Germany conducts a research project called "Greifswald Approach to Individualized Medicine (GANI_MED)", which aims at improving patient care through personalized medicine. As a result of this project, there are multiple regional patient cohorts set up for different common diseases. The collected data of these cohorts will act as a resource for epidemiological research. Researchers are going to get the possibility to use this data for their study, by utilizing a variety of different descriptive metadata attributes. The actual medical datasets of the patients are integrated from multiple clinical information systems and medical devices. Yet, at this point in the process of defining a research query, researchers do not have proper tools to query for existing patient data. There are no tools available which offer a metadata catalogue that is linked to observational data, which would allow convenient research. Instead, researchers have to issue an application for selected variables that fit the conditions of their study, and wait for the results. That leaves the researchers not knowing in advance, whether there are enough (or any) patients fitting the specified inclusion and exclusion criteria. The "Informatics for Integrating Biology and the Bedside (i2b2)" framework has been assessed and implemented as a prototypical evaluation instance for solving this issue. i2b2 will be set up at the Institute for Community Medicine (ICM) at Greifswald, in order to act as a preliminary query tool for researchers. As a result, the development of a research data import routine and customizations of the i2b2 webclient were successfully performed. An important part of the solution is, that the metadata import can adapt to changes in the metadata. New metadata items can be added without changing the import program. The results of this work are discussed and a further outlook is described in this thesis.
The aim of this master’s thesis is the design and implementation of a dedicated software system, for planning and implementation of occupational therapy intervention and research studies, in a driving simulator environment. In the first part, the concept based on user requirements is presented. It consists of architectural patterns and guidelines with the main focus on utility and application security. The result of this part is the design of a web application which supports integration in a clinical as well as a research environment. The second part presents the reference implementation of the previously introduced concept. It was developed under a case study in a research facility which hosts a driving simulator. A close cooperation and the influence the researcher’s experience led into a product which provides advanced usability for the target users. In conclusion, the thesis validated the concept indirectly under a testing phase of the reference implementation. It provides the base for a follow-up project to refine the software product and extend the concept to different fields of application.
1.1 Gegenstand und Motivation Jeder von uns, der schon mal im Krankenhaus war und ein paar Tage dort verbringen musste, weiß wie einseitig und monoton der Alltag in solchen sterilen Räumen aus-sieht. Und wie froh man ist den ersten Schritt aus dem Krankenhaus zu machen, sich wieder mit Freunden zu treffen und den Alltag zu genießen. Nun gibt es auch schwer erkrankte Menschen, die dem Krankenhaus Alltag nicht nach ein paar Tagen entgehen können. Sie sind oft monatelang, ja sogar jahrelang, ans Kran-kenhaus gebunden. Besonders für Kinder und Jugendliche ist diese Situation ein großes Problem. Oft wird man von einem auf den nächsten Augenblick aus dem Alltag und dem sozialen Umfeld herausgerissen. Selbst, der bis dato doch nervende Schulalltag, fängt einem an zu feh-len. An das Beisammen sein mit Freunden im Klassenzimmer, oder auf dem Schulhof, ist auf einmal nicht zu denken. Stattdessen ist man an ein Krankenhausbett gefesselt und ist von medizinischen Geräten umgeben. Die Stiftung „Große Hilfe für kleine Helden“ will durch das Projekt „virtuelles Klas-senzimmer“ den erkrankten Schülern den virtuellen Besuch des Schulunterrichts ermög-lichen und somit auch den Kontakt mit Mitschülern und die sozialen Bindungen in ers-ter Linie zu pflegen und zu erhalten. Als Fundament für diese Arbeit dient die Abschlussarbeit „Konzeption und Implemen-tierung eines virtuellen Klassenzimmers für schwer erkrankte Kinder und Jugendliche mit Hilfe eines Telepräsenzrobotors“ von Frau Konstantina Georgiadou [3], welche auch den aktuellen Stand des Projekts beschreibt. Eine Überarbeitung des Projekts ist notwendig, da die Multimediale Hardware (Sound / Kamera / Mikrofone) immer noch kabelgebunden ist und somit die nötige Bewegungsfreiheit für den Telepräsenzroboter im Klassenzimmer oder dem Schulhof fehlt. 1.2 Problemstellung und Zielsetzung Zwar hat das Projekt beachtliche Schritte nach vorn gemacht, dennoch gibt es noch zahlreiche Probleme die zu bewältigen sind. Im Rahmen der Abschlussarbeit von Frau Georgiadou wurde ein Roboter Kit namens TurtleBot2 angeschafft. Das Kit beinhaltet eine Kobuki Basis, sowie eine Microsoft Kinect und ein ROS- kompatibles Netbook. Die vorhandene Hardware erweist sich als problematisch, da sie einige Hürden und Hindernisse darstellt die in dieser Abschlussarbeit eliminiert werden sollen. Das Projekt hat also nach diesem Stand eine große Schwäche. Die externen Geräte sind alle kabelgebunden. So benötigen die Station des mobilen Mikrofons, sowie die Audio-box eine externe Stromversorgung. Auch die Kamera, welche über das Netzwerk mittels LAN-Kabel fungiert, schränkt die Mobilität des TurtleBot2 erheblich ein. Da diese von Router und Steckdose abhängt. Ein ähnliches Problem liegt auch bei den Lautsprechern vor, diese sind ebenfalls von einer externen Steckdose abhängig. Das Ziel dieser Arbeit ist es, in erster Linie die eingeschränkte Mobilität des Turtle-Bot2, welche durch die kabelgebunden Geräte verursacht wird, zu beseitigen. Es sollen neue Hardware und Verbesserungsvorschläge für die medialen Probleme gefunden wer-den, wobei die Qualität von Ton und Bild nicht leiden dürfen. Ebenfalls soll eine An-richtung bzw. Verbesserungsvorschlag für den Schüler gefunden werden, welches ihm das Halten des Laptops erspart. Insgesamt soll sich der TurtleBot2 frei im Raum bewe-gen können und dem Schüler im Krankenhaus somit eine verbesserte Integration in die Normalität bzw. den Alltag ermöglichen.
Behandlungen von Tumoren zielen in erster Linie auf eine Verlängerung der Überlebenszeit des Patienten ab. Es ist für Ärzte eine Hilfe, wenn zu Beginn der Behandlung die voraussichtliche Überlebenszeit abgeschätzt werden kann. Dies geschieht aktuell oftmals mit Hilfe einer manuellen Einteilung in Risikoklassen. Für diese sind aus Erfahrungswerten typische Überlebenszeiten bekannt. In Zeiten der zunehmenden Digitalisierung ist es nur logisch den Versuch zu starten, die Klassifizierung automatisch vorzunehmen. In dieser explorativen Grundlagenarbeit werden zwei Data Mining–Verfahren — namentlich „naiver Bayes Klassifikator“ und „k–means Clustering“ — auf ihre Fähigkeit bezüglich der Überlebenszeitprognose hin untersucht. Dazu werden verschiedene Feature Selection Verfahren (Information Gain, Expertenselektion, Forward Selection, Backward Elimination und No Selection) getestet. Nach dem k–means Clustering können Kaplan–Meier–Kurven der einzelnen Cluster gezeichnet werden. Aus diesen kann eine Prognose der Überlebenszeit abgelesen werden. Der naive Bayes Klassifikator errechnet nach einer (äquifrequenten oder äquidistanten) Diskretisierung der Überlebenszeit für jeden Patienten individuell eine Überlebens–Wahrscheinlichkeits Verteilung. Das Training der Data Mining–Verfahren erfolgte auf der Basis von Datensätzen kolorektaler Tumorpatienten des Tumorregisters des Tumorzentrums Heilbronn–Franken.
Augmented Reality Anwendungen können in der Medizin Eingriffe erleichtern, beispielsweise durch intraoperative Projektion von Zugangswegen oder Tumo-ren und Risikostrukturen auf den Patienten. Gründe, weshalb die Verwendung von Augmented Reality noch keinen Einzug in den Operationssaal gefunden hat, sind unter anderem eine erschwerte Tiefenwahrnehmung der virtuellen Objekte in der echten Szene und fehlende Möglichkeiten, um die Fülle der zusätzlich visualisierten Objekte zu kontrollieren. Diesen Hindernissen entgegenzutreten ist das Ziel dieser Arbeit. Weiterhin gehört eine echtzeitfähige Implementierung zu den Anforderungen dieser Arbeit, um die Visualisierung im Rahmen eines Projektes zu nutzen, welches Augmented Reality auf mobilen Geräten direkt am Patienten zeigt. Um diese Ziele zu erreichen, wurde zunächst eine Texturprojektion kombiniert mit einem selbstentwickelten Grafikkartenprogramm realisiert, um dem Betrachter die Orientierung innerhalb der Augmented Reality Szene zu erleichtern und die Berechnung der perspektivischen Projektion der Textur zugleich effizient zu halten. Um die Tiefenwahrnehmung in der Szene zu verbessern, wurde ein weiteres Grafikkartenprogramm entwickelt, welches in eine gegebene Oberfläche eine Öffnung zeichnet, durch welche der Betrachter in das Innere des Patienten blicken kann. Weiterhin wurde ein Konzept umgesetzt, mit dessen Hilfe die Anzahl an abgebildeten Objekten in der Augmented Reality Szene gesteuert werden kann. Dieses Konzept dient außerdem der Untergliederung von Objekten in verschiedene Familien, für die dann unterschiedliche Darstellungen umgesetzt werden können. Ergebnis ist sowohl eine sichtbar verbesserte Tiefenwahrnehmung als auch ein Konzept zur Kontrolle der Fülle an abgebildeten Informationen in einer echtzeitfähigen Implementierung.
Im Rahmen dieser Bachelorarbeit wurde ein Triangulations-Algorithmus basierend auf dem Marching Cube Algorithmus konzeptioniert und implementiert. Der Algorithmus soll in der Software für die Strahlentherapieplanung VIRTUOS verwendet werden und die speziellen Anforderungen dieser Software erfüllen. Diese sind im Kapitel 1.3 beschrieben. Der Algorithmus soll eine Triangulation von Konturen mit Subpixel-Auflösung mit dem Marching Cube Verfahren ermöglichen. Diese Triangulation soll kanten- bzw. punkterhaltend sein. Somit darf sich die Position existierender Konturpunkte nicht ändern. Die Anzahl der erzeugten Dreiecke soll möglichst gering sein. Des Weiteren soll der Algorithmus in seiner Performanz optimiert sein. Die Implementierung des in dieser Arbeit beschriebenen Algorithmus ist wie VIRTUOS in C/C++ geschrieben und soll die bisherige Delaunay Triangulation ablösen.
Die Arbeit gliedert sich in sechs Kapitel. Kapitel 1 stellt die Problematik der Arbeit dar. Nach einer Darlegung der Gefälligkeit des Computer-Trainings werden die vorliegende Software “Gesichter“ und ihre Schwächen sowie mögliche Verbesserungen angesichts des aktuellen Stands der Technik vorgestellt. Die Vorgehensweise wird in der Zielsetzung beschrieben. Im Kapitel 2 werden wichtige medizinische und technische Konzepte vorgestellt, die für die Realisierung der neuen Applikation erforderlich sind. Außerdem wird das menschliche Gehirn vorgestellt. Es wird anschließend gezeigt, wie eine erworbene Hirnschädigung zu Stande kommt und welche Strukturen im Gehirn dabei betroffen sind. Kapitel 3 beschäftigt sich hauptsächlich mit der Untersuchung der vorliegenden Software sowie mit der konkreten Evaluierung der Vorgehensweise und der Auswahl der geeigneten Technologie zur Realisierung der neuen Anwendung. Kapitel 4 beschreibt, wie die Implementierung realisiert wurde. Dabei wird auf die Implementierung einzelner definierten Anforderungen eingegangen. In Kapitel 5 werden Testfälle, die mit dem neuen Programm durchgeführt werden können, vorgestellt. Das letzte Kapitel 6 fasst die Arbeit zusammen. Hierbei werden alle erreichten Ergebnisse entsprechend der Zielsetzung vorgestellt. Abschließend werden im Ausblick Erweiterungsmöglichkeiten für das neue Programm vorgeschlagen.
1.1 Gegenstand und Motivation Die bereits in den 1970er-Jahren [1] entwickelte Technologie NAVSTAR GPS (GPS) arbeitet elektronisch und eignet sich 1 besonders zur Navigation in großen und freiliegenden Gebieten, da sie die Standorte der Endgeräte satellitengestützt errechnet. In Gebäuden stößt diese Technik aufgrund der Signaldämpfung durch Hindernisse, wie Decken, schnell an ihre Grenzen. GPS-Signale sind im Inneren eines Gebäudes um 20-30 dB (Faktor 100-1000) schwächer, als im Außenraum [2]. Auch die Differenzierung verschiedener Etagen ist mittels der GPS-Technologie nicht möglich. Die herkömmliche Navigation in Gebäuden wird zurzeit häufig mittels Pfeilen und Karten realisiert. Aufgrund immer größer werdender Gebäude und dem Wunsch, ortsbezogene Informationen zu übermitteln, steigt die Nachfrage einer elektronischen Indoor-Navigation stetig. Eine mögliche Lösung zur Indoor-Navigation bietet iBeacon. Dieser proprietäre Standard wurde 2013 von der Apple Inc.2 eingeführt und basiert auf der Bluetooth Low Energy-Technologie (BLE), welche durch einen geringen Energieverbrauch gekennzeichnet ist. Ursprünglich dient iBeacon dazu, einem BLE fähigem Endgerät mitzuteilen, dass es sich in der Reichweite eines iBeacons befindet. Das Endgerät kann so ortsspezifische Informationen an den Benutzer übermitteln, da das Endgerät den Standort des iBeacons kennt. So können z.B. Informationen zu einem Patienten eines Krankenhauses an den Tabletcomputer (Tablet) des medizinischen Personals übermittelt werden. Dies geschieht durch eine Abstandsmessung zwischen dem iBeacon und dem Endgerät. Unter der Hinzunahme zwei weiterer iBeacons kann theoretisch eine Positionsbestimmung des Mobiltelefons und damit eine Navigation durchgeführt werden.
Im Rahmen dieser Arbeit wird eine eigens entwickelte Plagiatserkennungsoftware für Java-Programme namens Plagiarism Finder vorgestellt. Der Plagiatserkennungsprozess dieser Software basiert auf dem Java-Bytecode. Es werden die Grundlagen der Plagiatserkennung und des Java-Bytecodes umfassend erläutert. Des Weiteren wird die Funktionsweise, der Entwurf, die Benutzeroberfläche und die Evaluierung von Plagiarism Finder dargestellt. Hierbei wird auf folgende von der Wissenschaft bisher nicht betrachteten Aspekte eingegangen:
-Die Art der Normalisierung des Bytecodes vor dem Vergleich.
-Wie gelöst werden kann, dass das Verschieben von Methoden keinen Einfluss auf die ermittelten Ergebnisse hat.
-Wie bei der Plagiatserkennung Vorlagen gefiltert werden können. Die Arbeit kommt zu dem Resultat, dass sich die Ergebnisse von Plagiarism Finder stabil gegenüber Änderungen des Wortlautes, des Textsatzes und dem Verschieben von Methoden verhalten. Änderungen an Kontrollstrukturen (z.B. For- statt While- Schleifen), an Zugriffsmodifikatoren und an der Anzahl von Methoden führen zu einem instabilen Verhalten der Ergebnisse. Alles in allem kann Plagiarism Finder mit einer etablierten Plagiatserkennugssoftware
wie JPlag [MP00] mithalten. Auf Grundlage der untersuchten Daten ist Plagiarism Finder im Erkennen von Plagiaten leicht schlechter als JPlag. Plagiarism Finder ist hingegen deutlich besser im Erkennen von nicht plagiierter Software. Bei wortwörtlichen Kopien sowie bei Änderungen an der Textgestaltung und an Bezeichnungen sind die Ergebnisse der Programme nahezu identisch.
Diese Bachelorarbeit trägt den Titel „E-Learning in der Medizin im französischen Sprachraum insbesondere mit virtuellen Patienten“. Sie skizziert, was sich hinter E-Learning im medizinischen Bereich und virtuellen Patienten verbirgt und betrachtet die vorherrschende Situation in diesem Bereich in französischsprachigen Ländern/Regionen näher. Durch die Entwicklung von Informations-und Kommunikationstechnologie(IKT)hat sich der Austausch von Daten unabhängig von Raum und Ort stark weiterentwickelt. Dank dieser Evolution hat sich das Prinzip vom Lernen in nahezu allen Bereichen durch Suchmaschinen, Wissensdatenbanken oder Computersimulationen im Laufe der Zeit und speziell in den letzten 20 Jahren extrem stark verändert und spielt täglich eine große Rolle im Lernprozess von Menschen und dem Umgang mit vorhandenem Wissen. Im Allgemeinen hängt die Art des Lernens mit Hilfe von digitalen oder elektronischen Medien häufig mit der wirtschaftlichen Situation und internen Kultur eines Landes zusammen. Die positive Entwicklung des Landes und des sozialen Lebensstands der Menschen begünstigt demnach Fähigkeit neue Technologien einzusetzen und sie effektiv zu nutzen. Die Idee für die bestehende Arbeit entstand bei der Feststellung in der Fakultät für Informatik an der Hochschule Heilbronn, dass es noch keine Informationen über E-Learning und Einsatz von virtuellen Patienten in den französischsprachigen Ländern gibt. Dem Lernen mit Hilfe des Computers kommt in der Medizin eine große Bedeutung zu. Es ermöglicht sich selbst effektiv aus-und weiterzubilden, effizienter (schneller!) auf benötigte Informationen zuzugreifen. Ein weiterer Vorteil besteht darin, dass die Lernenden nicht in direktem Kontakt mit dem Lehrenden und anderen Lernenden stehen müssen. Das Zieldieser Arbeit ist, ein Licht in das Konzept von E-Learning und virtuellen Patienten in der französischen Welt zu bringen .Zum tieferen Verständnis werden im ersten Teil der Arbeit Begriffe und Definitionen vorgestellt, zudem die Grundlagen, Voraussetzungen und Ziele für ein effektives E-Learning erläutert. Im zweiten Teil der Arbeit werden das E-Learning und der virtuelle Patientin Bezug auf ihre Potentiale und vorhandene Ausprägungen analysiert. Die Vor-und Nachteile von E-Learning werden im Bezug auf seine Verwendung gegeben. Da sich diese Arbeit vornehmlich auf den französischen Sprachraum konzentriert, ist zur Einordnung der Ergebnisse ein Vergleich mit anderen Sprachräumen sinnvoll. Dadurch soll gezeigt werden inwiefern sich die sich das E-Learning mit virtuellen Patienten zu dem in anderen Sprachräumen unterscheidet.
An architectural concept for implementing the socio-technical workflow of Digital Pathology in Chile
(2014)
Virtual Microscopy opens up the possibility to remotely access high quality images at large scales for scientific research, education, and clinical application. For clinical diagnostics, Digital Pathology (DP) presents a novel opportunity to reduce variability [Bauer et al., 2013] due to the reproducible access to Whole Slide Imaging, quantitative parameters (e.g. HER2 stained membrane) [Al-Janabi et al., 2012], second opinion and Quality Assurance [Ho et al., 2013]. Despite of the mentioned advantages, the challenge remains to incorporate DP into the pathologists workflow within a heterogeneous environment of systems and infrastructures [Stathonikos
et al., 2013]. Different issues must be solved in order to optimize the impact of DP in the daily clinical practice [Daniel et al., 2012] [Ho et al., 2006]. The integration needs precise planning and comprehensive evaluation for adopting this technology
[Stathonikos et al., 2013]. This thesis will focus on an organizational development approach based on a Socio-Technical System (STS). The socio-technical approach covers: (i) the technical issue: tissue-scanner, NDP.view, NDP.serve, analysis software, and (ii) the social issue: pathologists, technicians. In order to improve the integration, a joint optimization (of i and ii) is necessary. The developed STS approach will optimize the integration of DP towards improved workflows in clinical environments. The improved workflows will reduce the pathologists turnaround time, improve the certainty of the diagnostics, and provide a more effective patient care within the covered institutions. An overt multi-site Participatory Observation, Questionnaires, and Business Process Modelling Notation will be used to analyse the existing pathological workflows. Based on this, the system will be modelled with the 3lgm2 Toolkit [Winter et al., 2007] under consideration of various technical subsystems that are present in the clinical environment. Afterwards, the interfaces between subsystems and its possible interoperabilities will be evaluated, taking into account the different existing standards and guidelines for image processing and management, as well as business processes in DP. In order to analyse the existing preconditions a questionnaire will be evaluated to establish a robust and valid view. In addition, the overt participatory observation will support this elevation, giving a deeper insight on the social part. This observation also covers the technical side including the whole pathological process. The socio technical model will then reveal measurable potential for optimization with incorporated DP (e.g. higher throughput for slides). The organizational development approach consists of a Socio-Technical System based on overt multi-site participatory observations, questionnaires, business process modelling and 3LGM2, will optimize the use of Digital Pathology in the daily clinical practice and raise the acceptance to incorporate integrate the new technology within the dayly workflow through the user centred process of incorporation.
• Perform and evaluate a questionnaire and a participant observation of pathologists work days in private & public institutions
• Create and evaluate a 3lgm2 model
• Model the current pathological process (viewpoint of pathologist & technical assistant) & perform and evaluate a contextual inquiry to elevate the pathologists requirements & expectations towards the system
• Test the future WF according the model parameters.
This project will detect unsuspected interrelations and interdependencies within the socio- technical workflow with a pathology laboratory. The observation will reveal the action conformity as well as the environment in which the process has to be embedded. Furthermore it will establish an optimized workflow for a specific clinical environment to prepare the implementation of DP. Additionally it will be possible to
quantify digitized images in order to improve decision making and lastly to improve patient care. In the future it will be possible to extend automated image analysis in order to support clinical decision support. Depending on acceptance, this can lead towards an automated clinical decision support for cases with low complexity.
Initial results of an ongoing research in the field of reactive mobile autonomy are presented. The aim is to create a reactive obstacle avoidance method for mobile agent operating in dynamic, unstructured, and unpredictable environment. The method is inspired by the stimulus-response behavior of simple animals. An obstacle avoidance controller is developed that uses raw visual information of the environment. It employs reinforcement learning and is therefore capable of self-developing. This should result with obstacle avoidance behavior that is adaptable and therefore generalizes on various operational modalities. The general assumptions of the agent capabilities, the features of the environment as well as the initial result of the simulation are presented. The plans for improvement and suitable performance evaluation are suggested.
Spinodal Zr0.4Hf0.6Ni1.15Sn half-Heusler thermoelectrics are synthesized and aged. The complex microstructure due to the spinodal decomposition is investigated by powder X-ray diffraction (XRD), scanning electron microscope (SEM) and transmission electron microscope (TEM). By Rietveld refinements, it is confirmed that excess Ni atoms in the arc-melted and spark-plasma-sintered half-Heusler matrix prefer to form nanoscale/ submicron Heusler precipitates via spinodal decomposition and growth during the aging at 1173 K. Such phase separation changes the band gap of semiconductors, reduces the thermal conductivity drastically and improves the performance of thermoelectrics. As a result, a more than 50 % improvement of the ZT value on the unaged specimens was achieved.
Die BPMN 2.0 bietet die Möglichkeit ausführbare Prozesse zu modellieren. Die so modellierten Prozesse können zur Automatisierung genutzt werden. Dies kann die Transparenz erhöhen und die Fehleranfälligkeit reduzieren. Im Klinischen Umfeld wird die Möglichkeit der Prozessautomatisierung mit Hilfe der BPMN 2.0 bisher nicht genutzt.
Im Rahmen dieser Arbeit wird am Beispiel eines Sterilgutaufbereiters evaluiert ob sich die BPMN 2.0 als Modellierungssprache, Signavio als Modellierungswerkzeug und die Camunda BPM als Business-Process-Engine eignen, Prozesse im klinischen Umfeld abzubilden.
Der Schwerpunkt dieser Arbeit liegt auf der Umsetzung der modellierten Prozesse mit Hilfe der Camunda BPM und der anschließenden Evaluation.
Im Anschluss an die Analyse des Beispielszenarios werden mit Hilfe von Signavio BPMN 2.0 konforme Modelle erstellt. Anschließend werden die typischen Elemente der einzelnen Prozesse identifiziert. Die Modelle werden daraufhin mit der Camunda BPM zu
automatisierbaren Prozessen umgesetzt.
Das Beispielszenario konnte in Teilprozesse zerlegt und anschließend automatisiert werden. Die dabei aufgetretenen Probleme wurden analysiert und die notwendigen Anpassungen der Prozesse wurden vorgenommen.
Die Evaluation zeigt, dass die Kombination aus BPMN 2.0, Signavio und der Camunda BPM geeignet ist standardisierte Prozesse aus dem klinischen Umfeld in automatisierte Prozesse umzusetzen.
Einleitung: Die Datenerhebung in klinischen Studien erfordert eine ausgiebige, gewissenhafte Dokumentation. Dafür werden nicht nur vom Personal Informationen gewonnen, sondern z.T. auch von Patienten mit Hilfe von Fragebögen erhoben. In der chilenischen PRECISO-Studie wird zur Verwaltung und Erfassung von Studiendaten OpenClinica (OC) verwendet. Zur mobilen Patientenbefragung soll die am Institut für Medizinische Informatik (IMI) der Universitätsklinik Münster (UKM) entwickelte Anwendung MoPat2 eingesetzt werden. Dafür sollen die "Operational Data Model" (ODM)-Import- und Export-Funktionen von OC und MoPat2, beispielhaft anhand der "Quality of Life" (QOL)-Bögen der PRECISO-Studie, auf ihre syntaktische und semantische Kompatibilität getestet, Diskrepanzen dokumentiert und die Implementierung in MoPat2 angepasst werden. Mit der Arbeit soll bewertet werden, mit welchen Arbeits-/Interpretationsschritten der ODM-Standard für solch ein Projekt ein geeignetes Datenaustauschformat darstellt.
Methodik: In allen Arbeitsschritten wurde iterativ getestet, Fehler analysiert und verbessert. Basierend auf der Analyse wurden an der Struktur der aus OC exportierten ODM-Datei Ände-rungen vorgenommen. Aus der ODM-Datei wurden die Metadaten in MoPat2 importiert und daraus der QOL-Fragebogen generiert. Mit dem QOL-Bogen wurden Befragungen getestet und Fehler ausgewertet. Für den Export aus MoPat2 wurde die Implementierung der ODM-Export-Funktion erweitert.
Ergebnisse: Nur durch Änderungen konnten die Metadaten nach MoPat2 importiert und zur Generierung des QOL-Bogens genutzt werden. Befragungen mit dem QOL-Bogen haben sich als möglich aber fehlerbehaftet erwiesen. Durch Implementierungen in MoPat2 konnten mit Hilfe eines ExportTemplates Patientendaten ODM-konform exportiert werden.
Diskussion: Der ODM-Standard ist im Anwendungsfall zum Datenaustausch zwischen OC und MoPat2 gut nutzbar, jedoch mussten trotz Verwendung des Standards diverse Änderungen vorgenommen werden. Die Ergebnisse zeigen somit auf, dass die ODM-Schnittstellen beider Anwendungen erweitert und aufeinander angepasst werden müssen, um einen fehlerfreien Studiendatenaustausch zu ermöglichen.
Background: Stroke rehabilitation is a complex process that requires collaboration between stroke patients
and various health professionals. One important component of the rehabilitation is to set goals collaboratively with health professionals. The goal setting process can be time-consuming. In many cases, it is complicated for the patient and difficult to track for the health professionals. A simple user interface that supports patients, their family members and health professionals can help both sides to make the goal setting and attainment process easier.
Objectives: The aim is to design and develop a software for the goal attainment process of stroke patients with milder disabilities that facilitates goal setting process and the traceability of the goal progress for patients and health professionals.
Methods: Based on previous evaluated results, the web interface was developed and improved. Using this knowledge, a goal setting interface was added. To analyze the the goal setting process, goal attainment scaling (GAS) was included as well as parts of the International Classification of Functioning, Disability and Health (ICF) core set for stroke. The results were discussed afterwards in focus groups and evaluated based on two stroke patients, one family member and health professionals.
Results: We developed an interactive prototype, that can aid the rehabilitation at home by inserting
problems with ICF codes and different kinds of goals, creating new activities and tracing goal progress by reviewing the different goals. With the help of the GAS the outcome of the patient’s goals are visualized by a line chart presenting the positive or negative outcomes of the stroke rehabilitation.
Conclusion: The interactive prototype showed that it can support stroke patients during their rehabilitation
at home. A usability test indicated that the goal setting and attainment process was perceived as useful for patients and their family members. Small improvements have to be made to simplify use and error handling. For health professionals, the prototype could also simplify the documentation process by using ICF in the prototype, and also improving collaboration when using the tool for coordination.
Die Popularität der drahtlosen Datenübertragung wächst, seit dem der Standard 802.11 im Jahr 1997 vom Institute of Electrical and Electronics Engineers (IEEE) für die private Nutzung ausgegeben wurde, stetig an. Hierbei beschränken sich die meisten Anwendungen auf das Wesentliche: die Übertragung von Nutzdaten zwischen einem Access Point und verschiedenen Endgeräten. Der konventionelle Weg der Datenverarbeitung in drahtlosen Netzwerk-Modulen sieht vor, dass zunächst digitale Daten in analogen Verfahren moduliert werden. Nach der Übertragung als elektromagnetische Welle, werden die analogen Daten wieder von eingebetteten Systemen in einen digitalen Datenstrom übersetzt und zum Weiterverarbeiten weitergereicht. Durch die steigende Rechenleistung von Computern gibt es auch andere Wege der Übertragung. Mit der Idee, den Datenstrom nicht analog weiterzuverarbeiten, sondern ihn in digitaler Form zu modulieren oder zu demodulieren entstanden die ersten ‚Software-Radios‘. Zu Beginn der drahtlosen Ära wurden Software-Radios zum Beispiel dazu genutzt, um Sicherheitslücken in Wi-Fi Übertragungen zu finden. Heutzutage finden Software-Radios immer mehr Anwendungen in wissenschaftlichen Bereichen abseits der üblichen Datenübertragung. Als alternative Vorreiter gelten die Arbeiten der Universität Washington „Whole-Home Gesture Recognition Using Wireless Signals“ (Quifan et al., 2013a) und die des Massachusetts Institute of Technology „See Through Walls with Wi-Fi“ (Adib F. and Katabi D., 2013). Die erst genannte Anwendung beruht auf der Theorie des Doppler-Effekts für elektromagnetische Wellen und zeigt auf, dass es möglich ist, die Übertragungsverfahren des IEEE 802.11 zu überwachen und Bewegungen nahe den Antennen zu erfassen. Die Zweite zeigt auf, dass ähnliche Ergebnisse auch ohne den Doppler-Effekt sondern nur durch die gemessenen Reflexionen von Signalen erreicht werden können. Die Möglichkeiten dieser Techniken reichen von einer Gestensteuerung, die ohne zusätzliche Sensoren am Menschen auskommt, bis zum Visualisieren von Bewegungen hinter Wänden.
Der Gegenstand der vorliegenden Arbeit ist grundliegende Problematiken der Detektion des Doppler-Effekts in digitalen Modulationen aufzuzeigen. Hierfür werden Grundlagen der Empfangstechnik erläutert. Weiterhin wird der Einsatz aktueller Grafikkarten in Software-Radios zur Detektion des Doppler-Effekts untersucht.
Wird bei einem Patienten mit Kolorektalkarzinom der Tumor erfolgreich entfernt, beginnt die Nachsorgephase. Der Nachsorgeplan, welchen die Patienten bei der
Entlassung erhalten, orientiert sich an der S3-Leitlinie des Leitlinienprogramms für Onkologie. Der Patient kann selbst entscheiden, wo die Nachsorge stattfinden wird. Entweder lässt er seine Nachsorgeuntersuchungen in der Klinik durchführen (klinikinterne Nachsorge) oder er sucht einen niedergelassenen Onkologen auf (klinikexterne Nachsorge). Gegenstand dieser Arbeit ist die Analyse der klinikinternen und
-externen Nachsorge in Bezug auf die Einhaltung der S3-Leitlinie. Ziel ist es, festzustellen, ob anhand der erhobenen Daten Rückschlüsse auf die Leitlinientreue in Bezug auf die Nachsorge der Patienten gezogen werden kann. Im Rahmen dieser Thesis werden Patienten mit einem UICC-Stadium II oder III und einem Diagnosedatum zwischen 2009 und 2013 betrachtet. Basierend auf den Kriterien wurden 562 Datensätze aus dem GTDS exportiert. Nach anschließendem Bearbeiten und Aussortieren wurden 426 Patienten analysiert. Im seit 2001 in Heilbronn eingesetzten Gießener Tumordokumentationssystem (GTDS) werden die Falldaten der Tumorpatienten dokumentiert und gespeichert. Die Verlaufsdaten der
TNM-Dokumentation werden mindestens einmal jährlich zu den Patienten erhoben. Diese Daten werden analysiert, um die Leitlinientreue zu überprüfen.
Der Vergleich zwischen S3-Leitlinie und vorgenommenen Untersuchungen kann sich aufgrund lokaler Dokumentationspraxis nur auf den zeitlichen Ablauf der Untersuchungstermine beschränken, da im GTDS keinerlei Informationen zu der Art der vorgenommenen Untersuchung vorliegen. Um die zeitlichen Abläufe zu analysieren, werden aus den vorliegenden Datumswerten für jeden Patient ein Pfad bestehend aus Zuständen (Tumorfreiheit, Untersuchung 1, etc.) gebildet. Die Übergangswahrscheinlichkeiten
stellen einen Indikator für die Termintreue der Patienten dar. Es wurden 146 Patienten klinikintern und 149 Patienten klinikextern behandelt. 131 Patienten erhielten eine gemischte Nachsorge. Zusammenfassend lässt sich sagen, dass die Informationen aus dem GTDS nicht ausreichen, um eine Leitlinienkonformität der Nachsorge von Kolorektalkarzinompatienten nachzuweisen, da im GTDS ausschließlich der Tumorverlauf dokumentiert wird, aber nicht, wie sich die Nachsorge im Speziellen gestaltet.
Die Identifizierung von Angehörigen der Hochschule Heilbronn erfolgt in der Regel
über die Kombination aus Benutzername und Passwort. In verschiedenen Einsatzgebieten,
wie z.B. an einer Parkschranke, ist eine Eingabe der Benutzermerkmale nicht
möglich oder hinderlich. Hierfür soll die Mensakarte des Studentenwerks Heidelberg
als identifizierendes Merkmal erschlossen werden. Dies macht die Verknüpfung von
Benutzerkonto und Karte notwendig.
Im Rahmen dieser Bachelorarbeit werden zunächst verschiedene Umsetzungsmöglichkeiten
für mobile Anwendungen zur Verknüpfung von Benutzer und Karte unter Verwendung
der NFC-Technologie analysiert und ausgewertet. Anschließend wird ein
funktionaler Prototyp für Smartphones der Android-Plattform entwickelt, der die einfache
Einbindung weiterer Funktionalität ermöglichen soll.
Der entwickelte Prototyp ist im Hochschulnetz testweise für die Registrierung und
Deregistrierung von NFC-Karten einsetzbar. Vor einer realen Nutzung des Systems
müssen der Datenschutz und andere organisatorische und rechtliche Pflichten, wie
zum Beispiel das Telemediengesetz, berücksichtigt werden.
There are many drug interactions and to know every single interaction is impossible. In Uganda, a country located in East Africa, patients often do not get a patient information leflaet when a physician prescribes drugs because they only get the drugs without packaging and information inside. Even in developed countries many poeple die because of drug interactions.
This work aims at developing a clinical decision support system for different kinds of drug interactions: 1) drug-drug interaction,
2) drug-food interactions,
3) drug-condition
interactions and
4) drug-disease interactions.
This system must be integrated into an
existing hospital information system called electronic Health Management Information System (eHMIS).
In the first part of this thesis different kinds of clinical decision support systems are described to find out which one is the best for eHMIS. The two different types are knowledge-based and non knowledge-based systems. The second part of this thesis, the data base of eHMIS is extended to have a full
knowledge base for the new module which contains drug-drug interactions, drug-food interactions, drug-disease interactions as well as drug-condition interactions. Therefore new tables were created and filled with data of several data bases with drug interactions. The last part is about designing the clinical decision support system for drug interactions
with the knowledge base of eHMIS, including the implementation considering the integration into the existing system. To know how health professionals in Uganda work
with an electronical health system as well as their other work ows was important. The system now runs in a hospital in Kampala, the capital of Uganda and in a health center level three in Mifumi, a village located in the east of the country.
An der NCT-Gewebebank in Heidelberg werden große Mengen menschlichen Gewebes vorgehalten, welche von Forschern hauptsächlich im Rahmen der Tumorforschung verwendet werden können. Da jede Dienstleistung im Zusammenhang mit diesem Gewebe, sowie die Herausgabe dessen zuerst bewilligt werden muss, müssen die forschenden Ärzte und Wissenschaftler einen Antrag an die Gewebebank stellen. Die
Antragsstellung erfolgt zum aktuellen Zeitpunkt über ein Online bereit gestelltes Formular, welches im besten Falle digital korrekt ausgefüllt, ausgedruckt und unterschrieben an das Sekretariat der NCT-Gewebebank geschickt wird. Da die Anträge dort wieder von Hand digitalisiert werden, soll der Vorgang online erfolgen und so die Antragsverwaltung erleichtern, sowie weniger anfällig für Fehler machen.
Im Rahmen dieser Bachelorarbeit soll ein Konzept entwickelt werden, wie ein Antragsportal funktionieren kann, über das die Forscher online Anträge stellen können.
Diese Arbeit ist auf die folgenden Ziele ausgerichtet:
- Modellierung des aktuellen Zustands des Prozesses der Antragstellung
- Modellierung eines möglichen zukünftigen Prozesses
- Vorstellung der möglichen Verbesserungen im Prozess
- Konzeptionierung eines Antragsportals
- Analyse der Umsetzung dieses Portals mit praktischen Ansätzen
In dieser Bachelor-Thesis wird ein Ansatz zur robotergestützten Ultraschall-Bildgebun entwickelt. Es wird hierbei hauptsächlich die Kommunikation zwischen Roboter und
Computer, sowie die Steuerung des Roboters, betrachtet. Die Bilderfassung und Darstellung
ist nicht Teil dieser Arbeit. Ergebnis dieser Arbeit sind eine detaillierte Anforderungsanalyse, eine GUI zum Steuern der erstellten Roboterteilprogramme und das Roboterprogramm an sich. Auf Seiten
des Roboters sind Programme für das Beibringen von Positionen, das Anfahren
dieser und das Verfahren des Ultraschallkopfes an diesen (manuelle Steuerung mit einem Joystick) implementiert. Für eine Atembewegungskompensation sind Beispielprogramme erstellt worden. Die Kommunikation zwischen Roboter und Computer baut auf OpenIGTLink auf. Ein weiteres Ergebnis der Thesis ist die Architektur des Programms, die es ermöglicht, dem Roboter beliebig viele neue Befehle beizubringen.
Eine Anwendung nur mit Gedanken steuern? — Das geht! Mit Hilfe von Brain-Computer-Interfaces (BCIs). Heutzutage gibt es viele BCI-Frameworks, bei denen die
unterschiedlichen Konzepte wie zum Beispiel P300-Speller, Imagined Movement oder SSVEP untersucht und angewendet werden können. Für diese Thesis wird das Framework Buffer-BCI verwendet. Es wurde untersucht, ob
sich dieses für eine Aufgabe im Praktikum Medizinische Signal- und Bildverarbeitung (PSB) des Studiengangs Medizinische Informatik eignet. An mehreren Probanden wurde getestet, ob Reproduzierbarkeit und Erkennungsgenauigkeit hoch genug sind,
um auch bei vielen unterschiedlichen Menschen vergleichbar funktionieren und sinnvolle Ergebnisse liefern zu können. Auch hinsichtlich zeitlicher Latenzen, der prinzipiellen Architektur des Frameworks und der Kommunikationskette für Ereignisse wurde Buffer- BCI untersucht.
Ein Ergebnis dieser Thesis ist die Beschreibung der Architektur und der Kommunikationskette von Buffer-BCI. Ein weiteres Ergebnis ist eine Aufgabenstellung für das PSB bezüglich einer P300-Speller-Anwendung auf Basis des Buffer-BCI-Frameworks. Die Aufgabenstellung kann noch um Imagined Movement- oder SSVEP-Experimente
erweitert werden, was jedoch nicht mehr Teil dieser Thesis ist.
Every year, hundreds of thousands of patients are affected by treatment failure or adverse drug reactions, many of which could be revented by pharmacogenomic testing. To address these deficiencies in care, clinics require
automated clinical decision support through computer based systems, which provide clinicians with patient-specific ecommendations. The primary knowledge needed for clinical pharmacogneomics is currently being
developed through textual and unstructured guidelines.
In this thesis, it is evaluated whether a web service can annotate clinically relevant genetic variants with guideline information using web services and identify areas of challenge. The proposed tool displays a formal representation of pharmacogenomic guideline information through a web service and existing resources. It enables the annotation of variant call format (VCF) files with clinical guideline information from the Pharmacogenomic Knowledge Base (PharmGKB) and Clinical Pharmacogenetics Implementation Consortium (CPIC).
The applicability of the web service to nnotate clinically relevant variants with pharmacogenomics guideline information is evaluated by translating five guidelines to a web service workflow and executing the process to annotate publically available genomes. The workflow finds genetic variants covered in CPIC guidelines and influenced drugs.
The results show that the web service could be used to annotate in real time clinically relevant variants with up-to-date pharmacogenomics guideline information, although several challenges such as translating variants into star allele nomenclature and the absence of a unique haplotype nomenclature
remain before the clinical implementation of this approach and the use on other drugs.
In der heutigen Zeit ist es auch für Ärzte nicht immer trivial, diagnostisch präzise Entscheidungen auf Grund von modernsten medizinischen bildgebenden Verfahren zu treffen. Die vorliegende Bachelor-Thesis befasst sich damit wie man eine Software-anwendung mit Hilfe der Support Vector Machine (SVM), eine Technik des maschi-nellen Lernens, in ein bestehendes Framework wie z.B. MITK implementieren kann, um so vollautomatische Tests von Lebertumorsegmenierungen durchführen zu kön-nen. Durch die zusätzliche Integration einer Testklasse wird die entwickelte SVM validiert, um ein möglichst hohes Klassifikationsergebnis zu erreichen. Die in der Thesis entwickelte Softwarekomponente hat gezeigt, dass eine vollautomatische Segmentierung von Lebertumoren bei Patienten in zufriedenstellendem Maße möglich ist.