Frei zugänglich
Refine
Year of publication
Document Type
- Master's Thesis (61)
- Bachelor Thesis (51)
- Diploma Thesis (2)
- Doctoral Thesis (2)
- Preprint (2)
Has Fulltext
- yes (118)
Is part of the Bibliography
- no (118)
Keywords
- Entwicklung (10)
- Implementierung (8)
- Analyse (7)
- Software (7)
- Konzeption (6)
- Evaluation (5)
- Patient (5)
- Strahlentherapie (5)
- Tumor (5)
- Anwendung (4)
Institute
- Medizinische Informatik (66)
- Informatik (44)
- Bibliothek (2)
- Mechanik und Elektronik (2)
- Elektrotechnik und Informationstechnik (1)
Heutzutage ist es für Unternehmen immer wichtiger, dass man in kürzester Zeit die richtigen Informationen erhalten kann, um Entscheidungsprozesse optimal bilden zu können. Die Informationstechnologie lässt sich zurzeit in der Welt weit und breit nutzen. Sie kann nicht nur den Daten sammeln und austauschen, sondern auch kann die Informationen systematisch und rapid verarbeiten, verwalten, analysieren und interpretieren. Die wachsende Datenmenge und Komplexitat erfordert immer stärker Analyseinstrumente gewinnen an Bedeutung. In großen Unternehmen Umgebungen stoßen einfache Abfrage Werkzeuge für den Datenzugriff schnell an die Grenzen ihre Leistungsfähigkeit und der Performance-Gewinn wird auch zum zentralen Thema. Aus diesen Gründen wird das Unternehmen T-Mobile den Analysewerkzeuge, den sogenannten OLAP (Online Analytical Processing)-Tools, einsetzen, um die Daten in sogenannten mehrdimensionalen Tabellenstrukturen flexibel und schnell analysieren bzw. auswerten zu können. Ein weiterer Punkt warum das Analysieren der Call Daten interessant sein könnte ist das Überwachen von Fehlern. Durch diese Technologie kann die Lösungsqualität hinsichtlich der zu verarbeitenden Komplexität erhöht werden. Als Grundlage für die OLAP Anfragen wurde zunächst ein Data Warehouse aufgebaut, in dem die Daten aus dem Quellsystem integriert und strukturiert bereitgestellt werden. Des weiteren ist zu erstellen, in wie weit der Einsatz von Reporting-Tools und zusätzlicher OLAP-Werkzeuge, um die gewünschten Berichtsfunktionalitäten zu ermöglichen. Diese Funktionalitäten sollen Schließlich in geeigneter Weise umgesetzt und bereitgestellt werden. Dabei sind die Anforderungen der Mitarbeiter und damit der Benutzer des Systems und die Rahmenbedingungen der Firma T-Mobile, z.B. bezüglich Auswahl der Software, zu berücksichtigen.
Ultraschallbildgebung ist ein in der Medizin häufig verwendetes Verfahren zur Diagnostik und Verlaufskontrolle. Ultraschall bietet vor allem eine große Weichteilauflösung bei gleichzeitig niedrigen Kosten, erfordert aber vom Anwender ein großes Maß an Erfahrung. Aufgrund vieler Artefakte und Verzerrungen in Ultraschallbildern ist die Bildqualität der Bilder deutlich geringer, als die derer, die mittels Magnetresonanztomographie erstellt werden können. Deshalb arbeiten viele verschiedene Forschungsgruppen an der Verbesserung der Modalitäten und Datensätze im Zusammenhang mit Ultraschallbildgebung. Diese Arbeit beschäftigt sich mit der Entwicklung eines robotergestützten Ultraschalltomographen. Das Gerät ist in der Lage tomographische Bildserien von Phantomen und Weichgewebe zu erstellen, die anschließend dreidimensional visualisiert werden können.
Anhand der Beschleunigungssignale des Oberkörpers, die mit einem mobilen Messsystem (Brustgurt) aufgezeichnet wurden, sind Erkennungsverfahren für Kniebeugen und Liegestützen entwickelt worden. Die 20 rekrutierten Probanden sind in 2 Kollektive aufgeteilt. Das erste Kollektiv besteht aus 5 und das zweite Kollektiv auf 15 Probanden. Beide Probandenkollektive führten ein Bewegungsprogramm durch, das aus 5 Kniebeugen und 5 Liegestützen besteht. Somit konnten die Erkennungsverfahren mit 100 aufgezeichneten Bewegungen je Bewegungsart auf ihre Erkennungsrate getestet werden.
Access, Handling and Visualization Tools for Multiple Data Types for Breast Cancer Decision Support
(2011)
Breast cancer is the most commonly diagnosed cancer among U.S women, besides skin cancer. More than 1 in 4 cancers among women are breast cancer. And though death rates have been decreasing since 1990, about 40,170 women in the U.S. were expected to die in 2009 from breast cancer. The progress of molecular profiling, in the last decade has revolutionized the understanding of cancer, but also introduced more complexity with new data such as gene expression, copy number variation, mutations and DNA methylation. These new data open up the possibility of differential diagnosis, much more precise prognosis as well as prediction of therapy response than any of the diagnostic tools that are available in the current practice. Additionally, epidemiological databases store clinically relevant information on hundreds of thousands of patients. However, with the abundance of all this information, clinicians will need new tools to access and visualize such data and use the information gained to treat new patients. The general problem will be to access, filter and analyze the data and then visualize them in a clinical context. This data ranges from clinico-pathological information, to molecular profiles from highthroughput genomic measurements and imaging data. Furthermore, data from patient populations is aggregated on epidemiological level and can be found under numerous clinical studies.
This thesis presents a photmetric stereo method based on the work of Schulze [35], who in turn extended the research of Schroeder et al. [33,34] In this approach, three different lightings are obtained by illuminating the object by three colored light sources (red, green and blue). A video of the subject is captured from the front, the back and the side. The single frames are then extracted from the viedo, which are used for the 3D reconstruction of the subject. The aim of this work was to improve the presented method of Schulze with real patient subjects by getting a better sphere calibration and changing some parameters in the patient processing. As the graphical interface was implemented for persons with a technical background, it has been changed to become also more convenient to use for non-technically oriented staff
Durch die immer härteren Anforderungen an Wirtschaftlichkeit und Qualität ihrer angebotenen Leistungen kommt es in der Medizin zur immer engeren Zusammenarbeit zwischen den Leistungserbringern. Das Universitätsklinikum Heidelberg und die IntercomponentWare AG haben daher ein gemeinsames Projekt ins Leben gerufen dessen Ziel die Entwicklung eines intersektoralen Informationssystems (ISIS) ist. ISIS soll den Austausch versorgungsrelevanter, medizinischer Daten ermöglichen. Patienten müssen der Teilnahme an ISIS und dem Austausch sowie der Verarbeitung ihrer Daten mit den einzelnen an ISIS teilnehmenden Einrichtungen aufgrund der rechtlichen Gegebenheiten in Deutschland explizit zustimmen. Das Management der Einwilligungserklärungen wurde bisher durch Produkte der Industrie nicht zufrieden stellend gelöst. Um das Einwilligungsmanagement befriedigend zu lösen wurde am Universitätsklinikum Heidelberg ein Konzept für ein zentrales Einwilligungsmanagement für ISIS entwickelt.
Diese Arbeit entwirft und implementiert ein neues Modul, das den Arzt bei der Arztbriefschreibung am Ende des Behandlungsprozesses unterstützt. Das Modul Arztbriefgenerierung in ENTstatistics erlaubt es dem Arzt als Anwender, per Mausklick aus den strukturierten Daten Text zu generieren und diese in einem Arztbrief darzustellen. Dazu kann er Vorlagen mit flexiblem Inhalt definieren und in diese je nach Empfänger andere Informationen einfließen lassen. Sowohl Vorlage als auch Brief können in einem WYSIWYG-Editor bearbeitet werden. Der Arztbrief wird intern als HL7-CDA-Dokument hinterlegt, einem standardisierten XML-Format für Arztbriefe. Außerdem kann er in die Formate PDF und RTF transformiert werden, falls andere Programme den CDA-Standard noch nicht unterstützen.
Segmentation of the Cerebrospinal Fluid from MRI Images for the Treatment of Disc Herniations
(2010)
About 80 percent of people are affected at some point in their lives by lower back pain, which is one of the most common neurological diseases and reasons for long-term disability in the United States. The symptoms are primarily caused by overly heavy lifting and/or overstretching of the back, leading to a rupture and an outward bulge of an intervertebral disc, which puts pressure on and pinches the nerve fibers of the spine. The most common form is a lumbar disc herniation between the fourth and fifth lumbar vertebra and between the fifth lumbar vertebra and the sacrum. In recent years the diagnosis of lower back pain has improved, mainly due to enhanced imaging techniques and imaging quality, but the surgical therapy remains hazardous. Reasons for this include low visibility when accessing the lumbar area and the high risk of causing permanent damage when touching the nerve fibers. A new approach for increasing patient safety is the segmentation and visualization of the cerebrospinal fluid in the lower lumbar region of the vertebral column. For this purpose a new fully-automatic and a semi-automatic approach were developed for separating the cerebrospinal fluid from its surroundings on T2-weighted MRI scans of the lumbar vertebra. While the fully-automatic algorithm is realized by a model-based searching method and a volume-based segmentation, the semi-automatic algorithm requires a seed point and performs the segmentation on individual axial planes through a combination of a region-based segmentation algorithm and a thresholding filter. Both algorithms have been applied to four T2-weighted MRI datasets and are compared with a gold-standard segmentation. The segmentation overlap with the gold-standard was 78.7 percent for the fully-automatic algorithm and 93.1 percent for the semi-automatic algorithm. In the pathological region the fully-automatic algorithm obtained a similarity of 56.6 percent, compared to 87.8 percent for the semi-automatic algorithm.
Es ist bekannt, dass Sport wichtig für unser Wohlbefinden ist. Darüber hinaus ist körperliche Aktivität gesundheitsfördernd. Bei fast allen kardiovaskulären Erkrankungen wird ergänzend zur medikamentösen Behandlung ein Gehtraining verschrieben („Sport auf Rezept“). Bedauerlicherweise wird Sport in der heutigen Gesellschaft viel zu sehr vernachlässigt. Ein konsequentes Gehtraining ist speziell im Bereich der peripheren Durchblutungsstörungen ausschlaggebend. In Anbetracht dessen ist es erforderlich, dass die Durchführung des Trainings mittels geeigneter Software von Ärzten engmaschig überwacht werden kann. In diesem Zusammenhang wird in Zusammenarbeit mit Herrn Prof. Dr. med. Thomas Dengler, Direktor der medizinischen Klinik I im Klinikum am Plattenwald, ein Dokumentations- und Überwachungssystem für medizinisches Gehtraining bei Patienten mit peripherer arterieller Verschlusskrankheit entwickelt.
Nach der Operation ist die Strahlentherapie die erfolgreichste und meist genutzte Krebstherapie. Sie wird bei mehr als 50% der Patienten angewandt, die an Krebs erkrankt sind. Das Ziel der Strahlentherapie ist es, eine Strahlendosis zu applizieren, die hoch genug ist, um die Tumorzellen zu töten. Dies ist sowohl aus physikalischer als auch aus technischer Sicht häufig eine schwere Aufgabe, da besonders maligne Tumore oft sehr nahe an Organen lokalisiert werden, die eine hohe Sensitivität gegenüber Strahlen aufweisen. Hierzu zählen Organe wie die Augen, Sehnerven, der Hirnstamm oder die Lunge[Sch06]. Aus diesem Grunde muss die Strahlentherapie sorgfältig geplant werden. Dies ermöglicht es dem Benutzer, bestimmte Szenarien zu simulieren und die beste Konfiguration zu finden, um eine Strahlentherapie auszuführen. Das optimalste Ergebnis ist dabei, dass der Tumor 100% der benötigten Strahlendosis erfährt und das umliegende Gewebe sowie die umliegenden Organe vollständig geschont werden. Eine Methode der Strahlentherapieplanung ist die Virtuelle Strahlentherapiesimulation die auch Gegenstand dieser Arbeit ist.
Mobile-Anwendungen nehmen eine zentrale Rolle in der IT-Branche ein und gewinnen zunehmend an Bedeutung. Unzählige Softwarelösungen, wie beispielsweise in den Bereichen Schulung, Banking, Navigation oder Logistik, stehen den privaten und kommerziellen Nutzern als Mobile-Anwendung zur Verfügung. An der Hochschule Heilbronn steht derzeit das Stundenplan-System „SPlan“ zur Verfügung, welches den Studierenden, Mitarbeitern und Dozenten einer Suchanfrage nach Stundenpläne und dem Raumbelegungspläne des jeweiligen Semesters ermöglicht. Für eine benutzerfreundlichere und effektivere Nutzung dieses Stundenplan-Systems entstand die Idee, dieses System im Rahmen meiner Diplomarbeit als Mobile-Anwendung bereit zu stellen. Das für diese Diplomarbeit konkretisierte Ziel ist nun, das Stundenplan-System „SPlan“ in eine Mobile-Anwendung, basierend auf dem Android-Betriebssystem, umzusetzen. Mithilfe der mobilen-Anwendung kann der Anwender die Stundepläne des betreffenden Semesters mit den entsprechenden Studiengängen und die jeweils zugehörigen Studentengruppen anzeigen lassen. Genauso können für den Raumbelegungspläne des betreffenden Semesters, die Standorte und die jeweils zugehörigen Räume definiert werden. Optional bietet sich die Möglichkeit, Einzelbuchungen und Blockveranstaltungen der beiden Suchanfragen anzeigen zu lassen. Außerdem werden die Suchanfragen automatisch anhand der gewählten benutzer-spezifischen Eingaben als Profil in der Anwendung gespeichert. Somit lässt sich die Anwendung personalisieren.
Bevor eine neue Therapie zur Medikation zugelassen wird, muss sie in einer klinischen Studie ihren Nutzen beweisen. Da heutzutage die besten Ergebnisse bei solchen Fragestellungen aus randomisierten klinischen Studien kommen, ist eine gute Randomisationssoftware für den Ablauf der Studie von einer großen Bedeutung. In Abhängigkeit von dem Studienaufbau wird ein geeigneter Randomisationsalgorithmus für die Zuweisung der Studienteilnehmer zu den Therapien gewählt. Ziel dieser Diplomarbeit ist eine schon bestehende Open Source Software RANDI2 zu analysieren und um ein weiteres Randomisationsverfahren zu erweitern. Dieses Verfahren soll zu der Familie der response-adaptiven Randomisationsverfahren gehören. Im Weiteren werden unterschiedliche Randomisationsalgorithmen mit jeweiligen Vorteilen, Nachteilen und Funktionsweisen vorgestellt. Nachdem ein passendes Verfahren gefunden wird, werden die Möglichkeiten untersucht, ihn in schon vorhandene Software zu implementieren. Anschließend wird die Implementierung gemacht und das Ergebnis getestet. Nach der Erweiterung von RANDI2 soll bei einer response-adaptiven Studie schon während des Ablaufs festgestellt werden können, welche Therapie bessere Ergebnisse erzielt. Mit dieser Kenntnis können mehr Patienten während der Studie eine bessere Behandlung bekommen und früher von dem Nutzen profitieren.
Die chronisch-obstruktive Lungenerkrankung (COPD) schränkt in ihren letzten Stadien die Lebensqualität der Patienten schwerwiegend ein und die einhergehenden Verschlechterungen des Gesundheitszustandes (Exazerbationen) können zum Tode führen. Für die Versorgung von COPD-Patienten im häuslichen Umfeld und Unterstützung im Alltag existieren bereits mobile und technische Geräte. Um eine weitergehende Unterstützung bedarfsgerecht zu planen, müssen Bedürfnisse der Patienten ermittelt und bereits existierende Lösungen zur COPD im Bereich Ambient Assisted Living (AAL) untersucht werden. Daraus können Anforderungen an eine elektronische Gesundheitsakte (eGA) zur Unterstützung von COPD-Patienten abgeleitet werden. Zur Ermittlung der Bedürfnisse wurden Vorgespräche mit COPD-Patienten geführt um einen Interviewleitfaden entwickeln zu können. Der Interviewleitfaden war Grundlage für semi-strukturierte Interviews mit Patienten der Medizinischen Klinik V des Universitätsklinikums des Saarlandes, die an den Untersuchungstagen zu einem Interview bereit waren. Insgesamt wurden zehn Patienten interviewt, zwei Frauen und acht Männer. Anhand der Ergebnisse aus den Interviews konnten wesentliche Bedürfnisse der COPD-Patienten ermittelt werden. Diese sind: Dauerhafter Erhalt von Informationen über die COPD; Kontakt zu Bekannten, Verwandten, Freunden und anderen COPD-Patienten; Mehr nichtmedikamentöse Behandlung; Sofortiger Einblick in die persönlichen medizinischen Daten. Sehr wichtig ist den COPD-Patienten auch, dass sie selbstständig Alltagstätigkeiten meistern können, beziehungsweise Unterstützung bei der Durchführung erhalten und sich in den eigenen vier Wänden sicher fühlen.
Mit der Entdeckung der Röntgenstrahlen im Jahre 1895 begründete Wilhelm Conrad Röntgen die medizinische Bildgebung. Diese ermöglichte erstmals, zu diagnostischen oder therapeutischen Zwecken einen Blick in das Innere des Menschen zu werfen, ohne dass sich dieser einer unter Umständen riskanten Operation unterziehen musste. Die Röntgentechnik gestattet allerdings nur die Projektion anatomischer Strukturen auf ein zweidimensionales Bild. Erst die Erweiterung der Bildgebung auf tomographische Verfahren, wie der Computer und Magnetresonanztomographie, erlaubte es, kontrastreiche, überlagerungsfreie 3D Schichtbilder zu erzeugen [13, S. 1]. Weitere Unterstützung hat die medizinische Bildgebung durch die Computertechnik erfahren, die eine digitale Nachbearbeitung der Bilder oder oft auch eine umfassende Bildanalyse ermöglicht. Im Zuge der technischen Weiterentwicklung kommen immer leistungsfähigere Computer zum Einsatz. Daher ist es nicht verwunderlich, dass medizinische Bilder heute hauptsächlich digital gespeichert, verschickt und bearbeitet werden. Auch entwickeln sich die bildgebenden Modalitäten weiter, was zu immer höher aufgelösten Bildern führt, in denen immer feinere Strukturen erkennbar sind. Simultan bedeutet das, dass für immer größere Datenmengen eine digitale Bearbeitung am Computer bewerkstelligt werden muss. Es ist deshalb ein zentrales Anliegen, effziente bildverarbeitende Algorithmen zu entwickeln.
Das deutsche Gesundheitswesen ist ein dichtes Netzwerk bestehend aus einer Vielzahl von unterschiedlichen Akteuren im komplexen Zusammenspiel. Ständige Gesundheitsreformen aufgrund steigender Ausgaben im Gesundheitswesen sowie Fortschritte in der Medizin nehmen Einfluss auf die Informationsverarbeitung in diesem Netzwerk. Das hat zur Folge, dass immer mehr Anwendungssysteme zum Einsatz kommen, die hinsichtlich ihrer Zusammenarbeit besondere Herausforderungen stellen. Häufig können die komplexen Abläufe bei der Zusammenarbeit der Anwendungssysteme erst durch ein Modell, welches die Realität abstrahiert, verstanden werden. In diesem Zusammenhang wird das deutsche Gesundheitswesen durch ein virtuelles Gesundheitssystem modelliert, welches die Akteure des deutschen Gesundheitswesens nachbildet. Im Rahmen der vorliegenden Diplomarbeit wird die Population durch einen Generator abgebildet. Der Generator generiert anhand der Patientendaten der Population ereignisbasierte Nachrichtenprofile, die dem virtuellen Gesundheitssystem zur Weiterverarbeitung zur Verfügung gestellt werden.
In den letzten Jahrzehnten ist der demographische Wandel in Deutschland immer deutlicher geworden. Die Zahl der pflegebedürftigen Menschen nimmt immer weiter zu und damit auch der Bedarf an Pflegepersonal. Die Anzahl der Pflegekräfte in Deutschland ist derzeit jedoch nicht ausreichend. Aus diesem Grund haben die Pflegekräfte für jeden Bewohner der Pflegeeinrichtung nur einen sehr begrenzten Zeitrahmen zur Verfügung. Da der geistige und körperliche Zustand der Bewohner sehr unterschiedlich ist, muss für jeden Bewohner ein individueller Pflegeplan angeboten werden. Es ist natürlich nicht möglich, sich von jedem Bewohner diese Informationen bzw. Pflegemaßnahmen zu merken, daher ist Dokumentation in einer Pflegeeinrichtung ebenso wichtig, wie eine qualitativ hochwertige Pflege. Die eben erwähnte Dokumentation ist sehr zeitaufwendig, jedoch unabdingbar. Um den Zeitaufwand der Dokumentation zu verkürzen, ist die Verwendung von IT in den letzten Jahren immer wichtiger geworden. Es ist natürlich nur dann eine Zeitersparnis möglich, wenn die Benutzer der Software gut mit selbiger umgehen können und die Verwendung möglichst intuitiv ist.
Die Langlebigkeit eines zementierten Implantats ist abhängig von einem starken Knochen-Zementinterface, sowie Implantat-Zementinterface, welches die Verbindung zwischen Knochenzement und Implantatmaterialien beschreibt. In einer Studie von Sebastian Jäger et al. [19], wurde die Verteilung des Zements in den Knochen untersucht, anhand von Schnittpräparaten, hergestellt aus zementierten Implantaten. Von den Schnittpräparaten wurden endoprothetische Schnittbilder erstellt, die für eine spätere Auswertung am PC dienen. Das Ziel dieser Arbeit ist es, ein möglichst automatisches Verfahren zu entwickeln, welches es ermöglicht Zement-, Knochen- und Prothesenstrukturen in den endoprothetischen Schichtbildern zu segmentieren. Diese Segmentierung gelingt jedoch nur durch eine Klassifikation der einzelnen Pixel.
Medication reconciliation is defined by the American Society of Health- System Pharmacists (ASHP) and the American Pharmacists Association (AphA) as “the comprehensive evaluation of a patient’s medication regimen any time there is a change in therapy in an effort to avoid medication errors such as omissions, duplications, dosing errors or drug interactions, as well as to observe compliance and adherence patterns “. Medication reconciliation is very important to avoid medication errors but it is also a complex and time-consuming process. Medication histories, i.e. records of prescription, purchase, and refill sequences are considered to be a resource from which conclusions about medication reconciliation can be drawn. However, medication histories spread across diverse paper and electronic media may lack the required accuracy. By employing multiple electronic sources this thesis will evaluate if more accurate medication histories can be collected.
Implementierung des "Bresenhams-Algorithmus" für die Benutzung in einem Rekonstruktionsalgorithmus
(2011)
In der Medizin nimmt die medizinische Bildgebung eine wichtige Rolle ein. Die Reaktionszeit chemischer Reaktionen im menschlichen Körper kann sehr kurz sein, so dass man diese Reaktionen nur schwer beobachten kann. Somit kann die Geschwindigkeit der bildgebender Verfahren in der Diagnostik eine ausschlaggebende Funktion haben. Des Weiteren sind bei der Bildgebung eingesetzte Strahlen potentiell gefährlich. Je länger die Aufnahme dauert, desto mehr Schaden kann angerichtet werden. Im Hinblick auf die Geschwindigkeit der bildgebenden Verfahren haben die unterschiedlichen Bildrekonstruktionsmethoden eine zentrale Bedeutung. Für die Benutzung in einem tomographischen Rekonstruktionsalgorithmus und somit für die Verbesserung der Geschwindigkeit und die Verringerung der eingesetzte Strahlen der Bildgebung, soll in dieser Arbeit der Bresenham-‐Algorithmus in Matlab implementiert werden. Mit Hilfe des Algorithmus werden alle Voxel eines Objektes ermittelt, die innerhalb des bestrahlten Bereichs liegen. Das Ergebnis des Algorithmus, sprich die Menge und die Koordinaten der bestrahlten Voxel, kann dann als Input für die Berechnung des relativen Volumenanteils oder für die Berechnung der Strahllänge im Voxel verwendet werden.
Während der Therapie unbewegte Tumore lassen sich durch eine gezielte Bestrahlung präzise behandeln, bei gleichzeitiger Schonung des umliegenden Gewebes. Lässt sich eine Bewegung des Tumors während einer Bestrahlung aber nicht vermeiden, so werdenVerfahren benötigt, die eine solche Bewegung kompensieren. Diese Arbeit stellt einen Multi-Template-Ansatz vor, der eine direkte Bewegungserkennung des Tumors während der Bestrahlung ermöglicht. Um zu jeder Zeit eine individuelle und exakte Tumorposition zu erhalten, wurde ein bereits bestehendes System um eine Positionsbestimmung des Tumors innerhalb der Templates erweitert. Anschließend wurde ein Matching-Algorithmus in das System integriert. Die Ergebnisse wurden anhand eines Phantom- und Patientendatensatzes evaluiert und auf eine Eignung für ein Gating- oder Tracking- Verfahren überprüft.
Die vorliegende Arbeit wurde zusammen mit der Abteilung Radiologie am Deutschen Krebsforschungszentrum (DKFZ) erarbeitet. Das Ziel war es, durch Evaluation der IT Strategie und durch Einsatz verschiedener Methoden zukünftige Handlungsfelder zu be-stimmen. Ein Handlungsfeld wurde exemplarisch an einem Beispiel bis hin zu konkreten Verbesserungsmaßnahmen operationalisiert. In der vorliegenden Arbeit, wird eine Eva-luation der IT Strategie in der Abteilung Radiologie des deutschen Krebsforschungszent-rum (DKFZ) vollzogen. Es wird im Grundlagen Kapitel die derzeitige Situation der Abtei-lung widergespiegelt. Darauf aufbauend werden zukünftige Handlungsfelder, mit Hilfe der Methode der SWOT Analyse identifiziert. Durch die SWOT Analyse wird der derzeiti-ge Ist- Zustand, mit Hilfe der Stärken und Schwächen abgebildet. Chancen und Risiken der Umwelt werden durch die SWOT Analyse abgebildet und ermöglichen es in Kombi-nation mit den Stärken und Schwächen der Abteilung Radiologie als Teil des DKFZ, zu-künftige Handlungsfelder zu bestimmen. Anschließend werden die Handlungsfelder prio-risiert. Bei dem Handlungsfeld mit der höchsten Priorität handelt es sich um das Hand-lungsfeld des abteilungsinternen Wissensmanagements. Das Handlungsfeld wird durch die strategischen Wege, welche die Umsetzung ermöglichen sollen, weiter ausgestaltet. Als Basis für die Entwicklung der strategischen Wege dienen die Mission, die Vision und das Leitbild, welche im DKFZ vorherrschen. Durch die anschließende Anwendung der Methode der Balanced Score Card erfolgt eine kritische Auseinandersetzung der einzel-nen strategischen Wege mit dem Ziel die Messung, Dokumentation und Steuerung der Maßnahmen des zu verfolgenden Handlungsfeldes zu analysieren. Mittels der Priorisie-rung der Maßnahmen, wird im Folgenden die höchst priorisierte Maßnahme konzeptio-nell weiterverfolgt, hierbei handelt es sich um das Zugriffskonzept des abteilungsinternen Wissensmanagementsystems. Die Diskussion setzt sich mit den verwendeten Methoden auseinander. Es wird aufgezeigt, warum es notwendig ist das Handlungsfeld, des abtei-lungsinternen Wissensmanagement, und die damit verbundenen Maßnahmen weiter zu verfolgen. Im abschließenden Fazit wird auf das Zweite zu verfolgende Handlungsfeld eingegangen und weitere zielführende Maßnahmen aufgezeigt, welche notwendig sind, um das abteilungsinterne Wissensmanagementsystem einzuführen.
Das Registrieren medizinischer Bilddatensätze ist ein komplexer und zeitintensiver Prozess. Ohne die Entwicklung effizienter und schneller Registrierungsverfahren müssten erhebliche personelle Ressourcen in das manuelle Registrieren investiert oder teilweise ganz auf deren Resultate und den einhergehenden Erkenntnissen verzichtet werden. Daher ist es besonders wichtig Neuentwicklungen in diesem Gebiet voranzutreiben und Programmstrukturen zu entwickeln, die diese neuen Verfahren einbinden, evaluieren und anschließend optimieren können. Das Ziel dieser Arbeit war die Entwicklung eines Softwaretools, das Registrierungsprozesse von der Vorverarbeitung über die eigentliche Registrierung bis hin zur visuellen Evaluierung unterstützt. Dabei sollte die Applikation so entwickelt werden, dass sowohl Funktionalitäten als auch Benutzeroberfläche einfach erweitert oder modifiziert werden können. Zu Beginn der Entwicklung musste ein geeignetes Framework (bzw. Entwicklungsumgebung) gefunden werden. Dieses sollte sowohl eine stabile Umgebung als auch einen möglichst großen Funktionsumfang im Bereich des Prä- und Postprocessing der Registrierung bieten können. Zudem sollte diese Entwicklungsumgebung auch Strukturen bieten, die es ermöglichen neue Funktionalitäten einfach hinzuzufügen. Auf Grund der Ergebnisse der durchgeführten Analyse kam im Rahmen dieser Diplomarbeit MeVisLab zum Einsatz.
In einem überregionalen Forschungsprojekt untersuchen Heidelberger und Hannoveraner Wissenschaftler Entstehungsmechanismen und neue Therapieansätze des Leberzellkarzinoms, einer der tödlichsten Tumorerkrankungen unserer Zeit. Die IT-Plattform pelican soll dem Forschungsverbund die softwaregestütze Analyse und den Austausch von Leberkrebs-Forschungsdaten ermöglichen. Bisher fehlte dazu ein geeignetes Oberflächenkonzept. Deswegen wurde eine Benutzerschnittstelle entworfen, die in der Lage ist, heterogene Daten und Funktionen darzustellen und dabei flexibel an die Nutzerbedürfnisse angepasst werden kann. Es konnte anhand einer prototypischen Benutzungsoberfläche gezeigt werden, dass sich das Konzept praktisch umsetzen lässt. Mit Hilfe der in einem Evaluierungsprozess ausgewählten Portalsoftware GridSphere wurden mehrere Datendienste als Module in die pelican-Applikation integriert. Als besondere Herausforderungen haben sich die Navigation innerhalb der Oberflächenmodule sowie der Informationsaustausch zwischen den Komponenten herausgestellt. Die erarbeiteten Lösungsansätze wurden dokumentiert und dienen als Basis für die Integration beliebiger neuer Dienste in die Plattform. Zukünftige Entwicklungen können der Krebsforschung weltweit in Form von standardkonformen Diensten im caGrid Umfeld zur Verfügung gestellt werden.
Die großen Datenmengen der klinischen Routine stellen für die medizinische Forschung ein großes Potenzial dar. So lassen sich zum Beispiel doppelte Erhebungen vermeiden oder Studienteilnehmer schneller finden. Sollen diese Daten genutzt werden, bedarf es geeigneter Werkzeuge und Prozesse. Im Rahmen des RWH Projektes der Medizinischen Uniklinik Heidelberg und dem GECKO Institut der Hochschule Heilbronn soll in dieser Arbeit ein Abfragewerkzeug für multidimensionale Datenbanken erstellt und verifiziert werden. Den Schwerpunkt der Arbeit bildet die Wahl einer geeigneten Softwarearchitektur. Im Anschluss an eine Anforderungsanalyse wird das Abfragewerkzeug mit Hilfe von Java Technologien, wie dem Google Web Toolkit und dem Open Java API for OLAP, erstellt. Die Anforderungen werden mit zwei Anwendungsszenarien verifiziert. Der RWH Report-Browser konnte mit der festgelegten Architektur implementiert werden. Zum Erstellen von MDX Anfragen an das DataWarehouse wurde ein Anfragegenerator implementiert. Die Verifikation zeigt, dass der Report-Browser als Plattform für den Zugriff auf klinische Routinedaten geeignet ist. Eine gute Testbarkeit der Architektur konnte nachgewiesen werden.
Die visuelle Analyse der kindlichen Spontanmotorik hat sich als aussagekräftiges Verfahren zur Prognose schwerer neurologischer Störungen erwiesen. Eine computergestützte Entscheidungsunterstützung könnte Ärzten eine wertvolle objektive Hilfe bei der Prognosestellung geben. Mit dem Ziel ein solches entscheidungsunterstützendes System zu entwickeln, wurde am Institut für Medizinische Biometrie und Informatik der Universität Heidelberg ein Forschungsprojekt durchgeführt. Darin wurde u.a. ein Softwarepaket für Forscher entwickelt. Die Ergebnisse der Forschung wurden bislang nicht für Ärzte zugänglich gemacht. Diese Arbeit ergänzt das Softwarepaket des Projekts um zwei Komponenten. Ein grafischer Editor erleichtert die Nutzung des bestehenden Softwarepakets, indem es den Forscher bei der Ablaufsteuerung des entscheidungsunterstützenden Prozesses unterstützt. Eine Präsentationskomponente macht die Ergebnisse des entscheidungsunterstützenden Prozesses für Ärzte nutzbar. Die beiden Komponenten werden mit ähnlichen Komponenten anderer Forschungsprojekte im selben Kontext verglichen und exemplarisch evaluiert.
Der Einsatz von virtuellen Szenen in der Medizin gewinnt zunehmend an Bedeutung, weil Navigations- und Planungshilfen für den Arzt geschaffen werden. Die Verwendung von komplexen Computersimulationen soll den Behandlungsprozess verkürzen und gleichzeitig die Behandlungsqualität durch eine gezielte Vorgehensweise verbessern. Wegen der hohen Komplexität von Bildverarbeitungsalgorithmen ist es jedoch schwierig, eine einfache Interaktion mit den medizinischen Daten zu ermöglichen. Zudem werden Benutzereingaben durch die Eingabegeräte wie Maus und Tastatur eingeschränkt, da diese in vielen Fällen keine einfache Steuerung zulassen. Diese Diplomarbeit beschäftigt sich mit der Umsetzung intuitiver Interaktionskonzepte für den alltäglichen klinischen Gebrauch durch Verwendung von intuitiven Eingabegeräten (3D Maus, Wii Controller). Die Entwicklungen basieren auf dem Medical Imaging Interaction Toolkit (MITK) des Deutschen Krebsforschungszentrums (DKFZ). Dabei wurden von einer einfachen Kamerafahrt in einer Volumenvisualisierung über die Realisierung eines Headtracking in einer virtuellen Realität bis hin zu der Interaktion mit 3D Objekten konkrete Anwendungsbeispiele erarbeitet, analysiert und bewertet.
Im Rahmen der interdisziplinären Leberkrebsforschung des ‚SFB/TRR 77’ ‚Leberkrebs von der molekularen Pathogenese zur zielgerichteten Therapie’ fallen Genomdaten an, welche in unterschiedlichen Formaten gespeichert werden. Der ‚SFB/TRR 77’ wird technisch durch die integrierte Informationsplattform ‚pelican’ (platform enhancing livercancer networked research) unterstützt. ‚pelican’ erlaubt Forschern ihre (Genom-)Daten zentral zu speichern und Daten von anderen Projekten einzusehen. Die Informationsplattform ist nach dem Prinzip der modernen service-orientierten Architektur (SOA) aufgebaut, nach welcher Dienste über einheitliche Schnittstellen an unterschiedlichen Orten spezifische (Teil-)Aufgaben erfüllen, um so größere Prozesse zu realisieren. Damit die Genomdaten für umfassende Analysen einheitlich zur Verfügung stehen, bedarf es eines Genkonvertierungs-Dienstes zur Abbildung von Genbezeichnungen aufeinander, der in die SOA von ‚pelican’ integriert werden kann. Verschiedene Gendatenbanken und biomedizinische Standards wurden auf ihre Eignung untersucht, Gene eindeutig zu identifizieren. Auch die Tools des ‚cancer Biomedical Informatics Grid’ (caBIG) werden auf Methoden und Werkzeuge zur Unterstützung einer eindeutigen Genidentifikation analysiert. Aus den verschiedenen Genidentifikationsmöglichkeiten wird eine optimale Methode ausgewählt, mit der im Genkonvertierungs-Dienst gearbeitet werden kann. Diese ist das ‚Gensymbol’, da es Gendatenbank übergreifend ist und von dem Human Genome Organisation (HUGO) Gene No-menclature Committee (HGNC) standardisiert wird. Die Daten aus der HGNC-Datenbank werden in eine eigene MySQL-Datenbank transferiert. Auf Basis dieser Datenbank wird ein Webservice entwickelt, der dann in die SOA der Informationsplattform eingebunden werden kann. Der erstellte Webservice steht zur Abfrage von Genomdaten bereit. Mittels entsprechenden Tests wird die Funktionalität des neuen Services validiert.
Diese Arbeit befasst sich mit der Analyse der Secondary Use Systeme der Vanderbilt Universität, Nashville Tennessee (USA), und einem anknüpfenden Vergleich mit deutschen Konzepten und unter Berücksichtigung der deutschen Gesetzeslage. Dabei wurden, auf Basis einer vor Ort durchgeführten Analyse, wichtige Prozesse modelliert und im Anschluss mit den Datenschutzkonzepten der Technologie- und Methodenplattform für die vernetzte medizinische Forschung (TMF) verglichen. Weiterhin wurde darauf eingegangen, inwiefern eine Übertragung der Prozesse und Methoden mit dem deutschen Datenschutz vereinbar wäre. Die Bewertung der Ergebnisse zeigt, dass ein Großteil der zugrundeliegenden Prozesse in Vanderbilt auf Deutschland übertragen werden können, jedoch bei gewissen Methoden andere Ansätze gewählt werden müssen. Es wird ebenfalls hervorgehoben, dass es trotz Schutzmaßnahmen und -mechanismen Risiken für die Privatsphäre gibt.
In einer vorangegangenen, erst kürzlich abgeschlossenen Bachelorarbeit wurde festgestellt, dass durch die Einführung eines Projektportals das Projektmanagement in der IT-Abteilung der SLK-Kliniken verbessert werden kann. Bisher befindet sich keine Applikation im Einsatz, mit deren man alle nützlichen Features verwalten kann. Ebenfalls ist noch nicht klar welche Anforderungen solch ein Produkt überhaupt erfüllen muss. Da noch nicht ganz klar ist, was für Anforderungen die Applikation besitzen muss und bisher nur eine sehr teure Komponente getestet wird, wird in dieser Bachelorarbeit ermittelt, was für Anforderungen für solch ein Produkt nötig sind. Mit Hilfe eines Wegwerfprototyps wird getestet, ob das Open Source Produkt Liferay Portal den Anforderungen gerecht wird und ob das Produkt in den Betrieb der Klinik integrierbar ist. Ein Analysekatalog zu erstellen ist ein Weiteres Ziel dieser Arbeit. Mit diesem können auch weitere Systeme analysiert und verglichen werden. Zudem wird eine Empfehlung auszusprechen sein, ob es sinnvoll ist das Produkt einzusetzen.
Effiziente Berechnung von Kookkurrenzwerten unter Verwendung von öffentlichen Suchmaschinen-Indizes
(2012)
Im Kern der Bachelorarbeit steht die Berechnung der semantische Nähe zwischen zwei medizinischen Konzepten. Es ist das primäre Ziel, ein Verfahren zu implementieren, welches durch Verwendung von Suchmaschinen-Indizes Signifikanzwerte für die Konzeptrelationen von sogenannten Wiki-Graphen berechnet [Hei11]. Derartige Datenstrukturen finden in sogenannten Health Recommender Systemen (HRS) zur Berechnung von Empfehlungen Anwendung ([WP10], [Hei11]). Ein besonderes Augenmerk liegt auf der Skalierbarkeit der zu entwickelnde Softwarekomponente. Da eine sehr hohe Anzahl an zu verarbeitenden Konzeptrelationen, d.h. Kanten im Wiki-Graphen, vorliegt und die Antwortzeit von öffentlichen Suchmaschinen-APIs limitiert ist, wurde eine verteilte Berechnung mit Hilfe eines Rechenclusters konzipiert.
Das neurochirurgische Operationsplanungssystem MOPS 3D wurde am Institut für Medizinische Biometrie und Informatik der Universität Heidelberg entwickelt. Es unterstützt den Chirurgen mit einer Vielzahl von Methoden bei der Operationsplanung und der Durchführung. Dabei hat sich der Funktionsumfang von MOPS 3D im Laufe der Zeit stetig erweitert. Seit neuem gehört hierzu die Möglichkeit der Volumenvisualisierung, diese wurde mit dem Framework Voreen, welches auf OpenGL basiert, realisiert. Eine weiter Neuerung, die für diese Diplomarbeit von maßgeblicher Bedeutung ist, ist die Entwicklung des OpenCLStandards. Durch diesen wird es nicht nur möglich Anwendungen hochgradig parallel auf der Grafikkarte auszuführen, es ist des Weiteren möglich mit OpenCL direkt auf Darstellungen, die durch OpenGL generierten wurden, zu operieren. Hierdurch ergeben sich vielversprechende Perspektiven bei der Entwicklung neuer Werkzeuge für das Planungssystem MOPS 3D. So wird in der nachfolgenden Arbeit eine neue unabhängige Segmentierungskomponente für das Planungssystem MOPS 3D konzipiert und implementiert. Dabei wird auf die Interoperabilität zwischen OpenGL und OpenCL gesetzt, um ein konstantes visuelles Feedback über den Segmentierungsverlauf an den Anwender in Form von 3D-Volumendarstellungen zu gewährleisten.
Aktuell ist die Installation, sowie die Konfiguration von RANDI2, sehr umständlich. Parameter oder sogar ganze Konfigurationsdateien werden für die vorhandene Infrastruktur des Anwenders angepasst. Obwohl jede Installation mit Eingaben bezüglich der Institution, verantwortlichen Personen, Logos und vielen anderen Einstellungen parametriert wird, verfügt das System zurzeit über keinen Mechanismus, der den Benutzer bei der Konfiguration unterstützt. Dadurch kann die Installation und Konfiguration meistens nur von erfahrenen Anwendern durchgeführt werden. Ziel dieser Bachelorarbeit ist es, ein Modul zu entwickeln, welches den Administrator dabei unterstützt, das System bei der Installation von RANDI2 optimal einzurichten.
In IT-Abteilungen von Krankenhäusern und Universitätskliniken nimmt Kommunikation und Informationsaustausch zwischen Arbeitsgruppen immer mehr an Bedeutung zu. Einheitliche Informationsprozesse innerhalb einer ITAbteilung sind also notwendig, damit vor allem im Bereich des Projektmanagements Klarheit und Stabilität vorhanden ist. Schon in der Projektinitiierungsphase soll damit Fehlerbehebung und -vermeidung stattfinden. Denn die Haupthebelstelle für Projektqualität liegt im Projektentstehungsprozess. Vor diesem Hintergrund befasst sich diese Abschlussarbeit mit der Untersuchung der IT-Projektmanagementprozesse in Bezug auf die Möglichkeit zur EDV-Unterstützung.
Entwicklung einer performanten Volume Rendering Komponente für das Operationsplanungssystem MOPS 3D
(2012)
Computergestützte Planung von chirurgischen Eingrien gehört in der heutigen Zeit zum klinischen Alltag. Besonders in der Neurochirurgie ist ein hohes Maÿ an Präzision erforderlich, so dass es hilfreich ist, die räumlichen Gegebenheiten des individuellen Gehirns, die für die Operation von Bedeutung sind, schon im Voraus zu kennen. MOPS 3D ist ein Operationsplanungssystem, das imstande ist, verschiedene medizinische Bilddaten einzulesen und dem Chirurgen eine dreidimensionale Darstellung des Körperinneren zu präsentieren. Statt mit der herkömmlichen Oberflächendarstellung kann dieses seit Kurzem auch mit Hilfe von Volumenvisualisierung (Volume Rendering) dargestellt werden, da das Volume Rendering Framework Voreen prototypisch in MOPS 3D integriert wurde. In der nachfolgenden Arbeit wird diese prototypische Integration auf Schwachstellen im Verhalten und auf Verbesserungspotential von Performanz und Stabilität untersucht. Danach werden entsprechende Verbesserungen und funktionale Neuerungen konzipiert und in der Volume Rendering Komponente implementiert.
Im Zeitalter der Informationsgesellschaft stellt das Internet eine zentrale Bedeutung für die Wissens- und Informationsbeschaung dar. Immer mehr Menschen informieren sich mit Hilfe des Internets über das Thema Gesundheit. Gerade im Gesundheitssektor ist es wichtig, aus der großen Masse an Informationen diejenigen Quellen herauszufinden, die inhaltlich korrekt, d.h. keine Fehlinformationen enthalten, und möglichst vollständig sind, da falsche Informationen für den Nutzer sogar gesundheitsschädliche Konsequenzen haben könnten. Als Laie medizinische Begriffe oder Zusammenhänge zwischen zwei oder mehreren Begriffen zu verstehen ist schwierig. Bei der Fülle an Informationen, die im Web angeboten werden ertrinkt der Nutzer sprichwörtlich an der Informationsflut. Die freie Online-Enzyklopädie Wikipedia scheint in diesem Kontext eine vielversprechende Quelle zur Informationsbeschaung zu sein. Der Gesundheitssektor der Wikipedia umfasst in der deutschen Sprache ca. 92.000 Artikel. In der englischen Sprache sind es ungefähr 350.000 Artikel. Im Rahmen einer Diplomarbeit an der Hochschule Heilbronn, wurde von B. Trinzcek ein Framework zur Darstellung der Wikipedia als Graph entwickelt. Durch die Verlinkungen in den Artikeln ist es möglich, Zusammenhänge zwischen verschiedenen Artikeln und somit Begriffen zu visualisieren. Der durch das Framework erstellte Graph der Domäne Gesundheit wird als Gesundheitsgraph bezeichnet [27].
Im Bereich der Krebsdiagnose und -therapie gewinnen neue minimalinvasive Verfahren zunehmend an Bedeutung. Beispiele hierfür sind Nadelpunktionen, bei denen zur Diagnose eine Gewebsprobe entnommen (Biopsie) oder durch Zerstörung des Gewebes im Bereich der Nadelspitze eine Krebserkrankung therapiert wird (Ablation). Eine zentrale Herausforderung hierbei ist die genaue Platzierung der Nadel. Am deutschen Krebsforschungszentrum (DKFZ) wurde ein computergestütztes Navigationssystem für Nadelinsertionen entwickelt, das sich im in-vivo Versuch als höchst akkurat zeigte. Trotz der vielversprechenden Ergebnisse kam das System bisher jedoch nicht am Patienten zum Einsatz. Dies ist unter anderem auf die schwierige Integration des Systems in den klinischen Workflow und die erhöhte Invasivität zurückzuführen. Vor diesem Hintergrund war das Ziel dieser Arbeit zum einen die Entwicklung einer flexiblen, erweiterbare Software für die navigierte Weichgewebepunktion, zum anderen die Weiterentwicklung des Navigationssystems durch die Einbindung eines neuen Feldgenerators für das elektromagnetische Trackingsystem NDI Aurora. Die Implementierung der Software erfolgte aufbauend auf der Bibliothek MITK und dem enthaltenen Modul MITK-IGT. Dabei wurde ein komponentenweiser Aufbau umgesetzt, welcher einen einfachen Austausch oder Erweiterungen der einzelnen Komponenten ermöglicht. Des Weiteren wurde der neue Feldgenerator bezüglich Genauigkeit und Präzision in der Einsatzumgebung evaluiert und es erfolgte ein Test des Navigationssystems unter klinischen Bedingungen. Abschließend kann festgestellt werden, dass durch die gezeigte Flexibilität und Erweiterbarkeit der entwickelten Software zahlreiche Möglichkeiten zur Weiterentwicklung offen stehen. Bezüglich des Feldgenerators zeigte sich das vielversprechende Potential dieses Geräts für die Weiterentwicklung medizinischer Navigationssysteme.
Für die fortwährende Optimierung von Behandlungsstrategien im Bereich der Strahlentherapie ist es notwendig, Behandlungspläne strukturiert miteinander zu vergleichen. Um die vielfältigen Datenmengen, die sich im Rahmen großer und übergreifender Forschungsprojekte, wie etwa dem ULICE-Projekt [18] ergeben, suffizient auswerten zu können, ist ein leichter Zugriff für alle Projektteilnehmer erstrebenswert. Dieser kann beispielsweise durch den Einsatz einer Telemedizinakte, wie sie z.B. von der Firma CHILI GmbH angeboten wird, erfolgen. Die Telemedizinakte muss unbedingt in der Lage sein, das Datenformat, in dem Therapiepläne abgespeichert werden (DICOM RT), zu verarbeiten. Daher wurde im ersten Schritt dieser Arbeit analysiert, welche Informationen im Rahmen eines DICOM RT Viewing Moduls im CHILI-PACS dargestellt werden können. Als zentrale Aufgabe wurde die Darstellung des Dosis-Volumen-Histogramms (DVH) ermittelt, für dessen Berechnung es Module für die Darstellung der segmentierten Strukturen (RT Structure Set) und die Dosisverteilung (RT Dose) geben muss. Außerdem soll es zu einem späteren Zeitpunkt leicht möglich sein, weitere Module für die Anzeige der übrigen DICOM RT Objekte zu integrieren. Nach der Spezifikation der geforderten Funktionalität wurde ein Konzept für deren Umsetzung erstellt und mit der Implementierung einer der Kernfunktionen begonnen. Durch diese Implementierung soll es anderen Programmierern erleichtert werden, das gewählte Konzept nachzuvollziehen und das DICOM RT Viewing Modul des CHILI-PACS entsprechend erweitern und anpassen zu können, bis letztendlich ein homogenes und vollständiges Gesamtsystem entsteht. Durch die Umsetzung eines Moduls zur Darstellung von RT Structure Sets ist es jetzt möglich, sich die segmentierten Strukturen eines DICOM RT Datensatzes im CHILIPACS anzeigen zu lassen. Es können gezielt einzelne Strukturen an- und abgewählt und deren Konturfarbe geändert werden. Die Darstellung der Konturen ist für die Axial-, die Coronal- und die Sagittalebene möglich. Eine Überprüfung der Funktionalität wurde mit den zur Verfügung stehenden DICOM RT Testdatensätzen durchgeführt.
Eine der zentralen Aufgaben der medizinischen Bildverarbeitung ist es, den Arzt durch neue oder verbesserte Methoden zur Diagnostik und Therapieplanung bei medizinischen Entscheidungs- und Behandlungsprozessen zu unterstützen. Für viele Fragestellungen in der Medizin sind Untersuchungen von Gefäÿsystemen oder anderen tubulären Strukturen erforderlich. Die vorliegende Arbeit beschäftigt sich mit der Konzipierung und der Realisierung eines generischen Datenmodells für tubuläre Strukturen. Für die Darstellung dieser Strukturen wurde eine neue Visualisierungsmethode implementiert. Zudem wurden allgemein verwendbare und benutzerfreundliche Interaktionskomponenten entwickelt, die die Exploration, die Modikation, die Attributierung sowie die Analyse der modellierten Systeme ermöglichen.
Die vorliegende Arbeit beschäftigt sich mit der Entwicklung einer Aufnahmesoftware sowie der Optimierung einer Aufnahmeapparatur zur Messung von Autofluoreszenzlebensdauern und Autofluoreszenzintensitäten im Bereich der Retina. Mithilfe eines blauen Lasers werden fluoreszierende Moleküle in der Retina, Fluorophore, zum Abstrahlen von Licht, der so genannten Fluoreszenz, angeregt. Die Abklingzeit der Fluoreszenzintensität bis zum Ende der Lichtemission eines Moleküls, wird als Fluoreszenzlebensdauer bezeichnet. Die Software ermöglicht es, durch den Einsatz eines speziellen Detektors und einer sehr genauen Stoppuhr diese Fluoreszenzlebensdauer im Pikosekundenbereich zu messen. Anhand der für jeden Stoff individuellen Fluoreszenzlebensdauer können die Moleküle exakt bestimmt werden. Mit einem Messgerät, welches die im Auge vorkommenden Substanzen und deren Verhältnis zueinander messen kann, lassen sich bei Abweichungen von der Norm Diagnosen erstellen und eine Behandlung einleiten. Soft- und Hardware sind in der Lage, die Augenbewegung während einer Messung auszugleichen, sodass selbst bei Messungen im Bereich von einigen Minuten verlässliche Messdaten generiert werden. Ziel dieser Arbeit ist die Fertigstellung eines für den Routineeinsatz geeigneten Prototyps.
Die häufigste Todesursache in Deutschland sind Erkrankungen des Herz-Kreislaufsystems. Zwei häufig auftretende Krankheiten sind Aortenaneurysmen und Aortendissektionen. Für die Diagnose und die computerunterstützte OP-Planung wird eine semantische Annotation der präoperativ akquirierten Bilddaten benötigt. Dies wird herkömmlich durch eine manuelle Segmentierung der betroffenen Strukturen erreicht. Mit Verfahren aus der medizinischen Bildverarbeitung, darunter die deformierbaren Modelle, ist es möglich diese Segmentierung weitgehend zu automatisieren. In dieser Masterarbeit wird ein Verfahren vorgestellt, das mit Hilfe von deformierbaren Modellen eine automatische Segmentierung der Aorta und Aortenpathologien in 2D-CTA-Aufnahmen ermöglicht. Hierfür wurde ein geeignetes deformierbares Modell identifiziert, welches mit üblichen Störungen von CTA-Aufnahmen zurecht kommt. Das Verfahren ist eine Kombination aus den Dual Snakes und den GVF-Snakes und wird Dual-GVF-Snakes genannt. Das Besondere an diesem Verfahren ist, dass nicht nur das Lumen der Aorta und eines Aortenaneurysmas, sondern auch die zwei Lumen einer Aortendissektion gleichzeitig segmentiert werden können. Realisiert wird dies durch eine Unterteilung der Kontur in Segmente mit unterschiedlichen Eigenschaften. Das in dieser Arbeit vorgestellte Verfahren wurde zur Segmentierung von Objekten in synthetischen und klinischen Bilder angewendet, wobei die klinischen Bilder die Aorta, ein Aortenaneurysma und verschiedene Aortendissektionen beinhalten. Zur Evaluierung wurde das Verfahren mit den GVF-Snakes und den AB-Snakes verglichen, indem der Abstand zwischen Referenzkonturen und berechneter Konturen ermittelt wurde. Ein Vorteil gegenüber GVF-Snakes ist, dass zwei Objekte segmentiert und voneinander unterschieden werden können. Im Gegensatz zu den GVF-Snakes und den AB-Snakes müssen weniger Parameter eingestellt werden und die Membran zwischen den beiden Lumen der Aortendissektion wird erkannt. Das Verfahren ist robuster gegenüber der Initialisierung und lierfert vergleichbare Ergebnisse wie das GVF-Snakes Verfahren mit gezielter Initialisierung.
This thesis examines the new major concepts for communicating radiotherapy-related data with DICOM, introduced in Supplement 147. As the existing DICOM information objects, used to transfer radiotherapy-related information, are mostly overloaded and static, new concepts to describe this data are developed at the moment in Supplement 147. These concepts facilitate a more convenient representation of new treatment devices and treatment techniques in DICOM and solve other issues with first-generation DICOM RT objects. Hence Supplement 147 is replacing the entire working concept strategy for a complete domain, and the supplement itself is extensive in comparison to other supplements, an overview whether all these concepts work together just by examining them on a drawing board is hardly possible. Therefore, this thesis investigates the information separation into different Information Object Definitions (IODs), the new radiation prescription object and the new concept to enable abstract access to volumetric objects, which are considered to be the major conceptual changes.
In der vorliegenden Thesis wurde untersucht, ob mit dem derzeitigen Krankenhausinformationssystem sowohl die Patientenversorgung, als auch Forschung unterstützt werden kann. Des Weiteren wurde analysiert, ob sich die erhobenen Patientendaten in einer geeigneten Form befinden, um diese direkt für die Forschung verwenden zu können. Dazu wurde im Rahmen dieser Arbeit eine Prozessanalyse der im Einsatz befindlichen Systeme in der Kinderkardiologie erstellt. Zur Analyse der Prozesse wurde eine IST-Analyse verwendet, welche das Problem der Datenerfassung und -haltung fokussiert. Hierbei wurden zwei Probleme aufgedeckt. Zum einen existierten Medienbrüche zwischen den einzelnen Systemen, welche das Risiko erhöhen, bei der Datenüberführung falsche Werte zu übergeben und dadurch die Qualität der Daten zu mindern. Zum anderen waren einige Informationen innerhalb der Befunde nicht strukturiert. Folglich konnten diese Werte nicht wie beabsichtigt für wissenschaftliche Studien herangezogen werden. Die Weiterverwendung der klinischen Daten in der Forschung (Second Use) war demzufolge nicht möglich. Mittels einer Balanced Scorecard wurde ein Entwicklungsplan erstellt, wie die Vision der Kinderkardiologie erfüllt werden kann. Der strategische Weg der BSC konzentrierte sich darauf, die Patientendaten für die Weiterverwendung bereit zu stellen. Die vier Standardperspektiven der BSC waren für die Kinderkardiologie nicht geeignet und somit mussten andere Perspektiven ausgewählt werden. Es wurden verschiedene Maßnahmen aufgezeigt und miteinander in Hinsicht auf Anwendbarkeit, zeitlichen Aufwand und Verwendung verglichen, um den strategischen Weg der BSC zu erreichen.
In this thesis a software system is proposed that provides transparent access to dynamically processed data using a synthetic filesystem for the data transfer as well as interaction with the processing pipeline. Within this context the architecture for such a software solution has been designed and implemented. Using this implementation various profiling measurements have been acquired in order to evaluate the applicability in different data processing scenarios. Usability aspects, considering the interaction with the processing pipeline, have been examined as well. The implemented software is able to generate the processing result on-the-fly without modification of the original input data. Access to the output data is provided by means of a common filesystem interface without the need of implementing yet another communication protocol. Within the processing pipeline the data can be accessed and modified independently from the actual input and output encoding. Currently the data can be modified using a C/C++, GLSL or Java front end. Profiling data has shown that the overhead induced by the filesystem is negligible for most usage patterns and is only critical for realtime processing with a high data throughput e. g. video processing at or above 30 frames per second where typically no file operations are involved.
Background: An important factor in approaching the challenges of chronic diseases, requiring long-term management and high costs, is the active participation of the patient in the care process. Objectives: Facing the problem of lacking patient-tailored, comprehensive health management software, the aim of this thesis is to generate ideas for a graphical user interface (GUI) to support stroke patients in the management of their individual care process. The objectives are to prototype a GUI for a patient e-service and to evaluate its usefulness and usability with stroke patients. Methods: A scenario-based, user-centered design method was used to envision ideas for the user interface. Static prototypes were realized with the tool Pencil and for the implementation of a dynamic prototype web programming techniques were used. For the evaluation of the prototypes the methods of focus group discussion and cooperative evaluation were applied. Results: The situation of a representative stroke patient and his interaction with the e-service were described in scenarios. Graphical user interfaces of the involved system views were derived from the scenarios and illustrated with static wireframe prototypes. A welcome screen, a care process timeline overview, and a diary with data sharing functionality were designed. The diary functionality was further examined by implementing a prototypical web application. During the evaluation, feedback for further improvements was gathered, and assumptions about the user information and functionality needs could be verified. Conclusion: The developed prototypes represent a suitable graphical user interface and visualizations to support stroke patients in the management of their care process. An overview of appointments on the welcome screen, a diary to document and monitor health, a timeline overview of all time-related health information and a selected sharing functionality were found to be important features of a personal health system for stroke patients.
Im Zuge einer immer weiter voranschreitenden Digitalisierung der medizinischen Dokumentation und der Abläufe in den Kliniken, aufbauend auf die Einführung der elektronischen Patientenakte (EPA), ist Hagen Hupperts vom Geschäftsbereich IT der Berliner Charité überzeugt, dass „der Klinische Arbeitsplatz der Zukunft … mobil“ ist. Damit ist vor allem die mobile Visite gemeint, deren Infrastruktur und Möglichkeiten immer weiter optimiert werden (sollen). Grundsätzlich sind „Visiten … ein wichtiges Element im Behandlungsprozess und gehören im Krankenhaus zur täglichen Routine. Ärzte und Pflegekräfte gehen gemeinsam von Bett zu Bett, um den gesundheitlichen Zustand und die gesundheitliche Entwicklung der einzelnen Patienten zu bewerten und die weitere Behandlung zu planen.“ [1] In einem Pilotprojekt der Berliner Charité wurde die Nutzbarkeit von Tablet-PCs in Zusammenarbeit mit der Siemens AG und SAP untersucht. Die Fachabteilung der Neurologie arbeitet momentan mit dem Krankenhausinformationssystem i.s.h. med und dem digitalen Archiv Soarian Health Archive, kurz SHA. Nachdem in einer ersten Phase 2010 die Neurologische Klinik mit WLAN ausgestattet und in Eigenregie eine mobile Visite mit Laptops aufgebaut wurde, sollte nun der nächste Schritt mit Tablets gegangen werden. Über die App „SAP Electronic Medical Record (EMR)“ kann sowohl auf das KIS und das SHA zugegriffen werden, als auch auf das Bildarchivierungssystem.
Viele schwerstkranke Patienten hegen den Wunsch die letzte Zeit ihres Lebens im häuslichen Umfeld, statt im Krankenhaus zu verbringen. Eine wichtige Voraussetzung dafür ist eine gute Kommunikation zwischen allen Beteiligten des Versorgungsprozesses, damit ambulante und stationäre Versorgung gut aufeinander abgestimmt werden können. Derzeit gibt es nur wenige strukturierte Untersuchungen, welche Informationsbedürfnisse die im Bereich der palliativen Versorgung beteiligten Akteure besitzen und ob und in wieweit diese mit mobilen Anwendungen unterstützt werden können. Die vorliegende Arbeit untersucht, welche Akteure hauptsächlich am Prozess der palliativen Versorgung sowohl im ambulanten als auch im stationären Umfeld beteiligt sind und welche Informationsbedürfnisse diese haben. Weiterhin werden bisher verwendete Werkzeuge, Apps und Anwendungssysteme darauf untersucht, inwiefern sie diesen Informationsbedarf erfüllen. Die Untersuchungen basieren auf einer systematischen Literaturrecherche sowie Hospitationen in drei verschiedenen palliativen Einrichtungen: einer spezialisierten ambulanten Palliativversorgungs Einheit in Buchen im Odenwald, einer Palliativ-Station in Heidelberg sowie einer Palliativ-Einrichtung in Santiago de Chile. Es hat sich herausgestellt, dass die stationären Einrichtungen bereits sehr gute Strukturen für Informationsaustausch und -bereitstellung etabliert haben, diese jedoch im ambulanten Bereich weniger wirksam sind. Gründe hierfür liegen in der größeren örtlichen Distanz und den damit verbundenen längeren Kommunikationswegen im ambulanten Bereich. Ebenso ist bedingt durch den zusätzlichen Fahrtaufwand bei gleicher Patientenzahl und Visitendauer nur eine geringere Anzahl an Visiten möglich. Bisher sind hier aber vor allem die informationsverarbeitenden Prozesse aufgrund der geringen Größe der Einrichtungen und der hohen Individualität der Behandlung wenig automatisiert und automatisierbar. Die für die Palliativversorgung existierenden Softwareprodukte sind hierfür zu umfangreich oder nicht ausreichend adaptierbar. Es hat sich gezeigt, dass der Bedarf an mobiler, technischer Unterstützung vor allem in der ambulanten Palliativversorgung in den Bereichen Dokumentation und Abrechnung, aber auch bei der Bildung und Weiterbildung von Fachpersonal, Patienten und Angehörigen derzeit nicht gedeckt werden kann.
Der Zuwachs medizinischen Wissens ist gewaltig, man spricht von einer Verdopplung in unter 10 Jahren[01], dies macht die Analyse historischer Daten zwingend erforderlich. Um dieses Wissen zu beherrschen werden Datenbanken benötigt, in denen man Krankheits- und Therapieverläufe ablegen kann, um diese dann anschließend unter unterschiedlichsten Anforderungen zu analysieren. Im Falle der Krebstherapie gibt es hierfür sogenannte Krebsregister. Hier werden anonymisierte Daten der Patienten gespeichert, wie zum Beispiel der Verlauf der Krankheit und die Therapie. Ziel ist es, dass alle Krebsfälle in irgendeinem Krebsregister gehalten werden. Dies soll zu einer Verbesserung der medizinischen Leistung am Patienten, sowie der Sicherstellung, dass Patienten überall mit neuesten Therapietechniken und Leistungen versorgt werden, führen. Leider werden die Informationen in den Krebsregistern viel zu wenig genutzt, da viele Ärzte und Wissenschaftler oft nicht Ausreichend vertiefte Kenntnisse in Informationstechnologie und/oder Statistik haben. Diese Tatsache macht es für sie schwierig die riesigen Datenmengen, die vorhanden sind, richtig zu analysieren. Um dieses Problem zu beheben kann man nun in regelmäßigen Abständen einen Statistiker beauftragen, der solche Analysen durchführt. Oft haben Ärzte aber statistisch wenig anspruchsvolle Anfragen oder es fällt ihnen erst auf, nachdem der Statistiker wieder gegangen ist. Solange es also eine solche Schwierigkeit darstellt, die Daten richtig zu analysieren, sind die Krebsregister ein Datenfriedhof, deren riesiges Potential nicht ausgenutzt wird. Dieser Zustand ist sowohl für Patienten, als auch für die Ärzte, nicht zufriedenstellend und bedarf dringend einer Änderung. Die Ziele sind: 1. Eine Analyse einer Software zur statistischen Auswertung von Daten aus einem Krebsregister (OCDM-Software), sowohl im Bezug auf ihre Software-Architektur, als auch auf ihre Funktion. 2. Das Erstellen einer Anforderungsanalyse, welche die Erweiterungen beschreibt, die an der oben erwähnten OCDM-Software vorzunehmen sind. 3. Die Umsetzung dieser Anforderungsanalyse in die bestehende Anwendung. 4. Ein abschließender Systemtest der Anwendung, um einen reibungslosen Ablauf im Klinikalltag zu gewährleisten. Ziel der Erweiterung ist es, den Ärzten die Analyse der gesammelten Patientendaten zum Pankreaskarzinom zu vereinfachen und somit die medizinische Betreuung in der Klinik zu verbessern.
Quantitative assessment of Positron Emission Tomography (PET) imaging can be used for diagnosis and staging of tumors and monitoring of response in cancer treatment. In clinical practice, PET analysis is based on normalized indices such as those based on the Standardized Uptake Value (SUV). Although largely evaluated, these indices are considered quite unstable mainly because of the simplicity of their experimental protocol. Development and validation of more sophisticated methods for the purposes of clinical research require a common open platform that can be used both for prototyping and sharing of the analysis methods, and for their evaluation by clinical users. This work was motivated by the lack of such platform for longitudinal quantitative PET analysis. By following a prototype driven software development approach, an open source tool for quantitative analysis of tumor changes based on multi-study PET image data has been implemented. As a platform for this work, 3D Slicer 4, a free open source software application for medical image computing has been chosen. For the analysis and quantification of PET data, the implemented software tool guides the user through a series of workflow steps. In addition to the implementation of a guided workflow, the software was made extensible by integration of interfaces for the enhancement of segmentation and PET quantification algorithms. By offering extensibility, the PET analysis software tool was transformed into a platform suitable for prototyping and development of PET-specific segmentation and quantification methods. The accuracy, efficiency and usability of the platform were evaluated in reproducibility and usability studies. The results achieved in these studies demonstrate that the implemented longitudinal PET analysis software tool fulfills all requirements for the basic quantification of tumors in PET imaging and at the same time provides an efficient and easy to use workflow. Furthermore, it can function as a platform for prototyping of PET-specific segmentation and quantification methods, which in the future can be incorporated in the workflow.
Clinical diagnosis ideally relies on quantitative measures of disease. For a number of diseases, diagnostic guidelines require or at least recommend neuroimaging exams to support the clinical findings. As such, there is also an increasing interest to derive quantitative results from magnetic resonance imaging (MRI) examinations, i.e. images providing quantitative T1, T2, T2* tissue parameters. Quantitative MRI protocols, however, often require prohibitive long acquisition times (> 10 minutes), nor standards have been established to regulate and control MRI-based quantification. This work aims at exploring the technical feasibility to accelerate existing MRI acquisition schemes to enable a -3 minutes clinical imaging protocol of quantitative tissue parameters such as T2 and T2* and at identifying technical factors that are key elements to obtain accurate results. In the first part of this thesis, the signal model of an existing quantitative T2-mapping algorithm is expanded to explore the methodology for a broader use including the application to T2* and its use in the presence of imperfect imaging conditions and system related limitations of the acquisition process. The second part of this thesis is dedicated to optimize the iterative mapping algorithm for a robust clinical application including the integration on a clinical MR platform. This translation of technology is a major step to enable and validate such new methodology in a realistic clinical environment. The robustness and accuracy of the developed and implemented model is investigated by comparing with the "gold standard" information from fully sampled phantom and in-vivo MRI data.