Refine
Year of publication
Document Type
- Master's Thesis (63)
- Bachelor Thesis (55)
- Other (12)
- Diploma Thesis (2)
- Doctoral Thesis (2)
- Preprint (2)
- Course Material (1)
Has Fulltext
- yes (137)
Is part of the Bibliography
- no (137)
Keywords
- Analyse (19)
- Entwicklung (11)
- Reise (11)
- Urlaub (10)
- Implementierung (9)
- Software (8)
- Konzeption (7)
- Evaluation (6)
- Patient (5)
- Strahlentherapie (5)
- Tumor (5)
- Ultraschall (5)
- Anwendung (4)
- Computer (4)
- Medizin (4)
- Segmentierung (4)
- Application (3)
- Applikation (3)
- Daten (3)
- Neuronales Netz (3)
- Realisierung (3)
- Roboter (3)
- Simulation (3)
- Wikipedia (3)
- Auswertung (2)
- Benutzeroberfläche (2)
- Bildgebung (2)
- Data Mining (2)
- Datenanalyse (2)
- Datenbank (2)
- Differenz (2)
- Einsatz (2)
- Entwurf (2)
- Extraktion (2)
- Gehirn (2)
- Klassifikation (2)
- Kolorektalkarzinom (2)
- Komponente (2)
- MRI (2)
- Management (2)
- Maschinelles Lernen (2)
- Modellierung (2)
- Open Source (2)
- Operation (2)
- Optimierung (2)
- Patientendaten (2)
- Punktion (2)
- Struktur (2)
- Terminologie (2)
- Therapie (2)
- Verwaltung (2)
- Verwendung (2)
- Visualisierung (2)
- Webservice (2)
- stroke (2)
- web application (2)
- 3D Slicer (1)
- 3D-Ultraschall (1)
- AAL (1)
- Abstimmung (1)
- Accelerated (1)
- Activity recognition (1)
- Akquisition (1)
- Akte (1)
- Algorithmus (1)
- Alzheimer (1)
- Ambient Assisted Living (1)
- Ambulanz (1)
- Analyse , Datenqualität , Krebsregister (1)
- Analyse , Evaluation , Modulation , Funktechnik (1)
- Anatomie (1)
- Android (1)
- Android <Systemplattform> (1)
- Anerkennung (1)
- Anforderung (1)
- Angststörung (1)
- Antragsportal (1)
- Aorta (1)
- App (1)
- Applikation , Atemfrequenz , Signalverarbeitung , Python (1)
- Arbeitsheft (1)
- Arztbrief (1)
- Auswahl (1)
- Automation (1)
- Automatisch (1)
- BPMN (1)
- Bandscheibenvorfall (1)
- Benennungssystematik (1)
- Benutzung (1)
- Berechnung (1)
- Berücksichtigung (1)
- Beschleunigungssensor (1)
- Betreuung (1)
- Betriebssystem (1)
- Bewegung (1)
- Bewertung (1)
- Bild (1)
- Bildverarbeitungsprogramm (1)
- Bluetooth-Standard (1)
- Brain (1)
- Brain-Computer-Interfaces (1)
- British Broadcasting Corporation (1)
- Browser (1)
- COPD-Patienten (1)
- Computertomographie (1)
- Darstellung (1)
- Dateisysteme (1)
- Datenbrille (1)
- Datenmodell (1)
- Datenverarbeitung (1)
- Datenübertragung (1)
- Deep learning (1)
- Definition (1)
- Development (1)
- Digitalisierung , Verstärker (1)
- Dokumentation (1)
- Doppler-Effekt (1)
- Drahtloskommunikation (1)
- E-Health (1)
- E-Learning (1)
- EC-Motoren (1)
- Einwilligung (1)
- Electronic Commerce (1)
- Elektromyogramm (1)
- Elektrookulogramm (1)
- Elektrostimulation (1)
- Entscheidung (1)
- Entspannung (1)
- Entwicklung , Anwendung , Verbesserung , Information , Patient (1)
- Entwicklung , Datei , Datenerfassung , Klinisches Experiment (1)
- Entwicklung , Realisierung , Signalverarbeitung (1)
- Entwicklung , Registrierung , Identifikation (1)
- Entwicklungsplan (1)
- Erweiterung (1)
- Experimental (1)
- Expositionstherapie (1)
- Eye Tracking (1)
- Feldgenerator (1)
- Feldschwächung (1)
- Festschrift (1)
- Forschung (1)
- Französisch (1)
- Gammastrahlung (1)
- Gangzyklus-Erkennung (1)
- Genbezeichnungen (1)
- Gendatenbanken (1)
- Generator (1)
- Generierung (1)
- Genvariante (1)
- Gerhard Vogler (1)
- Germany (1)
- Gesichtschirurgie (1)
- Gestaltung , Realisierung , Benutzeroberfläche , Software , Strahlentherapie (1)
- Gesundheitsakte (1)
- Gesundheitssystem (1)
- Gesundheitswesen (1)
- Gewebebank (1)
- Grippe (1)
- Handhabung (1)
- Heidelberg / Deutsches Krebsforschungszentrum (1)
- Heilbronn (1)
- Hippocampus (1)
- Hochfrequenzsignal (1)
- Hochfrequenzverstärkern (1)
- Hochschule Heilbronn (1)
- IT-Projekt (1)
- Idee (1)
- Implementation (1)
- Implementierung , Validierung , Software , Schädel , Segmentierung , Chirurgie (1)
- Import (1)
- Importfunktion (1)
- Improving ; Medication (1)
- Influenzavirus (1)
- Informationsaustausch (1)
- Informationsbedarf (1)
- Informationsgewinnung (1)
- Informationssystem , Rauschgift (1)
- Initiierung (1)
- Integration (1)
- Integration , Lebertumor (1)
- Interfaces (1)
- Java (1)
- Jugendliche (1)
- Jugendliche ; Bewegungsmangel (1)
- Kieferchirurgie (1)
- Kieferrekonstruktion (1)
- Kind (1)
- Kinder (1)
- Kinematik (1)
- Klassenzimmer (1)
- Klinik (1)
- Knochen (1)
- Konfiguration (1)
- Konvertierung (1)
- Konzept (1)
- Konzeption , Entwicklung , Applikation , Ultraschall (1)
- Konzeption , Implementierung , Unterstützung , Hand , Therapie (1)
- Kookkurrenzwerte (1)
- Krankenunterlagen (1)
- Krebsregister (1)
- Laser (1)
- Lebenszyklus (1)
- Lebertumorsegemntierung (1)
- Lehre (1)
- Lehrkonzept (1)
- Leitlinie (1)
- Lichtbrechung (1)
- Lokalisationskontrolle (1)
- Low Energy (1)
- Lunge (1)
- Lungenkrebs (1)
- Lüftermotor (1)
- MITK (1)
- MITK-IGT (1)
- MITU (1)
- MOPS (1)
- Mathematik (1)
- Medical Imaging Interaction Toolkit (1)
- Medikamenteneinnahme (1)
- Medizintechnik (1)
- Mensch (1)
- Messtechnik (1)
- Methode (1)
- Mevislab (1)
- Model-View-Controller-Modell (1)
- Monte-Carlo-Verfahren (1)
- Motivation (1)
- Motorik (1)
- Multi-Template-Ansatz (1)
- Multiple Lineare Regression (1)
- Multipletts (1)
- Mundchirurgie (1)
- MySQL (1)
- Myatrophische Lateralsklerose (1)
- Myo-Armband (1)
- NFC-Tag (1)
- NFC-Tags (1)
- NMR-Spektroskopie (1)
- Nachrichtenübertragungstechnik (1)
- Next-Generation (1)
- Nutzwertanalyse (1)
- OLAP ; T-Mobile (1)
- Oberflächeninterpolation (1)
- Ontologie (1)
- Open Clinica (1)
- Open-Source-Software (1)
- OpenCL (1)
- Operation Data Model (1)
- Organmodell (1)
- Palliativversorgung (1)
- Patient , Analyse , Nachsorge (1)
- Patient , Therapie (1)
- Patientenakte (1)
- Periphere arterielle Verschlusskrankheit (1)
- Pflegeüberleitungsbogen (1)
- Pharmakogenomik (1)
- Photometric ; Stereo (1)
- Plagiarism Finder (1)
- Plagiat (1)
- Plagiatserkennung (1)
- ProKEt (1)
- Programmierung , Krankenhaus , Symptom , Uganda (1)
- Programmkomponente (1)
- Projektcontrolling (1)
- Projektkontrolle (1)
- Projektplanung (1)
- Projektsteuerung (1)
- Prothese , Bewegung (1)
- Protégé (1)
- Prozess (1)
- Prozessanalyse (1)
- Prozessautomatisierung (1)
- Prozessunterstützung (1)
- Präsentation (1)
- Quantifizierung (1)
- Radiologie (1)
- Randi 2 (1)
- Randomisationsverfahren (1)
- Randomisierung (1)
- Raspberry Pi (1)
- Re-engineering (1)
- Realschulunterricht (1)
- Reanimation (1)
- Registrierung (1)
- Reisemittler (1)
- Reiseveranstalter (1)
- Rekonstruktion (1)
- Relaxation (1)
- Rendering (1)
- Retina (1)
- Robotik (1)
- SLK-Kliniken Heilbronn (1)
- SWOT-Analyse (1)
- Schlaganfall (1)
- Schlaganfall , Rehabilitation (1)
- Schädelsegmentierung (1)
- Segmentation (1)
- Signalverarbeitung , Vernetzung , Messgerät (1)
- Signalübertragung (1)
- Smartphone (1)
- Software , Simulator , Analyse , Programmiersprache (1)
- Softwarearchitektur (1)
- Softwareentwicklung (1)
- Softwaretool (1)
- Sprachsteuerung (1)
- Sterilgutaufbereitung (1)
- Struktur ; Zement ; Schnittbilder (1)
- Studien (1)
- Stundenplan (1)
- Suchmaschine (1)
- System (1)
- System , Erinnerung , Apple Watch , Verwendung (1)
- Systemanalyse (1)
- Sägeschnittschablone (1)
- TPS (1)
- Tablet-PC (1)
- Telemetrie (1)
- Test (1)
- Thalmic Myo (1)
- Thermoelektrik (1)
- Tomographie (1)
- Tourismus (1)
- Trackingsystem (1)
- Training (1)
- Trainingssoftware (1)
- Treatment (1)
- Tumorzentrum (1)
- Tätigkeit (1)
- Uganda (1)
- Ultraschallbildgebung (1)
- Untenehmensplanung (1)
- Unterkiefer (1)
- Unternehmensplanung (1)
- Unterstützung (1)
- VEGAS-Algorithmus (1)
- VR-Anwendung (1)
- VR-Applikation (1)
- Vanderbilt (1)
- Verbesserung (1)
- Verfahren (1)
- Verifikation (1)
- Versorgung (1)
- Verteilung (1)
- Visualization ; Cancer ; Support (1)
- Volume (1)
- Webanwendung (1)
- Webapplikation (1)
- Weichgewebe (1)
- Weiterentwicklung (1)
- Wiederverwertung (1)
- Workflow (1)
- Zeit (1)
- accelerometer (1)
- ambulatory monitoring (1)
- artificial neural networks (1)
- autonomous navigation (1)
- bildgebende Verfahren (1)
- biologically-inspired learning (1)
- computer based training (1)
- cytoscape (1)
- data collection (1)
- database (1)
- design science (1)
- disc herniation (1)
- driving simulator (1)
- drug interaction (1)
- eHMIS (1)
- elektronische Gesundheitsakten (1)
- filesystems (1)
- graphical user interface (1)
- hospital (1)
- i2b2 (1)
- iBeacon (1)
- integriertes Projektcontrolling (1)
- intelligent mobile agent (1)
- java (1)
- krank (1)
- medizinische Ausbildung (1)
- medizinische Bildgebung (1)
- medizinische Strukturen (1)
- obstacle avoidance (1)
- patient empowerment (1)
- personal health systems (1)
- personalized medicine (1)
- reactive obstacle avoidance (1)
- rehabilitation (1)
- reinforcement learning (1)
- research planning (1)
- secondary use (1)
- study planning (1)
- supervised learning (1)
- support system (1)
- therapy planning (1)
- virtuell (1)
- virtuelle Umgebung (1)
- visualization (1)
- Übertragungsrate (1)
- Überwachung (1)
Institute
- Medizinische Informatik (72)
- Informatik (44)
- Bibliothek allgemein (13)
- Bibliothek (2)
- Mechanik und Elektronik (2)
- Elektrotechnik und Informationstechnik (1)
Mit der Entdeckung der Röntgenstrahlen im Jahre 1895 begründete Wilhelm Conrad Röntgen die medizinische Bildgebung. Diese ermöglichte erstmals, zu diagnostischen oder therapeutischen Zwecken einen Blick in das Innere des Menschen zu werfen, ohne dass sich dieser einer unter Umständen riskanten Operation unterziehen musste. Die Röntgentechnik gestattet allerdings nur die Projektion anatomischer Strukturen auf ein zweidimensionales Bild. Erst die Erweiterung der Bildgebung auf tomographische Verfahren, wie der Computer und Magnetresonanztomographie, erlaubte es, kontrastreiche, überlagerungsfreie 3D Schichtbilder zu erzeugen [13, S. 1]. Weitere Unterstützung hat die medizinische Bildgebung durch die Computertechnik erfahren, die eine digitale Nachbearbeitung der Bilder oder oft auch eine umfassende Bildanalyse ermöglicht. Im Zuge der technischen Weiterentwicklung kommen immer leistungsfähigere Computer zum Einsatz. Daher ist es nicht verwunderlich, dass medizinische Bilder heute hauptsächlich digital gespeichert, verschickt und bearbeitet werden. Auch entwickeln sich die bildgebenden Modalitäten weiter, was zu immer höher aufgelösten Bildern führt, in denen immer feinere Strukturen erkennbar sind. Simultan bedeutet das, dass für immer größere Datenmengen eine digitale Bearbeitung am Computer bewerkstelligt werden muss. Es ist deshalb ein zentrales Anliegen, effziente bildverarbeitende Algorithmen zu entwickeln.
3D-Ultraschall beim MITK
(2017)
In dieser Bachelorthesis wird ein Frei-Hand-3D-Ultraschallsystem entwickelt. Dieses
soll 3D-Ultraschallbildgebung im MITK ermöglichen. Basis hierfür sind ein konventionelles
2D-Ultraschallgerät und ein optisches Trackingsystem. Die nötigen Teilschritte
werden erläutert und beschrieben.
Ergebnis ist ein Plugin für das MITK, das aus aufgenommenen 2D-Ultraschallbildern
ein 3D-Volumen berechnet.
Clinical diagnosis ideally relies on quantitative measures of disease. For a number of diseases, diagnostic guidelines require or at least recommend neuroimaging exams to support the clinical findings. As such, there is also an increasing interest to derive quantitative results from magnetic resonance imaging (MRI) examinations, i.e. images providing quantitative T1, T2, T2* tissue parameters. Quantitative MRI protocols, however, often require prohibitive long acquisition times (> 10 minutes), nor standards have been established to regulate and control MRI-based quantification. This work aims at exploring the technical feasibility to accelerate existing MRI acquisition schemes to enable a -3 minutes clinical imaging protocol of quantitative tissue parameters such as T2 and T2* and at identifying technical factors that are key elements to obtain accurate results. In the first part of this thesis, the signal model of an existing quantitative T2-mapping algorithm is expanded to explore the methodology for a broader use including the application to T2* and its use in the presence of imperfect imaging conditions and system related limitations of the acquisition process. The second part of this thesis is dedicated to optimize the iterative mapping algorithm for a robust clinical application including the integration on a clinical MR platform. This translation of technology is a major step to enable and validate such new methodology in a realistic clinical environment. The robustness and accuracy of the developed and implemented model is investigated by comparing with the "gold standard" information from fully sampled phantom and in-vivo MRI data.
Access, Handling and Visualization Tools for Multiple Data Types for Breast Cancer Decision Support
(2011)
Breast cancer is the most commonly diagnosed cancer among U.S women, besides skin cancer. More than 1 in 4 cancers among women are breast cancer. And though death rates have been decreasing since 1990, about 40,170 women in the U.S. were expected to die in 2009 from breast cancer. The progress of molecular profiling, in the last decade has revolutionized the understanding of cancer, but also introduced more complexity with new data such as gene expression, copy number variation, mutations and DNA methylation. These new data open up the possibility of differential diagnosis, much more precise prognosis as well as prediction of therapy response than any of the diagnostic tools that are available in the current practice. Additionally, epidemiological databases store clinically relevant information on hundreds of thousands of patients. However, with the abundance of all this information, clinicians will need new tools to access and visualize such data and use the information gained to treat new patients. The general problem will be to access, filter and analyze the data and then visualize them in a clinical context. This data ranges from clinico-pathological information, to molecular profiles from highthroughput genomic measurements and imaging data. Furthermore, data from patient populations is aggregated on epidemiological level and can be found under numerous clinical studies.
An architectural concept for implementing the socio-technical workflow of Digital Pathology in Chile
(2014)
Virtual Microscopy opens up the possibility to remotely access high quality images at large scales for scientific research, education, and clinical application. For clinical diagnostics, Digital Pathology (DP) presents a novel opportunity to reduce variability [Bauer et al., 2013] due to the reproducible access to Whole Slide Imaging, quantitative parameters (e.g. HER2 stained membrane) [Al-Janabi et al., 2012], second opinion and Quality Assurance [Ho et al., 2013]. Despite of the mentioned advantages, the challenge remains to incorporate DP into the pathologists workflow within a heterogeneous environment of systems and infrastructures [Stathonikos
et al., 2013]. Different issues must be solved in order to optimize the impact of DP in the daily clinical practice [Daniel et al., 2012] [Ho et al., 2006]. The integration needs precise planning and comprehensive evaluation for adopting this technology
[Stathonikos et al., 2013]. This thesis will focus on an organizational development approach based on a Socio-Technical System (STS). The socio-technical approach covers: (i) the technical issue: tissue-scanner, NDP.view, NDP.serve, analysis software, and (ii) the social issue: pathologists, technicians. In order to improve the integration, a joint optimization (of i and ii) is necessary. The developed STS approach will optimize the integration of DP towards improved workflows in clinical environments. The improved workflows will reduce the pathologists turnaround time, improve the certainty of the diagnostics, and provide a more effective patient care within the covered institutions. An overt multi-site Participatory Observation, Questionnaires, and Business Process Modelling Notation will be used to analyse the existing pathological workflows. Based on this, the system will be modelled with the 3lgm2 Toolkit [Winter et al., 2007] under consideration of various technical subsystems that are present in the clinical environment. Afterwards, the interfaces between subsystems and its possible interoperabilities will be evaluated, taking into account the different existing standards and guidelines for image processing and management, as well as business processes in DP. In order to analyse the existing preconditions a questionnaire will be evaluated to establish a robust and valid view. In addition, the overt participatory observation will support this elevation, giving a deeper insight on the social part. This observation also covers the technical side including the whole pathological process. The socio technical model will then reveal measurable potential for optimization with incorporated DP (e.g. higher throughput for slides). The organizational development approach consists of a Socio-Technical System based on overt multi-site participatory observations, questionnaires, business process modelling and 3LGM2, will optimize the use of Digital Pathology in the daily clinical practice and raise the acceptance to incorporate integrate the new technology within the dayly workflow through the user centred process of incorporation.
• Perform and evaluate a questionnaire and a participant observation of pathologists work days in private & public institutions
• Create and evaluate a 3lgm2 model
• Model the current pathological process (viewpoint of pathologist & technical assistant) & perform and evaluate a contextual inquiry to elevate the pathologists requirements & expectations towards the system
• Test the future WF according the model parameters.
This project will detect unsuspected interrelations and interdependencies within the socio- technical workflow with a pathology laboratory. The observation will reveal the action conformity as well as the environment in which the process has to be embedded. Furthermore it will establish an optimized workflow for a specific clinical environment to prepare the implementation of DP. Additionally it will be possible to
quantify digitized images in order to improve decision making and lastly to improve patient care. In the future it will be possible to extend automated image analysis in order to support clinical decision support. Depending on acceptance, this can lead towards an automated clinical decision support for cases with low complexity.
Ziel dieser Bachelorthesis ist es, den Datenbestand des Klinischen Krebsregisters am
Tumorzentrum Heilbronn-Franken auf seine Vollständigkeit, Vollzähligkeit und seine
Repräsentativität zu untersuchen.
Diese werden am Beispiel des Kolorektalen Karzinoms untersucht.
Folgende Fragen lassen sich formulieren:
• Lassen sich mit den in einem einrichtungsbezogenen klinischen Krebsregister, wie
dem am Gesundbrunnen Heilbronn, erhobene regionale Daten ggfs. überregionale und
eventuell sogar bundesweite Aussagen ableiten?
• Sind die erfassten Daten vollständig bzw. wie vollständig sind die Datenbestände der
registrierten Patienten?
• Sind die erfassten Daten im Tumorzentrum Heilbronn-Franken am Gesundbrunnen
Heilbronn vollzählig? Werden im Klinischen Krebsregister der SLK-Kliniken alle
Neuerkrankungen erfasst?
Wird bei einem Patienten mit Kolorektalkarzinom der Tumor erfolgreich entfernt, beginnt die Nachsorgephase. Der Nachsorgeplan, welchen die Patienten bei der
Entlassung erhalten, orientiert sich an der S3-Leitlinie des Leitlinienprogramms für Onkologie. Der Patient kann selbst entscheiden, wo die Nachsorge stattfinden wird. Entweder lässt er seine Nachsorgeuntersuchungen in der Klinik durchführen (klinikinterne Nachsorge) oder er sucht einen niedergelassenen Onkologen auf (klinikexterne Nachsorge). Gegenstand dieser Arbeit ist die Analyse der klinikinternen und
-externen Nachsorge in Bezug auf die Einhaltung der S3-Leitlinie. Ziel ist es, festzustellen, ob anhand der erhobenen Daten Rückschlüsse auf die Leitlinientreue in Bezug auf die Nachsorge der Patienten gezogen werden kann. Im Rahmen dieser Thesis werden Patienten mit einem UICC-Stadium II oder III und einem Diagnosedatum zwischen 2009 und 2013 betrachtet. Basierend auf den Kriterien wurden 562 Datensätze aus dem GTDS exportiert. Nach anschließendem Bearbeiten und Aussortieren wurden 426 Patienten analysiert. Im seit 2001 in Heilbronn eingesetzten Gießener Tumordokumentationssystem (GTDS) werden die Falldaten der Tumorpatienten dokumentiert und gespeichert. Die Verlaufsdaten der
TNM-Dokumentation werden mindestens einmal jährlich zu den Patienten erhoben. Diese Daten werden analysiert, um die Leitlinientreue zu überprüfen.
Der Vergleich zwischen S3-Leitlinie und vorgenommenen Untersuchungen kann sich aufgrund lokaler Dokumentationspraxis nur auf den zeitlichen Ablauf der Untersuchungstermine beschränken, da im GTDS keinerlei Informationen zu der Art der vorgenommenen Untersuchung vorliegen. Um die zeitlichen Abläufe zu analysieren, werden aus den vorliegenden Datumswerten für jeden Patient ein Pfad bestehend aus Zuständen (Tumorfreiheit, Untersuchung 1, etc.) gebildet. Die Übergangswahrscheinlichkeiten
stellen einen Indikator für die Termintreue der Patienten dar. Es wurden 146 Patienten klinikintern und 149 Patienten klinikextern behandelt. 131 Patienten erhielten eine gemischte Nachsorge. Zusammenfassend lässt sich sagen, dass die Informationen aus dem GTDS nicht ausreichen, um eine Leitlinienkonformität der Nachsorge von Kolorektalkarzinompatienten nachzuweisen, da im GTDS ausschließlich der Tumorverlauf dokumentiert wird, aber nicht, wie sich die Nachsorge im Speziellen gestaltet.
Der Zuwachs medizinischen Wissens ist gewaltig, man spricht von einer Verdopplung in unter 10 Jahren[01], dies macht die Analyse historischer Daten zwingend erforderlich. Um dieses Wissen zu beherrschen werden Datenbanken benötigt, in denen man Krankheits- und Therapieverläufe ablegen kann, um diese dann anschließend unter unterschiedlichsten Anforderungen zu analysieren. Im Falle der Krebstherapie gibt es hierfür sogenannte Krebsregister. Hier werden anonymisierte Daten der Patienten gespeichert, wie zum Beispiel der Verlauf der Krankheit und die Therapie. Ziel ist es, dass alle Krebsfälle in irgendeinem Krebsregister gehalten werden. Dies soll zu einer Verbesserung der medizinischen Leistung am Patienten, sowie der Sicherstellung, dass Patienten überall mit neuesten Therapietechniken und Leistungen versorgt werden, führen. Leider werden die Informationen in den Krebsregistern viel zu wenig genutzt, da viele Ärzte und Wissenschaftler oft nicht Ausreichend vertiefte Kenntnisse in Informationstechnologie und/oder Statistik haben. Diese Tatsache macht es für sie schwierig die riesigen Datenmengen, die vorhanden sind, richtig zu analysieren. Um dieses Problem zu beheben kann man nun in regelmäßigen Abständen einen Statistiker beauftragen, der solche Analysen durchführt. Oft haben Ärzte aber statistisch wenig anspruchsvolle Anfragen oder es fällt ihnen erst auf, nachdem der Statistiker wieder gegangen ist. Solange es also eine solche Schwierigkeit darstellt, die Daten richtig zu analysieren, sind die Krebsregister ein Datenfriedhof, deren riesiges Potential nicht ausgenutzt wird. Dieser Zustand ist sowohl für Patienten, als auch für die Ärzte, nicht zufriedenstellend und bedarf dringend einer Änderung. Die Ziele sind: 1. Eine Analyse einer Software zur statistischen Auswertung von Daten aus einem Krebsregister (OCDM-Software), sowohl im Bezug auf ihre Software-Architektur, als auch auf ihre Funktion. 2. Das Erstellen einer Anforderungsanalyse, welche die Erweiterungen beschreibt, die an der oben erwähnten OCDM-Software vorzunehmen sind. 3. Die Umsetzung dieser Anforderungsanalyse in die bestehende Anwendung. 4. Ein abschließender Systemtest der Anwendung, um einen reibungslosen Ablauf im Klinikalltag zu gewährleisten. Ziel der Erweiterung ist es, den Ärzten die Analyse der gesammelten Patientendaten zum Pankreaskarzinom zu vereinfachen und somit die medizinische Betreuung in der Klinik zu verbessern.
Die Popularität der drahtlosen Datenübertragung wächst, seit dem der Standard 802.11 im Jahr 1997 vom Institute of Electrical and Electronics Engineers (IEEE) für die private Nutzung ausgegeben wurde, stetig an. Hierbei beschränken sich die meisten Anwendungen auf das Wesentliche: die Übertragung von Nutzdaten zwischen einem Access Point und verschiedenen Endgeräten. Der konventionelle Weg der Datenverarbeitung in drahtlosen Netzwerk-Modulen sieht vor, dass zunächst digitale Daten in analogen Verfahren moduliert werden. Nach der Übertragung als elektromagnetische Welle, werden die analogen Daten wieder von eingebetteten Systemen in einen digitalen Datenstrom übersetzt und zum Weiterverarbeiten weitergereicht. Durch die steigende Rechenleistung von Computern gibt es auch andere Wege der Übertragung. Mit der Idee, den Datenstrom nicht analog weiterzuverarbeiten, sondern ihn in digitaler Form zu modulieren oder zu demodulieren entstanden die ersten ‚Software-Radios‘. Zu Beginn der drahtlosen Ära wurden Software-Radios zum Beispiel dazu genutzt, um Sicherheitslücken in Wi-Fi Übertragungen zu finden. Heutzutage finden Software-Radios immer mehr Anwendungen in wissenschaftlichen Bereichen abseits der üblichen Datenübertragung. Als alternative Vorreiter gelten die Arbeiten der Universität Washington „Whole-Home Gesture Recognition Using Wireless Signals“ (Quifan et al., 2013a) und die des Massachusetts Institute of Technology „See Through Walls with Wi-Fi“ (Adib F. and Katabi D., 2013). Die erst genannte Anwendung beruht auf der Theorie des Doppler-Effekts für elektromagnetische Wellen und zeigt auf, dass es möglich ist, die Übertragungsverfahren des IEEE 802.11 zu überwachen und Bewegungen nahe den Antennen zu erfassen. Die Zweite zeigt auf, dass ähnliche Ergebnisse auch ohne den Doppler-Effekt sondern nur durch die gemessenen Reflexionen von Signalen erreicht werden können. Die Möglichkeiten dieser Techniken reichen von einer Gestensteuerung, die ohne zusätzliche Sensoren am Menschen auskommt, bis zum Visualisieren von Bewegungen hinter Wänden.
Der Gegenstand der vorliegenden Arbeit ist grundliegende Problematiken der Detektion des Doppler-Effekts in digitalen Modulationen aufzuzeigen. Hierfür werden Grundlagen der Empfangstechnik erläutert. Weiterhin wird der Einsatz aktueller Grafikkarten in Software-Radios zur Detektion des Doppler-Effekts untersucht.
In der Kernresonanzspektroskopie, wie auch in anderen spektroskopischen Disziplinen, unterliegt die
Genauigkeit und Vollständigkeit eines Spektrums den verschiedenen Einstellungen des Messgeräts
sowie dem verwendeten Gerätetypen. Um das gemessene Spektrum besser analysieren zu können,
wird versucht, es an die Realität anzunähern. Eine allgemeine Annahme dazu ist, dass mehrere, sich
teilweise überlagernde Peaks das Spektrum bilden. Alle Peaks verlaufen dabei gemäß einer Funktion,
deren Modellparameterwerte variieren.
Es gibt verschiedene Ansätze zur Bestimmung des Spektrums, zum Beispiel die Modellanpassung und
die Maximum-Entropie-Methode. Eine große, gegen Unendlich strebende Anzahl an Peaks scheint
die gemessenen Spektrumdaten am besten nachzubilden. Dies ist jedoch wenig naturgetreu.
In dieser Arbeit gehe ich dem Bayes’schen Ansatz zur Datenanalyse nach, um die Peakanzahl auszumachen,
für die die größte Wahrscheinlichkeit in den Messdaten liegt.
Während meiner Diplomarbeit hat sich die anfängliche Annahme, dass die Peaks nach der Lorentz-
Funktion geformt sind, revidiert. Letztendlich habe ich versucht, die Bestimmung der Peakanzahl mit
Peaks in Form des Pseudo-Voigt-Profils durchzuführen.
Für die Berechnung der Posterior-Wahrscheinlichkeit einer Peakanzahl war es nötig, ein multiples
Integral zu lösen. Dieses entstand durch die Marginalisierung einiger Störparameter.
Ein Ziel dieser Diplomarbeit war es, das multidimensionale Integral numerisch zu berechnen. Umgesetzt
werden sollte dies mit dem VEGAS-Algorithmus, der das Monte-Carlo-Verfahren zur Integration
verwendet. Ich habe den Algorithmus und die Anwendungen der Arbeit in Matlab implementiert.
Um die Integration mit dem VEGAS-Algorithmus zu testen, habe ich eine Beispielanwendung zur
Integration unterschiedlich dimensionaler Rosenbrock-Funktionen durchgeführt.
Die Anwendung zur Bestimmung der Peakanzahl in einem Spektrum habe ich zunächst für simulierte
Daten mit zwei unterschiedlichen Formeln der Lorentzfunktion umgesetzt.
Die erste Lorentzfunktion enthält zwei Modellparameter, die Lage der Amplitude und die Halbwertsbreite,
und ist zu eins normiert. Bei ihr ist die Amplitude abhängig von der Halbwertsbreite.
Die zweite Formel besteht aus drei unabhängigen Modellparametern: der Amplitude, ihrer Lage und
der Halbwertsbreite. Damit ist sie für die Auswertung realer Messdaten geeigneter als die vorherige
normierte Lorentzfunktion.
Bei der Anwendung mit simulierten Daten mit drei Modellparametern sowie mit gemessenen Daten
und dem Modell des Pseudo-Voigt-Profils konnte die Anzahl der Peaks nicht bestimmt werden.
Die Schwierigkeit der Bestimmung der Peakanzahl mit dem VEGAS-Algorithmus lag anscheinend
bei der Integration über die Amplitude. Zur Klärung des Problems habe ich die Anwendung mit
dem Pseudo-Voigt-Profil und den realen Messdaten über einen anderen Lösungsweg zur numerischen
Integration, mit einer Likelihood-Matrix, untersucht.
Dadurch kam die Vermutung auf, dass die Diskretisierung in y-Richtung durch das Importance
Sampling des VEGAS-Algorithmus nicht konform mit der Messpunktverteilung ist. Ich habe versucht
über eine Präzisionsanpassung der Amplitudenstützwerte das Problem zu lösen, was teilweise gelang.
Die in dieser Arbeit erstellte Anwendung kann zur Plausibilitätsprüfung von Ergebnissen anderer
Bayes’ basierter Verfahren zur Peakanzahlbestimmung dienen.
Mit geschätzten Werten für die Modellparameter aller Peaks wird die multiple Integration mit dem
VEGAS-Algorithmus nicht gebraucht. Die Posterior-Wahrscheinlichkeiten können somit berechnet
werden und eine quantitative Bewertung der Ergebnisse unterschiedlicher Peakzahlen für das gemessene
Spektrum liefern.
Behandlungen von Tumoren zielen in erster Linie auf eine Verlängerung der Überlebenszeit des Patienten ab. Es ist für Ärzte eine Hilfe, wenn zu Beginn der Behandlung die voraussichtliche Überlebenszeit abgeschätzt werden kann. Dies geschieht aktuell oftmals mit Hilfe einer manuellen Einteilung in Risikoklassen. Für diese sind aus Erfahrungswerten typische Überlebenszeiten bekannt. In Zeiten der zunehmenden Digitalisierung ist es nur logisch den Versuch zu starten, die Klassifizierung automatisch vorzunehmen. In dieser explorativen Grundlagenarbeit werden zwei Data Mining–Verfahren — namentlich „naiver Bayes Klassifikator“ und „k–means Clustering“ — auf ihre Fähigkeit bezüglich der Überlebenszeitprognose hin untersucht. Dazu werden verschiedene Feature Selection Verfahren (Information Gain, Expertenselektion, Forward Selection, Backward Elimination und No Selection) getestet. Nach dem k–means Clustering können Kaplan–Meier–Kurven der einzelnen Cluster gezeichnet werden. Aus diesen kann eine Prognose der Überlebenszeit abgelesen werden. Der naive Bayes Klassifikator errechnet nach einer (äquifrequenten oder äquidistanten) Diskretisierung der Überlebenszeit für jeden Patienten individuell eine Überlebens–Wahrscheinlichkeits Verteilung. Das Training der Data Mining–Verfahren erfolgte auf der Basis von Datensätzen kolorektaler Tumorpatienten des Tumorregisters des Tumorzentrums Heilbronn–Franken.
This thesis examines the new major concepts for communicating radiotherapy-related data with DICOM, introduced in Supplement 147. As the existing DICOM information objects, used to transfer radiotherapy-related information, are mostly overloaded and static, new concepts to describe this data are developed at the moment in Supplement 147. These concepts facilitate a more convenient representation of new treatment devices and treatment techniques in DICOM and solve other issues with first-generation DICOM RT objects. Hence Supplement 147 is replacing the entire working concept strategy for a complete domain, and the supplement itself is extensive in comparison to other supplements, an overview whether all these concepts work together just by examining them on a drawing board is hardly possible. Therefore, this thesis investigates the information separation into different Information Object Definitions (IODs), the new radiation prescription object and the new concept to enable abstract access to volumetric objects, which are considered to be the major conceptual changes.
Die chronisch-obstruktive Lungenerkrankung (COPD) schränkt in ihren letzten Stadien die Lebensqualität der Patienten schwerwiegend ein und die einhergehenden Verschlechterungen des Gesundheitszustandes (Exazerbationen) können zum Tode führen. Für die Versorgung von COPD-Patienten im häuslichen Umfeld und Unterstützung im Alltag existieren bereits mobile und technische Geräte. Um eine weitergehende Unterstützung bedarfsgerecht zu planen, müssen Bedürfnisse der Patienten ermittelt und bereits existierende Lösungen zur COPD im Bereich Ambient Assisted Living (AAL) untersucht werden. Daraus können Anforderungen an eine elektronische Gesundheitsakte (eGA) zur Unterstützung von COPD-Patienten abgeleitet werden. Zur Ermittlung der Bedürfnisse wurden Vorgespräche mit COPD-Patienten geführt um einen Interviewleitfaden entwickeln zu können. Der Interviewleitfaden war Grundlage für semi-strukturierte Interviews mit Patienten der Medizinischen Klinik V des Universitätsklinikums des Saarlandes, die an den Untersuchungstagen zu einem Interview bereit waren. Insgesamt wurden zehn Patienten interviewt, zwei Frauen und acht Männer. Anhand der Ergebnisse aus den Interviews konnten wesentliche Bedürfnisse der COPD-Patienten ermittelt werden. Diese sind: Dauerhafter Erhalt von Informationen über die COPD; Kontakt zu Bekannten, Verwandten, Freunden und anderen COPD-Patienten; Mehr nichtmedikamentöse Behandlung; Sofortiger Einblick in die persönlichen medizinischen Daten. Sehr wichtig ist den COPD-Patienten auch, dass sie selbstständig Alltagstätigkeiten meistern können, beziehungsweise Unterstützung bei der Durchführung erhalten und sich in den eigenen vier Wänden sicher fühlen.
Die Online-Enzyklopädie Wikipedia kann für die Analyse der Beziehungen zwischen
Konzepten als wertvolle Datenquelle dienen. Aus ihren klar deffinierten Strukturen,
wie z.B. der baumartigen Kategorisierung, Weiterleitungen, Infoboxen und Links zwischen
Artikeln ergibt sich die Möglichkeit, ausgehend von einem bestimmten Konzept
eine Fülle enzyklopädischen Wissens zu extrahieren, das für viele Anwendungszwecke
in der medizinischen Informatik genutzt werden kann. Trotz der einfachen Verfügbarkeit
von Wikipedia-MySQL-Backups ist es weder besonders intuitiv noch effizient,
diese Beziehungen direkt aus diesen relationalen Datenbanken abzuleiten. Stattdessen
wäre ein weitaus intuitiverer Ansatz für die Datenanalyse, die genannten Strukturen
und ihre Beziehungen zueinander als Knoten und Kanten in einem Graphen abzubilden.
Ausgehend von einem bestehenden Wikipedia-Graph-API zielte diese Arbeit
darauf ab, ein effizientes System zu entwickeln, das Wikipediastrukturen aus einem
MySQL-Backup extrahiert, diese verarbeitet und in eine Graphdatenbank speichert.
Eine Analyse von Graphdatenbank-Managementsystemen im Rahmen dieser Arbeit
ergab, dass Neo4j für diesen Anwendungszweck optimal geeignet ist, da seine Anfragesprache
Cypher eine intuitive Möglichkeit darstellt, Graphdaten zu analysieren. Das
Ergebnis dieser Arbeit ist NeoWiki, ein System, das sowohl eine Möglichkeit zur Generierung
von strukturellen Wikipedia-Graphen bietet als auch als Java Library die
Arbeit mit den erstellten Graph-Entitäten als Java-Objekten unterstützt. Obgleich
derzeit noch Raum für Verbesserungen hinsichtlich der Performance bei der Graphgenerierung
besteht, stellt NeoWiki doch bereits jetzt ein Tool zur intuitiven Analyse
von Wikipedia-Daten dar.
Augmented Reality Anwendungen können in der Medizin Eingriffe erleichtern, beispielsweise durch intraoperative Projektion von Zugangswegen oder Tumo-ren und Risikostrukturen auf den Patienten. Gründe, weshalb die Verwendung von Augmented Reality noch keinen Einzug in den Operationssaal gefunden hat, sind unter anderem eine erschwerte Tiefenwahrnehmung der virtuellen Objekte in der echten Szene und fehlende Möglichkeiten, um die Fülle der zusätzlich visualisierten Objekte zu kontrollieren. Diesen Hindernissen entgegenzutreten ist das Ziel dieser Arbeit. Weiterhin gehört eine echtzeitfähige Implementierung zu den Anforderungen dieser Arbeit, um die Visualisierung im Rahmen eines Projektes zu nutzen, welches Augmented Reality auf mobilen Geräten direkt am Patienten zeigt. Um diese Ziele zu erreichen, wurde zunächst eine Texturprojektion kombiniert mit einem selbstentwickelten Grafikkartenprogramm realisiert, um dem Betrachter die Orientierung innerhalb der Augmented Reality Szene zu erleichtern und die Berechnung der perspektivischen Projektion der Textur zugleich effizient zu halten. Um die Tiefenwahrnehmung in der Szene zu verbessern, wurde ein weiteres Grafikkartenprogramm entwickelt, welches in eine gegebene Oberfläche eine Öffnung zeichnet, durch welche der Betrachter in das Innere des Patienten blicken kann. Weiterhin wurde ein Konzept umgesetzt, mit dessen Hilfe die Anzahl an abgebildeten Objekten in der Augmented Reality Szene gesteuert werden kann. Dieses Konzept dient außerdem der Untergliederung von Objekten in verschiedene Familien, für die dann unterschiedliche Darstellungen umgesetzt werden können. Ergebnis ist sowohl eine sichtbar verbesserte Tiefenwahrnehmung als auch ein Konzept zur Kontrolle der Fülle an abgebildeten Informationen in einer echtzeitfähigen Implementierung.
In dem transregionalen Sonderforschungsbereich SFB/TRR 77 untersuchen Heidelberger und Hannoveraner Wissenschaftler Entstehungsmechanismen und neue Therapieansätze des Leberzellkarzinoms, einer der tödlichsten Tumorerkrankungen unserer Zeit. Die IT-Plattform Pelican, die ein Teil des Gebiets Z2 ist, soll dem Forschungsverbund die softwaregestütze Analyse und die nachhaltige Bereitstellung von Leberkrebs-Forschungsdaten ermöglichen [Ganzinger et al. 2011]. Ein Teil von Pelican soll eine gemeinsame Informationsplattform anbieten, die die biomedizinischen Daten der verschiedenen medizinischen und biologischen Projekte integriert und den beteiligten Projektgruppen biostatistische Programme und projektübergreifende Auswertungen zur Verfügung stellt. Die Integration von Gewebe-, Molekül-, Genetik- und Klinikdaten in eine gemeinsame Plattform ermöglicht Datenerhaltung und umfassende Analysen. Die integrierte Analyse begegnet durch die Verknüpfung verschiedener Forschungsprojekte des SFB/TRR 77 den Herausforderungen der Multidisziplinarität klinischer Forschung und Genforschung. Mit dem Next-Generation DNA Sequencing ist durch Kostenreduzierung und immenser Zeiteinsparung die DNA Sequenzierung einem breiten Spektrum an Wissenschaftlern zugänglich geworden und hat Kompetenzen zur Sequenzierung von zentralen Stellen in die Hände vieler individueller Forscher gelegt [Shendure and Ji 2008, Ding et al. 2010, Wetterstrand 2011]. Die Kombination dieser hochentwickelten Technologien aus der Gentechnik und rechnerbasierten Werkzeugen erlaubt die Beantwortung biologischer Fragestellungen in erheblich umfangreicherer Art und Weise als dies bisher möglich gewesen ist [Shaer et al. 2013]. Die rasche Entwicklung des Next-Generation Sequencing beinhaltet auch das Konstruieren neuer Ansätze zur bioinformatischen Datenanalyse, ohne die kein Informationsgewinn, wie beispielsweise die Entdeckung von Genvariationen, möglich wäre. Das dabei neu gewonnene Wissen kann zu erheblichen Fortschritten in der Krebsforschung führen, beispielsweise wenn es um das Identifizieren der Genomveränderungen einer Tumorzelle geht [Ding et al. 2010]. Anstatt Sequenzierungen in kleinem Maßstab durchzuführen, können Forscher inzwischen Sequenzierungen in weit umfangreicherem Ausmaß realisieren, in denen Informationen von multiplen Genen und Genomen vermessen, dokumentiert und in Datenbanken gespeichert werden können. Die DNA Sequenzen werden nach der Sequenzierung in einer Kette aus vielen Prozessschritten – eine bioinformatische Pipeline – analysiert und verarbeitet. Zu den Einzelschritte, wie zum Beispiel Alignment oder die Entfernung von Duplikaten, gibt es oftmals viele Alternativen.
Bevor eine neue Therapie zur Medikation zugelassen wird, muss sie in einer klinischen Studie ihren Nutzen beweisen. Da heutzutage die besten Ergebnisse bei solchen Fragestellungen aus randomisierten klinischen Studien kommen, ist eine gute Randomisationssoftware für den Ablauf der Studie von einer großen Bedeutung. In Abhängigkeit von dem Studienaufbau wird ein geeigneter Randomisationsalgorithmus für die Zuweisung der Studienteilnehmer zu den Therapien gewählt. Ziel dieser Diplomarbeit ist eine schon bestehende Open Source Software RANDI2 zu analysieren und um ein weiteres Randomisationsverfahren zu erweitern. Dieses Verfahren soll zu der Familie der response-adaptiven Randomisationsverfahren gehören. Im Weiteren werden unterschiedliche Randomisationsalgorithmen mit jeweiligen Vorteilen, Nachteilen und Funktionsweisen vorgestellt. Nachdem ein passendes Verfahren gefunden wird, werden die Möglichkeiten untersucht, ihn in schon vorhandene Software zu implementieren. Anschließend wird die Implementierung gemacht und das Ergebnis getestet. Nach der Erweiterung von RANDI2 soll bei einer response-adaptiven Studie schon während des Ablaufs festgestellt werden können, welche Therapie bessere Ergebnisse erzielt. Mit dieser Kenntnis können mehr Patienten während der Studie eine bessere Behandlung bekommen und früher von dem Nutzen profitieren.
Diese Arbeit entwirft und implementiert ein neues Modul, das den Arzt bei der Arztbriefschreibung am Ende des Behandlungsprozesses unterstützt. Das Modul Arztbriefgenerierung in ENTstatistics erlaubt es dem Arzt als Anwender, per Mausklick aus den strukturierten Daten Text zu generieren und diese in einem Arztbrief darzustellen. Dazu kann er Vorlagen mit flexiblem Inhalt definieren und in diese je nach Empfänger andere Informationen einfließen lassen. Sowohl Vorlage als auch Brief können in einem WYSIWYG-Editor bearbeitet werden. Der Arztbrief wird intern als HL7-CDA-Dokument hinterlegt, einem standardisierten XML-Format für Arztbriefe. Außerdem kann er in die Formate PDF und RTF transformiert werden, falls andere Programme den CDA-Standard noch nicht unterstützen.
Die heutige Software-Entwicklung ist davon geprägt, dass Anwendungen immer komplexer
und aufwändiger werden. Gleichzeitig steigen die Erwartungen der Kunden an
die Qualität der Software.
Für die Software-Entwickler ist die Telemetrie zu einem unverzichtbaren Werkzeug
geworden. Sie ist ein wesentlicher Baustein, um die Beobachbarkeit (Observability)
von Applikationen zu erhöhen und somit die Grundlage für eine bessere Qualität in
der Software Entwicklung. Hierbei ist zu analysieren, welche Bedeutung die Telemetrie
für den gesamten Software Development Life Cyle hat.
Der aktuelle Stand der Software-Telemetrie wird am Beispiel des Projektes OpenTelemetry
dargelegt.
OpenTelemetry hat sich zum Ziel gesetzt, die universelle Plattform für den Austausch
von Telemetriedaten zu werden.
Die Ergebnisse des Projektes OpenTelemetry werden analysiert und bewertet.