@masterthesis{Graf2020, type = {Bachelor Thesis}, author = {Graf, Michael}, title = {Bedeutung von Telemetrie f{\"u}r den Software Development Life Cycle}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1751}, school = {Hochschule Heilbronn}, pages = {III, 58 Seiten}, year = {2020}, abstract = {Die heutige Software-Entwicklung ist davon gepr{\"a}gt, dass Anwendungen immer komplexer und aufw{\"a}ndiger werden. Gleichzeitig steigen die Erwartungen der Kunden an die Qualit{\"a}t der Software. F{\"u}r die Software-Entwickler ist die Telemetrie zu einem unverzichtbaren Werkzeug geworden. Sie ist ein wesentlicher Baustein, um die Beobachbarkeit (� Observability� ) von Applikationen zu erh{\"o}hen und somit die Grundlage f{\"u}r eine bessere Qualit{\"a}t in der Software Entwicklung. Hierbei ist zu analysieren, welche Bedeutung die Telemetrie f{\"u}r den gesamten Software Development Life Cyle hat. Der aktuelle Stand der Software-Telemetrie wird am Beispiel des Projektes OpenTelemetry dargelegt. OpenTelemetry hat sich zum Ziel gesetzt, die universelle Plattform f{\"u}r den Austausch von Telemetriedaten zu werden. Die Ergebnisse des Projektes OpenTelemetry werden analysiert und bewertet.}, subject = {Softwareentwicklung}, language = {de} } @misc{Kombeiz2020, type = {Master Thesis}, author = {Kombeiz, Alexander}, title = {Development and validation of a neural network for adaptive gait cycle detection from kinematic data}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1742}, school = {Hochschule Heilbronn}, pages = {XIII, 63 Seiten}, year = {2020}, abstract = {(1) Background: Instrumented gait analysis is a tool for quantification of the different aspects of the locomotor system. Gait analysis technology has substantially evolved over the last decade and most modern systems provide real-time capability. The ability to calculate joint angles with low delays paves the way for new applications such as real-time movement feedback, like control of functional electrical stimulation in the rehabilitation of individuals with gait disorders. For any kind of therapeutic application, the timely determination of different gait phases such as stance or swing is crucial. Gait phases are usually estimated based on heuristics of joint angles or time points of certain gait events. Such heuristic approaches often do not work properly in people with gait disorders due to the greater variability of their pathological gait pattern. To improve the current state-ofthe- art, this thesis aims to introduce a data-driven approach for real-time determination of gait phases from kinematic variables based on long short-term memory recurrent neural networks (LSTM RNNs). (2) Methods: In this thesis, 56 measurements with gait data of 11 healthy subjects, 13 individuals with incomplete spinal cord injury and 10 stroke survivors with walking speeds ranging from 0.2 m s up to 1 m s were used to train the networks. Each measurement contained kinematic data from the corresponding subject walking on a treadmill for 90 seconds. Kinematic data was obtained by measuring the positions of reflective markers on body landmarks (Helen Hayes marker set) with a sample rate of 60Hz. For constructing a ground truth, gait data was annotated manually by three raters. Two approaches, direct regression of gait phases and estimation via detection of the gait events Initial Contact and Final Contact were implemented for evaluation of the performance of LSTM RNNs. For comparison of performance, the frequently cited coordinate- and velocity-based event detection approaches of Zeni et al. were used. All aspects of this thesis have been implemented within MATLAB Version 9.6 using the Deep Learning Toolbox. (3) Results: The mean time difference between events annotated by the three raters was -0.07 ± 20.17ms. Correlation coefficients of inter-rater and intra-rater reliability yielded mainly excellent or perfect results. For detection of gait events, the LSTM RNN algorithm covered 97.05\% of all events within a scope of 50ms. The overall mean time difference between detected events and ground truth was -11.62 ± 7.01ms. Temporal differences and deviations were consistently small over different walking speeds and gait pathologies. Mean time difference to the ground truth was 13.61 ± 17.88ms for the coordinate-based approach of Zeni et al. and 17.18 ± 15.67ms for the velocity-based approach. For estimation of gait phases, the gait phase was determined as a percentage. Mean squared error to the ground truth was 0.95 ± 0.55\% for the proposed algorithm using event detection and 1.50 ± 0.55\% for regression. For the approaches of Zeni et al., mean squared error was 2.04±1.23\% for the coordinate-based approach and 2.24±1.34\% for the velocity-based approach. Regarding mean absolute error to the ground truth, the proposed algorithm achieved a mean absolute error of 1.95±1.10\% using event detection and one of 7.25 ± 1.45\% using regression. Mean absolute error for the coordinate-based approach of Zeni et al. was 4.08±2.51\% and 4.50±2.73\% for the velocity-based approach. (4) Conclusion: The newly introduced LSTM RNN algorithm offers a high recognition rate of gait events with a small delay. Its performance outperforms several state-of-theart gait event detection methods while offering the possibility for real-time processing and high generalization of trained gait patterns. Additionally, the proposed algorithm is easy to integrate into existing applications and contains parameters that self-adapt to individuals' gait behavior to further improve performance. In respect to gait phase estimation, the performance of the proposed algorithm using event detection is in line with current wearable state-of-the-art methods. Compared with conventional methods, performance of direct regression of gait phases is only moderate. Given the results, LSTM RNNs demonstrate feasibility regarding event detection and are applicable for many clinical and research applications. They may be not suitable for the estimation of gait phases via regression. For LSTM RNNs, it can be assumed, that with a more optimal configuration of the networks, a much higher performance is achieved.}, subject = {Neuronales Netz}, language = {en} } @masterthesis{Schmidt2019, type = {Bachelor Thesis}, author = {Schmidt, Dominic}, title = {Erstellung einer Education App im Fach Mathematik f{\"u}r die strukturierte und inhaltliche Zusammenfassung der schulischen Themen am Beispiel der 8. Klasse Realschule}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1716}, school = {Hochschule Heilbronn}, pages = {41 Seiten}, year = {2019}, abstract = {Auf dem Markt der Android Applikationen gibt es ein breites Spektrum an Lernanwendungen. Allerdings exisitiert ein Mangel an gut strukturierten inhaltlichen Zusammenfassungen der schulischen Themen, gerade im Fach Mathematik. Mein Ziel der Bachelorarbeit ist, eine Education App zu entwickeln, diese im realen Betrieb zu testen und somit einen L{\"o}sungsansatz f{\"u}r den Mangel an solchen Apps zu erhalten. Ich werde am Beispiel der 8. Klasse Realschule im Fach Mathematik eine thematische Zusammenfassung erzeugen und als App umsetzen. Mathematische Grundlage hierf{\"u}r bildet das Schulbuch Schnittpunkt 8 des Klettverlages (Differenzierende Ausgabe, 2015). Bugfixing und Evaluierung verl{\"a}uft Hand in Hand, um am Ende des Entwicklungsprozesses eine voll funktionsf{\"a}hige, getestete App zu bekommen. Mit Hilfe eines Fragebogens wird dabei direkt auf die Zielgruppe eingegangen. Die App wird im Anschluss des Entwicklungsprozesses nach dem Open- Closed Prinzip fungieren. Ist also f{\"u}r Erweiterungen offen. Diese Funktion erreiche ich durch genau definierte Schnittstellen. Es wird m{\"o}glich sein, neue Klassen ebenso wie Schularten hinzuzuf{\"u}gen. Als Entwicklungsumgebung dient mir IntelliJ, als Testger{\"a}t ein Samsung Smartphone. Die App wird den Namen MaTHive Spectre tragen, um direkt auf das Potential aufmerksam zu machen und einen einpr{\"a}gsamen Namen zu erhalten.}, subject = {Applikation}, language = {de} } @misc{Hannss2019, type = {Master Thesis}, author = {Hannß, Sebastian}, title = {Softwarebasierte Planung von patientenindividuellen S{\"a}geschnittschablonen f{\"u}r die tumorbedingte Unterkieferrekonstruktion}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1704}, school = {Hochschule Heilbronn}, pages = {IX, 108 Seiten}, year = {2019}, abstract = {Ein Tumor ist eine {\"o}rtlich umschriebene Zunahme des Gewebevolumens, im engeren Sinn eine gewebliche Neubildung, ein Geschw{\"u}r in Form eines enthemmten und irreversiblen {\"U}berschusswachstums von k{\"o}rpereigenem Gewebe [33]. ,,In Europa sind 3-5\% [...] aller malignen Tumoren des Menschen Tumoren der Mundh{\"o}hle, davon stellen die Plattenepithelkarzinome mit 95\% den gr{\"o}ßten Anteil." [28]. Nur 25-40\% der Patienten mit Lymphknotenmetastasierung erreichen die 5-Jahres-{\"U}berlebensrate im Gegensatz zu ca. 90\% der Patienten ohne Metastatisierung [29]. Oft werden diese Tumore sp{\"a}t erkannt und m{\"u}ssen deshalb durch eine Operation entfernt werden. Das Plattenepithelkarzinom kann den Kiefer infiltrieren, die notwendige Resektion des Tumors kann zu einer Verschlechterung der {\"A}sthetik, zum Verlust der Kaufunktionalit{\"a}t und der Sprechfunktionalit{\"a}t f{\"u}hren. Im Universit{\"a}tsklinikum Heidelberg (UKHD) werden verschiedene Verfahren zur Rekonstruktion angewandt, wie die Rekonstruktion mithilfe der k{\"o}rpereigenen Fibula(dt.Wadenbein), deren Schaft daf{\"u}r entnommen wird. Aus diesem Schaft werden Segmente ges{\"a}gt, mit welchen dann der urspr{\"u}ngliche Verlauf der Mandibula (dt. Unterkiefer), in dem resezierten Bereich, rekonstruiert wird. Die Rekonstruktion erfolgt mit einer speziellen Platte auf welcher die Fibulasegmente befestigt werden. Diese Platte wird anschließend am Restunterkiefer fixiert. Die Schwierigkeit besteht in der Nachbildung des Unterkieferverlaufs und der Erhaltung des Kiefergelenks. Bei dieser Operation muss die Isch{\"a}miezeit, die Zeit, welche ein Organ ohne Blutversorgung schadlos {\"u}berstehen kann, ber{\"u}cksichtigt werden. Ohne eine genaue Schnittf{\"u}hrung ist die Wahrscheinlichkeit gr{\"o}ßer, dass die ges{\"a}gten Segmente nachbearbeitet werden m{\"u}ssen, was wiederum ein zeitliches Problem ist. Deshalb wird Rekonstruktion mit Cutting-Guides (dt. S{\"a}geschnittschablone) unterst{\"u}tzt. Diese Guides werden nach der Planung der Operation angefertigt. Sie werden in der Mund-, Kiefer- und Gesichtschirurgie (MKG) des UKHD von einem Zahntechniker hergestellt. Alternativ gibt es industrielle Dienstleister, die diese Guides herstellen k{\"o}nnen. Diese sind jedoch wesentlich teurer als die in der MKG etablierte L{\"o}sung.}, subject = {Tumor}, language = {de} } @misc{Ostapchuk2019, type = {Master Thesis}, author = {Ostapchuk, Vitaliy}, title = {Implementation of an interactive pattern mining framework on electronic health record datasets}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1693}, school = {Hochschule Heilbronn}, pages = {VIII, 65 Seiten}, year = {2019}, abstract = {Large collections of electronic patient records contain a broad range of clinical information highly relevant for data analysis. However, they are maintained primarily for patient administration, and automated methods are required to extract valuable knowledge for predictive, preventive, personalized and participatory medicine. Sequential pattern mining is a fundamental task in data mining which can be used to find statistically relevant, non-trivial temporal dependencies of events such as disease comorbidities. This works objective is to use this mining technique to identify disease associations based on ICD-9-CM codes data of the entire Taiwanese population obtained from Taiwan's National Health Insurance Research Database. This thesis reports the development and implementation of the Disease Pattern Miner - a pattern mining framework in a medical domain. The framework was designed as a Web application which can be used to run several state-of-the-art sequence mining algorithms on electronic health records, collect and filter the results to reduce the number of patterns to a meaningful size, and visualize the disease associations as an interactive model in a specific population group. This may be crucial to discover new disease associations and offer novel insights to explain disease pathogenesis. A structured evaluation of the data and models are required before medical data-scientist may use this application as a tool for further research to get a better understanding of disease comorbidities.}, subject = {Krankenunterlagen}, language = {en} } @misc{Haist2018, type = {Master Thesis}, author = {Haist, Alessandro}, title = {Datei{\"u}bertragung mittels digital modulierter Hochfrequenzsignale: Messung und Bewertung}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1674}, school = {Hochschule Heilbronn}, pages = {IV, 130 Seiten}, year = {2018}, abstract = {Die meisten Internetzugriffe erfolgen heute {\"u}ber das Smartphone. W{\"a}hrend vor dem Jahr 2010 {\"u}berwiegend der PC daf{\"u}r verwendet wurde, nutzten 2016 81\% aller Internet-User ein Mobiltelefon f{\"u}r den Online-Zugang [1]. Die digitale Modulation von HF-Signalen ist dabei immer von Bedeutung, unabh{\"a}ngig ob WLAN oder ein Mobilfunkstandard, wie LTE angewandt wird. Die Weiterentwicklung drahtloser Kommunikationstechnik f{\"u}r das Internet erscheint als interessante Alternative zur leitungsbasierten Anbindung an das Breitbandnetz. Der Ausbau mit Glasfaserkabeln ist kostenintensiv, zeitaufwendig und bei der Versorgung abgelegener Orte f{\"u}r den Provider unrentabel. Aus technischer Sicht k{\"o}nnen drahtlose Anbindungen sogar zu einer Verringerung zeitlicher Verz{\"o}gerungen f{\"u}hren. Die Ausbreitungsgeschwindigkeit elektromagnetischer Wellen ist in Luft h{\"o}her als in Kupfer oder Glas [2]. Das Mobilfunknetz ist allerdings nicht zur fl{\"a}chendeckenden Internetversorgung von PCs vorgesehen. Alle Online-Zugriffe durch Mobilfunk in einem bestimmten Gebiet erfolgen {\"u}ber die selbe Funkzelle einer Basisstation. Bei gleichzeitiger Benutzung durch viele Teilnehmer, reduziert sich die Datenrate merklich. Einige Mobilfunkbetreiber verbieten rechtlich die ausschließliche Nutzung des Mobilfunk-Internets f{\"u}r PCs [3]. Die Zugangskosten f{\"u}r den Verbraucher sind deutlich teurer als bei DSL. Zudem existieren kaum Tarife f{\"u}r unbegrenzten Zugang. Genauso wie beim Leitungsnetz sind lokale Schwankungen der Internetgeschwindigkeit vorhanden. W{\"a}hrend beim Kabelzugang die Geschwindigkeit vorherbestimmt werden kann, ist sie beim Mobilfunk individuell auszutesten. Notebooks und Desktop-PCs besitzen in der Regel keine Empfangseinrichtung f{\"u}r Mobilfunk. LTE-Router {\"u}bersetzten das Protokoll in den WLAN-Standard. Diese Umwandlung erfolgt durch separate Ger{\"a}te oder als integrierte Funktion in einem Smartphone (Hotspot). Einige dieser Router bieten auch einen Kabelzugang zum PC, um die Verluste der WLAN-Verbindung zu vermeiden. Sie werden h{\"a}ufig in Form von USB-Sticks angeboten. Die private Nutzung des Mobilfunk-Internets f{\"u}r PCs ist also mit Einschr{\"a}nkungen verbunden. F{\"u}r Unternehmen ist dies meist nicht hinnehmbar. Die geschilderten Hindernisse bedeuten allerdings nicht, dass das Internet grunds{\"a}tzlich leitungsgebunden vermittelt wird und in drahtlose Online-Technologien zuk{\"u}nftig keine Investitionen fließen. Die Richtfunkanbindung von Basisstationen erfolgt, wenn sich das Verlegen von Leitungen nicht lohnt (Abbildung 1). Die Umwandlung im Großen {\"a}hnelt dem Prinzip der privaten Hotspots. Eine Richtfunkantenne empf{\"a}ngt die geb{\"u}ndelte elektromagnetische Energie. Nach der Umwandlung senden mehrere Sektorantennen mit Rundstrahlcharakteristik die Wellen in das Umfeld des Masts. Außerdem ist die weitere {\"U}bertragung nach einer Richtfunkstrecke durch ein Kabel m{\"o}glich. Dementsprechend kann das Internet {\"u}ber Richtfunkabschnitte zum Verbraucher gelangen, auch wenn es schließlich beim Router {\"u}ber ein Kabel ankommt.}, subject = {Daten{\"u}bertragung}, language = {de} } @masterthesis{Schmidt2019, type = {Bachelor Thesis}, author = {Schmidt, Carina}, title = {Prediction of the influenza virus propagation by using different epidemiological and machine learning models}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1660}, school = {Hochschule Heilbronn}, pages = {VIII, 49 Seiten}, year = {2019}, abstract = {In this bachelor thesis, different models for predicting the influenza virus are examined in more detail. The focus is on epidemiological compartmental models, as well as on different Machine Learning approaches. In particular, the basics chapter presents the SIR model and its various extensions. Furthermore, Deep Learning and Social Network approaches are investigated and the applied methods of a selected article are analysed in more detail. The practical part of this work consists in the implementation of a Multiple Linear Regression model and an Artificial Neural Network. For the development of both models the programming language Python was chosen using the Deep Learning Framework Keras. Tests were performed with real data from the R{\´e}seau Sentinelles, a French organisation for monitoring national health. The results of the tests show that the Neural Network is able to make better predictions than the Multiple Linear Regression model. The discussion shows ideas for improving influenza prediction including the establishment of a worldwide collaboration between the surveillance centres as well as the consolidation of historical data with real-time social media data. Therefore, this work consists of a state-of-the art of models regarding the spread of influenza virus, the development and comparison of several models programmed in Python, evaluated on real data.}, subject = {Grippe}, language = {en} } @masterthesis{Eichner2019, type = {Bachelor Thesis}, author = {Eichner, Tanja}, title = {Generative adversarial networks for automated hippocampus segmentation : development of an artificial neural network and integration in a generative adversarial network scheme to improve the segmentation of the hippocampus and its substructures}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1653}, school = {Hochschule Heilbronn}, pages = {VIII, 45 Seiten}, year = {2019}, abstract = {Alzheimer's Disease affects millions of people worldwide, but till today, the gold standard for definitive diagnosis of this disease is a biopsy. Nevertheless, with the progress of the disease, a volume loss in the Hippocampus can be observed. Therefore, good segmentation methods are crucial to facilitate quantification of this loss. The focus of this work is on the development of a Machine Learning algorithm, more precisely a Generative Adversarial Network, for the automated segmentation of the human Hippocampus and its substructures in Magnetic Resonance Images. In particular, the task is to determine if the integration of a pre-trained network that generates segmentations into a Generative Adversarial Network scheme can improve generated segmentations. In this context, a segmentation network in form of a U-net corresponds to the generator. The discriminator is developed separately and merged in a second step with the generator for combined training. With a literature review regarding the automated segmentation of the Hippocampus, current methods in this field and their medical and technological basics were identified. The datasets were preprocessed to make them suitable for the use in a neural network. In the training process, the generator was trained first until convergence. Then, the Generative Adversarial Network including the pre-trained generator was trained. The outcomes were evaluated via cross-validation in two different datasets (Kulaga-Yoskovitz and Winterburn). The Generative Adversarial Network scheme was tested regarding different architectural and training aspects, including the usage of skip-connections and a combined loss function. The best results were achieved in the Kulaga-Yoskovitz dataset with a Dice coefficient of 90.84 \% after the combined training of generator and discriminator with a joined loss function. This improves the current state of the art method in the same task and dataset with a Dice index of 88.79 \% by Romero [Rom17]. Except of two cases in the Winterburn dataset, the proposed combined method could always improve the Dice results after the training of only the generator, even though only by a small amount.}, subject = {Neuronales Netz}, language = {en} } @misc{Lueoend2019, type = {Master Thesis}, author = {L{\"u}{\"o}nd, Matthias}, title = {Virtuelle und reale Objekte als nat{\"u}rliche Bewegungsgrenzen in der Virtual Reality Exposure Therapy}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1642}, school = {Hochschule Heilbronn}, pages = {79 Seiten}, year = {2019}, abstract = {Zur Behandlung von Angstst{\"o}rungen - welche mit zu den h{\"a}ufigsten psychischen Erkrankungen in Deutschland geh{\"o}ren - bietet die klassische Expositionstherapie gute Erfolgsaussichten [1]. In den letzten Jahren entwickelte sich die Virtual Reality Exposure Therapy (VRET), welche eine interessante Alternative darstellt. Eine Studie zeigte 2013 die Effektivit{\"a}t einer VRET [2]. Problematisch ist allerdings die Lokomotion in psychotherapeutischen Praxen mit geringem Raumangebot. G{\"a}ngige Sicherheitssysteme zur Kollisionsvermeidung wie Lighthouse's Chaperone [3] [4] oder Occulus Guardian [5] zeigen bei Ann{\"a}herung an die Grenzen des sicheren Bereiches eine auff{\"a}llige optische Warnung an. Dies kann jedoch bei den Benutzern zu unerw{\"u}nschten Pr{\"a}senzeinbr{\"u}chen (breaks in presence) f{\"u}hren. Simeone et al. [6] konnten nachweisen, dass in einer virtuellen Umgebung rein virtuelle Gegenst{\"a}nde oder W{\"a}nde von den Benutzern als real wahrgenommen und umgangen werden. Dieser Effekt liess sich durch zus{\"a}tzliche reale Gegenst{\"a}nde im Raum noch verst{\"a}rken. In dieser Masterarbeit wurde untersucht, ob sich die Ergebnisse von Simeone et al. [6] auch auf die Anwendung der VRET {\"u}bertragen lassen. Dazu wurde eine Studie mit 2 Gruppen zu je 12 Probanden durchgef{\"u}hrt. Alle hielten 2 Vortr{\"a}ge in einer virtuellen Umgebung, je einen Vortrag mit Avatar und einen ohne. W{\"a}hrend eine Gruppe sich in einer virtuellen Umgebung mit ausschliesslich virtuellen Objekten bewegte, waren in der anderen Gruppe zus{\"a}tzlich reale Gegenst{\"a}nde vorhanden. In der vorliegenden Masterarbeit konnte gezeigt werden, dass die Ergebnisse von Simeone et al. [6] auch f{\"u}r VRET Anwendungen g{\"u}ltig sind. Virtuelle Objekte werden auch von Patienten eines VRET Systems als Begrenzungen akzeptiert. Zudem lassen sich physische Objekte in die virtuelle Umgebung integrieren, ohne dass es zu Kollisionen mit den Benutzern kommt oder die Benutzer eine erh{\"o}hte Angst vor Kollisionen haben. Obwohl das Vorhandensein eines Avatars in der durchgef{\"u}hrten Studie keinen Einfluss auf die Ergebnisse hatte, w{\"u}nschen sich die Benutzer einen Avatar in der VR. Der sichere Aufenthaltsbereich kann also bereits in der virtuellen Umgebung durch virtuelle Objekte abgegrenzt werden, wodurch - zugunsten der Vermeidung von Pr{\"a}senzeinbr{\"u}chen - auf ein System wie Lighthouse`s Chaperone [3] [4] verzichtet werden kann. Ausserdem m{\"u}ssen reale Gegenst{\"a}nde nicht aus dem Bewegungsbereich der Benutzer ausgeschlossen werden, sondern lassen sich in die virtuelle Umgebung integrieren. Dies stellt eine praktikable M{\"o}glichkeit dar, den f{\"u}r VRET nutzbaren Raum in psychotherapeutischen Einrichtungen zu optimieren. Somit stellt die VRET eine echte Alternative zur klassischen Expositionstherapie dar.}, subject = {Angstst{\"o}rung}, language = {de} } @misc{Stein2018, type = {Master Thesis}, author = {Stein, Tobias}, title = {Efficient web-based review for automatic segmentation results of volumetric DICOM images}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1630}, school = {Hochschule Heilbronn}, pages = {77 Seiten}, year = {2018}, abstract = {Medical imaging produces many images every day in clinical routine. Keeping up with the daily image analysis task and this vast amount of data is quite a challenge for radiologists. However, these analysis tasks can be automated with well-proven automatic segmentation methods. Segmentation reviewing of an expert is necessary because learningbased automatic segmentation methods may not perform well on exceptional image data. Creating valid segmentations by reviewing them also improve the learning-based methods. Combining established standards with modern technologies creates a flexible environment to efficiently evaluate multiple segmentation algorithm outputs based on different metrics and visualizations and report these analysis results back to a clinical system environment. The presented software system can inspect such quantitative results in a fast and intuitive way, potentially improving the daily repetitive segmentation review and rework of a research radiologist. The presented system is designed to be integrated into a virtual distributed computing environment with other systems and analysis methods. Critical factors for this particular environment are the handling of many patient data and routine automated analysis with state of the art technology. First experiments show that the time to review automatic segmentation results can be roughly divided in half while the confidence of the radiologist is enhanced. The system is also able to highlight individual slices which are essential for the expert's review decision. For this highlighting, different metric scores are compared and evaluated.}, subject = {Bildgebung}, language = {en} } @masterthesis{Kappler2018, type = {Bachelor Thesis}, author = {Kappler, Robin}, title = {Prototypische Implementierung einer Sprachsteuerung f{\"u}r Smart glass}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1583}, school = {Hochschule Heilbronn}, pages = {XIV, 80 Seiten}, year = {2018}, abstract = {Aufgrund der unterschiedlichen Wiederbelebungsabl{\"a}ufe zwischen Erwachsenen und Kindern, m{\"u}ssen bei der Reanimation eines Kindes andere Behandlungsmaßnahmen durchgef{\"u}hrt werden. So m{\"u}ssen z.B. Medikamente anders dosiert werden. Hinzu kommt, dass eine Reanimation an einem Kind nur selten durchgef{\"u}hrt wird. Dadurch sind Mediziner mit einer Wiederbelebungsmaßnahmen an Kindern aufgrund mangelnden Routine unsicher bzw. f{\"u}hren falsche Behandlungsmaßnahmen durch. Zwar sind bereits Leitlinien in digitaler Ausf{\"u}hrung vorhanden, jedoch werden diese in einer f{\"u}r eine Reanimation ungeeigneten Form ausgegeben und k{\"o}nnen so nur schlecht in einer Wiederbelebungsmaßnahme genutzt werden. Um Behandlungsfehler zu minimieren wird in dieser Arbeit untersucht, ob eine Datenbrille zur Darstellung der Leitlinien verwendet werden und der Mediziner diese mittels Sprachkommandos steuern kann. Um die Qualit{\"a}t der Sprachsteuerung im Umgang mit den Leitlinien festzustellen, wurde eine Evaluation dieser durchgef{\"u}hrt. Daf{\"u}r wurden die Anwendung mit zehn Personen getestet. Diese ergab, dass die Nutzung der Sprachsteuerung durch Auswahl geeigneter Sprachkommandos sowohl bei Zimmerlautst{\"a}rke, als auch bei Straßenl{\"a}rm m{\"o}glich war. Somit ist die Steuerung einer Datenbrille mit Sprachkommandos in einer Reanimation denkbar, um den Mediziner durch Informationen zu unterst{\"u}tzen .}, subject = {Sprachsteuerung}, language = {de} } @masterthesis{Gross2018, type = {Bachelor Thesis}, author = {Groß, Kai Nico}, title = {Medizinische Entscheidungsunterst{\"u}tzung unterrichten : Konzepte und Werkzeugnutzung}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1542}, school = {Hochschule Heilbronn}, pages = {131 Seiten}, year = {2018}, abstract = {Gegenstand der hier vorgestellten Arbeit ist ein Konzept zum Lehren von Ontologie in der Informatik, des Ontologiemanagementsystems Prot{\´e}g{\´e} und des Wissensverwal-tungssytems ProKEt. Dies geschieht in Form von Pr{\"a}sentationen, welche mit Hilfe von PowerPoint erstellt wurden. Dabei wird auf die Installation, die Basics, Kernkonzepte und die Teilwissensbasen im Detail eingegangen. Diese Pr{\"a}sentationen sollen ein alter-natives Konzept f{\"u}r den Unterricht darstellen, um die Lernenden aktiv zu beteiligen, und stellen ein Angebot zum Lehren der entsprechenden Thematiken dar. Zur {\"U}berpr{\"u}fung der Effizienz wird eine Evaluation durchgef{\"u}hrt.}, subject = {Ontologie}, language = {de} } @masterthesis{Heidt2018, type = {Bachelor Thesis}, author = {Heidt, Christian M.}, title = {Aufbau einer Graphdatenbank zur effizienten Abbildung medizinischer Konzepte aus Wikipedia}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1518}, school = {Hochschule Heilbronn}, pages = {VII, 49, III Seiten}, year = {2018}, abstract = {Die Online-Enzyklop{\"a}die Wikipedia kann f{\"u}r die Analyse der Beziehungen zwischen Konzepten als wertvolle Datenquelle dienen. Aus ihren klar deffinierten Strukturen, wie z.B. der baumartigen Kategorisierung, Weiterleitungen, Infoboxen und Links zwischen Artikeln ergibt sich die M{\"o}glichkeit, ausgehend von einem bestimmten Konzept eine F{\"u}lle enzyklop{\"a}dischen Wissens zu extrahieren, das f{\"u}r viele Anwendungszwecke in der medizinischen Informatik genutzt werden kann. Trotz der einfachen Verf{\"u}gbarkeit von Wikipedia-MySQL-Backups ist es weder besonders intuitiv noch effizient, diese Beziehungen direkt aus diesen relationalen Datenbanken abzuleiten. Stattdessen w{\"a}re ein weitaus intuitiverer Ansatz f{\"u}r die Datenanalyse, die genannten Strukturen und ihre Beziehungen zueinander als Knoten und Kanten in einem Graphen abzubilden. Ausgehend von einem bestehenden Wikipedia-Graph-API zielte diese Arbeit darauf ab, ein effizientes System zu entwickeln, das Wikipediastrukturen aus einem MySQL-Backup extrahiert, diese verarbeitet und in eine Graphdatenbank speichert. Eine Analyse von Graphdatenbank-Managementsystemen im Rahmen dieser Arbeit ergab, dass Neo4j f{\"u}r diesen Anwendungszweck optimal geeignet ist, da seine Anfragesprache Cypher eine intuitive M{\"o}glichkeit darstellt, Graphdaten zu analysieren. Das Ergebnis dieser Arbeit ist NeoWiki, ein System, das sowohl eine M{\"o}glichkeit zur Generierung von strukturellen Wikipedia-Graphen bietet als auch als Java Library die Arbeit mit den erstellten Graph-Entit{\"a}ten als Java-Objekten unterst{\"u}tzt. Obgleich derzeit noch Raum f{\"u}r Verbesserungen hinsichtlich der Performance bei der Graphgenerierung besteht, stellt NeoWiki doch bereits jetzt ein Tool zur intuitiven Analyse von Wikipedia-Daten dar.}, subject = {Datenbank}, language = {de} } @misc{Seitz2018, type = {Master Thesis}, author = {Seitz, Peter Karl}, title = {Konzeption und Entwicklung einer robotergest{\"u}tzten und ultraschallbasierten Lokalisationskontrolle}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1508}, school = {Hochschule Heilbronn}, pages = {XII, 78, XIII Seiten}, year = {2018}, abstract = {Mit Hilfe der Image Guided Therapy wird versucht die Bestrahlung von Tumoren mittels Bildgebung zu verbessern und die Nebenwirkungen durch die Bestrahlung f{\"u}r den Patienten zu minimieren. Diese Arbeit verfolgt den Ansatz Ultraschall als echtzeitf{\"a}hige Bildverarbeitungsmodalit{\"a}t zu nutzen und dar{\"u}ber eine Lokalisationskontrolle von Tumoren w{\"a}hrend der Bestrahlung zu erm{\"o}glichen. Ziel dieser Arbeit war die Entwicklung und Implementierung eines Gesamtkonzeptes zur ultraschallbasierten und robotergest{\"u}tzten Lokalisationskontrolle. Ergebnis der Arbeit ist eine auf dem medizinischen Bildverarbeitungsprogramm MITK basierte Applikation. Diese erlaubt es ein 2D Ultraschallbild {\"u}ber ein Tracking-System oder den Roboter zu referenzieren und mit registrierten Planungsdaten {\"u}berlagert darzustellen. Die Darstellung ist dabei in quasi Echtzeit sowohl in 2D als auch in 3D m{\"o}glich. Zur Registrierung wurde ein optisches Tracking-System verwendet, welches {\"u}ber einen eigens neu entwickelten Filter mit dem Roboter verkn{\"u}pft werden kann. Weiter l{\"a}sst sich aus der Applikation heraus der Roboter steuern und es k{\"o}nnen automatisierte Scanverfahren genutzt werden, um mit Hilfe eines 2D Ultraschallkopfes ein 3D Ultraschallbild zu erstellen. Die Anwendung kn{\"u}pft an bestehenden Funktionen an und erlaubt es k{\"u}nftigen Nutzern die neu erstellten Komponenten auch getrennt voneinander weiter zu verwenden. Dazu geh{\"o}ren Filter f{\"u}r die Zuordnung der Ultraschallbilder, sowie ein Filter zum Kombinieren von verschiedenen Tracking-Systemen, als auch die M{\"o}glichkeit den Roboter zu nutzen.}, subject = {Ultraschall}, language = {de} } @phdthesis{Wystup2017, author = {Wystup, Ralph}, title = {Dynamische Feldschw{\"a}chung bei am einphasigen Netz betriebenen EC-Motoren mit schlankem Zwischenkreis}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1497}, school = {Hochschule Heilbronn}, pages = {143 Seiten}, year = {2017}, abstract = {Die vorliegende Arbeit besch{\"a}ftigt sich mit dem Betrieb von einphasig gespeisten ECL{\"u}ftermotoren mit schlankem Zwischenkreis. Beim einphasigen Industrienetz besteht das Problem, dass im L{\"u}ftermotor aufgrund der bis auf null Volt pulsierenden Zwischenkreisspannung ein Luftspaltdrehmoment mit hohem Anteil an Oberschwingungen auftritt. Um dies zu vermeiden, m{\"u}ssen in der Praxis diskrete Speicherelemente wie Elektrolytkondensatoren und Eisenkerndrosseln als Energiespeicher in den Zwischenkreis des Umrichters eingebaut werden. In der vorliegenden Arbeit wird ein neuartiges Verfahren vorgestellt, welches ein nahezu konstantes Luftspaltdrehmoment bei einphasig gespeisten EC-L{\"u}ftermotoren mit schlankem Zwischenkreis gew{\"a}hrleistet. Mit dem Verfahren, der so genannten dynamischen Feldschw{\"a}chung, k{\"o}nnen die bislang erforderlichen Energiespeicher wie Spulen und Elektrolytkondensatoren ersetzt werden. Zur Herleitung des Verfahrens der dynamischen Feldschw{\"a}chung sind auf der Basis eines s{\"a}ttigungsfrei und damit linear arbeitenden L{\"u}ftermotors die notwendigen mathematischen Grundgleichungen entwickelt worden. Der Ansatz eines s{\"a}ttigungsfrei arbeitenden L{\"u}ftermotors erlaubt die einfache Umsetzung einer Konstruktionsvorschrift f{\"u}r einen speziell auf das Verfahren abgestimmten Motor auf Basis der regelungstechnisch relevanten Motorparameter. Mithilfe eines nichtlinearen Kalman-Filters zur automatischen Bestimmung der regelungstechnischen Motorparameter wird dann der gebaute s{\"a}ttigungsfrei arbeitende L{\"u}ftermotor auf einem Pr{\"u}fstand vermessen. Dabei hat sich gezeigt, dass das Verfahren der dynamischen Feldschw{\"a}chung eine gute {\"U}bereinstimmung zwischen den analytischen und den simulierten Ergebnissen liefert. Das Verfahren der dynamischen Feldschw{\"a}chung kommt bei einer mittleren Motorleistung von etwa P123 = 200 W und einem Wirkungsgrad von ca. η = 80 \% mit einer sehr kleinen Zwischenkreiskapazit{\"a}t von Czk = 14 μF aus. Im Vergleich dazu ben{\"o}tigt ein Serienl{\"u}ftermotor eine Zwischenkreiskapazit{\"a}t von Czk = 204 μF.}, subject = {L{\"u}ftermotor}, language = {de} } @masterthesis{Manan2017, type = {Bachelor Thesis}, author = {Manan, Chaja}, title = {Simulation von Brechung und Reflexion im Saphirglas}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1457}, school = {Hochschule Heilbronn}, pages = {43 Seiten}, year = {2017}, abstract = {Das Ziel dieser Bachelorarbeit war es, ein Programm zu entwickeln, welches die doppelte Lichtbrechung und die Reflexion eines Laserstrahls berechnen kann. Hierbei wird zuerst auf die physikalischen Grundlagen eingegangen. Anschließend wird das dazu verwendete Programm mit dem Algorithmus inklusive den Berechnungen vorgestellt. Das Programm kann die doppelte Lichtbrechung und auch die Reflexion eines Laserstrahls berechnen und zus{\"a}tzlich bestimmen, ob der Laserstrahl gebrochen oder total reflektiert wird. Die Pr{\"u}fung daf{\"u}r, erfolgt {\"u}ber den Gr{\"o}ßenvergleich zwischen dem Einfallswinkel und dem kritischen Winkel. Der Algorithmus ist f{\"u}r beliebige Laserstrahlen unter Ber{\"u}cksichtigung der Brechungsindexe geeignet.}, subject = {Lichtbrechung}, language = {de} } @misc{Suleder2017, type = {Master Thesis}, author = {Suleder, Julian}, title = {Virtual-Reality in der Strahlentherapieaufkl{\"a}rung: Erste Untersuchungen zu Chancen und Herausforderungen der Digitalisierungs- und Simulationstechnologien}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1399}, school = {Hochschule Heilbronn}, pages = {X, 82 Seiten}, year = {2017}, abstract = {Im Mittelpunkt dieser Arbeit steht die Entwicklung eines Verfahrens f{\"u}r das Erzeugen von m{\"o}glichst realit{\"a}tsnahen Telepr{\"a}senzsimulationen f{\"u}r die Information von Patienten in der Strahlentherapie sowie die Anwendung des Verfahrens in der Entwicklung einer VR-Applikation auf Basis eines Demonstrators. Nach einer Literaturrecherche bez{\"u}glich des aktuellen Stands der Aufkl{\"a}rung von Patienten wurden die Grundlagen von Virtual und Augmented Reality hinsichtlich der gegebenen Hardware ermittelt. Hierauf folgte die Auswahl von Software f{\"u}r das Scannen von realen Objekten mit dem gegebenen Tablet in einem Bestrahlungsraum des DKFZ sowie die Auswahl einer Game Engine f{\"u}r die Entwicklung des Demonstrators. Daraufhin wurde ein Rekonstruktionsalgorithmus ausgew{\"a}hlt. Anschließend wurden verschiedene Objekte im Bestrahlungsraum gescannt, sodass die Parameter des Algorithmus iterativ hinsichtlich der Qualit{\"a}t der erzeugten Objekte f{\"u}r den Einsatz in einer VR-Anwendung optimiert werden konnten. Daraufhin erfolgte eine Texturierung der Oberfl{\"a}che mit Kamerafotos. Nach einer Aufbereitung der Modelle wurden diese in ein Virtual Environment importiert. Parallel dazu wurde nach der Auswahl der Unreal Engine als Game Engine, der Demonstrator entwickelt, in welchen die gescannten Modelle integriert wurden. Das Verfahren liefert ausreichend genaue Ergebnisse, um Konzepte in der Strahlentherapieaufkl{\"a}rung vermitteln zu k{\"o}nnen. Der Effekt und die Akzeptanz der Technik spielen eine weitere wichtige Rolle f{\"u}r den Einsatz der Methodik und m{\"u}ssen durch eine Evaluation im klinischen Alltag validiert werden, wof{\"u}r die Entwicklung einer klinisch anwendbaren Software auf Basis der gewonnenen Erkenntnisse notwendig wird.}, subject = {Strahlentherapie}, language = {de} } @misc{Feng2014, author = {Feng, Jian}, title = {Microstructural Evolution in Spinodal Half-Heusler Thermoelectrics}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1376}, pages = {58 Seiten}, year = {2014}, abstract = {Spinodal Zr0.4Hf0.6Ni1.15Sn half-Heusler thermoelectrics are synthesized and aged. The complex microstructure due to the spinodal decomposition is investigated by powder X-ray diffraction (XRD), scanning electron microscope (SEM) and transmission electron microscope (TEM). By Rietveld refinements, it is confirmed that excess Ni atoms in the arc-melted and spark-plasma-sintered half-Heusler matrix prefer to form nanoscale/ submicron Heusler precipitates via spinodal decomposition and growth during the aging at 1173 K. Such phase separation changes the band gap of semiconductors, reduces the thermal conductivity drastically and improves the performance of thermoelectrics. As a result, a more than 50 \% improvement of the ZT value on the unaged specimens was achieved.}, subject = {Thermoelektrik}, language = {en} } @masterthesis{Haist2016, type = {Bachelor Thesis}, author = {Haist, Alessandro}, title = {Load-Pull-Messungen mit digital-modulierten Signalen der}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1287}, school = {Hochschule Heilbronn}, pages = {123 Seiten}, year = {2016}, abstract = {Im Rahmen der sich ausbreitenden Digitalisierung ist die Forderung nach mehr Bandbreite in aller Munde. Das Schlagwort ist allerdings ein umgangssprachlicher Begriff, welcher nicht korrekt verwendet wird. Gemeint ist dabei vielmehr die {\"U}bertragungsrate. Bandbreite beschreibt im eigentlichen Sinn den Frequenzumfang, f{\"u}r den ein System ausgelegt wurde. Die {\"U}bertragungsrate ist mittlerweile zu einem Standortfaktor f{\"u}r Unternehmen geworden und kann als ein Merkmal der Infrastruktur angesehen werden. F{\"u}r manche Unternehmen ist eine hohe {\"U}bertragungsrate unerl{\"a}sslich um wettbewerbsf{\"a}hig zu bleiben. Aus technischer Sicht gibt es verschiedene Ans{\"a}tze zur Steigerung der {\"U}bertragungsrate. Zun{\"a}chst wird versucht, ohne Ver{\"a}nderungen der Hardware eine kosteng{\"u}nstige Verbesserung zu erzielen. Beispielsweise l{\"a}sst sich eine Steigerung auf dem Weg der Modulation realisieren, indem mehrere Tr{\"a}gerfrequenzen verwandt werden. Letztlich ist eine Optimierung der Hardware trotzdem notwendig. Urs{\"a}chlich f{\"u}r niedrige {\"U}bertragungsraten sind momentan noch die Netze. Die Empfangseinheiten sind l{\"a}ngst f{\"u}r h{\"o}here Geschwindigkeiten konzipiert. Sie enthalten neben der Antenne einen Hochfrequenzverst{\"a}rker, der die schwachen Antennensignale zur anschließenden Demodulation und weiteren Verarbeitung verst{\"a}rkt. Hohe Frequenzen produzieren in den Leistungsverst{\"a}rkern große Verlustleistungen aufgrund der H{\"a}ufigkeit von Umladevorg{\"a}ngen. Daraus resultieren schlechte Wirkungsgrade. Doch nicht nur an die {\"U}bertragungsrate, sondern auch an den Wirkungsgrad werden hohe Anforderungen gestellt. Dahinter steht der Bedarf an Mobilit{\"a}t. Von Smartphones und Tablets wird die F{\"a}higkeit erwartet, mit hoher Geschwindigkeit umfangreiche Datenmengen zu laden. Gleichzeitig wird eine maximale Akkulaufzeit gefordert. Im Mittelpunkt dieser Arbeit steht die optimale Betriebsweise von Hochfrequenzverst{\"a}rkern. Die Verst{\"a}rker selbst wurden von den Herstellern optimiert. Dar{\"u}ber hinaus wirkt sich die Auswahl der Betriebsparameter sehr stark auf den Wirkungsgrad und die Verzerrung und damit auf die Signalqualit{\"a}t aus. Aufgabe dieser Arbeit ist es, diverse Messungen mit Hochfrequenzverst{\"a}rkern durchzuf{\"u}hren um daraus die optimale Einstellung der Betriebsgr{\"o}ßen zu ermitteln. Die Messungen erfolgen zun{\"a}chst mit vier vorgefertigten Verst{\"a}rkern. Dar{\"u}ber hinaus wird ein Verst{\"a}rker auf der Basis eines Verst{\"a}rker-ICs auf einer Leiterplatte selbst hergestellt, mit welchem anschließend die selben Messungen erfolgen. Die Messungen erfolgen mit drei unterschiedlichen Typen von Eingangssignalen: -CW-Signalen entsprechend Sinus-Signalen. -Zweitonmessungen. Zwei Sinus-Signale unterschiedlicher Frequenz am Eingang. -Digitale Telekommunikationsstandards. Alle nachfolgend genannten Messungen werden im Laufe der Dokumentation erkl{\"a}rt. Im CW-Fall werden Load-Pull- und Power-Sweep-Messungen durchgef{\"u}hrt. Es folgen Spektralmessungen zur Bewertung der harmonischen Oberwellen bei Einton-Ansteuerung. Im Zweiton-Fall werden Spektralmessungen im Bereich der Grundfrequenzen und anschließend im Bereich der harmonischen Oberwellen durchgef{\"u}hrt. Auf diese Weise sollen Intermodulationsprodukte bewertet werden. Ebenfalls im Zweiton-Fall erfolgen Load-Pull- Messungen. Die Betrachtung des Spektrums erfolgt unter Variation der Last. Die Auswirkung der Last auf den St{\"o}rabstand wird dabei untersucht. Im Fall der digitalen Ansteuerung werden unter verschiedenen Betriebsgr{\"o}ßen Messungen der Nachbarkanalleistung durchgef{\"u}hrt. Der Ausdruck Load-Pull-Messung hat verschiedene Bedeutungen. Zum einen werden mit Load-Pull-Messungen umgangssprachlich s{\"a}mtliche Messungen bezeichnet, die zur Charakterisierung von Hochfrequenzverst{\"a}rkern dienen. Zum anderen steht Load-Pull- Messung f{\"u}r ein Messverfahren, bei welchem die Lastimpedanz variiert wird. Die letztgenannte Load-Pull-Messung stellt die zentrale Messung in dieser Arbeit dar. Um ihre Bedeutung verst{\"a}ndlich zu machen ist eine Auseinandersetzung mit den Grundlagen der Hochfrequenztechnik von N{\"o}ten. Im Folgenden werden all jene Aspekte der Hochfrequenztechnik behandelt, die zum Verst{\"a}ndnis der Messungen dieser Arbeit notwendig sind.}, subject = {Digitalisierung , Verst{\"a}rker}, language = {de} } @masterthesis{Gaag2016, type = {Bachelor Thesis}, author = {Gaag, Maximilian}, title = {Evaluation von Analysealgorithmen zur}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1270}, school = {Hochschule Heilbronn}, pages = {49 Seiten}, year = {2016}, abstract = {Gammastrahlung ist hochenergetische elektromagnetische Strahlung, die zum Beispiel beim Zerfall radioaktiver Stoffe auftritt und besteht aus ungeladenen Photonen. Jeder dieser Gammastrahler strahlt Photonen mit einer f{\"u}r ihn spezifischen Energie aus, woran man ihn auch erkennen kann. So hat jeder Gammastrahler sozusagen seinen eigenen Fingerabdruck. Wenn man wissen will, welche Gammastrahler in einer Probe vorhanden sind, kann auf die Gammaspektroskopie zur{\"u}ckgegriffen werden. Diese misst, wie der Name schon sagt, das Spektrum, also die Energie und die Intensit{\"a}t, der Gammastrahlen. Aus dem daraus entstehenden Graphen kann dann anhand der Ausschl{\"a}ge abgelesen werden, welche Gammastrahler in der Probe enthalten sind, da sich diese {\"u}ber ihr Energiemaß bestimmen lassen. Die beiden grunds{\"a}tzlichen Bestandteile eines solchen Gammastrahlenspektrometers sind ein Detektor und eine Strahlungsquelle, meist eine radioaktive Probe. Die Probe wird so angebracht, dass sie auf den Detektor strahlt. Dieser registriert dann die Impulse, die durch Wechselwirkung zwischen den Gammastrahlen und den Elektronen des Detektors entstehen. Es gibt zwei haupts{\"a}chlich auftretende Effekte. Der Wichtigste ist wohl der Photoeffekt. Hierbei trifft ein Photon auf ein Elektron und das Photon wird vollst{\"a}ndig vom Elektron absorbiert, wodurch das Elektron aus seiner aktuellen Bindung, innerhalb des Atoms, gel{\"o}st wird. Dies ist der wichtigste Effekt, weil er genau die Information liefert, die gesucht wird. Das ist die exakte Energie, mit der ein radioaktives Nuklid abstrahlt. Den durch geh{\"a}uftes Vorkommen dieses Effektes auftretenden Ausschlag nennt man Photopeak. Er stellt die spezifische Energie von einem der, in der Probe vorhandenen, Gammastrahlern dar. Anhand dieses Peaks ist es letztendlich m{\"o}glich die enthaltenen Gammastrahler zu identifizieren. Der zweite Effekt nennt sich Compton-Effekt. Hierbei trifft ebenfalls ein Photon auf ein Elektron. Dieses Mal wird das Photon aber nicht absorbiert, sondern gibt lediglich einen Teil seiner Energie an das Elektron ab und wird dann in einem Winkel von 0° bis 180° gestreut. Es setzt seinen Weg also mit geringerer Energie und damit gr{\"o}ßerer Wellenl{\"a}nge fort. Leider ist das obige Spektrum im jetzigen Zustand noch lange nicht perfekt. Noch sind zu viele St{\"o}rungen und Fehlinformationen enthalten. Zwar k{\"o}nnte damit gearbeitet werden, jedoch mit dem Risiko, dass eventuell Informationen verf{\"a}lscht, oder sogar gar nicht ausgelesen werden. Perfekt w{\"a}re es, wenn das Spektrum komplett der x-Achse anliegen w{\"u}rde, vollkommen glatt, ohne Rauschen und nur die Photopeaks zu sehen w{\"a}ren. Ein kleiner Teil der St{\"o}rungen, die das Signal beeinflussen, kann schon im obigen Teil erkannt werden. Es spielen n{\"a}mlich viel mehr Effekte eine Rolle, als es im besten Fall sein sollten. Einer der St{\"o}reffekte zum Beispiel, ist der bereits oben erw{\"a}hnte Compton-Effekt. Dieser tr{\"a}gt nichts zum Photopeak bei, sondern liefert einen Impuls, dessen Energie bis zu einem gewissen Punkt, dieser „Punkt" wird auch Compton-Kante genannt, unterhalb der spezifischen Energie des Photons liegt. Wenn die spezifische Energie eines Photons zum Beispiel 600keV betragen w{\"u}rde, dann k{\"o}nnte durch den Compton-Effekt eine Energie von 400keV geliefert werden. Es ist also m{\"o}glich, dass angenommen wird es seien zwei unterschiedliche Gammastrahler in der Probe vorhanden. Gl{\"u}cklicherweise sind die Impulse, die durch den Compton-Effekt entstehen relativ gleich verteilt und erreichen kaum die Intensit{\"a}t eines Photopeaks. Dennoch zieht jeder Photopeak einen solchen Rattenschwanz aus schw{\"a}cheren Impulsen, welche von 0keV bis zur Energie der Compton-Kante reichen, hinter sich her. Dies wird auch Compton-Kontinuum genannt. Da im niedrigeren Bereich des Energiespektrums immer mehr Compton-Kontinuen aufeinandertreffen, je nachdem wie viele Photopeaks, also unterschiedliche Gammastrahler, in der Probe vorhanden sind, bildet sich dort oft ein sichtbarer H{\"u}gel, oder eine Steigung. Umgekehrt flacht das Spektrum im h{\"o}heren Bereich immer weiter ab, da 4 Abbildung 1: Beispielspektrum weniger Compton-Kontinuen vorhanden sind. Das Compton-Kontinuum tr{\"a}gt einen Großteil zum Untergrund bei. Der Untergrund f{\"u}llt fast den kompletten Bereich zwischen Gammaspektrum und x-Achse aus. Ebenso spielt hier auch die Umgebungsstrahlung eine Rolle, welche eigentlich immer vorhanden ist und die man nur schwer ausschließen kann. Ein weiterer St{\"o}rfaktor ist das in der Elektrotechnik bekannte Rauschen, welches auch im obigen Spektrum sehr gut erkannt werden kann. Dies sind nur einige St{\"o}rungen, die eine Rolle spielen. Es werden somit sehr viele St{\"o}rgr{\"o}ßen ungewollt mit betrachtet und diese St{\"o}rgr{\"o}ßen m{\"u}ssen durch Werkzeuge, wie zum Beispiel Algorithmen, entfernt werden. Da ich mich in dieser Bachelorarbeit auf die Untersuchung von Algorithmen zur Bestimmung des Untergrundes beziehe, werde ich mich im Weiteren auf diese beschr{\"a}nken und die anderen Probleme gr{\"o}ßtenteils außer Acht lassen. Nun gibt es nat{\"u}rlich bereits Algorithmen, mit denen sich der Untergrund von Gammaspektren bestimmen l{\"a}sst. Das Problem hierbei ist, dass diese meist nur bei bekannten Spektren funktionieren, auf die sie, mehr oder weniger, speziell zugeschnitten sind. Wenn diese Algorithmen eins zu eins auf ein unbekanntes Spektrum angewandt w{\"u}rden, kann es schnell vorkommen, dass die Untergrundbestimmung misslingt und weit vom angestrebten Ergebnis entfernt ist. Einen einzelnen Algorithmus zu entwickeln, der f{\"u}r alle Spektren einsetzbar w{\"a}re, ist aber auch keine M{\"o}glichkeit. Der Aufwand und die Kosten w{\"a}ren noch viel zu hoch. Außerdem w{\"u}rde sich keine Firma finden,welche sich an solch ein Projekt wagen w{\"u}rde, da auch viel zu wenige Abnehmer daf{\"u}r vorhanden sind. Darum werde ich in dieser Arbeit kleinere, einfachere Algorithmen genauer untersuchen, um zu verstehen, wie sich diese auf unterschiedliche Spektren anwenden lassen. Das damit entstehende Ergebnis ist wahrscheinlich nicht perfekt, aber gut genug, um damit arbeiten zu k{\"o}nnen. Ziel dieser Arbeit ist es, zwei Algorithmen zur Untergrundbestimmung zu evaluieren und einen {\"U}berblick {\"u}ber folgende Themen zu geben: - Einen Ausblick {\"u}ber die Auswirkungen der einzelnen Parameter der Algorithmen zu geben, um zum Beispiel schnell absch{\"a}tzen zu k{\"o}nnen, welcher Parameter in einem konkreten Fall ver{\"a}ndert werden muss. - Einen groben Rahmen festzulegen, in dem die einzelnen Parameter gew{\"a}hlt werden k{\"o}nnen, sodass mit hoher Wahrscheinlichkeit ein gutes Ergebnis erreicht wird. - St{\"a}rken und Schw{\"a}chen der Algorithmen herausarbeiten, um zum Beispiel die Verwendung eines Algorithmus auszuschließen, der sich f{\"u}r den beabsichtigten Zweck nur schwer oder gar nicht einsetzen ließe. 5 - Einen schnellen {\"U}berblick {\"u}ber die M{\"o}glichkeiten geben, um mit den Algorithmen ohne großes Vorwissen zu arbeiten.}, subject = {Gammastrahlung}, language = {de} } @misc{Schoepflin2016, author = {Sch{\"o}pflin, Christiane}, title = {Analyse von Multipletts in der NMR-Spektroskopie}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1262}, pages = {128 Seiten}, year = {2016}, abstract = {In der Kernresonanzspektroskopie, wie auch in anderen spektroskopischen Disziplinen, unterliegt die Genauigkeit und Vollst{\"a}ndigkeit eines Spektrums den verschiedenen Einstellungen des Messger{\"a}ts sowie dem verwendeten Ger{\"a}tetypen. Um das gemessene Spektrum besser analysieren zu k{\"o}nnen, wird versucht, es an die Realit{\"a}t anzun{\"a}hern. Eine allgemeine Annahme dazu ist, dass mehrere, sich teilweise {\"u}berlagernde Peaks das Spektrum bilden. Alle Peaks verlaufen dabei gem{\"a}ß einer Funktion, deren Modellparameterwerte variieren. Es gibt verschiedene Ans{\"a}tze zur Bestimmung des Spektrums, zum Beispiel die Modellanpassung und die Maximum-Entropie-Methode. Eine große, gegen Unendlich strebende Anzahl an Peaks scheint die gemessenen Spektrumdaten am besten nachzubilden. Dies ist jedoch wenig naturgetreu. In dieser Arbeit gehe ich dem Bayes'schen Ansatz zur Datenanalyse nach, um die Peakanzahl auszumachen, f{\"u}r die die gr{\"o}ßte Wahrscheinlichkeit in den Messdaten liegt. W{\"a}hrend meiner Diplomarbeit hat sich die anf{\"a}ngliche Annahme, dass die Peaks nach der Lorentz- Funktion geformt sind, revidiert. Letztendlich habe ich versucht, die Bestimmung der Peakanzahl mit Peaks in Form des Pseudo-Voigt-Profils durchzuf{\"u}hren. F{\"u}r die Berechnung der Posterior-Wahrscheinlichkeit einer Peakanzahl war es n{\"o}tig, ein multiples Integral zu l{\"o}sen. Dieses entstand durch die Marginalisierung einiger St{\"o}rparameter. Ein Ziel dieser Diplomarbeit war es, das multidimensionale Integral numerisch zu berechnen. Umgesetzt werden sollte dies mit dem VEGAS-Algorithmus, der das Monte-Carlo-Verfahren zur Integration verwendet. Ich habe den Algorithmus und die Anwendungen der Arbeit in Matlab implementiert. Um die Integration mit dem VEGAS-Algorithmus zu testen, habe ich eine Beispielanwendung zur Integration unterschiedlich dimensionaler Rosenbrock-Funktionen durchgef{\"u}hrt. Die Anwendung zur Bestimmung der Peakanzahl in einem Spektrum habe ich zun{\"a}chst f{\"u}r simulierte Daten mit zwei unterschiedlichen Formeln der Lorentzfunktion umgesetzt. Die erste Lorentzfunktion enth{\"a}lt zwei Modellparameter, die Lage der Amplitude und die Halbwertsbreite, und ist zu eins normiert. Bei ihr ist die Amplitude abh{\"a}ngig von der Halbwertsbreite. Die zweite Formel besteht aus drei unabh{\"a}ngigen Modellparametern: der Amplitude, ihrer Lage und der Halbwertsbreite. Damit ist sie f{\"u}r die Auswertung realer Messdaten geeigneter als die vorherige normierte Lorentzfunktion. Bei der Anwendung mit simulierten Daten mit drei Modellparametern sowie mit gemessenen Daten und dem Modell des Pseudo-Voigt-Profils konnte die Anzahl der Peaks nicht bestimmt werden. Die Schwierigkeit der Bestimmung der Peakanzahl mit dem VEGAS-Algorithmus lag anscheinend bei der Integration {\"u}ber die Amplitude. Zur Kl{\"a}rung des Problems habe ich die Anwendung mit dem Pseudo-Voigt-Profil und den realen Messdaten {\"u}ber einen anderen L{\"o}sungsweg zur numerischen Integration, mit einer Likelihood-Matrix, untersucht. Dadurch kam die Vermutung auf, dass die Diskretisierung in y-Richtung durch das Importance Sampling des VEGAS-Algorithmus nicht konform mit der Messpunktverteilung ist. Ich habe versucht {\"u}ber eine Pr{\"a}zisionsanpassung der Amplitudenst{\"u}tzwerte das Problem zu l{\"o}sen, was teilweise gelang. Die in dieser Arbeit erstellte Anwendung kann zur Plausibilit{\"a}tspr{\"u}fung von Ergebnissen anderer Bayes' basierter Verfahren zur Peakanzahlbestimmung dienen. Mit gesch{\"a}tzten Werten f{\"u}r die Modellparameter aller Peaks wird die multiple Integration mit dem VEGAS-Algorithmus nicht gebraucht. Die Posterior-Wahrscheinlichkeiten k{\"o}nnen somit berechnet werden und eine quantitative Bewertung der Ergebnisse unterschiedlicher Peakzahlen f{\"u}r das gemessene Spektrum liefern.}, subject = {NMR-Spektroskopie}, language = {de} } @masterthesis{Simon2017, type = {Bachelor Thesis}, author = {Simon, Corinna}, title = {Drahtlose PC-Anbindung des Muskelstimulators MotionStim8 und}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1244}, school = {Hochschule Heilbronn}, pages = {72 Seiten}, year = {2017}, abstract = {In dieser Arbeit wird eine Software entwickelt, um das Koppeln des Thalmic MYOArmbands mit dem Stimulator MotionStim8 zu vereinfachen. In einer vorherigen Arbeit [15] wurden f{\"u}r die Kopplung MATLAB Skripte benutzt. Diese sollen durch die Software vollst{\"a}ndig ersetzt werden. Au{\"y}erdem soll der Stimulator eine drahtlose Anbindung {\"u}ber zwei British Broadcasting Corporation (BBC) micro:bit Systeme erhalten. Dazu wird zuerst eine Anforderungsanalyse durchgef{\"u}hrt, woraus konkrete UseCases der Software formuliert werden konnten. Hierzu werden aus der Problemstellung und den daraus resultierenden Zielen dieser Arbeit Funktionale und nicht-Funktionale Anforderungen extrahiert. Es m{\"u}ssen Gesten, sowie deren Myo- und Stimulations-Daten verwaltet werden k{\"o}nnen. Auch m{\"u}ssen sowohl Myo-Armband als auch MotionStim8 drahtlos angebunden, sowie gekoppelt werden. Nachdem die Anforderungen feststehen, wird ein Konzept zur Umsetzung entwickelt. Dazu wird eine Entwicklungsumgebung gew{\"a}hlt und eine Softwarearchitektur ausgearbeitet. Es wird ein Model-View-Controller (MVC)-Modell angestrebt. F{\"u}r die Entwicklungsumgebung der Steuersoftware wird VisualStudio, bzw. C\#, und f{\"u}r die drahtlos Anbindung Mu, bzw. MicroPython, verwendet. Auch wird eine {\"U}bersicht {\"u}ber die Komponenten angefertigt. Daraus sind die Hardware-Schnittstellen, PC zu micro:bit, micro: bit zu micro:bit, micro:bit zu MotionStim8, sowie Myo-Armband zu PC, ableitbar. F{\"u}r das Myo-Armband existieren bereits Software-Bibliotheken, welche eingebunden werden k{\"o}nnen und somit das Entwickeln einer eigenen Schnittstelle nicht notwendig machen. Zum Schluss der Konzeption werden Ideen f{\"u}r eine Benutzerober� {\"a}che erarbeitet. Daf{\"u}r werden die Nicht-Funktionalen Anforderungen, modularer Aufbau sowie Benutzerfreundlichkeit und {\"U}bersichtlichkeit, aus der Anforderungsanalyse aufgegri� en. In dieser Phase werden bereits erste MockUps erstellt. Die Implementierung � ndet in zwei Schritten statt. Die Drahtlosfunktion, bzw. der Python-Teil, kann separat entwickelt werden. Daf{\"u}r werden die seriellen Schnittstellen, PC zu micro:bit und micro:bit zu MotionStim8, sowie die {\"U}bertragung zwischen den beiden micro:bits implementiert. Au{\"y}erdem werden die Befehle im micro:bit an die ben{\"o}tigte Command Structure des Stimulators angepasst. Die Steuersoftware beinhaltet eine Graphical User Interface (GUI) mit modul{\"u}bergreifenden Funktionen. Die einzelnen Module, Myo Controller, Stimulation Controller und Gesture Controller besitzen ihre eigene Ober� {\"a}che und k{\"o}nnen in die GUI modular integriert werden. Die Gesten-, Myo- und Stimulations-Daten k{\"o}nnen {\"u}ber das jeweilige Modul verwaltet werden. {\"U}ber das Beenden der Anwendung hinaus werden alle Daten in einer Extensible Markup Language (XML)-Datei gespeichert. Die Kopplung des Myo- Armbands mit dem MotionStim8 � ndet {\"u}ber einen Mapper statt, welcher eine Mapping- Matrix f{\"u}r eine Geste errechnet. Daf{\"u}r m{\"u}ssen vorab Myo- und Stimulations-Daten f{\"u}r jede Position dieser Geste gesetzt werden. Die Echtzeitfunktion wird {\"u}bergeordnet {\"u}ber die GUI gestartet und berechnet f{\"u}r eingehende Myo-Daten die Pulsweiten f{\"u}r die Stimulation. F{\"u}r diese Berechnung wird die Mapping-Matrix ben{\"o}tigt. Hiernach kann die entwickelte Steuersoftware f{\"u}r die de� nierten Anforderungen, bzw. UseCases, verwendet werden.}, subject = {Software , Simulator , Analyse , Programmiersprache}, language = {de} } @masterthesis{Lissek2017, type = {Bachelor Thesis}, author = {Lissek, Cord}, title = {3D-Ultraschall beim MITK}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1232}, school = {Hochschule Heilbronn}, pages = {51 Seiten}, year = {2017}, abstract = {In dieser Bachelorthesis wird ein Frei-Hand-3D-Ultraschallsystem entwickelt. Dieses soll 3D-Ultraschallbildgebung im MITK erm{\"o}glichen. Basis hierf{\"u}r sind ein konventionelles 2D-Ultraschallger{\"a}t und ein optisches Trackingsystem. Die n{\"o}tigen Teilschritte werden erl{\"a}utert und beschrieben. Ergebnis ist ein Plugin f{\"u}r das MITK, das aus aufgenommenen 2D-Ultraschallbildern ein 3D-Volumen berechnet.}, language = {de} } @unpublished{Nuredini2014, author = {Nuredini, Ruben}, title = {Reactive Vision-Based Navigation Controller for Autonomous Mobile Agents}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1224}, pages = {6 Seiten}, year = {2014}, abstract = {Initial results of an ongoing research in the field of reactive mobile autonomy are presented. The aim is to create a reactive obstacle avoidance method for mobile agent operating in dynamic, unstructured, and unpredictable environment. The method is inspired by the stimulus-response behavior of simple animals. An obstacle avoidance controller is developed that uses raw visual information of the environment. It employs reinforcement learning and is therefore capable of self-developing. This should result with obstacle avoidance behavior that is adaptable and therefore generalizes on various operational modalities. The general assumptions of the agent capabilities, the features of the environment as well as the initial result of the simulation are presented. The plans for improvement and suitable performance evaluation are suggested.}, language = {en} } @unpublished{Nuredini2016, author = {Nuredini, Ruben}, title = {Bio-Inspired Obstacle Avoidance: from Animals to Intelligent Agents}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1216}, pages = {7 Seiten}, year = {2016}, abstract = {A considerable amount of research in the field of modern robotics deals with mobile agents and their autonomous operation in unstructured, dynamic, and unpredictable environments. Designing robust controllers that map sensory input to action in order to avoid obstacles remains a challenging task. Several biological concepts are amenable to autonomous navigation and reactive obstacle avoidance. We present an overview of most noteworthy, elaborated, and interesting biologically-inspired approaches for solving the obstacle avoidance problem. We categorize these approaches into three groups: nature inspired optimization, reinforcement learning, and biorobotics. We emphasize the advantages and highlight potential drawbacks of each approach. We also identify the benefits of using biological principles in artificial intelligence in various research areas.}, language = {en} } @masterthesis{Stein2016, type = {Bachelor Thesis}, author = {Stein, Tobias}, title = {Implementierung und Validierung eines Softwaremoduls f{\"u}r die Sch{\"a}delsegmentierung aus CT- und DVT-Daten f{\"u}r Eingriffe in der Mund-, Kiefer- \& Gesichtschirurgie}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1204}, school = {Hochschule Heilbronn}, year = {2016}, abstract = {Im Rahmen eines Kooperationsprojektes zwischen dem Heidelberger Institut f{\"u}r Medizinische Informatik und Biometrie (IMBI) und der Mund- Kiefer und Gesichtschirurgie (MKG) des Universit{\"a}tsklinikums Heidelberg soll ein MITK-Plugin f{\"u}r die Segmentierung von kn{\"o}chernen Strukturen aus Schichtbilddaten der Computertomographie (CT), sowie der digitalen Volumentomographie (DVT) mit m{\"o}glichst wenigen Nutzerinteraktionen entwickelt und evaluiert werden. Hierbei ist insbesondere eine hohe Segmentierungsqualit{\"a}t im Bereich des Kiefers und der Z{\"a}hne relevant. Dabei erweisen sich Zahnspangen bzw. Zahnf{\"u}llungen als besondere Herausforderung. Die Arbeit, sowie das MITK-Plugin behandelt drei Aufgabenbereiche. Es handelt sich dabei um die Metallartefaktreduktion (MAR), Segmentierung und Oberfl{\"a}chenrekonstruktion. Die bildbasierte Artefaktreduktion kann auf CT-Datens{\"a}tze entweder manuelle oder automatisch angewendet werden. Dabei stehen zwei verschiedene Methoden zur Auswahl. Es handelt sich dabei um die lineare Interpolation (LI) und die rohdatenfreien MAR (RFMAR). Ziel der Artefaktreduktion ist eine verbesserte 3D-Visualisierung. Dabei zeigen die Methoden stellenweise eine Verbesserung durch reduzierte schwarzer Schatten im Bereich der Metalle. Problematisch wirken sich neue Artefakte, welche durch die Reduktion enstehen, auf das Ergebnis der 3D-Visualierung aus. F{\"u}r die Segmentierung sind zwei Verfahren implementiert worden. Es handelt sich dabei um ein eigenes automatisches Verfahren LCC (Largest Connected Component), und um einen Region Grower. Das automatische Verfahren ist hierbei robust gegen{\"u}ber einer ungewollt segmentierten Patientenliege, hat aber den Nachteil dass unter Umst{\"a}nden nicht alle kn{\"o}chernen Strukturen segmentiert werden. F{\"u}r diesen Fall kann der Region Grower eingesetzt werden, welcher durch Benutzerinteraktion den Nachteil des LCC-Verfahrens ausgleicht. Die Verfahren zeigen im Bezug auf CT-Datens{\"a}tze gute Ergebnisse. Durch den schlechten Knochenkontrast des verwendeten DVT-Ger{\"a}tes m{\"u}ssen bei der Segmentierung der DVT-Datens{\"a}tze Kompromisse eingegangen werden. Durch eine Histogramm-Analyse hat sich f{\"u}r die automatische Schwellwertbestimmung nach Otsu eine Mindestanzahl von drei Otsu-Schwellwerten ergeben. Weiterhin wurde das LCCVerfahren gegen{\"u}ber einer Referenzsegmentierung eines MKG-Chirurgen evaluiert. Die Evaluierung zeigt, dass die Wahl zwischen drei und sechs Otsu-Schwellwerte keine signifikanten Auswirkungen auf die Genauigkeit der Segmentierung hat. Durch einen Kompromiss zwischen Laufzeit und Segmentierungsqualit{\"a}t wird die Verwendung von vier Otsu-Schwellwerten empfohlen.}, subject = {Implementierung , Validierung , Software , Sch{\"a}del , Segmentierung , Chirurgie}, language = {de} } @masterthesis{Froehlich2016, type = {Bachelor Thesis}, author = {Fr{\"o}hlich, Steffen}, title = {Mobile Signalverarbeitung auf dem Raspberry Pi mit Aspekten der Vernetzung mehrerer Messger{\"a}te}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1193}, school = {Hochschule Heilbronn}, year = {2016}, abstract = {Bei dem Raspberry Pi handelt es sich um einen Einplatinen-Computer, welcher ich seit dem Verkaufsstart im Jahr 2012 sehr gro{\"y}er Beliebtheit erfreut. Nicht zuletzt aufgrund des hohen Grades an Kompatibilit{\"a}t und der gro{\"y}en Online-Community wurden bis zum heutigen Tage unz{\"a}hlige Projekte realisiert. In der Zwischenzeit ist der Raspberry Pi in verschiedenen Anwendungsgebieten und Branchen anzutreffen. Dies ist insofern interessant, da dieser urspr{\"u}nglich f{\"u}r den Einsatz in Bildungseinrichtungen auf Basis einer Stiftung entwickelt wurde [1]. Dabei stellen Anwendungen wie eine Smart-Home Steuerung, ein Multimedia-Center oder eine Wetterstation nur einen Bruchteil der M{\"o}glichkeiten dar. Grundlage dieser vielf{\"a}ltigen Anwendungsgebiete ist die Unterst{\"u}tzung s{\"a}mtlicher standardisierter Hard- und Software-Schnittstellen, zum Beispiel USB, Audio-Klinke, Serial Peripheral Interface (SPI) oder Inter-Integrated Circuit (I2C). Dadurch wird die Einbindung von beispielsweise Global Positioning System (GPS)-Modulen, Wireless Local Area Network (WLAN)-Empf{\"a}ngern oder sogar der eigenen Spiegelreflexkamera erm{\"o}glicht. Weiterhin ist mit Hilfe eines Mikrofons die Entwicklung einer Sprachsteuerung denkbar. Der m{\"o}gliche Anwendungsbereich des Raspberry Pi geht noch weit {\"u}ber die hier genannten Beispiele hinaus. Eine der Schnittstellen des Raspberry Pi stellen die sogenannten General Purpose Input Output (GPIO)-Ports dar. Hierbei handelt es sich um analoge und digitale Ein- und Ausg{\"a}nge wor{\"u}ber Hardware-Komponenten direkt auf physikalischer Ebene eingebunden werden k{\"o}nnen. Der Raspberry Pi eignet sich auch zum Nachweis radioaktiver Strahlung. Ziel der Arbeit soll die Entwicklung eines Ger{\"a}tes zur Messung der Strahlendosis sein. Dazu geh{\"o}rt die Verwendung eines Geiger-M{\"u}ller-Z{\"a}hlrohrs, welches mittels eines Arduino Shields ansprechbar ist. Weiterhin sollen im Rahmen dieser Arbeit verschiedene M{\"o}glichkeiten zur Weiterentwicklung des Systems betrachtet werden. Das Geiger-Shield, zu dem das Geiger-M{\"u}ller-Z{\"a}hlrohr und das Arduino-Shield geh{\"o}ren, wurden von dem Hardware-Hersteller Libelium im Jahr 2011 entwickelt. Anlass war der Tsunami in Japan, welcher die Atom-Katastrophe von Fukushima nach sich gezogen hat [2]. Das Geiger-Shield sollte den Alltag der Menschen in Japan vereinfachen, indem sie selbst die Strahlendosis messen konnten. Mit einem Mikrocontroller, einem einfachen LC-Display und einem Akku konnte so jederzeit die aktuelle Strahlendosis bestimmt werden.}, subject = {Signalverarbeitung , Vernetzung , Messger{\"a}t}, language = {de} } @misc{OPUS4-118, title = {Festschrift f{\"u}r Prof. Dr. Gerhard Vogler}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1182}, year = {2016}, abstract = {Dr. Gerhard Vogler wurde 1937 in Tuttlingen geboren. Nach Studium und Assistentenzeit an der Universit{\"a}t Mannheim war er von 1969 bis 2002 Professor f{\"u}r Allgemeine Betriebswirtschaftslehre und Marketing an der Hochschule (fr{\"u}her: Fachhochschule) Heilbronn. Er hat sich insbesondere um den Studiengang Betriebswirtschaft und Unternehmensf{\"u}hrung (der zun{\"a}chst noch Fertigungsbetriebswirtschaft hieß) verdient gemacht, aber auch f{\"u}r andere Studieng{\"a}nge wichtige Aufbauarbeit geleistet. Ferner hat er freiwillig zahlreiche Aufgaben der Selbstverwaltung u.a. als Dekan, gew{\"a}hltes Mitglied des Senats, Leiter des zentralen Pr{\"u}fungsamts, Vorsitzender des Bibliotheksausschusses etc. {\"u}bernommen. Auch nach seiner Emeritierung/Pensionierung zum 1. M{\"a}rz 2002 hat er noch viele Jahre lang Lehrauftr{\"a}ge {\"u}bernommen und ber{\"a}t bis heute auf ehrenamtlicher Basis mehrmals w{\"o}chentlich Studierende, die Probleme mit der Bew{\"a}ltigung ihres Studiums haben.}, subject = {Festschrift}, language = {de} } @masterthesis{Hannss2016, type = {Bachelor Thesis}, author = {Hannß, Sebastian}, title = {Untersuchungen zur Kopplung des Myo-Armbands mit dem Elektrostimulator Motionstim8}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1174}, school = {Hochschule Heilbronn}, year = {2016}, abstract = {Die Erfassung eines Elektromyogramms (EMG) ist bisher mit großem zeitlichen und finanziellen Aufwand verbunden. Zudem m{\"u}ssen die Elektroden, welche aufgebracht werden, an den richtigen Stellen fixiert werden. Dies ist essentiell und kann nur von Fachpersonal durchgef{\"u}hrt werden. Somit ist es mit großem Aufwand verbunden. Durch das Myo-Armband [25] der Firma Thalmic Labs hat sich dies zum Positiven ge{\"a}ndert, da hier das Armband nur {\"u}ber den Unterarm gestreift werden muss und durch dieses innovative "Wearable Device" direkt Elektromyographie-Daten erfasst werden k{\"o}nnen. Mithilfe dieses Armbands und einer wohl programmierten Schnittstelle, kann damit sogar eine Drohne ferngesteuert werden. Auch eine Prothese kann damit bewegt werden. Das beste Beispiel hierf{\"u}r ist ,,Johnny Matheny". Ihm wurde aufgrund von Krebs der linke Arm oberhalb des Ellenbogens amputiert. Speziell f{\"u}r ihn, wurde eine Prothese konstruiert, welche durch zwei Myo-Armb{\"a}nder am Oberarm gesteuert werden kann. So kann er laut der Website [1] seine Prothese, wie seither seinen Arm, bewegen. Es wurde zus{\"a}tzlich die Idee entwickelt, mithilfe dieser erfassbaren Daten ein Elektrostimulationsger{\"a}t zu steuern und eine zuvor erfasste Bewegung zu stimulieren. Dies soll mithilfe des Elektrostimulator MotionStim8 [31] der Fa. Kraut + Timmermann, welcher unter anderem in der Rehabilitation von querschnittgel{\"a}hmten Patienten Anwendung findet, realisiert werden. Das Ziel der Arbeit sind grundlegende Untersuchungen zur Kopplung des Myo-Armbands [25] mit dem Motionstim8 [31]. Es soll untersucht werden, inwieweit aufbauend auf der Analyse des EMG-Datenstroms oder der vorhandenen Gestenerkennung geeignete Ansteuersignale f{\"u}r den Motionstim8 [31] erzeugt werden k{\"o}nnen, die z.B. die {\"U}bertragung der Geste/Bewegung einer Quell-Hand auf eine Ziel-Hand erm{\"o}glichen. Von Interesse ist unter anderem, welche Gesten beziehungsweise Bewegungen sich hierzu eignen, ob die Stimulation kontinuierlicher Bewegungen prinzipiell m{\"o}glich ist und wie eine effiziente individuelle Kalibrierung f{\"u}r verschiedene Probanden erfolgen kann.}, subject = {Prothese , Bewegung}, language = {de} } @masterthesis{Czekalla2016, type = {Bachelor Thesis}, author = {Czekalla, Angelika}, title = {Eye Tracking durch Analyse des Elektrookulogramms}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1165}, school = {Hochschule Heilbronn}, year = {2016}, abstract = {Im Sommer 2014 stellten Menschen auf der ganzen Welt Videos in das Internet, in denen sie mit Eiswasser {\"u}bersch{\"u}ttet wurden. Grund daf{\"u}r war die sogenannte ,,Ice Bucket Challange". Der genaue Ursprung dieses Internetph{\"a}nomens ist unbekannt. Sinn und Zweck ist eine Spendensammlung f{\"u}r die Erkrankung Amyotrophe Lateralsklerose, kurz ALS. [54] ,,Rund 100 Millionen US-Dollar kamen mit dieser einfachen Idee in 30 Tagen zusammen." [6]. ALS ist eine ,,chronisch-degenerative Erkrankung des zentralen Nervensystems, die mit einer Atrophie der Skelettmuskulatur und Pyramidenbahnzeichen einhergeht" [41]. Die Ursache der Krankheit ist unbekannt, ein famili{\"a}res geh{\"a}uftes Auftreten l{\"a}sst auf genetische Disposition hinweisen, andere Faktoren sind nicht auszuschließen. [54] Langfristig f{\"u}hrt die Krankheit zum Absterben der Zellen, ,,die elektrische Impulse vom Gehirn indie Muskeln leiten" [54]. Dies f{\"u}hrt zu einem Muskelschwund. Die aggresiv verlaufende Krankheit f{\"u}hrt zu einer Lebenserwartung von 3-5 Jahren nach Eintritt, welche meist im Alter zwischen dem 50. und 70. Lebensjahr geschieht. [54] Ein bekannter Betroffener dieser Krankheit ist der britische theoretische Physiker und Astrophysiker Stephen William Hawking. Der 1942 geborene Hawking erhielt im Alter von 21 die Diagnose. {\"U}ber die Jahre wurde seine k{\"o}rperliche Verfassung immer eingeschr{\"a}nkter, bis er 1985 durch die Folge einer Tracheotomie seine Stimme verlor. Ein kalifornischer Computer Programmierer wurde auf die Situation aufmerksam und entwickelte einen Sprachcomputer, den Hawking {\"u}ber einen Druckknopf steuern konnte. Nach funktionsverlust der Hand wurde ein Interface entwickelt, welches dem Physiker die Steuerung des Sprachcomputers {\"u}ber eine Backenbewegung erm{\"o}glicht, die durch einen Infrarotsensor aufgenommen werden. Da die Krankheit weiter fortschreitet und nun auch seine Gesichtmuskulatur langsam l{\"a}hmt, wird nach einer neuen M{\"o}glichkeit gesucht, die f{\"u}r den Physiker lebenswichtige Steuerung des Sprachcomputers zu erm{\"o}glichen. Eine M{\"o}glichkeit k{\"o}nnte das Eye Tracking darstellen, bei dem die Augenbewegungen verfolgtwerden. [14] [24] [15] Im Folgenden wird sich mit dem Thema der Blickrichtungsverfolgung auseinandergesetzt und ein Ansatz f{\"u}r ein Eye Tracking System erforscht.}, subject = {Myatrophische Lateralsklerose}, language = {de} } @masterthesis{Kurscheidt2016, type = {Bachelor Thesis}, author = {Kurscheidt, Maximilian}, title = {Open Source Applikation f{\"u}r die Extraktion der Atemfrequenz aus dreidimensionalen Brustbewegungsdatens{\"a}tzen f{\"u}r telemedizinische Anwendungen}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1144}, school = {Hochschule Heilbronn}, year = {2016}, abstract = {Die Atemfrequenz ist neben anderen ein wichtiger Vitalparameter f{\"u}r die Erkennung von verschiedenen Erkrankungen des Atemsystems. Dennoch gibt es wenige L{\"o}sungen daf{\"u}r, die Atemfrequenz aus der Ferne zu {\"u}berwachen. Im Rahmen dieser Arbeit soll deshalb ein dreidimensionaler Beschleunigungssensor f{\"u}r die Aufnahme der Brustkorbbewegung verwendet werden. Aus diesen Bewegungsdaten soll daraufhin mit Hilfe von digitalen Signalverarbeitungsmethoden die Atemfrequenz ermittelt werden. Der Beschleunigungssensor ermittelt die rustkorbbewegung mit einer Abtastrate von 50 Punkten pro Sekunde f{\"u}r jede Achse. Die Rohsignale werden achsenweise mit einem Butterworth-Bandpassfilter gefiltert und daraufhin mit Hilfe der Fast Fourier Transformation in die jeweiligen Frequenzspektren umgerechnet. Die einzelnen Achsen-Spektren werden zusammenaddiert und bilden so die Frequenzen des gesamten Signals ab. In dem Gesamtspektrum wird das absolute Maximum gesucht, das die dominante Frequenz des Signals angibt, aus welcher die Atemfrequenz berechnet werden kann. Das Hauptziel dieser Arbeit ist es, einen Open-Source Python-Prototypen zu entwickeln, der aus den Sensor-Rohdaten die Atemfrequenz ermitteln kann. Dieser soll nach Fertigstellung ver{\"o}ffentlicht werden. Die Ergebnisse des Prototypen sollen gegen die des „EarlySense VitalsGer{\"a}tes evaluiert werden. Dabei sind f{\"u}r die Ergebnis-Datens{\"a}tze die Korrelation berechnet sowie die statistische Signifikanz ermittelt worden. Die Evaluation hat gezeigt, dass der Prototyp gute Ergebnisse liefert, welche in den meisten F{\"a}llen eine statistisch signifikante Korrelation aufweisen.}, subject = {Applikation , Atemfrequenz , Signalverarbeitung , Python}, language = {de} } @masterthesis{Heib2016, type = {Bachelor Thesis}, author = {Heib, Kammel}, title = {Gestaltung und Realisierung einer flexiblen Benutzeroberflache fiir die Software byst zur adaptiven Strahlentherapie im Rahmen des Projekts TPS++}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1130}, school = {Hochschule Heilbronn}, year = {2016}, abstract = {Am Deutschen Krebsforschungszentrum wird im Rahmen des Projekts TPS++ erforscht, wie ein System f{\"u}r die adaptive Strahlentherapie (ART) konzipiert sein muss. Ziel der adaptiven Strahlentherapie ist, eine optimal auf den individuellen Patienten abgestimmte Behandlung durchzuf{\"u}hren. Basierend auf t{\"a}glich erstellten Bilddaten m{\"u}ssen Behandlungszielvorgaben {\"u}berwacht und der Plan innerhalb k{\"u}rzester Zeit (Minuten) angepasst werden. Die gr{\"o}ßten Herausforderungen hierbei sind die Menge der zu verarbeitenden und zu visualisierenden Daten sowie die Anforderungen an Flexibilit{\"a}t, Grad der Automatisierung und M{\"o}glichkeiten der Interaktion. Ziel dieser Arbeit ist die Gestaltung und Realisierung einer Benutzeroberfl{\"a}che (GUI) f{\"u}r dieses neuartige, innovative System. Hierf{\"u}r muss ein neues Konzept bez{\"u}glich der Benutzerf{\"u}hrung, Flexibilit{\"a}t der GUI und der Interaktionsm{\"o}glichkeiten erstellt, umgesetzt und evaluiert werden. Die GUI muss so gestaltet sein, dass sie die Darstellung von Daten f{\"u}r verschiedenste bekannte Anwendungsszenarien sowie eine einfache Erweiterbarkeit f{\"u}r unbekannte Anwendungsszenarien und Daten leisten kann. Diese flexible Gestaltung der GUI ist notwendig, um adaptive Behandlungsstrategien weiter erforschen zu k{\"o}nnen. Aus Benutzeraktionen und den vorhandenen Daten muss das System erw{\"u}nschte Benutzerhandlungen ableiten und die Daten in exakt der ben{\"o}tigten Darstellungsform f{\"u}r das aktuell zu bearbeitende Problem anzeigen.}, subject = {Gestaltung , Realisierung , Benutzeroberfl{\"a}che , Software , Strahlentherapie}, language = {de} } @masterthesis{Schmidt2016, type = {Bachelor Thesis}, author = {Schmidt, Lukas}, title = {System zur Erinnerung an Medikamenteneinnahmen f¨ur die AppleWatch mit Blick auf Gebrauchstauglichkeit und Akzeptanz der Plattform}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1128}, school = {Hochschule Heilbronn}, year = {2016}, abstract = {Im fortschreitenden Alter f{\"a}llt es Menschen schwer, regelm{\"a}ßig Medikamente zum richtigen Zeitpunkt einzunehmen. Oft wird dies durch eine große Anzahl verschiedener Medikamente noch erschwert, die {\"u}ber den Tag eingenommen werden m{\"u}ssen. In Zusammenarbeit mit dem Praktikum Informationssysteme/Telemedizinische Anwendungen an der Hochschule Heilbronn wird eine Smartwatch-Anwendung f{\"u}r die Apple Watch entwickelt. Diese basiert stark auf dezenten Benachrichtigungen am Handgelenk. Auch eine native Anwendung, die der Nutzer aktiv bedienen kann, wird erstellt. Die Anwendung ist aufgrund fehlender Prototypen-Werkzeuge f{\"u}r die Apple Watch nativ in Swift realisiert. Hierbei wird auf Swift als relativ neue Programmiersprache eingegangen. Die Evaluierung wird an station{\"a}ren Patienten im Alter von 70-85 vorgenommen. Die Aussage der Befragung ergibt, dass sich eine Uhr als Medium sehr gut eignet, da sie etwas Vertrautes ausstrahlt. Die touchscreen-basierte Steuerung f{\"a}llt aufgrund reduzierter sensomotorischer F{\"a}higkeiten der Probanden negativ auf. W{\"a}hrend die Benachrichtigung mit einhergehender Vibration sehr gut aufgenommen wird, ist die Interaktion mit der Uhr schwerf{\"a}llig. Die Patienten haben Probleme eine native Anwendung zu starten. In Zukunft k{\"o}nnten diese Probleme mit Hilfe von Accessibility Funktionen der Plattform gel{\"o}st werden. Weiter bietet die Uhr interessante Anwendungsm{\"o}glichkeiten Menschen im Alltag zu unterst{\"u}tzen.}, subject = {System , Erinnerung , Apple Watch , Verwendung}, language = {de} } @masterthesis{Lipinski2016, type = {Bachelor Thesis}, author = {Lipinski, Paulina}, title = {Analyse der Datenqualit{\"a}t beim Kolorektalkarzinom im klinischen Krebsregister des Tumorzentrums Heilbronn-Franken}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1112}, school = {Hochschule Heilbronn}, year = {2016}, abstract = {Ziel dieser Bachelorthesis ist es, den Datenbestand des Klinischen Krebsregisters am Tumorzentrum Heilbronn-Franken auf seine Vollst{\"a}ndigkeit, Vollz{\"a}hligkeit und seine Repr{\"a}sentativit{\"a}t zu untersuchen. Diese werden am Beispiel des Kolorektalen Karzinoms untersucht. Folgende Fragen lassen sich formulieren: • Lassen sich mit den in einem einrichtungsbezogenen klinischen Krebsregister, wie dem am Gesundbrunnen Heilbronn, erhobene regionale Daten ggfs. {\"u}berregionale und eventuell sogar bundesweite Aussagen ableiten? • Sind die erfassten Daten vollst{\"a}ndig bzw. wie vollst{\"a}ndig sind die Datenbest{\"a}nde der registrierten Patienten? • Sind die erfassten Daten im Tumorzentrum Heilbronn-Franken am Gesundbrunnen Heilbronn vollz{\"a}hlig? Werden im Klinischen Krebsregister der SLK-Kliniken alle Neuerkrankungen erfasst?}, subject = {Analyse , Datenqualit{\"a}t , Krebsregister}, language = {de} } @misc{Lohmann2016, type = {Master Thesis}, author = {Lohmann, Britta}, title = {Introducing dynamic forms in a client-server based hospital information system in Uganda}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1106}, school = {Hochschule Heilbronn}, year = {2016}, abstract = {eHMIS is a Ugandan Hospital Information System (HIS), which targets the Sub-Saharan market. In its first version all forms were programmed statically and adaptations were done by code modifications. In 2014 the development of a second version of eHMIS based on Java started. This work aims at introducing dynamic forms to this new version. While forms that are significantly important to the workflow of the application will remain static, others are replaced by forms that are dynamically designed by the user. By that, the application will become more flexible and local and situational tailoring will be possible without inducing extra costs. In this thesis the design, implementation and testing of dynamic forms in eHMIS is discussed. The architecture is based on the questionnaire resource of FHIR®. The module enables the user to create questions and group them into sections and questionnaires. For each question the type of answer expected and other constraints can be defined. A user interface covering all functions was designed, so that no programming skills are required. In a first step dynamic forms were integrated in the application's workflow for recording symptoms, though other fields of application are possible. For testing, a usability experiment was conducted in Tororo Hospital in Eastern Uganda, using the thinking aloud method. Results were analysed and evaluated to detect usability problems and gain a general impression of user satisfaction.}, subject = {Programmierung , Krankenhaus , Symptom , Uganda}, language = {en} } @masterthesis{Keil2016, type = {Bachelor Thesis}, author = {Keil, Andreas}, title = {Entwicklung einer mobilen Anwendung zur Verbesserung der Informationsgewinnung {\"u}ber (Notfall-) Patienten mithilfe eines NFC-Tags}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1078}, school = {Hochschule Heilbronn}, year = {2016}, abstract = {Informationsl{\"u}cken sind in der Notfallmedizin besonders folgenschwer, da sie zu einer ineffizienten Versorgung der Patienten f{\"u}hren und lebensbedrohlich sein k{\"o}nnen. Sie entstehen, wenn Patienten sich nicht mehr ad{\"a}quat artikulieren k{\"o}nnen oder nicht wissen, welche Vorerkrankungen sie haben und welche Medikamente sie einnehmen. So kann es beispielsweise zu schwerwiegenden Wechselwirkungen zwischen Medikamenten kommen oder zu allergischen Reaktionen auf ein Medikament. Im Rahmen dieser Arbeit soll ein System entwickelt werden, das diese Informationsl{\"u}cken zwischen Patienten und Erst- und Zweithelfern schließen soll. Es besteht aus einer mobilen Anwendung f{\"u}r Android Smartphones und NFC-Tags. Dazu schreiben Patienten ihre medizinischen Notfalldaten mit der mobilen Anwendung auf einen NFC-Tag. Diesen NFC-Tag tragen sie in Form einer Halskette, eines Armbands, eines Schl{\"u}sselanh{\"a}ngers o. {\"a}. bei sich. In einem Notfall k{\"o}nnen Erst- und Zweithelfer diesen NFC-Tag mit der mobilen Anwendung auslesen und bekommen so Informationen {\"u}ber den Patienten geliefert. Die implementierte mobile Anwendung kann testweise f{\"u}r Evaluationen eingesetzt werden. F{\"u}r einen produktiven Einsatz m{\"u}ssen allerdings organisatorische sowie rechtliche Pflichten wie der Datenschutz oder das Medizinproduktegesetz ber{\"u}cksichtigt werden.}, subject = {Entwicklung , Anwendung , Verbesserung , Information , Patient}, language = {de} } @misc{Lam2016, type = {Master Thesis}, author = {Lam, Tommy Vinh}, title = {Konzeption und prototypische Implementierung einer EMG-basierten Anwendung zur passiven Unterst{\"u}tzung in der Handtherapie unter Verwendung der Thalmic Myo}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1068}, school = {Hochschule Heilbronn}, year = {2016}, abstract = {Im Rahmen dieser Abschlussarbeit wird in Zusammenarbeit mit zwei Physiotherapeuten der IB Medizinischen Akademie Mannheim ein Konzept f{\"u}r das heimbasierte Training in der Handtherapie erarbeitet. Das Konzept basiert auf der Thalmic Myo, einem Gestensteuerungssystem, das {\"u}ber den Arm gesteuert wird. Der Entwurf wird prototypisch in Verbindung mit einer Android Anwendung realisiert. Das Myo-Armband ist mit Bewegungssensoren und Elektroden ausgestattet, womit sich Position von Hand und Arm im Raum erfassen und Bewegungen durch elektrische Signale von Muskeln erkennen lassen. Basierend auf dieser Technologie, soll eine M{\"o}glichkeit zur Verlaufskontrolle der Adh{\"a}renz, die Einhaltung der gemeinsam gesetzten Therapieziele, gew{\"a}hrleistet werden k{\"o}nnen. Abschließend wird der Prototyp gemeinsam mit sieben Physiotherapeuten hinsichtlich seiner Funktionalit{\"a}t untersucht und die Akzeptanz und das Nutzererlebnis evaluiert. Bei der Untersuchung wird das Studentenprojekt "LeapPhysio" hinzugezogen, das {\"a}hnliche Ziele verfolgt, jedoch auf einer anderen Technologie basiert. Es werden beide Technologien gegen{\"u}bergestellt und auf ihre Eignung gepr{\"u}ft.}, subject = {Konzeption , Implementierung , Unterst{\"u}tzung , Hand , Therapie}, language = {de} } @masterthesis{Tschlatscher2016, type = {Bachelor Thesis}, author = {Tschlatscher, Alexander}, title = {Integration von LIBSVM in MITK und Test anhand einer automatischen Lebertumorsegmentierung}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1055}, school = {Hochschule Heilbronn}, year = {2016}, abstract = {In der heutigen Zeit ist es auch f{\"u}r {\"A}rzte nicht immer trivial, diagnostisch pr{\"a}zise Entscheidungen auf Grund von modernsten medizinischen bildgebenden Verfahren zu treffen. Die vorliegende Bachelor-Thesis befasst sich damit wie man eine Software-anwendung mit Hilfe der Support Vector Machine (SVM), eine Technik des maschi-nellen Lernens, in ein bestehendes Framework wie z.B. MITK implementieren kann, um so vollautomatische Tests von Lebertumorsegmenierungen durchf{\"u}hren zu k{\"o}n-nen. Durch die zus{\"a}tzliche Integration einer Testklasse wird die entwickelte SVM validiert, um ein m{\"o}glichst hohes Klassifikationsergebnis zu erreichen. Die in der Thesis entwickelte Softwarekomponente hat gezeigt, dass eine vollautomatische Segmentierung von Lebertumoren bei Patienten in zufriedenstellendem Maße m{\"o}glich ist.}, subject = {Integration , Lebertumor}, language = {de} } @misc{Juchler2016, type = {Master Thesis}, author = {Juchler, Moritz}, title = {Evaluation of Web Service Based Querying of Pharmacogenomics (PGx) Clinical Guidelines Using MyVariant.info, PharmGKB and HGVS Nomenclature}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1044}, school = {Hochschule Heilbronn}, year = {2016}, abstract = {Every year, hundreds of thousands of patients are affected by treatment failure or adverse drug reactions, many of which could be revented by pharmacogenomic testing. To address these deficiencies in care, clinics require automated clinical decision support through computer based systems, which provide clinicians with patient-specific ecommendations. The primary knowledge needed for clinical pharmacogneomics is currently being developed through textual and unstructured guidelines. In this thesis, it is evaluated whether a web service can annotate clinically relevant genetic variants with guideline information using web services and identify areas of challenge. The proposed tool displays a formal representation of pharmacogenomic guideline information through a web service and existing resources. It enables the annotation of variant call format (VCF) files with clinical guideline information from the Pharmacogenomic Knowledge Base (PharmGKB) and Clinical Pharmacogenetics Implementation Consortium (CPIC). The applicability of the web service to nnotate clinically relevant variants with pharmacogenomics guideline information is evaluated by translating five guidelines to a web service workflow and executing the process to annotate publically available genomes. The workflow finds genetic variants covered in CPIC guidelines and influenced drugs. The results show that the web service could be used to annotate in real time clinically relevant variants with up-to-date pharmacogenomics guideline information, although several challenges such as translating variants into star allele nomenclature and the absence of a unique haplotype nomenclature remain before the clinical implementation of this approach and the use on other drugs.}, subject = {Patient , Therapie}, language = {en} } @masterthesis{Baumann2015, type = {Bachelor Thesis}, author = {Baumann, Beatrice}, title = {Entwicklung und Realisierung von BCI-Experimenten f{\"u}r die Ausbildung im Bereich der medizinischen Signalverarbeitung auf Basis des Buffer-BCI-Frameworks}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1022}, school = {Hochschule Heilbronn}, year = {2015}, abstract = {Eine Anwendung nur mit Gedanken steuern? — Das geht! Mit Hilfe von Brain-Computer-Interfaces (BCIs). Heutzutage gibt es viele BCI-Frameworks, bei denen die unterschiedlichen Konzepte wie zum Beispiel P300-Speller, Imagined Movement oder SSVEP untersucht und angewendet werden k{\"o}nnen. F{\"u}r diese Thesis wird das Framework Buffer-BCI verwendet. Es wurde untersucht, ob sich dieses f{\"u}r eine Aufgabe im Praktikum Medizinische Signal- und Bildverarbeitung (PSB) des Studiengangs Medizinische Informatik eignet. An mehreren Probanden wurde getestet, ob Reproduzierbarkeit und Erkennungsgenauigkeit hoch genug sind, um auch bei vielen unterschiedlichen Menschen vergleichbar funktionieren und sinnvolle Ergebnisse liefern zu k{\"o}nnen. Auch hinsichtlich zeitlicher Latenzen, der prinzipiellen Architektur des Frameworks und der Kommunikationskette f{\"u}r Ereignisse wurde Buffer- BCI untersucht. Ein Ergebnis dieser Thesis ist die Beschreibung der Architektur und der Kommunikationskette von Buffer-BCI. Ein weiteres Ergebnis ist eine Aufgabenstellung f{\"u}r das PSB bez{\"u}glich einer P300-Speller-Anwendung auf Basis des Buffer-BCI-Frameworks. Die Aufgabenstellung kann noch um Imagined Movement- oder SSVEP-Experimente erweitert werden, was jedoch nicht mehr Teil dieser Thesis ist.}, subject = {Entwicklung , Realisierung , Signalverarbeitung}, language = {de} } @masterthesis{Seitz2015, type = {Bachelor Thesis}, author = {Seitz, Peter Karl}, title = {Konzeption und Entwicklung einer Applikation zur robotergest{\"u}tzten Ultraschallbildgebung}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1018}, school = {Hochschule Heilbronn}, year = {2015}, abstract = {In dieser Bachelor-Thesis wird ein Ansatz zur robotergest{\"u}tzten Ultraschall-Bildgebun entwickelt. Es wird hierbei haupts{\"a}chlich die Kommunikation zwischen Roboter und Computer, sowie die Steuerung des Roboters, betrachtet. Die Bilderfassung und Darstellung ist nicht Teil dieser Arbeit. Ergebnis dieser Arbeit sind eine detaillierte Anforderungsanalyse, eine GUI zum Steuern der erstellten Roboterteilprogramme und das Roboterprogramm an sich. Auf Seiten des Roboters sind Programme f{\"u}r das Beibringen von Positionen, das Anfahren dieser und das Verfahren des Ultraschallkopfes an diesen (manuelle Steuerung mit einem Joystick) implementiert. F{\"u}r eine Atembewegungskompensation sind Beispielprogramme erstellt worden. Die Kommunikation zwischen Roboter und Computer baut auf OpenIGTLink auf. Ein weiteres Ergebnis der Thesis ist die Architektur des Programms, die es erm{\"o}glicht, dem Roboter beliebig viele neue Befehle beizubringen.}, subject = {Konzeption , Entwicklung , Applikation , Ultraschall}, language = {de} } @masterthesis{Rickmann2015, type = {Bachelor Thesis}, author = {Rickmann, Johannes}, title = {Konzeptionierung eines digitalen webbasierten Antragsportals in der NCTGewebebank Heidelberg}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-1008}, school = {Hochschule Heilbronn}, year = {2015}, abstract = {An der NCT-Gewebebank in Heidelberg werden große Mengen menschlichen Gewebes vorgehalten, welche von Forschern haupts{\"a}chlich im Rahmen der Tumorforschung verwendet werden k{\"o}nnen. Da jede Dienstleistung im Zusammenhang mit diesem Gewebe, sowie die Herausgabe dessen zuerst bewilligt werden muss, m{\"u}ssen die forschenden {\"A}rzte und Wissenschaftler einen Antrag an die Gewebebank stellen. Die Antragsstellung erfolgt zum aktuellen Zeitpunkt {\"u}ber ein Online bereit gestelltes Formular, welches im besten Falle digital korrekt ausgef{\"u}llt, ausgedruckt und unterschrieben an das Sekretariat der NCT-Gewebebank geschickt wird. Da die Antr{\"a}ge dort wieder von Hand digitalisiert werden, soll der Vorgang online erfolgen und so die Antragsverwaltung erleichtern, sowie weniger anf{\"a}llig f{\"u}r Fehler machen. Im Rahmen dieser Bachelorarbeit soll ein Konzept entwickelt werden, wie ein Antragsportal funktionieren kann, {\"u}ber das die Forscher online Antr{\"a}ge stellen k{\"o}nnen. Diese Arbeit ist auf die folgenden Ziele ausgerichtet: - Modellierung des aktuellen Zustands des Prozesses der Antragstellung - Modellierung eines m{\"o}glichen zuk{\"u}nftigen Prozesses - Vorstellung der m{\"o}glichen Verbesserungen im Prozess - Konzeptionierung eines Antragsportals - Analyse der Umsetzung dieses Portals mit praktischen Ans{\"a}tzen}, subject = {Konzeption}, language = {de} } @misc{Stroehle2015, type = {Master Thesis}, author = {Str{\"o}hle, Heiko}, title = {Extenting a hostpital information system with a clinical decision support system for drug interactions}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-999}, school = {Hochschule Heilbronn}, year = {2015}, abstract = {There are many drug interactions and to know every single interaction is impossible. In Uganda, a country located in East Africa, patients often do not get a patient information leflaet when a physician prescribes drugs because they only get the drugs without packaging and information inside. Even in developed countries many poeple die because of drug interactions. This work aims at developing a clinical decision support system for different kinds of drug interactions: 1) drug-drug interaction, 2) drug-food interactions, 3) drug-condition interactions and 4) drug-disease interactions. This system must be integrated into an existing hospital information system called electronic Health Management Information System (eHMIS). In the first part of this thesis different kinds of clinical decision support systems are described to find out which one is the best for eHMIS. The two different types are knowledge-based and non knowledge-based systems. The second part of this thesis, the data base of eHMIS is extended to have a full knowledge base for the new module which contains drug-drug interactions, drug-food interactions, drug-disease interactions as well as drug-condition interactions. Therefore new tables were created and filled with data of several data bases with drug interactions. The last part is about designing the clinical decision support system for drug interactions with the knowledge base of eHMIS, including the implementation considering the integration into the existing system. To know how health professionals in Uganda work with an electronical health system as well as their other work ows was important. The system now runs in a hospital in Kampala, the capital of Uganda and in a health center level three in Mifumi, a village located in the east of the country.}, subject = {Informationssystem , Rauschgift}, language = {en} } @masterthesis{Suleder2015, type = {Bachelor Thesis}, author = {Suleder, Julian}, title = {Entwicklung einer mobilen Anwendung zur Registrierung von NFC-Tags f{\"u}r die Identifizierung von Personen}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-970}, school = {Hochschule Heilbronn}, year = {2015}, abstract = {Die Identifizierung von Angeh{\"o}rigen der Hochschule Heilbronn erfolgt in der Regel {\"u}ber die Kombination aus Benutzername und Passwort. In verschiedenen Einsatzgebieten, wie z.B. an einer Parkschranke, ist eine Eingabe der Benutzermerkmale nicht m{\"o}glich oder hinderlich. Hierf{\"u}r soll die Mensakarte des Studentenwerks Heidelberg als identifizierendes Merkmal erschlossen werden. Dies macht die Verkn{\"u}pfung von Benutzerkonto und Karte notwendig. Im Rahmen dieser Bachelorarbeit werden zun{\"a}chst verschiedene Umsetzungsm{\"o}glichkeiten f{\"u}r mobile Anwendungen zur Verkn{\"u}pfung von Benutzer und Karte unter Verwendung der NFC-Technologie analysiert und ausgewertet. Anschließend wird ein funktionaler Prototyp f{\"u}r Smartphones der Android-Plattform entwickelt, der die einfache Einbindung weiterer Funktionalit{\"a}t erm{\"o}glichen soll. Der entwickelte Prototyp ist im Hochschulnetz testweise f{\"u}r die Registrierung und Deregistrierung von NFC-Karten einsetzbar. Vor einer realen Nutzung des Systems m{\"u}ssen der Datenschutz und andere organisatorische und rechtliche Pflichten, wie zum Beispiel das Telemediengesetz, ber{\"u}cksichtigt werden.}, subject = {Entwicklung , Registrierung , Identifikation}, language = {de} } @misc{Keitel2015, type = {Master Thesis}, author = {Keitel, Vanessa}, title = {Analyse der Leitlinientreue in der Nachsorge von Patienten mit einem Kolorektalkarzinom}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-962}, school = {Hochschule Heilbronn}, year = {2015}, abstract = {Wird bei einem Patienten mit Kolorektalkarzinom der Tumor erfolgreich entfernt, beginnt die Nachsorgephase. Der Nachsorgeplan, welchen die Patienten bei der Entlassung erhalten, orientiert sich an der S3-Leitlinie des Leitlinienprogramms f{\"u}r Onkologie. Der Patient kann selbst entscheiden, wo die Nachsorge stattfinden wird. Entweder l{\"a}sst er seine Nachsorgeuntersuchungen in der Klinik durchf{\"u}hren (klinikinterne Nachsorge) oder er sucht einen niedergelassenen Onkologen auf (klinikexterne Nachsorge). Gegenstand dieser Arbeit ist die Analyse der klinikinternen und -externen Nachsorge in Bezug auf die Einhaltung der S3-Leitlinie. Ziel ist es, festzustellen, ob anhand der erhobenen Daten R{\"u}ckschl{\"u}sse auf die Leitlinientreue in Bezug auf die Nachsorge der Patienten gezogen werden kann. Im Rahmen dieser Thesis werden Patienten mit einem UICC-Stadium II oder III und einem Diagnosedatum zwischen 2009 und 2013 betrachtet. Basierend auf den Kriterien wurden 562 Datens{\"a}tze aus dem GTDS exportiert. Nach anschließendem Bearbeiten und Aussortieren wurden 426 Patienten analysiert. Im seit 2001 in Heilbronn eingesetzten Gießener Tumordokumentationssystem (GTDS) werden die Falldaten der Tumorpatienten dokumentiert und gespeichert. Die Verlaufsdaten der TNM-Dokumentation werden mindestens einmal j{\"a}hrlich zu den Patienten erhoben. Diese Daten werden analysiert, um die Leitlinientreue zu {\"u}berpr{\"u}fen. Der Vergleich zwischen S3-Leitlinie und vorgenommenen Untersuchungen kann sich aufgrund lokaler Dokumentationspraxis nur auf den zeitlichen Ablauf der Untersuchungstermine beschr{\"a}nken, da im GTDS keinerlei Informationen zu der Art der vorgenommenen Untersuchung vorliegen. Um die zeitlichen Abl{\"a}ufe zu analysieren, werden aus den vorliegenden Datumswerten f{\"u}r jeden Patient ein Pfad bestehend aus Zust{\"a}nden (Tumorfreiheit, Untersuchung 1, etc.) gebildet. Die {\"U}bergangswahrscheinlichkeiten stellen einen Indikator f{\"u}r die Termintreue der Patienten dar. Es wurden 146 Patienten klinikintern und 149 Patienten klinikextern behandelt. 131 Patienten erhielten eine gemischte Nachsorge. Zusammenfassend l{\"a}sst sich sagen, dass die Informationen aus dem GTDS nicht ausreichen, um eine Leitlinienkonformit{\"a}t der Nachsorge von Kolorektalkarzinompatienten nachzuweisen, da im GTDS ausschließlich der Tumorverlauf dokumentiert wird, aber nicht, wie sich die Nachsorge im Speziellen gestaltet.}, subject = {Patient , Analyse , Nachsorge}, language = {de} } @misc{Voelker2015, type = {Master Thesis}, author = {V{\"o}lker, Stefan}, title = {Analyse und Evaluation der Wirkung des Doppler-Effekts auf verschiedene Modulationsverfahren der g{\"a}ngigen Funktechnik}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-951}, school = {Hochschule Heilbronn}, year = {2015}, abstract = {Die Popularit{\"a}t der drahtlosen Daten{\"u}bertragung w{\"a}chst, seit dem der Standard 802.11 im Jahr 1997 vom Institute of Electrical and Electronics Engineers (IEEE) f{\"u}r die private Nutzung ausgegeben wurde, stetig an. Hierbei beschr{\"a}nken sich die meisten Anwendungen auf das Wesentliche: die {\"U}bertragung von Nutzdaten zwischen einem Access Point und verschiedenen Endger{\"a}ten. Der konventionelle Weg der Datenverarbeitung in drahtlosen Netzwerk-Modulen sieht vor, dass zun{\"a}chst digitale Daten in analogen Verfahren moduliert werden. Nach der {\"U}bertragung als elektromagnetische Welle, werden die analogen Daten wieder von eingebetteten Systemen in einen digitalen Datenstrom {\"u}bersetzt und zum Weiterverarbeiten weitergereicht. Durch die steigende Rechenleistung von Computern gibt es auch andere Wege der {\"U}bertragung. Mit der Idee, den Datenstrom nicht analog weiterzuverarbeiten, sondern ihn in digitaler Form zu modulieren oder zu demodulieren entstanden die ersten ‚Software-Radios'. Zu Beginn der drahtlosen {\"A}ra wurden Software-Radios zum Beispiel dazu genutzt, um Sicherheitsl{\"u}cken in Wi-Fi {\"U}bertragungen zu finden. Heutzutage finden Software-Radios immer mehr Anwendungen in wissenschaftlichen Bereichen abseits der {\"u}blichen Daten{\"u}bertragung. Als alternative Vorreiter gelten die Arbeiten der Universit{\"a}t Washington „Whole-Home Gesture Recognition Using Wireless Signals" (Quifan et al., 2013a) und die des Massachusetts Institute of Technology „See Through Walls with Wi-Fi" (Adib F. and Katabi D., 2013). Die erst genannte Anwendung beruht auf der Theorie des Doppler-Effekts f{\"u}r elektromagnetische Wellen und zeigt auf, dass es m{\"o}glich ist, die {\"U}bertragungsverfahren des IEEE 802.11 zu {\"u}berwachen und Bewegungen nahe den Antennen zu erfassen. Die Zweite zeigt auf, dass {\"a}hnliche Ergebnisse auch ohne den Doppler-Effekt sondern nur durch die gemessenen Reflexionen von Signalen erreicht werden k{\"o}nnen. Die M{\"o}glichkeiten dieser Techniken reichen von einer Gestensteuerung, die ohne zus{\"a}tzliche Sensoren am Menschen auskommt, bis zum Visualisieren von Bewegungen hinter W{\"a}nden. Der Gegenstand der vorliegenden Arbeit ist grundliegende Problematiken der Detektion des Doppler-Effekts in digitalen Modulationen aufzuzeigen. Hierf{\"u}r werden Grundlagen der Empfangstechnik erl{\"a}utert. Weiterhin wird der Einsatz aktueller Grafikkarten in Software-Radios zur Detektion des Doppler-Effekts untersucht.}, subject = {Analyse , Evaluation , Modulation , Funktechnik}, language = {de} } @misc{Stocker2015, type = {Master Thesis}, author = {Stocker, Sebastian}, title = {Design and implementation of a web application for rehabilitation planning for stroke patients with milder disabilities}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-943}, school = {Hochschule Heilbronn}, year = {2015}, abstract = {Background: Stroke rehabilitation is a complex process that requires collaboration between stroke patients and various health professionals. One important component of the rehabilitation is to set goals collaboratively with health professionals. The goal setting process can be time-consuming. In many cases, it is complicated for the patient and difficult to track for the health professionals. A simple user interface that supports patients, their family members and health professionals can help both sides to make the goal setting and attainment process easier. Objectives: The aim is to design and develop a software for the goal attainment process of stroke patients with milder disabilities that facilitates goal setting process and the traceability of the goal progress for patients and health professionals. Methods: Based on previous evaluated results, the web interface was developed and improved. Using this knowledge, a goal setting interface was added. To analyze the the goal setting process, goal attainment scaling (GAS) was included as well as parts of the International Classification of Functioning, Disability and Health (ICF) core set for stroke. The results were discussed afterwards in focus groups and evaluated based on two stroke patients, one family member and health professionals. Results: We developed an interactive prototype, that can aid the rehabilitation at home by inserting problems with ICF codes and different kinds of goals, creating new activities and tracing goal progress by reviewing the different goals. With the help of the GAS the outcome of the patient's goals are visualized by a line chart presenting the positive or negative outcomes of the stroke rehabilitation. Conclusion: The interactive prototype showed that it can support stroke patients during their rehabilitation at home. A usability test indicated that the goal setting and attainment process was perceived as useful for patients and their family members. Small improvements have to be made to simplify use and error handling. For health professionals, the prototype could also simplify the documentation process by using ICF in the prototype, and also improving collaboration when using the tool for coordination.}, subject = {Schlaganfall , Rehabilitation}, language = {en} } @masterthesis{Seitz2015, type = {Bachelor Thesis}, author = {Seitz, Max Wolfgang}, title = {Entwicklung einer Im- und Exportfunktion von ODM-Dateien f{\"u}r das mobile Datenerfassungssystem MoPat2 am Beispiel einer klinischen Studie}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-932}, school = {Hochschule Heilbronn}, year = {2015}, abstract = {Einleitung: Die Datenerhebung in klinischen Studien erfordert eine ausgiebige, gewissenhafte Dokumentation. Daf{\"u}r werden nicht nur vom Personal Informationen gewonnen, sondern z.T. auch von Patienten mit Hilfe von Frageb{\"o}gen erhoben. In der chilenischen PRECISO-Studie wird zur Verwaltung und Erfassung von Studiendaten OpenClinica (OC) verwendet. Zur mobilen Patientenbefragung soll die am Institut f{\"u}r Medizinische Informatik (IMI) der Universit{\"a}tsklinik M{\"u}nster (UKM) entwickelte Anwendung MoPat2 eingesetzt werden. Daf{\"u}r sollen die "Operational Data Model" (ODM)-Import- und Export-Funktionen von OC und MoPat2, beispielhaft anhand der "Quality of Life" (QOL)-B{\"o}gen der PRECISO-Studie, auf ihre syntaktische und semantische Kompatibilit{\"a}t getestet, Diskrepanzen dokumentiert und die Implementierung in MoPat2 angepasst werden. Mit der Arbeit soll bewertet werden, mit welchen Arbeits-/Interpretationsschritten der ODM-Standard f{\"u}r solch ein Projekt ein geeignetes Datenaustauschformat darstellt. Methodik: In allen Arbeitsschritten wurde iterativ getestet, Fehler analysiert und verbessert. Basierend auf der Analyse wurden an der Struktur der aus OC exportierten ODM-Datei {\"A}nde-rungen vorgenommen. Aus der ODM-Datei wurden die Metadaten in MoPat2 importiert und daraus der QOL-Fragebogen generiert. Mit dem QOL-Bogen wurden Befragungen getestet und Fehler ausgewertet. F{\"u}r den Export aus MoPat2 wurde die Implementierung der ODM-Export-Funktion erweitert. Ergebnisse: Nur durch {\"A}nderungen konnten die Metadaten nach MoPat2 importiert und zur Generierung des QOL-Bogens genutzt werden. Befragungen mit dem QOL-Bogen haben sich als m{\"o}glich aber fehlerbehaftet erwiesen. Durch Implementierungen in MoPat2 konnten mit Hilfe eines ExportTemplates Patientendaten ODM-konform exportiert werden. Diskussion: Der ODM-Standard ist im Anwendungsfall zum Datenaustausch zwischen OC und MoPat2 gut nutzbar, jedoch mussten trotz Verwendung des Standards diverse {\"A}nderungen vorgenommen werden. Die Ergebnisse zeigen somit auf, dass die ODM-Schnittstellen beider Anwendungen erweitert und aufeinander angepasst werden m{\"u}ssen, um einen fehlerfreien Studiendatenaustausch zu erm{\"o}glichen.}, subject = {Entwicklung , Datei , Datenerfassung , Klinisches Experiment}, language = {de} } @misc{Lotz2015, type = {Master Thesis}, author = {Lotz, Dennis}, title = {Gesch{\"a}ftsprozessautomatisierung der Sterilgutaufbereitung mit der BPMN 2.0 am Beispiel der Open Source Camunda BPM-Plattform}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-923}, school = {Hochschule Heilbronn}, year = {2015}, abstract = {Die BPMN 2.0 bietet die M{\"o}glichkeit ausf{\"u}hrbare Prozesse zu modellieren. Die so modellierten Prozesse k{\"o}nnen zur Automatisierung genutzt werden. Dies kann die Transparenz erh{\"o}hen und die Fehleranf{\"a}lligkeit reduzieren. Im Klinischen Umfeld wird die M{\"o}glichkeit der Prozessautomatisierung mit Hilfe der BPMN 2.0 bisher nicht genutzt. Im Rahmen dieser Arbeit wird am Beispiel eines Sterilgutaufbereiters evaluiert ob sich die BPMN 2.0 als Modellierungssprache, Signavio als Modellierungswerkzeug und die Camunda BPM als Business-Process-Engine eignen, Prozesse im klinischen Umfeld abzubilden. Der Schwerpunkt dieser Arbeit liegt auf der Umsetzung der modellierten Prozesse mit Hilfe der Camunda BPM und der anschließenden Evaluation. Im Anschluss an die Analyse des Beispielszenarios werden mit Hilfe von Signavio BPMN 2.0 konforme Modelle erstellt. Anschließend werden die typischen Elemente der einzelnen Prozesse identifiziert. Die Modelle werden daraufhin mit der Camunda BPM zu automatisierbaren Prozessen umgesetzt. Das Beispielszenario konnte in Teilprozesse zerlegt und anschließend automatisiert werden. Die dabei aufgetretenen Probleme wurden analysiert und die notwendigen Anpassungen der Prozesse wurden vorgenommen. Die Evaluation zeigt, dass die Kombination aus BPMN 2.0, Signavio und der Camunda BPM geeignet ist standardisierte Prozesse aus dem klinischen Umfeld in automatisierte Prozesse umzusetzen.}, subject = {Automation}, language = {de} } @misc{Sigle2014, type = {Master Thesis}, author = {Sigle, Stefan}, title = {An architectural concept for implementing the socio-technical workflow of Digital Pathology in Chile}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus4-891}, school = {Hochschule Heilbronn}, year = {2014}, abstract = {Virtual Microscopy opens up the possibility to remotely access high quality images at large scales for scientific research, education, and clinical application. For clinical diagnostics, Digital Pathology (DP) presents a novel opportunity to reduce variability [Bauer et al., 2013] due to the reproducible access to Whole Slide Imaging, quantitative parameters (e.g. HER2 stained membrane) [Al-Janabi et al., 2012], second opinion and Quality Assurance [Ho et al., 2013]. Despite of the mentioned advantages, the challenge remains to incorporate DP into the pathologists workflow within a heterogeneous environment of systems and infrastructures [Stathonikos et al., 2013]. Different issues must be solved in order to optimize the impact of DP in the daily clinical practice [Daniel et al., 2012] [Ho et al., 2006]. The integration needs precise planning and comprehensive evaluation for adopting this technology [Stathonikos et al., 2013]. This thesis will focus on an organizational development approach based on a Socio-Technical System (STS). The socio-technical approach covers: (i) the technical issue: tissue-scanner, NDP.view, NDP.serve, analysis software, and (ii) the social issue: pathologists, technicians. In order to improve the integration, a joint optimization (of i and ii) is necessary. The developed STS approach will optimize the integration of DP towards improved workflows in clinical environments. The improved workflows will reduce the pathologists turnaround time, improve the certainty of the diagnostics, and provide a more effective patient care within the covered institutions. An overt multi-site Participatory Observation, Questionnaires, and Business Process Modelling Notation will be used to analyse the existing pathological workflows. Based on this, the system will be modelled with the 3lgm2 Toolkit [Winter et al., 2007] under consideration of various technical subsystems that are present in the clinical environment. Afterwards, the interfaces between subsystems and its possible interoperabilities will be evaluated, taking into account the different existing standards and guidelines for image processing and management, as well as business processes in DP. In order to analyse the existing preconditions a questionnaire will be evaluated to establish a robust and valid view. In addition, the overt participatory observation will support this elevation, giving a deeper insight on the social part. This observation also covers the technical side including the whole pathological process. The socio technical model will then reveal measurable potential for optimization with incorporated DP (e.g. higher throughput for slides). The organizational development approach consists of a Socio-Technical System based on overt multi-site participatory observations, questionnaires, business process modelling and 3LGM2, will optimize the use of Digital Pathology in the daily clinical practice and raise the acceptance to incorporate integrate the new technology within the dayly workflow through the user centred process of incorporation. • Perform and evaluate a questionnaire and a participant observation of pathologists work days in private \& public institutions • Create and evaluate a 3lgm2 model • Model the current pathological process (viewpoint of pathologist \& technical assistant) \& perform and evaluate a contextual inquiry to elevate the pathologists requirements \& expectations towards the system • Test the future WF according the model parameters. This project will detect unsuspected interrelations and interdependencies within the socio- technical workflow with a pathology laboratory. The observation will reveal the action conformity as well as the environment in which the process has to be embedded. Furthermore it will establish an optimized workflow for a specific clinical environment to prepare the implementation of DP. Additionally it will be possible to quantify digitized images in order to improve decision making and lastly to improve patient care. In the future it will be possible to extend automated image analysis in order to support clinical decision support. Depending on acceptance, this can lead towards an automated clinical decision support for cases with low complexity.}, language = {en} } @masterthesis{Nanse2014, type = {Bachelor Thesis}, author = {Nanse, Wesleg Keptukwa}, title = {E-Learning in der Medizin im franz{\"o}sischen Sprachraum insbesondere mit virtuellen Patienten}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-871}, school = {Hochschule Heilbronn}, year = {2014}, abstract = {Diese Bachelorarbeit tr{\"a}gt den Titel „E-Learning in der Medizin im franz{\"o}sischen Sprachraum insbesondere mit virtuellen Patienten". Sie skizziert, was sich hinter E-Learning im medizinischen Bereich und virtuellen Patienten verbirgt und betrachtet die vorherrschende Situation in diesem Bereich in franz{\"o}sischsprachigen L{\"a}ndern/Regionen n{\"a}her. Durch die Entwicklung von Informations-und Kommunikationstechnologie(IKT)hat sich der Austausch von Daten unabh{\"a}ngig von Raum und Ort stark weiterentwickelt. Dank dieser Evolution hat sich das Prinzip vom Lernen in nahezu allen Bereichen durch Suchmaschinen, Wissensdatenbanken oder Computersimulationen im Laufe der Zeit und speziell in den letzten 20 Jahren extrem stark ver{\"a}ndert und spielt t{\"a}glich eine große Rolle im Lernprozess von Menschen und dem Umgang mit vorhandenem Wissen. Im Allgemeinen h{\"a}ngt die Art des Lernens mit Hilfe von digitalen oder elektronischen Medien h{\"a}ufig mit der wirtschaftlichen Situation und internen Kultur eines Landes zusammen. Die positive Entwicklung des Landes und des sozialen Lebensstands der Menschen beg{\"u}nstigt demnach F{\"a}higkeit neue Technologien einzusetzen und sie effektiv zu nutzen. Die Idee f{\"u}r die bestehende Arbeit entstand bei der Feststellung in der Fakult{\"a}t f{\"u}r Informatik an der Hochschule Heilbronn, dass es noch keine Informationen {\"u}ber E-Learning und Einsatz von virtuellen Patienten in den franz{\"o}sischsprachigen L{\"a}ndern gibt. Dem Lernen mit Hilfe des Computers kommt in der Medizin eine große Bedeutung zu. Es erm{\"o}glicht sich selbst effektiv aus-und weiterzubilden, effizienter (schneller!) auf ben{\"o}tigte Informationen zuzugreifen. Ein weiterer Vorteil besteht darin, dass die Lernenden nicht in direktem Kontakt mit dem Lehrenden und anderen Lernenden stehen m{\"u}ssen. Das Zieldieser Arbeit ist, ein Licht in das Konzept von E-Learning und virtuellen Patienten in der franz{\"o}sischen Welt zu bringen .Zum tieferen Verst{\"a}ndnis werden im ersten Teil der Arbeit Begriffe und Definitionen vorgestellt, zudem die Grundlagen, Voraussetzungen und Ziele f{\"u}r ein effektives E-Learning erl{\"a}utert. Im zweiten Teil der Arbeit werden das E-Learning und der virtuelle Patientin Bezug auf ihre Potentiale und vorhandene Auspr{\"a}gungen analysiert. Die Vor-und Nachteile von E-Learning werden im Bezug auf seine Verwendung gegeben. Da sich diese Arbeit vornehmlich auf den franz{\"o}sischen Sprachraum konzentriert, ist zur Einordnung der Ergebnisse ein Vergleich mit anderen Sprachr{\"a}umen sinnvoll. Dadurch soll gezeigt werden inwiefern sich die sich das E-Learning mit virtuellen Patienten zu dem in anderen Sprachr{\"a}umen unterscheidet.}, subject = {E-Learning}, language = {de} } @masterthesis{Mutschler2014, type = {Bachelor Thesis}, author = {Mutschler, Maximus}, title = {Softwareplagiatserkennung auf Java-Bytecodebasis}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-862}, school = {Hochschule Heilbronn}, year = {2014}, abstract = {Im Rahmen dieser Arbeit wird eine eigens entwickelte Plagiatserkennungsoftware f{\"u}r Java-Programme namens Plagiarism Finder vorgestellt. Der Plagiatserkennungsprozess dieser Software basiert auf dem Java-Bytecode. Es werden die Grundlagen der Plagiatserkennung und des Java-Bytecodes umfassend erl{\"a}utert. Des Weiteren wird die Funktionsweise, der Entwurf, die Benutzeroberfl{\"a}che und die Evaluierung von Plagiarism Finder dargestellt. Hierbei wird auf folgende von der Wissenschaft bisher nicht betrachteten Aspekte eingegangen: -Die Art der Normalisierung des Bytecodes vor dem Vergleich. -Wie gel{\"o}st werden kann, dass das Verschieben von Methoden keinen Einfluss auf die ermittelten Ergebnisse hat. -Wie bei der Plagiatserkennung Vorlagen gefiltert werden k{\"o}nnen. Die Arbeit kommt zu dem Resultat, dass sich die Ergebnisse von Plagiarism Finder stabil gegen{\"u}ber {\"A}nderungen des Wortlautes, des Textsatzes und dem Verschieben von Methoden verhalten. {\"A}nderungen an Kontrollstrukturen (z.B. For- statt While- Schleifen), an Zugriffsmodifikatoren und an der Anzahl von Methoden f{\"u}hren zu einem instabilen Verhalten der Ergebnisse. Alles in allem kann Plagiarism Finder mit einer etablierten Plagiatserkennugssoftware wie JPlag [MP00] mithalten. Auf Grundlage der untersuchten Daten ist Plagiarism Finder im Erkennen von Plagiaten leicht schlechter als JPlag. Plagiarism Finder ist hingegen deutlich besser im Erkennen von nicht plagiierter Software. Bei wortw{\"o}rtlichen Kopien sowie bei {\"A}nderungen an der Textgestaltung und an Bezeichnungen sind die Ergebnisse der Programme nahezu identisch.}, subject = {Software}, language = {de} } @misc{Kudak2014, type = {Master Thesis}, author = {Kudak, Andreas}, title = {Evaluation und Anwendung aktueller Entwicklungen im Bereich Bluetooth Low Energy am Beispiel von iBeacon}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-850}, school = {Hochschule Heilbronn}, year = {2014}, abstract = {1.1 Gegenstand und Motivation Die bereits in den 1970er-Jahren [1] entwickelte Technologie NAVSTAR GPS (GPS) arbeitet elektronisch und eignet sich 1 besonders zur Navigation in großen und freiliegenden Gebieten, da sie die Standorte der Endger{\"a}te satellitengest{\"u}tzt errechnet. In Geb{\"a}uden st{\"o}ßt diese Technik aufgrund der Signald{\"a}mpfung durch Hindernisse, wie Decken, schnell an ihre Grenzen. GPS-Signale sind im Inneren eines Geb{\"a}udes um 20-30 dB (Faktor 100-1000) schw{\"a}cher, als im Außenraum [2]. Auch die Differenzierung verschiedener Etagen ist mittels der GPS-Technologie nicht m{\"o}glich. Die herk{\"o}mmliche Navigation in Geb{\"a}uden wird zurzeit h{\"a}ufig mittels Pfeilen und Karten realisiert. Aufgrund immer gr{\"o}ßer werdender Geb{\"a}ude und dem Wunsch, ortsbezogene Informationen zu {\"u}bermitteln, steigt die Nachfrage einer elektronischen Indoor-Navigation stetig. Eine m{\"o}gliche L{\"o}sung zur Indoor-Navigation bietet iBeacon. Dieser propriet{\"a}re Standard wurde 2013 von der Apple Inc.2 eingef{\"u}hrt und basiert auf der Bluetooth Low Energy-Technologie (BLE), welche durch einen geringen Energieverbrauch gekennzeichnet ist. Urspr{\"u}nglich dient iBeacon dazu, einem BLE f{\"a}higem Endger{\"a}t mitzuteilen, dass es sich in der Reichweite eines iBeacons befindet. Das Endger{\"a}t kann so ortsspezifische Informationen an den Benutzer {\"u}bermitteln, da das Endger{\"a}t den Standort des iBeacons kennt. So k{\"o}nnen z.B. Informationen zu einem Patienten eines Krankenhauses an den Tabletcomputer (Tablet) des medizinischen Personals {\"u}bermittelt werden. Dies geschieht durch eine Abstandsmessung zwischen dem iBeacon und dem Endger{\"a}t. Unter der Hinzunahme zwei weiterer iBeacons kann theoretisch eine Positionsbestimmung des Mobiltelefons und damit eine Navigation durchgef{\"u}hrt werden.}, subject = {Evaluation}, language = {de} } @masterthesis{Gnipieven2014, type = {Bachelor Thesis}, author = {Gnipieven, Stephanie}, title = {Re-Engineering einer Trainingssoftware f{\"u}r hirnbesch{\"a}digte Patienten}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-840}, school = {Hochschule Heilbronn}, year = {2014}, abstract = {Die Arbeit gliedert sich in sechs Kapitel. Kapitel 1 stellt die Problematik der Arbeit dar. Nach einer Darlegung der Gef{\"a}lligkeit des Computer-Trainings werden die vorliegende Software "Gesichter" und ihre Schw{\"a}chen sowie m{\"o}gliche Verbesserungen angesichts des aktuellen Stands der Technik vorgestellt. Die Vorgehensweise wird in der Zielsetzung beschrieben. Im Kapitel 2 werden wichtige medizinische und technische Konzepte vorgestellt, die f{\"u}r die Realisierung der neuen Applikation erforderlich sind. Außerdem wird das menschliche Gehirn vorgestellt. Es wird anschließend gezeigt, wie eine erworbene Hirnsch{\"a}digung zu Stande kommt und welche Strukturen im Gehirn dabei betroffen sind. Kapitel 3 besch{\"a}ftigt sich haupts{\"a}chlich mit der Untersuchung der vorliegenden Software sowie mit der konkreten Evaluierung der Vorgehensweise und der Auswahl der geeigneten Technologie zur Realisierung der neuen Anwendung. Kapitel 4 beschreibt, wie die Implementierung realisiert wurde. Dabei wird auf die Implementierung einzelner definierten Anforderungen eingegangen. In Kapitel 5 werden Testf{\"a}lle, die mit dem neuen Programm durchgef{\"u}hrt werden k{\"o}nnen, vorgestellt. Das letzte Kapitel 6 fasst die Arbeit zusammen. Hierbei werden alle erreichten Ergebnisse entsprechend der Zielsetzung vorgestellt. Abschließend werden im Ausblick Erweiterungsm{\"o}glichkeiten f{\"u}r das neue Programm vorgeschlagen.}, subject = {Software}, language = {de} } @masterthesis{Wollmann2014, type = {Bachelor Thesis}, author = {Wollmann, Thomas}, title = {Entwicklung und Implementierung eines Marching Cube basierten Algorithmus zur punkteerhaltenden Triangulation von Konturen mit Subpixel-Aufl{\"o}sung}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-836}, school = {Hochschule Heilbronn}, year = {2014}, abstract = {Im Rahmen dieser Bachelorarbeit wurde ein Triangulations-Algorithmus basierend auf dem Marching Cube Algorithmus konzeptioniert und implementiert. Der Algorithmus soll in der Software f{\"u}r die Strahlentherapieplanung VIRTUOS verwendet werden und die speziellen Anforderungen dieser Software erf{\"u}llen. Diese sind im Kapitel 1.3 beschrieben. Der Algorithmus soll eine Triangulation von Konturen mit Subpixel-Aufl{\"o}sung mit dem Marching Cube Verfahren erm{\"o}glichen. Diese Triangulation soll kanten- bzw. punkterhaltend sein. Somit darf sich die Position existierender Konturpunkte nicht {\"a}ndern. Die Anzahl der erzeugten Dreiecke soll m{\"o}glichst gering sein. Des Weiteren soll der Algorithmus in seiner Performanz optimiert sein. Die Implementierung des in dieser Arbeit beschriebenen Algorithmus ist wie VIRTUOS in C/C++ geschrieben und soll die bisherige Delaunay Triangulation abl{\"o}sen.}, subject = {Entwicklung}, language = {de} } @masterthesis{Wiebe2014, type = {Bachelor Thesis}, author = {Wiebe, Tamara}, title = {Augmented Reality Visualisierung medizinischer Bilddaten auf mobilen Ger{\"a}ten}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-816}, school = {Hochschule Heilbronn}, year = {2014}, abstract = {Augmented Reality Anwendungen k{\"o}nnen in der Medizin Eingriffe erleichtern, beispielsweise durch intraoperative Projektion von Zugangswegen oder Tumo-ren und Risikostrukturen auf den Patienten. Gr{\"u}nde, weshalb die Verwendung von Augmented Reality noch keinen Einzug in den Operationssaal gefunden hat, sind unter anderem eine erschwerte Tiefenwahrnehmung der virtuellen Objekte in der echten Szene und fehlende M{\"o}glichkeiten, um die F{\"u}lle der zus{\"a}tzlich visualisierten Objekte zu kontrollieren. Diesen Hindernissen entgegenzutreten ist das Ziel dieser Arbeit. Weiterhin geh{\"o}rt eine echtzeitf{\"a}hige Implementierung zu den Anforderungen dieser Arbeit, um die Visualisierung im Rahmen eines Projektes zu nutzen, welches Augmented Reality auf mobilen Ger{\"a}ten direkt am Patienten zeigt. Um diese Ziele zu erreichen, wurde zun{\"a}chst eine Texturprojektion kombiniert mit einem selbstentwickelten Grafikkartenprogramm realisiert, um dem Betrachter die Orientierung innerhalb der Augmented Reality Szene zu erleichtern und die Berechnung der perspektivischen Projektion der Textur zugleich effizient zu halten. Um die Tiefenwahrnehmung in der Szene zu verbessern, wurde ein weiteres Grafikkartenprogramm entwickelt, welches in eine gegebene Oberfl{\"a}che eine {\"O}ffnung zeichnet, durch welche der Betrachter in das Innere des Patienten blicken kann. Weiterhin wurde ein Konzept umgesetzt, mit dessen Hilfe die Anzahl an abgebildeten Objekten in der Augmented Reality Szene gesteuert werden kann. Dieses Konzept dient außerdem der Untergliederung von Objekten in verschiedene Familien, f{\"u}r die dann unterschiedliche Darstellungen umgesetzt werden k{\"o}nnen. Ergebnis ist sowohl eine sichtbar verbesserte Tiefenwahrnehmung als auch ein Konzept zur Kontrolle der F{\"u}lle an abgebildeten Informationen in einer echtzeitf{\"a}higen Implementierung.}, subject = {Visualisierung}, language = {de} } @masterthesis{Sailer2014, type = {Bachelor Thesis}, author = {Sailer, Fabian}, title = {Analyse von {\"U}berlebenszeiten bei Tumporpatienten anhand Methoden des Data Minings}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-806}, school = {Hochschule Heilbronn}, year = {2014}, abstract = {Behandlungen von Tumoren zielen in erster Linie auf eine Verl{\"a}ngerung der {\"U}berlebenszeit des Patienten ab. Es ist f{\"u}r {\"A}rzte eine Hilfe, wenn zu Beginn der Behandlung die voraussichtliche {\"U}berlebenszeit abgesch{\"a}tzt werden kann. Dies geschieht aktuell oftmals mit Hilfe einer manuellen Einteilung in Risikoklassen. F{\"u}r diese sind aus Erfahrungswerten typische {\"U}berlebenszeiten bekannt. In Zeiten der zunehmenden Digitalisierung ist es nur logisch den Versuch zu starten, die Klassifizierung automatisch vorzunehmen. In dieser explorativen Grundlagenarbeit werden zwei Data Mining-Verfahren — namentlich „naiver Bayes Klassifikator" und „k-means Clustering" — auf ihre F{\"a}higkeit bez{\"u}glich der {\"U}berlebenszeitprognose hin untersucht. Dazu werden verschiedene Feature Selection Verfahren (Information Gain, Expertenselektion, Forward Selection, Backward Elimination und No Selection) getestet. Nach dem k-means Clustering k{\"o}nnen Kaplan-Meier-Kurven der einzelnen Cluster gezeichnet werden. Aus diesen kann eine Prognose der {\"U}berlebenszeit abgelesen werden. Der naive Bayes Klassifikator errechnet nach einer ({\"a}quifrequenten oder {\"a}quidistanten) Diskretisierung der {\"U}berlebenszeit f{\"u}r jeden Patienten individuell eine {\"U}berlebens-Wahrscheinlichkeits Verteilung. Das Training der Data Mining-Verfahren erfolgte auf der Basis von Datens{\"a}tzen kolorektaler Tumorpatienten des Tumorregisters des Tumorzentrums Heilbronn-Franken.}, subject = {Analyse}, language = {de} } @masterthesis{Wenz2014, type = {Bachelor Thesis}, author = {Wenz, Arthur}, title = {Optimierung und Weiterentwicklung eines Telepr{\"a}senzroboters im Rahmen des Projektes „Virtuelles Klassenzimmer" der Stiftung „Große Hilfe f{\"u}r Kleine Helden"}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-799}, school = {Hochschule Heilbronn}, year = {2014}, abstract = {1.1 Gegenstand und Motivation Jeder von uns, der schon mal im Krankenhaus war und ein paar Tage dort verbringen musste, weiß wie einseitig und monoton der Alltag in solchen sterilen R{\"a}umen aus-sieht. Und wie froh man ist den ersten Schritt aus dem Krankenhaus zu machen, sich wieder mit Freunden zu treffen und den Alltag zu genießen. Nun gibt es auch schwer erkrankte Menschen, die dem Krankenhaus Alltag nicht nach ein paar Tagen entgehen k{\"o}nnen. Sie sind oft monatelang, ja sogar jahrelang, ans Kran-kenhaus gebunden. Besonders f{\"u}r Kinder und Jugendliche ist diese Situation ein großes Problem. Oft wird man von einem auf den n{\"a}chsten Augenblick aus dem Alltag und dem sozialen Umfeld herausgerissen. Selbst, der bis dato doch nervende Schulalltag, f{\"a}ngt einem an zu feh-len. An das Beisammen sein mit Freunden im Klassenzimmer, oder auf dem Schulhof, ist auf einmal nicht zu denken. Stattdessen ist man an ein Krankenhausbett gefesselt und ist von medizinischen Ger{\"a}ten umgeben. Die Stiftung „Große Hilfe f{\"u}r kleine Helden" will durch das Projekt „virtuelles Klas-senzimmer" den erkrankten Sch{\"u}lern den virtuellen Besuch des Schulunterrichts erm{\"o}g-lichen und somit auch den Kontakt mit Mitsch{\"u}lern und die sozialen Bindungen in ers-ter Linie zu pflegen und zu erhalten. Als Fundament f{\"u}r diese Arbeit dient die Abschlussarbeit „Konzeption und Implemen-tierung eines virtuellen Klassenzimmers f{\"u}r schwer erkrankte Kinder und Jugendliche mit Hilfe eines Telepr{\"a}senzrobotors" von Frau Konstantina Georgiadou [3], welche auch den aktuellen Stand des Projekts beschreibt. Eine {\"U}berarbeitung des Projekts ist notwendig, da die Multimediale Hardware (Sound / Kamera / Mikrofone) immer noch kabelgebunden ist und somit die n{\"o}tige Bewegungsfreiheit f{\"u}r den Telepr{\"a}senzroboter im Klassenzimmer oder dem Schulhof fehlt. 1.2 Problemstellung und Zielsetzung Zwar hat das Projekt beachtliche Schritte nach vorn gemacht, dennoch gibt es noch zahlreiche Probleme die zu bew{\"a}ltigen sind. Im Rahmen der Abschlussarbeit von Frau Georgiadou wurde ein Roboter Kit namens TurtleBot2 angeschafft. Das Kit beinhaltet eine Kobuki Basis, sowie eine Microsoft Kinect und ein ROS- kompatibles Netbook. Die vorhandene Hardware erweist sich als problematisch, da sie einige H{\"u}rden und Hindernisse darstellt die in dieser Abschlussarbeit eliminiert werden sollen. Das Projekt hat also nach diesem Stand eine große Schw{\"a}che. Die externen Ger{\"a}te sind alle kabelgebunden. So ben{\"o}tigen die Station des mobilen Mikrofons, sowie die Audio-box eine externe Stromversorgung. Auch die Kamera, welche {\"u}ber das Netzwerk mittels LAN-Kabel fungiert, schr{\"a}nkt die Mobilit{\"a}t des TurtleBot2 erheblich ein. Da diese von Router und Steckdose abh{\"a}ngt. Ein {\"a}hnliches Problem liegt auch bei den Lautsprechern vor, diese sind ebenfalls von einer externen Steckdose abh{\"a}ngig. Das Ziel dieser Arbeit ist es, in erster Linie die eingeschr{\"a}nkte Mobilit{\"a}t des Turtle-Bot2, welche durch die kabelgebunden Ger{\"a}te verursacht wird, zu beseitigen. Es sollen neue Hardware und Verbesserungsvorschl{\"a}ge f{\"u}r die medialen Probleme gefunden wer-den, wobei die Qualit{\"a}t von Ton und Bild nicht leiden d{\"u}rfen. Ebenfalls soll eine An-richtung bzw. Verbesserungsvorschlag f{\"u}r den Sch{\"u}ler gefunden werden, welches ihm das Halten des Laptops erspart. Insgesamt soll sich der TurtleBot2 frei im Raum bewe-gen k{\"o}nnen und dem Sch{\"u}ler im Krankenhaus somit eine verbesserte Integration in die Normalit{\"a}t bzw. den Alltag erm{\"o}glichen.}, subject = {Optimierung}, language = {de} } @misc{Graupner2014, type = {Master Thesis}, author = {Graupner, Hendrik}, title = {Design and implementation of a dedicated planning and implementation software system using a driving simulator to support occupational therapy intervention and data collection in the context of studies}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-784}, school = {Hochschule Heilbronn}, year = {2014}, abstract = {The aim of this master's thesis is the design and implementation of a dedicated software system, for planning and implementation of occupational therapy intervention and research studies, in a driving simulator environment. In the first part, the concept based on user requirements is presented. It consists of architectural patterns and guidelines with the main focus on utility and application security. The result of this part is the design of a web application which supports integration in a clinical as well as a research environment. The second part presents the reference implementation of the previously introduced concept. It was developed under a case study in a research facility which hosts a driving simulator. A close cooperation and the influence the researcher's experience led into a product which provides advanced usability for the target users. In conclusion, the thesis validated the concept indirectly under a testing phase of the reference implementation. It provides the base for a follow-up project to refine the software product and extend the concept to different fields of application.}, subject = {Therapie}, language = {en} } @misc{Bronsch2014, type = {Master Thesis}, author = {Bronsch, Tobias}, title = {Integration of i2b2 into the Greifswald University Hospital Research Platform}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-776}, school = {Hochschule Heilbronn}, year = {2014}, abstract = {The Greifswald University Hospital in Germany conducts a research project called "Greifswald Approach to Individualized Medicine (GANI_MED)", which aims at improving patient care through personalized medicine. As a result of this project, there are multiple regional patient cohorts set up for different common diseases. The collected data of these cohorts will act as a resource for epidemiological research. Researchers are going to get the possibility to use this data for their study, by utilizing a variety of different descriptive metadata attributes. The actual medical datasets of the patients are integrated from multiple clinical information systems and medical devices. Yet, at this point in the process of defining a research query, researchers do not have proper tools to query for existing patient data. There are no tools available which offer a metadata catalogue that is linked to observational data, which would allow convenient research. Instead, researchers have to issue an application for selected variables that fit the conditions of their study, and wait for the results. That leaves the researchers not knowing in advance, whether there are enough (or any) patients fitting the specified inclusion and exclusion criteria. The "Informatics for Integrating Biology and the Bedside (i2b2)" framework has been assessed and implemented as a prototypical evaluation instance for solving this issue. i2b2 will be set up at the Institute for Community Medicine (ICM) at Greifswald, in order to act as a preliminary query tool for researchers. As a result, the development of a research data import routine and customizations of the i2b2 webclient were successfully performed. An important part of the solution is, that the metadata import can adapt to changes in the metadata. New metadata items can be added without changing the import program. The results of this work are discussed and a further outlook is described in this thesis.}, subject = {Wiederverwertung}, language = {en} } @misc{Spies2014, type = {Master Thesis}, author = {Spies, Miriam}, title = {Entwicklung einer Methodik f{\"u}r die Analyse des Informationsbedarfs der Angeh{\"o}rigen von Patienten der ambulanten Palliativversorgung}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-766}, school = {Hochschule Heilbronn}, year = {2014}, abstract = {Die Versorgung und Unterst{\"u}tzung von Palliativpatienten stellt h{\"a}ufig hohe Anforderungen an deren Angeh{\"o}rige. Es ist wenig bekannt {\"u}ber den Informationsbedarf dieser Angeh{\"o}rigen und deshalb k{\"o}nnen sie nicht immer optimal nach ihren Bed{\"u}rfnissen unterst{\"u}tzt und informiert werden. Ferner ist nicht gen{\"u}gend erforscht, wie Angeh{\"o}rige motiviert werden k{\"o}nnen, um {\"u}ber bekannte Anforderungen hinaus, eigene Vorstellungen und Ideen bez{\"u}glich des Informationsbedarfs zu entwickeln. In der vorliegenden Arbeit wird zun{\"a}chst eine Literaturrecherche zur Informationsbedarfsanalyse durchgef{\"u}hrt, um einen {\"U}berblick {\"u}ber Methoden zur Erhebung eines Informationsbedarfs zu bekommen. Als Vorgehensweise f{\"u}r die Literaturrecherche wurden das Schneeballsystem und die systematische Suche in Schlagwortkatalogen identifiziert. Um eine geeignete Methode zur Ermittlung des Informationsbedarfs von Angeh{\"o}rigen von Palliativpatienten ausw{\"a}hlen oder entwickeln zu k{\"o}nnen, wurden Interviews gef{\"u}hrt. Neben einem Interview mit einer Familie erfolgten weitere Interviews im Rahmen von Hospitationen an drei verschiedenen medizinischen Einrichtungen: eine Palliativstation in Heidelberg, ein Hospiz in Wiesloch und eine spezialisierte ambulante Palliativversorgungseinheit in Buchen. Diese flossen in einen Interviewleitfaden ein, der als Methodik zur Erhebung des Informationsbedarfs speziell von Angeh{\"o}rigen von Palliativpatienten verwendet werden kann. Es hat sich gezeigt, dass die Befragung als ein qualitatives Interview durchgef{\"u}hrt werden sollte. Der Interviewleitfaden besteht aus 5 Fragenbl{\"o}cken. Durch offene Fragestellungen werden die Subjektivit{\"a}t und ein tiefer Informationsgehalt erlangt. Im letzten Teil der Fragen werden papierbasierte Prototypen von einigen Ideen f{\"u}r mobile Systeme vorgestellt und besprochen. Dieser Interviewleitfaden wurde in einer Vorstudie erprobt. Daf{\"u}r wurden 3 pflegende Angeh{\"o}rige von Palliativpatienten befragt. Durch das Umsetzen der Erkenntnisse aus den Interviews konnte die Methodik angepasst und Schwachstellen verbessert werden. Nach Abschluss dieser Testphase wurde ein allgemeiner Studienplan f{\"u}r eine Studie entworfen. Dieser beschreibt die Durchf{\"u}hrung einer qualitativen Studie. Dabei soll die Wirklichkeit anhand der subjektiven Sicht der befragten Angeh{\"o}rigen abgebildet werden.}, subject = {Methode}, language = {de} } @misc{Teske2013, type = {Master Thesis}, author = {Teske, Hendrik}, title = {Lokalisierung von Lungentumoren trotz limitierter Tumorerkennbarkeit: Modellierung der Bewegung mittels Nachverfolgung von kontrastreichen anatomischen Strukturen in angrenzender Umgebung}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-752}, school = {Hochschule Heilbronn}, year = {2013}, abstract = {Ziel dieser Arbeit soll es sein, ein Verfahren zu entwickeln, das bildbasiert mit Hilfe eines Interpolationsmodells die Bewegung von Lungentumoren modellierbar macht, unter der Ber{\"u}cksichtigung, dass die Erkennbarkeit der Tumore w{\"a}hrend der Therapie nicht immer gew{\"a}hrleistet ist. Als erster Schritt soll daher ein geeignetes internes Surrogat f{\"u}r die Tumorbewegung ermittelt werden. Dessen Bewegungen w{\"a}hrend der Atmung des Patienten sollen mit Hilfe von kontinuierlich aufgenommenen zweidimensionalen Fluoroskopieaufnahmen quantifiziert werden. Anschließend sollen die gewonnenen Informationen als Eingabewerte f{\"u}r ein Interpolationsmodell genutzt werden, um diese Bewegung auf den Tumor im Inneren der Lunge zu propagieren. Dabei gilt es, ein geeignetes Modell zu entwickeln, das sich f{\"u}r die Modellierung von Tumoren auf Basis der Surrogatinformationen eignet und in der Lage ist, die Tumorbewegung m{\"o}glichst wahrheitsgetreu zu modellieren. Eine Evaluation der Ergebnisse soll sowohl Aufschluss {\"u}ber eine geeignete Parametrisierung des Modells geben, als auch die Anwendbarkeit eines solchen Modells hinterfragen. Um eine Austauschbarkeit der Modelle gew{\"a}hrleisten zu k{\"o}nnen, soll eine Schnittstelle entwickelt werden, {\"u}ber die verschiedene Modelle angesprochen werden k{\"o}nnen. Weitergehend soll ein Ansatz entwickelt werden, der es erm{\"o}glicht, die relevanten Positionen des Surrogats ohne manuelle Interaktion w{\"a}hrend der Therapie zu bestimmen.}, subject = {Tumor}, language = {de} } @misc{Jos2013, type = {Master Thesis}, author = {Jos, Dennis}, title = {Human Activity Pattern Recognition from Accelerometry Data}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-741}, school = {Hochschule Heilbronn}, year = {2013}, abstract = {Ambulant studies are dependent on the behavior and compliance of subjects in their home environment. Especially during interventions on the musculoskeletal system, monitoring physical activity is essential, even for research on nutritional, metabolic, or neuromuscular issues. To support an ambulant study at the German Aerospace Center (DLR), a pattern recognition system for human activity was developed. Everyday activi-ties of static (standing, sitting, lying) and dynamic nature (walking, ascending stairs, descending stairs, jogging) were under consideration. Two tri-axial accelerometers were attached to the hip and parallel to the tibia. Pattern characterizing features from the time domain (mean, standard deviation, absolute maximum) and the frequency domain (main frequencies, spectral entropy, autoregressive coefficients, signal magni-tude area) were extracted. Artificial neural networks (ANN) with a feedforward topology were trained with backpropagation as supervised learning algorithm. An evaluation of the resulting classifier was conducted with 14 subjects completing an activity protocol and a free chosen course of activities. An individual ANN was trained for each subject. Accuracies of 87,99 \% and 71,23 \% were approached in classifying the activity protocol and the free run, respectively. Reliabilities of 96,49 \% and 76,77 \% were measured. These performance parameters represent a working ambulant physical activity monitor-ing system.}, subject = {T{\"a}tigkeit}, language = {en} } @masterthesis{Kisakye2013, type = {Bachelor Thesis}, author = {Kisakye, Herbert S.}, title = {Brain Computer Interfaces: OpenViBE as a Platform for a P300 Speller}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-735}, school = {Hochschule Heilbronn}, year = {2013}, abstract = {Aside from hardware, a major component of a Brain Computer Interface is the software that provides the tools for translating raw acquired brain signals into commands to control an application or a device. There's a range of software, some proprietary, like MATLAB and some free and open source (FOSS), accessible under the GNU General Public License (GNU GPL). OpenViBE is one such freely accessible software. This thesis carries out a functionality and usability test of the platform, looking at its portability, architecture and communication protocols. To investigate the feasibility of reproducing the P300 xDAWN speller BCI presented by OpenViBE, users focused on a character on a 6x6 alphanumeric grid which contained a sequence of random flashes of the rows and columns. Visual stimulus is presented to a user every time the character they are focusing on is highlighted in a row or column. A TMSi analog-to-digital converter was used together with a 32-channel active electrode cap (actiCAP) to record user's Electroencephalogram (EEG) which was then used in an offline session to train the spatial filter algorithm, and the classifier to identify the P300 evoked potentials, elicited as a user's reaction to an external stimulus. In an online session, the users tried to spell with the application using the power of their brain signal. Aspects of evoked potentials (EP), both auditory (AEP) and visual (VEP) are further investigated as a validation of results of the P300 speller.}, subject = {Computer}, language = {en} } @masterthesis{Kinzel2013, type = {Bachelor Thesis}, author = {Kinzel, Konstantin}, title = {Entwurf und Implementierung einer Benutzeroberfl{\"a}che zur Klassifikation von Mustern}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-728}, school = {Hochschule Heilbronn}, year = {2013}, abstract = {In dieser Arbeit wurde am Deutschen Krebsforschungszentrum (DKFZ) in Heidelberg eine Anwendung f{\"u}r das Trainieren von Klassifikatoren, das Klassifizieren und f{\"u}r die Durchf{\"u}hrung eines Leave-One-Out-Tests entwickelt. Auf der Grundlage von Methoden aus einem bereits existierenden Programm, das zum automatischen Erkennen von osteolytischen und osteoblastischen L{\"a}sionen bei Patienten mit einem multiplen Myelom genutzt wird, wurde eine Benutzeroberfl{\"a}che implementiert, die das aufwendige und manuelle Anpassen an neue Fragestellungen erleichtern soll. Zus{\"a}tzlich soll eine Visualisierung von Merkmalen dem Benutzer beim Trainieren eines Klassifikators die Auswahl verdeutlichen und vereinfachen. Damit die Anwendung auch f{\"u}r andere Klassifikationsaufgaben genutzt werden kann, wurde eine Erweiterungsm{\"o}glichkeit der grafischen Benutzeroberfl{\"a}che auf Basis von XML integriert.}, subject = {Entwurf}, language = {de} } @masterthesis{Juchler2013, type = {Bachelor Thesis}, author = {Juchler, Moritz}, title = {Auswahl und Implementierung eines Scientific Workflow Management Systems zur Analyse von Next-Generation Sequencing Daten}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-713}, school = {Hochschule Heilbronn}, year = {2013}, abstract = {In dem transregionalen Sonderforschungsbereich SFB/TRR 77 untersuchen Heidelberger und Hannoveraner Wissenschaftler Entstehungsmechanismen und neue Therapieans{\"a}tze des Leberzellkarzinoms, einer der t{\"o}dlichsten Tumorerkrankungen unserer Zeit. Die IT-Plattform Pelican, die ein Teil des Gebiets Z2 ist, soll dem Forschungsverbund die softwaregest{\"u}tze Analyse und die nachhaltige Bereitstellung von Leberkrebs-Forschungsdaten erm{\"o}glichen [Ganzinger et al. 2011]. Ein Teil von Pelican soll eine gemeinsame Informationsplattform anbieten, die die biomedizinischen Daten der verschiedenen medizinischen und biologischen Projekte integriert und den beteiligten Projektgruppen biostatistische Programme und projekt{\"u}bergreifende Auswertungen zur Verf{\"u}gung stellt. Die Integration von Gewebe-, Molek{\"u}l-, Genetik- und Klinikdaten in eine gemeinsame Plattform erm{\"o}glicht Datenerhaltung und umfassende Analysen. Die integrierte Analyse begegnet durch die Verkn{\"u}pfung verschiedener Forschungsprojekte des SFB/TRR 77 den Herausforderungen der Multidisziplinarit{\"a}t klinischer Forschung und Genforschung. Mit dem Next-Generation DNA Sequencing ist durch Kostenreduzierung und immenser Zeiteinsparung die DNA Sequenzierung einem breiten Spektrum an Wissenschaftlern zug{\"a}nglich geworden und hat Kompetenzen zur Sequenzierung von zentralen Stellen in die H{\"a}nde vieler individueller Forscher gelegt [Shendure and Ji 2008, Ding et al. 2010, Wetterstrand 2011]. Die Kombination dieser hochentwickelten Technologien aus der Gentechnik und rechnerbasierten Werkzeugen erlaubt die Beantwortung biologischer Fragestellungen in erheblich umfangreicherer Art und Weise als dies bisher m{\"o}glich gewesen ist [Shaer et al. 2013]. Die rasche Entwicklung des Next-Generation Sequencing beinhaltet auch das Konstruieren neuer Ans{\"a}tze zur bioinformatischen Datenanalyse, ohne die kein Informationsgewinn, wie beispielsweise die Entdeckung von Genvariationen, m{\"o}glich w{\"a}re. Das dabei neu gewonnene Wissen kann zu erheblichen Fortschritten in der Krebsforschung f{\"u}hren, beispielsweise wenn es um das Identifizieren der Genomver{\"a}nderungen einer Tumorzelle geht [Ding et al. 2010]. Anstatt Sequenzierungen in kleinem Maßstab durchzuf{\"u}hren, k{\"o}nnen Forscher inzwischen Sequenzierungen in weit umfangreicherem Ausmaß realisieren, in denen Informationen von multiplen Genen und Genomen vermessen, dokumentiert und in Datenbanken gespeichert werden k{\"o}nnen. Die DNA Sequenzen werden nach der Sequenzierung in einer Kette aus vielen Prozessschritten - eine bioinformatische Pipeline - analysiert und verarbeitet. Zu den Einzelschritte, wie zum Beispiel Alignment oder die Entfernung von Duplikaten, gibt es oftmals viele Alternativen.}, subject = {Implementierung}, language = {de} } @misc{Ipek2013, type = {Master Thesis}, author = {Ipek, Selcan}, title = {Entwicklung von vollautomatischen Auswertungsalgorithmen f{\"u}r die zeitharmonische multifrequente Leber-Ultraschallelastographie}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-700}, school = {Hochschule Heilbronn}, year = {2013}, abstract = {Ultraschallelastographie (USE) ist ein bildgebendes Verfahren, mit dem die Ausbreitung mechanischer Scherwellen, die durch externe Schwingungen in den menschlichen K{\"o}rper eingekoppelt werden, mittels Ultraschall gemessen und dargestellt werden kann. Die Ausbreitungsgeschwindigkeit der Scherwellen steht dabei in einem direkten qualitativen Zusammenhang zu den elastischen Eigenschaften des Gewebes. Als apparative Palpation wird die transiente USE daher in der medizinischen Diagnostik bereits eingesetzt, denn viele Krankheiten, wie z.B. die Leberfibrose, gehen mit einer Ver{\"a}nderung der elastischen Kenngr{\"o}ßen der betroffenen Gewebe einher. Das im Rahmen dieser Arbeit weiter entwickelte USE-Diagnosesystem unterscheidet sich von der transienten USE dadurch, dass die angewandten Scherwellen zeitharmonisch sind und aus mehreren {\"u}berlagerten Frequenzkomponenten bestehen. Um die Auswertung zu objektivieren und die Performance zu steigern wurde die bisherige interaktive retrospektive Auswertungsmethode durch einen vollautomatischen Algorithmus ersetzt. Dazu war es notwendig, manuelle Aussortierung schlechter Messungen ebenfalls zu automatisieren. Auf dieser Basis wurde zus{\"a}tzlich ein Echtzeitauswertungsalgorithmus entwickelt, um erstmals unmittelbar w{\"a}hrend einer Untersuchung Resultate der Leberelastizit{\"a}tsmessungen auszugeben. Die neuen Algorithmen wurden mit Softwarephantom, Rinderleberproben und gegen{\"u}ber der Magnetresonanz-Elastographie (MRE) als Referenzmethode validiert. Es hat sich gezeigt, dass die vollautomatisch ermittelten Elastizit{\"a}tsergebnisse mit denen der MRE gut {\"u}bereinstimmen und die Performance gegen{\"u}ber der bisherigen Auswertung deutlich gesteigert wurde. Nachfolgend wurden diese Algorithmen erfolgreich in einer Pilotstudie an gesunden Freiwilligen eingesetzt.}, subject = {Entwicklung}, language = {de} } @misc{Hilbert2013, type = {Master Thesis}, author = {Hilbert, Tom}, title = {Accelerated Quantitative Mapping of Relaxation Times in MRI}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-693}, school = {Hochschule Heilbronn}, year = {2013}, abstract = {Clinical diagnosis ideally relies on quantitative measures of disease. For a number of diseases, diagnostic guidelines require or at least recommend neuroimaging exams to support the clinical findings. As such, there is also an increasing interest to derive quantitative results from magnetic resonance imaging (MRI) examinations, i.e. images providing quantitative T1, T2, T2* tissue parameters. Quantitative MRI protocols, however, often require prohibitive long acquisition times (> 10 minutes), nor standards have been established to regulate and control MRI-based quantification. This work aims at exploring the technical feasibility to accelerate existing MRI acquisition schemes to enable a -3 minutes clinical imaging protocol of quantitative tissue parameters such as T2 and T2* and at identifying technical factors that are key elements to obtain accurate results. In the first part of this thesis, the signal model of an existing quantitative T2-mapping algorithm is expanded to explore the methodology for a broader use including the application to T2* and its use in the presence of imperfect imaging conditions and system related limitations of the acquisition process. The second part of this thesis is dedicated to optimize the iterative mapping algorithm for a robust clinical application including the integration on a clinical MR platform. This translation of technology is a major step to enable and validate such new methodology in a realistic clinical environment. The robustness and accuracy of the developed and implemented model is investigated by comparing with the "gold standard" information from fully sampled phantom and in-vivo MRI data.}, subject = {Entspannung}, language = {en} } @misc{Mercea2013, type = {Master Thesis}, author = {Mercea, Paul}, title = {Quantification of longitudinal tumor changes using PET imaging in 3D Slicer}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-688}, school = {Hochschule Heilbronn}, year = {2013}, abstract = {Quantitative assessment of Positron Emission Tomography (PET) imaging can be used for diagnosis and staging of tumors and monitoring of response in cancer treatment. In clinical practice, PET analysis is based on normalized indices such as those based on the Standardized Uptake Value (SUV). Although largely evaluated, these indices are considered quite unstable mainly because of the simplicity of their experimental protocol. Development and validation of more sophisticated methods for the purposes of clinical research require a common open platform that can be used both for prototyping and sharing of the analysis methods, and for their evaluation by clinical users. This work was motivated by the lack of such platform for longitudinal quantitative PET analysis. By following a prototype driven software development approach, an open source tool for quantitative analysis of tumor changes based on multi-study PET image data has been implemented. As a platform for this work, 3D Slicer 4, a free open source software application for medical image computing has been chosen. For the analysis and quantification of PET data, the implemented software tool guides the user through a series of workflow steps. In addition to the implementation of a guided workflow, the software was made extensible by integration of interfaces for the enhancement of segmentation and PET quantification algorithms. By offering extensibility, the PET analysis software tool was transformed into a platform suitable for prototyping and development of PET-specific segmentation and quantification methods. The accuracy, efficiency and usability of the platform were evaluated in reproducibility and usability studies. The results achieved in these studies demonstrate that the implemented longitudinal PET analysis software tool fulfills all requirements for the basic quantification of tumors in PET imaging and at the same time provides an efficient and easy to use workflow. Furthermore, it can function as a platform for prototyping of PET-specific segmentation and quantification methods, which in the future can be incorporated in the workflow.}, subject = {Quantifizierung}, language = {en} } @masterthesis{Happel2013, type = {Bachelor Thesis}, author = {Happel, Tim}, title = {Analyse und Erweiterung einer Software zur statistischen Auswertung von Daten aus einem Krebsregister}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-670}, school = {Hochschule Heilbronn}, year = {2013}, abstract = {Der Zuwachs medizinischen Wissens ist gewaltig, man spricht von einer Verdopplung in unter 10 Jahren[01], dies macht die Analyse historischer Daten zwingend erforderlich. Um dieses Wissen zu beherrschen werden Datenbanken ben{\"o}tigt, in denen man Krankheits- und Therapieverl{\"a}ufe ablegen kann, um diese dann anschließend unter unterschiedlichsten Anforderungen zu analysieren. Im Falle der Krebstherapie gibt es hierf{\"u}r sogenannte Krebsregister. Hier werden anonymisierte Daten der Patienten gespeichert, wie zum Beispiel der Verlauf der Krankheit und die Therapie. Ziel ist es, dass alle Krebsf{\"a}lle in irgendeinem Krebsregister gehalten werden. Dies soll zu einer Verbesserung der medizinischen Leistung am Patienten, sowie der Sicherstellung, dass Patienten {\"u}berall mit neuesten Therapietechniken und Leistungen versorgt werden, f{\"u}hren. Leider werden die Informationen in den Krebsregistern viel zu wenig genutzt, da viele {\"A}rzte und Wissenschaftler oft nicht Ausreichend vertiefte Kenntnisse in Informationstechnologie und/oder Statistik haben. Diese Tatsache macht es f{\"u}r sie schwierig die riesigen Datenmengen, die vorhanden sind, richtig zu analysieren. Um dieses Problem zu beheben kann man nun in regelm{\"a}ßigen Abst{\"a}nden einen Statistiker beauftragen, der solche Analysen durchf{\"u}hrt. Oft haben {\"A}rzte aber statistisch wenig anspruchsvolle Anfragen oder es f{\"a}llt ihnen erst auf, nachdem der Statistiker wieder gegangen ist. Solange es also eine solche Schwierigkeit darstellt, die Daten richtig zu analysieren, sind die Krebsregister ein Datenfriedhof, deren riesiges Potential nicht ausgenutzt wird. Dieser Zustand ist sowohl f{\"u}r Patienten, als auch f{\"u}r die {\"A}rzte, nicht zufriedenstellend und bedarf dringend einer {\"A}nderung. Die Ziele sind: 1. Eine Analyse einer Software zur statistischen Auswertung von Daten aus einem Krebsregister (OCDM-Software), sowohl im Bezug auf ihre Software-Architektur, als auch auf ihre Funktion. 2. Das Erstellen einer Anforderungsanalyse, welche die Erweiterungen beschreibt, die an der oben erw{\"a}hnten OCDM-Software vorzunehmen sind. 3. Die Umsetzung dieser Anforderungsanalyse in die bestehende Anwendung. 4. Ein abschließender Systemtest der Anwendung, um einen reibungslosen Ablauf im Klinikalltag zu gew{\"a}hrleisten. Ziel der Erweiterung ist es, den {\"A}rzten die Analyse der gesammelten Patientendaten zum Pankreaskarzinom zu vereinfachen und somit die medizinische Betreuung in der Klinik zu verbessern.}, subject = {Analyse}, language = {de} } @misc{Mueller2013, type = {Master Thesis}, author = {M{\"u}ller, Constantin}, title = {Unterst{\"u}tz{\"u}ng der Palliativversorg{\"u}ng durch E-Health-Applikationen}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-669}, school = {Hochschule Heilbronn}, year = {2013}, abstract = {Viele schwerstkranke Patienten hegen den Wunsch die letzte Zeit ihres Lebens im h{\"a}uslichen Umfeld, statt im Krankenhaus zu verbringen. Eine wichtige Voraussetzung daf{\"u}r ist eine gute Kommunikation zwischen allen Beteiligten des Versorgungsprozesses, damit ambulante und station{\"a}re Versorgung gut aufeinander abgestimmt werden k{\"o}nnen. Derzeit gibt es nur wenige strukturierte Untersuchungen, welche Informationsbed{\"u}rfnisse die im Bereich der palliativen Versorgung beteiligten Akteure besitzen und ob und in wieweit diese mit mobilen Anwendungen unterst{\"u}tzt werden k{\"o}nnen. Die vorliegende Arbeit untersucht, welche Akteure haupts{\"a}chlich am Prozess der palliativen Versorgung sowohl im ambulanten als auch im station{\"a}ren Umfeld beteiligt sind und welche Informationsbed{\"u}rfnisse diese haben. Weiterhin werden bisher verwendete Werkzeuge, Apps und Anwendungssysteme darauf untersucht, inwiefern sie diesen Informationsbedarf erf{\"u}llen. Die Untersuchungen basieren auf einer systematischen Literaturrecherche sowie Hospitationen in drei verschiedenen palliativen Einrichtungen: einer spezialisierten ambulanten Palliativversorgungs Einheit in Buchen im Odenwald, einer Palliativ-Station in Heidelberg sowie einer Palliativ-Einrichtung in Santiago de Chile. Es hat sich herausgestellt, dass die station{\"a}ren Einrichtungen bereits sehr gute Strukturen f{\"u}r Informationsaustausch und -bereitstellung etabliert haben, diese jedoch im ambulanten Bereich weniger wirksam sind. Gr{\"u}nde hierf{\"u}r liegen in der gr{\"o}ßeren {\"o}rtlichen Distanz und den damit verbundenen l{\"a}ngeren Kommunikationswegen im ambulanten Bereich. Ebenso ist bedingt durch den zus{\"a}tzlichen Fahrtaufwand bei gleicher Patientenzahl und Visitendauer nur eine geringere Anzahl an Visiten m{\"o}glich. Bisher sind hier aber vor allem die informationsverarbeitenden Prozesse aufgrund der geringen Gr{\"o}ße der Einrichtungen und der hohen Individualit{\"a}t der Behandlung wenig automatisiert und automatisierbar. Die f{\"u}r die Palliativversorgung existierenden Softwareprodukte sind hierf{\"u}r zu umfangreich oder nicht ausreichend adaptierbar. Es hat sich gezeigt, dass der Bedarf an mobiler, technischer Unterst{\"u}tzung vor allem in der ambulanten Palliativversorgung in den Bereichen Dokumentation und Abrechnung, aber auch bei der Bildung und Weiterbildung von Fachpersonal, Patienten und Angeh{\"o}rigen derzeit nicht gedeckt werden kann.}, subject = {Unterst{\"u}tzung}, language = {de} } @misc{Nuessle2013, type = {Master Thesis}, author = {N{\"u}ßle, Florian}, title = {Elektronische Patientenakte unter Verwendung eines Tablet-PCs}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-654}, school = {Hochschule Heilbronn}, year = {2013}, abstract = {Im Zuge einer immer weiter voranschreitenden Digitalisierung der medizinischen Dokumentation und der Abl{\"a}ufe in den Kliniken, aufbauend auf die Einf{\"u}hrung der elektronischen Patientenakte (EPA), ist Hagen Hupperts vom Gesch{\"a}ftsbereich IT der Berliner Charit{\´e} {\"u}berzeugt, dass „der Klinische Arbeitsplatz der Zukunft … mobil" ist. Damit ist vor allem die mobile Visite gemeint, deren Infrastruktur und M{\"o}glichkeiten immer weiter optimiert werden (sollen). Grunds{\"a}tzlich sind „Visiten … ein wichtiges Element im Behandlungsprozess und geh{\"o}ren im Krankenhaus zur t{\"a}glichen Routine. {\"A}rzte und Pflegekr{\"a}fte gehen gemeinsam von Bett zu Bett, um den gesundheitlichen Zustand und die gesundheitliche Entwicklung der einzelnen Patienten zu bewerten und die weitere Behandlung zu planen." [1] In einem Pilotprojekt der Berliner Charit{\´e} wurde die Nutzbarkeit von Tablet-PCs in Zusammenarbeit mit der Siemens AG und SAP untersucht. Die Fachabteilung der Neurologie arbeitet momentan mit dem Krankenhausinformationssystem i.s.h. med und dem digitalen Archiv Soarian Health Archive, kurz SHA. Nachdem in einer ersten Phase 2010 die Neurologische Klinik mit WLAN ausgestattet und in Eigenregie eine mobile Visite mit Laptops aufgebaut wurde, sollte nun der n{\"a}chste Schritt mit Tablets gegangen werden. {\"U}ber die App „SAP Electronic Medical Record (EMR)" kann sowohl auf das KIS und das SHA zugegriffen werden, als auch auf das Bildarchivierungssystem.}, subject = {Verwendung}, language = {de} } @misc{Perlich2012, type = {Master Thesis}, author = {Perlich, Anja}, title = {Designing an e-service for stroke patients - How can visualization support the management of the individual care process?}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-642}, school = {Hochschule Heilbronn}, year = {2012}, abstract = {Background: An important factor in approaching the challenges of chronic diseases, requiring long-term management and high costs, is the active participation of the patient in the care process. Objectives: Facing the problem of lacking patient-tailored, comprehensive health management software, the aim of this thesis is to generate ideas for a graphical user interface (GUI) to support stroke patients in the management of their individual care process. The objectives are to prototype a GUI for a patient e-service and to evaluate its usefulness and usability with stroke patients. Methods: A scenario-based, user-centered design method was used to envision ideas for the user interface. Static prototypes were realized with the tool Pencil and for the implementation of a dynamic prototype web programming techniques were used. For the evaluation of the prototypes the methods of focus group discussion and cooperative evaluation were applied. Results: The situation of a representative stroke patient and his interaction with the e-service were described in scenarios. Graphical user interfaces of the involved system views were derived from the scenarios and illustrated with static wireframe prototypes. A welcome screen, a care process timeline overview, and a diary with data sharing functionality were designed. The diary functionality was further examined by implementing a prototypical web application. During the evaluation, feedback for further improvements was gathered, and assumptions about the user information and functionality needs could be verified. Conclusion: The developed prototypes represent a suitable graphical user interface and visualizations to support stroke patients in the management of their care process. An overview of appointments on the welcome screen, a diary to document and monitor health, a timeline overview of all time-related health information and a selected sharing functionality were found to be important features of a personal health system for stroke patients.}, subject = {Entwurf}, language = {en} } @misc{Rurik2012, type = {Master Thesis}, author = {Rurik, Clas}, title = {Interactive application independent data processing using synthetic filesystems}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-633}, school = {Hochschule Heilbronn}, year = {2012}, abstract = {In this thesis a software system is proposed that provides transparent access to dynamically processed data using a synthetic filesystem for the data transfer as well as interaction with the processing pipeline. Within this context the architecture for such a software solution has been designed and implemented. Using this implementation various profiling measurements have been acquired in order to evaluate the applicability in different data processing scenarios. Usability aspects, considering the interaction with the processing pipeline, have been examined as well. The implemented software is able to generate the processing result on-the-fly without modification of the original input data. Access to the output data is provided by means of a common filesystem interface without the need of implementing yet another communication protocol. Within the processing pipeline the data can be accessed and modified independently from the actual input and output encoding. Currently the data can be modified using a C/C++, GLSL or Java front end. Profiling data has shown that the overhead induced by the filesystem is negligible for most usage patterns and is only critical for realtime processing with a high data throughput e. g. video processing at or above 30 frames per second where typically no file operations are involved.}, subject = {Anwendung}, language = {en} } @misc{Loescher2012, type = {Master Thesis}, author = {L{\"o}scher, Volker}, title = {IT-Systemanalyse und Entwicklungsplan f{\"u}r den2nd use von Patientendaten}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-610}, school = {Hochschule Heilbronn}, year = {2012}, abstract = {In der vorliegenden Thesis wurde untersucht, ob mit dem derzeitigen Krankenhausinformationssystem sowohl die Patientenversorgung, als auch Forschung unterst{\"u}tzt werden kann. Des Weiteren wurde analysiert, ob sich die erhobenen Patientendaten in einer geeigneten Form befinden, um diese direkt f{\"u}r die Forschung verwenden zu k{\"o}nnen. Dazu wurde im Rahmen dieser Arbeit eine Prozessanalyse der im Einsatz befindlichen Systeme in der Kinderkardiologie erstellt. Zur Analyse der Prozesse wurde eine IST-Analyse verwendet, welche das Problem der Datenerfassung und -haltung fokussiert. Hierbei wurden zwei Probleme aufgedeckt. Zum einen existierten Medienbr{\"u}che zwischen den einzelnen Systemen, welche das Risiko erh{\"o}hen, bei der Daten{\"u}berf{\"u}hrung falsche Werte zu {\"u}bergeben und dadurch die Qualit{\"a}t der Daten zu mindern. Zum anderen waren einige Informationen innerhalb der Befunde nicht strukturiert. Folglich konnten diese Werte nicht wie beabsichtigt f{\"u}r wissenschaftliche Studien herangezogen werden. Die Weiterverwendung der klinischen Daten in der Forschung (Second Use) war demzufolge nicht m{\"o}glich. Mittels einer Balanced Scorecard wurde ein Entwicklungsplan erstellt, wie die Vision der Kinderkardiologie erf{\"u}llt werden kann. Der strategische Weg der BSC konzentrierte sich darauf, die Patientendaten f{\"u}r die Weiterverwendung bereit zu stellen. Die vier Standardperspektiven der BSC waren f{\"u}r die Kinderkardiologie nicht geeignet und somit mussten andere Perspektiven ausgew{\"a}hlt werden. Es wurden verschiedene Maßnahmen aufgezeigt und miteinander in Hinsicht auf Anwendbarkeit, zeitlichen Aufwand und Verwendung verglichen, um den strategischen Weg der BSC zu erreichen.}, subject = {Systemanalyse}, language = {de} } @misc{Siekmann2012, type = {Master Thesis}, author = {Siekmann, Sven}, title = {Analysis of New Concepts and Definitions in DICOM Second Generation Radiotherapy Objects Based on an Experimental Implementation}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-604}, school = {Hochschule Heilbronn}, year = {2012}, abstract = {This thesis examines the new major concepts for communicating radiotherapy-related data with DICOM, introduced in Supplement 147. As the existing DICOM information objects, used to transfer radiotherapy-related information, are mostly overloaded and static, new concepts to describe this data are developed at the moment in Supplement 147. These concepts facilitate a more convenient representation of new treatment devices and treatment techniques in DICOM and solve other issues with first-generation DICOM RT objects. Hence Supplement 147 is replacing the entire working concept strategy for a complete domain, and the supplement itself is extensive in comparison to other supplements, an overview whether all these concepts work together just by examining them on a drawing board is hardly possible. Therefore, this thesis investigates the information separation into different Information Object Definitions (IODs), the new radiation prescription object and the new concept to enable abstract access to volumetric objects, which are considered to be the major conceptual changes.}, subject = {Analyse}, language = {de} } @misc{Thiel2013, type = {Master Thesis}, author = {Thiel, Katharina}, title = {Segmentierung von Pathologien der Aorta mit deformierbaren Modellen}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-597}, school = {Hochschule Heilbronn}, year = {2013}, abstract = {Die h{\"a}ufigste Todesursache in Deutschland sind Erkrankungen des Herz-Kreislaufsystems. Zwei h{\"a}ufig auftretende Krankheiten sind Aortenaneurysmen und Aortendissektionen. F{\"u}r die Diagnose und die computerunterst{\"u}tzte OP-Planung wird eine semantische Annotation der pr{\"a}operativ akquirierten Bilddaten ben{\"o}tigt. Dies wird herk{\"o}mmlich durch eine manuelle Segmentierung der betroffenen Strukturen erreicht. Mit Verfahren aus der medizinischen Bildverarbeitung, darunter die deformierbaren Modelle, ist es m{\"o}glich diese Segmentierung weitgehend zu automatisieren. In dieser Masterarbeit wird ein Verfahren vorgestellt, das mit Hilfe von deformierbaren Modellen eine automatische Segmentierung der Aorta und Aortenpathologien in 2D-CTA-Aufnahmen erm{\"o}glicht. Hierf{\"u}r wurde ein geeignetes deformierbares Modell identifiziert, welches mit {\"u}blichen St{\"o}rungen von CTA-Aufnahmen zurecht kommt. Das Verfahren ist eine Kombination aus den Dual Snakes und den GVF-Snakes und wird Dual-GVF-Snakes genannt. Das Besondere an diesem Verfahren ist, dass nicht nur das Lumen der Aorta und eines Aortenaneurysmas, sondern auch die zwei Lumen einer Aortendissektion gleichzeitig segmentiert werden k{\"o}nnen. Realisiert wird dies durch eine Unterteilung der Kontur in Segmente mit unterschiedlichen Eigenschaften. Das in dieser Arbeit vorgestellte Verfahren wurde zur Segmentierung von Objekten in synthetischen und klinischen Bilder angewendet, wobei die klinischen Bilder die Aorta, ein Aortenaneurysma und verschiedene Aortendissektionen beinhalten. Zur Evaluierung wurde das Verfahren mit den GVF-Snakes und den AB-Snakes verglichen, indem der Abstand zwischen Referenzkonturen und berechneter Konturen ermittelt wurde. Ein Vorteil gegen{\"u}ber GVF-Snakes ist, dass zwei Objekte segmentiert und voneinander unterschieden werden k{\"o}nnen. Im Gegensatz zu den GVF-Snakes und den AB-Snakes m{\"u}ssen weniger Parameter eingestellt werden und die Membran zwischen den beiden Lumen der Aortendissektion wird erkannt. Das Verfahren ist robuster gegen{\"u}ber der Initialisierung und lierfert vergleichbare Ergebnisse wie das GVF-Snakes Verfahren mit gezielter Initialisierung.}, subject = {Segmentierung}, language = {de} } @masterthesis{Maerz2013, type = {Bachelor Thesis}, author = {M{\"a}rz, Keno}, title = {Computer-assistierte Punktionen unter Ultraschallf{\"u}hrung mit einem mobilen elektromagnetischen Feldgenerator}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-583}, school = {Hochschule Heilbronn}, year = {2013}, abstract = {Leberpunktionen sind ein elementares Werkzeug zur Diagnosesicherung von Krebserkrankungen. Zentrale Erfolgsfaktoren sind neben dem Treffen der Zielregion die Vermeidung einer Verletzung von Risikostrukturen sowie eine geringe Eingriffsdauer. Es wurden bereits Navigationsl{\"o}sungen f{\"u}r Ultraschall vorgeschlagen, welche aber aufgrund ihrer Komplexit{\"a}t keine weite Verbreitung in der klinischen Praxis fanden. In dieser Masterarbeit wird auf Basis eines neuen, kompakten elektromagnetischen Feldgenerators ein Verfahren vorgestellt, welches das erste mal eine Ultraschallsonde und einen Feldgenerator zu einer einzigen mobilen Modalit{\"a}t verbindet. Mit dieser Modalit{\"a}t k{\"o}nnen gleichzeitig Patientenanatomie und Instrumente relativ zueinander erfasst und Ultraschallbilder aufgenommen werden. Um eine wart- und weiterentwickelbare Basis f{\"u}r weitere Eingriffe dieser Art zu schaffen, wurde eine Open-Source Umgebung f{\"u}r navigierte Ultraschallpunktionen in das Medical Imaging Interaction Toolkit (MITK) integriert; In diesem Rahmen entstand das Ultraschallmodul MITK-US. In einer Phantomstudie wurde das Gesamtsystem evaluiert und erreichte eine Trefferquote von 92\% bei einer mittleren Genauigkeit von 3.1mm (n=24). Diese Ergebnisse best{\"a}tigten, dass es sich bei der Methode um einen vielversprechenden Ansatz handelt.}, subject = {Ultraschall}, language = {de} } @misc{Streibl2012, type = {Master Thesis}, author = {Streibl, Christian}, title = {Development and Evaluation of a Mobile Devices Application to Assist with Basic Life Support Decisions}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-574}, school = {Hochschule Heilbronn}, year = {2012}, abstract = {Sudden cardiac arrest is a leading cause of death world wide, with about 100.000 to 150.000 cases each year in Germany alone [Weidringer and Sefrin, 2006]. This means that annually one out of 1000 citizens are affected [Bahr, 2007]. At standard conditions the human brain has a relative low ischemic1 tolerance. Therefore after 3 - 5 minutes without therapy, irreversible damage is to be expected. The rate of survival drops 7\% - 10\% each minute, without resuscitation [Bahr, 2007]. Since the arrival of the organized emergency medical service usually takes more than 5 minutes after the emergency call [Wahlen et al., 2003, Weisfeldt et al., 2010], the instant and adequate resuscitation by bystanders in this period is of vital importance. The advantage of basic life support2 (BLS) by laymen shows a fourfold higher rate of survival, once resuscitation has begun, until the arrival of the emergency medical service [Bahr, 2007].}, subject = {Entwicklung}, language = {en} } @masterthesis{Koller2012, type = {Bachelor Thesis}, author = {Koller, Marius}, title = {Konzeption und Implementierung eines optimierten virtuellen Klassenzimmers f{\"u}r schwer erkrankte Kinder und Jugendliche}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-562}, school = {Hochschule Heilbronn}, year = {2012}, abstract = {Viele Kinder und Jugendliche in Deutschland leiden unter verschiedenen langwierigen Krankheiten. Die Folge sind oftmals lange Krankenhausaufenthalte. Dadurch werden die Patienten und Sch{\"u}ler aus der Klassengemeinschaft gerissen. Durch die modernen Techniken besteht die M{\"o}glichkeit, diese Isolation zu vermindern. Der Begriff „ELearning" kann mit dieser Problemstellung verkn{\"u}pft werden. R. Clark und R. Mayer definieren es wie folgt: „We define e-learning as instruction delivered on a digital device such as a computer or mobile device that is intended to support learning." [2] Dieser Ansatz zur Probleml{\"o}sung wird in dieser Thesis verfolgt. Aufgabe ist es, ein bereits bestehendes Projekt zu verbessern. Die Diplomarbeit „Konzeption und prototypische Realisierung eines virtuellen Klassenzimmers f{\"u}r kranke Kinder und Jugendliche" ist die Grundlage der vorliegenden Arbeit und auch des bestehenden Projektes. Es wurde dort auf Standardtechnik zur{\"u}ckgegriffen, die keine befriedigende Qualit{\"a}t der {\"U}bertragung bot. Da das Projekt weiterverfolgt und weiterentwickelt werden soll, muss sich die Qualit{\"a}t der {\"U}bertragung verbessern.}, subject = {Konzeption}, language = {de} } @masterthesis{Jaskulski2012, type = {Bachelor Thesis}, author = {Jaskulski, Christoph}, title = {Smartphones im Hilfseinsatz - Softwaretests von mobilen Apps}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-557}, school = {Hochschule Heilbronn}, year = {2012}, abstract = {Mit zunehmender Anzahl von Smartphones1 und Tablets2 steigt heutzutage auch die Bedeutung mobiler Anwendungen st{\"a}ndig. Die „kleinen" Anwendungen k{\"o}nnen immer mehr Aufgaben {\"u}bernehmen und k{\"o}nnen durch den Einsatz auf mobilen Ger{\"a}ten sehr flexibel eingesetzt werden. Aus diesem Grund entstand das vom US-Milit{\"a}r gef{\"o}rderte internationale Projekt MoLE3 (Mobile Learning Environment). Die Hochschule Heilbronn ist durch ihr Forschungslabor „e-Learning in Medicine" des CeLTech4 (Centre for e-Learning Technology) an diesem Projekt beteiligt. Das Ziel des MoLE Projekts ist es, die Telekommunikationsinfrastruktur und die mobilen Ger{\"a}te wirksam einzusetzen, um Wissen und Ressourcen einfacher miteinander zu teilen. Dazu wurde die „Global MedAid App" entwickelt, die sowohl auf iOS5 als auch auf Android6 Ger{\"a}ten l{\"a}uft. Die plattform{\"u}bergreifende Open-Source7 App ist erweiterbar und beinhaltet eine Schnittstelle zu Lernplattformen.}, subject = {Smartphone}, language = {de} } @masterthesis{Kang2012, type = {Bachelor Thesis}, author = {Kang, Hadi Adisurya}, title = {Import and optimally visualise database regulatory knowledge in Cytoscape}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-543}, school = {Hochschule Heilbronn}, year = {2012}, abstract = {Cytoscape is an open source platform for complex network analysis and visualisation. The Pathway Interaction Database (PID) is a highly structured, curated collection of information about known biomolecular interactions and key cellular processes assembled into signalling pathways. Despite the obvious potential and advantageous usage of both tool (Cytoscape) and information source (PID), there has been no conclusive effort to merge and synergise them. This project aims to make use of the open source characteristics of Cytoscape and optimally visualise the biomolecular interactions found in the PID. This is made possible by the development of a plugin which imports a user-selected pathway file, converts it into a Cytoscape-readable file, and then visualises it. Finally, the user has options to further optimise the pathway by the use of a filter (Barcode - Affymetrix) that removes nodes from the network which are lowly expressed in the Affymetrix microarray data. The user then obtains visual results in a matter of seconds. Additionally, the process of subgraphing nodes through the shortest path method could be applied to the network. This can further assist the user in identifying the molecular pathways of the nodes of interest, a useful feature in network analysis.}, subject = {Import}, language = {en} } @misc{Pompl1993, author = {Pompl, Wilhelm}, title = {Allgemeine Tourismuslehre Arbeitsheft drei : Reiseveranstalter und Reisemittler}, isbn = {3-7155-157-1}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-532}, year = {1993}, abstract = {Dieses Heft ist Einf{\"u}hrung und Grundlage f{\"u}r das Fach Management und Reisemittlern}, subject = {Tourismus}, language = {de} } @misc{OPUS4-51, title = {Urlaubsreisen 1992 - Kurzfassung der Reiseanalyse 1992}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-527}, year = {1992}, abstract = {Die Reiseanalyse ist eine f{\"u}r die gesamte Bundesrepublik Deutschland reprasentative sozial- und wirtschaftswissenschaftliche Grundlagenuntersuchung zum Reiseverhalten der deutschen Bundesb{\"u}rger, die das 14. Lebensjahr vollendet haben. Der Studienkreis f{\"u}r Tourismus hat die Reiseanalyse 1970 ins Leben gerufen und ist seitdem f{\"u}r Konzep­tion, Organisation, Durchf{\"u}hrung und Vermarktung der Reiseanalyse verantwortlich. Die Bezieher der Reiseanalyse, die das Projekt mitfinanzieren, vertreten unterschiedliche gesellschaftliche Bereiche und lnteressen. lhr gemeinsames Interesse sind die Markt­- und Sozialforschungsdaten zur touristischen Nachfrage und zum Urlaubsreiseverhalten.}, subject = {Reise}, language = {de} } @misc{OPUS4-50, title = {Urlaubsreisen 1991 - Kurzfassung der Reiseanalyse 1991}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-517}, year = {1991}, abstract = {Die Reiseanalyse ist eine f{\"u}r die gesamte Bundesrepublik Deutschland repr{\"a}sentative sozial- und wirtschaftswissenschaftliche Grundlagenuntersuchung zum Reiseverhal­ten der deutschen Bundesb{\"u}rger, die das 14. Lebensjahr vollendet haben. Der Studienkreis f{\"u}r Tourismus hat die Reiseanalyse 1970 ins Leben gerufen und ist seitdem f{\"u}r Konzeption, Organisation, Durchf{\"u}hrung und Vermarktung der Reiseanalyse verantwortlich. Die Bezieher der Reiseanalyse, die das Projekt mitfinanzieren, vertreten unterschiedliche gesellschaftliche Bereiche und lnteressen. lhr gemeinsames Interesse sind die Marktforschungsdaten zur touristischen Nachfrage und zum Urlaubsreiseverhalten.}, subject = {Analyse}, language = {de} } @misc{OPUS4-49, title = {Urlaubsreisen 1990 - Kurzfassung der Reiseanalyse 1990}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-508}, year = {1990}, abstract = {Anfang 1971 wurde die Feldarbeit der ersten Reiseanalyse (RA 0) auf der Basis von 4.000 Interviews von Infratest (M{\"u}nchen) durchgef{\"u}hrt. Bereits im zweiten Jahr der Reiseanalyse wurde die Anzahl der Interviews auf 6.000 erh{\"o}ht. Die Durchf{\"u}hrung der Reiseanalyse 1971 wurde an die Marplan Forschungsgesellschaft (Offenbach) vergeben, die auch die folgenden Reiseanalysen einschließlich des Jahres 1980 betreute. Von 1981 bis 1986 wurde die Reiseanalyse von der GfK Marktforschung (N{\"u}mberg) bearbeitet. Die RA 87 wurde von M + E und Marplan in Verbindung mit Basis Research durchgef{\"u}hrt. Die Reiseanalysen 1988 und 1989 entstanden ebenfalls mit Hilfe von Basis Research zusammen mit GfM-Getas. Aufgrund der im Laufe des Jahres 1990 absehbaren Vereinigung von Deutschland West und Deutschland Ost und der Tatsache, dass es in der damaligen DDR keine vergleichbare Reiseforschung gab, f{\"u}hrte der Studienkreis f{\"u}r Tourismus zur Ausweitung der Reiseanalyse auf dieses Gebiet eine Pilotuntersuchung zum Reiseverhalten durch. Dabei wurde gekl{\"a}rt, ob der Fragebogen der RA auch im Gebiet der ehemaligen DDR verwendet werden kann oder ob er modifiziert und den sprachhchen und begrifflichen Gegebenheiten angepasst werden muss.}, subject = {Urlaub}, language = {de} } @misc{OPUS4-48, title = {Urlaubsreisen 1989 - Kurzfassung der Reiseanalyse 1989}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-491}, year = {1989}, abstract = {Anfang 1971 wurde die Feldarbeit der ersten Reiseanalyse (RA 70) auf der Basis von 4.000 Interviews von Infratest (M{\"u}nchen) durchgef{\"u}hrt. Bereits im zweiten Jahr der Reiseanalyse wurde die Anzahl der Interviews auf 6.000 erh{\"o}ht. Die Durchf{\"u}hrung der Reiseanalyse 1971 wurde an die Marplan Forschungsgesellschaft (Offenbach) vergeben, die auch die folgenden Reiseanalysen einschließlich des Jahres 1980 betreute. Von 1981 bis 1986 wurde die Reiseanalyse von der GfK Marktforschung (N{\"u}rnberg) bearbeitet. Die RA 87 wurde von M + E und Marplan in Verbindung mit Basis Research durchgef{\"u}hrt. Basis Research hat auch die Reiseanalysen 1988 und 1989, zusammen mit GfM-Getas, durchge­f{\"u}hrt.}, subject = {Urlaub}, language = {de} } @misc{OPUS4-47, title = {Urlaubsreisen 1988 - Einige Ergebnisse der Reiseanalyse 1988}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-488}, year = {1988}, abstract = {Bei Repr{\"a}sentativuntersuchungen {\"u}ber das Reiseverhalten spielen sozial- und wirtschaftswissenschaftliche Gesichtspunkte eine wichtige Rolle. Bereits seit den fr{\"u}hen 50er Jahren wurden in der Bundesrepublik Deutschland die gesellschaftlichen und wirtschaftlichen Aspekte des Reisegeschehens erfasst. Ende der 60er Jahre existierten eine Reihe unabh{\"a}ngig voneinander angebotener Marktuntersuchungen, denen es allerdings an direkter Vergleichbarkeit mangelte. Die Zersplitterung der empirischen Tourismusforschung veranlasste den Studienkreis f{\"u}r Tourismus im Jahre 1970, die Interessenten f{\"u}r repr{\"a}sentative Tourismusuntersuchungen zur Zusammenarbeit an einem einzigen kosteng{\"u}nstigen Gemeinschaftsprojekt zu gewinnen. lm Oktober 1970 fand in Frankfurt das erste Treffen der Interessenten an dem neuen Projekt "Reiseanalyse" statt, das zur Gr{\"u}ndung der Arbeitsgemeinschaft Reiseanalyse f{\"u}hrte.}, subject = {Reise}, language = {de} } @misc{OPUS4-46, title = {Urlaubsreisen 1985 - Einige Ergebnisse der Reiseanalyse 1985}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-478}, year = {1985}, abstract = {Die Reiseanalyse 1985 (RA 85) ist die sechzehnte vom Studienkreis f{\"u}r Tourismus organisierte Erhebung dieser Art. Es handelt sich urn eine sozial- und wirtschafts­wissenschaftliche Grundlagenuntersuchung, die repr{\"a}sentativ f{\"u}r die westdeutsche und Westberliner Bev{\"o}lkerung {\"u}ber 14 Jahre das Urlaubsverhalten erfasst.}, subject = {Reise}, language = {de} } @misc{OPUS4-45, title = {Urlaubsreisen 1983 - Einige Ergebnisse der Reiseanalyse 1983}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-466}, year = {1983}, abstract = {Die Reiseanalyse 1983 ist die vierzehnte vom Studienkreis f{\"u}r Tourismus organi­sierte Erhebung dieser Art. Es handelt sich urn eine sozial- und wirtschaftswissen­schaftliche Grundlagenuntersuchung, die repr{\"a}sentativ f{\"u}r die westdeutsche und Westberliner Bev{\"o}lkerung {\"u}ber 14 Jahre das Urlaubsverhalten erfasst.}, subject = {Urlaub}, language = {de} } @misc{OPUS4-44, title = {Urlaubsreisen 1979 - Einige Ergebnisse der Reiseanalyse 1979}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-459}, year = {1979}, abstract = {Der Studienkreis f{\"u}r Tourismus e.V. organisiert seit 1970 die Reiseanalyse als eine sozial­- und wirtschaftswissenschaftliche Grundlagenuntersuchung des Tourismus der Deutschen. Die Reiseanalyse 1979 (RA 79), durchgef{\"u}hrt von der MARPLAN Forschungsgesellschaft f{\"u}r Markt und Verbrauch mbH, Offenbach, ist bereits die zehnte dieser j{\"a}hrlich durchgef{\"u}hrten Repra{\"a}sentativ-Befragungen, die systematisch und kontinuierlich sowohl die soziologischen Zusammenh{\"a}nge der Urlaubs- und Reisegewohnheiten der westdeutschen und westberliner Bev{\"o}lkerung {\"u}ber 14 Jahren als auch die {\"o}konomischen und sozialpsychologischen Einfl{\"u}sse auf das Ur­laubsreisegeschehen analysiert.}, subject = {Urlaub}, language = {de} } @misc{OPUS4-41, title = {Urlaubsreisen 1978 - Einige Ergebnisse der Reiseanalyse 1978}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-444}, year = {1978}, abstract = {Der Studienkreis f{\"u}r Tourismus e.V. organisiert seit 1970 die Reiseanalyse als sozial- und wirt­schaftswissenschaftliche Grundlagenuntersuchung. Die Reiseanalyse 1978 (RA 78), durchgef{\"u}hrt von der MARPLAN Forschungsgesellschaft f{\"u}r Markt und Verbrauch mbH, Offenbach, ist nunmehr die neunte dieser j{\"a}hrlich durchgef{\"u}hrten Repr{\"a}sentativ-Befragungen, die systematisch und kontinuierlich so­wohl die soziologischen Zusammenh{\"a}nge der Urlaubs- und Reisegewohnheiten der westdeutschen und Westberliner Bev{\"o}lkerung {\"u}ber 14 Jahren als auch die {\"o}konomischen Einfl{\"u}sse auf das Urlaubsreise­ geschehen analysiert.}, subject = {Urlaub}, language = {de} } @misc{OPUS4-40, title = {Urlaubsreisen 1977 - Einige Ergebnisse der Reiseanalyse 1977}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-430}, year = {1977}, abstract = {Der Studienkreis f{\"u}r Tourismus e.V. organisiert seit 1970 die Reiseanalyse als sozial- und wirt­schaftswissenschaftliche Grundlagenuntersuchung. Die Reiseanalyse 1977 (RA 77) ist nunmehr die achte dieser jahrlich durchgef{\"u}hrten Repr{\"a}sentativbefragungen, die systematisch und kontinuier­lich sowohl die soziologischen Zusammenh{\"a}nge der Urlaubs- und Reisegewohnheiten der westdeutschen und Westberliner Bev{\"o}lkerung {\"u}ber 14 Jahre als auch die {\"o}konomischen EinfL{\"u}sse auf das Urlaubs­reisegeschehen analysiert.}, subject = {Reise}, language = {de} } @misc{OPUS4-43, title = {Urlaubsreisen 1973 - Einige Ergebnisse der Reiseanalyse 1973}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-422}, year = {1973}, abstract = {Die Reiseanalyse 1973 des Studienkreises f{\"u}r Tourismus wurde wie in den fr{\"u}heren Jahren im Januar und Februar mit mehr als 6000 Interviews im Bundesgebiet einschließ­lich West-Berlin durchgef{\"u}hrt. Zum dritten Mal lagen Feld­arbeit und Darstellung in H{\"a}nden der MARPLAN Forschungs­gesellschaft f{\"u}r Markt und Verbrauch, Offenbach. Die Beteiligung von rund dreißig Beh{\"o}rden, Fremdenver­kehrszentralen, Reiseorganisationen, Verkehrstr{\"a}gern und Verlagen - zusammengeschlossen in der Arbeitsgemeinschaft Reiseanalyse (AGRA) des Studienkreises f{\"u}r Tourismus - erm{\"o}glichte die Durchf{\"u}hrung dieser vierten Reiseanalyse seit 1970. Die regelmaßige und systematische Erfassung der Urlaubs- und Reisegewohnheiten der westdeutschen Be­v{\"o}lkerung durch diese Repr{\"a}sentativ-Untersuchung ist f{\"u}r alle am Tourismus Interessierten von großer Bedeutung.}, subject = {Reise}, language = {de} } @misc{Gramlich2012, type = {Master Thesis}, author = {Gramlich, Heiko}, title = {Effiziente Differenzanalyse und Terminologie-Extraktion an Wikipedia Texten}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-351}, school = {Hochschule Heilbronn}, year = {2012}, abstract = {Im Zeitalter der Informationsgesellschaft stellt das Internet eine zentrale Bedeutung f{\"u}r die Wissens- und Informationsbeschaung dar. Immer mehr Menschen informieren sich mit Hilfe des Internets {\"u}ber das Thema Gesundheit. Gerade im Gesundheitssektor ist es wichtig, aus der großen Masse an Informationen diejenigen Quellen herauszufinden, die inhaltlich korrekt, d.h. keine Fehlinformationen enthalten, und m{\"o}glichst vollst{\"a}ndig sind, da falsche Informationen f{\"u}r den Nutzer sogar gesundheitssch{\"a}dliche Konsequenzen haben k{\"o}nnten. Als Laie medizinische Begriffe oder Zusammenh{\"a}nge zwischen zwei oder mehreren Begriffen zu verstehen ist schwierig. Bei der F{\"u}lle an Informationen, die im Web angeboten werden ertrinkt der Nutzer sprichw{\"o}rtlich an der Informationsflut. Die freie Online-Enzyklop{\"a}die Wikipedia scheint in diesem Kontext eine vielversprechende Quelle zur Informationsbeschaung zu sein. Der Gesundheitssektor der Wikipedia umfasst in der deutschen Sprache ca. 92.000 Artikel. In der englischen Sprache sind es ungef{\"a}hr 350.000 Artikel. Im Rahmen einer Diplomarbeit an der Hochschule Heilbronn, wurde von B. Trinzcek ein Framework zur Darstellung der Wikipedia als Graph entwickelt. Durch die Verlinkungen in den Artikeln ist es m{\"o}glich, Zusammenh{\"a}nge zwischen verschiedenen Artikeln und somit Begriffen zu visualisieren. Der durch das Framework erstellte Graph der Dom{\"a}ne Gesundheit wird als Gesundheitsgraph bezeichnet [27].}, subject = {Differenz}, language = {de} } @misc{Blatz2012, type = {Master Thesis}, author = {Blatz, Johannes}, title = {Entwicklung einer Software zur Akquisition von Autofluo-reszenzlebensdauern und Autofluoreszenzintensit{\"a}tsbildern der Retina}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-402}, school = {Hochschule Heilbronn}, year = {2012}, abstract = {Die vorliegende Arbeit besch{\"a}ftigt sich mit der Entwicklung einer Aufnahmesoftware sowie der Optimierung einer Aufnahmeapparatur zur Messung von Autofluoreszenzlebensdauern und Autofluoreszenzintensit{\"a}ten im Bereich der Retina. Mithilfe eines blauen Lasers werden fluoreszierende Molek{\"u}le in der Retina, Fluorophore, zum Abstrahlen von Licht, der so genannten Fluoreszenz, angeregt. Die Abklingzeit der Fluoreszenzintensit{\"a}t bis zum Ende der Lichtemission eines Molek{\"u}ls, wird als Fluoreszenzlebensdauer bezeichnet. Die Software erm{\"o}glicht es, durch den Einsatz eines speziellen Detektors und einer sehr genauen Stoppuhr diese Fluoreszenzlebensdauer im Pikosekundenbereich zu messen. Anhand der f{\"u}r jeden Stoff individuellen Fluoreszenzlebensdauer k{\"o}nnen die Molek{\"u}le exakt bestimmt werden. Mit einem Messger{\"a}t, welches die im Auge vorkommenden Substanzen und deren Verh{\"a}ltnis zueinander messen kann, lassen sich bei Abweichungen von der Norm Diagnosen erstellen und eine Behandlung einleiten. Soft- und Hardware sind in der Lage, die Augenbewegung w{\"a}hrend einer Messung auszugleichen, sodass selbst bei Messungen im Bereich von einigen Minuten verl{\"a}ssliche Messdaten generiert werden. Ziel dieser Arbeit ist die Fertigstellung eines f{\"u}r den Routineeinsatz geeigneten Prototyps.}, subject = {Entwicklung}, language = {de} } @misc{Metzger2012, type = {Master Thesis}, author = {Metzger, Jasmin}, title = {Konzeption und Realisierung eines Datenmodells und Interaktionskomponenten f{\"u}r tubul{\"a}re Strukturen in MITK}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-395}, school = {Hochschule Heilbronn}, year = {2012}, abstract = {Eine der zentralen Aufgaben der medizinischen Bildverarbeitung ist es, den Arzt durch neue oder verbesserte Methoden zur Diagnostik und Therapieplanung bei medizinischen Entscheidungs- und Behandlungsprozessen zu unterst{\"u}tzen. F{\"u}r viele Fragestellungen in der Medizin sind Untersuchungen von Gef{\"a}{\"y}systemen oder anderen tubul{\"a}ren Strukturen erforderlich. Die vorliegende Arbeit besch{\"a}ftigt sich mit der Konzipierung und der Realisierung eines generischen Datenmodells f{\"u}r tubul{\"a}re Strukturen. F{\"u}r die Darstellung dieser Strukturen wurde eine neue Visualisierungsmethode implementiert. Zudem wurden allgemein verwendbare und benutzerfreundliche Interaktionskomponenten entwickelt, die die Exploration, die Modikation, die Attributierung sowie die Analyse der modellierten Systeme erm{\"o}glichen.}, subject = {Konzeption}, language = {de} } @masterthesis{Siekmann2010, type = {Bachelor Thesis}, author = {Siekmann, Sven}, title = {Konzeption und Entwicklung von Modulen zur Verwaltung und Visualisierung von DICOM RT Objekten im CHILI-PACS-System}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-383}, school = {Hochschule Heilbronn}, year = {2010}, abstract = {F{\"u}r die fortw{\"a}hrende Optimierung von Behandlungsstrategien im Bereich der Strahlentherapie ist es notwendig, Behandlungspl{\"a}ne strukturiert miteinander zu vergleichen. Um die vielf{\"a}ltigen Datenmengen, die sich im Rahmen großer und {\"u}bergreifender Forschungsprojekte, wie etwa dem ULICE-Projekt [18] ergeben, suffizient auswerten zu k{\"o}nnen, ist ein leichter Zugriff f{\"u}r alle Projektteilnehmer erstrebenswert. Dieser kann beispielsweise durch den Einsatz einer Telemedizinakte, wie sie z.B. von der Firma CHILI GmbH angeboten wird, erfolgen. Die Telemedizinakte muss unbedingt in der Lage sein, das Datenformat, in dem Therapiepl{\"a}ne abgespeichert werden (DICOM RT), zu verarbeiten. Daher wurde im ersten Schritt dieser Arbeit analysiert, welche Informationen im Rahmen eines DICOM RT Viewing Moduls im CHILI-PACS dargestellt werden k{\"o}nnen. Als zentrale Aufgabe wurde die Darstellung des Dosis-Volumen-Histogramms (DVH) ermittelt, f{\"u}r dessen Berechnung es Module f{\"u}r die Darstellung der segmentierten Strukturen (RT Structure Set) und die Dosisverteilung (RT Dose) geben muss. Außerdem soll es zu einem sp{\"a}teren Zeitpunkt leicht m{\"o}glich sein, weitere Module f{\"u}r die Anzeige der {\"u}brigen DICOM RT Objekte zu integrieren. Nach der Spezifikation der geforderten Funktionalit{\"a}t wurde ein Konzept f{\"u}r deren Umsetzung erstellt und mit der Implementierung einer der Kernfunktionen begonnen. Durch diese Implementierung soll es anderen Programmierern erleichtert werden, das gew{\"a}hlte Konzept nachzuvollziehen und das DICOM RT Viewing Modul des CHILI-PACS entsprechend erweitern und anpassen zu k{\"o}nnen, bis letztendlich ein homogenes und vollst{\"a}ndiges Gesamtsystem entsteht. Durch die Umsetzung eines Moduls zur Darstellung von RT Structure Sets ist es jetzt m{\"o}glich, sich die segmentierten Strukturen eines DICOM RT Datensatzes im CHILIPACS anzeigen zu lassen. Es k{\"o}nnen gezielt einzelne Strukturen an- und abgew{\"a}hlt und deren Konturfarbe ge{\"a}ndert werden. Die Darstellung der Konturen ist f{\"u}r die Axial-, die Coronal- und die Sagittalebene m{\"o}glich. Eine {\"U}berpr{\"u}fung der Funktionalit{\"a}t wurde mit den zur Verf{\"u}gung stehenden DICOM RT Testdatens{\"a}tzen durchgef{\"u}hrt.}, subject = {Konzeption}, language = {de} } @misc{Franz2011, type = {Master Thesis}, author = {Franz, Alfred}, title = {MITK-IGT f{\"u}r die computerassistierte Weichgewebepunktion}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-373}, school = {Hochschule Heilbronn}, year = {2011}, abstract = {Im Bereich der Krebsdiagnose und -therapie gewinnen neue minimalinvasive Verfahren zunehmend an Bedeutung. Beispiele hierf{\"u}r sind Nadelpunktionen, bei denen zur Diagnose eine Gewebsprobe entnommen (Biopsie) oder durch Zerst{\"o}rung des Gewebes im Bereich der Nadelspitze eine Krebserkrankung therapiert wird (Ablation). Eine zentrale Herausforderung hierbei ist die genaue Platzierung der Nadel. Am deutschen Krebsforschungszentrum (DKFZ) wurde ein computergest{\"u}tztes Navigationssystem f{\"u}r Nadelinsertionen entwickelt, das sich im in-vivo Versuch als h{\"o}chst akkurat zeigte. Trotz der vielversprechenden Ergebnisse kam das System bisher jedoch nicht am Patienten zum Einsatz. Dies ist unter anderem auf die schwierige Integration des Systems in den klinischen Workflow und die erh{\"o}hte Invasivit{\"a}t zur{\"u}ckzuf{\"u}hren. Vor diesem Hintergrund war das Ziel dieser Arbeit zum einen die Entwicklung einer flexiblen, erweiterbare Software f{\"u}r die navigierte Weichgewebepunktion, zum anderen die Weiterentwicklung des Navigationssystems durch die Einbindung eines neuen Feldgenerators f{\"u}r das elektromagnetische Trackingsystem NDI Aurora. Die Implementierung der Software erfolgte aufbauend auf der Bibliothek MITK und dem enthaltenen Modul MITK-IGT. Dabei wurde ein komponentenweiser Aufbau umgesetzt, welcher einen einfachen Austausch oder Erweiterungen der einzelnen Komponenten erm{\"o}glicht. Des Weiteren wurde der neue Feldgenerator bez{\"u}glich Genauigkeit und Pr{\"a}zision in der Einsatzumgebung evaluiert und es erfolgte ein Test des Navigationssystems unter klinischen Bedingungen. Abschließend kann festgestellt werden, dass durch die gezeigte Flexibilit{\"a}t und Erweiterbarkeit der entwickelten Software zahlreiche M{\"o}glichkeiten zur Weiterentwicklung offen stehen. Bez{\"u}glich des Feldgenerators zeigte sich das vielversprechende Potential dieses Ger{\"a}ts f{\"u}r die Weiterentwicklung medizinischer Navigationssysteme.}, subject = {Punktion}, language = {de} } @misc{Gramlich2012, type = {Master Thesis}, author = {Gramlich, Heiko}, title = {Effiziente Differenzanalyse und Terminologie-Extraktion an Wikipedia Texten}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:840-opus-369}, school = {Hochschule Heilbronn}, year = {2012}, abstract = {Im Zeitalter der Informationsgesellschaft stellt das Internet eine zentrale Bedeutung f{\"u}r die Wissens- und Informationsbeschaung dar. Immer mehr Menschen informieren sich mit Hilfe des Internets {\"u}ber das Thema Gesundheit. Gerade im Gesundheitssektor ist es wichtig, aus der großen Masse an Informationen diejenigen Quellen herauszufinden, die inhaltlich korrekt, d.h. keine Fehlinformationen enthalten, und m{\"o}glichst vollst{\"a}ndig sind, da falsche Informationen f{\"u}r den Nutzer sogar gesundheitssch{\"a}dliche Konsequenzen haben k{\"o}nnten. Als Laie medizinische Begriffe oder Zusammenh{\"a}nge zwischen zwei oder mehreren Begriffen zu verstehen ist schwierig. Bei der F{\"u}lle an Informationen, die im Web angeboten werden ertrinkt der Nutzer sprichw{\"o}rtlich an der Informationsflut. Die freie Online-Enzyklop{\"a}die Wikipedia scheint in diesem Kontext eine vielversprechende Quelle zur Informationsbeschaung zu sein. Der Gesundheitssektor der Wikipedia umfasst in der deutschen Sprache ca. 92.000 Artikel. In der englischen Sprache sind es ungef{\"a}hr 350.000 Artikel. Im Rahmen einer Diplomarbeit an der Hochschule Heilbronn, wurde von B. Trinzcek ein Framework zur Darstellung der Wikipedia als Graph entwickelt. Durch die Verlinkungen in den Artikeln ist es m{\"o}glich, Zusammenh{\"a}nge zwischen verschiedenen Artikeln und somit Begriffen zu visualisieren. Der durch das Framework erstellte Graph der Dom{\"a}ne Gesundheit wird als Gesundheitsgraph bezeichnet [27].}, subject = {Differenz}, language = {de} }