Frei zugänglich
Refine
Year of publication
Document Type
- Master's Thesis (61)
- Bachelor Thesis (51)
- Diploma Thesis (2)
- Doctoral Thesis (2)
- Preprint (2)
Has Fulltext
- yes (118)
Is part of the Bibliography
- no (118)
Keywords
- Entwicklung (10)
- Implementierung (8)
- Analyse (7)
- Software (7)
- Konzeption (6)
- Evaluation (5)
- Patient (5)
- Strahlentherapie (5)
- Tumor (5)
- Anwendung (4)
Institute
- Medizinische Informatik (66)
- Informatik (44)
- Bibliothek (2)
- Mechanik und Elektronik (2)
- Elektrotechnik und Informationstechnik (1)
Mobile-Anwendungen nehmen eine zentrale Rolle in der IT-Branche ein und gewinnen zunehmend an Bedeutung. Unzählige Softwarelösungen, wie beispielsweise in den Bereichen Schulung, Banking, Navigation oder Logistik, stehen den privaten und kommerziellen Nutzern als Mobile-Anwendung zur Verfügung. An der Hochschule Heilbronn steht derzeit das Stundenplan-System „SPlan“ zur Verfügung, welches den Studierenden, Mitarbeitern und Dozenten einer Suchanfrage nach Stundenpläne und dem Raumbelegungspläne des jeweiligen Semesters ermöglicht. Für eine benutzerfreundlichere und effektivere Nutzung dieses Stundenplan-Systems entstand die Idee, dieses System im Rahmen meiner Diplomarbeit als Mobile-Anwendung bereit zu stellen. Das für diese Diplomarbeit konkretisierte Ziel ist nun, das Stundenplan-System „SPlan“ in eine Mobile-Anwendung, basierend auf dem Android-Betriebssystem, umzusetzen. Mithilfe der mobilen-Anwendung kann der Anwender die Stundepläne des betreffenden Semesters mit den entsprechenden Studiengängen und die jeweils zugehörigen Studentengruppen anzeigen lassen. Genauso können für den Raumbelegungspläne des betreffenden Semesters, die Standorte und die jeweils zugehörigen Räume definiert werden. Optional bietet sich die Möglichkeit, Einzelbuchungen und Blockveranstaltungen der beiden Suchanfragen anzeigen zu lassen. Außerdem werden die Suchanfragen automatisch anhand der gewählten benutzer-spezifischen Eingaben als Profil in der Anwendung gespeichert. Somit lässt sich die Anwendung personalisieren.
Eine Anwendung nur mit Gedanken steuern? — Das geht! Mit Hilfe von Brain-Computer-Interfaces (BCIs). Heutzutage gibt es viele BCI-Frameworks, bei denen die
unterschiedlichen Konzepte wie zum Beispiel P300-Speller, Imagined Movement oder SSVEP untersucht und angewendet werden können. Für diese Thesis wird das Framework Buffer-BCI verwendet. Es wurde untersucht, ob
sich dieses für eine Aufgabe im Praktikum Medizinische Signal- und Bildverarbeitung (PSB) des Studiengangs Medizinische Informatik eignet. An mehreren Probanden wurde getestet, ob Reproduzierbarkeit und Erkennungsgenauigkeit hoch genug sind,
um auch bei vielen unterschiedlichen Menschen vergleichbar funktionieren und sinnvolle Ergebnisse liefern zu können. Auch hinsichtlich zeitlicher Latenzen, der prinzipiellen Architektur des Frameworks und der Kommunikationskette für Ereignisse wurde Buffer- BCI untersucht.
Ein Ergebnis dieser Thesis ist die Beschreibung der Architektur und der Kommunikationskette von Buffer-BCI. Ein weiteres Ergebnis ist eine Aufgabenstellung für das PSB bezüglich einer P300-Speller-Anwendung auf Basis des Buffer-BCI-Frameworks. Die Aufgabenstellung kann noch um Imagined Movement- oder SSVEP-Experimente
erweitert werden, was jedoch nicht mehr Teil dieser Thesis ist.
Die visuelle Analyse der kindlichen Spontanmotorik hat sich als aussagekräftiges Verfahren zur Prognose schwerer neurologischer Störungen erwiesen. Eine computergestützte Entscheidungsunterstützung könnte Ärzten eine wertvolle objektive Hilfe bei der Prognosestellung geben. Mit dem Ziel ein solches entscheidungsunterstützendes System zu entwickeln, wurde am Institut für Medizinische Biometrie und Informatik der Universität Heidelberg ein Forschungsprojekt durchgeführt. Darin wurde u.a. ein Softwarepaket für Forscher entwickelt. Die Ergebnisse der Forschung wurden bislang nicht für Ärzte zugänglich gemacht. Diese Arbeit ergänzt das Softwarepaket des Projekts um zwei Komponenten. Ein grafischer Editor erleichtert die Nutzung des bestehenden Softwarepakets, indem es den Forscher bei der Ablaufsteuerung des entscheidungsunterstützenden Prozesses unterstützt. Eine Präsentationskomponente macht die Ergebnisse des entscheidungsunterstützenden Prozesses für Ärzte nutzbar. Die beiden Komponenten werden mit ähnlichen Komponenten anderer Forschungsprojekte im selben Kontext verglichen und exemplarisch evaluiert.
This thesis presents a photmetric stereo method based on the work of Schulze [35], who in turn extended the research of Schroeder et al. [33,34] In this approach, three different lightings are obtained by illuminating the object by three colored light sources (red, green and blue). A video of the subject is captured from the front, the back and the side. The single frames are then extracted from the viedo, which are used for the 3D reconstruction of the subject. The aim of this work was to improve the presented method of Schulze with real patient subjects by getting a better sphere calibration and changing some parameters in the patient processing. As the graphical interface was implemented for persons with a technical background, it has been changed to become also more convenient to use for non-technically oriented staff
Ultraschallbildgebung ist ein in der Medizin häufig verwendetes Verfahren zur Diagnostik und Verlaufskontrolle. Ultraschall bietet vor allem eine große Weichteilauflösung bei gleichzeitig niedrigen Kosten, erfordert aber vom Anwender ein großes Maß an Erfahrung. Aufgrund vieler Artefakte und Verzerrungen in Ultraschallbildern ist die Bildqualität der Bilder deutlich geringer, als die derer, die mittels Magnetresonanztomographie erstellt werden können. Deshalb arbeiten viele verschiedene Forschungsgruppen an der Verbesserung der Modalitäten und Datensätze im Zusammenhang mit Ultraschallbildgebung. Diese Arbeit beschäftigt sich mit der Entwicklung eines robotergestützten Ultraschalltomographen. Das Gerät ist in der Lage tomographische Bildserien von Phantomen und Weichgewebe zu erstellen, die anschließend dreidimensional visualisiert werden können.
Die vorliegende Arbeit beschäftigt sich mit der Entwicklung einer Aufnahmesoftware sowie der Optimierung einer Aufnahmeapparatur zur Messung von Autofluoreszenzlebensdauern und Autofluoreszenzintensitäten im Bereich der Retina. Mithilfe eines blauen Lasers werden fluoreszierende Moleküle in der Retina, Fluorophore, zum Abstrahlen von Licht, der so genannten Fluoreszenz, angeregt. Die Abklingzeit der Fluoreszenzintensität bis zum Ende der Lichtemission eines Moleküls, wird als Fluoreszenzlebensdauer bezeichnet. Die Software ermöglicht es, durch den Einsatz eines speziellen Detektors und einer sehr genauen Stoppuhr diese Fluoreszenzlebensdauer im Pikosekundenbereich zu messen. Anhand der für jeden Stoff individuellen Fluoreszenzlebensdauer können die Moleküle exakt bestimmt werden. Mit einem Messgerät, welches die im Auge vorkommenden Substanzen und deren Verhältnis zueinander messen kann, lassen sich bei Abweichungen von der Norm Diagnosen erstellen und eine Behandlung einleiten. Soft- und Hardware sind in der Lage, die Augenbewegung während einer Messung auszugleichen, sodass selbst bei Messungen im Bereich von einigen Minuten verlässliche Messdaten generiert werden. Ziel dieser Arbeit ist die Fertigstellung eines für den Routineeinsatz geeigneten Prototyps.
The Greifswald University Hospital in Germany conducts a research project called "Greifswald Approach to Individualized Medicine (GANI_MED)", which aims at improving patient care through personalized medicine. As a result of this project, there are multiple regional patient cohorts set up for different common diseases. The collected data of these cohorts will act as a resource for epidemiological research. Researchers are going to get the possibility to use this data for their study, by utilizing a variety of different descriptive metadata attributes. The actual medical datasets of the patients are integrated from multiple clinical information systems and medical devices. Yet, at this point in the process of defining a research query, researchers do not have proper tools to query for existing patient data. There are no tools available which offer a metadata catalogue that is linked to observational data, which would allow convenient research. Instead, researchers have to issue an application for selected variables that fit the conditions of their study, and wait for the results. That leaves the researchers not knowing in advance, whether there are enough (or any) patients fitting the specified inclusion and exclusion criteria. The "Informatics for Integrating Biology and the Bedside (i2b2)" framework has been assessed and implemented as a prototypical evaluation instance for solving this issue. i2b2 will be set up at the Institute for Community Medicine (ICM) at Greifswald, in order to act as a preliminary query tool for researchers. As a result, the development of a research data import routine and customizations of the i2b2 webclient were successfully performed. An important part of the solution is, that the metadata import can adapt to changes in the metadata. New metadata items can be added without changing the import program. The results of this work are discussed and a further outlook is described in this thesis.
Im Sommer 2014 stellten Menschen auf der ganzen Welt Videos in das Internet, in denen sie mit Eiswasser überschüttet wurden. Grund dafür war die sogenannte ,,Ice Bucket Challange”. Der genaue Ursprung dieses Internetphänomens ist unbekannt. Sinn und Zweck ist eine Spendensammlung für die Erkrankung Amyotrophe Lateralsklerose, kurz ALS. [54] ,,Rund 100 Millionen US-Dollar kamen mit dieser einfachen Idee in 30 Tagen zusammen.” [6].
ALS ist eine ,,chronisch-degenerative Erkrankung des zentralen Nervensystems, die mit einer Atrophie der Skelettmuskulatur und Pyramidenbahnzeichen einhergeht” [41]. Die Ursache der Krankheit ist unbekannt, ein familiäres gehäuftes Auftreten lässt auf genetische Disposition hinweisen, andere Faktoren sind nicht auszuschließen. [54] Langfristig führt die Krankheit zum Absterben der Zellen, ,,die elektrische Impulse vom Gehirn indie Muskeln leiten” [54]. Dies führt zu einem Muskelschwund. Die aggresiv verlaufende Krankheit führt zu einer Lebenserwartung von 3-5 Jahren nach Eintritt, welche meist im Alter zwischen dem 50. und 70. Lebensjahr geschieht. [54]
Ein bekannter Betroffener dieser Krankheit ist der britische theoretische Physiker und Astrophysiker Stephen William Hawking. Der 1942 geborene Hawking erhielt im Alter
von 21 die Diagnose. Über die Jahre wurde seine körperliche Verfassung immer eingeschränkter, bis er 1985 durch die Folge einer Tracheotomie seine Stimme verlor. Ein kalifornischer Computer Programmierer wurde auf die Situation aufmerksam und entwickelte
einen Sprachcomputer, den Hawking über einen Druckknopf steuern konnte. Nach funktionsverlust der Hand wurde ein Interface entwickelt, welches dem Physiker die Steuerung des Sprachcomputers über eine Backenbewegung ermöglicht, die durch einen Infrarotsensor aufgenommen werden. Da die Krankheit weiter fortschreitet und nun auch seine Gesichtmuskulatur langsam lähmt, wird nach einer neuen Möglichkeit gesucht, die für den Physiker lebenswichtige Steuerung des Sprachcomputers zu ermöglichen. Eine Möglichkeit könnte das Eye Tracking darstellen, bei dem die Augenbewegungen verfolgtwerden. [14] [24] [15]
Im Folgenden wird sich mit dem Thema der Blickrichtungsverfolgung auseinandergesetzt und ein Ansatz für ein Eye Tracking System erforscht.
Entwicklung einer performanten Volume Rendering Komponente für das Operationsplanungssystem MOPS 3D
(2012)
Computergestützte Planung von chirurgischen Eingrien gehört in der heutigen Zeit zum klinischen Alltag. Besonders in der Neurochirurgie ist ein hohes Maÿ an Präzision erforderlich, so dass es hilfreich ist, die räumlichen Gegebenheiten des individuellen Gehirns, die für die Operation von Bedeutung sind, schon im Voraus zu kennen. MOPS 3D ist ein Operationsplanungssystem, das imstande ist, verschiedene medizinische Bilddaten einzulesen und dem Chirurgen eine dreidimensionale Darstellung des Körperinneren zu präsentieren. Statt mit der herkömmlichen Oberflächendarstellung kann dieses seit Kurzem auch mit Hilfe von Volumenvisualisierung (Volume Rendering) dargestellt werden, da das Volume Rendering Framework Voreen prototypisch in MOPS 3D integriert wurde. In der nachfolgenden Arbeit wird diese prototypische Integration auf Schwachstellen im Verhalten und auf Verbesserungspotential von Performanz und Stabilität untersucht. Danach werden entsprechende Verbesserungen und funktionale Neuerungen konzipiert und in der Volume Rendering Komponente implementiert.
Diese Arbeit befasst sich mit der Analyse der Secondary Use Systeme der Vanderbilt Universität, Nashville Tennessee (USA), und einem anknüpfenden Vergleich mit deutschen Konzepten und unter Berücksichtigung der deutschen Gesetzeslage. Dabei wurden, auf Basis einer vor Ort durchgeführten Analyse, wichtige Prozesse modelliert und im Anschluss mit den Datenschutzkonzepten der Technologie- und Methodenplattform für die vernetzte medizinische Forschung (TMF) verglichen. Weiterhin wurde darauf eingegangen, inwiefern eine Übertragung der Prozesse und Methoden mit dem deutschen Datenschutz vereinbar wäre. Die Bewertung der Ergebnisse zeigt, dass ein Großteil der zugrundeliegenden Prozesse in Vanderbilt auf Deutschland übertragen werden können, jedoch bei gewissen Methoden andere Ansätze gewählt werden müssen. Es wird ebenfalls hervorgehoben, dass es trotz Schutzmaßnahmen und -mechanismen Risiken für die Privatsphäre gibt.
Alzheimer’s Disease affects millions of people worldwide, but till today, the gold standard
for definitive diagnosis of this disease is a biopsy. Nevertheless, with the progress
of the disease, a volume loss in the Hippocampus can be observed. Therefore, good
segmentation methods are crucial to facilitate quantification of this loss.
The focus of this work is on the development of a Machine Learning algorithm, more
precisely a Generative Adversarial Network, for the automated segmentation of the
human Hippocampus and its substructures in Magnetic Resonance Images. In particular,
the task is to determine if the integration of a pre-trained network that generates
segmentations into a Generative Adversarial Network scheme can improve generated
segmentations. In this context, a segmentation network in form of a U-net corresponds
to the generator. The discriminator is developed separately and merged in a second
step with the generator for combined training.
With a literature review regarding the automated segmentation of the Hippocampus,
current methods in this field and their medical and technological basics were identified.
The datasets were preprocessed to make them suitable for the use in a neural
network. In the training process, the generator was trained first until convergence.
Then, the Generative Adversarial Network including the pre-trained generator was
trained. The outcomes were evaluated via cross-validation in two different datasets
(Kulaga-Yoskovitz and Winterburn). The Generative Adversarial Network scheme
was tested regarding different architectural and training aspects, including the usage
of skip-connections and a combined loss function.
The best results were achieved in the Kulaga-Yoskovitz dataset with a Dice coefficient
of 90.84 % after the combined training of generator and discriminator with a joined
loss function. This improves the current state of the art method in the same task and
dataset with a Dice index of 88.79 % by Romero [Rom17]. Except of two cases in the
Winterburn dataset, the proposed combined method could always improve the Dice
results after the training of only the generator, even though only by a small amount.
In IT-Abteilungen von Krankenhäusern und Universitätskliniken nimmt Kommunikation und Informationsaustausch zwischen Arbeitsgruppen immer mehr an Bedeutung zu. Einheitliche Informationsprozesse innerhalb einer ITAbteilung sind also notwendig, damit vor allem im Bereich des Projektmanagements Klarheit und Stabilität vorhanden ist. Schon in der Projektinitiierungsphase soll damit Fehlerbehebung und -vermeidung stattfinden. Denn die Haupthebelstelle für Projektqualität liegt im Projektentstehungsprozess. Vor diesem Hintergrund befasst sich diese Abschlussarbeit mit der Untersuchung der IT-Projektmanagementprozesse in Bezug auf die Möglichkeit zur EDV-Unterstützung.
Spinodal Zr0.4Hf0.6Ni1.15Sn half-Heusler thermoelectrics are synthesized and aged. The complex microstructure due to the spinodal decomposition is investigated by powder X-ray diffraction (XRD), scanning electron microscope (SEM) and transmission electron microscope (TEM). By Rietveld refinements, it is confirmed that excess Ni atoms in the arc-melted and spark-plasma-sintered half-Heusler matrix prefer to form nanoscale/ submicron Heusler precipitates via spinodal decomposition and growth during the aging at 1173 K. Such phase separation changes the band gap of semiconductors, reduces the thermal conductivity drastically and improves the performance of thermoelectrics. As a result, a more than 50 % improvement of the ZT value on the unaged specimens was achieved.
Mit der Entdeckung der Röntgenstrahlen im Jahre 1895 begründete Wilhelm Conrad Röntgen die medizinische Bildgebung. Diese ermöglichte erstmals, zu diagnostischen oder therapeutischen Zwecken einen Blick in das Innere des Menschen zu werfen, ohne dass sich dieser einer unter Umständen riskanten Operation unterziehen musste. Die Röntgentechnik gestattet allerdings nur die Projektion anatomischer Strukturen auf ein zweidimensionales Bild. Erst die Erweiterung der Bildgebung auf tomographische Verfahren, wie der Computer und Magnetresonanztomographie, erlaubte es, kontrastreiche, überlagerungsfreie 3D Schichtbilder zu erzeugen [13, S. 1]. Weitere Unterstützung hat die medizinische Bildgebung durch die Computertechnik erfahren, die eine digitale Nachbearbeitung der Bilder oder oft auch eine umfassende Bildanalyse ermöglicht. Im Zuge der technischen Weiterentwicklung kommen immer leistungsfähigere Computer zum Einsatz. Daher ist es nicht verwunderlich, dass medizinische Bilder heute hauptsächlich digital gespeichert, verschickt und bearbeitet werden. Auch entwickeln sich die bildgebenden Modalitäten weiter, was zu immer höher aufgelösten Bildern führt, in denen immer feinere Strukturen erkennbar sind. Simultan bedeutet das, dass für immer größere Datenmengen eine digitale Bearbeitung am Computer bewerkstelligt werden muss. Es ist deshalb ein zentrales Anliegen, effziente bildverarbeitende Algorithmen zu entwickeln.
Medication reconciliation is defined by the American Society of Health- System Pharmacists (ASHP) and the American Pharmacists Association (AphA) as “the comprehensive evaluation of a patient’s medication regimen any time there is a change in therapy in an effort to avoid medication errors such as omissions, duplications, dosing errors or drug interactions, as well as to observe compliance and adherence patterns “. Medication reconciliation is very important to avoid medication errors but it is also a complex and time-consuming process. Medication histories, i.e. records of prescription, purchase, and refill sequences are considered to be a resource from which conclusions about medication reconciliation can be drawn. However, medication histories spread across diverse paper and electronic media may lack the required accuracy. By employing multiple electronic sources this thesis will evaluate if more accurate medication histories can be collected.
Im Rahmen der interdisziplinären Leberkrebsforschung des ‚SFB/TRR 77’ ‚Leberkrebs von der molekularen Pathogenese zur zielgerichteten Therapie’ fallen Genomdaten an, welche in unterschiedlichen Formaten gespeichert werden. Der ‚SFB/TRR 77’ wird technisch durch die integrierte Informationsplattform ‚pelican’ (platform enhancing livercancer networked research) unterstützt. ‚pelican’ erlaubt Forschern ihre (Genom-)Daten zentral zu speichern und Daten von anderen Projekten einzusehen. Die Informationsplattform ist nach dem Prinzip der modernen service-orientierten Architektur (SOA) aufgebaut, nach welcher Dienste über einheitliche Schnittstellen an unterschiedlichen Orten spezifische (Teil-)Aufgaben erfüllen, um so größere Prozesse zu realisieren. Damit die Genomdaten für umfassende Analysen einheitlich zur Verfügung stehen, bedarf es eines Genkonvertierungs-Dienstes zur Abbildung von Genbezeichnungen aufeinander, der in die SOA von ‚pelican’ integriert werden kann. Verschiedene Gendatenbanken und biomedizinische Standards wurden auf ihre Eignung untersucht, Gene eindeutig zu identifizieren. Auch die Tools des ‚cancer Biomedical Informatics Grid’ (caBIG) werden auf Methoden und Werkzeuge zur Unterstützung einer eindeutigen Genidentifikation analysiert. Aus den verschiedenen Genidentifikationsmöglichkeiten wird eine optimale Methode ausgewählt, mit der im Genkonvertierungs-Dienst gearbeitet werden kann. Diese ist das ‚Gensymbol’, da es Gendatenbank übergreifend ist und von dem Human Genome Organisation (HUGO) Gene No-menclature Committee (HGNC) standardisiert wird. Die Daten aus der HGNC-Datenbank werden in eine eigene MySQL-Datenbank transferiert. Auf Basis dieser Datenbank wird ein Webservice entwickelt, der dann in die SOA der Informationsplattform eingebunden werden kann. Der erstellte Webservice steht zur Abfrage von Genomdaten bereit. Mittels entsprechenden Tests wird die Funktionalität des neuen Services validiert.
Im Bereich der Krebsdiagnose und -therapie gewinnen neue minimalinvasive Verfahren zunehmend an Bedeutung. Beispiele hierfür sind Nadelpunktionen, bei denen zur Diagnose eine Gewebsprobe entnommen (Biopsie) oder durch Zerstörung des Gewebes im Bereich der Nadelspitze eine Krebserkrankung therapiert wird (Ablation). Eine zentrale Herausforderung hierbei ist die genaue Platzierung der Nadel. Am deutschen Krebsforschungszentrum (DKFZ) wurde ein computergestütztes Navigationssystem für Nadelinsertionen entwickelt, das sich im in-vivo Versuch als höchst akkurat zeigte. Trotz der vielversprechenden Ergebnisse kam das System bisher jedoch nicht am Patienten zum Einsatz. Dies ist unter anderem auf die schwierige Integration des Systems in den klinischen Workflow und die erhöhte Invasivität zurückzuführen. Vor diesem Hintergrund war das Ziel dieser Arbeit zum einen die Entwicklung einer flexiblen, erweiterbare Software für die navigierte Weichgewebepunktion, zum anderen die Weiterentwicklung des Navigationssystems durch die Einbindung eines neuen Feldgenerators für das elektromagnetische Trackingsystem NDI Aurora. Die Implementierung der Software erfolgte aufbauend auf der Bibliothek MITK und dem enthaltenen Modul MITK-IGT. Dabei wurde ein komponentenweiser Aufbau umgesetzt, welcher einen einfachen Austausch oder Erweiterungen der einzelnen Komponenten ermöglicht. Des Weiteren wurde der neue Feldgenerator bezüglich Genauigkeit und Präzision in der Einsatzumgebung evaluiert und es erfolgte ein Test des Navigationssystems unter klinischen Bedingungen. Abschließend kann festgestellt werden, dass durch die gezeigte Flexibilität und Erweiterbarkeit der entwickelten Software zahlreiche Möglichkeiten zur Weiterentwicklung offen stehen. Bezüglich des Feldgenerators zeigte sich das vielversprechende Potential dieses Geräts für die Weiterentwicklung medizinischer Navigationssysteme.
Mobile Signalverarbeitung auf dem Raspberry Pi mit Aspekten der Vernetzung mehrerer Messgeräte
(2016)
Bei dem Raspberry Pi handelt es sich um einen Einplatinen-Computer, welcher ich seit dem Verkaufsstart im Jahr 2012 sehr groÿer Beliebtheit erfreut. Nicht zuletzt aufgrund des hohen Grades an Kompatibilität und der groÿen Online-Community wurden bis zum heutigen Tage unzählige Projekte realisiert. In der Zwischenzeit ist der Raspberry Pi in verschiedenen Anwendungsgebieten und Branchen anzutreffen. Dies ist insofern interessant, da dieser ursprünglich für den Einsatz in Bildungseinrichtungen auf Basis einer Stiftung entwickelt wurde [1]. Dabei stellen Anwendungen wie eine Smart-Home Steuerung, ein Multimedia-Center oder eine Wetterstation nur einen Bruchteil der Möglichkeiten dar. Grundlage dieser vielfältigen Anwendungsgebiete ist die Unterstützung sämtlicher standardisierter Hard- und Software-Schnittstellen, zum Beispiel USB, Audio-Klinke, Serial Peripheral Interface (SPI) oder Inter-Integrated Circuit (I2C). Dadurch wird die Einbindung von beispielsweise Global Positioning System (GPS)-Modulen, Wireless Local Area Network (WLAN)-Empfängern oder sogar der eigenen Spiegelreflexkamera ermöglicht. Weiterhin ist mit Hilfe eines Mikrofons die Entwicklung einer Sprachsteuerung denkbar. Der mögliche Anwendungsbereich des Raspberry Pi geht noch weit über die hier genannten Beispiele hinaus. Eine der Schnittstellen des Raspberry Pi stellen die sogenannten General Purpose Input Output (GPIO)-Ports dar. Hierbei handelt es sich um analoge und digitale Ein- und Ausgänge worüber Hardware-Komponenten direkt auf physikalischer Ebene eingebunden werden können. Der Raspberry Pi eignet sich auch zum Nachweis radioaktiver Strahlung.
Ziel der Arbeit soll die Entwicklung eines Gerätes zur Messung der Strahlendosis sein. Dazu gehört die Verwendung eines Geiger-Müller-Zählrohrs, welches mittels eines Arduino Shields ansprechbar ist. Weiterhin sollen im Rahmen dieser Arbeit verschiedene Möglichkeiten zur Weiterentwicklung des Systems betrachtet werden. Das Geiger-Shield, zu dem das Geiger-Müller-Zählrohr und das Arduino-Shield gehören, wurden von dem Hardware-Hersteller Libelium im Jahr 2011 entwickelt. Anlass war der Tsunami in Japan, welcher die Atom-Katastrophe von Fukushima nach sich gezogen hat [2]. Das Geiger-Shield sollte den Alltag der Menschen in Japan vereinfachen, indem sie selbst die Strahlendosis messen konnten. Mit einem Mikrocontroller, einem einfachen LC-Display und einem Akku konnte so jederzeit die aktuelle Strahlendosis bestimmt werden.
Gammastrahlung ist hochenergetische elektromagnetische Strahlung, die zum Beispiel
beim Zerfall radioaktiver Stoffe auftritt und besteht aus ungeladenen Photonen. Jeder
dieser Gammastrahler strahlt Photonen mit einer für ihn spezifischen Energie aus, woran
man ihn auch erkennen kann. So hat jeder Gammastrahler sozusagen seinen eigenen
Fingerabdruck.
Wenn man wissen will, welche Gammastrahler in einer Probe vorhanden sind, kann auf
die Gammaspektroskopie zurückgegriffen werden. Diese misst, wie der Name schon sagt,
das Spektrum, also die Energie und die Intensität, der Gammastrahlen. Aus dem daraus
entstehenden Graphen kann dann anhand der Ausschläge abgelesen werden, welche
Gammastrahler in der Probe enthalten sind, da sich diese über ihr Energiemaß bestimmen
lassen.
Die beiden grundsätzlichen Bestandteile eines solchen Gammastrahlenspektrometers sind
ein Detektor und eine Strahlungsquelle, meist eine radioaktive Probe. Die Probe wird so
angebracht, dass sie auf den Detektor strahlt. Dieser registriert dann die Impulse, die
durch Wechselwirkung zwischen den Gammastrahlen und den Elektronen des Detektors
entstehen.
Es gibt zwei hauptsächlich auftretende Effekte. Der Wichtigste ist wohl der Photoeffekt.
Hierbei trifft ein Photon auf ein Elektron und das Photon wird vollständig vom Elektron
absorbiert, wodurch das Elektron aus seiner aktuellen Bindung, innerhalb des Atoms,
gelöst wird. Dies ist der wichtigste Effekt, weil er genau die Information liefert, die gesucht
wird. Das ist die exakte Energie, mit der ein radioaktives Nuklid abstrahlt. Den durch
gehäuftes Vorkommen dieses Effektes auftretenden Ausschlag nennt man Photopeak. Er
stellt die spezifische Energie von einem der, in der Probe vorhandenen, Gammastrahlern
dar. Anhand dieses Peaks ist es letztendlich möglich die enthaltenen Gammastrahler zu
identifizieren.
Der zweite Effekt nennt sich Compton-Effekt. Hierbei trifft ebenfalls ein Photon auf ein
Elektron. Dieses Mal wird das Photon aber nicht absorbiert, sondern gibt lediglich einen
Teil seiner Energie an das Elektron ab und wird dann in einem Winkel von 0° bis 180°
gestreut. Es setzt seinen Weg also mit geringerer Energie und damit größerer Wellenlänge
fort.
Leider ist das obige Spektrum im jetzigen Zustand noch lange nicht perfekt. Noch sind zu
viele Störungen und Fehlinformationen enthalten. Zwar könnte damit gearbeitet werden,
jedoch mit dem Risiko, dass eventuell Informationen verfälscht, oder sogar gar nicht
ausgelesen werden. Perfekt wäre es, wenn das Spektrum komplett der x-Achse anliegen
würde, vollkommen glatt, ohne Rauschen und nur die Photopeaks zu sehen wären.
Ein kleiner Teil der Störungen, die das Signal beeinflussen, kann schon im obigen Teil
erkannt werden. Es spielen nämlich viel mehr Effekte eine Rolle, als es im besten Fall sein
sollten.
Einer der Störeffekte zum Beispiel, ist der bereits oben erwähnte Compton-Effekt. Dieser
trägt nichts zum Photopeak bei, sondern liefert einen Impuls, dessen Energie bis zu einem
gewissen Punkt, dieser „Punkt“ wird auch Compton-Kante genannt, unterhalb der
spezifischen Energie des Photons liegt. Wenn die spezifische Energie eines Photons zum
Beispiel 600keV betragen würde, dann könnte durch den Compton-Effekt eine Energie
von 400keV geliefert werden. Es ist also möglich, dass angenommen wird es seien zwei
unterschiedliche Gammastrahler in der Probe vorhanden. Glücklicherweise sind die
Impulse, die durch den Compton-Effekt entstehen relativ gleich verteilt und erreichen
kaum die Intensität eines Photopeaks. Dennoch zieht jeder Photopeak einen solchen
Rattenschwanz aus schwächeren Impulsen, welche von 0keV bis zur Energie der
Compton-Kante reichen, hinter sich her. Dies wird auch Compton-Kontinuum genannt. Da
im niedrigeren Bereich des Energiespektrums immer mehr Compton-Kontinuen
aufeinandertreffen, je nachdem wie viele Photopeaks, also unterschiedliche
Gammastrahler, in der Probe vorhanden sind, bildet sich dort oft ein sichtbarer Hügel, oder
eine Steigung. Umgekehrt flacht das Spektrum im höheren Bereich immer weiter ab, da
4
Abbildung 1: Beispielspektrum
weniger Compton-Kontinuen vorhanden sind.
Das Compton-Kontinuum trägt einen Großteil zum Untergrund bei. Der Untergrund füllt
fast den kompletten Bereich zwischen Gammaspektrum und x-Achse aus. Ebenso spielt
hier auch die Umgebungsstrahlung eine Rolle, welche eigentlich immer vorhanden ist und
die man nur schwer ausschließen kann.
Ein weiterer Störfaktor ist das in der Elektrotechnik bekannte Rauschen, welches auch im
obigen Spektrum sehr gut erkannt werden kann.
Dies sind nur einige Störungen, die eine Rolle spielen.
Es werden somit sehr viele Störgrößen ungewollt mit betrachtet und diese Störgrößen
müssen durch Werkzeuge, wie zum Beispiel Algorithmen, entfernt werden. Da ich mich in
dieser Bachelorarbeit auf die Untersuchung von Algorithmen zur Bestimmung des
Untergrundes beziehe, werde ich mich im Weiteren auf diese beschränken und die
anderen Probleme größtenteils außer Acht lassen.
Nun gibt es natürlich bereits Algorithmen, mit denen sich der Untergrund von Gammaspektren
bestimmen lässt. Das Problem hierbei ist, dass diese meist nur bei bekannten
Spektren funktionieren, auf die sie, mehr oder weniger, speziell zugeschnitten sind. Wenn
diese Algorithmen eins zu eins auf ein unbekanntes Spektrum angewandt würden, kann es
schnell vorkommen, dass die Untergrundbestimmung misslingt und weit vom angestrebten
Ergebnis entfernt ist.
Einen einzelnen Algorithmus zu entwickeln, der für alle Spektren einsetzbar wäre, ist aber
auch keine Möglichkeit. Der Aufwand und die Kosten wären noch viel zu hoch. Außerdem
würde sich keine Firma finden,welche sich an solch ein Projekt wagen würde, da auch viel
zu wenige Abnehmer dafür vorhanden sind.
Darum werde ich in dieser Arbeit kleinere, einfachere Algorithmen genauer untersuchen,
um zu verstehen, wie sich diese auf unterschiedliche Spektren anwenden lassen. Das
damit entstehende Ergebnis ist wahrscheinlich nicht perfekt, aber gut genug, um damit
arbeiten zu können.
Ziel dieser Arbeit ist es, zwei Algorithmen zur Untergrundbestimmung zu evaluieren und
einen Überblick über folgende Themen zu geben:
– Einen Ausblick über die Auswirkungen der einzelnen Parameter der Algorithmen zu
geben, um zum Beispiel schnell abschätzen zu können, welcher Parameter in
einem konkreten Fall verändert werden muss.
– Einen groben Rahmen festzulegen, in dem die einzelnen Parameter gewählt
werden können, sodass mit hoher Wahrscheinlichkeit ein gutes Ergebnis erreicht
wird.
– Stärken und Schwächen der Algorithmen herausarbeiten, um zum Beispiel die
Verwendung eines Algorithmus auszuschließen, der sich für den beabsichtigten
Zweck nur schwer oder gar nicht einsetzen ließe.
5
– Einen schnellen Überblick über die Möglichkeiten geben, um mit den Algorithmen
ohne großes Vorwissen zu arbeiten.