Refine
Year of publication
Document Type
- Master's Thesis (63)
- Bachelor Thesis (55)
- Other (12)
- Diploma Thesis (2)
- Doctoral Thesis (2)
- Preprint (2)
- Course Material (1)
Has Fulltext
- yes (137)
Is part of the Bibliography
- no (137)
Keywords
- Analyse (19)
- Entwicklung (11)
- Reise (11)
- Urlaub (10)
- Implementierung (9)
- Software (8)
- Konzeption (7)
- Evaluation (6)
- Patient (5)
- Strahlentherapie (5)
- Tumor (5)
- Ultraschall (5)
- Anwendung (4)
- Computer (4)
- Medizin (4)
- Segmentierung (4)
- Application (3)
- Applikation (3)
- Daten (3)
- Neuronales Netz (3)
- Realisierung (3)
- Roboter (3)
- Simulation (3)
- Wikipedia (3)
- Auswertung (2)
- Benutzeroberfläche (2)
- Bildgebung (2)
- Data Mining (2)
- Datenanalyse (2)
- Datenbank (2)
- Differenz (2)
- Einsatz (2)
- Entwurf (2)
- Extraktion (2)
- Gehirn (2)
- Klassifikation (2)
- Kolorektalkarzinom (2)
- Komponente (2)
- MRI (2)
- Management (2)
- Maschinelles Lernen (2)
- Modellierung (2)
- Open Source (2)
- Operation (2)
- Optimierung (2)
- Patientendaten (2)
- Punktion (2)
- Struktur (2)
- Terminologie (2)
- Therapie (2)
- Verwaltung (2)
- Verwendung (2)
- Visualisierung (2)
- Webservice (2)
- stroke (2)
- web application (2)
- 3D Slicer (1)
- 3D-Ultraschall (1)
- AAL (1)
- Abstimmung (1)
- Accelerated (1)
- Activity recognition (1)
- Akquisition (1)
- Akte (1)
- Algorithmus (1)
- Alzheimer (1)
- Ambient Assisted Living (1)
- Ambulanz (1)
- Analyse , Datenqualität , Krebsregister (1)
- Analyse , Evaluation , Modulation , Funktechnik (1)
- Anatomie (1)
- Android (1)
- Android <Systemplattform> (1)
- Anerkennung (1)
- Anforderung (1)
- Angststörung (1)
- Antragsportal (1)
- Aorta (1)
- App (1)
- Applikation , Atemfrequenz , Signalverarbeitung , Python (1)
- Arbeitsheft (1)
- Arztbrief (1)
- Auswahl (1)
- Automation (1)
- Automatisch (1)
- BPMN (1)
- Bandscheibenvorfall (1)
- Benennungssystematik (1)
- Benutzung (1)
- Berechnung (1)
- Berücksichtigung (1)
- Beschleunigungssensor (1)
- Betreuung (1)
- Betriebssystem (1)
- Bewegung (1)
- Bewertung (1)
- Bild (1)
- Bildverarbeitungsprogramm (1)
- Bluetooth-Standard (1)
- Brain (1)
- Brain-Computer-Interfaces (1)
- British Broadcasting Corporation (1)
- Browser (1)
- COPD-Patienten (1)
- Computertomographie (1)
- Darstellung (1)
- Dateisysteme (1)
- Datenbrille (1)
- Datenmodell (1)
- Datenverarbeitung (1)
- Datenübertragung (1)
- Deep learning (1)
- Definition (1)
- Development (1)
- Digitalisierung , Verstärker (1)
- Dokumentation (1)
- Doppler-Effekt (1)
- Drahtloskommunikation (1)
- E-Health (1)
- E-Learning (1)
- EC-Motoren (1)
- Einwilligung (1)
- Electronic Commerce (1)
- Elektromyogramm (1)
- Elektrookulogramm (1)
- Elektrostimulation (1)
- Entscheidung (1)
- Entspannung (1)
- Entwicklung , Anwendung , Verbesserung , Information , Patient (1)
- Entwicklung , Datei , Datenerfassung , Klinisches Experiment (1)
- Entwicklung , Realisierung , Signalverarbeitung (1)
- Entwicklung , Registrierung , Identifikation (1)
- Entwicklungsplan (1)
- Erweiterung (1)
- Experimental (1)
- Expositionstherapie (1)
- Eye Tracking (1)
- Feldgenerator (1)
- Feldschwächung (1)
- Festschrift (1)
- Forschung (1)
- Französisch (1)
- Gammastrahlung (1)
- Gangzyklus-Erkennung (1)
- Genbezeichnungen (1)
- Gendatenbanken (1)
- Generator (1)
- Generierung (1)
- Genvariante (1)
- Gerhard Vogler (1)
- Germany (1)
- Gesichtschirurgie (1)
- Gestaltung , Realisierung , Benutzeroberfläche , Software , Strahlentherapie (1)
- Gesundheitsakte (1)
- Gesundheitssystem (1)
- Gesundheitswesen (1)
- Gewebebank (1)
- Grippe (1)
- Handhabung (1)
- Heidelberg / Deutsches Krebsforschungszentrum (1)
- Heilbronn (1)
- Hippocampus (1)
- Hochfrequenzsignal (1)
- Hochfrequenzverstärkern (1)
- Hochschule Heilbronn (1)
- IT-Projekt (1)
- Idee (1)
- Implementation (1)
- Implementierung , Validierung , Software , Schädel , Segmentierung , Chirurgie (1)
- Import (1)
- Importfunktion (1)
- Improving ; Medication (1)
- Influenzavirus (1)
- Informationsaustausch (1)
- Informationsbedarf (1)
- Informationsgewinnung (1)
- Informationssystem , Rauschgift (1)
- Initiierung (1)
- Integration (1)
- Integration , Lebertumor (1)
- Interfaces (1)
- Java (1)
- Jugendliche (1)
- Jugendliche ; Bewegungsmangel (1)
- Kieferchirurgie (1)
- Kieferrekonstruktion (1)
- Kind (1)
- Kinder (1)
- Kinematik (1)
- Klassenzimmer (1)
- Klinik (1)
- Knochen (1)
- Konfiguration (1)
- Konvertierung (1)
- Konzept (1)
- Konzeption , Entwicklung , Applikation , Ultraschall (1)
- Konzeption , Implementierung , Unterstützung , Hand , Therapie (1)
- Kookkurrenzwerte (1)
- Krankenunterlagen (1)
- Krebsregister (1)
- Laser (1)
- Lebenszyklus (1)
- Lebertumorsegemntierung (1)
- Lehre (1)
- Lehrkonzept (1)
- Leitlinie (1)
- Lichtbrechung (1)
- Lokalisationskontrolle (1)
- Low Energy (1)
- Lunge (1)
- Lungenkrebs (1)
- Lüftermotor (1)
- MITK (1)
- MITK-IGT (1)
- MITU (1)
- MOPS (1)
- Mathematik (1)
- Medical Imaging Interaction Toolkit (1)
- Medikamenteneinnahme (1)
- Medizintechnik (1)
- Mensch (1)
- Messtechnik (1)
- Methode (1)
- Mevislab (1)
- Model-View-Controller-Modell (1)
- Monte-Carlo-Verfahren (1)
- Motivation (1)
- Motorik (1)
- Multi-Template-Ansatz (1)
- Multiple Lineare Regression (1)
- Multipletts (1)
- Mundchirurgie (1)
- MySQL (1)
- Myatrophische Lateralsklerose (1)
- Myo-Armband (1)
- NFC-Tag (1)
- NFC-Tags (1)
- NMR-Spektroskopie (1)
- Nachrichtenübertragungstechnik (1)
- Next-Generation (1)
- Nutzwertanalyse (1)
- OLAP ; T-Mobile (1)
- Oberflächeninterpolation (1)
- Ontologie (1)
- Open Clinica (1)
- Open-Source-Software (1)
- OpenCL (1)
- Operation Data Model (1)
- Organmodell (1)
- Palliativversorgung (1)
- Patient , Analyse , Nachsorge (1)
- Patient , Therapie (1)
- Patientenakte (1)
- Periphere arterielle Verschlusskrankheit (1)
- Pflegeüberleitungsbogen (1)
- Pharmakogenomik (1)
- Photometric ; Stereo (1)
- Plagiarism Finder (1)
- Plagiat (1)
- Plagiatserkennung (1)
- ProKEt (1)
- Programmierung , Krankenhaus , Symptom , Uganda (1)
- Programmkomponente (1)
- Projektcontrolling (1)
- Projektkontrolle (1)
- Projektplanung (1)
- Projektsteuerung (1)
- Prothese , Bewegung (1)
- Protégé (1)
- Prozess (1)
- Prozessanalyse (1)
- Prozessautomatisierung (1)
- Prozessunterstützung (1)
- Präsentation (1)
- Quantifizierung (1)
- Radiologie (1)
- Randi 2 (1)
- Randomisationsverfahren (1)
- Randomisierung (1)
- Raspberry Pi (1)
- Re-engineering (1)
- Realschulunterricht (1)
- Reanimation (1)
- Registrierung (1)
- Reisemittler (1)
- Reiseveranstalter (1)
- Rekonstruktion (1)
- Relaxation (1)
- Rendering (1)
- Retina (1)
- Robotik (1)
- SLK-Kliniken Heilbronn (1)
- SWOT-Analyse (1)
- Schlaganfall (1)
- Schlaganfall , Rehabilitation (1)
- Schädelsegmentierung (1)
- Segmentation (1)
- Signalverarbeitung , Vernetzung , Messgerät (1)
- Signalübertragung (1)
- Smartphone (1)
- Software , Simulator , Analyse , Programmiersprache (1)
- Softwarearchitektur (1)
- Softwareentwicklung (1)
- Softwaretool (1)
- Sprachsteuerung (1)
- Sterilgutaufbereitung (1)
- Struktur ; Zement ; Schnittbilder (1)
- Studien (1)
- Stundenplan (1)
- Suchmaschine (1)
- System (1)
- System , Erinnerung , Apple Watch , Verwendung (1)
- Systemanalyse (1)
- Sägeschnittschablone (1)
- TPS (1)
- Tablet-PC (1)
- Telemetrie (1)
- Test (1)
- Thalmic Myo (1)
- Thermoelektrik (1)
- Tomographie (1)
- Tourismus (1)
- Trackingsystem (1)
- Training (1)
- Trainingssoftware (1)
- Treatment (1)
- Tumorzentrum (1)
- Tätigkeit (1)
- Uganda (1)
- Ultraschallbildgebung (1)
- Untenehmensplanung (1)
- Unterkiefer (1)
- Unternehmensplanung (1)
- Unterstützung (1)
- VEGAS-Algorithmus (1)
- VR-Anwendung (1)
- VR-Applikation (1)
- Vanderbilt (1)
- Verbesserung (1)
- Verfahren (1)
- Verifikation (1)
- Versorgung (1)
- Verteilung (1)
- Visualization ; Cancer ; Support (1)
- Volume (1)
- Webanwendung (1)
- Webapplikation (1)
- Weichgewebe (1)
- Weiterentwicklung (1)
- Wiederverwertung (1)
- Workflow (1)
- Zeit (1)
- accelerometer (1)
- ambulatory monitoring (1)
- artificial neural networks (1)
- autonomous navigation (1)
- bildgebende Verfahren (1)
- biologically-inspired learning (1)
- computer based training (1)
- cytoscape (1)
- data collection (1)
- database (1)
- design science (1)
- disc herniation (1)
- driving simulator (1)
- drug interaction (1)
- eHMIS (1)
- elektronische Gesundheitsakten (1)
- filesystems (1)
- graphical user interface (1)
- hospital (1)
- i2b2 (1)
- iBeacon (1)
- integriertes Projektcontrolling (1)
- intelligent mobile agent (1)
- java (1)
- krank (1)
- medizinische Ausbildung (1)
- medizinische Bildgebung (1)
- medizinische Strukturen (1)
- obstacle avoidance (1)
- patient empowerment (1)
- personal health systems (1)
- personalized medicine (1)
- reactive obstacle avoidance (1)
- rehabilitation (1)
- reinforcement learning (1)
- research planning (1)
- secondary use (1)
- study planning (1)
- supervised learning (1)
- support system (1)
- therapy planning (1)
- virtuell (1)
- virtuelle Umgebung (1)
- visualization (1)
- Übertragungsrate (1)
- Überwachung (1)
Institute
- Medizinische Informatik (72)
- Informatik (44)
- Bibliothek allgemein (13)
- Bibliothek (2)
- Mechanik und Elektronik (2)
- Elektrotechnik und Informationstechnik (1)
Spinodal Zr0.4Hf0.6Ni1.15Sn half-Heusler thermoelectrics are synthesized and aged. The complex microstructure due to the spinodal decomposition is investigated by powder X-ray diffraction (XRD), scanning electron microscope (SEM) and transmission electron microscope (TEM). By Rietveld refinements, it is confirmed that excess Ni atoms in the arc-melted and spark-plasma-sintered half-Heusler matrix prefer to form nanoscale/ submicron Heusler precipitates via spinodal decomposition and growth during the aging at 1173 K. Such phase separation changes the band gap of semiconductors, reduces the thermal conductivity drastically and improves the performance of thermoelectrics. As a result, a more than 50 % improvement of the ZT value on the unaged specimens was achieved.
Im Rahmen der sich ausbreitenden Digitalisierung ist die Forderung nach mehr Bandbreite in
aller Munde. Das Schlagwort ist allerdings ein umgangssprachlicher Begriff, welcher nicht
korrekt verwendet wird. Gemeint ist dabei vielmehr die Übertragungsrate. Bandbreite
beschreibt im eigentlichen Sinn den Frequenzumfang, für den ein System ausgelegt wurde. Die
Übertragungsrate ist mittlerweile zu einem Standortfaktor für Unternehmen geworden und kann
als ein Merkmal der Infrastruktur angesehen werden. Für manche Unternehmen ist eine hohe
Übertragungsrate unerlässlich um wettbewerbsfähig zu bleiben. Aus technischer Sicht gibt es
verschiedene Ansätze zur Steigerung der Übertragungsrate. Zunächst wird versucht, ohne
Veränderungen der Hardware eine kostengünstige Verbesserung zu erzielen. Beispielsweise
lässt sich eine Steigerung auf dem Weg der Modulation realisieren, indem mehrere
Trägerfrequenzen verwandt werden. Letztlich ist eine Optimierung der Hardware trotzdem
notwendig. Ursächlich für niedrige Übertragungsraten sind momentan noch die Netze. Die
Empfangseinheiten sind längst für höhere Geschwindigkeiten konzipiert. Sie enthalten neben
der Antenne einen Hochfrequenzverstärker, der die schwachen Antennensignale zur
anschließenden Demodulation und weiteren Verarbeitung verstärkt. Hohe Frequenzen
produzieren in den Leistungsverstärkern große Verlustleistungen aufgrund der Häufigkeit von
Umladevorgängen. Daraus resultieren schlechte Wirkungsgrade. Doch nicht nur an die
Übertragungsrate, sondern auch an den Wirkungsgrad werden hohe Anforderungen gestellt.
Dahinter steht der Bedarf an Mobilität. Von Smartphones und Tablets wird die Fähigkeit
erwartet, mit hoher Geschwindigkeit umfangreiche Datenmengen zu laden. Gleichzeitig wird
eine maximale Akkulaufzeit gefordert.
Im Mittelpunkt dieser Arbeit steht die optimale Betriebsweise von Hochfrequenzverstärkern.
Die Verstärker selbst wurden von den Herstellern optimiert. Darüber hinaus wirkt sich die
Auswahl der Betriebsparameter sehr stark auf den Wirkungsgrad und die Verzerrung und damit
auf die Signalqualität aus.
Aufgabe dieser Arbeit ist es, diverse Messungen mit Hochfrequenzverstärkern durchzuführen
um daraus die optimale Einstellung der Betriebsgrößen zu ermitteln. Die Messungen erfolgen
zunächst mit vier vorgefertigten Verstärkern. Darüber hinaus wird ein Verstärker auf der Basis
eines Verstärker-ICs auf einer Leiterplatte selbst hergestellt, mit welchem anschließend die
selben Messungen erfolgen.
Die Messungen erfolgen mit drei unterschiedlichen Typen von Eingangssignalen:
-CW-Signalen entsprechend Sinus-Signalen.
-Zweitonmessungen. Zwei Sinus-Signale unterschiedlicher Frequenz am Eingang.
-Digitale Telekommunikationsstandards.
Alle nachfolgend genannten Messungen werden im Laufe der Dokumentation erklärt.
Im CW-Fall werden Load-Pull- und Power-Sweep-Messungen durchgeführt. Es folgen
Spektralmessungen zur Bewertung der harmonischen Oberwellen bei Einton-Ansteuerung. Im
Zweiton-Fall werden Spektralmessungen im Bereich der Grundfrequenzen und anschließend
im Bereich der harmonischen Oberwellen durchgeführt. Auf diese Weise sollen
Intermodulationsprodukte bewertet werden. Ebenfalls im Zweiton-Fall erfolgen Load-Pull-
Messungen. Die Betrachtung des Spektrums erfolgt unter Variation der Last. Die Auswirkung
der Last auf den Störabstand wird dabei untersucht. Im Fall der digitalen Ansteuerung werden
unter verschiedenen Betriebsgrößen Messungen der Nachbarkanalleistung durchgeführt.
Der Ausdruck Load-Pull-Messung hat verschiedene Bedeutungen. Zum einen werden mit
Load-Pull-Messungen umgangssprachlich sämtliche Messungen bezeichnet, die zur
Charakterisierung von Hochfrequenzverstärkern dienen. Zum anderen steht Load-Pull-
Messung für ein Messverfahren, bei welchem die Lastimpedanz variiert wird. Die letztgenannte
Load-Pull-Messung stellt die zentrale Messung in dieser Arbeit dar. Um ihre Bedeutung
verständlich zu machen ist eine Auseinandersetzung mit den Grundlagen der
Hochfrequenztechnik von Nöten. Im Folgenden werden all jene Aspekte der
Hochfrequenztechnik behandelt, die zum Verständnis der Messungen dieser Arbeit notwendig
sind.
Gammastrahlung ist hochenergetische elektromagnetische Strahlung, die zum Beispiel
beim Zerfall radioaktiver Stoffe auftritt und besteht aus ungeladenen Photonen. Jeder
dieser Gammastrahler strahlt Photonen mit einer für ihn spezifischen Energie aus, woran
man ihn auch erkennen kann. So hat jeder Gammastrahler sozusagen seinen eigenen
Fingerabdruck.
Wenn man wissen will, welche Gammastrahler in einer Probe vorhanden sind, kann auf
die Gammaspektroskopie zurückgegriffen werden. Diese misst, wie der Name schon sagt,
das Spektrum, also die Energie und die Intensität, der Gammastrahlen. Aus dem daraus
entstehenden Graphen kann dann anhand der Ausschläge abgelesen werden, welche
Gammastrahler in der Probe enthalten sind, da sich diese über ihr Energiemaß bestimmen
lassen.
Die beiden grundsätzlichen Bestandteile eines solchen Gammastrahlenspektrometers sind
ein Detektor und eine Strahlungsquelle, meist eine radioaktive Probe. Die Probe wird so
angebracht, dass sie auf den Detektor strahlt. Dieser registriert dann die Impulse, die
durch Wechselwirkung zwischen den Gammastrahlen und den Elektronen des Detektors
entstehen.
Es gibt zwei hauptsächlich auftretende Effekte. Der Wichtigste ist wohl der Photoeffekt.
Hierbei trifft ein Photon auf ein Elektron und das Photon wird vollständig vom Elektron
absorbiert, wodurch das Elektron aus seiner aktuellen Bindung, innerhalb des Atoms,
gelöst wird. Dies ist der wichtigste Effekt, weil er genau die Information liefert, die gesucht
wird. Das ist die exakte Energie, mit der ein radioaktives Nuklid abstrahlt. Den durch
gehäuftes Vorkommen dieses Effektes auftretenden Ausschlag nennt man Photopeak. Er
stellt die spezifische Energie von einem der, in der Probe vorhandenen, Gammastrahlern
dar. Anhand dieses Peaks ist es letztendlich möglich die enthaltenen Gammastrahler zu
identifizieren.
Der zweite Effekt nennt sich Compton-Effekt. Hierbei trifft ebenfalls ein Photon auf ein
Elektron. Dieses Mal wird das Photon aber nicht absorbiert, sondern gibt lediglich einen
Teil seiner Energie an das Elektron ab und wird dann in einem Winkel von 0° bis 180°
gestreut. Es setzt seinen Weg also mit geringerer Energie und damit größerer Wellenlänge
fort.
Leider ist das obige Spektrum im jetzigen Zustand noch lange nicht perfekt. Noch sind zu
viele Störungen und Fehlinformationen enthalten. Zwar könnte damit gearbeitet werden,
jedoch mit dem Risiko, dass eventuell Informationen verfälscht, oder sogar gar nicht
ausgelesen werden. Perfekt wäre es, wenn das Spektrum komplett der x-Achse anliegen
würde, vollkommen glatt, ohne Rauschen und nur die Photopeaks zu sehen wären.
Ein kleiner Teil der Störungen, die das Signal beeinflussen, kann schon im obigen Teil
erkannt werden. Es spielen nämlich viel mehr Effekte eine Rolle, als es im besten Fall sein
sollten.
Einer der Störeffekte zum Beispiel, ist der bereits oben erwähnte Compton-Effekt. Dieser
trägt nichts zum Photopeak bei, sondern liefert einen Impuls, dessen Energie bis zu einem
gewissen Punkt, dieser „Punkt“ wird auch Compton-Kante genannt, unterhalb der
spezifischen Energie des Photons liegt. Wenn die spezifische Energie eines Photons zum
Beispiel 600keV betragen würde, dann könnte durch den Compton-Effekt eine Energie
von 400keV geliefert werden. Es ist also möglich, dass angenommen wird es seien zwei
unterschiedliche Gammastrahler in der Probe vorhanden. Glücklicherweise sind die
Impulse, die durch den Compton-Effekt entstehen relativ gleich verteilt und erreichen
kaum die Intensität eines Photopeaks. Dennoch zieht jeder Photopeak einen solchen
Rattenschwanz aus schwächeren Impulsen, welche von 0keV bis zur Energie der
Compton-Kante reichen, hinter sich her. Dies wird auch Compton-Kontinuum genannt. Da
im niedrigeren Bereich des Energiespektrums immer mehr Compton-Kontinuen
aufeinandertreffen, je nachdem wie viele Photopeaks, also unterschiedliche
Gammastrahler, in der Probe vorhanden sind, bildet sich dort oft ein sichtbarer Hügel, oder
eine Steigung. Umgekehrt flacht das Spektrum im höheren Bereich immer weiter ab, da
4
Abbildung 1: Beispielspektrum
weniger Compton-Kontinuen vorhanden sind.
Das Compton-Kontinuum trägt einen Großteil zum Untergrund bei. Der Untergrund füllt
fast den kompletten Bereich zwischen Gammaspektrum und x-Achse aus. Ebenso spielt
hier auch die Umgebungsstrahlung eine Rolle, welche eigentlich immer vorhanden ist und
die man nur schwer ausschließen kann.
Ein weiterer Störfaktor ist das in der Elektrotechnik bekannte Rauschen, welches auch im
obigen Spektrum sehr gut erkannt werden kann.
Dies sind nur einige Störungen, die eine Rolle spielen.
Es werden somit sehr viele Störgrößen ungewollt mit betrachtet und diese Störgrößen
müssen durch Werkzeuge, wie zum Beispiel Algorithmen, entfernt werden. Da ich mich in
dieser Bachelorarbeit auf die Untersuchung von Algorithmen zur Bestimmung des
Untergrundes beziehe, werde ich mich im Weiteren auf diese beschränken und die
anderen Probleme größtenteils außer Acht lassen.
Nun gibt es natürlich bereits Algorithmen, mit denen sich der Untergrund von Gammaspektren
bestimmen lässt. Das Problem hierbei ist, dass diese meist nur bei bekannten
Spektren funktionieren, auf die sie, mehr oder weniger, speziell zugeschnitten sind. Wenn
diese Algorithmen eins zu eins auf ein unbekanntes Spektrum angewandt würden, kann es
schnell vorkommen, dass die Untergrundbestimmung misslingt und weit vom angestrebten
Ergebnis entfernt ist.
Einen einzelnen Algorithmus zu entwickeln, der für alle Spektren einsetzbar wäre, ist aber
auch keine Möglichkeit. Der Aufwand und die Kosten wären noch viel zu hoch. Außerdem
würde sich keine Firma finden,welche sich an solch ein Projekt wagen würde, da auch viel
zu wenige Abnehmer dafür vorhanden sind.
Darum werde ich in dieser Arbeit kleinere, einfachere Algorithmen genauer untersuchen,
um zu verstehen, wie sich diese auf unterschiedliche Spektren anwenden lassen. Das
damit entstehende Ergebnis ist wahrscheinlich nicht perfekt, aber gut genug, um damit
arbeiten zu können.
Ziel dieser Arbeit ist es, zwei Algorithmen zur Untergrundbestimmung zu evaluieren und
einen Überblick über folgende Themen zu geben:
– Einen Ausblick über die Auswirkungen der einzelnen Parameter der Algorithmen zu
geben, um zum Beispiel schnell abschätzen zu können, welcher Parameter in
einem konkreten Fall verändert werden muss.
– Einen groben Rahmen festzulegen, in dem die einzelnen Parameter gewählt
werden können, sodass mit hoher Wahrscheinlichkeit ein gutes Ergebnis erreicht
wird.
– Stärken und Schwächen der Algorithmen herausarbeiten, um zum Beispiel die
Verwendung eines Algorithmus auszuschließen, der sich für den beabsichtigten
Zweck nur schwer oder gar nicht einsetzen ließe.
5
– Einen schnellen Überblick über die Möglichkeiten geben, um mit den Algorithmen
ohne großes Vorwissen zu arbeiten.
In der Kernresonanzspektroskopie, wie auch in anderen spektroskopischen Disziplinen, unterliegt die
Genauigkeit und Vollständigkeit eines Spektrums den verschiedenen Einstellungen des Messgeräts
sowie dem verwendeten Gerätetypen. Um das gemessene Spektrum besser analysieren zu können,
wird versucht, es an die Realität anzunähern. Eine allgemeine Annahme dazu ist, dass mehrere, sich
teilweise überlagernde Peaks das Spektrum bilden. Alle Peaks verlaufen dabei gemäß einer Funktion,
deren Modellparameterwerte variieren.
Es gibt verschiedene Ansätze zur Bestimmung des Spektrums, zum Beispiel die Modellanpassung und
die Maximum-Entropie-Methode. Eine große, gegen Unendlich strebende Anzahl an Peaks scheint
die gemessenen Spektrumdaten am besten nachzubilden. Dies ist jedoch wenig naturgetreu.
In dieser Arbeit gehe ich dem Bayes’schen Ansatz zur Datenanalyse nach, um die Peakanzahl auszumachen,
für die die größte Wahrscheinlichkeit in den Messdaten liegt.
Während meiner Diplomarbeit hat sich die anfängliche Annahme, dass die Peaks nach der Lorentz-
Funktion geformt sind, revidiert. Letztendlich habe ich versucht, die Bestimmung der Peakanzahl mit
Peaks in Form des Pseudo-Voigt-Profils durchzuführen.
Für die Berechnung der Posterior-Wahrscheinlichkeit einer Peakanzahl war es nötig, ein multiples
Integral zu lösen. Dieses entstand durch die Marginalisierung einiger Störparameter.
Ein Ziel dieser Diplomarbeit war es, das multidimensionale Integral numerisch zu berechnen. Umgesetzt
werden sollte dies mit dem VEGAS-Algorithmus, der das Monte-Carlo-Verfahren zur Integration
verwendet. Ich habe den Algorithmus und die Anwendungen der Arbeit in Matlab implementiert.
Um die Integration mit dem VEGAS-Algorithmus zu testen, habe ich eine Beispielanwendung zur
Integration unterschiedlich dimensionaler Rosenbrock-Funktionen durchgeführt.
Die Anwendung zur Bestimmung der Peakanzahl in einem Spektrum habe ich zunächst für simulierte
Daten mit zwei unterschiedlichen Formeln der Lorentzfunktion umgesetzt.
Die erste Lorentzfunktion enthält zwei Modellparameter, die Lage der Amplitude und die Halbwertsbreite,
und ist zu eins normiert. Bei ihr ist die Amplitude abhängig von der Halbwertsbreite.
Die zweite Formel besteht aus drei unabhängigen Modellparametern: der Amplitude, ihrer Lage und
der Halbwertsbreite. Damit ist sie für die Auswertung realer Messdaten geeigneter als die vorherige
normierte Lorentzfunktion.
Bei der Anwendung mit simulierten Daten mit drei Modellparametern sowie mit gemessenen Daten
und dem Modell des Pseudo-Voigt-Profils konnte die Anzahl der Peaks nicht bestimmt werden.
Die Schwierigkeit der Bestimmung der Peakanzahl mit dem VEGAS-Algorithmus lag anscheinend
bei der Integration über die Amplitude. Zur Klärung des Problems habe ich die Anwendung mit
dem Pseudo-Voigt-Profil und den realen Messdaten über einen anderen Lösungsweg zur numerischen
Integration, mit einer Likelihood-Matrix, untersucht.
Dadurch kam die Vermutung auf, dass die Diskretisierung in y-Richtung durch das Importance
Sampling des VEGAS-Algorithmus nicht konform mit der Messpunktverteilung ist. Ich habe versucht
über eine Präzisionsanpassung der Amplitudenstützwerte das Problem zu lösen, was teilweise gelang.
Die in dieser Arbeit erstellte Anwendung kann zur Plausibilitätsprüfung von Ergebnissen anderer
Bayes’ basierter Verfahren zur Peakanzahlbestimmung dienen.
Mit geschätzten Werten für die Modellparameter aller Peaks wird die multiple Integration mit dem
VEGAS-Algorithmus nicht gebraucht. Die Posterior-Wahrscheinlichkeiten können somit berechnet
werden und eine quantitative Bewertung der Ergebnisse unterschiedlicher Peakzahlen für das gemessene
Spektrum liefern.
In dieser Arbeit wird eine Software entwickelt, um das Koppeln des Thalmic MYOArmbands
mit dem Stimulator MotionStim8 zu vereinfachen. In einer vorherigen Arbeit
[15] wurden für die Kopplung MATLAB Skripte benutzt. Diese sollen durch die
Software vollständig ersetzt werden. Auÿerdem soll der Stimulator eine drahtlose Anbindung
über zwei British Broadcasting Corporation (BBC) micro:bit Systeme erhalten.
Dazu wird zuerst eine Anforderungsanalyse durchgeführt, woraus konkrete UseCases der
Software formuliert werden konnten. Hierzu werden aus der Problemstellung und den
daraus resultierenden Zielen dieser Arbeit Funktionale und nicht-Funktionale Anforderungen
extrahiert. Es müssen Gesten, sowie deren Myo- und Stimulations-Daten verwaltet
werden können. Auch müssen sowohl Myo-Armband als auch MotionStim8 drahtlos
angebunden, sowie gekoppelt werden.
Nachdem die Anforderungen feststehen, wird ein Konzept zur Umsetzung entwickelt.
Dazu wird eine Entwicklungsumgebung gewählt und eine Softwarearchitektur ausgearbeitet.
Es wird ein Model-View-Controller (MVC)-Modell angestrebt. Für die Entwicklungsumgebung
der Steuersoftware wird VisualStudio, bzw. C#, und für die drahtlos
Anbindung Mu, bzw. MicroPython, verwendet. Auch wird eine Übersicht über die Komponenten
angefertigt. Daraus sind die Hardware-Schnittstellen, PC zu micro:bit, micro:
bit zu micro:bit, micro:bit zu MotionStim8, sowie Myo-Armband zu PC, ableitbar.
Für das Myo-Armband existieren bereits Software-Bibliotheken, welche eingebunden werden
können und somit das Entwickeln einer eigenen Schnittstelle nicht notwendig machen.
Zum Schluss der Konzeption werden Ideen für eine Benutzeroberäche erarbeitet. Dafür
werden die Nicht-Funktionalen Anforderungen, modularer Aufbau sowie Benutzerfreundlichkeit
und Übersichtlichkeit, aus der Anforderungsanalyse aufgegrien. In dieser Phase
werden bereits erste MockUps erstellt.
Die Implementierung ndet in zwei Schritten statt.
Die Drahtlosfunktion, bzw. der Python-Teil, kann separat entwickelt werden. Dafür werden
die seriellen Schnittstellen, PC zu micro:bit und micro:bit zu MotionStim8, sowie
die Übertragung zwischen den beiden micro:bits implementiert. Auÿerdem werden die
Befehle im micro:bit an die benötigte Command Structure des Stimulators angepasst.
Die Steuersoftware beinhaltet eine Graphical User Interface (GUI) mit modulübergreifenden
Funktionen. Die einzelnen Module, Myo Controller, Stimulation Controller und
Gesture Controller besitzen ihre eigene Oberäche und können in die GUI modular integriert
werden. Die Gesten-, Myo- und Stimulations-Daten können über das jeweilige
Modul verwaltet werden. Über das Beenden der Anwendung hinaus werden alle Daten
in einer Extensible Markup Language (XML)-Datei gespeichert. Die Kopplung des Myo-
Armbands mit dem MotionStim8 ndet über einen Mapper statt, welcher eine Mapping-
Matrix für eine Geste errechnet. Dafür müssen vorab Myo- und Stimulations-Daten für
jede Position dieser Geste gesetzt werden. Die Echtzeitfunktion wird übergeordnet über
die GUI gestartet und berechnet für eingehende Myo-Daten die Pulsweiten für die Stimulation.
Für diese Berechnung wird die Mapping-Matrix benötigt.
Hiernach kann die entwickelte Steuersoftware für die denierten Anforderungen, bzw.
UseCases, verwendet werden.
3D-Ultraschall beim MITK
(2017)
In dieser Bachelorthesis wird ein Frei-Hand-3D-Ultraschallsystem entwickelt. Dieses
soll 3D-Ultraschallbildgebung im MITK ermöglichen. Basis hierfür sind ein konventionelles
2D-Ultraschallgerät und ein optisches Trackingsystem. Die nötigen Teilschritte
werden erläutert und beschrieben.
Ergebnis ist ein Plugin für das MITK, das aus aufgenommenen 2D-Ultraschallbildern
ein 3D-Volumen berechnet.
Initial results of an ongoing research in the field of reactive mobile autonomy are presented. The aim is to create a reactive obstacle avoidance method for mobile agent operating in dynamic, unstructured, and unpredictable environment. The method is inspired by the stimulus-response behavior of simple animals. An obstacle avoidance controller is developed that uses raw visual information of the environment. It employs reinforcement learning and is therefore capable of self-developing. This should result with obstacle avoidance behavior that is adaptable and therefore generalizes on various operational modalities. The general assumptions of the agent capabilities, the features of the environment as well as the initial result of the simulation are presented. The plans for improvement and suitable performance evaluation are suggested.
A considerable amount of research in the field of modern robotics deals with mobile agents and their autonomous operation in unstructured, dynamic, and unpredictable environments. Designing robust controllers that map sensory input to action in order to avoid obstacles remains a challenging task. Several biological concepts are amenable to autonomous navigation and reactive obstacle avoidance.
We present an overview of most noteworthy, elaborated, and interesting biologically-inspired approaches for solving the obstacle avoidance problem. We categorize these approaches into three groups: nature inspired optimization, reinforcement learning, and biorobotics. We emphasize the advantages and highlight potential drawbacks of each approach. We also identify the benefits of using biological principles in artificial intelligence in various research areas.
Im Rahmen eines Kooperationsprojektes zwischen dem Heidelberger Institut für Medizinische Informatik und Biometrie (IMBI) und der Mund- Kiefer und Gesichtschirurgie (MKG) des Universitätsklinikums Heidelberg soll ein MITK-Plugin für die Segmentierung von knöchernen Strukturen aus Schichtbilddaten der Computertomographie (CT), sowie der digitalen Volumentomographie (DVT) mit möglichst wenigen Nutzerinteraktionen entwickelt und evaluiert werden.
Hierbei ist insbesondere eine hohe Segmentierungsqualität im Bereich des Kiefers und der Zähne relevant. Dabei erweisen sich Zahnspangen bzw. Zahnfüllungen als besondere Herausforderung. Die Arbeit, sowie das MITK-Plugin behandelt drei Aufgabenbereiche. Es handelt sich dabei um die Metallartefaktreduktion (MAR), Segmentierung und Oberflächenrekonstruktion. Die bildbasierte Artefaktreduktion kann auf CT-Datensätze entweder manuelle oder automatisch angewendet werden. Dabei stehen zwei verschiedene Methoden zur Auswahl. Es handelt sich dabei um die lineare Interpolation (LI) und die rohdatenfreien MAR (RFMAR). Ziel der Artefaktreduktion ist eine verbesserte 3D-Visualisierung. Dabei zeigen die Methoden stellenweise eine Verbesserung durch reduzierte schwarzer Schatten im Bereich der Metalle. Problematisch wirken sich neue Artefakte, welche durch die Reduktion enstehen, auf das Ergebnis der 3D-Visualierung aus. Für die Segmentierung sind zwei Verfahren implementiert worden. Es handelt sich dabei um ein eigenes automatisches Verfahren LCC (Largest Connected Component), und um einen Region Grower. Das automatische Verfahren ist hierbei robust gegenüber einer ungewollt segmentierten Patientenliege, hat aber den Nachteil dass unter Umständen nicht alle knöchernen Strukturen segmentiert werden. Für diesen Fall kann der Region Grower eingesetzt werden, welcher durch Benutzerinteraktion den Nachteil des LCC-Verfahrens ausgleicht. Die Verfahren zeigen im Bezug auf CT-Datensätze gute Ergebnisse. Durch den schlechten Knochenkontrast des verwendeten DVT-Gerätes müssen bei der Segmentierung der DVT-Datensätze Kompromisse eingegangen werden. Durch eine Histogramm-Analyse hat sich für die automatische Schwellwertbestimmung nach Otsu eine Mindestanzahl von drei Otsu-Schwellwerten ergeben. Weiterhin wurde das LCCVerfahren gegenüber einer Referenzsegmentierung eines MKG-Chirurgen evaluiert. Die Evaluierung zeigt, dass die Wahl zwischen drei und sechs Otsu-Schwellwerte keine signifikanten Auswirkungen auf die Genauigkeit der Segmentierung hat. Durch einen Kompromiss zwischen Laufzeit und Segmentierungsqualität wird die Verwendung von vier Otsu-Schwellwerten empfohlen.
Mobile Signalverarbeitung auf dem Raspberry Pi mit Aspekten der Vernetzung mehrerer Messgeräte
(2016)
Bei dem Raspberry Pi handelt es sich um einen Einplatinen-Computer, welcher ich seit dem Verkaufsstart im Jahr 2012 sehr groÿer Beliebtheit erfreut. Nicht zuletzt aufgrund des hohen Grades an Kompatibilität und der groÿen Online-Community wurden bis zum heutigen Tage unzählige Projekte realisiert. In der Zwischenzeit ist der Raspberry Pi in verschiedenen Anwendungsgebieten und Branchen anzutreffen. Dies ist insofern interessant, da dieser ursprünglich für den Einsatz in Bildungseinrichtungen auf Basis einer Stiftung entwickelt wurde [1]. Dabei stellen Anwendungen wie eine Smart-Home Steuerung, ein Multimedia-Center oder eine Wetterstation nur einen Bruchteil der Möglichkeiten dar. Grundlage dieser vielfältigen Anwendungsgebiete ist die Unterstützung sämtlicher standardisierter Hard- und Software-Schnittstellen, zum Beispiel USB, Audio-Klinke, Serial Peripheral Interface (SPI) oder Inter-Integrated Circuit (I2C). Dadurch wird die Einbindung von beispielsweise Global Positioning System (GPS)-Modulen, Wireless Local Area Network (WLAN)-Empfängern oder sogar der eigenen Spiegelreflexkamera ermöglicht. Weiterhin ist mit Hilfe eines Mikrofons die Entwicklung einer Sprachsteuerung denkbar. Der mögliche Anwendungsbereich des Raspberry Pi geht noch weit über die hier genannten Beispiele hinaus. Eine der Schnittstellen des Raspberry Pi stellen die sogenannten General Purpose Input Output (GPIO)-Ports dar. Hierbei handelt es sich um analoge und digitale Ein- und Ausgänge worüber Hardware-Komponenten direkt auf physikalischer Ebene eingebunden werden können. Der Raspberry Pi eignet sich auch zum Nachweis radioaktiver Strahlung.
Ziel der Arbeit soll die Entwicklung eines Gerätes zur Messung der Strahlendosis sein. Dazu gehört die Verwendung eines Geiger-Müller-Zählrohrs, welches mittels eines Arduino Shields ansprechbar ist. Weiterhin sollen im Rahmen dieser Arbeit verschiedene Möglichkeiten zur Weiterentwicklung des Systems betrachtet werden. Das Geiger-Shield, zu dem das Geiger-Müller-Zählrohr und das Arduino-Shield gehören, wurden von dem Hardware-Hersteller Libelium im Jahr 2011 entwickelt. Anlass war der Tsunami in Japan, welcher die Atom-Katastrophe von Fukushima nach sich gezogen hat [2]. Das Geiger-Shield sollte den Alltag der Menschen in Japan vereinfachen, indem sie selbst die Strahlendosis messen konnten. Mit einem Mikrocontroller, einem einfachen LC-Display und einem Akku konnte so jederzeit die aktuelle Strahlendosis bestimmt werden.