000 Allgemeines, Informatik, Informationswissenschaft
Refine
Document Type
- Bachelor Thesis (6)
- Master's Thesis (6)
- Diploma Thesis (1)
Has Fulltext
- yes (13)
Is part of the Bibliography
- no (13)
Keywords
- Applikation (2)
- Maschinelles Lernen (2)
- Neuronales Netz (2)
- Simulation (2)
- Alzheimer (1)
- Android (1)
- Angststörung (1)
- Betriebssystem (1)
- Bildgebung (1)
- Bildverarbeitungsprogramm (1)
Institute
- Informatik (12)
- Bibliothek (1)
The e-commerce turnover has a constant growth rate of about 10%. An additional increase
in complexity and traffic spikes clarify the need for a scalable software architecture to prevent
a potential technical debt, higher financial cost, longer maintenance, or a reduced reliability.
Due to the fact, that existing approaches like the Palladio Approach require a high modelling
overhead and the importance of dropping this overhead was identified this master thesis is
focused on the modelling and simulation of e-commerce web application architectures using
a high-level approach to provide a faster, but possibly more inaccurate prediction of the
scalability.
This is done by the usage of the Design Science Research Process as a frame, a scientific
literature review for use of the existing knowledge base and the Conical Methodology for the
artefact creation. The artefact is a graphical model which is evaluated using a simulation
developed with Python and its framework SimPy. For model creation and evaluation a total
of twelve papers investigating the scalability of e-commerce web application architectures is
split into a test and train group. The training group and parts of the scientific research are
used to identify the components load balancer, application server, web tier, ERP system,
legacy system and database as well as some general characteristics that need to be considered.
The components with the most modelling variables are the application server and web
tier with a total of thirteen, while the ERP and legacy system only required five.
The model is evaluated using a total of three papers from the test group, where an average
throughput error of 5.78% and a response time error of 46.55% or 26.46% was identified. An
additional evaluation based on two non-e-commerce architectures shows the usability of the
model for other types of architectures. Even though the average error gives the impression,
that the model is not providing a good estimation, the graphical results show, that the model
and its simulation can be used to provide a faster scalability prediction. The model is least
accurate for the prediction of the situation, where the response time increases exponentially,
as this is the point, where variables, only accountable for some percentage and thus ignored
for the model, have the highest influence.
Future research can be found in the extension of the model by either adding or investigating
additional components, adding features ignored within this work or applying it to other
types of web application architectures. Additionally, both the low-level and the high-level
approaches can be brought together to combine the advantages from both approaches.
Die heutige Software-Entwicklung ist davon geprägt, dass Anwendungen immer komplexer
und aufwändiger werden. Gleichzeitig steigen die Erwartungen der Kunden an
die Qualität der Software.
Für die Software-Entwickler ist die Telemetrie zu einem unverzichtbaren Werkzeug
geworden. Sie ist ein wesentlicher Baustein, um die Beobachbarkeit (Observability)
von Applikationen zu erhöhen und somit die Grundlage für eine bessere Qualität in
der Software Entwicklung. Hierbei ist zu analysieren, welche Bedeutung die Telemetrie
für den gesamten Software Development Life Cyle hat.
Der aktuelle Stand der Software-Telemetrie wird am Beispiel des Projektes OpenTelemetry
dargelegt.
OpenTelemetry hat sich zum Ziel gesetzt, die universelle Plattform für den Austausch
von Telemetriedaten zu werden.
Die Ergebnisse des Projektes OpenTelemetry werden analysiert und bewertet.
Auf dem Markt der Android Applikationen gibt es ein breites Spektrum an
Lernanwendungen. Allerdings exisitiert ein Mangel an gut strukturierten
inhaltlichen Zusammenfassungen der schulischen Themen, gerade im
Fach Mathematik.
Mein Ziel der Bachelorarbeit ist, eine Education App zu entwickeln, diese
im realen Betrieb zu testen und somit einen Lösungsansatz für den
Mangel an solchen Apps zu erhalten. Ich werde am Beispiel der 8. Klasse
Realschule im Fach Mathematik eine thematische Zusammenfassung
erzeugen und als App umsetzen. Mathematische Grundlage hierfür bildet
das Schulbuch Schnittpunkt 8 des Klettverlages (Differenzierende
Ausgabe, 2015).
Bugfixing und Evaluierung verläuft Hand in Hand, um am Ende des
Entwicklungsprozesses eine voll funktionsfähige, getestete App zu
bekommen.
Mit Hilfe eines Fragebogens wird dabei direkt auf die Zielgruppe
eingegangen.
Die App wird im Anschluss des Entwicklungsprozesses nach dem Open-
Closed Prinzip fungieren. Ist also für Erweiterungen offen. Diese Funktion
erreiche ich durch genau definierte Schnittstellen. Es wird möglich sein,
neue Klassen ebenso wie Schularten hinzuzufügen. Als
Entwicklungsumgebung dient mir IntelliJ, als Testgerät ein Samsung
Smartphone.
Die App wird den Namen MaTHive Spectre tragen, um direkt auf das
Potential aufmerksam zu machen und einen einprägsamen Namen zu
erhalten.
Ein Tumor ist eine örtlich umschriebene Zunahme des Gewebevolumens, im engeren
Sinn eine gewebliche Neubildung, ein Geschwür in Form eines enthemmten und
irreversiblen Überschusswachstums von körpereigenem Gewebe [33].
,,In Europa sind 3-5% [...] aller malignen Tumoren des Menschen Tumoren der Mundhöhle,
davon stellen die Plattenepithelkarzinome mit 95% den größten Anteil.” [28].
Nur 25-40% der Patienten mit Lymphknotenmetastasierung erreichen die 5-Jahres-Überlebensrate im Gegensatz zu ca. 90% der Patienten ohne Metastatisierung [29].
Oft werden diese Tumore spät erkannt und müssen deshalb durch eine Operation
entfernt werden. Das Plattenepithelkarzinom kann den Kiefer infiltrieren, die notwendige
Resektion des Tumors kann zu einer Verschlechterung der Ästhetik, zum Verlust der Kaufunktionalität und der Sprechfunktionalität führen.
Im Universitätsklinikum Heidelberg (UKHD) werden verschiedene Verfahren zur
Rekonstruktion angewandt, wie die Rekonstruktion mithilfe der körpereigenen Fibula(dt.Wadenbein), deren Schaft dafür entnommen wird. Aus diesem Schaft werden Segmente gesägt, mit welchen dann der ursprüngliche Verlauf der Mandibula
(dt. Unterkiefer), in dem resezierten Bereich, rekonstruiert wird. Die Rekonstruktion
erfolgt mit einer speziellen Platte auf welcher die Fibulasegmente befestigt werden. Diese Platte wird anschließend am Restunterkiefer fixiert.
Die Schwierigkeit besteht in der Nachbildung des Unterkieferverlaufs und der Erhaltung
des Kiefergelenks. Bei dieser Operation muss die Ischämiezeit, die Zeit, welche ein Organ ohne Blutversorgung schadlos überstehen kann, berücksichtigt
werden. Ohne eine genaue Schnittführung ist die Wahrscheinlichkeit größer, dass
die gesägten Segmente nachbearbeitet werden müssen, was wiederum ein zeitliches
Problem ist.
Deshalb wird Rekonstruktion mit Cutting-Guides (dt. Sägeschnittschablone) unterstützt. Diese Guides werden nach der Planung der Operation angefertigt. Sie
werden in der Mund-, Kiefer- und Gesichtschirurgie (MKG) des UKHD von einem
Zahntechniker hergestellt. Alternativ gibt es industrielle Dienstleister, die diese Guides herstellen können. Diese sind jedoch wesentlich teurer als die in der MKG etablierte Lösung.
In this bachelor thesis, different models for predicting the influenza virus are
examined in more detail.
The focus is on epidemiological compartmental models, as well as on different
Machine Learning approaches.
In particular, the basics chapter presents the SIR model and its various extensions.
Furthermore, Deep Learning and Social Network approaches are
investigated and the applied methods of a selected article are analysed in more
detail.
The practical part of this work consists in the implementation of a Multiple
Linear Regression model and an Artificial Neural Network. For the development
of both models the programming language Python was chosen using the
Deep Learning Framework Keras.
Tests were performed with real data from the Réseau Sentinelles, a French
organisation for monitoring national health.
The results of the tests show that the Neural Network is able to make better
predictions than the Multiple Linear Regression model.
The discussion shows ideas for improving influenza prediction including the
establishment of a worldwide collaboration between the surveillance centres as
well as the consolidation of historical data with real-time social media data.
Therefore, this work consists of a state-of-the art of models regarding the
spread of influenza virus, the development and comparison of several models
programmed in Python, evaluated on real data.
Alzheimer’s Disease affects millions of people worldwide, but till today, the gold standard
for definitive diagnosis of this disease is a biopsy. Nevertheless, with the progress
of the disease, a volume loss in the Hippocampus can be observed. Therefore, good
segmentation methods are crucial to facilitate quantification of this loss.
The focus of this work is on the development of a Machine Learning algorithm, more
precisely a Generative Adversarial Network, for the automated segmentation of the
human Hippocampus and its substructures in Magnetic Resonance Images. In particular,
the task is to determine if the integration of a pre-trained network that generates
segmentations into a Generative Adversarial Network scheme can improve generated
segmentations. In this context, a segmentation network in form of a U-net corresponds
to the generator. The discriminator is developed separately and merged in a second
step with the generator for combined training.
With a literature review regarding the automated segmentation of the Hippocampus,
current methods in this field and their medical and technological basics were identified.
The datasets were preprocessed to make them suitable for the use in a neural
network. In the training process, the generator was trained first until convergence.
Then, the Generative Adversarial Network including the pre-trained generator was
trained. The outcomes were evaluated via cross-validation in two different datasets
(Kulaga-Yoskovitz and Winterburn). The Generative Adversarial Network scheme
was tested regarding different architectural and training aspects, including the usage
of skip-connections and a combined loss function.
The best results were achieved in the Kulaga-Yoskovitz dataset with a Dice coefficient
of 90.84 % after the combined training of generator and discriminator with a joined
loss function. This improves the current state of the art method in the same task and
dataset with a Dice index of 88.79 % by Romero [Rom17]. Except of two cases in the
Winterburn dataset, the proposed combined method could always improve the Dice
results after the training of only the generator, even though only by a small amount.
Virtuelle und reale Objekte als natürliche Bewegungsgrenzen in der Virtual Reality Exposure Therapy
(2019)
Zur Behandlung von Angststörungen – welche mit zu den häufigsten psychischen Erkrankungen in Deutschland gehören – bietet die klassische Expositionstherapie gute Erfolgsaussichten [1]. In den letzten Jahren entwickelte sich die Virtual Reality Exposure Therapy (VRET), welche eine interessante Alternative darstellt. Eine Studie zeigte 2013 die Effektivität einer VRET [2]. Problematisch ist allerdings die Lokomotion in psychotherapeutischen Praxen mit geringem Raumangebot. Gängige Sicherheitssysteme zur Kollisionsvermeidung wie Lighthouse‘s Chaperone [3] [4] oder Occulus Guardian [5] zeigen bei Annäherung an die Grenzen des sicheren Bereiches eine auffällige optische Warnung an. Dies kann jedoch bei den Benutzern zu unerwünschten Präsenzeinbrüchen (breaks in presence) führen.
Simeone et al. [6] konnten nachweisen, dass in einer virtuellen Umgebung rein virtuelle Gegenstände oder Wände von den Benutzern als real wahrgenommen und umgangen werden. Dieser Effekt liess sich durch zusätzliche reale Gegenstände im Raum noch verstärken.
In dieser Masterarbeit wurde untersucht, ob sich die Ergebnisse von Simeone et al. [6] auch auf die Anwendung der VRET übertragen lassen.
Dazu wurde eine Studie mit 2 Gruppen zu je 12 Probanden durchgeführt. Alle hielten 2 Vorträge in einer virtuellen Umgebung, je einen Vortrag mit Avatar und einen ohne. Während eine Gruppe sich in einer virtuellen Umgebung mit ausschliesslich virtuellen Objekten bewegte, waren in der anderen Gruppe zusätzlich reale Gegenstände vorhanden.
In der vorliegenden Masterarbeit konnte gezeigt werden, dass die Ergebnisse von Simeone et al. [6] auch für VRET Anwendungen gültig sind. Virtuelle Objekte werden auch von Patienten eines VRET Systems als Begrenzungen akzeptiert. Zudem lassen sich physische Objekte in die virtuelle Umgebung integrieren, ohne dass es zu Kollisionen mit den Benutzern kommt oder die Benutzer eine erhöhte Angst vor Kollisionen haben. Obwohl das Vorhandensein eines Avatars in der durchgeführten Studie keinen Einfluss auf die Ergebnisse hatte, wünschen sich die Benutzer einen Avatar in der VR.
Der sichere Aufenthaltsbereich kann also bereits in der virtuellen Umgebung durch virtuelle Objekte abgegrenzt werden, wodurch - zugunsten der Vermeidung von Präsenzeinbrüchen - auf ein System wie Lighthouse`s Chaperone [3] [4] verzichtet werden kann. Ausserdem müssen reale Gegenstände nicht aus dem Bewegungsbereich der Benutzer ausgeschlossen werden, sondern lassen sich in die virtuelle Umgebung integrieren. Dies stellt eine praktikable Möglichkeit dar, den für VRET nutzbaren Raum in psychotherapeutischen Einrichtungen zu optimieren. Somit stellt die VRET eine echte Alternative zur klassischen Expositionstherapie dar.
Medical imaging produces many images every day in clinical routine. Keeping up with the
daily image analysis task and this vast amount of data is quite a challenge for radiologists.
However, these analysis tasks can be automated with well-proven automatic segmentation
methods. Segmentation reviewing of an expert is necessary because learningbased
automatic segmentation methods may not perform well on exceptional image
data. Creating valid segmentations by reviewing them also improve the learning-based
methods.
Combining established standards with modern technologies creates a flexible environment
to efficiently evaluate multiple segmentation algorithm outputs based on different metrics
and visualizations and report these analysis results back to a clinical system environment.
The presented software system can inspect such quantitative results in a fast and intuitive
way, potentially improving the daily repetitive segmentation review and rework of a
research radiologist. The presented system is designed to be integrated into a virtual
distributed computing environment with other systems and analysis methods. Critical
factors for this particular environment are the handling of many patient data and routine
automated analysis with state of the art technology.
First experiments show that the time to review automatic segmentation results can be
roughly divided in half while the confidence of the radiologist is enhanced. The system
is also able to highlight individual slices which are essential for the expert’s review
decision. For this highlighting, different metric scores are compared and evaluated.
Aufgrund der unterschiedlichen Wiederbelebungsabläufe zwischen Erwachsenen
und Kindern, müssen bei der Reanimation eines Kindes andere Behandlungsmaßnahmen
durchgeführt werden. So müssen z.B. Medikamente anders dosiert werden.
Hinzu kommt, dass eine Reanimation an einem Kind nur selten durchgeführt wird.
Dadurch sind Mediziner mit einer Wiederbelebungsmaßnahmen an Kindern aufgrund
mangelnden Routine unsicher bzw. führen falsche Behandlungsmaßnahmen
durch. Zwar sind bereits Leitlinien in digitaler Ausführung vorhanden, jedoch
werden diese in einer für eine Reanimation ungeeigneten Form ausgegeben und
können so nur schlecht in einer Wiederbelebungsmaßnahme genutzt werden. Um
Behandlungsfehler zu minimieren wird in dieser Arbeit untersucht, ob eine Datenbrille
zur Darstellung der Leitlinien verwendet werden und der Mediziner diese
mittels Sprachkommandos steuern kann. Um die Qualität der Sprachsteuerung im
Umgang mit den Leitlinien festzustellen, wurde eine Evaluation dieser durchgeführt.
Dafür wurden die Anwendung mit zehn Personen getestet. Diese ergab, dass
die Nutzung der Sprachsteuerung durch Auswahl geeigneter Sprachkommandos
sowohl bei Zimmerlautstärke, als auch bei Straßenlärm möglich war. Somit ist die
Steuerung einer Datenbrille mit Sprachkommandos in einer Reanimation denkbar,
um den Mediziner durch Informationen zu unterstützen .
Konzeption und Entwicklung einer robotergestützten und ultraschallbasierten Lokalisationskontrolle
(2018)
Mit Hilfe der Image Guided Therapy wird versucht die Bestrahlung von Tumoren mittels
Bildgebung zu verbessern und die Nebenwirkungen durch die Bestrahlung für den
Patienten zu minimieren. Diese Arbeit verfolgt den Ansatz Ultraschall als echtzeitfähige
Bildverarbeitungsmodalität zu nutzen und darüber eine Lokalisationskontrolle
von Tumoren während der Bestrahlung zu ermöglichen.
Ziel dieser Arbeit war die Entwicklung und Implementierung eines Gesamtkonzeptes
zur ultraschallbasierten und robotergestützten Lokalisationskontrolle. Ergebnis der
Arbeit ist eine auf dem medizinischen Bildverarbeitungsprogramm MITK basierte Applikation.
Diese erlaubt es ein 2D Ultraschallbild über ein Tracking-System oder den
Roboter zu referenzieren und mit registrierten Planungsdaten überlagert darzustellen.
Die Darstellung ist dabei in quasi Echtzeit sowohl in 2D als auch in 3D möglich. Zur
Registrierung wurde ein optisches Tracking-System verwendet, welches über einen eigens
neu entwickelten Filter mit dem Roboter verknüpft werden kann. Weiter lässt
sich aus der Applikation heraus der Roboter steuern und es können automatisierte
Scanverfahren genutzt werden, um mit Hilfe eines 2D Ultraschallkopfes ein 3D Ultraschallbild
zu erstellen. Die Anwendung knüpft an bestehenden Funktionen an und
erlaubt es künftigen Nutzern die neu erstellten Komponenten auch getrennt voneinander
weiter zu verwenden. Dazu gehören Filter für die Zuordnung der Ultraschallbilder,
sowie ein Filter zum Kombinieren von verschiedenen Tracking-Systemen, als auch die
Möglichkeit den Roboter zu nutzen.
Das Ziel dieser Bachelorarbeit war es, ein Programm zu entwickeln, welches die doppelte
Lichtbrechung und die Reflexion eines Laserstrahls berechnen kann. Hierbei wird zuerst auf
die physikalischen Grundlagen eingegangen. Anschließend wird das dazu verwendete Programm
mit dem Algorithmus inklusive den Berechnungen vorgestellt. Das Programm kann
die doppelte Lichtbrechung und auch die Reflexion eines Laserstrahls berechnen und zusätzlich
bestimmen, ob der Laserstrahl gebrochen oder total reflektiert wird. Die Prüfung dafür,
erfolgt über den Größenvergleich zwischen dem Einfallswinkel und dem kritischen Winkel.
Der Algorithmus ist für beliebige Laserstrahlen unter Berücksichtigung der Brechungsindexe
geeignet.
Im Mittelpunkt dieser Arbeit steht die Entwicklung eines Verfahrens für das Erzeugen
von möglichst realitätsnahen Telepräsenzsimulationen für die Information von Patienten
in der Strahlentherapie sowie die Anwendung des Verfahrens in der Entwicklung
einer VR-Applikation auf Basis eines Demonstrators.
Nach einer Literaturrecherche bezüglich des aktuellen Stands der Aufklärung von Patienten
wurden die Grundlagen von Virtual und Augmented Reality hinsichtlich der
gegebenen Hardware ermittelt. Hierauf folgte die Auswahl von Software für das Scannen
von realen Objekten mit dem gegebenen Tablet in einem Bestrahlungsraum des
DKFZ sowie die Auswahl einer Game Engine für die Entwicklung des Demonstrators.
Daraufhin wurde ein Rekonstruktionsalgorithmus ausgewählt. Anschließend wurden
verschiedene Objekte im Bestrahlungsraum gescannt, sodass die Parameter des Algorithmus
iterativ hinsichtlich der Qualität der erzeugten Objekte für den Einsatz in
einer VR-Anwendung optimiert werden konnten. Daraufhin erfolgte eine Texturierung
der Oberfläche mit Kamerafotos. Nach einer Aufbereitung der Modelle wurden diese
in ein Virtual Environment importiert. Parallel dazu wurde nach der Auswahl der Unreal
Engine als Game Engine, der Demonstrator entwickelt, in welchen die gescannten
Modelle integriert wurden.
Das Verfahren liefert ausreichend genaue Ergebnisse, um Konzepte in der Strahlentherapieaufklärung
vermitteln zu können. Der Effekt und die Akzeptanz der Technik
spielen eine weitere wichtige Rolle für den Einsatz der Methodik und müssen durch eine
Evaluation im klinischen Alltag validiert werden, wofür die Entwicklung einer klinisch
anwendbaren Software auf Basis der gewonnenen Erkenntnisse notwendig wird.
In der Kernresonanzspektroskopie, wie auch in anderen spektroskopischen Disziplinen, unterliegt die
Genauigkeit und Vollständigkeit eines Spektrums den verschiedenen Einstellungen des Messgeräts
sowie dem verwendeten Gerätetypen. Um das gemessene Spektrum besser analysieren zu können,
wird versucht, es an die Realität anzunähern. Eine allgemeine Annahme dazu ist, dass mehrere, sich
teilweise überlagernde Peaks das Spektrum bilden. Alle Peaks verlaufen dabei gemäß einer Funktion,
deren Modellparameterwerte variieren.
Es gibt verschiedene Ansätze zur Bestimmung des Spektrums, zum Beispiel die Modellanpassung und
die Maximum-Entropie-Methode. Eine große, gegen Unendlich strebende Anzahl an Peaks scheint
die gemessenen Spektrumdaten am besten nachzubilden. Dies ist jedoch wenig naturgetreu.
In dieser Arbeit gehe ich dem Bayes’schen Ansatz zur Datenanalyse nach, um die Peakanzahl auszumachen,
für die die größte Wahrscheinlichkeit in den Messdaten liegt.
Während meiner Diplomarbeit hat sich die anfängliche Annahme, dass die Peaks nach der Lorentz-
Funktion geformt sind, revidiert. Letztendlich habe ich versucht, die Bestimmung der Peakanzahl mit
Peaks in Form des Pseudo-Voigt-Profils durchzuführen.
Für die Berechnung der Posterior-Wahrscheinlichkeit einer Peakanzahl war es nötig, ein multiples
Integral zu lösen. Dieses entstand durch die Marginalisierung einiger Störparameter.
Ein Ziel dieser Diplomarbeit war es, das multidimensionale Integral numerisch zu berechnen. Umgesetzt
werden sollte dies mit dem VEGAS-Algorithmus, der das Monte-Carlo-Verfahren zur Integration
verwendet. Ich habe den Algorithmus und die Anwendungen der Arbeit in Matlab implementiert.
Um die Integration mit dem VEGAS-Algorithmus zu testen, habe ich eine Beispielanwendung zur
Integration unterschiedlich dimensionaler Rosenbrock-Funktionen durchgeführt.
Die Anwendung zur Bestimmung der Peakanzahl in einem Spektrum habe ich zunächst für simulierte
Daten mit zwei unterschiedlichen Formeln der Lorentzfunktion umgesetzt.
Die erste Lorentzfunktion enthält zwei Modellparameter, die Lage der Amplitude und die Halbwertsbreite,
und ist zu eins normiert. Bei ihr ist die Amplitude abhängig von der Halbwertsbreite.
Die zweite Formel besteht aus drei unabhängigen Modellparametern: der Amplitude, ihrer Lage und
der Halbwertsbreite. Damit ist sie für die Auswertung realer Messdaten geeigneter als die vorherige
normierte Lorentzfunktion.
Bei der Anwendung mit simulierten Daten mit drei Modellparametern sowie mit gemessenen Daten
und dem Modell des Pseudo-Voigt-Profils konnte die Anzahl der Peaks nicht bestimmt werden.
Die Schwierigkeit der Bestimmung der Peakanzahl mit dem VEGAS-Algorithmus lag anscheinend
bei der Integration über die Amplitude. Zur Klärung des Problems habe ich die Anwendung mit
dem Pseudo-Voigt-Profil und den realen Messdaten über einen anderen Lösungsweg zur numerischen
Integration, mit einer Likelihood-Matrix, untersucht.
Dadurch kam die Vermutung auf, dass die Diskretisierung in y-Richtung durch das Importance
Sampling des VEGAS-Algorithmus nicht konform mit der Messpunktverteilung ist. Ich habe versucht
über eine Präzisionsanpassung der Amplitudenstützwerte das Problem zu lösen, was teilweise gelang.
Die in dieser Arbeit erstellte Anwendung kann zur Plausibilitätsprüfung von Ergebnissen anderer
Bayes’ basierter Verfahren zur Peakanzahlbestimmung dienen.
Mit geschätzten Werten für die Modellparameter aller Peaks wird die multiple Integration mit dem
VEGAS-Algorithmus nicht gebraucht. Die Posterior-Wahrscheinlichkeiten können somit berechnet
werden und eine quantitative Bewertung der Ergebnisse unterschiedlicher Peakzahlen für das gemessene
Spektrum liefern.