Please use this persistent identifier to cite or link to this item: doi:10.24405/366
DC FieldValueLanguage
dc.contributor.advisorSeidel, Wilfried-
dc.contributor.authorSever, Krunoslav-
dc.date.accessioned2017-10-24T13:58:43Z-
dc.date.available2017-10-24T13:58:43Z-
dc.date.issued2008-
dc.identifier.otherhttp://edoc.sub.uni-hamburg.de/hsu/volltexte/2008/1442/-
dc.identifier.urihttps://doi.org/10.24405/366-
dc.description.abstractIn der vorliegenden Dissertation werden statistische Mischungsmodelle betrachtet, die es erlauben inhomogene Grundgesamtheiten zu modellieren. --- Dabei werden speziell Likelihood-Methoden untersucht, in dem die unbekannten Parameter der einzelnen Komponenten der Grundgesamtheit durch Maximierung der Dichte ermittelt werden. --- Nimmt man an, dass eine endliche Obergrenze für die Anzahl der Komponenten bekannt ist, ist die EM-Methode eine beliebte Wahl für dieses Problem. --- Die elementaren Monotonie und Konvergenz-Eigenschaften der EM-Methode werden im allgemeineren Kontext von Modellen mit unvollständigen Daten hergeleitet. Dabei wird speziell darauf geachtet, dass die Modell-Dichten unterschiedliche Träger haben können. --- Ferner spielen Einschränkungen des Parameterraums in der EM-Methode eine besondere Rolle: einerseits kann so die für Konvergenzaussagen wichtige Beschränktheit der Likelihood erreicht werden, andererseits dienen solche Einschränkungen im Mischungskontext zur verbesserten Ausschliessung degenerierter Ergebnisse (sogenanter spurious solutions) im tatsächlich implementierten EM-Algorithmus. --- Ist keine Obergrenze bekannt, tritt die Gradienten-Methode an die Stelle der EM-Methode, in denen Richtungsableitungen genutzt werden, um einen möglichst optimalen Anstieg der Likelihood zu gewährleisten. --- Die essentiellen Richtungsableitungen werden zusammengefasst in der Gradienten-Funktion, deren Maximierung den Kern aller Gradienten-Methoden bildet. Diese erlaubt die Bestimmung einer guten Suchrichtung, wobei Kenntnis von lokalen Maxima die Konvergenzgeschwidigkeit erhöht. --- Die Möglichkeit zur Bestimmung aller lokalen Maxima erlaubt es ferner die Gradienten-Methode auf dem sogenannten Likelihood-Vektor zu basieren, wodurch die technische Implementation der Iteration vereinfacht wird. --- Zur verlässlichen Bestimmung aller lokalen Extrema in Mischungen von Exponentialfamilien, werden für die Ableitung der Gradientenfunktion Schranken für die Zahl der Nullstellen in gewissen Intervallen hergeleitet. Diese Schranken basieren auf einem grundlegenden Resultat von Lindsay, das in der vorliegenden Arbeit verbessert wird. --- Schliesslich wird beschrieben wie diese Schranken effektiv gesammelt und abgearbeitet werden können, um den Parameterraum systematisch und verlässlich nach Extrema der Gradienten-Funktion abzusuchen.-
dc.description.sponsorshipFakultät für Wirtschafts- und Sozialwissenschaften-
dc.language.isoeng-
dc.publisherUniversitätsbibliothek der HSU / UniBwH-
dc.subject.ddc510 Mathematik-
dc.titleLikelihood Methods in Mixture Models: EM, NPMLE and Zero Bounds-
dc.typeThesis-
dcterms.dateAccepted2008-05-05-
dc.contributor.refereeKrumbholz, Wolf-
dc.identifier.urnurn:nbn:de:gbv:705-opus-14423-
dcterms.bibliographicCitation.originalpublisherplaceHamburg-
dc.contributor.grantorHSU Hamburg-
dc.type.thesisDoctoral Thesis-
local.submission.typefull-text-
hsu.dnb.deeplinkhttps://d-nb.info/990251284/-
item.grantfulltextopen-
item.languageiso639-1en-
item.fulltext_sWith Fulltext-
item.openairetypeThesis-
item.fulltextWith Fulltext-
Appears in Collections:2 - Theses
Files in This Item:
File SizeFormat
openHSU_366.pdf596.18 kBAdobe PDFView/Open
Show simple item record

CORE Recommender

Google ScholarTM

Check


Items in openHSU are protected by copyright, with all rights reserved, unless otherwise indicated.