Loading…
Regularisierung unter Berücksichtigung von Residuentoleranzen
Kaschenz, Julia
Bei einer Vielzahl von Aufgaben z.B. in der mathematischen Physik und der Geophysik wird man mit sog. inversen Problemen konfrontiert. Oft sind gerade diese inversen Probleme inkorrekt gestellt. Für eine große Klasse von inkorrekt gestellten Problemen liegen zusätzliche Informationen vor, welche Aussagen über die Natur der Lösung enthalten. Unter Nutzung dieser zusätzlichen Informationen wurden bereits von verschiedenen Wissenschaftlern Auswerteverfahren erarbeitet, die allgemein zur Gruppe der Regularisierungsverfahren gehören. Diese Regularisierungsverfahren können in drei Untergruppen eingeteilt werden: die Regularisierung nach A.N.Tikhonov, das regularisierende Verfahren und die stochastische Regularisierung. Bei der Regularisierung nach A.N.Tikhonov werden qualitative Informationen bzgl. der Lösung in den Prozess der Lösungsbestimmung mit einbezogen. Das regularisierende Verfahren benötigt keine zusätzlichen Informationen bzgl. der Lösung des zu untersuchenden Problems, sondern stellt ein "gedämpftes" Iterationsverfahren dar. Bei der stochastischen Regularisierung werden quantitative zusätzliche Informationen bzgl. der Lösung verwendet, z.B. durch Einbeziehung einer bereits vorhandenen Lösung sowie deren Genauigkeit in die Lösungsbestimmung. Da diese in der Anwendung und Bedeutung unterschiedlichen Regularisierungsverfahren allerdings eine sehr ähnliche mathematische Formulierung haben, kam es in den letzten Jahren häufig zu unkritischen Anwendungen der Verfahren sowie zu fehlerhaften Interpretationen von erhaltenen Ergebnissen. Lediglich das regularisierende Verfahren kann als unkritisch betrachtet werden. Bei den anderen beiden Regularisierungsverfahren lässt sich der Einfluss der zusätzlichen Informationen auf die zu bestimmende Lösung nur sehr schlecht oder überhaupt nicht einschätzen. Dies kann dazu führen, dass die Residuen der ausgewerteten Daten unzumutbar groß sind, die neue Lösung aber sehr gut zu der zusätzlichen Information bzgl. der Lösung passt. Die zusätzlichen Informationen entstammen aber oft älteren Modellen, welche auf älteren ungenaueren Daten basieren. Da es somit nicht sinnvoll erscheint, die Informationen der neu auszuwertenden Daten auf Kosten der zusätzlichen Informationen zu vernachlässigen, wurden an einigen Stellen in der Literatur Überlegungen dahingehend durchgeführt, wie der Einfluss der zusätzlichen Informationen "optimal" gewählt werden kann. Bislang scheint es dafür allerdings noch keine wirklich "optimale" Methode zu geben. Somit erschien es zweckmäßig, in dieser Arbeit ein Regularisierungsverfahren zu erarbeiten, welches nicht die genannten Nachteile aufweist. Bei diesem können zusätzlich zum allgemeinen Regularisierungsproblem Bedingungen für die Residuen eingeführt werden. Diese können z.B. bewirken, dass sämtliche Residuen nach der Auswertung innerhalb der in der Gewichtsmatrix festgelegten Genauigkeitsgrenzen der Daten liegen. Damit kann gewährleistet werden, dass so viele Informationen wie möglich aus den neu auszuwertenden Daten gewonnen werden können. Da es sich bei den eingeführten Bedingungen nicht um sog. Gleichheitsbedingungen handelt sondern um Ungleichheitsbedingungen, war es notwendig, einen geeigneten Auswertealgorithmus zur Lösung des somit erweiterten Regularisierungsproblems zu erarbeiten. Dieser Algorithmus wurde anhand von fünf synthetischen Beispielen getestet und für die Auswertung von Radiookkultationsdaten verwendet. Dabei zeigte sich, dass das erarbeitete Verfahren nicht nur grundsätzlich funktioniert, sondern tatsächlich die erwähnten Nachteile nicht besitzt. Gleichzeitig ist es mit diesem Verfahren möglich, zu überprüfen, ob bereits vorhandene Lösungen des untersuchten Problems mit den neuen Daten innerhalb ihrer Genauigkeiten konsistent sind und ob und wie stark die neuen Daten zur Verbesserung der ursprünglichen Lösung beitragen können.
A lot of problems, e.g. in mathematical physics and geophysics, confront us with the so-called inverse problems. These inverse problems are often improperly posed. For a wide class of improperly posed problems additional information is available, which contains knowledge about the nature of the solution. Using such additional information numerous scientists developed algorithms which generally belong to the group of regularization procedures. These regularization procedures can be classified into three subgroups: the regularization according to A.N.Tikhonov, the stabilizing regularization, and the stochastic regularization. In the regularization according to A.N.Tikhonov qualitative information about the solution is used in the course of solving the problem. The stabilizing regularization needs no additional information about the solution of the considered problem, because it is just an "attenuated" iteration procedure. In the stochastic regularization quantitative additional information about the solution is used, e.g. by utilizing an already existing solution and its accuracy estimate. The three classes of regularization are very different in application and meaning but very similar in their mathematical formulations. For this reason these procedures were frequently used uncritically in past years and the results were often interpreted in a wrong way. Only the stabilizing regularization can be considered as uncritical. In the both other regularization procedures the influence of the additional information on the searched solution can be hardly or not at all assessed. This often results in too large residuals for the processed data, with a new solution which fits very well the additional information. However, the additional information often comes from older models, which are based on older, less accurate data. Therefore, it does not seem to be correct to neglect the information content of the new data in favor of the additional information. For this reason there are in the existing literature considerations about the influence of the additional information and the possibilities to choose an "optimal" regularization parameter. Until now, it does not seem that a really "optimal" method was found. Hence, it seems advantageous to work out a regularization procedure which does not have the mentioned disadvantages. Such a procedure, presented in this thesis, in addition to the standard regularization problem, also considers constraints for the residuals of the data. These constraints can for instance cause that all residuals after the adjustment lie within the chosen accuracy limits of the data, which are defined by the weight matrix. In this way it can be achieved that as much information as possible can be extracted from the newly processed data. The considered constraints are no equalities, but inequality constraints. Therefore, it was necessary to work out an appropriate algorithm for solving the proposed extended regularization problem. The algorithm was tested on five synthetic examples and also applied to the processing of radio occultation data. It is demonstrated that the new procedure not only works in general but really does not possess the discussed disadvantages. At the same time the new procedure makes it possible to check whether the already existing solutions of the considered problem agree with the new data within their accuracy. Also, it can be checked whether and to what extent the new data can contribute to the improvement of the existing solutions.