Podręcznik

2. Przykłady zadań optymalizacji

2.3. Zadanie optymalnej identyfikacji modelu transformacji (funkcji)

Interesuje nas określenie funkcji H opisującej zależność między dwiema wielkościami x i y. Jeżeli wartości wielkości (zmiennych) możemy mierzyć za pomocą fizycznego eksperymentu wiążącego w (uporządkowane) pary liczbowe wartości tych wielkości, znamy ciąg pomiarów {(x_k, y_k)}, to mamy do czynienia z tzw. zadaniem identyfikacji modelu funkcji.

 

Rys. 1.4: Układ przetwarzający wielkości – czarna (nie przezroczysta) skrzynka

W praktyce rzadko kiedy mamy do czynienia z czarną skrzynką taką jak na rysunku. Często związek łączący zmienne znamy z dokładnością do n-wymiarowego wektora parametrów liczbowych \alpha = (\alpha_1,..., \alpha_n). Skrzynka jest „szara” i wyznaczyć trzeba konkretną wartość parametrów.

 

Rys. 1.5: Układ przetwarzający wielkości – szara („umiarkowanie” przezroczysta) skrzynka

Zapiszmy teraz stosowne zadanie optymalizacji przyjmując, że mamy do czynienia z szarą skrzynką.

Przyjmujemy wiec, że znamy funkcję dwu zmiennych

\mathbb{R}\times\mathbb{R}^n∍(x,α)↦H(x,α)∈R

(\alpha jest n-wymiarowym wektorem parametrów), a także ciąg par pomiarów {(x_k,y_k)}_{k=1}^m.

Jeżeli dla każdego (\alpha zdefiniujemy ciąg różnic między wielkością zmierzoną a przewidywaną przez model

(\forall\ k\in\overline{1,m})\ r_k(\alpha)=y_k-H(x_k,\alpha),

to jako kryterium wyboru „najlepszego (\alpha ” powinniśmy wybrać funkcję, która te wszystkie różnice będzie minimalizować. Ponieważ dodatnie różnice są tak samo „złe” jak ujemne, to funkcja oceniająca, w najprostszym przypadku, powinna mieć jedną z dwu form

\alpha\mapsto\ f^1(\alpha)=\sum_{k=1}^{m}\left|r_k(\alpha)\right|\mathrm{\mathrm{\ \ }albo\ \ }\alpha\mapsto f^2(\alpha)=\sum_{k=1}^{m}\left(r_k(\alpha)\right)^2 ,

(proszę porównać przykład poprzedni).

Jak pamiętamy, do ostatecznego sformułowania zadania optymalizacji potrzebne jest określenie zbioru dopuszczalnego. W przypadku zadań identyfikacji czasami nie ma wyraźnych ograniczeń na wartości parametrów. Gdy takie ograniczenia występują zapiszemy je w bardzo ogólny sposób, jako wymaganie \(\alpha \in A\) , gdzie domknięty zbiór A \in  \mathbb{R}^n jest znany.

Możemy więc sformułować np. następujące zadania minimalizacji (identyfikacji modelu):

  • Pierwsze, wymyślone w pierwszej połowie XIX w. przez K. Gaussa: tzw. zadanie doboru parametrów modelu nieliniowego metodą najmniejszych kwadratów

znaleźć \alpha^o={\rm argmin}_{\alpha\in\ \mathbb{R}^n}{\sum_{k=1}^{m}\left(y_k-H(x_k,\alpha)\right)^2}.

  • Drugie

znaleźć \alpha^o={\rm argmin}_{\alpha\in\ A}{\sum_{k=1}^{m}\left|y_k-H(x_k,\alpha)\right|}.

Zwróćmy tu uwagę na fakt, że zadanie Gaussa sformułowaliśmy jako zadanie bez ograniczeń, a zadanie drugie jako zadanie z ograniczeniami na wartości parametrów. Ponadto w praktyce, podobnie jak w przykładzie dotyczącym projektowania autopilota opisanym w punkcie 2.2, częściej parametry modelu dobiera się metodą najmniejszych kwadratów (funkcja f^2), bo to zadanie jest łatwiej rozwiązać (nawet gdy dodamy do niego ograniczenia).

Co łączy te trzy przykłady?

W obu, wykorzystując wiedzę i doświadczenie konkretnych nauk danego rodzaju sformalizowano zadanie optymalizacji, inaczej mówiąc zbudowano matematyczny model zadania optymalizacji o tej samej, typowej strukturze.  Przedstawimy teraz ten abstrakcyjny model formalnie.