Poprzednia

ⓘ Metoda Hellwiga




                                     

ⓘ Metoda Hellwiga

Metoda Hellwiga, zwana również metodą optymalnego wyboru predyktant, metodą wskaźników pojemności informacji – formalna metoda doboru zmiennych objaśniających do modelu statystycznego stworzona w 1968 roku przez Zdzisława Hellwiga.

Zmienne, które wybieramy do modelu powinny być silnie skorelowane ze zmienną objaśnianą, a słabo skorelowane między sobą. Nie jest to jednak ścisłe kryterium doboru zmiennych, oprócz tego występuje kryterium liczbowe, tzw. pojemność integralna kombinacji nośników informacji. W tym przypadku nośnikami informacji są wszystkie zmienne objaśniające.

                                     

1. Liczba kombinacji

Jeżeli mamy m {\displaystyle m} potencjalnych zmiennych objaśniających, to liczba wszystkich kombinacji jest równa

L = 2 m − 1. {\displaystyle L=2^{m}-1.}
                                     

2. Indywidualna pojemność nośników informacji

Dla wszystkich otrzymanych kombinacji definiujemy tzw. Indywidualną pojemność nośników informacji, która określona jest wzorem:

h k j = r j 2 1 + ∑ l = 1, l ≠ j m k | r l j |, j = 1, 2, …, m k, h k j ∈,}

gdzie:

k {\displaystyle k} – numer kombinacji k = 1, 2, …, 2 m − 1, {\displaystyle k=1.2,\dots,2^{m}-1,} m k {\displaystyle m_{k}} – liczba zmiennych w k {\displaystyle k} -tej kombinacji, j {\displaystyle j} – numer zmiennej w rozpatrywanej kombinacji, r j {\displaystyle r_{j}} – współczynnik korelacji potencjalnej zmiennej objaśniającej o numerze j ze zmienną objaśnianą element wektora R 0 {\displaystyle R_{0}}, r l j {\displaystyle r_{lj}} – współczynnik korelacji między l {\displaystyle l} -tą i j {\displaystyle j} -tą potencjalną zmienną objaśniającą element macierzy R {\displaystyle R}.

Wskaźnik h k j {\displaystyle h_{kj}} mierzy wielkość informacji jaką wnosi zmienna X j {\displaystyle X_{j}} o zmiennej objaśnianej Y {\displaystyle Y} w k {\displaystyle k} -tej kombinacji. W związku z tym h k j {\displaystyle h_{kj}} wzrasta, jeżeli współczynnik korelacji r j {\displaystyle r_{j}} wzrasta, a maleje im bardziej zmienna X j {\displaystyle X_{j}} jest skorelowana z pozostałymi zmiennymi objaśniającymi.

                                     

3. Pojemność integralna kombinacji nośników informacji

Dopiero, gdy policzymy indywidualną pojemność nośników informacji dla wszystkich kombinacji, możemy obliczyć pojemność integralną kombinacji nośników informacji według wzoru:

H k = ∑ j = 1 m k h k j, k = 1, 2, …, 2 m − 1, H k ∈,}

gdzie:

k {\displaystyle k} – numer kombinacji k = 1, 2, …, 2 m − 1, {\displaystyle k=1.2,\dots,2_{m}-1,} m k {\displaystyle m_{k}} – liczba zmiennych w k {\displaystyle k} -tej kombinacji, j {\displaystyle j} – numer zmiennej w rozpatrywanej kombinacji.

Pojemność integralna kombinacji nośników informacji dla k {\displaystyle k} -tej kombinacji jest sumą indywidualnych pojemności nośników informacji, które wchodzą w skład tej kombinacji. Jest ona kryterium wyboru odpowiedniej kombinacji zmiennych objaśniających, a wybieramy tę kombinację, gdzie H k {\displaystyle H_{k}} jest największa. Ze względu na znacząca liczbę kombinacji zmiennych, które należy porównać skonstruowana została metoda wykorzystująca kryterium Hellwiga w postaci zadania programowania binarnego, w którym licznik z kryterium Hellwiga jest funkcją celu, a mianownik jest podstawą do zbudowania warunków ograniczających.



                                     

4. Przykład

Dane są:

  • zmienna endogeniczna Y, {\displaystyle Y,}
  • zbiór potencjalnych zmiennych objaśniających
X = { x 1, x 2, x 3 }, {\displaystyle X=\{x_{1},\ x_{2},\ x_{3}\},}
  • wektor współczynników korelacji liniowej między zmiennymi egzogenicznymi i zmienną endogeniczną
R 0 =. {\displaystyle R={\begin{bmatrix}1&0{,}2&-0{,}7\\0{,}2&1&0{,}5\\-0{,}7&0{,}5&1\end{bmatrix}}.}

Liczba możliwych kombinacji zmiennych endogenicznych wynosi

L = 2 3 − 1 = 7. {\displaystyle L=2^{3}-1=7.}
  • Kombinacje jednoelementowe
K 1 = { x 1 }, {\displaystyle K_{1}=\{x_{1}\},} K 2 = { x 2 }, {\displaystyle K_{2}=\{x_{2}\},} K 3 = { x 3 }. {\displaystyle K_{3}=\{x_{3}\}.}
  • Kombinacje dwuelementowe
K 4 = { x 1, x 2 }, {\displaystyle K_{4}=\{x_{1},\ x_{2}\},} K 5 = { x 1, x 3 }, {\displaystyle K_{5}=\{x_{1},\ x_{3}\},} K 6 = { x 2, x 3 }. {\displaystyle K_{6}=\{x_{2},\ x_{3}\}.}
  • Kombinacje trójelementowe
K 7 = { x 1, x 2, x 3 }. {\displaystyle K_{7}=\{x_{1},\ x_{2},\ x_{3}\}.}
                                     
  • statystyki, ekonometrii i cybernetyki. W statystyce opracował m.in. metodę Hellwiga Autor kilkuset publikacji i prac naukowych. Do najważniejszych należą:
  • general equilibrium metoda optymalnego wyboru predyktant metoda Hellwiga metoda Bartosiewicz metoda Pawłowskiego Powyższe metody wykorzystywane przy
  • 2002. Prowadził badania m.in. w Instytucie Metod Rachunku Ekonomicznego, pod kierunkiem prof. Zdzisława Hellwiga Stosował techniki badań ilościowych w analizach

Użytkownicy również szukali:

dobór zmiennych objaśniających metoda hellwiga, metoda hellwiga bazuje na,

...
...
...