next up previous contents index
Next: Sztuczne sieci neuronowe (ANN) Up: Analiza sygnałów wielowymiarowych Previous: Analiza składowych niezależnych (ICA)   Spis tresci   Skorowidz

Wielowymiarowy model AR

Model AR (równanie 2.35) opisuje wartość sygnału w chwili $ t$ jako kombinację liniową jego wartości w chwilach poprzednich (oraz szumu). W przypadku wielowymiarowym możemy włączyć do tego opisu wartości wszystkich sygnałów $ s_i$, czyli wektora $ \vec{s}(t)$. Wielowymiarowy model AR (MVAR, multivariate autoregressive) można wówczas opisać wzorem:

$\displaystyle \vec{s}(t)=\sum_{i=1}^p A(i) \vec{s}(t-i) + \vec{\epsilon}(t) ,$ (5.1)

gdzie $ \vec{\epsilon}(t)$ będzie wektorem szumów, zaś $ A(i)$ będą macierzami współczynników modelu. Przechodząc do przestrzeni częstości otrzymamy:

$\displaystyle \vec{s}(\omega)=A^{-1}(\omega)\vec{\epsilon}(\omega)=H(\omega)\vec{\epsilon}(\omega) ,$ (5.2)

gdzie $ H(\omega)$ jest macierzą przejścia. MVAR jest modelem typu ,,czarna skrzynka'', gdzie na wejściu występują szumy, na wyjściu sygnały, a system jest opisany przez macierz przejścia. Zawiera on informacje o własnościach widmowych sygnałów i związkach między nimi.

Na podstawie macierzy $ H(\omega)$ można obliczyć macierz gęstości widmowej zawierającą widma mocy dla pojedynczych kanałów jak również funkcje wzajemnej gęstości mocy pomiędzy kanałami. Stosując tego typu podejście, w którym wszystkie sygnały generowane przez pewien proces są rozpatrywane jednocześnie, można policzyć z macierzy spektralnej nie tylko koherencje zwykłe pomiędzy dwoma kanałami, ale również koherencje wielorakie opisujące związek danego kanału z pozostałymi i koherencje cząstkowe opisujące bezpośrednie związki między dwoma kanałami po usunięciu wpływu pozostałych kanałów. W przypadku gdy pewien kanał 1 będzie wpływał na kanały 2 i 3, obliczając koherencję zwykłą znajdziemy związek między 2 oraz 3, chociaż nie są one ze sobą bezpośrednio powiązane, natomiast koherencja cząstkowa nie wykaże związku między nimi.

Macierz $ H(\omega)$ jest niesymetryczna, a jej wyrazy pozadiagonalne mają sens przyczynowości Grangera, co oznacza, że uwzględnienie wcześniejszej informacji zawartej w jednym z sygnałów zmniejsza błąd predykcji drugiego sygnału. Opierając się na tej własności zdefiniowano Kierunkową Funkcję Przejścia (DTF, directed transfer function) jako znormalizowany element pozadiagonalny $ H(\omega)$. DTF opisuje kierunek propagacji i skład widmowy rozchodzących się sygnałów.

Otrzymamy w ten sposób całościowy opis zmian wszystkich sygnałów jednocześnie. Co ciekawe, obliczona na tej podstawie funkcja charakteryzująca zależności między sygnałami $ s_i$ (funkcja przejścia) nie jest symetryczna, w przeciwieństwie do np. korelacji. Dzięki temu może służyć wnioskowaniu nie tylko o sile zależności między poszczególnymi sygnałami składowymi, ale też o kierunku przepływu informacji między nimi. W przybliżeniu odpowiada to informacji, w którym z sygnałów struktury odpowiadające danej częstości pojawiają się wcześniej.


next up previous contents index
Next: Sztuczne sieci neuronowe (ANN) Up: Analiza sygnałów wielowymiarowych Previous: Analiza składowych niezależnych (ICA)   Spis tresci   Skorowidz
Piotr J. Durka 2004-01-05