Podręcznik

Strona: SEZAM - System Edukacyjnych Zasobów Akademickich i Multimedialnych
Kurs: Sygnały analogowe i cyfrowe
Książka: Podręcznik
Wydrukowane przez użytkownika: Gość
Data: czwartek, 5 grudnia 2024, 03:17

Spis treści

1. Sygnały w łączu telekomunikacyjnym

Sygnał to pewna funkcja, najczęściej czasu (np. napięcie na wyjściu mikrofonu) ale też odległości (obraz 2D lub 3D), wykorzystywana do przenoszenia informacji. Informacja może mieć z natury charakter analogowy, tzn. przyjmować nieskończoną liczbę wartości (np. mowa, muzyka, obraz). Może mieć też charakter dyskretny, przyjmując skończoną liczbę wartości (np. tekst). Podobnie przenoszące ją sygnały, mogą mieć charakter analogowy (np. sygnał radiofonii komercyjnej FM) lub cyfrowy (np. alfabet Morse’a). Obecnie sygnały cyfrowe stosuje się do transmisji wiadomości z natury analogowych, dzięki przetworzeniu analogowo-cyfrowemu mowy, muzyki czy obrazu. 
Przyjrzyjmy się sygnałom występującym w analogowym łączu transmisyjnym (Rys.1). Na wejściu mamy sygnał modulujący, oznaczony przez m(t), np. sygnał mowy. Ma on moc P watów i zawiera składowe o niskich częstotliwościach, do częstotliwości fM.  Jest to szerokość pasma tego sygnału.

Rysunek 1 Analogowe łącze transmisyjne

 

Na Rys.2 pokazano przykładowy fragment sygnału mowy, składający się z głoski bezdźwięcznej „sz” i dźwięcznej „i”. Mowa dźwięczna składa się z podobnych do siebie segmentów, mówimy że jest pseudookresowa. Ta właściwość wykorzystywana jest w koderach mowy, m.in. koderach telefonii komórkowej, do uzyskania efektywnej kompresji. Na Rys.3 pokazano widmo głoski dźwięcznej „a”, a ściślej - moce składowych o różnych częstotliwościach określone w dB. Powyżej częstotliwości 4 kHz moce składowych harmonicznych maleją, z tego względu przez długi czas ograniczano pasmo mowy w telefonii do 4 kHz. Moc sygnału mowy dźwięcznej koncentruje się w kilku wąskich podpasmach częstotliwości, są to tzw. formanty. Ich położenie zależy od wypowiadanej głoski, dzięki czemu jesteśmy w stanie je rozróżnić. Na Rys 3 pokazano też zmiany widma w funkcji częstotliwości dla sygnału z Rys.2, tzw. sonogram. Oś częstotliwości obejmuje zakres 0-8 kHz, kolor żółty oznacza silną koncentrację mocy. Można zauważyć, że głoska bezdźwięczna posiada szersze pasmo sięgające 7-8 kHz. Aby poprawić jakość mowy, w telefonii podnosi się obecnie pasmo do 7 kHz. 

 Rysunek 2 Sygnał mowy w dziedzinie czasu

 

Rysunek 3 Sygnał mowy w dziedzinie częstotliwości

 

Główną rolą modulatora jest podniesienie częstotliwości tego sygnału, aby dało się go przesłać kanałem bezprzewodowym. Na wyjściu modulatora mamy sygnał zmodulowany s(t), który zajmuje pasmo B Hz, najczęściej szersze niż sygnał m(t). W kanale pojawiają się zakłócenia, np. szum pochodzenia termicznego. 

 

Rysunek 4 Gęstość mocy szumu białego i szumu na wyjściu kanału transmisyjnego

 

Szum modeluje się jako addytywny biały szum gaussowski (AWGN – additive white Gaussian noise). Jest to model matematyczny, gdyż taki sygnał nie istnieje. „Biały” oznacza stały rozkład mocy  (tzw. gęstość mocy) na osi częstotliwości – na Rys. 4 h W/Hz  (/2 przy dwustronnej osi częstotliwości). Po przejściu przez kanał transmisyjny, który ma zawsze ograniczone pasmo (B Hz), szum posiada już skończoną moc  .
Na wyjściu kanału pojawia się sygnał v(t), na który składa się sygnał użyteczny o mocy S i szum o mocy N. Można w tym miejscu określić jakość odebranego sygnału, obliczając stosunek mocy sygnału użytecznego do mocy szumu (Signal to Noise Ratio, SNR). SNR wyraża się najczęściej w decybelach (dB):

 

SNR=\frac{S}{N} \ \ \ \ \ \ \ \ \ \ \ \ SNR[dB]=10log_{10}\frac{S}{N} (1)

 

Demodulator odzyskuje kopię sygnału modulującego s0(t) z szumem n0(t). Jakość sygnału zdemodulowanego m^\ast(t)  określa się stosunkiem mocy obu składowych, podobnie jak w (1):  {SNR}_0= \frac{S_0}{N_0}. SNR nie jest najlepszym kryterium jakości, co pokazano schematycznie na Rys. 5. Sygnały akustyczne charakteryzują się silnymi zmianami mocy w czasie. Dodanie szumu o charakterze stacjonarnym spowoduje, że segmenty o małej mocy będą niesłyszalne na tle szumu. Wartość SNR obliczona jako stosunek średniej mocy sygnału akustycznego do mocy szumu może jednak przyjąć wysoką wartość, dzięki głośnym segmentom sygnału akustycznego.  Aby zwiększyć wpływ cichych fragmentów sygnału na wartość SNR, oblicza się SNR w segmentach 10-30 ms, wyraża w dB i uśrednia:

       

SNR_{seg} [dB]=\frac{1}{M_{s}} \ \sum\nolimits ^{M_{s}}_{i=1} =\ SNR_{i} [dB] (2)

Rysunek 5 SNR w ujęciu segmentowym

W transmisji cyfrowej (Rys.6) przesyła się strumień binarny. Może on pochodzić z sygnału analogowego, np. przetworzenia sygnału mowy na postać cyfrową w koderze zródła. Niezbędną czynnością jest tu próbkowanie – zastąpienie ciągłego sygnały szeregiem wartości chwilowych, tzw. próbek (Rys.7). W procesie kwantyzacji zaokrągla się wartości próbek do skończonej liczby wzorców, tzw. poziomów kwantyzacji.  W procesie kodowania przypisuje się skwantowanym próbkom ciągi bitów. Operacje próbkowania, kwantyzacji i kompresji zostaną omówione w dalszej części podręcznika. 

Rysunek 6 Cyfrowe łącze transmisyjne (Pe – prawdopodobieństwo błędu)

 

Rysunek 7 Próbkowanie sygnału x(t)

Transmitowanym bitom lub ciągom bitów (słowom kodowym) przypisuje się sygnały, tzw symbole transmisyjne.  Ich charakter, w szczególności skład widmowy, zależy od kanału transmisyjnego (np. transmisja bezprzewodowa wymaga wykorzystania fali nośnej o wysokiej częstotliwości). Na Rys.8 pokazano przykładowe symbole wykorzystywane w transmisji kablowej na niskich częstotliwościach (tzw. pasmo podstawowe). Z rysunku wynika, że transmisja 1/T bitów na sekundę wymaga szerokości pasma kanału co najmniej 1\T Hz lub dwukrotnie większej. Okazuje się jednak, że można zmniejszyć to pasmo jeszcze dwukrotnie (twierdzenie Nyquista, omówione w Module 2).

Rysunek 8 Przykładowe sygnały transmisyjne (transmisja cyfrowa w kanale dolnopasmowym) i ich gęstość mocy

 

Rysunek 9 Poglądowe przedstawienie transmisji analogowej i cyfrowej

Historycznie rzecz ujmując, transmisja cyfrowa wyprzedziła transmisję analogową (telegraf wykorzystujący elektromagnes znany był wcześniej niż telefon Bella). Na przełomie XIX i XX w. nastąpił burzliwy rozwój telefonii a latach 20-rych zeszłego wieku radiofonii analogowej. Od połowy zeszłego wieku wracamy jednak do telekomunikacji cyfrowej. Istotną przyczyną jest większa odporność na zakłócenia, co wyjaśniono w uproszczony sposób na Rys.9.  W transmisji analogowej następuje kumulacja szumu w kolejnych kanałach – wzmacnianie stłumionego w kanale sygnału nie poprawia wartości SNR. Transmisja cyfrowa polega na rozpoznawaniu symboli – jeśli nie popełnimy błędu, jesteśmy w stanie zregenerować symbole i przesyłać je dalej. 

W Module 2 bardziej szczegółowo zajmiemy się transmisją sygnałów, w szczególności poszukamy odpowiedzi na bardzo istotne pytania:

  • Ile symboli transmisyjnych na sekundę można przesłać w kanale o szerokości pasma B [Hz]? (maksymalna szybkość modulacji)
  • Ile bitów na sekundę można przesłać bez przekłamań w kanale o szerokości pasma B [Hz], przy gęstości mocy szumu h [W/Hz], dysponując nadajnikiem o mocy S [W]?  (maksymalna przepływność binarna [bit/s])
  • Czym ograniczona jest jakość sygnału na wyjściu odbiornika, czyli jaka jest maksymalna wartość  SNR_0=S_0/N_0

 

2. Sygnały i układy analogowe (repetytorium)

Sygnały i układy analogowe (repetytorium)

2.1. Podstawowe przekształcenia sygnału

Przypomnijmy sobie podstawowe działania na sygnale x(t) w dziedzinie czasu. Najczęściej mamy do czynienia z przesunięciem, x(t-t0) oznacza opóźnienie o t0. Odbicie lustrzane względem osi poziomej to odwrócenie polaryzacji (-x(t)), a pionowej to zmiana kierunku przebiegu czasu (x(-t)).  Skalowanie w dziedzinie czasu jest opisane wzorem x(at). Przesunięcie z lustrzanym odbiciem (Rys.10) posłuży nam do obliczania splotu dwóch sygnałów. 

Rysunek 10 Podstawowe operacje na sygnale: lustrzane odbicie, przesunięcie, przesunięcie z odbiciem

 

2.2. Energia i moc sygnału

W teorii sygnałów wyobrażamy sobie, że x(t) to napięcie przyłożone do opornika 1 W. Wówczas prąd jest równy napięciu, moc chwilowa wynosi x2(t), a energia wydzielona w czasie T wynosi 

E=\int_{0}^{T}{x^2(t)dt} (3)

Moc średnią otrzymamy dzieląc energię przez czas: 

P=\frac{1}{T}\int_{0}^{T}x^2(t)dt (4)

Sygnały o nieskończonym czasie trwania mogą mieć skończoną energię, np. sygnał 

x(t)=exp{(}-at),\qquad t\in(0,\infty),\qquad a>0     ma energię

E=\int_{-\infty}^{\infty}{x^2(t)dt}=\int_{0}^{\infty}{(e^{-at})^2dt}=\int_{0}^{\infty}{e^{-2at}dt}=\frac{1}{-2a}e^{-2at}\left|\ _0^\infty\right.=\frac{1}{-2a}[0-1]=12a

Z kolei sygnały o nieskończonej energii mogą mieć skończoną moc średnią, do takich należy sygnał o stałej wartości chwilowej  x\left(t\right)=A i sygnał harmoniczny  x\left(t\right)=A\cos{2\pi f_0}t
Istotnie,  moc chwilowa sygnału o stałej wartości chwilowej A  wynosi A2 i taka sama jest też moc średnia P. 
Aby obliczyć moc średnią, w ogólnym przypadku oblicza się energię wydzieloną w czasie  T, E_T=\int_{-T/2}^{T/2}{x^2(t)dt} , następnie dzieli się ją przez T i szuka się granicy dla T\rightarrow\infty:

P=\lim\limits _{T\rightarrow \ \infty }\frac{E_{T}}{T} (5)

Dla sygnału harmonicznego   x\left(t\right)=A\cos{2\pi f_0}t   otrzymuje się kolejno:  

x^2(t)=A^2{cos}^2{(}2\pi⥂f_0t)=A^2[\frac{1}{2}+\frac{1}{2}cos(4π⥂f_0t)]=\frac{A^2}{2}+\frac{A^2}{2}cos(4π⥂f_0t)

 

E_T=\int_{-T/2}^{T/2}{x^2(t)dt}=\int_{-T/2}^{T/2}{\frac{A^2}{2}dt}+\frac{A^2}{2}\int_{-T/2}^{T/2}{cos{(}4\pi f_0t)dt}=

=\frac{A^2T}{2}+\frac{A^2}{8\pi f_0}\left[sin{(}4\pi f_0t)\right]_{-T/2}^{T/2}=\frac{A^2T}{2}+\frac{A^2}{8\pi f_0}[sin{(}2\pi f_0T)+sin{(}2\pi f_0T)]=

=\frac{A^2T}{2}+\frac{A^2}{4\pi f_0}sin{(}2\pi\ f_0T)

 

P=\lim\limits _{T\rightarrow \infty }\frac{E_{T}}{T} =\lim\limits _{T\rightarrow \infty }[\frac{A^{2}}{2} +\frac{A^{2}}{4\pi f_{0} T} sin(2\pi f_{0} T)]=\frac{A^{2}}{2}

2.3. Korelacja

Korelacja dwóch sygnałów rzeczywistych x(t) i y(t) określa ich podobieństwo:
\ =\int{x(t)y(t)dt}. Tak zdefiniowana korelacja jest iloczynem skalarnym sygnałów, a autokorelacja – energią sygnału, a także jego normą podniesioną do kwadratu: \ =\int{x^2(t)dt}=||x||^2=E.  Najczęściej oblicza się korelację dla znormalizowanych sygnałów, podzielonych przez ich normy:

\rho(x,y)==\frac{}{||x||\ ||y||} (6)

Ważnym pojęciem jest funkcja korelacji, czyli korelacja sygnału x(t) z przesuniętym w czasie sygnałem y(t):

R_{xy}(t_0)\ =\int{x(t)y(t-t_0)dt} (7)

Korelacja sygnału z jego przesuniętą kopią jest funkcją autokorelacji:

R_x(t_0)\ =\int{x(t)x(t-t_0)dt} (8)

Dla  t_0=0  przyjmuje ona największą wartość równą energii sygnału:  R_x(0)\ =\int{x^2(t)dt}=E 

 

2.4. Operacja splotu i jej zastosowanie do opisu układów liniowych

Splot dwóch sygnałów jest opisany przekształceniem całkowym: 

y(t)\ =x(t)\ast\ h(t)=\int{x(\tau)h(t-\tau)d\tau} (9)

Służy on do opisu układów (filtrów) liniowych o parametrach niezależnych od czasu. 

Rysunek 11 Filtracja sygnałów w czasie ciągłym

Przypomnijmy sobie co oznacza pojęcie liniowości. Filtr jest liniowy gdy spełnia zasadę superpozycji
Jeśli sygnał wejściowy jest kombinacją liniową dwóch sygnałów:  x(t) = a x1(t) + b x2(t), to sygnał wyjściowy jest również kombinacją liniową sygnałów, y(t) = a y1(t) + b y2(t) , z których pierwszy jest odpowiedzią filtru na pierwszy składnik sygnału wejściowego, a drugi – drugiego. 
Niezależność filtru od czasu oznacza, że opóźniony sygnał wejściowy x(t-t0), wywołuje reakcję filtru w postaci y(t-t0), tzn. przebieg czasowy sygnału wyjściowego ulega jedynie opóźnieniu, jego kształt pozostaje bez zmian. 
Jeżeli układ jest liniowy i niezależny od czasu, to sygnał wyjściowy jest splotem sygnału wejściowego i pewnego sygnału, zwanego odpowiedzią impulsową filtru. 

Rysunek 12 Sygnał wejściowy filtru jako ciąg impulsów

Aby to zrozumieć, przedstawmy sygnał wejściowy filtru jako ciąg krótkich impulsów prostokątnych (Rys.12).  Reakcję filtru na impuls pojawiający się w chwili t_n pokazano na Rys.13. Jej kształt zależy od samego filtru, natomiast przesunięcie na skali czasu  zależy od położenia impulsu wejściowego (wynika to z niezależności parametrów filtru od czasu). Amplituda sygnału wyjściowego jest proporcjonalna do amplitudy impulsu (wynika to z liniowości filtru). Jest też proporcjonalna do jego czasu trwania pod warunkiem, że rozważamy bardzo krótkotrwałe impulsy. Ostatecznie reakcją filtru na impuls wejściowy pojawiający się w chwili tn będzie sygnał  x\left(t_n\right)\ ∆t h(t-tn)

Rysunek 13 Reakcja filtru na pierwszy z serii impulsów

Z liniowości filtru wynika również, że reakcja filtru na szereg impulsów (czyli sygnał wejściowy x(t)) jest sumą reakcji na pojedyncze impulsy. Suma we wzorze(10) może być zapisana w postaci całki splotowej:

y(t)=\sum_{n}{x(t_n)h(t-t_n)\mathrm{\Delta t}}\rightarrow\int{x(\tau)h(t-\tau)d\tau}

y(t)=x(t)\ast\ h(t) (10)

gdzie h(t) – odpowiedz impulsowa filtru. Nazwa jest uzasadniona, gdyż z Rys.13 wynika, że h(t) jest reakcją filtru na krótkotrwały impuls pojawiający się w chwili t=0, którego całka (w tym wypadku amplituda razy czas trwania) wynosi 1. Taki impuls nazywa się impulsem Diraca (lub deltą Diraca) i oznacza jako d(t). Gdy sygnał wejściowy filtru jest impulsem Diraca, to na wyjściu pojawi się odpowiedz impulsowa tego filtru: 

x(t)=\delta(t)

y(t)=x(t)\ast\ h(t)=\delta(t)\ast\ h(t)=h(t) (11)

3. Transformata Fouriera (repetytorium)

Transformata Fouriera (repetytorium)

3.1. Widmo sygnału

Transformata Fouriera jest podstawowym narzędziem analizy widmowej, czyli wyszukiwania w sygnale składowych o różnych częstotliwościach. Transformatę Fouriera można interpretować jako korelację analizowanego sygnału x(t) z zespoloną funkcją e^{-j2\pi ft}, zawierającą sygnały harmoniczne (cosinus i sinus) o częstotliwości f:  e^{-j2\pi ft}=\cos{\left(2\pi ft\right)}-jsin\left(2\pi ft\right).

  (12)

Zespolone widmo X(f) jest funkcję częstotliwości, którą można wyrazić w hercach (Hz) lub jako pulsację (częstość kątową \omega=2\pi f) w radianach na sekundę. W tym drugim przypadku transformata Fouriera wyraża się wzorem 

\widetilde{X}(\omega)=\int_{-\infty}^{\infty}{x(t)e^{-j\omega t}dt}=X(\frac{\omega}{2\pi}) (13)

Dla niemal wszystkich spotykanych w praktyce sygnałów transformata Fouriera jest odwracalna (będzie jeszcze o tym mowa na końcu tego podrozdziału). W dziedzinę czasu przeprowadza nas odwrotna Transformata Fouriera:

  (14)

Podstawiając f={\frac{\omega}{2\pi}} otrzymuje sie równoważny wzór na transformatę odwrotną:

x(t)=\int_{-\infty}^{\infty}{X(\frac{\omega}{2\pi})e^{j\omega t}d\frac{\omega}{2\pi}}=\frac{1}{2\pi}\int_{-\infty}^{\infty}{\widetilde{X}(\omega)e^{j\omega t}d\omega} (15)

W dalszej części podręcznika będziemy stosować wzory (12) i (14) ze względu na symetrię i prostotę. Zauważmy, że widmo jest określone również dla częstotliwości ujemnych, co jest niezbędne do obliczenia transformaty odwrotnej. Zapisując widmo we współrzędnych biegunowych:

X(f)=\int_{-\infty}^{\infty}{x(t)e^{-j2\pi ft}dt}=|X(f)|e^{j\phi(f)} (16)

otrzymujemy widmo amplitudowe i fazowe.  Widmo amplitudowe jest parzystą funkcją częstotliwości 

|X(-f)|=|X(f)| (17)

a widmo fazowe – funkcją nieparzystą :

\phi(-f)=-\phi(f) (18)

Obliczmy widmo symetrycznego impulsu prostokątnego o czasie trwania (Rys.14).

Rysunek 14 Symetryczny impuls prostokątny

X( f) =F[ x( t)] =\int ^{τ/2}_{-τ/2} e^{-j2πft} dt=\frac{1}{-j2πf} e^{-j2πft} \mid ^{τ/2}_{-τ/2} =\\=\frac{1}{-j2πf}[ e^{-jπfτ} -e^{jπfτ} =\frac{1}{\pi f}\left[\frac{e^{+j\pi f\tau}-e^{-j\pi f\tau}}{2j}\right]=\frac{sin{(}\pi f\tau)}{\pi f}=\tau\frac{sin{(}\pi f\tau)}{\pi f\tau} (19)

Ze względu na symetrię, widmo przyjmuje wartości rzeczywiste (część urojona jest równa zeru):

Rysunek 15 Widmo impulsu prostokątnego

 

3.2. Właściwości transformaty Fouriera

Właściwości transformaty Fouriera

3.3. Przesunięcie w czasie

Znając widmo sygnału x(t), X(f)=F[x(t)], obliczmy widmo sygnału x(t-t0):

F[x(t-t_{0} )]=\int ^{\infty }_{-\infty } x(t-t_{0} )e^{-j2π⥂ f⥂ t}\ dt=\\=e^{-j2π⥂ f⥂ t_{0}}\int ^{\infty }_{-\infty } x(t-t_{0} )e^{-j2π⥂ f(⥂ t-t_{0} )}\ d(t-t_{0} )=\\=e^{-j2π⥂f⥂t_0}\ F[x(t)]=e^{-j2π⥂f⥂t_0}\ X(f) (20)

Widmo sygnału oryginalnego należy pomnożyć przez e^{-j2\pi{ft}_0}

3.4. Przesunięcie w częstotliwości

Widmo przesunięto o f0 Hz, jak zmieni się przebieg czasowy sygnału? Innymi słowy, znamy transformatę odwrotną widma X(f),  x(t)=F-1[X(f)],  jaka będzie transformata odwrotna widma X(f-f0)?

F[x(t-t_{0} )]=\int ^{\infty }_{-\infty } x(t-t_{0} )e^{-j2π⥂ f⥂ t}\ dt=e^{-j2π⥂ f⥂ t_0} \ \int ^{\infty }_{-\infty } x(t-t_{0} )e^{-j2π⥂ f(⥂ t-t_{0})}\ d(t-t_{0} )=\\=e^{j2\pi f_0t}F^{-1}[X(f)]=e^{j2πf_0t}x(t) (21)

Sygnał oryginalny należy pomnożyć przez  e^{j2\pi f_0t}.

3.5. Różniczkowanie

Znając transformatę sygnału x(t), obliczymy transformatę jego pochodnej \frac{d}{dt}x(t). Wychodząc od wzoru na transformatę odwrotną

x(t)=F^{-1} [X(f)]=\int ^{\infty }_{-\infty } X(f)e^{j2πft} df

obliczymy pochodną lewej i prawej strony:

\frac{d}{dt} x(t)=\int ^{\infty }_{-\infty } X(f)[\frac{d}{dt} e^{j2πft} ]df=\int ^{\infty }_{-\infty } X(f)[j2πfe^{j2πft} ]df=\\=\int ^{\infty }_{-\infty } [j2πfX(f)]e^{j2πft} df=F^{-1} [j2πfX(f)] (22)

Następnie obliczymy transformatę Fouriera obu stron równości

F\left[\frac{d}{dt}x\left(t\right)\right]=F\left\{F^{-1}\left[j2\pi fX\left(f\right)\right]\right\}=j2\pi fX(f) (23)

Wystarczy zatem pomnożyć widmo przez   j2\pi f=j\omega

3.6. Splot i autokorelacja

Widmo splotu dwóch sygnałów jest iloczynem ich widm:

x(t)\ast\ y(t)=\int_{-\infty}^{\infty}{x\left(\tau\right)\ y\left(t-\tau\right)\ d\tau=}\int_{-\infty}^{\infty}{y\left(\tau\right)\ x(t-\tau)d\tau}

F[x(t)\ast\ y(t)]=F[x(t)]F[y(t)]=X(f)Y(f)

(24)

Dowód opiera się na podstawieniu e^{-j2\pi f\tau}\dot\ e^{j2\pi f\tau}=1.

F[x(t)\ast \ y(t)]=F\left[\int ^{\infty }_{-\infty } x( τ) y(t-τ)dτ\right] =\int ^{\infty }_{-\infty }\int ^{\infty }_{-\infty } x( τ) y(t-τ)dτ e^{-j2πft} dt=

=\int_{-\infty}^{\infty}{x\left(\tau\right)\ e^{-j2\pi f\tau}d\tau}\int_{-\infty}^{\infty}{y\left(t-\tau\right)\ e^{-j2\pi f(t-\tau)}d(t-\tau)}=X\left(f\right)\ Y(f)

 

Podobnie można pokazać, że transformata odwrotna splotu widm jest iloczynem sygnałów

F^{-1}[X(f)\ast\ Y(f)]=F^{-1}[X(f)]F^{-1}[Y(f)]=x(t)y(t)

 

(25)

Z tego wynika, ze transformata Fouriera iloczynu sygnałów jest splotem ich widm:

F\left[x(t)y(t)\right]=X(f)\ast Y(f)

(26)

Z kolei funkcja autokorelacji przechodzi w widmo amplitudowe podniesione do kwadratu:

R_x(\tau)=\int_{-\infty}^{\infty}{x\left(t\right)\ x(t-\tau)dt}

F[R_x(\tau)]=X(f)X*(f)=|X(f)|^2

(27)

Jest to twierdzenie Wienera-Chinczina. 

 

3.7. Gęstość energii i gęstość mocy

Kwadrat widma amplitudowego  {|X\left(f\right)|}^2 nazywamy gęstością energii.  Całkując gęstość energii otrzymujemy energię sygnału:

E=\int_{-\infty}^{\infty}{x^2(t)dt}=\int_{-\infty}^{\infty}{|X(f)|^2df} (28)

Jest to twierdzenie Parsevala. Dowód opiera się na spostrzeżeniu, że funkcja autokorelacji przy zerowym przesunięciu jest równa energii sygnału:

R_x(0)=\int_{-\infty}^{\infty}{x^2(t)dt}=E  

Z drugiej strony, z twierdzenia Wienera-Chinczina wynika że 

 R_x(\tau)=F^{-1}[X(f)X^\ast(f)]=\int_{-\infty}^{\infty}X(f)X*(f)e^{j2πfτ}df  

Podstawiając zerowe przesunięcie \tau=0, otrzymuje się energię wyrażoną wzorem

R_x(0)=\int_{-\infty}^{\infty}{X(f)X^\ast(f)e^{j2\pi f0}df}=\int_{-\infty}^{\infty}{X(f)X^\ast(f)df}=\int_{-\infty}^{\infty}{|X(f)|^2df}=E  

Dla sygnałów o nieskończonej energii lecz skończonej mocy posługujemy się gęstością mocy. Nieskończona energia wynika najczęściej z nieskończonego czasu trwania sygnału. W oknie o czasie trwania T mamy skończoną energię sygnału m(t) E_T=\int_{-T/2}^{T/2}{m^2(t)dt} i możemy obliczyć średnią moc dzieląc energię przez T. Po przejściu do nieskończoności otrzymujemy średnią moc całego sygnału: P=\lim\limits _{T\rightarrow \infty }\frac{1}{T} E_{T}
Zgodnie z twierdzeniem Parsevala energię w oknie możemy obliczyć z gęstości energii:

E_T=\int_{-T/2}^{T/2}{m^2(t)dt}=\int_{-\infty}^{\infty}{|M_T(f)|^2df}  

gdzie M_T(f)=\int_{-T/2}^{T/2}{m(t)e^{-j2\pi ft}dt}. Moc średnia w oknie wyraża się wówczas wzorem

P_T=\frac{E_T}{T}=\frac{1}{T}\int_{-T/2}^{T/2}{m^2(t)dt}=\int_{-\infty}^{\infty}{\frac{1}{T}|M_T(f)|^2df}  

Gdy T dąży do nieskończoności, wówczas PT staje się średnią mocą sygnału, otrzymaną przez całkowanie gęstości mocy:

G_m(f)=\lim\limits _{T\rightarrow \infty }\frac{1}{T}|M_T(f)|^2 (29)
P=\int_{-\infty}^{\infty}{G_m(f)df=}\lim\limits _{T\rightarrow \infty }\ \frac{1}{T}\int_{-T/2}^{I/2}{m^2(t)dt} (30)

3.8. Impuls Diraca

Impuls Diraca (zwany deltą Diraca) posłużył nam do wyznaczania odpowiedzi impulsowej filtru (Rys.13). Przybliżaliśmy go impulsem prostokątnym o jednostkowym iloczynie czas trwania razy amplituda, lecz może on mieć dowolny kształt, pod warunkiem zachowania jednostkowej wartości całki \int_{-\infty}^{\infty}{\delta(t)dt=1} przy czasie trwania dążącym do zera (Rys.16)

Rysunek 16 Impuls Diraca w dziedzinie czasu

Splot sygnału x(t) z impulsem Diraca nie zmienia tego sygnału:

x(t)\ast\delta(t)=\int_{-\infty}^{\infty}{x(\tau)\delta(t-\tau)d\tau}=\int_{t-\varepsilon}^{t+\varepsilon}{x(\tau)\delta(t-\tau)d\tau}=x(t)\int_{t-\varepsilon}^{t+\varepsilon}{\delta(t-\tau)d\tau}=x(t) (31)

Splot z przesuniętym impulsem przesuwa sygnał do momentu, w którym ten impuls wystąpił:

x(t)\ast\delta(t-t_0)=\int_{-\infty}^{\infty}{x(\tau)\delta(t-t_0-\tau)d\tau}=\int_{t-t_0-\varepsilon}^{t-t_0+\varepsilon}{x(\tau)\delta(t-t_0-\tau)d\tau}=x(t-t_0) (32)

Transformata Fouriera impulsu Diraca jest funkcją częstotliwości o stałej wartości 

F\left[\delta(t)\right]=\int_{-\infty}^{\infty}{\delta(t)e^{-j2\pi ft}dt}=\int_{-\varepsilon}^{\varepsilon}{\delta(t)e^{-j2\pi ft}dt}=1 (33)

Oznacza to, że impuls zawiera składowe o wszystkich częstotliwościach i żadna z nich nie jest uprzywilejowana. Z twierdzenia o przesunięciu (20) wynika wzór na transformatę Fouriera przesuniętego impulsu Diraca:

F\left[\delta(t-t_0)\right]=e^{-j2\pi f t_0} (34)

 

3.9. Widma sygnałów harmonicznych i okresowych

Impuls Diraca możemy też określić w dziedzinie częstotliwości. Jeśli wyrażamy częstotliwość w Hz, właściwości takiego impulsu są takie same jak impulsu określonego w dziedzinie czasu. 

Rysunek 17 Impuls Diraca w dziedzinie częstotliwości

Odwrotna transformata Fouriera zwraca wartość stałą

F^{-1}\left[\delta(f)\right]=\int_{-\infty}^{\infty}{\delta(f)e^{j2\pi ft}df}=1 (35)

Wynika z tego że d(f) można uważać za transformatę Fouriera sygnału o wartości stałej, choć taki sygnał nie jest całkowalny w nieskończonym przedziale czasu.   
Z twierdzenia o przesunięciu widma (21) wynikają następujące równania:

F^{-1}\left[\delta\left(f-f_0\right)\right]=\int ^{\infty }_{-\infty }δ(f-f_0)e^{j2πft}df=e^{j2πf_0t} F[ej2πf0t]=δ(f-f0) (36)
F^{-1}\left[\delta\left(f+f_0\right)\right]=\int ^{\infty }_{-\infty }δ(f+f_0)e^{j2πft}df=e^{-j2πf_0t} F[e-j2πf0t]=δ(f+f0)

W konsekwencji otrzymujemy wzory na widma sygnału kosinusoidalnego i sinusoidalnego o częstotliwości f_0

F[ cos(2πf0t)] =F[\frac{ej2πf0t+e-j2πf0t}{2} ]=\frac{1}{2}[ δ(f-f_{0} )+δ(f+f_{0} )] (37)
F[ cos(2πf0t)] =F[\frac{ej2πf0t-e-j2πf0t}{2} ]=\frac{1}{2}[ δ(f-f_{0} )-δ(f+f_{0} )]

Prążki widmowe występują na częstotliwości f_0 i jej lustrzanym odbiciu –f_0
Ze względu na fakt, że sygnał okresowy można przedstawić szeregiem Fouriera, jako sumę sygnałów harmonicznych o częstotliwościach F_{n} =n/T_{0} , gdzie n=0,1,2,3... a T0  jest okresem (Rys. 18), widmo takiego sygnału składa się z prążków leżących na częstotliwościach {\pm F}_n (Rys.19).

Rysunek 18 Sygnał okresowy jako suma sygnałów harmonicznych

 

Rysunek 19 Widmo sygnału okresowego (po dodatniej stronie osi częstotliwości)

 


 

3.10. Odwracalność transformaty Fouriera (materiał dodatkowy)

Podstawową właściwością transformaty Fouriera jest jej odwracalność, z widma można otrzymać dokładną kopię sygnału w dziedzinie czasu: x(t)=F-1 F[x(t)].  Aby uzasadnić tę właściwość zapiszmy w jednym wzorze transformację prostą i odwrotną.

F^{-1} F[x(t)]=\int ^{\infty }_{-\infty } X(f)e^{j2πft} df=\int ^{\infty }_{-\infty } [\int ^{\infty }_{-\infty } x(τ)e^{-j2πfτ} dτ]e^{j2πft} df=\\=\int_{-\infty}^{\infty}{\int_{-\infty}^{\infty}{x(\tau)e^{-j2\pi f\tau}}e^{j2\pi ft}df}d\tau=\int_{-\infty}^{\infty}{x(\tau)\int_{-\infty}^{\infty}{e^{j2\pi f(t-\tau)}df}}d\tau

 

Otrzymaliśmy całkę splotową: sygnał x(t) splata się z sygnałem  v(t)=\int_{-\infty}^{\infty}{e^{j2\pi ft}df}:

F^{-1} F[x(t)]=\int ^{\infty }_{-\infty } x(τ)v(t-τ)dτ=x(t)\ *\ v(t)

 

Gdyby sygnał v(t) był impulsem Diraca (v(t)=\delta(t)), wówczas (na podstawie wzoru 31) wynikiem splatania byłby sygnał x(t) i odwracalność byłaby udowodniona:

F^{-1}F[x(t)]=x(t)*δ(t)=x(t)

 

Wystarczy zatem wykazać, że \delta\left(t\right)=v\left(t\right)=\int_{-\infty}^{\infty}{e^{j2\pi ft}df}. Funkcja e^{j2\pi ft} nie jest całkowalna w przedziale nieskończonym, ale można ją pomnożyć przez e^{-a|f|},\ a>0, scałkować a potem przejść ze współczynnikiem a do zera. Po scałkowaniu otrzymujemy

\int_{-\infty}^{\infty}{e^{-a|f|+j2\pi ft}df}=\int_{-\infty}^{0}{e^{af+j2\pi ft}df}+\int_{0}^{\infty}{e^{-af+j2\pi ft}df}=\frac{2a}{a^2+4\pi^2t^2}

 

Gdy a\rightarrow0, wówczas otrzymana funkcja dąży do zera dla każdego t\neq0.  Jej wartość dla t=0 nie jest określona, natomiast całka \int_{-\infty}^{\infty}{\frac{2a}{a^2+4\pi^2t^2}dt}=1. Funkcja v(t)=\int_{-\infty}^{\infty}{e^{j2\pi ft}df} przedstawia zatem impuls Diraca i odwracalność transformacji Fouriera jest wykazana. 

3.11. Opis układów liniowych w dziedzinie częstotliwości

Układy liniowe o parametrach niezmiennych w czasie są opisane splotem (wzór 10): y(t)=x(t)\ast h(t), gdzie h(t) – odpowiedz impulsowa układu. Ze wzoru (24) wynika, że widmo sygnału wyjściowego jest iloczynem widma sygnału wejściowego i transformaty Fouriera odpowiedzi impulsowej:

Y\left(f\right)=X\left(f\right)H(f) (38)

Funkcja H(f) jest nazywana charakterystyką częstotliwościową układu.
Równanie (38) można przepisać w taki sposób, aby odnosiło się ono do widm amplitudy, gęstości energii i gęstości mocy. 

|Y\left(f\right)|=|X\left(f\right)|\cdot |H\left(f\right)| (39)
{|Y\left(f\right)|}^2={|X\left(f\right)|}^2\cdot{|H\left(f\right)|}^2 (40)
G_y(f)=G_x(f)\ H(f)|^2 (41)

Jeśli na wejście układu (filtru) podamy sygnał harmoniczny o częstotliwości f_0, np. x(t)=Acos{(}2\pi f_0t+\phi) wówczas na wyjściu pojawi się sygnał harmoniczny o tej samej częstotliwości. Na jego amplitudę i fazę będzie miała wpływ wartość charakterystyki częstotliwościowej układu dla częstotliwości f_0. (pomijamy tu stany przejściowe, wszak sygnał harmoniczny rozciąga się w nieskończoność na osi czasu). Amplituda zostanie pomnożona przez |H(f_0)| a faza przesunięta o arg(H(f0)). Na wyjściu układu otrzymamy sygnał: 

y(t)=A|H(f_0)|cos{[}2\pi\ f_0t+\phi+arg{(}H(f_0))] (42)

Amplitudę i fazę początkową sygnału wejściowego można zapisać jako liczbę zespoloną Ae^{j\phi} (tzw. amplituda zespolona). Po przejściu przez filtr zostanie ona pomnożona przez H(f_0)=|H(f_0)|e^{jarg{(}H(f_0))}=|H(f_0)|e^{j\mathrm{\Psi}(f_0)}. Amplitudę zespoloną i przebieg czasowy sygnału wyjściowego filtru pokazano na Rys. 20.

Rysunek 20 Metoda amplitud zespolonych

Obecnie proces filtracji przeprowadza się głównie w czasie dyskretnym, przetwarzając ciągi wartości chwilowych (próbek) sygnału. Z tego względu przedstawiono tu filtrację w czasie ciągłym w sposób uproszczony i w skrócie. Filtracja w czasie ciągłym jest jednak niezbędna do ograniczenia pasma sygnału przed procesem próbkowania i do przetworzenia szeregu próbek na sygnał ciągły. 

4. Próbkowanie

Próbkowanie

4.1. Próbkowanie idealne

Sygnały mowy, muzyki, obrazy ruchome i nieruchome przetwarzamy w urządzeniach cyfrowych jako ciągi liczb (próbek, pikseli). W szczególności sygnały akustyczne, będące funkcjami czasu ciągłego, są przetwarzanie na ciągi wartości chwilowych (próbek).  Pomiary wartości chwilowych odbywają się co T (sekund, milisekund, mikrosekund). T nazywamy okresem próbkowania, a f_s={1}/{T}  jest częstotliwością próbkowania (sampling rate, sampling frequency). Próbki opisujemy matematycznie jako impulsy Diraca pomnożone przez wartość chwilową sygnału akustycznego w momencie wystąpienia impulsu (Rys. 21).

Rysunek 21 Próbkowanie idealne sygnału x(t)

Sygnał x(t) jest więc pomnożony przez periodyczny ciąg impulsów Diraca (tzw. dystrybucję grzebieniową):

x_s(t)=x(t)\cdot\sum_{n}{\delta(t-nT)}=\sum_{n}{x(nT)\delta(t-nT)}=\sum_{n}{x_n\delta(t-nT)} (43)

Widmo (transformata Fouriera) takiego ciągu próbek jest sumą widm przesuniętych impulsów Diraca pomnożonych przez wartość próbki xn.  Widmo impulsu Diraca występującego w chwili t=0 jest równe 1 (wzór 33), a występującego w chwili t=nT  wynosi e^{-j2\pi fnT} (wzór 34). Stąd widmo ciągu próbek wynosi

X_s(f)=F[x_s(t)]=\sum_{n}x_{n}e^{-j2πfnT} (44)

Funkcja  e^{-j2\pi fnT} jest okresową funkcją częstotliwości f, jej okres wynosi {\frac{1}{nT}} .  Wspólnym okresem dla wszystkich funkcji występujących we wzorze (44) jest {\frac{1}{T}=f_s}. Tak więc widmo ciągu próbek jest okresową funkcją częstotliwości powtarzającą się co częstotliwość próbkowania. 
Ze względu na podobieństwo wzorów definiujących prostą i odwrotną transformatę Fouriera (wzory 12 i 14; mówimy o dualizmie czasowo-częstotliwościowym), podobnej właściwości należy się spodziewać po odwrotnej transformacie Fouriera. Jeśli widmo ma charakter „prążkowy” (jest ciągiem impulsów Diraca – wzór 45), to sygnał w dziedzinie czasu jest okresowy  (wzór 46).

X(f)=\sum_{n}X_nδ(f-n/T) (45)
x(t)=F^{-1}[X(f)]=\sum_{n}X_nF^{-1}[δ(f-n/T)]=\sum_{n}X_{n}e^{j2π\frac{n}{T}}t (46)

Prążki widma występują co {\frac{1}{T}=f_s}, a okres sygnału x(t) wynosi T. Potwierdza to obserwację przedstawioną na Rys.19. 
Periodyczny ciąg impulsów Diraca, używany do opisu próbkowania idealnego, powinien mieć widmo dyskretne („prążkowe”), gdyż jest sygnałem okresowym, a także okresowe, gdyż jest sygnałem próbek, impulsów Diraca. Innymi słowy, jego widmo też jest periodycznym ciągiem impulsów Diraca, co pokazano na Rys.22.  i opisano we wzorze (47). 

Rysunek 22 Sygnał próbkujący i jego widmo

F\left\{\sum_{n}{\delta(t-nT)}\right\}=\frac{1}{T}\sum_{n}{\delta(f-\frac{n}{T})} (47)

Próbkowanie idealne polega na mnożeniu sygnału ciągłego x(t) przez sygnał próbkujący pokazany na rys.22 (patrz wzór 43). Mnożenie w dziedzinie czasu odpowiada splataniu w dziedzinie częstotliwości (wzór 26). Splot funkcji X(f) z impulsem Diraca oznacza przesunięcie tej funkcji na pozycję wyznaczoną przez ten impuls (wzór 32 opisuje to w dziedzinie czasu, identycznie działa to w dziedzinie częstotliwości). W efekcie widmo X(f) zostaje przemieszczone na pozycje {n}/{T}=nf_s:

X_s(f)=F[x(t)⋅\sum_{n}δ(t-nT)]=X(f)*\frac{1}{T}\sum_{n}δ(f-\frac{n}{T})=\frac{1}{T}\sum_nX(f-\frac{n}{T}) (48)

Tak więc widmo sygnału spróbkowanego zawiera nieskończoną liczbę kopii widma sygnału ciągłego, przesuniętych względem siebie o częstotliwość próbkowania (rys. 23).

Rysunek 23 Widmo sygnału spróbkowanego

Widmo sygnału próbek zawiera w sobie pełną informację o widmie sygnału ciągłego, w postaci kopii widmowej posadowionej na częstotliwości f=0. Sygnał ciągły można odzyskać, wydobywając z widma sygnału próbek tę nieprzesuniętą kopię widmową. Można posłużyć się filtrem dolnoprzepustowym o częstotliwości granicznej równej połowie częstotliwości próbkowania. 

Rysunek 24 Odzyskiwanie sygnału ciągłego z próbek

Proces ten będzie udany, jeśli kopie widmowe nie będą się pokrywały. Aby spełnić ten warunek, częstotliwość próbkowania f_s={\frac{1}{T}} musi być co najmniej 2 razy większa od pasma sygnału ciągłego (f_M). Jest to treść Twierdzenia o Próbkowaniu (Shannon, Nyquist, Kotelnikow):

Gdy f_m, czyli częstotliwość próbkowania (1/T) jest co najmniej 2 razy większa od pasma sygnału (f_m), wówczas sygnał ciągły można odzyskać z sygnału próbek metodą filtracji

 Jeśli częstotliwość próbkowania jest zbyt niska, wówczas kopie widmowe pokrywają się i nie ma możliwości odtworzenia sygnału ciągłego z sygnału próbek (rys.25).

Rysunek 25 Widmo sygnału spróbkowanego przy zbyt niskiej częstotliwości próbkowania

Sygnał ciągły x(t) jest odtwarzany z próbek metodą filtracji. Na rys.26 pokazano odpowiedź impulsową h(t) idealnego filtru dolnopasmowego o częstotliwości granicznej {f_s}/{2}=\frac{1}{2T} (patrz 8.1, zad.4).

Rysunek 26 Odpowiedź impulsowa idealnego filtru dolnopasmowego o częstotliwości granicznej 1/(2T)

Na pobudzenie pojedynczą próbką (impulsem Diraca pomnożonym przez wartość chwilową sygnału ciągłego) filtr reaguje przesuniętym sygnałem proporcjonalnym do h(t). W rezultacie sygnał ciągły jest odtwarzany jako suma przesuniętych sygnałów o kształcie pokazanym na rys.26. Funkcja sin(x)/x zwana jest zresztą funkcją próbkującą. Proces odtwarzania sygnału ciągłego pokazano na rys.27.

Rysunek 27 Odtwarzanie sygnału ciągłego z próbek

 

4.2. Próbkowanie momentalne

Próbkowanie idealne nie jest realizowalne w praktyce, gdyż nie jest możliwe wytworzenie impulsów Diraca. Zastępuje się je impulsami, najczęściej o kształcie prostokątnym i czasie trwania t (rys. 28).

Rysunek 28 Próbkowanie momentalne

Amplitudy impulsów są równe wartościom chwilowym sygnału ciągłego mierzonych w chwilach t=0,\pm T,\pm2T,\ldots gdzie T jest okresem próbkowania. Jest to tzw. próbkowanie momentalne. 
Matematycznie można je opisać wzorem (49), splatając sygnał próbkowania idealnego z symetrycznym impulsem prostokątnym o czasie trwania t, oznaczonym jako {rect}_\tau(t). Wówczas każdy impuls Diraca zamieni się w prostokąt. Oczywiście nie jest to przepis na praktyczną realizację próbkowania momentalnego. 

x(t)\cdot\sum_{n}{\delta(t-nT)}\ \ast\ rect_\tau(t) (49)

Widmo (transformatę Fouriera) sygnału próbek otrzymamy, zastępując splot w dziedzinie czasu mnożeniem widma sygnału spróbkowanego idealnie i widma impulsu prostokątnego:

F[x(t)⋅\sum_{n}δ(t-nT)]*rect_τ(t)=\frac{1}{T}\sum_{n}X(f-\frac{n}{T})⋅τ\frac{sin(πτf)}{πτf} (50)

Otrzymane widmo próbek o kształcie prostokątnym przedstawiono na rys. 29.

Rysunek 29 Widmo sygnału próbkowania momentalnego i filtr korygujący zniekształcenia liniowe

Dla odtworzenia sygnału ciągłego istotna jest jedynie centralna kopia widmowa. Jeśli spełnione jest założenie twierdzenia o próbkowaniu, wówczas można odtworzyć sygnał ciągły, tłumiąc pozostałe kopie widmowe. Wymaga to jednak wzmocnienia wyższych częstotliwości, aby zrekompensować tłumienie wynikające z mnożenia widma przez funkcję \frac{\sin{\pi\tau f}}{\pi\tau f}

Szczególnym rodzajem próbkowania momentalnego jest próbkowanie z pamiętaniem (sample and hold). W tym wypadku impulsy próbkujące się stykają, gdyż czas ich trwania t jest równy okresowi próbkowania T. Sygnał próbkowania z pamiętaniem pokazano na rys. 30 a jego widmo na rys. 31. 

Rysunek 30 Próbkowanie z pamiętaniem

Rysunek 31 Widmo sygnału próbkowania z pamiętaniem i filtr korygujący zniekształcenia liniowe

 

4.3. Próbkowanie sygnałów pasmowych

Twierdzenie o próbkowaniu można uogólnić dla sygnałów pasmowych (rys.32). 

Rysunek 32 Widmo sygnału pasmowego

Głosi ono, że sygnał o paśmie B Hz można zapisać i odtworzyć mając co najmniej 2B próbek na sekundę. Nie zawsze jednak próbkowanie można przeprowadzić bezpośrednio, zwykle trzeba zastosować modulację sprowadzającą sygnał do pasma niskich częstotliwości od 0 do B Hz. 
W niektórych przypadkach próbkowanie z częstotliwością 2B można przeprowadzić bezpośrednio. Jest to tzw. integer sampling i występuje wówczas, gdy skalę częstotliwości można podzielić na podpasma o równej szerokości, a widmo sygnału ciągłego zajmuje całe takie podpasmo. 

Weźmy np. pasmo o szerokości B=1 kHz, rozciągające się od 2 do 3 kHz (rys.33). Częstotliwość próbkowania wynosi 2B=2 kHz. Próbkowanie wytwarza kopie widmowe posadowione na częstotliwościach 0,\pm2,\pm4\pm6\ldots kHz. Nieprzesunięta kopia widmowa, zawierająca widmo sygnału ciągłego, nie została zmieszana z innymi kopiami widmowymi, w związku z tym możliwe jest odtworzenie sygnału ciągłego metodą filtracji pasmowej. 

Rysunek 33 Integer sampling: widmo sygnału ciągłego, widmo sygnału próbek praz charakterystyka częstotliwościowa filtru

 

4.4. Symulacje próbkowania sygnałów audio i sygnału sinusoidalnego

Zachęcam Państwa do przeprowadzenia symulacji układu próbkowania i odzyskiwania sygnału ciągłego z próbek.  Program symulacyjny, instrukcję jego obsługi i proponowane eksperymenty znajdą Państwo w Module 4. 

5. Analiza widmowa sygnałów dyskretnych

Analiza widmowa sygnałów dyskretnych

5.1. Transformaty DTFT i DFT

Jak wspomniano w p.3.1, analiza widmowa polega na wyszukiwaniu w sygnale składowych o różnych częstotliwościach. Podstawowym narzędziem analizy widmowej jest transformata Fouriera (wzór 12).  Aby wykorzystać algorytmy cyfrowego przetwarzania sygnałów, przeprowadza się operację próbkowania. Transformata Fouriera sygnału próbek opisana jest wzorami (44), (48), patrz też rys.23 i 25. Ze względu na próbkowanie czas przyjmuje tu wartości dyskretne, natomiast częstotliwość jest zmienną ciągłą. Transformata Fouriera sygnału próbek oznaczana jest symbolem DTFT (Discrete Time Fourier Transform)

Jeśli czas trwania sygnału jest nieograniczony, wówczas do obliczenia DTFT należałoby użyć nieskończonej liczby próbek. Obliczenie DTFT ze wzoru (44) nie byłoby wówczas możliwe, z tego względu liczbę próbek ogranicza się do pewnej wartości L. Oznacza to, że analizowany sygnał mnoży się przez okno o czasie trwania LT sekund (T jest okresem próbkowania) – rys. 34.

Rysunek 34 L próbek sygnału w dziedzinie czasu

Obliczenie DTFT nie nastręcza wówczas trudności: 

X_s(f)=\sum_{n=0}^{L-1}x_ne^{-j2\pi fn\ T} (51)

Należy tu przypomnieć, że X_s(f) jest okresową funkcją f i powtarza się co częstotliwość próbkowania  {\frac{1}{T}=f_s}  (rys.23, rys.25). W szczególności oznacza to, że wartości widma DTFT na częstotliwości (-f) i \frac{1}{T}-f są równe. Ponieważ {X_s\left(-f\right)=X_s}^\ast\left(f\right), co wynika ze wzoru definicyjnego transformaty Fouriera (12), to wartości widma DTFT na częstotliwościach f i \frac{1}{T}-f są parą liczb sprzężonych (gwiazdka oznacza sprzężenie). Ten efekt „lustrzanego odbicia” potwierdza wynik podstawienia częstotliwości  \frac{1}{T}-f do wzoru (44):

X_s(\frac{1}{T}-f)=\sum_{n=0}^{L-1}x_ne^{-j2\pi(\frac{1}{T}-f)nT}=\sum_{n=0}^{L-1}x_ne^{-j2\pi n}e^{j2πfnT}=\sum_{n=0}^{L-1}x_ne^{j2πfnT}=Xs*(f) (52)

Wartość DTFT można obliczyć dla każdej częstotliwości f.  W komputerowej analizie widmowej należy wybrać skończoną liczbę wartości f, dokonując w ten sposób próbkowania widma DTFT. Spróbkujemy je w przedziale częstotliwości od 0 do częstotliwości próbkowania  f_s={\frac{1}{T}}  , pobierając L próbek na częstotliwościach  f_k=\frac{k}{TL},\ \ k=0,1,…,L- 1

Otrzymamy L wartości 

X_k=\sum_{n=0}^{L-1}x_ne^{-j2πfknT}=\sum_{n=0}^{L-1}x_ne^{-j2π\frac{k}{TL}nT}=\sum_{n=0}^{L-1}x_ne^{{-j2π}\frac{kn}{L}}, k=0,...,L-1 (53)

Podstawiając  W_L=e^{-j\frac{2\pi}{L}} otrzymamy L wyrażeń liniowych: 

X_k=\sum_{n=0}^{L-1}x_nW_L^{kn},\qquad k=0,1,\cdots,L-1 (54)

które można przepisać w postaci macierzowej:  \overline{X}=\overline{W}\overline{x} :

\left[\begin{matrix}X_0\\X_1\\\vdots\\X_{L-1}\\\end{matrix}\right]\ =\ \left[\begin{matrix}W_L^{0\cdot0}&W_L^{0\cdot1}&\cdots&W_L^{0\cdot(L-1)}\\W_L^{1\cdot0}&W_L^{1\cdot1}&\cdots&W_L^{1\cdot(L-1)}\\\vdots&\vdots&&\vdots\\W_L^{(L-1)\cdot0}&W_L^{(L-1)\cdot1}&\cdots&W_L^{(L-1)\cdot(L-1)}\\\end{matrix}\right]\ \left[\begin{matrix}x_0\\x_1\\\vdots\\x_{L-1}\\\end{matrix}\right] (55)

Zapisaliśmy w ten sposób wzór na Dyskretną Transformatę Fouriera (DFT).  Macierz transformaty DFT (\overline{W}) jest zespolona, symetryczna  (W_L^{kn}=W_L^{nk}) i nieosobliwa.  Można pokazać, że  \frac{1}{L}\overline{W}{\overline{W}}^\ast=I  (gwiazdka oznacza sprzężenie).  Macierz odwrotna jest równa 

{\overline{W}}^{-1}=\frac{1}{L}{\overline{W}}^\ast (56)

Odwrotna Dyskretna Transformata Fouriera (IDFT)  opisana jest zatem wzorem 

\overline{x}={\overline{W}}^{-1}\ \overline{X}=\frac{1}{L}{\overline{W}}^\ast\ \overline{X} (57)

K-ty wiersz transformaty DFT zawiera elementy e^{-j\frac{2\pi}{L}kn}=cos{(}\frac{2\pi}{L}kn)-jsin{(}\frac{2\pi}{L}kn), czyli próbki sygnału harmonicznego o częstotliwości  f_k=\frac{k}{TL} . W k-tym wierszu (numerujemy je od zera) zapisana jest k-ta funkcja bazowa transformaty DFT zawierająca k okresów sygnału harmonicznego. Ze względu na zjawisko „lustrzanego odbicia” (wzór  52) odpowiednie elementy wierszy numer k i L-k są ze sobą sprzężone. 
Współczynniki widma DFT są korelacjami analizowanego sygnału z funkcjami bazowymi (wzór 54). K-ty współczynnik powstaje przez pomnożenie k-go wiersza macierzy transformaty przez wektor - kolumnę próbek analizowanego sygnału (rys.35).  
Z kolei odwrotna Dyskretna Transformata Fouriera (IDFT)  odtwarza wektor próbek analizowanego sygnału w postaci kombinacji liniowej sprzężonych funkcji bazowych (57). 

Rysunek 35 Obliczanie DFT 8 próbek sygnału - pokazano tylko część rzeczywistą macierzy transformaty

W literaturze spotyka się określenie “szybka transformata Fouriera” (Fast Fourier Transform - FFT). FFT jest szybkim algorytmem obliczania DFT. Wykonywanie mnożenia macierzy przez wektor  (wzór 55) wymaga L2 operacji mnożenia i akumulacji. James Cooley i John Tukey zauważyli w 1965 roku, że te same operacje wykonywane są wielokrotnie. Wykonując je jednorazowo, można ograniczyć ich liczbę do L log2(L). 
Na rys. 36 pokazano 256 próbek sygnału audio i wartość bezwzględną DFT – 256 próbek widma w zakresie od 0 do częstotliwości próbkowania (44100 Hz). 

Rysunek 36 Sygnał audio liczący  256 próbek i wartość bezwzględna DFT (częstotliwość próbkowania 44100 Hz)

 

5.2. Transformata DCT

W zasadzie każda nieosobliwa macierz  \overline{W} mogłaby być wykorzystana jako transformata, jednak do analizy widmowej przydatne są transformaty, których funkcje bazowe (wiersze macierzy) są sygnałami wąskopasmowymi o różnych częstotliwościach.  DFT jest oparta na spróbkowanych sygnałach e^{-j\frac{2\pi}{L}kn}=cos{(}\frac{2\pi}{L}kn)-j\ sin{(}\frac{2\pi}{L}kn), natomiast Dyskretna Transformata Kosinusoidalna (Discrete Cosine Transform – DCT) – na spróbkowanych funkcjach cosinus. K-ty wiersz macierzy tej transformaty jest opisany wzorem (58):

W_{k,n}=\left\{\begin{matrix}\frac{1}{\sqrt L},\qquad k=0\\\sqrt{\frac{2}{L}}cos{(}\frac{\pi}{2L}(2n+1)k),\quad k=1,\cdots,L-1\\\end{matrix}\right. (58)

Częstotliwości spróbkowanych sygnałów kosinusoidalnych narastają od 0 Hz do niemal połowy częstotliwości próbkowania.  Oznacza to, że analiza widmowa z wykorzystaniem DCT odnosi się do zakresu częstotliwości od 0 do \frac{f_s}{2}
Do obliczenia DCT wg wzoru \overline{X}=\overline{W}\overline{x} można również zastosować szybki algorytm, jak w przypadku DFT. Ze względu na ortogonalność wierszy macierzy DCT spełnione jest równanie  \overline{X}^t=\overline{W}=I , gdzie t oznacza transpozycję, a I – macierz jednostkową. Oznacza to, że macierz transponowana jest jednocześnie macierzą odwrotną  \overline{W}^{-1}=\overline{W}^{t}, którą można wykorzystać jako macierz odwrotnej transformacji cosinusoidalnej (IDCT):

\overline{x}=\ {\overline{W}}^t\ \overline{X} (59)

Na rys.37 pokazano proces obliczania DCT dla 8 próbek sygnału. Macierz transformaty DCT jest rzeczywista, a więc współczynniki transformaty X_0,X_1,\ldots,X_{L-1} są liczbami rzeczywistymi. Na rys. 38 pokazano 256 próbek widma DCT sygnału przedstawionego na rys. 36. Współczynniki transformaty odnoszą się do zakresu częstotliwości od 0 do połowy częstotliwości próbkowania (22050 Hz). 
W Tabeli 1 porównano właściwości transformat DFT i DCT. Na uwagę zasługuje sposób przechowania informacji o fazie sygnału we współczynnikach transformaty. W DCT faza wpływa na relację pomiędzy częścią rzeczywistą i urojona współczynników, nie wpływa natomiast na ich wartość bezwzględną. W DCT informacja o fazie jest przechowywana w rzeczywistych wartościach współczynników transformaty, stąd widma DCT  sygnału sinusoidalnego i kosinusoidalnego są różne. 


Rysunek 37 Obliczanie DCT 8 próbek sygnału

Rysunek 38 Transformata DCT sygnału audio liczącego 256 próbek (częstotliwość próbkowania 44100 Hz

Tabela 1 Porównanie DFT i DCT

DFT

DCT

zespolona

rzeczywista

Zakres częstotliwości od 0 do częstotliwości próbkowania

Zakres częstotliwości od 0 do połowy częstotliwości próbkowania

Widmo amplitudy nie zależy od fazy sygnału

Widmo amplitudy silnie zależy od fazy sygnału

5.3. Wpływ okna czasowego na analizę widmową

Prawdziwe informacji o składzie widmowym analizowanego sygnału dostarcza nam jedynie transformata Fouriera (wzór 12). Analiza wspomagana komputerowo wymaga próbkowania, co daje efekt w postaci powtarzających się kopii widmowych, w tym „lustrzanego odbicia” widma od częstotliwości próbkowania.  Jeśli sygnał ma skończone pasmo, to z problemem tym można sobie łatwo poradzić: próbkujemy (zgodnie z twierdzeniem o próbkowaniu) z częstotliwością większą niż podwojone pasmo i odczytujemy widmo DTFT w zakresie od 0 do połowy częstotliwości próbkowania (wzór 44).  Widmo to zawiera tę samą informację co widmo fourierowskie obliczone metodą całkowania (wzór 12). 
Poważniejszy problem powstaje w przypadku sygnałów o długim (lub nieograniczonym) czasie trwania. Wówczas do analizy bierzemy jedynie L próbek (wzór 51). Oznacza to, że sygnał mnożymy przez okno prostokątne o czasie trwania \tau=LT, gdzie T jest okresem próbkowania.  Ta operacja zniekształca widmo, gdyż mnożenie w dziedzinie czasu oznacza splatanie w dziedzinie częstotliwości (wzór 26). Widmo obliczone na podstawie L próbek sygnału jest więc „rozmyte” skutkiem splatania z widmem okna. 
Jako przykład weźmy sygnał kosinusoidalny o częstotliwości f0. Jego widmo (wzór 37) pokazano na rys.39. Okno prostokątne o czasie trwania t pokazano na rys. 14 a jego widmo na rys.15. Splot widma sygnału kosinusoidalnego  (X(f)) z widmem okna (W(f)) składa się z przesuniętych kopii widma okna, gdyż splot funkcji z impulsem Diraca jest przesunięciem funkcji w miejsce położenia impulsu (wzór 32) – patrz rys.39.  Widmo sygnału harmonicznego zostało więc rozproszone w paśmie o szerokości listka głównego funkcji \frac{\sin{\pi f\tau}}{\pi f\tau}, pojawiły się też odległe składowe, związane z listkami bocznymi tej funkcji. Można je zmniejszyć kosztem poszerzenia listka głównego, stosując okna o kształcie nieprostokątnym, np. okno Hamminga. Rozproszenie widma można zmniejszyć poprzez zwiększenie czasu trwania okna (t), czyli liczby próbek (L). Istotnie, szerokość listka głównego widma okna prostokątnego wynosi \frac{2}{\tau}=\frac{2}{LT}=\frac{2f_s}{L} .
Jeżeli uwzględnimy efekt próbkowania, otrzymamy widmo L próbek sygnału kosinusoidalnego jak na rys. 40. Jest to widmo DTFT, widmo DFT otrzymamy, pobierając L próbek w zakresie od 0 do częstotliwości próbkowania. Widmo DCT zawiera L współczynników reprezentujących składowe o częstotliwościach od 0 do połowy częstotliwości próbkowania. Jego kształt będzie jednak zależał od fazy początkowej sygnału harmonicznego w oknie.

Rysunek 39 Widmo sygnału kosinusoidalnego i widmo wycinka tego sygnału

Rysunek 40 Widmo wycinka spróbkowanego sygnału kosinusoidalnego

 

5.4. Symulacje DFT i DCT sygnałów audio i sygnału sinusoidalnego

Zachęcam Państwa do przeprowadzenia analizy widmowej sygnałów audio i sygnału sinusoidalnego. Eksperymenty polegają na porównaniu wpływu czasu trwania okna i fazy początkowej na widmo DFT i DCT.  Program symulacyjny, instrukcję jego obsługi i proponowane eksperymenty znajdą Państwo w Module 4. 

6. Transformata Zet

Transformata Zet

6.1. Związek transformaty Zet z DTFT

Transformata Zet jest uogólnieniem transformaty DTFT. DTFT jest transformatą Fouriera sygnału próbek x_s(t)=\sum_{n}{x_n\delta(t-nT)}.  Przypominamy tu wzór (44):  X_s(f)=\sum_nx_nF[δ(t-nT)]=\sum_nx_ne^{-j2πfnT}
Transformatę Zet otrzymujemy przez podstawienie:  

z=e^{j2πfT}=cos(2πfT)+j\ sin(2πfT) (60)

Przypisuje ono częstotliwości f zmienną zespoloną z. Zmienna z jest punktem na okręgu o promieniu jednostkowym. Istotnie, |e^{j2πfT}|=\sqrt{cos^2(2πfT)+sin^2(2πfT)}=1. Na rys.41 pokazano związek między zmiennymi f i z.

Rysunek 41 Interpretacja graficzna wzoru (60)

W zakresie częstotliwości od 0 do częstotliwości próbkowania f_s=1/T punkt z wykonuje pełny obrót, wracając do wartości z=1. W tablicy 2 podano wartości z odpowiadające kilku częstotliwościom z tego zakresu.

Tabela 2 Wartości zmiennej z dla kilku wybranych częstotliwości

f:

0

1/(4T)

1/(2T)

3/(4T)

fs=1/T

z:

1

j

-1

-j

1

 

Podstawiając z=e^{j2πfT} do wzoru na widmo DTFT: X_s(f)=\sum_nx_ne^{-j2πfnT}=\sum_nx_nz^{-n} otrzymuje się wzór na transformatę Zet:

X(z)=Z[ \{{X_n}\}]=\sum_nx_nz^{-n} (61)

Transformata Zet może być obliczona dla każdej zespolonej wartości zmiennej z, dla której suma (61) jest skończona. 

6.2. Właściwości transformaty Zet

1.    Liniowość.  

Transformata Zet kombinacji liniowej sygnałów dyskretnych jest kombinacją liniową ich transformat Zet:

Z[\{ax_n+by_n\}]=aX(z)+bY(z) (62)

2.    Przesunięcie.

Przesunięcie ciągu próbek o k w lewo oznacza pomnożenie transformaty Zet przez z^k

Z[{x_{n+k}}]=\sum\limits _nx_{n+k}z^{-n}=z^k\sum\limits_nx_{n+k}z^{-(n+k)}=z^kX(z) (63)

Najczęściej mamy do czynienia z opóźnieniem o jedną próbkę, co oznacza pomnożenie transformaty przez z-1

3.    Tłumienie (mnożenie przez ciąg eksponencjalny).

Z[\{x_na^n\}]=\sum\limits_nx_na^nz^{-n}=\sum\limits_nx_n\frac{z}{a}^{-n}=X[\frac{z}{a}] (64)

4.    Tłumienie (mnożenie przez ciąg eksponencjalny).

Sumę splotową określamy wzorem (65), a operację splotu oznaczamy gwiazdką:

y_n=\sum\limits ^{\infty }_{k=-\infty }x_kh_{n-k} ⇒ y_n=x_n*h_n (65)

 

Transformata Zet splotu jest iloczynem transformat

y_n=\sum\limits ^{\infty }_{n=-\infty}y_nz^{-n}=\sum\limits ^{\infty }_{n=-\infty}\sum\limits ^{\infty }_{k=-\infty}x_kh_{n-k}z^{-n}=\sum\limits ^{\infty }_{k=-\infty}x_k\sum\limits ^{\infty }_{n=-\infty}h_{n-k}z^{-n}=\\=\sum\limits ^{\infty }_{k=-\infty}x_kz^{-k}\sum\limits ^{\infty }_{n=-\infty}h_{n-k}z^{n-k}=X(z)\cdot H(z) (66)

Przykład:  Obliczymy splot dwóch sygnałów dyskretnych: \{x_n\} i \{h_n\} najpierw metodą bezpośrednią, a potem poprzez mnożenie transformat Zet.
Ze wzoru y_n=\sum\nolimits ^{\infty }_{i=-\infty}x_ih_{n-1}  wynika, ze należy obliczyć lustrzane odbicie ciągu \{h_i\}, przesunąć o n pozycji i pomnożyć przez \{x_i\}. Operacje te pokazano na rys. 42. 
Dla przesunięcia n=0 istnieje tylko jedna pozycja i=0 wspólna dla ciągów \{x_i\} i z \{h_{n-i}\}. Otrzymujemy y_0=x_0h_0=1. Dla n=1 wspólne są pozycje 0 i 1 (patrz rys.42). Otrzymujemy y_1=x_0h_1+x_1h_0=1.5. Podobnie otrzymujemy  y_2=1.5 \ i \ y_3=0.5.  Pozostałe wartości splotu są równe zeru. 


Rysunek 42 Obliczanie splotu sygnałów dyskretnych

Znacznie prościej jest obliczyć transformaty Zet obu sygnałów dyskretnych i pomnożyć je:  Y(z)=X(z)\cdot H(z)
W kolejnych krokach otrzymujemy: 
 

X(z)=1+z^{-1}+z^{-2}

H(z)=1+\frac{1}{2}z^{-1}

Y(z)=X(z)H(z)=1+\frac{1}{2}z^{-1}+z^{-1}+\frac{1}{2}z^{-2}+z^{-2}+\frac{1}{2}z^{-3}=\\=1+\frac{3}{2}z^{-1}+\frac{3}{2}z^{-2}+\frac{1}{2}z^{-3}=y_0+y_1z^{-1}+y_2z^{-2}+y_3z^{-3}

 

Mając transformatę Y(z) możemy bezpośrednio z niej odczytać współczynniki y_n. Wynik jest identyczny z otrzymanym metodą sumowania.

6.3. Delta Kroneckera

Delta Kroneckera jest sygnałem dyskretnym \delta_n, którego wszystkie wartości są równe zeru, za wyjątkiem wartości  \delta_0=1  (rys.43).

Rysunek 43 Delta Kroneckera

W przetwarzaniu sygnałów dyskretnych pełni ona funkcję podobną do tej jaką impuls Diraca (zwany też deltą Diraca) pełni w przetwarzaniu sygnałów ciągłych.  Sygnał dyskretny (zbiór wartości x_n) można zapisać w postaci 

\sum_{i}{x_i\ \delta_{n-i}} (67)

Porównaj ze wzorem (43) dla ciągu próbek opisanych w dziedzinie czasu ciągłego t. 
Właściwości delty Kroneckera są podobne do właściwości delty Diraca. Splot z deltą nie zmienia sygnału:

y_n=x_n\ast\delta_n=\sum\nolimits^{∞}_{k=-∞}x_kδ_{n-k}=x_n (68)

Splot z przesuniętą deltą przesuwa sygnał w miejsce położenia delty:

y_n=x_n\ast\delta_{n-m}=\sum\nolimits^{∞}_{k=-∞}x_kδ_{n-m-k}=x_{n-m} (69)

Transformata Zet delty Kroneckera jest równa 1:

Z[\delta_n]=\sum_nδ_nz^{-n}=1 (70)

Transformata Zet delty przesuniętej o m taktów w prawo (czyli opóźnionej o mT sekund) jest równa z^{-m}:

Z[\delta_{n-m}]=\sum_nδ_{n-m}z^{-n}=z^{-m} (71)

 

6.4. Obliczanie prostej i odwrotnej transformaty Zet

Na rys.44 pokazano sygnał dyskretny, zwany skokiem jednostkowym, oznaczanym przez 1n lub un

Rysunek 44 Skok jednostkowy

Transformata Zet skoku jednostkowego jest sumą wyrazów ciągu geometrycznego:

Z[1_n]=\sum\limits _{n=0}^{∞}z^{-n}=\sum\limits _{n=0}^{∞}(\frac{1}{z})^n=\frac{1}{1-\frac{1}{z}}=\frac{z}{z-1} (72)

Wzór (72) jest słuszny gdy suma ma wartość skończoną (czyli dla \left|z\right|>1).
Wartość splotu sygnału xk ze skokiem jednostkowym, obliczona w chwili n,  jest równa sumie wartości sygnału xk do chwili n włącznie. Innymi słowy jest to akumulacja wartości sygnału xk.

y_n=x_n*1_n=\sum\limits _{k=-∞}^{∞}x_k1_{n-k}\xrightarrow{k\leq n}\sum\limits _{k=-∞}^{n}x_k (73)

Z twierdzenia o splocie (wzór 66) transformata Zet zakumulowanych wartości sygnału xk wynosi 

Y(z)=Z[x_n\ast1_n]=X(z)\frac{z}{z-1} (74)

W analizie sygnałów I układów czasu dyskretnego często zakłada się, że sygnał ma wartości zerowe w ujemnych chwilach czasu:  x_n=0,\quad n.  Dla takich sygnałów transformata Zet staje się prawostronną transformatą Zet:

X(z)=\sum\nolimits_{n=0}^{∞}x_nz^{-n} (75)

Obliczmy transformatę Zet ciągu eksponencjalnego  y_n=a^n{\ 1}_n  (rys.45). Można to uczynić poddając tłumieniu sygnał skoku jednostkowego (wzór 64), lub wykonać obliczenia bezpośrednio z definicji transformaty Zet (wzór 61):

Y(z)=\sum\limits_{n=0}^{\infty}{a^nz^{-n}=}\sum\limits_{n=0}^{\infty}{(\frac{a}{z})^n=}\frac{1}{1-\frac{a}{z}}=\frac{z}{z-a} (76)

Wzór (76) jest słuszny gdy suma ma wartość skończoną (czyli dla \left|z\right|>|a|).

Rysunek 45 Ciąg eksponencjalny (wykładniczy)

W przypadku gdy ciąg zawiera skończoną liczbę elementów, wówczas obliczamy transformatę Zet bezpośrednio z definicji (wzór 61). Np. transformata Zet sygnału składającego się z dwóch elementów: x_1=2,\ x_2=-1 wynosi  X(z)=\sum_{n=1}^{2}x_nz^{-n}=2z^{-1}-z^{-2}.
Odwrotną transformatę Zet (Z^{-1}) najłatwiej jest obliczyć w przypadku, gdy transformata Zet jest wielomianem. Wartości sygnału są współczynnikami tego wielomianu. Np. dla X(z)=2z-1+z^{-2} natychmiast odczytujemy  x_{-1}=2,\ x_0=-1,\ x_2=1
W przypadku gdy transformata Zet ma postać opisaną we wzorze (76), sygnał jest eksponencjalny. 

Y(z)=\frac{z}{z-a}\ \rightarrow\ y_n=a^n1_n (77)

Podobnie jest w następującym przypadku

Y(z)=\frac{za}{(z-a)2} → y_n=na^n1_n (78)

W przypadku gdy w liczniku zamiast zmiennej z do potęgi pierwszej mamy inny wykładnik, zapisujemy transformatę Zet w postaci z^m\frac{z}{z-a} i interpretujemy z^m jako przesunięcie o m taktów (próbek). Np. 
Z^{-1}[\frac{b}{z-a}]=bZ^{-1}[\frac{1}{z-a}]=bZ^{-1}[\frac{1}{z}\frac{z}{z-a}]=b 1_{n-1}a^{n-1}. Mnożenie przez stałą b przenosi się w dziedzinę czasu, co wynika z liniowości transformaty Zet (wzór 62). 
Gdy transformata Zet jest funkcją wymierną, dążymy do zapisania jej w postaci sumy wyrażeń opisanych w (77), (78). Innymi słowy, dokonujemy rozkładu funkcji wymiernej na ułamki proste

X(z)=\frac{b_mz^m+b_{m-1}z^{m-1}+\ldots+b_0}{a_mz^m+a_{m-1}z^{m-1}+\ldots+a_0}=\frac{(z-{\hat{z}}_1)(z-{\hat{z}}_2)\cdots(z-{\hat{z}}_m)}{(z-z_1)(z-z_2)\cdots(z-z_m)}=\sum\limits_{i=1}^{m}\frac{r_iz}{(z-z_i)} (79)

Następnie, korzystając z (77),  konstruujemy sygnał xn jako sumę ciągów eksponencjalnych:

x_n=\sum\limits_{i=1}^{m}r_i(z_i)^n1_n (80)

Problemem jest jedynie obliczenie współczynników r_i.  Zauważmy, że mnożąc (79) przez \frac{z-z_1}{z} i podstawiając z=z_1, otrzymamy współczynnik  r_1.  Podobnie otrzymujemy kolejne współczynniki.

r_i=\lim\limits_{z\rightarrow z_i}X(z)\frac{z-z_i}{z} (81)

 Odwrotna transformata Zet w postaci (80) może być ciągiem dążącym do zera, utrzymującym stała amplitudę oscylacji lub dążącym do nieskończoności. Zależy to od biegunów funkcji wymiernej X(z), czyli zer wielomianu znajdującego się w mianowniku. Aby ciąg xn dążył do zera, wszystkie bieguny muszą spełniać warunek \left|z_i\right|. Geometrycznie, muszą znajdować się w kole o promieniu jednostkowym. Jeśli choć jeden biegun znajdzie się poza tym kołem (\left|z_i\right|>1 ), wówczas cały ciąg xn będzie dążył do nieskończoności. Reasumując,

\forall\ i,\ \left|z_i\right| (82)
\exists\ i,\ \left|z_i\right|>1  ⇒ x_n→∞ (83)

6.5. Obliczanie widma DTFT z transformaty Zet

Znając transformatę Zet sygnału (ciągu próbek), można otrzymać transformatę Fouriera tego  sygnału przez podstawienie równania okręgu o promieniu jednostkowym (wzór 60): z=e^{j2πfT}=cos(2πfT)+j\ sin(2πfT). W Tabeli 2 podano wartości zmiennej z dla kilku częstotliwości z zakresu od zera do połowy częstotliwości próbkowania. 
Przed wykonaniem tej czynności należy sprawdzić, czy transformata Zet X(z)=Z[\{x_n\}]=\sum_nx_nz^{-n} jest zbieżna dla wartości z leżących na okręgu o promieniu jednostkowym, tzn. dla \left|z\right|=1. Transformata Zet ciągu eksponencjalnego (rys.45) jest zbieżna do \frac{z}{z-a} dla \left|z\right|>|a| , patrz wzór (76).  Jeśli \left|a\right|, wówczas transformata Zet jest zbieżna na okręgu jednostkowym i można obliczyć DTFT. Jeśli \left|a\right|>1, DTFT nie istnieje, gdyż ciąg eksponencjalny dąży do nieskończoności. 
W praktyce wystarczy sprawdzić warunek (82): jeśli wszystkie bieguny transformaty Zet leżą w kole o promieniu jednostkowym, wówczas DTFT istnieje i można skorzystać z podstawienia z=e^{j2πfT}.
Przykład:  X\left(z\right)=\frac{z}{z+0.5}. Oblicz DTFT i naszkicuj wartość bezwzględną zakresie od 0 do częstotliwości próbkowania f_s=\frac{1}{T}
X(z) ma biegun w punkcie z_1=-0.5, spełnia więc warunek (82).  Po podstawieniu z=e^{j2πfT}=e^{j2πf/fs} otrzymuje się widmo DTFT: 

X_s\left(f\right)=\frac{e^{j2\pi fT}}{e^{j2\pi fT}+0.5}  

Wartości DTFT dla częstotliwości zerowej i równej połowie częstotliwości próbkowania otrzymamy podstawiając odpowiednio z=1\  i\ z=-1 (tablica 2).  Wartość bezwzględną DTFT naszkicowano na rys. 46.

Rysunek 46 Przykład widma DTFT (wartość bezwzględna)

7. Filtry cyfrowe

Filtry cyfrowe

7.1. Cyfrowe układy liniowe niezależne od czasu

Układ czasu dyskretnego (potocznie nazywany układem lub filtrem cyfrowym) przetwarza ciąg wejściowy {x<sub>n</sub>} na ciąg wyjściowy {y<sub>n</sub>} – rys.47.

Rysunek 47 Filtr cyfrowy

Podobnie jak w układach czasu ciągłego, wprowadza się pojęcie układu liniowego niezależnego od czasy (LTI – linear time invariant):

Układ jest liniowy, gdy spełnia zasadę superpozycji: 

wejście  {x<sub>n</sub>} = x0, x1, x2 wyjście  {y<sub>n</sub>}= H[{x<sub>n</sub>}]
wejście  {u<sub>n</sub>} = u0, u1, u2 wyjście  {v<sub>n</sub>}= H[{u<sub>n</sub>}]
wejście  a {x<sub>n</sub>} + b {u<sub>n</sub>} wyjście  a {y<sub>n</sub>} + b {v<sub>n</sub>}


 

 

 

Układ jest niezależny od czasu, gdy opóźniony sygnał wejściowy xn-m wywołuje reakcję filtru w postaci yn-m, tzn. przebieg czasowy sygnału wyjściowego ulega jedynie opóźnieniu, jego kształt pozostaje bez zmian: 

wejście  {x<sub>n</sub>}  wyjście  {y<sub>n</sub>}
wejście  {x<sub>n-m</sub>}  wyjście  {v<sub>n-m</sub>}

 

 

 

Układy cyfrowe LTI są opisane w dziedzinie czasu za pomocą splotu podobnie jak układy LTI czasu ciągłego – p.2.4. 

wejście  dn  (delta Kroneckera)               wyjście  yn= hn (odpowiedź impulsowa)  
wejście  dn-k  (opóźniona delta Kroneckera)  wyjście yn= hn-k   
wejście  xk dn-k                wyjście  yn= xk hn-k   
wejście \{x_n\}=\sum_{k}{x_k\delta_{n-k}}        wyjście  y_n=\sum_{k=-\infty}^{\infty}x_kh_{n-k}=x_n*h_n (84)

 

 

 

 

 

Jeśli odpowiedź impulsowa jest równa zeru dla ujemnych chwil czasu dyskretnego (hn=0, n < 0), wówczas splot (84) można przepisać w postaci

y_n=\sum_{k=-\infty}^{n}{\ x_k}h_{n-k} (85)

Mówimy wówczas o układach przyczynowych.  Istotnie, n-ta próbka sygnału wyjściowego zależy od poprzednich próbek sygnału wejściowego, nie zależy natomiast od próbek następnych.  

Układy LTI można opisać w dziedzinie zmiennej z , korzystając z twierdzenia o transformacie Zet splotu (wzór 66):

Y(z)=X(z)H(z),\qquad H(z)=Ζ[\{hn\}] (86)

Transformata Zet odpowiedzi impulsowej układu jest transmitancją układu.

 

7.2. Stabilność układu

Załóżmy, że sygnał wejściowy układu LTI maleje do zera w miarę upływu czasu: x_n\rightarrow0 gdy n\rightarrow\infty. Oznacza to, że wszystkie bieguny transformaty X(z) znajdują się w kole o promieniu jednostkowym (wzór 82). Transformata Zet sygnału wyjściowego jest iloczynem X(z) i transmitancji układu  H(z) – wzór (86).  Jeżeli wszystkie bieguny H(z) znajdują się w kole jednostkowym, wówczas to samo można powiedzieć o biegunach Y(z)=X(z) H(z) i sygnał wyjściowy y_n\rightarrow0 dla n\rightarrow\infty.  O takim układzie (filtrze) mówimy, że jest stabilny.
Jeśli choć jeden biegun transmitancji znajduje się poza kołem jednostkowym (wzór 83), wówczas y_n\rightarrow\infty. O takim układzie mówimy, że jest niestabilny. 
Korzystamy tu z pojęcia stabilności w sensie BIBO (Bounded Input – Bounded Output): Jeśli sygnał wejściowy jest ograniczony, to sygnał wyjściowy stabilnego filtru jest również ograniczony.
Aby zbadać stabilność układu LTI, należy obliczyć bieguny jego transmitancji i skorzystać s warunków (82), (83).
Niestabilny układ nie posiada charakterystyki częstotliwościowej, która jest transformatą DTFT odpowiedzi impulsowej. Suma H(z)=Z[\{h_n\}]=\sum_nh_nz^{-n} nie jest zbieżna dla z=e^{j2πfT}, gdyż odpowiedź impulsowa dąży do nieskończoności ze względu na biegun (lub bieguny) H(z) leżące poza kołem jednostkowym.
 

Przykład analizy stabilności układu o transmitancji  H(z)=\frac{z^2}{z^2-z+0.5}
Bieguny  H(z) są zerami (pierwiastkami) wielomianu  z^2-z+0.5.

Rozwiązujemy równanie z^2-z+0.5=0,  otrzymujemy  z_1=0.5+j0.5  i  z_2=0.5-j0.5
Odległość obu biegunów od początku układu współrzędnych wynosi |z_1|=|z_2|=\frac{1}{\sqrt2}
Bieguny leżą w kole o promieniu jednostkowym, więc układ LTI jest stabilny.
 

7.3. Równania różnicowe

W praktyce układ (filtr) LTI jest najczęściej opisany równaniem różnicowym:

y_n=\sum\limits_{i=0}^{N}b_ix_{n-i}-\sum\limits_{i=1}^{M}a_iy_{n-i} (87)

Bieżąca próbka sygnału wyjściowego jest kombinacją liniową N+1 próbek sygnału wejściowego i M poprzednich próbek sygnału wyjściowego. Wzór (87) opisuje sieć działań algorytmu filtracji. Obliczmy transmitancję tego filtru,
Podstawiając  a_0=1, przekształcamy równanie różnicowe: \sum_{i=0}^{M}a_iy_{n-i}=\sum_{i=0}^{N}b_ix_{n-i}
Obliczamy transformatę Zet obu jego stron:
\sum_{i=0}^{M}a_iΖ[y_{n-i}]=\sum_{i=0}^{N}b_iΖ[x_{n-i}]         \sum_{i=0}^{M}a_iz^{-i}Y(z)=\sum_{i=0}^{N}b_iz^{-i}X(z)    
Z twierdzenia o przesunięciu (wzór 63):    Y(z)\sum_{i=0}^{M}a_iz^{-i}=X(z)\sum_{i=0}^{N}b_iz^{-i}
Transmitancja układu:    

H(z)=\frac{Y(z)}{X(z)}=\frac{\sum_{i=0}^{N}b_iz^{-i}}{\sum_{i=0}^{M}a_iz^{-i}}=\frac{z^{-N}\sum_{i=0}^{N}b_iz^{N-i}}{z^{-M}\sum_{i=0}^{M}a_iz^{M-i}}=\frac{B(z)}{A(z)} (88)

Transmitancja H(z) jest funkcją wymierną, ma N zer i M biegunów.  Wyciągając czynniki z-M i  z-N przed sumy, otrzymujemy wielomiany o nieujemnych potęgach. Czynniki  z-M i  z-N reprezentują jedynie przesunięcie w czasie, opóźnienie o M-N próbek.

7.4. Filtry o skończonej i nieskończonej odpowiedzi impulsowej

Jeśli transmitancję (88) zredukujemy do wielomianu B(z),

H(z)=\sum_{i=0}^{N}b_iz^{-i} (89)

otrzymamy transmitancję filtru o skończonej odpowiedzi impulsowej FIR (finite impulse response) lub SOI (skończona odpowiedź impulsowa). Równanie różnicowe takiego filtru otrzymamy, podstawiając M=0 do (87):

y_n=\sum_{i=0}^{N}b_ix_{n-i} (90)

Podając na wejście pojedynczą próbkę w chwili 0 (tj. deltę Kroneckera x_n=\delta_n) otrzymamy odpowiedź impulsową: y_n=\sum_{i=0}^{N}b_i\delta_{n-i}=b_n. Odpowiedź impulsowa składa się z N+1 niezerowych próbek: - stąd nazwa filtru. Próbka sygnału wyjściowego jest kombinacją N+1 próbek sygnału wejściowego (wzór 90). Taki filtr jest zawsze stabilny, gdyż wartość próbki y_n=\sum_{i=0}^{N}b_ix_{n-i} ma skończoną wartość. 
Transmitancja filtru FIR ma N zer. Bieguny mogą wystąpić jedynie w punkcie z=0, gdyż H(z)=\sum_{i=0}^{N}b_iz^{-i}=\frac{1}{z^N}\sum_{i=0}^{N}{b_iz^{N-i}}. Czynnik z^{-N} wywołuje jedynie opóźnienie, nie ma wpływu na stabilność. 
W ogólnym przypadku transmitancja (88) odnosi się do układu o nieskończonej odpowiedzi impulsowej IIR (infinite impulse response) lub NOI (nieskończona odpowiedź impulsowa). 
Na rys.48 pokazano realizację filtru w tzw. strukturze transwersalnej. Operator  z^{-1} oznacza opóźnienie o jedną próbkę. Za nieskończony czas trwania odpowiedzi impulsowej odpowiada pętla sprzężenia zwrotnego po prawej stronie schematu. Ona również może być przyczyną niestabilności – decyduje o tym położenie biegunów H(z). Lewa strona schematu przedstawia filtr FIR, który jest zawsze stabilny (nie ma tu pętli sprzężenia zwrotnego). 

Rysunek 48 Filtr zrealizowany w strukturze transwersalnej

 

7.5. Charakterystyka częstotliwościowa filtru

Jeżeli filtr jest stabilny, wówczas  możemy podstawić z=e^{j2πfT}=e^{j2πf/fs}  ( f_s=\frac{1}{T}  jest częstotliwością próbkowania) do wzoru na transmitancję (88) i otrzymać w ten sposób charakterystykę częstotliwościową filtru. 

H(z)=H(e^{j2πfT})=H_s(f) (91)

Obliczanie charakterystyki częstotliwościowej jest w istocie obliczaniem widma DTFT odpowiedzi impulsowej, o czym była mowa w p. 6.5.
Charakterystyka częstotliwościowa mów nam o tym, w jaki sposób przetwarzane są w filtrze składowe sygnału wejściowego o różnych częstotliwościach. Jeżeli na wejście filtru podamy sygnał harmoniczny o częstotliwości f_0:\  x_n=Acos{(}2\pi f_0nT+ϕ), to na wyjściu otrzymamy sygnał o tej samej częstotliwości, różniący się jedynie amplitudą i fazą. Wynika to z równania Y\left(z\right)=H\left(z\right)X(z), które przechodzi w  Y\left(e^{j2\pi f_0T}\right)=H\left(e^{j2\pi f_0T}\right)X\left(e^{j2\pi f_0T}\right) i dalej w  Y_s\left(f\right)=H_s\left(f\right)\ X_s(f).  Charakterystyka częstotliwościowa dla częstotliwości f0 jest liczbą zespoloną: H_s(f_0)=|H_s(f_0)|e^{j\psi(f_0)}. Wynika stąd, że sygnał wyjściowy będzie miał amplitudę równą A|H_s(f_0)| i fazę przesuniętą o \psi(f_0) - rys.49 

Rysunek 49 Analiza stanu ustalonego

W ten sposób przeprowadziliśmy analizę stanu ustalonego w układzie pobudzonym sygnałem harmonicznym. Jeżeli sygnał wejściowy składa się z szeregu sygnałów harmonicznych o różnych częstotliwościach, wówczas analizę należy przeprowadzić dla wszystkich składowych (wynika to z liniowości układu). Należy jeszcze raz podkreślić, że taka analiza ma sens tylko dla stabilnych układów.  Układy niestabilne nie mają charakterystyki częstotliwościowej, gdyż sygnał wyjściowy dąży do wartości nieskończonej. 
Jeżeli interesują nas stany przejściowe w układzie pobudzonym sygnałem wejściowym o określonym początku (najczęściej jest to chwila n=0), wówczas obliczamy transformatę Zet sygnału wejściowego i mnożymy ją przez transmitancję filtru. Otrzymujemy Transformatę Zet sygnału wyjściowego: Y\left(z\right)=H\left(z\right)X(z) i stosując transformatę odwrotna Zet otrzymujemy sygnał na wyjściu układu.

Znając położenia biegunów i zer transmitancji układu, można niekiedy określić, jaki przebieg ma charakterystyka częstotliwościowa.  Załóżmy, że układ ma 3 bieguny jak na rys. 50.  Bieguny (jak i zera) mogą być rzeczywiste (leżą na osi rzeczywistej) lub zespolone parami sprzężone. Wynika to z faktu, że są to pierwiastki wielomianów A(z) i B(z), których współczynniki są rzeczywiste. Wielomiany o współczynnikach rzeczywistych mogą mieć pierwiastki rzeczywiste lub zespolone parami sprzężone. 

Rysunek 50 Przykładowe położenie biegunów filtru

Charakterystyka  jest odczytywana na okręgu o promieniu jednostkowym (rys.41). Biegun znajdujący się w pobliżu okręgu wywołuje wzrost wartości charakterystyki (rezonans filtru). Z kolei zero wywołałoby zmniejszenie się charakterystyki (antyrezonans). Na rys. 51 pokazano wartość bezwzględną charakterystyki częstotliwościowej. Rezonans występuje na częstotliwości określonej kątem f (rys.50). 3-decybelowe pasmo rezonansu ma związek z odległością bieguna od okręgu.  Ponadto występuje „podbicie” charakterystyki na częstotliwości równej połowie częstotliwości próbkowania. Ma to związek z trzecim biegunem leżącym na osi rzeczywistej. 

Rysunek 51 Charakterystyka częstotliwościowa filtru z rys.50

Rozpatrzmy jeszcze przykład prostego filtru o transmitancji  H\left(z\right)=1-z^{-1}=\frac{z-1}{z}. Jest to filtr FIR (biegun w początku układu współrzędnych oznacza tylko opóźnienie). Jako FIR jest on stabilny. Jego odpowiedź impulsowa składa się z dwóch próbek: h_0=1 i h_1=-1.  Charakterystykę częstotliwościową otrzymamy przez podstawienie z=e^{j2\pi fT}=e^{j2\pi f/f_s}:  H_s(f)=1-e^{-j2\pi fT} Jeśli interesuje nas częstotliwość f=0, ćwierć częstotliwości próbkowania f=1/(4T) czy połowa częstotliwości próbkowania f=1/(2T), to można podstawić odpowiednie wartości zmiennej z tab. 2. I tak, dla f=0 otrzymujemy H_s\left(0\right)=0,  a dla f=1/(2T), H_s(\frac{1}{2T})=2
Miejsce zerowe transmitancji to z_1=1. Leży ono na okręgu jednostkowym i sprawia że sygnały o określonej częstotliwości są całkowicie tłumione. Wartości  z_1=1 odpowiada częstotliwość zerowa. Tak więc próbki sygnału o wartości stałej (czyli ciągi tych samych próbek)  zostaną wytłumione. Z kolei spróbkowane sygnały o częstotliwości równej połowie częstotliwości próbkowania będą wzmocnione dwukrotnie -rys.52. Filtr jest górnoprzepustowy, spadek wzmocnienia dla częstotliwości większych od połowy częstotliwości próbkowania wynika jedynie z lustrzanego odbicia , którego przyczyną jest próbkowanie. 

Rysunek 52 Charakterystyka częstotliwościowa filtru 1-z-1

 


 

7.6. Projektowanie filtrów

Najczęściej rozwiązywanym problemem jest synteza filtru spełniającego określone wymagania odnoszące się do charakterystyki częstotliwościowej. Jako przykład weźmy filtr dolnopasmowy. Na rys.53 pokazano charakterystykę częstotliwościową idealnego filtru (linia przerywana) o częstotliwości granicznej fc. Typowy filtr zrealizowany w praktyce odbiega od idealnego. Celem projektowania jest powiększenie tłumienia w paśmie zaporowym (zwykle określa się je w decybelach – dB), zmniejszenie wahań w paśmie przepuszczania i zawężenie pasma przejściowego. 

Rysunek 53 Filtr dolnopasmowy

 

7.7. Projektowanie filtrów FIR metodą próbkowania w dziedzinie częstotliwości

Metoda ta opiera się na wykorzystaniu odwrotnej Dyskretnej Transformaty Fouriera (IDFT):

  1. Próbkujemy idealną charakterystykę częstotliwościową (linia przerywana na rys.53) w częstotliwościach f_k=\frac{k}{TL},\ \ k=0,1,…,L- 1.  Pamiętamy o odtworzeniu „lustrzanego odbicia”, gdyż obejmujemy zakres częstotliwości od 0 do częstotliwości próbkowania 1/T (T jest okresem próbkowania). Oznacza to, że X_{L-k}=X_k^\ast (gwiazdka oznacza sprzężenie.)
  2. Utworzony w ten sposób wektor \overline{H} poddajemy odwrotnej transformacji DFT:
    \overline{h}={\overline{W}}^{-1}\overline{H}=IDFT(\overline{H}) (92)
  3. Otrzymany wektor   zawiera próbki odpowiedzi impulsowej filtru dolnopasmowego. Można go wykorzystać do filtracji sygnału {x<sub>n</sub>}:  y_n=\sum_{i=0}^{L-1}h_ix_{n-i}.
  4. Aby porównać zaprojektowany filtr z filtrem idealnym, obliczamy DTFT odpowiedzi impulsowej, czyli charakterystykę częstotliwościową zaprojektowanego filtru, podstawiając z=e^{j2πfT=ej2πf/fs} do wzoru na transmitancję: H(z)=\sum_{i=0}^{L-1}h_iz^{-i}

Przykładowe wyniki podano na rys.54, gdzie wykreślono wartość bezwzględną charakterystyki częstotliwościowej w decybelach w zakresie częstotliwości od 0 do połowy częstotliwości próbkowania. Na rys.55 podano położenie zer transmitancji zaprojektowanego filtru. W zakresie do połowy częstotliwości próbkowania występuje 8 zer w paśmie zaporowym. Ich wpływ widać na rys.54: charakterystyka częstotliwościowa osiąga wartość zerową (w decybelach to -\infty) w 8 równoodległych punktach. Są to częstotliwości, w których pobraliśmy próbki idealnej charakterystyki częstotliwościowej. Zaprojektowany filtr ma niską wartość tłumienia w paśmie zaporowym, około 20 dB. 


Rysunek 54 Charakterystyka częstotliwościowa zaprojektowanego filtru

Rysunek 55 Położenie zer transmitancji zaprojektowanego filtru

7.8. Projektowanie filtrów FIR metodą okien czasowych

Idealny filtr dolnopasmowy czasu ciągłego ma odpowiedź impulsową h(t)=2B\frac{sin{(}2\pi Bt)}{2\pi Bt}, gdzie B jest pasmem filtru (patrz zadanie 4, p.8.1). Aby ograniczyć czas trwania odpowiedzi impulsowej, mnożymy h(t) przez okno prostokątne w(t) o czasie trwania LT i pobieramy L próbek (T jest okresem próbkowania). Otrzymujemy w ten sposób wektor   zawierający próbki odpowiedzi impulsowej filtru dolnopasmowego. Dalej postępujemy jak w p. 7.6.1. 
Mnożenie w dziedzinie czasu oznacza splatanie w dziedzinie częstotliwości. Zaprojektowany filtr będzie miał charakterystykę częstotliwościową, która jest splotem charakterystyki filtru idealnego z widmem okna. Na rys.56 pokazano wartość bezwzględną charakterystyki częstotliwościowej filtru otrzymanego tą metodą. 
 

Rysunek 56 Charakterystyka częstotliwościowa filtru idealnego i otrzymanego metodą nakładania okna prostokątnego

Zaprojektowany filtr charakteryzuje się niewystarczającym tłumieniem w paśmie zaporowym (około 20 dB) i dużymi wahaniami w paśmie przepuszczania. Tłumienie można poprawić i zarazem zmniejszyć wahania charakterystyki, jeśli zastosujemy okno o innym kształcie, np. okno Hamminga (rys.57).

Rysunek 57 Okno Hamminga i jego działanie na odpowiedź impulsową filtru dolnopasmowego

Rysunek 58 Charakterystyka częstotliwościowa filtru dolnopasmowego otrzymanego z wykorzystaniem okna Hamminga

Na rys.58 pokazano charakterystykę częstotliwościową filtru otrzymanego przez nakładanie okna Hamminga. Nastąpiła znaczna poprawa tłumienia (wzrosło o około 30 dB) kosztem niewielkiego poszerzenia pasma przejściowego. 

7.9. Filtr Butterwortha jako przykład filtru o nieskończonej odpowiedzi impulsowej

Dzięki wykorzystaniu nie tylko zer, ale i biegunów, uzyskujemy większe możliwości kształtowania charakterystyki częstotliwościowej. Przykładem może być filtr Butterwortha o następującej transmitancji:

H(z)=\frac{B(z)}{A(z)}=\frac{g(z+1)^M}{\prod_{i=1}^{M}{(z-z_i)}} (93)

Transmitancja jest funkcją wymierną o M zerach i M biegunach. Wszystkie zera leżą w punkcie z=-1, który odpowiada częstotliwości równej połowie częstotliwości próbkowania (rys.41). Zapewnia to bardzo dobre tłumienie wysokich częstotliwości i brak wahań w paśmie zaporowym. Położenie biegunów z1, z2, …, zM zapewnia stałą wartość charakterystyki częstotliwościowej w paśmie przepuszczania, gdyż  \prod_{i=1}^{M}\left|(z-z_i)\right|=const  dla z leżących na okręgu jednostkowym w zakresie niskich częstotliwości – rys.59. W efekcie otrzymuje się charakterystykę częstotliwościową bez wahań w paśmie przepuszczania i zaporowym – rys.60.. Pewną wadą jest szerokie pasmo przejściowe, jednak można je zawęzić, zwiększając liczbę zer i biegunów. 

Rysunek 59 Bieguny i zera filtru Butterwortha

Rysunek 60 Charakterystyka częstotliwościowa filtru Butterwortha

 

 

7.10. Filtr eliptyczny (Cauera)

Akceptując niewielkie wahania charakterystyki w zakresie pasma przepuszczania i zaporowego, można osiągnąć wąskie pasmo przejściowe. Te założenia spełnia filtr eliptyczny, którego zera i bieguny pokazano na rys.61. Nierównomierny rozkład zer w zakresie pasma zaporowego zapewnia wysokie tłumienie (100 dB, rys.62). Rozkład biegunów gwarantuje bardzo niskie wahania w paśmie przepuszczania (ułamek decybela, rys.63), a skupienie zer i biegunów w pobliżu wartości zmiennej z odpowiadającej częstotliwości granicznej filtru zapewnia wąskie pasmo przejściowe – patrz rys.62. 

Rysunek 61 Bieguny i zera filtru eliptycznego

Rysunek 62 Charakterystyka częstotliwościowa filtru eliptycznego

Rysunek 63 Charakterystyka częstotliwościowa filtru eliptycznego –pasmo przepuszczania

7.11. Ćwiczenie laboratoryjne – filtry cyfrowe

W Module 4 znajdą Państwo opis ćwiczenia laboratoryjnego z projektowania filtrów cyfrowych. Obejmuje ono symulacje wymienionych w podrozdziale 7.6 metod projektowania filtrów, porównanie ich charakterystyk częstotliwościowych, badanie wpływu długości odpowiedzi impulsowej, kształtu okna, liczby zer i biegunów na charakterystyki filtrów. Do ćwiczenia opracowano instrukcję i film demonstrujący obsługę programu i wykonywanie symulacji.