3. Odbiór optymalny sygnałów cyfrowych

3.3. Kod unipolarny i kod bipolarny

Dla każdej pary symboli  s_1\left(t\right),\ \ s_0(t)  można zastosować odbiornik optymalny. Prawdopodobieństwo błędnego odbioru symbolu Pe (42) będzie tym mniejsze, im większa jest różnica sygnałów, której miarą jest energia E10. Energię tę można zwiększyć przez zwiększenie amplitud obu symboli, wymagałoby to jednak zwiększenia mocy nadajnika. Moc nadajnika możemy obliczyć, dzieląc średnią energię symbolu transmisyjnego przez czas jego trwania:

S=\frac{E_1P_1+E_0P_0}{T} (43)

Tę samą moc zmierzymy na wyjściu kanału, gdyż zakładamy że kanał nie tłumi sygnału (rys.33). Jeżeli P_0=P_1=\frac{1}{2} , wówczas S=\frac{1}{2T}(E_1+E_0).  Problemem jest taki dobór symboli  s_1\left(t\right),\ \ s_0(t)  aby osiągnąć maksimum E10 przy danej mocy sygnału S.  Nietrudno wykazać, że taka para symboli powinna różnić się znakiem, sam kształt symbolu nie ma znaczenia:

s_1\left(t\right)=-s_0(t) (44)

Jest to bipolarny kod transmisyjny. Oba sygnały tego kodu mają jednakową energię E_1=E_0=ST. Sygnał różnicowy p(t) wynosi p(t)=s_1(t)-s_0(t)=2s_1(t), a jego energia jest 4 razy większa niż E1 (pamiętamy że energia jest całką z sygnału podniesionego do kwadratu):E_{10}=4E_1=4ST. Podstawiając E10 do wzoru (42), otrzymuje się wzór na stopę błędów kodu bipolarnego: 

P_e=\frac{1}{2}erfc{(}\sqrt{\frac{E_{10}}{4\eta}\ \ })=\frac{1}{2}erfc{(}\sqrt{\frac{ST}{\eta}}\ ) (45)

Stopa błędów maleje, gdy zwiększa się moc sygnału S i czas jego trwania T. W kodzie binarnym transmituje się 1/T symboli na sekundę i tyle samo bitów na sekundę. Oznacza to, że powolna transmisja jest bardziej odporna na szumy w kanale. Wzór (45) jest słuszny dla każdej pary sygnałów spełniających warunek (44): może to być para impulsów prostokątnych, ale także dwuwartościowa modulacja PSK (31).
Zajmijmy się teraz kodem unipolarnym, w którym jeden z symboli jest sygnałem równym zero:  s_0\left(t\right)=0.
Średnia moc sygnału wynosi  S=\frac{E_1P_1+E_0P_0}{T}=\frac{E_1P_1}{T}=\frac{E_1}{2T}  Sygnał różnicowy p\left(t\right)=s_1\left(t\right)-s_0\left(t\right)=s_1\left(t\right), w związku z tym ) E_{10}=E_1=2ST. Podstawiając E10 do wzoru (42), otrzymuje się wzór na stopę błędów kodu unipolarnego:

P_e=\frac{1}{2}erfc{(}\sqrt{\frac{E_{10}}{4\eta}}\ \ )=\frac{1}{2}erfc{(}\sqrt{\frac{ST}{2\eta}\ \ }) (46)

Porównując ze wzorem (45), zauważamy, że przy tej samej mocy nadajnika, szybkości transmisji i szumie w kanale, we wzorze (46) mamy mniejszy argument funkcji erfc, a więc większą wartość tej funkcji i większe prawdopodobieństwo błędnego odbioru symbolu. Reasumując, kod bipolarny jest bardziej odporny na szumy w kanale– rys,40.  Wzór (46) określa stopę błędów dla każdej modulacji binarnej, w której jeden z dwóch sygnałów jest równy zeru, np. modulacji OOK (rys.26).  

Rysunek 40 Stopa błędów kodu unipolarnego i bipolarnego

Pamiętamy, że porównywaliśmy kod unipolarny i bipolarny w warunkach, gdy oba sygnały były nadawane z jednakowym prawdopodobieństwem. Jedynie w tych warunkach obowiązuje zasada minimum odległości (37) i wzór (42) jest słuszny.  
Naruszenie tego warunku wydawałoby się korzystne w przypadku kodu unipolarnego. Jeżeli sygnał s_0\left(t\right)=0 pojawia się częściej niż s_1\left(t\right)\neq0, czyli P_1, wówczas średnia moc sygnału unipolarnego wynosi  S=\frac{E_1P_1+E_0P_0}{T}=\frac{E_1P_1}{T}.  Zmniejszając P1, można zwiększać energię E1, zachowując stałą moc nadajnika S. Większa energia to większa amplituda symbolu s_1\left(t\right), co sprawia, że łatwiej ten symbol odróżnić od symbolu zerowego.  Można się zatem spodziewać zmniejszenia stopy błędów Pe. Czytelnik będzie się mógł o tym przekonać, wykonując ćwiczenie symulacyjne (Ćw.4 – transmisja cyfrowa – kody transmisyjne).
Dlaczego nie stosujemy w praktyce tego sposobu zwiększania odporności na szumy w kanale? Odpowiedź podsuwa teoria informacji – naruszając równowagę prawdopodobieństw P1 i P0, zmniejszamy ilość transmitowanej informacji. 
Ilość informacji przenoszona przez jeden sygnał jest odwrotnie proporcjonalna do prawdopodobieństwa nadania tego sygnału. Jest to intuicyjnie jasne: rzadko występujące zdarzenie, gdy już wystąpi, dostarcza nam dużej porcji informacji. Definiując ilość informacji używa się też logarytmu, gdyż przy zaistnieniu dwóch niezależnych zdarzeń, ich prawdopodobieństwa się mnoży, a ilości informacji dodaje. Przy podstawie logarytmu równej 2, wyrażamy ilość informacji w bitach.  I tak, sygnał  s_0(t) przenosi {log}_2{\frac{1}{P_0}} bitów, a sygnał s_1(t) przenosi {log}_2{\frac{1}{P_1}} bitów.  Średnia ilość informacji przenoszona przez jeden symbol jest nazywana entropią i wyraża się wzorem:

H=P_0{log}_2{\frac{1}{P_0}}+P_1{log}_2{\frac{1}{P_1}}\quad \frac{bit}{symbol}] (47)

Biorąc pod uwagę, że P_0+P_1=1, otrzymujemy entropię jako funkcję P1. Wykres tej funkcji (rys.40) został otrzymany przez C. Shannona w połowie XX w. Przesyłamy 1 bit informacji na symbol transmisyjny, gdy oba sygnały pojawiają się z jednakowym prawdopodobieństwem. Gdy naruszymy tę równowagę, zmniejszamy ilość transmitowanej informacji. 

Rysunek 41 Entropia w transmisji binarnej