www.chms.ru - вывоз мусора в Балашихе 

Динамо-машины  Сигналы и спектры 

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 [ 158 ] 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358

где P{d = - это апостериорная вероятность, а = ( представляет данные d, принадлежащие (-му классу сигналов из набора классов М. Ранее /7(х = () представляло функцию плотности вероятности принимаемого непрерывного сигнала с щумом х, при d = i. Также p(d = i), называемое априорной вероятностью, означает вероятность появления (-ГО класса сигналов. Обычно х представляет наблюдаемую случайную переменную или лежащую в основе критерия статистику, которая получается на выходе демодулятора или какого-либо иного устройства обработки сигналов. Поэтому р(х) - это функция распределения вероятностей принятого сигнала х, дающая тестовую статистику в полном пространстве классов сигналов. В уравнении (8.61) при конкретном наблюдении р(х) является коэффициентом масштабирования, поскольку он получается путем усреднения по всем классам пространства. Маленькая буква р используется для обозначения функции распределения вероятностей непрерывной случайной переменной, а большая буква Р - для обозначения вероятности (априорной и апостериорной). Определение апостериорной вероятности принятого сигнала, из уравнения (8.61), можно представлять как результат эксперимента. Перед экспериментом обычно существует (или поддается оценке) априорная вероятность P(d = i). В эксперименте для расчета апостериорной вероятности, P(d = i\x), используется уравнение (8.61), и это можно считать обновлением имевшихся сведений, полученных при изучении принятого сигнала х.

8.4.1.2. Пример класса из двух сигналов

Пусть двоичные логические элементы 1 и О представляются электрическими напряжениями +1 и -1. Переменная d представляет бит переданных данных, который выглядит как уровень напряжения или логический элемент. Иногда более предпочтительным оказывается один из способов представления; читатель должен уметь различать это по контексту. Пусть двоичный О (или электрическое напряжение -1) будет нулевым элементом при сложении. На рис. 8.20 показана условная функция распределения вероятностей при передаче сигнала по каналу AWGN, представленная как функция правдоподобия. Функция, изображенная справа, р(х=+1), представляет функцию распределения вероятностей случайной переменной х, которая передается при условии, что rf=+l. Функция, изображенная слева, р(:) = -1), в свою очередь, представляет ту же функцию распределения вероятностей случайной переменной х, которая передается при условии, что d=-l. На оси абсцисс показан полный диапазон возможных значений тестовой статистики X, которая образуется в приемнике. На рис. 8.20 показано одно такое произвольное значение х, индекс которого представляет наблюдение, произведенное в к-й период времени. Прямая, опущенная в точку х, пересекает две кривые функций правдоподобия, что дает в итоге два значения правдоподобия /, = p(xt\di, = +1) и /2 = piXk\dt = -1). Хорошо известное правило принятия решения по жесткой схеме, называемое принципом максимального правдоподобия, определяет выбор данных dt = +l или = -1, основываясь на большем из двух имеющихся значений /] или /з- Для каждого бита данных в момент к решение гласит, что * = +1, если xt попадает по правую сторону линии принятия решений, обозначаемой уо, в противном случае - dt = -l.

Аналогичное правило принятия решения, известное как максимум апостериорной вероятности (maximum а posteriori - MAP), можно представить в виде правила минимальной вероятности ошибки, принимая во внимание априорную вероятность данных. В общем случае правило MAP выражается следующим образом:



Правдоподобие d= -1 Правдоподобие d = +1 p(xld = -1)


Xk +1

Рис. 8 20. Функции правдоподобия

P{d=+l\x) Pid=-l\x).

(8.63)

Уравнение (8.63) утверждает, что выбирается одна из гипотез - Я ( = +1), если апостериорная вероятность P{d = +l\x) больше апостериорной вероятности P{d = -l\K). В противном случае выбирается гипотеза Яз, (rf = -l). Воспользовавшись байесовской формой уравнения (8.61), можно заменить апостериорную вероятность в уравнении (8.63) эквивалентным выражением, что дает следуюшее:

p{x\d = +l)P(,d = +1) p{x\d= -\)P{d = -1).

(8.64)

Здесь функция распределения вероятности /7(x), имеющаяся в обеих частях неравенства, (8.61), была исключена. Уравнение (8.64), в целом представленное через дроби, дает так называемую проверку отношения функций правдоподобия:

P{x\d=+1) p(x\d=-l)

gt;( = -1) ли ( i plusmn;W gt; 1 lt; Pid = +1) Pix\d= -\)P{d = -1) lt;

2 l

(8.65)

8.4.1.3. Логарифмическое отношение функций правдоподобия

Если взять логарифм от соотношения функций правдоподобия, полученного в уравнениях (8.63)-(8.65), получится удобная во многих отношениях метрика, называемая логарифмическое отношение функций правдоподобия (log-likelihood ratio - LLR). Это вешественное представление мягкого решения вне декодера определяется выражением

Ш\х) = \%

P{d = +\\x)

= lg

p{x\d = +\)P{d = +\)

P{d = -l\x)\ \p{:d = -\)P{d = -l)

так, что

L{d\x) = h

Р(д: = +1) p{x\d=-l)

+ lg

P{d = +l)

P{d=-\)

Ц lt;фс) = Дх) + Ц),

(8.66)

(8.67)

(8.68)



где - это LLR тестовой статистики х, получаемой путем измерений х на выходе канала при чередовании условий, что может быть передан d = +\ или d = -l, а L(d) - априорное LLR бита данных d. Для упрощения обозначений уравнение (8.68) можно переписать следующим образом:

L{d) = L,(x)+L{d). (8.69)

Здесь LXx) означает, что данный член LLR получается в результате канальных измерений, произведенных в приемнике. Уравнения (8.б1)-(8.69) получены только исходя из данных детектора. Далее введение декодера даст стандартные преимущества схемы принятия рещений. Для систематических кодов было показано [17], что LLR (мягкий выход) вне декодера равняется следующему:

L{d) = L(d) + L(d). (8.70)

Здесь L(d) - это LLR бита данных вне демодулятора (на входе декодера), а Lid) называется внешним LLR и представляет внешнюю информацию, вытекающую из процесса декодирования. Выходная последовательность систематического декодера образована величинами, представляющими информационные биты или биты четности. Из уравнений (8.69) и (8.70) выходное LLR декодера теперь примет следующий вид:

Ud) = L,(x) + L(d) + L,(d). (8.71)

Уравнение (8.71) показывает, что выходное LLR систематического декодера можно представить как состоящее из трех компонентов - канального измерения, априорного знания данных и внешнего LLR, относящегося только к декодеру. Чтобы получить финальное L(d), нужно просуммировать отдельные вклады LLR, как показано в уравнении (8.71), поскольку все три компонента статистически независимы [17, 19]. Доказательство оставляем читателю в качестве самостоятельного упражнения (см. задачу 8.18.). Мягкий вькод декодера L{d) является вещественным числом, обеспечивающим в итоге как само принятие жесткого рещения, так и его надежность. Знак L(d) задает жесткое решение, т.е. при положительном знаке L{d) решение - d=+l,a при отрицательном - d=-l. Величина L(d) определяет надежность этого решения. Часто величина Lid) вследствие декодирования имеет тот же знак, что и LXx) + Ud), и поэтому повышает надежность L(d).

8.4.1.4. Принципы итеративного (турбо) декодирования

В типичном приемнике демодулятор часто разрабатывается для выработки рещений по мягкой схеме, которые затем будут переданы на декодер. В главе 7 повышение достоверности передачи в системе, по сравнению с жесткой схемой принятия рещений, оценивается приблизительно в 2 дБ в канале AWGN. Такой декодер следует называть декодером с мягким входом и жестким выходом, поскольку процесс финального декодирования должен завершаться битами (жесткая схема). В турбокодах, где используется два или несколько составных кодов и декодирование подразумевает подключение выхода одного декодера ко входу дру-



1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 [ 158 ] 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358