Optimalni Izvor D-arnom Prefiksa

100 Questions

Settings
Please wait...
Optimalni Izvor D-arnom Prefiksa

Questions and Answers
  • 1. 
    Neka je X slucajna velicina vezana za verovatnosni sistem mogucnosti (S,P) gde je S={1,2,3,4}, P={0.5,0.24,0.125,0.125} i E={1,3} je jedan dogadjaj. Tada je uslovna entropija da je X=1, pod uslovom da se dogodio dogadjaj E jednaka: 
    • A. 

      0.2

    • B. 

      0.625

    • C. 

      0.8

  • 2. 
    Za optimalno kodovanje poruka
    • A. 

      A) bitno je opisati kolicinu informacija u porukama

    • B. 

      B) nije bitno ako je kolicina informacije ispod kapaciteta kanala C

    • C. 

      C) nije bitno ako je mali broj poruka

  • 3. 
    3. Kod Hafmanovog koda broj neiskoriscenih listova u kodnom stablu koje odgovara optimalnom D-arnom prefiksom kodu izvora U sa n simbola je jednak: 
    • A. 

      A) negativnom ostatku deljenja n-1 sa D-1

    • B. 

      B) pozitivnom ostatku deljenja n-1 sa D-1

  • 4. 
    4. DMC je simetrican ako je istovremeno sa simetricnim ulazom i nesimetricnim izlazom: 
    • A. 

      A) tacno

    • B. 

      B) netacno

  • 5. 
    5.Uzajamna informacija uzima je mera medjuzavisnosti dve slucajne velicine koje uzimaju vrednosti: 
    • A. 

      A) nad istim skupom

    • B. 

      B) nad razlicitim skupom

    • C. 

      C) nad dva skupa

  • 6. 
    6. Ako je entropija izvora veca: 
    • A. 

      A) Senon Fanoov kod je bolji

    • B. 

      B) Senon Fanoov kod je losiji

  • 7. 
    7. Kodne reci su sekvence simbola iz kodnog alfabeta: 
    • A. 

      A) koji je u opsem slucaju razlicit od alfabeta poruka

    • B. 

      B) koji je u opsem slucaju isti alfabetu poruka

  • 8. 
    8. Kapacitet kanala C srazmeran je: 
    • A. 

      A) sirini propusnog opsega

    • B. 

      B) log(1+SNR)

    • C. 

      C) log(1+1/SNR)

  • 9. 
    9. DMC komunikacioni kanal je: 
    • A. 

      A) promenljiv

    • B. 

      B) nepromenljiv

  • 10. 
    10. Kod Hafmanovog koda broj listova u D-arnom stablu je: 
    • A. 

      A) 1+k(D-1), gde je k broj unutrasnjih cvorova, ne ukljucujuci koren

    • B. 

      B) 1+k(D-2), gde je k broj unutrasnjih cvorova, ukljucujuci koren

    • C. 

      C) 1+k(D-1), gde je k broj unutrasnjih cvorova, ukljucujuci koren

  • 11. 
    11. Na slici je predstavljen kanal sa: 
    • A. 

      A) simetricnim ulazom i nesimetricnim izlazom

    • B. 

      B) nesimetricnim ulazom i simetricnim izlazom

    • C. 

      B) nesimetricnim ulazom i simetricnim izlazom

  • 12. 
    12. Entropija H za slucajno postavljene figure na praznu sahovsku tablu iznosi
    • A. 

      A) 8

    • B. 

      B) 16

    • C. 

      C) 4

    • D. 

      D) 64

    • E. 

      E) 6

  • 13. 
    13. Kod Hafmanovog koda za dati izvor informacija U, u kodnom stablu koje odgovara optimalnom D-arnom prefiksnom kodu za U, postoji najvise: 
    • A. 

      A) D-3 neiskoriscenih listova i svi oni se nalaze na maksimalnoj dubini kodnog stable

    • B. 

      B) D-2 iskoricenih listova i svi oni se nalaze na maksimalnoj dubini kodnog stable

    • C. 

      C) D-2 neiskoriscenih listova i svi se oni nalaze na maksimalnoj dubini kodnog stable

  • 14. 
    14. Neodredjenost sistema nezavisnih izbora jednak je: 
    • A. 

      A) njihovoj uzajamnoj entropiji

    • B. 

      B) sumi neodredjenosti sistema konstituiteta

    • C. 

      C) proizvodu neodredjenosti sistema kontinuiteta

  • 15. 
    15. Razlika izmedju znanja i razumevanja je kao izmedju ucenja i memorisanja: 
    • A. 

      A) tacno

    • B. 

      B) netacno

  • 16. 
    16. Na slici je predstavljen kanal sa
    • A. 

      A) simetricnim ulazom i nesimetricnim izlazom

    • B. 

      B) nesimetricnim uzazom i simetricnim izlazom

  • 17. 
    17. Kodovanje radi kompresije predstavlja: 
    • A. 

      A) odbacivanje redudanse

    • B. 

      B) dodavanje redudanse

  • 18. 
    18. Osnovni cilj efikasnog kodovanja je: 
    • A. 

      A) kodovanje datog izvora informacija tako da je srednja duzina koda minimalna

    • B. 

      B) kodovanje datog izvora informacija tako da je srednja duzina koda maksimalna

    • C. 

      C) kodovanje datog izvora informacija tako da je srednja duzina koda jednaka

  • 19. 
    19. Kolicina neodredjenosti seme izbora S, sa abs(S) mogucnosti, data je izrazom: 
    • A. 

      A) log(S)

    • B. 

      B) log(p*S)

    • C. 

      C) p*log(S)

  • 20. 
    20. Da li je sledeci izraz tacan: Entropija ne sme da se menja (invarijantna je)ako se promeni redosled simbola, vazno je da se njihove verovatnoce ne menjaju: 
    • A. 

      A) tacno

    • B. 

      B) netacno

    • C. 

      C) vazi samo ako postoje samo dva simbola u sklopu

  • 21. 
    21. H(1/n,1/n,…,1/n) je: 
    • A. 

      A) monotono opadajuca funkcija od n

    • B. 

      B) zavisi od broja promenljivih

    • C. 

      C) monotono rastuca funkcija od n

  • 22. 
    22. Neka je sistem mogucnosti dat sa S={1,2,3,4,5}. Kolicina neodredjenosti ovog skupa data je izrazom: 
    • A. 

      A) log5

    • B. 

      B) 0.2*log5

    • C. 

      C) 5*0.2*log(0.2)

  • 23. 
    23. Ako je Hemingovo rastojanje dekodne reci d, a q broj detektovanih gresaka, oznaciti uslov koji mora da bude ispunjen: 
    • A. 

      A) d=

    • B. 

      B) d>=q+1

    • C. 

      C) d=q+1

  • 24. 
    24.Sledeci izraz odredjuje: 
    • A. 

      A) kapacitet C diskrtnog kanala sa memorijom

    • B. 

      B) kapacitet C diskretnog kanala bez memorije

  • 25. 
    25. Oznaciti tacan izraz za racunanje entropije H u matlabu/octave za dati vector verovatnoce p: 
    • A. 

      A) H= -sum(p.*log2(p+(p==0)))

    • B. 

      B) H= -sum(p.*log2(p+(p=0)))

    • C. 

      C) H= -sum(p*log2(p+(p==0)))

  • 26. 
    26. Verovatnosno n-arno stablo je n-arno stablo cijim cvorovima su dodeljene: 
    • A. 

      A) zbirne verovatnoce

    • B. 

      B) veovatnoce

    • C. 

      C) pojedinacne kolicine informacije

  • 27. 
    27. Najoptimalniji kod predstavlja kod: 
    • A. 

      A) cija je ocekivana duzina kodnih reci veca od ocekivane duzine kodnih reci drugog koda

    • B. 

      B) cija je duzina kodnih reci manja od ocekivane duzine kodnih reci drugog koda

  • 28. 
    28. H(X|y) oznacava: 
    • A. 

      A) uslovna entropija varijable X u odnosu na dogadjaj ili observaciju X=x

    • B. 

      B) uslovna entropija varijable X u odnosu na dogadjaj ili observaciju Y=y

  • 29. 
    29. Neka je dat kod sa kodnim recima 00, 01, 10, 10. Oznaciti tacno tvrdjenje: 
    • A. 

      A) Hemingovo rastojanje d=1 i nema zasticenog kodovanja

    • B. 

      B) Hemingovo rastojanje d=2 i nema zasticenog kodovanja

    • C. 

      C) nema dovoljno informacija

  • 30. 
    30. Generator poruka odnosno sekvence simbola je: 
    • A. 

      A) predajnik

    • B. 

      B) komunikacioni kanal

    • C. 

      C) prijemnik

  • 31. 
    31. Uzajamna entropija H(X,Y) je: 
    • A. 

      A) H(Y) – H(X|Y)

    • B. 

      B) – suma po promenljivoj X i promenljivoj Y od izraza pX,Y(x,y)*log(pX,y(x,y))

    • C. 

      C) H(Y) + H(X|Y)

  • 32. 
    32. Laplasovim principom nedovoljnog razloga, koji tvrdi da ukoliko ne znamo nista odredjeno o nekoj pojavi: 
    • A. 

      A) razumno je pretpostaviti razlicite verovatnoce mogucih ishoda

    • B. 

      B) razumno je pretpostaviti jednake verovatnoce mogucih ishoda

    • C. 

      C) razumno je koristiti deskriptivni metod za meru kompleksnosti

  • 33. 
    33. Sledeci izraz predstavlja: 
    • A. 

      A) brzinu prenosa (za osnovu b) koda kojim se koduje diskretan izvor U sa |Yu| poruka, cije su kodne reci fiksne duzine n

    • B. 

      B) brzinu prenosa (za osnovu b) koda kojim se koduje diskretan izvor U sa |Yu| poruka, cije su kodne reci razlicite duzine

    • C. 

      Option 3

    • D. 

      Option 4

  • 34. 
    34. Hafmanov algoritam kodovanja izvora informacija bez memorije, pomocu D-arnog prefiksnog koda, daje: 
    • A. 

      A) optimalan kod maksimalne moguce ocekivane vrednosti kodnih reci

    • B. 

      B) optimalan kod minimalne moguce ocekivane vrednosti kodnih reci

  • 35. 
    35. Dimenzija alfabeta se naziva: 
    • A. 

      A) arnost

    • B. 

      B) parnost

    • C. 

      C) ortogonalnost

  • 36. 
    36. Ulazna sekvenca X1, X2, .. ( sekvenca koju treba preneti) u potpunosti: 
    • A. 

      A) zavisi od dekodovanja informacionog izvora

    • B. 

      B) je odredjena informacionim izvorom

  • 37. 
    37. Koja funkcija u matlabu pretvara sliku iz RGB to grey promenljive ‘slika’ 
    • A. 

      A) rgb2gray(slika)

    • B. 

      B) rgb2gray(slika, pow)

    • C. 

      C)grayshow(slika)

  • 38. 
    38. Entropija binarnog izvora definisana je izrazom: 
    • A. 

      A) H= -p log2-(1-p)log2(1-p)

    • B. 

      B) H= -p log2+(1-p)log2(1-p)

    • C. 

      C) H= -p log2 p-(1-p)log2(1-p)

    • D. 

      D) H= -p log2 p*(1-p)log2(1-p)

  • 39. 
    39. Ocekivana duzina kodnih reci E[L] Senon Fanoovog koda data je izrazom: 
    • A. 

      A) netacno

    • B. 

      B) tacno

  • 40. 
    40. Kod entropijskog kodovanja: 
    • A. 

      A) porukama sa vecom verovatnocom dodeljuju se kodovi manje duzine

    • B. 

      B) porukama sa manjom verovatnocom dodeljuju se kodovi vece duzine

    • C. 

      C) porukama sa vecom verovatnocom dodeljuju se kodovi vece duzine

  • 41. 
    41. Za bilo koji diskretni izvor informacija bez memorije, cija je entopija H(U): 
    • A. 

      A) postoji log D, D-arni prefiks kod

    • B. 

      B) postoji barem jedan D-arni prefiks kod

  • 42. 
    42. Primer prenosenja informacije kroz vreme je: 
    • A. 

      A) komuniciranje izmedju dva mobilna telefona u jednoj mrezi

    • B. 

      B) memorisanje nekog sadrzaja na nekom memorijskom mediju

  • 43. 
    43. Ukoliko kodujemo poruku radi tajnosti: 
    • A. 

      A) poruku je moguce poslati bilo gde, ako imamo dobar decoder

    • B. 

      B) poruku stitimo od neautorizovanog pristupa

    • C. 

      C) poruku ne stitimo od neautorizovanog pristupa

  • 44. 
    44. Komprimovanje izvora informacije: 
    • A. 

      A) povecava entropiju simbola

    • B. 

      B) smanjuje entropiju simbola

    • C. 

      C) nista od navedenog

  • 45. 
    45. H(X|Y) oznacava: 
    • A. 

      A) ocekivanu vrednost uslovne entropije

    • B. 

      B) ocekivanu vrednost relativne entropije

    • C. 

      C) nista od ponudjenog

  • 46. 
    46. Mudrost se obikuje:
    • A. 

      A) kroz upotrebu informacija u pravom vremenu

    • B. 

      B) kroz upotrebu znanja u pravom vremenu

    • C. 

      C) kroz upotrebu podataka u pravm vremenu

  • 47. 
    47. Ako je verovatnoca poruke veca: 
    • A. 

      A) kolicina informacije je manja

    • B. 

      B) kolicina informacije je veca

    • C. 

      C) kolicina informacije ne zavisi od verovatnoce

  • 48. 
    48. Najprostiji DMC kom. Kanal je: 
    • A. 

      A) LSC

    • B. 

      B) BSC

    • C. 

      C) TSC

  • 49. 
    49. Korenu verovatnosnog n-arnog stable dodeljena je verovatnoca: 
    • A. 

      A) 2

    • B. 

      B) 1

    • C. 

      C) 3

  • 50. 
    50. Sledeca slika predstavlja: 
    • A. 

      A) BSC dijagram

    • B. 

      B) Hafmanovo stablo

    • C. 

      C) 1 i 0

  • 51. 
    51. Sa ukupno 4 bita moguce je kodovati: 
    • A. 

      A) 6 poruka

    • B. 

      B) 16 poruka

    • C. 

      C) 8 poruka

    • D. 

      D) 3! Poruka

  • 52. 
    52. Entropija je primenljiva kao mera neodredjenosti za:
    • A. 

      A) sisteme mogucnosti u kojima su nam poznate veovatnoce pojedinih ishoda

    • B. 

      B) sisteme mogucnosti u kojima nam nisu poznate verovatnoce pojedinih ishoda

    • C. 

      C) nista od navedenog

  • 53. 
    53. Kada listovi stable ne korespondiraju nijednoj kodnoj reci, takvi listovi se nazivaju:
    • A. 

      A) neiskorisceni listovi

    • B. 

      B) nejednoznacni listovi

    • C. 

      C) jednoznacni listovi

  • 54. 
    54. Maksimalna vrednost entropije binarnog izvora je: 
    • A. 

      A) 2 bita

    • B. 

      B) 1 bit

    • C. 

      C) 0.5 bitova

    • D. 

      D) 0.9998 bitova

  • 55. 
    55. Kraftova nejednakost potvrdjuje postojanje: 
    • A. 

      A) ocekivane duzine koda

    • B. 

      B) Senon- Fanoovog prefiksnog koda

    • C. 

      C) prefiksnih kodova datog komunikacionog kanala

  • 56. 
    56. DMC komunikacioni kanal je vremenski: 
    • A. 

      A) promenljiv

    • B. 

      B) nepromenljiv

  • 57. 
    57. maxH(P)=log m   Maksimum se dostize: 
    • A. 

      A) samo na raspodeli koja odgovara jednakim verovatnocama

    • B. 

      B) samo na raspodeli koja odgovara jednakim verovatnocama ( vazi samo za m=2)

    • C. 

      C) samo za optimalan odnos broja promenljivih i njihovih verovatnoca

  • 58. 
    58. Na slici je prikazan: 
    • A. 

      A) model komunikacionog kanala

    • B. 

      B) prenos informacije sa kodom za ispravljanje greske

  • 59. 
    59. Lokalna uzajamna informacija slucajne velicine Y i X govori o tome koliko jedna opservacija: 
    • A. 

      A) X=y daje informacije o drugoj slucajnoj velicini y

    • B. 

      B) Y=y daje informacije o drugoj slucajnoj velicini X

  • 60. 
    60. Dopuniti sledeci izraz: Entropija unije dva nezavisna dogadjaja mora biti: 
    • A. 

      A) veca od zbira njihovih entropija

    • B. 

      B) veca ili jednaka zbiru njihovih entropija

    • C. 

      C) jednaka zbiru njihovih entropija

  • 61. 
    61. Kod jednog diskretnog informacionog izvora se naziva nesingularnim:
    • A. 

      A) kada isti simboli izvora korespondiraju razlicite kodne reci

    • B. 

      B) kada se razlicitim simbolima izvora korespondiraju razlicite kodne reci

    • C. 

      C) nijedan od ponudjenih odgovora

  • 62. 
    62. U verovatnosnom n-arnom stablu zbrina verovatnoca svih listova je: 
    • A. 

      A) 2

    • B. 

      B) 1

    • C. 

      C) 3

    • D. 

      D) 0

  • 63. 
    63. Kod diskretnog izvora informacija se naziva jednoznacno dekodivim: 
    • A. 

      A) ako i samo ako bilo koja konacna sekvenca kodnih reci jednoznacno odgovara jednoj poruci izvora

    • B. 

      B) ako i samo ako bilo koja konacna sekvenca kodnih reci jednoznacno odgovara jednoj ili vise poruka izvora

  • 64. 
    64. Ukoliko izvor generise 4 poruke sa verovatnocom 0.25, ukupna kolicina informacije je: 
    • A. 

      A) 4 bita

    • B. 

      B) 8 bita

    • C. 

      C) 16 bitova

    • D. 

      D) 2 bita

  • 65. 
    65. Kapacitet kanala: 
    • A. 

      A) meri sposobnost jednog kanala da prenosi informacije

    • B. 

      B) odredjuje deo kanala u kom sum ne deluje na informacije

  • 66. 
    66. Izvor informacija je stacioniran ukoliko: 
    • A. 

      A) verovatnoce emitovanja simbola P(Ut=Ui) zavise od vremena t

    • B. 

      B) verovatnoce emitovanja simbola P(Ut=Ui) ne zavise od vremena t

    • C. 

      C) nijedan od ponudjenih odgovora

  • 67. 
    67. Koja funkcija u matlabu vraca frekvenciju pojavljivanja piksela promenljive ‘slika’: 
    • A. 

      A) imhist(‘slika’)

    • B. 

      B) imhist(slika)

    • C. 

      C) imshow(‘slika’)

  • 68. 
    68. Novine pisane iskljucivo cirilicnim slovima predstavljaju: 
    • A. 

      A) diskretan izvor informacja

    • B. 

      B) diskretan izvor informacija ukoliko poznajemo broj slova

    • C. 

      C) moze ako je konacan i ako nije konacan

  • 69. 
    69. Nivo suma je takav: 
    • A. 

      A) da nije moguce preneti gde je odnos snage signala i suma negativna vrednost

    • B. 

      B) da je moguce preneti poruke sa prihvatljivim nivoom gresaka u prenosu

  • 70. 
    70. Da li je sledeci izraz tacan: Etropija je neprekidna funkcija svojih argumenata: 
    • A. 

      A) da

    • B. 

      B) ne

  • 71. 
    71. Hafmanovo kodovanje je optimalno, sto znaci da ako je Z jedan Hafmanov kod informacionog izvora U, a X drugi jednoznacni kod istog izvora, tada je: 
    • A. 

      A) E[Lx] >= E[Lz]

    • B. 

      B) E[Lx]

    • C. 

      C) E[Lx] == E[Lz]

  • 72. 
    72. Za optimalno kodovanje poruke: 
    • A. 

      A) bitno je opisati kolicinu informacija u porukama

    • B. 

      B) nije bitno ako je kolicina informacija ispod kapaciteta kanala C

    • C. 

      C) nije bitno ako je mali broj poruka

  • 73. 
    73. Senon Fanov kod: 
    • A. 

      A) bolji je sto je entropija izvora manja

    • B. 

      B) bolji je sto je entropija izvora veca

    • C. 

      C) ne zavisi od entropije

  • 74. 
    74. Kada imamo kodovanje u cilju kvalitetnog prenosa u uslovima suma u kanalu: 
    • A. 

      A) uvodimo redudansu

    • B. 

      B) izbacujemo redudansu

    • C. 

      C) uvodimo entropijsku redudansu

  • 75. 
    75. Ukoliko se koristi logaritam sa osnovom tri: 
    • A. 

      A) kolicina nformacije izrazava se u bajtovima

    • B. 

      B) kolicina informacije izrazava se u bitovima

    • C. 

      C) nista od navedenog

    • D. 

      D) kolicina informacija izrazava se u trigramima

    • E. 

      D) kolicina informacija izrazava se u trigramima

  • 76. 
    76. Diskretni kanal bez memorije je najjednostavniji komunikacioni kanal formalno je odredjen sa: 
    • A. 

      A) tri velicine

    • B. 

      B) cetiri velicine

    • C. 

      C) dve velicine

  • 77. 
    77. Poruka A ima verovatnocu 0.75, a poruka B 0.25: 
    • A. 

      A) kolicina informacija je veca u poruci A

    • B. 

      B) kolicina informacije je veca u poruci B

    • C. 

      C) kolicine informacije su jednake u obe poruke

    • D. 

      D) kolicina informacije ne zavisi od verovatnoce u ovom slucaju

  • 78. 
    78. Hafmanov kod pripada grupi: 
    • A. 

      A) neoptimalnih kodova

    • B. 

      B) optimalnih kodova

  • 79. 
    79. Da li trenutno dekodivi kodovi zahtevaju memorisanje prispelih kodnih reci ili cekanje dospece novih da bi dekodovanje bilo obavljeno? 
    • A. 

      A) ne zahtevaju memorisanje

    • B. 

      B) zahtevaju memorisanje zbog jednoznacnog kodovanja

    • C. 

      C) zahtevaju memorisanje po principu CRC

  • 80. 
    80. Entopija binarnog izvora je maksimalna kada je verovatnoca poruka: 
    • A. 

      A) P{0.5,0.5}

    • B. 

      B) P{0.75,0.25}

    • C. 

      C) P{0.25,0.25,0.5}

  • 81. 
    81. Kapacitet kanala je: 
    • A. 

      A) maksimalna kolicina informacija koje ulaz kanala moze preneti na izlaz

    • B. 

      B) maksimalna prosecna kolicina informacija koje ulaz moze preneti na izlaz

  • 82. 
    82. Prenos informacija u komunikacionom sistemu podrazumeva: 
    • A. 

      A) njihovo prenosenje iz jedne tacke u drugu

    • B. 

      B) njihovo prenosenje kroz vreme

    • C. 

      C) prenos od predajnika do prijemnika

  • 83. 
    83. Za jedan kod kazemo da je  ___________ ako u njemu nijedna kodna rec nije prefiks nekoj drugoj kodnoj reci: 
    • A. 

      A) prefiksan

    • B. 

      B) sufiksan

  • 84. 
    84. Ukoliko je verovatnoca prenosa poruke 0.729, odgovarajuca verovatnoca greske je: 
    • A. 

      A) 1+0.271

    • B. 

      B) 1-0.729

    • C. 

      C) 3-0.729

  • 85. 
    85. Neka je X slucajna velicina vezana za verovatnosni sistem mogucnosti (S,P) gde je S={1,2,3,4}, P={0.5,0.24,0.125,0.125} i E={1,3} je jedan dogadjaj. Tada je uslovna entropija da je X=3, pod uslovom da se dogodio dogadjaj E jednaka: 
    • A. 

      A) 0.625

    • B. 

      B) 0.3

    • C. 

      C) 0.2

  • 86. 
    86. Kod je kompletan ukoliko: 
    • A. 

      A) nema neiskoriscenih listova u n-arnom kodnom stablu

    • B. 

      B) nema iskoriscenih listova u n-arnom kodnom stablu

    • C. 

      C) sve kodne reci su iste duzine

  • 87. 
    87. Ukoliko prenosimo 8 poruka sa po 3 bita preko BSC dobijamo verovatnocu korektnog prenosa (1-p)^3=0.8^3, sto znaci da je BSC sa parametrom p: 
    • A. 

      A) 0.02

    • B. 

      B) 0.01

    • C. 

      C) 0.1

    • D. 

      D) 0.2

  • 88. 
    88. Za kanal kazemo da je bez povratne sprege ukoliko raspodela verovatnoce: 
    • A. 

      A) ulaza ne zavisi od izlaza

    • B. 

      B) ulaza zavisi od izlaza

  • 89. 
    89. Binarni kod sa 8 kodnih rec i duzinom kodnih reci 6, brzina prenosa je: 
    • A. 

      A) nista od ponudjenog

    • B. 

      B) 8/6

    • C. 

      C) 6/8

  • 90. 
    90. Potpuno n-arno stablo je: 
    • A. 

      A) n-arno stablo u kome svi listovi imaju istu dubinu

    • B. 

      B) n-arno stablo u kome neki listovi imaju razlicitu dubinu

    • C. 

      C) nijedan od ponudjenih odgovora

  • 91. 
    91. U uslovima izuzetno velikog suma nije uopste moguce obaviti pouzdan prenos poruka:
    • A. 

      A) tacno

    • B. 

      B) netacno

  • 92. 
    92. Ukoliko je verovatnoca prve poruke jednaka p: 
    • A. 

      A) verovatnoca druge poruke jednaka je (1+p)

    • B. 

      B) verovatnoca druge poruke jednaka je (p-1)

    • C. 

      C) verovatnoca druge poruke jednaka je (1-p)

    • D. 

      D) nista od ponudjenog

  • 93. 
    93. DMC je simetrican ako je istovremeno sa simetricnim ulazom i sa simetricnim izlazom: 
    • A. 

      A) tacno

    • B. 

      B) netacno

  • 94. 
    94. Problem koji je moguce resavati Senonovim konceptom mere neodredjenosti jeste: 
    • A. 

      A) efikasno kodovanje diskretnog izvora informacija u formi niza simbola

    • B. 

      B) tajno pisanje kodova diskretnog izvora informacija u formi niza simbola

  • 95. 
    95. Imamo dve poruke i njihove kodne reci dobijene entropijskim kodovanjem. Poruka A={101}, a poruka B={01}: 
    • A. 

      A) Poruka A ima vecu verovatnocu

    • B. 

      B) Poruka B ima vecu verovatnocu

  • 96. 
    96. Koji je od sledecih izraza tacan? 
    • A. 

      A) ln x =< x-1

    • B. 

      B) ln 1/x >= 1-x

    • C. 

      C) ln x >= x-1

  • 97. 
    97. Ako je alfabet beskonacan:
    • A. 

      A) informacioni izvor je odlican

    • B. 

      B) informacioni izvor je diskretan

    • C. 

      C) informacioni izvor je kontinualan

    • D. 

      D) informacioni izvor je stacionaran

  • 98. 
    98. Oznaci tacno tvrdjenje: 
    • A. 

      A) nijedan od ponudjenih odgovora

    • B. 

      B) ciklicni kodovi su podskup blok kodova, a blok kodovi su podskup linearnih kodova

    • C. 

      C) ciklicni kodovi su podskup linearnih blok kodoava, a linearni blok kodovi su podskup blok kodova

  • 99. 
    99. Ako je Hemingovo rastojanje dve kodne reci d, a q broj otkrivenih gresaka. Odrediti tacno tvrdjenje: 
    • A. 

      A) za otkrivanje svih jednostukih gresaka, mora da bude d>=2, a da bi se otkrilo q gresaka u kodnoj reci mora da bude d>=q+1

    • B. 

      B) za otkrivanje svih jednostukih gresaka, mora da bude d>=2, a da bi se otkrilo q gresaka u kodnoj reci mora da bude d=

    • C. 

      C) za otkrivanje svih jednostukih gresaka, mora da bude d>=1, a da bi se otkrilo q gresaka u kodnoj reci mora da bude d>=q+1

  • 100. 
    100. Sta je razlog da nesto kodujemo? 
    • A. 

      A) kodovanje radi internet

    • B. 

      B) kodovanje radi kompresije

    • C. 

      C) kodovanje u cilju kvalitetnog prenosa

    • D. 

      D) kodovanje u cilju odbacivanja informacije

    • E. 

      E) kodovanje radi tajnosti