InfElmKidolgozas

A VIK Wikiből
A lap korábbi változatát látod, amilyen (vitalap) 2012. október 21., 20:59-kor történt szerkesztése után volt. (Új oldal, tartalma: „{{GlobalTemplate|Infoalap|InfElmKidolgozas}} Elkezdtem magamnak kijegyzetelni a cuccot, mert így könnyű tanulni szerintem. Azért fel is dobom netre, hátha valakin…”)
(eltér) ← Régebbi változat | Aktuális változat (eltér) | Újabb változat→ (eltér)
Ugrás a navigációhoz Ugrás a kereséshez

Ez az oldal a korábbi SCH wiki-ről lett áthozva. Az eredeti változata itt érhető el.

Ha úgy érzed, hogy bármilyen formázási vagy tartalmi probléma van vele, akkor kérlek javíts rajta egy rövid szerkesztéssel.

Ha nem tudod, hogyan indulj el, olvasd el a migrálási útmutatót


Elkezdtem magamnak kijegyzetelni a cuccot, mert így könnyű tanulni szerintem. Azért fel is dobom netre, hátha valakinek hasznára válik. A fájlok ms journalban készültek, a nézegető innen letölthető. Ha lesz érdeklődés, majd kinyomtatom pdfbe is. -- SzaMa - 2006.01.04.

Tudjátok: Tanuluás céljából csak végső esetben használjátok! (Egyébként tényleg, ott a könyv, az a biztos.)

Vizsgatételek Laci lapján
  1. Entrópia és tulajdonságai
  2. Feltételes entrópia és tulajdonságai
  3. Kölcsönös információ és tulajdonságai tk. 137.o.
  4. Egyértelmû dekódolhatóság, prefix kód
  5. Jensen-egyenlõtlenség
  6. McMillan-egyenlõtlenség
  7. Kraft-egyenlõtlenség
  8. Üzenet változó szóhosszúságú kódolása
  9. Shannon-Fano-kód
  10. Huffman-kód
  11. Lempel-Ziv algoritmusok
  12. Forrásentrópia
  13. Stacionárius forrás változó szóhosszúságú kódolása
  14. Markov-forrás
  15. Forráskódolás elõírt hibavalószínûséggel
  16. Információstabilitás befejezetlen
  17. Forráskódolás betûnkénti hûségkritériummal
    • Bindi üzenete: tetelek kimondasa kell csak meg def, es azt tudni errol hogy a tomorithetseg also korlatjarol szol
  1. Egyenletes kvantáló négyzetes hibája
  2. Egyenletes kvantáló entrópiája
  3. Lloyd--Max-algoritmus
  4. Kompanderes kvantálás
  5. Vektorkvantálás
  6. Prediktív kvantálás (DPCM, DM)
  7. Lineáris becslés - jpg
    • könyv alapján készült, de nem biztos, hogy elég, meg az sem, hogy jó -- Gabesz - 2006.01.24.
  1. Transzformációs kódolás
    • Bindi üzenete: a DCT meg a SCT kepletet nem kell tudni csak hogy a DCT pl a jpegben hasznaljak es a bitallokaciot is kell tudni
  1. Bayes-döntés
  2. Maximum likelihood döntés bináris szimmetrikus csatorna kimenetén
  3. Optimális detektálás
  4. Emlékezetnélküli csatorna
  5. Csatornakapacitás
  6. Fano-egyenlõtlenség
  7. Csatornakódolási tétel megfordítása
  8. Csatornakódolási tétel (bizonyításvázlat) befejezetlen
    • Bindi üzenete: A lenyeg hogy a varhato erteket vizsgaljuk a valoszinusegek helyett mertha a varhato ertek pozitiv akkor az ertekek tobbsege is pozitiv amibol a varhato erteket kepezzuk (a biz 4 oldal, ugyhogy mondta Laci hogy aki nem normalis csak az vagja be :) )

Ennyi. Még van jópár hiányosság, de már levizsgáztam belőle. Semmiképp ne ebből tanuljatok, mert észrevettem pár előjelhibát benne, ergo biztos van még sok. Visszatekintve néhány tételnél nem jó helyre kerültek a hangsúlyok, de azért többségében szerintem sikerült eltalálni, hogy mi a fontos. Amiért hasznos lehet megnézni, ezeket, az az, hogy igyekeztem minden lépést is leírni (Laci egy csomót trivinek vesz), meg sokszor odaírtam a hivatkozott definíciót, tételt, hogy gyorsabban fel lehessen fogni.
Sok sikert annak, aki még vizsga előtt áll! És örülnék, ha szép lassan a maradék tételek is felkerülnének, meg készülne korrektúra, talán nyomtatott anyag...

-- SzaMa - 2006.01.09.


Egy szemléltetés, amivel talán könnyebb megérteni a max likelihood és Bayes döntést: (nem biztos, hogy helyes szemlélet - aki jobban ért hozzá, javítsa ki!)

Feladtak egy *a* üzenetet, és így kaptam egy *x* jelet. Mit jelent *x*? Mi lehetett *a*? Józan paraszti ésszel végiggondolva: megnézem melyik *a* üzenethez melyik *x* a legvalószínűbb, majd ez alapján visszafelé: akkor hibázhatok a legkisebbet, ha az x-hez azt az a-t választom, melyre x esélye a legnagyobb. Ez a max likelihood. Jól működik akkor, ha nem tudom *a* eloszlását, vagy pedig az teljesen véletlen (egyenletes).

Ám ennél még jobb (kisebb hibavalószínűségű) döntést is hozhatunk: ha figyelembe vesszük, hogy melyik *a* milyen valószínűséggel fordul elő: ugyanis ha egy nagyon és egy kevésbé valószínű *a* esetén is jöhet *x*, akkor a nagyobb valószínűségűt választva kisebb eséllyel hibázok. Ezt valósítja meg a Bayes döntés, amely a lehető legjobb, amit tehetek. A gondolatmenetbe beleillik (ám még fontosabb, hogy behelyettesítve kijön), hogy ha *a* eloszlása egyenletes, akkor a max likelihood megegyezik a Bayes döntéssel (nincs kisebb és nagyobb valószínűségű *a*, mind egyforma).

Kissé formálisabban: Bayes esetén P(A|X)-et maximáljuk, max likelihoodnál megelégszünk a P(XA) maximalizálásánál.

SzaMa kidolgozása, pdf-be nyomtatva, egyben

-> sokáig csodálkoztam, hogy a pdf-ekben miért nem látszik a lényeg, mert ugye az sárgával ki van húzva, és eltakarja pdf-ben a szöveget. De rájöttem, hogy a jnt-kben értelmesen van, szóval csak azokat lehet rendesen megnézni... -- Csapszi - 2006.01.28.