Member since Feb 2011
9 posts
|
![]()
Subject: [Prüfungsprotokoll] 03.03.2011
Hi zusammen, die Posts im I&K-Forum(http://forum.fsi.iuk.uni-erlangen.de/index.php/board,18.0.…) waren eine gute Prüfungsvorbereitung!!! Im Prinzip wurden einfach aus alten schriftlichen Klausuren Aufgaben gefragt.
1. Anforderungen an das Shannonsche Informationsmaß und Begründung warum Log 2. H(x) ?? H(X|Y) Ungleichheitszeichen setzen 3. Wie ist wechselseitige Information definiert? 4. Abschätzung für den log(x) -> x-1 Taylor 1. Ordnung 5. Quellencodierungstheorem 6. Kanalcodierungstheorem 7. Shannon-Fano-Codierung mit 6 Quellensymb. A-F Pr(A)=1/2; Pr(B)=1/4; Pr(C)=1/8; Pr(D)=1/16; Pr(E)=1/32; -was ist Pr(F)? -jeweils optimale Wortlänge berechnen. -Präfixfreien Code konstruieren. -Durchschnittliche Wortlänge dieses Codes berechnen. -Warum ist H(X) genau gleich mittlere Wortlänge? 8. differentielle Entropie: Definition 9. AWGN-Kanal: Anwendung der Differentiellen Entropie auf wechselseitige Information, Warum ist AWGN maximal störendes Kanalmodell? 10. WER <= ?? Abschätzung durch Fehlerexponent, E(R)-R-Diagramm für Galleger-Exponent zeichnen, wie muss n gewählt werden, Bedeutung von Cut-Off-Rate für die Praxis 11. Entropie im Kontinuierlichem: Varianz konstant. Welche Verteilung hat geringste/höchste Entropie? So, ich hoffe, ich hab nix vergessen! War sehr entspannte Atmosphäre, Genug Hilfestellungen, wenn man mal hängen bleibt, sehr faire Benotung |
Powered by the Unclassified NewsBoard software, 20110527-dev,
© 2003-8 by Yves Goergen