1. Allgemeines
Analoges Video ist mittlerweile sehr ausgereift, aber es besitzt einen
entscheidenden Nachteil: Bei mehreren Kopien pflanzen sich die Fehler immer
weiter fort, so dass die Qualität von Kopie zu Kopie schlechter wird.
Inzwischen hat diese Art der Videodarstellung die vorgegebenen Grenzen der
Physik erreicht, so dass dort Verbesserungen kaum noch möglich sind.
Digitales Video besitzt viele Vorteile gegenüber analogem Video:
- die Qualität ist unabhängig von den Charakteristika des
Übertragungskanals
- unbegrenzt kopierbar ohne Qualitätsverlust --> unbeschränkte
Lebensdauer
- Fehlerkorrektur ist wesentlich vielfältiger möglich
- extrem genaue digitale Filter nutzbar --> Bildmanipulationen und Effekte
kostengünstiger und auch besser als bei analogem Video
Allerdings gibt es auch hier Nachteile: Die Bandbreite ist mehr als 200-mal
höher als bei analogen Videosignalen, wodurch die Abtastrate, der
Speicherbedarf und die Datenübertragungsrate steigen. Es wird also eine
Kompression dieser riesigen Datenmenge nötig.
Beispiele:
- D-1-System: nach Standard CCIR 601 (auch 4:2:2-Standard)
Helligkeitssignal Y mit 13,5 MHz abgetastet, Farbdifferenzsignale U und V
mit jeweils 6,75 MHz (4:2:2), Audio mit 48 kHz --> Datenstrom von 216 MBit/s
- D-2-System: könnte analogen Videorecorder ersetzen
- D-3-System: ähnlich wie D-2-System, jedoch deutlich geringerer
Bandverbrauch
Ein Artefakt ist ein Störsignal, d.h. die künstliche Verfremdung eines
Signals aufgrund von Mängeln oder Störungen. Die Qualität des
digitalen Video hängt erheblich von der A/D-Wandlung ab, besonders von der
Samplingrate (Abtastfrequenz) und der Quantisierung. Eine zu niedrige
Samplingrate bewirkt, dass Pixellation und Aliasing stärker auftreten.
Pixellation ist aber auch abhängig von Farbtiefe und Betrachtungsabstand:
Bei höherer Farbtiefe wird es nicht so stark wahrgenommen, und bei einem
Abstand von 3m zu einem Großbildfernseher sowie einer Auflösung von
320x240 ist es kaum noch erkennbar.
Durch eine zu geringe Anzahl von Stufen bei der Quantisierung gehen die Farben
bzw. Graustufen ganz oder teilweise verloren; unerwünschte, künstliche
Konturen sind zu sehen. Bei einem Schwarzweißbild sind 256 Graustufen (8
Bit) nötig, wohingegen für ein Farbbild 8 Bit pro Farbwert, d.h.
16.777.216 Farben (24 Bit) gebraucht werden. Durch ein eventuelles 4. Byte (32
Bit) wird oft der Grad der Transparenz gespeichert, so dass eine Mischung von
Computerbild und Videosignal möglich wird. Man erreicht allerdings auch
schon gute Qualität mit 5 Bit je Grundfarbe, d.h. 32.768
(25) Farben.
Dieses Format wird RGB 555 genannt. Noch bessere Ergebnisse bei RGB 555
erhält man durch Color-Mapping und Farbtabellen (CLUT's) oder durch
Dithern, wobei ein Punktraster zur Simulation der Farben genutzt wird (siehe
Zeitungsfotos).
Bei der verlustfreien Kompression entspricht das dekomprimierte Bild zu 100% dem
Original. Beispiele dafür sind PCX und GIF.
Lauflängenkodierung (RLE = Run-Length-Encoding):
- große Flächen mit gleicher Farbe
- gleiche Werte für aufeinanderfolgende Pixel durch Anfangswert und
Anzahl aufgeführt
Statistische Kodierung:
- z.B. Huffman-Kodierung --> verschiedene Werte unterschiedlich häufig
- statisch: in vorher festgelegten Tabellen sind die Häufigkeiten
verzeichnet
- dynamisch: Daten vorher analysiert --> reale Häufigkeiten bestimmt
- adaptierend: feste Annahmen der Häufigkeiten, werden dann angepasst
--> Werte mit geringerer Häufigkeit mit weniger Bits dargestellt
--> Code Book zur Interpretation des Datenstroms nötig
- lässt sich mit RLE verbinden --> beim Telefax angewandt
Verlustbehaftete Verfahren bieten wesentlich höhere Kompressionsraten als
die verlustfreien, da weniger wichtige oder vom Auge kaum wahrgenommene
Informationen weggelassen werden. Beispiele hierfür sind JPEG und alle
Videosequenzen, bei denen sonst eine riesige Datenmenge entstehen würde.
Quantisierung, Trunkierung:
- Vergröberung der Quantisierung --> Farbdifferenzierung gröber
- Reduktion auf 16 Bit vertretbar --> sehr wirkungsvoll
- z.B. RGB 555 im CD-i-System
Pruning (Stutzen):
- Bildinformationen mehrerer Pixel gemittelt und auf ein Pixel übertragen
- deutliche Verluste
Farbtabelle (CLUT), Colormapping:
- meist mit 8 Bit = 256 Farben aus einer größeren Farbpalette (16
bzw. 24 Bit)
- Farbwerte speziell für dieses Bild ausgewählt und errechnet
- Nachteil: bei Bildsequenzen Umschlagen der Farben bei Bildwechsel
möglich
Vektor-Quantisierung:
- zweidimensionales Feld von Werten (Symbol) festgehalten
- mehrere (ungefähre) Vorkommen dieses Symbols im Codebook
aufgeführt
Transformationstechniken:
- Datenmenge in eine Form gewandelt, die sich effektiver handhaben lässt
- z.B. Diskrete Cosinus-Transformation (DCT) für "natürliche" Bilder
- eine Art Fourier-Transformation (periodische Schwingungen durch eine Summe
von Sinuskurven unterschiedlicher Frequenz, die ein ganzzahliges Vielfaches
einer Grundfrequenz bilden, dargestellt)
- Transformation vom Ortsbereich in den Frequenzbereich
- man erhält vordefinierte Beschreibungsfunktionen
- meist 8x8-Pixelblöcke, die durch eine Transformationsmatrix umgewandelt
werden
- links oben DC-Koeffizient (Gleichwert), andere AC-Koeffizienten =
Schwankungen
- AC-Koeffizienten mit niedriger Frequenz in der Nähe des
DC-Koeffizienten
- AC-Koeffizienten mit höherer Frequenz selten und oft Null
--> vernachlässigbar
- danach Quantisierung und RLE im "Zig-Zag-Scan", um gleichartige,
aufeinanderfolgende Werte zu erhalten
Helligkeit und Farbe:
- Wahrnehmungsfähigkeiten des menschlichen Auges berücksichtigt
- farbige Details nicht so scharf wahrgenommen wie Schwarz-Weiß-Details
- Farbauflösung kann also geringer als Hell-Dunkel-Auflösung sein
(Color Subsampling)
- YUV-Konvertierung (Kanal-Konvertierung):
- Y-Kanal für die Helligkeit des Punktes
Y = 0,299 Rot + 0,587 Grün + 0,114 Blau
- U,V-Kanäle für die Farbinformation des Punktes mit halber
Auflösung
U = 0,493 (Blau - Y) ... Blaukomponente
V = 0,877 (Rot - Y) ... Rotkomponente
--> Grünkomponente wird errechnet
- Auge unterschiedlich empfindlich für verschiedene Frequenzen
- also nur Konzentration auf stark wahrgenommene Frequenzen (Subband Coding)
- Informationen in der Bildmitte stärker wahrgenommen
- also verminderte Qualität am Bildrand zulässig
- bei Bewegtbildern Details nicht so stark wahrgenommen
- Qualität für ein Bild einer Bildfolge kann also geringer sein als
für ein Standbild
Prädiktive Techniken:
- DPCM / ADPCM: "voraussagende" Techniken --> Ableitung aus bereits
dargestellten Informationen (z.B. nur Unterschiede zu benachbarten Pixeln
dargestellt - mit weniger Bits)
- DYUV: Color Subsampling + DPCM-Technik
- Bewegungsabschätzung: nur Bildveränderungen gespeichert (siehe
2.2.)
Fraktale Kompression:
- Komprimierung mittels IFS (Iterated Function Set) und Collage Theorem
- versucht, Bild durch selbstähnliche Abbildungen seiner selbst zu
überdecken
- Gleichungen abgeleitet (v.a. für "natürliche" Bilder geeignet)
- sehr schneller Bildaufbau und vektorgrafikähnliche
Vergrößerungen möglich
Beliebte Formate zur Videodatenkomprimierung sind:
- AVI (vor allem unter MS-Windows)
- QuickTime (von Apple, häufig im WWW anzutreffen)
- JPEG (vor allem Standbilder, aber mit M-JPEG auch Bewegtbilder)
- MPEG (Bewegtbilder)
Beispiel JPEG (Join Photographic Expert Group):
- für Einzelbilder bestimmt
- Komprimierung um den Faktor 25
- symmetrisch (gleicher Aufwand für Kompression und Dekompression)
- arbeitet mit RGB, YUV und CMYK, am besten jedoch mit YUV
- Kompression des Informationsgehaltes im Bild:
- Beseitigung von Redundanzen durch die DCT
- Quantisierung der DCT-Koeffizienten, RLE der AC-Koeffizienten,
DC-Koeffizienten mit DPCM-Verfahren zusammengefasst
- Huffman- bzw. arithmetische Kodierung