Begriffe der digitalen Videoverarbeitung

Diese Seite soll dem Interessierten die gebräuchlichsten Begriffe kurz und verständlich erläutern. Die Zusammenstellung erhebt keinen Anspruch auf Vollständigkeit.


AIF/AIFF

Das "Audio Interchange File Format" ist eines der beiden am meisten genutzen Formate für Audio-Dateien unter MacOS (das andere ist Sound Designer II (SDII)). Eine AIFF Datei enthält die rohen Audiodaten, Kanal-Informationen (Mono/Stereo), die Sampling Rate und anwendungsspezifische Datenbereiche.

ASF

Advanced Streaming Format

AVI

Kurzform für "Audio Video Interleave" (auch "Video for Windows" genannt). AVI ist eine Microsoft-Entwicklung und das am häufigsten genutzte Video-Format bei Windows PCs. AVI enthält abwechselnd Video- und Audio-Daten, innerhalb der AVI-Dateien wird spezifiziert, mit welchen Codecs die Audio- bzw. Video-Daten abgelegt sind.

Cinepak

Der Cinepak-Codec von SuperMac ist stark an das JPEG-Format angelehnt. Cinepak benutzt ein asymmetrisches Verfahren, so dass zum Komprimieren der Videodaten wesentlich mehr Rechenzeit erforderlich ist als zum Abspielen (bis zu Faktor 60). Die Kompressionsrate liegt bei etwa 10:1. Die Meinungen über die Qualität des komprimierten Videomaterials sind geteilt; sie ist aber in etwa vergleichbar mit der des Indeo-Codecs.

Codec

Codec ist eine Kurzform für "Coder/Decoder". Ein Codec ist eine Software, die es ermöglicht, etwas - in der Regel Video und/oder Audio − in einem spezifischen Format zu kodieren und die in diesem Format kodierten Medien wieder in das Ursprungsformat zu dekodieren.

divX;−)

DivX;−) oder auch divX 3.11 ist die gehackte Variante von Microsofts MPEG-4. Die Verwendung von Microsoft Codec muss lizensiert werden, daher haben Hacker ihren eigenen Codec entwickelt.

divX

Der divX oder auch divX 4.x Codec basiert ebenfalls auf dem MPEG−4 Standard, ist aber kein gehacktes Microsoft Produkt mehr, sondern von Grund auf neu entwickelt. Er ist abwärtskompatibel und spielt auch mit dixX;−) komprimierte Videos (was anders herum nicht der Fall ist).

Dolby Digital / AC−3

Dolby Digital, auch bekannt unter dem Kürzel AC−3, ist ein Audio-Codierungsverfahren, welches die Datenmenge die zur Reproduktion qualitativ hochwertiger Audiodaten erforderlich ist, reduziert. Dolby Digital stellt 5 Kanäle voller Bandbreite zur Verfügung (left front, right front, center, left surround, right surround). Zusätzlich steht ein Tieffrequenzkanal (LFE: Low Frequency Effect) zur Verügung. Der LFE-Kanal umfasst nur ein zehntel der Bandbreite der anderen Kanäle.

DTS

Entwickelt von Digital Theater Systems, ist DTS ein Mehrkanal Audio Format ähnlich Dolby Digital. Ausser in Kinos, wo die DTS Tonspuren von einer CD abgespielt und mit dem Film synchronisiert werden, findet man dieses Format eigentlich nur auf Video DVDs.

DV

DV ist ein internationaler Standard für ein digitales Videoformat für den Endanwender. Ursprünglich wurde er von einem Konsortium von 10 führenden Unterhaltungselektronik-Herstellern entwickelt. Heute gehöhren diesem Konsortium weltweit mehr als 60 Unternehmen an. DV, ursprünglich als DVC (Digital Video Casette) bekannt, benutzt ein 6,35mm metallbedampftes Band zur Aufnahme von digitalen Videodaten mit einer Auflösung von 720x480 (NTSC) bzw. 720x576 (PAL). DV war die erste (und ist noch immer die einzige) auch für den Privatanwender erschwingliche Lösung zur digitalen Aufnahme von Videos. Der auch als Software erhältliche Codec ist schnell und nahezu verlustfrei, somit lassen sich mit einem DV-System, entsprechende Software und Erfahrung vorausgesetzt, aus den eigenen Aufnahmen Videosequenzen erstellen, die von professionellen kaum noch zu unterscheiden sind.

DVD

Die DVD (Digital Versatile Disk) ist ein optisches Speichermedium ähnlich der CD. Die Kapazität beträgt zwischen 4.7 und 18 Gigabyte. Als DVD-Video ist sie für die Verbreitung hochqualitativer Videos konzipiert. Auf DVD's gespeicherte Videos sind immer nach dem MPEG−2-Standard komprimiert, während die Audiodaten entweder im Dolby Digital, im MPEG−2 Audio oder im DTS-Format vorliegen.

FireWire

FireWire ist Apples Version des IEEE1394 Standards (bei Sony als iLink bezeichnet), ein sehr leistungsfähiger serieller Bus zur Verbindung von Peripheriegeräten mit dem Computer. FireWire erlaubt den simultanen Anschluss von bis zu 63 Geräten und Übertragungsraten bis zu 400 MBit/s. Die hohe Geschwindigkeit ermöglicht das Arbeiten mit großen Datenmengen, daher werden fast alle modernen digitalen Videokameras mit FireWire-Anschluss ausgestattet.

iLink

siehe FireWire

Indeo

Der Indeo-Codec wurde 1992 von Intel vorgestellt. Durch die Kompatibilität zu "Video for Windows" ist der Indeo Codec auf allen Windows-PCs einsetzbar. Der skalierbare Codec verwendet ein eigenes YUV-Modell (YUV9 mit 9 Bit/Pixel) und erreicht Kompressionraten von ca. 5:1. Die Vorteile beim Einsatz des Indeo Codecs sind die relativ schnelle Kodierung (je nach Hardware auch in Echtzeit) und die geringen Prozessoranforderungen beim Abspielen.

MP3

siehe: MPEG−1 Layer 3

MPEG

"Motion Pictures Expert Group". Die MPEG ist ein internationales Komitee, das die einheitliche Datenkomprimierung für Bild und Ton regelt. Als Bildkomprimierungsverfahren kommen z.B. bei einer DVD MPEG−2 und bei einer Video-CD MPEG−1 zum Einsatz. Als Audiodatenreduktionsverfahren wird auf DVDs MPEG−2 Audio verwandt, ebenso wie AC−3 und DTS. AC−3 und DTS sind keine MPEG-Verfahren.

MPEG−1

Was JPEG für Standbilder ist, ist MPEG für Bewegtbild-Komprimierung. MPEG arbeitet asymmetrisch. Die Komprimierung erfordert viel Aufwand und Zeit. Es ist daher zur Echtzeitdigitalisierung von Video nur bedingt geeignet. Allerdings gibt es inzwischen auch Software-Decoder, die bis zu einer Größe von 320 x 240 Bildpunkten eine Echtzeitdigitalisierung schaffen. MPEG erzeugt zunächst JPEG-komprimierte Einzelbilder (sog. I−Frames), berechnet dann die P− und B−Frames und speichert lediglich die Änderungen zwischen ihnen und den I−Frames ab. Der Kompressionsfaktor bei MPEG−1 liegt bei etwa 40:1. Damit ist auf Basis eines CD-ROM-Laufwerks (Single Speed) eine Auflösung von 352x288 und eine Bildwiederholrate von 25 Bildern/s möglich. MPEG−1 findet auf Video-CDs Verwendung.

MPEG 1 arbeitet mit drei verschiedenen Bildarten:
I−Frames (Intra Pictures)
Die I−Frames werden wie ein normales Bild im JPEG-Format abgespeichert (Blockzerlegung, DCT, Quantisierung, Lauflängen-Codierung, Huffman-Codierung).
P-Frames (Predicted Pictures)
Bezugnehmend auf das letzte vorhergehende I− oder P−Bild erfolgt die Codierung der P−Bilder. Bei der Decodierung wird aufgrund des vorherigen I− oder P−Bildes und den Informationen des aktuellen P−Bildes das neue Bild sozusagen "vorhergesagt".
B−Frames (Bidiretional Pictures)
Im Unterschied zu dem P−Bilder beziehen sich die B−Bilder nicht nur auf vorherige, sondern auch auf alle nachfolgende Bilder. Mit anderen Worten: In einem B−Bild ist die Differenz zwischen dem vorhergehenden und dem nachfolgenden Bild gespeichert. Dadurch kann man eine weitere Komprimierung erzielen und das Rauschen zwischen zwei Bildern vermindern.

MPEG−1
Layer 3

MPEG−1 Layer 3 (kurz: mp3) ist ein Kompressionsverfahren für Audio-Dateien, das ursprünglich vom Fraunhofer-Institut entwickelt worden ist. MP3 basiert auf dem MPEG1−Standard und ist zur möglichst verlustfreien Wiedergabe von Musikstücken gedacht. Die hohe Kompressionsrate von durchschnittlich 1/12 bei fast unhörbarem Qualitätsverlust erlaubt es, große Mengen an Audiodaten zu speichern und auch über Netzwerke zu verteilen.

MPEG−2

MPEG−2 findet Verwendung auf Video DVDs und Super Video CDs. Die zur Kompression benutzten Verfahren sind im Prinzip dieselben wie bei MPEG−1. Anstatt jedoch 8 x 8 Pixelblöcke zu verwenden, werden 10 x 10 Pixelblöcke benutzt. Die Anzahl der Koeffizienten verdoppelt sich dabei und die Qualität steigt. Im Gegensatz zu MPEG−1 garantiert MPEG−2 nicht nur bei einer Auflösung volle Kompatibilität, sondern bei vier verschiedenen Auflösungen: Low (352 x 240). Main (720 x 480), High 1440 (1440 x 1152) und High (1920 x 1080). Dadurch ergeben sich Datenraten zwischen 1,5 und 15 MBit/sec.

MPEG−2 Audio

Ein von der "Motion Picture Experts Group" entwickeltes Mehrtonverfahren zur Speicherung von bis zu sieben Tonkanälen inklusive einem Tiefbasskanal (6+1). Das MPEG−2-Audio-Verfahren findet derzeit nur auf der DVD Verwendung, soll aber später auch im digitalen Fernsehen verwendet werden.

MPEG−4

MPEG−4 ist ein von Microsoft entwickelter Standard, der es erstmals erlaubte, Videos in DVD-Qualität ohne signifikante Qualitätsverluste so weit zu komprimieren, dass sie über das Internet verbreitet werden konnten. Ein 5 GB großes Video von einer DVD kann mit MPEG−4 beispielsweise auf 650 MB komprimiert werden, und das bei subjektiv gleichbleibender Qualität und Auflösung.

NTSC

Amerikanischer Standard zur Ausstrahlung von Farbfernseh-Sendungen. Beim NTSC-Standard werden 480 Zeilen übertragen. Die Bildwiederholfrequenz beträgt 29,97 Hz .

PCM

PCM steht für "Pulse Code Modulation". Unkomprimiertes Wiedergabeformat für Audiosignale. PCM wird seit vielen Jahren auf normalen Audio-CDs benutzt. Häufig enthält das PCM-Format eine (Mono) oder zwei Audiospuren, auf denen beim Stereo-Sound der rechte und linke Kanal gespeichert werden.

PAL

Kurzform für "Phase Alternation Line". Standard zur Ausstrahlung von Farbfernseh-Sendungen in vielen westeuropäischen Ländern. Insgesamt werden beim PAL-Standard 625 Zeilen übertragen, aber nur 576 für die Bildinformaionen auf dem Fernsehschirm genutzt. Die restlichen Zeilen enthalten die Bildsynchroninformationen und werden außerdem für die Übertragung von Videotext genutzt. Die Bildwiederholfrequenz beträgt bei PAL 50 Hz (25 Bilder/sec).

Quicktime

Quicktime ist eine von Apple 1991 zunächst für den Macintosh entwickelte Betriebssystemerweiterung. Seit geraumer Zeit ist die Software auch für Microsoft Windows erhältlich. Quicktime ist, wie AVI ein offenes Verfahren, das mit Codecs anderer Anbieter zusammenarbeitet. Es durchsucht den Rechner nach installierten Codecs und wählt den geeigneten für die jeweils abzuspielende Datei aus.

RGB

RGB (Rot, Grün, Blau) bezeichnet ein System zur Beschreibung von Farben, welches u.a. für Computermonitore verwendet wird. Rot, grün und blau können anteilig so kombiniert werden, dass sich jede für den Menschen sichtbare Farbe ergibt. Die Anteile werden durch Dezimalzahlen von 0 bis 255 dargestellt. Die Anzahl der verfügbaren Farben ergibt sich damit zu 256 x 256 x 256 = 16.777.216.

Sampling Rate

Beim Digitalisieren von analogen Audiodaten gibt die Sampling Rate an, wie oft pro Sekunde das analoge Signal abgetastet wird. Je höher die Sampling Rate, desto näher ist die digitale Kopie am Original. Die Standard Audio CD ist z.B. mit einer Sampling Rate von 44.100 kHz aufgenommen, d.h. 44.100 Samples pro Sekunde.

S/PDIF

S/PDIF (Sony/Philips Digital Interface) ist ein standardisiertes Übertragungsformat für Audiodaten. Man findet diese Schnittstelle meistens an digitalem Audio-Equipment wie DAT Recordern, oder hochwertigen PC-Soundkarten. Das Format erlaubt die digitale Übertragung von einem Gerät zum anderen, ohne die Daten in ein analoges Signal wandeln zu müssen, wodurch Qualitätsverluste entstehen könnten.

Streaming Video

Streaming Video ist eine Sequenz aufeinanderfolgender Bilder, die in komprimierter Form über das Internet gesendet und vom Player des Endanwenders gezeigt werden, sobald sie dort eintreffen. Mit Streaming Video muss der Betrachter nicht mehr warten, bis eine große Videodatei aus dem Internet heruntergeladen ist, stattdessen wird das Video in einem kontinuierlichen Datenstrom (Stream) gesendet und jedes Bild wird dem Betrachter gezeigt, sobald es verfügbar ist. Zur Auswahl stehen mehrere Videoformate, die Streaming Video unterstüzen: RealVideo, QuickTime und Windows Media Video, um nur die gängigsten zu nennen.

SVCD

SVCD steht für 'Super Video Compact Disc' und ist der VCD sehr ähnlich. Die Kapazität einer SVCD beträgt 35-60 Minuten auf 650/700MB CDs, und das bei sehr guter Video-Qualität, bis zu 2 Stereo-Audio Spuren und 4 ausblendbaren Untertiteln. SVCDs benutzen den MPEG−2 Standard zur Speicherung der Video- und Audio- Daten. Eine SVCD kann auf vielen herkömmlichen DVD-Playern und natürlich auf jedem modernen PC mit CD oder DVD Laufwerk abgespielt werden, die passende Software vorausgesetzt. Ähnlich einer DVD ist es möglich einer SVCD eine einfache Menüstruktur mitzugeben.

Die Qualität von SVCDs entspricht etwa der einer SVHS-Aufnahme. Die Bildwiederholrate und -größe muss entweder dem PAL- oder dem NTSC- Standard entsprechen.

Details:
PAL-SVCD NTSC-SVCD
Video: max ~2400 kbit/s MPEG−2
480 x 576 Pixel
25 Bilder/sec
max ~2600 kbit/s MPEG−2
480 x 480 Pixel
29,97 Bilder/sec
Audio: 32-384 kbit/sec MPEG−1 Layer2 oder MPEG−2
bis zu 2 Audio Spuren
32-384 kbit/sec MPEG−1 Layer2 oder MPEG−2
bis zu 2 Audio Spuren
Extras: Menüs und Kapitel
bis zu 4 Untertitel
Standbilder mit 720 x 576 oder 352 x 288
Menüs und Kapitel
bis zu 4 Untertitel
Standbilder mit 720 x 480 oder 352 x 240

VCD

VCD steht für 'Video Compact Disc' und ist praktisch eine CD, die bewegte Bilder und Ton enthält. Wer mit herkömmlichen CDs vertraut ist, weiß auch, wie eine VCD aussieht. Die Kapazität einer VCD beträgt 74/80 Minuten auf 650/700MB CDs. VCDs benutzen den MPEG−1 Standard zur Speicherung der Video- und Audio-Daten. Eine VCD kann auf fast allen herkömmlichen DVD-Playern und natürlich auf jedem modernen PC mit CD oder DVD Laufwerk abgespielt werden. Ähnlich einer DVD ist es möglich einer VCD eine einfache Menüstruktur mitzugeben.

Die Qualität von VCDs entspricht knapp der einer herkömmlichen VHS Aufnahme. Die Bildwiederholrate und -größe muss entweder dem PAL- oder dem NTSC-Standard entsprechen.

Details:
PAL-VCD NTSC-VCD
Video: 1150 kbit/sec MPEG−1
352 x 288 Pixel
25 Bilder/sec
1150 kbit/sec MPEG−1
352 x 240 Pixel
29,97 Bilder/sec
Audio: 224 kbit/sec MPEG−1 Layer2
224 kbit/sec MPEG−1 Layer2
Extras: Menüs und Kapitel
Standbilder mit 720 x 576 oder 352 x 288
Menüs und Kapitel
Standbilder mit 720 x 480 oder 352 x 240

VHS

Kurzform für "Video Home System". Video-Standard für analoge Videokasseten. VHS wurde ursprünglich von JVC entwickelt und ist der Standard, der in europäischen Haushalten am häufigsten vertreten ist.

WMV

Windows Media Video. Microsoft-Weiterentwicklung ihres eigenen MPEG−4 Codecs. Der einzige Unterschied zum Vorgänger ist, dass jetzt Streaming möglich ist.

WAV

WAV (Waveform Audio) ist das native Format für digitale Audiodaten unter Windows. WAV Dateien unterstützen diverse Formate: z.B. 8 oder 16 Bit Samples bei den verschiedensten Sampling Raten, typisch sind beispielsweise 11025Hz, 22050Hz oder 44100Hz. Der benötige Speicherplatz beträgt bei 16-Bit/44,1 kHz 88KB/s je Kanal (PCM, unkomprimiert). Ähnlich wie bei AVI-Dateien können die Audio-Daten auch in durch Codecs verdichteter Form in .WAV-Dateien enthalten sein.


Stand: 13.10.2003