Dieser Inhalt stammt aus einem "Backgroundpapier" von 1997
Darum zuerst noch einen Blick zurück auf die damalige Technik der Prozessoren und der Windows Software in den PCs.
Mit den ersten Windows 3.11 Versionen konnte man Videos auf dem PC abspielen und nach geraumer Wartezeit sogar in kleine Stücke schneiden und wieder zu einem Film "zusammenkleben".
Unter WINDOWS 95 ging das wieder einen Schluck schneller - aber noch lange nicht befriedigend. Das war der Ansatzpunkt der Firma FAST, eine Zusatzplatine mit einem 16Bit Bus zu entwickeln, auf der ein spezieller Video-Prozessor das Bearbeiten deutlich beschleunigte.
Weiterhin wurde 1995 von PANASONIC ein neues digitales Speichersystem auf schmalen Magentbändern in einer kleinen Kassette vorgestellt, das DV und das MINI-DV System. Und jetzt gab es neue Voraussetzungen, unter WIN 95 (noch nicht WIN 98 !!) selbst gemachte oder auch professionelle SDTV-Videos in sehr guter PAL-Qualität zu speichern und auch nachzubearbeiten (Postproduction genannt). Und auf diese neue Technik fokussiert ist dieses 4-Seiten Papier.
.
Vorwort und Einführung in die "firewire" Überspieltechnik :
In diesem Artikel wird Grundlagenwissen anschaulich dargeboten und darum ist er hinten dran gehängt.
.
Sie sehen auf dem ersten Bild die Komponenten-Eingänge von einem analogen Recorder auf der Frontseite und die PAL Markierung.
Dann kommen die Tasten mit der Umschaltung auf DV oder Komponenen auf der Rückseite. Weiterhin wird auch die Encodierung des digitalen Tons geschaltet.
Auf der Rückseite sind die weiteren Anschlüsse sowie die beiden Firewire Buchsen für Ein- und Ausgang zu sehen.
.
Backgroundpapier : DV und Firewire (IEEE1394) (Stand von 1997)
vorn Gert Redlich im März 2023 - (Stand der Technik von 1997)
Durch Digitalisierung der analogen Videosignale auf Festplatte wurde in den vergangenen Jahren einer großen Zahl von Anwendern auf preisgünstige Art der Schnitt und die Bearbeitung von Video erschlossen. Bis heute war jedoch eine durchgängig digitale Verarbeitung von der Aufnahme bis zum fertig geschnittenen Video in unteren und mittleren Preissegmenten nicht möglich.
Seit Vorstellung der ersten digitalen Kameras ergeben sich neue Chancen für die digitale Videobearbeitung. Die Geräte zeichnen das Videosignal nicht mehr analog, sondern digital komprimiert auf.
.
- Amerkung : Das ist ungeschickt erklärt, weil es die digitalen Kameras (also die mit den CCD-Chips) schon gab, als immer noch analog auf Band aufgezeichnet wurde.
.
Die Folge:
Die Folge: professionelle Bildqualität zu einem Preis zwischen Consumer- und Profigeräten, Tendenz fallend. Um Inkompatibiliäten und verlustreiche Kämpfe um Standards zu vermeiden, haben die großen Hersteller gemeinsam einen Gerätestandard für die neue Technologie erarbeitet: DV (Digital Video).
Als erster Hersteller hat Sony in seinen Geräten auch einen digitalen Ausgang (IEEE 1394) für die direkte serielle Übertragung des DV-Videosignals vorgesehen. Dieser eröffnet erstmals die Möglichkeit, die Daten von den CCD-Chips der Kamera über den Editing-Prozeß bis hin zur Rückübertragung auf Band digital zu verarbeiten.
.
Zwei unterschiedliche Technologien
Eingangs eine Begriffsklärung: "DV" ist nicht gleich IEEE 1394/FireWire, auch wenn die Begriffe oft fälschlicherweise gleichgesetzt werden. Sie stehen für unterschiedliche Technologien mit unterschiedlichen Aufgaben.
.
- "DV" bezeichnet einen Kassetten- und Aufnahmestandard, der das Aufnehmen und Abspielen von komprimierten Bild- und Tondaten definiert. Darüber hinaus legt der "DV"-Standard Einzelheiten der Gerätemechanik und des Videobandes für DV-Geräte fest.
- IEEE 1394 dagegen ist der Standard für ein Übertragunqsprotokoll. Als universelle Schnittstelle können über FireWire digitale Informationen jeglicher Art übertragen werden.
.
Die Aufgabenverteilung verhält sich ähnlich wie zwischen Video for Windows (VfW) und SCSI: Während VfW das Datenformat für digitales Video festlegt, überträgt SCSI digitale Informationen jeglicher Art - also auch VfW-Daten.
1. Der Weg des Lichtes von der Kameraoptik auf DV-Band
Was geht bei der Aufnahme von Video in einer DV-Kamera vor sich?
Der Informationsträger „Licht" durchläuft eine Reihe von Transformationen, bevor er als DV-Video auf die Kassette gebannt werden kann. In Grafik 1 sind der Weg und die jeweils anfallende Datenmenge kurz skizziert:
In der Kameraoptik wird das Licht in seine 3 Farbanteile (Rot-Grün-Blau) aufgespalten. Dann werden die einzelnen Lichtwellen mit CCD-Wandlern in elektrische Signale umgesetzt. Daraus resultiert ein sog. RGB-Signal.
- • Die Datenrate beläuft sich nach diesem Schritt auf 248 Mbit/Sek.
"RGB" nach "YUV" Converter (Farbraumkonvertierung):
Hier wird das RGB-Signal in ein YUV-Signal umgewandelt. Y steht für die Helligkeit, U und V für den Farbwert eines Bildpunktes.
Da das menschliche Auge Helligkeiten wesentlich besser wahrnimmt als Farben, wird der Y-Wert doppelt so häufig wie die Farbdifferenzwerte U und V „gesampelt". Daraus resultiert die Bezeichnung YUV 4:2:2 (Y wird 4mal pro Zeiteinheit gesampelt, U und V je 2mal).
.
- • Mit der Farbraumkonvertierung erreicht man ohne sichtbaren Qualitätsverlust eine Reduzierung der Datenmenge um ein Drittel.
- • Die Datenrate beträgt noch 165 Mbit/Sek.
.
YUV 4:2:2 nach YUV 4:2:0 bzw. YUV 4:1:1 Converter:
Um die Datenrate weiter zu reduzieren, wird hier die Farbinformation nochmals halbiert. YUV 4:2:0 (bei PAL) / YUV 4:1:1 (bei NTSC) bedeutet: Jeder Bildpunkt hat eine eigene Helligkeit, aber 4 Punkte teilen sich dieselbe Farbinformation.
- • In diesem Schritt wird die Datenrate auf 124 MBit/Sek. reduziert.
.
Kompression : (Stand von 1997)
Jetzt erst findet die eigentliche Kompression statt. Inzwischen hat sich die ursprüngliche Informationsmenge um zwei Drittel verringert. Der DV-Kompressionschip reduziert die verbliebene Datenmenge nochmals um vier Fünftel auf ca. 25 MBit/Sek.
Diese Datenrate wird konstant gehalten und auf das DV-Band aufgenommen. Die Kompression erfolgt also nicht mit gleichbleibender Qualität bei wechselnder Datenrate, sondern nach der Vorgabe einer konstanten Datenrate von 25 MBit/Sek und einer angepaßten Qualität.
.
- • Nach der Kompression ist eine Datenrate von 25 MBit/Sek. erreicht; inkl. aller Zusatzdaten und Audio werden 41 MBit/Sek. auf das DV-Band geschrieben.
.
2. Die Videokodierung bei "DV" (nicht DVCPRO)
Im DV-Standard wird ein digitales, komprimiertes Videosignal aufgezeichnet. Die Digitalisierung erfolgt im Komponentenformat YUV 4:2:0 mit 50 Halbbildern bei PAL und in YUV 4:1:1 mit 60 Halbbildern bei NTSC.
Die Kodierungsarten sind unterschiedlich, weil die Fernsehnormen PAL (z.B. Europa) und NTSC (z.B. USA) eine jeweils andere vertikale Auflösung (Zeilenzahl des Fernsehbildes) besitzen (PAL hat 625 Zeilen, NTSC nur 525 Zeilen).
- Anmerkung : Die Anzahl der "Zeilen" hat fast nichts mit der Anzahl der darstellbaren "Linien" zu tun. In den englischsprachigen Ländern waren das zunächst alles nur "linies" (ohne Unterscheidung) - bis man zum Unterschied den Begriff "TV-lines" entsprechend unseren Linien geprägt hatte.
Die horizontale (sichtbare) Auflösung des DV-Standards dagegen liegt bei beiden Videonormen bei ca. 500 Linien - das sind 25%mehrals bei Hi8 (mit ca. 400 Linien und VHS mit ca. 240 Linien).
.
.
Die folgenden Grafiken zeigen die Aufteilung der Helligkeitsinformation (Y) und der Farbinformation (UV) auf die einzelnen Bildpunkte bei der DV-Kodierung:
.
3. Die Audiokodierung bei DV
"DV"-Audio wird unkomprimiert zusammen mit dem "DV"-Videosignal gespeichert. Der Anwender kann zwischen zwei verschiedenen Arten der Audio-Kodierung wählen:
.
- • 16 Bit bei einer Samplingrate von 44,1/48 kHz (entspricht CD-Qualität). Es können zwei Audiokanäle auf das DV-Band aufgezeichnet werden.
- • 12 Bit bei einer Samplingrate von 32 kHz. In dieser Auflösung stehen vier Audiokanäle zur Aufzeichnung zur Verfügung.
.
4. Die "DV"-Kompression (Stand von 1997)
Wie oben geschildert, wird das Videosignal bereits in der Kamera komprimiert, um die Datenrate überhaupt mal zu reduzieren. Die DV-Kompression wird Bild für Bild vorgenommen (Intraframe-Kompression).
Dadurch ist der Zugriff auf jedes einzelne Bild möglich, eine Voraussetzung für die spätere bildgenaue Nachbearbeitung. Das digitalisierte Audio wird ohne weitere Kompression auf das DV-Band übernommen.
Der DV-Standard schreibt eine kontinuierliche Videodatenrate von 25 Mbit/Sek. fest, das entspricht einem Kompressionsfaktor von etwa 5:1.
Der Faktor kann also nicht (wie bei anderen Videokompressionsformaten) „skaliert" werden, d.h. je nach Anforderung verändert werden.
Vorgegeben ist dies durch die Aufnahme auf DV-Magnetband, das eine konstante Bandgeschwindigkeit erfordert. 60 Minuten DV-Video benötigen etwa 11 GB Speicherplatz. Bei 5:1 ist DV-Video sichtbar besser als z.B. Motion-JPEG-Video beim gleichen Kompressionsfaktor.
In DV-Geräten und guten Editing-Lösungen wird zur Kompression und Dekompression Hardware verwendet. Dadurch können Videoaufnahme und -wiedergabe in Echtzeit ablaufen. Neben der Echtzeit-Verarbeitung von "DV"-Video auf Hardwarebasis ist auch eine Kompression und Dekompression durch Software möglich. Hierbei fallen allerdings Wartezeiten an, die sich mit reiner Softwarekodierung von Motion-JPEG vergleichen lassen.
.
- Anmerkung : Modernere Kompresionsverfahren machen das trickreicher, indem als sogenannter I-Frame ein volles Bild (verlustlos komprimiert) abgespeichert wird und dann immer nur die Veränderung zu diesem 1. Bild als 2. Bild, dann die Verändeung zu der 1.Veränderung als 3. Bild bis zu Bild 16, dann kommt wieder ein neuer I-Frame. Der Vorteil bei Bildern mit nur geringer Bewegung ist extrem effizient.
.
5. Die Aufzeichnung auf das DV-Band
Wie bei anderen Videosystemen, so schreibt und liest auch bei DV eine rotierende Kopftrommel die (Schrägspur-) Videodaten. Die Information wird in schrägen Spuren auf ein Metallpartikelband aufgezeichnet. Neben den Video- und Audiodaten selbst werden bei DV weitere Zusatzinformationen für die Verwaltung aufgezeichnet.
Bei der DV-Aufzeichnung wird jedes komprimierte Bild auf 12 Spuren (PAL) bzw. 10 Spuren (NTSC) geschrieben. Im Gegensatz zu analogen Magnetaufzeichnungsverfahren werden die Bildinformationen dabei nicht linear in einer Spur aufgezeichnet, sondern auf alle Spuren verteilt.
.
Der Vorteil:
Bei der Aufnahme gelegentlich auftretende Bandfehler, die sich in bisherigen Aufzeichnungsverfahren als Dropouts äußerten, werden gleichmäßig über das ganze Bild verteilt.
.
Folge:
Sie können vom menschlichen Auge praktisch nicht mehr wahrgenommen werden. Darüber hinaus kommen im DV-Camcorder bei der Wiedergabe Fehlerkorrekturchips zum Einsatz, die die Videodaten nach einem geringfügigen Verlust (wie bei Dropouts) komplett rekonstruieren können.
Zur Wiederherstellung werden die entsprechenden Bildpunkte der vorangegangenen und nachfolgenden Zeile herangezogen. Sind die Aufzeichnungsfehler zu groß, wird zwischen den benachbarten Punkten des Einzelbildes ein Mittelwert errechnet und eingesetzt (Interpolation).
Audio wird ähnlich wie bei Hi8 mit auf die Schrägspur aufgezeichnet. Im Gegensatz zur Analogtechnik kann die Audiospur aber unabhängig vom Bild gelöscht und neu beschrieben werden. Das digitale Audio wird in einer der oben genannten Qualitäten unkomprimiert aufgezeichnet.
Der dritte Teil der Schrägspur ist der sogenannte "ITI"-Bereich (Insert and Track Information). Der CTL-Spur auf Analogkassetten vergleichbar, dient diese Sektion zur Synchronisation der Abspielgeschwmdigkeit und des Tracking.
Die vierte Sektion der Schrägspur wird als Sub-Code bezeichnet. Dieser Platz dient zusätzlichen Daten wie Tme-codes, Schnittdaten etc.
.
6. Die DV-Kassetten (Stand von 1997)
Zur Aufzeichnung sind die kleinen Kassetten im Mini-DV Format mit 60 Minuten Spieldauer und die großen Kassetten im Standard-DV-Format mit 240 Minuten verfügbar.
Sie werden mit oder ohne (internem) Chip angeboten. In diesen Chips können Zusatzinformationen zu den Aufnahmen abgespeichert werden, z.B. das Datum.
.
7. IEEE 1394/Firewire - die universelle Schnittstelle
Die Empfehlung Nummer 1394 des „Institute of Electrical and Electronics Engineers" (IEEE) wurde ursprünglich von Apple entwickelt. Der Standard mit dem Codenamen „FireWire" ist als universelle Highspeed-Schnittstelle zwischen Geräten konzipiert und dient der Übertragung von digitalen Daten aller Art.
Angeschlossen werden können Festplatten, CD-ROM Laufwerke, Scanner, Video-Digitizerkarten oder eben Videogeräte.
Leistungsdaten, Flexibilität und nicht zuletzt die Einfachheit in der Bedienung prädestinieren FireWire zum kommenden Standard. Darüber hinaus schlägt er die Brücke zwischen Unterhaltungselektronik (UE) und Computerindustrie.
Bei der Videobearbeitung müssen Video und Audio unbedingt zeitgleich abgespielt werden, sonst paßt der Ton nicht zum Bild. FireWire kann bei Bedarf zeitkritischen (isochronen) Daten wie Video oder Audio Priorität bei der Übertragung einräumen. Daher ist der neue Standard auch für die Videoübertragung geeignet. Angeschlossene Geräte können während des laufenden Betriebes an- und abgesteckt werden („hot-pluggable"), ohne den Netzkreislauf zu unterbrechen.
Die erste Praxis-Anwendung zum Transport digitaler Daten via IEEE-1394 ist das DV-Interface von Sony zur direkten Übertragung von DV-Daten.
Das Sony-Interface basiert auf der FireWire-Spezifikation von 100 MBit/s. Es ist jedoch zu erwarten, daß weitere Anwendungen in der Computer- wie der UE-Branche schnell folgen werden.
.
8. Die Videonachbearbeitung mit DV und FireWire
Die Vorteile einer Verbindung von DV und FireWire für eine "NLE-Lösung" (der nichtlineare Videoschnitt) scheinen überwältigend. Im folgenden Teil werden 4 mögliche Szenarien für das Editing mit DV-Geräten samt ihrer Vor- und Nachteile vorgestellt:
.
Editing Solution 1:
DV-Zuspieler + DV-Rekorder + LANC-Control. Zuspieler und Rekorder werden direkt über die digitalen Schnittstellen nach IEEE 1394 verbunden. Die Steuerung erfolgt über ein herkömmliches LANC-Steuergerät. Dieses Gerät kann eine PC-Schnittsteuerung sein oder auch ein externes Steuergerät (Editcontroller). Mit dieser Lösung sind nur harte Schnitte möglich, weil die digitalen Daten lediglich kopiert werden. Außerdem muß der Film komplett nachvertont werden.
Editing Solution 2
DV-Zuspieler + DV-Rekorder + LANC-Control + Captureboard. Ähnlich der Editing Solution 1. Zusätzlich kann am PC eine Vorauswahl der zu kopierenden Clips anhand von aufgezeichneten Picons (Picture-Icons) gemacht werden. Das ist aber nicht zu verwechseln mit dem Aufnehmen ganzer Bildsequenzen. Hierbei handelt es sich um reine Standbilder.
Editing Solution 3
DV-Zuspieler + DV-Recorder + FireWire-Board mit DV-Codec in Software.
Diese Lösung bietet bereits eine einfache Art von nonlinearem Editing auf Festplatte. Dazu werden die Daten von dem DV-Zuspieler über ein FireWire I/O-Board auf die Festplatte eines PCs lediglich kopiert.
Dann müssen diese Videodaten häufig in einem weiteren Schritt konvertiert und in ein geeignetes Fileformat gebracht werden, um mit Schnittsoftware und entsprechender Treiberan-bindung nachbearbeitet werden zu können.
Weil das Video bei jedem Zugriff über den Software-CoDec dekodiert und kodiert werden muß, fallen bei dieser Lösung lästige Wartezeiten an. Da Lösung Nr. 3 nicht in Echtzeit arbeiten kann, ist auch die Live-Darstellung an angeschlossenen Monitoren oder auf einem Live-Overlay nicht möglich, ebenso wie Aufnahme von oder Ausgabe auf analoge Geräte.
Editing Solution 4
DV-Zuspieler (oder DV-Rekorder) + DV Board mit DV-Codec in Hardware und FireWire-Schnittstelle. Diese Lösung verfügt über hochwertige DV-Chips, die einen schnellen Zugriff auf die Daten in Hardware garantieren. Dieser erfolgt in Echtzeit, spart also wertvolle Studio/Bearbeitungszeit. Die DV-Daten können während jeder Bearbeitungsstufe sofort live dargestellt werden und stehen damit je nach Hardwareausstattung auch an analogen Ausgängen zur Verfügung. In der Praxis können so z.B. Animationen mit auf DV aufgenommenem Video verarbeitet und später auf Betacam SP in höchster Qualität ausgegeben werden. FAST's DV Master stellt eine solche Lösung dar.
Fazit - (Stand der Technik von 1997 !!!!! )
Eines ist allen Konfigurationsbeispielen gemeinsam: Sobald der Anwender ein DV-Bild manipulieren will (mischen, vertiteln, filtern, mit Effekten versehen etc.), muß er eben dieses Bild dekomprimieren und nach dem Bearbeitungsschritt wieder komprimieren, damit es wieder digital aufgezeichnet werden kann.
Die Hardware-Lösung per Codec-Chip ist wegen ihrer Echtzeitfähigkeit die einzige, die professionelles Arbeiten ermöglicht. Bei Software-Lösungen fallen wegen der geschilderten Datenmengen nicht unerhebliche Rechenzeiten an. Sie sind daher nur für den Einsatz bei geringen Ansprüchen an die Qualität und Bearbeitungsgeschwindigkeit zu empfehlen.
Das war der Stand der Technik von 1997.
.