Archivgut Digitalisieren - von Tonband bis Film aus einer Hand

Full Service für Medienarchive

Egal was an Bild- oder Tonmedien in Ihrem Archiv lagert, wir digitalisieren das komplette audiovisuelle Archivgut. Dabei übernehmen wir auch den kompletten Transport sowie die Erfassung der Archivalien in Datenbanken. Und das zu pauschalen Festpreisen, die wir auf Basis einer Bestandsliste oder einer Besichtigung ermitteln. So können Sie ohne unbekannte Variablen Ihren kompletten Archivbestand in eine Hand geben. Und Sie können sicher sein, das Ihr Archivgut bei uns in guten Händen ist, denn seit 25 Jahren digitalisieren wir alte Videobänder und teils über 100 Jahre alte Filme für große und kleine Archive und vor allem haben wir eine Begeisterung dafür, Archivgut wiederzubeleben und einem neuen Nutzerkreis zugänglich zu machen.


Jedes Archivgut kann digitalisiert werden

Bei Artus verfügen wir über einen großen Maschinenpark, vor allem auch historischer Formate, so können wir folgendes Archivgut digitalisieren:

  • Filme, 8mm, 9,5mm, 16mm, 35mm und 70mm
  • Videoformate: Wirklich alles von 2-Zoll bis HDCAM-SR
  • Tonbänder und Tonkassetten
  • Schallplatten, Grammophonplatten, Walzen und Schallfolien
  • Fotos und Dias
  • bei Bedarf auch Zeichnungen und Schriftstücke

Beratung zu Bild- und Ton-Archivalien

Oft ist unklar, was überhaupt alles unter dem Archivgut ist, was muss wie digitalisiert werden und wo ist akuter Handlungsbedarf und wo nicht ? Wir beraten Sie dazu gerne, auch zu Themen wie Nitrofilm oder Restaurierung beschädigter Medien. Dazu besuchen wir Sie gerne und erstellen vor Ort eine Empfehlungsliste, welches Archivgut wie und wann digitalisiert werden sollte. Natürlich abgestimmt auf die geplante Nutzung der Archivalien und auf das Budget - denn oft ist es besser, lieber alles digital verfügbar zu haben und dafür vielleicht nur in HD statt 2K oder 4K. Denn der Verfall schreitet bei Film- und Videoarchivgut inzwischen schnell voran.  Vor allem sind teilweise fast gar keine Abspielgeräte mehr verfügbar.


Feuer oder Wasser - wir retten Archivgut

Das passiert leider nicht selten: Wasserschaden oder Feuer und große Mengen Archivgut sind beschädigt. Aber das heißt noch lange nicht, das das Archivgut verloren ist. Wir stehen in solchen Fällen rund um die Uhr zur Verfügung. Oft kann noch viel Archivgut gerettet werden, wenn man schnell handelt, z.B. bevor sich Schimmel ausbreitet oder Filmmaterialien und Videobänder beim Trocknen verkleben. Wir holen das Archivgut umgehend ab und kümmern uns darum, es sofort zu sichern und ggf. zu digitalisieren. Unsere Notrufnummer: 07141-234991 oder 0172 - 7159709 - zögern Sie nicht, eine erste telefonische Bestandsaufnahme und Beratung zu beschädigtem Archivgut ist natürlich unverbindlich und kostenfrei, auch Sonntags in der Nacht!


Magnetbandreinigung

Bei Artus stehen für die Digitalisierung audiovisueller Medien auch Reinigungsgeräte für nahezu alle Magnetband-Formate zur Verfügung. Wichtig ist dabei aber, die Ursache der Verschmutzung im Auge zu haben: Oft nämlich rosten Metallteile in den Videokassetten... in dem Fall ist die Reinigung nur sinnvoll, wenn das Magnetband in ein neues Videokassettengehäuse gesetzt wird. Aber das können wir natürlich - für alle Videokassetten-Formate! Dann können die Videokassetten oder auch Musikkassetten schonend gereinigt werden. Dafür verwenden wir spezielles Cleaning Tissue, das die Bandoberfläche von losem Schmutz befreit und poliert.


Wie kann man bestimmen, bei welchem Archivgut Handlungsbedarf besteht?

In vielen Archiven hat sich inzwischen eine riesige Menge Archivgut in Form von Filmen, Videokassetten und Tonbändern angesammelt. In den seltensten Fällen gibt es einen verlässlichen Überblick über den Inhalt dieser Archivalien. Daher ist es sehr schwer, zu entscheiden, was digitalisiert werden soll und was nicht - oder zunächst nicht. Dabei geht es ja zum einen darum, die Inhalte des Archivguts vor dem Verfall zu bewahren aber vor allem auch darum, diese Inhalte wieder nutzbar und zugänglich zu machen.

Eigentlich sollte längst alles Archivgut wie Filme, Videos und Tonbänder digitalisiert sein. Da das aber oft aus verschiedenen Gründen nicht erfolgte, kann an generell sagen, das bei Videoformaten derzeit der Handlungsbedarf am größten ist, denn mit Einzug der Digitalisierung werden hier für weit über 90% aller Videokassetten- und Videobandformate seit Jahren keine Geräte und auch keine Ersatzteile produziert. Das heißt, es ist sehr absehbar, ab wann bestimmte Videobänder oder Videokassetten nicht mehr abgespielt und digitalisiert werden können. Zudem kommt, das sich bei manchen Videobandmaterialien die Trägerschichten aufgrund damals bei der Herstellung ungünstig gewählter Komponenten zersetzen. Teilweise werden sie brüchig, teilweise klebrig. Im Moment kann solchen Archivgut noch digitalisiert werden, aber niemand kann sagen, ob das auch in zwei, fünf oder zehn Jahren noch so ist.

Tonbänder und Tonbandkassetten haben da gleiche Problem. Zum Glück war hier die Formatvielfalt, vor allem die kurzlebiger Systeme, nie so groß wie bei den Videoformaten, aber in einigen Randbereichen gehen auch bereits die Abspielgeräte aus. Außerdem gilt gleiches wie für Videokassetten und Bänder: Das Material altert und wenn die ältesten Videobänder ca. aus den 1960er Jahren stammen, so können Tonbänder durchaus noch einmal 30 Jahre älter sein.

Filme, also 8mm, 16 und 35mm Filme lagern meist bereits seit Ende der Schamlfilmära um 1990 in Archiven, also oft viel länger als Videokassetten. Das heißt, die schlimmsten Alterungsfolgen bei diesem Archivgut wie z.B. Schrumpfung oder Ausbleichen der Farben, sind bereits eingetreten und irreversibel. Werden Filme optimal weiter gelagert, also kalt und trocken, wird der Zerfall deutlich langsamer voranschreiten und vor allem werden derzeit aufgrund der großen Bestände an filmischem Archivgut, tatsächlich noch Abspielgeräte für Film gebaut, es ist also absehbar, das man Filme auch in 10 Jahren noch wird digitalisieren können.

Welcher Codec bzw. welches Format ist für die Langzeitarchivierung geeignet? Von Bits und Bytes, Chroma-Subsampling, Containern, Kompression, Auflösung und Verlusten...

Generell muss man zwei Dinge unterscheiden: Die Langzeitarchivierung und die "Ansichtsfiles" mit denen man im Archiv arbeiten kann. Die Files, bzw. Dateiformate für die Langzeitarchivierung, also die "Masterfiles" sollten natürlich so viel Information wie möglich enthalten, also nahezu verlustfrei sein. Das bedeutet natürlich auch, das diese Dateien recht groß sind, also hohe Datenraten haben. Auf herkömmlichen Computern lassen sich die dann nicht abspielen. Deswegen braucht man die Ansichtsfiles. 

 

CHROMA SUBSAMPLING / FARBAUFLÖSUNG

 

Bei den Masterfiles gibt es einige grundsätzliche Dinge zu beachten: Die Farbcodierung sollte so hoch wie möglich sein, also so viel Farbinformation wie möglich enthalten sein. Bei Dateiformaten verrät einem das der Wert "Chroma Subsampling" der mit drei Ziffern angegeben wird. Bei einem MP4 File aus Youtube zum Beispiel steht da 420 oder 4:2:0. Bei einem sehr guten Masterfile das von einem 16mm Farbfilm gemacht wurde, sollte da 444 stehen. Ganz primitiv erklärt könnt man sagen, man hat maximal 12 Eimer um sämtliche Informationen aus einem Film zu "sammeln". 444 heißt, man hat für jede Farbe - Rot, Grün und Blau, 4 Eimer, zusammen 12. Also optimal! Steht da 422 oder 420, dann ist das etwas anders aufgeteilt. Nämlich in Helligkeit und Farbe getrennt. Das macht man deswegen, weil das reine Helligkeitssignal eines Bildes wichtig ist für die Abstufung der Helligkeitsstufen und die Darstellung der Schärfe, also der Details. Diese Trennung kommt aus der Fernsehtechnik, weil man hier bereits versucht hatte, "Datenmengen" bzw. in den 1950er und 60er Jahren analoge Signalinformationen einzusparen...  eine "Kompression" wenn man so will... Also 422 heißt jetzt 4 Eimer für die Helligkeitsinformation, und je 2 Eimer für die separate Farbinformation, also zusammen nur noch 8 Eimer... genau gesagt heißt das, das reine Schwarz/Weiß Bild hier wäre genauso scharf und detailreich wie bei einer 444 Datei... aber die Farbinformation ist weniger detailreich und "schwammiger". Und beim weit verbreiteten MP4 File wie man es aus Youtube ziehen kann, hat man nur noch 2 Eimer für die Farbinfo, also insgesamt nur noch 6.  Übrigens ist das genauso auf DVDs und BluRays...  Denn logisch, 6 Eimer brauchen weniger Platz als 12 Eimer... Was heißt das konkret: Soll ein Film für die Nachwelt digitalisiert werden, sollte das bei einem Farbfilm mit einem Chroma Sampling von 444 passieren... für Schwarz-Weiß-Filme würde 422 ausreichen... wobei da natürlich dann auch das Thema eingefärbter Zwischentitel oder viragierter Filmpassagen dazu kommt... Bei Videobändern reicht 422 in der Regel aus, denn  wie anfangs erwähnt, hatten man beim Fernsehen bereits die Farbinformationen reduziert ( vom RGB Farbraum in den YUV Farbraum ) und somit sind auch nahezu alle analogen und digitalen Videoformate mit einem 422 File verlustfrei abbildbar. Aber: 420, wie es in MP4 Files oder auf DVDs und BluRays ist, reicht eigentlich nicht!

 

KOMPRESSION, DATENRATE UND BITRATE

 

Wie stark eine Datei verkleinert, also "komprimiert" wird, ist ein weiterer, ganz wichtiger Faktor. So hat ein Full-HD Bild im "Originalzustand" ca, 1500 Megabit pro Sekunde. Das ist die Datenrate. Auf Youtube oder im digitalen Fernsehen hat ein Full-HD Bild oft nur noch eine Datenbrate von 10 Megabit ( Mbit/s )  oder weniger. Ist also mit dem Faktor 1:150 komprimiert - sieht aber trotzdem gut aus - auf den ersten Blick... Den fast keine Kompression ist verlustfrei... Nur, wenn man alles unkomprimiert archivieren wollte, wäre das zwar optimal... und mag bei HD auch noch überschaubar sein, aber alle reden ja von 4K Ultra HD und neuerdings auch 8K. Das heißt, Datenrate und Datenmenge mal Faktor 4 oder gar Faktor 16.... so viel Platz muss man in der IT erstmal haben, wenn Daten auch sicher gelagert werden sollen, ja immer auch doppelt... und in Echtzeit abspielbar ist dann auch nix mehr. Also ist Kompression sinnvoll. Gibt es sogar verlustfrei. Denn nicht alle Bits und Bytes in einem Videofile sind "wertvoll"  Das kann man sich einfach vorstellen: Man schüttet Cornflakes in eine Schüssel... die ist dann randvoll. Schüttelt man die Schüssel behutsam, rutschen die Flakes viel besser ineinander und plötzlich ist die Schüssel nur noch halb voll. Das macht z.B. der bei Archiven beliebte Codec FFV1. Der reduziert die Datenmenge mit einem Faktor von ca. 1:3, weil er nur unnötige Daten entfernt... dann ist aber Schluss. Sollen die Flakes in der Schüssel noch weniger Platz einnehmen, muss man anfangen, auf ihnen rumzudrücken... so brauchen sie plötzlich noch weniger Platz, gehen aber kaputt. Und je mehr man drückt, desto weniger Platz brauchen sie aber desto weniger sehen sie dann aus wie Cornflakes und - wenn ich sie wieder "Dekomprimieren" will, wird echt schwer, sie alle wieder so zusammenzusetzen, wie sie mal waren - wie sie im FFV1 Codec noch erhalten waren....das heißt jetzt nicht, jeder Codec mit Verlusten wäre Müll, wenn man etwas drück, bleiben die Flakes ja noch "Crunchy" wie sie sein sollten... wenn man richtig feste drückt, wirds eben irgendwann nur noch Brei, ohne "Crunch"

So gibt es z.B. Codes wie den Apple Pro Res HQ oder 444 sowie den inzwischen sehr verbreiteten DNXHR HQ Codec, die komprimieren ca. 1: 7, heißt, da sind Verluste theoretisch und rechnerisch da, aber nicht sichtbar... anders schon bei Codecs wie XDCAM HD... komprimiert ca. 1:30 und man kann bei feinen Details,  sehr schnellen Bewegungen oder z.B. bei einem Wald, dessen Blätter im Wind flattern, die Grenzen dieses Codecs erkennen.. aber man muss wirklich wissen, wo man hinschauen muss. Anders bei DVDs... da reicht oft eine einfache, schnelle Bewegung und im Standbild kann man jede Menge dicke Pixel und Blöcke sehen.... denn um stark zu komprimieren, fassen viele Codecs ähnlich helle Pixel ( ein HD Bild hat z.B. 2,2 Millionen Pixel ) zu einheitlichen Flächen zusammen. Ein heller, blauer Himmel mag im unkomprimierten HD Bild z.B. eine Million Pixel haben... ein MP4 File mit dem Codec H264 aber denkt sich: Wow, alles Blau, da kann ich ja fast ein einziges Pixel draus machen.... das mag auf den ersten Blick auch klappen, aber es gehen natürlich im Zweifelsfall auch zehntausende von Schattierungen im Blau verloren... ganz zu Schweigen von einem winzigen Vogelschwarm am Horizont.... Man kann also als Faustregel klar sagen: Je geringer die Bitrate bzw. Datenrate ( Bits pro Sekunde, Mbps, Mbit/s ) desto schlechter, bzw. ungenauer die Abbildung des Originals. Und wenn man mal davon ausgeht, das ein Full-HD Bild 1500 Mbit/s hat, dann hat ein 4K Ultra HD Bild ca. 6000 Mbit/s und ein 8K Bild 24000 Mbit/s ( bezogen auf einen Farbraum 422 / Chroma-Subsampling 4:2:2, bei 444 wirds entsprechend ca. ein Drittel mehr.... ) Als Faustregel kann man sagen, Verlustfreie Codecs komprimieren so grob 1:3... das ist echt schon nicht unerheblich. Kompressionen von ungefähr 1:10 sind in der Regel nicht sichtbar beeinträchtigt.... aber ab 1:20 fängts an, das man was verliert....

 

CODEC, ALGORYTHMUS, CONTAINER UND QUALITÄT

 

Nun ist aber leider nicht nur die reine Datenrate verantwortlich für die Qualität einer Filmdatei, sondern vor allem der Codec. Der Codec ist sozusagen der "Filter" der entscheidet, welche Teile eines Datei unwichtig sind und welche Teile eines Bildes zusammengefasst werden können. So arbeiten viele Codecs zum Beispiel so, das sie mehrere aufeinanderfolgende Bilder miteinander vergleichen, erkennen bei einem Interview z.B. das sich immer nur der Mund verändert, nicht aber der Hintergrund oder das Gesicht... also speichern sie das so ab: Hintergrund und Gesicht bleiben 12 Bilder lang gleich... also: 1 x Info abspeichern.... Mund in einem kleinen Bereich des Bildes aber verändert sich öfter... also in dem Bereich mehr Info abspeichern... dann werden noch die Bildinhalte betrachtet: Himmel ist blau...nimmt 1/3 des Bildes ein... also hier nur ganz wenige Blaue Pixel abspeichern... und zusammenfassen...  auf diese Weise kann man jede Menge Daten sparen... wie gut das funktioniert, hängt vom Codec ab und vom Algorhythmus, mit dem der Codec all diese Veränderungen und Infos erfasst, erkennt und entscheidet, was gespeichert werden muss. Ein beliebter Codec ist z.B. der H264...  In was für einem Codec ein Film gespeichert ist erkennt man aber leider nicht an der Dateiendung. Die bezeichnet nämlich nur den "Container"...  So kann man Filme mit dem Codec H264 ( eine Frauenhofer Entwicklung ) in den Container MP4, MOV, MKV, etc... stecken.  In einem MOV Container kann aber auch ein AppleProRes HQ drin sein und in einem MKV Container auch ein FFV1 Codec... Und dann ist Codec nicht gleich Codec... denn wie gut das Ergebnis einer Datenkompression wird, hängt auch davon ab, mit welchem Gerät oder welcher Software diese Kompression berechnet wird und, wie schnell. So gibt es zum Beispiel variable Bitraten und konstante Bitraten ( VBR und CBR ) Dabei wird die benötigte Datenrate an den Bildinhalt angepasst. Beim Interview geht sie ganz weit runter, weil sich kaum was im Bild verändert... bei einer rasanten Verfolgungsjagd oder zum Beispiel einem Fischschwarm mit vielen ähnlichen, aber ständig wechselnden Farbschattierungen, geht sie hoch. Das heißt, ein Hardware-Encoder oder Kompressor muss das sehr schnell und gut erkennen... eine Software analysiert oft erstmal den ganzen Film und legt dann im zweiten Schritt die Datenraten fest... DVD-Rekorder, die beliebt waren, um VHS-Kassetten zu digitalisieren, haben aber leider fast immer einen sehr billigen Encoder, der vor allem auch nicht erst eine Analyse durchführen kann, weil er das ganze ja in Echtzeit runterpressen muss... mit entsprechend vielen, irreversiblen Fehlern.

Die Dateiendung besagt also nichts über Qualität, Datenrate, Auflösung oder Codec... sondern nur darüber, in welchem Container sich das alles befindet und, der Container sagt dem Player, der es abspielen soll, was drin ist.  Der wesentliche, interessante Unterschied zwischen verschiedenen Containern könnte höchstens sein, das MOV z.B. eine Apple-Entwicklung ist, AVI stammt von Microsoft und MKV ist Open-Source... kann also von jedem der will, immer weiter entwickelt und verwendet werden...

 

AUFLÖSUNG, SEITENVERHÄLTNIS, 2K, 4K und 8K Ultra HD

 

Die Auflösung sagt, wie viele einzelne Bildpunkte das Bild zusammensetzen, vergleichbar mit den "Megapixeln" die man von digitalen Fotoapparaten kennt. Das heißt, die Auflösung bestimmt, wie scharf ein Bild maximal sein kann. Einfache Smartphones trumpfen heute schon mit 48 Megapixeln auf... das wären bei einem Videofile oder Filmdigitalisat 8K Auflösung... 8 K bedeutet dabei, das in der Breite 8000 Pixel zur Verfügung stehen. Das bedeutet auch eine extrem große Datenmenge... oder extreme Kompression, was viele Fotokameras machen. Unkomprimiert in bester Qualität hätte so ein einzelnes Bild schnell 150 Megabyte ( MB )... im Bilderordner vom Smartphone aber liegt dann nur ein JPG mit vielleicht 10 MB.... Welche Auflösung ist dann aber sinnvoll ? Und da beginnen wir am besten mal ganz unten:

Als das Fernsehen erfunden wurde, vor über 80 Jahren, musste man sich überlegen, wie wenig Pixel ausreichen würden, für ein halbwegs anständig scharfes Bild im Wohnzimmer. Da kam man in Europa damals auf eine Auflösung von 768 x 576 Pixeln... in den USA auf einen ähnlichen Wert, nur anders aufgeteilt. Aber natürlich hat man in den 1950er Jahren noch nicht von Pixeln gesprochen, sondern von Linien, Zeilen und Megahertz, also analogen Frequenzen, die für die Übertragung nötig sein würden. Erst als das Fernsehen anfing, in den 1970er Jahren ganz langsam digital zu werden, kamen die Pixel auf... und weils die in quadratisch und rechteckig gibt, ist heute für Digitalisate ein Wert von 720 x 576 Pixeln in Europa gängig, wenn die Ausgangsquelle ein sogenanntes SD ( Standard Definition ) Videoformat ist, also z.B. VHS, Video2000, Betacam, U-matic ( alles analoge Systeme mit Linien und Zeilen... ) oder DigitalBetacam, MiniDV und anderen, die tatsächlich Pixel in Datensätzen aufs Band schrieben. Selbst wenn diese Formate statt dem bis Ende der 1990er Jahre üblichen 4:3 Bildseitenverhältnis auch mal 16:9 Breitbild aufzeichneten, blieb die Pixelzahl gleich... nur wurden die Pixel in die Breite gezogen.  Als dann HDTV aufkam oder einfach nur HD ( High Definition ) waren diese Formate alle ( bis auf ganz ganz wenige eher experimentelle Ausnahmen )  digital und brachten Pixel-Auflösungen von 1280 x 720 ( Breite mal Höhe, HD ist immer 16:9 ) oder, was viel gängiger ist und als Full-HD bezeichnet wird, 1920 x 1080 Pixel. Neuerdings gib es , mit mäßigem Erfolg, 4K Ultra HD mit 3640 x 2160 Pixeln und  8K, bei dem sich nochmal alles verdoppelt.

Das aber sind alles Auflösungen mit dem Seitenverhältnis 16:9, weil sich das Fernsehen mal dafür entschieden hat. Im Kino aber ist seit den 1970er Jahren das amerikanisch Breitwandformat mit einem Seitenverhältnis von ehr 16:8 üblich. Deswegen haben digitale Projektionen mittels eines heute gängigen DCP ( Digital Cinema Package ) eine Auflösung von 1998 x 1080 ( oder Dopplungen davon ) und wenn man in der professionellen Kinoproduktion  von 2K spricht, meint man 2048 x 1108 Pixel, bei 4K das Doppelte und so weiter... 

Nun fragt sich, was heißt das alles für die Langzeitarchivierung ?

Ganz einfach: Man muss so viel digitalisieren, wie es das Original hergibt, nicht mehr, nicht weniger. Für alle SD Videoformate heißt das, 720 x 576 bzw. 768 x 576 reicht völlig. In z.B. 1920 x 1080 digitalisieren bringt gar nicht, im Gegenteil, aber das behandeln wir später. Bei Film aber sieht das anders aus. auf analogen Filmstreifen wird das Bild in lichtempfindlichen, chemischen Partikeln gespeichert. Je nach Qualität und Empfindlichkeit sind diese Partikel sehr fein oder auch sehr grob. Und in der Regel wurde für 35mm breiten Film die gleiche Emulsion verwendet wir für 8mm breiten Super8 Film. Bei 35mm Film macht eine Auflösung von 4K oft Sinn. Das bedeutet, bei 16mm mit einem halb so breiten Bild kommt man mit etwas über 2K gut hin und für 8mm reicht auch was unter 2K. Man kann die Werte nicht immer halbieren, weil bei 35mm sehr viel Platz für Perforation und Tonspur verwendet wird, bei 16mm weniger und bei Super8 haben die Entwickler versucht, das Maximum an Fläche fürs Bild raus zu schinden. Ein Knackpunkt bei der Schärfe ist aber oft gar nicht die Feinheit der Partikel in der chemischen Emulsion, sondern das verwendete Objektiv. Denn die Berechnung von Objektiven ist extrem komplex und die Herstellung perfekter Linsen war früher extrem teuer. Deswegen gaben oft die Optiken gar nicht das an Schärfe her, was das Filmmaterial geschafft hätte. So kann 16mm durchaus 2K... aber da es hauptsächlich fürs Fernsehen verwendet wurde hat man auch die Objektive damals für die SD Auflösung berechnet und gebaut, warum auch mehr ? Das war schlicht eine Frage der Kosten - und der Handlichkeit. Bessere Optiken wären nicht nur teurer, sondern auch größer und schwerer gewesen.

Wichtig ist dann beim Digitalisieren auch das Seitenverhältnis. Nahezu alle Amateurfilme und die meisten professionellen Filmproduktionen waren bis in die 1980er Jahre im Seitenverhältnis 4:3 produziert, weil man ja meistens fürs Fernsehen drehte oder das eben der Sehgewohnheit am ehesten entsprach. Seinen Ursprung nahm das Seitenverhältnis bereits in der Zeit der ersten Stummfilme und ist eine Ableitung aus dem "Academy Format". Das passt aber nicht in die gängigen Auflösungen der "Kinowelt" und wenn man nun von einem 16mm Film einen Scan, also eine Digitalisierung in 2K haben möchte, kann es passieren, das man das 4:3 Bild in ein 16:9 Format eingepasst bekommt, mit schwarzen Balken, sogenannten "Sidepanels" bekommt... fürs eigentliche Bild bleiben dann nur noch 1500x 1108 Pixel.... also zu wenig. Die Bildhöhe muss also auch der Bildbreite im korrekten Seitenverhältnis angepasst sein. Das ist leider nicht immer üblich...

 

FULLFRAME, OVERSCAN, PERFORATION

 

Für eine Langzeitarchivierung sollte so viel Information wie möglich vom Film gezogen werden. Das heißt auch, das man alles, was da och so mit zu sehen wäre, mitdigitalisieren sollte. Die Perforation zum Beispiel verrät viel über den Zustand des Filmes und der verwendeten Kamera. Man kann die Perforation auch zum Stabilisieren des Filmes verwenden und zwischen der Perforation stehen unter Umständen interessante Infos wie z.B. Sicherheitsfilm oder Safetyfilm... bei alten 35mm Filmen weiß man dann , das es kein Nitrofilm ist. Und auf den Filmrändern ist auch oft der sogenannte "Lichtton" den man dann digital extrahieren kann, wenn er im Digitalisat ist. Manche Kameras haben sogar viel mehr belichtet, als man im Sucher oder Projektor dann sehen konnte und oft ist interessante Bildinformation auf den Filmrändern zwischen der Perforation. Und ganz wichtig: Viele Filmscanner und Filmabtaster beschneiden das eigentliche Bild sogar ein wenig oder stark an den Rändern, weil die oft ausgefranst aussehen oder wackeln. Aber man will ja alles vom Film!

16mm Film im Overscan digitalisiert mit Bildrändern und Lichtton, 2500 Pixel Breite fürs Bild, wie bei Artus üblich.

Häufig werden 4:3 Filme mit Beschnitt für saubere Bildkanten so wie hier digitalisiert. Alles im roten Bereich geht verloren.


No-Gos bei der Digitalisierung von Film und Video

Wenn Filme fürs Archiv digitalisiert werden ist das Ziel, die so gut wie möglich für die Nachwelt zu bewahren. Viel wurde bereits in den 1990er Jahren digitalisiert. Filme damals leider oft nur in SD, also viel zu "unscharf". Und vieles wurde von VHS-Videokassetten auf billige DVD-Rekorder kopiert mit verringertem Farbraum und vielen bösen Artefakten und Kompressionsfehlern. Dabei gabs gerade für diese Formate damals schon geeignete Möglichkeiten. Das ist schade, aber passiert. Um also gut gerüstet zu sein, gibts ja zum Glück jetzt viel bessere Möglichkeiten: Film kann nahezu in seiner Original-Qualität abgebildet werden, Encoder für Videoformate sind billiger geworden. Aber Ziel muss immer sein: So originalgetreu wie möglich! Das heißt, beliebte Angebote wie "Upscaling von SD auf HD", Schärfeanhebung oder automatische Farbkorrektur und Rauschunterdrückung haben in einem Langzeit-Digitalisat nichts verloren! Denn solche Verfahren machen zwar den ersten Seheindruck angenehmer, produzieren aber aktuell auch noch jede Menge Fehler, und die bekommt man nicht mehr weg. Aber Technologien wie Deep-Learning, Künstliche Intelligenz und Neuronale Netzwerke zeigen bereits heute, was morgen möglich sein könnte. Und wenn man heute eine VHS Kassette von SD auf HD hochskaliert, gewinnt man nicht wirklich was... aber wenn man ein gutes, 1:1 Digitalisat dieser Kassette in 20 Jahren durch eine Künstliche Intelligenz schickt, könnte das Ergebnis atemberaubend sein... Gleiches gilt für Bildfehler, Kratzer in Filmen, etc...  aber das dürfte nur mit einem fehlerfreien Digitalisat gehen, nicht mit etwas, an dem schon jedem Menge rumgepfuscht wurde.

Dazu gehört natürlich auch, das man den richtigen Codec wählen muss, keinen, der bereits mit vielen Verlusten behaftet ist... auch wenns viel Platz braucht, es lohnt sich!

Prüfen von Archivgut Digitalisaten für Film- und Videomedien

Jetzt stellt sich natürlich die Frage: Woher weiß man eigentlich, was man bekommt ? Denn erstmal steht nach dem Dateinamen ja nur die Bezeichnung des Containers als Dateiendung und mit den "Bordmitteln" von Windows zum Beispiel erfährt man auch nicht viel mehr. Das beste Tool scheint und die Gratis-Software "Media Info" zu sein. Damit kann man in der "Tree-Ansicht" sehr übersichtlich alle wesentlichen Daten auslesen wie eben Auflösung, Datenrate, Codec, Farbraum und Chroma-Subsampling, Framerate, Seitenverhältnis, etc... Manches davon zeigen z.B. auch der VLC Mediaplayer oder der Quicktime Player an, die ja auch gratis sind. Ideale andere Hilfsmittel sind auch das K-Lite-Codec-Pack, das nahezu alle Codecs unterstütz und den kostenlosen Media-Player-Classic mit installiert, mit dem man auch fast alles anschauen kann... Viel Erfolg!