Um die Problematik zu verstehen muß man auch wissen, wie das Videomaterial komprimiert wird. Steht die Kamera absolut still, ändern sich nur wenige Teile im Bild und es brauchen nur relativ geringe Datenmengen neu kodiert werden. Wackelt es, muß das ganze Bild neu berechnet und abgespeichert (wieder geladen) werden. Das erzeugt natürlich immense Datenmengen.
Bei den Komprimierungsmethoden sucht die Software nach Bereichen, die sich verändern und legen die anderen Bereich nicht wieder neu ab. Verändert sich alles, muß alles erneut berechnet und abgespeichert werden. Es gibt da so unterschiedliche Frametypen. Den Infraframe, der komplett gespeichert wird und die Prediction Frames, die nur die Änderung zum vorherigen Bild enthalten. Dann gibt es noch Between-Frames, die das vorhergehende und nachfolgende Bild berücksichtigt. Die P und B Frames brauchen am wenigsten Speicher, die I-Frames enthalten das komplette Bild.
Hinzu kommt dann ncoh, wie stark komprimeirt wird, was auch Einfluss auf die Datenmenge hat.
Siehe auch hier Videogrundlagen
Bei den Komprimierungsmethoden sucht die Software nach Bereichen, die sich verändern und legen die anderen Bereich nicht wieder neu ab. Verändert sich alles, muß alles erneut berechnet und abgespeichert werden. Es gibt da so unterschiedliche Frametypen. Den Infraframe, der komplett gespeichert wird und die Prediction Frames, die nur die Änderung zum vorherigen Bild enthalten. Dann gibt es noch Between-Frames, die das vorhergehende und nachfolgende Bild berücksichtigt. Die P und B Frames brauchen am wenigsten Speicher, die I-Frames enthalten das komplette Bild.
Hinzu kommt dann ncoh, wie stark komprimeirt wird, was auch Einfluss auf die Datenmenge hat.
Siehe auch hier Videogrundlagen