Fix merge.
[dcpomatic.git] / src / lib / video_decoder.cc
index 02f8fa0ac661a6eb946dd9ff498a09fdeb606813..0936d1bda4f9641bccc1c5c3ab05d97ab81736c6 100644 (file)
@@ -1,5 +1,5 @@
 /*
-    Copyright (C) 2012-2015 Carl Hetherington <cth@carlh.net>
+    Copyright (C) 2012-2016 Carl Hetherington <cth@carlh.net>
 
     This program is free software; you can redistribute it and/or modify
     it under the terms of the GNU General Public License as published by
@@ -70,6 +70,10 @@ VideoDecoder::decoded_video (Frame frame)
 list<ContentVideo>
 VideoDecoder::get_video (Frame frame, bool accurate)
 {
+       if (_no_data_frame && frame >= _no_data_frame.get()) {
+               return list<ContentVideo> ();
+       }
+
        /* At this stage, if we have get_video()ed before, _decoded_video will contain the last frame that this
           method returned (and possibly a few more).  If the requested frame is not in _decoded_video and it is not the next
           one after the end of _decoded_video we need to seek.
@@ -92,14 +96,17 @@ VideoDecoder::get_video (Frame frame, bool accurate)
                /* We are being accurate, so we want the right frame.
                 * This could all be one statement but it's split up for clarity.
                 */
+               bool no_data = false;
+
                while (true) {
                        if (!decoded_video(frame).empty ()) {
                                /* We got what we want */
                                break;
                        }
 
-                       if (pass ()) {
+                       if (pass (PASS_REASON_VIDEO, accurate)) {
                                /* The decoder has nothing more for us */
+                               no_data = true;
                                break;
                        }
 
@@ -113,17 +120,22 @@ VideoDecoder::get_video (Frame frame, bool accurate)
                }
 
                dec = decoded_video (frame);
+
+               if (no_data && dec.empty()) {
+                       _no_data_frame = frame;
+               }
+
        } else {
                /* Any frame will do: use the first one that comes out of pass() */
-               while (_decoded_video.empty() && !pass ()) {}
+               while (_decoded_video.empty() && !pass (PASS_REASON_VIDEO, accurate)) {}
                if (!_decoded_video.empty ()) {
                        dec.push_back (_decoded_video.front ());
                }
        }
 
-       /* Clean up _decoded_video; keep the frame we are returning (which may have two images
+       /* Clean up _decoded_video; keep the frame we are returning, if any (which may have two images
           for 3D), but nothing before that */
-       while (!_decoded_video.empty() && _decoded_video.front().frame < dec.front().frame) {
+       while (!_decoded_video.empty() && !dec.empty() && _decoded_video.front().frame < dec.front().frame) {
                _decoded_video.pop_front ();
        }
 
@@ -242,11 +254,6 @@ VideoDecoder::video (shared_ptr<const ImageProxy> image, Frame frame)
 
        _video_content->film()->log()->log (String::compose ("VD receives %1", frame), LogEntry::TYPE_DEBUG_DECODE);
 
-       /* We may receive the same frame index twice for 3D, and we need to know
-          when that happens.
-       */
-       bool const same = (!_decoded_video.empty() && frame == _decoded_video.back().frame);
-
        /* Work out what we are going to push into _decoded_video next */
        list<ContentVideo> to_push;
        switch (_video_content->video_frame_type ()) {
@@ -254,8 +261,14 @@ VideoDecoder::video (shared_ptr<const ImageProxy> image, Frame frame)
                to_push.push_back (ContentVideo (image, EYES_BOTH, PART_WHOLE, frame));
                break;
        case VIDEO_FRAME_TYPE_3D_ALTERNATE:
+       {
+               /* We receive the same frame index twice for 3D-alternate; hence we know which
+                  frame this one is.
+               */
+               bool const same = (!_decoded_video.empty() && frame == _decoded_video.back().frame);
                to_push.push_back (ContentVideo (image, same ? EYES_RIGHT : EYES_LEFT, PART_WHOLE, frame));
                break;
+       }
        case VIDEO_FRAME_TYPE_3D_LEFT_RIGHT:
                to_push.push_back (ContentVideo (image, EYES_LEFT, PART_LEFT_HALF, frame));
                to_push.push_back (ContentVideo (image, EYES_RIGHT, PART_RIGHT_HALF, frame));
@@ -313,15 +326,20 @@ VideoDecoder::video (shared_ptr<const ImageProxy> image, Frame frame)
                        break;
                case VIDEO_FRAME_TYPE_3D_RIGHT:
                        fill_one_eye (from.get(), to.get (), EYES_RIGHT);
+                       break;
                }
        }
 
        copy (to_push.begin(), to_push.end(), back_inserter (_decoded_video));
 
-       /* We can't let this build up too much or we will run out of memory.  We need to allow
-          the most frames that can exist between blocks of sound in a multiplexed file.
+       /* We can't let this build up too much or we will run out of memory.  There is a
+          `best' value for the allowed size of _decoded_video which balances memory use
+          with decoding efficiency (lack of seeks).  Throwing away video frames here
+          is not a problem for correctness, so do it.
        */
-       DCPOMATIC_ASSERT (_decoded_video.size() <= 96);
+       while (_decoded_video.size() > 96) {
+               _decoded_video.pop_back ();
+       }
 }
 
 void