Merge remote-tracking branch 'origin/master' into 2.0
[dcpomatic.git] / src / lib / filter_graph.cc
index b0427a23d0566166921fd6e95eceb5b86c879505..f6a6c4529df2376bc08f81a2adaf721d5516459d 100644 (file)
@@ -33,38 +33,41 @@ extern "C" {
 #include "filter.h"
 #include "exceptions.h"
 #include "image.h"
-#include "film.h"
-#include "ffmpeg_decoder.h"
+#include "ffmpeg_content.h"
 
 #include "i18n.h"
 
 using std::stringstream;
 using std::string;
 using std::list;
+using std::pair;
+using std::make_pair;
+using std::cout;
 using boost::shared_ptr;
-using libdcp::Size;
+using boost::weak_ptr;
+using dcp::Size;
 
-/** Construct a FFmpegFilterGraph for the settings in a film.
- *  @param film Film.
- *  @param decoder Decoder that we are using.
+/** Construct a FilterGraph for the settings in a piece of content.
+ *  @param content Content.
  *  @param s Size of the images to process.
  *  @param p Pixel format of the images to process.
  */
-FFmpegFilterGraph::FFmpegFilterGraph (shared_ptr<Film> film, FFmpegDecoder* decoder, libdcp::Size s, AVPixelFormat p)
-       : _buffer_src_context (0)
+FilterGraph::FilterGraph (shared_ptr<const FFmpegContent> content, dcp::Size s, AVPixelFormat p)
+       : _copy (false)
+       , _buffer_src_context (0)
        , _buffer_sink_context (0)
        , _size (s)
        , _pixel_format (p)
+       , _frame (0)
 {
-       _frame = av_frame_alloc ();
-       
-       string filters = Filter::ffmpeg_strings (film->filters()).first;
-       if (!filters.empty ()) {
-               filters += N_(",");
+       string const filters = Filter::ffmpeg_string (content->filters());
+       if (filters.empty ()) {
+               _copy = true;
+               return;
        }
 
-       filters += crop_string (Position (film->crop().left, film->crop().top), film->cropped_size (decoder->native_size()));
-
+       _frame = av_frame_alloc ();
+       
        AVFilterGraph* graph = avfilter_graph_alloc();
        if (graph == 0) {
                throw DecodeError (N_("could not create filter graph."));
@@ -83,12 +86,10 @@ FFmpegFilterGraph::FFmpegFilterGraph (shared_ptr<Film> film, FFmpegDecoder* deco
        stringstream a;
        a << "video_size=" << _size.width << "x" << _size.height << ":"
          << "pix_fmt=" << _pixel_format << ":"
-         << "time_base=" << decoder->time_base_numerator() << "/" << decoder->time_base_denominator() << ":"
-         << "pixel_aspect=" << decoder->sample_aspect_ratio_numerator() << "/" << decoder->sample_aspect_ratio_denominator();
+         << "time_base=1/1:"
+         << "pixel_aspect=1/1";
 
-       int r;
-
-       if ((r = avfilter_graph_create_filter (&_buffer_src_context, buffer_src, "in", a.str().c_str(), 0, graph)) < 0) {
+       if (avfilter_graph_create_filter (&_buffer_src_context, buffer_src, "in", a.str().c_str(), 0, graph) < 0) {
                throw DecodeError (N_("could not create buffer source"));
        }
 
@@ -124,34 +125,42 @@ FFmpegFilterGraph::FFmpegFilterGraph (shared_ptr<Film> film, FFmpegDecoder* deco
                throw DecodeError (N_("could not configure filter graph."));
        }
 
-       /* XXX: leaking `inputs' / `outputs' ? */
+       avfilter_inout_free (&inputs);
+       avfilter_inout_free (&outputs);
 }
 
-FFmpegFilterGraph::~FFmpegFilterGraph ()
+FilterGraph::~FilterGraph ()
 {
-       av_frame_free (&_frame);
+       if (_frame) {
+               av_frame_free (&_frame);
+       }
 }
 
 /** Take an AVFrame and process it using our configured filters, returning a
  *  set of Images.  Caller handles memory management of the input frame.
  */
-list<shared_ptr<Image> >
-FFmpegFilterGraph::process (AVFrame* frame)
+list<pair<shared_ptr<Image>, int64_t> >
+FilterGraph::process (AVFrame* frame)
 {
-       list<shared_ptr<Image> > images;
+       list<pair<shared_ptr<Image>, int64_t> > images;
 
-       if (av_buffersrc_write_frame (_buffer_src_context, frame) < 0) {
-               throw DecodeError (N_("could not push buffer into filter chain."));
-       }
-
-       while (1) {
-               if (av_buffersink_get_frame (_buffer_sink_context, _frame) < 0) {
-                       break;
+       if (_copy) {
+               images.push_back (make_pair (shared_ptr<Image> (new Image (frame)), av_frame_get_best_effort_timestamp (frame)));
+       } else {
+               if (av_buffersrc_write_frame (_buffer_src_context, frame) < 0) {
+                       throw DecodeError (N_("could not push buffer into filter chain."));
+               }
+               
+               while (true) {
+                       if (av_buffersink_get_frame (_buffer_sink_context, _frame) < 0) {
+                               break;
+                       }
+                       
+                       images.push_back (make_pair (shared_ptr<Image> (new Image (_frame)), av_frame_get_best_effort_timestamp (_frame)));
+                       av_frame_unref (_frame);
                }
-
-               images.push_back (shared_ptr<Image> (new SimpleImage (_frame)));
        }
-       
+               
        return images;
 }
 
@@ -160,25 +169,7 @@ FFmpegFilterGraph::process (AVFrame* frame)
  *  @return true if this chain can process images with `s' and `p', otherwise false.
  */
 bool
-FFmpegFilterGraph::can_process (libdcp::Size s, AVPixelFormat p) const
+FilterGraph::can_process (dcp::Size s, AVPixelFormat p) const
 {
        return (_size == s && _pixel_format == p);
 }
-
-list<shared_ptr<Image> >
-EmptyFilterGraph::process (AVFrame* frame)
-{
-       list<shared_ptr<Image> > im;
-       im.push_back (shared_ptr<Image> (new SimpleImage (frame)));
-       return im;
-}
-
-shared_ptr<FilterGraph>
-filter_graph_factory (shared_ptr<Film> film, FFmpegDecoder* decoder, libdcp::Size size, AVPixelFormat pixel_format)
-{
-       if (film->filters().empty() && film->crop() == Crop()) {
-               return shared_ptr<FilterGraph> (new EmptyFilterGraph);
-       }
-
-       return shared_ptr<FilterGraph> (new FFmpegFilterGraph (film, decoder, size, pixel_format));
-}