Merge branch 'master' of ssh://git.carlh.net/home/carl/git/dcpomatic
[dcpomatic.git] / src / lib / ffmpeg_content.cc
1 /*
2     Copyright (C) 2013-2016 Carl Hetherington <cth@carlh.net>
3
4     This program is free software; you can redistribute it and/or modify
5     it under the terms of the GNU General Public License as published by
6     the Free Software Foundation; either version 2 of the License, or
7     (at your option) any later version.
8
9     This program is distributed in the hope that it will be useful,
10     but WITHOUT ANY WARRANTY; without even the implied warranty of
11     MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
12     GNU General Public License for more details.
13
14     You should have received a copy of the GNU General Public License
15     along with this program; if not, write to the Free Software
16     Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
17
18 */
19
20 #include "ffmpeg_content.h"
21 #include "video_content.h"
22 #include "audio_content.h"
23 #include "ffmpeg_examiner.h"
24 #include "ffmpeg_subtitle_stream.h"
25 #include "ffmpeg_audio_stream.h"
26 #include "compose.hpp"
27 #include "job.h"
28 #include "util.h"
29 #include "filter.h"
30 #include "film.h"
31 #include "log.h"
32 #include "exceptions.h"
33 #include "frame_rate_change.h"
34 #include "safe_stringstream.h"
35 #include "raw_convert.h"
36 #include "subtitle_content.h"
37 #include <libcxml/cxml.h>
38 extern "C" {
39 #include <libavformat/avformat.h>
40 #include <libavutil/pixdesc.h>
41 }
42 #include <libxml++/libxml++.h>
43 #include <boost/foreach.hpp>
44 #include <iostream>
45
46 #include "i18n.h"
47
48 #define LOG_GENERAL(...) film->log()->log (String::compose (__VA_ARGS__), LogEntry::TYPE_GENERAL);
49
50 using std::string;
51 using std::vector;
52 using std::list;
53 using std::cout;
54 using std::pair;
55 using std::make_pair;
56 using boost::shared_ptr;
57 using boost::dynamic_pointer_cast;
58 using boost::optional;
59
60 int const FFmpegContentProperty::SUBTITLE_STREAMS = 100;
61 int const FFmpegContentProperty::SUBTITLE_STREAM = 101;
62 int const FFmpegContentProperty::FILTERS = 102;
63
64 FFmpegContent::FFmpegContent (shared_ptr<const Film> film, boost::filesystem::path p)
65         : Content (film, p)
66 {
67
68 }
69
70 FFmpegContent::FFmpegContent (shared_ptr<const Film> film, cxml::ConstNodePtr node, int version, list<string>& notes)
71         : Content (film, node)
72 {
73         video = VideoContent::from_xml (this, node, version);
74         audio = AudioContent::from_xml (this, node);
75         subtitle = SubtitleContent::from_xml (this, node, version);
76
77         list<cxml::NodePtr> c = node->node_children ("SubtitleStream");
78         for (list<cxml::NodePtr>::const_iterator i = c.begin(); i != c.end(); ++i) {
79                 _subtitle_streams.push_back (shared_ptr<FFmpegSubtitleStream> (new FFmpegSubtitleStream (*i, version)));
80                 if ((*i)->optional_number_child<int> ("Selected")) {
81                         _subtitle_stream = _subtitle_streams.back ();
82                 }
83         }
84
85         c = node->node_children ("AudioStream");
86         for (list<cxml::NodePtr>::const_iterator i = c.begin(); i != c.end(); ++i) {
87                 shared_ptr<FFmpegAudioStream> as (new FFmpegAudioStream (*i, version));
88                 audio->add_stream (as);
89                 if (version < 11 && !(*i)->optional_node_child ("Selected")) {
90                         /* This is an old file and this stream is not selected, so un-map it */
91                         as->set_mapping (AudioMapping (as->channels (), MAX_DCP_AUDIO_CHANNELS));
92                 }
93         }
94
95         c = node->node_children ("Filter");
96         for (list<cxml::NodePtr>::iterator i = c.begin(); i != c.end(); ++i) {
97                 Filter const * f = Filter::from_id ((*i)->content ());
98                 if (f) {
99                         _filters.push_back (f);
100                 } else {
101                         notes.push_back (String::compose (_("DCP-o-matic no longer supports the `%1' filter, so it has been turned off."), (*i)->content()));
102                 }
103         }
104
105         optional<ContentTime::Type> const f = node->optional_number_child<ContentTime::Type> ("FirstVideo");
106         if (f) {
107                 _first_video = ContentTime (f.get ());
108         }
109
110         _color_range = static_cast<AVColorRange> (node->optional_number_child<int>("ColorRange").get_value_or (AVCOL_RANGE_UNSPECIFIED));
111         _color_primaries = static_cast<AVColorPrimaries> (node->optional_number_child<int>("ColorPrimaries").get_value_or (AVCOL_PRI_UNSPECIFIED));
112         _color_trc = static_cast<AVColorTransferCharacteristic> (
113                 node->optional_number_child<int>("ColorTransferCharacteristic").get_value_or (AVCOL_TRC_UNSPECIFIED)
114                 );
115         _colorspace = static_cast<AVColorSpace> (node->optional_number_child<int>("Colorspace").get_value_or (AVCOL_SPC_UNSPECIFIED));
116         _bits_per_pixel = node->optional_number_child<int> ("BitsPerPixel");
117
118 }
119
120 FFmpegContent::FFmpegContent (shared_ptr<const Film> film, vector<boost::shared_ptr<Content> > c)
121         : Content (film, c)
122 {
123         video.reset (new VideoContent (this, c));
124         audio.reset (new AudioContent (this, c));
125         subtitle.reset (new SubtitleContent (this, c));
126
127         shared_ptr<FFmpegContent> ref = dynamic_pointer_cast<FFmpegContent> (c[0]);
128         DCPOMATIC_ASSERT (ref);
129
130         for (size_t i = 0; i < c.size(); ++i) {
131                 shared_ptr<FFmpegContent> fc = dynamic_pointer_cast<FFmpegContent> (c[i]);
132                 if (fc->subtitle->use() && *(fc->_subtitle_stream.get()) != *(ref->_subtitle_stream.get())) {
133                         throw JoinError (_("Content to be joined must use the same subtitle stream."));
134                 }
135         }
136
137         /* XXX: should probably check that more of the stuff below is the same in *this and ref */
138
139         _subtitle_streams = ref->subtitle_streams ();
140         _subtitle_stream = ref->subtitle_stream ();
141         _first_video = ref->_first_video;
142         _filters = ref->_filters;
143         _color_range = ref->_color_range;
144         _color_primaries = ref->_color_primaries;
145         _color_trc = ref->_color_trc;
146         _colorspace = ref->_colorspace;
147         _bits_per_pixel = ref->_bits_per_pixel;
148 }
149
150 void
151 FFmpegContent::as_xml (xmlpp::Node* node) const
152 {
153         node->add_child("Type")->add_child_text ("FFmpeg");
154         Content::as_xml (node);
155
156         if (video) {
157                 video->as_xml (node);
158         }
159
160         if (audio) {
161                 audio->as_xml (node);
162
163                 BOOST_FOREACH (AudioStreamPtr i, audio->streams ()) {
164                         shared_ptr<FFmpegAudioStream> f = dynamic_pointer_cast<FFmpegAudioStream> (i);
165                         DCPOMATIC_ASSERT (f);
166                         f->as_xml (node->add_child("AudioStream"));
167                 }
168         }
169
170         if (subtitle) {
171                 subtitle->as_xml (node);
172         }
173
174         boost::mutex::scoped_lock lm (_mutex);
175
176         for (vector<shared_ptr<FFmpegSubtitleStream> >::const_iterator i = _subtitle_streams.begin(); i != _subtitle_streams.end(); ++i) {
177                 xmlpp::Node* t = node->add_child("SubtitleStream");
178                 if (_subtitle_stream && *i == _subtitle_stream) {
179                         t->add_child("Selected")->add_child_text("1");
180                 }
181                 (*i)->as_xml (t);
182         }
183
184         for (vector<Filter const *>::const_iterator i = _filters.begin(); i != _filters.end(); ++i) {
185                 node->add_child("Filter")->add_child_text ((*i)->id ());
186         }
187
188         if (_first_video) {
189                 node->add_child("FirstVideo")->add_child_text (raw_convert<string> (_first_video.get().get()));
190         }
191
192         node->add_child("ColorRange")->add_child_text (raw_convert<string> (_color_range));
193         node->add_child("ColorPrimaries")->add_child_text (raw_convert<string> (_color_primaries));
194         node->add_child("ColorTransferCharacteristic")->add_child_text (raw_convert<string> (_color_trc));
195         node->add_child("Colorspace")->add_child_text (raw_convert<string> (_colorspace));
196         if (_bits_per_pixel) {
197                 node->add_child("BitsPerPixel")->add_child_text (raw_convert<string> (_bits_per_pixel.get ()));
198         }
199 }
200
201 void
202 FFmpegContent::examine (shared_ptr<Job> job)
203 {
204         job->set_progress_unknown ();
205
206         Content::examine (job);
207
208         shared_ptr<FFmpegExaminer> examiner (new FFmpegExaminer (shared_from_this (), job));
209
210         if (examiner->has_video ()) {
211                 video.reset (new VideoContent (this));
212                 video->take_from_examiner (examiner);
213                 set_default_colour_conversion ();
214         }
215
216         {
217                 boost::mutex::scoped_lock lm (_mutex);
218
219                 if (examiner->has_video ()) {
220                         _first_video = examiner->first_video ();
221                         _color_range = examiner->color_range ();
222                         _color_primaries = examiner->color_primaries ();
223                         _color_trc = examiner->color_trc ();
224                         _colorspace = examiner->colorspace ();
225                         _bits_per_pixel = examiner->bits_per_pixel ();
226                 }
227
228                 if (!examiner->audio_streams().empty ()) {
229                         audio.reset (new AudioContent (this));
230
231                         BOOST_FOREACH (shared_ptr<FFmpegAudioStream> i, examiner->audio_streams ()) {
232                                 audio->add_stream (i);
233                         }
234
235                         AudioStreamPtr as = audio->streams().front();
236                         AudioMapping m = as->mapping ();
237                         film()->make_audio_mapping_default (m);
238                         as->set_mapping (m);
239                 }
240
241                 _subtitle_streams = examiner->subtitle_streams ();
242                 if (!_subtitle_streams.empty ()) {
243                         subtitle.reset (new SubtitleContent (this));
244                         _subtitle_stream = _subtitle_streams.front ();
245                 }
246
247         }
248
249         signal_changed (FFmpegContentProperty::SUBTITLE_STREAMS);
250         signal_changed (FFmpegContentProperty::SUBTITLE_STREAM);
251 }
252
253 string
254 FFmpegContent::summary () const
255 {
256         if (video && audio) {
257                 return String::compose (_("%1 [movie]"), path_summary ());
258         } else if (video) {
259                 return String::compose (_("%1 [video]"), path_summary ());
260         } else if (audio) {
261                 return String::compose (_("%1 [audio]"), path_summary ());
262         }
263
264         return path_summary ();
265 }
266
267 string
268 FFmpegContent::technical_summary () const
269 {
270         string as = "";
271         BOOST_FOREACH (shared_ptr<FFmpegAudioStream> i, ffmpeg_audio_streams ()) {
272                 as += i->technical_summary () + " " ;
273         }
274
275         if (as.empty ()) {
276                 as = "none";
277         }
278
279         string ss = "none";
280         if (_subtitle_stream) {
281                 ss = _subtitle_stream->technical_summary ();
282         }
283
284         string filt = Filter::ffmpeg_string (_filters);
285
286         string s = Content::technical_summary ();
287
288         if (video) {
289                 s += " - " + video->technical_summary ();
290         }
291
292         if (audio) {
293                 s += " - " + audio->technical_summary ();
294         }
295
296         return s + String::compose (
297                 "ffmpeg: audio %1 subtitle %2 filters %3", as, ss, filt
298                 );
299 }
300
301 void
302 FFmpegContent::set_subtitle_stream (shared_ptr<FFmpegSubtitleStream> s)
303 {
304         {
305                 boost::mutex::scoped_lock lm (_mutex);
306                 _subtitle_stream = s;
307         }
308
309         signal_changed (FFmpegContentProperty::SUBTITLE_STREAM);
310 }
311
312 bool
313 operator== (FFmpegStream const & a, FFmpegStream const & b)
314 {
315         return a._id == b._id;
316 }
317
318 bool
319 operator!= (FFmpegStream const & a, FFmpegStream const & b)
320 {
321         return a._id != b._id;
322 }
323
324 DCPTime
325 FFmpegContent::full_length () const
326 {
327         FrameRateChange const frc (active_video_frame_rate (), film()->video_frame_rate ());
328         if (video) {
329                 return DCPTime::from_frames (llrint (video->length_after_3d_combine() * frc.factor()), film()->video_frame_rate());
330         }
331
332         DCPOMATIC_ASSERT (audio);
333         return DCPTime::from_frames (llrint (audio->stream()->length() / frc.speed_up), audio->stream()->frame_rate());
334 }
335
336 void
337 FFmpegContent::set_filters (vector<Filter const *> const & filters)
338 {
339         {
340                 boost::mutex::scoped_lock lm (_mutex);
341                 _filters = filters;
342         }
343
344         signal_changed (FFmpegContentProperty::FILTERS);
345 }
346
347 string
348 FFmpegContent::identifier () const
349 {
350         SafeStringStream s;
351
352         s << Content::identifier();
353
354         if (video) {
355                 s << "_" << video->identifier();
356         }
357
358         if (subtitle) {
359                 s << "_" << subtitle->identifier();
360         }
361
362         boost::mutex::scoped_lock lm (_mutex);
363
364         if (_subtitle_stream) {
365                 s << "_" << _subtitle_stream->identifier ();
366         }
367
368         for (vector<Filter const *>::const_iterator i = _filters.begin(); i != _filters.end(); ++i) {
369                 s << "_" << (*i)->id ();
370         }
371
372         return s.str ();
373 }
374
375 list<ContentTimePeriod>
376 FFmpegContent::image_subtitles_during (ContentTimePeriod period, bool starting) const
377 {
378         shared_ptr<FFmpegSubtitleStream> stream = subtitle_stream ();
379         if (!stream) {
380                 return list<ContentTimePeriod> ();
381         }
382
383         return stream->image_subtitles_during (period, starting);
384 }
385
386 list<ContentTimePeriod>
387 FFmpegContent::text_subtitles_during (ContentTimePeriod period, bool starting) const
388 {
389         shared_ptr<FFmpegSubtitleStream> stream = subtitle_stream ();
390         if (!stream) {
391                 return list<ContentTimePeriod> ();
392         }
393
394         return stream->text_subtitles_during (period, starting);
395 }
396
397 void
398 FFmpegContent::set_default_colour_conversion ()
399 {
400         dcp::Size const s = video->size ();
401
402         boost::mutex::scoped_lock lm (_mutex);
403
404         if (s.width < 1080) {
405                 video->set_colour_conversion (PresetColourConversion::from_id ("rec601").conversion);
406         } else {
407                 video->set_colour_conversion (PresetColourConversion::from_id ("rec709").conversion);
408         }
409 }
410
411 void
412 FFmpegContent::add_properties (list<UserProperty>& p) const
413 {
414         Content::add_properties (p);
415         video->add_properties (p);
416         audio->add_properties (p);
417
418         if (_bits_per_pixel) {
419                 int const sub = 219 * pow (2, _bits_per_pixel.get() - 8);
420                 int const total = pow (2, _bits_per_pixel.get());
421
422                 switch (_color_range) {
423                 case AVCOL_RANGE_UNSPECIFIED:
424                         /// TRANSLATORS: this means that the range of pixel values used in this
425                         /// file is unknown (not specified in the file).
426                         p.push_back (UserProperty (_("Video"), _("Colour range"), _("Unspecified")));
427                         break;
428                 case AVCOL_RANGE_MPEG:
429                         /// TRANSLATORS: this means that the range of pixel values used in this
430                         /// file is limited, so that not all possible values are valid.
431                         p.push_back (
432                                 UserProperty (
433                                         _("Video"), _("Colour range"), String::compose (_("Limited (%1-%2)"), (total - sub) / 2, (total + sub) / 2)
434                                         )
435                                 );
436                         break;
437                 case AVCOL_RANGE_JPEG:
438                         /// TRANSLATORS: this means that the range of pixel values used in this
439                         /// file is full, so that all possible pixel values are valid.
440                         p.push_back (UserProperty (_("Video"), _("Colour range"), String::compose (_("Full (0-%1)"), total)));
441                         break;
442                 default:
443                         DCPOMATIC_ASSERT (false);
444                 }
445         } else {
446                 switch (_color_range) {
447                 case AVCOL_RANGE_UNSPECIFIED:
448                         /// TRANSLATORS: this means that the range of pixel values used in this
449                         /// file is unknown (not specified in the file).
450                         p.push_back (UserProperty (_("Video"), _("Colour range"), _("Unspecified")));
451                         break;
452                 case AVCOL_RANGE_MPEG:
453                         /// TRANSLATORS: this means that the range of pixel values used in this
454                         /// file is limited, so that not all possible values are valid.
455                         p.push_back (UserProperty (_("Video"), _("Colour range"), _("Limited")));
456                         break;
457                 case AVCOL_RANGE_JPEG:
458                         /// TRANSLATORS: this means that the range of pixel values used in this
459                         /// file is full, so that all possible pixel values are valid.
460                         p.push_back (UserProperty (_("Video"), _("Colour range"), _("Full")));
461                         break;
462                 default:
463                         DCPOMATIC_ASSERT (false);
464                 }
465         }
466
467         char const * primaries[] = {
468                 _("Unspecified"),
469                 _("BT709"),
470                 _("Unspecified"),
471                 _("Unspecified"),
472                 _("BT470M"),
473                 _("BT470BG"),
474                 _("SMPTE 170M (BT601)"),
475                 _("SMPTE 240M"),
476                 _("Film"),
477                 _("BT2020"),
478                 _("SMPTE ST 428-1 (CIE 1931 XYZ)")
479         };
480
481         DCPOMATIC_ASSERT (AVCOL_PRI_NB <= 11);
482         p.push_back (UserProperty (_("Video"), _("Colour primaries"), primaries[_color_primaries]));
483
484         char const * transfers[] = {
485                 _("Unspecified"),
486                 _("BT709"),
487                 _("Unspecified"),
488                 _("Unspecified"),
489                 _("Gamma 22 (BT470M)"),
490                 _("Gamma 28 (BT470BG)"),
491                 _("SMPTE 170M (BT601)"),
492                 _("SMPTE 240M"),
493                 _("Linear"),
494                 _("Logarithmic (100:1 range)"),
495                 _("Logarithmic (316:1 range)"),
496                 _("IEC61966-2-4"),
497                 _("BT1361 extended colour gamut"),
498                 _("IEC61966-2-1 (sRGB or sYCC)"),
499                 _("BT2020 for a 10-bit system"),
500                 _("BT2020 for a 12-bit system"),
501                 _("SMPTE ST 2084 for 10, 12, 14 and 16 bit systems"),
502                 _("SMPTE ST 428-1")
503         };
504
505         DCPOMATIC_ASSERT (AVCOL_TRC_NB <= 18);
506         p.push_back (UserProperty (_("Video"), _("Colour transfer characteristic"), transfers[_color_trc]));
507
508         char const * spaces[] = {
509                 _("RGB / sRGB (IEC61966-2-1)"),
510                 _("BT709"),
511                 _("Unspecified"),
512                 _("Unspecified"),
513                 _("FCC"),
514                 _("BT470BG (BT601-6)"),
515                 _("SMPTE 170M (BT601-6)"),
516                 _("SMPTE 240M"),
517                 _("YCOCG"),
518                 _("BT2020 non-constant luminance"),
519                 _("BT2020 constant luminance"),
520         };
521
522         DCPOMATIC_ASSERT (AVCOL_SPC_NB == 11);
523         p.push_back (UserProperty (_("Video"), _("Colourspace"), spaces[_colorspace]));
524
525         if (_bits_per_pixel) {
526                 p.push_back (UserProperty (_("Video"), _("Bits per pixel"), raw_convert<string> (_bits_per_pixel.get ())));
527         }
528 }
529
530 /** Our subtitle streams have colour maps, which can be changed, but
531  *  they have no way of signalling that change.  As a hack, we have this
532  *  method which callers can use when they've modified one of our subtitle
533  *  streams.
534  */
535 void
536 FFmpegContent::signal_subtitle_stream_changed ()
537 {
538         signal_changed (FFmpegContentProperty::SUBTITLE_STREAM);
539 }
540
541 vector<shared_ptr<FFmpegAudioStream> >
542 FFmpegContent::ffmpeg_audio_streams () const
543 {
544         vector<shared_ptr<FFmpegAudioStream> > fa;
545
546         if (audio) {
547                 BOOST_FOREACH (AudioStreamPtr i, audio->streams()) {
548                         fa.push_back (dynamic_pointer_cast<FFmpegAudioStream> (i));
549                 }
550         }
551
552         return fa;
553 }