No-op; fix GPL address and use the explicit-program-name version.
[dcpomatic.git] / src / lib / ffmpeg_content.cc
1 /*
2     Copyright (C) 2013-2016 Carl Hetherington <cth@carlh.net>
3
4     This file is part of DCP-o-matic.
5
6     DCP-o-matic is free software; you can redistribute it and/or modify
7     it under the terms of the GNU General Public License as published by
8     the Free Software Foundation; either version 2 of the License, or
9     (at your option) any later version.
10
11     DCP-o-matic is distributed in the hope that it will be useful,
12     but WITHOUT ANY WARRANTY; without even the implied warranty of
13     MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
14     GNU General Public License for more details.
15
16     You should have received a copy of the GNU General Public License
17     along with DCP-o-matic.  If not, see <http://www.gnu.org/licenses/>.
18
19 */
20
21 #include "ffmpeg_content.h"
22 #include "video_content.h"
23 #include "audio_content.h"
24 #include "ffmpeg_examiner.h"
25 #include "ffmpeg_subtitle_stream.h"
26 #include "ffmpeg_audio_stream.h"
27 #include "compose.hpp"
28 #include "job.h"
29 #include "util.h"
30 #include "filter.h"
31 #include "film.h"
32 #include "log.h"
33 #include "exceptions.h"
34 #include "frame_rate_change.h"
35 #include "safe_stringstream.h"
36 #include "raw_convert.h"
37 #include "subtitle_content.h"
38 #include <libcxml/cxml.h>
39 extern "C" {
40 #include <libavformat/avformat.h>
41 #include <libavutil/pixdesc.h>
42 }
43 #include <libxml++/libxml++.h>
44 #include <boost/foreach.hpp>
45 #include <iostream>
46
47 #include "i18n.h"
48
49 #define LOG_GENERAL(...) film->log()->log (String::compose (__VA_ARGS__), LogEntry::TYPE_GENERAL);
50
51 using std::string;
52 using std::vector;
53 using std::list;
54 using std::cout;
55 using std::pair;
56 using std::make_pair;
57 using boost::shared_ptr;
58 using boost::dynamic_pointer_cast;
59 using boost::optional;
60
61 int const FFmpegContentProperty::SUBTITLE_STREAMS = 100;
62 int const FFmpegContentProperty::SUBTITLE_STREAM = 101;
63 int const FFmpegContentProperty::FILTERS = 102;
64
65 FFmpegContent::FFmpegContent (shared_ptr<const Film> film, boost::filesystem::path p)
66         : Content (film, p)
67 {
68
69 }
70
71 FFmpegContent::FFmpegContent (shared_ptr<const Film> film, cxml::ConstNodePtr node, int version, list<string>& notes)
72         : Content (film, node)
73 {
74         video = VideoContent::from_xml (this, node, version);
75         audio = AudioContent::from_xml (this, node);
76         subtitle = SubtitleContent::from_xml (this, node, version);
77
78         list<cxml::NodePtr> c = node->node_children ("SubtitleStream");
79         for (list<cxml::NodePtr>::const_iterator i = c.begin(); i != c.end(); ++i) {
80                 _subtitle_streams.push_back (shared_ptr<FFmpegSubtitleStream> (new FFmpegSubtitleStream (*i, version)));
81                 if ((*i)->optional_number_child<int> ("Selected")) {
82                         _subtitle_stream = _subtitle_streams.back ();
83                 }
84         }
85
86         c = node->node_children ("AudioStream");
87         for (list<cxml::NodePtr>::const_iterator i = c.begin(); i != c.end(); ++i) {
88                 shared_ptr<FFmpegAudioStream> as (new FFmpegAudioStream (*i, version));
89                 audio->add_stream (as);
90                 if (version < 11 && !(*i)->optional_node_child ("Selected")) {
91                         /* This is an old file and this stream is not selected, so un-map it */
92                         as->set_mapping (AudioMapping (as->channels (), MAX_DCP_AUDIO_CHANNELS));
93                 }
94         }
95
96         c = node->node_children ("Filter");
97         for (list<cxml::NodePtr>::iterator i = c.begin(); i != c.end(); ++i) {
98                 Filter const * f = Filter::from_id ((*i)->content ());
99                 if (f) {
100                         _filters.push_back (f);
101                 } else {
102                         notes.push_back (String::compose (_("DCP-o-matic no longer supports the `%1' filter, so it has been turned off."), (*i)->content()));
103                 }
104         }
105
106         optional<ContentTime::Type> const f = node->optional_number_child<ContentTime::Type> ("FirstVideo");
107         if (f) {
108                 _first_video = ContentTime (f.get ());
109         }
110
111         _color_range = static_cast<AVColorRange> (node->optional_number_child<int>("ColorRange").get_value_or (AVCOL_RANGE_UNSPECIFIED));
112         _color_primaries = static_cast<AVColorPrimaries> (node->optional_number_child<int>("ColorPrimaries").get_value_or (AVCOL_PRI_UNSPECIFIED));
113         _color_trc = static_cast<AVColorTransferCharacteristic> (
114                 node->optional_number_child<int>("ColorTransferCharacteristic").get_value_or (AVCOL_TRC_UNSPECIFIED)
115                 );
116         _colorspace = static_cast<AVColorSpace> (node->optional_number_child<int>("Colorspace").get_value_or (AVCOL_SPC_UNSPECIFIED));
117         _bits_per_pixel = node->optional_number_child<int> ("BitsPerPixel");
118
119 }
120
121 FFmpegContent::FFmpegContent (shared_ptr<const Film> film, vector<boost::shared_ptr<Content> > c)
122         : Content (film, c)
123 {
124         video.reset (new VideoContent (this, c));
125         audio.reset (new AudioContent (this, c));
126         subtitle.reset (new SubtitleContent (this, c));
127
128         shared_ptr<FFmpegContent> ref = dynamic_pointer_cast<FFmpegContent> (c[0]);
129         DCPOMATIC_ASSERT (ref);
130
131         for (size_t i = 0; i < c.size(); ++i) {
132                 shared_ptr<FFmpegContent> fc = dynamic_pointer_cast<FFmpegContent> (c[i]);
133                 if (fc->subtitle->use() && *(fc->_subtitle_stream.get()) != *(ref->_subtitle_stream.get())) {
134                         throw JoinError (_("Content to be joined must use the same subtitle stream."));
135                 }
136         }
137
138         /* XXX: should probably check that more of the stuff below is the same in *this and ref */
139
140         _subtitle_streams = ref->subtitle_streams ();
141         _subtitle_stream = ref->subtitle_stream ();
142         _first_video = ref->_first_video;
143         _filters = ref->_filters;
144         _color_range = ref->_color_range;
145         _color_primaries = ref->_color_primaries;
146         _color_trc = ref->_color_trc;
147         _colorspace = ref->_colorspace;
148         _bits_per_pixel = ref->_bits_per_pixel;
149 }
150
151 void
152 FFmpegContent::as_xml (xmlpp::Node* node) const
153 {
154         node->add_child("Type")->add_child_text ("FFmpeg");
155         Content::as_xml (node);
156
157         if (video) {
158                 video->as_xml (node);
159         }
160
161         if (audio) {
162                 audio->as_xml (node);
163
164                 BOOST_FOREACH (AudioStreamPtr i, audio->streams ()) {
165                         shared_ptr<FFmpegAudioStream> f = dynamic_pointer_cast<FFmpegAudioStream> (i);
166                         DCPOMATIC_ASSERT (f);
167                         f->as_xml (node->add_child("AudioStream"));
168                 }
169         }
170
171         if (subtitle) {
172                 subtitle->as_xml (node);
173         }
174
175         boost::mutex::scoped_lock lm (_mutex);
176
177         for (vector<shared_ptr<FFmpegSubtitleStream> >::const_iterator i = _subtitle_streams.begin(); i != _subtitle_streams.end(); ++i) {
178                 xmlpp::Node* t = node->add_child("SubtitleStream");
179                 if (_subtitle_stream && *i == _subtitle_stream) {
180                         t->add_child("Selected")->add_child_text("1");
181                 }
182                 (*i)->as_xml (t);
183         }
184
185         for (vector<Filter const *>::const_iterator i = _filters.begin(); i != _filters.end(); ++i) {
186                 node->add_child("Filter")->add_child_text ((*i)->id ());
187         }
188
189         if (_first_video) {
190                 node->add_child("FirstVideo")->add_child_text (raw_convert<string> (_first_video.get().get()));
191         }
192
193         node->add_child("ColorRange")->add_child_text (raw_convert<string> (_color_range));
194         node->add_child("ColorPrimaries")->add_child_text (raw_convert<string> (_color_primaries));
195         node->add_child("ColorTransferCharacteristic")->add_child_text (raw_convert<string> (_color_trc));
196         node->add_child("Colorspace")->add_child_text (raw_convert<string> (_colorspace));
197         if (_bits_per_pixel) {
198                 node->add_child("BitsPerPixel")->add_child_text (raw_convert<string> (_bits_per_pixel.get ()));
199         }
200 }
201
202 void
203 FFmpegContent::examine (shared_ptr<Job> job)
204 {
205         job->set_progress_unknown ();
206
207         Content::examine (job);
208
209         shared_ptr<FFmpegExaminer> examiner (new FFmpegExaminer (shared_from_this (), job));
210
211         if (examiner->has_video ()) {
212                 video.reset (new VideoContent (this));
213                 video->take_from_examiner (examiner);
214                 set_default_colour_conversion ();
215         }
216
217         {
218                 boost::mutex::scoped_lock lm (_mutex);
219
220                 if (examiner->has_video ()) {
221                         _first_video = examiner->first_video ();
222                         _color_range = examiner->color_range ();
223                         _color_primaries = examiner->color_primaries ();
224                         _color_trc = examiner->color_trc ();
225                         _colorspace = examiner->colorspace ();
226                         _bits_per_pixel = examiner->bits_per_pixel ();
227                 }
228
229                 if (!examiner->audio_streams().empty ()) {
230                         audio.reset (new AudioContent (this));
231
232                         BOOST_FOREACH (shared_ptr<FFmpegAudioStream> i, examiner->audio_streams ()) {
233                                 audio->add_stream (i);
234                         }
235
236                         AudioStreamPtr as = audio->streams().front();
237                         AudioMapping m = as->mapping ();
238                         film()->make_audio_mapping_default (m);
239                         as->set_mapping (m);
240                 }
241
242                 _subtitle_streams = examiner->subtitle_streams ();
243                 if (!_subtitle_streams.empty ()) {
244                         subtitle.reset (new SubtitleContent (this));
245                         _subtitle_stream = _subtitle_streams.front ();
246                 }
247
248         }
249
250         signal_changed (FFmpegContentProperty::SUBTITLE_STREAMS);
251         signal_changed (FFmpegContentProperty::SUBTITLE_STREAM);
252 }
253
254 string
255 FFmpegContent::summary () const
256 {
257         if (video && audio) {
258                 return String::compose (_("%1 [movie]"), path_summary ());
259         } else if (video) {
260                 return String::compose (_("%1 [video]"), path_summary ());
261         } else if (audio) {
262                 return String::compose (_("%1 [audio]"), path_summary ());
263         }
264
265         return path_summary ();
266 }
267
268 string
269 FFmpegContent::technical_summary () const
270 {
271         string as = "";
272         BOOST_FOREACH (shared_ptr<FFmpegAudioStream> i, ffmpeg_audio_streams ()) {
273                 as += i->technical_summary () + " " ;
274         }
275
276         if (as.empty ()) {
277                 as = "none";
278         }
279
280         string ss = "none";
281         if (_subtitle_stream) {
282                 ss = _subtitle_stream->technical_summary ();
283         }
284
285         string filt = Filter::ffmpeg_string (_filters);
286
287         string s = Content::technical_summary ();
288
289         if (video) {
290                 s += " - " + video->technical_summary ();
291         }
292
293         if (audio) {
294                 s += " - " + audio->technical_summary ();
295         }
296
297         return s + String::compose (
298                 "ffmpeg: audio %1 subtitle %2 filters %3", as, ss, filt
299                 );
300 }
301
302 void
303 FFmpegContent::set_subtitle_stream (shared_ptr<FFmpegSubtitleStream> s)
304 {
305         {
306                 boost::mutex::scoped_lock lm (_mutex);
307                 _subtitle_stream = s;
308         }
309
310         signal_changed (FFmpegContentProperty::SUBTITLE_STREAM);
311 }
312
313 bool
314 operator== (FFmpegStream const & a, FFmpegStream const & b)
315 {
316         return a._id == b._id;
317 }
318
319 bool
320 operator!= (FFmpegStream const & a, FFmpegStream const & b)
321 {
322         return a._id != b._id;
323 }
324
325 DCPTime
326 FFmpegContent::full_length () const
327 {
328         FrameRateChange const frc (active_video_frame_rate (), film()->video_frame_rate ());
329         if (video) {
330                 return DCPTime::from_frames (llrint (video->length_after_3d_combine() * frc.factor()), film()->video_frame_rate());
331         }
332
333         DCPOMATIC_ASSERT (audio);
334         return DCPTime::from_frames (llrint (audio->stream()->length() / frc.speed_up), audio->stream()->frame_rate());
335 }
336
337 void
338 FFmpegContent::set_filters (vector<Filter const *> const & filters)
339 {
340         {
341                 boost::mutex::scoped_lock lm (_mutex);
342                 _filters = filters;
343         }
344
345         signal_changed (FFmpegContentProperty::FILTERS);
346 }
347
348 string
349 FFmpegContent::identifier () const
350 {
351         SafeStringStream s;
352
353         s << Content::identifier();
354
355         if (video) {
356                 s << "_" << video->identifier();
357         }
358
359         if (subtitle) {
360                 s << "_" << subtitle->identifier();
361         }
362
363         boost::mutex::scoped_lock lm (_mutex);
364
365         if (_subtitle_stream) {
366                 s << "_" << _subtitle_stream->identifier ();
367         }
368
369         for (vector<Filter const *>::const_iterator i = _filters.begin(); i != _filters.end(); ++i) {
370                 s << "_" << (*i)->id ();
371         }
372
373         return s.str ();
374 }
375
376 list<ContentTimePeriod>
377 FFmpegContent::image_subtitles_during (ContentTimePeriod period, bool starting) const
378 {
379         shared_ptr<FFmpegSubtitleStream> stream = subtitle_stream ();
380         if (!stream) {
381                 return list<ContentTimePeriod> ();
382         }
383
384         return stream->image_subtitles_during (period, starting);
385 }
386
387 list<ContentTimePeriod>
388 FFmpegContent::text_subtitles_during (ContentTimePeriod period, bool starting) const
389 {
390         shared_ptr<FFmpegSubtitleStream> stream = subtitle_stream ();
391         if (!stream) {
392                 return list<ContentTimePeriod> ();
393         }
394
395         return stream->text_subtitles_during (period, starting);
396 }
397
398 void
399 FFmpegContent::set_default_colour_conversion ()
400 {
401         dcp::Size const s = video->size ();
402
403         boost::mutex::scoped_lock lm (_mutex);
404
405         if (s.width < 1080) {
406                 video->set_colour_conversion (PresetColourConversion::from_id ("rec601").conversion);
407         } else {
408                 video->set_colour_conversion (PresetColourConversion::from_id ("rec709").conversion);
409         }
410 }
411
412 void
413 FFmpegContent::add_properties (list<UserProperty>& p) const
414 {
415         Content::add_properties (p);
416         video->add_properties (p);
417         audio->add_properties (p);
418
419         if (_bits_per_pixel) {
420                 int const sub = 219 * pow (2, _bits_per_pixel.get() - 8);
421                 int const total = pow (2, _bits_per_pixel.get());
422
423                 switch (_color_range) {
424                 case AVCOL_RANGE_UNSPECIFIED:
425                         /// TRANSLATORS: this means that the range of pixel values used in this
426                         /// file is unknown (not specified in the file).
427                         p.push_back (UserProperty (_("Video"), _("Colour range"), _("Unspecified")));
428                         break;
429                 case AVCOL_RANGE_MPEG:
430                         /// TRANSLATORS: this means that the range of pixel values used in this
431                         /// file is limited, so that not all possible values are valid.
432                         p.push_back (
433                                 UserProperty (
434                                         _("Video"), _("Colour range"), String::compose (_("Limited (%1-%2)"), (total - sub) / 2, (total + sub) / 2)
435                                         )
436                                 );
437                         break;
438                 case AVCOL_RANGE_JPEG:
439                         /// TRANSLATORS: this means that the range of pixel values used in this
440                         /// file is full, so that all possible pixel values are valid.
441                         p.push_back (UserProperty (_("Video"), _("Colour range"), String::compose (_("Full (0-%1)"), total)));
442                         break;
443                 default:
444                         DCPOMATIC_ASSERT (false);
445                 }
446         } else {
447                 switch (_color_range) {
448                 case AVCOL_RANGE_UNSPECIFIED:
449                         /// TRANSLATORS: this means that the range of pixel values used in this
450                         /// file is unknown (not specified in the file).
451                         p.push_back (UserProperty (_("Video"), _("Colour range"), _("Unspecified")));
452                         break;
453                 case AVCOL_RANGE_MPEG:
454                         /// TRANSLATORS: this means that the range of pixel values used in this
455                         /// file is limited, so that not all possible values are valid.
456                         p.push_back (UserProperty (_("Video"), _("Colour range"), _("Limited")));
457                         break;
458                 case AVCOL_RANGE_JPEG:
459                         /// TRANSLATORS: this means that the range of pixel values used in this
460                         /// file is full, so that all possible pixel values are valid.
461                         p.push_back (UserProperty (_("Video"), _("Colour range"), _("Full")));
462                         break;
463                 default:
464                         DCPOMATIC_ASSERT (false);
465                 }
466         }
467
468         char const * primaries[] = {
469                 _("Unspecified"),
470                 _("BT709"),
471                 _("Unspecified"),
472                 _("Unspecified"),
473                 _("BT470M"),
474                 _("BT470BG"),
475                 _("SMPTE 170M (BT601)"),
476                 _("SMPTE 240M"),
477                 _("Film"),
478                 _("BT2020"),
479                 _("SMPTE ST 428-1 (CIE 1931 XYZ)")
480         };
481
482         DCPOMATIC_ASSERT (AVCOL_PRI_NB <= 11);
483         p.push_back (UserProperty (_("Video"), _("Colour primaries"), primaries[_color_primaries]));
484
485         char const * transfers[] = {
486                 _("Unspecified"),
487                 _("BT709"),
488                 _("Unspecified"),
489                 _("Unspecified"),
490                 _("Gamma 22 (BT470M)"),
491                 _("Gamma 28 (BT470BG)"),
492                 _("SMPTE 170M (BT601)"),
493                 _("SMPTE 240M"),
494                 _("Linear"),
495                 _("Logarithmic (100:1 range)"),
496                 _("Logarithmic (316:1 range)"),
497                 _("IEC61966-2-4"),
498                 _("BT1361 extended colour gamut"),
499                 _("IEC61966-2-1 (sRGB or sYCC)"),
500                 _("BT2020 for a 10-bit system"),
501                 _("BT2020 for a 12-bit system"),
502                 _("SMPTE ST 2084 for 10, 12, 14 and 16 bit systems"),
503                 _("SMPTE ST 428-1")
504         };
505
506         DCPOMATIC_ASSERT (AVCOL_TRC_NB <= 18);
507         p.push_back (UserProperty (_("Video"), _("Colour transfer characteristic"), transfers[_color_trc]));
508
509         char const * spaces[] = {
510                 _("RGB / sRGB (IEC61966-2-1)"),
511                 _("BT709"),
512                 _("Unspecified"),
513                 _("Unspecified"),
514                 _("FCC"),
515                 _("BT470BG (BT601-6)"),
516                 _("SMPTE 170M (BT601-6)"),
517                 _("SMPTE 240M"),
518                 _("YCOCG"),
519                 _("BT2020 non-constant luminance"),
520                 _("BT2020 constant luminance"),
521         };
522
523         DCPOMATIC_ASSERT (AVCOL_SPC_NB == 11);
524         p.push_back (UserProperty (_("Video"), _("Colourspace"), spaces[_colorspace]));
525
526         if (_bits_per_pixel) {
527                 p.push_back (UserProperty (_("Video"), _("Bits per pixel"), raw_convert<string> (_bits_per_pixel.get ())));
528         }
529 }
530
531 /** Our subtitle streams have colour maps, which can be changed, but
532  *  they have no way of signalling that change.  As a hack, we have this
533  *  method which callers can use when they've modified one of our subtitle
534  *  streams.
535  */
536 void
537 FFmpegContent::signal_subtitle_stream_changed ()
538 {
539         signal_changed (FFmpegContentProperty::SUBTITLE_STREAM);
540 }
541
542 vector<shared_ptr<FFmpegAudioStream> >
543 FFmpegContent::ffmpeg_audio_streams () const
544 {
545         vector<shared_ptr<FFmpegAudioStream> > fa;
546
547         if (audio) {
548                 BOOST_FOREACH (AudioStreamPtr i, audio->streams()) {
549                         fa.push_back (dynamic_pointer_cast<FFmpegAudioStream> (i));
550                 }
551         }
552
553         return fa;
554 }