Don't select video streams for which we have no codec; warn in log about streams...
[dcpomatic.git] / src / lib / ffmpeg.cc
1 /*
2     Copyright (C) 2013-2016 Carl Hetherington <cth@carlh.net>
3
4     This file is part of DCP-o-matic.
5
6     DCP-o-matic is free software; you can redistribute it and/or modify
7     it under the terms of the GNU General Public License as published by
8     the Free Software Foundation; either version 2 of the License, or
9     (at your option) any later version.
10
11     DCP-o-matic is distributed in the hope that it will be useful,
12     but WITHOUT ANY WARRANTY; without even the implied warranty of
13     MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
14     GNU General Public License for more details.
15
16     You should have received a copy of the GNU General Public License
17     along with DCP-o-matic.  If not, see <http://www.gnu.org/licenses/>.
18
19 */
20
21 #include "ffmpeg.h"
22 #include "ffmpeg_content.h"
23 #include "film.h"
24 #include "exceptions.h"
25 #include "util.h"
26 #include "log.h"
27 #include "ffmpeg_subtitle_stream.h"
28 #include "ffmpeg_audio_stream.h"
29 #include "digester.h"
30 #include "compose.hpp"
31 #include <dcp/raw_convert.h>
32 extern "C" {
33 #include <libavcodec/avcodec.h>
34 #include <libavformat/avformat.h>
35 #include <libswscale/swscale.h>
36 }
37 #include <boost/algorithm/string.hpp>
38 #include <boost/foreach.hpp>
39 #include <iostream>
40
41 #include "i18n.h"
42
43 using std::string;
44 using std::cout;
45 using std::cerr;
46 using std::vector;
47 using boost::shared_ptr;
48 using boost::optional;
49 using dcp::raw_convert;
50
51 boost::mutex FFmpeg::_mutex;
52 boost::weak_ptr<Log> FFmpeg::_ffmpeg_log;
53
54 FFmpeg::FFmpeg (boost::shared_ptr<const FFmpegContent> c)
55         : _ffmpeg_content (c)
56         , _avio_buffer (0)
57         , _avio_buffer_size (4096)
58         , _avio_context (0)
59         , _format_context (0)
60         , _frame (0)
61 {
62         setup_general ();
63         setup_decoders ();
64 }
65
66 FFmpeg::~FFmpeg ()
67 {
68         boost::mutex::scoped_lock lm (_mutex);
69
70         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
71                 avcodec_close (_format_context->streams[i]->codec);
72         }
73
74         av_frame_free (&_frame);
75         avformat_close_input (&_format_context);
76 }
77
78 static int
79 avio_read_wrapper (void* data, uint8_t* buffer, int amount)
80 {
81         return reinterpret_cast<FFmpeg*>(data)->avio_read (buffer, amount);
82 }
83
84 static int64_t
85 avio_seek_wrapper (void* data, int64_t offset, int whence)
86 {
87         return reinterpret_cast<FFmpeg*>(data)->avio_seek (offset, whence);
88 }
89
90 void
91 FFmpeg::ffmpeg_log_callback (void* ptr, int level, const char* fmt, va_list vl)
92 {
93         if (level > AV_LOG_WARNING) {
94                 return;
95         }
96
97         char line[1024];
98         static int prefix = 0;
99         av_log_format_line (ptr, level, fmt, vl, line, sizeof (line), &prefix);
100         shared_ptr<Log> log = _ffmpeg_log.lock ();
101         if (log) {
102                 string str (line);
103                 boost::algorithm::trim (str);
104                 log->log (String::compose ("FFmpeg: %1", str), LogEntry::TYPE_GENERAL);
105         } else {
106                 cerr << line;
107         }
108 }
109
110 void
111 FFmpeg::setup_general ()
112 {
113         /* This might not work too well in some cases of multiple FFmpeg decoders,
114            but it's probably good enough.
115         */
116         _ffmpeg_log = _ffmpeg_content->film()->log ();
117         av_log_set_callback (FFmpeg::ffmpeg_log_callback);
118
119         _file_group.set_paths (_ffmpeg_content->paths ());
120         _avio_buffer = static_cast<uint8_t*> (wrapped_av_malloc (_avio_buffer_size));
121         _avio_context = avio_alloc_context (_avio_buffer, _avio_buffer_size, 0, this, avio_read_wrapper, 0, avio_seek_wrapper);
122         _format_context = avformat_alloc_context ();
123         _format_context->pb = _avio_context;
124
125         AVDictionary* options = 0;
126         /* These durations are in microseconds, and represent how far into the content file
127            we will look for streams.
128         */
129         av_dict_set (&options, "analyzeduration", raw_convert<string> (5 * 60 * 1000000).c_str(), 0);
130         av_dict_set (&options, "probesize", raw_convert<string> (5 * 60 * 1000000).c_str(), 0);
131
132         int e = avformat_open_input (&_format_context, 0, 0, &options);
133         if (e < 0) {
134                 throw OpenFileError (_ffmpeg_content->path(0).string(), e, true);
135         }
136
137         if (avformat_find_stream_info (_format_context, 0) < 0) {
138                 throw DecodeError (_("could not find stream information"));
139         }
140
141         /* Find video stream */
142
143         optional<int> video_stream_undefined_frame_rate;
144
145         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
146                 AVStream* s = _format_context->streams[i];
147                 if (s->codec->codec_type == AVMEDIA_TYPE_VIDEO && avcodec_find_decoder(s->codec->codec_id)) {
148                         if (s->avg_frame_rate.num > 0 && s->avg_frame_rate.den > 0) {
149                                 /* This is definitely our video stream */
150                                 _video_stream = i;
151                         } else {
152                                 /* This is our video stream if we don't get a better offer */
153                                 video_stream_undefined_frame_rate = i;
154                         }
155                 }
156         }
157
158         /* Files from iTunes sometimes have two video streams, one with the avg_frame_rate.num and .den set
159            to zero.  Only use such a stream if there is no alternative.
160         */
161         if (!_video_stream && video_stream_undefined_frame_rate) {
162                 _video_stream = video_stream_undefined_frame_rate.get();
163         }
164
165         /* Hack: if the AVStreams have duplicate IDs, replace them with our
166            own.  We use the IDs so that we can cope with VOBs, in which streams
167            move about in index but remain with the same ID in different
168            VOBs.  However, some files have duplicate IDs, hence this hack.
169         */
170
171         bool duplicates = false;
172         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
173                 for (uint32_t j = i + 1; j < _format_context->nb_streams; ++j) {
174                         if (_format_context->streams[i]->id == _format_context->streams[j]->id) {
175                                 duplicates = true;
176                         }
177                 }
178         }
179
180         if (duplicates) {
181                 /* Put in our own IDs */
182                 for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
183                         _format_context->streams[i]->id = i;
184                 }
185         }
186
187         _frame = av_frame_alloc ();
188         if (_frame == 0) {
189                 throw DecodeError (N_("could not allocate frame"));
190         }
191 }
192
193 void
194 FFmpeg::setup_decoders ()
195 {
196         boost::mutex::scoped_lock lm (_mutex);
197
198         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
199                 AVCodecContext* context = _format_context->streams[i]->codec;
200
201                 AVCodec* codec = avcodec_find_decoder (context->codec_id);
202                 if (codec) {
203
204                         AVDictionary* options = 0;
205                         /* This option disables decoding of DCA frame footers in our patched version
206                            of FFmpeg.  I believe these footers are of no use to us, and they can cause
207                            problems when FFmpeg fails to decode them (mantis #352).
208                         */
209                         av_dict_set (&options, "disable_footer", "1", 0);
210                         /* This allows decoding of some DNxHR 444 and HQX files; see
211                            https://trac.ffmpeg.org/ticket/5681
212                         */
213                         av_dict_set_int (&options, "strict", FF_COMPLIANCE_EXPERIMENTAL, 0);
214
215                         if (avcodec_open2 (context, codec, &options) < 0) {
216                                 throw DecodeError (N_("could not open decoder"));
217                         }
218                 } else {
219                         shared_ptr<Log> log = _ffmpeg_log.lock ();
220                         if (log) {
221                                 log->log (String::compose ("No codec found for stream %1", i), LogEntry::TYPE_WARNING);
222                         }
223                 }
224         }
225 }
226
227 AVCodecContext *
228 FFmpeg::video_codec_context () const
229 {
230         if (!_video_stream) {
231                 return 0;
232         }
233
234         return _format_context->streams[_video_stream.get()]->codec;
235 }
236
237 AVCodecContext *
238 FFmpeg::subtitle_codec_context () const
239 {
240         if (!_ffmpeg_content->subtitle_stream ()) {
241                 return 0;
242         }
243
244         return _ffmpeg_content->subtitle_stream()->stream(_format_context)->codec;
245 }
246
247 int
248 FFmpeg::avio_read (uint8_t* buffer, int const amount)
249 {
250         return _file_group.read (buffer, amount);
251 }
252
253 int64_t
254 FFmpeg::avio_seek (int64_t const pos, int whence)
255 {
256         if (whence == AVSEEK_SIZE) {
257                 return _file_group.length ();
258         }
259
260         return _file_group.seek (pos, whence);
261 }
262
263 FFmpegSubtitlePeriod
264 FFmpeg::subtitle_period (AVSubtitle const & sub)
265 {
266         ContentTime const packet_time = ContentTime::from_seconds (static_cast<double> (sub.pts) / AV_TIME_BASE);
267
268         if (sub.end_display_time == static_cast<uint32_t> (-1)) {
269                 /* End time is not known */
270                 return FFmpegSubtitlePeriod (packet_time + ContentTime::from_seconds (sub.start_display_time / 1e3));
271         }
272
273         return FFmpegSubtitlePeriod (
274                 packet_time + ContentTime::from_seconds (sub.start_display_time / 1e3),
275                 packet_time + ContentTime::from_seconds (sub.end_display_time / 1e3)
276                 );
277 }
278
279 string
280 FFmpeg::subtitle_id (AVSubtitle const & sub)
281 {
282         Digester digester;
283         digester.add (sub.pts);
284         for (unsigned int i = 0; i < sub.num_rects; ++i) {
285                 AVSubtitleRect* rect = sub.rects[i];
286                 if (rect->type == SUBTITLE_BITMAP) {
287                         digester.add (rect->x);
288                         digester.add (rect->y);
289                         digester.add (rect->w);
290                         digester.add (rect->h);
291 #ifdef DCPOMATIC_HAVE_AVSUBTITLERECT_PICT
292                         int const line = rect->pict.linesize[0];
293                         for (int j = 0; j < rect->h; ++j) {
294                                 digester.add (rect->pict.data[0] + j * line, line);
295                         }
296 #else
297                         int const line = rect->linesize[0];
298                         for (int j = 0; j < rect->h; ++j) {
299                                 digester.add (rect->data[0] + j * line, line);
300                         }
301 #endif
302                 } else if (rect->type == SUBTITLE_TEXT) {
303                         digester.add (string (rect->text));
304                 } else if (rect->type == SUBTITLE_ASS) {
305                         digester.add (string (rect->ass));
306                 }
307         }
308         return digester.get ();
309 }
310
311 /** @return true if sub starts a new image subtitle */
312 bool
313 FFmpeg::subtitle_starts_image (AVSubtitle const & sub)
314 {
315         bool image = false;
316         bool text = false;
317
318         for (unsigned int i = 0; i < sub.num_rects; ++i) {
319                 switch (sub.rects[i]->type) {
320                 case SUBTITLE_BITMAP:
321                         image = true;
322                         break;
323                 case SUBTITLE_TEXT:
324                 case SUBTITLE_ASS:
325                         text = true;
326                         break;
327                 default:
328                         break;
329                 }
330         }
331
332         /* We can't cope with mixed image/text in one AVSubtitle */
333         DCPOMATIC_ASSERT (!image || !text);
334
335         return image;
336 }
337
338 /** Compute the pts offset to use given a set of audio streams and some video details.
339  *  Sometimes these parameters will have just been determined by an Examiner, sometimes
340  *  they will have been retrieved from a piece of Content, hence the need for this method
341  *  in FFmpeg.
342  */
343 ContentTime
344 FFmpeg::pts_offset (vector<shared_ptr<FFmpegAudioStream> > audio_streams, optional<ContentTime> first_video, double video_frame_rate) const
345 {
346         /* Audio and video frame PTS values may not start with 0.  We want
347            to fiddle them so that:
348
349            1.  One of them starts at time 0.
350            2.  The first video PTS value ends up on a frame boundary.
351
352            Then we remove big initial gaps in PTS and we allow our
353            insertion of black frames to work.
354
355            We will do:
356              audio_pts_to_use = audio_pts_from_ffmpeg + pts_offset;
357              video_pts_to_use = video_pts_from_ffmpeg + pts_offset;
358         */
359
360         /* First, make one of them start at 0 */
361
362         ContentTime po = ContentTime::min ();
363
364         if (first_video) {
365                 po = - first_video.get ();
366         }
367
368         BOOST_FOREACH (shared_ptr<FFmpegAudioStream> i, audio_streams) {
369                 if (i->first_audio) {
370                         po = max (po, - i->first_audio.get ());
371                 }
372         }
373
374         /* If the offset is positive we would be pushing things from a -ve PTS to be played.
375            I don't think we ever want to do that, as it seems things at -ve PTS are not meant
376            to be seen (use for alignment bars etc.); see mantis #418.
377         */
378         if (po > ContentTime ()) {
379                 po = ContentTime ();
380         }
381
382         /* Now adjust so that the video pts starts on a frame */
383         if (first_video) {
384                 ContentTime const fvc = first_video.get() + po;
385                 po += fvc.ceil (video_frame_rate) - fvc;
386         }
387
388         return po;
389 }