Allow build with the Ubuntu 16.04 version of FFmpeg.
[dcpomatic.git] / src / lib / ffmpeg.cc
1 /*
2     Copyright (C) 2013-2015 Carl Hetherington <cth@carlh.net>
3
4     This program is free software; you can redistribute it and/or modify
5     it under the terms of the GNU General Public License as published by
6     the Free Software Foundation; either version 2 of the License, or
7     (at your option) any later version.
8
9     This program is distributed in the hope that it will be useful,
10     but WITHOUT ANY WARRANTY; without even the implied warranty of
11     MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
12     GNU General Public License for more details.
13
14     You should have received a copy of the GNU General Public License
15     along with this program; if not, write to the Free Software
16     Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
17
18 */
19
20 #include "ffmpeg.h"
21 #include "ffmpeg_content.h"
22 #include "film.h"
23 #include "exceptions.h"
24 #include "util.h"
25 #include "raw_convert.h"
26 #include "log.h"
27 #include "ffmpeg_subtitle_stream.h"
28 #include "ffmpeg_audio_stream.h"
29 #include "md5_digester.h"
30 #include "compose.hpp"
31 extern "C" {
32 #include <libavcodec/avcodec.h>
33 #include <libavformat/avformat.h>
34 #include <libswscale/swscale.h>
35 }
36 #include <boost/algorithm/string.hpp>
37 #include <boost/foreach.hpp>
38 #include <iostream>
39
40 #include "i18n.h"
41
42 using std::string;
43 using std::cout;
44 using std::cerr;
45 using std::vector;
46 using boost::shared_ptr;
47 using boost::optional;
48
49 boost::mutex FFmpeg::_mutex;
50 boost::weak_ptr<Log> FFmpeg::_ffmpeg_log;
51
52 FFmpeg::FFmpeg (boost::shared_ptr<const FFmpegContent> c)
53         : _ffmpeg_content (c)
54         , _avio_buffer (0)
55         , _avio_buffer_size (4096)
56         , _avio_context (0)
57         , _format_context (0)
58         , _frame (0)
59         , _video_stream (-1)
60 {
61         setup_general ();
62         setup_decoders ();
63 }
64
65 FFmpeg::~FFmpeg ()
66 {
67         boost::mutex::scoped_lock lm (_mutex);
68
69         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
70                 avcodec_close (_format_context->streams[i]->codec);
71         }
72
73         av_frame_free (&_frame);
74         avformat_close_input (&_format_context);
75 }
76
77 static int
78 avio_read_wrapper (void* data, uint8_t* buffer, int amount)
79 {
80         return reinterpret_cast<FFmpeg*>(data)->avio_read (buffer, amount);
81 }
82
83 static int64_t
84 avio_seek_wrapper (void* data, int64_t offset, int whence)
85 {
86         return reinterpret_cast<FFmpeg*>(data)->avio_seek (offset, whence);
87 }
88
89 void
90 FFmpeg::ffmpeg_log_callback (void* ptr, int level, const char* fmt, va_list vl)
91 {
92         if (level > AV_LOG_WARNING) {
93                 return;
94         }
95
96         char line[1024];
97         static int prefix = 0;
98         av_log_format_line (ptr, level, fmt, vl, line, sizeof (line), &prefix);
99         shared_ptr<Log> log = _ffmpeg_log.lock ();
100         if (log) {
101                 string str (line);
102                 boost::algorithm::trim (str);
103                 log->log (String::compose ("FFmpeg: %1", str), LogEntry::TYPE_GENERAL);
104         } else {
105                 cerr << line;
106         }
107 }
108
109 void
110 FFmpeg::setup_general ()
111 {
112         av_register_all ();
113
114         /* This might not work too well in some cases of multiple FFmpeg decoders,
115            but it's probably good enough.
116         */
117         _ffmpeg_log = _ffmpeg_content->film()->log ();
118         av_log_set_callback (FFmpeg::ffmpeg_log_callback);
119
120         _file_group.set_paths (_ffmpeg_content->paths ());
121         _avio_buffer = static_cast<uint8_t*> (wrapped_av_malloc (_avio_buffer_size));
122         _avio_context = avio_alloc_context (_avio_buffer, _avio_buffer_size, 0, this, avio_read_wrapper, 0, avio_seek_wrapper);
123         _format_context = avformat_alloc_context ();
124         _format_context->pb = _avio_context;
125
126         AVDictionary* options = 0;
127         /* These durations are in microseconds, and represent how far into the content file
128            we will look for streams.
129         */
130         av_dict_set (&options, "analyzeduration", raw_convert<string> (5 * 60 * 1000000).c_str(), 0);
131         av_dict_set (&options, "probesize", raw_convert<string> (5 * 60 * 1000000).c_str(), 0);
132
133         if (avformat_open_input (&_format_context, 0, 0, &options) < 0) {
134                 throw OpenFileError (_ffmpeg_content->path(0).string ());
135         }
136
137         if (avformat_find_stream_info (_format_context, 0) < 0) {
138                 throw DecodeError (_("could not find stream information"));
139         }
140
141         /* Find video stream */
142
143         int video_stream_undefined_frame_rate = -1;
144
145         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
146                 AVStream* s = _format_context->streams[i];
147                 if (s->codec->codec_type == AVMEDIA_TYPE_VIDEO) {
148                         if (s->avg_frame_rate.num > 0 && s->avg_frame_rate.den > 0) {
149                                 /* This is definitely our video stream */
150                                 _video_stream = i;
151                         } else {
152                                 /* This is our video stream if we don't get a better offer */
153                                 video_stream_undefined_frame_rate = i;
154                         }
155                 }
156         }
157
158         /* Files from iTunes sometimes have two video streams, one with the avg_frame_rate.num and .den set
159            to zero.  Only use such a stream if there is no alternative.
160         */
161         if (_video_stream == -1 && video_stream_undefined_frame_rate != -1) {
162                 _video_stream = video_stream_undefined_frame_rate;
163         }
164
165         if (_video_stream < 0) {
166                 throw DecodeError (N_("could not find video stream"));
167         }
168
169         /* Hack: if the AVStreams have duplicate IDs, replace them with our
170            own.  We use the IDs so that we can cope with VOBs, in which streams
171            move about in index but remain with the same ID in different
172            VOBs.  However, some files have duplicate IDs, hence this hack.
173         */
174
175         bool duplicates = false;
176         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
177                 for (uint32_t j = i + 1; j < _format_context->nb_streams; ++j) {
178                         if (_format_context->streams[i]->id == _format_context->streams[j]->id) {
179                                 duplicates = true;
180                         }
181                 }
182         }
183
184         if (duplicates) {
185                 /* Put in our own IDs */
186                 for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
187                         _format_context->streams[i]->id = i;
188                 }
189         }
190
191         _frame = av_frame_alloc ();
192         if (_frame == 0) {
193                 throw DecodeError (N_("could not allocate frame"));
194         }
195 }
196
197 void
198 FFmpeg::setup_decoders ()
199 {
200         boost::mutex::scoped_lock lm (_mutex);
201
202         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
203                 AVCodecContext* context = _format_context->streams[i]->codec;
204
205                 AVCodec* codec = avcodec_find_decoder (context->codec_id);
206                 if (codec) {
207
208                         /* This option disables decoding of DCA frame footers in our patched version
209                            of FFmpeg.  I believe these footers are of no use to us, and they can cause
210                            problems when FFmpeg fails to decode them (mantis #352).
211                         */
212                         AVDictionary* options = 0;
213                         av_dict_set (&options, "disable_footer", "1", 0);
214
215                         if (avcodec_open2 (context, codec, &options) < 0) {
216                                 throw DecodeError (N_("could not open decoder"));
217                         }
218                 }
219
220                 /* We are silently ignoring any failures to find suitable decoders here */
221         }
222 }
223
224 AVCodecContext *
225 FFmpeg::video_codec_context () const
226 {
227         return _format_context->streams[_video_stream]->codec;
228 }
229
230 AVCodecContext *
231 FFmpeg::subtitle_codec_context () const
232 {
233         if (!_ffmpeg_content->subtitle_stream ()) {
234                 return 0;
235         }
236
237         return _ffmpeg_content->subtitle_stream()->stream(_format_context)->codec;
238 }
239
240 int
241 FFmpeg::avio_read (uint8_t* buffer, int const amount)
242 {
243         return _file_group.read (buffer, amount);
244 }
245
246 int64_t
247 FFmpeg::avio_seek (int64_t const pos, int whence)
248 {
249         if (whence == AVSEEK_SIZE) {
250                 return _file_group.length ();
251         }
252
253         return _file_group.seek (pos, whence);
254 }
255
256 FFmpegSubtitlePeriod
257 FFmpeg::subtitle_period (AVSubtitle const & sub)
258 {
259         ContentTime const packet_time = ContentTime::from_seconds (static_cast<double> (sub.pts) / AV_TIME_BASE);
260
261         if (sub.end_display_time == static_cast<uint32_t> (-1)) {
262                 /* End time is not known */
263                 return FFmpegSubtitlePeriod (packet_time + ContentTime::from_seconds (sub.start_display_time / 1e3));
264         }
265
266         return FFmpegSubtitlePeriod (
267                 packet_time + ContentTime::from_seconds (sub.start_display_time / 1e3),
268                 packet_time + ContentTime::from_seconds (sub.end_display_time / 1e3)
269                 );
270 }
271
272 string
273 FFmpeg::subtitle_id (AVSubtitle const & sub)
274 {
275         MD5Digester digester;
276         digester.add (sub.pts);
277         for (unsigned int i = 0; i < sub.num_rects; ++i) {
278                 AVSubtitleRect* rect = sub.rects[i];
279                 digester.add (rect->x);
280                 digester.add (rect->y);
281                 digester.add (rect->w);
282                 digester.add (rect->h);
283 #ifdef DCPOMATIC_HAVE_AVSUBTITLERECT_PICT
284                 int const line = rect->pict.linesize[0];
285                 for (int j = 0; j < rect->h; ++j) {
286                         digester.add (rect->pict.data[0] + j * line, line);
287                 }
288 #else
289                 int const line = rect->linesize[0];
290                 for (int j = 0; j < rect->h; ++j) {
291                         digester.add (rect->data[0] + j * line, line);
292                 }
293 #endif
294         }
295         return digester.get ();
296 }
297
298 /** @return true if sub starts a new image subtitle */
299 bool
300 FFmpeg::subtitle_starts_image (AVSubtitle const & sub)
301 {
302         bool image = false;
303         bool text = false;
304
305         for (unsigned int i = 0; i < sub.num_rects; ++i) {
306                 switch (sub.rects[i]->type) {
307                 case SUBTITLE_BITMAP:
308                         image = true;
309                         break;
310                 case SUBTITLE_TEXT:
311                 case SUBTITLE_ASS:
312                         text = true;
313                         break;
314                 default:
315                         break;
316                 }
317         }
318
319         /* We can't cope with mixed image/text in one AVSubtitle */
320         DCPOMATIC_ASSERT (!image || !text);
321
322         return image;
323 }
324
325 /** Compute the pts offset to use given a set of audio streams and some video details.
326  *  Sometimes these parameters will have just been determined by an Examiner, sometimes
327  *  they will have been retrieved from a piece of Content, hence the need for this method
328  *  in FFmpeg.
329  */
330 ContentTime
331 FFmpeg::pts_offset (vector<shared_ptr<FFmpegAudioStream> > audio_streams, optional<ContentTime> first_video, double video_frame_rate) const
332 {
333         /* Audio and video frame PTS values may not start with 0.  We want
334            to fiddle them so that:
335
336            1.  One of them starts at time 0.
337            2.  The first video PTS value ends up on a frame boundary.
338
339            Then we remove big initial gaps in PTS and we allow our
340            insertion of black frames to work.
341
342            We will do:
343              audio_pts_to_use = audio_pts_from_ffmpeg + pts_offset;
344              video_pts_to_use = video_pts_from_ffmpeg + pts_offset;
345         */
346
347         /* First, make one of them start at 0 */
348
349         ContentTime po = ContentTime::min ();
350
351         if (first_video) {
352                 po = - first_video.get ();
353         }
354
355         BOOST_FOREACH (shared_ptr<FFmpegAudioStream> i, audio_streams) {
356                 if (i->first_audio) {
357                         po = max (po, - i->first_audio.get ());
358                 }
359         }
360
361         /* If the offset is positive we would be pushing things from a -ve PTS to be played.
362            I don't think we ever want to do that, as it seems things at -ve PTS are not meant
363            to be seen (use for alignment bars etc.); see mantis #418.
364         */
365         if (po > ContentTime ()) {
366                 po = ContentTime ();
367         }
368
369         /* Now adjust so that the video pts starts on a frame */
370         if (first_video) {
371                 ContentTime const fvc = first_video.get() + po;
372                 po += fvc.round_up (video_frame_rate) - fvc;
373         }
374
375         return po;
376 }