Put Time types in dcpomatic namespace.
[dcpomatic.git] / src / lib / ffmpeg.cc
1 /*
2     Copyright (C) 2013-2016 Carl Hetherington <cth@carlh.net>
3
4     This file is part of DCP-o-matic.
5
6     DCP-o-matic is free software; you can redistribute it and/or modify
7     it under the terms of the GNU General Public License as published by
8     the Free Software Foundation; either version 2 of the License, or
9     (at your option) any later version.
10
11     DCP-o-matic is distributed in the hope that it will be useful,
12     but WITHOUT ANY WARRANTY; without even the implied warranty of
13     MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
14     GNU General Public License for more details.
15
16     You should have received a copy of the GNU General Public License
17     along with DCP-o-matic.  If not, see <http://www.gnu.org/licenses/>.
18
19 */
20
21 #include "ffmpeg.h"
22 #include "ffmpeg_content.h"
23 #include "film.h"
24 #include "exceptions.h"
25 #include "util.h"
26 #include "log.h"
27 #include "dcpomatic_log.h"
28 #include "ffmpeg_subtitle_stream.h"
29 #include "ffmpeg_audio_stream.h"
30 #include "digester.h"
31 #include "compose.hpp"
32 #include <dcp/raw_convert.h>
33 extern "C" {
34 #include <libavcodec/avcodec.h>
35 #include <libavformat/avformat.h>
36 #include <libswscale/swscale.h>
37 }
38 #include <boost/algorithm/string.hpp>
39 #include <boost/foreach.hpp>
40 #include <iostream>
41
42 #include "i18n.h"
43
44 using std::string;
45 using std::cout;
46 using std::cerr;
47 using std::vector;
48 using boost::shared_ptr;
49 using boost::optional;
50 using dcp::raw_convert;
51 using namespace dcpomatic;
52
53 boost::mutex FFmpeg::_mutex;
54
55 FFmpeg::FFmpeg (boost::shared_ptr<const FFmpegContent> c)
56         : _ffmpeg_content (c)
57         , _avio_buffer (0)
58         , _avio_buffer_size (4096)
59         , _avio_context (0)
60         , _format_context (0)
61         , _frame (0)
62 {
63         setup_general ();
64         setup_decoders ();
65 }
66
67 FFmpeg::~FFmpeg ()
68 {
69         boost::mutex::scoped_lock lm (_mutex);
70
71         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
72                 avcodec_close (_format_context->streams[i]->codec);
73         }
74
75         av_frame_free (&_frame);
76         avformat_close_input (&_format_context);
77 }
78
79 static int
80 avio_read_wrapper (void* data, uint8_t* buffer, int amount)
81 {
82         return reinterpret_cast<FFmpeg*>(data)->avio_read (buffer, amount);
83 }
84
85 static int64_t
86 avio_seek_wrapper (void* data, int64_t offset, int whence)
87 {
88         return reinterpret_cast<FFmpeg*>(data)->avio_seek (offset, whence);
89 }
90
91 void
92 FFmpeg::ffmpeg_log_callback (void* ptr, int level, const char* fmt, va_list vl)
93 {
94         if (level > AV_LOG_WARNING) {
95                 return;
96         }
97
98         char line[1024];
99         static int prefix = 0;
100         av_log_format_line (ptr, level, fmt, vl, line, sizeof (line), &prefix);
101         string str (line);
102         boost::algorithm::trim (str);
103         dcpomatic_log->log (String::compose ("FFmpeg: %1", str), LogEntry::TYPE_GENERAL);
104 }
105
106 void
107 FFmpeg::setup_general ()
108 {
109         /* This might not work too well in some cases of multiple FFmpeg decoders,
110            but it's probably good enough.
111         */
112         av_log_set_callback (FFmpeg::ffmpeg_log_callback);
113
114         _file_group.set_paths (_ffmpeg_content->paths ());
115         _avio_buffer = static_cast<uint8_t*> (wrapped_av_malloc (_avio_buffer_size));
116         _avio_context = avio_alloc_context (_avio_buffer, _avio_buffer_size, 0, this, avio_read_wrapper, 0, avio_seek_wrapper);
117         _format_context = avformat_alloc_context ();
118         _format_context->pb = _avio_context;
119
120         AVDictionary* options = 0;
121         /* These durations are in microseconds, and represent how far into the content file
122            we will look for streams.
123         */
124         av_dict_set (&options, "analyzeduration", raw_convert<string> (5 * 60 * 1000000).c_str(), 0);
125         av_dict_set (&options, "probesize", raw_convert<string> (5 * 60 * 1000000).c_str(), 0);
126         if (_ffmpeg_content->decryption_key()) {
127                 av_dict_set (&options, "decryption_key", _ffmpeg_content->decryption_key()->c_str(), 0);
128         }
129
130         int e = avformat_open_input (&_format_context, 0, 0, &options);
131         if (e < 0) {
132                 throw OpenFileError (_ffmpeg_content->path(0).string(), e, true);
133         }
134
135         if (avformat_find_stream_info (_format_context, 0) < 0) {
136                 throw DecodeError (_("could not find stream information"));
137         }
138
139         /* Find video stream */
140
141         optional<int> video_stream_undefined_frame_rate;
142
143         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
144                 AVStream* s = _format_context->streams[i];
145                 if (s->codec->codec_type == AVMEDIA_TYPE_VIDEO && avcodec_find_decoder(s->codec->codec_id)) {
146                         if (s->avg_frame_rate.num > 0 && s->avg_frame_rate.den > 0) {
147                                 /* This is definitely our video stream */
148                                 _video_stream = i;
149                         } else {
150                                 /* This is our video stream if we don't get a better offer */
151                                 video_stream_undefined_frame_rate = i;
152                         }
153                 }
154         }
155
156         /* Files from iTunes sometimes have two video streams, one with the avg_frame_rate.num and .den set
157            to zero.  Only use such a stream if there is no alternative.
158         */
159         if (!_video_stream && video_stream_undefined_frame_rate) {
160                 _video_stream = video_stream_undefined_frame_rate.get();
161         }
162
163         /* Hack: if the AVStreams have duplicate IDs, replace them with our
164            own.  We use the IDs so that we can cope with VOBs, in which streams
165            move about in index but remain with the same ID in different
166            VOBs.  However, some files have duplicate IDs, hence this hack.
167         */
168
169         bool duplicates = false;
170         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
171                 for (uint32_t j = i + 1; j < _format_context->nb_streams; ++j) {
172                         if (_format_context->streams[i]->id == _format_context->streams[j]->id) {
173                                 duplicates = true;
174                         }
175                 }
176         }
177
178         if (duplicates) {
179                 /* Put in our own IDs */
180                 for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
181                         _format_context->streams[i]->id = i;
182                 }
183         }
184
185         _frame = av_frame_alloc ();
186         if (_frame == 0) {
187                 throw DecodeError (N_("could not allocate frame"));
188         }
189 }
190
191 void
192 FFmpeg::setup_decoders ()
193 {
194         boost::mutex::scoped_lock lm (_mutex);
195
196         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
197                 AVCodecContext* context = _format_context->streams[i]->codec;
198
199                 AVCodec* codec = avcodec_find_decoder (context->codec_id);
200                 if (codec) {
201
202                         AVDictionary* options = 0;
203                         /* This option disables decoding of DCA frame footers in our patched version
204                            of FFmpeg.  I believe these footers are of no use to us, and they can cause
205                            problems when FFmpeg fails to decode them (mantis #352).
206                         */
207                         av_dict_set (&options, "disable_footer", "1", 0);
208                         /* This allows decoding of some DNxHR 444 and HQX files; see
209                            https://trac.ffmpeg.org/ticket/5681
210                         */
211                         av_dict_set_int (&options, "strict", FF_COMPLIANCE_EXPERIMENTAL, 0);
212                         /* Enable following of links in files */
213                         av_dict_set_int (&options, "enable_drefs", 1, 0);
214
215                         if (avcodec_open2 (context, codec, &options) < 0) {
216                                 throw DecodeError (N_("could not open decoder"));
217                         }
218                 } else {
219                         dcpomatic_log->log (String::compose ("No codec found for stream %1", i), LogEntry::TYPE_WARNING);
220                 }
221         }
222 }
223
224 AVCodecContext *
225 FFmpeg::video_codec_context () const
226 {
227         if (!_video_stream) {
228                 return 0;
229         }
230
231         return _format_context->streams[_video_stream.get()]->codec;
232 }
233
234 AVCodecContext *
235 FFmpeg::subtitle_codec_context () const
236 {
237         if (!_ffmpeg_content->subtitle_stream ()) {
238                 return 0;
239         }
240
241         return _ffmpeg_content->subtitle_stream()->stream(_format_context)->codec;
242 }
243
244 int
245 FFmpeg::avio_read (uint8_t* buffer, int const amount)
246 {
247         return _file_group.read (buffer, amount);
248 }
249
250 int64_t
251 FFmpeg::avio_seek (int64_t const pos, int whence)
252 {
253         if (whence == AVSEEK_SIZE) {
254                 return _file_group.length ();
255         }
256
257         return _file_group.seek (pos, whence);
258 }
259
260 FFmpegSubtitlePeriod
261 FFmpeg::subtitle_period (AVSubtitle const & sub)
262 {
263         ContentTime const packet_time = ContentTime::from_seconds (static_cast<double> (sub.pts) / AV_TIME_BASE);
264
265         if (sub.end_display_time == static_cast<uint32_t> (-1)) {
266                 /* End time is not known */
267                 return FFmpegSubtitlePeriod (packet_time + ContentTime::from_seconds (sub.start_display_time / 1e3));
268         }
269
270         return FFmpegSubtitlePeriod (
271                 packet_time + ContentTime::from_seconds (sub.start_display_time / 1e3),
272                 packet_time + ContentTime::from_seconds (sub.end_display_time / 1e3)
273                 );
274 }
275
276 /** Compute the pts offset to use given a set of audio streams and some video details.
277  *  Sometimes these parameters will have just been determined by an Examiner, sometimes
278  *  they will have been retrieved from a piece of Content, hence the need for this method
279  *  in FFmpeg.
280  */
281 ContentTime
282 FFmpeg::pts_offset (vector<shared_ptr<FFmpegAudioStream> > audio_streams, optional<ContentTime> first_video, double video_frame_rate) const
283 {
284         /* Audio and video frame PTS values may not start with 0.  We want
285            to fiddle them so that:
286
287            1.  One of them starts at time 0.
288            2.  The first video PTS value ends up on a frame boundary.
289
290            Then we remove big initial gaps in PTS and we allow our
291            insertion of black frames to work.
292
293            We will do:
294              audio_pts_to_use = audio_pts_from_ffmpeg + pts_offset;
295              video_pts_to_use = video_pts_from_ffmpeg + pts_offset;
296         */
297
298         /* First, make one of them start at 0 */
299
300         ContentTime po = ContentTime::min ();
301
302         if (first_video) {
303                 po = - first_video.get ();
304         }
305
306         BOOST_FOREACH (shared_ptr<FFmpegAudioStream> i, audio_streams) {
307                 if (i->first_audio) {
308                         po = max (po, - i->first_audio.get ());
309                 }
310         }
311
312         /* If the offset is positive we would be pushing things from a -ve PTS to be played.
313            I don't think we ever want to do that, as it seems things at -ve PTS are not meant
314            to be seen (use for alignment bars etc.); see mantis #418.
315         */
316         if (po > ContentTime ()) {
317                 po = ContentTime ();
318         }
319
320         /* Now adjust so that the video pts starts on a frame */
321         if (first_video) {
322                 ContentTime const fvc = first_video.get() + po;
323                 po += fvc.ceil (video_frame_rate) - fvc;
324         }
325
326         return po;
327 }