Add decryption support.
[dcpomatic.git] / src / lib / ffmpeg.cc
1 /*
2     Copyright (C) 2013-2016 Carl Hetherington <cth@carlh.net>
3
4     This file is part of DCP-o-matic.
5
6     DCP-o-matic is free software; you can redistribute it and/or modify
7     it under the terms of the GNU General Public License as published by
8     the Free Software Foundation; either version 2 of the License, or
9     (at your option) any later version.
10
11     DCP-o-matic is distributed in the hope that it will be useful,
12     but WITHOUT ANY WARRANTY; without even the implied warranty of
13     MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
14     GNU General Public License for more details.
15
16     You should have received a copy of the GNU General Public License
17     along with DCP-o-matic.  If not, see <http://www.gnu.org/licenses/>.
18
19 */
20
21 #include "ffmpeg.h"
22 #include "ffmpeg_content.h"
23 #include "film.h"
24 #include "exceptions.h"
25 #include "util.h"
26 #include "log.h"
27 #include "ffmpeg_subtitle_stream.h"
28 #include "ffmpeg_audio_stream.h"
29 #include "digester.h"
30 #include "compose.hpp"
31 #include <dcp/raw_convert.h>
32 extern "C" {
33 #include <libavcodec/avcodec.h>
34 #include <libavformat/avformat.h>
35 #include <libswscale/swscale.h>
36 }
37 #include <boost/algorithm/string.hpp>
38 #include <boost/foreach.hpp>
39 #include <iostream>
40
41 #include "i18n.h"
42
43 using std::string;
44 using std::cout;
45 using std::cerr;
46 using std::vector;
47 using boost::shared_ptr;
48 using boost::optional;
49 using dcp::raw_convert;
50
51 boost::mutex FFmpeg::_mutex;
52 boost::weak_ptr<Log> FFmpeg::_ffmpeg_log;
53
54 FFmpeg::FFmpeg (boost::shared_ptr<const FFmpegContent> c)
55         : _ffmpeg_content (c)
56         , _avio_buffer (0)
57         , _avio_buffer_size (4096)
58         , _avio_context (0)
59         , _format_context (0)
60         , _frame (0)
61 {
62         setup_general ();
63         setup_decoders ();
64 }
65
66 FFmpeg::~FFmpeg ()
67 {
68         boost::mutex::scoped_lock lm (_mutex);
69
70         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
71                 avcodec_close (_format_context->streams[i]->codec);
72         }
73
74         av_frame_free (&_frame);
75         avformat_close_input (&_format_context);
76 }
77
78 static int
79 avio_read_wrapper (void* data, uint8_t* buffer, int amount)
80 {
81         return reinterpret_cast<FFmpeg*>(data)->avio_read (buffer, amount);
82 }
83
84 static int64_t
85 avio_seek_wrapper (void* data, int64_t offset, int whence)
86 {
87         return reinterpret_cast<FFmpeg*>(data)->avio_seek (offset, whence);
88 }
89
90 void
91 FFmpeg::ffmpeg_log_callback (void* ptr, int level, const char* fmt, va_list vl)
92 {
93         if (level > AV_LOG_WARNING) {
94                 return;
95         }
96
97         char line[1024];
98         static int prefix = 0;
99         av_log_format_line (ptr, level, fmt, vl, line, sizeof (line), &prefix);
100         shared_ptr<Log> log = _ffmpeg_log.lock ();
101         if (log) {
102                 string str (line);
103                 boost::algorithm::trim (str);
104                 log->log (String::compose ("FFmpeg: %1", str), LogEntry::TYPE_GENERAL);
105         } else {
106                 cerr << line;
107         }
108 }
109
110 void
111 FFmpeg::setup_general ()
112 {
113         /* This might not work too well in some cases of multiple FFmpeg decoders,
114            but it's probably good enough.
115         */
116         _ffmpeg_log = _ffmpeg_content->film()->log ();
117         av_log_set_callback (FFmpeg::ffmpeg_log_callback);
118
119         _file_group.set_paths (_ffmpeg_content->paths ());
120         _avio_buffer = static_cast<uint8_t*> (wrapped_av_malloc (_avio_buffer_size));
121         _avio_context = avio_alloc_context (_avio_buffer, _avio_buffer_size, 0, this, avio_read_wrapper, 0, avio_seek_wrapper);
122         _format_context = avformat_alloc_context ();
123         _format_context->pb = _avio_context;
124
125         AVDictionary* options = 0;
126         /* These durations are in microseconds, and represent how far into the content file
127            we will look for streams.
128         */
129         av_dict_set (&options, "analyzeduration", raw_convert<string> (5 * 60 * 1000000).c_str(), 0);
130         av_dict_set (&options, "probesize", raw_convert<string> (5 * 60 * 1000000).c_str(), 0);
131         if (_ffmpeg_content->decryption_key()) {
132                 av_dict_set (&options, "decryption_key", _ffmpeg_content->decryption_key()->c_str(), 0);
133         }
134
135         int e = avformat_open_input (&_format_context, 0, 0, &options);
136         if (e < 0) {
137                 throw OpenFileError (_ffmpeg_content->path(0).string(), e, true);
138         }
139
140         if (avformat_find_stream_info (_format_context, 0) < 0) {
141                 throw DecodeError (_("could not find stream information"));
142         }
143
144         /* Find video stream */
145
146         optional<int> video_stream_undefined_frame_rate;
147
148         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
149                 AVStream* s = _format_context->streams[i];
150                 if (s->codec->codec_type == AVMEDIA_TYPE_VIDEO && avcodec_find_decoder(s->codec->codec_id)) {
151                         if (s->avg_frame_rate.num > 0 && s->avg_frame_rate.den > 0) {
152                                 /* This is definitely our video stream */
153                                 _video_stream = i;
154                         } else {
155                                 /* This is our video stream if we don't get a better offer */
156                                 video_stream_undefined_frame_rate = i;
157                         }
158                 }
159         }
160
161         /* Files from iTunes sometimes have two video streams, one with the avg_frame_rate.num and .den set
162            to zero.  Only use such a stream if there is no alternative.
163         */
164         if (!_video_stream && video_stream_undefined_frame_rate) {
165                 _video_stream = video_stream_undefined_frame_rate.get();
166         }
167
168         /* Hack: if the AVStreams have duplicate IDs, replace them with our
169            own.  We use the IDs so that we can cope with VOBs, in which streams
170            move about in index but remain with the same ID in different
171            VOBs.  However, some files have duplicate IDs, hence this hack.
172         */
173
174         bool duplicates = false;
175         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
176                 for (uint32_t j = i + 1; j < _format_context->nb_streams; ++j) {
177                         if (_format_context->streams[i]->id == _format_context->streams[j]->id) {
178                                 duplicates = true;
179                         }
180                 }
181         }
182
183         if (duplicates) {
184                 /* Put in our own IDs */
185                 for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
186                         _format_context->streams[i]->id = i;
187                 }
188         }
189
190         _frame = av_frame_alloc ();
191         if (_frame == 0) {
192                 throw DecodeError (N_("could not allocate frame"));
193         }
194 }
195
196 void
197 FFmpeg::setup_decoders ()
198 {
199         boost::mutex::scoped_lock lm (_mutex);
200
201         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
202                 AVCodecContext* context = _format_context->streams[i]->codec;
203
204                 AVCodec* codec = avcodec_find_decoder (context->codec_id);
205                 if (codec) {
206
207                         AVDictionary* options = 0;
208                         /* This option disables decoding of DCA frame footers in our patched version
209                            of FFmpeg.  I believe these footers are of no use to us, and they can cause
210                            problems when FFmpeg fails to decode them (mantis #352).
211                         */
212                         av_dict_set (&options, "disable_footer", "1", 0);
213                         /* This allows decoding of some DNxHR 444 and HQX files; see
214                            https://trac.ffmpeg.org/ticket/5681
215                         */
216                         av_dict_set_int (&options, "strict", FF_COMPLIANCE_EXPERIMENTAL, 0);
217
218                         if (avcodec_open2 (context, codec, &options) < 0) {
219                                 throw DecodeError (N_("could not open decoder"));
220                         }
221                 } else {
222                         shared_ptr<Log> log = _ffmpeg_log.lock ();
223                         if (log) {
224                                 log->log (String::compose ("No codec found for stream %1", i), LogEntry::TYPE_WARNING);
225                         }
226                 }
227         }
228 }
229
230 AVCodecContext *
231 FFmpeg::video_codec_context () const
232 {
233         if (!_video_stream) {
234                 return 0;
235         }
236
237         return _format_context->streams[_video_stream.get()]->codec;
238 }
239
240 AVCodecContext *
241 FFmpeg::subtitle_codec_context () const
242 {
243         if (!_ffmpeg_content->subtitle_stream ()) {
244                 return 0;
245         }
246
247         return _ffmpeg_content->subtitle_stream()->stream(_format_context)->codec;
248 }
249
250 int
251 FFmpeg::avio_read (uint8_t* buffer, int const amount)
252 {
253         return _file_group.read (buffer, amount);
254 }
255
256 int64_t
257 FFmpeg::avio_seek (int64_t const pos, int whence)
258 {
259         if (whence == AVSEEK_SIZE) {
260                 return _file_group.length ();
261         }
262
263         return _file_group.seek (pos, whence);
264 }
265
266 FFmpegSubtitlePeriod
267 FFmpeg::subtitle_period (AVSubtitle const & sub)
268 {
269         ContentTime const packet_time = ContentTime::from_seconds (static_cast<double> (sub.pts) / AV_TIME_BASE);
270
271         if (sub.end_display_time == static_cast<uint32_t> (-1)) {
272                 /* End time is not known */
273                 return FFmpegSubtitlePeriod (packet_time + ContentTime::from_seconds (sub.start_display_time / 1e3));
274         }
275
276         return FFmpegSubtitlePeriod (
277                 packet_time + ContentTime::from_seconds (sub.start_display_time / 1e3),
278                 packet_time + ContentTime::from_seconds (sub.end_display_time / 1e3)
279                 );
280 }
281
282 /** Compute the pts offset to use given a set of audio streams and some video details.
283  *  Sometimes these parameters will have just been determined by an Examiner, sometimes
284  *  they will have been retrieved from a piece of Content, hence the need for this method
285  *  in FFmpeg.
286  */
287 ContentTime
288 FFmpeg::pts_offset (vector<shared_ptr<FFmpegAudioStream> > audio_streams, optional<ContentTime> first_video, double video_frame_rate) const
289 {
290         /* Audio and video frame PTS values may not start with 0.  We want
291            to fiddle them so that:
292
293            1.  One of them starts at time 0.
294            2.  The first video PTS value ends up on a frame boundary.
295
296            Then we remove big initial gaps in PTS and we allow our
297            insertion of black frames to work.
298
299            We will do:
300              audio_pts_to_use = audio_pts_from_ffmpeg + pts_offset;
301              video_pts_to_use = video_pts_from_ffmpeg + pts_offset;
302         */
303
304         /* First, make one of them start at 0 */
305
306         ContentTime po = ContentTime::min ();
307
308         if (first_video) {
309                 po = - first_video.get ();
310         }
311
312         BOOST_FOREACH (shared_ptr<FFmpegAudioStream> i, audio_streams) {
313                 if (i->first_audio) {
314                         po = max (po, - i->first_audio.get ());
315                 }
316         }
317
318         /* If the offset is positive we would be pushing things from a -ve PTS to be played.
319            I don't think we ever want to do that, as it seems things at -ve PTS are not meant
320            to be seen (use for alignment bars etc.); see mantis #418.
321         */
322         if (po > ContentTime ()) {
323                 po = ContentTime ();
324         }
325
326         /* Now adjust so that the video pts starts on a frame */
327         if (first_video) {
328                 ContentTime const fvc = first_video.get() + po;
329                 po += fvc.ceil (video_frame_rate) - fvc;
330         }
331
332         return po;
333 }