swaroop: basics of encrypted MP4 playback.
[dcpomatic.git] / src / lib / ffmpeg.cc
1 /*
2     Copyright (C) 2013-2019 Carl Hetherington <cth@carlh.net>
3
4     This file is part of DCP-o-matic.
5
6     DCP-o-matic is free software; you can redistribute it and/or modify
7     it under the terms of the GNU General Public License as published by
8     the Free Software Foundation; either version 2 of the License, or
9     (at your option) any later version.
10
11     DCP-o-matic is distributed in the hope that it will be useful,
12     but WITHOUT ANY WARRANTY; without even the implied warranty of
13     MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
14     GNU General Public License for more details.
15
16     You should have received a copy of the GNU General Public License
17     along with DCP-o-matic.  If not, see <http://www.gnu.org/licenses/>.
18
19 */
20
21 #include "ffmpeg.h"
22 #include "ffmpeg_content.h"
23 #include "film.h"
24 #include "exceptions.h"
25 #include "util.h"
26 #include "log.h"
27 #include "dcpomatic_log.h"
28 #include "ffmpeg_subtitle_stream.h"
29 #include "ffmpeg_audio_stream.h"
30 #include "decrypted_ecinema_kdm.h"
31 #include "digester.h"
32 #include "compose.hpp"
33 #include "config.h"
34 #include <dcp/raw_convert.h>
35 extern "C" {
36 #include <libavcodec/avcodec.h>
37 #include <libavformat/avformat.h>
38 #include <libswscale/swscale.h>
39 }
40 #include <boost/algorithm/string.hpp>
41 #include <boost/foreach.hpp>
42 #include <iostream>
43
44 #include "i18n.h"
45
46 using std::string;
47 using std::cout;
48 using std::cerr;
49 using std::vector;
50 using boost::shared_ptr;
51 using boost::optional;
52 using dcp::raw_convert;
53 using namespace dcpomatic;
54
55 boost::mutex FFmpeg::_mutex;
56
57 FFmpeg::FFmpeg (boost::shared_ptr<const FFmpegContent> c)
58         : _ffmpeg_content (c)
59         , _avio_buffer (0)
60         , _avio_buffer_size (4096)
61         , _avio_context (0)
62         , _format_context (0)
63         , _frame (0)
64 {
65         setup_general ();
66         setup_decoders ();
67 }
68
69 FFmpeg::~FFmpeg ()
70 {
71         boost::mutex::scoped_lock lm (_mutex);
72
73         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
74                 avcodec_close (_format_context->streams[i]->codec);
75         }
76
77         av_frame_free (&_frame);
78         avformat_close_input (&_format_context);
79 }
80
81 static int
82 avio_read_wrapper (void* data, uint8_t* buffer, int amount)
83 {
84         return reinterpret_cast<FFmpeg*>(data)->avio_read (buffer, amount);
85 }
86
87 static int64_t
88 avio_seek_wrapper (void* data, int64_t offset, int whence)
89 {
90         return reinterpret_cast<FFmpeg*>(data)->avio_seek (offset, whence);
91 }
92
93 void
94 FFmpeg::ffmpeg_log_callback (void* ptr, int level, const char* fmt, va_list vl)
95 {
96         if (level > AV_LOG_WARNING) {
97                 return;
98         }
99
100         char line[1024];
101         static int prefix = 0;
102         av_log_format_line (ptr, level, fmt, vl, line, sizeof (line), &prefix);
103         string str (line);
104         boost::algorithm::trim (str);
105         dcpomatic_log->log (String::compose ("FFmpeg: %1", str), LogEntry::TYPE_GENERAL);
106 }
107
108 void
109 FFmpeg::setup_general ()
110 {
111         /* This might not work too well in some cases of multiple FFmpeg decoders,
112            but it's probably good enough.
113         */
114         av_log_set_callback (FFmpeg::ffmpeg_log_callback);
115
116         _file_group.set_paths (_ffmpeg_content->paths ());
117         _avio_buffer = static_cast<uint8_t*> (wrapped_av_malloc (_avio_buffer_size));
118         _avio_context = avio_alloc_context (_avio_buffer, _avio_buffer_size, 0, this, avio_read_wrapper, 0, avio_seek_wrapper);
119         _format_context = avformat_alloc_context ();
120         _format_context->pb = _avio_context;
121
122         AVDictionary* options = 0;
123         /* These durations are in microseconds, and represent how far into the content file
124            we will look for streams.
125         */
126         av_dict_set (&options, "analyzeduration", raw_convert<string> (5 * 60 * 1000000).c_str(), 0);
127         av_dict_set (&options, "probesize", raw_convert<string> (5 * 60 * 1000000).c_str(), 0);
128         if (_ffmpeg_content->kdm()) {
129                 DecryptedECinemaKDM kdm (_ffmpeg_content->kdm().get(), Config::instance()->decryption_chain()->key().get());
130                 av_dict_set (&options, "decryption_key", kdm.key().hex().c_str(), 0);
131         }
132
133         int e = avformat_open_input (&_format_context, 0, 0, &options);
134         if (e < 0) {
135                 throw OpenFileError (_ffmpeg_content->path(0).string(), e, true);
136         }
137
138         if (avformat_find_stream_info (_format_context, 0) < 0) {
139                 throw DecodeError (_("could not find stream information"));
140         }
141
142         /* Find video stream */
143
144         optional<int> video_stream_undefined_frame_rate;
145
146         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
147                 AVStream* s = _format_context->streams[i];
148                 if (s->codec->codec_type == AVMEDIA_TYPE_VIDEO && avcodec_find_decoder(s->codec->codec_id)) {
149                         if (s->avg_frame_rate.num > 0 && s->avg_frame_rate.den > 0) {
150                                 /* This is definitely our video stream */
151                                 _video_stream = i;
152                         } else {
153                                 /* This is our video stream if we don't get a better offer */
154                                 video_stream_undefined_frame_rate = i;
155                         }
156                 }
157         }
158
159         /* Files from iTunes sometimes have two video streams, one with the avg_frame_rate.num and .den set
160            to zero.  Only use such a stream if there is no alternative.
161         */
162         if (!_video_stream && video_stream_undefined_frame_rate) {
163                 _video_stream = video_stream_undefined_frame_rate.get();
164         }
165
166         /* Hack: if the AVStreams have duplicate IDs, replace them with our
167            own.  We use the IDs so that we can cope with VOBs, in which streams
168            move about in index but remain with the same ID in different
169            VOBs.  However, some files have duplicate IDs, hence this hack.
170         */
171
172         bool duplicates = false;
173         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
174                 for (uint32_t j = i + 1; j < _format_context->nb_streams; ++j) {
175                         if (_format_context->streams[i]->id == _format_context->streams[j]->id) {
176                                 duplicates = true;
177                         }
178                 }
179         }
180
181         if (duplicates) {
182                 /* Put in our own IDs */
183                 for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
184                         _format_context->streams[i]->id = i;
185                 }
186         }
187
188         _frame = av_frame_alloc ();
189         if (_frame == 0) {
190                 throw DecodeError (N_("could not allocate frame"));
191         }
192 }
193
194 void
195 FFmpeg::setup_decoders ()
196 {
197         boost::mutex::scoped_lock lm (_mutex);
198
199         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
200                 AVCodecContext* context = _format_context->streams[i]->codec;
201
202                 AVCodec* codec = avcodec_find_decoder (context->codec_id);
203                 if (codec) {
204
205                         AVDictionary* options = 0;
206                         /* This option disables decoding of DCA frame footers in our patched version
207                            of FFmpeg.  I believe these footers are of no use to us, and they can cause
208                            problems when FFmpeg fails to decode them (mantis #352).
209                         */
210                         av_dict_set (&options, "disable_footer", "1", 0);
211                         /* This allows decoding of some DNxHR 444 and HQX files; see
212                            https://trac.ffmpeg.org/ticket/5681
213                         */
214                         av_dict_set_int (&options, "strict", FF_COMPLIANCE_EXPERIMENTAL, 0);
215                         /* Enable following of links in files */
216                         av_dict_set_int (&options, "enable_drefs", 1, 0);
217
218                         if (avcodec_open2 (context, codec, &options) < 0) {
219                                 throw DecodeError (N_("could not open decoder"));
220                         }
221                 } else {
222                         dcpomatic_log->log (String::compose ("No codec found for stream %1", i), LogEntry::TYPE_WARNING);
223                 }
224         }
225 }
226
227 AVCodecContext *
228 FFmpeg::video_codec_context () const
229 {
230         if (!_video_stream) {
231                 return 0;
232         }
233
234         return _format_context->streams[_video_stream.get()]->codec;
235 }
236
237 AVCodecContext *
238 FFmpeg::subtitle_codec_context () const
239 {
240         if (!_ffmpeg_content->subtitle_stream ()) {
241                 return 0;
242         }
243
244         return _ffmpeg_content->subtitle_stream()->stream(_format_context)->codec;
245 }
246
247 int
248 FFmpeg::avio_read (uint8_t* buffer, int const amount)
249 {
250         return _file_group.read (buffer, amount);
251 }
252
253 int64_t
254 FFmpeg::avio_seek (int64_t const pos, int whence)
255 {
256         if (whence == AVSEEK_SIZE) {
257                 return _file_group.length ();
258         }
259
260         return _file_group.seek (pos, whence);
261 }
262
263 FFmpegSubtitlePeriod
264 FFmpeg::subtitle_period (AVSubtitle const & sub)
265 {
266         ContentTime const packet_time = ContentTime::from_seconds (static_cast<double> (sub.pts) / AV_TIME_BASE);
267
268         if (sub.end_display_time == static_cast<uint32_t> (-1)) {
269                 /* End time is not known */
270                 return FFmpegSubtitlePeriod (packet_time + ContentTime::from_seconds (sub.start_display_time / 1e3));
271         }
272
273         return FFmpegSubtitlePeriod (
274                 packet_time + ContentTime::from_seconds (sub.start_display_time / 1e3),
275                 packet_time + ContentTime::from_seconds (sub.end_display_time / 1e3)
276                 );
277 }
278
279 /** Compute the pts offset to use given a set of audio streams and some video details.
280  *  Sometimes these parameters will have just been determined by an Examiner, sometimes
281  *  they will have been retrieved from a piece of Content, hence the need for this method
282  *  in FFmpeg.
283  */
284 ContentTime
285 FFmpeg::pts_offset (vector<shared_ptr<FFmpegAudioStream> > audio_streams, optional<ContentTime> first_video, double video_frame_rate) const
286 {
287         /* Audio and video frame PTS values may not start with 0.  We want
288            to fiddle them so that:
289
290            1.  One of them starts at time 0.
291            2.  The first video PTS value ends up on a frame boundary.
292
293            Then we remove big initial gaps in PTS and we allow our
294            insertion of black frames to work.
295
296            We will do:
297              audio_pts_to_use = audio_pts_from_ffmpeg + pts_offset;
298              video_pts_to_use = video_pts_from_ffmpeg + pts_offset;
299         */
300
301         /* First, make one of them start at 0 */
302
303         ContentTime po = ContentTime::min ();
304
305         if (first_video) {
306                 po = - first_video.get ();
307         }
308
309         BOOST_FOREACH (shared_ptr<FFmpegAudioStream> i, audio_streams) {
310                 if (i->first_audio) {
311                         po = max (po, - i->first_audio.get ());
312                 }
313         }
314
315         /* If the offset is positive we would be pushing things from a -ve PTS to be played.
316            I don't think we ever want to do that, as it seems things at -ve PTS are not meant
317            to be seen (use for alignment bars etc.); see mantis #418.
318         */
319         if (po > ContentTime ()) {
320                 po = ContentTime ();
321         }
322
323         /* Now adjust so that the video pts starts on a frame */
324         if (first_video) {
325                 ContentTime const fvc = first_video.get() + po;
326                 po += fvc.ceil (video_frame_rate) - fvc;
327         }
328
329         return po;
330 }