std::shared_ptr
[dcpomatic.git] / src / lib / ffmpeg.cc
1 /*
2     Copyright (C) 2013-2019 Carl Hetherington <cth@carlh.net>
3
4     This file is part of DCP-o-matic.
5
6     DCP-o-matic is free software; you can redistribute it and/or modify
7     it under the terms of the GNU General Public License as published by
8     the Free Software Foundation; either version 2 of the License, or
9     (at your option) any later version.
10
11     DCP-o-matic is distributed in the hope that it will be useful,
12     but WITHOUT ANY WARRANTY; without even the implied warranty of
13     MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
14     GNU General Public License for more details.
15
16     You should have received a copy of the GNU General Public License
17     along with DCP-o-matic.  If not, see <http://www.gnu.org/licenses/>.
18
19 */
20
21 #include "ffmpeg.h"
22 #include "ffmpeg_content.h"
23 #include "film.h"
24 #include "exceptions.h"
25 #include "util.h"
26 #include "log.h"
27 #include "dcpomatic_log.h"
28 #include "ffmpeg_subtitle_stream.h"
29 #include "ffmpeg_audio_stream.h"
30 #include "digester.h"
31 #include "compose.hpp"
32 #include "config.h"
33 #include <dcp/raw_convert.h>
34 extern "C" {
35 #include <libavcodec/avcodec.h>
36 #include <libavformat/avformat.h>
37 #include <libswscale/swscale.h>
38 }
39 #include <boost/algorithm/string.hpp>
40 #include <boost/foreach.hpp>
41 #include <iostream>
42
43 #include "i18n.h"
44
45 using std::string;
46 using std::cout;
47 using std::cerr;
48 using std::vector;
49 using std::shared_ptr;
50 using boost::optional;
51 using dcp::raw_convert;
52 using namespace dcpomatic;
53
54 boost::mutex FFmpeg::_mutex;
55
56 FFmpeg::FFmpeg (std::shared_ptr<const FFmpegContent> c)
57         : _ffmpeg_content (c)
58         , _avio_buffer (0)
59         , _avio_buffer_size (4096)
60         , _avio_context (0)
61         , _format_context (0)
62         , _frame (0)
63 {
64         setup_general ();
65         setup_decoders ();
66 }
67
68 FFmpeg::~FFmpeg ()
69 {
70         boost::mutex::scoped_lock lm (_mutex);
71
72 DCPOMATIC_DISABLE_WARNINGS
73         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
74                 avcodec_close (_format_context->streams[i]->codec);
75         }
76 DCPOMATIC_ENABLE_WARNINGS
77
78         av_frame_free (&_frame);
79         avformat_close_input (&_format_context);
80 }
81
82 static int
83 avio_read_wrapper (void* data, uint8_t* buffer, int amount)
84 {
85         return reinterpret_cast<FFmpeg*>(data)->avio_read (buffer, amount);
86 }
87
88 static int64_t
89 avio_seek_wrapper (void* data, int64_t offset, int whence)
90 {
91         return reinterpret_cast<FFmpeg*>(data)->avio_seek (offset, whence);
92 }
93
94 void
95 FFmpeg::ffmpeg_log_callback (void* ptr, int level, const char* fmt, va_list vl)
96 {
97         if (level > AV_LOG_WARNING) {
98                 return;
99         }
100
101         char line[1024];
102         static int prefix = 0;
103         av_log_format_line (ptr, level, fmt, vl, line, sizeof (line), &prefix);
104         string str (line);
105         boost::algorithm::trim (str);
106         dcpomatic_log->log (String::compose ("FFmpeg: %1", str), LogEntry::TYPE_GENERAL);
107 }
108
109 void
110 FFmpeg::setup_general ()
111 {
112         /* This might not work too well in some cases of multiple FFmpeg decoders,
113            but it's probably good enough.
114         */
115         av_log_set_callback (FFmpeg::ffmpeg_log_callback);
116
117         _file_group.set_paths (_ffmpeg_content->paths ());
118         _avio_buffer = static_cast<uint8_t*> (wrapped_av_malloc (_avio_buffer_size));
119         _avio_context = avio_alloc_context (_avio_buffer, _avio_buffer_size, 0, this, avio_read_wrapper, 0, avio_seek_wrapper);
120         if (!_avio_context) {
121                 throw std::bad_alloc ();
122         }
123         _format_context = avformat_alloc_context ();
124         if (!_format_context) {
125                 throw std::bad_alloc ();
126         }
127         _format_context->pb = _avio_context;
128
129         AVDictionary* options = 0;
130         int e = avformat_open_input (&_format_context, 0, 0, &options);
131         if (e < 0) {
132                 throw OpenFileError (_ffmpeg_content->path(0).string(), e, OpenFileError::READ);
133         }
134
135         if (avformat_find_stream_info (_format_context, 0) < 0) {
136                 throw DecodeError (_("could not find stream information"));
137         }
138
139         /* Find video stream */
140
141         optional<int> video_stream_undefined_frame_rate;
142
143 DCPOMATIC_DISABLE_WARNINGS
144         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
145                 AVStream* s = _format_context->streams[i];
146                 if (s->codec->codec_type == AVMEDIA_TYPE_VIDEO && avcodec_find_decoder(s->codec->codec_id)) {
147                         if (s->avg_frame_rate.num > 0 && s->avg_frame_rate.den > 0) {
148                                 /* This is definitely our video stream */
149                                 _video_stream = i;
150                         } else {
151                                 /* This is our video stream if we don't get a better offer */
152                                 video_stream_undefined_frame_rate = i;
153                         }
154                 }
155         }
156 DCPOMATIC_ENABLE_WARNINGS
157
158         /* Files from iTunes sometimes have two video streams, one with the avg_frame_rate.num and .den set
159            to zero.  Only use such a stream if there is no alternative.
160         */
161         if (!_video_stream && video_stream_undefined_frame_rate) {
162                 _video_stream = video_stream_undefined_frame_rate.get();
163         }
164
165         /* Ignore video streams with crazy frame rates.  These are usually things like album art on MP3s. */
166         if (_video_stream && av_q2d(av_guess_frame_rate(_format_context, _format_context->streams[_video_stream.get()], 0)) > 1000) {
167                 _video_stream = optional<int>();
168         }
169
170         /* Hack: if the AVStreams have duplicate IDs, replace them with our
171            own.  We use the IDs so that we can cope with VOBs, in which streams
172            move about in index but remain with the same ID in different
173            VOBs.  However, some files have duplicate IDs, hence this hack.
174         */
175
176         bool duplicates = false;
177         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
178                 for (uint32_t j = i + 1; j < _format_context->nb_streams; ++j) {
179                         if (_format_context->streams[i]->id == _format_context->streams[j]->id) {
180                                 duplicates = true;
181                         }
182                 }
183         }
184
185         if (duplicates) {
186                 /* Put in our own IDs */
187                 for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
188                         _format_context->streams[i]->id = i;
189                 }
190         }
191
192         _frame = av_frame_alloc ();
193         if (_frame == 0) {
194                 throw DecodeError (N_("could not allocate frame"));
195         }
196 }
197
198 void
199 FFmpeg::setup_decoders ()
200 {
201         boost::mutex::scoped_lock lm (_mutex);
202
203 DCPOMATIC_DISABLE_WARNINGS
204         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
205                 AVCodecContext* context = _format_context->streams[i]->codec;
206
207                 AVCodec* codec = avcodec_find_decoder (context->codec_id);
208                 if (codec) {
209
210                         AVDictionary* options = 0;
211                         /* This option disables decoding of DCA frame footers in our patched version
212                            of FFmpeg.  I believe these footers are of no use to us, and they can cause
213                            problems when FFmpeg fails to decode them (mantis #352).
214                         */
215                         av_dict_set (&options, "disable_footer", "1", 0);
216                         /* This allows decoding of some DNxHR 444 and HQX files; see
217                            https://trac.ffmpeg.org/ticket/5681
218                         */
219                         av_dict_set_int (&options, "strict", FF_COMPLIANCE_EXPERIMENTAL, 0);
220                         /* Enable following of links in files */
221                         av_dict_set_int (&options, "enable_drefs", 1, 0);
222
223                         if (avcodec_open2 (context, codec, &options) < 0) {
224                                 throw DecodeError (N_("could not open decoder"));
225                         }
226                 } else {
227                         dcpomatic_log->log (String::compose ("No codec found for stream %1", i), LogEntry::TYPE_WARNING);
228                 }
229         }
230 DCPOMATIC_ENABLE_WARNINGS
231 }
232
233 DCPOMATIC_DISABLE_WARNINGS
234 AVCodecContext *
235 FFmpeg::video_codec_context () const
236 {
237         if (!_video_stream) {
238                 return 0;
239         }
240
241         return _format_context->streams[_video_stream.get()]->codec;
242 }
243
244 AVCodecContext *
245 FFmpeg::subtitle_codec_context () const
246 {
247         if (!_ffmpeg_content->subtitle_stream ()) {
248                 return 0;
249         }
250
251         return _ffmpeg_content->subtitle_stream()->stream(_format_context)->codec;
252 }
253 DCPOMATIC_ENABLE_WARNINGS
254
255 int
256 FFmpeg::avio_read (uint8_t* buffer, int const amount)
257 {
258         return _file_group.read (buffer, amount);
259 }
260
261 int64_t
262 FFmpeg::avio_seek (int64_t const pos, int whence)
263 {
264         if (whence == AVSEEK_SIZE) {
265                 return _file_group.length ();
266         }
267
268         return _file_group.seek (pos, whence);
269 }
270
271 FFmpegSubtitlePeriod
272 FFmpeg::subtitle_period (AVSubtitle const & sub)
273 {
274         ContentTime const packet_time = ContentTime::from_seconds (static_cast<double> (sub.pts) / AV_TIME_BASE);
275
276         if (sub.end_display_time == static_cast<uint32_t> (-1)) {
277                 /* End time is not known */
278                 return FFmpegSubtitlePeriod (packet_time + ContentTime::from_seconds (sub.start_display_time / 1e3));
279         }
280
281         return FFmpegSubtitlePeriod (
282                 packet_time + ContentTime::from_seconds (sub.start_display_time / 1e3),
283                 packet_time + ContentTime::from_seconds (sub.end_display_time / 1e3)
284                 );
285 }
286
287 /** Compute the pts offset to use given a set of audio streams and some video details.
288  *  Sometimes these parameters will have just been determined by an Examiner, sometimes
289  *  they will have been retrieved from a piece of Content, hence the need for this method
290  *  in FFmpeg.
291  */
292 ContentTime
293 FFmpeg::pts_offset (vector<shared_ptr<FFmpegAudioStream> > audio_streams, optional<ContentTime> first_video, double video_frame_rate) const
294 {
295         /* Audio and video frame PTS values may not start with 0.  We want
296            to fiddle them so that:
297
298            1.  One of them starts at time 0.
299            2.  The first video PTS value ends up on a frame boundary.
300
301            Then we remove big initial gaps in PTS and we allow our
302            insertion of black frames to work.
303
304            We will do:
305              audio_pts_to_use = audio_pts_from_ffmpeg + pts_offset;
306              video_pts_to_use = video_pts_from_ffmpeg + pts_offset;
307         */
308
309         /* First, make one of them start at 0 */
310
311         ContentTime po = ContentTime::min ();
312
313         if (first_video) {
314                 po = - first_video.get ();
315         }
316
317         BOOST_FOREACH (shared_ptr<FFmpegAudioStream> i, audio_streams) {
318                 if (i->first_audio) {
319                         po = max (po, - i->first_audio.get ());
320                 }
321         }
322
323         /* If the offset is positive we would be pushing things from a -ve PTS to be played.
324            I don't think we ever want to do that, as it seems things at -ve PTS are not meant
325            to be seen (use for alignment bars etc.); see mantis #418.
326         */
327         if (po > ContentTime ()) {
328                 po = ContentTime ();
329         }
330
331         /* Now adjust so that the video pts starts on a frame */
332         if (first_video) {
333                 ContentTime const fvc = first_video.get() + po;
334                 po += fvc.ceil (video_frame_rate) - fvc;
335         }
336
337         return po;
338 }