BOOST_FOREACH.
[dcpomatic.git] / src / lib / ffmpeg.cc
1 /*
2     Copyright (C) 2013-2019 Carl Hetherington <cth@carlh.net>
3
4     This file is part of DCP-o-matic.
5
6     DCP-o-matic is free software; you can redistribute it and/or modify
7     it under the terms of the GNU General Public License as published by
8     the Free Software Foundation; either version 2 of the License, or
9     (at your option) any later version.
10
11     DCP-o-matic is distributed in the hope that it will be useful,
12     but WITHOUT ANY WARRANTY; without even the implied warranty of
13     MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
14     GNU General Public License for more details.
15
16     You should have received a copy of the GNU General Public License
17     along with DCP-o-matic.  If not, see <http://www.gnu.org/licenses/>.
18
19 */
20
21 #include "ffmpeg.h"
22 #include "ffmpeg_content.h"
23 #include "film.h"
24 #include "exceptions.h"
25 #include "util.h"
26 #include "log.h"
27 #include "dcpomatic_log.h"
28 #include "ffmpeg_subtitle_stream.h"
29 #include "ffmpeg_audio_stream.h"
30 #include "digester.h"
31 #include "compose.hpp"
32 #include "config.h"
33 #include <dcp/raw_convert.h>
34 extern "C" {
35 #include <libavcodec/avcodec.h>
36 #include <libavformat/avformat.h>
37 #include <libswscale/swscale.h>
38 }
39 #include <boost/algorithm/string.hpp>
40 #include <iostream>
41
42 #include "i18n.h"
43
44 using std::string;
45 using std::cout;
46 using std::cerr;
47 using std::vector;
48 using std::shared_ptr;
49 using boost::optional;
50 using dcp::raw_convert;
51 using namespace dcpomatic;
52
53 boost::mutex FFmpeg::_mutex;
54
55 FFmpeg::FFmpeg (std::shared_ptr<const FFmpegContent> c)
56         : _ffmpeg_content (c)
57         , _avio_buffer (0)
58         , _avio_buffer_size (4096)
59         , _avio_context (0)
60         , _format_context (0)
61         , _frame (0)
62 {
63         setup_general ();
64         setup_decoders ();
65 }
66
67 FFmpeg::~FFmpeg ()
68 {
69         boost::mutex::scoped_lock lm (_mutex);
70
71 DCPOMATIC_DISABLE_WARNINGS
72         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
73                 avcodec_close (_format_context->streams[i]->codec);
74         }
75 DCPOMATIC_ENABLE_WARNINGS
76
77         av_frame_free (&_frame);
78         avformat_close_input (&_format_context);
79 }
80
81 static int
82 avio_read_wrapper (void* data, uint8_t* buffer, int amount)
83 {
84         return reinterpret_cast<FFmpeg*>(data)->avio_read (buffer, amount);
85 }
86
87 static int64_t
88 avio_seek_wrapper (void* data, int64_t offset, int whence)
89 {
90         return reinterpret_cast<FFmpeg*>(data)->avio_seek (offset, whence);
91 }
92
93 void
94 FFmpeg::ffmpeg_log_callback (void* ptr, int level, const char* fmt, va_list vl)
95 {
96         if (level > AV_LOG_WARNING) {
97                 return;
98         }
99
100         char line[1024];
101         static int prefix = 0;
102         av_log_format_line (ptr, level, fmt, vl, line, sizeof (line), &prefix);
103         string str (line);
104         boost::algorithm::trim (str);
105         dcpomatic_log->log (String::compose ("FFmpeg: %1", str), LogEntry::TYPE_GENERAL);
106 }
107
108 void
109 FFmpeg::setup_general ()
110 {
111         /* This might not work too well in some cases of multiple FFmpeg decoders,
112            but it's probably good enough.
113         */
114         av_log_set_callback (FFmpeg::ffmpeg_log_callback);
115
116         _file_group.set_paths (_ffmpeg_content->paths ());
117         _avio_buffer = static_cast<uint8_t*> (wrapped_av_malloc (_avio_buffer_size));
118         _avio_context = avio_alloc_context (_avio_buffer, _avio_buffer_size, 0, this, avio_read_wrapper, 0, avio_seek_wrapper);
119         if (!_avio_context) {
120                 throw std::bad_alloc ();
121         }
122         _format_context = avformat_alloc_context ();
123         if (!_format_context) {
124                 throw std::bad_alloc ();
125         }
126         _format_context->pb = _avio_context;
127
128         AVDictionary* options = 0;
129         int e = avformat_open_input (&_format_context, 0, 0, &options);
130         if (e < 0) {
131                 throw OpenFileError (_ffmpeg_content->path(0).string(), e, OpenFileError::READ);
132         }
133
134         if (avformat_find_stream_info (_format_context, 0) < 0) {
135                 throw DecodeError (_("could not find stream information"));
136         }
137
138         /* Find video stream */
139
140         optional<int> video_stream_undefined_frame_rate;
141
142 DCPOMATIC_DISABLE_WARNINGS
143         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
144                 AVStream* s = _format_context->streams[i];
145                 if (s->codec->codec_type == AVMEDIA_TYPE_VIDEO && avcodec_find_decoder(s->codec->codec_id)) {
146                         if (s->avg_frame_rate.num > 0 && s->avg_frame_rate.den > 0) {
147                                 /* This is definitely our video stream */
148                                 _video_stream = i;
149                         } else {
150                                 /* This is our video stream if we don't get a better offer */
151                                 video_stream_undefined_frame_rate = i;
152                         }
153                 }
154         }
155 DCPOMATIC_ENABLE_WARNINGS
156
157         /* Files from iTunes sometimes have two video streams, one with the avg_frame_rate.num and .den set
158            to zero.  Only use such a stream if there is no alternative.
159         */
160         if (!_video_stream && video_stream_undefined_frame_rate) {
161                 _video_stream = video_stream_undefined_frame_rate.get();
162         }
163
164         /* Ignore video streams with crazy frame rates.  These are usually things like album art on MP3s. */
165         if (_video_stream && av_q2d(av_guess_frame_rate(_format_context, _format_context->streams[_video_stream.get()], 0)) > 1000) {
166                 _video_stream = optional<int>();
167         }
168
169         /* Hack: if the AVStreams have duplicate IDs, replace them with our
170            own.  We use the IDs so that we can cope with VOBs, in which streams
171            move about in index but remain with the same ID in different
172            VOBs.  However, some files have duplicate IDs, hence this hack.
173         */
174
175         bool duplicates = false;
176         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
177                 for (uint32_t j = i + 1; j < _format_context->nb_streams; ++j) {
178                         if (_format_context->streams[i]->id == _format_context->streams[j]->id) {
179                                 duplicates = true;
180                         }
181                 }
182         }
183
184         if (duplicates) {
185                 /* Put in our own IDs */
186                 for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
187                         _format_context->streams[i]->id = i;
188                 }
189         }
190
191         _frame = av_frame_alloc ();
192         if (_frame == 0) {
193                 throw DecodeError (N_("could not allocate frame"));
194         }
195 }
196
197 void
198 FFmpeg::setup_decoders ()
199 {
200         boost::mutex::scoped_lock lm (_mutex);
201
202 DCPOMATIC_DISABLE_WARNINGS
203         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
204                 AVCodecContext* context = _format_context->streams[i]->codec;
205
206                 AVCodec* codec = avcodec_find_decoder (context->codec_id);
207                 if (codec) {
208
209                         AVDictionary* options = 0;
210                         /* This option disables decoding of DCA frame footers in our patched version
211                            of FFmpeg.  I believe these footers are of no use to us, and they can cause
212                            problems when FFmpeg fails to decode them (mantis #352).
213                         */
214                         av_dict_set (&options, "disable_footer", "1", 0);
215                         /* This allows decoding of some DNxHR 444 and HQX files; see
216                            https://trac.ffmpeg.org/ticket/5681
217                         */
218                         av_dict_set_int (&options, "strict", FF_COMPLIANCE_EXPERIMENTAL, 0);
219                         /* Enable following of links in files */
220                         av_dict_set_int (&options, "enable_drefs", 1, 0);
221
222                         if (avcodec_open2 (context, codec, &options) < 0) {
223                                 throw DecodeError (N_("could not open decoder"));
224                         }
225                 } else {
226                         dcpomatic_log->log (String::compose ("No codec found for stream %1", i), LogEntry::TYPE_WARNING);
227                 }
228         }
229 DCPOMATIC_ENABLE_WARNINGS
230 }
231
232 DCPOMATIC_DISABLE_WARNINGS
233 AVCodecContext *
234 FFmpeg::video_codec_context () const
235 {
236         if (!_video_stream) {
237                 return 0;
238         }
239
240         return _format_context->streams[_video_stream.get()]->codec;
241 }
242
243 AVCodecContext *
244 FFmpeg::subtitle_codec_context () const
245 {
246         if (!_ffmpeg_content->subtitle_stream ()) {
247                 return 0;
248         }
249
250         return _ffmpeg_content->subtitle_stream()->stream(_format_context)->codec;
251 }
252 DCPOMATIC_ENABLE_WARNINGS
253
254 int
255 FFmpeg::avio_read (uint8_t* buffer, int const amount)
256 {
257         return _file_group.read (buffer, amount);
258 }
259
260 int64_t
261 FFmpeg::avio_seek (int64_t const pos, int whence)
262 {
263         if (whence == AVSEEK_SIZE) {
264                 return _file_group.length ();
265         }
266
267         return _file_group.seek (pos, whence);
268 }
269
270 FFmpegSubtitlePeriod
271 FFmpeg::subtitle_period (AVSubtitle const & sub)
272 {
273         ContentTime const packet_time = ContentTime::from_seconds (static_cast<double> (sub.pts) / AV_TIME_BASE);
274
275         if (sub.end_display_time == static_cast<uint32_t> (-1)) {
276                 /* End time is not known */
277                 return FFmpegSubtitlePeriod (packet_time + ContentTime::from_seconds (sub.start_display_time / 1e3));
278         }
279
280         return FFmpegSubtitlePeriod (
281                 packet_time + ContentTime::from_seconds (sub.start_display_time / 1e3),
282                 packet_time + ContentTime::from_seconds (sub.end_display_time / 1e3)
283                 );
284 }
285
286 /** Compute the pts offset to use given a set of audio streams and some video details.
287  *  Sometimes these parameters will have just been determined by an Examiner, sometimes
288  *  they will have been retrieved from a piece of Content, hence the need for this method
289  *  in FFmpeg.
290  */
291 ContentTime
292 FFmpeg::pts_offset (vector<shared_ptr<FFmpegAudioStream> > audio_streams, optional<ContentTime> first_video, double video_frame_rate) const
293 {
294         /* Audio and video frame PTS values may not start with 0.  We want
295            to fiddle them so that:
296
297            1.  One of them starts at time 0.
298            2.  The first video PTS value ends up on a frame boundary.
299
300            Then we remove big initial gaps in PTS and we allow our
301            insertion of black frames to work.
302
303            We will do:
304              audio_pts_to_use = audio_pts_from_ffmpeg + pts_offset;
305              video_pts_to_use = video_pts_from_ffmpeg + pts_offset;
306         */
307
308         /* First, make one of them start at 0 */
309
310         ContentTime po = ContentTime::min ();
311
312         if (first_video) {
313                 po = - first_video.get ();
314         }
315
316         for (auto i: audio_streams) {
317                 if (i->first_audio) {
318                         po = max (po, - i->first_audio.get ());
319                 }
320         }
321
322         /* If the offset is positive we would be pushing things from a -ve PTS to be played.
323            I don't think we ever want to do that, as it seems things at -ve PTS are not meant
324            to be seen (use for alignment bars etc.); see mantis #418.
325         */
326         if (po > ContentTime ()) {
327                 po = ContentTime ();
328         }
329
330         /* Now adjust so that the video pts starts on a frame */
331         if (first_video) {
332                 ContentTime const fvc = first_video.get() + po;
333                 po += fvc.ceil (video_frame_rate) - fvc;
334         }
335
336         return po;
337 }