Switch decoding to ffmpeg send/receive API.
[dcpomatic.git] / src / lib / ffmpeg.cc
1 /*
2     Copyright (C) 2013-2021 Carl Hetherington <cth@carlh.net>
3
4     This file is part of DCP-o-matic.
5
6     DCP-o-matic is free software; you can redistribute it and/or modify
7     it under the terms of the GNU General Public License as published by
8     the Free Software Foundation; either version 2 of the License, or
9     (at your option) any later version.
10
11     DCP-o-matic is distributed in the hope that it will be useful,
12     but WITHOUT ANY WARRANTY; without even the implied warranty of
13     MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
14     GNU General Public License for more details.
15
16     You should have received a copy of the GNU General Public License
17     along with DCP-o-matic.  If not, see <http://www.gnu.org/licenses/>.
18
19 */
20
21
22 #include "ffmpeg.h"
23 #include "ffmpeg_content.h"
24 #include "film.h"
25 #include "exceptions.h"
26 #include "util.h"
27 #include "log.h"
28 #include "dcpomatic_log.h"
29 #include "ffmpeg_subtitle_stream.h"
30 #include "ffmpeg_audio_stream.h"
31 #include "digester.h"
32 #include "compose.hpp"
33 #include "config.h"
34 #include <dcp/raw_convert.h>
35 extern "C" {
36 #include <libavcodec/avcodec.h>
37 #include <libavformat/avformat.h>
38 #include <libswscale/swscale.h>
39 }
40 #include <boost/algorithm/string.hpp>
41 #include <iostream>
42
43 #include "i18n.h"
44
45
46 using std::string;
47 using std::cout;
48 using std::cerr;
49 using std::vector;
50 using std::shared_ptr;
51 using boost::optional;
52 using dcp::raw_convert;
53 using namespace dcpomatic;
54
55
56 boost::mutex FFmpeg::_mutex;
57
58
59 FFmpeg::FFmpeg (std::shared_ptr<const FFmpegContent> c)
60         : _ffmpeg_content (c)
61 {
62         setup_general ();
63         setup_decoders ();
64 }
65
66
67 FFmpeg::~FFmpeg ()
68 {
69         boost::mutex::scoped_lock lm (_mutex);
70
71         for (auto& i: _codec_context) {
72                 avcodec_free_context (&i);
73         }
74
75         av_frame_free (&_frame);
76         avformat_close_input (&_format_context);
77 }
78
79
80 static int
81 avio_read_wrapper (void* data, uint8_t* buffer, int amount)
82 {
83         return reinterpret_cast<FFmpeg*>(data)->avio_read (buffer, amount);
84 }
85
86
87 static int64_t
88 avio_seek_wrapper (void* data, int64_t offset, int whence)
89 {
90         return reinterpret_cast<FFmpeg*>(data)->avio_seek (offset, whence);
91 }
92
93
94 void
95 FFmpeg::ffmpeg_log_callback (void* ptr, int level, const char* fmt, va_list vl)
96 {
97         if (level > AV_LOG_WARNING) {
98                 return;
99         }
100
101         char line[1024];
102         static int prefix = 0;
103         av_log_format_line (ptr, level, fmt, vl, line, sizeof (line), &prefix);
104         string str (line);
105         boost::algorithm::trim (str);
106         dcpomatic_log->log (String::compose ("FFmpeg: %1", str), LogEntry::TYPE_GENERAL);
107 }
108
109
110 void
111 FFmpeg::setup_general ()
112 {
113         /* This might not work too well in some cases of multiple FFmpeg decoders,
114            but it's probably good enough.
115         */
116         av_log_set_callback (FFmpeg::ffmpeg_log_callback);
117
118         _file_group.set_paths (_ffmpeg_content->paths ());
119         _avio_buffer = static_cast<uint8_t*> (wrapped_av_malloc(_avio_buffer_size));
120         _avio_context = avio_alloc_context (_avio_buffer, _avio_buffer_size, 0, this, avio_read_wrapper, 0, avio_seek_wrapper);
121         if (!_avio_context) {
122                 throw std::bad_alloc ();
123         }
124         _format_context = avformat_alloc_context ();
125         if (!_format_context) {
126                 throw std::bad_alloc ();
127         }
128         _format_context->pb = _avio_context;
129
130         AVDictionary* options = nullptr;
131         int e = avformat_open_input (&_format_context, 0, 0, &options);
132         if (e < 0) {
133                 throw OpenFileError (_ffmpeg_content->path(0).string(), e, OpenFileError::READ);
134         }
135
136         if (avformat_find_stream_info (_format_context, 0) < 0) {
137                 throw DecodeError (_("could not find stream information"));
138         }
139
140         /* Find video stream */
141
142         optional<int> video_stream_undefined_frame_rate;
143
144         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
145                 auto s = _format_context->streams[i];
146                 if (s->codecpar->codec_type == AVMEDIA_TYPE_VIDEO && avcodec_find_decoder(s->codecpar->codec_id)) {
147                         if (s->avg_frame_rate.num > 0 && s->avg_frame_rate.den > 0) {
148                                 /* This is definitely our video stream */
149                                 _video_stream = i;
150                         } else {
151                                 /* This is our video stream if we don't get a better offer */
152                                 video_stream_undefined_frame_rate = i;
153                         }
154                 }
155         }
156
157         /* Files from iTunes sometimes have two video streams, one with the avg_frame_rate.num and .den set
158            to zero.  Only use such a stream if there is no alternative.
159         */
160         if (!_video_stream && video_stream_undefined_frame_rate) {
161                 _video_stream = video_stream_undefined_frame_rate.get();
162         }
163
164         /* Ignore video streams with crazy frame rates.  These are usually things like album art on MP3s. */
165         if (_video_stream && av_q2d(av_guess_frame_rate(_format_context, _format_context->streams[_video_stream.get()], 0)) > 1000) {
166                 _video_stream = optional<int>();
167         }
168
169         /* Hack: if the AVStreams have duplicate IDs, replace them with our
170            own.  We use the IDs so that we can cope with VOBs, in which streams
171            move about in index but remain with the same ID in different
172            VOBs.  However, some files have duplicate IDs, hence this hack.
173         */
174
175         bool duplicates = false;
176         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
177                 for (uint32_t j = i + 1; j < _format_context->nb_streams; ++j) {
178                         if (_format_context->streams[i]->id == _format_context->streams[j]->id) {
179                                 duplicates = true;
180                         }
181                 }
182         }
183
184         if (duplicates) {
185                 /* Put in our own IDs */
186                 for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
187                         _format_context->streams[i]->id = i;
188                 }
189         }
190
191         _frame = av_frame_alloc ();
192         if (_frame == 0) {
193                 throw std::bad_alloc ();
194         }
195 }
196
197
198 void
199 FFmpeg::setup_decoders ()
200 {
201         boost::mutex::scoped_lock lm (_mutex);
202
203         _codec_context.resize (_format_context->nb_streams);
204         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
205                 auto codec = avcodec_find_decoder (_format_context->streams[i]->codecpar->codec_id);
206                 if (codec) {
207                         auto context = avcodec_alloc_context3 (codec);
208                         if (!context) {
209                                 throw std::bad_alloc ();
210                         }
211                         _codec_context[i] = context;
212
213                         int r = avcodec_parameters_to_context (context, _format_context->streams[i]->codecpar);
214                         if (r < 0) {
215                                 throw DecodeError ("avcodec_parameters_to_context", "FFmpeg::setup_decoders", r);
216                         }
217
218                         context->thread_count = 8;
219                         context->thread_type = FF_THREAD_FRAME | FF_THREAD_SLICE;
220
221                         AVDictionary* options = nullptr;
222                         /* This option disables decoding of DCA frame footers in our patched version
223                            of FFmpeg.  I believe these footers are of no use to us, and they can cause
224                            problems when FFmpeg fails to decode them (mantis #352).
225                         */
226                         av_dict_set (&options, "disable_footer", "1", 0);
227                         /* This allows decoding of some DNxHR 444 and HQX files; see
228                            https://trac.ffmpeg.org/ticket/5681
229                         */
230                         av_dict_set_int (&options, "strict", FF_COMPLIANCE_EXPERIMENTAL, 0);
231                         /* Enable following of links in files */
232                         av_dict_set_int (&options, "enable_drefs", 1, 0);
233
234                         r = avcodec_open2 (context, codec, &options);
235                         if (r < 0) {
236                                 throw DecodeError (N_("avcodec_open2"), N_("FFmpeg::setup_decoders"), r);
237                         }
238                 } else {
239                         dcpomatic_log->log (String::compose ("No codec found for stream %1", i), LogEntry::TYPE_WARNING);
240                 }
241         }
242 }
243
244
245 AVCodecContext *
246 FFmpeg::video_codec_context () const
247 {
248         if (!_video_stream) {
249                 return nullptr;
250         }
251
252         return _codec_context[_video_stream.get()];
253 }
254
255
256 AVCodecContext *
257 FFmpeg::subtitle_codec_context () const
258 {
259         auto str = _ffmpeg_content->subtitle_stream();
260         if (!str) {
261                 return nullptr;
262         }
263
264         return _codec_context[str->index(_format_context)];
265 }
266
267
268 int
269 FFmpeg::avio_read (uint8_t* buffer, int const amount)
270 {
271         return _file_group.read (buffer, amount);
272 }
273
274
275 int64_t
276 FFmpeg::avio_seek (int64_t const pos, int whence)
277 {
278         if (whence == AVSEEK_SIZE) {
279                 return _file_group.length ();
280         }
281
282         return _file_group.seek (pos, whence);
283 }
284
285
286 FFmpegSubtitlePeriod
287 FFmpeg::subtitle_period (AVSubtitle const & sub)
288 {
289         auto const packet_time = ContentTime::from_seconds (static_cast<double> (sub.pts) / AV_TIME_BASE);
290
291         if (sub.end_display_time == static_cast<uint32_t> (-1)) {
292                 /* End time is not known */
293                 return FFmpegSubtitlePeriod (packet_time + ContentTime::from_seconds (sub.start_display_time / 1e3));
294         }
295
296         return FFmpegSubtitlePeriod (
297                 packet_time + ContentTime::from_seconds (sub.start_display_time / 1e3),
298                 packet_time + ContentTime::from_seconds (sub.end_display_time / 1e3)
299                 );
300 }
301
302
303 /** Compute the pts offset to use given a set of audio streams and some video details.
304  *  Sometimes these parameters will have just been determined by an Examiner, sometimes
305  *  they will have been retrieved from a piece of Content, hence the need for this method
306  *  in FFmpeg.
307  */
308 ContentTime
309 FFmpeg::pts_offset (vector<shared_ptr<FFmpegAudioStream>> audio_streams, optional<ContentTime> first_video, double video_frame_rate) const
310 {
311         /* Audio and video frame PTS values may not start with 0.  We want
312            to fiddle them so that:
313
314            1.  One of them starts at time 0.
315            2.  The first video PTS value ends up on a frame boundary.
316
317            Then we remove big initial gaps in PTS and we allow our
318            insertion of black frames to work.
319
320            We will do:
321              audio_pts_to_use = audio_pts_from_ffmpeg + pts_offset;
322              video_pts_to_use = video_pts_from_ffmpeg + pts_offset;
323         */
324
325         /* First, make one of them start at 0 */
326
327         auto po = ContentTime::min ();
328
329         if (first_video) {
330                 po = - first_video.get ();
331         }
332
333         for (auto i: audio_streams) {
334                 if (i->first_audio) {
335                         po = max (po, - i->first_audio.get ());
336                 }
337         }
338
339         /* If the offset is positive we would be pushing things from a -ve PTS to be played.
340            I don't think we ever want to do that, as it seems things at -ve PTS are not meant
341            to be seen (use for alignment bars etc.); see mantis #418.
342         */
343         if (po > ContentTime ()) {
344                 po = ContentTime ();
345         }
346
347         /* Now adjust so that the video pts starts on a frame */
348         if (first_video) {
349                 auto const fvc = first_video.get() + po;
350                 po += fvc.ceil (video_frame_rate) - fvc;
351         }
352
353         return po;
354 }