Move raw_convert into libdcp.
[dcpomatic.git] / src / lib / ffmpeg.cc
1 /*
2     Copyright (C) 2013-2016 Carl Hetherington <cth@carlh.net>
3
4     This file is part of DCP-o-matic.
5
6     DCP-o-matic is free software; you can redistribute it and/or modify
7     it under the terms of the GNU General Public License as published by
8     the Free Software Foundation; either version 2 of the License, or
9     (at your option) any later version.
10
11     DCP-o-matic is distributed in the hope that it will be useful,
12     but WITHOUT ANY WARRANTY; without even the implied warranty of
13     MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
14     GNU General Public License for more details.
15
16     You should have received a copy of the GNU General Public License
17     along with DCP-o-matic.  If not, see <http://www.gnu.org/licenses/>.
18
19 */
20
21 #include "ffmpeg.h"
22 #include "ffmpeg_content.h"
23 #include "film.h"
24 #include "exceptions.h"
25 #include "util.h"
26 #include "log.h"
27 #include "ffmpeg_subtitle_stream.h"
28 #include "ffmpeg_audio_stream.h"
29 #include "digester.h"
30 #include "compose.hpp"
31 #include <dcp/raw_convert.h>
32 extern "C" {
33 #include <libavcodec/avcodec.h>
34 #include <libavformat/avformat.h>
35 #include <libswscale/swscale.h>
36 }
37 #include <boost/algorithm/string.hpp>
38 #include <boost/foreach.hpp>
39 #include <iostream>
40
41 #include "i18n.h"
42
43 using std::string;
44 using std::cout;
45 using std::cerr;
46 using std::vector;
47 using boost::shared_ptr;
48 using boost::optional;
49 using dcp::raw_convert;
50
51 boost::mutex FFmpeg::_mutex;
52 boost::weak_ptr<Log> FFmpeg::_ffmpeg_log;
53
54 FFmpeg::FFmpeg (boost::shared_ptr<const FFmpegContent> c)
55         : _ffmpeg_content (c)
56         , _avio_buffer (0)
57         , _avio_buffer_size (4096)
58         , _avio_context (0)
59         , _format_context (0)
60         , _frame (0)
61 {
62         setup_general ();
63         setup_decoders ();
64 }
65
66 FFmpeg::~FFmpeg ()
67 {
68         boost::mutex::scoped_lock lm (_mutex);
69
70         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
71                 avcodec_close (_format_context->streams[i]->codec);
72         }
73
74         av_frame_free (&_frame);
75         avformat_close_input (&_format_context);
76 }
77
78 static int
79 avio_read_wrapper (void* data, uint8_t* buffer, int amount)
80 {
81         return reinterpret_cast<FFmpeg*>(data)->avio_read (buffer, amount);
82 }
83
84 static int64_t
85 avio_seek_wrapper (void* data, int64_t offset, int whence)
86 {
87         return reinterpret_cast<FFmpeg*>(data)->avio_seek (offset, whence);
88 }
89
90 void
91 FFmpeg::ffmpeg_log_callback (void* ptr, int level, const char* fmt, va_list vl)
92 {
93         if (level > AV_LOG_WARNING) {
94                 return;
95         }
96
97         char line[1024];
98         static int prefix = 0;
99         av_log_format_line (ptr, level, fmt, vl, line, sizeof (line), &prefix);
100         shared_ptr<Log> log = _ffmpeg_log.lock ();
101         if (log) {
102                 string str (line);
103                 boost::algorithm::trim (str);
104                 log->log (String::compose ("FFmpeg: %1", str), LogEntry::TYPE_GENERAL);
105         } else {
106                 cerr << line;
107         }
108 }
109
110 void
111 FFmpeg::setup_general ()
112 {
113         av_register_all ();
114
115         /* This might not work too well in some cases of multiple FFmpeg decoders,
116            but it's probably good enough.
117         */
118         _ffmpeg_log = _ffmpeg_content->film()->log ();
119         av_log_set_callback (FFmpeg::ffmpeg_log_callback);
120
121         _file_group.set_paths (_ffmpeg_content->paths ());
122         _avio_buffer = static_cast<uint8_t*> (wrapped_av_malloc (_avio_buffer_size));
123         _avio_context = avio_alloc_context (_avio_buffer, _avio_buffer_size, 0, this, avio_read_wrapper, 0, avio_seek_wrapper);
124         _format_context = avformat_alloc_context ();
125         _format_context->pb = _avio_context;
126
127         AVDictionary* options = 0;
128         /* These durations are in microseconds, and represent how far into the content file
129            we will look for streams.
130         */
131         av_dict_set (&options, "analyzeduration", raw_convert<string> (5 * 60 * 1000000).c_str(), 0);
132         av_dict_set (&options, "probesize", raw_convert<string> (5 * 60 * 1000000).c_str(), 0);
133
134         if (avformat_open_input (&_format_context, 0, 0, &options) < 0) {
135                 throw OpenFileError (_ffmpeg_content->path(0).string ());
136         }
137
138         if (avformat_find_stream_info (_format_context, 0) < 0) {
139                 throw DecodeError (_("could not find stream information"));
140         }
141
142         /* Find video stream */
143
144         optional<int> video_stream_undefined_frame_rate;
145
146         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
147                 AVStream* s = _format_context->streams[i];
148                 if (s->codec->codec_type == AVMEDIA_TYPE_VIDEO) {
149                         if (s->avg_frame_rate.num > 0 && s->avg_frame_rate.den > 0) {
150                                 /* This is definitely our video stream */
151                                 _video_stream = i;
152                         } else {
153                                 /* This is our video stream if we don't get a better offer */
154                                 video_stream_undefined_frame_rate = i;
155                         }
156                 }
157         }
158
159         /* Files from iTunes sometimes have two video streams, one with the avg_frame_rate.num and .den set
160            to zero.  Only use such a stream if there is no alternative.
161         */
162         if (!_video_stream && video_stream_undefined_frame_rate) {
163                 _video_stream = video_stream_undefined_frame_rate.get();
164         }
165
166         /* Hack: if the AVStreams have duplicate IDs, replace them with our
167            own.  We use the IDs so that we can cope with VOBs, in which streams
168            move about in index but remain with the same ID in different
169            VOBs.  However, some files have duplicate IDs, hence this hack.
170         */
171
172         bool duplicates = false;
173         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
174                 for (uint32_t j = i + 1; j < _format_context->nb_streams; ++j) {
175                         if (_format_context->streams[i]->id == _format_context->streams[j]->id) {
176                                 duplicates = true;
177                         }
178                 }
179         }
180
181         if (duplicates) {
182                 /* Put in our own IDs */
183                 for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
184                         _format_context->streams[i]->id = i;
185                 }
186         }
187
188         _frame = av_frame_alloc ();
189         if (_frame == 0) {
190                 throw DecodeError (N_("could not allocate frame"));
191         }
192 }
193
194 void
195 FFmpeg::setup_decoders ()
196 {
197         boost::mutex::scoped_lock lm (_mutex);
198
199         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
200                 AVCodecContext* context = _format_context->streams[i]->codec;
201
202                 AVCodec* codec = avcodec_find_decoder (context->codec_id);
203                 if (codec) {
204
205                         AVDictionary* options = 0;
206                         /* This option disables decoding of DCA frame footers in our patched version
207                            of FFmpeg.  I believe these footers are of no use to us, and they can cause
208                            problems when FFmpeg fails to decode them (mantis #352).
209                         */
210                         av_dict_set (&options, "disable_footer", "1", 0);
211                         /* This allows decoding of some DNxHR 444 and HQX files; see
212                            https://trac.ffmpeg.org/ticket/5681
213                         */
214                         av_dict_set_int (&options, "strict", FF_COMPLIANCE_EXPERIMENTAL, 0);
215
216                         if (avcodec_open2 (context, codec, &options) < 0) {
217                                 throw DecodeError (N_("could not open decoder"));
218                         }
219                 }
220
221                 /* We are silently ignoring any failures to find suitable decoders here */
222         }
223 }
224
225 AVCodecContext *
226 FFmpeg::video_codec_context () const
227 {
228         if (!_video_stream) {
229                 return 0;
230         }
231
232         return _format_context->streams[_video_stream.get()]->codec;
233 }
234
235 AVCodecContext *
236 FFmpeg::subtitle_codec_context () const
237 {
238         if (!_ffmpeg_content->subtitle_stream ()) {
239                 return 0;
240         }
241
242         return _ffmpeg_content->subtitle_stream()->stream(_format_context)->codec;
243 }
244
245 int
246 FFmpeg::avio_read (uint8_t* buffer, int const amount)
247 {
248         return _file_group.read (buffer, amount);
249 }
250
251 int64_t
252 FFmpeg::avio_seek (int64_t const pos, int whence)
253 {
254         if (whence == AVSEEK_SIZE) {
255                 return _file_group.length ();
256         }
257
258         return _file_group.seek (pos, whence);
259 }
260
261 FFmpegSubtitlePeriod
262 FFmpeg::subtitle_period (AVSubtitle const & sub)
263 {
264         ContentTime const packet_time = ContentTime::from_seconds (static_cast<double> (sub.pts) / AV_TIME_BASE);
265
266         if (sub.end_display_time == static_cast<uint32_t> (-1)) {
267                 /* End time is not known */
268                 return FFmpegSubtitlePeriod (packet_time + ContentTime::from_seconds (sub.start_display_time / 1e3));
269         }
270
271         return FFmpegSubtitlePeriod (
272                 packet_time + ContentTime::from_seconds (sub.start_display_time / 1e3),
273                 packet_time + ContentTime::from_seconds (sub.end_display_time / 1e3)
274                 );
275 }
276
277 string
278 FFmpeg::subtitle_id (AVSubtitle const & sub)
279 {
280         Digester digester;
281         digester.add (sub.pts);
282         for (unsigned int i = 0; i < sub.num_rects; ++i) {
283                 AVSubtitleRect* rect = sub.rects[i];
284                 digester.add (rect->x);
285                 digester.add (rect->y);
286                 digester.add (rect->w);
287                 digester.add (rect->h);
288 #ifdef DCPOMATIC_HAVE_AVSUBTITLERECT_PICT
289                 int const line = rect->pict.linesize[0];
290                 for (int j = 0; j < rect->h; ++j) {
291                         digester.add (rect->pict.data[0] + j * line, line);
292                 }
293 #else
294                 int const line = rect->linesize[0];
295                 for (int j = 0; j < rect->h; ++j) {
296                         digester.add (rect->data[0] + j * line, line);
297                 }
298 #endif
299         }
300         return digester.get ();
301 }
302
303 /** @return true if sub starts a new image subtitle */
304 bool
305 FFmpeg::subtitle_starts_image (AVSubtitle const & sub)
306 {
307         bool image = false;
308         bool text = false;
309
310         for (unsigned int i = 0; i < sub.num_rects; ++i) {
311                 switch (sub.rects[i]->type) {
312                 case SUBTITLE_BITMAP:
313                         image = true;
314                         break;
315                 case SUBTITLE_TEXT:
316                 case SUBTITLE_ASS:
317                         text = true;
318                         break;
319                 default:
320                         break;
321                 }
322         }
323
324         /* We can't cope with mixed image/text in one AVSubtitle */
325         DCPOMATIC_ASSERT (!image || !text);
326
327         return image;
328 }
329
330 /** Compute the pts offset to use given a set of audio streams and some video details.
331  *  Sometimes these parameters will have just been determined by an Examiner, sometimes
332  *  they will have been retrieved from a piece of Content, hence the need for this method
333  *  in FFmpeg.
334  */
335 ContentTime
336 FFmpeg::pts_offset (vector<shared_ptr<FFmpegAudioStream> > audio_streams, optional<ContentTime> first_video, double video_frame_rate) const
337 {
338         /* Audio and video frame PTS values may not start with 0.  We want
339            to fiddle them so that:
340
341            1.  One of them starts at time 0.
342            2.  The first video PTS value ends up on a frame boundary.
343
344            Then we remove big initial gaps in PTS and we allow our
345            insertion of black frames to work.
346
347            We will do:
348              audio_pts_to_use = audio_pts_from_ffmpeg + pts_offset;
349              video_pts_to_use = video_pts_from_ffmpeg + pts_offset;
350         */
351
352         /* First, make one of them start at 0 */
353
354         ContentTime po = ContentTime::min ();
355
356         if (first_video) {
357                 po = - first_video.get ();
358         }
359
360         BOOST_FOREACH (shared_ptr<FFmpegAudioStream> i, audio_streams) {
361                 if (i->first_audio) {
362                         po = max (po, - i->first_audio.get ());
363                 }
364         }
365
366         /* If the offset is positive we would be pushing things from a -ve PTS to be played.
367            I don't think we ever want to do that, as it seems things at -ve PTS are not meant
368            to be seen (use for alignment bars etc.); see mantis #418.
369         */
370         if (po > ContentTime ()) {
371                 po = ContentTime ();
372         }
373
374         /* Now adjust so that the video pts starts on a frame */
375         if (first_video) {
376                 ContentTime const fvc = first_video.get() + po;
377                 po += fvc.round_up (video_frame_rate) - fvc;
378         }
379
380         return po;
381 }