Fix merge; other tweaks.
[dcpomatic.git] / src / lib / decoder.cc
1 /*
2     Copyright (C) 2012 Carl Hetherington <cth@carlh.net>
3
4     This program is free software; you can redistribute it and/or modify
5     it under the terms of the GNU General Public License as published by
6     the Free Software Foundation; either version 2 of the License, or
7     (at your option) any later version.
8
9     This program is distributed in the hope that it will be useful,
10     but WITHOUT ANY WARRANTY; without even the implied warranty of
11     MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
12     GNU General Public License for more details.
13
14     You should have received a copy of the GNU General Public License
15     along with this program; if not, write to the Free Software
16     Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
17
18 */
19
20 /** @file  src/decoder.cc
21  *  @brief Parent class for decoders of content.
22  */
23
24 #include <iostream>
25 #include <stdint.h>
26 #include <boost/lexical_cast.hpp>
27 #include "film.h"
28 #include "format.h"
29 #include "job.h"
30 #include "options.h"
31 #include "exceptions.h"
32 #include "image.h"
33 #include "util.h"
34 #include "log.h"
35 #include "decoder.h"
36 #include "delay_line.h"
37 #include "subtitle.h"
38 #include "filter_graph.h"
39
40 using std::string;
41 using std::stringstream;
42 using std::min;
43 using std::pair;
44 using std::list;
45 using boost::shared_ptr;
46
47 /** @param f Film.
48  *  @param o Options.
49  *  @param j Job that we are running within, or 0
50  *  @param minimal true to do the bare minimum of work; just run through the content.  Useful for acquiring
51  *  accurate frame counts as quickly as possible.  This generates no video or audio output.
52  */
53 Decoder::Decoder (boost::shared_ptr<Film> f, boost::shared_ptr<const Options> o, Job* j, bool minimal)
54         : _film (f)
55         , _opt (o)
56         , _job (j)
57         , _minimal (minimal)
58         , _video_frames_in (0)
59         , _video_frames_out (0)
60         , _audio_frames_in (0)
61         , _audio_frames_out (0)
62         , _delay_line (0)
63         , _delay_in_frames (0)
64 {
65         
66 }
67
68 Decoder::~Decoder ()
69 {
70         delete _delay_line;
71 }
72
73 /** Start off a decode processing run.  This should only be called once on
74  *  a given Decoder object.
75  */
76 void
77 Decoder::process_begin ()
78 {
79         _delay_in_frames = _film->audio_delay() * audio_sample_rate() / 1000;
80         _delay_line = new DelayLine (audio_channels(), _delay_in_frames);
81 }
82
83 /** Finish off a decode processing run */
84 void
85 Decoder::process_end ()
86 {
87         if (_delay_in_frames < 0 && _opt->decode_audio && audio_channels()) {
88                 shared_ptr<AudioBuffers> b (new AudioBuffers (audio_channels(), -_delay_in_frames));
89                 b->make_silent ();
90                 emit_audio (b);
91         }
92
93         if (_opt->decode_audio && audio_channels()) {
94
95                 /* Ensure that our video and audio emissions are the same length */
96
97                 int64_t audio_short_by_frames = video_frames_to_audio_frames (_video_frames_out) - _audio_frames_out;
98
99                 _film->log()->log (
100                         String::compose ("Decoder has emitted %1 video frames (which equals %2 audio frames) and %3 audio frames",
101                                          _video_frames_out,
102                                          video_frames_to_audio_frames (_video_frames_out),
103                                          _audio_frames_out)
104                         );
105
106                 if (audio_short_by_frames < 0) {
107
108                         _film->log()->log (String::compose ("Emitted %1 too many audio frames", -audio_short_by_frames));
109                         
110                         /* We have emitted more audio than video.  Emit enough black video frames so that we reverse this */
111                         int const black_video_frames = ceil (-audio_short_by_frames * frames_per_second() / audio_sample_rate());
112
113                         _film->log()->log (String::compose ("Emitting %1 frames of black video", black_video_frames));
114
115                         shared_ptr<Image> black (new CompactImage (pixel_format(), native_size()));
116                         black->make_black ();
117                         for (int i = 0; i < black_video_frames; ++i) {
118                                 emit_video (black, shared_ptr<Subtitle> ());
119                         }
120
121                         /* Now recompute our check value */
122                         audio_short_by_frames = video_frames_to_audio_frames (_video_frames_out) - _audio_frames_out;
123                 }
124         
125                 if (audio_short_by_frames > 0) {
126                         _film->log()->log (String::compose ("Emitted %1 too few audio frames", audio_short_by_frames));
127                         shared_ptr<AudioBuffers> b (new AudioBuffers (audio_channels(), audio_short_by_frames));
128                         b->make_silent ();
129                         emit_audio (b);
130                 }
131         }
132 }
133
134 /** Start decoding */
135 void
136 Decoder::go ()
137 {
138         process_begin ();
139
140         if (_job && !_film->dcp_length()) {
141                 _job->set_progress_unknown ();
142         }
143
144         while (pass () == false) {
145                 if (_job && _film->dcp_length()) {
146                         _job->set_progress (float (_video_frames_out) / _film->dcp_length().get());
147                 }
148         }
149
150         process_end ();
151 }
152
153 /** Called by subclasses to tell the world that some audio data is ready
154  *  @param data Audio data, in Film::audio_sample_format.
155  *  @param size Number of bytes of data.
156  */
157 void
158 Decoder::process_audio (uint8_t* data, int size)
159 {
160         if (size == 0) {
161                 return;
162         }
163         
164         assert (_film->audio_channels());
165         assert (bytes_per_audio_sample());
166         
167         /* Deinterleave and convert to float */
168
169         assert ((size % (bytes_per_audio_sample() * audio_channels())) == 0);
170
171         int const total_samples = size / bytes_per_audio_sample();
172         int const frames = total_samples / _film->audio_channels();
173         shared_ptr<AudioBuffers> audio (new AudioBuffers (audio_channels(), frames));
174
175         switch (audio_sample_format()) {
176         case AV_SAMPLE_FMT_S16:
177         {
178                 int16_t* p = (int16_t *) data;
179                 int sample = 0;
180                 int channel = 0;
181                 for (int i = 0; i < total_samples; ++i) {
182                         audio->data(channel)[sample] = float(*p++) / (1 << 15);
183
184                         ++channel;
185                         if (channel == _film->audio_channels()) {
186                                 channel = 0;
187                                 ++sample;
188                         }
189                 }
190         }
191         break;
192
193         case AV_SAMPLE_FMT_S32:
194         {
195                 int32_t* p = (int32_t *) data;
196                 int sample = 0;
197                 int channel = 0;
198                 for (int i = 0; i < total_samples; ++i) {
199                         audio->data(channel)[sample] = float(*p++) / (1 << 31);
200
201                         ++channel;
202                         if (channel == _film->audio_channels()) {
203                                 channel = 0;
204                                 ++sample;
205                         }
206                 }
207         }
208
209         case AV_SAMPLE_FMT_FLTP:
210         {
211                 float* p = reinterpret_cast<float*> (data);
212                 for (int i = 0; i < _film->audio_channels(); ++i) {
213                         memcpy (audio->data(i), p, frames * sizeof(float));
214                         p += frames;
215                 }
216         }
217         break;
218
219         default:
220                 assert (false);
221         }
222
223         /* Maybe apply gain */
224         if (_film->audio_gain() != 0) {
225                 float const linear_gain = pow (10, _film->audio_gain() / 20);
226                 for (int i = 0; i < _film->audio_channels(); ++i) {
227                         for (int j = 0; j < frames; ++j) {
228                                 audio->data(i)[j] *= linear_gain;
229                         }
230                 }
231         }
232
233         _delay_line->feed (audio);
234
235         /* Decode range in audio frames */
236         pair<int64_t, int64_t> required_range (
237                 video_frames_to_audio_frames (_film->dcp_trim_start()),
238                 video_frames_to_audio_frames (_film->dcp_trim_start() + _film->dcp_length().get())
239                 );
240
241         /* Range of this block of data */
242         pair<int64_t, int64_t> this_range (
243                 _audio_frames_in,
244                 _audio_frames_in + audio->frames()
245                 );
246
247         /* Trim start */
248         if (required_range.first >= this_range.first && required_range.first < this_range.second) {
249                 int64_t const shift = this_range.first - required_range.first;
250                 audio->move (shift, 0, audio->frames() - shift);
251                 audio->set_frames (audio->frames() - shift);
252         }
253
254         /* Trim end */
255         if (required_range.second >= this_range.first && required_range.second < this_range.second) {
256                 audio->set_frames (this_range.first - required_range.second);
257         }
258
259         if (audio->frames()) {
260                 emit_audio (audio);
261         }
262 }
263
264 void
265 Decoder::emit_audio (shared_ptr<AudioBuffers> audio)
266 {
267         Audio (audio);
268         _audio_frames_out += audio->frames ();
269 }
270
271 /** Called by subclasses to tell the world that some video data is ready.
272  *  We do some post-processing / filtering then emit it for listeners.
273  *  @param frame to decode; caller manages memory.
274  */
275 void
276 Decoder::process_video (AVFrame* frame)
277 {
278         assert (_film->length());
279
280         if (_minimal) {
281                 ++_video_frames_in;
282                 return;
283         }
284
285         /* Use Film::length here as our one may be wrong */
286
287         if (_opt->decode_video_skip != 0 && (_video_frames_in % _opt->decode_video_skip) != 0) {
288                 ++_video_frames_in;
289                 return;
290         }
291
292         if (_video_frames_in < _film->dcp_trim_start() || _video_frames_in > (_film->dcp_trim_start() + _film->length().get())) {
293                 ++_video_frames_in;
294                 return;
295         }
296
297         shared_ptr<FilterGraph> graph;
298
299         list<shared_ptr<FilterGraph> >::iterator i = _filter_graphs.begin();
300         while (i != _filter_graphs.end() && !(*i)->can_process (Size (frame->width, frame->height), (AVPixelFormat) frame->format)) {
301                 ++i;
302         }
303
304         if (i == _filter_graphs.end ()) {
305                 graph.reset (new FilterGraph (_film, this, _opt->apply_crop, Size (frame->width, frame->height), (AVPixelFormat) frame->format));
306                 _filter_graphs.push_back (graph);
307                 _film->log()->log (String::compose ("New graph for %1x%2, pixel format %3", frame->width, frame->height, frame->format));
308         } else {
309                 graph = *i;
310         }
311
312         list<shared_ptr<Image> > images = graph->process (frame);
313
314         for (list<shared_ptr<Image> >::iterator i = images.begin(); i != images.end(); ++i) {
315                 shared_ptr<Subtitle> sub;
316                 if (_timed_subtitle && _timed_subtitle->displayed_at (double (video_frames_in()) / _film->frames_per_second())) {
317                         sub = _timed_subtitle->subtitle ();
318                 }
319
320                 emit_video (*i, sub);
321         }
322 }
323
324 void
325 Decoder::repeat_last_video ()
326 {
327         if (!_last_image) {
328                 _last_image.reset (new CompactImage (pixel_format(), native_size()));
329                 _last_image->make_black ();
330         }
331
332         emit_video (_last_image, _last_subtitle);
333 }
334
335 void
336 Decoder::emit_video (shared_ptr<Image> image, shared_ptr<Subtitle> sub)
337 {
338         TIMING ("Decoder emits %1", _video_frames_out);
339         Video (image, _video_frames_out, sub);
340         ++_video_frames_out;
341         _last_image = image;
342         _last_subtitle = sub;
343 }
344
345 void
346 Decoder::process_subtitle (shared_ptr<TimedSubtitle> s)
347 {
348         _timed_subtitle = s;
349         
350         if (_timed_subtitle && _opt->apply_crop) {
351                 Position const p = _timed_subtitle->subtitle()->position ();
352                 _timed_subtitle->subtitle()->set_position (Position (p.x - _film->crop().left, p.y - _film->crop().top));
353         }
354 }
355
356
357 int
358 Decoder::bytes_per_audio_sample () const
359 {
360         return av_get_bytes_per_sample (audio_sample_format ());
361 }
362
363 int64_t
364 Decoder::video_frames_to_audio_frames (SourceFrame v) const
365 {
366         return ((int64_t) v * audio_sample_rate() / frames_per_second());
367 }