Merge branch 'master' of ssh://git.carlh.net/home/carl/git/dcpomatic
[dcpomatic.git] / src / lib / image.cc
1 /*
2     Copyright (C) 2012-2015 Carl Hetherington <cth@carlh.net>
3
4     This program is free software; you can redistribute it and/or modify
5     it under the terms of the GNU General Public License as published by
6     the Free Software Foundation; either version 2 of the License, or
7     (at your option) any later version.
8
9     This program is distributed in the hope that it will be useful,
10     but WITHOUT ANY WARRANTY; without even the implied warranty of
11     MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
12     GNU General Public License for more details.
13
14     You should have received a copy of the GNU General Public License
15     along with this program; if not, write to the Free Software
16     Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
17
18 */
19
20 /** @file src/image.cc
21  *  @brief A class to describe a video image.
22  */
23
24 #include "image.h"
25 #include "exceptions.h"
26 #include "timer.h"
27 #include "rect.h"
28 #include "util.h"
29 #include "md5_digester.h"
30 #include "dcpomatic_socket.h"
31 extern "C" {
32 #include <libswscale/swscale.h>
33 #include <libavutil/pixfmt.h>
34 #include <libavutil/pixdesc.h>
35 #include <libavutil/frame.h>
36 }
37 #include <iostream>
38
39 #include "i18n.h"
40
41 using std::string;
42 using std::min;
43 using std::cout;
44 using std::cerr;
45 using std::list;
46 using std::runtime_error;
47 using boost::shared_ptr;
48 using dcp::Size;
49
50 int
51 Image::line_factor (int n) const
52 {
53         if (n == 0) {
54                 return 1;
55         }
56
57         AVPixFmtDescriptor const * d = av_pix_fmt_desc_get(_pixel_format);
58         if (!d) {
59                 throw PixelFormatError ("line_factor()", _pixel_format);
60         }
61
62         return pow (2.0f, d->log2_chroma_h);
63 }
64
65 /** @param n Component index.
66  *  @return Number of samples (i.e. pixels, unless sub-sampled) in each direction for this component.
67  */
68 dcp::Size
69 Image::sample_size (int n) const
70 {
71         int horizontal_factor = 1;
72         if (n > 0) {
73                 AVPixFmtDescriptor const * d = av_pix_fmt_desc_get (_pixel_format);
74                 if (!d) {
75                         throw PixelFormatError ("sample_size()", _pixel_format);
76                 }
77                 horizontal_factor = pow (2.0f, d->log2_chroma_w);
78         }
79
80         return dcp::Size (
81                 lrint (ceil (static_cast<double>(size().width) / horizontal_factor)),
82                 lrint (ceil (static_cast<double>(size().height) / line_factor (n)))
83                 );
84 }
85
86 int
87 Image::components () const
88 {
89         AVPixFmtDescriptor const * d = av_pix_fmt_desc_get(_pixel_format);
90         if (!d) {
91                 throw PixelFormatError ("components()", _pixel_format);
92         }
93
94         return d->nb_components;
95 }
96
97 /** @return Number of planes */
98 int
99 Image::planes () const
100 {
101         AVPixFmtDescriptor const * d = av_pix_fmt_desc_get(_pixel_format);
102         if (!d) {
103                 throw PixelFormatError ("planes()", _pixel_format);
104         }
105
106         if ((d->flags & AV_PIX_FMT_FLAG_PLANAR) == 0) {
107                 return 1;
108         }
109
110         return d->nb_components;
111 }
112
113 /** Crop this image, scale it to `inter_size' and then place it in a black frame of `out_size' */
114 shared_ptr<Image>
115 Image::crop_scale_window (
116         Crop crop, dcp::Size inter_size, dcp::Size out_size, dcp::YUVToRGB yuv_to_rgb, AVPixelFormat out_format, bool out_aligned
117         ) const
118 {
119         /* Empirical testing suggests that sws_scale() will crash if
120            the input image is not aligned.
121         */
122         DCPOMATIC_ASSERT (aligned ());
123
124         DCPOMATIC_ASSERT (out_size.width >= inter_size.width);
125         DCPOMATIC_ASSERT (out_size.height >= inter_size.height);
126
127         /* Here's an image of out_size */
128         shared_ptr<Image> out (new Image (out_format, out_size, out_aligned));
129         out->make_black ();
130
131         /* Size of the image after any crop */
132         dcp::Size const cropped_size = crop.apply (size ());
133
134         /* Scale context for a scale from cropped_size to inter_size */
135         struct SwsContext* scale_context = sws_getContext (
136                         cropped_size.width, cropped_size.height, pixel_format(),
137                         inter_size.width, inter_size.height, out_format,
138                         SWS_BICUBIC, 0, 0, 0
139                 );
140
141         if (!scale_context) {
142                 throw runtime_error (N_("Could not allocate SwsContext"));
143         }
144
145         DCPOMATIC_ASSERT (yuv_to_rgb < dcp::YUV_TO_RGB_COUNT);
146         int const lut[dcp::YUV_TO_RGB_COUNT] = {
147                 SWS_CS_ITU601,
148                 SWS_CS_ITU709
149         };
150
151         sws_setColorspaceDetails (
152                 scale_context,
153                 sws_getCoefficients (lut[yuv_to_rgb]), 0,
154                 sws_getCoefficients (lut[yuv_to_rgb]), 0,
155                 0, 1 << 16, 1 << 16
156                 );
157
158         AVPixFmtDescriptor const * desc = av_pix_fmt_desc_get (_pixel_format);
159         if (!desc) {
160                 throw PixelFormatError ("crop_scale_window()", _pixel_format);
161         }
162
163         /* Prepare input data pointers with crop */
164         uint8_t* scale_in_data[planes()];
165         for (int c = 0; c < planes(); ++c) {
166                 /* To work out the crop in bytes, start by multiplying
167                    the crop by the (average) bytes per pixel.  Then
168                    round down so that we don't crop a subsampled pixel until
169                    we've cropped all of its Y-channel pixels.
170                 */
171                 int const x = lrintf (bytes_per_pixel(c) * crop.left) & ~ ((int) desc->log2_chroma_w);
172                 scale_in_data[c] = data()[c] + x + stride()[c] * (crop.top / line_factor(c));
173         }
174
175         /* Corner of the image within out_size */
176         Position<int> const corner ((out_size.width - inter_size.width) / 2, (out_size.height - inter_size.height) / 2);
177
178         uint8_t* scale_out_data[out->planes()];
179         for (int c = 0; c < out->planes(); ++c) {
180                 scale_out_data[c] = out->data()[c] + lrintf (out->bytes_per_pixel(c) * corner.x) + out->stride()[c] * corner.y;
181         }
182
183         sws_scale (
184                 scale_context,
185                 scale_in_data, stride(),
186                 0, cropped_size.height,
187                 scale_out_data, out->stride()
188                 );
189
190         sws_freeContext (scale_context);
191
192         return out;
193 }
194
195 shared_ptr<Image>
196 Image::scale (dcp::Size out_size, dcp::YUVToRGB yuv_to_rgb, AVPixelFormat out_format, bool out_aligned) const
197 {
198         /* Empirical testing suggests that sws_scale() will crash if
199            the input image is not aligned.
200         */
201         DCPOMATIC_ASSERT (aligned ());
202
203         shared_ptr<Image> scaled (new Image (out_format, out_size, out_aligned));
204
205         struct SwsContext* scale_context = sws_getContext (
206                 size().width, size().height, pixel_format(),
207                 out_size.width, out_size.height, out_format,
208                 SWS_BICUBIC, 0, 0, 0
209                 );
210
211         DCPOMATIC_ASSERT (yuv_to_rgb < dcp::YUV_TO_RGB_COUNT);
212         int const lut[dcp::YUV_TO_RGB_COUNT] = {
213                 SWS_CS_ITU601,
214                 SWS_CS_ITU709
215         };
216
217         sws_setColorspaceDetails (
218                 scale_context,
219                 sws_getCoefficients (lut[yuv_to_rgb]), 0,
220                 sws_getCoefficients (lut[yuv_to_rgb]), 0,
221                 0, 1 << 16, 1 << 16
222                 );
223
224         sws_scale (
225                 scale_context,
226                 data(), stride(),
227                 0, size().height,
228                 scaled->data(), scaled->stride()
229                 );
230
231         sws_freeContext (scale_context);
232
233         return scaled;
234 }
235
236 /** Blacken a YUV image whose bits per pixel is rounded up to 16 */
237 void
238 Image::yuv_16_black (uint16_t v, bool alpha)
239 {
240         memset (data()[0], 0, sample_size(0).height * stride()[0]);
241         for (int i = 1; i < 3; ++i) {
242                 int16_t* p = reinterpret_cast<int16_t*> (data()[i]);
243                 int const lines = sample_size(i).height;
244                 for (int y = 0; y < lines; ++y) {
245                         /* We divide by 2 here because we are writing 2 bytes at a time */
246                         for (int x = 0; x < line_size()[i] / 2; ++x) {
247                                 p[x] = v;
248                         }
249                         p += stride()[i] / 2;
250                 }
251         }
252
253         if (alpha) {
254                 memset (data()[3], 0, sample_size(3).height * stride()[3]);
255         }
256 }
257
258 uint16_t
259 Image::swap_16 (uint16_t v)
260 {
261         return ((v >> 8) & 0xff) | ((v & 0xff) << 8);
262 }
263
264 void
265 Image::make_black ()
266 {
267         /* U/V black value for 8-bit colour */
268         static uint8_t const eight_bit_uv =     (1 << 7) - 1;
269         /* U/V black value for 9-bit colour */
270         static uint16_t const nine_bit_uv =     (1 << 8) - 1;
271         /* U/V black value for 10-bit colour */
272         static uint16_t const ten_bit_uv =      (1 << 9) - 1;
273         /* U/V black value for 16-bit colour */
274         static uint16_t const sixteen_bit_uv =  (1 << 15) - 1;
275
276         switch (_pixel_format) {
277         case AV_PIX_FMT_YUV420P:
278         case AV_PIX_FMT_YUV422P:
279         case AV_PIX_FMT_YUV444P:
280         case AV_PIX_FMT_YUV411P:
281                 memset (data()[0], 0, sample_size(0).height * stride()[0]);
282                 memset (data()[1], eight_bit_uv, sample_size(1).height * stride()[1]);
283                 memset (data()[2], eight_bit_uv, sample_size(2).height * stride()[2]);
284                 break;
285
286         case AV_PIX_FMT_YUVJ420P:
287         case AV_PIX_FMT_YUVJ422P:
288         case AV_PIX_FMT_YUVJ444P:
289                 memset (data()[0], 0, sample_size(0).height * stride()[0]);
290                 memset (data()[1], eight_bit_uv + 1, sample_size(1).height * stride()[1]);
291                 memset (data()[2], eight_bit_uv + 1, sample_size(2).height * stride()[2]);
292                 break;
293
294         case AV_PIX_FMT_YUV422P9LE:
295         case AV_PIX_FMT_YUV444P9LE:
296                 yuv_16_black (nine_bit_uv, false);
297                 break;
298
299         case AV_PIX_FMT_YUV422P9BE:
300         case AV_PIX_FMT_YUV444P9BE:
301                 yuv_16_black (swap_16 (nine_bit_uv), false);
302                 break;
303
304         case AV_PIX_FMT_YUV422P10LE:
305         case AV_PIX_FMT_YUV444P10LE:
306                 yuv_16_black (ten_bit_uv, false);
307                 break;
308
309         case AV_PIX_FMT_YUV422P16LE:
310         case AV_PIX_FMT_YUV444P16LE:
311                 yuv_16_black (sixteen_bit_uv, false);
312                 break;
313
314         case AV_PIX_FMT_YUV444P10BE:
315         case AV_PIX_FMT_YUV422P10BE:
316                 yuv_16_black (swap_16 (ten_bit_uv), false);
317                 break;
318
319         case AV_PIX_FMT_YUVA420P9BE:
320         case AV_PIX_FMT_YUVA422P9BE:
321         case AV_PIX_FMT_YUVA444P9BE:
322                 yuv_16_black (swap_16 (nine_bit_uv), true);
323                 break;
324
325         case AV_PIX_FMT_YUVA420P9LE:
326         case AV_PIX_FMT_YUVA422P9LE:
327         case AV_PIX_FMT_YUVA444P9LE:
328                 yuv_16_black (nine_bit_uv, true);
329                 break;
330
331         case AV_PIX_FMT_YUVA420P10BE:
332         case AV_PIX_FMT_YUVA422P10BE:
333         case AV_PIX_FMT_YUVA444P10BE:
334                 yuv_16_black (swap_16 (ten_bit_uv), true);
335                 break;
336
337         case AV_PIX_FMT_YUVA420P10LE:
338         case AV_PIX_FMT_YUVA422P10LE:
339         case AV_PIX_FMT_YUVA444P10LE:
340                 yuv_16_black (ten_bit_uv, true);
341                 break;
342
343         case AV_PIX_FMT_YUVA420P16BE:
344         case AV_PIX_FMT_YUVA422P16BE:
345         case AV_PIX_FMT_YUVA444P16BE:
346                 yuv_16_black (swap_16 (sixteen_bit_uv), true);
347                 break;
348
349         case AV_PIX_FMT_YUVA420P16LE:
350         case AV_PIX_FMT_YUVA422P16LE:
351         case AV_PIX_FMT_YUVA444P16LE:
352                 yuv_16_black (sixteen_bit_uv, true);
353                 break;
354
355         case AV_PIX_FMT_RGB24:
356         case AV_PIX_FMT_ARGB:
357         case AV_PIX_FMT_RGBA:
358         case AV_PIX_FMT_ABGR:
359         case AV_PIX_FMT_BGRA:
360         case AV_PIX_FMT_RGB555LE:
361         case AV_PIX_FMT_RGB48LE:
362         case AV_PIX_FMT_RGB48BE:
363                 memset (data()[0], 0, sample_size(0).height * stride()[0]);
364                 break;
365
366         case AV_PIX_FMT_UYVY422:
367         {
368                 int const Y = sample_size(0).height;
369                 int const X = line_size()[0];
370                 uint8_t* p = data()[0];
371                 for (int y = 0; y < Y; ++y) {
372                         for (int x = 0; x < X / 4; ++x) {
373                                 *p++ = eight_bit_uv; // Cb
374                                 *p++ = 0;            // Y0
375                                 *p++ = eight_bit_uv; // Cr
376                                 *p++ = 0;            // Y1
377                         }
378                 }
379                 break;
380         }
381
382         default:
383                 throw PixelFormatError ("make_black()", _pixel_format);
384         }
385 }
386
387 void
388 Image::make_transparent ()
389 {
390         if (_pixel_format != AV_PIX_FMT_RGBA) {
391                 throw PixelFormatError ("make_transparent()", _pixel_format);
392         }
393
394         memset (data()[0], 0, sample_size(0).height * stride()[0]);
395 }
396
397 void
398 Image::alpha_blend (shared_ptr<const Image> other, Position<int> position)
399 {
400         DCPOMATIC_ASSERT (other->pixel_format() == AV_PIX_FMT_RGBA);
401         int const other_bpp = 4;
402
403         int start_tx = position.x;
404         int start_ox = 0;
405
406         if (start_tx < 0) {
407                 start_ox = -start_tx;
408                 start_tx = 0;
409         }
410
411         int start_ty = position.y;
412         int start_oy = 0;
413
414         if (start_ty < 0) {
415                 start_oy = -start_ty;
416                 start_ty = 0;
417         }
418
419         switch (_pixel_format) {
420         case AV_PIX_FMT_RGB24:
421         {
422                 int const this_bpp = 3;
423                 for (int ty = start_ty, oy = start_oy; ty < size().height && oy < other->size().height; ++ty, ++oy) {
424                         uint8_t* tp = data()[0] + ty * stride()[0] + start_tx * this_bpp;
425                         uint8_t* op = other->data()[0] + oy * other->stride()[0];
426                         for (int tx = start_tx, ox = start_ox; tx < size().width && ox < other->size().width; ++tx, ++ox) {
427                                 float const alpha = float (op[3]) / 255;
428                                 tp[0] = op[0] * alpha + tp[0] * (1 - alpha);
429                                 tp[1] = op[1] * alpha + tp[1] * (1 - alpha);
430                                 tp[2] = op[2] * alpha + tp[2] * (1 - alpha);
431
432                                 tp += this_bpp;
433                                 op += other_bpp;
434                         }
435                 }
436                 break;
437         }
438         case AV_PIX_FMT_BGRA:
439         case AV_PIX_FMT_RGBA:
440         {
441                 int const this_bpp = 4;
442                 for (int ty = start_ty, oy = start_oy; ty < size().height && oy < other->size().height; ++ty, ++oy) {
443                         uint8_t* tp = data()[0] + ty * stride()[0] + start_tx * this_bpp;
444                         uint8_t* op = other->data()[0] + oy * other->stride()[0];
445                         for (int tx = start_tx, ox = start_ox; tx < size().width && ox < other->size().width; ++tx, ++ox) {
446                                 float const alpha = float (op[3]) / 255;
447                                 tp[0] = op[0] * alpha + tp[0] * (1 - alpha);
448                                 tp[1] = op[1] * alpha + tp[1] * (1 - alpha);
449                                 tp[2] = op[2] * alpha + tp[2] * (1 - alpha);
450                                 tp[3] = op[3] * alpha + tp[3] * (1 - alpha);
451
452                                 tp += this_bpp;
453                                 op += other_bpp;
454                         }
455                 }
456                 break;
457         }
458         case AV_PIX_FMT_RGB48LE:
459         {
460                 int const this_bpp = 6;
461                 for (int ty = start_ty, oy = start_oy; ty < size().height && oy < other->size().height; ++ty, ++oy) {
462                         uint8_t* tp = data()[0] + ty * stride()[0] + start_tx * this_bpp;
463                         uint8_t* op = other->data()[0] + oy * other->stride()[0];
464                         for (int tx = start_tx, ox = start_ox; tx < size().width && ox < other->size().width; ++tx, ++ox) {
465                                 float const alpha = float (op[3]) / 255;
466                                 /* Blend high bytes */
467                                 tp[1] = op[0] * alpha + tp[1] * (1 - alpha);
468                                 tp[3] = op[1] * alpha + tp[3] * (1 - alpha);
469                                 tp[5] = op[2] * alpha + tp[5] * (1 - alpha);
470
471                                 tp += this_bpp;
472                                 op += other_bpp;
473                         }
474                 }
475                 break;
476         }
477         default:
478                 DCPOMATIC_ASSERT (false);
479         }
480 }
481
482 void
483 Image::copy (shared_ptr<const Image> other, Position<int> position)
484 {
485         /* Only implemented for RGB24 onto RGB24 so far */
486         DCPOMATIC_ASSERT (_pixel_format == AV_PIX_FMT_RGB24 && other->pixel_format() == AV_PIX_FMT_RGB24);
487         DCPOMATIC_ASSERT (position.x >= 0 && position.y >= 0);
488
489         int const N = min (position.x + other->size().width, size().width) - position.x;
490         for (int ty = position.y, oy = 0; ty < size().height && oy < other->size().height; ++ty, ++oy) {
491                 uint8_t * const tp = data()[0] + ty * stride()[0] + position.x * 3;
492                 uint8_t * const op = other->data()[0] + oy * other->stride()[0];
493                 memcpy (tp, op, N * 3);
494         }
495 }
496
497 void
498 Image::read_from_socket (shared_ptr<Socket> socket)
499 {
500         for (int i = 0; i < planes(); ++i) {
501                 uint8_t* p = data()[i];
502                 int const lines = sample_size(i).height;
503                 for (int y = 0; y < lines; ++y) {
504                         socket->read (p, line_size()[i]);
505                         p += stride()[i];
506                 }
507         }
508 }
509
510 void
511 Image::write_to_socket (shared_ptr<Socket> socket) const
512 {
513         for (int i = 0; i < planes(); ++i) {
514                 uint8_t* p = data()[i];
515                 int const lines = sample_size(i).height;
516                 for (int y = 0; y < lines; ++y) {
517                         socket->write (p, line_size()[i]);
518                         p += stride()[i];
519                 }
520         }
521 }
522
523 float
524 Image::bytes_per_pixel (int c) const
525 {
526         AVPixFmtDescriptor const * d = av_pix_fmt_desc_get(_pixel_format);
527         if (!d) {
528                 throw PixelFormatError ("bytes_per_pixel()", _pixel_format);
529         }
530
531         if (c >= planes()) {
532                 return 0;
533         }
534
535         float bpp[4] = { 0, 0, 0, 0 };
536
537         bpp[0] = floor ((d->comp[0].depth_minus1 + 1 + 7) / 8);
538         if (d->nb_components > 1) {
539                 bpp[1] = floor ((d->comp[1].depth_minus1 + 1 + 7) / 8) / pow (2.0f, d->log2_chroma_w);
540         }
541         if (d->nb_components > 2) {
542                 bpp[2] = floor ((d->comp[2].depth_minus1 + 1 + 7) / 8) / pow (2.0f, d->log2_chroma_w);
543         }
544         if (d->nb_components > 3) {
545                 bpp[3] = floor ((d->comp[3].depth_minus1 + 1 + 7) / 8) / pow (2.0f, d->log2_chroma_w);
546         }
547
548         if ((d->flags & AV_PIX_FMT_FLAG_PLANAR) == 0) {
549                 /* Not planar; sum them up */
550                 return bpp[0] + bpp[1] + bpp[2] + bpp[3];
551         }
552
553         return bpp[c];
554 }
555
556 /** Construct a Image of a given size and format, allocating memory
557  *  as required.
558  *
559  *  @param p Pixel format.
560  *  @param s Size in pixels.
561  */
562 Image::Image (AVPixelFormat p, dcp::Size s, bool aligned)
563         : _size (s)
564         , _pixel_format (p)
565         , _aligned (aligned)
566 {
567         allocate ();
568 }
569
570 void
571 Image::allocate ()
572 {
573         _data = (uint8_t **) wrapped_av_malloc (4 * sizeof (uint8_t *));
574         _data[0] = _data[1] = _data[2] = _data[3] = 0;
575
576         _line_size = (int *) wrapped_av_malloc (4 * sizeof (int));
577         _line_size[0] = _line_size[1] = _line_size[2] = _line_size[3] = 0;
578
579         _stride = (int *) wrapped_av_malloc (4 * sizeof (int));
580         _stride[0] = _stride[1] = _stride[2] = _stride[3] = 0;
581
582         for (int i = 0; i < planes(); ++i) {
583                 _line_size[i] = ceil (_size.width * bytes_per_pixel(i));
584                 _stride[i] = stride_round_up (i, _line_size, _aligned ? 32 : 1);
585
586                 /* The assembler function ff_rgb24ToY_avx (in libswscale/x86/input.asm)
587                    uses a 16-byte fetch to read three bytes (R/G/B) of image data.
588                    Hence on the last pixel of the last line it reads over the end of
589                    the actual data by 1 byte.  If the width of an image is a multiple
590                    of the stride alignment there will be no padding at the end of image lines.
591                    OS X crashes on this illegal read, though other operating systems don't
592                    seem to mind.  The nasty + 1 in this malloc makes sure there is always a byte
593                    for that instruction to read safely.
594
595                    Further to the above, valgrind is now telling me that ff_rgb24ToY_ssse3
596                    over-reads by more then _avx.  I can't follow the code to work out how much,
597                    so I'll just over-allocate by 32 bytes and have done with it.  Empirical
598                    testing suggests that it works.
599                 */
600                 _data[i] = (uint8_t *) wrapped_av_malloc (_stride[i] * sample_size(i).height + 32);
601         }
602 }
603
604 Image::Image (Image const & other)
605         : _size (other._size)
606         , _pixel_format (other._pixel_format)
607         , _aligned (other._aligned)
608 {
609         allocate ();
610
611         for (int i = 0; i < planes(); ++i) {
612                 uint8_t* p = _data[i];
613                 uint8_t* q = other._data[i];
614                 int const lines = sample_size(i).height;
615                 for (int j = 0; j < lines; ++j) {
616                         memcpy (p, q, _line_size[i]);
617                         p += stride()[i];
618                         q += other.stride()[i];
619                 }
620         }
621 }
622
623 Image::Image (AVFrame* frame)
624         : _size (frame->width, frame->height)
625         , _pixel_format (static_cast<AVPixelFormat> (frame->format))
626         , _aligned (true)
627 {
628         allocate ();
629
630         for (int i = 0; i < planes(); ++i) {
631                 uint8_t* p = _data[i];
632                 uint8_t* q = frame->data[i];
633                 int const lines = sample_size(i).height;
634                 for (int j = 0; j < lines; ++j) {
635                         memcpy (p, q, _line_size[i]);
636                         p += stride()[i];
637                         /* AVFrame's linesize is what we call `stride' */
638                         q += frame->linesize[i];
639                 }
640         }
641 }
642
643 Image::Image (shared_ptr<const Image> other, bool aligned)
644         : _size (other->_size)
645         , _pixel_format (other->_pixel_format)
646         , _aligned (aligned)
647 {
648         allocate ();
649
650         for (int i = 0; i < planes(); ++i) {
651                 DCPOMATIC_ASSERT (line_size()[i] == other->line_size()[i]);
652                 uint8_t* p = _data[i];
653                 uint8_t* q = other->data()[i];
654                 int const lines = sample_size(i).height;
655                 for (int j = 0; j < lines; ++j) {
656                         memcpy (p, q, line_size()[i]);
657                         p += stride()[i];
658                         q += other->stride()[i];
659                 }
660         }
661 }
662
663 Image&
664 Image::operator= (Image const & other)
665 {
666         if (this == &other) {
667                 return *this;
668         }
669
670         Image tmp (other);
671         swap (tmp);
672         return *this;
673 }
674
675 void
676 Image::swap (Image & other)
677 {
678         std::swap (_size, other._size);
679         std::swap (_pixel_format, other._pixel_format);
680
681         for (int i = 0; i < 4; ++i) {
682                 std::swap (_data[i], other._data[i]);
683                 std::swap (_line_size[i], other._line_size[i]);
684                 std::swap (_stride[i], other._stride[i]);
685         }
686
687         std::swap (_aligned, other._aligned);
688 }
689
690 /** Destroy a Image */
691 Image::~Image ()
692 {
693         for (int i = 0; i < planes(); ++i) {
694                 av_free (_data[i]);
695         }
696
697         av_free (_data);
698         av_free (_line_size);
699         av_free (_stride);
700 }
701
702 uint8_t * const *
703 Image::data () const
704 {
705         return _data;
706 }
707
708 int const *
709 Image::line_size () const
710 {
711         return _line_size;
712 }
713
714 int const *
715 Image::stride () const
716 {
717         return _stride;
718 }
719
720 dcp::Size
721 Image::size () const
722 {
723         return _size;
724 }
725
726 bool
727 Image::aligned () const
728 {
729         return _aligned;
730 }
731
732 PositionImage
733 merge (list<PositionImage> images)
734 {
735         if (images.empty ()) {
736                 return PositionImage ();
737         }
738
739         if (images.size() == 1) {
740                 return images.front ();
741         }
742
743         dcpomatic::Rect<int> all (images.front().position, images.front().image->size().width, images.front().image->size().height);
744         for (list<PositionImage>::const_iterator i = images.begin(); i != images.end(); ++i) {
745                 all.extend (dcpomatic::Rect<int> (i->position, i->image->size().width, i->image->size().height));
746         }
747
748         shared_ptr<Image> merged (new Image (images.front().image->pixel_format (), dcp::Size (all.width, all.height), true));
749         merged->make_transparent ();
750         for (list<PositionImage>::const_iterator i = images.begin(); i != images.end(); ++i) {
751                 merged->alpha_blend (i->image, i->position - all.position());
752         }
753
754         return PositionImage (merged, all.position ());
755 }
756
757 bool
758 operator== (Image const & a, Image const & b)
759 {
760         if (a.planes() != b.planes() || a.pixel_format() != b.pixel_format() || a.aligned() != b.aligned()) {
761                 return false;
762         }
763
764         for (int c = 0; c < a.planes(); ++c) {
765                 if (a.sample_size(c).height != b.sample_size(c).height || a.line_size()[c] != b.line_size()[c] || a.stride()[c] != b.stride()[c]) {
766                         return false;
767                 }
768
769                 uint8_t* p = a.data()[c];
770                 uint8_t* q = b.data()[c];
771                 int const lines = a.sample_size(c).height;
772                 for (int y = 0; y < lines; ++y) {
773                         if (memcmp (p, q, a.line_size()[c]) != 0) {
774                                 return false;
775                         }
776
777                         p += a.stride()[c];
778                         q += b.stride()[c];
779                 }
780         }
781
782         return true;
783 }
784
785 /** Fade the image.
786  *  @param f Amount to fade by; 0 is black, 1 is no fade.
787  */
788 void
789 Image::fade (float f)
790 {
791         switch (_pixel_format) {
792         case AV_PIX_FMT_YUV420P:
793         case AV_PIX_FMT_YUV422P:
794         case AV_PIX_FMT_YUV444P:
795         case AV_PIX_FMT_YUV411P:
796         case AV_PIX_FMT_YUVJ420P:
797         case AV_PIX_FMT_YUVJ422P:
798         case AV_PIX_FMT_YUVJ444P:
799         case AV_PIX_FMT_RGB24:
800         case AV_PIX_FMT_ARGB:
801         case AV_PIX_FMT_RGBA:
802         case AV_PIX_FMT_ABGR:
803         case AV_PIX_FMT_BGRA:
804         case AV_PIX_FMT_RGB555LE:
805                 /* 8-bit */
806                 for (int c = 0; c < 3; ++c) {
807                         uint8_t* p = data()[c];
808                         int const lines = sample_size(c).height;
809                         for (int y = 0; y < lines; ++y) {
810                                 uint8_t* q = p;
811                                 for (int x = 0; x < line_size()[c]; ++x) {
812                                         *q = int (float (*q) * f);
813                                         ++q;
814                                 }
815                                 p += stride()[c];
816                         }
817                 }
818                 break;
819
820         case AV_PIX_FMT_YUV422P9LE:
821         case AV_PIX_FMT_YUV444P9LE:
822         case AV_PIX_FMT_YUV422P10LE:
823         case AV_PIX_FMT_YUV444P10LE:
824         case AV_PIX_FMT_YUV422P16LE:
825         case AV_PIX_FMT_YUV444P16LE:
826         case AV_PIX_FMT_YUVA420P9LE:
827         case AV_PIX_FMT_YUVA422P9LE:
828         case AV_PIX_FMT_YUVA444P9LE:
829         case AV_PIX_FMT_YUVA420P10LE:
830         case AV_PIX_FMT_YUVA422P10LE:
831         case AV_PIX_FMT_YUVA444P10LE:
832         case AV_PIX_FMT_RGB48LE:
833                 /* 16-bit little-endian */
834                 for (int c = 0; c < 3; ++c) {
835                         int const stride_pixels = stride()[c] / 2;
836                         int const line_size_pixels = line_size()[c] / 2;
837                         uint16_t* p = reinterpret_cast<uint16_t*> (data()[c]);
838                         int const lines = sample_size(c).height;
839                         for (int y = 0; y < lines; ++y) {
840                                 uint16_t* q = p;
841                                 for (int x = 0; x < line_size_pixels; ++x) {
842                                         *q = int (float (*q) * f);
843                                         ++q;
844                                 }
845                                 p += stride_pixels;
846                         }
847                 }
848                 break;
849
850         case AV_PIX_FMT_YUV422P9BE:
851         case AV_PIX_FMT_YUV444P9BE:
852         case AV_PIX_FMT_YUV444P10BE:
853         case AV_PIX_FMT_YUV422P10BE:
854         case AV_PIX_FMT_YUVA420P9BE:
855         case AV_PIX_FMT_YUVA422P9BE:
856         case AV_PIX_FMT_YUVA444P9BE:
857         case AV_PIX_FMT_YUVA420P10BE:
858         case AV_PIX_FMT_YUVA422P10BE:
859         case AV_PIX_FMT_YUVA444P10BE:
860         case AV_PIX_FMT_YUVA420P16BE:
861         case AV_PIX_FMT_YUVA422P16BE:
862         case AV_PIX_FMT_YUVA444P16BE:
863         case AV_PIX_FMT_RGB48BE:
864                 /* 16-bit big-endian */
865                 for (int c = 0; c < 3; ++c) {
866                         int const stride_pixels = stride()[c] / 2;
867                         int const line_size_pixels = line_size()[c] / 2;
868                         uint16_t* p = reinterpret_cast<uint16_t*> (data()[c]);
869                         int const lines = sample_size(c).height;
870                         for (int y = 0; y < lines; ++y) {
871                                 uint16_t* q = p;
872                                 for (int x = 0; x < line_size_pixels; ++x) {
873                                         *q = swap_16 (int (float (swap_16 (*q)) * f));
874                                         ++q;
875                                 }
876                                 p += stride_pixels;
877                         }
878                 }
879                 break;
880
881         case AV_PIX_FMT_UYVY422:
882         {
883                 int const Y = sample_size(0).height;
884                 int const X = line_size()[0];
885                 uint8_t* p = data()[0];
886                 for (int y = 0; y < Y; ++y) {
887                         for (int x = 0; x < X; ++x) {
888                                 *p = int (float (*p) * f);
889                                 ++p;
890                         }
891                 }
892                 break;
893         }
894
895         default:
896                 throw PixelFormatError ("fade()", _pixel_format);
897         }
898 }