Write back cache mode.
[lwext4.git] / lwext4 / ext4_blockdev.c
1 /*
2  * Copyright (c) 2013 Grzegorz Kostka (kostka.grzegorz@gmail.com)
3  * All rights reserved.
4  *
5  * Redistribution and use in source and binary forms, with or without
6  * modification, are permitted provided that the following conditions
7  * are met:
8  *
9  * - Redistributions of source code must retain the above copyright
10  *   notice, this list of conditions and the following disclaimer.
11  * - Redistributions in binary form must reproduce the above copyright
12  *   notice, this list of conditions and the following disclaimer in the
13  *   documentation and/or other materials provided with the distribution.
14  * - The name of the author may not be used to endorse or promote products
15  *   derived from this software without specific prior written permission.
16  *
17  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR ``AS IS'' AND ANY EXPRESS OR
18  * IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE IMPLIED WARRANTIES
19  * OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE ARE DISCLAIMED.
20  * IN NO EVENT SHALL THE AUTHOR BE LIABLE FOR ANY DIRECT, INDIRECT,
21  * INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT
22  * NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE,
23  * DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY
24  * THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
25  * (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF
26  * THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
27  */
28
29 /** @addtogroup lwext4
30  * @{
31  */
32 /**
33  * @file  ext4_blockdev.c
34  * @brief Block device module.
35  */
36
37 #include <ext4_config.h>
38 #include <ext4_blockdev.h>
39 #include <ext4_errno.h>
40 #include <ext4_debug.h>
41
42 #include <string.h>
43 #include <stdlib.h>
44
45
46
47 int ext4_block_init(struct ext4_blockdev *bdev)
48 {
49     int rc;
50     ext4_assert(bdev);
51
52     ext4_assert(bdev->open && bdev->close && bdev->bread  && bdev->bwrite);
53
54     /*Low level block init*/
55     rc = bdev->open(bdev);
56     if(rc != EOK)
57         return rc;
58
59     bdev->flags |= EXT4_BDEV_INITIALIZED;
60
61     return EOK;
62 }
63
64 int ext4_block_bind_bcache(struct ext4_blockdev *bdev, struct ext4_bcache *bc)
65 {
66     ext4_assert(bdev && bc);
67     bdev->bc = bc;
68     return EOK;
69 }
70
71 void ext4_block_set_lb_size(struct ext4_blockdev *bdev, uint64_t lb_bsize)
72 {
73     /*Logical block size has to be multiply of physical */
74     ext4_assert(!(lb_bsize % bdev->ph_bsize));
75
76     bdev->lg_bsize = lb_bsize;
77     bdev->lg_bcnt = (bdev->ph_bcnt * bdev->ph_bsize) / lb_bsize;
78
79 }
80
81 int ext4_block_fini(struct ext4_blockdev *bdev)
82 {
83     ext4_assert(bdev);
84
85     bdev->flags &= ~(EXT4_BDEV_INITIALIZED);
86
87     /*Low level block fini*/
88     return bdev->close(bdev);
89 }
90
91
92 int ext4_block_get(struct ext4_blockdev *bdev, struct ext4_block *b,
93     uint64_t lba)
94 {
95     uint64_t pba;
96     uint32_t pb_cnt;
97     uint32_t i;
98     bool is_new;
99     int r;
100
101     ext4_assert(bdev && b);
102
103     if(!(bdev->flags & EXT4_BDEV_INITIALIZED))
104         return EIO;
105
106     if(!(lba < bdev->lg_bcnt))
107         return ERANGE;
108
109     b->dirty = 0;
110     b->lb_id = lba;
111
112     /*If cache is full we have to flush it anyway :(*/
113     if(ext4_bcache_is_full(bdev->bc) && bdev->cache_write_back){
114         for (i = 0; i < bdev->bc->cnt; ++i) {
115             /*Check if buffer free was delayed.*/
116             if(!bdev->bc->free_delay[i])
117                 continue;
118
119             /*Check reference counter.*/
120             if(bdev->bc->refctr[i])
121                 continue;
122
123             /*Buffer free was delayed and have no reference. Flush it.*/
124             r = ext4_blocks_set_direct(bdev,
125                     bdev->bc->data + bdev->bc->itemsize * i,
126                     bdev->bc->lba[i], 1);
127             if(r != EOK)
128                 return r;
129
130             /*No delayed anymore*/
131             bdev->bc->free_delay[i] = 0;
132
133             /*Reduce refered block count*/
134             bdev->bc->ref_blocks--;
135         }
136     }
137
138
139     r = ext4_bcache_alloc(bdev->bc, b, &is_new);
140     if(r != EOK)
141         return r;
142
143
144     if(!is_new){
145         /*Block is in cache. Read from physical device is not required*/
146         return EOK;
147     }
148
149     if(!b->data)
150         return ENOMEM;
151
152     pba = (lba * bdev->lg_bsize) / bdev->ph_bsize;
153     pb_cnt = bdev->lg_bsize / bdev->ph_bsize;
154
155     r = bdev->bread(bdev, b->data, pba, pb_cnt);
156
157     if(r != EOK){
158         ext4_bcache_free(bdev->bc, b, 0);
159         b->lb_id = 0;
160         return r;
161     }
162
163     bdev->bread_ctr++;
164     return EOK;
165 }
166
167 int ext4_block_set(struct ext4_blockdev *bdev, struct ext4_block *b)
168 {
169     uint64_t pba;
170     uint32_t pb_cnt;
171     int r;
172
173     ext4_assert(bdev && b);
174
175     if(!(bdev->flags & EXT4_BDEV_INITIALIZED))
176         return EIO;
177
178     /*Doesn,t need to write.*/
179     if(b->dirty == false && !bdev->bc->dirty[b->cache_id]){
180         ext4_bcache_free(bdev->bc, b, 0);
181         return EOK;
182     }
183
184     /*Free cache delay mode*/
185     if(bdev->cache_write_back){
186
187         /*Free cahe block and mark as free delayed*/
188         return ext4_bcache_free(bdev->bc, b, bdev->cache_write_back);
189     }
190
191     pba = (b->lb_id * bdev->lg_bsize) / bdev->ph_bsize;
192     pb_cnt = bdev->lg_bsize / bdev->ph_bsize;
193
194     if(bdev->bc->refctr[b->cache_id] > 1){
195         bdev->bc->dirty[b->cache_id] = true;
196         return ext4_bcache_free(bdev->bc, b, 0);
197     }
198
199     r = bdev->bwrite(bdev, b->data, pba, pb_cnt);
200     bdev->bc->dirty[b->cache_id] = false;
201     if(r != EOK){
202         b->dirty = false;
203         ext4_bcache_free(bdev->bc, b, 0);
204         return r;
205     }
206
207     bdev->bwrite_ctr++;
208     b->dirty = false;
209     ext4_bcache_free(bdev->bc, b, 0);
210     return EOK;
211 }
212
213 int ext4_blocks_get_direct(struct ext4_blockdev *bdev, void *buf,
214     uint64_t lba, uint32_t cnt)
215 {
216     uint64_t pba;
217     uint32_t pb_cnt;
218
219     ext4_assert(bdev && buf);
220
221     pba = (lba * bdev->lg_bsize) / bdev->ph_bsize;
222     pb_cnt = bdev->lg_bsize / bdev->ph_bsize;
223
224     bdev->bread_ctr++;
225     return bdev->bread(bdev, buf, pba, pb_cnt * cnt);
226 }
227
228 int ext4_blocks_set_direct(struct ext4_blockdev *bdev, const void *buf,
229     uint64_t lba, uint32_t cnt)
230 {
231     uint64_t pba;
232     uint32_t pb_cnt;
233
234     ext4_assert(bdev && buf);
235
236     pba = (lba * bdev->lg_bsize) / bdev->ph_bsize;
237     pb_cnt = bdev->lg_bsize / bdev->ph_bsize;
238
239     bdev->bwrite_ctr++;
240
241     return bdev->bwrite(bdev, buf, pba, pb_cnt * cnt);
242 }
243
244
245 int ext4_block_writebytes(struct ext4_blockdev *bdev, uint64_t off,
246     const void *buf, uint32_t len)
247 {
248     uint64_t block_idx;
249     uint64_t block_end;
250     uint32_t blen;
251     uint32_t unalg;
252     int r = EOK;
253
254     const uint8_t *p = (void *)buf;
255
256     ext4_assert(bdev && buf);
257
258     if(!(bdev->flags & EXT4_BDEV_INITIALIZED))
259         return EIO;
260
261     block_idx =  off / bdev->ph_bsize;
262     block_end   =  block_idx + len / bdev->ph_bsize;
263
264     if(!(block_end < bdev->ph_bcnt))
265         return EINVAL;  /*Ups. Out of range operation*/
266
267     /*OK lets deal with the first possible unaligned block*/
268     unalg = (off & (bdev->ph_bsize - 1));
269     if(unalg){
270
271         uint32_t wlen = (bdev->ph_bsize - unalg) > len ?
272                 len : (bdev->ph_bsize - unalg);
273
274         r = bdev->bread(bdev, bdev->ph_bbuf, block_idx, 1);
275
276         if(r != EOK)
277             return r;
278
279         memcpy(bdev->ph_bbuf + unalg, p, wlen);
280
281         r = bdev->bwrite(bdev, bdev->ph_bbuf, block_idx, 1);
282         if(r != EOK)
283             return r;
284
285         p   += wlen;
286         len -= wlen;
287         block_idx++;
288     }
289
290
291     /*Aligned data*/
292     blen = len / bdev->ph_bsize;
293     r = bdev->bwrite(bdev, p, block_idx, blen);
294
295     if(r != EOK)
296         return r;
297
298     p += bdev->ph_bsize * blen;
299     len -= bdev->ph_bsize * blen;
300
301     block_idx += blen;
302
303
304     /*Rest of the data*/
305     if(len){
306         r = bdev->bread(bdev, bdev->ph_bbuf, block_idx, 1);
307         if(r != EOK)
308             return r;
309
310         memcpy(bdev->ph_bbuf, p, len);
311
312         r = bdev->bwrite(bdev, bdev->ph_bbuf, block_idx, 1);
313
314         if(r != EOK)
315             return r;
316     }
317
318     return r;
319 }
320
321
322 int ext4_block_readbytes(struct ext4_blockdev *bdev, uint64_t off, void *buf,
323     uint32_t len)
324 {
325     uint64_t block_idx;
326     uint64_t block_end;
327     uint32_t blen;
328     uint32_t unalg;
329     int r = EOK;
330
331     uint8_t *p = (void *)buf;
332
333     ext4_assert(bdev && buf);
334
335     if(!(bdev->flags & EXT4_BDEV_INITIALIZED))
336         return EIO;
337
338     block_idx = off / bdev->ph_bsize;
339     block_end = block_idx + len / bdev->ph_bsize;
340
341     if(!(block_end < bdev->ph_bcnt))
342         return EINVAL;      /*Ups. Out of range operation*/
343
344     /*OK lets deal with the first possible unaligned block*/
345     unalg = (off & (bdev->ph_bsize - 1));
346     if(unalg){
347
348         uint32_t rlen = (bdev->ph_bsize - unalg) > len ?
349                 len : (bdev->ph_bsize - unalg);
350
351         r = bdev->bread(bdev, bdev->ph_bbuf, block_idx, 1);
352         if(r != EOK)
353             return r;
354
355         memcpy(p, bdev->ph_bbuf + unalg, rlen);
356
357         p   += rlen;
358         len -= rlen;
359         block_idx++;
360     }
361
362     /*Aligned data*/
363     blen = len / bdev->ph_bsize;
364
365     r = bdev->bread(bdev, p, block_idx, blen);
366
367     if(r != EOK)
368         return r;
369
370     p += bdev->ph_bsize * blen;
371     len -= bdev->ph_bsize * blen;
372
373     block_idx += blen;
374
375
376     /*Rest of the data*/
377     if(len){
378         r = bdev->bread(bdev, bdev->ph_bbuf, block_idx, 1);
379         if(r != EOK)
380             return r;
381
382         memcpy(p, bdev->ph_bbuf, len);
383     }
384
385     return r;
386 }
387
388 int ext4_block_cache_write_back(struct ext4_blockdev *bdev,
389     uint8_t on_off)
390 {
391     int r;
392     uint32_t i;
393
394     if(on_off)
395         bdev->cache_write_back++;
396
397     if(!on_off && bdev->cache_write_back)
398         bdev->cache_write_back--;
399
400     /*Flush all delayed cache blocks*/
401     if(!bdev->cache_write_back){
402         for (i = 0; i < bdev->bc->cnt; ++i) {
403
404             /*Check if buffer free was delayed.*/
405             if(!bdev->bc->free_delay[i])
406                 continue;
407
408             /*Check reference counter.*/
409             if(bdev->bc->refctr[i])
410                 continue;
411
412             /*Buffer free was delayed and have no reference. Flush it.*/
413             r = ext4_blocks_set_direct(bdev,
414                     bdev->bc->data + bdev->bc->itemsize * i,
415                     bdev->bc->lba[i], 1);
416             if(r != EOK)
417                 return r;
418
419             /*No delayed anymore*/
420             bdev->bc->free_delay[i] = 0;
421
422             /*Reduce refered block count*/
423             bdev->bc->ref_blocks--;
424         }
425     }
426     return EOK;
427 }
428
429 /**
430  * @}
431  */
432