enough with umpteen "i18n.h" files. Consolidate on pbd/i18n.h
[ardour.git] / libs / pbd / pbd / abstract_ui.cc
1 /*
2     Copyright (C) 2012 Paul Davis
3
4     This program is free software; you can redistribute it and/or modify
5     it under the terms of the GNU General Public License as published by
6     the Free Software Foundation; either version 2 of the License, or
7     (at your option) any later version.
8
9     This program is distributed in the hope that it will be useful,
10     but WITHOUT ANY WARRANTY; without even the implied warranty of
11     MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
12     GNU General Public License for more details.
13
14     You should have received a copy of the GNU General Public License
15     along with this program; if not, write to the Free Software
16     Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
17 */
18
19 #include <unistd.h>
20 #include <iostream>
21 #include <algorithm>
22
23 #include "pbd/stacktrace.h"
24 #include "pbd/abstract_ui.h"
25 #include "pbd/pthread_utils.h"
26 #include "pbd/failed_constructor.h"
27 #include "pbd/debug.h"
28
29 #include "pbd/i18n.h"
30
31 #ifdef COMPILER_MSVC
32 #include <ardourext/misc.h>  // Needed for 'DECLARE_DEFAULT_COMPARISONS'. Objects in an STL container can be
33                              // searched and sorted. Thus, when instantiating the container, MSVC complains
34                              // if the type of object being contained has no appropriate comparison operators
35                              // defined (specifically, if operators '<' and '==' are undefined). This seems
36                              // to be the case with ptw32 'pthread_t' which is a simple struct.
37 DECLARE_DEFAULT_COMPARISONS(ptw32_handle_t)
38 #endif
39
40 using namespace std;
41
42 template<typename RequestBuffer> void
43 cleanup_request_buffer (void* ptr)
44 {
45         RequestBuffer* rb = (RequestBuffer*) ptr;
46
47         /* this is called when the thread for which this request buffer was
48          * allocated dies. That could be before or after the end of the UI
49          * event loop for which this request buffer provides communication.
50          *
51          * We are not modifying the UI's thread/buffer map, just marking it
52          * dead. If the UI is currently processing the buffers and misses
53          * this "dead" signal, it will find it the next time it receives
54          * a request. If the UI has finished processing requests, then
55          * we will leak this buffer object.
56          */
57         DEBUG_TRACE (PBD::DEBUG::AbstractUI, string_compose ("thread \"%1\" exits: marking request buffer as dead @ %2\n", pthread_name(), rb));
58         rb->dead = true;
59 }
60
61 template<typename R>
62 Glib::Threads::Private<typename AbstractUI<R>::RequestBuffer> AbstractUI<R>::per_thread_request_buffer (cleanup_request_buffer<AbstractUI<R>::RequestBuffer>);
63
64 template <typename RequestObject>
65 AbstractUI<RequestObject>::AbstractUI (const string& name)
66         : BaseUI (name)
67 {
68         void (AbstractUI<RequestObject>::*pmf)(pthread_t,string,uint32_t) = &AbstractUI<RequestObject>::register_thread;
69
70         /* better to make this connect a handler that runs in the UI event loop but the syntax seems hard, and
71            register_thread() is thread safe anyway.
72         */
73
74         PBD::ThreadCreatedWithRequestSize.connect_same_thread (new_thread_connection, boost::bind (pmf, this, _1, _2, _3));
75
76         /* find pre-registerer threads */
77
78         vector<EventLoop::ThreadBufferMapping> tbm = EventLoop::get_request_buffers_for_target_thread (event_loop_name());
79
80         {
81                 Glib::Threads::Mutex::Lock lm (request_buffer_map_lock);
82                 for (vector<EventLoop::ThreadBufferMapping>::iterator t = tbm.begin(); t != tbm.end(); ++t) {
83                         request_buffers[t->emitting_thread] = static_cast<RequestBuffer*> (t->request_buffer);
84                 }
85         }
86 }
87
88 template <typename RequestObject> void
89 AbstractUI<RequestObject>::register_thread (pthread_t thread_id, string thread_name, uint32_t num_requests)
90 {
91         /* the calling thread wants to register with the thread that runs this
92          * UI's event loop, so that it will have its own per-thread queue of
93          * requests. this means that when it makes a request to this UI it can
94          * do so in a realtime-safe manner (no locks).
95          */
96
97         DEBUG_TRACE (PBD::DEBUG::AbstractUI, string_compose ("in %1 (thread name %4), %2 (%5) wants to register with UIs\n", event_loop_name(), thread_name, pthread_name(), DEBUG_THREAD_SELF));
98
99         /* the per_thread_request_buffer is a thread-private variable.
100            See pthreads documentation for more on these, but the key
101            thing is that it is a variable that as unique value for
102            each thread, guaranteed. Note that the thread in question
103            is the caller of this function, which is assumed to be the
104            thread from which signals will be emitted that this UI's
105            event loop will catch.
106         */
107
108         RequestBuffer* b = per_thread_request_buffer.get();
109
110         if (!b) {
111
112                 /* create a new request queue/ringbuffer */
113
114                 DEBUG_TRACE (PBD::DEBUG::AbstractUI, string_compose ("create new request buffer for %1 in %2\n", thread_name, event_loop_name()));
115
116                 b = new RequestBuffer (num_requests);
117                 /* set this thread's per_thread_request_buffer to this new
118                    queue/ringbuffer. remember that only this thread will
119                    get this queue when it calls per_thread_request_buffer.get()
120
121                    the second argument is a function that will be called
122                    when the thread exits, and ensures that the buffer is marked
123                    dead. it will then be deleted during a call to handle_ui_requests()
124                 */
125
126                 per_thread_request_buffer.set (b);
127         } else {
128                 DEBUG_TRACE (PBD::DEBUG::AbstractUI, string_compose ("%1 : %2 is already registered\n", event_loop_name(), thread_name));
129         }
130
131         {
132                 /* add the new request queue (ringbuffer) to our map
133                    so that we can iterate over it when the time is right.
134                    This step is not RT-safe, but is assumed to be called
135                    only at thread initialization time, not repeatedly,
136                    and so this is of little consequence.
137                 */
138                 Glib::Threads::Mutex::Lock lm (request_buffer_map_lock);
139                 request_buffers[thread_id] = b;
140         }
141
142 }
143
144 template <typename RequestObject> RequestObject*
145 AbstractUI<RequestObject>::get_request (RequestType rt)
146 {
147         RequestBuffer* rbuf = per_thread_request_buffer.get ();
148         RequestBufferVector vec;
149
150         /* see comments in ::register_thread() above for an explanation of
151            the per_thread_request_buffer variable
152         */
153
154         if (rbuf != 0) {
155
156                 /* the calling thread has registered with this UI and therefore
157                  * we have a per-thread request queue/ringbuffer. use it. this
158                  * "allocation" of a request is RT-safe.
159                  */
160
161                 rbuf->get_write_vector (&vec);
162
163                 if (vec.len[0] == 0) {
164                         DEBUG_TRACE (PBD::DEBUG::AbstractUI, string_compose ("%1: no space in per thread pool for request of type %2\n", event_loop_name(), rt));
165                         return 0;
166                 }
167
168                 DEBUG_TRACE (PBD::DEBUG::AbstractUI, string_compose ("%1: allocated per-thread request of type %2, caller %3\n", event_loop_name(), rt, pthread_name()));
169
170                 vec.buf[0]->type = rt;
171                 vec.buf[0]->valid = true;
172                 return vec.buf[0];
173         }
174
175         /* calling thread has not registered, so just allocate a new request on
176          * the heap. the lack of registration implies that realtime constraints
177          * are not at work.
178          */
179
180         DEBUG_TRACE (PBD::DEBUG::AbstractUI, string_compose ("%1: allocated normal heap request of type %2, caller %3\n", event_loop_name(), rt, pthread_name()));
181
182         RequestObject* req = new RequestObject;
183         req->type = rt;
184
185         return req;
186 }
187
188 template <typename RequestObject> void
189 AbstractUI<RequestObject>::handle_ui_requests ()
190 {
191         RequestBufferMapIterator i;
192         RequestBufferVector vec;
193
194         /* check all registered per-thread buffers first */
195
196         request_buffer_map_lock.lock ();
197
198         DEBUG_TRACE (PBD::DEBUG::AbstractUI, string_compose ("%1 check %2 request buffers for requests\n", event_loop_name(), request_buffers.size()));
199
200         for (i = request_buffers.begin(); i != request_buffers.end(); ++i) {
201
202                 while (true) {
203
204                         /* we must process requests 1 by 1 because
205                          * the request may run a recursive main
206                          * event loop that will itself call
207                          * handle_ui_requests. when we return
208                          * from the request handler, we cannot
209                          * expect that the state of queued requests
210                          * is even remotely consistent with
211                          * the condition before we called it.
212                          */
213
214                         i->second->get_read_vector (&vec);
215
216                         DEBUG_TRACE (PBD::DEBUG::AbstractUI, string_compose ("%1 reading requests from RB[%2] @ %5, requests = %3 + %4\n",
217                                                                              event_loop_name(), std::distance (request_buffers.begin(), i), vec.len[0], vec.len[1], i->second));
218
219                         if (vec.len[0] == 0) {
220                                 break;
221                         } else {
222                                 if (vec.buf[0]->valid) {
223                                         DEBUG_TRACE (PBD::DEBUG::AbstractUI, string_compose ("%1: valid request, unlocking before calling\n", event_loop_name()));
224                                         request_buffer_map_lock.unlock ();
225                                         DEBUG_TRACE (PBD::DEBUG::AbstractUI, string_compose ("%1: valid request, calling ::do_request()\n", event_loop_name()));
226                                         do_request (vec.buf[0]);
227
228                                         /* if the request was CallSlot, then we need to ensure that we reset the functor in the request, in case it
229                                          * held a shared_ptr<>. Failure to do so can lead to dangling references to objects passed to PBD::Signals.
230                                          *
231                                          * Note that this method (::handle_ui_requests()) is by definition called from the event loop thread, so
232                                          * caller_is_self() is true, which means that the execution of the functor has definitely happened after
233                                          * do_request() returns and we no longer need the functor for any reason.
234                                          */
235
236                                         if (vec.buf[0]->type == CallSlot) {
237                                                 vec.buf[0]->the_slot = 0;
238                                         }
239
240                                         request_buffer_map_lock.lock ();
241                                         if (vec.buf[0]->invalidation) {
242                                                 DEBUG_TRACE (PBD::DEBUG::AbstractUI, string_compose ("%1: removing invalidation record for that request\n", event_loop_name()));
243                                                 vec.buf[0]->invalidation->requests.remove (vec.buf[0]);
244                                         } else {
245                                                 DEBUG_TRACE (PBD::DEBUG::AbstractUI, string_compose ("%1: no invalidation record for that request\n", event_loop_name()));
246                                         }
247                                 } else {
248                                         DEBUG_TRACE (PBD::DEBUG::AbstractUI, "invalid request, ignoring\n");
249                                 }
250                                 i->second->increment_read_ptr (1);
251                         }
252                 }
253         }
254
255         /* clean up any dead request buffers (their thread has exited) */
256
257         for (i = request_buffers.begin(); i != request_buffers.end(); ) {
258                 if ((*i).second->dead) {
259                         DEBUG_TRACE (PBD::DEBUG::AbstractUI, string_compose ("%1/%2 deleting dead per-thread request buffer for %3 @ %4\n",
260                                                                              event_loop_name(), pthread_name(), i->second));
261                         /* remove it from the EventLoop static map of all request buffers */
262                         EventLoop::remove_request_buffer_from_map ((*i).second);
263                         /* delete it */
264                         delete (*i).second;
265                         RequestBufferMapIterator tmp = i;
266                         ++tmp;
267                         /* remove it from this thread's list of request buffers */
268                         request_buffers.erase (i);
269                         i = tmp;
270                 } else {
271                         ++i;
272                 }
273         }
274
275         request_buffer_map_lock.unlock ();
276
277         /* and now, the generic request buffer. same rules as above apply */
278
279         Glib::Threads::Mutex::Lock lm (request_list_lock);
280
281         while (!request_list.empty()) {
282                 RequestObject* req = request_list.front ();
283                 request_list.pop_front ();
284
285                 /* We need to use this lock, because its the one
286                  * returned by slot_invalidation_mutex() and protects
287                  * against request invalidation.
288                  */
289
290                 request_buffer_map_lock.lock ();
291                 if (!req->valid) {
292                         DEBUG_TRACE (PBD::DEBUG::AbstractUI, string_compose ("%1/%2 handling invalid heap request, type %3, deleting\n", event_loop_name(), pthread_name(), req->type));
293                         delete req;
294                         request_buffer_map_lock.unlock ();
295                         continue;
296                 }
297
298                 /* we're about to execute this request, so its
299                  * too late for any invalidation. mark
300                  * the request as "done" before we start.
301                  */
302
303                 if (req->invalidation) {
304                         DEBUG_TRACE (PBD::DEBUG::AbstractUI, string_compose ("%1/%2 remove request from its invalidation list\n", event_loop_name(), pthread_name()));
305
306                         /* after this call, if the object referenced by the
307                          * invalidation record is deleted, it will no longer
308                          * try to mark the request as invalid.
309                          */
310
311                         req->invalidation->requests.remove (req);
312                 }
313
314                 /* at this point, an object involved in a functor could be
315                  * deleted before we actually execute the functor. so there is
316                  * a race condition that makes the invalidation architecture
317                  * somewhat pointless.
318                  *
319                  * really, we should only allow functors containing shared_ptr
320                  * references to objects to enter into the request queue.
321                  */
322
323                 request_buffer_map_lock.unlock ();
324
325                 /* unlock the request lock while we execute the request, so
326                  * that we don't needlessly block other threads (note: not RT
327                  * threads since they have their own queue) from making requests.
328                  */
329
330                 lm.release ();
331
332                 DEBUG_TRACE (PBD::DEBUG::AbstractUI, string_compose ("%1/%2 execute request type %3\n", event_loop_name(), pthread_name(), req->type));
333
334                 /* and lets do it ... this is a virtual call so that each
335                  * specific type of UI can have its own set of requests without
336                  * some kind of central request type registration logic
337                  */
338
339                 do_request (req);
340
341                 DEBUG_TRACE (PBD::DEBUG::AbstractUI, string_compose ("%1/%2 delete heap request type %3\n", event_loop_name(), pthread_name(), req->type));
342                 delete req;
343
344                 /* re-acquire the list lock so that we check again */
345
346                 lm.acquire();
347         }
348 }
349
350 template <typename RequestObject> void
351 AbstractUI<RequestObject>::send_request (RequestObject *req)
352 {
353         /* This is called to ask a given UI to carry out a request. It may be
354          * called from the same thread that runs the UI's event loop (see the
355          * caller_is_self() case below), or from any other thread.
356          */
357
358         if (base_instance() == 0) {
359                 return; /* XXX is this the right thing to do ? */
360         }
361
362         if (caller_is_self ()) {
363                 /* the thread that runs this UI's event loop is sending itself
364                    a request: we dispatch it immediately and inline.
365                 */
366                 DEBUG_TRACE (PBD::DEBUG::AbstractUI, string_compose ("%1/%2 direct dispatch of request type %3\n", event_loop_name(), pthread_name(), req->type));
367                 do_request (req);
368                 delete req;
369         } else {
370
371                 /* If called from a different thread, we first check to see if
372                  * the calling thread is registered with this UI. If so, there
373                  * is a per-thread ringbuffer of requests that ::get_request()
374                  * just set up a new request in. If so, all we need do here is
375                  * to advance the write ptr in that ringbuffer so that the next
376                  * request by this calling thread will use the next slot in
377                  * the ringbuffer. The ringbuffer has
378                  * single-reader/single-writer semantics because the calling
379                  * thread is the only writer, and the UI event loop is the only
380                  * reader.
381                  */
382
383                 RequestBuffer* rbuf = per_thread_request_buffer.get ();
384
385                 if (rbuf != 0) {
386                         DEBUG_TRACE (PBD::DEBUG::AbstractUI, string_compose ("%1/%2 send per-thread request type %3 using ringbuffer @ %4\n", event_loop_name(), pthread_name(), req->type, rbuf));
387                         rbuf->increment_write_ptr (1);
388                 } else {
389                         /* no per-thread buffer, so just use a list with a lock so that it remains
390                            single-reader/single-writer semantics
391                         */
392                         DEBUG_TRACE (PBD::DEBUG::AbstractUI, string_compose ("%1/%2 send heap request type %3\n", event_loop_name(), pthread_name(), req->type));
393                         Glib::Threads::Mutex::Lock lm (request_list_lock);
394                         request_list.push_back (req);
395                 }
396
397                 /* send the UI event loop thread a wakeup so that it will look
398                    at the per-thread and generic request lists.
399                 */
400
401                 signal_new_request ();
402         }
403 }
404
405 template<typename RequestObject> void
406 AbstractUI<RequestObject>::call_slot (InvalidationRecord* invalidation, const boost::function<void()>& f)
407 {
408         if (caller_is_self()) {
409                 DEBUG_TRACE (PBD::DEBUG::AbstractUI, string_compose ("%1/%2 direct dispatch of call slot via functor @ %3, invalidation %4\n", event_loop_name(), pthread_name(), &f, invalidation));
410                 f ();
411                 return;
412         }
413
414         RequestObject *req = get_request (BaseUI::CallSlot);
415
416         if (req == 0) {
417                 return;
418         }
419
420         DEBUG_TRACE (PBD::DEBUG::AbstractUI, string_compose ("%1/%2 queue call-slot using functor @ %3, invalidation %4\n", event_loop_name(), pthread_name(), &f, invalidation));
421
422         /* copy semantics: copy the functor into the request object */
423
424         req->the_slot = f;
425
426         /* the invalidation record is an object which will carry out
427          * invalidation of any requests associated with it when it is
428          * destroyed. it can be null. if its not null, associate this
429          * request with the invalidation record. this allows us to
430          * "cancel" requests submitted to the UI because they involved
431          * a functor that uses an object that is being deleted.
432          */
433
434         req->invalidation = invalidation;
435
436         if (invalidation) {
437                 invalidation->requests.push_back (req);
438                 invalidation->event_loop = this;
439         }
440
441         send_request (req);
442 }
443
444 template<typename RequestObject> void*
445 AbstractUI<RequestObject>::request_buffer_factory (uint32_t num_requests)
446 {
447         RequestBuffer*  mcr = new RequestBuffer (num_requests); // leaks
448         per_thread_request_buffer.set (mcr);
449         return mcr;
450 }