2009-04-13 Zoltan Varga <vargaz@gmail.com>
[mono.git] / mono / metadata / monitor.c
1 /*
2  * monitor.c:  Monitor locking functions
3  *
4  * Author:
5  *      Dick Porter (dick@ximian.com)
6  *
7  * Copyright 2003 Ximian, Inc (http://www.ximian.com)
8  * Copyright 2004-2009 Novell, Inc (http://www.novell.com)
9  */
10
11 #include <config.h>
12 #include <glib.h>
13 #include <string.h>
14
15 #include <mono/metadata/monitor.h>
16 #include <mono/metadata/threads-types.h>
17 #include <mono/metadata/exception.h>
18 #include <mono/metadata/threads.h>
19 #include <mono/io-layer/io-layer.h>
20 #include <mono/metadata/object-internals.h>
21 #include <mono/metadata/class-internals.h>
22 #include <mono/metadata/gc-internal.h>
23 #include <mono/metadata/method-builder.h>
24 #include <mono/metadata/debug-helpers.h>
25 #include <mono/metadata/tabledefs.h>
26 #include <mono/metadata/marshal.h>
27 #include <mono/metadata/profiler-private.h>
28 #include <mono/utils/mono-time.h>
29
30 /*
31  * Pull the list of opcodes
32  */
33 #define OPDEF(a,b,c,d,e,f,g,h,i,j) \
34         a = i,
35
36 enum {
37 #include "mono/cil/opcode.def"
38         LAST = 0xff
39 };
40 #undef OPDEF
41
42 /*#define LOCK_DEBUG(a) do { a; } while (0)*/
43 #define LOCK_DEBUG(a)
44
45 /*
46  * The monitor implementation here is based on
47  * http://www.usenix.org/events/jvm01/full_papers/dice/dice.pdf and
48  * http://www.research.ibm.com/people/d/dfb/papers/Bacon98Thin.ps
49  *
50  * The Dice paper describes a technique for saving lock record space
51  * by returning records to a free list when they become unused.  That
52  * sounds like unnecessary complexity to me, though if it becomes
53  * clear that unused lock records are taking up lots of space or we
54  * need to shave more time off by avoiding a malloc then we can always
55  * implement the free list idea later.  The timeout parameter to
56  * try_enter voids some of the assumptions about the reference count
57  * field in Dice's implementation too.  In his version, the thread
58  * attempting to lock a contended object will block until it succeeds,
59  * so the reference count will never be decremented while an object is
60  * locked.
61  *
62  * Bacon's thin locks have a fast path that doesn't need a lock record
63  * for the common case of locking an unlocked or shallow-nested
64  * object, but the technique relies on encoding the thread ID in 15
65  * bits (to avoid too much per-object space overhead.)  Unfortunately
66  * I don't think it's possible to reliably encode a pthread_t into 15
67  * bits. (The JVM implementation used seems to have a 15-bit
68  * per-thread identifier available.)
69  *
70  * This implementation then combines Dice's basic lock model with
71  * Bacon's simplification of keeping a lock record for the lifetime of
72  * an object.
73  */
74
75 struct _MonoThreadsSync
76 {
77         gsize owner;                    /* thread ID */
78         guint32 nest;
79 #ifdef HAVE_MOVING_COLLECTOR
80         gint32 hash_code;
81 #endif
82         volatile gint32 entry_count;
83         HANDLE entry_sem;
84         GSList *wait_list;
85         void *data;
86 };
87
88 typedef struct _MonitorArray MonitorArray;
89
90 struct _MonitorArray {
91         MonitorArray *next;
92         int num_monitors;
93         MonoThreadsSync monitors [MONO_ZERO_LEN_ARRAY];
94 };
95
96 #define mono_monitor_allocator_lock() EnterCriticalSection (&monitor_mutex)
97 #define mono_monitor_allocator_unlock() LeaveCriticalSection (&monitor_mutex)
98 static CRITICAL_SECTION monitor_mutex;
99 static MonoThreadsSync *monitor_freelist;
100 static MonitorArray *monitor_allocated;
101 static int array_size = 16;
102
103 #ifdef HAVE_KW_THREAD
104 static __thread gsize tls_pthread_self MONO_TLS_FAST;
105 #endif
106
107 #ifndef PLATFORM_WIN32
108 #ifdef HAVE_KW_THREAD
109 #define GetCurrentThreadId() tls_pthread_self
110 #else
111 /* 
112  * The usual problem: we can't replace GetCurrentThreadId () with a macro because
113  * it is in a public header.
114  */
115 #define GetCurrentThreadId() ((gsize)pthread_self ())
116 #endif
117 #endif
118
119 void
120 mono_monitor_init (void)
121 {
122         InitializeCriticalSection (&monitor_mutex);
123 }
124  
125 void
126 mono_monitor_cleanup (void)
127 {
128         /*DeleteCriticalSection (&monitor_mutex);*/
129 }
130
131 /*
132  * mono_monitor_init_tls:
133  *
134  *   Setup TLS variables used by the monitor code for the current thread.
135  */
136 void
137 mono_monitor_init_tls (void)
138 {
139 #if !defined(PLATFORM_WIN32) && defined(HAVE_KW_THREAD)
140         tls_pthread_self = pthread_self ();
141 #endif
142 }
143
144 static int
145 monitor_is_on_freelist (MonoThreadsSync *mon)
146 {
147         MonitorArray *marray;
148         for (marray = monitor_allocated; marray; marray = marray->next) {
149                 if (mon >= marray->monitors && mon < &marray->monitors [marray->num_monitors])
150                         return TRUE;
151         }
152         return FALSE;
153 }
154
155 /**
156  * mono_locks_dump:
157  * @include_untaken:
158  *
159  * Print a report on stdout of the managed locks currently held by
160  * threads. If @include_untaken is specified, list also inflated locks
161  * which are unheld.
162  * This is supposed to be used in debuggers like gdb.
163  */
164 void
165 mono_locks_dump (gboolean include_untaken)
166 {
167         int i;
168         int used = 0, on_freelist = 0, to_recycle = 0, total = 0, num_arrays = 0;
169         MonoThreadsSync *mon;
170         MonitorArray *marray;
171         for (mon = monitor_freelist; mon; mon = mon->data)
172                 on_freelist++;
173         for (marray = monitor_allocated; marray; marray = marray->next) {
174                 total += marray->num_monitors;
175                 num_arrays++;
176                 for (i = 0; i < marray->num_monitors; ++i) {
177                         mon = &marray->monitors [i];
178                         if (mon->data == NULL) {
179                                 if (i < marray->num_monitors - 1)
180                                         to_recycle++;
181                         } else {
182                                 if (!monitor_is_on_freelist (mon->data)) {
183                                         MonoObject *holder = mono_gc_weak_link_get (&mon->data);
184                                         if (mon->owner) {
185                                                 g_print ("Lock %p in object %p held by thread %p, nest level: %d\n",
186                                                         mon, holder, (void*)mon->owner, mon->nest);
187                                                 if (mon->entry_sem)
188                                                         g_print ("\tWaiting on semaphore %p: %d\n", mon->entry_sem, mon->entry_count);
189                                         } else if (include_untaken) {
190                                                 g_print ("Lock %p in object %p untaken\n", mon, holder);
191                                         }
192                                         used++;
193                                 }
194                         }
195                 }
196         }
197         g_print ("Total locks (in %d array(s)): %d, used: %d, on freelist: %d, to recycle: %d\n",
198                 num_arrays, total, used, on_freelist, to_recycle);
199 }
200
201 /* LOCKING: this is called with monitor_mutex held */
202 static void 
203 mon_finalize (MonoThreadsSync *mon)
204 {
205         LOCK_DEBUG (g_message (G_GNUC_PRETTY_FUNCTION ": Finalizing sync %p", mon));
206
207         if (mon->entry_sem != NULL) {
208                 CloseHandle (mon->entry_sem);
209                 mon->entry_sem = NULL;
210         }
211         /* If this isn't empty then something is seriously broken - it
212          * means a thread is still waiting on the object that owned
213          * this lock, but the object has been finalized.
214          */
215         g_assert (mon->wait_list == NULL);
216
217         mon->entry_count = 0;
218         /* owner and nest are set in mon_new, no need to zero them out */
219
220         mon->data = monitor_freelist;
221         monitor_freelist = mon;
222         mono_perfcounters->gc_sync_blocks--;
223 }
224
225 /* LOCKING: this is called with monitor_mutex held */
226 static MonoThreadsSync *
227 mon_new (gsize id)
228 {
229         MonoThreadsSync *new;
230
231         if (!monitor_freelist) {
232                 MonitorArray *marray;
233                 int i;
234                 /* see if any sync block has been collected */
235                 new = NULL;
236                 for (marray = monitor_allocated; marray; marray = marray->next) {
237                         for (i = 0; i < marray->num_monitors; ++i) {
238                                 if (marray->monitors [i].data == NULL) {
239                                         new = &marray->monitors [i];
240                                         new->data = monitor_freelist;
241                                         monitor_freelist = new;
242                                 }
243                         }
244                         /* small perf tweak to avoid scanning all the blocks */
245                         if (new)
246                                 break;
247                 }
248                 /* need to allocate a new array of monitors */
249                 if (!monitor_freelist) {
250                         MonitorArray *last;
251                         LOCK_DEBUG (g_message (G_GNUC_PRETTY_FUNCTION ": allocating more monitors: %d", array_size));
252                         marray = g_malloc0 (sizeof (MonoArray) + array_size * sizeof (MonoThreadsSync));
253                         marray->num_monitors = array_size;
254                         array_size *= 2;
255                         /* link into the freelist */
256                         for (i = 0; i < marray->num_monitors - 1; ++i) {
257                                 marray->monitors [i].data = &marray->monitors [i + 1];
258                         }
259                         marray->monitors [i].data = NULL; /* the last one */
260                         monitor_freelist = &marray->monitors [0];
261                         /* we happend the marray instead of prepending so that
262                          * the collecting loop above will need to scan smaller arrays first
263                          */
264                         if (!monitor_allocated) {
265                                 monitor_allocated = marray;
266                         } else {
267                                 last = monitor_allocated;
268                                 while (last->next)
269                                         last = last->next;
270                                 last->next = marray;
271                         }
272                 }
273         }
274
275         new = monitor_freelist;
276         monitor_freelist = new->data;
277
278         new->owner = id;
279         new->nest = 1;
280         
281         mono_perfcounters->gc_sync_blocks++;
282         return new;
283 }
284
285 /*
286  * Format of the lock word:
287  * thinhash | fathash | data
288  *
289  * thinhash is the lower bit: if set data is the shifted hashcode of the object.
290  * fathash is another bit: if set the hash code is stored in the MonoThreadsSync
291  *   struct pointed to by data
292  * if neither bit is set and data is non-NULL, data is a MonoThreadsSync
293  */
294 typedef union {
295         gsize lock_word;
296         MonoThreadsSync *sync;
297 } LockWord;
298
299 enum {
300         LOCK_WORD_THIN_HASH = 1,
301         LOCK_WORD_FAT_HASH = 1 << 1,
302         LOCK_WORD_BITS_MASK = 0x3,
303         LOCK_WORD_HASH_SHIFT = 2
304 };
305
306 #define MONO_OBJECT_ALIGNMENT_SHIFT     3
307
308 /*
309  * mono_object_hash:
310  * @obj: an object
311  *
312  * Calculate a hash code for @obj that is constant while @obj is alive.
313  */
314 int
315 mono_object_hash (MonoObject* obj)
316 {
317 #ifdef HAVE_MOVING_COLLECTOR
318         LockWord lw;
319         unsigned int hash;
320         if (!obj)
321                 return 0;
322         lw.sync = obj->synchronisation;
323         if (lw.lock_word & LOCK_WORD_THIN_HASH) {
324                 /*g_print ("fast thin hash %d for obj %p store\n", (unsigned int)lw.lock_word >> LOCK_WORD_HASH_SHIFT, obj);*/
325                 return (unsigned int)lw.lock_word >> LOCK_WORD_HASH_SHIFT;
326         }
327         if (lw.lock_word & LOCK_WORD_FAT_HASH) {
328                 lw.lock_word &= ~LOCK_WORD_BITS_MASK;
329                 /*g_print ("fast fat hash %d for obj %p store\n", lw.sync->hash_code, obj);*/
330                 return lw.sync->hash_code;
331         }
332         /*
333          * while we are inside this function, the GC will keep this object pinned,
334          * since we are in the unmanaged stack. Thanks to this and to the hash
335          * function that depends only on the address, we can ignore the races if
336          * another thread computes the hash at the same time, because it'll end up
337          * with the same value.
338          */
339         hash = (GPOINTER_TO_UINT (obj) >> MONO_OBJECT_ALIGNMENT_SHIFT) * 2654435761u;
340         /* clear the top bits as they can be discarded */
341         hash &= ~(LOCK_WORD_BITS_MASK << 30);
342         /* no hash flags were set, so it must be a MonoThreadsSync pointer if not NULL */
343         if (lw.sync) {
344                 lw.sync->hash_code = hash;
345                 /*g_print ("storing hash code %d for obj %p in sync %p\n", hash, obj, lw.sync);*/
346                 lw.lock_word |= LOCK_WORD_FAT_HASH;
347                 /* this is safe since we don't deflate locks */
348                 obj->synchronisation = lw.sync;
349         } else {
350                 /*g_print ("storing thin hash code %d for obj %p\n", hash, obj);*/
351                 lw.lock_word = LOCK_WORD_THIN_HASH | (hash << LOCK_WORD_HASH_SHIFT);
352                 if (InterlockedCompareExchangePointer ((gpointer*)&obj->synchronisation, lw.sync, NULL) == NULL)
353                         return hash;
354                 /*g_print ("failed store\n");*/
355                 /* someone set the hash flag or someone inflated the object */
356                 lw.sync = obj->synchronisation;
357                 if (lw.lock_word & LOCK_WORD_THIN_HASH)
358                         return hash;
359                 lw.lock_word &= ~LOCK_WORD_BITS_MASK;
360                 lw.sync->hash_code = hash;
361                 lw.lock_word |= LOCK_WORD_FAT_HASH;
362                 /* this is safe since we don't deflate locks */
363                 obj->synchronisation = lw.sync;
364         }
365         return hash;
366 #else
367 /*
368  * Wang's address-based hash function:
369  *   http://www.concentric.net/~Ttwang/tech/addrhash.htm
370  */
371         return (GPOINTER_TO_UINT (obj) >> MONO_OBJECT_ALIGNMENT_SHIFT) * 2654435761u;
372 #endif
373 }
374
375 /* If allow_interruption==TRUE, the method will be interrumped if abort or suspend
376  * is requested. In this case it returns -1.
377  */ 
378 static inline gint32 
379 mono_monitor_try_enter_internal (MonoObject *obj, guint32 ms, gboolean allow_interruption)
380 {
381         MonoThreadsSync *mon;
382         gsize id = GetCurrentThreadId ();
383         HANDLE sem;
384         guint32 then = 0, now, delta;
385         guint32 waitms;
386         guint32 ret;
387         MonoThread *thread;
388
389         LOCK_DEBUG (g_message(G_GNUC_PRETTY_FUNCTION
390                   ": (%d) Trying to lock object %p (%d ms)", id, obj, ms));
391
392         if (G_UNLIKELY (!obj)) {
393                 mono_raise_exception (mono_get_exception_argument_null ("obj"));
394                 return FALSE;
395         }
396
397 retry:
398         mon = obj->synchronisation;
399
400         /* If the object has never been locked... */
401         if (G_UNLIKELY (mon == NULL)) {
402                 mono_monitor_allocator_lock ();
403                 mon = mon_new (id);
404                 if (InterlockedCompareExchangePointer ((gpointer*)&obj->synchronisation, mon, NULL) == NULL) {
405                         mono_gc_weak_link_add (&mon->data, obj);
406                         mono_monitor_allocator_unlock ();
407                         /* Successfully locked */
408                         return 1;
409                 } else {
410 #ifdef HAVE_MOVING_COLLECTOR
411                         LockWord lw;
412                         lw.sync = obj->synchronisation;
413                         if (lw.lock_word & LOCK_WORD_THIN_HASH) {
414                                 MonoThreadsSync *oldlw = lw.sync;
415                                 /* move the already calculated hash */
416                                 mon->hash_code = lw.lock_word >> LOCK_WORD_HASH_SHIFT;
417                                 lw.sync = mon;
418                                 lw.lock_word |= LOCK_WORD_FAT_HASH;
419                                 if (InterlockedCompareExchangePointer ((gpointer*)&obj->synchronisation, lw.sync, oldlw) == oldlw) {
420                                         mono_gc_weak_link_add (&mon->data, obj);
421                                         mono_monitor_allocator_unlock ();
422                                         /* Successfully locked */
423                                         return 1;
424                                 } else {
425                                         mon_finalize (mon);
426                                         mono_monitor_allocator_unlock ();
427                                         goto retry;
428                                 }
429                         } else if (lw.lock_word & LOCK_WORD_FAT_HASH) {
430                                 mon_finalize (mon);
431                                 mono_monitor_allocator_unlock ();
432                                 /* get the old lock without the fat hash bit */
433                                 lw.lock_word &= ~LOCK_WORD_BITS_MASK;
434                                 mon = lw.sync;
435                         } else {
436                                 mon_finalize (mon);
437                                 mono_monitor_allocator_unlock ();
438                                 mon = obj->synchronisation;
439                         }
440 #else
441                         mon_finalize (mon);
442                         mono_monitor_allocator_unlock ();
443                         mon = obj->synchronisation;
444 #endif
445                 }
446         } else {
447 #ifdef HAVE_MOVING_COLLECTOR
448                 LockWord lw;
449                 lw.sync = mon;
450                 if (lw.lock_word & LOCK_WORD_THIN_HASH) {
451                         MonoThreadsSync *oldlw = lw.sync;
452                         mono_monitor_allocator_lock ();
453                         mon = mon_new (id);
454                         /* move the already calculated hash */
455                         mon->hash_code = lw.lock_word >> LOCK_WORD_HASH_SHIFT;
456                         lw.sync = mon;
457                         lw.lock_word |= LOCK_WORD_FAT_HASH;
458                         if (InterlockedCompareExchangePointer ((gpointer*)&obj->synchronisation, lw.sync, oldlw) == oldlw) {
459                                 mono_gc_weak_link_add (&mon->data, obj);
460                                 mono_monitor_allocator_unlock ();
461                                 /* Successfully locked */
462                                 return 1;
463                         } else {
464                                 mon_finalize (mon);
465                                 mono_monitor_allocator_unlock ();
466                                 goto retry;
467                         }
468                 }
469 #endif
470         }
471
472 #ifdef HAVE_MOVING_COLLECTOR
473         {
474                 LockWord lw;
475                 lw.sync = mon;
476                 lw.lock_word &= ~LOCK_WORD_BITS_MASK;
477                 mon = lw.sync;
478         }
479 #endif
480
481         /* If the object has previously been locked but isn't now... */
482
483         /* This case differs from Dice's case 3 because we don't
484          * deflate locks or cache unused lock records
485          */
486         if (G_LIKELY (mon->owner == 0)) {
487                 /* Try to install our ID in the owner field, nest
488                  * should have been left at 1 by the previous unlock
489                  * operation
490                  */
491                 if (G_LIKELY (InterlockedCompareExchangePointer ((gpointer *)&mon->owner, (gpointer)id, 0) == 0)) {
492                         /* Success */
493                         g_assert (mon->nest == 1);
494                         return 1;
495                 } else {
496                         /* Trumped again! */
497                         goto retry;
498                 }
499         }
500
501         /* If the object is currently locked by this thread... */
502         if (mon->owner == id) {
503                 mon->nest++;
504                 return 1;
505         }
506
507         /* The object must be locked by someone else... */
508         mono_perfcounters->thread_contentions++;
509
510         /* If ms is 0 we don't block, but just fail straight away */
511         if (ms == 0) {
512                 LOCK_DEBUG (g_message (G_GNUC_PRETTY_FUNCTION ": (%d) timed out, returning FALSE", id));
513                 return 0;
514         }
515
516         mono_profiler_monitor_event (obj, MONO_PROFILER_MONITOR_CONTENTION);
517
518         /* The slow path begins here. */
519 retry_contended:
520         /* a small amount of duplicated code, but it allows us to insert the profiler
521          * callbacks without impacting the fast path: from here on we don't need to go back to the
522          * retry label, but to retry_contended. At this point mon is already installed in the object
523          * header.
524          */
525         /* This case differs from Dice's case 3 because we don't
526          * deflate locks or cache unused lock records
527          */
528         if (G_LIKELY (mon->owner == 0)) {
529                 /* Try to install our ID in the owner field, nest
530                 * should have been left at 1 by the previous unlock
531                 * operation
532                 */
533                 if (G_LIKELY (InterlockedCompareExchangePointer ((gpointer *)&mon->owner, (gpointer)id, 0) == 0)) {
534                         /* Success */
535                         g_assert (mon->nest == 1);
536                         mono_profiler_monitor_event (obj, MONO_PROFILER_MONITOR_DONE);
537                         return 1;
538                 }
539         }
540
541         /* If the object is currently locked by this thread... */
542         if (mon->owner == id) {
543                 mon->nest++;
544                 mono_profiler_monitor_event (obj, MONO_PROFILER_MONITOR_DONE);
545                 return 1;
546         }
547
548         /* We need to make sure there's a semaphore handle (creating it if
549          * necessary), and block on it
550          */
551         if (mon->entry_sem == NULL) {
552                 /* Create the semaphore */
553                 sem = CreateSemaphore (NULL, 0, 0x7fffffff, NULL);
554                 g_assert (sem != NULL);
555                 if (InterlockedCompareExchangePointer ((gpointer*)&mon->entry_sem, sem, NULL) != NULL) {
556                         /* Someone else just put a handle here */
557                         CloseHandle (sem);
558                 }
559         }
560         
561         /* If we need to time out, record a timestamp and adjust ms,
562          * because WaitForSingleObject doesn't tell us how long it
563          * waited for.
564          *
565          * Don't block forever here, because theres a chance the owner
566          * thread released the lock while we were creating the
567          * semaphore: we would not get the wakeup.  Using the event
568          * handle technique from pulse/wait would involve locking the
569          * lock struct and therefore slowing down the fast path.
570          */
571         if (ms != INFINITE) {
572                 then = mono_msec_ticks ();
573                 if (ms < 100) {
574                         waitms = ms;
575                 } else {
576                         waitms = 100;
577                 }
578         } else {
579                 waitms = 100;
580         }
581         
582         InterlockedIncrement (&mon->entry_count);
583
584         mono_perfcounters->thread_queue_len++;
585         mono_perfcounters->thread_queue_max++;
586         thread = mono_thread_current ();
587
588         mono_thread_set_state (thread, ThreadState_WaitSleepJoin);
589
590         /*
591          * We pass TRUE instead of allow_interruption since we have to check for the
592          * StopRequested case below.
593          */
594         ret = WaitForSingleObjectEx (mon->entry_sem, waitms, TRUE);
595
596         mono_thread_clr_state (thread, ThreadState_WaitSleepJoin);
597         
598         InterlockedDecrement (&mon->entry_count);
599         mono_perfcounters->thread_queue_len--;
600
601         if (ms != INFINITE) {
602                 now = mono_msec_ticks ();
603                 
604                 if (now < then) {
605                         /* The counter must have wrapped around */
606                         LOCK_DEBUG (g_message (G_GNUC_PRETTY_FUNCTION
607                                    ": wrapped around! now=0x%x then=0x%x", now, then));
608                         
609                         now += (0xffffffff - then);
610                         then = 0;
611
612                         LOCK_DEBUG (g_message (G_GNUC_PRETTY_FUNCTION ": wrap rejig: now=0x%x then=0x%x delta=0x%x", now, then, now-then));
613                 }
614                 
615                 delta = now - then;
616                 if (delta >= ms) {
617                         ms = 0;
618                 } else {
619                         ms -= delta;
620                 }
621
622                 if ((ret == WAIT_TIMEOUT || (ret == WAIT_IO_COMPLETION && !allow_interruption)) && ms > 0) {
623                         /* More time left */
624                         goto retry_contended;
625                 }
626         } else {
627                 if (ret == WAIT_TIMEOUT || (ret == WAIT_IO_COMPLETION && !allow_interruption)) {
628                         if (ret == WAIT_IO_COMPLETION && (mono_thread_test_state (mono_thread_current (), (ThreadState_StopRequested|ThreadState_SuspendRequested)))) {
629                                 /* 
630                                  * We have to obey a stop/suspend request even if 
631                                  * allow_interruption is FALSE to avoid hangs at shutdown.
632                                  */
633                                 mono_profiler_monitor_event (obj, MONO_PROFILER_MONITOR_FAIL);
634                                 return -1;
635                         }
636                         /* Infinite wait, so just try again */
637                         goto retry_contended;
638                 }
639         }
640         
641         if (ret == WAIT_OBJECT_0) {
642                 /* retry from the top */
643                 goto retry_contended;
644         }
645
646         /* We must have timed out */
647         LOCK_DEBUG (g_message (G_GNUC_PRETTY_FUNCTION ": (%d) timed out waiting, returning FALSE", id));
648
649         mono_profiler_monitor_event (obj, MONO_PROFILER_MONITOR_FAIL);
650
651         if (ret == WAIT_IO_COMPLETION)
652                 return -1;
653         else 
654                 return 0;
655 }
656
657 gboolean 
658 mono_monitor_enter (MonoObject *obj)
659 {
660         return mono_monitor_try_enter_internal (obj, INFINITE, FALSE) == 1;
661 }
662
663 gboolean 
664 mono_monitor_try_enter (MonoObject *obj, guint32 ms)
665 {
666         return mono_monitor_try_enter_internal (obj, ms, FALSE) == 1;
667 }
668
669 void
670 mono_monitor_exit (MonoObject *obj)
671 {
672         MonoThreadsSync *mon;
673         guint32 nest;
674         
675         LOCK_DEBUG (g_message (G_GNUC_PRETTY_FUNCTION ": (%d) Unlocking %p", GetCurrentThreadId (), obj));
676
677         if (G_UNLIKELY (!obj)) {
678                 mono_raise_exception (mono_get_exception_argument_null ("obj"));
679                 return;
680         }
681
682         mon = obj->synchronisation;
683
684 #ifdef HAVE_MOVING_COLLECTOR
685         {
686                 LockWord lw;
687                 lw.sync = mon;
688                 if (lw.lock_word & LOCK_WORD_THIN_HASH)
689                         return;
690                 lw.lock_word &= ~LOCK_WORD_BITS_MASK;
691                 mon = lw.sync;
692         }
693 #endif
694         if (G_UNLIKELY (mon == NULL)) {
695                 /* No one ever used Enter. Just ignore the Exit request as MS does */
696                 return;
697         }
698         if (G_UNLIKELY (mon->owner != GetCurrentThreadId ())) {
699                 return;
700         }
701         
702         nest = mon->nest - 1;
703         if (nest == 0) {
704                 LOCK_DEBUG (g_message (G_GNUC_PRETTY_FUNCTION
705                           ": (%d) Object %p is now unlocked", GetCurrentThreadId (), obj));
706         
707                 /* object is now unlocked, leave nest==1 so we don't
708                  * need to set it when the lock is reacquired
709                  */
710                 mon->owner = 0;
711
712                 /* Do the wakeup stuff.  It's possible that the last
713                  * blocking thread gave up waiting just before we
714                  * release the semaphore resulting in a futile wakeup
715                  * next time there's contention for this object, but
716                  * it means we don't have to waste time locking the
717                  * struct.
718                  */
719                 if (mon->entry_count > 0) {
720                         ReleaseSemaphore (mon->entry_sem, 1, NULL);
721                 }
722         } else {
723                 LOCK_DEBUG (g_message (G_GNUC_PRETTY_FUNCTION
724                           ": (%d) Object %p is now locked %d times", GetCurrentThreadId (), obj, nest));
725                 mon->nest = nest;
726         }
727 }
728
729 static void
730 emit_obj_syncp_check (MonoMethodBuilder *mb, int syncp_loc, int *obj_null_branch, int *syncp_true_false_branch,
731         gboolean branch_on_true)
732 {
733         /*
734           ldarg         0                                                       obj
735           brfalse.s     obj_null
736         */
737
738         mono_mb_emit_byte (mb, CEE_LDARG_0);
739         *obj_null_branch = mono_mb_emit_short_branch (mb, CEE_BRFALSE_S);
740
741         /*
742           ldarg         0                                                       obj
743           conv.i                                                                objp
744           ldc.i4        G_STRUCT_OFFSET(MonoObject, synchronisation)            objp off
745           add                                                                   &syncp
746           ldind.i                                                               syncp
747           stloc         syncp
748           ldloc         syncp                                                   syncp
749           brtrue/false.s        syncp_true_false
750         */
751
752         mono_mb_emit_byte (mb, CEE_LDARG_0);
753         mono_mb_emit_byte (mb, CEE_CONV_I);
754         mono_mb_emit_icon (mb, G_STRUCT_OFFSET (MonoObject, synchronisation));
755         mono_mb_emit_byte (mb, CEE_ADD);
756         mono_mb_emit_byte (mb, CEE_LDIND_I);
757         mono_mb_emit_stloc (mb, syncp_loc);
758         mono_mb_emit_ldloc (mb, syncp_loc);
759         *syncp_true_false_branch = mono_mb_emit_short_branch (mb, branch_on_true ? CEE_BRTRUE_S : CEE_BRFALSE_S);
760 }
761
762 static MonoMethod*
763 mono_monitor_get_fast_enter_method (MonoMethod *monitor_enter_method)
764 {
765         static MonoMethod *fast_monitor_enter;
766         static MonoMethod *compare_exchange_method;
767
768         MonoMethodBuilder *mb;
769         int obj_null_branch, syncp_null_branch, has_owner_branch, other_owner_branch, tid_branch;
770         int tid_loc, syncp_loc, owner_loc;
771         int thread_tls_offset;
772
773 #ifdef HAVE_MOVING_COLLECTOR
774         return NULL;
775 #endif
776
777         thread_tls_offset = mono_thread_get_tls_offset ();
778         if (thread_tls_offset == -1)
779                 return NULL;
780
781         if (fast_monitor_enter)
782                 return fast_monitor_enter;
783
784         if (!compare_exchange_method) {
785                 MonoMethodDesc *desc;
786                 MonoClass *class;
787
788                 desc = mono_method_desc_new ("Interlocked:CompareExchange(intptr&,intptr,intptr)", FALSE);
789                 class = mono_class_from_name (mono_defaults.corlib, "System.Threading", "Interlocked");
790                 compare_exchange_method = mono_method_desc_search_in_class (desc, class);
791                 mono_method_desc_free (desc);
792
793                 if (!compare_exchange_method)
794                         return NULL;
795         }
796
797         mb = mono_mb_new (mono_defaults.monitor_class, "FastMonitorEnter", MONO_WRAPPER_UNKNOWN);
798
799         mb->method->slot = -1;
800         mb->method->flags = METHOD_ATTRIBUTE_PUBLIC | METHOD_ATTRIBUTE_STATIC |
801                 METHOD_ATTRIBUTE_HIDE_BY_SIG | METHOD_ATTRIBUTE_FINAL;
802
803         tid_loc = mono_mb_add_local (mb, &mono_defaults.int_class->byval_arg);
804         syncp_loc = mono_mb_add_local (mb, &mono_defaults.int_class->byval_arg);
805         owner_loc = mono_mb_add_local (mb, &mono_defaults.int_class->byval_arg);
806
807         emit_obj_syncp_check (mb, syncp_loc, &obj_null_branch, &syncp_null_branch, FALSE);
808
809         /*
810           mono. tls     thread_tls_offset                                       threadp
811           ldc.i4        G_STRUCT_OFFSET(MonoThread, tid)                        threadp off
812           add                                                                   &tid
813           ldind.i                                                               tid
814           stloc         tid
815           ldloc         syncp                                                   syncp
816           ldc.i4        G_STRUCT_OFFSET(MonoThreadsSync, owner)                 syncp off
817           add                                                                   &owner
818           ldind.i                                                               owner
819           stloc         owner
820           ldloc         owner                                                   owner
821           brtrue.s      tid
822         */
823
824         mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
825         mono_mb_emit_byte (mb, CEE_MONO_TLS);
826         mono_mb_emit_i4 (mb, thread_tls_offset);
827         mono_mb_emit_icon (mb, G_STRUCT_OFFSET (MonoThread, tid));
828         mono_mb_emit_byte (mb, CEE_ADD);
829         mono_mb_emit_byte (mb, CEE_LDIND_I);
830         mono_mb_emit_stloc (mb, tid_loc);
831         mono_mb_emit_ldloc (mb, syncp_loc);
832         mono_mb_emit_icon (mb, G_STRUCT_OFFSET (MonoThreadsSync, owner));
833         mono_mb_emit_byte (mb, CEE_ADD);
834         mono_mb_emit_byte (mb, CEE_LDIND_I);
835         mono_mb_emit_stloc (mb, owner_loc);
836         mono_mb_emit_ldloc (mb, owner_loc);
837         tid_branch = mono_mb_emit_short_branch (mb, CEE_BRTRUE_S);
838
839         /*
840           ldloc         syncp                                                   syncp
841           ldc.i4        G_STRUCT_OFFSET(MonoThreadsSync, owner)                 syncp off
842           add                                                                   &owner
843           ldloc         tid                                                     &owner tid
844           ldc.i4        0                                                       &owner tid 0
845           call          System.Threading.Interlocked.CompareExchange            oldowner
846           brtrue.s      has_owner
847           ret
848         */
849
850         mono_mb_emit_ldloc (mb, syncp_loc);
851         mono_mb_emit_icon (mb, G_STRUCT_OFFSET (MonoThreadsSync, owner));
852         mono_mb_emit_byte (mb, CEE_ADD);
853         mono_mb_emit_ldloc (mb, tid_loc);
854         mono_mb_emit_byte (mb, CEE_LDC_I4_0);
855         mono_mb_emit_managed_call (mb, compare_exchange_method, NULL);
856         has_owner_branch = mono_mb_emit_short_branch (mb, CEE_BRTRUE_S);
857         mono_mb_emit_byte (mb, CEE_RET);
858
859         /*
860          tid:
861           ldloc         owner                                                   owner
862           ldloc         tid                                                     owner tid
863           brne.s        other_owner
864           ldloc         syncp                                                   syncp
865           ldc.i4        G_STRUCT_OFFSET(MonoThreadsSync, nest)                  syncp off
866           add                                                                   &nest
867           dup                                                                   &nest &nest
868           ldind.i4                                                              &nest nest
869           ldc.i4        1                                                       &nest nest 1
870           add                                                                   &nest nest+
871           stind.i4
872           ret
873         */
874
875         mono_mb_patch_short_branch (mb, tid_branch);
876         mono_mb_emit_ldloc (mb, owner_loc);
877         mono_mb_emit_ldloc (mb, tid_loc);
878         other_owner_branch = mono_mb_emit_short_branch (mb, CEE_BNE_UN_S);
879         mono_mb_emit_ldloc (mb, syncp_loc);
880         mono_mb_emit_icon (mb, G_STRUCT_OFFSET (MonoThreadsSync, nest));
881         mono_mb_emit_byte (mb, CEE_ADD);
882         mono_mb_emit_byte (mb, CEE_DUP);
883         mono_mb_emit_byte (mb, CEE_LDIND_I4);
884         mono_mb_emit_byte (mb, CEE_LDC_I4_1);
885         mono_mb_emit_byte (mb, CEE_ADD);
886         mono_mb_emit_byte (mb, CEE_STIND_I4);
887         mono_mb_emit_byte (mb, CEE_RET);
888
889         /*
890          obj_null, syncp_null, has_owner, other_owner:
891           ldarg         0                                                       obj
892           call          System.Threading.Monitor.Enter
893           ret
894         */
895
896         mono_mb_patch_short_branch (mb, obj_null_branch);
897         mono_mb_patch_short_branch (mb, syncp_null_branch);
898         mono_mb_patch_short_branch (mb, has_owner_branch);
899         mono_mb_patch_short_branch (mb, other_owner_branch);
900         mono_mb_emit_byte (mb, CEE_LDARG_0);
901         mono_mb_emit_managed_call (mb, monitor_enter_method, NULL);
902         mono_mb_emit_byte (mb, CEE_RET);
903
904         fast_monitor_enter = mono_mb_create_method (mb, mono_signature_no_pinvoke (monitor_enter_method), 5);
905         mono_mb_free (mb);
906
907         return fast_monitor_enter;
908 }
909
910 static MonoMethod*
911 mono_monitor_get_fast_exit_method (MonoMethod *monitor_exit_method)
912 {
913         static MonoMethod *fast_monitor_exit;
914
915         MonoMethodBuilder *mb;
916         int obj_null_branch, has_waiting_branch, has_syncp_branch, owned_branch, nested_branch;
917         int thread_tls_offset;
918         int syncp_loc;
919
920 #ifdef HAVE_MOVING_COLLECTOR
921         return NULL;
922 #endif
923
924         thread_tls_offset = mono_thread_get_tls_offset ();
925         if (thread_tls_offset == -1)
926                 return NULL;
927
928         if (fast_monitor_exit)
929                 return fast_monitor_exit;
930
931         mb = mono_mb_new (mono_defaults.monitor_class, "FastMonitorExit", MONO_WRAPPER_UNKNOWN);
932
933         mb->method->slot = -1;
934         mb->method->flags = METHOD_ATTRIBUTE_PUBLIC | METHOD_ATTRIBUTE_STATIC |
935                 METHOD_ATTRIBUTE_HIDE_BY_SIG | METHOD_ATTRIBUTE_FINAL;
936
937         syncp_loc = mono_mb_add_local (mb, &mono_defaults.int_class->byval_arg);
938
939         emit_obj_syncp_check (mb, syncp_loc, &obj_null_branch, &has_syncp_branch, TRUE);
940
941         /*
942           ret
943         */
944
945         mono_mb_emit_byte (mb, CEE_RET);
946
947         /*
948          has_syncp:
949           ldloc         syncp                                                   syncp
950           ldc.i4        G_STRUCT_OFFSET(MonoThreadsSync, owner)                 syncp off
951           add                                                                   &owner
952           ldind.i                                                               owner
953           mono. tls     thread_tls_offset                                       owner threadp
954           ldc.i4        G_STRUCT_OFFSET(MonoThread, tid)                        owner threadp off
955           add                                                                   owner &tid
956           ldind.i                                                               owner tid
957           beq.s         owned
958         */
959
960         mono_mb_patch_short_branch (mb, has_syncp_branch);
961         mono_mb_emit_ldloc (mb, syncp_loc);
962         mono_mb_emit_icon (mb, G_STRUCT_OFFSET (MonoThreadsSync, owner));
963         mono_mb_emit_byte (mb, CEE_ADD);
964         mono_mb_emit_byte (mb, CEE_LDIND_I);
965         mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
966         mono_mb_emit_byte (mb, CEE_MONO_TLS);
967         mono_mb_emit_i4 (mb, thread_tls_offset);
968         mono_mb_emit_icon (mb, G_STRUCT_OFFSET (MonoThread, tid));
969         mono_mb_emit_byte (mb, CEE_ADD);
970         mono_mb_emit_byte (mb, CEE_LDIND_I);
971         owned_branch = mono_mb_emit_short_branch (mb, CEE_BEQ_S);
972
973         /*
974           ret
975         */
976
977         mono_mb_emit_byte (mb, CEE_RET);
978
979         /*
980          owned:
981           ldloc         syncp                                                   syncp
982           ldc.i4        G_STRUCT_OFFSET(MonoThreadsSync, nest)                  syncp off
983           add                                                                   &nest
984           dup                                                                   &nest &nest
985           ldind.i4                                                              &nest nest
986           dup                                                                   &nest nest nest
987           ldc.i4        1                                                       &nest nest nest 1
988           bgt.un.s      nested                                                  &nest nest
989         */
990
991         mono_mb_patch_short_branch (mb, owned_branch);
992         mono_mb_emit_ldloc (mb, syncp_loc);
993         mono_mb_emit_icon (mb, G_STRUCT_OFFSET (MonoThreadsSync, nest));
994         mono_mb_emit_byte (mb, CEE_ADD);
995         mono_mb_emit_byte (mb, CEE_DUP);
996         mono_mb_emit_byte (mb, CEE_LDIND_I4);
997         mono_mb_emit_byte (mb, CEE_DUP);
998         mono_mb_emit_byte (mb, CEE_LDC_I4_1);
999         nested_branch = mono_mb_emit_short_branch (mb, CEE_BGT_UN_S);
1000
1001         /*
1002           pop                                                                   &nest
1003           pop
1004           ldloc         syncp                                                   syncp
1005           ldc.i4        G_STRUCT_OFFSET(MonoThreadsSync, entry_count)           syncp off
1006           add                                                                   &count
1007           ldind.i4                                                              count
1008           brtrue.s      has_waiting
1009         */
1010
1011         mono_mb_emit_byte (mb, CEE_POP);
1012         mono_mb_emit_byte (mb, CEE_POP);
1013         mono_mb_emit_ldloc (mb, syncp_loc);
1014         mono_mb_emit_icon (mb, G_STRUCT_OFFSET (MonoThreadsSync, entry_count));
1015         mono_mb_emit_byte (mb, CEE_ADD);
1016         mono_mb_emit_byte (mb, CEE_LDIND_I4);
1017         has_waiting_branch = mono_mb_emit_short_branch (mb, CEE_BRTRUE_S);
1018
1019         /*
1020           ldloc         syncp                                                   syncp
1021           ldc.i4        G_STRUCT_OFFSET(MonoThreadsSync, owner)                 syncp off
1022           add                                                                   &owner
1023           ldnull                                                                &owner 0
1024           stind.i
1025           ret
1026         */
1027
1028         mono_mb_emit_ldloc (mb, syncp_loc);
1029         mono_mb_emit_icon (mb, G_STRUCT_OFFSET (MonoThreadsSync, owner));
1030         mono_mb_emit_byte (mb, CEE_ADD);
1031         mono_mb_emit_byte (mb, CEE_LDNULL);
1032         mono_mb_emit_byte (mb, CEE_STIND_I);
1033         mono_mb_emit_byte (mb, CEE_RET);
1034
1035         /*
1036          nested:
1037           ldc.i4        1                                                       &nest nest 1
1038           sub                                                                   &nest nest-
1039           stind.i4
1040           ret
1041         */
1042
1043         mono_mb_patch_short_branch (mb, nested_branch);
1044         mono_mb_emit_byte (mb, CEE_LDC_I4_1);
1045         mono_mb_emit_byte (mb, CEE_SUB);
1046         mono_mb_emit_byte (mb, CEE_STIND_I4);
1047         mono_mb_emit_byte (mb, CEE_RET);
1048
1049         /*
1050          obj_null, has_waiting:
1051           ldarg         0                                                       obj
1052           call          System.Threading.Monitor.Exit
1053           ret
1054          */
1055
1056         mono_mb_patch_short_branch (mb, obj_null_branch);
1057         mono_mb_patch_short_branch (mb, has_waiting_branch);
1058         mono_mb_emit_byte (mb, CEE_LDARG_0);
1059         mono_mb_emit_managed_call (mb, monitor_exit_method, NULL);
1060         mono_mb_emit_byte (mb, CEE_RET);
1061
1062         fast_monitor_exit = mono_mb_create_method (mb, mono_signature_no_pinvoke (monitor_exit_method), 5);
1063         mono_mb_free (mb);
1064
1065         return fast_monitor_exit;
1066 }
1067
1068 MonoMethod*
1069 mono_monitor_get_fast_path (MonoMethod *enter_or_exit)
1070 {
1071         if (strcmp (enter_or_exit->name, "Enter") == 0)
1072                 return mono_monitor_get_fast_enter_method (enter_or_exit);
1073         if (strcmp (enter_or_exit->name, "Exit") == 0)
1074                 return mono_monitor_get_fast_exit_method (enter_or_exit);
1075         g_assert_not_reached ();
1076         return NULL;
1077 }
1078
1079 /*
1080  * mono_monitor_threads_sync_member_offset:
1081  * @owner_offset: returns size and offset of the "owner" member
1082  * @nest_offset: returns size and offset of the "nest" member
1083  * @entry_count_offset: returns size and offset of the "entry_count" member
1084  *
1085  * Returns the offsets and sizes of three members of the
1086  * MonoThreadsSync struct.  The Monitor ASM fastpaths need this.
1087  */
1088 void
1089 mono_monitor_threads_sync_members_offset (int *owner_offset, int *nest_offset, int *entry_count_offset)
1090 {
1091         MonoThreadsSync ts;
1092
1093 #define ENCODE_OFF_SIZE(o,s)    (((o) << 8) | ((s) & 0xff))
1094
1095         *owner_offset = ENCODE_OFF_SIZE (G_STRUCT_OFFSET (MonoThreadsSync, owner), sizeof (ts.owner));
1096         *nest_offset = ENCODE_OFF_SIZE (G_STRUCT_OFFSET (MonoThreadsSync, nest), sizeof (ts.nest));
1097         *entry_count_offset = ENCODE_OFF_SIZE (G_STRUCT_OFFSET (MonoThreadsSync, entry_count), sizeof (ts.entry_count));
1098 }
1099
1100 gboolean 
1101 ves_icall_System_Threading_Monitor_Monitor_try_enter (MonoObject *obj, guint32 ms)
1102 {
1103         gint32 res;
1104
1105         do {
1106                 res = mono_monitor_try_enter_internal (obj, ms, TRUE);
1107                 if (res == -1)
1108                         mono_thread_interruption_checkpoint ();
1109         } while (res == -1);
1110         
1111         return res == 1;
1112 }
1113
1114 gboolean 
1115 ves_icall_System_Threading_Monitor_Monitor_test_owner (MonoObject *obj)
1116 {
1117         MonoThreadsSync *mon;
1118         
1119         LOCK_DEBUG (g_message (G_GNUC_PRETTY_FUNCTION
1120                   ": Testing if %p is owned by thread %d", obj, GetCurrentThreadId()));
1121
1122         mon = obj->synchronisation;
1123 #ifdef HAVE_MOVING_COLLECTOR
1124         {
1125                 LockWord lw;
1126                 lw.sync = mon;
1127                 if (lw.lock_word & LOCK_WORD_THIN_HASH)
1128                         return FALSE;
1129                 lw.lock_word &= ~LOCK_WORD_BITS_MASK;
1130                 mon = lw.sync;
1131         }
1132 #endif
1133         if (mon == NULL) {
1134                 return FALSE;
1135         }
1136         
1137         if(mon->owner==GetCurrentThreadId ()) {
1138                 return(TRUE);
1139         }
1140         
1141         return(FALSE);
1142 }
1143
1144 gboolean 
1145 ves_icall_System_Threading_Monitor_Monitor_test_synchronised (MonoObject *obj)
1146 {
1147         MonoThreadsSync *mon;
1148
1149         LOCK_DEBUG (g_message(G_GNUC_PRETTY_FUNCTION
1150                   ": (%d) Testing if %p is owned by any thread", GetCurrentThreadId (), obj));
1151         
1152         mon = obj->synchronisation;
1153 #ifdef HAVE_MOVING_COLLECTOR
1154         {
1155                 LockWord lw;
1156                 lw.sync = mon;
1157                 if (lw.lock_word & LOCK_WORD_THIN_HASH)
1158                         return FALSE;
1159                 lw.lock_word &= ~LOCK_WORD_BITS_MASK;
1160                 mon = lw.sync;
1161         }
1162 #endif
1163         if (mon == NULL) {
1164                 return FALSE;
1165         }
1166         
1167         if (mon->owner != 0) {
1168                 return TRUE;
1169         }
1170         
1171         return FALSE;
1172 }
1173
1174 /* All wait list manipulation in the pulse, pulseall and wait
1175  * functions happens while the monitor lock is held, so we don't need
1176  * any extra struct locking
1177  */
1178
1179 void
1180 ves_icall_System_Threading_Monitor_Monitor_pulse (MonoObject *obj)
1181 {
1182         MonoThreadsSync *mon;
1183         
1184         LOCK_DEBUG (g_message (G_GNUC_PRETTY_FUNCTION ": (%d) Pulsing %p", 
1185                 GetCurrentThreadId (), obj));
1186         
1187         mon = obj->synchronisation;
1188 #ifdef HAVE_MOVING_COLLECTOR
1189         {
1190                 LockWord lw;
1191                 lw.sync = mon;
1192                 if (lw.lock_word & LOCK_WORD_THIN_HASH) {
1193                         mono_raise_exception (mono_get_exception_synchronization_lock ("Not locked"));
1194                         return;
1195                 }
1196                 lw.lock_word &= ~LOCK_WORD_BITS_MASK;
1197                 mon = lw.sync;
1198         }
1199 #endif
1200         if (mon == NULL) {
1201                 mono_raise_exception (mono_get_exception_synchronization_lock ("Not locked"));
1202                 return;
1203         }
1204         if (mon->owner != GetCurrentThreadId ()) {
1205                 mono_raise_exception (mono_get_exception_synchronization_lock ("Not locked by this thread"));
1206                 return;
1207         }
1208
1209         LOCK_DEBUG (g_message (G_GNUC_PRETTY_FUNCTION ": (%d) %d threads waiting",
1210                   GetCurrentThreadId (), g_slist_length (mon->wait_list)));
1211         
1212         if (mon->wait_list != NULL) {
1213                 LOCK_DEBUG (g_message (G_GNUC_PRETTY_FUNCTION
1214                           ": (%d) signalling and dequeuing handle %p",
1215                           GetCurrentThreadId (), mon->wait_list->data));
1216         
1217                 SetEvent (mon->wait_list->data);
1218                 mon->wait_list = g_slist_remove (mon->wait_list, mon->wait_list->data);
1219         }
1220 }
1221
1222 void
1223 ves_icall_System_Threading_Monitor_Monitor_pulse_all (MonoObject *obj)
1224 {
1225         MonoThreadsSync *mon;
1226         
1227         LOCK_DEBUG (g_message(G_GNUC_PRETTY_FUNCTION ": (%d) Pulsing all %p",
1228                   GetCurrentThreadId (), obj));
1229
1230         mon = obj->synchronisation;
1231 #ifdef HAVE_MOVING_COLLECTOR
1232         {
1233                 LockWord lw;
1234                 lw.sync = mon;
1235                 if (lw.lock_word & LOCK_WORD_THIN_HASH) {
1236                         mono_raise_exception (mono_get_exception_synchronization_lock ("Not locked"));
1237                         return;
1238                 }
1239                 lw.lock_word &= ~LOCK_WORD_BITS_MASK;
1240                 mon = lw.sync;
1241         }
1242 #endif
1243         if (mon == NULL) {
1244                 mono_raise_exception (mono_get_exception_synchronization_lock ("Not locked"));
1245                 return;
1246         }
1247         if (mon->owner != GetCurrentThreadId ()) {
1248                 mono_raise_exception (mono_get_exception_synchronization_lock ("Not locked by this thread"));
1249                 return;
1250         }
1251
1252         LOCK_DEBUG (g_message (G_GNUC_PRETTY_FUNCTION ": (%d) %d threads waiting",
1253                   GetCurrentThreadId (), g_slist_length (mon->wait_list)));
1254
1255         while (mon->wait_list != NULL) {
1256                 LOCK_DEBUG (g_message (G_GNUC_PRETTY_FUNCTION
1257                           ": (%d) signalling and dequeuing handle %p",
1258                           GetCurrentThreadId (), mon->wait_list->data));
1259         
1260                 SetEvent (mon->wait_list->data);
1261                 mon->wait_list = g_slist_remove (mon->wait_list, mon->wait_list->data);
1262         }
1263 }
1264
1265 gboolean
1266 ves_icall_System_Threading_Monitor_Monitor_wait (MonoObject *obj, guint32 ms)
1267 {
1268         MonoThreadsSync *mon;
1269         HANDLE event;
1270         guint32 nest;
1271         guint32 ret;
1272         gboolean success = FALSE;
1273         gint32 regain;
1274         MonoThread *thread = mono_thread_current ();
1275
1276         LOCK_DEBUG (g_message (G_GNUC_PRETTY_FUNCTION
1277                   ": (%d) Trying to wait for %p with timeout %dms",
1278                   GetCurrentThreadId (), obj, ms));
1279         
1280         mon = obj->synchronisation;
1281 #ifdef HAVE_MOVING_COLLECTOR
1282         {
1283                 LockWord lw;
1284                 lw.sync = mon;
1285                 if (lw.lock_word & LOCK_WORD_THIN_HASH) {
1286                         mono_raise_exception (mono_get_exception_synchronization_lock ("Not locked"));
1287                         return FALSE;
1288                 }
1289                 lw.lock_word &= ~LOCK_WORD_BITS_MASK;
1290                 mon = lw.sync;
1291         }
1292 #endif
1293         if (mon == NULL) {
1294                 mono_raise_exception (mono_get_exception_synchronization_lock ("Not locked"));
1295                 return FALSE;
1296         }
1297         if (mon->owner != GetCurrentThreadId ()) {
1298                 mono_raise_exception (mono_get_exception_synchronization_lock ("Not locked by this thread"));
1299                 return FALSE;
1300         }
1301
1302         /* Do this WaitSleepJoin check before creating the event handle */
1303         mono_thread_current_check_pending_interrupt ();
1304         
1305         event = CreateEvent (NULL, FALSE, FALSE, NULL);
1306         if (event == NULL) {
1307                 mono_raise_exception (mono_get_exception_synchronization_lock ("Failed to set up wait event"));
1308                 return FALSE;
1309         }
1310         
1311         LOCK_DEBUG (g_message (G_GNUC_PRETTY_FUNCTION ": (%d) queuing handle %p",
1312                   GetCurrentThreadId (), event));
1313
1314         mono_thread_current_check_pending_interrupt ();
1315         
1316         mono_thread_set_state (thread, ThreadState_WaitSleepJoin);
1317
1318         mon->wait_list = g_slist_append (mon->wait_list, event);
1319         
1320         /* Save the nest count, and release the lock */
1321         nest = mon->nest;
1322         mon->nest = 1;
1323         mono_monitor_exit (obj);
1324
1325         LOCK_DEBUG (g_message (G_GNUC_PRETTY_FUNCTION ": (%d) Unlocked %p lock %p",
1326                   GetCurrentThreadId (), obj, mon));
1327
1328         /* There's no race between unlocking mon and waiting for the
1329          * event, because auto reset events are sticky, and this event
1330          * is private to this thread.  Therefore even if the event was
1331          * signalled before we wait, we still succeed.
1332          */
1333         ret = WaitForSingleObjectEx (event, ms, TRUE);
1334
1335         /* Reset the thread state fairly early, so we don't have to worry
1336          * about the monitor error checking
1337          */
1338         mono_thread_clr_state (thread, ThreadState_WaitSleepJoin);
1339         
1340         if (mono_thread_interruption_requested ()) {
1341                 CloseHandle (event);
1342                 return FALSE;
1343         }
1344
1345         /* Regain the lock with the previous nest count */
1346         do {
1347                 regain = mono_monitor_try_enter_internal (obj, INFINITE, TRUE);
1348                 if (regain == -1) 
1349                         mono_thread_interruption_checkpoint ();
1350         } while (regain == -1);
1351
1352         if (regain == 0) {
1353                 /* Something went wrong, so throw a
1354                  * SynchronizationLockException
1355                  */
1356                 CloseHandle (event);
1357                 mono_raise_exception (mono_get_exception_synchronization_lock ("Failed to regain lock"));
1358                 return FALSE;
1359         }
1360
1361         mon->nest = nest;
1362
1363         LOCK_DEBUG (g_message (G_GNUC_PRETTY_FUNCTION ": (%d) Regained %p lock %p",
1364                   GetCurrentThreadId (), obj, mon));
1365
1366         if (ret == WAIT_TIMEOUT) {
1367                 /* Poll the event again, just in case it was signalled
1368                  * while we were trying to regain the monitor lock
1369                  */
1370                 ret = WaitForSingleObjectEx (event, 0, FALSE);
1371         }
1372
1373         /* Pulse will have popped our event from the queue if it signalled
1374          * us, so we only do it here if the wait timed out.
1375          *
1376          * This avoids a race condition where the thread holding the
1377          * lock can Pulse several times before the WaitForSingleObject
1378          * returns.  If we popped the queue here then this event might
1379          * be signalled more than once, thereby starving another
1380          * thread.
1381          */
1382         
1383         if (ret == WAIT_OBJECT_0) {
1384                 LOCK_DEBUG (g_message (G_GNUC_PRETTY_FUNCTION ": (%d) Success",
1385                           GetCurrentThreadId ()));
1386                 success = TRUE;
1387         } else {
1388                 LOCK_DEBUG (g_message (G_GNUC_PRETTY_FUNCTION ": (%d) Wait failed, dequeuing handle %p",
1389                           GetCurrentThreadId (), event));
1390                 /* No pulse, so we have to remove ourself from the
1391                  * wait queue
1392                  */
1393                 mon->wait_list = g_slist_remove (mon->wait_list, event);
1394         }
1395         CloseHandle (event);
1396         
1397         return success;
1398 }
1399