Implement fast il wrapper for v4 Monitor.Enter.
[mono.git] / mono / metadata / monitor.c
1 /*
2  * monitor.c:  Monitor locking functions
3  *
4  * Author:
5  *      Dick Porter (dick@ximian.com)
6  *
7  * Copyright 2003 Ximian, Inc (http://www.ximian.com)
8  * Copyright 2004-2009 Novell, Inc (http://www.novell.com)
9  */
10
11 #include <config.h>
12 #include <glib.h>
13 #include <string.h>
14
15 #include <mono/metadata/monitor.h>
16 #include <mono/metadata/threads-types.h>
17 #include <mono/metadata/exception.h>
18 #include <mono/metadata/threads.h>
19 #include <mono/io-layer/io-layer.h>
20 #include <mono/metadata/object-internals.h>
21 #include <mono/metadata/class-internals.h>
22 #include <mono/metadata/gc-internal.h>
23 #include <mono/metadata/method-builder.h>
24 #include <mono/metadata/debug-helpers.h>
25 #include <mono/metadata/tabledefs.h>
26 #include <mono/metadata/marshal.h>
27 #include <mono/metadata/profiler-private.h>
28 #include <mono/utils/mono-time.h>
29
30 /*
31  * Pull the list of opcodes
32  */
33 #define OPDEF(a,b,c,d,e,f,g,h,i,j) \
34         a = i,
35
36 enum {
37 #include "mono/cil/opcode.def"
38         LAST = 0xff
39 };
40 #undef OPDEF
41
42 /*#define LOCK_DEBUG(a) do { a; } while (0)*/
43 #define LOCK_DEBUG(a)
44
45 /*
46  * The monitor implementation here is based on
47  * http://www.usenix.org/events/jvm01/full_papers/dice/dice.pdf and
48  * http://www.research.ibm.com/people/d/dfb/papers/Bacon98Thin.ps
49  *
50  * The Dice paper describes a technique for saving lock record space
51  * by returning records to a free list when they become unused.  That
52  * sounds like unnecessary complexity to me, though if it becomes
53  * clear that unused lock records are taking up lots of space or we
54  * need to shave more time off by avoiding a malloc then we can always
55  * implement the free list idea later.  The timeout parameter to
56  * try_enter voids some of the assumptions about the reference count
57  * field in Dice's implementation too.  In his version, the thread
58  * attempting to lock a contended object will block until it succeeds,
59  * so the reference count will never be decremented while an object is
60  * locked.
61  *
62  * Bacon's thin locks have a fast path that doesn't need a lock record
63  * for the common case of locking an unlocked or shallow-nested
64  * object, but the technique relies on encoding the thread ID in 15
65  * bits (to avoid too much per-object space overhead.)  Unfortunately
66  * I don't think it's possible to reliably encode a pthread_t into 15
67  * bits. (The JVM implementation used seems to have a 15-bit
68  * per-thread identifier available.)
69  *
70  * This implementation then combines Dice's basic lock model with
71  * Bacon's simplification of keeping a lock record for the lifetime of
72  * an object.
73  */
74
75 struct _MonoThreadsSync
76 {
77         gsize owner;                    /* thread ID */
78         guint32 nest;
79 #ifdef HAVE_MOVING_COLLECTOR
80         gint32 hash_code;
81 #endif
82         volatile gint32 entry_count;
83         HANDLE entry_sem;
84         GSList *wait_list;
85         void *data;
86 };
87
88 typedef struct _MonitorArray MonitorArray;
89
90 struct _MonitorArray {
91         MonitorArray *next;
92         int num_monitors;
93         MonoThreadsSync monitors [MONO_ZERO_LEN_ARRAY];
94 };
95
96 #define mono_monitor_allocator_lock() EnterCriticalSection (&monitor_mutex)
97 #define mono_monitor_allocator_unlock() LeaveCriticalSection (&monitor_mutex)
98 static CRITICAL_SECTION monitor_mutex;
99 static MonoThreadsSync *monitor_freelist;
100 static MonitorArray *monitor_allocated;
101 static int array_size = 16;
102
103 #ifdef HAVE_KW_THREAD
104 static __thread gsize tls_pthread_self MONO_TLS_FAST;
105 #endif
106
107 #ifndef HOST_WIN32
108 #ifdef HAVE_KW_THREAD
109 #define GetCurrentThreadId() tls_pthread_self
110 #else
111 /* 
112  * The usual problem: we can't replace GetCurrentThreadId () with a macro because
113  * it is in a public header.
114  */
115 #define GetCurrentThreadId() ((gsize)pthread_self ())
116 #endif
117 #endif
118
119 void
120 mono_monitor_init (void)
121 {
122         InitializeCriticalSection (&monitor_mutex);
123 }
124  
125 void
126 mono_monitor_cleanup (void)
127 {
128         MonoThreadsSync *mon;
129         /* MonitorArray *marray, *next = NULL; */
130
131         /*DeleteCriticalSection (&monitor_mutex);*/
132
133         /* The monitors on the freelist don't have weak links - mark them */
134         for (mon = monitor_freelist; mon; mon = mon->data)
135                 mon->wait_list = (gpointer)-1;
136
137         /* FIXME: This still crashes with sgen (async_read.exe) */
138         /*
139         for (marray = monitor_allocated; marray; marray = next) {
140                 int i;
141
142                 for (i = 0; i < marray->num_monitors; ++i) {
143                         mon = &marray->monitors [i];
144                         if (mon->wait_list != (gpointer)-1)
145                                 mono_gc_weak_link_remove (&mon->data);
146                 }
147
148                 next = marray->next;
149                 g_free (marray);
150         }
151         */
152 }
153
154 /*
155  * mono_monitor_init_tls:
156  *
157  *   Setup TLS variables used by the monitor code for the current thread.
158  */
159 void
160 mono_monitor_init_tls (void)
161 {
162 #if !defined(HOST_WIN32) && defined(HAVE_KW_THREAD)
163         tls_pthread_self = pthread_self ();
164 #endif
165 }
166
167 static int
168 monitor_is_on_freelist (MonoThreadsSync *mon)
169 {
170         MonitorArray *marray;
171         for (marray = monitor_allocated; marray; marray = marray->next) {
172                 if (mon >= marray->monitors && mon < &marray->monitors [marray->num_monitors])
173                         return TRUE;
174         }
175         return FALSE;
176 }
177
178 /**
179  * mono_locks_dump:
180  * @include_untaken:
181  *
182  * Print a report on stdout of the managed locks currently held by
183  * threads. If @include_untaken is specified, list also inflated locks
184  * which are unheld.
185  * This is supposed to be used in debuggers like gdb.
186  */
187 void
188 mono_locks_dump (gboolean include_untaken)
189 {
190         int i;
191         int used = 0, on_freelist = 0, to_recycle = 0, total = 0, num_arrays = 0;
192         MonoThreadsSync *mon;
193         MonitorArray *marray;
194         for (mon = monitor_freelist; mon; mon = mon->data)
195                 on_freelist++;
196         for (marray = monitor_allocated; marray; marray = marray->next) {
197                 total += marray->num_monitors;
198                 num_arrays++;
199                 for (i = 0; i < marray->num_monitors; ++i) {
200                         mon = &marray->monitors [i];
201                         if (mon->data == NULL) {
202                                 if (i < marray->num_monitors - 1)
203                                         to_recycle++;
204                         } else {
205                                 if (!monitor_is_on_freelist (mon->data)) {
206                                         MonoObject *holder = mono_gc_weak_link_get (&mon->data);
207                                         if (mon->owner) {
208                                                 g_print ("Lock %p in object %p held by thread %p, nest level: %d\n",
209                                                         mon, holder, (void*)mon->owner, mon->nest);
210                                                 if (mon->entry_sem)
211                                                         g_print ("\tWaiting on semaphore %p: %d\n", mon->entry_sem, mon->entry_count);
212                                         } else if (include_untaken) {
213                                                 g_print ("Lock %p in object %p untaken\n", mon, holder);
214                                         }
215                                         used++;
216                                 }
217                         }
218                 }
219         }
220         g_print ("Total locks (in %d array(s)): %d, used: %d, on freelist: %d, to recycle: %d\n",
221                 num_arrays, total, used, on_freelist, to_recycle);
222 }
223
224 /* LOCKING: this is called with monitor_mutex held */
225 static void 
226 mon_finalize (MonoThreadsSync *mon)
227 {
228         LOCK_DEBUG (g_message ("%s: Finalizing sync %p", __func__, mon));
229
230         if (mon->entry_sem != NULL) {
231                 CloseHandle (mon->entry_sem);
232                 mon->entry_sem = NULL;
233         }
234         /* If this isn't empty then something is seriously broken - it
235          * means a thread is still waiting on the object that owned
236          * this lock, but the object has been finalized.
237          */
238         g_assert (mon->wait_list == NULL);
239
240         mon->entry_count = 0;
241         /* owner and nest are set in mon_new, no need to zero them out */
242
243         mon->data = monitor_freelist;
244         monitor_freelist = mon;
245         mono_perfcounters->gc_sync_blocks--;
246 }
247
248 /* LOCKING: this is called with monitor_mutex held */
249 static MonoThreadsSync *
250 mon_new (gsize id)
251 {
252         MonoThreadsSync *new;
253
254         if (!monitor_freelist) {
255                 MonitorArray *marray;
256                 int i;
257                 /* see if any sync block has been collected */
258                 new = NULL;
259                 for (marray = monitor_allocated; marray; marray = marray->next) {
260                         for (i = 0; i < marray->num_monitors; ++i) {
261                                 if (marray->monitors [i].data == NULL) {
262                                         new = &marray->monitors [i];
263                                         if (new->wait_list) {
264                                                 /* Orphaned events left by aborted threads */
265                                                 while (new->wait_list) {
266                                                         LOCK_DEBUG (g_message (G_GNUC_PRETTY_FUNCTION ": (%d): Closing orphaned event %d", GetCurrentThreadId (), new->wait_list->data));
267                                                         CloseHandle (new->wait_list->data);
268                                                         new->wait_list = g_slist_remove (new->wait_list, new->wait_list->data);
269                                                 }
270                                         }
271                                         mono_gc_weak_link_remove (&new->data);
272                                         new->data = monitor_freelist;
273                                         monitor_freelist = new;
274                                 }
275                         }
276                         /* small perf tweak to avoid scanning all the blocks */
277                         if (new)
278                                 break;
279                 }
280                 /* need to allocate a new array of monitors */
281                 if (!monitor_freelist) {
282                         MonitorArray *last;
283                         LOCK_DEBUG (g_message ("%s: allocating more monitors: %d", __func__, array_size));
284                         marray = g_malloc0 (sizeof (MonoArray) + array_size * sizeof (MonoThreadsSync));
285                         marray->num_monitors = array_size;
286                         array_size *= 2;
287                         /* link into the freelist */
288                         for (i = 0; i < marray->num_monitors - 1; ++i) {
289                                 marray->monitors [i].data = &marray->monitors [i + 1];
290                         }
291                         marray->monitors [i].data = NULL; /* the last one */
292                         monitor_freelist = &marray->monitors [0];
293                         /* we happend the marray instead of prepending so that
294                          * the collecting loop above will need to scan smaller arrays first
295                          */
296                         if (!monitor_allocated) {
297                                 monitor_allocated = marray;
298                         } else {
299                                 last = monitor_allocated;
300                                 while (last->next)
301                                         last = last->next;
302                                 last->next = marray;
303                         }
304                 }
305         }
306
307         new = monitor_freelist;
308         monitor_freelist = new->data;
309
310         new->owner = id;
311         new->nest = 1;
312         
313         mono_perfcounters->gc_sync_blocks++;
314         return new;
315 }
316
317 /*
318  * Format of the lock word:
319  * thinhash | fathash | data
320  *
321  * thinhash is the lower bit: if set data is the shifted hashcode of the object.
322  * fathash is another bit: if set the hash code is stored in the MonoThreadsSync
323  *   struct pointed to by data
324  * if neither bit is set and data is non-NULL, data is a MonoThreadsSync
325  */
326 typedef union {
327         gsize lock_word;
328         MonoThreadsSync *sync;
329 } LockWord;
330
331 enum {
332         LOCK_WORD_THIN_HASH = 1,
333         LOCK_WORD_FAT_HASH = 1 << 1,
334         LOCK_WORD_BITS_MASK = 0x3,
335         LOCK_WORD_HASH_SHIFT = 2
336 };
337
338 #define MONO_OBJECT_ALIGNMENT_SHIFT     3
339
340 /*
341  * mono_object_hash:
342  * @obj: an object
343  *
344  * Calculate a hash code for @obj that is constant while @obj is alive.
345  */
346 int
347 mono_object_hash (MonoObject* obj)
348 {
349 #ifdef HAVE_MOVING_COLLECTOR
350         LockWord lw;
351         unsigned int hash;
352         if (!obj)
353                 return 0;
354         lw.sync = obj->synchronisation;
355         if (lw.lock_word & LOCK_WORD_THIN_HASH) {
356                 /*g_print ("fast thin hash %d for obj %p store\n", (unsigned int)lw.lock_word >> LOCK_WORD_HASH_SHIFT, obj);*/
357                 return (unsigned int)lw.lock_word >> LOCK_WORD_HASH_SHIFT;
358         }
359         if (lw.lock_word & LOCK_WORD_FAT_HASH) {
360                 lw.lock_word &= ~LOCK_WORD_BITS_MASK;
361                 /*g_print ("fast fat hash %d for obj %p store\n", lw.sync->hash_code, obj);*/
362                 return lw.sync->hash_code;
363         }
364         /*
365          * while we are inside this function, the GC will keep this object pinned,
366          * since we are in the unmanaged stack. Thanks to this and to the hash
367          * function that depends only on the address, we can ignore the races if
368          * another thread computes the hash at the same time, because it'll end up
369          * with the same value.
370          */
371         hash = (GPOINTER_TO_UINT (obj) >> MONO_OBJECT_ALIGNMENT_SHIFT) * 2654435761u;
372         /* clear the top bits as they can be discarded */
373         hash &= ~(LOCK_WORD_BITS_MASK << 30);
374         /* no hash flags were set, so it must be a MonoThreadsSync pointer if not NULL */
375         if (lw.sync) {
376                 lw.sync->hash_code = hash;
377                 /*g_print ("storing hash code %d for obj %p in sync %p\n", hash, obj, lw.sync);*/
378                 lw.lock_word |= LOCK_WORD_FAT_HASH;
379                 /* this is safe since we don't deflate locks */
380                 obj->synchronisation = lw.sync;
381         } else {
382                 /*g_print ("storing thin hash code %d for obj %p\n", hash, obj);*/
383                 lw.lock_word = LOCK_WORD_THIN_HASH | (hash << LOCK_WORD_HASH_SHIFT);
384                 if (InterlockedCompareExchangePointer ((gpointer*)&obj->synchronisation, lw.sync, NULL) == NULL)
385                         return hash;
386                 /*g_print ("failed store\n");*/
387                 /* someone set the hash flag or someone inflated the object */
388                 lw.sync = obj->synchronisation;
389                 if (lw.lock_word & LOCK_WORD_THIN_HASH)
390                         return hash;
391                 lw.lock_word &= ~LOCK_WORD_BITS_MASK;
392                 lw.sync->hash_code = hash;
393                 lw.lock_word |= LOCK_WORD_FAT_HASH;
394                 /* this is safe since we don't deflate locks */
395                 obj->synchronisation = lw.sync;
396         }
397         return hash;
398 #else
399 /*
400  * Wang's address-based hash function:
401  *   http://www.concentric.net/~Ttwang/tech/addrhash.htm
402  */
403         return (GPOINTER_TO_UINT (obj) >> MONO_OBJECT_ALIGNMENT_SHIFT) * 2654435761u;
404 #endif
405 }
406
407 /* If allow_interruption==TRUE, the method will be interrumped if abort or suspend
408  * is requested. In this case it returns -1.
409  */ 
410 static inline gint32 
411 mono_monitor_try_enter_internal (MonoObject *obj, guint32 ms, gboolean allow_interruption)
412 {
413         MonoThreadsSync *mon;
414         gsize id = GetCurrentThreadId ();
415         HANDLE sem;
416         guint32 then = 0, now, delta;
417         guint32 waitms;
418         guint32 ret;
419         MonoInternalThread *thread;
420
421         LOCK_DEBUG (g_message("%s: (%d) Trying to lock object %p (%d ms)", __func__, id, obj, ms));
422
423         if (G_UNLIKELY (!obj)) {
424                 mono_raise_exception (mono_get_exception_argument_null ("obj"));
425                 return FALSE;
426         }
427
428 retry:
429         mon = obj->synchronisation;
430
431         /* If the object has never been locked... */
432         if (G_UNLIKELY (mon == NULL)) {
433                 mono_monitor_allocator_lock ();
434                 mon = mon_new (id);
435                 if (InterlockedCompareExchangePointer ((gpointer*)&obj->synchronisation, mon, NULL) == NULL) {
436                         mono_gc_weak_link_add (&mon->data, obj, FALSE);
437                         mono_monitor_allocator_unlock ();
438                         /* Successfully locked */
439                         return 1;
440                 } else {
441 #ifdef HAVE_MOVING_COLLECTOR
442                         LockWord lw;
443                         lw.sync = obj->synchronisation;
444                         if (lw.lock_word & LOCK_WORD_THIN_HASH) {
445                                 MonoThreadsSync *oldlw = lw.sync;
446                                 /* move the already calculated hash */
447                                 mon->hash_code = lw.lock_word >> LOCK_WORD_HASH_SHIFT;
448                                 lw.sync = mon;
449                                 lw.lock_word |= LOCK_WORD_FAT_HASH;
450                                 if (InterlockedCompareExchangePointer ((gpointer*)&obj->synchronisation, lw.sync, oldlw) == oldlw) {
451                                         mono_gc_weak_link_add (&mon->data, obj, FALSE);
452                                         mono_monitor_allocator_unlock ();
453                                         /* Successfully locked */
454                                         return 1;
455                                 } else {
456                                         mon_finalize (mon);
457                                         mono_monitor_allocator_unlock ();
458                                         goto retry;
459                                 }
460                         } else if (lw.lock_word & LOCK_WORD_FAT_HASH) {
461                                 mon_finalize (mon);
462                                 mono_monitor_allocator_unlock ();
463                                 /* get the old lock without the fat hash bit */
464                                 lw.lock_word &= ~LOCK_WORD_BITS_MASK;
465                                 mon = lw.sync;
466                         } else {
467                                 mon_finalize (mon);
468                                 mono_monitor_allocator_unlock ();
469                                 mon = obj->synchronisation;
470                         }
471 #else
472                         mon_finalize (mon);
473                         mono_monitor_allocator_unlock ();
474                         mon = obj->synchronisation;
475 #endif
476                 }
477         } else {
478 #ifdef HAVE_MOVING_COLLECTOR
479                 LockWord lw;
480                 lw.sync = mon;
481                 if (lw.lock_word & LOCK_WORD_THIN_HASH) {
482                         MonoThreadsSync *oldlw = lw.sync;
483                         mono_monitor_allocator_lock ();
484                         mon = mon_new (id);
485                         /* move the already calculated hash */
486                         mon->hash_code = lw.lock_word >> LOCK_WORD_HASH_SHIFT;
487                         lw.sync = mon;
488                         lw.lock_word |= LOCK_WORD_FAT_HASH;
489                         if (InterlockedCompareExchangePointer ((gpointer*)&obj->synchronisation, lw.sync, oldlw) == oldlw) {
490                                 mono_gc_weak_link_add (&mon->data, obj, TRUE);
491                                 mono_monitor_allocator_unlock ();
492                                 /* Successfully locked */
493                                 return 1;
494                         } else {
495                                 mon_finalize (mon);
496                                 mono_monitor_allocator_unlock ();
497                                 goto retry;
498                         }
499                 }
500 #endif
501         }
502
503 #ifdef HAVE_MOVING_COLLECTOR
504         {
505                 LockWord lw;
506                 lw.sync = mon;
507                 lw.lock_word &= ~LOCK_WORD_BITS_MASK;
508                 mon = lw.sync;
509         }
510 #endif
511
512         /* If the object has previously been locked but isn't now... */
513
514         /* This case differs from Dice's case 3 because we don't
515          * deflate locks or cache unused lock records
516          */
517         if (G_LIKELY (mon->owner == 0)) {
518                 /* Try to install our ID in the owner field, nest
519                  * should have been left at 1 by the previous unlock
520                  * operation
521                  */
522                 if (G_LIKELY (InterlockedCompareExchangePointer ((gpointer *)&mon->owner, (gpointer)id, 0) == 0)) {
523                         /* Success */
524                         g_assert (mon->nest == 1);
525                         return 1;
526                 } else {
527                         /* Trumped again! */
528                         goto retry;
529                 }
530         }
531
532         /* If the object is currently locked by this thread... */
533         if (mon->owner == id) {
534                 mon->nest++;
535                 return 1;
536         }
537
538         /* The object must be locked by someone else... */
539         mono_perfcounters->thread_contentions++;
540
541         /* If ms is 0 we don't block, but just fail straight away */
542         if (ms == 0) {
543                 LOCK_DEBUG (g_message ("%s: (%d) timed out, returning FALSE", __func__, id));
544                 return 0;
545         }
546
547         mono_profiler_monitor_event (obj, MONO_PROFILER_MONITOR_CONTENTION);
548
549         /* The slow path begins here. */
550 retry_contended:
551         /* a small amount of duplicated code, but it allows us to insert the profiler
552          * callbacks without impacting the fast path: from here on we don't need to go back to the
553          * retry label, but to retry_contended. At this point mon is already installed in the object
554          * header.
555          */
556         /* This case differs from Dice's case 3 because we don't
557          * deflate locks or cache unused lock records
558          */
559         if (G_LIKELY (mon->owner == 0)) {
560                 /* Try to install our ID in the owner field, nest
561                 * should have been left at 1 by the previous unlock
562                 * operation
563                 */
564                 if (G_LIKELY (InterlockedCompareExchangePointer ((gpointer *)&mon->owner, (gpointer)id, 0) == 0)) {
565                         /* Success */
566                         g_assert (mon->nest == 1);
567                         mono_profiler_monitor_event (obj, MONO_PROFILER_MONITOR_DONE);
568                         return 1;
569                 }
570         }
571
572         /* If the object is currently locked by this thread... */
573         if (mon->owner == id) {
574                 mon->nest++;
575                 mono_profiler_monitor_event (obj, MONO_PROFILER_MONITOR_DONE);
576                 return 1;
577         }
578
579         /* We need to make sure there's a semaphore handle (creating it if
580          * necessary), and block on it
581          */
582         if (mon->entry_sem == NULL) {
583                 /* Create the semaphore */
584                 sem = CreateSemaphore (NULL, 0, 0x7fffffff, NULL);
585                 g_assert (sem != NULL);
586                 if (InterlockedCompareExchangePointer ((gpointer*)&mon->entry_sem, sem, NULL) != NULL) {
587                         /* Someone else just put a handle here */
588                         CloseHandle (sem);
589                 }
590         }
591         
592         /* If we need to time out, record a timestamp and adjust ms,
593          * because WaitForSingleObject doesn't tell us how long it
594          * waited for.
595          *
596          * Don't block forever here, because theres a chance the owner
597          * thread released the lock while we were creating the
598          * semaphore: we would not get the wakeup.  Using the event
599          * handle technique from pulse/wait would involve locking the
600          * lock struct and therefore slowing down the fast path.
601          */
602         if (ms != INFINITE) {
603                 then = mono_msec_ticks ();
604                 if (ms < 100) {
605                         waitms = ms;
606                 } else {
607                         waitms = 100;
608                 }
609         } else {
610                 waitms = 100;
611         }
612         
613         InterlockedIncrement (&mon->entry_count);
614
615         mono_perfcounters->thread_queue_len++;
616         mono_perfcounters->thread_queue_max++;
617         thread = mono_thread_internal_current ();
618
619         mono_thread_set_state (thread, ThreadState_WaitSleepJoin);
620
621         /*
622          * We pass TRUE instead of allow_interruption since we have to check for the
623          * StopRequested case below.
624          */
625         ret = WaitForSingleObjectEx (mon->entry_sem, waitms, TRUE);
626
627         mono_thread_clr_state (thread, ThreadState_WaitSleepJoin);
628         
629         InterlockedDecrement (&mon->entry_count);
630         mono_perfcounters->thread_queue_len--;
631
632         if (ms != INFINITE) {
633                 now = mono_msec_ticks ();
634                 
635                 if (now < then) {
636                         /* The counter must have wrapped around */
637                         LOCK_DEBUG (g_message ("%s: wrapped around! now=0x%x then=0x%x", __func__, now, then));
638                         
639                         now += (0xffffffff - then);
640                         then = 0;
641
642                         LOCK_DEBUG (g_message ("%s: wrap rejig: now=0x%x then=0x%x delta=0x%x", __func__, now, then, now-then));
643                 }
644                 
645                 delta = now - then;
646                 if (delta >= ms) {
647                         ms = 0;
648                 } else {
649                         ms -= delta;
650                 }
651
652                 if ((ret == WAIT_TIMEOUT || (ret == WAIT_IO_COMPLETION && !allow_interruption)) && ms > 0) {
653                         /* More time left */
654                         goto retry_contended;
655                 }
656         } else {
657                 if (ret == WAIT_TIMEOUT || (ret == WAIT_IO_COMPLETION && !allow_interruption)) {
658                         if (ret == WAIT_IO_COMPLETION && (mono_thread_test_state (mono_thread_internal_current (), (ThreadState_StopRequested|ThreadState_SuspendRequested)))) {
659                                 /* 
660                                  * We have to obey a stop/suspend request even if 
661                                  * allow_interruption is FALSE to avoid hangs at shutdown.
662                                  */
663                                 mono_profiler_monitor_event (obj, MONO_PROFILER_MONITOR_FAIL);
664                                 return -1;
665                         }
666                         /* Infinite wait, so just try again */
667                         goto retry_contended;
668                 }
669         }
670         
671         if (ret == WAIT_OBJECT_0) {
672                 /* retry from the top */
673                 goto retry_contended;
674         }
675
676         /* We must have timed out */
677         LOCK_DEBUG (g_message ("%s: (%d) timed out waiting, returning FALSE", __func__, id));
678
679         mono_profiler_monitor_event (obj, MONO_PROFILER_MONITOR_FAIL);
680
681         if (ret == WAIT_IO_COMPLETION)
682                 return -1;
683         else 
684                 return 0;
685 }
686
687 gboolean 
688 mono_monitor_enter (MonoObject *obj)
689 {
690         return mono_monitor_try_enter_internal (obj, INFINITE, FALSE) == 1;
691 }
692
693 gboolean 
694 mono_monitor_try_enter (MonoObject *obj, guint32 ms)
695 {
696         return mono_monitor_try_enter_internal (obj, ms, FALSE) == 1;
697 }
698
699 void
700 mono_monitor_exit (MonoObject *obj)
701 {
702         MonoThreadsSync *mon;
703         guint32 nest;
704         
705         LOCK_DEBUG (g_message ("%s: (%d) Unlocking %p", __func__, GetCurrentThreadId (), obj));
706
707         if (G_UNLIKELY (!obj)) {
708                 mono_raise_exception (mono_get_exception_argument_null ("obj"));
709                 return;
710         }
711
712         mon = obj->synchronisation;
713
714 #ifdef HAVE_MOVING_COLLECTOR
715         {
716                 LockWord lw;
717                 lw.sync = mon;
718                 if (lw.lock_word & LOCK_WORD_THIN_HASH)
719                         return;
720                 lw.lock_word &= ~LOCK_WORD_BITS_MASK;
721                 mon = lw.sync;
722         }
723 #endif
724         if (G_UNLIKELY (mon == NULL)) {
725                 /* No one ever used Enter. Just ignore the Exit request as MS does */
726                 return;
727         }
728         if (G_UNLIKELY (mon->owner != GetCurrentThreadId ())) {
729                 return;
730         }
731         
732         nest = mon->nest - 1;
733         if (nest == 0) {
734                 LOCK_DEBUG (g_message ("%s: (%d) Object %p is now unlocked", __func__, GetCurrentThreadId (), obj));
735         
736                 /* object is now unlocked, leave nest==1 so we don't
737                  * need to set it when the lock is reacquired
738                  */
739                 mon->owner = 0;
740
741                 /* Do the wakeup stuff.  It's possible that the last
742                  * blocking thread gave up waiting just before we
743                  * release the semaphore resulting in a futile wakeup
744                  * next time there's contention for this object, but
745                  * it means we don't have to waste time locking the
746                  * struct.
747                  */
748                 if (mon->entry_count > 0) {
749                         ReleaseSemaphore (mon->entry_sem, 1, NULL);
750                 }
751         } else {
752                 LOCK_DEBUG (g_message ("%s: (%d) Object %p is now locked %d times", __func__, GetCurrentThreadId (), obj, nest));
753                 mon->nest = nest;
754         }
755 }
756
757 void**
758 mono_monitor_get_object_monitor_weak_link (MonoObject *object)
759 {
760         LockWord lw;
761         MonoThreadsSync *sync = NULL;
762
763         lw.sync = object->synchronisation;
764         if (lw.lock_word & LOCK_WORD_FAT_HASH) {
765                 lw.lock_word &= ~LOCK_WORD_BITS_MASK;
766                 sync = lw.sync;
767         } else if (!(lw.lock_word & LOCK_WORD_THIN_HASH)) {
768                 sync = lw.sync;
769         }
770
771         if (sync && sync->data)
772                 return &sync->data;
773         return NULL;
774 }
775
776 static void
777 emit_obj_syncp_check (MonoMethodBuilder *mb, int syncp_loc, int *obj_null_branch, int *true_locktaken_branch, int *syncp_true_false_branch,
778         int *thin_hash_branch, gboolean branch_on_true)
779 {
780         /*
781           ldarg         0                                                       obj
782           brfalse.s     obj_null
783         */
784
785         mono_mb_emit_byte (mb, CEE_LDARG_0);
786         *obj_null_branch = mono_mb_emit_short_branch (mb, CEE_BRFALSE_S);
787
788         /*
789           ldarg.1
790           ldind.i1
791           brtrue.s true_locktaken
792         */
793         if (true_locktaken_branch) {
794                 mono_mb_emit_byte (mb, CEE_LDARG_1);
795                 mono_mb_emit_byte (mb, CEE_LDIND_I1);
796                 *true_locktaken_branch = mono_mb_emit_short_branch (mb, CEE_BRTRUE_S);
797         }
798
799         /*
800           ldarg         0                                                       obj
801           conv.i                                                                objp
802           ldc.i4        G_STRUCT_OFFSET(MonoObject, synchronisation)            objp off
803           add                                                                   &syncp
804           ldind.i                                                               syncp
805           stloc         syncp
806           ldloc         syncp                                                   syncp
807           brtrue/false.s        syncp_true_false
808         */
809
810         mono_mb_emit_byte (mb, CEE_LDARG_0);
811         mono_mb_emit_byte (mb, CEE_CONV_I);
812         mono_mb_emit_icon (mb, G_STRUCT_OFFSET (MonoObject, synchronisation));
813         mono_mb_emit_byte (mb, CEE_ADD);
814         mono_mb_emit_byte (mb, CEE_LDIND_I);
815         mono_mb_emit_stloc (mb, syncp_loc);
816
817         
818         if (mono_gc_is_moving ()) {
819                 /*check for a thin hash*/
820                 mono_mb_emit_ldloc (mb, syncp_loc);
821                 mono_mb_emit_icon (mb, 0x01);
822                 mono_mb_emit_byte (mb, CEE_CONV_I);
823                 mono_mb_emit_byte (mb, CEE_AND);
824                 *thin_hash_branch = mono_mb_emit_short_branch (mb, CEE_BRTRUE_S);
825
826                 /*clear gc bits*/
827                 mono_mb_emit_ldloc (mb, syncp_loc);
828                 mono_mb_emit_icon (mb, ~0x3);
829                 mono_mb_emit_byte (mb, CEE_CONV_I);
830                 mono_mb_emit_byte (mb, CEE_AND);
831                 mono_mb_emit_stloc (mb, syncp_loc);
832         } else {
833                 *thin_hash_branch = 0;
834         }
835
836         mono_mb_emit_ldloc (mb, syncp_loc);
837         *syncp_true_false_branch = mono_mb_emit_short_branch (mb, branch_on_true ? CEE_BRTRUE_S : CEE_BRFALSE_S);
838 }
839
840 static MonoMethod* monitor_il_fastpaths[3];
841
842 gboolean
843 mono_monitor_is_il_fastpath_wrapper (MonoMethod *method)
844 {
845         int i;
846         for (i = 0; i < 3; ++i) {
847                 if (monitor_il_fastpaths [i] == method)
848                         return TRUE;
849         }
850         return FALSE;
851 }
852
853 enum {
854         FASTPATH_ENTER,
855         FASTPATH_ENTERV4,
856         FASTPATH_EXIT
857 };
858
859
860 static MonoMethod*
861 register_fastpath (MonoMethod *method, int idx)
862 {
863         mono_memory_barrier ();
864         monitor_il_fastpaths [idx] = method;
865         return method;
866 }
867
868 static MonoMethod*
869 mono_monitor_get_fast_enter_method (MonoMethod *monitor_enter_method)
870 {
871         MonoMethodBuilder *mb;
872         MonoMethod *res;
873         static MonoMethod *compare_exchange_method;
874         int obj_null_branch, true_locktaken_branch, syncp_null_branch, has_owner_branch, other_owner_branch, tid_branch, thin_hash_branch;
875         int tid_loc, syncp_loc, owner_loc;
876         int thread_tls_offset;
877         gboolean is_v4 = mono_method_signature (monitor_enter_method)->param_count == 2;
878         int fast_path_idx = is_v4 ? FASTPATH_ENTERV4 : FASTPATH_ENTER;
879
880         thread_tls_offset = mono_thread_get_tls_offset ();
881         if (thread_tls_offset == -1)
882                 return NULL;
883
884         if (monitor_il_fastpaths [fast_path_idx])
885                 return monitor_il_fastpaths [fast_path_idx];
886
887         if (!compare_exchange_method) {
888                 MonoMethodDesc *desc;
889                 MonoClass *class;
890
891                 desc = mono_method_desc_new ("Interlocked:CompareExchange(intptr&,intptr,intptr)", FALSE);
892                 class = mono_class_from_name (mono_defaults.corlib, "System.Threading", "Interlocked");
893                 compare_exchange_method = mono_method_desc_search_in_class (desc, class);
894                 mono_method_desc_free (desc);
895
896                 if (!compare_exchange_method)
897                         return NULL;
898         }
899
900         mb = mono_mb_new (mono_defaults.monitor_class, is_v4 ? "FastMonitorEnterV4" : "FastMonitorEnter", MONO_WRAPPER_UNKNOWN);
901
902         mb->method->slot = -1;
903         mb->method->flags = METHOD_ATTRIBUTE_PUBLIC | METHOD_ATTRIBUTE_STATIC |
904                 METHOD_ATTRIBUTE_HIDE_BY_SIG | METHOD_ATTRIBUTE_FINAL;
905
906         tid_loc = mono_mb_add_local (mb, &mono_defaults.int_class->byval_arg);
907         syncp_loc = mono_mb_add_local (mb, &mono_defaults.int_class->byval_arg);
908         owner_loc = mono_mb_add_local (mb, &mono_defaults.int_class->byval_arg);
909
910         emit_obj_syncp_check (mb, syncp_loc, &obj_null_branch, &true_locktaken_branch, &syncp_null_branch, &thin_hash_branch, FALSE);
911
912         /*
913           mono. tls     thread_tls_offset                                       threadp
914           ldc.i4        G_STRUCT_OFFSET(MonoThread, tid)                        threadp off
915           add                                                                   &tid
916           ldind.i                                                               tid
917           stloc         tid
918           ldloc         syncp                                                   syncp
919           ldc.i4        G_STRUCT_OFFSET(MonoThreadsSync, owner)                 syncp off
920           add                                                                   &owner
921           ldind.i                                                               owner
922           stloc         owner
923           ldloc         owner                                                   owner
924           brtrue.s      tid
925         */
926
927         mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
928         mono_mb_emit_byte (mb, CEE_MONO_TLS);
929         mono_mb_emit_i4 (mb, thread_tls_offset);
930         mono_mb_emit_icon (mb, G_STRUCT_OFFSET (MonoInternalThread, tid));
931         mono_mb_emit_byte (mb, CEE_ADD);
932         mono_mb_emit_byte (mb, CEE_LDIND_I);
933         mono_mb_emit_stloc (mb, tid_loc);
934         mono_mb_emit_ldloc (mb, syncp_loc);
935         mono_mb_emit_icon (mb, G_STRUCT_OFFSET (MonoThreadsSync, owner));
936         mono_mb_emit_byte (mb, CEE_ADD);
937         mono_mb_emit_byte (mb, CEE_LDIND_I);
938         mono_mb_emit_stloc (mb, owner_loc);
939         mono_mb_emit_ldloc (mb, owner_loc);
940         tid_branch = mono_mb_emit_short_branch (mb, CEE_BRTRUE_S);
941
942         /*
943           ldloc         syncp                                                   syncp
944           ldc.i4        G_STRUCT_OFFSET(MonoThreadsSync, owner)                 syncp off
945           add                                                                   &owner
946           ldloc         tid                                                     &owner tid
947           ldc.i4        0                                                       &owner tid 0
948           call          System.Threading.Interlocked.CompareExchange            oldowner
949           brtrue.s      has_owner
950           ret
951         */
952
953         mono_mb_emit_ldloc (mb, syncp_loc);
954         mono_mb_emit_icon (mb, G_STRUCT_OFFSET (MonoThreadsSync, owner));
955         mono_mb_emit_byte (mb, CEE_ADD);
956         mono_mb_emit_ldloc (mb, tid_loc);
957         mono_mb_emit_byte (mb, CEE_LDC_I4_0);
958         mono_mb_emit_managed_call (mb, compare_exchange_method, NULL);
959         has_owner_branch = mono_mb_emit_short_branch (mb, CEE_BRTRUE_S);
960
961         if (is_v4) {
962                 mono_mb_emit_byte (mb, CEE_LDARG_1);
963                 mono_mb_emit_byte (mb, CEE_LDC_I4_1);
964                 mono_mb_emit_byte (mb, CEE_STIND_I1);
965         }
966         mono_mb_emit_byte (mb, CEE_RET);
967
968         /*
969          tid:
970           ldloc         owner                                                   owner
971           ldloc         tid                                                     owner tid
972           brne.s        other_owner
973           ldloc         syncp                                                   syncp
974           ldc.i4        G_STRUCT_OFFSET(MonoThreadsSync, nest)                  syncp off
975           add                                                                   &nest
976           dup                                                                   &nest &nest
977           ldind.i4                                                              &nest nest
978           ldc.i4        1                                                       &nest nest 1
979           add                                                                   &nest nest+
980           stind.i4
981           ret
982         */
983
984         mono_mb_patch_short_branch (mb, tid_branch);
985         mono_mb_emit_ldloc (mb, owner_loc);
986         mono_mb_emit_ldloc (mb, tid_loc);
987         other_owner_branch = mono_mb_emit_short_branch (mb, CEE_BNE_UN_S);
988         mono_mb_emit_ldloc (mb, syncp_loc);
989         mono_mb_emit_icon (mb, G_STRUCT_OFFSET (MonoThreadsSync, nest));
990         mono_mb_emit_byte (mb, CEE_ADD);
991         mono_mb_emit_byte (mb, CEE_DUP);
992         mono_mb_emit_byte (mb, CEE_LDIND_I4);
993         mono_mb_emit_byte (mb, CEE_LDC_I4_1);
994         mono_mb_emit_byte (mb, CEE_ADD);
995         mono_mb_emit_byte (mb, CEE_STIND_I4);
996
997         if (is_v4) {
998                 mono_mb_emit_byte (mb, CEE_LDARG_1);
999                 mono_mb_emit_byte (mb, CEE_LDC_I4_1);
1000                 mono_mb_emit_byte (mb, CEE_STIND_I1);
1001         }
1002
1003         mono_mb_emit_byte (mb, CEE_RET);
1004
1005         /*
1006          obj_null, syncp_null, has_owner, other_owner:
1007           ldarg         0                                                       obj
1008           call          System.Threading.Monitor.Enter
1009           ret
1010         */
1011
1012         if (thin_hash_branch)
1013                 mono_mb_patch_short_branch (mb, thin_hash_branch);
1014         mono_mb_patch_short_branch (mb, obj_null_branch);
1015         mono_mb_patch_short_branch (mb, syncp_null_branch);
1016         mono_mb_patch_short_branch (mb, has_owner_branch);
1017         mono_mb_patch_short_branch (mb, other_owner_branch);
1018         mono_mb_emit_byte (mb, CEE_LDARG_0);
1019         if (is_v4)
1020                 mono_mb_emit_byte (mb, CEE_LDARG_1);
1021         mono_mb_emit_managed_call (mb, monitor_enter_method, NULL);
1022         mono_mb_emit_byte (mb, CEE_RET);
1023
1024         res = register_fastpath (mono_mb_create_method (mb, mono_signature_no_pinvoke (monitor_enter_method), 5), fast_path_idx);
1025         mono_mb_free (mb);
1026         return res;
1027 }
1028
1029 static MonoMethod*
1030 mono_monitor_get_fast_exit_method (MonoMethod *monitor_exit_method)
1031 {
1032         MonoMethodBuilder *mb;
1033         MonoMethod *res;
1034         int obj_null_branch, has_waiting_branch, has_syncp_branch, owned_branch, nested_branch, thin_hash_branch;
1035         int thread_tls_offset;
1036         int syncp_loc;
1037
1038         thread_tls_offset = mono_thread_get_tls_offset ();
1039         if (thread_tls_offset == -1)
1040                 return NULL;
1041
1042         if (monitor_il_fastpaths [FASTPATH_EXIT])
1043                 return monitor_il_fastpaths [FASTPATH_EXIT];
1044
1045         mb = mono_mb_new (mono_defaults.monitor_class, "FastMonitorExit", MONO_WRAPPER_UNKNOWN);
1046
1047         mb->method->slot = -1;
1048         mb->method->flags = METHOD_ATTRIBUTE_PUBLIC | METHOD_ATTRIBUTE_STATIC |
1049                 METHOD_ATTRIBUTE_HIDE_BY_SIG | METHOD_ATTRIBUTE_FINAL;
1050
1051         syncp_loc = mono_mb_add_local (mb, &mono_defaults.int_class->byval_arg);
1052
1053         emit_obj_syncp_check (mb, syncp_loc, &obj_null_branch, NULL, &has_syncp_branch, &thin_hash_branch, TRUE);
1054
1055         /*
1056           ret
1057         */
1058
1059         mono_mb_emit_byte (mb, CEE_RET);
1060
1061         /*
1062          has_syncp:
1063           ldloc         syncp                                                   syncp
1064           ldc.i4        G_STRUCT_OFFSET(MonoThreadsSync, owner)                 syncp off
1065           add                                                                   &owner
1066           ldind.i                                                               owner
1067           mono. tls     thread_tls_offset                                       owner threadp
1068           ldc.i4        G_STRUCT_OFFSET(MonoThread, tid)                        owner threadp off
1069           add                                                                   owner &tid
1070           ldind.i                                                               owner tid
1071           beq.s         owned
1072         */
1073
1074         mono_mb_patch_short_branch (mb, has_syncp_branch);
1075         mono_mb_emit_ldloc (mb, syncp_loc);
1076         mono_mb_emit_icon (mb, G_STRUCT_OFFSET (MonoThreadsSync, owner));
1077         mono_mb_emit_byte (mb, CEE_ADD);
1078         mono_mb_emit_byte (mb, CEE_LDIND_I);
1079         mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
1080         mono_mb_emit_byte (mb, CEE_MONO_TLS);
1081         mono_mb_emit_i4 (mb, thread_tls_offset);
1082         mono_mb_emit_icon (mb, G_STRUCT_OFFSET (MonoInternalThread, tid));
1083         mono_mb_emit_byte (mb, CEE_ADD);
1084         mono_mb_emit_byte (mb, CEE_LDIND_I);
1085         owned_branch = mono_mb_emit_short_branch (mb, CEE_BEQ_S);
1086
1087         /*
1088           ret
1089         */
1090
1091         mono_mb_emit_byte (mb, CEE_RET);
1092
1093         /*
1094          owned:
1095           ldloc         syncp                                                   syncp
1096           ldc.i4        G_STRUCT_OFFSET(MonoThreadsSync, nest)                  syncp off
1097           add                                                                   &nest
1098           dup                                                                   &nest &nest
1099           ldind.i4                                                              &nest nest
1100           dup                                                                   &nest nest nest
1101           ldc.i4        1                                                       &nest nest nest 1
1102           bgt.un.s      nested                                                  &nest nest
1103         */
1104
1105         mono_mb_patch_short_branch (mb, owned_branch);
1106         mono_mb_emit_ldloc (mb, syncp_loc);
1107         mono_mb_emit_icon (mb, G_STRUCT_OFFSET (MonoThreadsSync, nest));
1108         mono_mb_emit_byte (mb, CEE_ADD);
1109         mono_mb_emit_byte (mb, CEE_DUP);
1110         mono_mb_emit_byte (mb, CEE_LDIND_I4);
1111         mono_mb_emit_byte (mb, CEE_DUP);
1112         mono_mb_emit_byte (mb, CEE_LDC_I4_1);
1113         nested_branch = mono_mb_emit_short_branch (mb, CEE_BGT_UN_S);
1114
1115         /*
1116           pop                                                                   &nest
1117           pop
1118           ldloc         syncp                                                   syncp
1119           ldc.i4        G_STRUCT_OFFSET(MonoThreadsSync, entry_count)           syncp off
1120           add                                                                   &count
1121           ldind.i4                                                              count
1122           brtrue.s      has_waiting
1123         */
1124
1125         mono_mb_emit_byte (mb, CEE_POP);
1126         mono_mb_emit_byte (mb, CEE_POP);
1127         mono_mb_emit_ldloc (mb, syncp_loc);
1128         mono_mb_emit_icon (mb, G_STRUCT_OFFSET (MonoThreadsSync, entry_count));
1129         mono_mb_emit_byte (mb, CEE_ADD);
1130         mono_mb_emit_byte (mb, CEE_LDIND_I4);
1131         has_waiting_branch = mono_mb_emit_short_branch (mb, CEE_BRTRUE_S);
1132
1133         /*
1134           ldloc         syncp                                                   syncp
1135           ldc.i4        G_STRUCT_OFFSET(MonoThreadsSync, owner)                 syncp off
1136           add                                                                   &owner
1137           ldnull                                                                &owner 0
1138           stind.i
1139           ret
1140         */
1141
1142         mono_mb_emit_ldloc (mb, syncp_loc);
1143         mono_mb_emit_icon (mb, G_STRUCT_OFFSET (MonoThreadsSync, owner));
1144         mono_mb_emit_byte (mb, CEE_ADD);
1145         mono_mb_emit_byte (mb, CEE_LDNULL);
1146         mono_mb_emit_byte (mb, CEE_STIND_I);
1147         mono_mb_emit_byte (mb, CEE_RET);
1148
1149         /*
1150          nested:
1151           ldc.i4        1                                                       &nest nest 1
1152           sub                                                                   &nest nest-
1153           stind.i4
1154           ret
1155         */
1156
1157         mono_mb_patch_short_branch (mb, nested_branch);
1158         mono_mb_emit_byte (mb, CEE_LDC_I4_1);
1159         mono_mb_emit_byte (mb, CEE_SUB);
1160         mono_mb_emit_byte (mb, CEE_STIND_I4);
1161         mono_mb_emit_byte (mb, CEE_RET);
1162
1163         /*
1164          obj_null, has_waiting:
1165           ldarg         0                                                       obj
1166           call          System.Threading.Monitor.Exit
1167           ret
1168          */
1169
1170         if (thin_hash_branch)
1171                 mono_mb_patch_short_branch (mb, thin_hash_branch);
1172         mono_mb_patch_short_branch (mb, obj_null_branch);
1173         mono_mb_patch_short_branch (mb, has_waiting_branch);
1174         mono_mb_emit_byte (mb, CEE_LDARG_0);
1175         mono_mb_emit_managed_call (mb, monitor_exit_method, NULL);
1176         mono_mb_emit_byte (mb, CEE_RET);
1177
1178         res = register_fastpath (mono_mb_create_method (mb, mono_signature_no_pinvoke (monitor_exit_method), 5), FASTPATH_EXIT);
1179         mono_mb_free (mb);
1180
1181         return res;
1182 }
1183
1184 MonoMethod*
1185 mono_monitor_get_fast_path (MonoMethod *enter_or_exit)
1186 {
1187         if (strcmp (enter_or_exit->name, "Enter") == 0)
1188                 return mono_monitor_get_fast_enter_method (enter_or_exit);
1189         if (strcmp (enter_or_exit->name, "Exit") == 0)
1190                 return mono_monitor_get_fast_exit_method (enter_or_exit);
1191         g_assert_not_reached ();
1192         return NULL;
1193 }
1194
1195 /*
1196  * mono_monitor_threads_sync_member_offset:
1197  * @owner_offset: returns size and offset of the "owner" member
1198  * @nest_offset: returns size and offset of the "nest" member
1199  * @entry_count_offset: returns size and offset of the "entry_count" member
1200  *
1201  * Returns the offsets and sizes of three members of the
1202  * MonoThreadsSync struct.  The Monitor ASM fastpaths need this.
1203  */
1204 void
1205 mono_monitor_threads_sync_members_offset (int *owner_offset, int *nest_offset, int *entry_count_offset)
1206 {
1207         MonoThreadsSync ts;
1208
1209 #define ENCODE_OFF_SIZE(o,s)    (((o) << 8) | ((s) & 0xff))
1210
1211         *owner_offset = ENCODE_OFF_SIZE (G_STRUCT_OFFSET (MonoThreadsSync, owner), sizeof (ts.owner));
1212         *nest_offset = ENCODE_OFF_SIZE (G_STRUCT_OFFSET (MonoThreadsSync, nest), sizeof (ts.nest));
1213         *entry_count_offset = ENCODE_OFF_SIZE (G_STRUCT_OFFSET (MonoThreadsSync, entry_count), sizeof (ts.entry_count));
1214 }
1215
1216 gboolean 
1217 ves_icall_System_Threading_Monitor_Monitor_try_enter (MonoObject *obj, guint32 ms)
1218 {
1219         gint32 res;
1220
1221         do {
1222                 res = mono_monitor_try_enter_internal (obj, ms, TRUE);
1223                 if (res == -1)
1224                         mono_thread_interruption_checkpoint ();
1225         } while (res == -1);
1226         
1227         return res == 1;
1228 }
1229
1230 void
1231 ves_icall_System_Threading_Monitor_Monitor_try_enter_with_atomic_var (MonoObject *obj, guint32 ms, char *lockTaken)
1232 {
1233         gint32 res;
1234         do {
1235                 res = mono_monitor_try_enter_internal (obj, ms, TRUE);
1236                 /*This means we got interrupted during the wait and didn't got the monitor.*/
1237                 if (res == -1)
1238                         mono_thread_interruption_checkpoint ();
1239         } while (res == -1);
1240         /*It's safe to do it from here since interruption would happen only on the wrapper.*/
1241         *lockTaken = res == 1;
1242 }
1243
1244 gboolean 
1245 ves_icall_System_Threading_Monitor_Monitor_test_owner (MonoObject *obj)
1246 {
1247         MonoThreadsSync *mon;
1248         
1249         LOCK_DEBUG (g_message ("%s: Testing if %p is owned by thread %d", __func__, obj, GetCurrentThreadId()));
1250
1251         mon = obj->synchronisation;
1252 #ifdef HAVE_MOVING_COLLECTOR
1253         {
1254                 LockWord lw;
1255                 lw.sync = mon;
1256                 if (lw.lock_word & LOCK_WORD_THIN_HASH)
1257                         return FALSE;
1258                 lw.lock_word &= ~LOCK_WORD_BITS_MASK;
1259                 mon = lw.sync;
1260         }
1261 #endif
1262         if (mon == NULL) {
1263                 return FALSE;
1264         }
1265         
1266         if(mon->owner==GetCurrentThreadId ()) {
1267                 return(TRUE);
1268         }
1269         
1270         return(FALSE);
1271 }
1272
1273 gboolean 
1274 ves_icall_System_Threading_Monitor_Monitor_test_synchronised (MonoObject *obj)
1275 {
1276         MonoThreadsSync *mon;
1277
1278         LOCK_DEBUG (g_message("%s: (%d) Testing if %p is owned by any thread", __func__, GetCurrentThreadId (), obj));
1279         
1280         mon = obj->synchronisation;
1281 #ifdef HAVE_MOVING_COLLECTOR
1282         {
1283                 LockWord lw;
1284                 lw.sync = mon;
1285                 if (lw.lock_word & LOCK_WORD_THIN_HASH)
1286                         return FALSE;
1287                 lw.lock_word &= ~LOCK_WORD_BITS_MASK;
1288                 mon = lw.sync;
1289         }
1290 #endif
1291         if (mon == NULL) {
1292                 return FALSE;
1293         }
1294         
1295         if (mon->owner != 0) {
1296                 return TRUE;
1297         }
1298         
1299         return FALSE;
1300 }
1301
1302 /* All wait list manipulation in the pulse, pulseall and wait
1303  * functions happens while the monitor lock is held, so we don't need
1304  * any extra struct locking
1305  */
1306
1307 void
1308 ves_icall_System_Threading_Monitor_Monitor_pulse (MonoObject *obj)
1309 {
1310         MonoThreadsSync *mon;
1311         
1312         LOCK_DEBUG (g_message ("%s: (%d) Pulsing %p", __func__, GetCurrentThreadId (), obj));
1313         
1314         mon = obj->synchronisation;
1315 #ifdef HAVE_MOVING_COLLECTOR
1316         {
1317                 LockWord lw;
1318                 lw.sync = mon;
1319                 if (lw.lock_word & LOCK_WORD_THIN_HASH) {
1320                         mono_raise_exception (mono_get_exception_synchronization_lock ("Not locked"));
1321                         return;
1322                 }
1323                 lw.lock_word &= ~LOCK_WORD_BITS_MASK;
1324                 mon = lw.sync;
1325         }
1326 #endif
1327         if (mon == NULL) {
1328                 mono_raise_exception (mono_get_exception_synchronization_lock ("Not locked"));
1329                 return;
1330         }
1331         if (mon->owner != GetCurrentThreadId ()) {
1332                 mono_raise_exception (mono_get_exception_synchronization_lock ("Not locked by this thread"));
1333                 return;
1334         }
1335
1336         LOCK_DEBUG (g_message ("%s: (%d) %d threads waiting", __func__, GetCurrentThreadId (), g_slist_length (mon->wait_list)));
1337         
1338         if (mon->wait_list != NULL) {
1339                 LOCK_DEBUG (g_message ("%s: (%d) signalling and dequeuing handle %p", __func__, GetCurrentThreadId (), mon->wait_list->data));
1340         
1341                 SetEvent (mon->wait_list->data);
1342                 mon->wait_list = g_slist_remove (mon->wait_list, mon->wait_list->data);
1343         }
1344 }
1345
1346 void
1347 ves_icall_System_Threading_Monitor_Monitor_pulse_all (MonoObject *obj)
1348 {
1349         MonoThreadsSync *mon;
1350         
1351         LOCK_DEBUG (g_message("%s: (%d) Pulsing all %p", __func__, GetCurrentThreadId (), obj));
1352
1353         mon = obj->synchronisation;
1354 #ifdef HAVE_MOVING_COLLECTOR
1355         {
1356                 LockWord lw;
1357                 lw.sync = mon;
1358                 if (lw.lock_word & LOCK_WORD_THIN_HASH) {
1359                         mono_raise_exception (mono_get_exception_synchronization_lock ("Not locked"));
1360                         return;
1361                 }
1362                 lw.lock_word &= ~LOCK_WORD_BITS_MASK;
1363                 mon = lw.sync;
1364         }
1365 #endif
1366         if (mon == NULL) {
1367                 mono_raise_exception (mono_get_exception_synchronization_lock ("Not locked"));
1368                 return;
1369         }
1370         if (mon->owner != GetCurrentThreadId ()) {
1371                 mono_raise_exception (mono_get_exception_synchronization_lock ("Not locked by this thread"));
1372                 return;
1373         }
1374
1375         LOCK_DEBUG (g_message ("%s: (%d) %d threads waiting", __func__, GetCurrentThreadId (), g_slist_length (mon->wait_list)));
1376
1377         while (mon->wait_list != NULL) {
1378                 LOCK_DEBUG (g_message ("%s: (%d) signalling and dequeuing handle %p", __func__, GetCurrentThreadId (), mon->wait_list->data));
1379         
1380                 SetEvent (mon->wait_list->data);
1381                 mon->wait_list = g_slist_remove (mon->wait_list, mon->wait_list->data);
1382         }
1383 }
1384
1385 gboolean
1386 ves_icall_System_Threading_Monitor_Monitor_wait (MonoObject *obj, guint32 ms)
1387 {
1388         MonoThreadsSync *mon;
1389         HANDLE event;
1390         guint32 nest;
1391         guint32 ret;
1392         gboolean success = FALSE;
1393         gint32 regain;
1394         MonoInternalThread *thread = mono_thread_internal_current ();
1395
1396         LOCK_DEBUG (g_message ("%s: (%d) Trying to wait for %p with timeout %dms", __func__, GetCurrentThreadId (), obj, ms));
1397         
1398         mon = obj->synchronisation;
1399 #ifdef HAVE_MOVING_COLLECTOR
1400         {
1401                 LockWord lw;
1402                 lw.sync = mon;
1403                 if (lw.lock_word & LOCK_WORD_THIN_HASH) {
1404                         mono_raise_exception (mono_get_exception_synchronization_lock ("Not locked"));
1405                         return FALSE;
1406                 }
1407                 lw.lock_word &= ~LOCK_WORD_BITS_MASK;
1408                 mon = lw.sync;
1409         }
1410 #endif
1411         if (mon == NULL) {
1412                 mono_raise_exception (mono_get_exception_synchronization_lock ("Not locked"));
1413                 return FALSE;
1414         }
1415         if (mon->owner != GetCurrentThreadId ()) {
1416                 mono_raise_exception (mono_get_exception_synchronization_lock ("Not locked by this thread"));
1417                 return FALSE;
1418         }
1419
1420         /* Do this WaitSleepJoin check before creating the event handle */
1421         mono_thread_current_check_pending_interrupt ();
1422         
1423         event = CreateEvent (NULL, FALSE, FALSE, NULL);
1424         if (event == NULL) {
1425                 mono_raise_exception (mono_get_exception_synchronization_lock ("Failed to set up wait event"));
1426                 return FALSE;
1427         }
1428         
1429         LOCK_DEBUG (g_message ("%s: (%d) queuing handle %p", __func__, GetCurrentThreadId (), event));
1430
1431         mono_thread_current_check_pending_interrupt ();
1432         
1433         mono_thread_set_state (thread, ThreadState_WaitSleepJoin);
1434
1435         mon->wait_list = g_slist_append (mon->wait_list, event);
1436         
1437         /* Save the nest count, and release the lock */
1438         nest = mon->nest;
1439         mon->nest = 1;
1440         mono_monitor_exit (obj);
1441
1442         LOCK_DEBUG (g_message ("%s: (%d) Unlocked %p lock %p", __func__, GetCurrentThreadId (), obj, mon));
1443
1444         /* There's no race between unlocking mon and waiting for the
1445          * event, because auto reset events are sticky, and this event
1446          * is private to this thread.  Therefore even if the event was
1447          * signalled before we wait, we still succeed.
1448          */
1449         ret = WaitForSingleObjectEx (event, ms, TRUE);
1450
1451         /* Reset the thread state fairly early, so we don't have to worry
1452          * about the monitor error checking
1453          */
1454         mono_thread_clr_state (thread, ThreadState_WaitSleepJoin);
1455         
1456         if (mono_thread_interruption_requested ()) {
1457                 /* 
1458                  * Can't remove the event from wait_list, since the monitor is not locked by
1459                  * us. So leave it there, mon_new () will delete it when the mon structure
1460                  * is placed on the free list.
1461                  * FIXME: The caller expects to hold the lock after the wait returns, but it
1462                  * doesn't happen in this case:
1463                  * http://connect.microsoft.com/VisualStudio/feedback/ViewFeedback.aspx?FeedbackID=97268
1464                  */
1465                 return FALSE;
1466         }
1467
1468         /* Regain the lock with the previous nest count */
1469         do {
1470                 regain = mono_monitor_try_enter_internal (obj, INFINITE, TRUE);
1471                 if (regain == -1) 
1472                         mono_thread_interruption_checkpoint ();
1473         } while (regain == -1);
1474
1475         if (regain == 0) {
1476                 /* Something went wrong, so throw a
1477                  * SynchronizationLockException
1478                  */
1479                 CloseHandle (event);
1480                 mono_raise_exception (mono_get_exception_synchronization_lock ("Failed to regain lock"));
1481                 return FALSE;
1482         }
1483
1484         mon->nest = nest;
1485
1486         LOCK_DEBUG (g_message ("%s: (%d) Regained %p lock %p", __func__, GetCurrentThreadId (), obj, mon));
1487
1488         if (ret == WAIT_TIMEOUT) {
1489                 /* Poll the event again, just in case it was signalled
1490                  * while we were trying to regain the monitor lock
1491                  */
1492                 ret = WaitForSingleObjectEx (event, 0, FALSE);
1493         }
1494
1495         /* Pulse will have popped our event from the queue if it signalled
1496          * us, so we only do it here if the wait timed out.
1497          *
1498          * This avoids a race condition where the thread holding the
1499          * lock can Pulse several times before the WaitForSingleObject
1500          * returns.  If we popped the queue here then this event might
1501          * be signalled more than once, thereby starving another
1502          * thread.
1503          */
1504         
1505         if (ret == WAIT_OBJECT_0) {
1506                 LOCK_DEBUG (g_message ("%s: (%d) Success", __func__, GetCurrentThreadId ()));
1507                 success = TRUE;
1508         } else {
1509                 LOCK_DEBUG (g_message ("%s: (%d) Wait failed, dequeuing handle %p", __func__, GetCurrentThreadId (), event));
1510                 /* No pulse, so we have to remove ourself from the
1511                  * wait queue
1512                  */
1513                 mon->wait_list = g_slist_remove (mon->wait_list, event);
1514         }
1515         CloseHandle (event);
1516         
1517         return success;
1518 }
1519