[exdoc] Handle punctuation better in code formatting.
[mono.git] / mono / metadata / sgen-mono.c
1 /**
2  * \file
3  * SGen features specific to Mono.
4  *
5  * Copyright (C) 2014 Xamarin Inc
6  *
7  * Licensed under the MIT license. See LICENSE file in the project root for full license information.
8  */
9
10 #include "config.h"
11 #ifdef HAVE_SGEN_GC
12
13 #include "sgen/sgen-gc.h"
14 #include "sgen/sgen-protocol.h"
15 #include "metadata/monitor.h"
16 #include "sgen/sgen-layout-stats.h"
17 #include "sgen/sgen-client.h"
18 #include "sgen/sgen-cardtable.h"
19 #include "sgen/sgen-pinning.h"
20 #include "sgen/sgen-thread-pool.h"
21 #include "metadata/marshal.h"
22 #include "metadata/method-builder.h"
23 #include "metadata/abi-details.h"
24 #include "metadata/mono-gc.h"
25 #include "metadata/runtime.h"
26 #include "metadata/sgen-bridge-internals.h"
27 #include "metadata/gc-internals.h"
28 #include "metadata/handle.h"
29 #include "utils/mono-memory-model.h"
30 #include "utils/mono-logger-internals.h"
31 #include "utils/mono-threads-coop.h"
32 #include "utils/mono-threads.h"
33 #include "metadata/w32handle.h"
34
35 #ifdef HEAVY_STATISTICS
36 static guint64 stat_wbarrier_set_arrayref = 0;
37 static guint64 stat_wbarrier_value_copy = 0;
38 static guint64 stat_wbarrier_object_copy = 0;
39
40 static guint64 los_marked_cards;
41 static guint64 los_array_cards;
42 static guint64 los_array_remsets;
43 #endif
44
45 /* If set, mark stacks conservatively, even if precise marking is possible */
46 static gboolean conservative_stack_mark = FALSE;
47 /* If set, check that there are no references to the domain left at domain unload */
48 gboolean sgen_mono_xdomain_checks = FALSE;
49
50 /* Functions supplied by the runtime to be called by the GC */
51 static MonoGCCallbacks gc_callbacks;
52
53 #define ALIGN_TO(val,align) ((((guint64)val) + ((align) - 1)) & ~((align) - 1))
54
55 #define OPDEF(a,b,c,d,e,f,g,h,i,j) \
56         a = i,
57
58 enum {
59 #include "mono/cil/opcode.def"
60         CEE_LAST
61 };
62
63 #undef OPDEF
64
65 /*
66  * Write barriers
67  */
68
69 static gboolean
70 ptr_on_stack (void *ptr)
71 {
72         gpointer stack_start = &stack_start;
73         SgenThreadInfo *info = mono_thread_info_current ();
74
75         if (ptr >= stack_start && ptr < (gpointer)info->client_info.stack_end)
76                 return TRUE;
77         return FALSE;
78 }
79
80 #ifdef SGEN_HEAVY_BINARY_PROTOCOL
81 #undef HANDLE_PTR
82 #define HANDLE_PTR(ptr,obj) do {                                        \
83                 gpointer o = *(gpointer*)(ptr);                         \
84                 if ((o)) {                                              \
85                         gpointer d = ((char*)dest) + ((char*)(ptr) - (char*)(obj)); \
86                         binary_protocol_wbarrier (d, o, (gpointer) SGEN_LOAD_VTABLE (o)); \
87                 }                                                       \
88         } while (0)
89
90 static void
91 scan_object_for_binary_protocol_copy_wbarrier (gpointer dest, char *start, mword desc)
92 {
93 #define SCAN_OBJECT_NOVTABLE
94 #include "sgen/sgen-scan-object.h"
95 }
96 #endif
97
98 void
99 mono_gc_wbarrier_value_copy (gpointer dest, gpointer src, int count, MonoClass *klass)
100 {
101         HEAVY_STAT (++stat_wbarrier_value_copy);
102         g_assert (klass->valuetype);
103
104         SGEN_LOG (8, "Adding value remset at %p, count %d, descr %p for class %s (%p)", dest, count, (gpointer)klass->gc_descr, klass->name, klass);
105
106         if (sgen_ptr_in_nursery (dest) || ptr_on_stack (dest) || !sgen_gc_descr_has_references ((mword)klass->gc_descr)) {
107                 size_t element_size = mono_class_value_size (klass, NULL);
108                 size_t size = count * element_size;
109                 mono_gc_memmove_atomic (dest, src, size);               
110                 return;
111         }
112
113 #ifdef SGEN_HEAVY_BINARY_PROTOCOL
114         if (binary_protocol_is_heavy_enabled ()) {
115                 size_t element_size = mono_class_value_size (klass, NULL);
116                 int i;
117                 for (i = 0; i < count; ++i) {
118                         scan_object_for_binary_protocol_copy_wbarrier ((char*)dest + i * element_size,
119                                         (char*)src + i * element_size - sizeof (MonoObject),
120                                         (mword) klass->gc_descr);
121                 }
122         }
123 #endif
124
125         sgen_get_remset ()->wbarrier_value_copy (dest, src, count, mono_class_value_size (klass, NULL));
126 }
127
128 /**
129  * mono_gc_wbarrier_object_copy:
130  *
131  * Write barrier to call when obj is the result of a clone or copy of an object.
132  */
133 void
134 mono_gc_wbarrier_object_copy (MonoObject* obj, MonoObject *src)
135 {
136         int size;
137
138         HEAVY_STAT (++stat_wbarrier_object_copy);
139
140         SGEN_ASSERT (6, !ptr_on_stack (obj), "Why is this called for a non-reference type?");
141         if (sgen_ptr_in_nursery (obj) || !SGEN_OBJECT_HAS_REFERENCES (src)) {
142                 size = mono_object_class (obj)->instance_size;
143                 mono_gc_memmove_aligned ((char*)obj + sizeof (MonoObject), (char*)src + sizeof (MonoObject),
144                                 size - sizeof (MonoObject));
145                 return; 
146         }
147
148 #ifdef SGEN_HEAVY_BINARY_PROTOCOL
149         if (binary_protocol_is_heavy_enabled ())
150                 scan_object_for_binary_protocol_copy_wbarrier (obj, (char*)src, (mword) src->vtable->gc_descr);
151 #endif
152
153         sgen_get_remset ()->wbarrier_object_copy (obj, src);
154 }
155
156 void
157 mono_gc_wbarrier_set_arrayref (MonoArray *arr, gpointer slot_ptr, MonoObject* value)
158 {
159         HEAVY_STAT (++stat_wbarrier_set_arrayref);
160         if (sgen_ptr_in_nursery (slot_ptr)) {
161                 *(void**)slot_ptr = value;
162                 return;
163         }
164         SGEN_LOG (8, "Adding remset at %p", slot_ptr);
165         if (value)
166                 binary_protocol_wbarrier (slot_ptr, value, value->vtable);
167
168         sgen_get_remset ()->wbarrier_set_field ((GCObject*)arr, slot_ptr, value);
169 }
170
171 void
172 mono_gc_wbarrier_set_field (MonoObject *obj, gpointer field_ptr, MonoObject* value)
173 {
174         mono_gc_wbarrier_set_arrayref ((MonoArray*)obj, field_ptr, value);
175 }
176
177 void
178 mono_gc_wbarrier_value_copy_bitmap (gpointer _dest, gpointer _src, int size, unsigned bitmap)
179 {
180         sgen_wbarrier_value_copy_bitmap (_dest, _src, size, bitmap);
181 }
182
183 int
184 mono_gc_get_suspend_signal (void)
185 {
186         return mono_threads_suspend_get_suspend_signal ();
187 }
188
189 int
190 mono_gc_get_restart_signal (void)
191 {
192         return mono_threads_suspend_get_restart_signal ();
193 }
194
195 static MonoMethod *write_barrier_conc_method;
196 static MonoMethod *write_barrier_noconc_method;
197
198 gboolean
199 sgen_is_critical_method (MonoMethod *method)
200 {
201         return sgen_is_managed_allocator (method);
202 }
203
204 gboolean
205 sgen_has_critical_method (void)
206 {
207         return sgen_has_managed_allocator ();
208 }
209
210 static gboolean
211 ip_in_critical_region (MonoDomain *domain, gpointer ip)
212 {
213         MonoJitInfo *ji;
214         MonoMethod *method;
215
216         /*
217          * We pass false for 'try_aot' so this becomes async safe.
218          * It won't find aot methods whose jit info is not yet loaded,
219          * so we preload their jit info in the JIT.
220          */
221         ji = mono_jit_info_table_find_internal (domain, ip, FALSE, FALSE);
222         if (!ji)
223                 return FALSE;
224
225         method = mono_jit_info_get_method (ji);
226
227         return mono_runtime_is_critical_method (method) || sgen_is_critical_method (method);
228 }
229
230 gboolean
231 mono_gc_is_critical_method (MonoMethod *method)
232 {
233         return sgen_is_critical_method (method);
234 }
235
236 #ifndef DISABLE_JIT
237
238 static void
239 emit_nursery_check (MonoMethodBuilder *mb, int *nursery_check_return_labels, gboolean is_concurrent)
240 {
241         int shifted_nursery_start = mono_mb_add_local (mb, &mono_defaults.int_class->byval_arg);
242
243         memset (nursery_check_return_labels, 0, sizeof (int) * 2);
244         // if (ptr_in_nursery (ptr)) return;
245         /*
246          * Masking out the bits might be faster, but we would have to use 64 bit
247          * immediates, which might be slower.
248          */
249         mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
250         mono_mb_emit_byte (mb, CEE_MONO_LDPTR_NURSERY_START);
251         mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
252         mono_mb_emit_byte (mb, CEE_MONO_LDPTR_NURSERY_BITS);
253         mono_mb_emit_byte (mb, CEE_SHR_UN);
254         mono_mb_emit_stloc (mb, shifted_nursery_start);
255
256         mono_mb_emit_ldarg (mb, 0);
257         mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
258         mono_mb_emit_byte (mb, CEE_MONO_LDPTR_NURSERY_BITS);
259         mono_mb_emit_byte (mb, CEE_SHR_UN);
260         mono_mb_emit_ldloc (mb, shifted_nursery_start);
261         nursery_check_return_labels [0] = mono_mb_emit_branch (mb, CEE_BEQ);
262
263         if (!is_concurrent) {
264                 // if (!ptr_in_nursery (*ptr)) return;
265                 mono_mb_emit_ldarg (mb, 0);
266                 mono_mb_emit_byte (mb, CEE_LDIND_I);
267                 mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
268                 mono_mb_emit_byte (mb, CEE_MONO_LDPTR_NURSERY_BITS);
269                 mono_mb_emit_byte (mb, CEE_SHR_UN);
270                 mono_mb_emit_ldloc (mb, shifted_nursery_start);
271                 nursery_check_return_labels [1] = mono_mb_emit_branch (mb, CEE_BNE_UN);
272         }
273 }
274 #endif
275
276 MonoMethod*
277 mono_gc_get_specific_write_barrier (gboolean is_concurrent)
278 {
279         MonoMethod *res;
280         MonoMethodBuilder *mb;
281         MonoMethodSignature *sig;
282         MonoMethod **write_barrier_method_addr;
283         WrapperInfo *info;
284 #ifdef MANAGED_WBARRIER
285         int i, nursery_check_labels [2];
286 #endif
287
288         // FIXME: Maybe create a separate version for ctors (the branch would be
289         // correctly predicted more times)
290         if (is_concurrent)
291                 write_barrier_method_addr = &write_barrier_conc_method;
292         else
293                 write_barrier_method_addr = &write_barrier_noconc_method;
294
295         if (*write_barrier_method_addr)
296                 return *write_barrier_method_addr;
297
298         /* Create the IL version of mono_gc_barrier_generic_store () */
299         sig = mono_metadata_signature_alloc (mono_defaults.corlib, 1);
300         sig->ret = &mono_defaults.void_class->byval_arg;
301         sig->params [0] = &mono_defaults.int_class->byval_arg;
302
303         if (is_concurrent)
304                 mb = mono_mb_new (mono_defaults.object_class, "wbarrier_conc", MONO_WRAPPER_WRITE_BARRIER);
305         else
306                 mb = mono_mb_new (mono_defaults.object_class, "wbarrier_noconc", MONO_WRAPPER_WRITE_BARRIER);
307
308 #ifndef DISABLE_JIT
309 #ifdef MANAGED_WBARRIER
310         emit_nursery_check (mb, nursery_check_labels, is_concurrent);
311         /*
312         addr = sgen_cardtable + ((address >> CARD_BITS) & CARD_MASK)
313         *addr = 1;
314
315         sgen_cardtable:
316                 LDC_PTR sgen_cardtable
317
318         address >> CARD_BITS
319                 LDARG_0
320                 LDC_I4 CARD_BITS
321                 SHR_UN
322         if (SGEN_HAVE_OVERLAPPING_CARDS) {
323                 LDC_PTR card_table_mask
324                 AND
325         }
326         AND
327         ldc_i4_1
328         stind_i1
329         */
330         mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
331         mono_mb_emit_byte (mb, CEE_MONO_LDPTR_CARD_TABLE);
332         mono_mb_emit_ldarg (mb, 0);
333         mono_mb_emit_icon (mb, CARD_BITS);
334         mono_mb_emit_byte (mb, CEE_SHR_UN);
335         mono_mb_emit_byte (mb, CEE_CONV_I);
336 #ifdef SGEN_HAVE_OVERLAPPING_CARDS
337 #if SIZEOF_VOID_P == 8
338         mono_mb_emit_icon8 (mb, CARD_MASK);
339 #else
340         mono_mb_emit_icon (mb, CARD_MASK);
341 #endif
342         mono_mb_emit_byte (mb, CEE_CONV_I);
343         mono_mb_emit_byte (mb, CEE_AND);
344 #endif
345         mono_mb_emit_byte (mb, CEE_ADD);
346         mono_mb_emit_icon (mb, 1);
347         mono_mb_emit_byte (mb, CEE_STIND_I1);
348
349         // return;
350         for (i = 0; i < 2; ++i) {
351                 if (nursery_check_labels [i])
352                         mono_mb_patch_branch (mb, nursery_check_labels [i]);
353         }
354         mono_mb_emit_byte (mb, CEE_RET);
355 #else
356         mono_mb_emit_ldarg (mb, 0);
357         mono_mb_emit_icall (mb, mono_gc_wbarrier_generic_nostore);
358         mono_mb_emit_byte (mb, CEE_RET);
359 #endif
360 #endif
361         res = mono_mb_create_method (mb, sig, 16);
362         info = mono_wrapper_info_create (mb, WRAPPER_SUBTYPE_NONE);
363         mono_marshal_set_wrapper_info (res, info);
364         mono_mb_free (mb);
365
366         LOCK_GC;
367         if (*write_barrier_method_addr) {
368                 /* Already created */
369                 mono_free_method (res);
370         } else {
371                 /* double-checked locking */
372                 mono_memory_barrier ();
373                 *write_barrier_method_addr = res;
374         }
375         UNLOCK_GC;
376
377         return *write_barrier_method_addr;
378 }
379
380 MonoMethod*
381 mono_gc_get_write_barrier (void)
382 {
383         return mono_gc_get_specific_write_barrier (major_collector.is_concurrent);
384 }
385
386 /*
387  * Dummy filler objects
388  */
389
390 /* Vtable of the objects used to fill out nursery fragments before a collection */
391 static GCVTable array_fill_vtable;
392
393 static GCVTable
394 get_array_fill_vtable (void)
395 {
396         if (!array_fill_vtable) {
397                 static MonoClass klass;
398                 static char _vtable[sizeof(MonoVTable)+8];
399                 MonoVTable* vtable = (MonoVTable*) ALIGN_TO((mword)_vtable, 8);
400                 gsize bmap;
401
402                 MonoDomain *domain = mono_get_root_domain ();
403                 g_assert (domain);
404
405                 klass.element_class = mono_defaults.byte_class;
406                 klass.rank = 1;
407                 klass.instance_size = MONO_SIZEOF_MONO_ARRAY;
408                 klass.sizes.element_size = 1;
409                 klass.name = "array_filler_type";
410
411                 vtable->klass = &klass;
412                 bmap = 0;
413                 vtable->gc_descr = mono_gc_make_descr_for_array (TRUE, &bmap, 0, 1);
414                 vtable->rank = 1;
415
416                 array_fill_vtable = vtable;
417         }
418         return array_fill_vtable;
419 }
420
421 gboolean
422 sgen_client_array_fill_range (char *start, size_t size)
423 {
424         MonoArray *o;
425
426         if (size < MONO_SIZEOF_MONO_ARRAY) {
427                 memset (start, 0, size);
428                 return FALSE;
429         }
430
431         o = (MonoArray*)start;
432         o->obj.vtable = (MonoVTable*)get_array_fill_vtable ();
433         /* Mark this as not a real object */
434         o->obj.synchronisation = (MonoThreadsSync *)GINT_TO_POINTER (-1);
435         o->bounds = NULL;
436         o->max_length = (mono_array_size_t)(size - MONO_SIZEOF_MONO_ARRAY);
437
438         return TRUE;
439 }
440
441 void
442 sgen_client_zero_array_fill_header (void *p, size_t size)
443 {
444         if (size >= MONO_SIZEOF_MONO_ARRAY) {
445                 memset (p, 0, MONO_SIZEOF_MONO_ARRAY);
446         } else {
447                 static guint8 zeros [MONO_SIZEOF_MONO_ARRAY];
448
449                 SGEN_ASSERT (0, !memcmp (p, zeros, size), "TLAB segment must be zeroed out.");
450         }
451 }
452
453 /*
454  * Finalization
455  */
456
457 static MonoGCFinalizerCallbacks fin_callbacks;
458
459 guint
460 mono_gc_get_vtable_bits (MonoClass *klass)
461 {
462         guint res = 0;
463         /* FIXME move this to the bridge code */
464         if (sgen_need_bridge_processing ()) {
465                 switch (sgen_bridge_class_kind (klass)) {
466                 case GC_BRIDGE_TRANSPARENT_BRIDGE_CLASS:
467                 case GC_BRIDGE_OPAQUE_BRIDGE_CLASS:
468                         res = SGEN_GC_BIT_BRIDGE_OBJECT;
469                         break;
470                 case GC_BRIDGE_OPAQUE_CLASS:
471                         res = SGEN_GC_BIT_BRIDGE_OPAQUE_OBJECT;
472                         break;
473                 case GC_BRIDGE_TRANSPARENT_CLASS:
474                         break;
475                 }
476         }
477         if (fin_callbacks.is_class_finalization_aware) {
478                 if (fin_callbacks.is_class_finalization_aware (klass))
479                         res |= SGEN_GC_BIT_FINALIZER_AWARE;
480         }
481         return res;
482 }
483
484 static gboolean
485 is_finalization_aware (MonoObject *obj)
486 {
487         MonoVTable *vt = SGEN_LOAD_VTABLE (obj);
488         return (vt->gc_bits & SGEN_GC_BIT_FINALIZER_AWARE) == SGEN_GC_BIT_FINALIZER_AWARE;
489 }
490
491 void
492 sgen_client_object_queued_for_finalization (GCObject *obj)
493 {
494         if (fin_callbacks.object_queued_for_finalization && is_finalization_aware (obj))
495                 fin_callbacks.object_queued_for_finalization (obj);
496
497 #ifdef ENABLE_DTRACE
498         if (G_UNLIKELY (MONO_GC_FINALIZE_ENQUEUE_ENABLED ())) {
499                 int gen = sgen_ptr_in_nursery (obj) ? GENERATION_NURSERY : GENERATION_OLD;
500                 GCVTable vt = SGEN_LOAD_VTABLE (obj);
501                 MONO_GC_FINALIZE_ENQUEUE ((mword)obj, sgen_safe_object_get_size (obj),
502                                 sgen_client_vtable_get_namespace (vt), sgen_client_vtable_get_name (vt), gen,
503                                 sgen_client_object_has_critical_finalizer (obj));
504         }
505 #endif
506 }
507
508 void
509 mono_gc_register_finalizer_callbacks (MonoGCFinalizerCallbacks *callbacks)
510 {
511         if (callbacks->version != MONO_GC_FINALIZER_EXTENSION_VERSION)
512                 g_error ("Invalid finalizer callback version. Expected %d but got %d\n", MONO_GC_FINALIZER_EXTENSION_VERSION, callbacks->version);
513
514         fin_callbacks = *callbacks;
515 }
516
517 void
518 sgen_client_run_finalize (MonoObject *obj)
519 {
520         mono_gc_run_finalize (obj, NULL);
521 }
522
523 int
524 mono_gc_invoke_finalizers (void)
525 {
526         return sgen_gc_invoke_finalizers ();
527 }
528
529 MonoBoolean
530 mono_gc_pending_finalizers (void)
531 {
532         return sgen_have_pending_finalizers ();
533 }
534
535 void
536 sgen_client_finalize_notify (void)
537 {
538         mono_gc_finalize_notify ();
539 }
540
541 void
542 mono_gc_register_for_finalization (MonoObject *obj, void *user_data)
543 {
544         sgen_object_register_for_finalization (obj, user_data);
545 }
546
547 static gboolean
548 object_in_domain_predicate (MonoObject *obj, void *user_data)
549 {
550         MonoDomain *domain = (MonoDomain *)user_data;
551         if (mono_object_domain (obj) == domain) {
552                 SGEN_LOG (5, "Unregistering finalizer for object: %p (%s)", obj, sgen_client_vtable_get_name (SGEN_LOAD_VTABLE (obj)));
553                 return TRUE;
554         }
555         return FALSE;
556 }
557
558 /**
559  * mono_gc_finalizers_for_domain:
560  * \param domain the unloading appdomain
561  * \param out_array output array
562  * \param out_size size of output array
563  * Enqueue for finalization all objects that belong to the unloading appdomain \p domain.
564  * \p suspend is used for early termination of the enqueuing process.
565  */
566 void
567 mono_gc_finalize_domain (MonoDomain *domain)
568 {
569         sgen_finalize_if (object_in_domain_predicate, domain);
570 }
571
572 void
573 mono_gc_suspend_finalizers (void)
574 {
575         sgen_set_suspend_finalizers ();
576 }
577
578 /*
579  * Ephemerons
580  */
581
582 typedef struct _EphemeronLinkNode EphemeronLinkNode;
583
584 struct _EphemeronLinkNode {
585         EphemeronLinkNode *next;
586         MonoArray *array;
587 };
588
589 typedef struct {
590        GCObject *key;
591        GCObject *value;
592 } Ephemeron;
593
594 static EphemeronLinkNode *ephemeron_list;
595
596 /* LOCKING: requires that the GC lock is held */
597 static void
598 null_ephemerons_for_domain (MonoDomain *domain)
599 {
600         EphemeronLinkNode *current = ephemeron_list, *prev = NULL;
601
602         while (current) {
603                 MonoObject *object = (MonoObject*)current->array;
604
605                 if (object)
606                         SGEN_ASSERT (0, object->vtable, "Can't have objects without vtables.");
607
608                 if (object && object->vtable->domain == domain) {
609                         EphemeronLinkNode *tmp = current;
610
611                         if (prev)
612                                 prev->next = current->next;
613                         else
614                                 ephemeron_list = current->next;
615
616                         current = current->next;
617                         sgen_free_internal (tmp, INTERNAL_MEM_EPHEMERON_LINK);
618                 } else {
619                         prev = current;
620                         current = current->next;
621                 }
622         }
623 }
624
625 /* LOCKING: requires that the GC lock is held */
626 void
627 sgen_client_clear_unreachable_ephemerons (ScanCopyContext ctx)
628 {
629         CopyOrMarkObjectFunc copy_func = ctx.ops->copy_or_mark_object;
630         SgenGrayQueue *queue = ctx.queue;
631         EphemeronLinkNode *current = ephemeron_list, *prev = NULL;
632         Ephemeron *cur, *array_end;
633         GCObject *tombstone;
634
635         while (current) {
636                 MonoArray *array = current->array;
637
638                 if (!sgen_is_object_alive_for_current_gen ((GCObject*)array)) {
639                         EphemeronLinkNode *tmp = current;
640
641                         SGEN_LOG (5, "Dead Ephemeron array at %p", array);
642
643                         if (prev)
644                                 prev->next = current->next;
645                         else
646                                 ephemeron_list = current->next;
647
648                         current = current->next;
649                         sgen_free_internal (tmp, INTERNAL_MEM_EPHEMERON_LINK);
650
651                         continue;
652                 }
653
654                 copy_func ((GCObject**)&array, queue);
655                 current->array = array;
656
657                 SGEN_LOG (5, "Clearing unreachable entries for ephemeron array at %p", array);
658
659                 cur = mono_array_addr (array, Ephemeron, 0);
660                 array_end = cur + mono_array_length_fast (array);
661                 tombstone = SGEN_LOAD_VTABLE ((GCObject*)array)->domain->ephemeron_tombstone;
662
663                 for (; cur < array_end; ++cur) {
664                         GCObject *key = cur->key;
665
666                         if (!key || key == tombstone)
667                                 continue;
668
669                         SGEN_LOG (5, "[%zd] key %p (%s) value %p (%s)", cur - mono_array_addr (array, Ephemeron, 0),
670                                 key, sgen_is_object_alive_for_current_gen (key) ? "reachable" : "unreachable",
671                                 cur->value, cur->value && sgen_is_object_alive_for_current_gen (cur->value) ? "reachable" : "unreachable");
672
673                         if (!sgen_is_object_alive_for_current_gen (key)) {
674                                 cur->key = tombstone;
675                                 cur->value = NULL;
676                                 continue;
677                         }
678                 }
679                 prev = current;
680                 current = current->next;
681         }
682 }
683
684 /*
685 LOCKING: requires that the GC lock is held
686
687 Limitations: We scan all ephemerons on every collection since the current design doesn't allow for a simple nursery/mature split.
688 */
689 gboolean
690 sgen_client_mark_ephemerons (ScanCopyContext ctx)
691 {
692         CopyOrMarkObjectFunc copy_func = ctx.ops->copy_or_mark_object;
693         SgenGrayQueue *queue = ctx.queue;
694         gboolean nothing_marked = TRUE;
695         EphemeronLinkNode *current = ephemeron_list;
696         Ephemeron *cur, *array_end;
697         GCObject *tombstone;
698
699         for (current = ephemeron_list; current; current = current->next) {
700                 MonoArray *array = current->array;
701                 SGEN_LOG (5, "Ephemeron array at %p", array);
702
703                 /*It has to be alive*/
704                 if (!sgen_is_object_alive_for_current_gen ((GCObject*)array)) {
705                         SGEN_LOG (5, "\tnot reachable");
706                         continue;
707                 }
708
709                 copy_func ((GCObject**)&array, queue);
710
711                 cur = mono_array_addr (array, Ephemeron, 0);
712                 array_end = cur + mono_array_length_fast (array);
713                 tombstone = SGEN_LOAD_VTABLE ((GCObject*)array)->domain->ephemeron_tombstone;
714
715                 for (; cur < array_end; ++cur) {
716                         GCObject *key = cur->key;
717
718                         if (!key || key == tombstone)
719                                 continue;
720
721                         SGEN_LOG (5, "[%zd] key %p (%s) value %p (%s)", cur - mono_array_addr (array, Ephemeron, 0),
722                                 key, sgen_is_object_alive_for_current_gen (key) ? "reachable" : "unreachable",
723                                 cur->value, cur->value && sgen_is_object_alive_for_current_gen (cur->value) ? "reachable" : "unreachable");
724
725                         if (sgen_is_object_alive_for_current_gen (key)) {
726                                 GCObject *value = cur->value;
727
728                                 copy_func (&cur->key, queue);
729                                 if (value) {
730                                         if (!sgen_is_object_alive_for_current_gen (value))
731                                                 nothing_marked = FALSE;
732                                         copy_func (&cur->value, queue);
733                                 }
734                         }
735                 }
736         }
737
738         SGEN_LOG (5, "Ephemeron run finished. Is it done %d", nothing_marked);
739         return nothing_marked;
740 }
741
742 gboolean
743 mono_gc_ephemeron_array_add (MonoObject *obj)
744 {
745         EphemeronLinkNode *node;
746
747         LOCK_GC;
748
749         node = (EphemeronLinkNode *)sgen_alloc_internal (INTERNAL_MEM_EPHEMERON_LINK);
750         if (!node) {
751                 UNLOCK_GC;
752                 return FALSE;
753         }
754         node->array = (MonoArray*)obj;
755         node->next = ephemeron_list;
756         ephemeron_list = node;
757
758         SGEN_LOG (5, "Registered ephemeron array %p", obj);
759
760         UNLOCK_GC;
761         return TRUE;
762 }
763
764 /*
765  * Appdomain handling
766  */
767
768 static gboolean
769 need_remove_object_for_domain (GCObject *start, MonoDomain *domain)
770 {
771         if (mono_object_domain (start) == domain) {
772                 SGEN_LOG (4, "Need to cleanup object %p", start);
773                 binary_protocol_cleanup (start, (gpointer)SGEN_LOAD_VTABLE (start), sgen_safe_object_get_size ((GCObject*)start));
774                 return TRUE;
775         }
776         return FALSE;
777 }
778
779 static void
780 process_object_for_domain_clearing (GCObject *start, MonoDomain *domain)
781 {
782         MonoVTable *vt = SGEN_LOAD_VTABLE (start);
783         if (vt->klass == mono_defaults.internal_thread_class)
784                 g_assert (mono_object_domain (start) == mono_get_root_domain ());
785         /* The object could be a proxy for an object in the domain
786            we're deleting. */
787 #ifndef DISABLE_REMOTING
788         if (mono_defaults.real_proxy_class->supertypes && mono_class_has_parent_fast (vt->klass, mono_defaults.real_proxy_class)) {
789                 MonoObject *server = ((MonoRealProxy*)start)->unwrapped_server;
790
791                 /* The server could already have been zeroed out, so
792                    we need to check for that, too. */
793                 if (server && (!SGEN_LOAD_VTABLE (server) || mono_object_domain (server) == domain)) {
794                         SGEN_LOG (4, "Cleaning up remote pointer in %p to object %p", start, server);
795                         ((MonoRealProxy*)start)->unwrapped_server = NULL;
796                 }
797         }
798 #endif
799 }
800
801 static gboolean
802 clear_domain_process_object (GCObject *obj, MonoDomain *domain)
803 {
804         gboolean remove;
805
806         process_object_for_domain_clearing (obj, domain);
807         remove = need_remove_object_for_domain (obj, domain);
808
809         if (remove && obj->synchronisation) {
810                 guint32 dislink = mono_monitor_get_object_monitor_gchandle (obj);
811                 if (dislink)
812                         mono_gchandle_free (dislink);
813         }
814
815         return remove;
816 }
817
818 static void
819 clear_domain_process_minor_object_callback (GCObject *obj, size_t size, MonoDomain *domain)
820 {
821         if (clear_domain_process_object (obj, domain)) {
822                 CANARIFY_SIZE (size);
823                 memset (obj, 0, size);
824         }
825 }
826
827 static void
828 clear_domain_process_major_object_callback (GCObject *obj, size_t size, MonoDomain *domain)
829 {
830         clear_domain_process_object (obj, domain);
831 }
832
833 static void
834 clear_domain_free_major_non_pinned_object_callback (GCObject *obj, size_t size, MonoDomain *domain)
835 {
836         if (need_remove_object_for_domain (obj, domain))
837                 major_collector.free_non_pinned_object (obj, size);
838 }
839
840 static void
841 clear_domain_free_major_pinned_object_callback (GCObject *obj, size_t size, MonoDomain *domain)
842 {
843         if (need_remove_object_for_domain (obj, domain))
844                 major_collector.free_pinned_object (obj, size);
845 }
846
847 /*
848  * When appdomains are unloaded we can easily remove objects that have finalizers,
849  * but all the others could still be present in random places on the heap.
850  * We need a sweep to get rid of them even though it's going to be costly
851  * with big heaps.
852  * The reason we need to remove them is because we access the vtable and class
853  * structures to know the object size and the reference bitmap: once the domain is
854  * unloaded the point to random memory.
855  */
856 void
857 mono_gc_clear_domain (MonoDomain * domain)
858 {
859         LOSObject *bigobj, *prev;
860         int i;
861
862         LOCK_GC;
863
864         binary_protocol_domain_unload_begin (domain);
865
866         sgen_stop_world (0);
867
868         if (sgen_concurrent_collection_in_progress ())
869                 sgen_perform_collection (0, GENERATION_OLD, "clear domain", TRUE, FALSE);
870         SGEN_ASSERT (0, !sgen_concurrent_collection_in_progress (), "We just ordered a synchronous collection.  Why are we collecting concurrently?");
871
872         major_collector.finish_sweeping ();
873
874         sgen_process_fin_stage_entries ();
875
876         sgen_clear_nursery_fragments ();
877
878         if (sgen_mono_xdomain_checks && domain != mono_get_root_domain ()) {
879                 sgen_scan_for_registered_roots_in_domain (domain, ROOT_TYPE_NORMAL);
880                 sgen_scan_for_registered_roots_in_domain (domain, ROOT_TYPE_WBARRIER);
881                 sgen_check_for_xdomain_refs ();
882         }
883
884         /*Ephemerons and dislinks must be processed before LOS since they might end up pointing
885         to memory returned to the OS.*/
886         null_ephemerons_for_domain (domain);
887         sgen_null_links_for_domain (domain);
888
889         for (i = GENERATION_NURSERY; i < GENERATION_MAX; ++i)
890                 sgen_remove_finalizers_if (object_in_domain_predicate, domain, i);
891
892         sgen_scan_area_with_callback (nursery_section->data, nursery_section->end_data,
893                         (IterateObjectCallbackFunc)clear_domain_process_minor_object_callback, domain, FALSE, TRUE);
894
895         /* We need two passes over major and large objects because
896            freeing such objects might give their memory back to the OS
897            (in the case of large objects) or obliterate its vtable
898            (pinned objects with major-copying or pinned and non-pinned
899            objects with major-mark&sweep), but we might need to
900            dereference a pointer from an object to another object if
901            the first object is a proxy. */
902         major_collector.iterate_objects (ITERATE_OBJECTS_SWEEP_ALL, (IterateObjectCallbackFunc)clear_domain_process_major_object_callback, domain);
903         for (bigobj = los_object_list; bigobj; bigobj = bigobj->next)
904                 clear_domain_process_object ((GCObject*)bigobj->data, domain);
905
906         prev = NULL;
907         for (bigobj = los_object_list; bigobj;) {
908                 if (need_remove_object_for_domain ((GCObject*)bigobj->data, domain)) {
909                         LOSObject *to_free = bigobj;
910                         if (prev)
911                                 prev->next = bigobj->next;
912                         else
913                                 los_object_list = bigobj->next;
914                         bigobj = bigobj->next;
915                         SGEN_LOG (4, "Freeing large object %p", bigobj->data);
916                         sgen_los_free_object (to_free);
917                         continue;
918                 }
919                 prev = bigobj;
920                 bigobj = bigobj->next;
921         }
922         major_collector.iterate_objects (ITERATE_OBJECTS_SWEEP_NON_PINNED, (IterateObjectCallbackFunc)clear_domain_free_major_non_pinned_object_callback, domain);
923         major_collector.iterate_objects (ITERATE_OBJECTS_SWEEP_PINNED, (IterateObjectCallbackFunc)clear_domain_free_major_pinned_object_callback, domain);
924
925         if (domain == mono_get_root_domain ()) {
926                 sgen_pin_stats_report ();
927                 sgen_object_layout_dump (stdout);
928         }
929
930         sgen_restart_world (0);
931
932         binary_protocol_domain_unload_end (domain);
933         binary_protocol_flush_buffers (FALSE);
934
935         UNLOCK_GC;
936 }
937
938 /*
939  * Allocation
940  */
941
942 void*
943 mono_gc_alloc_obj (MonoVTable *vtable, size_t size)
944 {
945         MonoObject *obj = sgen_alloc_obj (vtable, size);
946
947         if (G_UNLIKELY (mono_profiler_events & MONO_PROFILE_ALLOCATIONS)) {
948                 if (obj)
949                         mono_profiler_allocation (obj);
950         }
951
952         return obj;
953 }
954
955 void*
956 mono_gc_alloc_pinned_obj (MonoVTable *vtable, size_t size)
957 {
958         MonoObject *obj = sgen_alloc_obj_pinned (vtable, size);
959
960         if (G_UNLIKELY (mono_profiler_events & MONO_PROFILE_ALLOCATIONS)) {
961                 if (obj)
962                         mono_profiler_allocation (obj);
963         }
964
965         return obj;
966 }
967
968 void*
969 mono_gc_alloc_mature (MonoVTable *vtable, size_t size)
970 {
971         MonoObject *obj = sgen_alloc_obj_mature (vtable, size);
972
973         if (G_UNLIKELY (mono_profiler_events & MONO_PROFILE_ALLOCATIONS)) {
974                 if (obj)
975                         mono_profiler_allocation (obj);
976         }
977
978         return obj;
979 }
980
981 void*
982 mono_gc_alloc_fixed (size_t size, MonoGCDescriptor descr, MonoGCRootSource source, const char *msg)
983 {
984         /* FIXME: do a single allocation */
985         void *res = g_calloc (1, size);
986         if (!res)
987                 return NULL;
988         if (!mono_gc_register_root ((char *)res, size, descr, source, msg)) {
989                 g_free (res);
990                 res = NULL;
991         }
992         return res;
993 }
994
995 void
996 mono_gc_free_fixed (void* addr)
997 {
998         mono_gc_deregister_root ((char *)addr);
999         g_free (addr);
1000 }
1001
1002 /*
1003  * Managed allocator
1004  */
1005
1006 static MonoMethod* alloc_method_cache [ATYPE_NUM];
1007 static MonoMethod* slowpath_alloc_method_cache [ATYPE_NUM];
1008 static gboolean use_managed_allocator = TRUE;
1009
1010 #ifdef MANAGED_ALLOCATION
1011 // Cache the SgenThreadInfo pointer in a local 'var'.
1012 #define EMIT_TLS_ACCESS_VAR(mb, var) \
1013         do { \
1014                 var = mono_mb_add_local ((mb), &mono_defaults.int_class->byval_arg); \
1015                 mono_mb_emit_byte ((mb), MONO_CUSTOM_PREFIX); \
1016                 mono_mb_emit_byte ((mb), CEE_MONO_TLS); \
1017                 mono_mb_emit_i4 ((mb), TLS_KEY_SGEN_THREAD_INFO); \
1018                 mono_mb_emit_stloc ((mb), (var)); \
1019         } while (0)
1020
1021 #define EMIT_TLS_ACCESS_IN_CRITICAL_REGION_ADDR(mb, var) \
1022         do { \
1023                 mono_mb_emit_ldloc ((mb), (var)); \
1024                 mono_mb_emit_icon ((mb), MONO_STRUCT_OFFSET (SgenClientThreadInfo, in_critical_region)); \
1025                 mono_mb_emit_byte ((mb), CEE_ADD); \
1026         } while (0)
1027
1028 #define EMIT_TLS_ACCESS_NEXT_ADDR(mb, var)      do {    \
1029         mono_mb_emit_ldloc ((mb), (var));               \
1030         mono_mb_emit_icon ((mb), MONO_STRUCT_OFFSET (SgenThreadInfo, tlab_next));       \
1031         mono_mb_emit_byte ((mb), CEE_ADD);              \
1032         } while (0)
1033
1034 #define EMIT_TLS_ACCESS_TEMP_END(mb, var)       do {    \
1035         mono_mb_emit_ldloc ((mb), (var));               \
1036         mono_mb_emit_icon ((mb), MONO_STRUCT_OFFSET (SgenThreadInfo, tlab_temp_end));   \
1037         mono_mb_emit_byte ((mb), CEE_ADD);              \
1038         mono_mb_emit_byte ((mb), CEE_LDIND_I);          \
1039         } while (0)
1040
1041 /* FIXME: Do this in the JIT, where specialized allocation sequences can be created
1042  * for each class. This is currently not easy to do, as it is hard to generate basic 
1043  * blocks + branches, but it is easy with the linear IL codebase.
1044  *
1045  * For this to work we'd need to solve the TLAB race, first.  Now we
1046  * require the allocator to be in a few known methods to make sure
1047  * that they are executed atomically via the restart mechanism.
1048  */
1049 static MonoMethod*
1050 create_allocator (int atype, ManagedAllocatorVariant variant)
1051 {
1052         int p_var, size_var, real_size_var, thread_var G_GNUC_UNUSED;
1053         gboolean slowpath = variant == MANAGED_ALLOCATOR_SLOW_PATH;
1054         guint32 fastpath_branch, max_size_branch, no_oom_branch;
1055         MonoMethodBuilder *mb;
1056         MonoMethod *res;
1057         MonoMethodSignature *csig;
1058         static gboolean registered = FALSE;
1059         int tlab_next_addr_var, new_next_var;
1060         const char *name = NULL;
1061         WrapperInfo *info;
1062         int num_params, i;
1063
1064         if (!registered) {
1065                 mono_register_jit_icall (mono_gc_alloc_obj, "mono_gc_alloc_obj", mono_create_icall_signature ("object ptr int"), FALSE);
1066                 mono_register_jit_icall (mono_gc_alloc_vector, "mono_gc_alloc_vector", mono_create_icall_signature ("object ptr int int"), FALSE);
1067                 mono_register_jit_icall (mono_gc_alloc_string, "mono_gc_alloc_string", mono_create_icall_signature ("object ptr int int32"), FALSE);
1068                 registered = TRUE;
1069         }
1070
1071         if (atype == ATYPE_SMALL) {
1072                 name = slowpath ? "SlowAllocSmall" : "AllocSmall";
1073         } else if (atype == ATYPE_NORMAL) {
1074                 name = slowpath ? "SlowAlloc" : "Alloc";
1075         } else if (atype == ATYPE_VECTOR) {
1076                 name = slowpath ? "SlowAllocVector" : "AllocVector";
1077         } else if (atype == ATYPE_STRING) {
1078                 name = slowpath ? "SlowAllocString" : "AllocString";
1079         } else {
1080                 g_assert_not_reached ();
1081         }
1082
1083         if (atype == ATYPE_NORMAL)
1084                 num_params = 1;
1085         else
1086                 num_params = 2;
1087
1088         csig = mono_metadata_signature_alloc (mono_defaults.corlib, num_params);
1089         if (atype == ATYPE_STRING) {
1090                 csig->ret = &mono_defaults.string_class->byval_arg;
1091                 csig->params [0] = &mono_defaults.int_class->byval_arg;
1092                 csig->params [1] = &mono_defaults.int32_class->byval_arg;
1093         } else {
1094                 csig->ret = &mono_defaults.object_class->byval_arg;
1095                 for (i = 0; i < num_params; i++)
1096                         csig->params [i] = &mono_defaults.int_class->byval_arg;
1097         }
1098
1099         mb = mono_mb_new (mono_defaults.object_class, name, MONO_WRAPPER_ALLOC);
1100
1101 #ifndef DISABLE_JIT
1102         if (slowpath) {
1103                 switch (atype) {
1104                 case ATYPE_NORMAL:
1105                 case ATYPE_SMALL:
1106                         mono_mb_emit_ldarg (mb, 0);
1107                         mono_mb_emit_icall (mb, ves_icall_object_new_specific);
1108                         break;
1109                 case ATYPE_VECTOR:
1110                         mono_mb_emit_ldarg (mb, 0);
1111                         mono_mb_emit_ldarg (mb, 1);
1112                         mono_mb_emit_icall (mb, ves_icall_array_new_specific);
1113                         break;
1114                 case ATYPE_STRING:
1115                         mono_mb_emit_ldarg (mb, 1);
1116                         mono_mb_emit_icall (mb, ves_icall_string_alloc);
1117                         break;
1118                 default:
1119                         g_assert_not_reached ();
1120                 }
1121
1122                 goto done;
1123         }
1124
1125         /*
1126          * Tls access might call foreign code or code without jinfo. This can
1127          * only happen if we are outside of the critical region.
1128          */
1129         EMIT_TLS_ACCESS_VAR (mb, thread_var);
1130
1131         size_var = mono_mb_add_local (mb, &mono_defaults.int_class->byval_arg);
1132         if (atype == ATYPE_SMALL) {
1133                 /* size_var = size_arg */
1134                 mono_mb_emit_ldarg (mb, 1);
1135                 mono_mb_emit_stloc (mb, size_var);
1136         } else if (atype == ATYPE_NORMAL) {
1137                 /* size = vtable->klass->instance_size; */
1138                 mono_mb_emit_ldarg (mb, 0);
1139                 mono_mb_emit_icon (mb, MONO_STRUCT_OFFSET (MonoVTable, klass));
1140                 mono_mb_emit_byte (mb, CEE_ADD);
1141                 mono_mb_emit_byte (mb, CEE_LDIND_I);
1142                 mono_mb_emit_icon (mb, MONO_STRUCT_OFFSET (MonoClass, instance_size));
1143                 mono_mb_emit_byte (mb, CEE_ADD);
1144                 /* FIXME: assert instance_size stays a 4 byte integer */
1145                 mono_mb_emit_byte (mb, CEE_LDIND_U4);
1146                 mono_mb_emit_byte (mb, CEE_CONV_I);
1147                 mono_mb_emit_stloc (mb, size_var);
1148         } else if (atype == ATYPE_VECTOR) {
1149                 MonoExceptionClause *clause;
1150                 int pos, pos_leave, pos_error;
1151                 MonoClass *oom_exc_class;
1152                 MonoMethod *ctor;
1153
1154                 /*
1155                  * n > MONO_ARRAY_MAX_INDEX => OutOfMemoryException
1156                  * n < 0                    => OverflowException
1157                  *
1158                  * We can do an unsigned comparison to catch both cases, then in the error
1159                  * case compare signed to distinguish between them.
1160                  */
1161                 mono_mb_emit_ldarg (mb, 1);
1162                 mono_mb_emit_icon (mb, MONO_ARRAY_MAX_INDEX);
1163                 mono_mb_emit_byte (mb, CEE_CONV_U);
1164                 pos = mono_mb_emit_short_branch (mb, CEE_BLE_UN_S);
1165
1166                 mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
1167                 mono_mb_emit_byte (mb, CEE_MONO_NOT_TAKEN);
1168                 mono_mb_emit_ldarg (mb, 1);
1169                 mono_mb_emit_icon (mb, 0);
1170                 pos_error = mono_mb_emit_short_branch (mb, CEE_BLT_S);
1171                 mono_mb_emit_exception (mb, "OutOfMemoryException", NULL);
1172                 mono_mb_patch_short_branch (mb, pos_error);
1173                 mono_mb_emit_exception (mb, "OverflowException", NULL);
1174
1175                 mono_mb_patch_short_branch (mb, pos);
1176
1177                 clause = (MonoExceptionClause *)mono_image_alloc0 (mono_defaults.corlib, sizeof (MonoExceptionClause));
1178                 clause->try_offset = mono_mb_get_label (mb);
1179
1180                 /* vtable->klass->sizes.element_size */
1181                 mono_mb_emit_ldarg (mb, 0);
1182                 mono_mb_emit_icon (mb, MONO_STRUCT_OFFSET (MonoVTable, klass));
1183                 mono_mb_emit_byte (mb, CEE_ADD);
1184                 mono_mb_emit_byte (mb, CEE_LDIND_I);
1185                 mono_mb_emit_icon (mb, MONO_STRUCT_OFFSET (MonoClass, sizes));
1186                 mono_mb_emit_byte (mb, CEE_ADD);
1187                 mono_mb_emit_byte (mb, CEE_LDIND_U4);
1188                 mono_mb_emit_byte (mb, CEE_CONV_I);
1189
1190                 /* * n */
1191                 mono_mb_emit_ldarg (mb, 1);
1192                 mono_mb_emit_byte (mb, CEE_MUL_OVF_UN);
1193                 /* + sizeof (MonoArray) */
1194                 mono_mb_emit_icon (mb, MONO_SIZEOF_MONO_ARRAY);
1195                 mono_mb_emit_byte (mb, CEE_ADD_OVF_UN);
1196                 mono_mb_emit_stloc (mb, size_var);
1197
1198                 pos_leave = mono_mb_emit_branch (mb, CEE_LEAVE);
1199
1200                 /* catch */
1201                 clause->flags = MONO_EXCEPTION_CLAUSE_NONE;
1202                 clause->try_len = mono_mb_get_pos (mb) - clause->try_offset;
1203                 clause->data.catch_class = mono_class_load_from_name (mono_defaults.corlib,
1204                                 "System", "OverflowException");
1205                 clause->handler_offset = mono_mb_get_label (mb);
1206
1207                 oom_exc_class = mono_class_load_from_name (mono_defaults.corlib,
1208                                 "System", "OutOfMemoryException");
1209                 ctor = mono_class_get_method_from_name (oom_exc_class, ".ctor", 0);
1210                 g_assert (ctor);
1211
1212                 mono_mb_emit_byte (mb, CEE_POP);
1213                 mono_mb_emit_op (mb, CEE_NEWOBJ, ctor);
1214                 mono_mb_emit_byte (mb, CEE_THROW);
1215
1216                 clause->handler_len = mono_mb_get_pos (mb) - clause->handler_offset;
1217                 mono_mb_set_clauses (mb, 1, clause);
1218                 mono_mb_patch_branch (mb, pos_leave);
1219                 /* end catch */
1220         } else if (atype == ATYPE_STRING) {
1221                 int pos;
1222
1223                 /*
1224                  * a string allocator method takes the args: (vtable, len)
1225                  *
1226                  * bytes = offsetof (MonoString, chars) + ((len + 1) * 2)
1227                  *
1228                  * condition:
1229                  *
1230                  * bytes <= INT32_MAX - (SGEN_ALLOC_ALIGN - 1)
1231                  *
1232                  * therefore:
1233                  *
1234                  * offsetof (MonoString, chars) + ((len + 1) * 2) <= INT32_MAX - (SGEN_ALLOC_ALIGN - 1)
1235                  * len <= (INT32_MAX - (SGEN_ALLOC_ALIGN - 1) - offsetof (MonoString, chars)) / 2 - 1
1236                  */
1237                 mono_mb_emit_ldarg (mb, 1);
1238                 mono_mb_emit_icon (mb, (INT32_MAX - (SGEN_ALLOC_ALIGN - 1) - MONO_STRUCT_OFFSET (MonoString, chars)) / 2 - 1);
1239                 pos = mono_mb_emit_short_branch (mb, MONO_CEE_BLE_UN_S);
1240
1241                 mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
1242                 mono_mb_emit_byte (mb, CEE_MONO_NOT_TAKEN);
1243                 mono_mb_emit_exception (mb, "OutOfMemoryException", NULL);
1244                 mono_mb_patch_short_branch (mb, pos);
1245
1246                 mono_mb_emit_ldarg (mb, 1);
1247                 mono_mb_emit_icon (mb, 1);
1248                 mono_mb_emit_byte (mb, MONO_CEE_SHL);
1249                 //WE manually fold the above + 2 here
1250                 mono_mb_emit_icon (mb, MONO_STRUCT_OFFSET (MonoString, chars) + 2);
1251                 mono_mb_emit_byte (mb, CEE_ADD);
1252                 mono_mb_emit_stloc (mb, size_var);
1253         } else {
1254                 g_assert_not_reached ();
1255         }
1256
1257 #ifdef MANAGED_ALLOCATOR_CAN_USE_CRITICAL_REGION
1258         EMIT_TLS_ACCESS_IN_CRITICAL_REGION_ADDR (mb, thread_var);
1259         mono_mb_emit_byte (mb, CEE_LDC_I4_1);
1260         mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
1261         mono_mb_emit_byte (mb, CEE_MONO_ATOMIC_STORE_I4);
1262         mono_mb_emit_i4 (mb, MONO_MEMORY_BARRIER_NONE);
1263 #endif
1264
1265         if (nursery_canaries_enabled ()) {
1266                 real_size_var = mono_mb_add_local (mb, &mono_defaults.int_class->byval_arg);
1267                 mono_mb_emit_ldloc (mb, size_var);
1268                 mono_mb_emit_stloc(mb, real_size_var);
1269         }
1270         else
1271                 real_size_var = size_var;
1272
1273         /* size += ALLOC_ALIGN - 1; */
1274         mono_mb_emit_ldloc (mb, size_var);
1275         mono_mb_emit_icon (mb, SGEN_ALLOC_ALIGN - 1);
1276         mono_mb_emit_byte (mb, CEE_ADD);
1277         /* size &= ~(ALLOC_ALIGN - 1); */
1278         mono_mb_emit_icon (mb, ~(SGEN_ALLOC_ALIGN - 1));
1279         mono_mb_emit_byte (mb, CEE_AND);
1280         mono_mb_emit_stloc (mb, size_var);
1281
1282         /* if (size > MAX_SMALL_OBJ_SIZE) goto slowpath */
1283         if (atype != ATYPE_SMALL) {
1284                 mono_mb_emit_ldloc (mb, size_var);
1285                 mono_mb_emit_icon (mb, SGEN_MAX_SMALL_OBJ_SIZE);
1286                 max_size_branch = mono_mb_emit_short_branch (mb, MONO_CEE_BGT_UN_S);
1287         }
1288
1289         /*
1290          * We need to modify tlab_next, but the JIT only supports reading, so we read
1291          * another tls var holding its address instead.
1292          */
1293
1294         /* tlab_next_addr (local) = tlab_next_addr (TLS var) */
1295         tlab_next_addr_var = mono_mb_add_local (mb, &mono_defaults.int_class->byval_arg);
1296         EMIT_TLS_ACCESS_NEXT_ADDR (mb, thread_var);
1297         mono_mb_emit_stloc (mb, tlab_next_addr_var);
1298
1299         /* p = (void**)tlab_next; */
1300         p_var = mono_mb_add_local (mb, &mono_defaults.int_class->byval_arg);
1301         mono_mb_emit_ldloc (mb, tlab_next_addr_var);
1302         mono_mb_emit_byte (mb, CEE_LDIND_I);
1303         mono_mb_emit_stloc (mb, p_var);
1304         
1305         /* new_next = (char*)p + size; */
1306         new_next_var = mono_mb_add_local (mb, &mono_defaults.int_class->byval_arg);
1307         mono_mb_emit_ldloc (mb, p_var);
1308         mono_mb_emit_ldloc (mb, size_var);
1309         mono_mb_emit_byte (mb, CEE_CONV_I);
1310         mono_mb_emit_byte (mb, CEE_ADD);
1311
1312         if (nursery_canaries_enabled ()) {
1313                         mono_mb_emit_icon (mb, CANARY_SIZE);
1314                         mono_mb_emit_byte (mb, CEE_ADD);
1315         }
1316         mono_mb_emit_stloc (mb, new_next_var);
1317
1318         /* if (G_LIKELY (new_next < tlab_temp_end)) */
1319         mono_mb_emit_ldloc (mb, new_next_var);
1320         EMIT_TLS_ACCESS_TEMP_END (mb, thread_var);
1321         fastpath_branch = mono_mb_emit_short_branch (mb, MONO_CEE_BLT_UN_S);
1322
1323         /* Slowpath */
1324         if (atype != ATYPE_SMALL)
1325                 mono_mb_patch_short_branch (mb, max_size_branch);
1326
1327         mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
1328         mono_mb_emit_byte (mb, CEE_MONO_NOT_TAKEN);
1329         /*
1330          * We are no longer in a critical section. We need to do this before calling
1331          * to unmanaged land in order to avoid stw deadlocks since unmanaged code
1332          * might take locks.
1333          */
1334 #ifdef MANAGED_ALLOCATOR_CAN_USE_CRITICAL_REGION
1335         EMIT_TLS_ACCESS_IN_CRITICAL_REGION_ADDR (mb, thread_var);
1336         mono_mb_emit_byte (mb, CEE_LDC_I4_0);
1337         mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
1338         mono_mb_emit_byte (mb, CEE_MONO_ATOMIC_STORE_I4);
1339         mono_mb_emit_i4 (mb, MONO_MEMORY_BARRIER_NONE);
1340 #endif
1341
1342         /* FIXME: mono_gc_alloc_obj takes a 'size_t' as an argument, not an int32 */
1343         mono_mb_emit_ldarg (mb, 0);
1344         mono_mb_emit_ldloc (mb, real_size_var);
1345         if (atype == ATYPE_NORMAL || atype == ATYPE_SMALL) {
1346                 mono_mb_emit_icall (mb, mono_gc_alloc_obj);
1347         } else if (atype == ATYPE_VECTOR) {
1348                 mono_mb_emit_ldarg (mb, 1);
1349                 mono_mb_emit_icall (mb, mono_gc_alloc_vector);
1350         } else if (atype == ATYPE_STRING) {
1351                 mono_mb_emit_ldarg (mb, 1);
1352                 mono_mb_emit_icall (mb, mono_gc_alloc_string);
1353         } else {
1354                 g_assert_not_reached ();
1355         }
1356
1357         /* if (ret == NULL) throw OOM; */
1358         mono_mb_emit_byte (mb, CEE_DUP);
1359         no_oom_branch = mono_mb_emit_branch (mb, CEE_BRTRUE);
1360         mono_mb_emit_exception (mb, "OutOfMemoryException", NULL);
1361
1362         mono_mb_patch_branch (mb, no_oom_branch);
1363         mono_mb_emit_byte (mb, CEE_RET);
1364
1365         /* Fastpath */
1366         mono_mb_patch_short_branch (mb, fastpath_branch);
1367
1368         /* FIXME: Memory barrier */
1369
1370         /* tlab_next = new_next */
1371         mono_mb_emit_ldloc (mb, tlab_next_addr_var);
1372         mono_mb_emit_ldloc (mb, new_next_var);
1373         mono_mb_emit_byte (mb, CEE_STIND_I);
1374
1375         /* *p = vtable; */
1376         mono_mb_emit_ldloc (mb, p_var);
1377         mono_mb_emit_ldarg (mb, 0);
1378         mono_mb_emit_byte (mb, CEE_STIND_I);
1379
1380         /* mark object end with nursery word */
1381         if (nursery_canaries_enabled ()) {
1382                         mono_mb_emit_ldloc (mb, p_var);
1383                         mono_mb_emit_ldloc (mb, real_size_var);
1384                         mono_mb_emit_byte (mb, MONO_CEE_ADD);
1385                         mono_mb_emit_icon8 (mb, (mword) CANARY_STRING);
1386                         mono_mb_emit_icon (mb, CANARY_SIZE);
1387                         mono_mb_emit_byte (mb, MONO_CEE_PREFIX1);
1388                         mono_mb_emit_byte (mb, CEE_CPBLK);
1389         }
1390
1391         if (atype == ATYPE_VECTOR) {
1392                 /* arr->max_length = max_length; */
1393                 mono_mb_emit_ldloc (mb, p_var);
1394                 mono_mb_emit_ldflda (mb, MONO_STRUCT_OFFSET (MonoArray, max_length));
1395                 mono_mb_emit_ldarg (mb, 1);
1396 #ifdef MONO_BIG_ARRAYS
1397                 mono_mb_emit_byte (mb, CEE_STIND_I);
1398 #else
1399                 mono_mb_emit_byte (mb, CEE_STIND_I4);
1400 #endif
1401         } else  if (atype == ATYPE_STRING) {
1402                 /* need to set length and clear the last char */
1403                 /* s->length = len; */
1404                 mono_mb_emit_ldloc (mb, p_var);
1405                 mono_mb_emit_icon (mb, MONO_STRUCT_OFFSET (MonoString, length));
1406                 mono_mb_emit_byte (mb, MONO_CEE_ADD);
1407                 mono_mb_emit_ldarg (mb, 1);
1408                 mono_mb_emit_byte (mb, MONO_CEE_STIND_I4);
1409         }
1410
1411 #ifdef MANAGED_ALLOCATOR_CAN_USE_CRITICAL_REGION
1412         EMIT_TLS_ACCESS_IN_CRITICAL_REGION_ADDR (mb, thread_var);
1413         mono_mb_emit_byte (mb, CEE_LDC_I4_0);
1414         mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
1415         mono_mb_emit_byte (mb, CEE_MONO_ATOMIC_STORE_I4);
1416 #else
1417         mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
1418         mono_mb_emit_byte (mb, CEE_MONO_MEMORY_BARRIER);
1419 #endif
1420         /*
1421         We must make sure both vtable and max_length are globaly visible before returning to managed land.
1422         */
1423         mono_mb_emit_i4 (mb, MONO_MEMORY_BARRIER_REL);
1424
1425         /* return p */
1426         mono_mb_emit_ldloc (mb, p_var);
1427
1428  done:
1429         mono_mb_emit_byte (mb, CEE_RET);
1430 #endif
1431
1432         info = mono_wrapper_info_create (mb, WRAPPER_SUBTYPE_NONE);
1433         info->d.alloc.gc_name = "sgen";
1434         info->d.alloc.alloc_type = atype;
1435
1436 #ifndef DISABLE_JIT
1437         mb->init_locals = FALSE;
1438 #endif
1439
1440         res = mono_mb_create (mb, csig, 8, info);
1441         mono_mb_free (mb);
1442
1443
1444         return res;
1445 }
1446 #endif
1447
1448 int
1449 mono_gc_get_aligned_size_for_allocator (int size)
1450 {
1451         return SGEN_ALIGN_UP (size);
1452 }
1453
1454 /*
1455  * Generate an allocator method implementing the fast path of mono_gc_alloc_obj ().
1456  * The signature of the called method is:
1457  *      object allocate (MonoVTable *vtable)
1458  */
1459 MonoMethod*
1460 mono_gc_get_managed_allocator (MonoClass *klass, gboolean for_box, gboolean known_instance_size)
1461 {
1462 #ifdef MANAGED_ALLOCATION
1463         if (collect_before_allocs)
1464                 return NULL;
1465         if (klass->instance_size > tlab_size)
1466                 return NULL;
1467         if (known_instance_size && ALIGN_TO (klass->instance_size, SGEN_ALLOC_ALIGN) >= SGEN_MAX_SMALL_OBJ_SIZE)
1468                 return NULL;
1469         if (mono_class_has_finalizer (klass) || mono_class_is_marshalbyref (klass))
1470                 return NULL;
1471         if (klass->rank)
1472                 return NULL;
1473         if (mono_profiler_get_events () & MONO_PROFILE_ALLOCATIONS)
1474                 return NULL;
1475         if (klass->byval_arg.type == MONO_TYPE_STRING)
1476                 return mono_gc_get_managed_allocator_by_type (ATYPE_STRING, MANAGED_ALLOCATOR_REGULAR);
1477         /* Generic classes have dynamic field and can go above MAX_SMALL_OBJ_SIZE. */
1478         if (known_instance_size)
1479                 return mono_gc_get_managed_allocator_by_type (ATYPE_SMALL, MANAGED_ALLOCATOR_REGULAR);
1480         else
1481                 return mono_gc_get_managed_allocator_by_type (ATYPE_NORMAL, MANAGED_ALLOCATOR_REGULAR);
1482 #else
1483         return NULL;
1484 #endif
1485 }
1486
1487 MonoMethod*
1488 mono_gc_get_managed_array_allocator (MonoClass *klass)
1489 {
1490 #ifdef MANAGED_ALLOCATION
1491         if (klass->rank != 1)
1492                 return NULL;
1493         if (mono_profiler_get_events () & MONO_PROFILE_ALLOCATIONS)
1494                 return NULL;
1495         if (has_per_allocation_action)
1496                 return NULL;
1497         g_assert (!mono_class_has_finalizer (klass) && !mono_class_is_marshalbyref (klass));
1498
1499         return mono_gc_get_managed_allocator_by_type (ATYPE_VECTOR, MANAGED_ALLOCATOR_REGULAR);
1500 #else
1501         return NULL;
1502 #endif
1503 }
1504
1505 void
1506 sgen_set_use_managed_allocator (gboolean flag)
1507 {
1508         use_managed_allocator = flag;
1509 }
1510
1511 MonoMethod*
1512 mono_gc_get_managed_allocator_by_type (int atype, ManagedAllocatorVariant variant)
1513 {
1514 #ifdef MANAGED_ALLOCATION
1515         MonoMethod *res;
1516         MonoMethod **cache;
1517
1518         if (variant == MANAGED_ALLOCATOR_REGULAR && !use_managed_allocator)
1519                 return NULL;
1520
1521         switch (variant) {
1522         case MANAGED_ALLOCATOR_REGULAR: cache = alloc_method_cache; break;
1523         case MANAGED_ALLOCATOR_SLOW_PATH: cache = slowpath_alloc_method_cache; break;
1524         default: g_assert_not_reached (); break;
1525         }
1526
1527         res = cache [atype];
1528         if (res)
1529                 return res;
1530
1531         res = create_allocator (atype, variant);
1532         LOCK_GC;
1533         if (cache [atype]) {
1534                 mono_free_method (res);
1535                 res = cache [atype];
1536         } else {
1537                 mono_memory_barrier ();
1538                 cache [atype] = res;
1539         }
1540         UNLOCK_GC;
1541
1542         return res;
1543 #else
1544         return NULL;
1545 #endif
1546 }
1547
1548 guint32
1549 mono_gc_get_managed_allocator_types (void)
1550 {
1551         return ATYPE_NUM;
1552 }
1553
1554 gboolean
1555 sgen_is_managed_allocator (MonoMethod *method)
1556 {
1557         int i;
1558
1559         for (i = 0; i < ATYPE_NUM; ++i)
1560                 if (method == alloc_method_cache [i] || method == slowpath_alloc_method_cache [i])
1561                         return TRUE;
1562         return FALSE;
1563 }
1564
1565 gboolean
1566 sgen_has_managed_allocator (void)
1567 {
1568         int i;
1569
1570         for (i = 0; i < ATYPE_NUM; ++i)
1571                 if (alloc_method_cache [i] || slowpath_alloc_method_cache [i])
1572                         return TRUE;
1573         return FALSE;
1574 }
1575
1576 #define ARRAY_OBJ_INDEX(ptr,array,elem_size) (((char*)(ptr) - ((char*)(array) + G_STRUCT_OFFSET (MonoArray, vector))) / (elem_size))
1577
1578 gboolean
1579 sgen_client_cardtable_scan_object (GCObject *obj, guint8 *cards, ScanCopyContext ctx)
1580 {
1581         MonoVTable *vt = SGEN_LOAD_VTABLE (obj);
1582         MonoClass *klass = vt->klass;
1583
1584         SGEN_ASSERT (0, SGEN_VTABLE_HAS_REFERENCES (vt), "Why would we ever call this on reference-free objects?");
1585
1586         if (vt->rank) {
1587                 MonoArray *arr = (MonoArray*)obj;
1588                 guint8 *card_data, *card_base;
1589                 guint8 *card_data_end;
1590                 char *obj_start = (char *)sgen_card_table_align_pointer (obj);
1591                 mword bounds_size;
1592                 mword obj_size = sgen_mono_array_size (vt, arr, &bounds_size, sgen_vtable_get_descriptor (vt));
1593                 /* We don't want to scan the bounds entries at the end of multidimensional arrays */
1594                 char *obj_end = (char*)obj + obj_size - bounds_size;
1595                 size_t card_count;
1596                 size_t extra_idx = 0;
1597
1598                 mword desc = (mword)klass->element_class->gc_descr;
1599                 int elem_size = mono_array_element_size (klass);
1600
1601 #ifdef SGEN_HAVE_OVERLAPPING_CARDS
1602                 guint8 *overflow_scan_end = NULL;
1603 #endif
1604
1605 #ifdef SGEN_OBJECT_LAYOUT_STATISTICS
1606                 if (klass->element_class->valuetype)
1607                         sgen_object_layout_scanned_vtype_array ();
1608                 else
1609                         sgen_object_layout_scanned_ref_array ();
1610 #endif
1611
1612                 if (cards)
1613                         card_data = cards;
1614                 else
1615                         card_data = sgen_card_table_get_card_scan_address ((mword)obj);
1616
1617                 card_base = card_data;
1618                 card_count = sgen_card_table_number_of_cards_in_range ((mword)obj, obj_size);
1619                 card_data_end = card_data + card_count;
1620
1621
1622 #ifdef SGEN_HAVE_OVERLAPPING_CARDS
1623                 /*Check for overflow and if so, setup to scan in two steps*/
1624                 if (!cards && card_data_end >= SGEN_SHADOW_CARDTABLE_END) {
1625                         overflow_scan_end = sgen_shadow_cardtable + (card_data_end - SGEN_SHADOW_CARDTABLE_END);
1626                         card_data_end = SGEN_SHADOW_CARDTABLE_END;
1627                 }
1628
1629 LOOP_HEAD:
1630 #endif
1631
1632                 card_data = sgen_find_next_card (card_data, card_data_end);
1633                 for (; card_data < card_data_end; card_data = sgen_find_next_card (card_data + 1, card_data_end)) {
1634                         size_t index;
1635                         size_t idx = (card_data - card_base) + extra_idx;
1636                         char *start = (char*)(obj_start + idx * CARD_SIZE_IN_BYTES);
1637                         char *card_end = start + CARD_SIZE_IN_BYTES;
1638                         char *first_elem, *elem;
1639
1640                         HEAVY_STAT (++los_marked_cards);
1641
1642                         if (!cards)
1643                                 sgen_card_table_prepare_card_for_scanning (card_data);
1644
1645                         card_end = MIN (card_end, obj_end);
1646
1647                         if (start <= (char*)arr->vector)
1648                                 index = 0;
1649                         else
1650                                 index = ARRAY_OBJ_INDEX (start, obj, elem_size);
1651
1652                         elem = first_elem = (char*)mono_array_addr_with_size_fast ((MonoArray*)obj, elem_size, index);
1653                         if (klass->element_class->valuetype) {
1654                                 ScanVTypeFunc scan_vtype_func = ctx.ops->scan_vtype;
1655
1656                                 for (; elem < card_end; elem += elem_size)
1657                                         scan_vtype_func (obj, elem, desc, ctx.queue BINARY_PROTOCOL_ARG (elem_size));
1658                         } else {
1659                                 ScanPtrFieldFunc scan_ptr_field_func = ctx.ops->scan_ptr_field;
1660
1661                                 HEAVY_STAT (++los_array_cards);
1662                                 for (; elem < card_end; elem += SIZEOF_VOID_P)
1663                                         scan_ptr_field_func (obj, (GCObject**)elem, ctx.queue);
1664                         }
1665
1666                         binary_protocol_card_scan (first_elem, elem - first_elem);
1667                 }
1668
1669 #ifdef SGEN_HAVE_OVERLAPPING_CARDS
1670                 if (overflow_scan_end) {
1671                         extra_idx = card_data - card_base;
1672                         card_base = card_data = sgen_shadow_cardtable;
1673                         card_data_end = overflow_scan_end;
1674                         overflow_scan_end = NULL;
1675                         goto LOOP_HEAD;
1676                 }
1677 #endif
1678                 return TRUE;
1679         }
1680
1681         return FALSE;
1682 }
1683
1684 /*
1685  * Array and string allocation
1686  */
1687
1688 void*
1689 mono_gc_alloc_vector (MonoVTable *vtable, size_t size, uintptr_t max_length)
1690 {
1691         MonoArray *arr;
1692         TLAB_ACCESS_INIT;
1693
1694         if (!SGEN_CAN_ALIGN_UP (size))
1695                 return NULL;
1696
1697 #ifndef DISABLE_CRITICAL_REGION
1698         ENTER_CRITICAL_REGION;
1699         arr = (MonoArray*)sgen_try_alloc_obj_nolock (vtable, size);
1700         if (arr) {
1701                 /*This doesn't require fencing since EXIT_CRITICAL_REGION already does it for us*/
1702                 arr->max_length = (mono_array_size_t)max_length;
1703                 EXIT_CRITICAL_REGION;
1704                 goto done;
1705         }
1706         EXIT_CRITICAL_REGION;
1707 #endif
1708
1709         LOCK_GC;
1710
1711         arr = (MonoArray*)sgen_alloc_obj_nolock (vtable, size);
1712         if (G_UNLIKELY (!arr)) {
1713                 UNLOCK_GC;
1714                 return NULL;
1715         }
1716
1717         arr->max_length = (mono_array_size_t)max_length;
1718
1719         UNLOCK_GC;
1720
1721  done:
1722         if (G_UNLIKELY (mono_profiler_events & MONO_PROFILE_ALLOCATIONS))
1723                 mono_profiler_allocation (&arr->obj);
1724
1725         SGEN_ASSERT (6, SGEN_ALIGN_UP (size) == SGEN_ALIGN_UP (sgen_client_par_object_get_size (vtable, (GCObject*)arr)), "Vector has incorrect size.");
1726         return arr;
1727 }
1728
1729 void*
1730 mono_gc_alloc_array (MonoVTable *vtable, size_t size, uintptr_t max_length, uintptr_t bounds_size)
1731 {
1732         MonoArray *arr;
1733         MonoArrayBounds *bounds;
1734         TLAB_ACCESS_INIT;
1735
1736         if (!SGEN_CAN_ALIGN_UP (size))
1737                 return NULL;
1738
1739 #ifndef DISABLE_CRITICAL_REGION
1740         ENTER_CRITICAL_REGION;
1741         arr = (MonoArray*)sgen_try_alloc_obj_nolock (vtable, size);
1742         if (arr) {
1743                 /*This doesn't require fencing since EXIT_CRITICAL_REGION already does it for us*/
1744                 arr->max_length = (mono_array_size_t)max_length;
1745
1746                 bounds = (MonoArrayBounds*)((char*)arr + size - bounds_size);
1747                 arr->bounds = bounds;
1748                 EXIT_CRITICAL_REGION;
1749                 goto done;
1750         }
1751         EXIT_CRITICAL_REGION;
1752 #endif
1753
1754         LOCK_GC;
1755
1756         arr = (MonoArray*)sgen_alloc_obj_nolock (vtable, size);
1757         if (G_UNLIKELY (!arr)) {
1758                 UNLOCK_GC;
1759                 return NULL;
1760         }
1761
1762         arr->max_length = (mono_array_size_t)max_length;
1763
1764         bounds = (MonoArrayBounds*)((char*)arr + size - bounds_size);
1765         arr->bounds = bounds;
1766
1767         UNLOCK_GC;
1768
1769  done:
1770         if (G_UNLIKELY (mono_profiler_events & MONO_PROFILE_ALLOCATIONS))
1771                 mono_profiler_allocation (&arr->obj);
1772
1773         SGEN_ASSERT (6, SGEN_ALIGN_UP (size) == SGEN_ALIGN_UP (sgen_client_par_object_get_size (vtable, (GCObject*)arr)), "Array has incorrect size.");
1774         return arr;
1775 }
1776
1777 void*
1778 mono_gc_alloc_string (MonoVTable *vtable, size_t size, gint32 len)
1779 {
1780         MonoString *str;
1781         TLAB_ACCESS_INIT;
1782
1783         if (!SGEN_CAN_ALIGN_UP (size))
1784                 return NULL;
1785
1786 #ifndef DISABLE_CRITICAL_REGION
1787         ENTER_CRITICAL_REGION;
1788         str = (MonoString*)sgen_try_alloc_obj_nolock (vtable, size);
1789         if (str) {
1790                 /*This doesn't require fencing since EXIT_CRITICAL_REGION already does it for us*/
1791                 str->length = len;
1792                 EXIT_CRITICAL_REGION;
1793                 goto done;
1794         }
1795         EXIT_CRITICAL_REGION;
1796 #endif
1797
1798         LOCK_GC;
1799
1800         str = (MonoString*)sgen_alloc_obj_nolock (vtable, size);
1801         if (G_UNLIKELY (!str)) {
1802                 UNLOCK_GC;
1803                 return NULL;
1804         }
1805
1806         str->length = len;
1807
1808         UNLOCK_GC;
1809
1810  done:
1811         if (G_UNLIKELY (mono_profiler_events & MONO_PROFILE_ALLOCATIONS))
1812                 mono_profiler_allocation (&str->object);
1813
1814         return str;
1815 }
1816
1817 /*
1818  * Strings
1819  */
1820
1821 void
1822 mono_gc_set_string_length (MonoString *str, gint32 new_length)
1823 {
1824         mono_unichar2 *new_end = str->chars + new_length;
1825
1826         /* zero the discarded string. This null-delimits the string and allows
1827          * the space to be reclaimed by SGen. */
1828
1829         if (nursery_canaries_enabled () && sgen_ptr_in_nursery (str)) {
1830                 CHECK_CANARY_FOR_OBJECT ((GCObject*)str, TRUE);
1831                 memset (new_end, 0, (str->length - new_length + 1) * sizeof (mono_unichar2) + CANARY_SIZE);
1832                 memcpy (new_end + 1 , CANARY_STRING, CANARY_SIZE);
1833         } else {
1834                 memset (new_end, 0, (str->length - new_length + 1) * sizeof (mono_unichar2));
1835         }
1836
1837         str->length = new_length;
1838 }
1839
1840 /*
1841  * Profiling
1842  */
1843
1844 #define GC_ROOT_NUM 32
1845 typedef struct {
1846         int count;              /* must be the first field */
1847         void *objects [GC_ROOT_NUM];
1848         int root_types [GC_ROOT_NUM];
1849         uintptr_t extra_info [GC_ROOT_NUM];
1850 } GCRootReport;
1851
1852 static void
1853 notify_gc_roots (GCRootReport *report)
1854 {
1855         if (!report->count)
1856                 return;
1857         mono_profiler_gc_roots (report->count, report->objects, report->root_types, report->extra_info);
1858         report->count = 0;
1859 }
1860
1861 static void
1862 add_profile_gc_root (GCRootReport *report, void *object, int rtype, uintptr_t extra_info)
1863 {
1864         if (report->count == GC_ROOT_NUM)
1865                 notify_gc_roots (report);
1866         report->objects [report->count] = object;
1867         report->root_types [report->count] = rtype;
1868         report->extra_info [report->count++] = (uintptr_t)SGEN_LOAD_VTABLE (object)->klass;
1869 }
1870
1871 void
1872 sgen_client_nursery_objects_pinned (void **definitely_pinned, int count)
1873 {
1874         if (mono_profiler_get_events () & MONO_PROFILE_GC_ROOTS) {
1875                 GCRootReport report;
1876                 int idx;
1877                 report.count = 0;
1878                 for (idx = 0; idx < count; ++idx)
1879                         add_profile_gc_root (&report, definitely_pinned [idx], MONO_PROFILE_GC_ROOT_PINNING | MONO_PROFILE_GC_ROOT_MISC, 0);
1880                 notify_gc_roots (&report);
1881         }
1882 }
1883
1884 static void
1885 report_finalizer_roots_from_queue (SgenPointerQueue *queue)
1886 {
1887         GCRootReport report;
1888         size_t i;
1889
1890         report.count = 0;
1891         for (i = 0; i < queue->next_slot; ++i) {
1892                 void *obj = queue->data [i];
1893                 if (!obj)
1894                         continue;
1895                 add_profile_gc_root (&report, obj, MONO_PROFILE_GC_ROOT_FINALIZER, 0);
1896         }
1897         notify_gc_roots (&report);
1898 }
1899
1900 static void
1901 report_finalizer_roots (SgenPointerQueue *fin_ready_queue, SgenPointerQueue *critical_fin_queue)
1902 {
1903         report_finalizer_roots_from_queue (fin_ready_queue);
1904         report_finalizer_roots_from_queue (critical_fin_queue);
1905 }
1906
1907 static GCRootReport *root_report;
1908
1909 static void
1910 single_arg_report_root (MonoObject **obj, void *gc_data)
1911 {
1912         if (*obj)
1913                 add_profile_gc_root (root_report, *obj, MONO_PROFILE_GC_ROOT_OTHER, 0);
1914 }
1915
1916 static void
1917 precisely_report_roots_from (GCRootReport *report, void** start_root, void** end_root, mword desc)
1918 {
1919         switch (desc & ROOT_DESC_TYPE_MASK) {
1920         case ROOT_DESC_BITMAP:
1921                 desc >>= ROOT_DESC_TYPE_SHIFT;
1922                 while (desc) {
1923                         if ((desc & 1) && *start_root) {
1924                                 add_profile_gc_root (report, *start_root, MONO_PROFILE_GC_ROOT_OTHER, 0);
1925                         }
1926                         desc >>= 1;
1927                         start_root++;
1928                 }
1929                 return;
1930         case ROOT_DESC_COMPLEX: {
1931                 gsize *bitmap_data = (gsize *)sgen_get_complex_descriptor_bitmap (desc);
1932                 gsize bwords = (*bitmap_data) - 1;
1933                 void **start_run = start_root;
1934                 bitmap_data++;
1935                 while (bwords-- > 0) {
1936                         gsize bmap = *bitmap_data++;
1937                         void **objptr = start_run;
1938                         while (bmap) {
1939                                 if ((bmap & 1) && *objptr) {
1940                                         add_profile_gc_root (report, *objptr, MONO_PROFILE_GC_ROOT_OTHER, 0);
1941                                 }
1942                                 bmap >>= 1;
1943                                 ++objptr;
1944                         }
1945                         start_run += GC_BITS_PER_WORD;
1946                 }
1947                 break;
1948         }
1949         case ROOT_DESC_VECTOR: {
1950                 void **p;
1951
1952                 for (p = start_root; p < end_root; p++) {
1953                         if (*p)
1954                                 add_profile_gc_root (report, *p, MONO_PROFILE_GC_ROOT_OTHER, 0);
1955                 }
1956                 break;
1957         }
1958         case ROOT_DESC_USER: {
1959                 MonoGCRootMarkFunc marker = (MonoGCRootMarkFunc)sgen_get_user_descriptor_func (desc);
1960                 root_report = report;
1961                 marker ((MonoObject**)start_root, single_arg_report_root, NULL);
1962                 break;
1963         }
1964         case ROOT_DESC_RUN_LEN:
1965                 g_assert_not_reached ();
1966         default:
1967                 g_assert_not_reached ();
1968         }
1969 }
1970
1971 static void
1972 report_registered_roots_by_type (int root_type)
1973 {
1974         GCRootReport report;
1975         void **start_root;
1976         RootRecord *root;
1977         report.count = 0;
1978         SGEN_HASH_TABLE_FOREACH (&roots_hash [root_type], void **, start_root, RootRecord *, root) {
1979                 SGEN_LOG (6, "Precise root scan %p-%p (desc: %p)", start_root, root->end_root, (void*)root->root_desc);
1980                 precisely_report_roots_from (&report, start_root, (void**)root->end_root, root->root_desc);
1981         } SGEN_HASH_TABLE_FOREACH_END;
1982         notify_gc_roots (&report);
1983 }
1984
1985 static void
1986 report_registered_roots (void)
1987 {
1988         report_registered_roots_by_type (ROOT_TYPE_NORMAL);
1989         report_registered_roots_by_type (ROOT_TYPE_WBARRIER);
1990 }
1991
1992 void
1993 sgen_client_collecting_minor (SgenPointerQueue *fin_ready_queue, SgenPointerQueue *critical_fin_queue)
1994 {
1995         if (mono_profiler_get_events () & MONO_PROFILE_GC_ROOTS)
1996                 report_registered_roots ();
1997         if (mono_profiler_get_events () & MONO_PROFILE_GC_ROOTS)
1998                 report_finalizer_roots (fin_ready_queue, critical_fin_queue);
1999 }
2000
2001 static GCRootReport major_root_report;
2002 static gboolean profile_roots;
2003
2004 void
2005 sgen_client_collecting_major_1 (void)
2006 {
2007         profile_roots = mono_profiler_get_events () & MONO_PROFILE_GC_ROOTS;
2008         memset (&major_root_report, 0, sizeof (GCRootReport));
2009 }
2010
2011 void
2012 sgen_client_pinned_los_object (GCObject *obj)
2013 {
2014         if (profile_roots)
2015                 add_profile_gc_root (&major_root_report, (char*)obj, MONO_PROFILE_GC_ROOT_PINNING | MONO_PROFILE_GC_ROOT_MISC, 0);
2016 }
2017
2018 void
2019 sgen_client_collecting_major_2 (void)
2020 {
2021         if (profile_roots)
2022                 notify_gc_roots (&major_root_report);
2023
2024         if (mono_profiler_get_events () & MONO_PROFILE_GC_ROOTS)
2025                 report_registered_roots ();
2026 }
2027
2028 void
2029 sgen_client_collecting_major_3 (SgenPointerQueue *fin_ready_queue, SgenPointerQueue *critical_fin_queue)
2030 {
2031         if (mono_profiler_get_events () & MONO_PROFILE_GC_ROOTS)
2032                 report_finalizer_roots (fin_ready_queue, critical_fin_queue);
2033 }
2034
2035 #define MOVED_OBJECTS_NUM 64
2036 static void *moved_objects [MOVED_OBJECTS_NUM];
2037 static int moved_objects_idx = 0;
2038
2039 static SgenPointerQueue moved_objects_queue = SGEN_POINTER_QUEUE_INIT (INTERNAL_MEM_MOVED_OBJECT);
2040
2041 void
2042 mono_sgen_register_moved_object (void *obj, void *destination)
2043 {
2044         /*
2045          * This function can be called from SGen's worker threads. We want to try
2046          * and avoid exposing those threads to the profiler API, so queue up move
2047          * events and send them later when the main GC thread calls
2048          * mono_sgen_gc_event_moves ().
2049          *
2050          * TODO: Once SGen has multiple worker threads, we need to switch to a
2051          * lock-free data structure for the queue as multiple threads will be
2052          * adding to it at the same time.
2053          */
2054         if (sgen_thread_pool_is_thread_pool_thread (mono_native_thread_id_get ())) {
2055                 sgen_pointer_queue_add (&moved_objects_queue, obj);
2056                 sgen_pointer_queue_add (&moved_objects_queue, destination);
2057         } else {
2058                 if (moved_objects_idx == MOVED_OBJECTS_NUM) {
2059                         mono_profiler_gc_moves (moved_objects, moved_objects_idx);
2060                         moved_objects_idx = 0;
2061                 }
2062
2063                 moved_objects [moved_objects_idx++] = obj;
2064                 moved_objects [moved_objects_idx++] = destination;
2065         }
2066 }
2067
2068 void
2069 mono_sgen_gc_event_moves (void)
2070 {
2071         while (!sgen_pointer_queue_is_empty (&moved_objects_queue)) {
2072                 void *dst = sgen_pointer_queue_pop (&moved_objects_queue);
2073                 void *src = sgen_pointer_queue_pop (&moved_objects_queue);
2074
2075                 mono_sgen_register_moved_object (src, dst);
2076         }
2077
2078         if (moved_objects_idx) {
2079                 mono_profiler_gc_moves (moved_objects, moved_objects_idx);
2080                 moved_objects_idx = 0;
2081         }
2082 }
2083
2084 /*
2085  * Heap walking
2086  */
2087
2088 #define REFS_SIZE 128
2089 typedef struct {
2090         void *data;
2091         MonoGCReferences callback;
2092         int flags;
2093         int count;
2094         int called;
2095         MonoObject *refs [REFS_SIZE];
2096         uintptr_t offsets [REFS_SIZE];
2097 } HeapWalkInfo;
2098
2099 #undef HANDLE_PTR
2100 #define HANDLE_PTR(ptr,obj)     do {    \
2101                 if (*(ptr)) {   \
2102                         if (hwi->count == REFS_SIZE) {  \
2103                                 hwi->callback ((MonoObject*)start, mono_object_class (start), hwi->called? 0: size, hwi->count, hwi->refs, hwi->offsets, hwi->data);    \
2104                                 hwi->count = 0; \
2105                                 hwi->called = 1;        \
2106                         }       \
2107                         hwi->offsets [hwi->count] = (char*)(ptr)-(char*)start;  \
2108                         hwi->refs [hwi->count++] = *(ptr);      \
2109                 }       \
2110         } while (0)
2111
2112 static void
2113 collect_references (HeapWalkInfo *hwi, GCObject *obj, size_t size)
2114 {
2115         char *start = (char*)obj;
2116         mword desc = sgen_obj_get_descriptor (obj);
2117
2118 #include "sgen/sgen-scan-object.h"
2119 }
2120
2121 static void
2122 walk_references (GCObject *start, size_t size, void *data)
2123 {
2124         HeapWalkInfo *hwi = (HeapWalkInfo *)data;
2125         hwi->called = 0;
2126         hwi->count = 0;
2127         collect_references (hwi, start, size);
2128         if (hwi->count || !hwi->called)
2129                 hwi->callback (start, mono_object_class (start), hwi->called? 0: size, hwi->count, hwi->refs, hwi->offsets, hwi->data);
2130 }
2131
2132 /**
2133  * mono_gc_walk_heap:
2134  * \param flags flags for future use
2135  * \param callback a function pointer called for each object in the heap
2136  * \param data a user data pointer that is passed to callback
2137  * This function can be used to iterate over all the live objects in the heap:
2138  * for each object, \p callback is invoked, providing info about the object's
2139  * location in memory, its class, its size and the objects it references.
2140  * For each referenced object it's offset from the object address is
2141  * reported in the offsets array.
2142  * The object references may be buffered, so the callback may be invoked
2143  * multiple times for the same object: in all but the first call, the size
2144  * argument will be zero.
2145  * Note that this function can be only called in the \c MONO_GC_EVENT_PRE_START_WORLD
2146  * profiler event handler.
2147  * \returns a non-zero value if the GC doesn't support heap walking
2148  */
2149 int
2150 mono_gc_walk_heap (int flags, MonoGCReferences callback, void *data)
2151 {
2152         HeapWalkInfo hwi;
2153
2154         hwi.flags = flags;
2155         hwi.callback = callback;
2156         hwi.data = data;
2157
2158         sgen_clear_nursery_fragments ();
2159         sgen_scan_area_with_callback (nursery_section->data, nursery_section->end_data, walk_references, &hwi, FALSE, TRUE);
2160
2161         major_collector.iterate_objects (ITERATE_OBJECTS_SWEEP_ALL, walk_references, &hwi);
2162         sgen_los_iterate_objects (walk_references, &hwi);
2163
2164         return 0;
2165 }
2166
2167 /*
2168  * Threads
2169  */
2170
2171 void
2172 mono_gc_set_gc_callbacks (MonoGCCallbacks *callbacks)
2173 {
2174         gc_callbacks = *callbacks;
2175 }
2176
2177 MonoGCCallbacks *
2178 mono_gc_get_gc_callbacks ()
2179 {
2180         return &gc_callbacks;
2181 }
2182
2183 void
2184 sgen_client_thread_register (SgenThreadInfo* info, void *stack_bottom_fallback)
2185 {
2186         size_t stsize = 0;
2187         guint8 *staddr = NULL;
2188
2189         mono_tls_set_sgen_thread_info (info);
2190
2191         info->client_info.skip = 0;
2192
2193         info->client_info.stack_start = NULL;
2194
2195 #ifdef SGEN_POSIX_STW
2196         info->client_info.stop_count = -1;
2197         info->client_info.signal = 0;
2198 #endif
2199
2200         mono_thread_info_get_stack_bounds (&staddr, &stsize);
2201         if (staddr) {
2202                 info->client_info.stack_start_limit = staddr;
2203                 info->client_info.stack_end = staddr + stsize;
2204         } else {
2205                 gsize stack_bottom = (gsize)stack_bottom_fallback;
2206                 stack_bottom += 4095;
2207                 stack_bottom &= ~4095;
2208                 info->client_info.stack_end = (char*)stack_bottom;
2209         }
2210
2211         memset (&info->client_info.ctx, 0, sizeof (MonoContext));
2212
2213         if (mono_gc_get_gc_callbacks ()->thread_attach_func)
2214                 info->client_info.runtime_data = mono_gc_get_gc_callbacks ()->thread_attach_func ();
2215
2216         binary_protocol_thread_register ((gpointer)mono_thread_info_get_tid (info));
2217
2218         SGEN_LOG (3, "registered thread %p (%p) stack end %p", info, (gpointer)mono_thread_info_get_tid (info), info->client_info.stack_end);
2219
2220         info->client_info.info.handle_stack = mono_handle_stack_alloc ();
2221 }
2222
2223 void
2224 sgen_client_thread_unregister (SgenThreadInfo *p)
2225 {
2226         MonoNativeThreadId tid;
2227
2228         mono_tls_set_sgen_thread_info (NULL);
2229
2230         tid = mono_thread_info_get_tid (p);
2231
2232         if (p->client_info.info.runtime_thread)
2233                 mono_threads_add_joinable_thread ((gpointer)tid);
2234
2235         if (mono_gc_get_gc_callbacks ()->thread_detach_func) {
2236                 mono_gc_get_gc_callbacks ()->thread_detach_func (p->client_info.runtime_data);
2237                 p->client_info.runtime_data = NULL;
2238         }
2239
2240         binary_protocol_thread_unregister ((gpointer)tid);
2241         SGEN_LOG (3, "unregister thread %p (%p)", p, (gpointer)tid);
2242
2243         HandleStack *handles = (HandleStack*) p->client_info.info.handle_stack;
2244         p->client_info.info.handle_stack = NULL;
2245         mono_handle_stack_free (handles);
2246 }
2247
2248 void
2249 mono_gc_set_skip_thread (gboolean skip)
2250 {
2251         SgenThreadInfo *info = mono_thread_info_current ();
2252
2253         LOCK_GC;
2254         info->client_info.gc_disabled = skip;
2255         UNLOCK_GC;
2256
2257         if (skip) {
2258                 /* If we skip scanning a thread with a non-empty handle stack, we may move an
2259                  * object but fail to update the reference in the handle.
2260                  */
2261                 HandleStack *stack = info->client_info.info.handle_stack;
2262                 g_assert (stack == NULL || mono_handle_stack_is_empty (stack));
2263         }
2264 }
2265
2266 static gboolean
2267 thread_in_critical_region (SgenThreadInfo *info)
2268 {
2269         return info->client_info.in_critical_region;
2270 }
2271
2272 static void
2273 sgen_thread_attach (SgenThreadInfo *info)
2274 {
2275         if (mono_gc_get_gc_callbacks ()->thread_attach_func && !info->client_info.runtime_data)
2276                 info->client_info.runtime_data = mono_gc_get_gc_callbacks ()->thread_attach_func ();
2277 }
2278
2279 static void
2280 sgen_thread_detach (SgenThreadInfo *p)
2281 {
2282         /* If a delegate is passed to native code and invoked on a thread we dont
2283          * know about, marshal will register it with mono_threads_attach_coop, but
2284          * we have no way of knowing when that thread goes away.  SGen has a TSD
2285          * so we assume that if the domain is still registered, we can detach
2286          * the thread
2287          */
2288         if (mono_thread_internal_current_is_attached ())
2289                 mono_thread_detach_internal (mono_thread_internal_current ());
2290 }
2291
2292 gboolean
2293 mono_gc_register_thread (void *baseptr)
2294 {
2295         return mono_thread_info_attach (baseptr) != NULL;
2296 }
2297
2298 gboolean
2299 mono_gc_is_gc_thread (void)
2300 {
2301         gboolean result;
2302         LOCK_GC;
2303         result = mono_thread_info_current () != NULL;
2304         UNLOCK_GC;
2305         return result;
2306 }
2307
2308 void
2309 sgen_client_thread_register_worker (void)
2310 {
2311         mono_thread_info_register_small_id ();
2312         mono_native_thread_set_name (mono_native_thread_id_get (), "SGen worker");
2313 }
2314
2315 /* Variables holding start/end nursery so it won't have to be passed at every call */
2316 static void *scan_area_arg_start, *scan_area_arg_end;
2317
2318 void
2319 mono_gc_conservatively_scan_area (void *start, void *end)
2320 {
2321         sgen_conservatively_pin_objects_from ((void **)start, (void **)end, scan_area_arg_start, scan_area_arg_end, PIN_TYPE_STACK);
2322 }
2323
2324 void*
2325 mono_gc_scan_object (void *obj, void *gc_data)
2326 {
2327         ScanCopyContext *ctx = (ScanCopyContext *)gc_data;
2328         ctx->ops->copy_or_mark_object ((GCObject**)&obj, ctx->queue);
2329         return obj;
2330 }
2331
2332 typedef struct {
2333         void **start_nursery;
2334         void **end_nursery;
2335 } PinHandleStackInteriorPtrData;
2336
2337 /* Called when we're scanning the handle stack imprecisely and we encounter a pointer into the
2338    middle of an object.
2339  */
2340 static void
2341 pin_handle_stack_interior_ptrs (void **ptr_slot, void *user_data)
2342 {
2343         PinHandleStackInteriorPtrData *ud = (PinHandleStackInteriorPtrData *)user_data;
2344         sgen_conservatively_pin_objects_from (ptr_slot, ptr_slot+1, ud->start_nursery, ud->end_nursery, PIN_TYPE_STACK);
2345 }
2346
2347
2348 /*
2349  * Mark from thread stacks and registers.
2350  */
2351 void
2352 sgen_client_scan_thread_data (void *start_nursery, void *end_nursery, gboolean precise, ScanCopyContext ctx)
2353 {
2354         scan_area_arg_start = start_nursery;
2355         scan_area_arg_end = end_nursery;
2356
2357         FOREACH_THREAD (info) {
2358                 int skip_reason = 0;
2359                 void *aligned_stack_start;
2360
2361                 if (info->client_info.skip) {
2362                         SGEN_LOG (3, "Skipping dead thread %p, range: %p-%p, size: %zd", info, info->client_info.stack_start, info->client_info.stack_end, (char*)info->client_info.stack_end - (char*)info->client_info.stack_start);
2363                         skip_reason = 1;
2364                 } else if (info->client_info.gc_disabled) {
2365                         SGEN_LOG (3, "GC disabled for thread %p, range: %p-%p, size: %zd", info, info->client_info.stack_start, info->client_info.stack_end, (char*)info->client_info.stack_end - (char*)info->client_info.stack_start);
2366                         skip_reason = 2;
2367                 } else if (!mono_thread_info_is_live (info)) {
2368                         SGEN_LOG (3, "Skipping non-running thread %p, range: %p-%p, size: %zd (state %x)", info, info->client_info.stack_start, info->client_info.stack_end, (char*)info->client_info.stack_end - (char*)info->client_info.stack_start, info->client_info.info.thread_state);
2369                         skip_reason = 3;
2370                 } else if (!info->client_info.stack_start) {
2371                         SGEN_LOG (3, "Skipping starting or detaching thread %p", info);
2372                         skip_reason = 4;
2373                 }
2374
2375                 binary_protocol_scan_stack ((gpointer)mono_thread_info_get_tid (info), info->client_info.stack_start, info->client_info.stack_end, skip_reason);
2376
2377                 if (skip_reason) {
2378                         if (precise) {
2379                                 /* If we skip a thread with a non-empty handle stack and then it
2380                                  * resumes running we may potentially move an object but fail to
2381                                  * update the reference in the handle.
2382                                  */
2383                                 HandleStack *stack = info->client_info.info.handle_stack;
2384                                 g_assert (stack == NULL || mono_handle_stack_is_empty (stack));
2385                         }
2386                         continue;
2387                 }
2388
2389                 g_assert (info->client_info.stack_start);
2390                 g_assert (info->client_info.stack_end);
2391
2392                 aligned_stack_start = (void*)(mword) ALIGN_TO ((mword)info->client_info.stack_start, SIZEOF_VOID_P);
2393 #ifdef HOST_WIN32
2394                 /* Windows uses a guard page before the committed stack memory pages to detect when the
2395                    stack needs to be grown. If we suspend a thread just after a function prolog has
2396                    decremented the stack pointer to point into the guard page but before the thread has
2397                    been able to read or write to that page, starting the stack scan at aligned_stack_start
2398                    will raise a STATUS_GUARD_PAGE_VIOLATION and the process will crash. This code uses
2399                    VirtualQuery() to determine whether stack_start points into the guard page and then
2400                    updates aligned_stack_start to point at the next non-guard page. */
2401                 MEMORY_BASIC_INFORMATION mem_info;
2402                 SIZE_T result = VirtualQuery(info->client_info.stack_start, &mem_info, sizeof(mem_info));
2403                 g_assert (result != 0);
2404                 if (mem_info.Protect & PAGE_GUARD) {
2405                         aligned_stack_start = ((char*) mem_info.BaseAddress) + mem_info.RegionSize;
2406                 }
2407 #endif
2408
2409                 g_assert (info->client_info.suspend_done);
2410                 SGEN_LOG (3, "Scanning thread %p, range: %p-%p, size: %zd, pinned=%zd", info, info->client_info.stack_start, info->client_info.stack_end, (char*)info->client_info.stack_end - (char*)info->client_info.stack_start, sgen_get_pinned_count ());
2411                 if (mono_gc_get_gc_callbacks ()->thread_mark_func && !conservative_stack_mark) {
2412                         mono_gc_get_gc_callbacks ()->thread_mark_func (info->client_info.runtime_data, (guint8 *)aligned_stack_start, (guint8 *)info->client_info.stack_end, precise, &ctx);
2413                 } else if (!precise) {
2414                         if (!conservative_stack_mark) {
2415                                 fprintf (stderr, "Precise stack mark not supported - disabling.\n");
2416                                 conservative_stack_mark = TRUE;
2417                         }
2418                         //FIXME we should eventually use the new stack_mark from coop
2419                         sgen_conservatively_pin_objects_from ((void **)aligned_stack_start, (void **)info->client_info.stack_end, start_nursery, end_nursery, PIN_TYPE_STACK);
2420                 }
2421
2422                 if (!precise) {
2423                         sgen_conservatively_pin_objects_from ((void**)&info->client_info.ctx, (void**)(&info->client_info.ctx + 1),
2424                                 start_nursery, end_nursery, PIN_TYPE_STACK);
2425
2426                         {
2427                                 // This is used on Coop GC for platforms where we cannot get the data for individual registers.
2428                                 // We force a spill of all registers into the stack and pass a chunk of data into sgen.
2429                                 //FIXME under coop, for now, what we need to ensure is that we scan any extra memory from info->client_info.stack_end to stack_mark
2430                                 MonoThreadUnwindState *state = &info->client_info.info.thread_saved_state [SELF_SUSPEND_STATE_INDEX];
2431                                 if (state && state->gc_stackdata) {
2432                                         sgen_conservatively_pin_objects_from ((void **)state->gc_stackdata, (void**)((char*)state->gc_stackdata + state->gc_stackdata_size),
2433                                                 start_nursery, end_nursery, PIN_TYPE_STACK);
2434                                 }
2435                         }
2436                 }
2437                 if (info->client_info.info.handle_stack) {
2438                         /*
2439                           Make two passes over the handle stack.  On the imprecise pass, pin all
2440                           objects where the handle points into the interior of the object. On the
2441                           precise pass, copy or mark all the objects that have handles to the
2442                           beginning of the object.
2443                         */
2444                         if (precise)
2445                                 mono_handle_stack_scan ((HandleStack*)info->client_info.info.handle_stack, (GcScanFunc)ctx.ops->copy_or_mark_object, ctx.queue, precise);
2446                         else {
2447                                 PinHandleStackInteriorPtrData ud = { .start_nursery = start_nursery,
2448                                                                      .end_nursery = end_nursery,
2449                                 };
2450                                 mono_handle_stack_scan ((HandleStack*)info->client_info.info.handle_stack, pin_handle_stack_interior_ptrs, &ud, precise);
2451                         }
2452                 }
2453         } FOREACH_THREAD_END
2454 }
2455
2456 /*
2457  * mono_gc_set_stack_end:
2458  *
2459  *   Set the end of the current threads stack to STACK_END. The stack space between 
2460  * STACK_END and the real end of the threads stack will not be scanned during collections.
2461  */
2462 void
2463 mono_gc_set_stack_end (void *stack_end)
2464 {
2465         SgenThreadInfo *info;
2466
2467         LOCK_GC;
2468         info = mono_thread_info_current ();
2469         if (info) {
2470                 SGEN_ASSERT (0, stack_end < info->client_info.stack_end, "Can only lower stack end");
2471                 info->client_info.stack_end = stack_end;
2472         }
2473         UNLOCK_GC;
2474 }
2475
2476 /*
2477  * Roots
2478  */
2479
2480 int
2481 mono_gc_register_root (char *start, size_t size, MonoGCDescriptor descr, MonoGCRootSource source, const char *msg)
2482 {
2483         return sgen_register_root (start, size, descr, descr ? ROOT_TYPE_NORMAL : ROOT_TYPE_PINNED, source, msg);
2484 }
2485
2486 int
2487 mono_gc_register_root_wbarrier (char *start, size_t size, MonoGCDescriptor descr, MonoGCRootSource source, const char *msg)
2488 {
2489         return sgen_register_root (start, size, descr, ROOT_TYPE_WBARRIER, source, msg);
2490 }
2491
2492 void
2493 mono_gc_deregister_root (char* addr)
2494 {
2495         sgen_deregister_root (addr);
2496 }
2497
2498 /*
2499  * PThreads
2500  */
2501
2502 #ifndef HOST_WIN32
2503 int
2504 mono_gc_pthread_create (pthread_t *new_thread, const pthread_attr_t *attr, void *(*start_routine)(void *), void *arg)
2505 {
2506         int res;
2507
2508         mono_threads_join_lock ();
2509         res = pthread_create (new_thread, attr, start_routine, arg);
2510         mono_threads_join_unlock ();
2511
2512         return res;
2513 }
2514 #endif
2515
2516 /*
2517  * Miscellaneous
2518  */
2519
2520 void
2521 sgen_client_total_allocated_heap_changed (size_t allocated_heap)
2522 {
2523         mono_runtime_resource_check_limit (MONO_RESOURCE_GC_HEAP, allocated_heap);
2524 }
2525
2526 gboolean
2527 mono_gc_user_markers_supported (void)
2528 {
2529         return TRUE;
2530 }
2531
2532 gboolean
2533 mono_object_is_alive (MonoObject* o)
2534 {
2535         return TRUE;
2536 }
2537
2538 int
2539 mono_gc_get_generation (MonoObject *obj)
2540 {
2541         if (sgen_ptr_in_nursery (obj))
2542                 return 0;
2543         return 1;
2544 }
2545
2546 const char *
2547 mono_gc_get_gc_name (void)
2548 {
2549         return "sgen";
2550 }
2551
2552 char*
2553 mono_gc_get_description (void)
2554 {
2555 #ifdef HAVE_CONC_GC_AS_DEFAULT
2556         return g_strdup ("sgen (concurrent by default)");
2557 #else
2558         return g_strdup ("sgen");
2559 #endif
2560 }
2561
2562 void
2563 mono_gc_set_desktop_mode (void)
2564 {
2565 }
2566
2567 gboolean
2568 mono_gc_is_moving (void)
2569 {
2570         return TRUE;
2571 }
2572
2573 gboolean
2574 mono_gc_is_disabled (void)
2575 {
2576         return FALSE;
2577 }
2578
2579 #ifdef HOST_WIN32
2580 BOOL APIENTRY mono_gc_dllmain (HMODULE module_handle, DWORD reason, LPVOID reserved)
2581 {
2582         return TRUE;
2583 }
2584 #endif
2585
2586 int
2587 mono_gc_max_generation (void)
2588 {
2589         return 1;
2590 }
2591
2592 gboolean
2593 mono_gc_precise_stack_mark_enabled (void)
2594 {
2595         return !conservative_stack_mark;
2596 }
2597
2598 void
2599 mono_gc_collect (int generation)
2600 {
2601         sgen_gc_collect (generation);
2602 }
2603
2604 int
2605 mono_gc_collection_count (int generation)
2606 {
2607         return sgen_gc_collection_count (generation);
2608 }
2609
2610 int64_t
2611 mono_gc_get_used_size (void)
2612 {
2613         return (int64_t)sgen_gc_get_used_size ();
2614 }
2615
2616 int64_t
2617 mono_gc_get_heap_size (void)
2618 {
2619         return (int64_t)sgen_gc_get_total_heap_allocation ();
2620 }
2621
2622 MonoGCDescriptor
2623 mono_gc_make_root_descr_user (MonoGCRootMarkFunc marker)
2624 {
2625         return sgen_make_user_root_descriptor (marker);
2626 }
2627
2628 MonoGCDescriptor
2629 mono_gc_make_descr_for_string (gsize *bitmap, int numbits)
2630 {
2631         return SGEN_DESC_STRING;
2632 }
2633
2634 void*
2635 mono_gc_get_nursery (int *shift_bits, size_t *size)
2636 {
2637         *size = sgen_nursery_size;
2638         *shift_bits = DEFAULT_NURSERY_BITS;
2639         return sgen_get_nursery_start ();
2640 }
2641
2642 int
2643 mono_gc_get_los_limit (void)
2644 {
2645         return SGEN_MAX_SMALL_OBJ_SIZE;
2646 }
2647
2648 gpointer
2649 sgen_client_default_metadata (void)
2650 {
2651         return mono_domain_get ();
2652 }
2653
2654 gpointer
2655 sgen_client_metadata_for_object (GCObject *obj)
2656 {
2657         return mono_object_domain (obj);
2658 }
2659
2660 /**
2661  * mono_gchandle_is_in_domain:
2662  * \param gchandle a GCHandle's handle.
2663  * \param domain An application domain.
2664  * \returns TRUE if the object wrapped by the \p gchandle belongs to the specific \p domain.
2665  */
2666 gboolean
2667 mono_gchandle_is_in_domain (guint32 gchandle, MonoDomain *domain)
2668 {
2669         MonoDomain *gchandle_domain = (MonoDomain *)sgen_gchandle_get_metadata (gchandle);
2670         return domain->domain_id == gchandle_domain->domain_id;
2671 }
2672
2673 /**
2674  * mono_gchandle_free_domain:
2675  * \param unloading domain that is unloading
2676  *
2677  * Function used internally to cleanup any GC handle for objects belonging
2678  * to the specified domain during appdomain unload.
2679  */
2680 void
2681 mono_gchandle_free_domain (MonoDomain *unloading)
2682 {
2683 }
2684
2685 static gpointer
2686 null_link_if_in_domain (gpointer hidden, GCHandleType handle_type, int max_generation, gpointer user)
2687 {
2688         MonoDomain *unloading_domain = (MonoDomain *)user;
2689         MonoDomain *obj_domain;
2690         gboolean is_weak = MONO_GC_HANDLE_TYPE_IS_WEAK (handle_type);
2691         if (MONO_GC_HANDLE_IS_OBJECT_POINTER (hidden)) {
2692                 MonoObject *obj = (MonoObject *)MONO_GC_REVEAL_POINTER (hidden, is_weak);
2693                 obj_domain = mono_object_domain (obj);
2694         } else {
2695                 obj_domain = (MonoDomain *)MONO_GC_REVEAL_POINTER (hidden, is_weak);
2696         }
2697         if (unloading_domain->domain_id == obj_domain->domain_id)
2698                 return NULL;
2699         return hidden;
2700 }
2701
2702 void
2703 sgen_null_links_for_domain (MonoDomain *domain)
2704 {
2705         guint type;
2706         for (type = HANDLE_TYPE_MIN; type < HANDLE_TYPE_MAX; ++type)
2707                 sgen_gchandle_iterate ((GCHandleType)type, GENERATION_OLD, null_link_if_in_domain, domain);
2708 }
2709
2710 void
2711 mono_gchandle_set_target (guint32 gchandle, MonoObject *obj)
2712 {
2713         sgen_gchandle_set_target (gchandle, obj);
2714 }
2715
2716 void
2717 sgen_client_gchandle_created (int handle_type, GCObject *obj, guint32 handle)
2718 {
2719 #ifndef DISABLE_PERFCOUNTERS
2720         mono_perfcounters->gc_num_handles++;
2721 #endif
2722         mono_profiler_gc_handle (MONO_PROFILER_GC_HANDLE_CREATED, handle_type, handle, obj);
2723 }
2724
2725 void
2726 sgen_client_gchandle_destroyed (int handle_type, guint32 handle)
2727 {
2728 #ifndef DISABLE_PERFCOUNTERS
2729         mono_perfcounters->gc_num_handles--;
2730 #endif
2731         mono_profiler_gc_handle (MONO_PROFILER_GC_HANDLE_DESTROYED, handle_type, handle, NULL);
2732 }
2733
2734 void
2735 sgen_client_ensure_weak_gchandles_accessible (void)
2736 {
2737         /*
2738          * During the second bridge processing step the world is
2739          * running again.  That step processes all weak links once
2740          * more to null those that refer to dead objects.  Before that
2741          * is completed, those links must not be followed, so we
2742          * conservatively wait for bridge processing when any weak
2743          * link is dereferenced.
2744          */
2745         /* FIXME: A GC can occur after this check fails, in which case we
2746          * should wait for bridge processing but would fail to do so.
2747          */
2748         if (G_UNLIKELY (bridge_processing_in_progress))
2749                 mono_gc_wait_for_bridge_processing ();
2750 }
2751
2752 void*
2753 mono_gc_invoke_with_gc_lock (MonoGCLockedCallbackFunc func, void *data)
2754 {
2755         void *result;
2756         LOCK_INTERRUPTION;
2757         result = func (data);
2758         UNLOCK_INTERRUPTION;
2759         return result;
2760 }
2761
2762 void
2763 mono_gc_register_altstack (gpointer stack, gint32 stack_size, gpointer altstack, gint32 altstack_size)
2764 {
2765         // FIXME:
2766 }
2767
2768 guint8*
2769 mono_gc_get_card_table (int *shift_bits, gpointer *mask)
2770 {
2771         return sgen_get_card_table_configuration (shift_bits, mask);
2772 }
2773
2774 gboolean
2775 mono_gc_card_table_nursery_check (void)
2776 {
2777         return !sgen_get_major_collector ()->is_concurrent;
2778 }
2779
2780 /* Negative value to remove */
2781 void
2782 mono_gc_add_memory_pressure (gint64 value)
2783 {
2784         /* FIXME: Implement at some point? */
2785 }
2786
2787 /*
2788  * Logging
2789  */
2790
2791 void
2792 sgen_client_degraded_allocation (size_t size)
2793 {
2794         static int last_major_gc_warned = -1;
2795         static int num_degraded = 0;
2796
2797         if (last_major_gc_warned < (int)gc_stats.major_gc_count) {
2798                 ++num_degraded;
2799                 if (num_degraded == 1 || num_degraded == 3)
2800                         mono_trace (G_LOG_LEVEL_INFO, MONO_TRACE_GC, "Warning: Degraded allocation.  Consider increasing nursery-size if the warning persists.");
2801                 else if (num_degraded == 10)
2802                         mono_trace (G_LOG_LEVEL_INFO, MONO_TRACE_GC, "Warning: Repeated degraded allocation.  Consider increasing nursery-size.");
2803                 last_major_gc_warned = gc_stats.major_gc_count;
2804         }
2805 }
2806
2807 /*
2808  * Debugging
2809  */
2810
2811 const char*
2812 sgen_client_description_for_internal_mem_type (int type)
2813 {
2814         switch (type) {
2815         case INTERNAL_MEM_EPHEMERON_LINK: return "ephemeron-link";
2816         case INTERNAL_MEM_MOVED_OBJECT: return "moved-object";
2817         default:
2818                 return NULL;
2819         }
2820 }
2821
2822 void
2823 sgen_client_pre_collection_checks (void)
2824 {
2825         if (sgen_mono_xdomain_checks) {
2826                 sgen_clear_nursery_fragments ();
2827                 sgen_check_for_xdomain_refs ();
2828         }
2829 }
2830
2831 gboolean
2832 sgen_client_vtable_is_inited (MonoVTable *vt)
2833 {
2834         return vt->klass->inited;
2835 }
2836
2837 const char*
2838 sgen_client_vtable_get_namespace (MonoVTable *vt)
2839 {
2840         return vt->klass->name_space;
2841 }
2842
2843 const char*
2844 sgen_client_vtable_get_name (MonoVTable *vt)
2845 {
2846         return vt->klass->name;
2847 }
2848
2849 /*
2850  * Initialization
2851  */
2852
2853 void
2854 sgen_client_init (void)
2855 {
2856         int dummy;
2857         MonoThreadInfoCallbacks cb;
2858
2859         cb.thread_register = sgen_thread_register;
2860         cb.thread_detach = sgen_thread_detach;
2861         cb.thread_unregister = sgen_thread_unregister;
2862         cb.thread_attach = sgen_thread_attach;
2863         cb.mono_thread_in_critical_region = thread_in_critical_region;
2864         cb.ip_in_critical_region = ip_in_critical_region;
2865
2866         mono_threads_init (&cb, sizeof (SgenThreadInfo));
2867
2868         ///* Keep this the default for now */
2869         /* Precise marking is broken on all supported targets. Disable until fixed. */
2870         conservative_stack_mark = TRUE;
2871
2872         sgen_register_fixed_internal_mem_type (INTERNAL_MEM_EPHEMERON_LINK, sizeof (EphemeronLinkNode));
2873
2874         mono_sgen_init_stw ();
2875
2876         mono_tls_init_gc_keys ();
2877
2878         mono_gc_register_thread (&dummy);
2879 }
2880
2881 gboolean
2882 sgen_client_handle_gc_param (const char *opt)
2883 {
2884         if (g_str_has_prefix (opt, "stack-mark=")) {
2885                 opt = strchr (opt, '=') + 1;
2886                 if (!strcmp (opt, "precise")) {
2887                         conservative_stack_mark = FALSE;
2888                 } else if (!strcmp (opt, "conservative")) {
2889                         conservative_stack_mark = TRUE;
2890                 } else {
2891                         sgen_env_var_error (MONO_GC_PARAMS_NAME, conservative_stack_mark ? "Using `conservative`." : "Using `precise`.",
2892                                         "Invalid value `%s` for `stack-mark` option, possible values are: `precise`, `conservative`.", opt);
2893                 }
2894         } else if (g_str_has_prefix (opt, "bridge-implementation=")) {
2895                 opt = strchr (opt, '=') + 1;
2896                 sgen_set_bridge_implementation (opt);
2897         } else if (g_str_has_prefix (opt, "toggleref-test")) {
2898                 /* FIXME: This should probably in MONO_GC_DEBUG */
2899                 sgen_register_test_toggleref_callback ();
2900         } else if (!sgen_bridge_handle_gc_param (opt)) {
2901                 return FALSE;
2902         }
2903         return TRUE;
2904 }
2905
2906 void
2907 sgen_client_print_gc_params_usage (void)
2908 {
2909         fprintf (stderr, "  stack-mark=MARK-METHOD (where MARK-METHOD is 'precise' or 'conservative')\n");
2910 }
2911
2912 gboolean
2913 sgen_client_handle_gc_debug (const char *opt)
2914 {
2915         if (!strcmp (opt, "xdomain-checks")) {
2916                 sgen_mono_xdomain_checks = TRUE;
2917         } else if (!strcmp (opt, "do-not-finalize")) {
2918                 mono_do_not_finalize = TRUE;
2919         } else if (g_str_has_prefix (opt, "do-not-finalize=")) {
2920                 opt = strchr (opt, '=') + 1;
2921                 mono_do_not_finalize = TRUE;
2922                 mono_do_not_finalize_class_names = g_strsplit (opt, ",", 0);
2923         } else if (!strcmp (opt, "log-finalizers")) {
2924                 log_finalizers = TRUE;
2925         } else if (!strcmp (opt, "no-managed-allocator")) {
2926                 sgen_set_use_managed_allocator (FALSE);
2927         } else if (!sgen_bridge_handle_gc_debug (opt)) {
2928                 return FALSE;
2929         }
2930         return TRUE;
2931 }
2932
2933 void
2934 sgen_client_print_gc_debug_usage (void)
2935 {
2936         fprintf (stderr, "  xdomain-checks\n");
2937         fprintf (stderr, "  do-not-finalize\n");
2938         fprintf (stderr, "  log-finalizers\n");
2939         fprintf (stderr, "  no-managed-allocator\n");
2940         sgen_bridge_print_gc_debug_usage ();
2941 }
2942
2943
2944 gpointer
2945 sgen_client_get_provenance (void)
2946 {
2947 #ifdef SGEN_OBJECT_PROVENANCE
2948         MonoGCCallbacks *cb = mono_gc_get_gc_callbacks ();
2949         gpointer (*get_provenance_func) (void);
2950         if (!cb)
2951                 return NULL;
2952         get_provenance_func = cb->get_provenance_func;
2953         if (get_provenance_func)
2954                 return get_provenance_func ();
2955         return NULL;
2956 #else
2957         return NULL;
2958 #endif
2959 }
2960
2961 void
2962 sgen_client_describe_invalid_pointer (GCObject *ptr)
2963 {
2964         sgen_bridge_describe_pointer (ptr);
2965 }
2966
2967 static gboolean gc_inited;
2968
2969 void
2970 mono_gc_base_init (void)
2971 {
2972         if (gc_inited)
2973                 return;
2974
2975         mono_counters_init ();
2976
2977 #ifndef HOST_WIN32
2978         mono_w32handle_init ();
2979 #endif
2980
2981 #ifdef HEAVY_STATISTICS
2982         mono_counters_register ("los marked cards", MONO_COUNTER_GC | MONO_COUNTER_ULONG, &los_marked_cards);
2983         mono_counters_register ("los array cards scanned ", MONO_COUNTER_GC | MONO_COUNTER_ULONG, &los_array_cards);
2984         mono_counters_register ("los array remsets", MONO_COUNTER_GC | MONO_COUNTER_ULONG, &los_array_remsets);
2985
2986         mono_counters_register ("WBarrier set arrayref", MONO_COUNTER_GC | MONO_COUNTER_ULONG, &stat_wbarrier_set_arrayref);
2987         mono_counters_register ("WBarrier value copy", MONO_COUNTER_GC | MONO_COUNTER_ULONG, &stat_wbarrier_value_copy);
2988         mono_counters_register ("WBarrier object copy", MONO_COUNTER_GC | MONO_COUNTER_ULONG, &stat_wbarrier_object_copy);
2989 #endif
2990
2991         sgen_gc_init ();
2992
2993         gc_inited = TRUE;
2994 }
2995
2996 void
2997 mono_gc_base_cleanup (void)
2998 {
2999         sgen_thread_pool_shutdown ();
3000
3001         // We should have consumed any outstanding moves.
3002         g_assert (sgen_pointer_queue_is_empty (&moved_objects_queue));
3003 }
3004
3005 gboolean
3006 mono_gc_is_null (void)
3007 {
3008         return FALSE;
3009 }
3010
3011 #endif