Merge pull request #3289 from BrzVlad/fix-critical-finalizer
[mono.git] / mono / metadata / sgen-mono.c
1 /*
2  * sgen-mono.c: SGen features specific to Mono.
3  *
4  * Copyright (C) 2014 Xamarin Inc
5  *
6  * Licensed under the MIT license. See LICENSE file in the project root for full license information.
7  */
8
9 #include "config.h"
10 #ifdef HAVE_SGEN_GC
11
12 #include "sgen/sgen-gc.h"
13 #include "sgen/sgen-protocol.h"
14 #include "metadata/monitor.h"
15 #include "sgen/sgen-layout-stats.h"
16 #include "sgen/sgen-client.h"
17 #include "sgen/sgen-cardtable.h"
18 #include "sgen/sgen-pinning.h"
19 #include "metadata/marshal.h"
20 #include "metadata/method-builder.h"
21 #include "metadata/abi-details.h"
22 #include "metadata/mono-gc.h"
23 #include "metadata/runtime.h"
24 #include "metadata/sgen-bridge-internals.h"
25 #include "metadata/gc-internals.h"
26 #include "metadata/handle.h"
27 #include "utils/mono-memory-model.h"
28 #include "utils/mono-logger-internals.h"
29 #include "utils/mono-threads-coop.h"
30 #include "sgen/sgen-thread-pool.h"
31
32 #ifdef HEAVY_STATISTICS
33 static guint64 stat_wbarrier_set_arrayref = 0;
34 static guint64 stat_wbarrier_value_copy = 0;
35 static guint64 stat_wbarrier_object_copy = 0;
36
37 static guint64 los_marked_cards;
38 static guint64 los_array_cards;
39 static guint64 los_array_remsets;
40 #endif
41
42 /* If set, mark stacks conservatively, even if precise marking is possible */
43 static gboolean conservative_stack_mark = FALSE;
44 /* If set, check that there are no references to the domain left at domain unload */
45 gboolean sgen_mono_xdomain_checks = FALSE;
46
47 /* Functions supplied by the runtime to be called by the GC */
48 static MonoGCCallbacks gc_callbacks;
49
50 #ifdef HAVE_KW_THREAD
51 __thread SgenThreadInfo *sgen_thread_info;
52 #else
53 MonoNativeTlsKey thread_info_key;
54 #endif
55
56 #define ALIGN_TO(val,align) ((((guint64)val) + ((align) - 1)) & ~((align) - 1))
57
58 #define OPDEF(a,b,c,d,e,f,g,h,i,j) \
59         a = i,
60
61 enum {
62 #include "mono/cil/opcode.def"
63         CEE_LAST
64 };
65
66 #undef OPDEF
67
68 /*
69  * Write barriers
70  */
71
72 static gboolean
73 ptr_on_stack (void *ptr)
74 {
75         gpointer stack_start = &stack_start;
76         SgenThreadInfo *info = mono_thread_info_current ();
77
78         if (ptr >= stack_start && ptr < (gpointer)info->client_info.stack_end)
79                 return TRUE;
80         return FALSE;
81 }
82
83 #ifdef SGEN_HEAVY_BINARY_PROTOCOL
84 #undef HANDLE_PTR
85 #define HANDLE_PTR(ptr,obj) do {                                        \
86                 gpointer o = *(gpointer*)(ptr);                         \
87                 if ((o)) {                                              \
88                         gpointer d = ((char*)dest) + ((char*)(ptr) - (char*)(obj)); \
89                         binary_protocol_wbarrier (d, o, (gpointer) SGEN_LOAD_VTABLE (o)); \
90                 }                                                       \
91         } while (0)
92
93 static void
94 scan_object_for_binary_protocol_copy_wbarrier (gpointer dest, char *start, mword desc)
95 {
96 #define SCAN_OBJECT_NOVTABLE
97 #include "sgen/sgen-scan-object.h"
98 }
99 #endif
100
101 void
102 mono_gc_wbarrier_value_copy (gpointer dest, gpointer src, int count, MonoClass *klass)
103 {
104         HEAVY_STAT (++stat_wbarrier_value_copy);
105         g_assert (klass->valuetype);
106
107         SGEN_LOG (8, "Adding value remset at %p, count %d, descr %p for class %s (%p)", dest, count, (gpointer)klass->gc_descr, klass->name, klass);
108
109         if (sgen_ptr_in_nursery (dest) || ptr_on_stack (dest) || !sgen_gc_descr_has_references ((mword)klass->gc_descr)) {
110                 size_t element_size = mono_class_value_size (klass, NULL);
111                 size_t size = count * element_size;
112                 mono_gc_memmove_atomic (dest, src, size);               
113                 return;
114         }
115
116 #ifdef SGEN_HEAVY_BINARY_PROTOCOL
117         if (binary_protocol_is_heavy_enabled ()) {
118                 size_t element_size = mono_class_value_size (klass, NULL);
119                 int i;
120                 for (i = 0; i < count; ++i) {
121                         scan_object_for_binary_protocol_copy_wbarrier ((char*)dest + i * element_size,
122                                         (char*)src + i * element_size - sizeof (MonoObject),
123                                         (mword) klass->gc_descr);
124                 }
125         }
126 #endif
127
128         sgen_get_remset ()->wbarrier_value_copy (dest, src, count, mono_class_value_size (klass, NULL));
129 }
130
131 /**
132  * mono_gc_wbarrier_object_copy:
133  *
134  * Write barrier to call when obj is the result of a clone or copy of an object.
135  */
136 void
137 mono_gc_wbarrier_object_copy (MonoObject* obj, MonoObject *src)
138 {
139         int size;
140
141         HEAVY_STAT (++stat_wbarrier_object_copy);
142
143         if (sgen_ptr_in_nursery (obj) || ptr_on_stack (obj) || !SGEN_OBJECT_HAS_REFERENCES (src)) {
144                 size = mono_object_class (obj)->instance_size;
145                 mono_gc_memmove_aligned ((char*)obj + sizeof (MonoObject), (char*)src + sizeof (MonoObject),
146                                 size - sizeof (MonoObject));
147                 return; 
148         }
149
150 #ifdef SGEN_HEAVY_BINARY_PROTOCOL
151         if (binary_protocol_is_heavy_enabled ())
152                 scan_object_for_binary_protocol_copy_wbarrier (obj, (char*)src, (mword) src->vtable->gc_descr);
153 #endif
154
155         sgen_get_remset ()->wbarrier_object_copy (obj, src);
156 }
157
158 void
159 mono_gc_wbarrier_set_arrayref (MonoArray *arr, gpointer slot_ptr, MonoObject* value)
160 {
161         HEAVY_STAT (++stat_wbarrier_set_arrayref);
162         if (sgen_ptr_in_nursery (slot_ptr)) {
163                 *(void**)slot_ptr = value;
164                 return;
165         }
166         SGEN_LOG (8, "Adding remset at %p", slot_ptr);
167         if (value)
168                 binary_protocol_wbarrier (slot_ptr, value, value->vtable);
169
170         sgen_get_remset ()->wbarrier_set_field ((GCObject*)arr, slot_ptr, value);
171 }
172
173 void
174 mono_gc_wbarrier_set_field (MonoObject *obj, gpointer field_ptr, MonoObject* value)
175 {
176         mono_gc_wbarrier_set_arrayref ((MonoArray*)obj, field_ptr, value);
177 }
178
179 void
180 mono_gc_wbarrier_value_copy_bitmap (gpointer _dest, gpointer _src, int size, unsigned bitmap)
181 {
182         sgen_wbarrier_value_copy_bitmap (_dest, _src, size, bitmap);
183 }
184
185 static MonoMethod *write_barrier_conc_method;
186 static MonoMethod *write_barrier_noconc_method;
187
188 gboolean
189 sgen_is_critical_method (MonoMethod *method)
190 {
191         return (method == write_barrier_conc_method || method == write_barrier_noconc_method || sgen_is_managed_allocator (method));
192 }
193
194 gboolean
195 sgen_has_critical_method (void)
196 {
197         return write_barrier_conc_method || write_barrier_noconc_method || sgen_has_managed_allocator ();
198 }
199
200 #ifndef DISABLE_JIT
201
202 static void
203 emit_nursery_check (MonoMethodBuilder *mb, int *nursery_check_return_labels, gboolean is_concurrent)
204 {
205         int shifted_nursery_start = mono_mb_add_local (mb, &mono_defaults.int_class->byval_arg);
206
207         memset (nursery_check_return_labels, 0, sizeof (int) * 2);
208         // if (ptr_in_nursery (ptr)) return;
209         /*
210          * Masking out the bits might be faster, but we would have to use 64 bit
211          * immediates, which might be slower.
212          */
213         mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
214         mono_mb_emit_byte (mb, CEE_MONO_LDPTR_NURSERY_START);
215         mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
216         mono_mb_emit_byte (mb, CEE_MONO_LDPTR_NURSERY_BITS);
217         mono_mb_emit_byte (mb, CEE_SHR_UN);
218         mono_mb_emit_stloc (mb, shifted_nursery_start);
219
220         mono_mb_emit_ldarg (mb, 0);
221         mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
222         mono_mb_emit_byte (mb, CEE_MONO_LDPTR_NURSERY_BITS);
223         mono_mb_emit_byte (mb, CEE_SHR_UN);
224         mono_mb_emit_ldloc (mb, shifted_nursery_start);
225         nursery_check_return_labels [0] = mono_mb_emit_branch (mb, CEE_BEQ);
226
227         if (!is_concurrent) {
228                 // if (!ptr_in_nursery (*ptr)) return;
229                 mono_mb_emit_ldarg (mb, 0);
230                 mono_mb_emit_byte (mb, CEE_LDIND_I);
231                 mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
232                 mono_mb_emit_byte (mb, CEE_MONO_LDPTR_NURSERY_BITS);
233                 mono_mb_emit_byte (mb, CEE_SHR_UN);
234                 mono_mb_emit_ldloc (mb, shifted_nursery_start);
235                 nursery_check_return_labels [1] = mono_mb_emit_branch (mb, CEE_BNE_UN);
236         }
237 }
238 #endif
239
240 MonoMethod*
241 mono_gc_get_specific_write_barrier (gboolean is_concurrent)
242 {
243         MonoMethod *res;
244         MonoMethodBuilder *mb;
245         MonoMethodSignature *sig;
246         MonoMethod **write_barrier_method_addr;
247         WrapperInfo *info;
248 #ifdef MANAGED_WBARRIER
249         int i, nursery_check_labels [2];
250 #endif
251
252         // FIXME: Maybe create a separate version for ctors (the branch would be
253         // correctly predicted more times)
254         if (is_concurrent)
255                 write_barrier_method_addr = &write_barrier_conc_method;
256         else
257                 write_barrier_method_addr = &write_barrier_noconc_method;
258
259         if (*write_barrier_method_addr)
260                 return *write_barrier_method_addr;
261
262         /* Create the IL version of mono_gc_barrier_generic_store () */
263         sig = mono_metadata_signature_alloc (mono_defaults.corlib, 1);
264         sig->ret = &mono_defaults.void_class->byval_arg;
265         sig->params [0] = &mono_defaults.int_class->byval_arg;
266
267         if (is_concurrent)
268                 mb = mono_mb_new (mono_defaults.object_class, "wbarrier_conc", MONO_WRAPPER_WRITE_BARRIER);
269         else
270                 mb = mono_mb_new (mono_defaults.object_class, "wbarrier_noconc", MONO_WRAPPER_WRITE_BARRIER);
271
272 #ifndef DISABLE_JIT
273 #ifdef MANAGED_WBARRIER
274         emit_nursery_check (mb, nursery_check_labels, is_concurrent);
275         /*
276         addr = sgen_cardtable + ((address >> CARD_BITS) & CARD_MASK)
277         *addr = 1;
278
279         sgen_cardtable:
280                 LDC_PTR sgen_cardtable
281
282         address >> CARD_BITS
283                 LDARG_0
284                 LDC_I4 CARD_BITS
285                 SHR_UN
286         if (SGEN_HAVE_OVERLAPPING_CARDS) {
287                 LDC_PTR card_table_mask
288                 AND
289         }
290         AND
291         ldc_i4_1
292         stind_i1
293         */
294         mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
295         mono_mb_emit_byte (mb, CEE_MONO_LDPTR_CARD_TABLE);
296         mono_mb_emit_ldarg (mb, 0);
297         mono_mb_emit_icon (mb, CARD_BITS);
298         mono_mb_emit_byte (mb, CEE_SHR_UN);
299         mono_mb_emit_byte (mb, CEE_CONV_I);
300 #ifdef SGEN_HAVE_OVERLAPPING_CARDS
301 #if SIZEOF_VOID_P == 8
302         mono_mb_emit_icon8 (mb, CARD_MASK);
303 #else
304         mono_mb_emit_icon (mb, CARD_MASK);
305 #endif
306         mono_mb_emit_byte (mb, CEE_CONV_I);
307         mono_mb_emit_byte (mb, CEE_AND);
308 #endif
309         mono_mb_emit_byte (mb, CEE_ADD);
310         mono_mb_emit_icon (mb, 1);
311         mono_mb_emit_byte (mb, CEE_STIND_I1);
312
313         // return;
314         for (i = 0; i < 2; ++i) {
315                 if (nursery_check_labels [i])
316                         mono_mb_patch_branch (mb, nursery_check_labels [i]);
317         }
318         mono_mb_emit_byte (mb, CEE_RET);
319 #else
320         mono_mb_emit_ldarg (mb, 0);
321         mono_mb_emit_icall (mb, mono_gc_wbarrier_generic_nostore);
322         mono_mb_emit_byte (mb, CEE_RET);
323 #endif
324 #endif
325         res = mono_mb_create_method (mb, sig, 16);
326         info = mono_wrapper_info_create (mb, WRAPPER_SUBTYPE_NONE);
327         mono_marshal_set_wrapper_info (res, info);
328         mono_mb_free (mb);
329
330         LOCK_GC;
331         if (*write_barrier_method_addr) {
332                 /* Already created */
333                 mono_free_method (res);
334         } else {
335                 /* double-checked locking */
336                 mono_memory_barrier ();
337                 *write_barrier_method_addr = res;
338         }
339         UNLOCK_GC;
340
341         return *write_barrier_method_addr;
342 }
343
344 MonoMethod*
345 mono_gc_get_write_barrier (void)
346 {
347         return mono_gc_get_specific_write_barrier (major_collector.is_concurrent);
348 }
349
350 /*
351  * Dummy filler objects
352  */
353
354 /* Vtable of the objects used to fill out nursery fragments before a collection */
355 static GCVTable array_fill_vtable;
356
357 static GCVTable
358 get_array_fill_vtable (void)
359 {
360         if (!array_fill_vtable) {
361                 static MonoClass klass;
362                 static char _vtable[sizeof(MonoVTable)+8];
363                 MonoVTable* vtable = (MonoVTable*) ALIGN_TO((mword)_vtable, 8);
364                 gsize bmap;
365
366                 MonoDomain *domain = mono_get_root_domain ();
367                 g_assert (domain);
368
369                 klass.element_class = mono_defaults.byte_class;
370                 klass.rank = 1;
371                 klass.instance_size = MONO_SIZEOF_MONO_ARRAY;
372                 klass.sizes.element_size = 1;
373                 klass.name = "array_filler_type";
374
375                 vtable->klass = &klass;
376                 bmap = 0;
377                 vtable->gc_descr = mono_gc_make_descr_for_array (TRUE, &bmap, 0, 1);
378                 vtable->rank = 1;
379
380                 array_fill_vtable = vtable;
381         }
382         return array_fill_vtable;
383 }
384
385 gboolean
386 sgen_client_array_fill_range (char *start, size_t size)
387 {
388         MonoArray *o;
389
390         if (size < MONO_SIZEOF_MONO_ARRAY) {
391                 memset (start, 0, size);
392                 return FALSE;
393         }
394
395         o = (MonoArray*)start;
396         o->obj.vtable = (MonoVTable*)get_array_fill_vtable ();
397         /* Mark this as not a real object */
398         o->obj.synchronisation = (MonoThreadsSync *)GINT_TO_POINTER (-1);
399         o->bounds = NULL;
400         o->max_length = (mono_array_size_t)(size - MONO_SIZEOF_MONO_ARRAY);
401
402         return TRUE;
403 }
404
405 void
406 sgen_client_zero_array_fill_header (void *p, size_t size)
407 {
408         if (size >= MONO_SIZEOF_MONO_ARRAY) {
409                 memset (p, 0, MONO_SIZEOF_MONO_ARRAY);
410         } else {
411                 static guint8 zeros [MONO_SIZEOF_MONO_ARRAY];
412
413                 SGEN_ASSERT (0, !memcmp (p, zeros, size), "TLAB segment must be zeroed out.");
414         }
415 }
416
417 /*
418  * Finalization
419  */
420
421 static MonoGCFinalizerCallbacks fin_callbacks;
422
423 guint
424 mono_gc_get_vtable_bits (MonoClass *klass)
425 {
426         guint res = 0;
427         /* FIXME move this to the bridge code */
428         if (sgen_need_bridge_processing ()) {
429                 switch (sgen_bridge_class_kind (klass)) {
430                 case GC_BRIDGE_TRANSPARENT_BRIDGE_CLASS:
431                 case GC_BRIDGE_OPAQUE_BRIDGE_CLASS:
432                         res = SGEN_GC_BIT_BRIDGE_OBJECT;
433                         break;
434                 case GC_BRIDGE_OPAQUE_CLASS:
435                         res = SGEN_GC_BIT_BRIDGE_OPAQUE_OBJECT;
436                         break;
437                 case GC_BRIDGE_TRANSPARENT_CLASS:
438                         break;
439                 }
440         }
441         if (fin_callbacks.is_class_finalization_aware) {
442                 if (fin_callbacks.is_class_finalization_aware (klass))
443                         res |= SGEN_GC_BIT_FINALIZER_AWARE;
444         }
445         return res;
446 }
447
448 static gboolean
449 is_finalization_aware (MonoObject *obj)
450 {
451         MonoVTable *vt = SGEN_LOAD_VTABLE (obj);
452         return (vt->gc_bits & SGEN_GC_BIT_FINALIZER_AWARE) == SGEN_GC_BIT_FINALIZER_AWARE;
453 }
454
455 void
456 sgen_client_object_queued_for_finalization (GCObject *obj)
457 {
458         if (fin_callbacks.object_queued_for_finalization && is_finalization_aware (obj))
459                 fin_callbacks.object_queued_for_finalization (obj);
460
461 #ifdef ENABLE_DTRACE
462         if (G_UNLIKELY (MONO_GC_FINALIZE_ENQUEUE_ENABLED ())) {
463                 int gen = sgen_ptr_in_nursery (obj) ? GENERATION_NURSERY : GENERATION_OLD;
464                 GCVTable vt = SGEN_LOAD_VTABLE (obj);
465                 MONO_GC_FINALIZE_ENQUEUE ((mword)obj, sgen_safe_object_get_size (obj),
466                                 sgen_client_vtable_get_namespace (vt), sgen_client_vtable_get_name (vt), gen,
467                                 sgen_client_object_has_critical_finalizer (obj));
468         }
469 #endif
470 }
471
472 void
473 mono_gc_register_finalizer_callbacks (MonoGCFinalizerCallbacks *callbacks)
474 {
475         if (callbacks->version != MONO_GC_FINALIZER_EXTENSION_VERSION)
476                 g_error ("Invalid finalizer callback version. Expected %d but got %d\n", MONO_GC_FINALIZER_EXTENSION_VERSION, callbacks->version);
477
478         fin_callbacks = *callbacks;
479 }
480
481 void
482 sgen_client_run_finalize (MonoObject *obj)
483 {
484         mono_gc_run_finalize (obj, NULL);
485 }
486
487 int
488 mono_gc_invoke_finalizers (void)
489 {
490         return sgen_gc_invoke_finalizers ();
491 }
492
493 gboolean
494 mono_gc_pending_finalizers (void)
495 {
496         return sgen_have_pending_finalizers ();
497 }
498
499 void
500 sgen_client_finalize_notify (void)
501 {
502         mono_gc_finalize_notify ();
503 }
504
505 void
506 mono_gc_register_for_finalization (MonoObject *obj, void *user_data)
507 {
508         sgen_object_register_for_finalization (obj, user_data);
509 }
510
511 static gboolean
512 object_in_domain_predicate (MonoObject *obj, void *user_data)
513 {
514         MonoDomain *domain = (MonoDomain *)user_data;
515         if (mono_object_domain (obj) == domain) {
516                 SGEN_LOG (5, "Unregistering finalizer for object: %p (%s)", obj, sgen_client_vtable_get_name (SGEN_LOAD_VTABLE (obj)));
517                 return TRUE;
518         }
519         return FALSE;
520 }
521
522 /**
523  * mono_gc_finalizers_for_domain:
524  * @domain: the unloading appdomain
525  * @out_array: output array
526  * @out_size: size of output array
527  *
528  * Enqueue for finalization all objects that belong to the unloading appdomain @domain
529  * @suspend is used for early termination of the enqueuing process.
530  */
531 void
532 mono_gc_finalize_domain (MonoDomain *domain, volatile gboolean *suspend)
533 {
534         sgen_finalize_if (object_in_domain_predicate, domain, suspend);
535 }
536
537 /*
538  * Ephemerons
539  */
540
541 typedef struct _EphemeronLinkNode EphemeronLinkNode;
542
543 struct _EphemeronLinkNode {
544         EphemeronLinkNode *next;
545         MonoArray *array;
546 };
547
548 typedef struct {
549        GCObject *key;
550        GCObject *value;
551 } Ephemeron;
552
553 static EphemeronLinkNode *ephemeron_list;
554
555 /* LOCKING: requires that the GC lock is held */
556 static void
557 null_ephemerons_for_domain (MonoDomain *domain)
558 {
559         EphemeronLinkNode *current = ephemeron_list, *prev = NULL;
560
561         while (current) {
562                 MonoObject *object = (MonoObject*)current->array;
563
564                 if (object)
565                         SGEN_ASSERT (0, object->vtable, "Can't have objects without vtables.");
566
567                 if (object && object->vtable->domain == domain) {
568                         EphemeronLinkNode *tmp = current;
569
570                         if (prev)
571                                 prev->next = current->next;
572                         else
573                                 ephemeron_list = current->next;
574
575                         current = current->next;
576                         sgen_free_internal (tmp, INTERNAL_MEM_EPHEMERON_LINK);
577                 } else {
578                         prev = current;
579                         current = current->next;
580                 }
581         }
582 }
583
584 /* LOCKING: requires that the GC lock is held */
585 void
586 sgen_client_clear_unreachable_ephemerons (ScanCopyContext ctx)
587 {
588         CopyOrMarkObjectFunc copy_func = ctx.ops->copy_or_mark_object;
589         SgenGrayQueue *queue = ctx.queue;
590         EphemeronLinkNode *current = ephemeron_list, *prev = NULL;
591         Ephemeron *cur, *array_end;
592         GCObject *tombstone;
593
594         while (current) {
595                 MonoArray *array = current->array;
596
597                 if (!sgen_is_object_alive_for_current_gen ((GCObject*)array)) {
598                         EphemeronLinkNode *tmp = current;
599
600                         SGEN_LOG (5, "Dead Ephemeron array at %p", array);
601
602                         if (prev)
603                                 prev->next = current->next;
604                         else
605                                 ephemeron_list = current->next;
606
607                         current = current->next;
608                         sgen_free_internal (tmp, INTERNAL_MEM_EPHEMERON_LINK);
609
610                         continue;
611                 }
612
613                 copy_func ((GCObject**)&array, queue);
614                 current->array = array;
615
616                 SGEN_LOG (5, "Clearing unreachable entries for ephemeron array at %p", array);
617
618                 cur = mono_array_addr (array, Ephemeron, 0);
619                 array_end = cur + mono_array_length_fast (array);
620                 tombstone = SGEN_LOAD_VTABLE ((GCObject*)array)->domain->ephemeron_tombstone;
621
622                 for (; cur < array_end; ++cur) {
623                         GCObject *key = cur->key;
624
625                         if (!key || key == tombstone)
626                                 continue;
627
628                         SGEN_LOG (5, "[%zd] key %p (%s) value %p (%s)", cur - mono_array_addr (array, Ephemeron, 0),
629                                 key, sgen_is_object_alive_for_current_gen (key) ? "reachable" : "unreachable",
630                                 cur->value, cur->value && sgen_is_object_alive_for_current_gen (cur->value) ? "reachable" : "unreachable");
631
632                         if (!sgen_is_object_alive_for_current_gen (key)) {
633                                 cur->key = tombstone;
634                                 cur->value = NULL;
635                                 continue;
636                         }
637                 }
638                 prev = current;
639                 current = current->next;
640         }
641 }
642
643 /*
644 LOCKING: requires that the GC lock is held
645
646 Limitations: We scan all ephemerons on every collection since the current design doesn't allow for a simple nursery/mature split.
647 */
648 gboolean
649 sgen_client_mark_ephemerons (ScanCopyContext ctx)
650 {
651         CopyOrMarkObjectFunc copy_func = ctx.ops->copy_or_mark_object;
652         SgenGrayQueue *queue = ctx.queue;
653         gboolean nothing_marked = TRUE;
654         EphemeronLinkNode *current = ephemeron_list;
655         Ephemeron *cur, *array_end;
656         GCObject *tombstone;
657
658         for (current = ephemeron_list; current; current = current->next) {
659                 MonoArray *array = current->array;
660                 SGEN_LOG (5, "Ephemeron array at %p", array);
661
662                 /*It has to be alive*/
663                 if (!sgen_is_object_alive_for_current_gen ((GCObject*)array)) {
664                         SGEN_LOG (5, "\tnot reachable");
665                         continue;
666                 }
667
668                 copy_func ((GCObject**)&array, queue);
669
670                 cur = mono_array_addr (array, Ephemeron, 0);
671                 array_end = cur + mono_array_length_fast (array);
672                 tombstone = SGEN_LOAD_VTABLE ((GCObject*)array)->domain->ephemeron_tombstone;
673
674                 for (; cur < array_end; ++cur) {
675                         GCObject *key = cur->key;
676
677                         if (!key || key == tombstone)
678                                 continue;
679
680                         SGEN_LOG (5, "[%zd] key %p (%s) value %p (%s)", cur - mono_array_addr (array, Ephemeron, 0),
681                                 key, sgen_is_object_alive_for_current_gen (key) ? "reachable" : "unreachable",
682                                 cur->value, cur->value && sgen_is_object_alive_for_current_gen (cur->value) ? "reachable" : "unreachable");
683
684                         if (sgen_is_object_alive_for_current_gen (key)) {
685                                 GCObject *value = cur->value;
686
687                                 copy_func (&cur->key, queue);
688                                 if (value) {
689                                         if (!sgen_is_object_alive_for_current_gen (value))
690                                                 nothing_marked = FALSE;
691                                         copy_func (&cur->value, queue);
692                                 }
693                         }
694                 }
695         }
696
697         SGEN_LOG (5, "Ephemeron run finished. Is it done %d", nothing_marked);
698         return nothing_marked;
699 }
700
701 gboolean
702 mono_gc_ephemeron_array_add (MonoObject *obj)
703 {
704         EphemeronLinkNode *node;
705
706         LOCK_GC;
707
708         node = (EphemeronLinkNode *)sgen_alloc_internal (INTERNAL_MEM_EPHEMERON_LINK);
709         if (!node) {
710                 UNLOCK_GC;
711                 return FALSE;
712         }
713         node->array = (MonoArray*)obj;
714         node->next = ephemeron_list;
715         ephemeron_list = node;
716
717         SGEN_LOG (5, "Registered ephemeron array %p", obj);
718
719         UNLOCK_GC;
720         return TRUE;
721 }
722
723 /*
724  * Appdomain handling
725  */
726
727 void
728 mono_gc_set_current_thread_appdomain (MonoDomain *domain)
729 {
730         SgenThreadInfo *info = mono_thread_info_current ();
731
732         /* Could be called from sgen_thread_unregister () with a NULL info */
733         if (domain) {
734                 g_assert (info);
735                 info->client_info.stopped_domain = domain;
736         }
737 }
738
739 static gboolean
740 need_remove_object_for_domain (GCObject *start, MonoDomain *domain)
741 {
742         if (mono_object_domain (start) == domain) {
743                 SGEN_LOG (4, "Need to cleanup object %p", start);
744                 binary_protocol_cleanup (start, (gpointer)SGEN_LOAD_VTABLE (start), sgen_safe_object_get_size ((GCObject*)start));
745                 return TRUE;
746         }
747         return FALSE;
748 }
749
750 static void
751 process_object_for_domain_clearing (GCObject *start, MonoDomain *domain)
752 {
753         MonoVTable *vt = SGEN_LOAD_VTABLE (start);
754         if (vt->klass == mono_defaults.internal_thread_class)
755                 g_assert (mono_object_domain (start) == mono_get_root_domain ());
756         /* The object could be a proxy for an object in the domain
757            we're deleting. */
758 #ifndef DISABLE_REMOTING
759         if (mono_defaults.real_proxy_class->supertypes && mono_class_has_parent_fast (vt->klass, mono_defaults.real_proxy_class)) {
760                 MonoObject *server = ((MonoRealProxy*)start)->unwrapped_server;
761
762                 /* The server could already have been zeroed out, so
763                    we need to check for that, too. */
764                 if (server && (!SGEN_LOAD_VTABLE (server) || mono_object_domain (server) == domain)) {
765                         SGEN_LOG (4, "Cleaning up remote pointer in %p to object %p", start, server);
766                         ((MonoRealProxy*)start)->unwrapped_server = NULL;
767                 }
768         }
769 #endif
770 }
771
772 static gboolean
773 clear_domain_process_object (GCObject *obj, MonoDomain *domain)
774 {
775         gboolean remove;
776
777         process_object_for_domain_clearing (obj, domain);
778         remove = need_remove_object_for_domain (obj, domain);
779
780         if (remove && obj->synchronisation) {
781                 guint32 dislink = mono_monitor_get_object_monitor_gchandle (obj);
782                 if (dislink)
783                         mono_gchandle_free (dislink);
784         }
785
786         return remove;
787 }
788
789 static void
790 clear_domain_process_minor_object_callback (GCObject *obj, size_t size, MonoDomain *domain)
791 {
792         if (clear_domain_process_object (obj, domain)) {
793                 CANARIFY_SIZE (size);
794                 memset (obj, 0, size);
795         }
796 }
797
798 static void
799 clear_domain_process_major_object_callback (GCObject *obj, size_t size, MonoDomain *domain)
800 {
801         clear_domain_process_object (obj, domain);
802 }
803
804 static void
805 clear_domain_free_major_non_pinned_object_callback (GCObject *obj, size_t size, MonoDomain *domain)
806 {
807         if (need_remove_object_for_domain (obj, domain))
808                 major_collector.free_non_pinned_object (obj, size);
809 }
810
811 static void
812 clear_domain_free_major_pinned_object_callback (GCObject *obj, size_t size, MonoDomain *domain)
813 {
814         if (need_remove_object_for_domain (obj, domain))
815                 major_collector.free_pinned_object (obj, size);
816 }
817
818 /*
819  * When appdomains are unloaded we can easily remove objects that have finalizers,
820  * but all the others could still be present in random places on the heap.
821  * We need a sweep to get rid of them even though it's going to be costly
822  * with big heaps.
823  * The reason we need to remove them is because we access the vtable and class
824  * structures to know the object size and the reference bitmap: once the domain is
825  * unloaded the point to random memory.
826  */
827 void
828 mono_gc_clear_domain (MonoDomain * domain)
829 {
830         LOSObject *bigobj, *prev;
831         int i;
832
833         LOCK_GC;
834
835         binary_protocol_domain_unload_begin (domain);
836
837         sgen_stop_world (0);
838
839         if (sgen_concurrent_collection_in_progress ())
840                 sgen_perform_collection (0, GENERATION_OLD, "clear domain", TRUE, FALSE);
841         SGEN_ASSERT (0, !sgen_concurrent_collection_in_progress (), "We just ordered a synchronous collection.  Why are we collecting concurrently?");
842
843         major_collector.finish_sweeping ();
844
845         sgen_process_fin_stage_entries ();
846
847         sgen_clear_nursery_fragments ();
848
849         if (sgen_mono_xdomain_checks && domain != mono_get_root_domain ()) {
850                 sgen_scan_for_registered_roots_in_domain (domain, ROOT_TYPE_NORMAL);
851                 sgen_scan_for_registered_roots_in_domain (domain, ROOT_TYPE_WBARRIER);
852                 sgen_check_for_xdomain_refs ();
853         }
854
855         /*Ephemerons and dislinks must be processed before LOS since they might end up pointing
856         to memory returned to the OS.*/
857         null_ephemerons_for_domain (domain);
858         sgen_null_links_for_domain (domain);
859
860         for (i = GENERATION_NURSERY; i < GENERATION_MAX; ++i)
861                 sgen_remove_finalizers_if (object_in_domain_predicate, domain, i);
862
863         sgen_scan_area_with_callback (nursery_section->data, nursery_section->end_data,
864                         (IterateObjectCallbackFunc)clear_domain_process_minor_object_callback, domain, FALSE, TRUE);
865
866         /* We need two passes over major and large objects because
867            freeing such objects might give their memory back to the OS
868            (in the case of large objects) or obliterate its vtable
869            (pinned objects with major-copying or pinned and non-pinned
870            objects with major-mark&sweep), but we might need to
871            dereference a pointer from an object to another object if
872            the first object is a proxy. */
873         major_collector.iterate_objects (ITERATE_OBJECTS_SWEEP_ALL, (IterateObjectCallbackFunc)clear_domain_process_major_object_callback, domain);
874         for (bigobj = los_object_list; bigobj; bigobj = bigobj->next)
875                 clear_domain_process_object ((GCObject*)bigobj->data, domain);
876
877         prev = NULL;
878         for (bigobj = los_object_list; bigobj;) {
879                 if (need_remove_object_for_domain ((GCObject*)bigobj->data, domain)) {
880                         LOSObject *to_free = bigobj;
881                         if (prev)
882                                 prev->next = bigobj->next;
883                         else
884                                 los_object_list = bigobj->next;
885                         bigobj = bigobj->next;
886                         SGEN_LOG (4, "Freeing large object %p", bigobj->data);
887                         sgen_los_free_object (to_free);
888                         continue;
889                 }
890                 prev = bigobj;
891                 bigobj = bigobj->next;
892         }
893         major_collector.iterate_objects (ITERATE_OBJECTS_SWEEP_NON_PINNED, (IterateObjectCallbackFunc)clear_domain_free_major_non_pinned_object_callback, domain);
894         major_collector.iterate_objects (ITERATE_OBJECTS_SWEEP_PINNED, (IterateObjectCallbackFunc)clear_domain_free_major_pinned_object_callback, domain);
895
896         if (domain == mono_get_root_domain ()) {
897                 sgen_pin_stats_report ();
898                 sgen_object_layout_dump (stdout);
899         }
900
901         sgen_restart_world (0);
902
903         binary_protocol_domain_unload_end (domain);
904         binary_protocol_flush_buffers (FALSE);
905
906         UNLOCK_GC;
907 }
908
909 /*
910  * Allocation
911  */
912
913 static gboolean alloc_events = FALSE;
914
915 void
916 mono_gc_enable_alloc_events (void)
917 {
918         alloc_events = TRUE;
919 }
920
921 void*
922 mono_gc_alloc_obj (MonoVTable *vtable, size_t size)
923 {
924         MonoObject *obj = sgen_alloc_obj (vtable, size);
925
926         if (G_UNLIKELY (alloc_events)) {
927                 if (obj)
928                         mono_profiler_allocation (obj);
929         }
930
931         return obj;
932 }
933
934 void*
935 mono_gc_alloc_pinned_obj (MonoVTable *vtable, size_t size)
936 {
937         MonoObject *obj = sgen_alloc_obj_pinned (vtable, size);
938
939         if (G_UNLIKELY (alloc_events)) {
940                 if (obj)
941                         mono_profiler_allocation (obj);
942         }
943
944         return obj;
945 }
946
947 void*
948 mono_gc_alloc_mature (MonoVTable *vtable, size_t size)
949 {
950         MonoObject *obj = sgen_alloc_obj_mature (vtable, size);
951
952         if (G_UNLIKELY (alloc_events)) {
953                 if (obj)
954                         mono_profiler_allocation (obj);
955         }
956
957         return obj;
958 }
959
960 void*
961 mono_gc_alloc_fixed (size_t size, MonoGCDescriptor descr, MonoGCRootSource source, const char *msg)
962 {
963         /* FIXME: do a single allocation */
964         void *res = calloc (1, size);
965         if (!res)
966                 return NULL;
967         if (!mono_gc_register_root ((char *)res, size, descr, source, msg)) {
968                 free (res);
969                 res = NULL;
970         }
971         return res;
972 }
973
974 void
975 mono_gc_free_fixed (void* addr)
976 {
977         mono_gc_deregister_root ((char *)addr);
978         free (addr);
979 }
980
981 /*
982  * Managed allocator
983  */
984
985 static MonoMethod* alloc_method_cache [ATYPE_NUM];
986 static MonoMethod* slowpath_alloc_method_cache [ATYPE_NUM];
987 static gboolean use_managed_allocator = TRUE;
988
989 #ifdef MANAGED_ALLOCATION
990
991 #ifdef HAVE_KW_THREAD
992
993 #define EMIT_TLS_ACCESS_VAR(_mb, _var) /* nothing to do */
994
995 #define EMIT_TLS_ACCESS_IN_CRITICAL_REGION_ADDR(mb, _var) \
996         do { \
997                 mono_mb_emit_byte ((mb), MONO_CUSTOM_PREFIX); \
998                 mono_mb_emit_byte ((mb), CEE_MONO_TLS); \
999                 mono_mb_emit_i4 ((mb), TLS_KEY_SGEN_IN_CRITICAL_REGION_ADDR); \
1000         } while (0)
1001
1002 #define EMIT_TLS_ACCESS_NEXT_ADDR(mb, _var)     do {    \
1003         mono_mb_emit_byte ((mb), MONO_CUSTOM_PREFIX);   \
1004         mono_mb_emit_byte ((mb), CEE_MONO_TLS);         \
1005         mono_mb_emit_i4 ((mb), TLS_KEY_SGEN_TLAB_NEXT_ADDR);            \
1006         } while (0)
1007
1008 #define EMIT_TLS_ACCESS_TEMP_END(mb, _var)      do {    \
1009         mono_mb_emit_byte ((mb), MONO_CUSTOM_PREFIX);   \
1010         mono_mb_emit_byte ((mb), CEE_MONO_TLS);         \
1011         mono_mb_emit_i4 ((mb), TLS_KEY_SGEN_TLAB_TEMP_END);             \
1012         } while (0)
1013
1014 #else
1015
1016 #if defined(TARGET_OSX) || defined(TARGET_WIN32) || defined(TARGET_ANDROID) || defined(TARGET_IOS)
1017
1018 // Cache the SgenThreadInfo pointer in a local 'var'.
1019 #define EMIT_TLS_ACCESS_VAR(mb, var) \
1020         do { \
1021                 var = mono_mb_add_local ((mb), &mono_defaults.int_class->byval_arg); \
1022                 mono_mb_emit_byte ((mb), MONO_CUSTOM_PREFIX); \
1023                 mono_mb_emit_byte ((mb), CEE_MONO_TLS); \
1024                 mono_mb_emit_i4 ((mb), TLS_KEY_SGEN_THREAD_INFO); \
1025                 mono_mb_emit_stloc ((mb), (var)); \
1026         } while (0)
1027
1028 #define EMIT_TLS_ACCESS_IN_CRITICAL_REGION_ADDR(mb, var) \
1029         do { \
1030                 mono_mb_emit_ldloc ((mb), (var)); \
1031                 mono_mb_emit_icon ((mb), MONO_STRUCT_OFFSET (SgenClientThreadInfo, in_critical_region)); \
1032                 mono_mb_emit_byte ((mb), CEE_ADD); \
1033         } while (0)
1034
1035 #define EMIT_TLS_ACCESS_NEXT_ADDR(mb, var)      do {    \
1036         mono_mb_emit_ldloc ((mb), (var));               \
1037         mono_mb_emit_icon ((mb), MONO_STRUCT_OFFSET (SgenThreadInfo, tlab_next_addr));  \
1038         mono_mb_emit_byte ((mb), CEE_ADD);              \
1039         mono_mb_emit_byte ((mb), CEE_LDIND_I);          \
1040         } while (0)
1041
1042 #define EMIT_TLS_ACCESS_TEMP_END(mb, var)       do {    \
1043         mono_mb_emit_ldloc ((mb), (var));               \
1044         mono_mb_emit_icon ((mb), MONO_STRUCT_OFFSET (SgenThreadInfo, tlab_temp_end));   \
1045         mono_mb_emit_byte ((mb), CEE_ADD);              \
1046         mono_mb_emit_byte ((mb), CEE_LDIND_I);          \
1047         } while (0)
1048
1049 #else
1050 #define EMIT_TLS_ACCESS_VAR(mb, _var)   do { g_error ("sgen is not supported when using --with-tls=pthread.\n"); } while (0)
1051 #define EMIT_TLS_ACCESS_NEXT_ADDR(mb, _var)     do { g_error ("sgen is not supported when using --with-tls=pthread.\n"); } while (0)
1052 #define EMIT_TLS_ACCESS_TEMP_END(mb, _var)      do { g_error ("sgen is not supported when using --with-tls=pthread.\n"); } while (0)
1053 #define EMIT_TLS_ACCESS_IN_CRITICAL_REGION_ADDR(mb, _var)       do { g_error ("sgen is not supported when using --with-tls=pthread.\n"); } while (0)
1054 #endif
1055
1056 #endif
1057
1058 /* FIXME: Do this in the JIT, where specialized allocation sequences can be created
1059  * for each class. This is currently not easy to do, as it is hard to generate basic 
1060  * blocks + branches, but it is easy with the linear IL codebase.
1061  *
1062  * For this to work we'd need to solve the TLAB race, first.  Now we
1063  * require the allocator to be in a few known methods to make sure
1064  * that they are executed atomically via the restart mechanism.
1065  */
1066 static MonoMethod*
1067 create_allocator (int atype, ManagedAllocatorVariant variant)
1068 {
1069         int p_var, size_var, thread_var G_GNUC_UNUSED;
1070         gboolean slowpath = variant == MANAGED_ALLOCATOR_SLOW_PATH;
1071         guint32 slowpath_branch, max_size_branch;
1072         MonoMethodBuilder *mb;
1073         MonoMethod *res;
1074         MonoMethodSignature *csig;
1075         static gboolean registered = FALSE;
1076         int tlab_next_addr_var, new_next_var;
1077         const char *name = NULL;
1078         WrapperInfo *info;
1079         int num_params, i;
1080
1081         if (!registered) {
1082                 mono_register_jit_icall (mono_gc_alloc_obj, "mono_gc_alloc_obj", mono_create_icall_signature ("object ptr int"), FALSE);
1083                 mono_register_jit_icall (mono_gc_alloc_vector, "mono_gc_alloc_vector", mono_create_icall_signature ("object ptr int int"), FALSE);
1084                 mono_register_jit_icall (mono_gc_alloc_string, "mono_gc_alloc_string", mono_create_icall_signature ("object ptr int int32"), FALSE);
1085                 registered = TRUE;
1086         }
1087
1088         if (atype == ATYPE_SMALL) {
1089                 name = slowpath ? "SlowAllocSmall" : "AllocSmall";
1090         } else if (atype == ATYPE_NORMAL) {
1091                 name = slowpath ? "SlowAlloc" : "Alloc";
1092         } else if (atype == ATYPE_VECTOR) {
1093                 name = slowpath ? "SlowAllocVector" : "AllocVector";
1094         } else if (atype == ATYPE_STRING) {
1095                 name = slowpath ? "SlowAllocString" : "AllocString";
1096         } else {
1097                 g_assert_not_reached ();
1098         }
1099
1100         if (atype == ATYPE_NORMAL)
1101                 num_params = 1;
1102         else
1103                 num_params = 2;
1104
1105         csig = mono_metadata_signature_alloc (mono_defaults.corlib, num_params);
1106         if (atype == ATYPE_STRING) {
1107                 csig->ret = &mono_defaults.string_class->byval_arg;
1108                 csig->params [0] = &mono_defaults.int_class->byval_arg;
1109                 csig->params [1] = &mono_defaults.int32_class->byval_arg;
1110         } else {
1111                 csig->ret = &mono_defaults.object_class->byval_arg;
1112                 for (i = 0; i < num_params; i++)
1113                         csig->params [i] = &mono_defaults.int_class->byval_arg;
1114         }
1115
1116         mb = mono_mb_new (mono_defaults.object_class, name, MONO_WRAPPER_ALLOC);
1117
1118 #ifndef DISABLE_JIT
1119         if (slowpath) {
1120                 switch (atype) {
1121                 case ATYPE_NORMAL:
1122                 case ATYPE_SMALL:
1123                         mono_mb_emit_ldarg (mb, 0);
1124                         mono_mb_emit_icall (mb, ves_icall_object_new_specific);
1125                         break;
1126                 case ATYPE_VECTOR:
1127                         mono_mb_emit_ldarg (mb, 0);
1128                         mono_mb_emit_ldarg (mb, 1);
1129                         mono_mb_emit_icall (mb, ves_icall_array_new_specific);
1130                         break;
1131                 case ATYPE_STRING:
1132                         mono_mb_emit_ldarg (mb, 1);
1133                         mono_mb_emit_icall (mb, ves_icall_string_alloc);
1134                         break;
1135                 default:
1136                         g_assert_not_reached ();
1137                 }
1138
1139                 goto done;
1140         }
1141
1142         EMIT_TLS_ACCESS_VAR (mb, thread_var);
1143
1144         size_var = mono_mb_add_local (mb, &mono_defaults.int_class->byval_arg);
1145         if (atype == ATYPE_SMALL) {
1146                 /* size_var = size_arg */
1147                 mono_mb_emit_ldarg (mb, 1);
1148                 mono_mb_emit_stloc (mb, size_var);
1149         } else if (atype == ATYPE_NORMAL) {
1150                 /* size = vtable->klass->instance_size; */
1151                 mono_mb_emit_ldarg (mb, 0);
1152                 mono_mb_emit_icon (mb, MONO_STRUCT_OFFSET (MonoVTable, klass));
1153                 mono_mb_emit_byte (mb, CEE_ADD);
1154                 mono_mb_emit_byte (mb, CEE_LDIND_I);
1155                 mono_mb_emit_icon (mb, MONO_STRUCT_OFFSET (MonoClass, instance_size));
1156                 mono_mb_emit_byte (mb, CEE_ADD);
1157                 /* FIXME: assert instance_size stays a 4 byte integer */
1158                 mono_mb_emit_byte (mb, CEE_LDIND_U4);
1159                 mono_mb_emit_byte (mb, CEE_CONV_I);
1160                 mono_mb_emit_stloc (mb, size_var);
1161         } else if (atype == ATYPE_VECTOR) {
1162                 MonoExceptionClause *clause;
1163                 int pos, pos_leave, pos_error;
1164                 MonoClass *oom_exc_class;
1165                 MonoMethod *ctor;
1166
1167                 /*
1168                  * n > MONO_ARRAY_MAX_INDEX => OutOfMemoryException
1169                  * n < 0                    => OverflowException
1170                  *
1171                  * We can do an unsigned comparison to catch both cases, then in the error
1172                  * case compare signed to distinguish between them.
1173                  */
1174                 mono_mb_emit_ldarg (mb, 1);
1175                 mono_mb_emit_icon (mb, MONO_ARRAY_MAX_INDEX);
1176                 mono_mb_emit_byte (mb, CEE_CONV_U);
1177                 pos = mono_mb_emit_short_branch (mb, CEE_BLE_UN_S);
1178
1179                 mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
1180                 mono_mb_emit_byte (mb, CEE_MONO_NOT_TAKEN);
1181                 mono_mb_emit_ldarg (mb, 1);
1182                 mono_mb_emit_icon (mb, 0);
1183                 pos_error = mono_mb_emit_short_branch (mb, CEE_BLT_S);
1184                 mono_mb_emit_exception (mb, "OutOfMemoryException", NULL);
1185                 mono_mb_patch_short_branch (mb, pos_error);
1186                 mono_mb_emit_exception (mb, "OverflowException", NULL);
1187
1188                 mono_mb_patch_short_branch (mb, pos);
1189
1190                 clause = (MonoExceptionClause *)mono_image_alloc0 (mono_defaults.corlib, sizeof (MonoExceptionClause));
1191                 clause->try_offset = mono_mb_get_label (mb);
1192
1193                 /* vtable->klass->sizes.element_size */
1194                 mono_mb_emit_ldarg (mb, 0);
1195                 mono_mb_emit_icon (mb, MONO_STRUCT_OFFSET (MonoVTable, klass));
1196                 mono_mb_emit_byte (mb, CEE_ADD);
1197                 mono_mb_emit_byte (mb, CEE_LDIND_I);
1198                 mono_mb_emit_icon (mb, MONO_STRUCT_OFFSET (MonoClass, sizes));
1199                 mono_mb_emit_byte (mb, CEE_ADD);
1200                 mono_mb_emit_byte (mb, CEE_LDIND_U4);
1201                 mono_mb_emit_byte (mb, CEE_CONV_I);
1202
1203                 /* * n */
1204                 mono_mb_emit_ldarg (mb, 1);
1205                 mono_mb_emit_byte (mb, CEE_MUL_OVF_UN);
1206                 /* + sizeof (MonoArray) */
1207                 mono_mb_emit_icon (mb, MONO_SIZEOF_MONO_ARRAY);
1208                 mono_mb_emit_byte (mb, CEE_ADD_OVF_UN);
1209                 mono_mb_emit_stloc (mb, size_var);
1210
1211                 pos_leave = mono_mb_emit_branch (mb, CEE_LEAVE);
1212
1213                 /* catch */
1214                 clause->flags = MONO_EXCEPTION_CLAUSE_NONE;
1215                 clause->try_len = mono_mb_get_pos (mb) - clause->try_offset;
1216                 clause->data.catch_class = mono_class_load_from_name (mono_defaults.corlib,
1217                                 "System", "OverflowException");
1218                 clause->handler_offset = mono_mb_get_label (mb);
1219
1220                 oom_exc_class = mono_class_load_from_name (mono_defaults.corlib,
1221                                 "System", "OutOfMemoryException");
1222                 ctor = mono_class_get_method_from_name (oom_exc_class, ".ctor", 0);
1223                 g_assert (ctor);
1224
1225                 mono_mb_emit_byte (mb, CEE_POP);
1226                 mono_mb_emit_op (mb, CEE_NEWOBJ, ctor);
1227                 mono_mb_emit_byte (mb, CEE_THROW);
1228
1229                 clause->handler_len = mono_mb_get_pos (mb) - clause->handler_offset;
1230                 mono_mb_set_clauses (mb, 1, clause);
1231                 mono_mb_patch_branch (mb, pos_leave);
1232                 /* end catch */
1233         } else if (atype == ATYPE_STRING) {
1234                 int pos;
1235
1236                 /*
1237                  * a string allocator method takes the args: (vtable, len)
1238                  *
1239                  * bytes = offsetof (MonoString, chars) + ((len + 1) * 2)
1240                  *
1241                  * condition:
1242                  *
1243                  * bytes <= INT32_MAX - (SGEN_ALLOC_ALIGN - 1)
1244                  *
1245                  * therefore:
1246                  *
1247                  * offsetof (MonoString, chars) + ((len + 1) * 2) <= INT32_MAX - (SGEN_ALLOC_ALIGN - 1)
1248                  * len <= (INT32_MAX - (SGEN_ALLOC_ALIGN - 1) - offsetof (MonoString, chars)) / 2 - 1
1249                  */
1250                 mono_mb_emit_ldarg (mb, 1);
1251                 mono_mb_emit_icon (mb, (INT32_MAX - (SGEN_ALLOC_ALIGN - 1) - MONO_STRUCT_OFFSET (MonoString, chars)) / 2 - 1);
1252                 pos = mono_mb_emit_short_branch (mb, MONO_CEE_BLE_UN_S);
1253
1254                 mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
1255                 mono_mb_emit_byte (mb, CEE_MONO_NOT_TAKEN);
1256                 mono_mb_emit_exception (mb, "OutOfMemoryException", NULL);
1257                 mono_mb_patch_short_branch (mb, pos);
1258
1259                 mono_mb_emit_ldarg (mb, 1);
1260                 mono_mb_emit_icon (mb, 1);
1261                 mono_mb_emit_byte (mb, MONO_CEE_SHL);
1262                 //WE manually fold the above + 2 here
1263                 mono_mb_emit_icon (mb, MONO_STRUCT_OFFSET (MonoString, chars) + 2);
1264                 mono_mb_emit_byte (mb, CEE_ADD);
1265                 mono_mb_emit_stloc (mb, size_var);
1266         } else {
1267                 g_assert_not_reached ();
1268         }
1269
1270 #ifdef MANAGED_ALLOCATOR_CAN_USE_CRITICAL_REGION
1271         EMIT_TLS_ACCESS_IN_CRITICAL_REGION_ADDR (mb, thread_var);
1272         mono_mb_emit_byte (mb, CEE_LDC_I4_1);
1273         mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
1274         mono_mb_emit_byte (mb, CEE_MONO_ATOMIC_STORE_I4);
1275         mono_mb_emit_i4 (mb, MONO_MEMORY_BARRIER_NONE);
1276 #endif
1277
1278         /* size += ALLOC_ALIGN - 1; */
1279         mono_mb_emit_ldloc (mb, size_var);
1280         mono_mb_emit_icon (mb, SGEN_ALLOC_ALIGN - 1);
1281         mono_mb_emit_byte (mb, CEE_ADD);
1282         /* size &= ~(ALLOC_ALIGN - 1); */
1283         mono_mb_emit_icon (mb, ~(SGEN_ALLOC_ALIGN - 1));
1284         mono_mb_emit_byte (mb, CEE_AND);
1285         mono_mb_emit_stloc (mb, size_var);
1286
1287         /* if (size > MAX_SMALL_OBJ_SIZE) goto slowpath */
1288         if (atype != ATYPE_SMALL) {
1289                 mono_mb_emit_ldloc (mb, size_var);
1290                 mono_mb_emit_icon (mb, SGEN_MAX_SMALL_OBJ_SIZE);
1291                 max_size_branch = mono_mb_emit_short_branch (mb, MONO_CEE_BGT_UN_S);
1292         }
1293
1294         /*
1295          * We need to modify tlab_next, but the JIT only supports reading, so we read
1296          * another tls var holding its address instead.
1297          */
1298
1299         /* tlab_next_addr (local) = tlab_next_addr (TLS var) */
1300         tlab_next_addr_var = mono_mb_add_local (mb, &mono_defaults.int_class->byval_arg);
1301         EMIT_TLS_ACCESS_NEXT_ADDR (mb, thread_var);
1302         mono_mb_emit_stloc (mb, tlab_next_addr_var);
1303
1304         /* p = (void**)tlab_next; */
1305         p_var = mono_mb_add_local (mb, &mono_defaults.int_class->byval_arg);
1306         mono_mb_emit_ldloc (mb, tlab_next_addr_var);
1307         mono_mb_emit_byte (mb, CEE_LDIND_I);
1308         mono_mb_emit_stloc (mb, p_var);
1309         
1310         /* new_next = (char*)p + size; */
1311         new_next_var = mono_mb_add_local (mb, &mono_defaults.int_class->byval_arg);
1312         mono_mb_emit_ldloc (mb, p_var);
1313         mono_mb_emit_ldloc (mb, size_var);
1314         mono_mb_emit_byte (mb, CEE_CONV_I);
1315         mono_mb_emit_byte (mb, CEE_ADD);
1316         mono_mb_emit_stloc (mb, new_next_var);
1317
1318         /* if (G_LIKELY (new_next < tlab_temp_end)) */
1319         mono_mb_emit_ldloc (mb, new_next_var);
1320         EMIT_TLS_ACCESS_TEMP_END (mb, thread_var);
1321         slowpath_branch = mono_mb_emit_short_branch (mb, MONO_CEE_BLT_UN_S);
1322
1323         /* Slowpath */
1324         if (atype != ATYPE_SMALL)
1325                 mono_mb_patch_short_branch (mb, max_size_branch);
1326
1327         mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
1328         mono_mb_emit_byte (mb, CEE_MONO_NOT_TAKEN);
1329         /*
1330          * We are no longer in a critical section. We need to do this before calling
1331          * to unmanaged land in order to avoid stw deadlocks since unmanaged code
1332          * might take locks.
1333          */
1334 #ifdef MANAGED_ALLOCATOR_CAN_USE_CRITICAL_REGION
1335         EMIT_TLS_ACCESS_IN_CRITICAL_REGION_ADDR (mb, thread_var);
1336         mono_mb_emit_byte (mb, CEE_LDC_I4_0);
1337         mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
1338         mono_mb_emit_byte (mb, CEE_MONO_ATOMIC_STORE_I4);
1339         mono_mb_emit_i4 (mb, MONO_MEMORY_BARRIER_NONE);
1340 #endif
1341
1342         /* FIXME: mono_gc_alloc_obj takes a 'size_t' as an argument, not an int32 */
1343         mono_mb_emit_ldarg (mb, 0);
1344         mono_mb_emit_ldloc (mb, size_var);
1345         if (atype == ATYPE_NORMAL || atype == ATYPE_SMALL) {
1346                 mono_mb_emit_icall (mb, mono_gc_alloc_obj);
1347         } else if (atype == ATYPE_VECTOR) {
1348                 mono_mb_emit_ldarg (mb, 1);
1349                 mono_mb_emit_icall (mb, mono_gc_alloc_vector);
1350         } else if (atype == ATYPE_STRING) {
1351                 mono_mb_emit_ldarg (mb, 1);
1352                 mono_mb_emit_icall (mb, mono_gc_alloc_string);
1353         } else {
1354                 g_assert_not_reached ();
1355         }
1356         mono_mb_emit_byte (mb, CEE_RET);
1357
1358         /* Fastpath */
1359         mono_mb_patch_short_branch (mb, slowpath_branch);
1360
1361         /* FIXME: Memory barrier */
1362
1363         /* tlab_next = new_next */
1364         mono_mb_emit_ldloc (mb, tlab_next_addr_var);
1365         mono_mb_emit_ldloc (mb, new_next_var);
1366         mono_mb_emit_byte (mb, CEE_STIND_I);
1367
1368         /* *p = vtable; */
1369         mono_mb_emit_ldloc (mb, p_var);
1370         mono_mb_emit_ldarg (mb, 0);
1371         mono_mb_emit_byte (mb, CEE_STIND_I);
1372
1373         if (atype == ATYPE_VECTOR) {
1374                 /* arr->max_length = max_length; */
1375                 mono_mb_emit_ldloc (mb, p_var);
1376                 mono_mb_emit_ldflda (mb, MONO_STRUCT_OFFSET (MonoArray, max_length));
1377                 mono_mb_emit_ldarg (mb, 1);
1378 #ifdef MONO_BIG_ARRAYS
1379                 mono_mb_emit_byte (mb, CEE_STIND_I);
1380 #else
1381                 mono_mb_emit_byte (mb, CEE_STIND_I4);
1382 #endif
1383         } else  if (atype == ATYPE_STRING) {
1384                 /* need to set length and clear the last char */
1385                 /* s->length = len; */
1386                 mono_mb_emit_ldloc (mb, p_var);
1387                 mono_mb_emit_icon (mb, MONO_STRUCT_OFFSET (MonoString, length));
1388                 mono_mb_emit_byte (mb, MONO_CEE_ADD);
1389                 mono_mb_emit_ldarg (mb, 1);
1390                 mono_mb_emit_byte (mb, MONO_CEE_STIND_I4);
1391         }
1392
1393 #ifdef MANAGED_ALLOCATOR_CAN_USE_CRITICAL_REGION
1394         EMIT_TLS_ACCESS_IN_CRITICAL_REGION_ADDR (mb, thread_var);
1395         mono_mb_emit_byte (mb, CEE_LDC_I4_0);
1396         mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
1397         mono_mb_emit_byte (mb, CEE_MONO_ATOMIC_STORE_I4);
1398 #else
1399         mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
1400         mono_mb_emit_byte (mb, CEE_MONO_MEMORY_BARRIER);
1401 #endif
1402         /*
1403         We must make sure both vtable and max_length are globaly visible before returning to managed land.
1404         */
1405         mono_mb_emit_i4 (mb, MONO_MEMORY_BARRIER_REL);
1406
1407         /* return p */
1408         mono_mb_emit_ldloc (mb, p_var);
1409
1410  done:
1411         mono_mb_emit_byte (mb, CEE_RET);
1412 #endif
1413
1414         info = mono_wrapper_info_create (mb, WRAPPER_SUBTYPE_NONE);
1415         info->d.alloc.gc_name = "sgen";
1416         info->d.alloc.alloc_type = atype;
1417
1418 #ifndef DISABLE_JIT
1419         mb->init_locals = FALSE;
1420 #endif
1421
1422         res = mono_mb_create (mb, csig, 8, info);
1423         mono_mb_free (mb);
1424
1425
1426         return res;
1427 }
1428 #endif
1429
1430 int
1431 mono_gc_get_aligned_size_for_allocator (int size)
1432 {
1433         return SGEN_ALIGN_UP (size);
1434 }
1435
1436 /*
1437  * Generate an allocator method implementing the fast path of mono_gc_alloc_obj ().
1438  * The signature of the called method is:
1439  *      object allocate (MonoVTable *vtable)
1440  */
1441 MonoMethod*
1442 mono_gc_get_managed_allocator (MonoClass *klass, gboolean for_box, gboolean known_instance_size)
1443 {
1444 #ifdef MANAGED_ALLOCATION
1445         if (collect_before_allocs)
1446                 return NULL;
1447         if (!mono_runtime_has_tls_get ())
1448                 return NULL;
1449         if (klass->instance_size > tlab_size)
1450                 return NULL;
1451         if (known_instance_size && ALIGN_TO (klass->instance_size, SGEN_ALLOC_ALIGN) >= SGEN_MAX_SMALL_OBJ_SIZE)
1452                 return NULL;
1453         if (mono_class_has_finalizer (klass) || mono_class_is_marshalbyref (klass))
1454                 return NULL;
1455         if (klass->rank)
1456                 return NULL;
1457         if (mono_profiler_get_events () & MONO_PROFILE_ALLOCATIONS)
1458                 return NULL;
1459         if (klass->byval_arg.type == MONO_TYPE_STRING)
1460                 return mono_gc_get_managed_allocator_by_type (ATYPE_STRING, MANAGED_ALLOCATOR_REGULAR);
1461         /* Generic classes have dynamic field and can go above MAX_SMALL_OBJ_SIZE. */
1462         if (known_instance_size)
1463                 return mono_gc_get_managed_allocator_by_type (ATYPE_SMALL, MANAGED_ALLOCATOR_REGULAR);
1464         else
1465                 return mono_gc_get_managed_allocator_by_type (ATYPE_NORMAL, MANAGED_ALLOCATOR_REGULAR);
1466 #else
1467         return NULL;
1468 #endif
1469 }
1470
1471 MonoMethod*
1472 mono_gc_get_managed_array_allocator (MonoClass *klass)
1473 {
1474 #ifdef MANAGED_ALLOCATION
1475         if (klass->rank != 1)
1476                 return NULL;
1477         if (!mono_runtime_has_tls_get ())
1478                 return NULL;
1479         if (mono_profiler_get_events () & MONO_PROFILE_ALLOCATIONS)
1480                 return NULL;
1481         if (has_per_allocation_action)
1482                 return NULL;
1483         g_assert (!mono_class_has_finalizer (klass) && !mono_class_is_marshalbyref (klass));
1484
1485         return mono_gc_get_managed_allocator_by_type (ATYPE_VECTOR, MANAGED_ALLOCATOR_REGULAR);
1486 #else
1487         return NULL;
1488 #endif
1489 }
1490
1491 void
1492 sgen_set_use_managed_allocator (gboolean flag)
1493 {
1494         use_managed_allocator = flag;
1495 }
1496
1497 MonoMethod*
1498 mono_gc_get_managed_allocator_by_type (int atype, ManagedAllocatorVariant variant)
1499 {
1500 #ifdef MANAGED_ALLOCATION
1501         MonoMethod *res;
1502         MonoMethod **cache;
1503
1504         if (!use_managed_allocator)
1505                 return NULL;
1506
1507         if (!mono_runtime_has_tls_get ())
1508                 return NULL;
1509
1510         switch (variant) {
1511         case MANAGED_ALLOCATOR_REGULAR: cache = alloc_method_cache; break;
1512         case MANAGED_ALLOCATOR_SLOW_PATH: cache = slowpath_alloc_method_cache; break;
1513         default: g_assert_not_reached (); break;
1514         }
1515
1516         res = cache [atype];
1517         if (res)
1518                 return res;
1519
1520         res = create_allocator (atype, variant);
1521         LOCK_GC;
1522         if (cache [atype]) {
1523                 mono_free_method (res);
1524                 res = cache [atype];
1525         } else {
1526                 mono_memory_barrier ();
1527                 cache [atype] = res;
1528         }
1529         UNLOCK_GC;
1530
1531         return res;
1532 #else
1533         return NULL;
1534 #endif
1535 }
1536
1537 guint32
1538 mono_gc_get_managed_allocator_types (void)
1539 {
1540         return ATYPE_NUM;
1541 }
1542
1543 gboolean
1544 sgen_is_managed_allocator (MonoMethod *method)
1545 {
1546         int i;
1547
1548         for (i = 0; i < ATYPE_NUM; ++i)
1549                 if (method == alloc_method_cache [i] || method == slowpath_alloc_method_cache [i])
1550                         return TRUE;
1551         return FALSE;
1552 }
1553
1554 gboolean
1555 sgen_has_managed_allocator (void)
1556 {
1557         int i;
1558
1559         for (i = 0; i < ATYPE_NUM; ++i)
1560                 if (alloc_method_cache [i] || slowpath_alloc_method_cache [i])
1561                         return TRUE;
1562         return FALSE;
1563 }
1564
1565 /*
1566  * Cardtable scanning
1567  */
1568
1569 #define MWORD_MASK (sizeof (mword) - 1)
1570
1571 static inline int
1572 find_card_offset (mword card)
1573 {
1574 /*XXX Use assembly as this generates some pretty bad code */
1575 #if defined(__i386__) && defined(__GNUC__)
1576         return  (__builtin_ffs (card) - 1) / 8;
1577 #elif defined(__x86_64__) && defined(__GNUC__)
1578         return (__builtin_ffsll (card) - 1) / 8;
1579 #elif defined(__s390x__)
1580         return (__builtin_ffsll (GUINT64_TO_LE(card)) - 1) / 8;
1581 #else
1582         int i;
1583         guint8 *ptr = (guint8 *) &card;
1584         for (i = 0; i < sizeof (mword); ++i) {
1585                 if (ptr[i])
1586                         return i;
1587         }
1588         return 0;
1589 #endif
1590 }
1591
1592 static guint8*
1593 find_next_card (guint8 *card_data, guint8 *end)
1594 {
1595         mword *cards, *cards_end;
1596         mword card;
1597
1598         while ((((mword)card_data) & MWORD_MASK) && card_data < end) {
1599                 if (*card_data)
1600                         return card_data;
1601                 ++card_data;
1602         }
1603
1604         if (card_data == end)
1605                 return end;
1606
1607         cards = (mword*)card_data;
1608         cards_end = (mword*)((mword)end & ~MWORD_MASK);
1609         while (cards < cards_end) {
1610                 card = *cards;
1611                 if (card)
1612                         return (guint8*)cards + find_card_offset (card);
1613                 ++cards;
1614         }
1615
1616         card_data = (guint8*)cards_end;
1617         while (card_data < end) {
1618                 if (*card_data)
1619                         return card_data;
1620                 ++card_data;
1621         }
1622
1623         return end;
1624 }
1625
1626 #define ARRAY_OBJ_INDEX(ptr,array,elem_size) (((char*)(ptr) - ((char*)(array) + G_STRUCT_OFFSET (MonoArray, vector))) / (elem_size))
1627
1628 gboolean
1629 sgen_client_cardtable_scan_object (GCObject *obj, mword block_obj_size, guint8 *cards, ScanCopyContext ctx)
1630 {
1631         MonoVTable *vt = SGEN_LOAD_VTABLE (obj);
1632         MonoClass *klass = vt->klass;
1633
1634         SGEN_ASSERT (0, SGEN_VTABLE_HAS_REFERENCES (vt), "Why would we ever call this on reference-free objects?");
1635
1636         if (vt->rank) {
1637                 MonoArray *arr = (MonoArray*)obj;
1638                 guint8 *card_data, *card_base;
1639                 guint8 *card_data_end;
1640                 char *obj_start = (char *)sgen_card_table_align_pointer (obj);
1641                 mword bounds_size;
1642                 mword obj_size = sgen_mono_array_size (vt, arr, &bounds_size, sgen_vtable_get_descriptor (vt));
1643                 /* We don't want to scan the bounds entries at the end of multidimensional arrays */
1644                 char *obj_end = (char*)obj + obj_size - bounds_size;
1645                 size_t card_count;
1646                 size_t extra_idx = 0;
1647
1648                 mword desc = (mword)klass->element_class->gc_descr;
1649                 int elem_size = mono_array_element_size (klass);
1650
1651 #ifdef SGEN_HAVE_OVERLAPPING_CARDS
1652                 guint8 *overflow_scan_end = NULL;
1653 #endif
1654
1655 #ifdef SGEN_OBJECT_LAYOUT_STATISTICS
1656                 if (klass->element_class->valuetype)
1657                         sgen_object_layout_scanned_vtype_array ();
1658                 else
1659                         sgen_object_layout_scanned_ref_array ();
1660 #endif
1661
1662                 if (cards)
1663                         card_data = cards;
1664                 else
1665                         card_data = sgen_card_table_get_card_scan_address ((mword)obj);
1666
1667                 card_base = card_data;
1668                 card_count = sgen_card_table_number_of_cards_in_range ((mword)obj, obj_size);
1669                 card_data_end = card_data + card_count;
1670
1671
1672 #ifdef SGEN_HAVE_OVERLAPPING_CARDS
1673                 /*Check for overflow and if so, setup to scan in two steps*/
1674                 if (!cards && card_data_end >= SGEN_SHADOW_CARDTABLE_END) {
1675                         overflow_scan_end = sgen_shadow_cardtable + (card_data_end - SGEN_SHADOW_CARDTABLE_END);
1676                         card_data_end = SGEN_SHADOW_CARDTABLE_END;
1677                 }
1678
1679 LOOP_HEAD:
1680 #endif
1681
1682                 card_data = find_next_card (card_data, card_data_end);
1683                 for (; card_data < card_data_end; card_data = find_next_card (card_data + 1, card_data_end)) {
1684                         size_t index;
1685                         size_t idx = (card_data - card_base) + extra_idx;
1686                         char *start = (char*)(obj_start + idx * CARD_SIZE_IN_BYTES);
1687                         char *card_end = start + CARD_SIZE_IN_BYTES;
1688                         char *first_elem, *elem;
1689
1690                         HEAVY_STAT (++los_marked_cards);
1691
1692                         if (!cards)
1693                                 sgen_card_table_prepare_card_for_scanning (card_data);
1694
1695                         card_end = MIN (card_end, obj_end);
1696
1697                         if (start <= (char*)arr->vector)
1698                                 index = 0;
1699                         else
1700                                 index = ARRAY_OBJ_INDEX (start, obj, elem_size);
1701
1702                         elem = first_elem = (char*)mono_array_addr_with_size_fast ((MonoArray*)obj, elem_size, index);
1703                         if (klass->element_class->valuetype) {
1704                                 ScanVTypeFunc scan_vtype_func = ctx.ops->scan_vtype;
1705
1706                                 for (; elem < card_end; elem += elem_size)
1707                                         scan_vtype_func (obj, elem, desc, ctx.queue BINARY_PROTOCOL_ARG (elem_size));
1708                         } else {
1709                                 ScanPtrFieldFunc scan_ptr_field_func = ctx.ops->scan_ptr_field;
1710
1711                                 HEAVY_STAT (++los_array_cards);
1712                                 for (; elem < card_end; elem += SIZEOF_VOID_P)
1713                                         scan_ptr_field_func (obj, (GCObject**)elem, ctx.queue);
1714                         }
1715
1716                         binary_protocol_card_scan (first_elem, elem - first_elem);
1717                 }
1718
1719 #ifdef SGEN_HAVE_OVERLAPPING_CARDS
1720                 if (overflow_scan_end) {
1721                         extra_idx = card_data - card_base;
1722                         card_base = card_data = sgen_shadow_cardtable;
1723                         card_data_end = overflow_scan_end;
1724                         overflow_scan_end = NULL;
1725                         goto LOOP_HEAD;
1726                 }
1727 #endif
1728                 return TRUE;
1729         }
1730
1731         return FALSE;
1732 }
1733
1734 /*
1735  * Array and string allocation
1736  */
1737
1738 void*
1739 mono_gc_alloc_vector (MonoVTable *vtable, size_t size, uintptr_t max_length)
1740 {
1741         MonoArray *arr;
1742         TLAB_ACCESS_INIT;
1743
1744         if (!SGEN_CAN_ALIGN_UP (size))
1745                 return NULL;
1746
1747 #ifndef DISABLE_CRITICAL_REGION
1748         ENTER_CRITICAL_REGION;
1749         arr = (MonoArray*)sgen_try_alloc_obj_nolock (vtable, size);
1750         if (arr) {
1751                 /*This doesn't require fencing since EXIT_CRITICAL_REGION already does it for us*/
1752                 arr->max_length = (mono_array_size_t)max_length;
1753                 EXIT_CRITICAL_REGION;
1754                 goto done;
1755         }
1756         EXIT_CRITICAL_REGION;
1757 #endif
1758
1759         LOCK_GC;
1760
1761         arr = (MonoArray*)sgen_alloc_obj_nolock (vtable, size);
1762         if (G_UNLIKELY (!arr)) {
1763                 UNLOCK_GC;
1764                 return NULL;
1765         }
1766
1767         arr->max_length = (mono_array_size_t)max_length;
1768
1769         UNLOCK_GC;
1770
1771  done:
1772         if (G_UNLIKELY (alloc_events))
1773                 mono_profiler_allocation (&arr->obj);
1774
1775         SGEN_ASSERT (6, SGEN_ALIGN_UP (size) == SGEN_ALIGN_UP (sgen_client_par_object_get_size (vtable, (GCObject*)arr)), "Vector has incorrect size.");
1776         return arr;
1777 }
1778
1779 void*
1780 mono_gc_alloc_array (MonoVTable *vtable, size_t size, uintptr_t max_length, uintptr_t bounds_size)
1781 {
1782         MonoArray *arr;
1783         MonoArrayBounds *bounds;
1784         TLAB_ACCESS_INIT;
1785
1786         if (!SGEN_CAN_ALIGN_UP (size))
1787                 return NULL;
1788
1789 #ifndef DISABLE_CRITICAL_REGION
1790         ENTER_CRITICAL_REGION;
1791         arr = (MonoArray*)sgen_try_alloc_obj_nolock (vtable, size);
1792         if (arr) {
1793                 /*This doesn't require fencing since EXIT_CRITICAL_REGION already does it for us*/
1794                 arr->max_length = (mono_array_size_t)max_length;
1795
1796                 bounds = (MonoArrayBounds*)((char*)arr + size - bounds_size);
1797                 arr->bounds = bounds;
1798                 EXIT_CRITICAL_REGION;
1799                 goto done;
1800         }
1801         EXIT_CRITICAL_REGION;
1802 #endif
1803
1804         LOCK_GC;
1805
1806         arr = (MonoArray*)sgen_alloc_obj_nolock (vtable, size);
1807         if (G_UNLIKELY (!arr)) {
1808                 UNLOCK_GC;
1809                 return NULL;
1810         }
1811
1812         arr->max_length = (mono_array_size_t)max_length;
1813
1814         bounds = (MonoArrayBounds*)((char*)arr + size - bounds_size);
1815         arr->bounds = bounds;
1816
1817         UNLOCK_GC;
1818
1819  done:
1820         if (G_UNLIKELY (alloc_events))
1821                 mono_profiler_allocation (&arr->obj);
1822
1823         SGEN_ASSERT (6, SGEN_ALIGN_UP (size) == SGEN_ALIGN_UP (sgen_client_par_object_get_size (vtable, (GCObject*)arr)), "Array has incorrect size.");
1824         return arr;
1825 }
1826
1827 void*
1828 mono_gc_alloc_string (MonoVTable *vtable, size_t size, gint32 len)
1829 {
1830         MonoString *str;
1831         TLAB_ACCESS_INIT;
1832
1833         if (!SGEN_CAN_ALIGN_UP (size))
1834                 return NULL;
1835
1836 #ifndef DISABLE_CRITICAL_REGION
1837         ENTER_CRITICAL_REGION;
1838         str = (MonoString*)sgen_try_alloc_obj_nolock (vtable, size);
1839         if (str) {
1840                 /*This doesn't require fencing since EXIT_CRITICAL_REGION already does it for us*/
1841                 str->length = len;
1842                 EXIT_CRITICAL_REGION;
1843                 goto done;
1844         }
1845         EXIT_CRITICAL_REGION;
1846 #endif
1847
1848         LOCK_GC;
1849
1850         str = (MonoString*)sgen_alloc_obj_nolock (vtable, size);
1851         if (G_UNLIKELY (!str)) {
1852                 UNLOCK_GC;
1853                 return NULL;
1854         }
1855
1856         str->length = len;
1857
1858         UNLOCK_GC;
1859
1860  done:
1861         if (G_UNLIKELY (alloc_events))
1862                 mono_profiler_allocation (&str->object);
1863
1864         return str;
1865 }
1866
1867 /*
1868  * Strings
1869  */
1870
1871 void
1872 mono_gc_set_string_length (MonoString *str, gint32 new_length)
1873 {
1874         mono_unichar2 *new_end = str->chars + new_length;
1875
1876         /* zero the discarded string. This null-delimits the string and allows
1877          * the space to be reclaimed by SGen. */
1878
1879         if (nursery_canaries_enabled () && sgen_ptr_in_nursery (str)) {
1880                 CHECK_CANARY_FOR_OBJECT ((GCObject*)str, TRUE);
1881                 memset (new_end, 0, (str->length - new_length + 1) * sizeof (mono_unichar2) + CANARY_SIZE);
1882                 memcpy (new_end + 1 , CANARY_STRING, CANARY_SIZE);
1883         } else {
1884                 memset (new_end, 0, (str->length - new_length + 1) * sizeof (mono_unichar2));
1885         }
1886
1887         str->length = new_length;
1888 }
1889
1890 /*
1891  * Profiling
1892  */
1893
1894 #define GC_ROOT_NUM 32
1895 typedef struct {
1896         int count;              /* must be the first field */
1897         void *objects [GC_ROOT_NUM];
1898         int root_types [GC_ROOT_NUM];
1899         uintptr_t extra_info [GC_ROOT_NUM];
1900 } GCRootReport;
1901
1902 static void
1903 notify_gc_roots (GCRootReport *report)
1904 {
1905         if (!report->count)
1906                 return;
1907         mono_profiler_gc_roots (report->count, report->objects, report->root_types, report->extra_info);
1908         report->count = 0;
1909 }
1910
1911 static void
1912 add_profile_gc_root (GCRootReport *report, void *object, int rtype, uintptr_t extra_info)
1913 {
1914         if (report->count == GC_ROOT_NUM)
1915                 notify_gc_roots (report);
1916         report->objects [report->count] = object;
1917         report->root_types [report->count] = rtype;
1918         report->extra_info [report->count++] = (uintptr_t)SGEN_LOAD_VTABLE (object)->klass;
1919 }
1920
1921 void
1922 sgen_client_nursery_objects_pinned (void **definitely_pinned, int count)
1923 {
1924         if (mono_profiler_get_events () & MONO_PROFILE_GC_ROOTS) {
1925                 GCRootReport report;
1926                 int idx;
1927                 report.count = 0;
1928                 for (idx = 0; idx < count; ++idx)
1929                         add_profile_gc_root (&report, definitely_pinned [idx], MONO_PROFILE_GC_ROOT_PINNING | MONO_PROFILE_GC_ROOT_MISC, 0);
1930                 notify_gc_roots (&report);
1931         }
1932 }
1933
1934 static void
1935 report_finalizer_roots_from_queue (SgenPointerQueue *queue)
1936 {
1937         GCRootReport report;
1938         size_t i;
1939
1940         report.count = 0;
1941         for (i = 0; i < queue->next_slot; ++i) {
1942                 void *obj = queue->data [i];
1943                 if (!obj)
1944                         continue;
1945                 add_profile_gc_root (&report, obj, MONO_PROFILE_GC_ROOT_FINALIZER, 0);
1946         }
1947         notify_gc_roots (&report);
1948 }
1949
1950 static void
1951 report_finalizer_roots (SgenPointerQueue *fin_ready_queue, SgenPointerQueue *critical_fin_queue)
1952 {
1953         report_finalizer_roots_from_queue (fin_ready_queue);
1954         report_finalizer_roots_from_queue (critical_fin_queue);
1955 }
1956
1957 static GCRootReport *root_report;
1958
1959 static void
1960 single_arg_report_root (MonoObject **obj, void *gc_data)
1961 {
1962         if (*obj)
1963                 add_profile_gc_root (root_report, *obj, MONO_PROFILE_GC_ROOT_OTHER, 0);
1964 }
1965
1966 static void
1967 precisely_report_roots_from (GCRootReport *report, void** start_root, void** end_root, mword desc)
1968 {
1969         switch (desc & ROOT_DESC_TYPE_MASK) {
1970         case ROOT_DESC_BITMAP:
1971                 desc >>= ROOT_DESC_TYPE_SHIFT;
1972                 while (desc) {
1973                         if ((desc & 1) && *start_root) {
1974                                 add_profile_gc_root (report, *start_root, MONO_PROFILE_GC_ROOT_OTHER, 0);
1975                         }
1976                         desc >>= 1;
1977                         start_root++;
1978                 }
1979                 return;
1980         case ROOT_DESC_COMPLEX: {
1981                 gsize *bitmap_data = (gsize *)sgen_get_complex_descriptor_bitmap (desc);
1982                 gsize bwords = (*bitmap_data) - 1;
1983                 void **start_run = start_root;
1984                 bitmap_data++;
1985                 while (bwords-- > 0) {
1986                         gsize bmap = *bitmap_data++;
1987                         void **objptr = start_run;
1988                         while (bmap) {
1989                                 if ((bmap & 1) && *objptr) {
1990                                         add_profile_gc_root (report, *objptr, MONO_PROFILE_GC_ROOT_OTHER, 0);
1991                                 }
1992                                 bmap >>= 1;
1993                                 ++objptr;
1994                         }
1995                         start_run += GC_BITS_PER_WORD;
1996                 }
1997                 break;
1998         }
1999         case ROOT_DESC_USER: {
2000                 MonoGCRootMarkFunc marker = (MonoGCRootMarkFunc)sgen_get_user_descriptor_func (desc);
2001                 root_report = report;
2002                 marker ((MonoObject**)start_root, single_arg_report_root, NULL);
2003                 break;
2004         }
2005         case ROOT_DESC_RUN_LEN:
2006                 g_assert_not_reached ();
2007         default:
2008                 g_assert_not_reached ();
2009         }
2010 }
2011
2012 static void
2013 report_registered_roots_by_type (int root_type)
2014 {
2015         GCRootReport report;
2016         void **start_root;
2017         RootRecord *root;
2018         report.count = 0;
2019         SGEN_HASH_TABLE_FOREACH (&roots_hash [root_type], void **, start_root, RootRecord *, root) {
2020                 SGEN_LOG (6, "Precise root scan %p-%p (desc: %p)", start_root, root->end_root, (void*)root->root_desc);
2021                 precisely_report_roots_from (&report, start_root, (void**)root->end_root, root->root_desc);
2022         } SGEN_HASH_TABLE_FOREACH_END;
2023         notify_gc_roots (&report);
2024 }
2025
2026 static void
2027 report_registered_roots (void)
2028 {
2029         report_registered_roots_by_type (ROOT_TYPE_NORMAL);
2030         report_registered_roots_by_type (ROOT_TYPE_WBARRIER);
2031 }
2032
2033 void
2034 sgen_client_collecting_minor (SgenPointerQueue *fin_ready_queue, SgenPointerQueue *critical_fin_queue)
2035 {
2036         if (mono_profiler_get_events () & MONO_PROFILE_GC_ROOTS)
2037                 report_registered_roots ();
2038         if (mono_profiler_get_events () & MONO_PROFILE_GC_ROOTS)
2039                 report_finalizer_roots (fin_ready_queue, critical_fin_queue);
2040 }
2041
2042 static GCRootReport major_root_report;
2043 static gboolean profile_roots;
2044
2045 void
2046 sgen_client_collecting_major_1 (void)
2047 {
2048         profile_roots = mono_profiler_get_events () & MONO_PROFILE_GC_ROOTS;
2049         memset (&major_root_report, 0, sizeof (GCRootReport));
2050 }
2051
2052 void
2053 sgen_client_pinned_los_object (GCObject *obj)
2054 {
2055         if (profile_roots)
2056                 add_profile_gc_root (&major_root_report, (char*)obj, MONO_PROFILE_GC_ROOT_PINNING | MONO_PROFILE_GC_ROOT_MISC, 0);
2057 }
2058
2059 void
2060 sgen_client_collecting_major_2 (void)
2061 {
2062         if (profile_roots)
2063                 notify_gc_roots (&major_root_report);
2064
2065         if (mono_profiler_get_events () & MONO_PROFILE_GC_ROOTS)
2066                 report_registered_roots ();
2067 }
2068
2069 void
2070 sgen_client_collecting_major_3 (SgenPointerQueue *fin_ready_queue, SgenPointerQueue *critical_fin_queue)
2071 {
2072         if (mono_profiler_get_events () & MONO_PROFILE_GC_ROOTS)
2073                 report_finalizer_roots (fin_ready_queue, critical_fin_queue);
2074 }
2075
2076 #define MOVED_OBJECTS_NUM 64
2077 static void *moved_objects [MOVED_OBJECTS_NUM];
2078 static int moved_objects_idx = 0;
2079
2080 void
2081 mono_sgen_register_moved_object (void *obj, void *destination)
2082 {
2083         g_assert (mono_profiler_events & MONO_PROFILE_GC_MOVES);
2084
2085         if (moved_objects_idx == MOVED_OBJECTS_NUM) {
2086                 mono_profiler_gc_moves (moved_objects, moved_objects_idx);
2087                 moved_objects_idx = 0;
2088         }
2089         moved_objects [moved_objects_idx++] = obj;
2090         moved_objects [moved_objects_idx++] = destination;
2091 }
2092
2093 void
2094 mono_sgen_gc_event_moves (void)
2095 {
2096         if (moved_objects_idx) {
2097                 mono_profiler_gc_moves (moved_objects, moved_objects_idx);
2098                 moved_objects_idx = 0;
2099         }
2100 }
2101
2102 /*
2103  * Heap walking
2104  */
2105
2106 #define REFS_SIZE 128
2107 typedef struct {
2108         void *data;
2109         MonoGCReferences callback;
2110         int flags;
2111         int count;
2112         int called;
2113         MonoObject *refs [REFS_SIZE];
2114         uintptr_t offsets [REFS_SIZE];
2115 } HeapWalkInfo;
2116
2117 #undef HANDLE_PTR
2118 #define HANDLE_PTR(ptr,obj)     do {    \
2119                 if (*(ptr)) {   \
2120                         if (hwi->count == REFS_SIZE) {  \
2121                                 hwi->callback ((MonoObject*)start, mono_object_class (start), hwi->called? 0: size, hwi->count, hwi->refs, hwi->offsets, hwi->data);    \
2122                                 hwi->count = 0; \
2123                                 hwi->called = 1;        \
2124                         }       \
2125                         hwi->offsets [hwi->count] = (char*)(ptr)-(char*)start;  \
2126                         hwi->refs [hwi->count++] = *(ptr);      \
2127                 }       \
2128         } while (0)
2129
2130 static void
2131 collect_references (HeapWalkInfo *hwi, GCObject *obj, size_t size)
2132 {
2133         char *start = (char*)obj;
2134         mword desc = sgen_obj_get_descriptor (obj);
2135
2136 #include "sgen/sgen-scan-object.h"
2137 }
2138
2139 static void
2140 walk_references (GCObject *start, size_t size, void *data)
2141 {
2142         HeapWalkInfo *hwi = (HeapWalkInfo *)data;
2143         hwi->called = 0;
2144         hwi->count = 0;
2145         collect_references (hwi, start, size);
2146         if (hwi->count || !hwi->called)
2147                 hwi->callback (start, mono_object_class (start), hwi->called? 0: size, hwi->count, hwi->refs, hwi->offsets, hwi->data);
2148 }
2149
2150 /**
2151  * mono_gc_walk_heap:
2152  * @flags: flags for future use
2153  * @callback: a function pointer called for each object in the heap
2154  * @data: a user data pointer that is passed to callback
2155  *
2156  * This function can be used to iterate over all the live objects in the heap:
2157  * for each object, @callback is invoked, providing info about the object's
2158  * location in memory, its class, its size and the objects it references.
2159  * For each referenced object it's offset from the object address is
2160  * reported in the offsets array.
2161  * The object references may be buffered, so the callback may be invoked
2162  * multiple times for the same object: in all but the first call, the size
2163  * argument will be zero.
2164  * Note that this function can be only called in the #MONO_GC_EVENT_PRE_START_WORLD
2165  * profiler event handler.
2166  *
2167  * Returns: a non-zero value if the GC doesn't support heap walking
2168  */
2169 int
2170 mono_gc_walk_heap (int flags, MonoGCReferences callback, void *data)
2171 {
2172         HeapWalkInfo hwi;
2173
2174         hwi.flags = flags;
2175         hwi.callback = callback;
2176         hwi.data = data;
2177
2178         sgen_clear_nursery_fragments ();
2179         sgen_scan_area_with_callback (nursery_section->data, nursery_section->end_data, walk_references, &hwi, FALSE, TRUE);
2180
2181         major_collector.iterate_objects (ITERATE_OBJECTS_SWEEP_ALL, walk_references, &hwi);
2182         sgen_los_iterate_objects (walk_references, &hwi);
2183
2184         return 0;
2185 }
2186
2187 /*
2188  * Threads
2189  */
2190
2191 void
2192 mono_gc_set_gc_callbacks (MonoGCCallbacks *callbacks)
2193 {
2194         gc_callbacks = *callbacks;
2195 }
2196
2197 MonoGCCallbacks *
2198 mono_gc_get_gc_callbacks ()
2199 {
2200         return &gc_callbacks;
2201 }
2202
2203 void
2204 sgen_client_thread_register (SgenThreadInfo* info, void *stack_bottom_fallback)
2205 {
2206         size_t stsize = 0;
2207         guint8 *staddr = NULL;
2208
2209 #ifndef HAVE_KW_THREAD
2210         g_assert (!mono_native_tls_get_value (thread_info_key));
2211         mono_native_tls_set_value (thread_info_key, info);
2212 #else
2213         sgen_thread_info = info;
2214 #endif
2215
2216         info->client_info.skip = 0;
2217         info->client_info.stopped_ip = NULL;
2218         info->client_info.stopped_domain = NULL;
2219
2220         info->client_info.stack_start = NULL;
2221
2222 #ifdef SGEN_POSIX_STW
2223         info->client_info.stop_count = -1;
2224         info->client_info.signal = 0;
2225 #endif
2226
2227         /* On win32, stack_start_limit should be 0, since the stack can grow dynamically */
2228         mono_thread_info_get_stack_bounds (&staddr, &stsize);
2229         if (staddr) {
2230 #ifndef HOST_WIN32
2231                 info->client_info.stack_start_limit = staddr;
2232 #endif
2233                 info->client_info.stack_end = staddr + stsize;
2234         } else {
2235                 gsize stack_bottom = (gsize)stack_bottom_fallback;
2236                 stack_bottom += 4095;
2237                 stack_bottom &= ~4095;
2238                 info->client_info.stack_end = (char*)stack_bottom;
2239         }
2240
2241         memset (&info->client_info.ctx, 0, sizeof (MonoContext));
2242
2243         if (mono_gc_get_gc_callbacks ()->thread_attach_func)
2244                 info->client_info.runtime_data = mono_gc_get_gc_callbacks ()->thread_attach_func ();
2245
2246         binary_protocol_thread_register ((gpointer)mono_thread_info_get_tid (info));
2247
2248         SGEN_LOG (3, "registered thread %p (%p) stack end %p", info, (gpointer)mono_thread_info_get_tid (info), info->client_info.stack_end);
2249
2250         info->client_info.info.handle_stack = mono_handle_stack_alloc ();
2251 }
2252
2253 void
2254 sgen_client_thread_unregister (SgenThreadInfo *p)
2255 {
2256         MonoNativeThreadId tid;
2257
2258 #ifndef HAVE_KW_THREAD
2259         mono_native_tls_set_value (thread_info_key, NULL);
2260 #else
2261         sgen_thread_info = NULL;
2262 #endif
2263
2264         tid = mono_thread_info_get_tid (p);
2265
2266         if (p->client_info.info.runtime_thread)
2267                 mono_threads_add_joinable_thread ((gpointer)tid);
2268
2269         if (mono_gc_get_gc_callbacks ()->thread_detach_func) {
2270                 mono_gc_get_gc_callbacks ()->thread_detach_func (p->client_info.runtime_data);
2271                 p->client_info.runtime_data = NULL;
2272         }
2273
2274         binary_protocol_thread_unregister ((gpointer)tid);
2275         SGEN_LOG (3, "unregister thread %p (%p)", p, (gpointer)tid);
2276
2277         HandleStack *handles = (HandleStack*) p->client_info.info.handle_stack;
2278         p->client_info.info.handle_stack = NULL;
2279         mono_handle_stack_free (handles);
2280 }
2281
2282 void
2283 mono_gc_set_skip_thread (gboolean skip)
2284 {
2285         SgenThreadInfo *info = mono_thread_info_current ();
2286
2287         LOCK_GC;
2288         info->client_info.gc_disabled = skip;
2289         UNLOCK_GC;
2290 }
2291
2292 static gboolean
2293 is_critical_method (MonoMethod *method)
2294 {
2295         return mono_runtime_is_critical_method (method) || sgen_is_critical_method (method);
2296 }
2297
2298 static gboolean
2299 thread_in_critical_region (SgenThreadInfo *info)
2300 {
2301         return info->client_info.in_critical_region;
2302 }
2303
2304 static void
2305 sgen_thread_attach (SgenThreadInfo *info)
2306 {
2307         if (mono_gc_get_gc_callbacks ()->thread_attach_func && !info->client_info.runtime_data)
2308                 info->client_info.runtime_data = mono_gc_get_gc_callbacks ()->thread_attach_func ();
2309 }
2310
2311 static void
2312 sgen_thread_detach (SgenThreadInfo *p)
2313 {
2314         /* If a delegate is passed to native code and invoked on a thread we dont
2315          * know about, marshal will register it with mono_threads_attach_coop, but
2316          * we have no way of knowing when that thread goes away.  SGen has a TSD
2317          * so we assume that if the domain is still registered, we can detach
2318          * the thread
2319          */
2320         if (mono_domain_get ())
2321                 mono_thread_detach_internal (mono_thread_internal_current ());
2322 }
2323
2324 gboolean
2325 mono_gc_register_thread (void *baseptr)
2326 {
2327         return mono_thread_info_attach (baseptr) != NULL;
2328 }
2329
2330 gboolean
2331 mono_gc_is_gc_thread (void)
2332 {
2333         gboolean result;
2334         LOCK_GC;
2335         result = mono_thread_info_current () != NULL;
2336         UNLOCK_GC;
2337         return result;
2338 }
2339
2340 void
2341 sgen_client_thread_register_worker (void)
2342 {
2343         mono_thread_info_register_small_id ();
2344         mono_native_thread_set_name (mono_native_thread_id_get (), "SGen worker");
2345 }
2346
2347 /* Variables holding start/end nursery so it won't have to be passed at every call */
2348 static void *scan_area_arg_start, *scan_area_arg_end;
2349
2350 void
2351 mono_gc_conservatively_scan_area (void *start, void *end)
2352 {
2353         sgen_conservatively_pin_objects_from ((void **)start, (void **)end, scan_area_arg_start, scan_area_arg_end, PIN_TYPE_STACK);
2354 }
2355
2356 void*
2357 mono_gc_scan_object (void *obj, void *gc_data)
2358 {
2359         ScanCopyContext *ctx = (ScanCopyContext *)gc_data;
2360         ctx->ops->copy_or_mark_object ((GCObject**)&obj, ctx->queue);
2361         return obj;
2362 }
2363
2364 /*
2365  * Mark from thread stacks and registers.
2366  */
2367 void
2368 sgen_client_scan_thread_data (void *start_nursery, void *end_nursery, gboolean precise, ScanCopyContext ctx)
2369 {
2370         scan_area_arg_start = start_nursery;
2371         scan_area_arg_end = end_nursery;
2372
2373         FOREACH_THREAD (info) {
2374                 int skip_reason = 0;
2375                 void *aligned_stack_start;
2376
2377                 if (info->client_info.skip) {
2378                         SGEN_LOG (3, "Skipping dead thread %p, range: %p-%p, size: %zd", info, info->client_info.stack_start, info->client_info.stack_end, (char*)info->client_info.stack_end - (char*)info->client_info.stack_start);
2379                         skip_reason = 1;
2380                 } else if (info->client_info.gc_disabled) {
2381                         SGEN_LOG (3, "GC disabled for thread %p, range: %p-%p, size: %zd", info, info->client_info.stack_start, info->client_info.stack_end, (char*)info->client_info.stack_end - (char*)info->client_info.stack_start);
2382                         skip_reason = 2;
2383                 } else if (!mono_thread_info_is_live (info)) {
2384                         SGEN_LOG (3, "Skipping non-running thread %p, range: %p-%p, size: %zd (state %x)", info, info->client_info.stack_start, info->client_info.stack_end, (char*)info->client_info.stack_end - (char*)info->client_info.stack_start, info->client_info.info.thread_state);
2385                         skip_reason = 3;
2386                 } else if (!info->client_info.stack_start) {
2387                         SGEN_LOG (3, "Skipping starting or detaching thread %p", info);
2388                         skip_reason = 4;
2389                 }
2390
2391                 binary_protocol_scan_stack ((gpointer)mono_thread_info_get_tid (info), info->client_info.stack_start, info->client_info.stack_end, skip_reason);
2392
2393                 if (skip_reason)
2394                         continue;
2395
2396                 g_assert (info->client_info.stack_start);
2397                 g_assert (info->client_info.stack_end);
2398
2399                 aligned_stack_start = (void*)(mword) ALIGN_TO ((mword)info->client_info.stack_start, SIZEOF_VOID_P);
2400
2401                 g_assert (info->client_info.suspend_done);
2402                 SGEN_LOG (3, "Scanning thread %p, range: %p-%p, size: %zd, pinned=%zd", info, info->client_info.stack_start, info->client_info.stack_end, (char*)info->client_info.stack_end - (char*)info->client_info.stack_start, sgen_get_pinned_count ());
2403                 if (mono_gc_get_gc_callbacks ()->thread_mark_func && !conservative_stack_mark) {
2404                         mono_gc_get_gc_callbacks ()->thread_mark_func (info->client_info.runtime_data, (guint8 *)aligned_stack_start, (guint8 *)info->client_info.stack_end, precise, &ctx);
2405                 } else if (!precise) {
2406                         if (!conservative_stack_mark) {
2407                                 fprintf (stderr, "Precise stack mark not supported - disabling.\n");
2408                                 conservative_stack_mark = TRUE;
2409                         }
2410                         //FIXME we should eventually use the new stack_mark from coop
2411                         sgen_conservatively_pin_objects_from ((void **)aligned_stack_start, (void **)info->client_info.stack_end, start_nursery, end_nursery, PIN_TYPE_STACK);
2412                 }
2413
2414                 if (!precise) {
2415                         sgen_conservatively_pin_objects_from ((void**)&info->client_info.ctx, (void**)(&info->client_info.ctx + 1),
2416                                 start_nursery, end_nursery, PIN_TYPE_STACK);
2417
2418                         {
2419                                 // This is used on Coop GC for platforms where we cannot get the data for individual registers.
2420                                 // We force a spill of all registers into the stack and pass a chunk of data into sgen.
2421                                 //FIXME under coop, for now, what we need to ensure is that we scan any extra memory from info->client_info.stack_end to stack_mark
2422                                 MonoThreadUnwindState *state = &info->client_info.info.thread_saved_state [SELF_SUSPEND_STATE_INDEX];
2423                                 if (state && state->gc_stackdata) {
2424                                         sgen_conservatively_pin_objects_from ((void **)state->gc_stackdata, (void**)((char*)state->gc_stackdata + state->gc_stackdata_size),
2425                                                 start_nursery, end_nursery, PIN_TYPE_STACK);
2426                                 }
2427                         }
2428                 }
2429                 if (precise && info->client_info.info.handle_stack) {
2430                         mono_handle_stack_scan ((HandleStack*)info->client_info.info.handle_stack, (GcScanFunc)ctx.ops->copy_or_mark_object, ctx.queue);
2431                 }
2432         } FOREACH_THREAD_END
2433 }
2434
2435 /*
2436  * mono_gc_set_stack_end:
2437  *
2438  *   Set the end of the current threads stack to STACK_END. The stack space between 
2439  * STACK_END and the real end of the threads stack will not be scanned during collections.
2440  */
2441 void
2442 mono_gc_set_stack_end (void *stack_end)
2443 {
2444         SgenThreadInfo *info;
2445
2446         LOCK_GC;
2447         info = mono_thread_info_current ();
2448         if (info) {
2449                 SGEN_ASSERT (0, stack_end < info->client_info.stack_end, "Can only lower stack end");
2450                 info->client_info.stack_end = stack_end;
2451         }
2452         UNLOCK_GC;
2453 }
2454
2455 /*
2456  * Roots
2457  */
2458
2459 int
2460 mono_gc_register_root (char *start, size_t size, MonoGCDescriptor descr, MonoGCRootSource source, const char *msg)
2461 {
2462         return sgen_register_root (start, size, descr, descr ? ROOT_TYPE_NORMAL : ROOT_TYPE_PINNED, source, msg);
2463 }
2464
2465 int
2466 mono_gc_register_root_wbarrier (char *start, size_t size, MonoGCDescriptor descr, MonoGCRootSource source, const char *msg)
2467 {
2468         return sgen_register_root (start, size, descr, ROOT_TYPE_WBARRIER, source, msg);
2469 }
2470
2471 void
2472 mono_gc_deregister_root (char* addr)
2473 {
2474         sgen_deregister_root (addr);
2475 }
2476
2477 /*
2478  * PThreads
2479  */
2480
2481 #ifndef HOST_WIN32
2482 int
2483 mono_gc_pthread_create (pthread_t *new_thread, const pthread_attr_t *attr, void *(*start_routine)(void *), void *arg)
2484 {
2485         return pthread_create (new_thread, attr, start_routine, arg);
2486 }
2487 #endif
2488
2489 /*
2490  * Miscellaneous
2491  */
2492
2493 void
2494 sgen_client_total_allocated_heap_changed (size_t allocated_heap)
2495 {
2496         mono_runtime_resource_check_limit (MONO_RESOURCE_GC_HEAP, allocated_heap);
2497 }
2498
2499 gboolean
2500 mono_gc_user_markers_supported (void)
2501 {
2502         return TRUE;
2503 }
2504
2505 gboolean
2506 mono_object_is_alive (MonoObject* o)
2507 {
2508         return TRUE;
2509 }
2510
2511 int
2512 mono_gc_get_generation (MonoObject *obj)
2513 {
2514         if (sgen_ptr_in_nursery (obj))
2515                 return 0;
2516         return 1;
2517 }
2518
2519 void
2520 mono_gc_enable_events (void)
2521 {
2522 }
2523
2524 const char *
2525 mono_gc_get_gc_name (void)
2526 {
2527         return "sgen";
2528 }
2529
2530 char*
2531 mono_gc_get_description (void)
2532 {
2533 #ifdef HAVE_CONC_GC_AS_DEFAULT
2534         return g_strdup ("sgen (concurrent by default)");
2535 #else
2536         return g_strdup ("sgen");
2537 #endif
2538 }
2539
2540 void
2541 mono_gc_set_desktop_mode (void)
2542 {
2543 }
2544
2545 gboolean
2546 mono_gc_is_moving (void)
2547 {
2548         return TRUE;
2549 }
2550
2551 gboolean
2552 mono_gc_is_disabled (void)
2553 {
2554         return FALSE;
2555 }
2556
2557 #ifdef HOST_WIN32
2558 BOOL APIENTRY mono_gc_dllmain (HMODULE module_handle, DWORD reason, LPVOID reserved)
2559 {
2560         return TRUE;
2561 }
2562 #endif
2563
2564 int
2565 mono_gc_max_generation (void)
2566 {
2567         return 1;
2568 }
2569
2570 gboolean
2571 mono_gc_precise_stack_mark_enabled (void)
2572 {
2573         return !conservative_stack_mark;
2574 }
2575
2576 void
2577 mono_gc_collect (int generation)
2578 {
2579         sgen_gc_collect (generation);
2580 }
2581
2582 int
2583 mono_gc_collection_count (int generation)
2584 {
2585         return sgen_gc_collection_count (generation);
2586 }
2587
2588 int64_t
2589 mono_gc_get_used_size (void)
2590 {
2591         return (int64_t)sgen_gc_get_used_size ();
2592 }
2593
2594 int64_t
2595 mono_gc_get_heap_size (void)
2596 {
2597         return (int64_t)sgen_gc_get_total_heap_allocation ();
2598 }
2599
2600 MonoGCDescriptor
2601 mono_gc_make_root_descr_user (MonoGCRootMarkFunc marker)
2602 {
2603         return sgen_make_user_root_descriptor (marker);
2604 }
2605
2606 MonoGCDescriptor
2607 mono_gc_make_descr_for_string (gsize *bitmap, int numbits)
2608 {
2609         return SGEN_DESC_STRING;
2610 }
2611
2612 void*
2613 mono_gc_get_nursery (int *shift_bits, size_t *size)
2614 {
2615         *size = sgen_nursery_size;
2616         *shift_bits = DEFAULT_NURSERY_BITS;
2617         return sgen_get_nursery_start ();
2618 }
2619
2620 int
2621 mono_gc_get_los_limit (void)
2622 {
2623         return SGEN_MAX_SMALL_OBJ_SIZE;
2624 }
2625
2626 gpointer
2627 sgen_client_default_metadata (void)
2628 {
2629         return mono_domain_get ();
2630 }
2631
2632 gpointer
2633 sgen_client_metadata_for_object (GCObject *obj)
2634 {
2635         return mono_object_domain (obj);
2636 }
2637
2638 /**
2639  * mono_gchandle_is_in_domain:
2640  * @gchandle: a GCHandle's handle.
2641  * @domain: An application domain.
2642  *
2643  * Returns: TRUE if the object wrapped by the @gchandle belongs to the specific @domain.
2644  */
2645 gboolean
2646 mono_gchandle_is_in_domain (guint32 gchandle, MonoDomain *domain)
2647 {
2648         MonoDomain *gchandle_domain = (MonoDomain *)sgen_gchandle_get_metadata (gchandle);
2649         return domain->domain_id == gchandle_domain->domain_id;
2650 }
2651
2652 /**
2653  * mono_gchandle_free_domain:
2654  * @unloading: domain that is unloading
2655  *
2656  * Function used internally to cleanup any GC handle for objects belonging
2657  * to the specified domain during appdomain unload.
2658  */
2659 void
2660 mono_gchandle_free_domain (MonoDomain *unloading)
2661 {
2662 }
2663
2664 static gpointer
2665 null_link_if_in_domain (gpointer hidden, GCHandleType handle_type, int max_generation, gpointer user)
2666 {
2667         MonoDomain *unloading_domain = (MonoDomain *)user;
2668         MonoDomain *obj_domain;
2669         gboolean is_weak = MONO_GC_HANDLE_TYPE_IS_WEAK (handle_type);
2670         if (MONO_GC_HANDLE_IS_OBJECT_POINTER (hidden)) {
2671                 MonoObject *obj = (MonoObject *)MONO_GC_REVEAL_POINTER (hidden, is_weak);
2672                 obj_domain = mono_object_domain (obj);
2673         } else {
2674                 obj_domain = (MonoDomain *)MONO_GC_REVEAL_POINTER (hidden, is_weak);
2675         }
2676         if (unloading_domain->domain_id == obj_domain->domain_id)
2677                 return NULL;
2678         return hidden;
2679 }
2680
2681 void
2682 sgen_null_links_for_domain (MonoDomain *domain)
2683 {
2684         guint type;
2685         for (type = HANDLE_TYPE_MIN; type < HANDLE_TYPE_MAX; ++type)
2686                 sgen_gchandle_iterate ((GCHandleType)type, GENERATION_OLD, null_link_if_in_domain, domain);
2687 }
2688
2689 void
2690 mono_gchandle_set_target (guint32 gchandle, MonoObject *obj)
2691 {
2692         sgen_gchandle_set_target (gchandle, obj);
2693 }
2694
2695 void
2696 sgen_client_gchandle_created (int handle_type, GCObject *obj, guint32 handle)
2697 {
2698 #ifndef DISABLE_PERFCOUNTERS
2699         mono_perfcounters->gc_num_handles++;
2700 #endif
2701         mono_profiler_gc_handle (MONO_PROFILER_GC_HANDLE_CREATED, handle_type, handle, obj);
2702 }
2703
2704 void
2705 sgen_client_gchandle_destroyed (int handle_type, guint32 handle)
2706 {
2707 #ifndef DISABLE_PERFCOUNTERS
2708         mono_perfcounters->gc_num_handles--;
2709 #endif
2710         mono_profiler_gc_handle (MONO_PROFILER_GC_HANDLE_DESTROYED, handle_type, handle, NULL);
2711 }
2712
2713 void
2714 sgen_client_ensure_weak_gchandles_accessible (void)
2715 {
2716         /*
2717          * During the second bridge processing step the world is
2718          * running again.  That step processes all weak links once
2719          * more to null those that refer to dead objects.  Before that
2720          * is completed, those links must not be followed, so we
2721          * conservatively wait for bridge processing when any weak
2722          * link is dereferenced.
2723          */
2724         /* FIXME: A GC can occur after this check fails, in which case we
2725          * should wait for bridge processing but would fail to do so.
2726          */
2727         if (G_UNLIKELY (bridge_processing_in_progress))
2728                 mono_gc_wait_for_bridge_processing ();
2729 }
2730
2731 void*
2732 mono_gc_invoke_with_gc_lock (MonoGCLockedCallbackFunc func, void *data)
2733 {
2734         void *result;
2735         LOCK_INTERRUPTION;
2736         result = func (data);
2737         UNLOCK_INTERRUPTION;
2738         return result;
2739 }
2740
2741 void
2742 mono_gc_register_altstack (gpointer stack, gint32 stack_size, gpointer altstack, gint32 altstack_size)
2743 {
2744         // FIXME:
2745 }
2746
2747 guint8*
2748 mono_gc_get_card_table (int *shift_bits, gpointer *mask)
2749 {
2750         return sgen_get_card_table_configuration (shift_bits, mask);
2751 }
2752
2753 gboolean
2754 mono_gc_card_table_nursery_check (void)
2755 {
2756         return !sgen_get_major_collector ()->is_concurrent;
2757 }
2758
2759 /* Negative value to remove */
2760 void
2761 mono_gc_add_memory_pressure (gint64 value)
2762 {
2763         /* FIXME: Implement at some point? */
2764 }
2765
2766 /*
2767  * Logging
2768  */
2769
2770 void
2771 sgen_client_degraded_allocation (size_t size)
2772 {
2773         static int last_major_gc_warned = -1;
2774         static int num_degraded = 0;
2775
2776         if (last_major_gc_warned < (int)gc_stats.major_gc_count) {
2777                 ++num_degraded;
2778                 if (num_degraded == 1 || num_degraded == 3)
2779                         mono_trace (G_LOG_LEVEL_INFO, MONO_TRACE_GC, "Warning: Degraded allocation.  Consider increasing nursery-size if the warning persists.");
2780                 else if (num_degraded == 10)
2781                         mono_trace (G_LOG_LEVEL_INFO, MONO_TRACE_GC, "Warning: Repeated degraded allocation.  Consider increasing nursery-size.");
2782                 last_major_gc_warned = gc_stats.major_gc_count;
2783         }
2784 }
2785
2786 /*
2787  * Debugging
2788  */
2789
2790 const char*
2791 sgen_client_description_for_internal_mem_type (int type)
2792 {
2793         switch (type) {
2794         case INTERNAL_MEM_EPHEMERON_LINK: return "ephemeron-link";
2795         default:
2796                 return NULL;
2797         }
2798 }
2799
2800 void
2801 sgen_client_pre_collection_checks (void)
2802 {
2803         if (sgen_mono_xdomain_checks) {
2804                 sgen_clear_nursery_fragments ();
2805                 sgen_check_for_xdomain_refs ();
2806         }
2807 }
2808
2809 gboolean
2810 sgen_client_vtable_is_inited (MonoVTable *vt)
2811 {
2812         return vt->klass->inited;
2813 }
2814
2815 const char*
2816 sgen_client_vtable_get_namespace (MonoVTable *vt)
2817 {
2818         return vt->klass->name_space;
2819 }
2820
2821 const char*
2822 sgen_client_vtable_get_name (MonoVTable *vt)
2823 {
2824         return vt->klass->name;
2825 }
2826
2827 /*
2828  * Initialization
2829  */
2830
2831 void
2832 sgen_client_init (void)
2833 {
2834         int dummy;
2835         MonoThreadInfoCallbacks cb;
2836
2837         cb.thread_register = sgen_thread_register;
2838         cb.thread_detach = sgen_thread_detach;
2839         cb.thread_unregister = sgen_thread_unregister;
2840         cb.thread_attach = sgen_thread_attach;
2841         cb.mono_method_is_critical = (gboolean (*)(void *))is_critical_method;
2842         cb.mono_thread_in_critical_region = thread_in_critical_region;
2843
2844         mono_threads_init (&cb, sizeof (SgenThreadInfo));
2845
2846         ///* Keep this the default for now */
2847         /* Precise marking is broken on all supported targets. Disable until fixed. */
2848         conservative_stack_mark = TRUE;
2849
2850         sgen_register_fixed_internal_mem_type (INTERNAL_MEM_EPHEMERON_LINK, sizeof (EphemeronLinkNode));
2851
2852         mono_sgen_init_stw ();
2853
2854 #ifndef HAVE_KW_THREAD
2855         mono_native_tls_alloc (&thread_info_key, NULL);
2856 #if defined(TARGET_OSX) || defined(TARGET_WIN32) || defined(TARGET_ANDROID) || defined(TARGET_IOS)
2857         /* 
2858          * CEE_MONO_TLS requires the tls offset, not the key, so the code below only works on darwin,
2859          * where the two are the same.
2860          */
2861         mono_tls_key_set_offset (TLS_KEY_SGEN_THREAD_INFO, thread_info_key);
2862 #endif
2863 #else
2864         {
2865                 int tls_offset = -1;
2866                 MONO_THREAD_VAR_OFFSET (sgen_thread_info, tls_offset);
2867                 mono_tls_key_set_offset (TLS_KEY_SGEN_THREAD_INFO, tls_offset);
2868         }
2869 #endif
2870
2871         /*
2872          * This needs to happen before any internal allocations because
2873          * it inits the small id which is required for hazard pointer
2874          * operations.
2875          */
2876         sgen_os_init ();
2877
2878         mono_gc_register_thread (&dummy);
2879 }
2880
2881 gboolean
2882 sgen_client_handle_gc_param (const char *opt)
2883 {
2884         if (g_str_has_prefix (opt, "stack-mark=")) {
2885                 opt = strchr (opt, '=') + 1;
2886                 if (!strcmp (opt, "precise")) {
2887                         conservative_stack_mark = FALSE;
2888                 } else if (!strcmp (opt, "conservative")) {
2889                         conservative_stack_mark = TRUE;
2890                 } else {
2891                         sgen_env_var_error (MONO_GC_PARAMS_NAME, conservative_stack_mark ? "Using `conservative`." : "Using `precise`.",
2892                                         "Invalid value `%s` for `stack-mark` option, possible values are: `precise`, `conservative`.", opt);
2893                 }
2894         } else if (g_str_has_prefix (opt, "bridge-implementation=")) {
2895                 opt = strchr (opt, '=') + 1;
2896                 sgen_set_bridge_implementation (opt);
2897         } else if (g_str_has_prefix (opt, "toggleref-test")) {
2898                 /* FIXME: This should probably in MONO_GC_DEBUG */
2899                 sgen_register_test_toggleref_callback ();
2900         } else {
2901                 return FALSE;
2902         }
2903         return TRUE;
2904 }
2905
2906 void
2907 sgen_client_print_gc_params_usage (void)
2908 {
2909         fprintf (stderr, "  stack-mark=MARK-METHOD (where MARK-METHOD is 'precise' or 'conservative')\n");
2910 }
2911
2912 gboolean
2913 sgen_client_handle_gc_debug (const char *opt)
2914 {
2915         if (!strcmp (opt, "xdomain-checks")) {
2916                 sgen_mono_xdomain_checks = TRUE;
2917         } else if (!strcmp (opt, "do-not-finalize")) {
2918                 mono_do_not_finalize = TRUE;
2919         } else if (g_str_has_prefix (opt, "do-not-finalize=")) {
2920                 opt = strchr (opt, '=') + 1;
2921                 mono_do_not_finalize = TRUE;
2922                 mono_do_not_finalize_class_names = g_strsplit (opt, ",", 0);
2923         } else if (!strcmp (opt, "log-finalizers")) {
2924                 log_finalizers = TRUE;
2925         } else if (!strcmp (opt, "no-managed-allocator")) {
2926                 sgen_set_use_managed_allocator (FALSE);
2927         } else if (!sgen_bridge_handle_gc_debug (opt)) {
2928                 return FALSE;
2929         }
2930         return TRUE;
2931 }
2932
2933 void
2934 sgen_client_print_gc_debug_usage (void)
2935 {
2936         fprintf (stderr, "  xdomain-checks\n");
2937         fprintf (stderr, "  do-not-finalize\n");
2938         fprintf (stderr, "  log-finalizers\n");
2939         fprintf (stderr, "  no-managed-allocator\n");
2940         sgen_bridge_print_gc_debug_usage ();
2941 }
2942
2943
2944 gpointer
2945 sgen_client_get_provenance (void)
2946 {
2947 #ifdef SGEN_OBJECT_PROVENANCE
2948         MonoGCCallbacks *cb = mono_gc_get_gc_callbacks ();
2949         gpointer (*get_provenance_func) (void);
2950         if (!cb)
2951                 return NULL;
2952         get_provenance_func = cb->get_provenance_func;
2953         if (get_provenance_func)
2954                 return get_provenance_func ();
2955         return NULL;
2956 #else
2957         return NULL;
2958 #endif
2959 }
2960
2961 void
2962 sgen_client_describe_invalid_pointer (GCObject *ptr)
2963 {
2964         sgen_bridge_describe_pointer (ptr);
2965 }
2966
2967 static gboolean gc_inited;
2968
2969 void
2970 mono_gc_base_init (void)
2971 {
2972         if (gc_inited)
2973                 return;
2974
2975         mono_counters_init ();
2976
2977 #ifdef HEAVY_STATISTICS
2978         mono_counters_register ("los marked cards", MONO_COUNTER_GC | MONO_COUNTER_ULONG, &los_marked_cards);
2979         mono_counters_register ("los array cards scanned ", MONO_COUNTER_GC | MONO_COUNTER_ULONG, &los_array_cards);
2980         mono_counters_register ("los array remsets", MONO_COUNTER_GC | MONO_COUNTER_ULONG, &los_array_remsets);
2981
2982         mono_counters_register ("WBarrier set arrayref", MONO_COUNTER_GC | MONO_COUNTER_ULONG, &stat_wbarrier_set_arrayref);
2983         mono_counters_register ("WBarrier value copy", MONO_COUNTER_GC | MONO_COUNTER_ULONG, &stat_wbarrier_value_copy);
2984         mono_counters_register ("WBarrier object copy", MONO_COUNTER_GC | MONO_COUNTER_ULONG, &stat_wbarrier_object_copy);
2985 #endif
2986
2987         sgen_gc_init ();
2988
2989         if (nursery_canaries_enabled ())
2990                 sgen_set_use_managed_allocator (FALSE);
2991
2992 #if defined(HAVE_KW_THREAD)
2993         /* This can happen with using libmonosgen.so */
2994         if (mono_tls_key_get_offset (TLS_KEY_SGEN_TLAB_NEXT_ADDR) == -1)
2995                 sgen_set_use_managed_allocator (FALSE);
2996 #endif
2997
2998         gc_inited = TRUE;
2999 }
3000
3001 void
3002 mono_gc_base_cleanup (void)
3003 {
3004         sgen_thread_pool_shutdown ();
3005 }
3006
3007 gboolean
3008 mono_gc_is_null (void)
3009 {
3010         return FALSE;
3011 }
3012
3013 #endif