Merge pull request #4419 from BrzVlad/fix-oom-nre
[mono.git] / mono / metadata / sgen-mono.c
1 /*
2  * sgen-mono.c: SGen features specific to Mono.
3  *
4  * Copyright (C) 2014 Xamarin Inc
5  *
6  * Licensed under the MIT license. See LICENSE file in the project root for full license information.
7  */
8
9 #include "config.h"
10 #ifdef HAVE_SGEN_GC
11
12 #include "sgen/sgen-gc.h"
13 #include "sgen/sgen-protocol.h"
14 #include "metadata/monitor.h"
15 #include "sgen/sgen-layout-stats.h"
16 #include "sgen/sgen-client.h"
17 #include "sgen/sgen-cardtable.h"
18 #include "sgen/sgen-pinning.h"
19 #include "sgen/sgen-thread-pool.h"
20 #include "metadata/marshal.h"
21 #include "metadata/method-builder.h"
22 #include "metadata/abi-details.h"
23 #include "metadata/mono-gc.h"
24 #include "metadata/runtime.h"
25 #include "metadata/sgen-bridge-internals.h"
26 #include "metadata/gc-internals.h"
27 #include "metadata/handle.h"
28 #include "utils/mono-memory-model.h"
29 #include "utils/mono-logger-internals.h"
30 #include "utils/mono-threads-coop.h"
31 #include "utils/mono-threads.h"
32 #include "metadata/w32handle.h"
33
34 #ifdef HEAVY_STATISTICS
35 static guint64 stat_wbarrier_set_arrayref = 0;
36 static guint64 stat_wbarrier_value_copy = 0;
37 static guint64 stat_wbarrier_object_copy = 0;
38
39 static guint64 los_marked_cards;
40 static guint64 los_array_cards;
41 static guint64 los_array_remsets;
42 #endif
43
44 /* If set, mark stacks conservatively, even if precise marking is possible */
45 static gboolean conservative_stack_mark = FALSE;
46 /* If set, check that there are no references to the domain left at domain unload */
47 gboolean sgen_mono_xdomain_checks = FALSE;
48
49 /* Functions supplied by the runtime to be called by the GC */
50 static MonoGCCallbacks gc_callbacks;
51
52 #define ALIGN_TO(val,align) ((((guint64)val) + ((align) - 1)) & ~((align) - 1))
53
54 #define OPDEF(a,b,c,d,e,f,g,h,i,j) \
55         a = i,
56
57 enum {
58 #include "mono/cil/opcode.def"
59         CEE_LAST
60 };
61
62 #undef OPDEF
63
64 /*
65  * Write barriers
66  */
67
68 static gboolean
69 ptr_on_stack (void *ptr)
70 {
71         gpointer stack_start = &stack_start;
72         SgenThreadInfo *info = mono_thread_info_current ();
73
74         if (ptr >= stack_start && ptr < (gpointer)info->client_info.stack_end)
75                 return TRUE;
76         return FALSE;
77 }
78
79 #ifdef SGEN_HEAVY_BINARY_PROTOCOL
80 #undef HANDLE_PTR
81 #define HANDLE_PTR(ptr,obj) do {                                        \
82                 gpointer o = *(gpointer*)(ptr);                         \
83                 if ((o)) {                                              \
84                         gpointer d = ((char*)dest) + ((char*)(ptr) - (char*)(obj)); \
85                         binary_protocol_wbarrier (d, o, (gpointer) SGEN_LOAD_VTABLE (o)); \
86                 }                                                       \
87         } while (0)
88
89 static void
90 scan_object_for_binary_protocol_copy_wbarrier (gpointer dest, char *start, mword desc)
91 {
92 #define SCAN_OBJECT_NOVTABLE
93 #include "sgen/sgen-scan-object.h"
94 }
95 #endif
96
97 void
98 mono_gc_wbarrier_value_copy (gpointer dest, gpointer src, int count, MonoClass *klass)
99 {
100         HEAVY_STAT (++stat_wbarrier_value_copy);
101         g_assert (klass->valuetype);
102
103         SGEN_LOG (8, "Adding value remset at %p, count %d, descr %p for class %s (%p)", dest, count, (gpointer)klass->gc_descr, klass->name, klass);
104
105         if (sgen_ptr_in_nursery (dest) || ptr_on_stack (dest) || !sgen_gc_descr_has_references ((mword)klass->gc_descr)) {
106                 size_t element_size = mono_class_value_size (klass, NULL);
107                 size_t size = count * element_size;
108                 mono_gc_memmove_atomic (dest, src, size);               
109                 return;
110         }
111
112 #ifdef SGEN_HEAVY_BINARY_PROTOCOL
113         if (binary_protocol_is_heavy_enabled ()) {
114                 size_t element_size = mono_class_value_size (klass, NULL);
115                 int i;
116                 for (i = 0; i < count; ++i) {
117                         scan_object_for_binary_protocol_copy_wbarrier ((char*)dest + i * element_size,
118                                         (char*)src + i * element_size - sizeof (MonoObject),
119                                         (mword) klass->gc_descr);
120                 }
121         }
122 #endif
123
124         sgen_get_remset ()->wbarrier_value_copy (dest, src, count, mono_class_value_size (klass, NULL));
125 }
126
127 /**
128  * mono_gc_wbarrier_object_copy:
129  *
130  * Write barrier to call when obj is the result of a clone or copy of an object.
131  */
132 void
133 mono_gc_wbarrier_object_copy (MonoObject* obj, MonoObject *src)
134 {
135         int size;
136
137         HEAVY_STAT (++stat_wbarrier_object_copy);
138
139         SGEN_ASSERT (6, !ptr_on_stack (obj), "Why is this called for a non-reference type?");
140         if (sgen_ptr_in_nursery (obj) || !SGEN_OBJECT_HAS_REFERENCES (src)) {
141                 size = mono_object_class (obj)->instance_size;
142                 mono_gc_memmove_aligned ((char*)obj + sizeof (MonoObject), (char*)src + sizeof (MonoObject),
143                                 size - sizeof (MonoObject));
144                 return; 
145         }
146
147 #ifdef SGEN_HEAVY_BINARY_PROTOCOL
148         if (binary_protocol_is_heavy_enabled ())
149                 scan_object_for_binary_protocol_copy_wbarrier (obj, (char*)src, (mword) src->vtable->gc_descr);
150 #endif
151
152         sgen_get_remset ()->wbarrier_object_copy (obj, src);
153 }
154
155 void
156 mono_gc_wbarrier_set_arrayref (MonoArray *arr, gpointer slot_ptr, MonoObject* value)
157 {
158         HEAVY_STAT (++stat_wbarrier_set_arrayref);
159         if (sgen_ptr_in_nursery (slot_ptr)) {
160                 *(void**)slot_ptr = value;
161                 return;
162         }
163         SGEN_LOG (8, "Adding remset at %p", slot_ptr);
164         if (value)
165                 binary_protocol_wbarrier (slot_ptr, value, value->vtable);
166
167         sgen_get_remset ()->wbarrier_set_field ((GCObject*)arr, slot_ptr, value);
168 }
169
170 void
171 mono_gc_wbarrier_set_field (MonoObject *obj, gpointer field_ptr, MonoObject* value)
172 {
173         mono_gc_wbarrier_set_arrayref ((MonoArray*)obj, field_ptr, value);
174 }
175
176 void
177 mono_gc_wbarrier_value_copy_bitmap (gpointer _dest, gpointer _src, int size, unsigned bitmap)
178 {
179         sgen_wbarrier_value_copy_bitmap (_dest, _src, size, bitmap);
180 }
181
182 int
183 mono_gc_get_suspend_signal (void)
184 {
185         return mono_threads_suspend_get_suspend_signal ();
186 }
187
188 int
189 mono_gc_get_restart_signal (void)
190 {
191         return mono_threads_suspend_get_restart_signal ();
192 }
193
194 static MonoMethod *write_barrier_conc_method;
195 static MonoMethod *write_barrier_noconc_method;
196
197 gboolean
198 sgen_is_critical_method (MonoMethod *method)
199 {
200         return sgen_is_managed_allocator (method);
201 }
202
203 gboolean
204 sgen_has_critical_method (void)
205 {
206         return sgen_has_managed_allocator ();
207 }
208
209 static gboolean
210 ip_in_critical_region (MonoDomain *domain, gpointer ip)
211 {
212         MonoJitInfo *ji;
213         MonoMethod *method;
214
215         /*
216          * We pass false for 'try_aot' so this becomes async safe.
217          * It won't find aot methods whose jit info is not yet loaded,
218          * so we preload their jit info in the JIT.
219          */
220         ji = mono_jit_info_table_find_internal (domain, ip, FALSE, FALSE);
221         if (!ji)
222                 return FALSE;
223
224         method = mono_jit_info_get_method (ji);
225
226         return mono_runtime_is_critical_method (method) || sgen_is_critical_method (method);
227 }
228
229 gboolean
230 mono_gc_is_critical_method (MonoMethod *method)
231 {
232         return sgen_is_critical_method (method);
233 }
234
235 #ifndef DISABLE_JIT
236
237 static void
238 emit_nursery_check (MonoMethodBuilder *mb, int *nursery_check_return_labels, gboolean is_concurrent)
239 {
240         int shifted_nursery_start = mono_mb_add_local (mb, &mono_defaults.int_class->byval_arg);
241
242         memset (nursery_check_return_labels, 0, sizeof (int) * 2);
243         // if (ptr_in_nursery (ptr)) return;
244         /*
245          * Masking out the bits might be faster, but we would have to use 64 bit
246          * immediates, which might be slower.
247          */
248         mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
249         mono_mb_emit_byte (mb, CEE_MONO_LDPTR_NURSERY_START);
250         mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
251         mono_mb_emit_byte (mb, CEE_MONO_LDPTR_NURSERY_BITS);
252         mono_mb_emit_byte (mb, CEE_SHR_UN);
253         mono_mb_emit_stloc (mb, shifted_nursery_start);
254
255         mono_mb_emit_ldarg (mb, 0);
256         mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
257         mono_mb_emit_byte (mb, CEE_MONO_LDPTR_NURSERY_BITS);
258         mono_mb_emit_byte (mb, CEE_SHR_UN);
259         mono_mb_emit_ldloc (mb, shifted_nursery_start);
260         nursery_check_return_labels [0] = mono_mb_emit_branch (mb, CEE_BEQ);
261
262         if (!is_concurrent) {
263                 // if (!ptr_in_nursery (*ptr)) return;
264                 mono_mb_emit_ldarg (mb, 0);
265                 mono_mb_emit_byte (mb, CEE_LDIND_I);
266                 mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
267                 mono_mb_emit_byte (mb, CEE_MONO_LDPTR_NURSERY_BITS);
268                 mono_mb_emit_byte (mb, CEE_SHR_UN);
269                 mono_mb_emit_ldloc (mb, shifted_nursery_start);
270                 nursery_check_return_labels [1] = mono_mb_emit_branch (mb, CEE_BNE_UN);
271         }
272 }
273 #endif
274
275 MonoMethod*
276 mono_gc_get_specific_write_barrier (gboolean is_concurrent)
277 {
278         MonoMethod *res;
279         MonoMethodBuilder *mb;
280         MonoMethodSignature *sig;
281         MonoMethod **write_barrier_method_addr;
282         WrapperInfo *info;
283 #ifdef MANAGED_WBARRIER
284         int i, nursery_check_labels [2];
285 #endif
286
287         // FIXME: Maybe create a separate version for ctors (the branch would be
288         // correctly predicted more times)
289         if (is_concurrent)
290                 write_barrier_method_addr = &write_barrier_conc_method;
291         else
292                 write_barrier_method_addr = &write_barrier_noconc_method;
293
294         if (*write_barrier_method_addr)
295                 return *write_barrier_method_addr;
296
297         /* Create the IL version of mono_gc_barrier_generic_store () */
298         sig = mono_metadata_signature_alloc (mono_defaults.corlib, 1);
299         sig->ret = &mono_defaults.void_class->byval_arg;
300         sig->params [0] = &mono_defaults.int_class->byval_arg;
301
302         if (is_concurrent)
303                 mb = mono_mb_new (mono_defaults.object_class, "wbarrier_conc", MONO_WRAPPER_WRITE_BARRIER);
304         else
305                 mb = mono_mb_new (mono_defaults.object_class, "wbarrier_noconc", MONO_WRAPPER_WRITE_BARRIER);
306
307 #ifndef DISABLE_JIT
308 #ifdef MANAGED_WBARRIER
309         emit_nursery_check (mb, nursery_check_labels, is_concurrent);
310         /*
311         addr = sgen_cardtable + ((address >> CARD_BITS) & CARD_MASK)
312         *addr = 1;
313
314         sgen_cardtable:
315                 LDC_PTR sgen_cardtable
316
317         address >> CARD_BITS
318                 LDARG_0
319                 LDC_I4 CARD_BITS
320                 SHR_UN
321         if (SGEN_HAVE_OVERLAPPING_CARDS) {
322                 LDC_PTR card_table_mask
323                 AND
324         }
325         AND
326         ldc_i4_1
327         stind_i1
328         */
329         mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
330         mono_mb_emit_byte (mb, CEE_MONO_LDPTR_CARD_TABLE);
331         mono_mb_emit_ldarg (mb, 0);
332         mono_mb_emit_icon (mb, CARD_BITS);
333         mono_mb_emit_byte (mb, CEE_SHR_UN);
334         mono_mb_emit_byte (mb, CEE_CONV_I);
335 #ifdef SGEN_HAVE_OVERLAPPING_CARDS
336 #if SIZEOF_VOID_P == 8
337         mono_mb_emit_icon8 (mb, CARD_MASK);
338 #else
339         mono_mb_emit_icon (mb, CARD_MASK);
340 #endif
341         mono_mb_emit_byte (mb, CEE_CONV_I);
342         mono_mb_emit_byte (mb, CEE_AND);
343 #endif
344         mono_mb_emit_byte (mb, CEE_ADD);
345         mono_mb_emit_icon (mb, 1);
346         mono_mb_emit_byte (mb, CEE_STIND_I1);
347
348         // return;
349         for (i = 0; i < 2; ++i) {
350                 if (nursery_check_labels [i])
351                         mono_mb_patch_branch (mb, nursery_check_labels [i]);
352         }
353         mono_mb_emit_byte (mb, CEE_RET);
354 #else
355         mono_mb_emit_ldarg (mb, 0);
356         mono_mb_emit_icall (mb, mono_gc_wbarrier_generic_nostore);
357         mono_mb_emit_byte (mb, CEE_RET);
358 #endif
359 #endif
360         res = mono_mb_create_method (mb, sig, 16);
361         info = mono_wrapper_info_create (mb, WRAPPER_SUBTYPE_NONE);
362         mono_marshal_set_wrapper_info (res, info);
363         mono_mb_free (mb);
364
365         LOCK_GC;
366         if (*write_barrier_method_addr) {
367                 /* Already created */
368                 mono_free_method (res);
369         } else {
370                 /* double-checked locking */
371                 mono_memory_barrier ();
372                 *write_barrier_method_addr = res;
373         }
374         UNLOCK_GC;
375
376         return *write_barrier_method_addr;
377 }
378
379 MonoMethod*
380 mono_gc_get_write_barrier (void)
381 {
382         return mono_gc_get_specific_write_barrier (major_collector.is_concurrent);
383 }
384
385 /*
386  * Dummy filler objects
387  */
388
389 /* Vtable of the objects used to fill out nursery fragments before a collection */
390 static GCVTable array_fill_vtable;
391
392 static GCVTable
393 get_array_fill_vtable (void)
394 {
395         if (!array_fill_vtable) {
396                 static MonoClass klass;
397                 static char _vtable[sizeof(MonoVTable)+8];
398                 MonoVTable* vtable = (MonoVTable*) ALIGN_TO((mword)_vtable, 8);
399                 gsize bmap;
400
401                 MonoDomain *domain = mono_get_root_domain ();
402                 g_assert (domain);
403
404                 klass.element_class = mono_defaults.byte_class;
405                 klass.rank = 1;
406                 klass.instance_size = MONO_SIZEOF_MONO_ARRAY;
407                 klass.sizes.element_size = 1;
408                 klass.name = "array_filler_type";
409
410                 vtable->klass = &klass;
411                 bmap = 0;
412                 vtable->gc_descr = mono_gc_make_descr_for_array (TRUE, &bmap, 0, 1);
413                 vtable->rank = 1;
414
415                 array_fill_vtable = vtable;
416         }
417         return array_fill_vtable;
418 }
419
420 gboolean
421 sgen_client_array_fill_range (char *start, size_t size)
422 {
423         MonoArray *o;
424
425         if (size < MONO_SIZEOF_MONO_ARRAY) {
426                 memset (start, 0, size);
427                 return FALSE;
428         }
429
430         o = (MonoArray*)start;
431         o->obj.vtable = (MonoVTable*)get_array_fill_vtable ();
432         /* Mark this as not a real object */
433         o->obj.synchronisation = (MonoThreadsSync *)GINT_TO_POINTER (-1);
434         o->bounds = NULL;
435         o->max_length = (mono_array_size_t)(size - MONO_SIZEOF_MONO_ARRAY);
436
437         return TRUE;
438 }
439
440 void
441 sgen_client_zero_array_fill_header (void *p, size_t size)
442 {
443         if (size >= MONO_SIZEOF_MONO_ARRAY) {
444                 memset (p, 0, MONO_SIZEOF_MONO_ARRAY);
445         } else {
446                 static guint8 zeros [MONO_SIZEOF_MONO_ARRAY];
447
448                 SGEN_ASSERT (0, !memcmp (p, zeros, size), "TLAB segment must be zeroed out.");
449         }
450 }
451
452 /*
453  * Finalization
454  */
455
456 static MonoGCFinalizerCallbacks fin_callbacks;
457
458 guint
459 mono_gc_get_vtable_bits (MonoClass *klass)
460 {
461         guint res = 0;
462         /* FIXME move this to the bridge code */
463         if (sgen_need_bridge_processing ()) {
464                 switch (sgen_bridge_class_kind (klass)) {
465                 case GC_BRIDGE_TRANSPARENT_BRIDGE_CLASS:
466                 case GC_BRIDGE_OPAQUE_BRIDGE_CLASS:
467                         res = SGEN_GC_BIT_BRIDGE_OBJECT;
468                         break;
469                 case GC_BRIDGE_OPAQUE_CLASS:
470                         res = SGEN_GC_BIT_BRIDGE_OPAQUE_OBJECT;
471                         break;
472                 case GC_BRIDGE_TRANSPARENT_CLASS:
473                         break;
474                 }
475         }
476         if (fin_callbacks.is_class_finalization_aware) {
477                 if (fin_callbacks.is_class_finalization_aware (klass))
478                         res |= SGEN_GC_BIT_FINALIZER_AWARE;
479         }
480         return res;
481 }
482
483 static gboolean
484 is_finalization_aware (MonoObject *obj)
485 {
486         MonoVTable *vt = SGEN_LOAD_VTABLE (obj);
487         return (vt->gc_bits & SGEN_GC_BIT_FINALIZER_AWARE) == SGEN_GC_BIT_FINALIZER_AWARE;
488 }
489
490 void
491 sgen_client_object_queued_for_finalization (GCObject *obj)
492 {
493         if (fin_callbacks.object_queued_for_finalization && is_finalization_aware (obj))
494                 fin_callbacks.object_queued_for_finalization (obj);
495
496 #ifdef ENABLE_DTRACE
497         if (G_UNLIKELY (MONO_GC_FINALIZE_ENQUEUE_ENABLED ())) {
498                 int gen = sgen_ptr_in_nursery (obj) ? GENERATION_NURSERY : GENERATION_OLD;
499                 GCVTable vt = SGEN_LOAD_VTABLE (obj);
500                 MONO_GC_FINALIZE_ENQUEUE ((mword)obj, sgen_safe_object_get_size (obj),
501                                 sgen_client_vtable_get_namespace (vt), sgen_client_vtable_get_name (vt), gen,
502                                 sgen_client_object_has_critical_finalizer (obj));
503         }
504 #endif
505 }
506
507 void
508 mono_gc_register_finalizer_callbacks (MonoGCFinalizerCallbacks *callbacks)
509 {
510         if (callbacks->version != MONO_GC_FINALIZER_EXTENSION_VERSION)
511                 g_error ("Invalid finalizer callback version. Expected %d but got %d\n", MONO_GC_FINALIZER_EXTENSION_VERSION, callbacks->version);
512
513         fin_callbacks = *callbacks;
514 }
515
516 void
517 sgen_client_run_finalize (MonoObject *obj)
518 {
519         mono_gc_run_finalize (obj, NULL);
520 }
521
522 int
523 mono_gc_invoke_finalizers (void)
524 {
525         return sgen_gc_invoke_finalizers ();
526 }
527
528 MonoBoolean
529 mono_gc_pending_finalizers (void)
530 {
531         return sgen_have_pending_finalizers ();
532 }
533
534 void
535 sgen_client_finalize_notify (void)
536 {
537         mono_gc_finalize_notify ();
538 }
539
540 void
541 mono_gc_register_for_finalization (MonoObject *obj, void *user_data)
542 {
543         sgen_object_register_for_finalization (obj, user_data);
544 }
545
546 static gboolean
547 object_in_domain_predicate (MonoObject *obj, void *user_data)
548 {
549         MonoDomain *domain = (MonoDomain *)user_data;
550         if (mono_object_domain (obj) == domain) {
551                 SGEN_LOG (5, "Unregistering finalizer for object: %p (%s)", obj, sgen_client_vtable_get_name (SGEN_LOAD_VTABLE (obj)));
552                 return TRUE;
553         }
554         return FALSE;
555 }
556
557 /**
558  * mono_gc_finalizers_for_domain:
559  * @domain: the unloading appdomain
560  * @out_array: output array
561  * @out_size: size of output array
562  *
563  * Enqueue for finalization all objects that belong to the unloading appdomain @domain
564  * @suspend is used for early termination of the enqueuing process.
565  */
566 void
567 mono_gc_finalize_domain (MonoDomain *domain)
568 {
569         sgen_finalize_if (object_in_domain_predicate, domain);
570 }
571
572 void
573 mono_gc_suspend_finalizers (void)
574 {
575         sgen_set_suspend_finalizers ();
576 }
577
578 /*
579  * Ephemerons
580  */
581
582 typedef struct _EphemeronLinkNode EphemeronLinkNode;
583
584 struct _EphemeronLinkNode {
585         EphemeronLinkNode *next;
586         MonoArray *array;
587 };
588
589 typedef struct {
590        GCObject *key;
591        GCObject *value;
592 } Ephemeron;
593
594 static EphemeronLinkNode *ephemeron_list;
595
596 /* LOCKING: requires that the GC lock is held */
597 static void
598 null_ephemerons_for_domain (MonoDomain *domain)
599 {
600         EphemeronLinkNode *current = ephemeron_list, *prev = NULL;
601
602         while (current) {
603                 MonoObject *object = (MonoObject*)current->array;
604
605                 if (object)
606                         SGEN_ASSERT (0, object->vtable, "Can't have objects without vtables.");
607
608                 if (object && object->vtable->domain == domain) {
609                         EphemeronLinkNode *tmp = current;
610
611                         if (prev)
612                                 prev->next = current->next;
613                         else
614                                 ephemeron_list = current->next;
615
616                         current = current->next;
617                         sgen_free_internal (tmp, INTERNAL_MEM_EPHEMERON_LINK);
618                 } else {
619                         prev = current;
620                         current = current->next;
621                 }
622         }
623 }
624
625 /* LOCKING: requires that the GC lock is held */
626 void
627 sgen_client_clear_unreachable_ephemerons (ScanCopyContext ctx)
628 {
629         CopyOrMarkObjectFunc copy_func = ctx.ops->copy_or_mark_object;
630         SgenGrayQueue *queue = ctx.queue;
631         EphemeronLinkNode *current = ephemeron_list, *prev = NULL;
632         Ephemeron *cur, *array_end;
633         GCObject *tombstone;
634
635         while (current) {
636                 MonoArray *array = current->array;
637
638                 if (!sgen_is_object_alive_for_current_gen ((GCObject*)array)) {
639                         EphemeronLinkNode *tmp = current;
640
641                         SGEN_LOG (5, "Dead Ephemeron array at %p", array);
642
643                         if (prev)
644                                 prev->next = current->next;
645                         else
646                                 ephemeron_list = current->next;
647
648                         current = current->next;
649                         sgen_free_internal (tmp, INTERNAL_MEM_EPHEMERON_LINK);
650
651                         continue;
652                 }
653
654                 copy_func ((GCObject**)&array, queue);
655                 current->array = array;
656
657                 SGEN_LOG (5, "Clearing unreachable entries for ephemeron array at %p", array);
658
659                 cur = mono_array_addr (array, Ephemeron, 0);
660                 array_end = cur + mono_array_length_fast (array);
661                 tombstone = SGEN_LOAD_VTABLE ((GCObject*)array)->domain->ephemeron_tombstone;
662
663                 for (; cur < array_end; ++cur) {
664                         GCObject *key = cur->key;
665
666                         if (!key || key == tombstone)
667                                 continue;
668
669                         SGEN_LOG (5, "[%zd] key %p (%s) value %p (%s)", cur - mono_array_addr (array, Ephemeron, 0),
670                                 key, sgen_is_object_alive_for_current_gen (key) ? "reachable" : "unreachable",
671                                 cur->value, cur->value && sgen_is_object_alive_for_current_gen (cur->value) ? "reachable" : "unreachable");
672
673                         if (!sgen_is_object_alive_for_current_gen (key)) {
674                                 cur->key = tombstone;
675                                 cur->value = NULL;
676                                 continue;
677                         }
678                 }
679                 prev = current;
680                 current = current->next;
681         }
682 }
683
684 /*
685 LOCKING: requires that the GC lock is held
686
687 Limitations: We scan all ephemerons on every collection since the current design doesn't allow for a simple nursery/mature split.
688 */
689 gboolean
690 sgen_client_mark_ephemerons (ScanCopyContext ctx)
691 {
692         CopyOrMarkObjectFunc copy_func = ctx.ops->copy_or_mark_object;
693         SgenGrayQueue *queue = ctx.queue;
694         gboolean nothing_marked = TRUE;
695         EphemeronLinkNode *current = ephemeron_list;
696         Ephemeron *cur, *array_end;
697         GCObject *tombstone;
698
699         for (current = ephemeron_list; current; current = current->next) {
700                 MonoArray *array = current->array;
701                 SGEN_LOG (5, "Ephemeron array at %p", array);
702
703                 /*It has to be alive*/
704                 if (!sgen_is_object_alive_for_current_gen ((GCObject*)array)) {
705                         SGEN_LOG (5, "\tnot reachable");
706                         continue;
707                 }
708
709                 copy_func ((GCObject**)&array, queue);
710
711                 cur = mono_array_addr (array, Ephemeron, 0);
712                 array_end = cur + mono_array_length_fast (array);
713                 tombstone = SGEN_LOAD_VTABLE ((GCObject*)array)->domain->ephemeron_tombstone;
714
715                 for (; cur < array_end; ++cur) {
716                         GCObject *key = cur->key;
717
718                         if (!key || key == tombstone)
719                                 continue;
720
721                         SGEN_LOG (5, "[%zd] key %p (%s) value %p (%s)", cur - mono_array_addr (array, Ephemeron, 0),
722                                 key, sgen_is_object_alive_for_current_gen (key) ? "reachable" : "unreachable",
723                                 cur->value, cur->value && sgen_is_object_alive_for_current_gen (cur->value) ? "reachable" : "unreachable");
724
725                         if (sgen_is_object_alive_for_current_gen (key)) {
726                                 GCObject *value = cur->value;
727
728                                 copy_func (&cur->key, queue);
729                                 if (value) {
730                                         if (!sgen_is_object_alive_for_current_gen (value))
731                                                 nothing_marked = FALSE;
732                                         copy_func (&cur->value, queue);
733                                 }
734                         }
735                 }
736         }
737
738         SGEN_LOG (5, "Ephemeron run finished. Is it done %d", nothing_marked);
739         return nothing_marked;
740 }
741
742 gboolean
743 mono_gc_ephemeron_array_add (MonoObject *obj)
744 {
745         EphemeronLinkNode *node;
746
747         LOCK_GC;
748
749         node = (EphemeronLinkNode *)sgen_alloc_internal (INTERNAL_MEM_EPHEMERON_LINK);
750         if (!node) {
751                 UNLOCK_GC;
752                 return FALSE;
753         }
754         node->array = (MonoArray*)obj;
755         node->next = ephemeron_list;
756         ephemeron_list = node;
757
758         SGEN_LOG (5, "Registered ephemeron array %p", obj);
759
760         UNLOCK_GC;
761         return TRUE;
762 }
763
764 /*
765  * Appdomain handling
766  */
767
768 static gboolean
769 need_remove_object_for_domain (GCObject *start, MonoDomain *domain)
770 {
771         if (mono_object_domain (start) == domain) {
772                 SGEN_LOG (4, "Need to cleanup object %p", start);
773                 binary_protocol_cleanup (start, (gpointer)SGEN_LOAD_VTABLE (start), sgen_safe_object_get_size ((GCObject*)start));
774                 return TRUE;
775         }
776         return FALSE;
777 }
778
779 static void
780 process_object_for_domain_clearing (GCObject *start, MonoDomain *domain)
781 {
782         MonoVTable *vt = SGEN_LOAD_VTABLE (start);
783         if (vt->klass == mono_defaults.internal_thread_class)
784                 g_assert (mono_object_domain (start) == mono_get_root_domain ());
785         /* The object could be a proxy for an object in the domain
786            we're deleting. */
787 #ifndef DISABLE_REMOTING
788         if (mono_defaults.real_proxy_class->supertypes && mono_class_has_parent_fast (vt->klass, mono_defaults.real_proxy_class)) {
789                 MonoObject *server = ((MonoRealProxy*)start)->unwrapped_server;
790
791                 /* The server could already have been zeroed out, so
792                    we need to check for that, too. */
793                 if (server && (!SGEN_LOAD_VTABLE (server) || mono_object_domain (server) == domain)) {
794                         SGEN_LOG (4, "Cleaning up remote pointer in %p to object %p", start, server);
795                         ((MonoRealProxy*)start)->unwrapped_server = NULL;
796                 }
797         }
798 #endif
799 }
800
801 static gboolean
802 clear_domain_process_object (GCObject *obj, MonoDomain *domain)
803 {
804         gboolean remove;
805
806         process_object_for_domain_clearing (obj, domain);
807         remove = need_remove_object_for_domain (obj, domain);
808
809         if (remove && obj->synchronisation) {
810                 guint32 dislink = mono_monitor_get_object_monitor_gchandle (obj);
811                 if (dislink)
812                         mono_gchandle_free (dislink);
813         }
814
815         return remove;
816 }
817
818 static void
819 clear_domain_process_minor_object_callback (GCObject *obj, size_t size, MonoDomain *domain)
820 {
821         if (clear_domain_process_object (obj, domain)) {
822                 CANARIFY_SIZE (size);
823                 memset (obj, 0, size);
824         }
825 }
826
827 static void
828 clear_domain_process_major_object_callback (GCObject *obj, size_t size, MonoDomain *domain)
829 {
830         clear_domain_process_object (obj, domain);
831 }
832
833 static void
834 clear_domain_free_major_non_pinned_object_callback (GCObject *obj, size_t size, MonoDomain *domain)
835 {
836         if (need_remove_object_for_domain (obj, domain))
837                 major_collector.free_non_pinned_object (obj, size);
838 }
839
840 static void
841 clear_domain_free_major_pinned_object_callback (GCObject *obj, size_t size, MonoDomain *domain)
842 {
843         if (need_remove_object_for_domain (obj, domain))
844                 major_collector.free_pinned_object (obj, size);
845 }
846
847 /*
848  * When appdomains are unloaded we can easily remove objects that have finalizers,
849  * but all the others could still be present in random places on the heap.
850  * We need a sweep to get rid of them even though it's going to be costly
851  * with big heaps.
852  * The reason we need to remove them is because we access the vtable and class
853  * structures to know the object size and the reference bitmap: once the domain is
854  * unloaded the point to random memory.
855  */
856 void
857 mono_gc_clear_domain (MonoDomain * domain)
858 {
859         LOSObject *bigobj, *prev;
860         int i;
861
862         LOCK_GC;
863
864         binary_protocol_domain_unload_begin (domain);
865
866         sgen_stop_world (0);
867
868         if (sgen_concurrent_collection_in_progress ())
869                 sgen_perform_collection (0, GENERATION_OLD, "clear domain", TRUE, FALSE);
870         SGEN_ASSERT (0, !sgen_concurrent_collection_in_progress (), "We just ordered a synchronous collection.  Why are we collecting concurrently?");
871
872         major_collector.finish_sweeping ();
873
874         sgen_process_fin_stage_entries ();
875
876         sgen_clear_nursery_fragments ();
877
878         if (sgen_mono_xdomain_checks && domain != mono_get_root_domain ()) {
879                 sgen_scan_for_registered_roots_in_domain (domain, ROOT_TYPE_NORMAL);
880                 sgen_scan_for_registered_roots_in_domain (domain, ROOT_TYPE_WBARRIER);
881                 sgen_check_for_xdomain_refs ();
882         }
883
884         /*Ephemerons and dislinks must be processed before LOS since they might end up pointing
885         to memory returned to the OS.*/
886         null_ephemerons_for_domain (domain);
887         sgen_null_links_for_domain (domain);
888
889         for (i = GENERATION_NURSERY; i < GENERATION_MAX; ++i)
890                 sgen_remove_finalizers_if (object_in_domain_predicate, domain, i);
891
892         sgen_scan_area_with_callback (nursery_section->data, nursery_section->end_data,
893                         (IterateObjectCallbackFunc)clear_domain_process_minor_object_callback, domain, FALSE, TRUE);
894
895         /* We need two passes over major and large objects because
896            freeing such objects might give their memory back to the OS
897            (in the case of large objects) or obliterate its vtable
898            (pinned objects with major-copying or pinned and non-pinned
899            objects with major-mark&sweep), but we might need to
900            dereference a pointer from an object to another object if
901            the first object is a proxy. */
902         major_collector.iterate_objects (ITERATE_OBJECTS_SWEEP_ALL, (IterateObjectCallbackFunc)clear_domain_process_major_object_callback, domain);
903         for (bigobj = los_object_list; bigobj; bigobj = bigobj->next)
904                 clear_domain_process_object ((GCObject*)bigobj->data, domain);
905
906         prev = NULL;
907         for (bigobj = los_object_list; bigobj;) {
908                 if (need_remove_object_for_domain ((GCObject*)bigobj->data, domain)) {
909                         LOSObject *to_free = bigobj;
910                         if (prev)
911                                 prev->next = bigobj->next;
912                         else
913                                 los_object_list = bigobj->next;
914                         bigobj = bigobj->next;
915                         SGEN_LOG (4, "Freeing large object %p", bigobj->data);
916                         sgen_los_free_object (to_free);
917                         continue;
918                 }
919                 prev = bigobj;
920                 bigobj = bigobj->next;
921         }
922         major_collector.iterate_objects (ITERATE_OBJECTS_SWEEP_NON_PINNED, (IterateObjectCallbackFunc)clear_domain_free_major_non_pinned_object_callback, domain);
923         major_collector.iterate_objects (ITERATE_OBJECTS_SWEEP_PINNED, (IterateObjectCallbackFunc)clear_domain_free_major_pinned_object_callback, domain);
924
925         if (domain == mono_get_root_domain ()) {
926                 sgen_pin_stats_report ();
927                 sgen_object_layout_dump (stdout);
928         }
929
930         sgen_restart_world (0);
931
932         binary_protocol_domain_unload_end (domain);
933         binary_protocol_flush_buffers (FALSE);
934
935         UNLOCK_GC;
936 }
937
938 /*
939  * Allocation
940  */
941
942 void*
943 mono_gc_alloc_obj (MonoVTable *vtable, size_t size)
944 {
945         MonoObject *obj = sgen_alloc_obj (vtable, size);
946
947         if (G_UNLIKELY (mono_profiler_events & MONO_PROFILE_ALLOCATIONS)) {
948                 if (obj)
949                         mono_profiler_allocation (obj);
950         }
951
952         return obj;
953 }
954
955 void*
956 mono_gc_alloc_pinned_obj (MonoVTable *vtable, size_t size)
957 {
958         MonoObject *obj = sgen_alloc_obj_pinned (vtable, size);
959
960         if (G_UNLIKELY (mono_profiler_events & MONO_PROFILE_ALLOCATIONS)) {
961                 if (obj)
962                         mono_profiler_allocation (obj);
963         }
964
965         return obj;
966 }
967
968 void*
969 mono_gc_alloc_mature (MonoVTable *vtable, size_t size)
970 {
971         MonoObject *obj = sgen_alloc_obj_mature (vtable, size);
972
973         if (G_UNLIKELY (mono_profiler_events & MONO_PROFILE_ALLOCATIONS)) {
974                 if (obj)
975                         mono_profiler_allocation (obj);
976         }
977
978         return obj;
979 }
980
981 void*
982 mono_gc_alloc_fixed (size_t size, MonoGCDescriptor descr, MonoGCRootSource source, const char *msg)
983 {
984         /* FIXME: do a single allocation */
985         void *res = g_calloc (1, size);
986         if (!res)
987                 return NULL;
988         if (!mono_gc_register_root ((char *)res, size, descr, source, msg)) {
989                 g_free (res);
990                 res = NULL;
991         }
992         return res;
993 }
994
995 void
996 mono_gc_free_fixed (void* addr)
997 {
998         mono_gc_deregister_root ((char *)addr);
999         g_free (addr);
1000 }
1001
1002 /*
1003  * Managed allocator
1004  */
1005
1006 static MonoMethod* alloc_method_cache [ATYPE_NUM];
1007 static MonoMethod* slowpath_alloc_method_cache [ATYPE_NUM];
1008 static gboolean use_managed_allocator = TRUE;
1009
1010 #ifdef MANAGED_ALLOCATION
1011 // Cache the SgenThreadInfo pointer in a local 'var'.
1012 #define EMIT_TLS_ACCESS_VAR(mb, var) \
1013         do { \
1014                 var = mono_mb_add_local ((mb), &mono_defaults.int_class->byval_arg); \
1015                 mono_mb_emit_byte ((mb), MONO_CUSTOM_PREFIX); \
1016                 mono_mb_emit_byte ((mb), CEE_MONO_TLS); \
1017                 mono_mb_emit_i4 ((mb), TLS_KEY_SGEN_THREAD_INFO); \
1018                 mono_mb_emit_stloc ((mb), (var)); \
1019         } while (0)
1020
1021 #define EMIT_TLS_ACCESS_IN_CRITICAL_REGION_ADDR(mb, var) \
1022         do { \
1023                 mono_mb_emit_ldloc ((mb), (var)); \
1024                 mono_mb_emit_icon ((mb), MONO_STRUCT_OFFSET (SgenClientThreadInfo, in_critical_region)); \
1025                 mono_mb_emit_byte ((mb), CEE_ADD); \
1026         } while (0)
1027
1028 #define EMIT_TLS_ACCESS_NEXT_ADDR(mb, var)      do {    \
1029         mono_mb_emit_ldloc ((mb), (var));               \
1030         mono_mb_emit_icon ((mb), MONO_STRUCT_OFFSET (SgenThreadInfo, tlab_next));       \
1031         mono_mb_emit_byte ((mb), CEE_ADD);              \
1032         } while (0)
1033
1034 #define EMIT_TLS_ACCESS_TEMP_END(mb, var)       do {    \
1035         mono_mb_emit_ldloc ((mb), (var));               \
1036         mono_mb_emit_icon ((mb), MONO_STRUCT_OFFSET (SgenThreadInfo, tlab_temp_end));   \
1037         mono_mb_emit_byte ((mb), CEE_ADD);              \
1038         mono_mb_emit_byte ((mb), CEE_LDIND_I);          \
1039         } while (0)
1040
1041 /* FIXME: Do this in the JIT, where specialized allocation sequences can be created
1042  * for each class. This is currently not easy to do, as it is hard to generate basic 
1043  * blocks + branches, but it is easy with the linear IL codebase.
1044  *
1045  * For this to work we'd need to solve the TLAB race, first.  Now we
1046  * require the allocator to be in a few known methods to make sure
1047  * that they are executed atomically via the restart mechanism.
1048  */
1049 static MonoMethod*
1050 create_allocator (int atype, ManagedAllocatorVariant variant)
1051 {
1052         int p_var, size_var, real_size_var, thread_var G_GNUC_UNUSED;
1053         gboolean slowpath = variant == MANAGED_ALLOCATOR_SLOW_PATH;
1054         guint32 fastpath_branch, max_size_branch, no_oom_branch;
1055         MonoMethodBuilder *mb;
1056         MonoMethod *res;
1057         MonoMethodSignature *csig;
1058         static gboolean registered = FALSE;
1059         int tlab_next_addr_var, new_next_var;
1060         const char *name = NULL;
1061         WrapperInfo *info;
1062         int num_params, i;
1063
1064         if (!registered) {
1065                 mono_register_jit_icall (mono_gc_alloc_obj, "mono_gc_alloc_obj", mono_create_icall_signature ("object ptr int"), FALSE);
1066                 mono_register_jit_icall (mono_gc_alloc_vector, "mono_gc_alloc_vector", mono_create_icall_signature ("object ptr int int"), FALSE);
1067                 mono_register_jit_icall (mono_gc_alloc_string, "mono_gc_alloc_string", mono_create_icall_signature ("object ptr int int32"), FALSE);
1068                 registered = TRUE;
1069         }
1070
1071         if (atype == ATYPE_SMALL) {
1072                 name = slowpath ? "SlowAllocSmall" : "AllocSmall";
1073         } else if (atype == ATYPE_NORMAL) {
1074                 name = slowpath ? "SlowAlloc" : "Alloc";
1075         } else if (atype == ATYPE_VECTOR) {
1076                 name = slowpath ? "SlowAllocVector" : "AllocVector";
1077         } else if (atype == ATYPE_STRING) {
1078                 name = slowpath ? "SlowAllocString" : "AllocString";
1079         } else {
1080                 g_assert_not_reached ();
1081         }
1082
1083         if (atype == ATYPE_NORMAL)
1084                 num_params = 1;
1085         else
1086                 num_params = 2;
1087
1088         csig = mono_metadata_signature_alloc (mono_defaults.corlib, num_params);
1089         if (atype == ATYPE_STRING) {
1090                 csig->ret = &mono_defaults.string_class->byval_arg;
1091                 csig->params [0] = &mono_defaults.int_class->byval_arg;
1092                 csig->params [1] = &mono_defaults.int32_class->byval_arg;
1093         } else {
1094                 csig->ret = &mono_defaults.object_class->byval_arg;
1095                 for (i = 0; i < num_params; i++)
1096                         csig->params [i] = &mono_defaults.int_class->byval_arg;
1097         }
1098
1099         mb = mono_mb_new (mono_defaults.object_class, name, MONO_WRAPPER_ALLOC);
1100
1101 #ifndef DISABLE_JIT
1102         if (slowpath) {
1103                 switch (atype) {
1104                 case ATYPE_NORMAL:
1105                 case ATYPE_SMALL:
1106                         mono_mb_emit_ldarg (mb, 0);
1107                         mono_mb_emit_icall (mb, ves_icall_object_new_specific);
1108                         break;
1109                 case ATYPE_VECTOR:
1110                         mono_mb_emit_ldarg (mb, 0);
1111                         mono_mb_emit_ldarg (mb, 1);
1112                         mono_mb_emit_icall (mb, ves_icall_array_new_specific);
1113                         break;
1114                 case ATYPE_STRING:
1115                         mono_mb_emit_ldarg (mb, 1);
1116                         mono_mb_emit_icall (mb, ves_icall_string_alloc);
1117                         break;
1118                 default:
1119                         g_assert_not_reached ();
1120                 }
1121
1122                 goto done;
1123         }
1124
1125         /*
1126          * Tls access might call foreign code or code without jinfo. This can
1127          * only happen if we are outside of the critical region.
1128          */
1129         EMIT_TLS_ACCESS_VAR (mb, thread_var);
1130
1131         size_var = mono_mb_add_local (mb, &mono_defaults.int_class->byval_arg);
1132         if (atype == ATYPE_SMALL) {
1133                 /* size_var = size_arg */
1134                 mono_mb_emit_ldarg (mb, 1);
1135                 mono_mb_emit_stloc (mb, size_var);
1136         } else if (atype == ATYPE_NORMAL) {
1137                 /* size = vtable->klass->instance_size; */
1138                 mono_mb_emit_ldarg (mb, 0);
1139                 mono_mb_emit_icon (mb, MONO_STRUCT_OFFSET (MonoVTable, klass));
1140                 mono_mb_emit_byte (mb, CEE_ADD);
1141                 mono_mb_emit_byte (mb, CEE_LDIND_I);
1142                 mono_mb_emit_icon (mb, MONO_STRUCT_OFFSET (MonoClass, instance_size));
1143                 mono_mb_emit_byte (mb, CEE_ADD);
1144                 /* FIXME: assert instance_size stays a 4 byte integer */
1145                 mono_mb_emit_byte (mb, CEE_LDIND_U4);
1146                 mono_mb_emit_byte (mb, CEE_CONV_I);
1147                 mono_mb_emit_stloc (mb, size_var);
1148         } else if (atype == ATYPE_VECTOR) {
1149                 MonoExceptionClause *clause;
1150                 int pos, pos_leave, pos_error;
1151                 MonoClass *oom_exc_class;
1152                 MonoMethod *ctor;
1153
1154                 /*
1155                  * n > MONO_ARRAY_MAX_INDEX => OutOfMemoryException
1156                  * n < 0                    => OverflowException
1157                  *
1158                  * We can do an unsigned comparison to catch both cases, then in the error
1159                  * case compare signed to distinguish between them.
1160                  */
1161                 mono_mb_emit_ldarg (mb, 1);
1162                 mono_mb_emit_icon (mb, MONO_ARRAY_MAX_INDEX);
1163                 mono_mb_emit_byte (mb, CEE_CONV_U);
1164                 pos = mono_mb_emit_short_branch (mb, CEE_BLE_UN_S);
1165
1166                 mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
1167                 mono_mb_emit_byte (mb, CEE_MONO_NOT_TAKEN);
1168                 mono_mb_emit_ldarg (mb, 1);
1169                 mono_mb_emit_icon (mb, 0);
1170                 pos_error = mono_mb_emit_short_branch (mb, CEE_BLT_S);
1171                 mono_mb_emit_exception (mb, "OutOfMemoryException", NULL);
1172                 mono_mb_patch_short_branch (mb, pos_error);
1173                 mono_mb_emit_exception (mb, "OverflowException", NULL);
1174
1175                 mono_mb_patch_short_branch (mb, pos);
1176
1177                 clause = (MonoExceptionClause *)mono_image_alloc0 (mono_defaults.corlib, sizeof (MonoExceptionClause));
1178                 clause->try_offset = mono_mb_get_label (mb);
1179
1180                 /* vtable->klass->sizes.element_size */
1181                 mono_mb_emit_ldarg (mb, 0);
1182                 mono_mb_emit_icon (mb, MONO_STRUCT_OFFSET (MonoVTable, klass));
1183                 mono_mb_emit_byte (mb, CEE_ADD);
1184                 mono_mb_emit_byte (mb, CEE_LDIND_I);
1185                 mono_mb_emit_icon (mb, MONO_STRUCT_OFFSET (MonoClass, sizes));
1186                 mono_mb_emit_byte (mb, CEE_ADD);
1187                 mono_mb_emit_byte (mb, CEE_LDIND_U4);
1188                 mono_mb_emit_byte (mb, CEE_CONV_I);
1189
1190                 /* * n */
1191                 mono_mb_emit_ldarg (mb, 1);
1192                 mono_mb_emit_byte (mb, CEE_MUL_OVF_UN);
1193                 /* + sizeof (MonoArray) */
1194                 mono_mb_emit_icon (mb, MONO_SIZEOF_MONO_ARRAY);
1195                 mono_mb_emit_byte (mb, CEE_ADD_OVF_UN);
1196                 mono_mb_emit_stloc (mb, size_var);
1197
1198                 pos_leave = mono_mb_emit_branch (mb, CEE_LEAVE);
1199
1200                 /* catch */
1201                 clause->flags = MONO_EXCEPTION_CLAUSE_NONE;
1202                 clause->try_len = mono_mb_get_pos (mb) - clause->try_offset;
1203                 clause->data.catch_class = mono_class_load_from_name (mono_defaults.corlib,
1204                                 "System", "OverflowException");
1205                 clause->handler_offset = mono_mb_get_label (mb);
1206
1207                 oom_exc_class = mono_class_load_from_name (mono_defaults.corlib,
1208                                 "System", "OutOfMemoryException");
1209                 ctor = mono_class_get_method_from_name (oom_exc_class, ".ctor", 0);
1210                 g_assert (ctor);
1211
1212                 mono_mb_emit_byte (mb, CEE_POP);
1213                 mono_mb_emit_op (mb, CEE_NEWOBJ, ctor);
1214                 mono_mb_emit_byte (mb, CEE_THROW);
1215
1216                 clause->handler_len = mono_mb_get_pos (mb) - clause->handler_offset;
1217                 mono_mb_set_clauses (mb, 1, clause);
1218                 mono_mb_patch_branch (mb, pos_leave);
1219                 /* end catch */
1220         } else if (atype == ATYPE_STRING) {
1221                 int pos;
1222
1223                 /*
1224                  * a string allocator method takes the args: (vtable, len)
1225                  *
1226                  * bytes = offsetof (MonoString, chars) + ((len + 1) * 2)
1227                  *
1228                  * condition:
1229                  *
1230                  * bytes <= INT32_MAX - (SGEN_ALLOC_ALIGN - 1)
1231                  *
1232                  * therefore:
1233                  *
1234                  * offsetof (MonoString, chars) + ((len + 1) * 2) <= INT32_MAX - (SGEN_ALLOC_ALIGN - 1)
1235                  * len <= (INT32_MAX - (SGEN_ALLOC_ALIGN - 1) - offsetof (MonoString, chars)) / 2 - 1
1236                  */
1237                 mono_mb_emit_ldarg (mb, 1);
1238                 mono_mb_emit_icon (mb, (INT32_MAX - (SGEN_ALLOC_ALIGN - 1) - MONO_STRUCT_OFFSET (MonoString, chars)) / 2 - 1);
1239                 pos = mono_mb_emit_short_branch (mb, MONO_CEE_BLE_UN_S);
1240
1241                 mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
1242                 mono_mb_emit_byte (mb, CEE_MONO_NOT_TAKEN);
1243                 mono_mb_emit_exception (mb, "OutOfMemoryException", NULL);
1244                 mono_mb_patch_short_branch (mb, pos);
1245
1246                 mono_mb_emit_ldarg (mb, 1);
1247                 mono_mb_emit_icon (mb, 1);
1248                 mono_mb_emit_byte (mb, MONO_CEE_SHL);
1249                 //WE manually fold the above + 2 here
1250                 mono_mb_emit_icon (mb, MONO_STRUCT_OFFSET (MonoString, chars) + 2);
1251                 mono_mb_emit_byte (mb, CEE_ADD);
1252                 mono_mb_emit_stloc (mb, size_var);
1253         } else {
1254                 g_assert_not_reached ();
1255         }
1256
1257 #ifdef MANAGED_ALLOCATOR_CAN_USE_CRITICAL_REGION
1258         EMIT_TLS_ACCESS_IN_CRITICAL_REGION_ADDR (mb, thread_var);
1259         mono_mb_emit_byte (mb, CEE_LDC_I4_1);
1260         mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
1261         mono_mb_emit_byte (mb, CEE_MONO_ATOMIC_STORE_I4);
1262         mono_mb_emit_i4 (mb, MONO_MEMORY_BARRIER_NONE);
1263 #endif
1264
1265         if (nursery_canaries_enabled ()) {
1266                 real_size_var = mono_mb_add_local (mb, &mono_defaults.int_class->byval_arg);
1267                 mono_mb_emit_ldloc (mb, size_var);
1268                 mono_mb_emit_stloc(mb, real_size_var);
1269         }
1270         else
1271                 real_size_var = size_var;
1272
1273         /* size += ALLOC_ALIGN - 1; */
1274         mono_mb_emit_ldloc (mb, size_var);
1275         mono_mb_emit_icon (mb, SGEN_ALLOC_ALIGN - 1);
1276         mono_mb_emit_byte (mb, CEE_ADD);
1277         /* size &= ~(ALLOC_ALIGN - 1); */
1278         mono_mb_emit_icon (mb, ~(SGEN_ALLOC_ALIGN - 1));
1279         mono_mb_emit_byte (mb, CEE_AND);
1280         mono_mb_emit_stloc (mb, size_var);
1281
1282         /* if (size > MAX_SMALL_OBJ_SIZE) goto slowpath */
1283         if (atype != ATYPE_SMALL) {
1284                 mono_mb_emit_ldloc (mb, size_var);
1285                 mono_mb_emit_icon (mb, SGEN_MAX_SMALL_OBJ_SIZE);
1286                 max_size_branch = mono_mb_emit_short_branch (mb, MONO_CEE_BGT_UN_S);
1287         }
1288
1289         /*
1290          * We need to modify tlab_next, but the JIT only supports reading, so we read
1291          * another tls var holding its address instead.
1292          */
1293
1294         /* tlab_next_addr (local) = tlab_next_addr (TLS var) */
1295         tlab_next_addr_var = mono_mb_add_local (mb, &mono_defaults.int_class->byval_arg);
1296         EMIT_TLS_ACCESS_NEXT_ADDR (mb, thread_var);
1297         mono_mb_emit_stloc (mb, tlab_next_addr_var);
1298
1299         /* p = (void**)tlab_next; */
1300         p_var = mono_mb_add_local (mb, &mono_defaults.int_class->byval_arg);
1301         mono_mb_emit_ldloc (mb, tlab_next_addr_var);
1302         mono_mb_emit_byte (mb, CEE_LDIND_I);
1303         mono_mb_emit_stloc (mb, p_var);
1304         
1305         /* new_next = (char*)p + size; */
1306         new_next_var = mono_mb_add_local (mb, &mono_defaults.int_class->byval_arg);
1307         mono_mb_emit_ldloc (mb, p_var);
1308         mono_mb_emit_ldloc (mb, size_var);
1309         mono_mb_emit_byte (mb, CEE_CONV_I);
1310         mono_mb_emit_byte (mb, CEE_ADD);
1311
1312         if (nursery_canaries_enabled ()) {
1313                         mono_mb_emit_icon (mb, CANARY_SIZE);
1314                         mono_mb_emit_byte (mb, CEE_ADD);
1315         }
1316         mono_mb_emit_stloc (mb, new_next_var);
1317
1318         /* if (G_LIKELY (new_next < tlab_temp_end)) */
1319         mono_mb_emit_ldloc (mb, new_next_var);
1320         EMIT_TLS_ACCESS_TEMP_END (mb, thread_var);
1321         fastpath_branch = mono_mb_emit_short_branch (mb, MONO_CEE_BLT_UN_S);
1322
1323         /* Slowpath */
1324         if (atype != ATYPE_SMALL)
1325                 mono_mb_patch_short_branch (mb, max_size_branch);
1326
1327         mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
1328         mono_mb_emit_byte (mb, CEE_MONO_NOT_TAKEN);
1329         /*
1330          * We are no longer in a critical section. We need to do this before calling
1331          * to unmanaged land in order to avoid stw deadlocks since unmanaged code
1332          * might take locks.
1333          */
1334 #ifdef MANAGED_ALLOCATOR_CAN_USE_CRITICAL_REGION
1335         EMIT_TLS_ACCESS_IN_CRITICAL_REGION_ADDR (mb, thread_var);
1336         mono_mb_emit_byte (mb, CEE_LDC_I4_0);
1337         mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
1338         mono_mb_emit_byte (mb, CEE_MONO_ATOMIC_STORE_I4);
1339         mono_mb_emit_i4 (mb, MONO_MEMORY_BARRIER_NONE);
1340 #endif
1341
1342         /* FIXME: mono_gc_alloc_obj takes a 'size_t' as an argument, not an int32 */
1343         mono_mb_emit_ldarg (mb, 0);
1344         mono_mb_emit_ldloc (mb, real_size_var);
1345         if (atype == ATYPE_NORMAL || atype == ATYPE_SMALL) {
1346                 mono_mb_emit_icall (mb, mono_gc_alloc_obj);
1347         } else if (atype == ATYPE_VECTOR) {
1348                 mono_mb_emit_ldarg (mb, 1);
1349                 mono_mb_emit_icall (mb, mono_gc_alloc_vector);
1350         } else if (atype == ATYPE_STRING) {
1351                 mono_mb_emit_ldarg (mb, 1);
1352                 mono_mb_emit_icall (mb, mono_gc_alloc_string);
1353         } else {
1354                 g_assert_not_reached ();
1355         }
1356
1357         /* if (ret == NULL) throw OOM; */
1358         mono_mb_emit_byte (mb, CEE_DUP);
1359         no_oom_branch = mono_mb_emit_branch (mb, CEE_BRTRUE);
1360         mono_mb_emit_exception (mb, "OutOfMemoryException", NULL);
1361
1362         mono_mb_patch_branch (mb, no_oom_branch);
1363         mono_mb_emit_byte (mb, CEE_RET);
1364
1365         /* Fastpath */
1366         mono_mb_patch_short_branch (mb, fastpath_branch);
1367
1368         /* FIXME: Memory barrier */
1369
1370         /* tlab_next = new_next */
1371         mono_mb_emit_ldloc (mb, tlab_next_addr_var);
1372         mono_mb_emit_ldloc (mb, new_next_var);
1373         mono_mb_emit_byte (mb, CEE_STIND_I);
1374
1375         /* *p = vtable; */
1376         mono_mb_emit_ldloc (mb, p_var);
1377         mono_mb_emit_ldarg (mb, 0);
1378         mono_mb_emit_byte (mb, CEE_STIND_I);
1379
1380         /* mark object end with nursery word */
1381         if (nursery_canaries_enabled ()) {
1382                         mono_mb_emit_ldloc (mb, p_var);
1383                         mono_mb_emit_ldloc (mb, real_size_var);
1384                         mono_mb_emit_byte (mb, MONO_CEE_ADD);
1385                         mono_mb_emit_icon8 (mb, (mword) CANARY_STRING);
1386                         mono_mb_emit_icon (mb, CANARY_SIZE);
1387                         mono_mb_emit_byte (mb, MONO_CEE_PREFIX1);
1388                         mono_mb_emit_byte (mb, CEE_CPBLK);
1389         }
1390
1391         if (atype == ATYPE_VECTOR) {
1392                 /* arr->max_length = max_length; */
1393                 mono_mb_emit_ldloc (mb, p_var);
1394                 mono_mb_emit_ldflda (mb, MONO_STRUCT_OFFSET (MonoArray, max_length));
1395                 mono_mb_emit_ldarg (mb, 1);
1396 #ifdef MONO_BIG_ARRAYS
1397                 mono_mb_emit_byte (mb, CEE_STIND_I);
1398 #else
1399                 mono_mb_emit_byte (mb, CEE_STIND_I4);
1400 #endif
1401         } else  if (atype == ATYPE_STRING) {
1402                 /* need to set length and clear the last char */
1403                 /* s->length = len; */
1404                 mono_mb_emit_ldloc (mb, p_var);
1405                 mono_mb_emit_icon (mb, MONO_STRUCT_OFFSET (MonoString, length));
1406                 mono_mb_emit_byte (mb, MONO_CEE_ADD);
1407                 mono_mb_emit_ldarg (mb, 1);
1408                 mono_mb_emit_byte (mb, MONO_CEE_STIND_I4);
1409         }
1410
1411 #ifdef MANAGED_ALLOCATOR_CAN_USE_CRITICAL_REGION
1412         EMIT_TLS_ACCESS_IN_CRITICAL_REGION_ADDR (mb, thread_var);
1413         mono_mb_emit_byte (mb, CEE_LDC_I4_0);
1414         mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
1415         mono_mb_emit_byte (mb, CEE_MONO_ATOMIC_STORE_I4);
1416 #else
1417         mono_mb_emit_byte (mb, MONO_CUSTOM_PREFIX);
1418         mono_mb_emit_byte (mb, CEE_MONO_MEMORY_BARRIER);
1419 #endif
1420         /*
1421         We must make sure both vtable and max_length are globaly visible before returning to managed land.
1422         */
1423         mono_mb_emit_i4 (mb, MONO_MEMORY_BARRIER_REL);
1424
1425         /* return p */
1426         mono_mb_emit_ldloc (mb, p_var);
1427
1428  done:
1429         mono_mb_emit_byte (mb, CEE_RET);
1430 #endif
1431
1432         info = mono_wrapper_info_create (mb, WRAPPER_SUBTYPE_NONE);
1433         info->d.alloc.gc_name = "sgen";
1434         info->d.alloc.alloc_type = atype;
1435
1436 #ifndef DISABLE_JIT
1437         mb->init_locals = FALSE;
1438 #endif
1439
1440         res = mono_mb_create (mb, csig, 8, info);
1441         mono_mb_free (mb);
1442
1443
1444         return res;
1445 }
1446 #endif
1447
1448 int
1449 mono_gc_get_aligned_size_for_allocator (int size)
1450 {
1451         return SGEN_ALIGN_UP (size);
1452 }
1453
1454 /*
1455  * Generate an allocator method implementing the fast path of mono_gc_alloc_obj ().
1456  * The signature of the called method is:
1457  *      object allocate (MonoVTable *vtable)
1458  */
1459 MonoMethod*
1460 mono_gc_get_managed_allocator (MonoClass *klass, gboolean for_box, gboolean known_instance_size)
1461 {
1462 #ifdef MANAGED_ALLOCATION
1463         if (collect_before_allocs)
1464                 return NULL;
1465         if (klass->instance_size > tlab_size)
1466                 return NULL;
1467         if (known_instance_size && ALIGN_TO (klass->instance_size, SGEN_ALLOC_ALIGN) >= SGEN_MAX_SMALL_OBJ_SIZE)
1468                 return NULL;
1469         if (mono_class_has_finalizer (klass) || mono_class_is_marshalbyref (klass))
1470                 return NULL;
1471         if (klass->rank)
1472                 return NULL;
1473         if (mono_profiler_get_events () & MONO_PROFILE_ALLOCATIONS)
1474                 return NULL;
1475         if (klass->byval_arg.type == MONO_TYPE_STRING)
1476                 return mono_gc_get_managed_allocator_by_type (ATYPE_STRING, MANAGED_ALLOCATOR_REGULAR);
1477         /* Generic classes have dynamic field and can go above MAX_SMALL_OBJ_SIZE. */
1478         if (known_instance_size)
1479                 return mono_gc_get_managed_allocator_by_type (ATYPE_SMALL, MANAGED_ALLOCATOR_REGULAR);
1480         else
1481                 return mono_gc_get_managed_allocator_by_type (ATYPE_NORMAL, MANAGED_ALLOCATOR_REGULAR);
1482 #else
1483         return NULL;
1484 #endif
1485 }
1486
1487 MonoMethod*
1488 mono_gc_get_managed_array_allocator (MonoClass *klass)
1489 {
1490 #ifdef MANAGED_ALLOCATION
1491         if (klass->rank != 1)
1492                 return NULL;
1493         if (mono_profiler_get_events () & MONO_PROFILE_ALLOCATIONS)
1494                 return NULL;
1495         if (has_per_allocation_action)
1496                 return NULL;
1497         g_assert (!mono_class_has_finalizer (klass) && !mono_class_is_marshalbyref (klass));
1498
1499         return mono_gc_get_managed_allocator_by_type (ATYPE_VECTOR, MANAGED_ALLOCATOR_REGULAR);
1500 #else
1501         return NULL;
1502 #endif
1503 }
1504
1505 void
1506 sgen_set_use_managed_allocator (gboolean flag)
1507 {
1508         use_managed_allocator = flag;
1509 }
1510
1511 MonoMethod*
1512 mono_gc_get_managed_allocator_by_type (int atype, ManagedAllocatorVariant variant)
1513 {
1514 #ifdef MANAGED_ALLOCATION
1515         MonoMethod *res;
1516         MonoMethod **cache;
1517
1518         if (variant == MANAGED_ALLOCATOR_REGULAR && !use_managed_allocator)
1519                 return NULL;
1520
1521         switch (variant) {
1522         case MANAGED_ALLOCATOR_REGULAR: cache = alloc_method_cache; break;
1523         case MANAGED_ALLOCATOR_SLOW_PATH: cache = slowpath_alloc_method_cache; break;
1524         default: g_assert_not_reached (); break;
1525         }
1526
1527         res = cache [atype];
1528         if (res)
1529                 return res;
1530
1531         res = create_allocator (atype, variant);
1532         LOCK_GC;
1533         if (cache [atype]) {
1534                 mono_free_method (res);
1535                 res = cache [atype];
1536         } else {
1537                 mono_memory_barrier ();
1538                 cache [atype] = res;
1539         }
1540         UNLOCK_GC;
1541
1542         return res;
1543 #else
1544         return NULL;
1545 #endif
1546 }
1547
1548 guint32
1549 mono_gc_get_managed_allocator_types (void)
1550 {
1551         return ATYPE_NUM;
1552 }
1553
1554 gboolean
1555 sgen_is_managed_allocator (MonoMethod *method)
1556 {
1557         int i;
1558
1559         for (i = 0; i < ATYPE_NUM; ++i)
1560                 if (method == alloc_method_cache [i] || method == slowpath_alloc_method_cache [i])
1561                         return TRUE;
1562         return FALSE;
1563 }
1564
1565 gboolean
1566 sgen_has_managed_allocator (void)
1567 {
1568         int i;
1569
1570         for (i = 0; i < ATYPE_NUM; ++i)
1571                 if (alloc_method_cache [i] || slowpath_alloc_method_cache [i])
1572                         return TRUE;
1573         return FALSE;
1574 }
1575
1576 /*
1577  * Cardtable scanning
1578  */
1579
1580 #define MWORD_MASK (sizeof (mword) - 1)
1581
1582 static inline int
1583 find_card_offset (mword card)
1584 {
1585 /*XXX Use assembly as this generates some pretty bad code */
1586 #if defined(__i386__) && defined(__GNUC__)
1587         return  (__builtin_ffs (card) - 1) / 8;
1588 #elif defined(__x86_64__) && defined(__GNUC__)
1589         return (__builtin_ffsll (card) - 1) / 8;
1590 #elif defined(__s390x__)
1591         return (__builtin_ffsll (GUINT64_TO_LE(card)) - 1) / 8;
1592 #else
1593         int i;
1594         guint8 *ptr = (guint8 *) &card;
1595         for (i = 0; i < sizeof (mword); ++i) {
1596                 if (ptr[i])
1597                         return i;
1598         }
1599         return 0;
1600 #endif
1601 }
1602
1603 static guint8*
1604 find_next_card (guint8 *card_data, guint8 *end)
1605 {
1606         mword *cards, *cards_end;
1607         mword card;
1608
1609         while ((((mword)card_data) & MWORD_MASK) && card_data < end) {
1610                 if (*card_data)
1611                         return card_data;
1612                 ++card_data;
1613         }
1614
1615         if (card_data == end)
1616                 return end;
1617
1618         cards = (mword*)card_data;
1619         cards_end = (mword*)((mword)end & ~MWORD_MASK);
1620         while (cards < cards_end) {
1621                 card = *cards;
1622                 if (card)
1623                         return (guint8*)cards + find_card_offset (card);
1624                 ++cards;
1625         }
1626
1627         card_data = (guint8*)cards_end;
1628         while (card_data < end) {
1629                 if (*card_data)
1630                         return card_data;
1631                 ++card_data;
1632         }
1633
1634         return end;
1635 }
1636
1637 #define ARRAY_OBJ_INDEX(ptr,array,elem_size) (((char*)(ptr) - ((char*)(array) + G_STRUCT_OFFSET (MonoArray, vector))) / (elem_size))
1638
1639 gboolean
1640 sgen_client_cardtable_scan_object (GCObject *obj, guint8 *cards, ScanCopyContext ctx)
1641 {
1642         MonoVTable *vt = SGEN_LOAD_VTABLE (obj);
1643         MonoClass *klass = vt->klass;
1644
1645         SGEN_ASSERT (0, SGEN_VTABLE_HAS_REFERENCES (vt), "Why would we ever call this on reference-free objects?");
1646
1647         if (vt->rank) {
1648                 MonoArray *arr = (MonoArray*)obj;
1649                 guint8 *card_data, *card_base;
1650                 guint8 *card_data_end;
1651                 char *obj_start = (char *)sgen_card_table_align_pointer (obj);
1652                 mword bounds_size;
1653                 mword obj_size = sgen_mono_array_size (vt, arr, &bounds_size, sgen_vtable_get_descriptor (vt));
1654                 /* We don't want to scan the bounds entries at the end of multidimensional arrays */
1655                 char *obj_end = (char*)obj + obj_size - bounds_size;
1656                 size_t card_count;
1657                 size_t extra_idx = 0;
1658
1659                 mword desc = (mword)klass->element_class->gc_descr;
1660                 int elem_size = mono_array_element_size (klass);
1661
1662 #ifdef SGEN_HAVE_OVERLAPPING_CARDS
1663                 guint8 *overflow_scan_end = NULL;
1664 #endif
1665
1666 #ifdef SGEN_OBJECT_LAYOUT_STATISTICS
1667                 if (klass->element_class->valuetype)
1668                         sgen_object_layout_scanned_vtype_array ();
1669                 else
1670                         sgen_object_layout_scanned_ref_array ();
1671 #endif
1672
1673                 if (cards)
1674                         card_data = cards;
1675                 else
1676                         card_data = sgen_card_table_get_card_scan_address ((mword)obj);
1677
1678                 card_base = card_data;
1679                 card_count = sgen_card_table_number_of_cards_in_range ((mword)obj, obj_size);
1680                 card_data_end = card_data + card_count;
1681
1682
1683 #ifdef SGEN_HAVE_OVERLAPPING_CARDS
1684                 /*Check for overflow and if so, setup to scan in two steps*/
1685                 if (!cards && card_data_end >= SGEN_SHADOW_CARDTABLE_END) {
1686                         overflow_scan_end = sgen_shadow_cardtable + (card_data_end - SGEN_SHADOW_CARDTABLE_END);
1687                         card_data_end = SGEN_SHADOW_CARDTABLE_END;
1688                 }
1689
1690 LOOP_HEAD:
1691 #endif
1692
1693                 card_data = find_next_card (card_data, card_data_end);
1694                 for (; card_data < card_data_end; card_data = find_next_card (card_data + 1, card_data_end)) {
1695                         size_t index;
1696                         size_t idx = (card_data - card_base) + extra_idx;
1697                         char *start = (char*)(obj_start + idx * CARD_SIZE_IN_BYTES);
1698                         char *card_end = start + CARD_SIZE_IN_BYTES;
1699                         char *first_elem, *elem;
1700
1701                         HEAVY_STAT (++los_marked_cards);
1702
1703                         if (!cards)
1704                                 sgen_card_table_prepare_card_for_scanning (card_data);
1705
1706                         card_end = MIN (card_end, obj_end);
1707
1708                         if (start <= (char*)arr->vector)
1709                                 index = 0;
1710                         else
1711                                 index = ARRAY_OBJ_INDEX (start, obj, elem_size);
1712
1713                         elem = first_elem = (char*)mono_array_addr_with_size_fast ((MonoArray*)obj, elem_size, index);
1714                         if (klass->element_class->valuetype) {
1715                                 ScanVTypeFunc scan_vtype_func = ctx.ops->scan_vtype;
1716
1717                                 for (; elem < card_end; elem += elem_size)
1718                                         scan_vtype_func (obj, elem, desc, ctx.queue BINARY_PROTOCOL_ARG (elem_size));
1719                         } else {
1720                                 ScanPtrFieldFunc scan_ptr_field_func = ctx.ops->scan_ptr_field;
1721
1722                                 HEAVY_STAT (++los_array_cards);
1723                                 for (; elem < card_end; elem += SIZEOF_VOID_P)
1724                                         scan_ptr_field_func (obj, (GCObject**)elem, ctx.queue);
1725                         }
1726
1727                         binary_protocol_card_scan (first_elem, elem - first_elem);
1728                 }
1729
1730 #ifdef SGEN_HAVE_OVERLAPPING_CARDS
1731                 if (overflow_scan_end) {
1732                         extra_idx = card_data - card_base;
1733                         card_base = card_data = sgen_shadow_cardtable;
1734                         card_data_end = overflow_scan_end;
1735                         overflow_scan_end = NULL;
1736                         goto LOOP_HEAD;
1737                 }
1738 #endif
1739                 return TRUE;
1740         }
1741
1742         return FALSE;
1743 }
1744
1745 /*
1746  * Array and string allocation
1747  */
1748
1749 void*
1750 mono_gc_alloc_vector (MonoVTable *vtable, size_t size, uintptr_t max_length)
1751 {
1752         MonoArray *arr;
1753         TLAB_ACCESS_INIT;
1754
1755         if (!SGEN_CAN_ALIGN_UP (size))
1756                 return NULL;
1757
1758 #ifndef DISABLE_CRITICAL_REGION
1759         ENTER_CRITICAL_REGION;
1760         arr = (MonoArray*)sgen_try_alloc_obj_nolock (vtable, size);
1761         if (arr) {
1762                 /*This doesn't require fencing since EXIT_CRITICAL_REGION already does it for us*/
1763                 arr->max_length = (mono_array_size_t)max_length;
1764                 EXIT_CRITICAL_REGION;
1765                 goto done;
1766         }
1767         EXIT_CRITICAL_REGION;
1768 #endif
1769
1770         LOCK_GC;
1771
1772         arr = (MonoArray*)sgen_alloc_obj_nolock (vtable, size);
1773         if (G_UNLIKELY (!arr)) {
1774                 UNLOCK_GC;
1775                 return NULL;
1776         }
1777
1778         arr->max_length = (mono_array_size_t)max_length;
1779
1780         UNLOCK_GC;
1781
1782  done:
1783         if (G_UNLIKELY (mono_profiler_events & MONO_PROFILE_ALLOCATIONS))
1784                 mono_profiler_allocation (&arr->obj);
1785
1786         SGEN_ASSERT (6, SGEN_ALIGN_UP (size) == SGEN_ALIGN_UP (sgen_client_par_object_get_size (vtable, (GCObject*)arr)), "Vector has incorrect size.");
1787         return arr;
1788 }
1789
1790 void*
1791 mono_gc_alloc_array (MonoVTable *vtable, size_t size, uintptr_t max_length, uintptr_t bounds_size)
1792 {
1793         MonoArray *arr;
1794         MonoArrayBounds *bounds;
1795         TLAB_ACCESS_INIT;
1796
1797         if (!SGEN_CAN_ALIGN_UP (size))
1798                 return NULL;
1799
1800 #ifndef DISABLE_CRITICAL_REGION
1801         ENTER_CRITICAL_REGION;
1802         arr = (MonoArray*)sgen_try_alloc_obj_nolock (vtable, size);
1803         if (arr) {
1804                 /*This doesn't require fencing since EXIT_CRITICAL_REGION already does it for us*/
1805                 arr->max_length = (mono_array_size_t)max_length;
1806
1807                 bounds = (MonoArrayBounds*)((char*)arr + size - bounds_size);
1808                 arr->bounds = bounds;
1809                 EXIT_CRITICAL_REGION;
1810                 goto done;
1811         }
1812         EXIT_CRITICAL_REGION;
1813 #endif
1814
1815         LOCK_GC;
1816
1817         arr = (MonoArray*)sgen_alloc_obj_nolock (vtable, size);
1818         if (G_UNLIKELY (!arr)) {
1819                 UNLOCK_GC;
1820                 return NULL;
1821         }
1822
1823         arr->max_length = (mono_array_size_t)max_length;
1824
1825         bounds = (MonoArrayBounds*)((char*)arr + size - bounds_size);
1826         arr->bounds = bounds;
1827
1828         UNLOCK_GC;
1829
1830  done:
1831         if (G_UNLIKELY (mono_profiler_events & MONO_PROFILE_ALLOCATIONS))
1832                 mono_profiler_allocation (&arr->obj);
1833
1834         SGEN_ASSERT (6, SGEN_ALIGN_UP (size) == SGEN_ALIGN_UP (sgen_client_par_object_get_size (vtable, (GCObject*)arr)), "Array has incorrect size.");
1835         return arr;
1836 }
1837
1838 void*
1839 mono_gc_alloc_string (MonoVTable *vtable, size_t size, gint32 len)
1840 {
1841         MonoString *str;
1842         TLAB_ACCESS_INIT;
1843
1844         if (!SGEN_CAN_ALIGN_UP (size))
1845                 return NULL;
1846
1847 #ifndef DISABLE_CRITICAL_REGION
1848         ENTER_CRITICAL_REGION;
1849         str = (MonoString*)sgen_try_alloc_obj_nolock (vtable, size);
1850         if (str) {
1851                 /*This doesn't require fencing since EXIT_CRITICAL_REGION already does it for us*/
1852                 str->length = len;
1853                 EXIT_CRITICAL_REGION;
1854                 goto done;
1855         }
1856         EXIT_CRITICAL_REGION;
1857 #endif
1858
1859         LOCK_GC;
1860
1861         str = (MonoString*)sgen_alloc_obj_nolock (vtable, size);
1862         if (G_UNLIKELY (!str)) {
1863                 UNLOCK_GC;
1864                 return NULL;
1865         }
1866
1867         str->length = len;
1868
1869         UNLOCK_GC;
1870
1871  done:
1872         if (G_UNLIKELY (mono_profiler_events & MONO_PROFILE_ALLOCATIONS))
1873                 mono_profiler_allocation (&str->object);
1874
1875         return str;
1876 }
1877
1878 /*
1879  * Strings
1880  */
1881
1882 void
1883 mono_gc_set_string_length (MonoString *str, gint32 new_length)
1884 {
1885         mono_unichar2 *new_end = str->chars + new_length;
1886
1887         /* zero the discarded string. This null-delimits the string and allows
1888          * the space to be reclaimed by SGen. */
1889
1890         if (nursery_canaries_enabled () && sgen_ptr_in_nursery (str)) {
1891                 CHECK_CANARY_FOR_OBJECT ((GCObject*)str, TRUE);
1892                 memset (new_end, 0, (str->length - new_length + 1) * sizeof (mono_unichar2) + CANARY_SIZE);
1893                 memcpy (new_end + 1 , CANARY_STRING, CANARY_SIZE);
1894         } else {
1895                 memset (new_end, 0, (str->length - new_length + 1) * sizeof (mono_unichar2));
1896         }
1897
1898         str->length = new_length;
1899 }
1900
1901 /*
1902  * Profiling
1903  */
1904
1905 #define GC_ROOT_NUM 32
1906 typedef struct {
1907         int count;              /* must be the first field */
1908         void *objects [GC_ROOT_NUM];
1909         int root_types [GC_ROOT_NUM];
1910         uintptr_t extra_info [GC_ROOT_NUM];
1911 } GCRootReport;
1912
1913 static void
1914 notify_gc_roots (GCRootReport *report)
1915 {
1916         if (!report->count)
1917                 return;
1918         mono_profiler_gc_roots (report->count, report->objects, report->root_types, report->extra_info);
1919         report->count = 0;
1920 }
1921
1922 static void
1923 add_profile_gc_root (GCRootReport *report, void *object, int rtype, uintptr_t extra_info)
1924 {
1925         if (report->count == GC_ROOT_NUM)
1926                 notify_gc_roots (report);
1927         report->objects [report->count] = object;
1928         report->root_types [report->count] = rtype;
1929         report->extra_info [report->count++] = (uintptr_t)SGEN_LOAD_VTABLE (object)->klass;
1930 }
1931
1932 void
1933 sgen_client_nursery_objects_pinned (void **definitely_pinned, int count)
1934 {
1935         if (mono_profiler_get_events () & MONO_PROFILE_GC_ROOTS) {
1936                 GCRootReport report;
1937                 int idx;
1938                 report.count = 0;
1939                 for (idx = 0; idx < count; ++idx)
1940                         add_profile_gc_root (&report, definitely_pinned [idx], MONO_PROFILE_GC_ROOT_PINNING | MONO_PROFILE_GC_ROOT_MISC, 0);
1941                 notify_gc_roots (&report);
1942         }
1943 }
1944
1945 static void
1946 report_finalizer_roots_from_queue (SgenPointerQueue *queue)
1947 {
1948         GCRootReport report;
1949         size_t i;
1950
1951         report.count = 0;
1952         for (i = 0; i < queue->next_slot; ++i) {
1953                 void *obj = queue->data [i];
1954                 if (!obj)
1955                         continue;
1956                 add_profile_gc_root (&report, obj, MONO_PROFILE_GC_ROOT_FINALIZER, 0);
1957         }
1958         notify_gc_roots (&report);
1959 }
1960
1961 static void
1962 report_finalizer_roots (SgenPointerQueue *fin_ready_queue, SgenPointerQueue *critical_fin_queue)
1963 {
1964         report_finalizer_roots_from_queue (fin_ready_queue);
1965         report_finalizer_roots_from_queue (critical_fin_queue);
1966 }
1967
1968 static GCRootReport *root_report;
1969
1970 static void
1971 single_arg_report_root (MonoObject **obj, void *gc_data)
1972 {
1973         if (*obj)
1974                 add_profile_gc_root (root_report, *obj, MONO_PROFILE_GC_ROOT_OTHER, 0);
1975 }
1976
1977 static void
1978 precisely_report_roots_from (GCRootReport *report, void** start_root, void** end_root, mword desc)
1979 {
1980         switch (desc & ROOT_DESC_TYPE_MASK) {
1981         case ROOT_DESC_BITMAP:
1982                 desc >>= ROOT_DESC_TYPE_SHIFT;
1983                 while (desc) {
1984                         if ((desc & 1) && *start_root) {
1985                                 add_profile_gc_root (report, *start_root, MONO_PROFILE_GC_ROOT_OTHER, 0);
1986                         }
1987                         desc >>= 1;
1988                         start_root++;
1989                 }
1990                 return;
1991         case ROOT_DESC_COMPLEX: {
1992                 gsize *bitmap_data = (gsize *)sgen_get_complex_descriptor_bitmap (desc);
1993                 gsize bwords = (*bitmap_data) - 1;
1994                 void **start_run = start_root;
1995                 bitmap_data++;
1996                 while (bwords-- > 0) {
1997                         gsize bmap = *bitmap_data++;
1998                         void **objptr = start_run;
1999                         while (bmap) {
2000                                 if ((bmap & 1) && *objptr) {
2001                                         add_profile_gc_root (report, *objptr, MONO_PROFILE_GC_ROOT_OTHER, 0);
2002                                 }
2003                                 bmap >>= 1;
2004                                 ++objptr;
2005                         }
2006                         start_run += GC_BITS_PER_WORD;
2007                 }
2008                 break;
2009         }
2010         case ROOT_DESC_USER: {
2011                 MonoGCRootMarkFunc marker = (MonoGCRootMarkFunc)sgen_get_user_descriptor_func (desc);
2012                 root_report = report;
2013                 marker ((MonoObject**)start_root, single_arg_report_root, NULL);
2014                 break;
2015         }
2016         case ROOT_DESC_RUN_LEN:
2017                 g_assert_not_reached ();
2018         default:
2019                 g_assert_not_reached ();
2020         }
2021 }
2022
2023 static void
2024 report_registered_roots_by_type (int root_type)
2025 {
2026         GCRootReport report;
2027         void **start_root;
2028         RootRecord *root;
2029         report.count = 0;
2030         SGEN_HASH_TABLE_FOREACH (&roots_hash [root_type], void **, start_root, RootRecord *, root) {
2031                 SGEN_LOG (6, "Precise root scan %p-%p (desc: %p)", start_root, root->end_root, (void*)root->root_desc);
2032                 precisely_report_roots_from (&report, start_root, (void**)root->end_root, root->root_desc);
2033         } SGEN_HASH_TABLE_FOREACH_END;
2034         notify_gc_roots (&report);
2035 }
2036
2037 static void
2038 report_registered_roots (void)
2039 {
2040         report_registered_roots_by_type (ROOT_TYPE_NORMAL);
2041         report_registered_roots_by_type (ROOT_TYPE_WBARRIER);
2042 }
2043
2044 void
2045 sgen_client_collecting_minor (SgenPointerQueue *fin_ready_queue, SgenPointerQueue *critical_fin_queue)
2046 {
2047         if (mono_profiler_get_events () & MONO_PROFILE_GC_ROOTS)
2048                 report_registered_roots ();
2049         if (mono_profiler_get_events () & MONO_PROFILE_GC_ROOTS)
2050                 report_finalizer_roots (fin_ready_queue, critical_fin_queue);
2051 }
2052
2053 static GCRootReport major_root_report;
2054 static gboolean profile_roots;
2055
2056 void
2057 sgen_client_collecting_major_1 (void)
2058 {
2059         profile_roots = mono_profiler_get_events () & MONO_PROFILE_GC_ROOTS;
2060         memset (&major_root_report, 0, sizeof (GCRootReport));
2061 }
2062
2063 void
2064 sgen_client_pinned_los_object (GCObject *obj)
2065 {
2066         if (profile_roots)
2067                 add_profile_gc_root (&major_root_report, (char*)obj, MONO_PROFILE_GC_ROOT_PINNING | MONO_PROFILE_GC_ROOT_MISC, 0);
2068 }
2069
2070 void
2071 sgen_client_collecting_major_2 (void)
2072 {
2073         if (profile_roots)
2074                 notify_gc_roots (&major_root_report);
2075
2076         if (mono_profiler_get_events () & MONO_PROFILE_GC_ROOTS)
2077                 report_registered_roots ();
2078 }
2079
2080 void
2081 sgen_client_collecting_major_3 (SgenPointerQueue *fin_ready_queue, SgenPointerQueue *critical_fin_queue)
2082 {
2083         if (mono_profiler_get_events () & MONO_PROFILE_GC_ROOTS)
2084                 report_finalizer_roots (fin_ready_queue, critical_fin_queue);
2085 }
2086
2087 #define MOVED_OBJECTS_NUM 64
2088 static void *moved_objects [MOVED_OBJECTS_NUM];
2089 static int moved_objects_idx = 0;
2090
2091 static SgenPointerQueue moved_objects_queue = SGEN_POINTER_QUEUE_INIT (INTERNAL_MEM_MOVED_OBJECT);
2092
2093 void
2094 mono_sgen_register_moved_object (void *obj, void *destination)
2095 {
2096         /*
2097          * This function can be called from SGen's worker threads. We want to try
2098          * and avoid exposing those threads to the profiler API, so queue up move
2099          * events and send them later when the main GC thread calls
2100          * mono_sgen_gc_event_moves ().
2101          *
2102          * TODO: Once SGen has multiple worker threads, we need to switch to a
2103          * lock-free data structure for the queue as multiple threads will be
2104          * adding to it at the same time.
2105          */
2106         if (sgen_thread_pool_is_thread_pool_thread (mono_native_thread_id_get ())) {
2107                 sgen_pointer_queue_add (&moved_objects_queue, obj);
2108                 sgen_pointer_queue_add (&moved_objects_queue, destination);
2109         } else {
2110                 if (moved_objects_idx == MOVED_OBJECTS_NUM) {
2111                         mono_profiler_gc_moves (moved_objects, moved_objects_idx);
2112                         moved_objects_idx = 0;
2113                 }
2114
2115                 moved_objects [moved_objects_idx++] = obj;
2116                 moved_objects [moved_objects_idx++] = destination;
2117         }
2118 }
2119
2120 void
2121 mono_sgen_gc_event_moves (void)
2122 {
2123         while (!sgen_pointer_queue_is_empty (&moved_objects_queue)) {
2124                 void *dst = sgen_pointer_queue_pop (&moved_objects_queue);
2125                 void *src = sgen_pointer_queue_pop (&moved_objects_queue);
2126
2127                 mono_sgen_register_moved_object (src, dst);
2128         }
2129
2130         if (moved_objects_idx) {
2131                 mono_profiler_gc_moves (moved_objects, moved_objects_idx);
2132                 moved_objects_idx = 0;
2133         }
2134 }
2135
2136 /*
2137  * Heap walking
2138  */
2139
2140 #define REFS_SIZE 128
2141 typedef struct {
2142         void *data;
2143         MonoGCReferences callback;
2144         int flags;
2145         int count;
2146         int called;
2147         MonoObject *refs [REFS_SIZE];
2148         uintptr_t offsets [REFS_SIZE];
2149 } HeapWalkInfo;
2150
2151 #undef HANDLE_PTR
2152 #define HANDLE_PTR(ptr,obj)     do {    \
2153                 if (*(ptr)) {   \
2154                         if (hwi->count == REFS_SIZE) {  \
2155                                 hwi->callback ((MonoObject*)start, mono_object_class (start), hwi->called? 0: size, hwi->count, hwi->refs, hwi->offsets, hwi->data);    \
2156                                 hwi->count = 0; \
2157                                 hwi->called = 1;        \
2158                         }       \
2159                         hwi->offsets [hwi->count] = (char*)(ptr)-(char*)start;  \
2160                         hwi->refs [hwi->count++] = *(ptr);      \
2161                 }       \
2162         } while (0)
2163
2164 static void
2165 collect_references (HeapWalkInfo *hwi, GCObject *obj, size_t size)
2166 {
2167         char *start = (char*)obj;
2168         mword desc = sgen_obj_get_descriptor (obj);
2169
2170 #include "sgen/sgen-scan-object.h"
2171 }
2172
2173 static void
2174 walk_references (GCObject *start, size_t size, void *data)
2175 {
2176         HeapWalkInfo *hwi = (HeapWalkInfo *)data;
2177         hwi->called = 0;
2178         hwi->count = 0;
2179         collect_references (hwi, start, size);
2180         if (hwi->count || !hwi->called)
2181                 hwi->callback (start, mono_object_class (start), hwi->called? 0: size, hwi->count, hwi->refs, hwi->offsets, hwi->data);
2182 }
2183
2184 /**
2185  * mono_gc_walk_heap:
2186  * @flags: flags for future use
2187  * @callback: a function pointer called for each object in the heap
2188  * @data: a user data pointer that is passed to callback
2189  *
2190  * This function can be used to iterate over all the live objects in the heap:
2191  * for each object, @callback is invoked, providing info about the object's
2192  * location in memory, its class, its size and the objects it references.
2193  * For each referenced object it's offset from the object address is
2194  * reported in the offsets array.
2195  * The object references may be buffered, so the callback may be invoked
2196  * multiple times for the same object: in all but the first call, the size
2197  * argument will be zero.
2198  * Note that this function can be only called in the #MONO_GC_EVENT_PRE_START_WORLD
2199  * profiler event handler.
2200  *
2201  * Returns: a non-zero value if the GC doesn't support heap walking
2202  */
2203 int
2204 mono_gc_walk_heap (int flags, MonoGCReferences callback, void *data)
2205 {
2206         HeapWalkInfo hwi;
2207
2208         hwi.flags = flags;
2209         hwi.callback = callback;
2210         hwi.data = data;
2211
2212         sgen_clear_nursery_fragments ();
2213         sgen_scan_area_with_callback (nursery_section->data, nursery_section->end_data, walk_references, &hwi, FALSE, TRUE);
2214
2215         major_collector.iterate_objects (ITERATE_OBJECTS_SWEEP_ALL, walk_references, &hwi);
2216         sgen_los_iterate_objects (walk_references, &hwi);
2217
2218         return 0;
2219 }
2220
2221 /*
2222  * Threads
2223  */
2224
2225 void
2226 mono_gc_set_gc_callbacks (MonoGCCallbacks *callbacks)
2227 {
2228         gc_callbacks = *callbacks;
2229 }
2230
2231 MonoGCCallbacks *
2232 mono_gc_get_gc_callbacks ()
2233 {
2234         return &gc_callbacks;
2235 }
2236
2237 void
2238 sgen_client_thread_register (SgenThreadInfo* info, void *stack_bottom_fallback)
2239 {
2240         size_t stsize = 0;
2241         guint8 *staddr = NULL;
2242
2243         mono_tls_set_sgen_thread_info (info);
2244
2245         info->client_info.skip = 0;
2246
2247         info->client_info.stack_start = NULL;
2248
2249 #ifdef SGEN_POSIX_STW
2250         info->client_info.stop_count = -1;
2251         info->client_info.signal = 0;
2252 #endif
2253
2254         mono_thread_info_get_stack_bounds (&staddr, &stsize);
2255         if (staddr) {
2256                 info->client_info.stack_start_limit = staddr;
2257                 info->client_info.stack_end = staddr + stsize;
2258         } else {
2259                 gsize stack_bottom = (gsize)stack_bottom_fallback;
2260                 stack_bottom += 4095;
2261                 stack_bottom &= ~4095;
2262                 info->client_info.stack_end = (char*)stack_bottom;
2263         }
2264
2265         memset (&info->client_info.ctx, 0, sizeof (MonoContext));
2266
2267         if (mono_gc_get_gc_callbacks ()->thread_attach_func)
2268                 info->client_info.runtime_data = mono_gc_get_gc_callbacks ()->thread_attach_func ();
2269
2270         binary_protocol_thread_register ((gpointer)mono_thread_info_get_tid (info));
2271
2272         SGEN_LOG (3, "registered thread %p (%p) stack end %p", info, (gpointer)mono_thread_info_get_tid (info), info->client_info.stack_end);
2273
2274         info->client_info.info.handle_stack = mono_handle_stack_alloc ();
2275 }
2276
2277 void
2278 sgen_client_thread_unregister (SgenThreadInfo *p)
2279 {
2280         MonoNativeThreadId tid;
2281
2282         mono_tls_set_sgen_thread_info (NULL);
2283
2284         tid = mono_thread_info_get_tid (p);
2285
2286         if (p->client_info.info.runtime_thread)
2287                 mono_threads_add_joinable_thread ((gpointer)tid);
2288
2289         if (mono_gc_get_gc_callbacks ()->thread_detach_func) {
2290                 mono_gc_get_gc_callbacks ()->thread_detach_func (p->client_info.runtime_data);
2291                 p->client_info.runtime_data = NULL;
2292         }
2293
2294         binary_protocol_thread_unregister ((gpointer)tid);
2295         SGEN_LOG (3, "unregister thread %p (%p)", p, (gpointer)tid);
2296
2297         HandleStack *handles = (HandleStack*) p->client_info.info.handle_stack;
2298         p->client_info.info.handle_stack = NULL;
2299         mono_handle_stack_free (handles);
2300 }
2301
2302 void
2303 mono_gc_set_skip_thread (gboolean skip)
2304 {
2305         SgenThreadInfo *info = mono_thread_info_current ();
2306
2307         LOCK_GC;
2308         info->client_info.gc_disabled = skip;
2309         UNLOCK_GC;
2310
2311         if (skip) {
2312                 /* If we skip scanning a thread with a non-empty handle stack, we may move an
2313                  * object but fail to update the reference in the handle.
2314                  */
2315                 HandleStack *stack = info->client_info.info.handle_stack;
2316                 g_assert (stack == NULL || mono_handle_stack_is_empty (stack));
2317         }
2318 }
2319
2320 static gboolean
2321 thread_in_critical_region (SgenThreadInfo *info)
2322 {
2323         return info->client_info.in_critical_region;
2324 }
2325
2326 static void
2327 sgen_thread_attach (SgenThreadInfo *info)
2328 {
2329         if (mono_gc_get_gc_callbacks ()->thread_attach_func && !info->client_info.runtime_data)
2330                 info->client_info.runtime_data = mono_gc_get_gc_callbacks ()->thread_attach_func ();
2331 }
2332
2333 static void
2334 sgen_thread_detach (SgenThreadInfo *p)
2335 {
2336         /* If a delegate is passed to native code and invoked on a thread we dont
2337          * know about, marshal will register it with mono_threads_attach_coop, but
2338          * we have no way of knowing when that thread goes away.  SGen has a TSD
2339          * so we assume that if the domain is still registered, we can detach
2340          * the thread
2341          */
2342         if (mono_thread_internal_current_is_attached ())
2343                 mono_thread_detach_internal (mono_thread_internal_current ());
2344 }
2345
2346 gboolean
2347 mono_gc_register_thread (void *baseptr)
2348 {
2349         return mono_thread_info_attach (baseptr) != NULL;
2350 }
2351
2352 gboolean
2353 mono_gc_is_gc_thread (void)
2354 {
2355         gboolean result;
2356         LOCK_GC;
2357         result = mono_thread_info_current () != NULL;
2358         UNLOCK_GC;
2359         return result;
2360 }
2361
2362 void
2363 sgen_client_thread_register_worker (void)
2364 {
2365         mono_thread_info_register_small_id ();
2366         mono_native_thread_set_name (mono_native_thread_id_get (), "SGen worker");
2367 }
2368
2369 /* Variables holding start/end nursery so it won't have to be passed at every call */
2370 static void *scan_area_arg_start, *scan_area_arg_end;
2371
2372 void
2373 mono_gc_conservatively_scan_area (void *start, void *end)
2374 {
2375         sgen_conservatively_pin_objects_from ((void **)start, (void **)end, scan_area_arg_start, scan_area_arg_end, PIN_TYPE_STACK);
2376 }
2377
2378 void*
2379 mono_gc_scan_object (void *obj, void *gc_data)
2380 {
2381         ScanCopyContext *ctx = (ScanCopyContext *)gc_data;
2382         ctx->ops->copy_or_mark_object ((GCObject**)&obj, ctx->queue);
2383         return obj;
2384 }
2385
2386 /*
2387  * Mark from thread stacks and registers.
2388  */
2389 void
2390 sgen_client_scan_thread_data (void *start_nursery, void *end_nursery, gboolean precise, ScanCopyContext ctx)
2391 {
2392         scan_area_arg_start = start_nursery;
2393         scan_area_arg_end = end_nursery;
2394
2395         FOREACH_THREAD (info) {
2396                 int skip_reason = 0;
2397                 void *aligned_stack_start;
2398
2399                 if (info->client_info.skip) {
2400                         SGEN_LOG (3, "Skipping dead thread %p, range: %p-%p, size: %zd", info, info->client_info.stack_start, info->client_info.stack_end, (char*)info->client_info.stack_end - (char*)info->client_info.stack_start);
2401                         skip_reason = 1;
2402                 } else if (info->client_info.gc_disabled) {
2403                         SGEN_LOG (3, "GC disabled for thread %p, range: %p-%p, size: %zd", info, info->client_info.stack_start, info->client_info.stack_end, (char*)info->client_info.stack_end - (char*)info->client_info.stack_start);
2404                         skip_reason = 2;
2405                 } else if (!mono_thread_info_is_live (info)) {
2406                         SGEN_LOG (3, "Skipping non-running thread %p, range: %p-%p, size: %zd (state %x)", info, info->client_info.stack_start, info->client_info.stack_end, (char*)info->client_info.stack_end - (char*)info->client_info.stack_start, info->client_info.info.thread_state);
2407                         skip_reason = 3;
2408                 } else if (!info->client_info.stack_start) {
2409                         SGEN_LOG (3, "Skipping starting or detaching thread %p", info);
2410                         skip_reason = 4;
2411                 }
2412
2413                 binary_protocol_scan_stack ((gpointer)mono_thread_info_get_tid (info), info->client_info.stack_start, info->client_info.stack_end, skip_reason);
2414
2415                 if (skip_reason) {
2416                         if (precise) {
2417                                 /* If we skip a thread with a non-empty handle stack and then it
2418                                  * resumes running we may potentially move an object but fail to
2419                                  * update the reference in the handle.
2420                                  */
2421                                 HandleStack *stack = info->client_info.info.handle_stack;
2422                                 g_assert (stack == NULL || mono_handle_stack_is_empty (stack));
2423                         }
2424                         continue;
2425                 }
2426
2427                 g_assert (info->client_info.stack_start);
2428                 g_assert (info->client_info.stack_end);
2429
2430                 aligned_stack_start = (void*)(mword) ALIGN_TO ((mword)info->client_info.stack_start, SIZEOF_VOID_P);
2431 #ifdef HOST_WIN32
2432                 /* Windows uses a guard page before the committed stack memory pages to detect when the
2433                    stack needs to be grown. If we suspend a thread just after a function prolog has
2434                    decremented the stack pointer to point into the guard page but before the thread has
2435                    been able to read or write to that page, starting the stack scan at aligned_stack_start
2436                    will raise a STATUS_GUARD_PAGE_VIOLATION and the process will crash. This code uses
2437                    VirtualQuery() to determine whether stack_start points into the guard page and then
2438                    updates aligned_stack_start to point at the next non-guard page. */
2439                 MEMORY_BASIC_INFORMATION mem_info;
2440                 SIZE_T result = VirtualQuery(info->client_info.stack_start, &mem_info, sizeof(mem_info));
2441                 g_assert (result != 0);
2442                 if (mem_info.Protect & PAGE_GUARD) {
2443                         aligned_stack_start = ((char*) mem_info.BaseAddress) + mem_info.RegionSize;
2444                 }
2445 #endif
2446
2447                 g_assert (info->client_info.suspend_done);
2448                 SGEN_LOG (3, "Scanning thread %p, range: %p-%p, size: %zd, pinned=%zd", info, info->client_info.stack_start, info->client_info.stack_end, (char*)info->client_info.stack_end - (char*)info->client_info.stack_start, sgen_get_pinned_count ());
2449                 if (mono_gc_get_gc_callbacks ()->thread_mark_func && !conservative_stack_mark) {
2450                         mono_gc_get_gc_callbacks ()->thread_mark_func (info->client_info.runtime_data, (guint8 *)aligned_stack_start, (guint8 *)info->client_info.stack_end, precise, &ctx);
2451                 } else if (!precise) {
2452                         if (!conservative_stack_mark) {
2453                                 fprintf (stderr, "Precise stack mark not supported - disabling.\n");
2454                                 conservative_stack_mark = TRUE;
2455                         }
2456                         //FIXME we should eventually use the new stack_mark from coop
2457                         sgen_conservatively_pin_objects_from ((void **)aligned_stack_start, (void **)info->client_info.stack_end, start_nursery, end_nursery, PIN_TYPE_STACK);
2458                 }
2459
2460                 if (!precise) {
2461                         sgen_conservatively_pin_objects_from ((void**)&info->client_info.ctx, (void**)(&info->client_info.ctx + 1),
2462                                 start_nursery, end_nursery, PIN_TYPE_STACK);
2463
2464                         {
2465                                 // This is used on Coop GC for platforms where we cannot get the data for individual registers.
2466                                 // We force a spill of all registers into the stack and pass a chunk of data into sgen.
2467                                 //FIXME under coop, for now, what we need to ensure is that we scan any extra memory from info->client_info.stack_end to stack_mark
2468                                 MonoThreadUnwindState *state = &info->client_info.info.thread_saved_state [SELF_SUSPEND_STATE_INDEX];
2469                                 if (state && state->gc_stackdata) {
2470                                         sgen_conservatively_pin_objects_from ((void **)state->gc_stackdata, (void**)((char*)state->gc_stackdata + state->gc_stackdata_size),
2471                                                 start_nursery, end_nursery, PIN_TYPE_STACK);
2472                                 }
2473                         }
2474                 }
2475                 if (precise && info->client_info.info.handle_stack) {
2476                         mono_handle_stack_scan ((HandleStack*)info->client_info.info.handle_stack, (GcScanFunc)ctx.ops->copy_or_mark_object, ctx.queue);
2477                 }
2478         } FOREACH_THREAD_END
2479 }
2480
2481 /*
2482  * mono_gc_set_stack_end:
2483  *
2484  *   Set the end of the current threads stack to STACK_END. The stack space between 
2485  * STACK_END and the real end of the threads stack will not be scanned during collections.
2486  */
2487 void
2488 mono_gc_set_stack_end (void *stack_end)
2489 {
2490         SgenThreadInfo *info;
2491
2492         LOCK_GC;
2493         info = mono_thread_info_current ();
2494         if (info) {
2495                 SGEN_ASSERT (0, stack_end < info->client_info.stack_end, "Can only lower stack end");
2496                 info->client_info.stack_end = stack_end;
2497         }
2498         UNLOCK_GC;
2499 }
2500
2501 /*
2502  * Roots
2503  */
2504
2505 int
2506 mono_gc_register_root (char *start, size_t size, MonoGCDescriptor descr, MonoGCRootSource source, const char *msg)
2507 {
2508         return sgen_register_root (start, size, descr, descr ? ROOT_TYPE_NORMAL : ROOT_TYPE_PINNED, source, msg);
2509 }
2510
2511 int
2512 mono_gc_register_root_wbarrier (char *start, size_t size, MonoGCDescriptor descr, MonoGCRootSource source, const char *msg)
2513 {
2514         return sgen_register_root (start, size, descr, ROOT_TYPE_WBARRIER, source, msg);
2515 }
2516
2517 void
2518 mono_gc_deregister_root (char* addr)
2519 {
2520         sgen_deregister_root (addr);
2521 }
2522
2523 /*
2524  * PThreads
2525  */
2526
2527 #ifndef HOST_WIN32
2528 int
2529 mono_gc_pthread_create (pthread_t *new_thread, const pthread_attr_t *attr, void *(*start_routine)(void *), void *arg)
2530 {
2531         int res;
2532
2533         mono_threads_join_lock ();
2534         res = pthread_create (new_thread, attr, start_routine, arg);
2535         mono_threads_join_unlock ();
2536
2537         return res;
2538 }
2539 #endif
2540
2541 /*
2542  * Miscellaneous
2543  */
2544
2545 void
2546 sgen_client_total_allocated_heap_changed (size_t allocated_heap)
2547 {
2548         mono_runtime_resource_check_limit (MONO_RESOURCE_GC_HEAP, allocated_heap);
2549 }
2550
2551 gboolean
2552 mono_gc_user_markers_supported (void)
2553 {
2554         return TRUE;
2555 }
2556
2557 gboolean
2558 mono_object_is_alive (MonoObject* o)
2559 {
2560         return TRUE;
2561 }
2562
2563 int
2564 mono_gc_get_generation (MonoObject *obj)
2565 {
2566         if (sgen_ptr_in_nursery (obj))
2567                 return 0;
2568         return 1;
2569 }
2570
2571 const char *
2572 mono_gc_get_gc_name (void)
2573 {
2574         return "sgen";
2575 }
2576
2577 char*
2578 mono_gc_get_description (void)
2579 {
2580 #ifdef HAVE_CONC_GC_AS_DEFAULT
2581         return g_strdup ("sgen (concurrent by default)");
2582 #else
2583         return g_strdup ("sgen");
2584 #endif
2585 }
2586
2587 void
2588 mono_gc_set_desktop_mode (void)
2589 {
2590 }
2591
2592 gboolean
2593 mono_gc_is_moving (void)
2594 {
2595         return TRUE;
2596 }
2597
2598 gboolean
2599 mono_gc_is_disabled (void)
2600 {
2601         return FALSE;
2602 }
2603
2604 #ifdef HOST_WIN32
2605 BOOL APIENTRY mono_gc_dllmain (HMODULE module_handle, DWORD reason, LPVOID reserved)
2606 {
2607         return TRUE;
2608 }
2609 #endif
2610
2611 int
2612 mono_gc_max_generation (void)
2613 {
2614         return 1;
2615 }
2616
2617 gboolean
2618 mono_gc_precise_stack_mark_enabled (void)
2619 {
2620         return !conservative_stack_mark;
2621 }
2622
2623 void
2624 mono_gc_collect (int generation)
2625 {
2626         sgen_gc_collect (generation);
2627 }
2628
2629 int
2630 mono_gc_collection_count (int generation)
2631 {
2632         return sgen_gc_collection_count (generation);
2633 }
2634
2635 int64_t
2636 mono_gc_get_used_size (void)
2637 {
2638         return (int64_t)sgen_gc_get_used_size ();
2639 }
2640
2641 int64_t
2642 mono_gc_get_heap_size (void)
2643 {
2644         return (int64_t)sgen_gc_get_total_heap_allocation ();
2645 }
2646
2647 MonoGCDescriptor
2648 mono_gc_make_root_descr_user (MonoGCRootMarkFunc marker)
2649 {
2650         return sgen_make_user_root_descriptor (marker);
2651 }
2652
2653 MonoGCDescriptor
2654 mono_gc_make_descr_for_string (gsize *bitmap, int numbits)
2655 {
2656         return SGEN_DESC_STRING;
2657 }
2658
2659 void*
2660 mono_gc_get_nursery (int *shift_bits, size_t *size)
2661 {
2662         *size = sgen_nursery_size;
2663         *shift_bits = DEFAULT_NURSERY_BITS;
2664         return sgen_get_nursery_start ();
2665 }
2666
2667 int
2668 mono_gc_get_los_limit (void)
2669 {
2670         return SGEN_MAX_SMALL_OBJ_SIZE;
2671 }
2672
2673 gpointer
2674 sgen_client_default_metadata (void)
2675 {
2676         return mono_domain_get ();
2677 }
2678
2679 gpointer
2680 sgen_client_metadata_for_object (GCObject *obj)
2681 {
2682         return mono_object_domain (obj);
2683 }
2684
2685 /**
2686  * mono_gchandle_is_in_domain:
2687  * @gchandle: a GCHandle's handle.
2688  * @domain: An application domain.
2689  *
2690  * Returns: TRUE if the object wrapped by the @gchandle belongs to the specific @domain.
2691  */
2692 gboolean
2693 mono_gchandle_is_in_domain (guint32 gchandle, MonoDomain *domain)
2694 {
2695         MonoDomain *gchandle_domain = (MonoDomain *)sgen_gchandle_get_metadata (gchandle);
2696         return domain->domain_id == gchandle_domain->domain_id;
2697 }
2698
2699 /**
2700  * mono_gchandle_free_domain:
2701  * @unloading: domain that is unloading
2702  *
2703  * Function used internally to cleanup any GC handle for objects belonging
2704  * to the specified domain during appdomain unload.
2705  */
2706 void
2707 mono_gchandle_free_domain (MonoDomain *unloading)
2708 {
2709 }
2710
2711 static gpointer
2712 null_link_if_in_domain (gpointer hidden, GCHandleType handle_type, int max_generation, gpointer user)
2713 {
2714         MonoDomain *unloading_domain = (MonoDomain *)user;
2715         MonoDomain *obj_domain;
2716         gboolean is_weak = MONO_GC_HANDLE_TYPE_IS_WEAK (handle_type);
2717         if (MONO_GC_HANDLE_IS_OBJECT_POINTER (hidden)) {
2718                 MonoObject *obj = (MonoObject *)MONO_GC_REVEAL_POINTER (hidden, is_weak);
2719                 obj_domain = mono_object_domain (obj);
2720         } else {
2721                 obj_domain = (MonoDomain *)MONO_GC_REVEAL_POINTER (hidden, is_weak);
2722         }
2723         if (unloading_domain->domain_id == obj_domain->domain_id)
2724                 return NULL;
2725         return hidden;
2726 }
2727
2728 void
2729 sgen_null_links_for_domain (MonoDomain *domain)
2730 {
2731         guint type;
2732         for (type = HANDLE_TYPE_MIN; type < HANDLE_TYPE_MAX; ++type)
2733                 sgen_gchandle_iterate ((GCHandleType)type, GENERATION_OLD, null_link_if_in_domain, domain);
2734 }
2735
2736 void
2737 mono_gchandle_set_target (guint32 gchandle, MonoObject *obj)
2738 {
2739         sgen_gchandle_set_target (gchandle, obj);
2740 }
2741
2742 void
2743 sgen_client_gchandle_created (int handle_type, GCObject *obj, guint32 handle)
2744 {
2745 #ifndef DISABLE_PERFCOUNTERS
2746         mono_perfcounters->gc_num_handles++;
2747 #endif
2748         mono_profiler_gc_handle (MONO_PROFILER_GC_HANDLE_CREATED, handle_type, handle, obj);
2749 }
2750
2751 void
2752 sgen_client_gchandle_destroyed (int handle_type, guint32 handle)
2753 {
2754 #ifndef DISABLE_PERFCOUNTERS
2755         mono_perfcounters->gc_num_handles--;
2756 #endif
2757         mono_profiler_gc_handle (MONO_PROFILER_GC_HANDLE_DESTROYED, handle_type, handle, NULL);
2758 }
2759
2760 void
2761 sgen_client_ensure_weak_gchandles_accessible (void)
2762 {
2763         /*
2764          * During the second bridge processing step the world is
2765          * running again.  That step processes all weak links once
2766          * more to null those that refer to dead objects.  Before that
2767          * is completed, those links must not be followed, so we
2768          * conservatively wait for bridge processing when any weak
2769          * link is dereferenced.
2770          */
2771         /* FIXME: A GC can occur after this check fails, in which case we
2772          * should wait for bridge processing but would fail to do so.
2773          */
2774         if (G_UNLIKELY (bridge_processing_in_progress))
2775                 mono_gc_wait_for_bridge_processing ();
2776 }
2777
2778 void*
2779 mono_gc_invoke_with_gc_lock (MonoGCLockedCallbackFunc func, void *data)
2780 {
2781         void *result;
2782         LOCK_INTERRUPTION;
2783         result = func (data);
2784         UNLOCK_INTERRUPTION;
2785         return result;
2786 }
2787
2788 void
2789 mono_gc_register_altstack (gpointer stack, gint32 stack_size, gpointer altstack, gint32 altstack_size)
2790 {
2791         // FIXME:
2792 }
2793
2794 guint8*
2795 mono_gc_get_card_table (int *shift_bits, gpointer *mask)
2796 {
2797         return sgen_get_card_table_configuration (shift_bits, mask);
2798 }
2799
2800 gboolean
2801 mono_gc_card_table_nursery_check (void)
2802 {
2803         return !sgen_get_major_collector ()->is_concurrent;
2804 }
2805
2806 /* Negative value to remove */
2807 void
2808 mono_gc_add_memory_pressure (gint64 value)
2809 {
2810         /* FIXME: Implement at some point? */
2811 }
2812
2813 /*
2814  * Logging
2815  */
2816
2817 void
2818 sgen_client_degraded_allocation (size_t size)
2819 {
2820         static int last_major_gc_warned = -1;
2821         static int num_degraded = 0;
2822
2823         if (last_major_gc_warned < (int)gc_stats.major_gc_count) {
2824                 ++num_degraded;
2825                 if (num_degraded == 1 || num_degraded == 3)
2826                         mono_trace (G_LOG_LEVEL_INFO, MONO_TRACE_GC, "Warning: Degraded allocation.  Consider increasing nursery-size if the warning persists.");
2827                 else if (num_degraded == 10)
2828                         mono_trace (G_LOG_LEVEL_INFO, MONO_TRACE_GC, "Warning: Repeated degraded allocation.  Consider increasing nursery-size.");
2829                 last_major_gc_warned = gc_stats.major_gc_count;
2830         }
2831 }
2832
2833 /*
2834  * Debugging
2835  */
2836
2837 const char*
2838 sgen_client_description_for_internal_mem_type (int type)
2839 {
2840         switch (type) {
2841         case INTERNAL_MEM_EPHEMERON_LINK: return "ephemeron-link";
2842         case INTERNAL_MEM_MOVED_OBJECT: return "moved-object";
2843         default:
2844                 return NULL;
2845         }
2846 }
2847
2848 void
2849 sgen_client_pre_collection_checks (void)
2850 {
2851         if (sgen_mono_xdomain_checks) {
2852                 sgen_clear_nursery_fragments ();
2853                 sgen_check_for_xdomain_refs ();
2854         }
2855 }
2856
2857 gboolean
2858 sgen_client_vtable_is_inited (MonoVTable *vt)
2859 {
2860         return vt->klass->inited;
2861 }
2862
2863 const char*
2864 sgen_client_vtable_get_namespace (MonoVTable *vt)
2865 {
2866         return vt->klass->name_space;
2867 }
2868
2869 const char*
2870 sgen_client_vtable_get_name (MonoVTable *vt)
2871 {
2872         return vt->klass->name;
2873 }
2874
2875 /*
2876  * Initialization
2877  */
2878
2879 void
2880 sgen_client_init (void)
2881 {
2882         int dummy;
2883         MonoThreadInfoCallbacks cb;
2884
2885         cb.thread_register = sgen_thread_register;
2886         cb.thread_detach = sgen_thread_detach;
2887         cb.thread_unregister = sgen_thread_unregister;
2888         cb.thread_attach = sgen_thread_attach;
2889         cb.mono_thread_in_critical_region = thread_in_critical_region;
2890         cb.ip_in_critical_region = ip_in_critical_region;
2891
2892         mono_threads_init (&cb, sizeof (SgenThreadInfo));
2893
2894         ///* Keep this the default for now */
2895         /* Precise marking is broken on all supported targets. Disable until fixed. */
2896         conservative_stack_mark = TRUE;
2897
2898         sgen_register_fixed_internal_mem_type (INTERNAL_MEM_EPHEMERON_LINK, sizeof (EphemeronLinkNode));
2899
2900         mono_sgen_init_stw ();
2901
2902         mono_tls_init_gc_keys ();
2903
2904         mono_gc_register_thread (&dummy);
2905 }
2906
2907 gboolean
2908 sgen_client_handle_gc_param (const char *opt)
2909 {
2910         if (g_str_has_prefix (opt, "stack-mark=")) {
2911                 opt = strchr (opt, '=') + 1;
2912                 if (!strcmp (opt, "precise")) {
2913                         conservative_stack_mark = FALSE;
2914                 } else if (!strcmp (opt, "conservative")) {
2915                         conservative_stack_mark = TRUE;
2916                 } else {
2917                         sgen_env_var_error (MONO_GC_PARAMS_NAME, conservative_stack_mark ? "Using `conservative`." : "Using `precise`.",
2918                                         "Invalid value `%s` for `stack-mark` option, possible values are: `precise`, `conservative`.", opt);
2919                 }
2920         } else if (g_str_has_prefix (opt, "bridge-implementation=")) {
2921                 opt = strchr (opt, '=') + 1;
2922                 sgen_set_bridge_implementation (opt);
2923         } else if (g_str_has_prefix (opt, "toggleref-test")) {
2924                 /* FIXME: This should probably in MONO_GC_DEBUG */
2925                 sgen_register_test_toggleref_callback ();
2926         } else if (!sgen_bridge_handle_gc_param (opt)) {
2927                 return FALSE;
2928         }
2929         return TRUE;
2930 }
2931
2932 void
2933 sgen_client_print_gc_params_usage (void)
2934 {
2935         fprintf (stderr, "  stack-mark=MARK-METHOD (where MARK-METHOD is 'precise' or 'conservative')\n");
2936 }
2937
2938 gboolean
2939 sgen_client_handle_gc_debug (const char *opt)
2940 {
2941         if (!strcmp (opt, "xdomain-checks")) {
2942                 sgen_mono_xdomain_checks = TRUE;
2943         } else if (!strcmp (opt, "do-not-finalize")) {
2944                 mono_do_not_finalize = TRUE;
2945         } else if (g_str_has_prefix (opt, "do-not-finalize=")) {
2946                 opt = strchr (opt, '=') + 1;
2947                 mono_do_not_finalize = TRUE;
2948                 mono_do_not_finalize_class_names = g_strsplit (opt, ",", 0);
2949         } else if (!strcmp (opt, "log-finalizers")) {
2950                 log_finalizers = TRUE;
2951         } else if (!strcmp (opt, "no-managed-allocator")) {
2952                 sgen_set_use_managed_allocator (FALSE);
2953         } else if (!sgen_bridge_handle_gc_debug (opt)) {
2954                 return FALSE;
2955         }
2956         return TRUE;
2957 }
2958
2959 void
2960 sgen_client_print_gc_debug_usage (void)
2961 {
2962         fprintf (stderr, "  xdomain-checks\n");
2963         fprintf (stderr, "  do-not-finalize\n");
2964         fprintf (stderr, "  log-finalizers\n");
2965         fprintf (stderr, "  no-managed-allocator\n");
2966         sgen_bridge_print_gc_debug_usage ();
2967 }
2968
2969
2970 gpointer
2971 sgen_client_get_provenance (void)
2972 {
2973 #ifdef SGEN_OBJECT_PROVENANCE
2974         MonoGCCallbacks *cb = mono_gc_get_gc_callbacks ();
2975         gpointer (*get_provenance_func) (void);
2976         if (!cb)
2977                 return NULL;
2978         get_provenance_func = cb->get_provenance_func;
2979         if (get_provenance_func)
2980                 return get_provenance_func ();
2981         return NULL;
2982 #else
2983         return NULL;
2984 #endif
2985 }
2986
2987 void
2988 sgen_client_describe_invalid_pointer (GCObject *ptr)
2989 {
2990         sgen_bridge_describe_pointer (ptr);
2991 }
2992
2993 static gboolean gc_inited;
2994
2995 void
2996 mono_gc_base_init (void)
2997 {
2998         if (gc_inited)
2999                 return;
3000
3001         mono_counters_init ();
3002
3003 #ifndef HOST_WIN32
3004         mono_w32handle_init ();
3005 #endif
3006
3007 #ifdef HEAVY_STATISTICS
3008         mono_counters_register ("los marked cards", MONO_COUNTER_GC | MONO_COUNTER_ULONG, &los_marked_cards);
3009         mono_counters_register ("los array cards scanned ", MONO_COUNTER_GC | MONO_COUNTER_ULONG, &los_array_cards);
3010         mono_counters_register ("los array remsets", MONO_COUNTER_GC | MONO_COUNTER_ULONG, &los_array_remsets);
3011
3012         mono_counters_register ("WBarrier set arrayref", MONO_COUNTER_GC | MONO_COUNTER_ULONG, &stat_wbarrier_set_arrayref);
3013         mono_counters_register ("WBarrier value copy", MONO_COUNTER_GC | MONO_COUNTER_ULONG, &stat_wbarrier_value_copy);
3014         mono_counters_register ("WBarrier object copy", MONO_COUNTER_GC | MONO_COUNTER_ULONG, &stat_wbarrier_object_copy);
3015 #endif
3016
3017         sgen_gc_init ();
3018
3019         gc_inited = TRUE;
3020 }
3021
3022 void
3023 mono_gc_base_cleanup (void)
3024 {
3025         sgen_thread_pool_shutdown ();
3026
3027         // We should have consumed any outstanding moves.
3028         g_assert (sgen_pointer_queue_is_empty (&moved_objects_queue));
3029 }
3030
3031 gboolean
3032 mono_gc_is_null (void)
3033 {
3034         return FALSE;
3035 }
3036
3037 #endif