Merge pull request #5714 from alexischr/update_bockbuild
[mono.git] / mono / sgen / sgen-alloc.c
index 9d3f45195e115047b8e3c303c5d0ec1d21fbce6b..6c21c466f3fa6fcf51b6b210fa590129b04c668e 100644 (file)
@@ -1,5 +1,6 @@
-/*
- * sgen-alloc.c: Object allocation routines + managed allocators
+/**
+ * \file
+ * Object allocation routines + managed allocators
  *
  * Author:
  *     Paolo Molaro (lupus@ximian.com)
  * Copyright 2011 Xamarin, Inc.
  * Copyright (C) 2012 Xamarin Inc
  *
- * This library is free software; you can redistribute it and/or
- * modify it under the terms of the GNU Library General Public
- * License 2.0 as published by the Free Software Foundation;
- *
- * This library is distributed in the hope that it will be useful,
- * but WITHOUT ANY WARRANTY; without even the implied warranty of
- * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
- * Library General Public License for more details.
- *
- * You should have received a copy of the GNU Library General Public
- * License 2.0 along with this library; if not, write to the Free
- * Software Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
+ * Licensed under the MIT license. See LICENSE file in the project root for full license information.
  */
 
 /*
@@ -68,30 +58,10 @@ static guint64 stat_bytes_alloced_los = 0;
  * tlab_real_end points to the end of the TLAB.
  */
 
-/*
- * FIXME: What is faster, a TLS variable pointing to a structure, or separate TLS 
- * variables for next+temp_end ?
- */
-#ifdef HAVE_KW_THREAD
-static __thread char *tlab_start;
-static __thread char *tlab_next;
-static __thread char *tlab_temp_end;
-static __thread char *tlab_real_end;
-/* Used by the managed allocator/wbarrier */
-static __thread char **tlab_next_addr MONO_ATTR_USED;
-#endif
-
-#ifdef HAVE_KW_THREAD
-#define TLAB_START     tlab_start
-#define TLAB_NEXT      tlab_next
-#define TLAB_TEMP_END  tlab_temp_end
-#define TLAB_REAL_END  tlab_real_end
-#else
 #define TLAB_START     (__thread_info__->tlab_start)
 #define TLAB_NEXT      (__thread_info__->tlab_next)
 #define TLAB_TEMP_END  (__thread_info__->tlab_temp_end)
 #define TLAB_REAL_END  (__thread_info__->tlab_real_end)
-#endif
 
 static GCObject*
 alloc_degraded (GCVTable vtable, size_t size, gboolean for_mature)
@@ -99,12 +69,12 @@ alloc_degraded (GCVTable vtable, size_t size, gboolean for_mature)
        GCObject *p;
 
        if (!for_mature) {
-               sgen_client_degraded_allocation (size);
+               sgen_client_degraded_allocation ();
                SGEN_ATOMIC_ADD_P (degraded_mode, size);
                sgen_ensure_free_space (size, GENERATION_OLD);
        } else {
                if (sgen_need_major_collection (size))
-                       sgen_perform_collection (size, GENERATION_OLD, "mature allocation failure", !for_mature);
+                       sgen_perform_collection (size, GENERATION_OLD, "mature allocation failure", !for_mature, TRUE);
        }
 
 
@@ -172,7 +142,7 @@ sgen_alloc_obj_nolock (GCVTable vtable, size_t size)
 
                if (collect_before_allocs) {
                        if (((current_alloc % collect_before_allocs) == 0) && nursery_section) {
-                               sgen_perform_collection (0, GENERATION_NURSERY, "collect-before-alloc-triggered", TRUE);
+                               sgen_perform_collection (0, GENERATION_NURSERY, "collect-before-alloc-triggered", TRUE, TRUE);
                                if (!degraded_mode && sgen_can_alloc_size (size) && real_size <= SGEN_MAX_SMALL_OBJ_SIZE) {
                                        // FIXME:
                                        g_assert_not_reached ();
@@ -208,11 +178,6 @@ sgen_alloc_obj_nolock (GCVTable vtable, size_t size)
                if (G_LIKELY (new_next < TLAB_TEMP_END)) {
                        /* Fast path */
 
-                       /* 
-                        * FIXME: We might need a memory barrier here so the change to tlab_next is 
-                        * visible before the vtable store.
-                        */
-
                        CANARIFY_ALLOC(p,real_size);
                        SGEN_LOG (6, "Allocated object %p, vtable: %p (%s), size: %zd", p, vtable, sgen_client_vtable_get_name (vtable), size);
                        binary_protocol_alloc (p , vtable, size, sgen_client_get_provenance ());
@@ -246,7 +211,7 @@ sgen_alloc_obj_nolock (GCVTable vtable, size_t size)
                        /* when running in degraded mode, we continue allocing that way
                         * for a while, to decrease the number of useless nursery collections.
                         */
-                       if (degraded_mode && degraded_mode < DEFAULT_NURSERY_SIZE)
+                       if (degraded_mode && degraded_mode < sgen_nursery_size)
                                return alloc_degraded (vtable, size, FALSE);
 
                        available_in_tlab = (int)(TLAB_REAL_END - TLAB_NEXT);//We'll never have tlabs > 2Gb
@@ -276,7 +241,7 @@ sgen_alloc_obj_nolock (GCVTable vtable, size_t size)
                                                p = (void **)sgen_nursery_alloc (size);
                                }
                                if (!p)
-                                       return alloc_degraded (vtable, size, FALSE);
+                                       return alloc_degraded (vtable, size, TRUE);
 
                                zero_tlab_if_necessary (p, size);
                        } else {
@@ -293,7 +258,7 @@ sgen_alloc_obj_nolock (GCVTable vtable, size_t size)
                                                p = (void **)sgen_nursery_alloc_range (tlab_size, size, &alloc_size);
                                }
                                if (!p)
-                                       return alloc_degraded (vtable, size, FALSE);
+                                       return alloc_degraded (vtable, size, TRUE);
 
                                /* Allocate a new TLAB from the current nursery fragment */
                                TLAB_START = (char*)p;
@@ -431,13 +396,16 @@ sgen_alloc_obj (GCVTable vtable, size_t size)
                int current_alloc = InterlockedIncrement (&alloc_count);
 
                if (verify_before_allocs) {
-                       if ((current_alloc % verify_before_allocs) == 0)
+                       if ((current_alloc % verify_before_allocs) == 0) {
+                               LOCK_GC;
                                sgen_check_whole_heap_stw ();
+                               UNLOCK_GC;
+                       }
                }
                if (collect_before_allocs) {
                        if (((current_alloc % collect_before_allocs) == 0) && nursery_section) {
                                LOCK_GC;
-                               sgen_perform_collection (0, GENERATION_NURSERY, "collect-before-alloc-triggered", TRUE);
+                               sgen_perform_collection (0, GENERATION_NURSERY, "collect-before-alloc-triggered", TRUE, TRUE);
                                UNLOCK_GC;
                        }
                }
@@ -503,23 +471,6 @@ sgen_alloc_obj_mature (GCVTable vtable, size_t size)
        return res;
 }
 
-void
-sgen_init_tlab_info (SgenThreadInfo* info)
-{
-#ifndef HAVE_KW_THREAD
-       SgenThreadInfo *__thread_info__ = info;
-#endif
-
-       info->tlab_start_addr = &TLAB_START;
-       info->tlab_next_addr = &TLAB_NEXT;
-       info->tlab_temp_end_addr = &TLAB_TEMP_END;
-       info->tlab_real_end_addr = &TLAB_REAL_END;
-
-#ifdef HAVE_KW_THREAD
-       tlab_next_addr = &tlab_next;
-#endif
-}
-
 /*
  * Clear the thread local TLAB variables for all threads.
  */
@@ -528,28 +479,16 @@ sgen_clear_tlabs (void)
 {
        FOREACH_THREAD (info) {
                /* A new TLAB will be allocated when the thread does its first allocation */
-               *info->tlab_start_addr = NULL;
-               *info->tlab_next_addr = NULL;
-               *info->tlab_temp_end_addr = NULL;
-               *info->tlab_real_end_addr = NULL;
+               info->tlab_start = NULL;
+               info->tlab_next = NULL;
+               info->tlab_temp_end = NULL;
+               info->tlab_real_end = NULL;
        } FOREACH_THREAD_END
 }
 
 void
 sgen_init_allocator (void)
 {
-#if defined(HAVE_KW_THREAD) && !defined(SGEN_WITHOUT_MONO)
-       int tlab_next_addr_offset = -1;
-       int tlab_temp_end_offset = -1;
-
-
-       MONO_THREAD_VAR_OFFSET (tlab_next_addr, tlab_next_addr_offset);
-       MONO_THREAD_VAR_OFFSET (tlab_temp_end, tlab_temp_end_offset);
-
-       mono_tls_key_set_offset (TLS_KEY_SGEN_TLAB_NEXT_ADDR, tlab_next_addr_offset);
-       mono_tls_key_set_offset (TLS_KEY_SGEN_TLAB_TEMP_END, tlab_temp_end_offset);
-#endif
-
 #ifdef HEAVY_STATISTICS
        mono_counters_register ("# objects allocated", MONO_COUNTER_GC | MONO_COUNTER_ULONG, &stat_objects_alloced);
        mono_counters_register ("bytes allocated", MONO_COUNTER_GC | MONO_COUNTER_ULONG, &stat_bytes_alloced);