2008-08-29 Geoff Norton <gnorton@novell.com>
[mono.git] / mono / mini / tramp-arm.c
1 /*
2  * tramp-arm.c: JIT trampoline code for ARM
3  *
4  * Authors:
5  *   Paolo Molaro (lupus@ximian.com)
6  *
7  * (C) 2001 Ximian, Inc.
8  */
9
10 #include <config.h>
11 #include <glib.h>
12
13 #include <mono/metadata/appdomain.h>
14 #include <mono/metadata/marshal.h>
15 #include <mono/metadata/tabledefs.h>
16 #include <mono/arch/arm/arm-codegen.h>
17
18 #include "mini.h"
19 #include "mini-arm.h"
20
21 static guint8* nullified_class_init_trampoline;
22
23 /*
24  * Return the instruction to jump from code to target, 0 if not
25  * reachable with a single instruction
26  */
27 static guint32
28 branch_for_target_reachable (guint8 *branch, guint8 *target)
29 {
30         gint diff = target - branch - 8;
31         g_assert ((diff & 3) == 0);
32         if (diff >= 0) {
33                 if (diff <= 33554431)
34                         return (ARMCOND_AL << ARMCOND_SHIFT) | (ARM_BR_TAG) | (diff >> 2);
35         } else {
36                 /* diff between 0 and -33554432 */
37                 if (diff >= -33554432)
38                         return (ARMCOND_AL << ARMCOND_SHIFT) | (ARM_BR_TAG) | ((diff >> 2) & ~0xff000000);
39         }
40         return 0;
41 }
42
43 /*
44  * mono_arch_get_unbox_trampoline:
45  * @gsctx: the generic sharing context
46  * @m: method pointer
47  * @addr: pointer to native code for @m
48  *
49  * when value type methods are called through the vtable we need to unbox the
50  * this argument. This method returns a pointer to a trampoline which does
51  * unboxing before calling the method
52  */
53 gpointer
54 mono_arch_get_unbox_trampoline (MonoGenericSharingContext *gsctx, MonoMethod *m, gpointer addr)
55 {
56         guint8 *code, *start;
57         int this_pos = 0;
58         MonoDomain *domain = mono_domain_get ();
59
60         if (MONO_TYPE_ISSTRUCT (mono_method_signature (m)->ret))
61                 this_pos = 1;
62
63         mono_domain_lock (domain);
64         start = code = mono_code_manager_reserve (domain->code_mp, 16);
65         mono_domain_unlock (domain);
66
67         ARM_LDR_IMM (code, ARMREG_IP, ARMREG_PC, 4);
68         ARM_ADD_REG_IMM8 (code, this_pos, this_pos, sizeof (MonoObject));
69         ARM_MOV_REG_REG (code, ARMREG_PC, ARMREG_IP);
70         *(guint32*)code = (guint32)addr;
71         code += 4;
72         mono_arch_flush_icache (start, code - start);
73         g_assert ((code - start) <= 16);
74         /*g_print ("unbox trampoline at %d for %s:%s\n", this_pos, m->klass->name, m->name);
75         g_print ("unbox code is at %p for method at %p\n", start, addr);*/
76
77         return start;
78 }
79
80 void
81 mono_arch_patch_callsite (guint8 *method_start, guint8 *code_ptr, guint8 *addr)
82 {
83         guint32 *code = (guint32*)code_ptr;
84
85         /* This is the 'bl' or the 'mov pc' instruction */
86         --code;
87         
88         /*
89          * Note that methods are called also with the bl opcode.
90          */
91         if ((((*code) >> 25)  & 7) == 5) {
92                 /*g_print ("direct patching\n");*/
93                 arm_patch ((guint8*)code, addr);
94                 mono_arch_flush_icache ((guint8*)code, 4);
95                 return;
96         }
97
98         if ((((*code) >> 20) & 0xFF) == 0x12) {
99                 /*g_print ("patching bx\n");*/
100                 arm_patch ((guint8*)code, addr);
101                 mono_arch_flush_icache ((guint8*)(code - 2), 4);
102                 return;
103         }
104
105         g_assert_not_reached ();
106 }
107
108 void
109 mono_arch_patch_plt_entry (guint8 *code, guint8 *addr)
110 {
111         /* Patch the jump table entry used by the plt entry */
112         guint32 offset = ((guint32*)code)[3];
113         guint8 *jump_entry = code + offset + 16;
114
115         *(guint8**)jump_entry = addr;
116 }
117
118 void
119 mono_arch_nullify_class_init_trampoline (guint8 *code, gssize *regs)
120 {
121         return;
122 }
123
124 void
125 mono_arch_nullify_plt_entry (guint8 *code)
126 {
127         if (mono_aot_only && !nullified_class_init_trampoline)
128                 nullified_class_init_trampoline = mono_aot_get_named_code ("nullified_class_init_trampoline");
129
130         mono_arch_patch_plt_entry (code, nullified_class_init_trampoline);
131 }
132
133 /* Stack size for trampoline function 
134  */
135 #define STACK (sizeof (MonoLMF))
136
137 /* Method-specific trampoline code fragment size */
138 #define METHOD_TRAMPOLINE_SIZE 64
139
140 /* Jump-specific trampoline code fragment size */
141 #define JUMP_TRAMPOLINE_SIZE   64
142
143 #define GEN_TRAMP_SIZE 192
144
145 /*
146  * Stack frame description when the generic trampoline is called.
147  * caller frame
148  * ------------------- old sp
149  *  MonoLMF
150  * ------------------- sp
151  */
152 guchar*
153 mono_arch_create_trampoline_code (MonoTrampolineType tramp_type)
154 {
155         MonoJumpInfo *ji;
156         guint32 code_size;
157
158         return mono_arch_create_trampoline_code_full (tramp_type, &code_size, &ji, FALSE);
159 }
160         
161 guchar*
162 mono_arch_create_trampoline_code_full (MonoTrampolineType tramp_type, guint32 *code_size, MonoJumpInfo **ji, gboolean aot)
163 {
164         guint8 *buf, *code = NULL;
165         guint8 *load_get_lmf_addr, *load_trampoline;
166         gpointer *constants;
167
168         *ji = NULL;
169
170         /* Now we'll create in 'buf' the ARM trampoline code. This
171          is the trampoline code common to all methods  */
172         
173         code = buf = mono_global_codeman_reserve (GEN_TRAMP_SIZE);
174
175         /*
176          * At this point lr points to the specific arg and sp points to the saved
177          * regs on the stack (all but PC and SP). The original LR value has been
178          * saved as sp + LR_OFFSET by the push in the specific trampoline
179          */
180 #define LR_OFFSET (sizeof (gpointer) * 13)
181         ARM_MOV_REG_REG (buf, ARMREG_V1, ARMREG_SP);
182         if (aot) {
183                 /* 
184                  * The trampoline contains a pc-relative offset to the got slot where the
185                  * value is stored. The offset can be found at [lr + 4].
186                  */
187                 g_assert (tramp_type != MONO_TRAMPOLINE_GENERIC_CLASS_INIT);
188                 ARM_LDR_IMM (buf, ARMREG_V2, ARMREG_LR, 4);
189                 ARM_LDR_REG_REG (buf, ARMREG_V2, ARMREG_V2, ARMREG_LR);
190         } else {
191                 if (tramp_type != MONO_TRAMPOLINE_GENERIC_CLASS_INIT)
192                         ARM_LDR_IMM (buf, ARMREG_V2, ARMREG_LR, 0);
193                 else
194                         ARM_MOV_REG_REG (buf, ARMREG_V2, MONO_ARCH_VTABLE_REG);
195         }
196         ARM_LDR_IMM (buf, ARMREG_V3, ARMREG_SP, LR_OFFSET);
197
198         /* ok, now we can continue with the MonoLMF setup, mostly untouched 
199          * from emit_prolog in mini-arm.c
200          * This is a synthetized call to mono_get_lmf_addr ()
201          */
202         if (aot) {
203                 *ji = mono_patch_info_list_prepend (*ji, buf - code, MONO_PATCH_INFO_JIT_ICALL_ADDR, "mono_get_lmf_addr");
204                 ARM_LDR_IMM (buf, ARMREG_R0, ARMREG_PC, 0);
205                 ARM_B (buf, 0);
206                 *(gpointer*)buf = NULL;
207                 buf += 4;
208                 ARM_LDR_REG_REG (buf, ARMREG_R0, ARMREG_PC, ARMREG_R0);
209         } else {
210                 load_get_lmf_addr = buf;
211                 buf += 4;
212         }
213         ARM_MOV_REG_REG (buf, ARMREG_LR, ARMREG_PC);
214         ARM_MOV_REG_REG (buf, ARMREG_PC, ARMREG_R0);
215
216         /* we build the MonoLMF structure on the stack - see mini-arm.h
217          * The pointer to the struct is put in r1.
218          * the iregs array is already allocated on the stack by push.
219          */
220         ARM_SUB_REG_IMM8 (buf, ARMREG_SP, ARMREG_SP, sizeof (MonoLMF) - sizeof (guint) * 14);
221         ARM_ADD_REG_IMM8 (buf, ARMREG_R1, ARMREG_SP, STACK - sizeof (MonoLMF));
222         /* r0 is the result from mono_get_lmf_addr () */
223         ARM_STR_IMM (buf, ARMREG_R0, ARMREG_R1, G_STRUCT_OFFSET (MonoLMF, lmf_addr));
224         /* new_lmf->previous_lmf = *lmf_addr */
225         ARM_LDR_IMM (buf, ARMREG_R2, ARMREG_R0, G_STRUCT_OFFSET (MonoLMF, previous_lmf));
226         ARM_STR_IMM (buf, ARMREG_R2, ARMREG_R1, G_STRUCT_OFFSET (MonoLMF, previous_lmf));
227         /* *(lmf_addr) = r1 */
228         ARM_STR_IMM (buf, ARMREG_R1, ARMREG_R0, G_STRUCT_OFFSET (MonoLMF, previous_lmf));
229         /* save method info (it's in v2) */
230         if ((tramp_type == MONO_TRAMPOLINE_JIT) || (tramp_type == MONO_TRAMPOLINE_JUMP))
231                 ARM_STR_IMM (buf, ARMREG_V2, ARMREG_R1, G_STRUCT_OFFSET (MonoLMF, method));
232         ARM_STR_IMM (buf, ARMREG_SP, ARMREG_R1, G_STRUCT_OFFSET (MonoLMF, ebp));
233         /* save the IP (caller ip) */
234         if (tramp_type == MONO_TRAMPOLINE_JUMP) {
235                 ARM_MOV_REG_IMM8 (buf, ARMREG_R2, 0);
236         } else {
237                 /* assumes STACK == sizeof (MonoLMF) */
238                 ARM_LDR_IMM (buf, ARMREG_R2, ARMREG_SP, (G_STRUCT_OFFSET (MonoLMF, iregs) + 13*4));
239         }
240         ARM_STR_IMM (buf, ARMREG_R2, ARMREG_R1, G_STRUCT_OFFSET (MonoLMF, eip));
241
242         /*
243          * Now we're ready to call xxx_trampoline ().
244          */
245         /* Arg 1: the saved registers. It was put in v1 */
246         ARM_MOV_REG_REG (buf, ARMREG_R0, ARMREG_V1);
247
248         /* Arg 2: code (next address to the instruction that called us) */
249         if (tramp_type == MONO_TRAMPOLINE_JUMP) {
250                 ARM_MOV_REG_IMM8 (buf, ARMREG_R1, 0);
251         } else {
252                 ARM_MOV_REG_REG (buf, ARMREG_R1, ARMREG_V3);
253         }
254         
255         /* Arg 3: the specific argument, stored in v2
256          */
257         ARM_MOV_REG_REG (buf, ARMREG_R2, ARMREG_V2);
258
259         if (aot) {
260                 char *icall_name = g_strdup_printf ("trampoline_func_%d", tramp_type);
261                 *ji = mono_patch_info_list_prepend (*ji, buf - code, MONO_PATCH_INFO_JIT_ICALL_ADDR, icall_name);
262                 ARM_LDR_IMM (buf, ARMREG_IP, ARMREG_PC, 0);
263                 ARM_B (buf, 0);
264                 *(gpointer*)buf = NULL;
265                 buf += 4;
266                 ARM_LDR_REG_REG (buf, ARMREG_IP, ARMREG_PC, ARMREG_IP);
267         } else {
268                 load_trampoline = buf;
269                 buf += 4;
270         }
271
272         ARM_MOV_REG_REG (buf, ARMREG_LR, ARMREG_PC);
273         ARM_MOV_REG_REG (buf, ARMREG_PC, ARMREG_IP);
274         
275         /* OK, code address is now on r0. Move it to the place on the stack
276          * where IP was saved (it is now no more useful to us and it can be
277          * clobbered). This way we can just restore all the regs in one inst
278          * and branch to IP.
279          */
280         ARM_STR_IMM (buf, ARMREG_R0, ARMREG_V1, (ARMREG_R12 * 4));
281
282         /* Check for thread interruption */
283         /* This is not perf critical code so no need to check the interrupt flag */
284         /* 
285          * Have to call the _force_ variant, since there could be a protected wrapper on the top of the stack.
286          */
287         if (aot) {
288                 *ji = mono_patch_info_list_prepend (*ji, buf - code, MONO_PATCH_INFO_JIT_ICALL_ADDR, "mono_thread_force_interruption_checkpoint");
289                 ARM_LDR_IMM (buf, ARMREG_IP, ARMREG_PC, 0);
290                 ARM_B (buf, 0);
291                 *(gpointer*)buf = NULL;
292                 buf += 4;
293                 ARM_LDR_REG_REG (buf, ARMREG_IP, ARMREG_PC, ARMREG_IP);
294         } else {
295                 ARM_LDR_IMM (buf, ARMREG_IP, ARMREG_PC, 0);
296                 ARM_B (buf, 0);
297                 *(gpointer*)buf = mono_thread_force_interruption_checkpoint;
298                 buf += 4;
299         }
300         ARM_MOV_REG_REG (buf, ARMREG_LR, ARMREG_PC);
301         ARM_MOV_REG_REG (buf, ARMREG_PC, ARMREG_IP);
302
303         /*
304          * Now we restore the MonoLMF (see emit_epilogue in mini-arm.c)
305          * and the rest of the registers, so the method called will see
306          * the same state as before we executed.
307          * The pointer to MonoLMF is in r2.
308          */
309         ARM_MOV_REG_REG (buf, ARMREG_R2, ARMREG_SP);
310         /* ip = previous_lmf */
311         ARM_LDR_IMM (buf, ARMREG_IP, ARMREG_R2, G_STRUCT_OFFSET (MonoLMF, previous_lmf));
312         /* lr = lmf_addr */
313         ARM_LDR_IMM (buf, ARMREG_LR, ARMREG_R2, G_STRUCT_OFFSET (MonoLMF, lmf_addr));
314         /* *(lmf_addr) = previous_lmf */
315         ARM_STR_IMM (buf, ARMREG_IP, ARMREG_LR, G_STRUCT_OFFSET (MonoLMF, previous_lmf));
316
317         /* Non-standard function epilogue. Instead of doing a proper
318          * return, we just jump to the compiled code.
319          */
320         /* Restore the registers and jump to the code:
321          * Note that IP has been conveniently set to the method addr.
322          */
323         ARM_ADD_REG_IMM8 (buf, ARMREG_SP, ARMREG_SP, sizeof (MonoLMF) - sizeof (guint) * 14);
324         ARM_POP_NWB (buf, 0x5fff);
325         if (tramp_type == MONO_TRAMPOLINE_RGCTX_LAZY_FETCH)
326                 ARM_MOV_REG_REG (buf, ARMREG_R0, ARMREG_IP);
327         /* do we need to set sp? */
328         ARM_ADD_REG_IMM8 (buf, ARMREG_SP, ARMREG_SP, (14 * 4));
329         if ((tramp_type == MONO_TRAMPOLINE_CLASS_INIT) || (tramp_type == MONO_TRAMPOLINE_GENERIC_CLASS_INIT) || (tramp_type == MONO_TRAMPOLINE_RGCTX_LAZY_FETCH))
330                 ARM_MOV_REG_REG (buf, ARMREG_PC, ARMREG_LR);
331         else
332                 ARM_MOV_REG_REG (buf, ARMREG_PC, ARMREG_IP);
333
334         constants = (gpointer*)buf;
335         constants [0] = mono_get_lmf_addr;
336         constants [1] = (gpointer)mono_get_trampoline_func (tramp_type);
337
338         if (!aot) {
339                 /* backpatch by emitting the missing instructions skipped above */
340                 ARM_LDR_IMM (load_get_lmf_addr, ARMREG_R0, ARMREG_PC, (buf - load_get_lmf_addr - 8));
341                 ARM_LDR_IMM (load_trampoline, ARMREG_IP, ARMREG_PC, (buf + 4 - load_trampoline - 8));
342         }
343
344         buf += 8;
345
346         /* Flush instruction cache, since we've generated code */
347         mono_arch_flush_icache (code, buf - code);
348
349         /* Sanity check */
350         g_assert ((buf - code) <= GEN_TRAMP_SIZE);
351
352         *code_size = buf - code;
353
354         if (tramp_type == MONO_TRAMPOLINE_CLASS_INIT) {
355                 guint32 code_len;
356
357                 /* Initialize the nullified class init trampoline used in the AOT case */
358                 nullified_class_init_trampoline = mono_arch_get_nullified_class_init_trampoline (&code_len);
359         }
360
361         return code;
362 }
363
364 gpointer
365 mono_arch_get_nullified_class_init_trampoline (guint32 *code_len)
366 {
367         guint8 *buf, *code;
368
369         code = buf = mono_global_codeman_reserve (16);
370
371         ARM_MOV_REG_REG (buf, ARMREG_PC, ARMREG_LR);
372
373         mono_arch_flush_icache (code, buf - code);
374
375         *code_len = buf - code;
376
377         return buf;
378 }
379
380 #define SPEC_TRAMP_SIZE 24
381
382 gpointer
383 mono_arch_create_specific_trampoline (gpointer arg1, MonoTrampolineType tramp_type, MonoDomain *domain, guint32 *code_len)
384 {
385         guint8 *code, *buf, *tramp;
386         gpointer *constants;
387         guint32 short_branch, size = SPEC_TRAMP_SIZE;
388
389         tramp = mono_get_trampoline_code (tramp_type);
390
391         mono_domain_lock (domain);
392         code = buf = mono_code_manager_reserve_align (domain->code_mp, size, 4);
393         if ((short_branch = branch_for_target_reachable (code + 8, tramp))) {
394                 size = 12;
395                 mono_code_manager_commit (domain->code_mp, code, SPEC_TRAMP_SIZE, size);
396         }
397         mono_domain_unlock (domain);
398
399         /* we could reduce this to 12 bytes if tramp is within reach:
400          * ARM_PUSH ()
401          * ARM_BL ()
402          * method-literal
403          * The called code can access method using the lr register
404          * A 20 byte sequence could be:
405          * ARM_PUSH ()
406          * ARM_MOV_REG_REG (lr, pc)
407          * ARM_LDR_IMM (pc, pc, 0)
408          * method-literal
409          * tramp-literal
410          */
411         /* We save all the registers, except PC and SP */
412         ARM_PUSH (buf, 0x5fff);
413         if (short_branch) {
414                 constants = (gpointer*)buf;
415                 constants [0] = GUINT_TO_POINTER (short_branch | (1 << 24));
416                 constants [1] = arg1;
417                 buf += 8;
418         } else {
419                 ARM_LDR_IMM (buf, ARMREG_R1, ARMREG_PC, 8); /* temp reg */
420                 ARM_MOV_REG_REG (buf, ARMREG_LR, ARMREG_PC);
421                 ARM_MOV_REG_REG (buf, ARMREG_PC, ARMREG_R1);
422
423                 constants = (gpointer*)buf;
424                 constants [0] = arg1;
425                 constants [1] = tramp;
426                 buf += 8;
427         }
428
429         /* Flush instruction cache, since we've generated code */
430         mono_arch_flush_icache (code, buf - code);
431
432         g_assert ((buf - code) <= size);
433
434         if (code_len)
435                 *code_len = buf - code;
436
437         return code;
438 }
439
440 #define arm_is_imm12(v) ((int)(v) > -4096 && (int)(v) < 4096)
441
442 gpointer
443 mono_arch_create_rgctx_lazy_fetch_trampoline (guint32 slot)
444 {
445         guint8 *tramp;
446         guint8 *code, *buf;
447         int tramp_size;
448         guint32 code_len;
449         guint8 **rgctx_null_jumps;
450         int depth, index;
451         int i, njumps;
452         gboolean mrgctx;
453
454         mrgctx = MONO_RGCTX_SLOT_IS_MRGCTX (slot);
455         index = MONO_RGCTX_SLOT_INDEX (slot);
456         if (mrgctx)
457                 index += sizeof (MonoMethodRuntimeGenericContext) / sizeof (gpointer);
458         for (depth = 0; ; ++depth) {
459                 int size = mono_class_rgctx_get_array_size (depth, mrgctx);
460
461                 if (index < size - 1)
462                         break;
463                 index -= size - 1;
464         }
465
466         tramp_size = 64 + 16 * depth;
467
468         code = buf = mono_global_codeman_reserve (tramp_size);
469
470         rgctx_null_jumps = g_malloc (sizeof (guint8*) * (depth + 2));
471         njumps = 0;
472
473         /* The vtable/mrgctx is in R0 */
474         g_assert (MONO_ARCH_VTABLE_REG == ARMREG_R0);
475
476         if (mrgctx) {
477                 /* get mrgctx ptr */
478                 ARM_MOV_REG_REG (code, ARMREG_R1, ARMREG_R0);
479         } else {
480                 /* load rgctx ptr from vtable */
481                 g_assert (arm_is_imm12 (G_STRUCT_OFFSET (MonoVTable, runtime_generic_context)));
482                 ARM_LDR_IMM (code, ARMREG_R1, ARMREG_R0, G_STRUCT_OFFSET (MonoVTable, runtime_generic_context));
483                 /* is the rgctx ptr null? */
484                 ARM_CMP_REG_IMM (code, ARMREG_R1, 0, 0);
485                 /* if yes, jump to actual trampoline */
486                 rgctx_null_jumps [njumps ++] = code;
487                 ARM_B_COND (code, ARMCOND_EQ, 0);
488         }
489
490         for (i = 0; i < depth; ++i) {
491                 /* load ptr to next array */
492                 if (mrgctx && i == 0) {
493                         g_assert (arm_is_imm12 (sizeof (MonoMethodRuntimeGenericContext)));
494                         ARM_LDR_IMM (code, ARMREG_R1, ARMREG_R1, sizeof (MonoMethodRuntimeGenericContext));
495                 } else {
496                         ARM_LDR_IMM (code, ARMREG_R1, ARMREG_R1, 0);
497                 }
498                 /* is the ptr null? */
499                 ARM_CMP_REG_IMM (code, ARMREG_R1, 0, 0);
500                 /* if yes, jump to actual trampoline */
501                 rgctx_null_jumps [njumps ++] = code;
502                 ARM_B_COND (code, ARMCOND_EQ, 0);
503         }
504
505         /* fetch slot */
506         code = mono_arm_emit_load_imm (code, ARMREG_R2, sizeof (gpointer) * (index + 1));
507         ARM_LDR_REG_REG (code, ARMREG_R1, ARMREG_R1, ARMREG_R2);
508         /* is the slot null? */
509         ARM_CMP_REG_IMM (code, ARMREG_R1, 0, 0);
510         /* if yes, jump to actual trampoline */
511         rgctx_null_jumps [njumps ++] = code;
512         ARM_B_COND (code, ARMCOND_EQ, 0);
513         /* otherwise return, result is in R1 */
514         ARM_MOV_REG_REG (code, ARMREG_R0, ARMREG_R1);
515         ARM_MOV_REG_REG (code, ARMREG_PC, ARMREG_LR);
516
517         g_assert (njumps <= depth + 2);
518         for (i = 0; i < njumps; ++i)
519                 arm_patch (rgctx_null_jumps [i], code);
520
521         g_free (rgctx_null_jumps);
522
523         /* Slowpath */
524
525         /* The vtable/mrgctx is still in R0 */
526
527         tramp = mono_arch_create_specific_trampoline (GUINT_TO_POINTER (slot), MONO_TRAMPOLINE_RGCTX_LAZY_FETCH, mono_get_root_domain (), &code_len);
528
529         /* Jump to the actual trampoline */
530         ARM_LDR_IMM (code, ARMREG_R1, ARMREG_PC, 0); /* temp reg */
531         ARM_MOV_REG_REG (code, ARMREG_PC, ARMREG_R1);
532         *(guint32*)code = tramp;
533         code += 4;
534
535         mono_arch_flush_icache (buf, code - buf);
536
537         g_assert (code - buf <= tramp_size);
538
539         return buf;
540 }
541
542 #define arm_is_imm8(v) ((v) > -256 && (v) < 256)
543
544 gpointer
545 mono_arch_create_generic_class_init_trampoline (void)
546 {
547         guint8 *tramp;
548         guint8 *code, *buf;
549         static int byte_offset = -1;
550         static guint8 bitmask;
551         guint8 *jump;
552         int tramp_size;
553         guint32 code_len, imm8;
554         gint rot_amount;
555
556         tramp_size = 64;
557
558         code = buf = mono_global_codeman_reserve (tramp_size);
559
560         if (byte_offset < 0)
561                 mono_marshal_find_bitfield_offset (MonoVTable, initialized, &byte_offset, &bitmask);
562
563         g_assert (arm_is_imm8 (byte_offset));
564         ARM_LDRSB_IMM (code, ARMREG_IP, MONO_ARCH_VTABLE_REG, byte_offset);
565         imm8 = mono_arm_is_rotated_imm8 (bitmask, &rot_amount);
566         g_assert (imm8 >= 0);
567         ARM_AND_REG_IMM (code, ARMREG_IP, ARMREG_IP, imm8, rot_amount);
568         ARM_CMP_REG_IMM (code, ARMREG_IP, 0, 0);
569         jump = code;
570         ARM_B_COND (code, ARMCOND_EQ, 0);
571
572         /* Initialized case */
573         ARM_MOV_REG_REG (code, ARMREG_PC, ARMREG_LR);   
574
575         /* Uninitialized case */
576         arm_patch (jump, code);
577
578         tramp = mono_arch_create_specific_trampoline (NULL, MONO_TRAMPOLINE_GENERIC_CLASS_INIT, mono_get_root_domain (), &code_len);
579
580         /* Jump to the actual trampoline */
581         ARM_LDR_IMM (code, ARMREG_R1, ARMREG_PC, 0); /* temp reg */
582         ARM_MOV_REG_REG (code, ARMREG_PC, ARMREG_R1);
583         *(guint32*)code = tramp;
584         code += 4;
585
586         mono_arch_flush_icache (buf, code - buf);
587
588         g_assert (code - buf <= tramp_size);
589
590         return buf;
591 }