2005-04-09 Zoltan Varga <vargaz@freemail.hu>
[mono.git] / mono / mini / exceptions-amd64.c
1 /*
2  * exceptions-amd64.c: exception support for AMD64
3  *
4  * Authors:
5  *   Dietmar Maurer (dietmar@ximian.com)
6  *
7  * (C) 2001 Ximian, Inc.
8  */
9
10 #include <config.h>
11 #include <glib.h>
12 #include <signal.h>
13 #include <string.h>
14 #include <sys/ucontext.h>
15
16 #include <mono/arch/amd64/amd64-codegen.h>
17 #include <mono/metadata/appdomain.h>
18 #include <mono/metadata/tabledefs.h>
19 #include <mono/metadata/threads.h>
20 #include <mono/metadata/debug-helpers.h>
21 #include <mono/metadata/exception.h>
22 #include <mono/metadata/gc-internal.h>
23 #include <mono/metadata/mono-debug.h>
24
25 #include "mini.h"
26 #include "mini-amd64.h"
27
28 #define ALIGN_TO(val,align) (((val) + ((align) - 1)) & ~((align) - 1))
29
30 #ifdef PLATFORM_WIN32
31 static MonoW32ExceptionHandler fpe_handler;
32 static MonoW32ExceptionHandler ill_handler;
33 static MonoW32ExceptionHandler segv_handler;
34
35 static LPTOP_LEVEL_EXCEPTION_FILTER old_handler;
36
37 #define W32_SEH_HANDLE_EX(_ex) \
38         if (_ex##_handler) _ex##_handler((int)sctx)
39
40 /*
41  * Unhandled Exception Filter
42  * Top-level per-process exception handler.
43  */
44 LONG CALLBACK seh_handler(EXCEPTION_POINTERS* ep)
45 {
46         EXCEPTION_RECORD* er;
47         CONTEXT* ctx;
48         MonoContext* sctx;
49         LONG res;
50
51         res = EXCEPTION_CONTINUE_EXECUTION;
52
53         er = ep->ExceptionRecord;
54         ctx = ep->ContextRecord;
55         sctx = g_malloc(sizeof(MonoContext));
56
57         /* Copy Win32 context to UNIX style context */
58         sctx->eax = ctx->Eax;
59         sctx->ebx = ctx->Ebx;
60         sctx->ecx = ctx->Ecx;
61         sctx->edx = ctx->Edx;
62         sctx->ebp = ctx->Ebp;
63         sctx->esp = ctx->Esp;
64         sctx->esi = ctx->Esi;
65         sctx->edi = ctx->Edi;
66         sctx->eip = ctx->Eip;
67
68         switch (er->ExceptionCode) {
69         case EXCEPTION_ACCESS_VIOLATION:
70                 W32_SEH_HANDLE_EX(segv);
71                 break;
72         case EXCEPTION_ILLEGAL_INSTRUCTION:
73                 W32_SEH_HANDLE_EX(ill);
74                 break;
75         case EXCEPTION_INT_DIVIDE_BY_ZERO:
76         case EXCEPTION_INT_OVERFLOW:
77         case EXCEPTION_FLT_DIVIDE_BY_ZERO:
78         case EXCEPTION_FLT_OVERFLOW:
79         case EXCEPTION_FLT_UNDERFLOW:
80         case EXCEPTION_FLT_INEXACT_RESULT:
81                 W32_SEH_HANDLE_EX(fpe);
82                 break;
83         default:
84                 break;
85         }
86
87         /* Copy context back */
88         ctx->Eax = sctx->eax;
89         ctx->Ebx = sctx->ebx;
90         ctx->Ecx = sctx->ecx;
91         ctx->Edx = sctx->edx;
92         ctx->Ebp = sctx->ebp;
93         ctx->Esp = sctx->esp;
94         ctx->Esi = sctx->esi;
95         ctx->Edi = sctx->edi;
96         ctx->Eip = sctx->eip;
97
98         return res;
99 }
100
101 void win32_seh_init()
102 {
103         old_handler = SetUnhandledExceptionFilter(seh_handler);
104 }
105
106 void win32_seh_cleanup()
107 {
108         if (old_handler) SetUnhandledExceptionFilter(old_handler);
109 }
110
111 void win32_seh_set_handler(int type, MonoW32ExceptionHandler handler)
112 {
113         switch (type) {
114         case SIGFPE:
115                 fpe_handler = handler;
116                 break;
117         case SIGILL:
118                 ill_handler = handler;
119                 break;
120         case SIGSEGV:
121                 segv_handler = handler;
122                 break;
123         default:
124                 break;
125         }
126 }
127
128 #endif /* PLATFORM_WIN32 */
129
130 /*
131  * mono_arch_get_restore_context:
132  *
133  * Returns a pointer to a method which restores a previously saved sigcontext.
134  */
135 gpointer
136 mono_arch_get_restore_context (void)
137 {
138         static guint8 *start = NULL;
139         static gboolean inited = FALSE;
140         guint8 *code;
141
142         if (inited)
143                 return start;
144
145         /* restore_contect (MonoContext *ctx) */
146
147         start = code = mono_global_codeman_reserve (256);
148
149         /* get return address */
150         amd64_mov_reg_membase (code, AMD64_RAX, AMD64_RDI,  G_STRUCT_OFFSET (MonoContext, rip), 8);
151
152         /* Restore registers */
153         amd64_mov_reg_membase (code, AMD64_RBP, AMD64_RDI,  G_STRUCT_OFFSET (MonoContext, rbp), 8);
154         amd64_mov_reg_membase (code, AMD64_RBX, AMD64_RDI,  G_STRUCT_OFFSET (MonoContext, rbx), 8);
155         amd64_mov_reg_membase (code, AMD64_R12, AMD64_RDI,  G_STRUCT_OFFSET (MonoContext, r12), 8);
156         amd64_mov_reg_membase (code, AMD64_R13, AMD64_RDI,  G_STRUCT_OFFSET (MonoContext, r13), 8);
157         amd64_mov_reg_membase (code, AMD64_R14, AMD64_RDI,  G_STRUCT_OFFSET (MonoContext, r14), 8);
158         amd64_mov_reg_membase (code, AMD64_R15, AMD64_RDI,  G_STRUCT_OFFSET (MonoContext, r15), 8);
159
160         amd64_mov_reg_membase (code, AMD64_RSP, AMD64_RDI,  G_STRUCT_OFFSET (MonoContext, rsp), 8);
161
162         /* jump to the saved IP */
163         amd64_jump_reg (code, AMD64_RAX);
164
165         inited = TRUE;
166
167         return start;
168 }
169
170 /*
171  * mono_arch_get_call_filter:
172  *
173  * Returns a pointer to a method which calls an exception filter. We
174  * also use this function to call finally handlers (we pass NULL as 
175  * @exc object in this case).
176  */
177 gpointer
178 mono_arch_get_call_filter (void)
179 {
180         static guint8 *start;
181         static gboolean inited = FALSE;
182         int i;
183         guint8 *code;
184         guint32 pos;
185
186         if (inited)
187                 return start;
188
189         start = code = mono_global_codeman_reserve (64);
190
191         /* call_filter (MonoContext *ctx, unsigned long eip) */
192         code = start;
193
194         /* Alloc new frame */
195         amd64_push_reg (code, AMD64_RBP);
196         amd64_mov_reg_reg (code, AMD64_RBP, AMD64_RSP, 8);
197
198         /* Save callee saved regs */
199         pos = 0;
200         for (i = 0; i < AMD64_NREG; ++i)
201                 if (AMD64_IS_CALLEE_SAVED_REG (i)) {
202                         amd64_push_reg (code, i);
203                         pos += 8;
204                 }
205
206         /* Save EBP */
207         pos += 8;
208         amd64_push_reg (code, AMD64_RBP);
209
210         /* Make stack misaligned, the call will make it aligned again */
211         if (! (pos & 8))
212                 amd64_alu_reg_imm (code, X86_SUB, AMD64_RSP, 8);
213
214         /* set new EBP */
215         amd64_mov_reg_membase (code, AMD64_RBP, AMD64_RDI, G_STRUCT_OFFSET (MonoContext, rbp), 8);
216         /* load callee saved regs */
217         amd64_mov_reg_membase (code, AMD64_RBX, AMD64_RDI, G_STRUCT_OFFSET (MonoContext, rbx), 8);
218         amd64_mov_reg_membase (code, AMD64_R12, AMD64_RDI, G_STRUCT_OFFSET (MonoContext, r12), 8);
219         amd64_mov_reg_membase (code, AMD64_R13, AMD64_RDI, G_STRUCT_OFFSET (MonoContext, r13), 8);
220         amd64_mov_reg_membase (code, AMD64_R14, AMD64_RDI, G_STRUCT_OFFSET (MonoContext, r14), 8);
221         amd64_mov_reg_membase (code, AMD64_R15, AMD64_RDI, G_STRUCT_OFFSET (MonoContext, r15), 8);
222
223         /* call the handler */
224         amd64_call_reg (code, AMD64_RSI);
225
226         if (! (pos & 8))
227                 amd64_alu_reg_imm (code, X86_ADD, AMD64_RSP, 8);
228
229         /* restore RBP */
230         amd64_pop_reg (code, AMD64_RBP);
231
232         /* Restore callee saved regs */
233         for (i = AMD64_NREG; i >= 0; --i)
234                 if (AMD64_IS_CALLEE_SAVED_REG (i))
235                         amd64_pop_reg (code, i);
236
237         amd64_leave (code);
238         amd64_ret (code);
239
240         g_assert ((code - start) < 64);
241
242         inited = TRUE;
243
244         return start;
245 }
246
247 static void
248 throw_exception (MonoObject *exc, guint64 rip, guint64 rsp,
249                                  guint64 rbx, guint64 rbp, guint64 r12, guint64 r13, 
250                                  guint64 r14, guint64 r15, guint64 rethrow)
251 {
252         static void (*restore_context) (MonoContext *);
253         MonoContext ctx;
254
255         if (!restore_context)
256                 restore_context = mono_arch_get_restore_context ();
257
258         /* adjust eip so that it point into the call instruction */
259         rip -= 1;
260
261         ctx.rsp = rsp;
262         ctx.rip = rip;
263         ctx.rbx = rbx;
264         ctx.rbp = rbp;
265         ctx.r12 = r12;
266         ctx.r13 = r13;
267         ctx.r14 = r14;
268         ctx.r15 = r15;
269
270         if (mono_object_isinst (exc, mono_defaults.exception_class)) {
271                 MonoException *mono_ex = (MonoException*)exc;
272                 if (!rethrow)
273                         mono_ex->stack_trace = NULL;
274         }
275         mono_handle_exception (&ctx, exc, (gpointer)(rip + 1), FALSE);
276         restore_context (&ctx);
277
278         g_assert_not_reached ();
279 }
280
281 static gpointer
282 get_throw_trampoline (gboolean rethrow)
283 {
284         guint8* start;
285         guint8 *code;
286
287         start = code = mono_global_codeman_reserve (64);
288
289         code = start;
290
291         /* Exception */
292         amd64_mov_reg_reg (code, AMD64_RDI, AMD64_RDI, 8);
293         /* IP */
294         amd64_mov_reg_membase (code, AMD64_RSI, AMD64_RSP, 0, 8);
295         /* SP */
296         amd64_lea_membase (code, AMD64_RDX, AMD64_RSP, 8);
297         /* Callee saved regs */
298         amd64_mov_reg_reg (code, AMD64_RCX, AMD64_RBX, 8);
299         amd64_mov_reg_reg (code, AMD64_R8, AMD64_RBP, 8);
300         amd64_mov_reg_reg (code, AMD64_R9, AMD64_R12, 8);
301         /* align stack */
302         amd64_push_imm (code, 0);
303         /* reverse order */
304         amd64_push_imm (code, rethrow);
305         amd64_push_reg (code, AMD64_R15);
306         amd64_push_reg (code, AMD64_R14);
307         amd64_push_reg (code, AMD64_R13);
308
309         amd64_mov_reg_imm (code, AMD64_R11, throw_exception);
310         amd64_call_reg (code, AMD64_R11);
311         amd64_breakpoint (code);
312
313         g_assert ((code - start) < 64);
314
315         return start;
316 }
317
318 /**
319  * mono_arch_get_throw_exception:
320  *
321  * Returns a function pointer which can be used to raise 
322  * exceptions. The returned function has the following 
323  * signature: void (*func) (MonoException *exc); 
324  *
325  */
326 gpointer 
327 mono_arch_get_throw_exception (void)
328 {
329         static guint8* start;
330         static gboolean inited = FALSE;
331
332         if (inited)
333                 return start;
334
335         start = get_throw_trampoline (FALSE);
336
337         inited = TRUE;
338
339         return start;
340 }
341
342 gpointer 
343 mono_arch_get_rethrow_exception (void)
344 {
345         static guint8* start;
346         static gboolean inited = FALSE;
347
348         if (inited)
349                 return start;
350
351         start = get_throw_trampoline (TRUE);
352
353         inited = TRUE;
354
355         return start;
356 }
357
358 gpointer 
359 mono_arch_get_throw_exception_by_name (void)
360 {       
361         static guint8* start;
362         static gboolean inited = FALSE;
363         guint8 *code;
364
365         if (inited)
366                 return start;
367
368         start = code = mono_global_codeman_reserve (64);
369
370         /* Not used on amd64 */
371         amd64_breakpoint (code);
372
373         return start;
374 }
375
376 /**
377  * mono_arch_get_throw_corlib_exception:
378  *
379  * Returns a function pointer which can be used to raise 
380  * corlib exceptions. The returned function has the following 
381  * signature: void (*func) (guint32 ex_token, guint32 offset); 
382  * Here, offset is the offset which needs to be substracted from the caller IP 
383  * to get the IP of the throw. Passing the offset has the advantage that it 
384  * needs no relocations in the caller.
385  */
386 gpointer 
387 mono_arch_get_throw_corlib_exception (void)
388 {
389         static guint8* start;
390         static gboolean inited = FALSE;
391         guint8 *code;
392         guint64 throw_ex;
393
394         if (inited)
395                 return start;
396
397         start = code = mono_global_codeman_reserve (64);
398
399         /* Push throw_ip */
400         amd64_push_reg (code, AMD64_RSI);
401
402         /* Call exception_from_token */
403         amd64_mov_reg_reg (code, AMD64_RSI, AMD64_RDI, 8);
404         amd64_mov_reg_imm (code, AMD64_RDI, mono_defaults.exception_class->image);
405         amd64_mov_reg_imm (code, AMD64_R11, mono_exception_from_token);
406         amd64_call_reg (code, AMD64_R11);
407
408         /* Compute throw_ip */
409         amd64_pop_reg (code, AMD64_RSI);
410         /* return addr */
411         amd64_pop_reg (code, AMD64_RDX);
412         amd64_alu_reg_reg (code, X86_SUB, AMD64_RDX, AMD64_RSI);
413
414         /* Put the throw_ip at the top of the misaligned stack */
415         amd64_push_reg (code, AMD64_RDX);
416
417         throw_ex = (guint64)mono_arch_get_throw_exception ();
418
419         /* Call throw_exception */
420         amd64_mov_reg_reg (code, AMD64_RDI, AMD64_RAX, 8);
421         amd64_mov_reg_imm (code, AMD64_R11, throw_ex);
422         /* The original IP is on the stack */
423         amd64_jump_reg (code, AMD64_R11);
424
425         g_assert ((code - start) < 64);
426
427         inited = TRUE;
428
429         return start;
430 }
431
432 /* mono_arch_find_jit_info:
433  *
434  * This function is used to gather information from @ctx. It return the 
435  * MonoJitInfo of the corresponding function, unwinds one stack frame and
436  * stores the resulting context into @new_ctx. It also stores a string 
437  * describing the stack location into @trace (if not NULL), and modifies
438  * the @lmf if necessary. @native_offset return the IP offset from the 
439  * start of the function or -1 if that info is not available.
440  */
441 MonoJitInfo *
442 mono_arch_find_jit_info (MonoDomain *domain, MonoJitTlsData *jit_tls, MonoJitInfo *res, MonoJitInfo *prev_ji, MonoContext *ctx, 
443                          MonoContext *new_ctx, char **trace, MonoLMF **lmf, int *native_offset,
444                          gboolean *managed)
445 {
446         MonoJitInfo *ji;
447         int i;
448         gpointer ip = MONO_CONTEXT_GET_IP (ctx);
449
450         /* Avoid costly table lookup during stack overflow */
451         if (prev_ji && (ip > prev_ji->code_start && ((guint8*)ip < ((guint8*)prev_ji->code_start) + prev_ji->code_size)))
452                 ji = prev_ji;
453         else
454                 ji = mono_jit_info_table_find (domain, ip);
455
456         if (managed)
457                 *managed = FALSE;
458
459         if (ji != NULL) {
460                 int offset;
461
462                 *new_ctx = *ctx;
463
464                 if (managed)
465                         if (!ji->method->wrapper_type)
466                                 *managed = TRUE;
467
468                 /*
469                  * Some managed methods like pinvoke wrappers might have save_lmf set.
470                  * In this case, register save/restore code is not generated by the 
471                  * JIT, so we have to restore callee saved registers from the lmf.
472                  */
473                 if (ji->method->save_lmf) {
474                         /* 
475                          * We only need to do this if the exception was raised in managed
476                          * code, since otherwise the lmf was already popped of the stack.
477                          */
478                         if (*lmf && (MONO_CONTEXT_GET_BP (ctx) >= (gpointer)(*lmf)->ebp)) {
479                                 new_ctx->rbx = (*lmf)->rbx;
480                                 new_ctx->r12 = (*lmf)->r12;
481                                 new_ctx->r13 = (*lmf)->r13;
482                                 new_ctx->r14 = (*lmf)->r14;
483                                 new_ctx->r15 = (*lmf)->r15;
484                         }
485                 }
486                 else {
487                         offset = -1;
488                         /* restore caller saved registers */
489                         for (i = 0; i < AMD64_NREG; i ++)
490                                 if (AMD64_IS_CALLEE_SAVED_REG (i) && (ji->used_regs & (1 << i))) {
491                                         guint64 reg = *((guint64 *)ctx->SC_EBP + offset);
492                                         offset --;
493                                         switch (i) {
494                                         case AMD64_RBX:
495                                                 new_ctx->rbx = reg;
496                                                 break;
497                                         case AMD64_R12:
498                                                 new_ctx->r12 = reg;
499                                                 break;
500                                         case AMD64_R13:
501                                                 new_ctx->r13 = reg;
502                                                 break;
503                                         case AMD64_R14:
504                                                 new_ctx->r14 = reg;
505                                                 break;
506                                         case AMD64_R15:
507                                                 new_ctx->r15 = reg;
508                                                 break;
509                                         default:
510                                                 g_assert_not_reached ();
511                                         }
512                                 }
513                 }
514
515                 if (*lmf && (MONO_CONTEXT_GET_BP (ctx) >= (gpointer)(*lmf)->ebp)) {
516                         /* remove any unused lmf */
517                         *lmf = (*lmf)->previous_lmf;
518                 }
519
520                 /* Pop EBP and the return address */
521                 new_ctx->SC_ESP = ctx->SC_EBP + (2 * sizeof (gpointer));
522                 /* we substract 1, so that the IP points into the call instruction */
523                 new_ctx->SC_EIP = *((guint64 *)ctx->SC_EBP + 1) - 1;
524                 new_ctx->SC_EBP = *((guint64 *)ctx->SC_EBP);
525
526                 /* Pop arguments off the stack */
527                 {
528                         MonoJitArgumentInfo *arg_info = g_newa (MonoJitArgumentInfo, mono_method_signature (ji->method)->param_count + 1);
529
530                         guint32 stack_to_pop = mono_arch_get_argument_info (mono_method_signature (ji->method), mono_method_signature (ji->method)->param_count, arg_info);
531                         new_ctx->SC_ESP += stack_to_pop;
532                 }
533
534                 return ji;
535         } else if (*lmf) {
536                 
537                 *new_ctx = *ctx;
538
539                 if (!(*lmf)->method)
540                         return (gpointer)-1;
541
542                 if ((ji = mono_jit_info_table_find (domain, (gpointer)(*lmf)->rip))) {
543                 } else {
544                         memset (res, 0, sizeof (MonoJitInfo));
545                         res->method = (*lmf)->method;
546                 }
547
548                 new_ctx->SC_RIP = (*lmf)->rip;
549                 new_ctx->SC_RBP = (*lmf)->ebp;
550
551                 new_ctx->SC_RBX = (*lmf)->rbx;
552                 new_ctx->SC_R12 = (*lmf)->r12;
553                 new_ctx->SC_R13 = (*lmf)->r13;
554                 new_ctx->SC_R14 = (*lmf)->r14;
555                 new_ctx->SC_R15 = (*lmf)->r15;
556
557                 /* the lmf is always stored on the stack, so the following
558                  * expression points to a stack location which can be used as ESP */
559                 new_ctx->SC_ESP = ALIGN_TO ((guint64)&((*lmf)->rip), 16);
560
561                 *lmf = (*lmf)->previous_lmf;
562
563                 return ji ? ji : res;
564         }
565
566         return NULL;
567 }
568
569 /**
570  * mono_arch_handle_exception:
571  *
572  * @ctx: saved processor state
573  * @obj: the exception object
574  */
575 gboolean
576 mono_arch_handle_exception (void *sigctx, gpointer obj, gboolean test_only)
577 {
578         ucontext_t *ctx = (ucontext_t*)sigctx;
579         MonoContext mctx;
580
581         mctx.rax = ctx->uc_mcontext.gregs [REG_RAX];
582         mctx.rbx = ctx->uc_mcontext.gregs [REG_RBX];
583         mctx.rcx = ctx->uc_mcontext.gregs [REG_RCX];
584         mctx.rdx = ctx->uc_mcontext.gregs [REG_RDX];
585         mctx.rbp = ctx->uc_mcontext.gregs [REG_RBP];
586         mctx.rsp = ctx->uc_mcontext.gregs [REG_RSP];
587         mctx.rsi = ctx->uc_mcontext.gregs [REG_RSI];
588         mctx.rdi = ctx->uc_mcontext.gregs [REG_RDI];
589         mctx.rip = ctx->uc_mcontext.gregs [REG_RIP];
590         mctx.r12 = ctx->uc_mcontext.gregs [REG_R12];
591         mctx.r13 = ctx->uc_mcontext.gregs [REG_R13];
592         mctx.r14 = ctx->uc_mcontext.gregs [REG_R14];
593         mctx.r15 = ctx->uc_mcontext.gregs [REG_R15];
594
595         mono_handle_exception (&mctx, obj, (gpointer)mctx.rip, test_only);
596
597         ctx->uc_mcontext.gregs [REG_RAX] = mctx.rax;
598         ctx->uc_mcontext.gregs [REG_RBX] = mctx.rbx;
599         ctx->uc_mcontext.gregs [REG_RCX] = mctx.rcx;
600         ctx->uc_mcontext.gregs [REG_RDX] = mctx.rdx;
601         ctx->uc_mcontext.gregs [REG_RBP] = mctx.rbp;
602         ctx->uc_mcontext.gregs [REG_RSP] = mctx.rsp;
603         ctx->uc_mcontext.gregs [REG_RSI] = mctx.rsi;
604         ctx->uc_mcontext.gregs [REG_RDI] = mctx.rdi;
605         ctx->uc_mcontext.gregs [REG_RIP] = mctx.rip;
606         ctx->uc_mcontext.gregs [REG_R12] = mctx.r12;
607         ctx->uc_mcontext.gregs [REG_R13] = mctx.r13;
608         ctx->uc_mcontext.gregs [REG_R14] = mctx.r14;
609         ctx->uc_mcontext.gregs [REG_R15] = mctx.r15;
610
611         return TRUE;
612 }
613
614 gpointer
615 mono_arch_ip_from_context (void *sigctx)
616 {
617         ucontext_t *ctx = (ucontext_t*)sigctx;
618         return (gpointer)ctx->uc_mcontext.gregs [REG_RIP];
619 }
620