* M_LST_IMM32, M_AST_IMM32: Added.
[cacao.git] / src / vm / jit / x86_64 / codegen.h
1 /* src/vm/jit/x86_64/codegen.h - code generation macros for x86_64
2
3    Copyright (C) 1996-2005 R. Grafl, A. Krall, C. Kruegel, C. Oates,
4    R. Obermaisser, M. Platter, M. Probst, S. Ring, E. Steiner,
5    C. Thalinger, D. Thuernbeck, P. Tomsich, C. Ullrich, J. Wenninger,
6    Institut f. Computersprachen - TU Wien
7
8    This file is part of CACAO.
9
10    This program is free software; you can redistribute it and/or
11    modify it under the terms of the GNU General Public License as
12    published by the Free Software Foundation; either version 2, or (at
13    your option) any later version.
14
15    This program is distributed in the hope that it will be useful, but
16    WITHOUT ANY WARRANTY; without even the implied warranty of
17    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
18    General Public License for more details.
19
20    You should have received a copy of the GNU General Public License
21    along with this program; if not, write to the Free Software
22    Foundation, Inc., 59 Temple Place - Suite 330, Boston, MA
23    02111-1307, USA.
24
25    Contact: cacao@complang.tuwien.ac.at
26
27    Authors: Andreas Krall
28             Christian Thalinger
29
30
31    $Id: codegen.h 3690 2005-11-17 10:23:11Z twisti $
32
33 */
34
35 #ifndef _CODEGEN_H
36 #define _CODEGEN_H
37
38 #include <ucontext.h>
39
40 #include "config.h"
41 #include "vm/types.h"
42
43
44 /* some defines ***************************************************************/
45
46 #define PATCHER_CALL_SIZE    5          /* size in bytes of a patcher call    */
47
48
49 /* macros to create code ******************************************************/
50
51 /* immediate data union */
52
53 typedef union {
54     s4 i;
55     s8 l;
56     float f;
57     double d;
58     void *a;
59     u1 b[8];
60 } x86_64_imm_buf;
61
62
63 /* opcodes for alu instructions */
64
65 typedef enum {
66     X86_64_ADD = 0,
67     X86_64_OR  = 1,
68     X86_64_ADC = 2,
69     X86_64_SBB = 3,
70     X86_64_AND = 4,
71     X86_64_SUB = 5,
72     X86_64_XOR = 6,
73     X86_64_CMP = 7,
74     X86_64_NALU
75 } X86_64_ALU_Opcode;
76
77
78 typedef enum {
79     X86_64_ROL = 0,
80     X86_64_ROR = 1,
81     X86_64_RCL = 2,
82     X86_64_RCR = 3,
83     X86_64_SHL = 4,
84     X86_64_SHR = 5,
85     X86_64_SAR = 7,
86     X86_64_NSHIFT = 8
87 } X86_64_Shift_Opcode;
88
89
90 typedef enum {
91     X86_64_CC_O = 0,
92     X86_64_CC_NO = 1,
93     X86_64_CC_B = 2, X86_64_CC_C = 2, X86_64_CC_NAE = 2,
94     X86_64_CC_BE = 6, X86_64_CC_NA = 6,
95     X86_64_CC_AE = 3, X86_64_CC_NB = 3, X86_64_CC_NC = 3,
96     X86_64_CC_E = 4, X86_64_CC_Z = 4,
97     X86_64_CC_NE = 5, X86_64_CC_NZ = 5,
98     X86_64_CC_A = 7, X86_64_CC_NBE = 7,
99     X86_64_CC_S = 8, X86_64_CC_LZ = 8,
100     X86_64_CC_NS = 9, X86_64_CC_GEZ = 9,
101     X86_64_CC_P = 0x0a, X86_64_CC_PE = 0x0a,
102     X86_64_CC_NP = 0x0b, X86_64_CC_PO = 0x0b,
103     X86_64_CC_L = 0x0c, X86_64_CC_NGE = 0x0c,
104     X86_64_CC_GE = 0x0d, X86_64_CC_NL = 0x0d,
105     X86_64_CC_LE = 0x0e, X86_64_CC_NG = 0x0e,
106     X86_64_CC_G = 0x0f, X86_64_CC_NLE = 0x0f,
107     X86_64_NCC
108 } X86_64_CC;
109
110
111 #define IS_IMM8(imm) \
112     (((long) (imm) >= -128) && ((long) (imm) <= 127))
113
114
115 #define IS_IMM32(imm) \
116     (((long) (imm) >= (-2147483647-1)) && ((long) (imm) <= 2147483647))
117
118
119 /* modrm and stuff */
120
121 #define x86_64_address_byte(mod,reg,rm) \
122     *(cd->mcodeptr++) = ((((mod) & 0x03) << 6) | (((reg) & 0x07) << 3) | ((rm) & 0x07));
123
124
125 #define x86_64_emit_reg(reg,rm) \
126     x86_64_address_byte(3,(reg),(rm));
127
128
129 #define x86_64_emit_rex(size,reg,index,rm) \
130     if ((size) == 1 || (reg) > 7 || (index) > 7 || (rm) > 7) { \
131         *(cd->mcodeptr++) = (0x40 | (((size) & 0x01) << 3) | ((((reg) >> 3) & 0x01) << 2) | ((((index) >> 3) & 0x01) << 1) | (((rm) >> 3) & 0x01)); \
132     }
133
134
135 #define x86_64_emit_byte_rex(reg,index,rm) \
136     *(cd->mcodeptr++) = (0x40 | ((((reg) >> 3) & 0x01) << 2) | ((((index) >> 3) & 0x01) << 1) | (((rm) >> 3) & 0x01));
137
138
139 #define x86_64_emit_mem(r,disp) \
140     do { \
141         x86_64_address_byte(0,(r),5); \
142         x86_64_emit_imm32((disp)); \
143     } while (0)
144
145
146 #define x86_64_emit_membase(basereg,disp,dreg) \
147     do { \
148         if ((basereg) == REG_SP || (basereg) == R12) { \
149             if ((disp) == 0) { \
150                 x86_64_address_byte(0,(dreg),REG_SP); \
151                 x86_64_address_byte(0,REG_SP,REG_SP); \
152             } else if (IS_IMM8((disp))) { \
153                 x86_64_address_byte(1,(dreg),REG_SP); \
154                 x86_64_address_byte(0,REG_SP,REG_SP); \
155                 x86_64_emit_imm8((disp)); \
156             } else { \
157                 x86_64_address_byte(2,(dreg),REG_SP); \
158                 x86_64_address_byte(0,REG_SP,REG_SP); \
159                 x86_64_emit_imm32((disp)); \
160             } \
161             break; \
162         } \
163         if ((disp) == 0 && (basereg) != RBP && (basereg) != R13) { \
164             x86_64_address_byte(0,(dreg),(basereg)); \
165             break; \
166         } \
167         \
168         if ((basereg) == RIP) { \
169             x86_64_address_byte(0,(dreg),RBP); \
170             x86_64_emit_imm32((disp)); \
171             break; \
172         } \
173         \
174         if (IS_IMM8((disp))) { \
175             x86_64_address_byte(1,(dreg),(basereg)); \
176             x86_64_emit_imm8((disp)); \
177         } else { \
178             x86_64_address_byte(2,(dreg),(basereg)); \
179             x86_64_emit_imm32((disp)); \
180         } \
181     } while (0)
182
183
184 #define x86_64_emit_membase32(basereg,disp,dreg) \
185     do { \
186         if ((basereg) == REG_SP || (basereg) == R12) { \
187             x86_64_address_byte(2,(dreg),REG_SP); \
188             x86_64_address_byte(0,REG_SP,REG_SP); \
189             x86_64_emit_imm32((disp)); \
190         } else {\
191             x86_64_address_byte(2,(dreg),(basereg)); \
192             x86_64_emit_imm32((disp)); \
193         } \
194     } while (0)
195
196
197 #define x86_64_emit_memindex(reg,disp,basereg,indexreg,scale) \
198     do { \
199         if ((basereg) == -1) { \
200             x86_64_address_byte(0,(reg),4); \
201             x86_64_address_byte((scale),(indexreg),5); \
202             x86_64_emit_imm32((disp)); \
203         \
204         } else if ((disp) == 0 && (basereg) != RBP && (basereg) != R13) { \
205             x86_64_address_byte(0,(reg),4); \
206             x86_64_address_byte((scale),(indexreg),(basereg)); \
207         \
208         } else if (IS_IMM8((disp))) { \
209             x86_64_address_byte(1,(reg),4); \
210             x86_64_address_byte((scale),(indexreg),(basereg)); \
211             x86_64_emit_imm8 ((disp)); \
212         \
213         } else { \
214             x86_64_address_byte(2,(reg),4); \
215             x86_64_address_byte((scale),(indexreg),(basereg)); \
216             x86_64_emit_imm32((disp)); \
217         }    \
218      } while (0)
219
220
221 #define x86_64_emit_imm8(imm) \
222     *(cd->mcodeptr++) = (u1) ((imm) & 0xff);
223
224
225 #define x86_64_emit_imm16(imm) \
226     do { \
227         x86_64_imm_buf imb; \
228         imb.i = (s4) (imm); \
229         *(cd->mcodeptr++) = imb.b[0]; \
230         *(cd->mcodeptr++) = imb.b[1]; \
231     } while (0)
232
233
234 #define x86_64_emit_imm32(imm) \
235     do { \
236         x86_64_imm_buf imb; \
237         imb.i = (s4) (imm); \
238         *(cd->mcodeptr++) = imb.b[0]; \
239         *(cd->mcodeptr++) = imb.b[1]; \
240         *(cd->mcodeptr++) = imb.b[2]; \
241         *(cd->mcodeptr++) = imb.b[3]; \
242     } while (0)
243
244
245 #define x86_64_emit_imm64(imm) \
246     do { \
247         x86_64_imm_buf imb; \
248         imb.l = (s8) (imm); \
249         *(cd->mcodeptr++) = imb.b[0]; \
250         *(cd->mcodeptr++) = imb.b[1]; \
251         *(cd->mcodeptr++) = imb.b[2]; \
252         *(cd->mcodeptr++) = imb.b[3]; \
253         *(cd->mcodeptr++) = imb.b[4]; \
254         *(cd->mcodeptr++) = imb.b[5]; \
255         *(cd->mcodeptr++) = imb.b[6]; \
256         *(cd->mcodeptr++) = imb.b[7]; \
257     } while (0)
258
259
260 /* additional functions and macros to generate code ***************************/
261
262 #ifdef STATISTICS
263 #define COUNT_SPILLS count_spills++
264 #else
265 #define COUNT_SPILLS
266 #endif
267
268
269 #define CALCOFFSETBYTES(var, reg, val) \
270     if ((s4) (val) < -128 || (s4) (val) > 127) (var) += 4; \
271     else if ((s4) (val) != 0) (var) += 1; \
272     else if ((reg) == RBP || (reg) == RSP || (reg) == R12 || (reg) == R13) (var) += 1;
273
274
275 #define CALCIMMEDIATEBYTES(var, val) \
276     if ((s4) (val) < -128 || (s4) (val) > 127) (var) += 4; \
277     else (var) += 1;
278
279
280 /* gen_nullptr_check(objreg) */
281
282 #define gen_nullptr_check(objreg) \
283         if (checknull) { \
284         x86_64_test_reg_reg(cd, (objreg), (objreg)); \
285         x86_64_jcc(cd, X86_64_CC_E, 0); \
286             codegen_addxnullrefs(cd, cd->mcodeptr); \
287         }
288
289
290 #define gen_bound_check \
291     if (checkbounds) { \
292         x86_64_alul_membase_reg(cd, X86_64_CMP, s1, OFFSET(java_arrayheader, size), s2); \
293         x86_64_jcc(cd, X86_64_CC_AE, 0); \
294         codegen_addxboundrefs(cd, cd->mcodeptr, s2); \
295     }
296
297
298 #define gen_div_check(v) \
299     if (checknull) { \
300         if ((v)->flags & INMEMORY) { \
301             x86_64_alu_imm_membase(cd, X86_64_CMP, 0, REG_SP, src->regoff * 8); \
302         } else { \
303             x86_64_test_reg_reg(cd, src->regoff, src->regoff); \
304         } \
305         x86_64_jcc(cd, X86_64_CC_E, 0); \
306         codegen_addxdivrefs(cd, cd->mcodeptr); \
307     }
308
309
310 /* MCODECHECK(icnt) */
311
312 #define MCODECHECK(icnt) \
313         if ((cd->mcodeptr + (icnt)) > (u1 *) cd->mcodeend) \
314         cd->mcodeptr = (u1 *) codegen_increase(cd, cd->mcodeptr)
315
316 /* M_INTMOVE:
317     generates an integer-move from register a to b.
318     if a and b are the same int-register, no code will be generated.
319 */ 
320
321 #define M_INTMOVE(reg,dreg) \
322     if ((reg) != (dreg)) { \
323         x86_64_mov_reg_reg(cd, (reg),(dreg)); \
324     }
325
326
327 /* M_FLTMOVE:
328     generates a floating-point-move from register a to b.
329     if a and b are the same float-register, no code will be generated
330 */ 
331
332 #define M_FLTMOVE(reg,dreg) \
333     if ((reg) != (dreg)) { \
334         x86_64_movq_reg_reg(cd, (reg),(dreg)); \
335     }
336
337
338 /* var_to_reg_xxx:
339     this function generates code to fetch data from a pseudo-register
340     into a real register. 
341     If the pseudo-register has actually been assigned to a real 
342     register, no code will be emitted, since following operations
343     can use this register directly.
344     
345     v: pseudoregister to be fetched from
346     tempregnum: temporary register to be used if v is actually spilled to ram
347
348     return: the register number, where the operand can be found after 
349             fetching (this wil be either tempregnum or the register
350             number allready given to v)
351 */
352
353 #define var_to_reg_int(regnr,v,tempnr) \
354     if ((v)->flags & INMEMORY) { \
355         COUNT_SPILLS; \
356         if ((v)->type == TYPE_INT) { \
357             x86_64_movl_membase_reg(cd, REG_SP, (v)->regoff * 8, tempnr); \
358         } else { \
359             x86_64_mov_membase_reg(cd, REG_SP, (v)->regoff * 8, tempnr); \
360         } \
361         regnr = tempnr; \
362     } else { \
363         regnr = (v)->regoff; \
364     }
365
366
367
368 #define var_to_reg_flt(regnr,v,tempnr) \
369     if ((v)->flags & INMEMORY) { \
370         COUNT_SPILLS; \
371         if ((v)->type == TYPE_FLT) { \
372             x86_64_movlps_membase_reg(cd, REG_SP, (v)->regoff * 8, tempnr); \
373         } else { \
374             x86_64_movlpd_membase_reg(cd, REG_SP, (v)->regoff * 8, tempnr); \
375         } \
376 /*        x86_64_movq_membase_reg(REG_SP, (v)->regoff * 8, tempnr);*/ \
377         regnr = tempnr; \
378     } else { \
379         regnr = (v)->regoff; \
380     }
381
382
383 /* store_reg_to_var_xxx:
384     This function generates the code to store the result of an operation
385     back into a spilled pseudo-variable.
386     If the pseudo-variable has not been spilled in the first place, this 
387     function will generate nothing.
388     
389     v ............ Pseudovariable
390     tempregnum ... Number of the temporary registers as returned by
391                    reg_of_var.
392 */      
393
394 #define store_reg_to_var_int(sptr, tempregnum) \
395     if ((sptr)->flags & INMEMORY) { \
396         COUNT_SPILLS; \
397         x86_64_mov_reg_membase(cd, tempregnum, REG_SP, (sptr)->regoff * 8); \
398     }
399
400
401 #define store_reg_to_var_flt(sptr, tempregnum) \
402     if ((sptr)->flags & INMEMORY) { \
403          COUNT_SPILLS; \
404          x86_64_movq_reg_membase(cd, tempregnum, REG_SP, (sptr)->regoff * 8); \
405     }
406
407
408 #define M_COPY(from,to) \
409     d = reg_of_var(rd, to, REG_ITMP1); \
410         if ((from->regoff != to->regoff) || \
411             ((from->flags ^ to->flags) & INMEMORY)) { \
412                 if (IS_FLT_DBL_TYPE(from->type)) { \
413                         var_to_reg_flt(s1, from, d); \
414                         M_FLTMOVE(s1, d); \
415                         store_reg_to_var_flt(to, d); \
416                 } else { \
417                         var_to_reg_int(s1, from, d); \
418                         M_INTMOVE(s1, d); \
419                         store_reg_to_var_int(to, d); \
420                 } \
421         }
422
423
424 /* macros to create code ******************************************************/
425
426 #define M_MOV(a,b)              x86_64_mov_reg_reg(cd, (a), (b))
427 #define M_MOV_IMM(a,b)          x86_64_mov_imm_reg(cd, (a), (b))
428
429 #define M_IMOV_IMM(a,b)         x86_64_movl_imm_reg(cd, (a), (b))
430
431 #define M_ILD(a,b,disp)         x86_64_movl_membase_reg(cd, (b), (disp), (a))
432 #define M_LLD(a,b,disp)         x86_64_mov_membase_reg(cd, (b), (disp), (a))
433 #define M_DLD(a,b,disp)         x86_64_movq_membase_reg(cd, (b), (disp), (a))
434
435 #define M_IST(a,b,disp)         x86_64_movl_reg_membase(cd, (a), (b), (disp))
436 #define M_LST(a,b,disp)         x86_64_mov_reg_membase(cd, (a), (b), (disp))
437 #define M_LST_IMM32(a,b,disp)   x86_64_mov_imm_membase(cd, (a), (b), (disp))
438 #define M_DST(a,b,disp)         x86_64_movq_reg_membase(cd, (a), (b), (disp))
439
440 #define M_LADD(a,b)             x86_64_alu_reg_reg(cd, X86_64_ADD, (a), (b))
441 #define M_LADD_IMM(a,b)         x86_64_alu_imm_reg(cd, X86_64_ADD, (a), (b))
442 #define M_LSUB(a,b)             x86_64_alu_reg_reg(cd, X86_64_SUB, (a), (b))
443 #define M_LSUB_IMM(a,b)         x86_64_alu_imm_reg(cd, X86_64_SUB, (a), (b))
444
445 #define M_ALD(a,b,c)            M_LLD(a,b,c)
446 #define M_AST(a,b,c)            M_LST(a,b,c)
447 #define M_AST_IMM32(a,b,c)      M_LST_IMM32(a,b,c)
448 #define M_AADD(a,b)             M_LADD(a,b)
449 #define M_AADD_IMM(a,b)         M_LADD_IMM(a,b)
450 #define M_ASUB_IMM(a,b)         M_LSUB_IMM(a,b)
451
452 #define M_LADD_IMM32(a,b)       x86_64_alu_imm32_reg(cd, X86_64_ADD, (a), (b))
453 #define M_AADD_IMM32(a,b)       M_LADD_IMM32(a,b)
454 #define M_LSUB_IMM32(a,b)       x86_64_alu_imm32_reg(cd, X86_64_SUB, (a), (b))
455
456 #define M_ILEA(a,b,c)           x86_64_leal_membase_reg(cd, (a), (b), (c))
457 #define M_LLEA(a,b,c)           x86_64_lea_membase_reg(cd, (a), (b), (c))
458 #define M_ALEA(a,b,c)           M_LLEA(a,b,c)
459
460 #define M_AND(a,b)              x86_64_alu_reg_reg(cd, X86_64_AND, (a), (b))
461 #define M_XOR(a,b)              x86_64_alu_reg_reg(cd, X86_64_XOR, (a), (b))
462
463 #define M_IAND(a,b)             x86_64_alul_reg_reg(cd, X86_64_AND, (a), (b))
464 #define M_IAND_IMM(a,b)         x86_64_alul_imm_reg(cd, X86_64_AND, (a), (b))
465 #define M_IXOR(a,b)             x86_64_alul_reg_reg(cd, X86_64_XOR, (a), (b))
466
467 #define M_TEST(a)               x86_64_test_reg_reg(cd, (a), (a))
468
469 #define M_CMP(a,b)              x86_64_alu_reg_reg(cd, X86_64_CMP, (a), (b))
470 #define M_CMP_IMM(a,b)          x86_64_alu_imm_reg(cd, X86_64_CMP, (a), (b))
471 #define M_CMP_MEMBASE(a,b,c)    x86_64_alu_membase_reg(cd, X86_64_CMP, (a), (b), (c))
472
473 #define M_BEQ(disp)             x86_64_jcc(cd, X86_64_CC_E, (disp))
474 #define M_BNE(disp)             x86_64_jcc(cd, X86_64_CC_NE, (disp))
475 #define M_BLE(disp)             x86_64_jcc(cd, X86_64_CC_LE, (disp))
476 #define M_BA(disp)              x86_64_jcc(cd, X86_64_CC_A, (disp))
477
478 #define M_PUSH(a)               x86_64_push_reg(cd, (a))
479 #define M_PUSH_IMM(a)           x86_64_push_imm(cd, (a))
480 #define M_POP(a)                x86_64_pop_reg(cd, (a))
481
482 #define M_JMP(a)                x86_64_jmp_reg(cd, (a))
483 #define M_JMP_IMM(a)            x86_64_jmp_imm(cd, (a))
484 #define M_CALL(a)               x86_64_call_reg(cd, (a))
485 #define M_CALL_IMM(a)           x86_64_call_imm(cd, (a))
486 #define M_RET                   x86_64_ret(cd)
487
488 #define M_NOP                   x86_64_nop(cd)
489
490
491 /* function gen_resolvebranch **************************************************
492
493     backpatches a branch instruction
494
495     parameters: ip ... pointer to instruction after branch (void*)
496                 so ... offset of instruction after branch  (s8)
497                 to ... offset of branch target             (s8)
498
499 *******************************************************************************/
500
501 #define gen_resolvebranch(ip,so,to) \
502     *((s4*) ((ip) - 4)) = (s4) ((to) - (so));
503
504 #endif /* _CODEGEN_H */
505
506
507 /*
508  * These are local overrides for various environment variables in Emacs.
509  * Please do not remove this and leave it at the end of the file, where
510  * Emacs will automagically detect them.
511  * ---------------------------------------------------------------------
512  * Local variables:
513  * mode: c
514  * indent-tabs-mode: t
515  * c-basic-offset: 4
516  * tab-width: 4
517  * End:
518  */