- moved defines into header
[cacao.git] / src / vm / jit / x86_64 / codegen.h
1 /* jit/x86_64/codegen.h - code generation macros and definitions for x86_64
2
3    Copyright (C) 1996, 1997, 1998, 1999, 2000, 2001, 2002, 2003
4    R. Grafl, A. Krall, C. Kruegel, C. Oates, R. Obermaisser,
5    M. Probst, S. Ring, E. Steiner, C. Thalinger, D. Thuernbeck,
6    P. Tomsich, J. Wenninger
7
8    This file is part of CACAO.
9
10    This program is free software; you can redistribute it and/or
11    modify it under the terms of the GNU General Public License as
12    published by the Free Software Foundation; either version 2, or (at
13    your option) any later version.
14
15    This program is distributed in the hope that it will be useful, but
16    WITHOUT ANY WARRANTY; without even the implied warranty of
17    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
18    General Public License for more details.
19
20    You should have received a copy of the GNU General Public License
21    along with this program; if not, write to the Free Software
22    Foundation, Inc., 59 Temple Place - Suite 330, Boston, MA
23    02111-1307, USA.
24
25    Contact: cacao@complang.tuwien.ac.at
26
27    Authors: Andreas Krall
28             Christian Thalinger
29
30    $Id: codegen.h 1266 2004-07-01 20:38:16Z twisti $
31
32 */
33
34
35 #ifndef _CODEGEN_H
36 #define _CODEGEN_H
37
38 #include "jit/jit.h"
39
40
41 /* x86_64 register numbers */
42 #define RIP    -1
43 #define RAX    0
44 #define RCX    1
45 #define RDX    2
46 #define RBX    3
47 #define RSP    4
48 #define RBP    5
49 #define RSI    6
50 #define RDI    7
51 #define R8     8
52 #define R9     9
53 #define R10    10
54 #define R11    11
55 #define R12    12
56 #define R13    13
57 #define R14    14
58 #define R15    15
59
60
61 #define XMM0   0
62 #define XMM1   1
63 #define XMM2   2
64 #define XMM3   3
65 #define XMM4   4
66 #define XMM5   5
67 #define XMM6   6
68 #define XMM7   7
69 #define XMM8   8
70 #define XMM9   9
71 #define XMM10  10
72 #define XMM11  11
73 #define XMM12  12
74 #define XMM13  13
75 #define XMM14  14
76 #define XMM15  15
77
78
79 /* preallocated registers *****************************************************/
80
81 /* integer registers */
82   
83 #define REG_RESULT      RAX      /* to deliver method results                 */
84
85 #define REG_ITMP1       RAX      /* temporary register                        */
86 #define REG_ITMP2       R10      /* temporary register and method pointer     */
87 #define REG_ITMP3       R11      /* temporary register                        */
88
89 #define REG_NULL        -1       /* used for reg_of_var where d is not needed */
90
91 #define REG_ITMP1_XPTR  RAX      /* exception pointer = temporary register 1  */
92 #define REG_ITMP2_XPC   R10      /* exception pc = temporary register 2       */
93
94 #define REG_SP          RSP      /* stack pointer                             */
95
96 /* floating point registers */
97
98 #define REG_FRESULT     XMM0     /* to deliver floating point method results  */
99
100 #define REG_FTMP1       XMM8     /* temporary floating point register         */
101 #define REG_FTMP2       XMM9     /* temporary floating point register         */
102 #define REG_FTMP3       XMM10    /* temporary floating point register         */
103
104
105 #define INT_ARG_CNT      6   /* number of int argument registers              */
106 #define INT_SAV_CNT      5   /* number of int callee saved registers          */
107
108 #define FLT_ARG_CNT      4   /* number of flt argument registers              */
109 #define FLT_SAV_CNT      0   /* number of flt callee saved registers          */
110
111
112 /* macros to create code ******************************************************/
113
114 /* immediate data union */
115
116 typedef union {
117     s4 i;
118     s8 l;
119     float f;
120     double d;
121     void *a;
122     u1 b[8];
123 } x86_64_imm_buf;
124
125
126 /* opcodes for alu instructions */
127
128 typedef enum {
129     X86_64_ADD = 0,
130     X86_64_OR  = 1,
131     X86_64_ADC = 2,
132     X86_64_SBB = 3,
133     X86_64_AND = 4,
134     X86_64_SUB = 5,
135     X86_64_XOR = 6,
136     X86_64_CMP = 7,
137     X86_64_NALU
138 } X86_64_ALU_Opcode;
139
140
141 typedef enum {
142     X86_64_ROL = 0,
143     X86_64_ROR = 1,
144     X86_64_RCL = 2,
145     X86_64_RCR = 3,
146     X86_64_SHL = 4,
147     X86_64_SHR = 5,
148     X86_64_SAR = 7,
149     X86_64_NSHIFT = 8
150 } X86_64_Shift_Opcode;
151
152
153 typedef enum {
154     X86_64_CC_O = 0,
155     X86_64_CC_NO = 1,
156     X86_64_CC_B = 2, X86_64_CC_C = 2, X86_64_CC_NAE = 2,
157     X86_64_CC_BE = 6, X86_64_CC_NA = 6,
158     X86_64_CC_AE = 3, X86_64_CC_NB = 3, X86_64_CC_NC = 3,
159     X86_64_CC_E = 4, X86_64_CC_Z = 4,
160     X86_64_CC_NE = 5, X86_64_CC_NZ = 5,
161     X86_64_CC_A = 7, X86_64_CC_NBE = 7,
162     X86_64_CC_S = 8, X86_64_CC_LZ = 8,
163     X86_64_CC_NS = 9, X86_64_CC_GEZ = 9,
164     X86_64_CC_P = 0x0a, X86_64_CC_PE = 0x0a,
165     X86_64_CC_NP = 0x0b, X86_64_CC_PO = 0x0b,
166     X86_64_CC_L = 0x0c, X86_64_CC_NGE = 0x0c,
167     X86_64_CC_GE = 0x0d, X86_64_CC_NL = 0x0d,
168     X86_64_CC_LE = 0x0e, X86_64_CC_NG = 0x0e,
169     X86_64_CC_G = 0x0f, X86_64_CC_NLE = 0x0f,
170     X86_64_NCC
171 } X86_64_CC;
172
173
174 /* modrm and stuff */
175
176 #define x86_64_address_byte(mod,reg,rm) \
177     *(mcodeptr++) = ((((mod) & 0x03) << 6) | (((reg) & 0x07) << 3) | ((rm) & 0x07));
178
179
180 #define x86_64_emit_reg(reg,rm) \
181     x86_64_address_byte(3,(reg),(rm));
182
183
184 #define x86_64_emit_rex(size,reg,index,rm) \
185     if ((size) == 1 || (reg) > 7 || (index) > 7 || (rm) > 7) { \
186         *(mcodeptr++) = (0x40 | (((size) & 0x01) << 3) | ((((reg) >> 3) & 0x01) << 2) | ((((index) >> 3) & 0x01) << 1) | (((rm) >> 3) & 0x01)); \
187     }
188
189
190 #define x86_64_emit_mem(r,disp) \
191     do { \
192         x86_64_address_byte(0,(r),5); \
193         x86_64_emit_imm32((disp)); \
194     } while (0)
195
196
197 #define x86_64_emit_membase(basereg,disp,dreg) \
198     do { \
199         if ((basereg) == REG_SP || (basereg) == R12) { \
200             if ((disp) == 0) { \
201                 x86_64_address_byte(0,(dreg),REG_SP); \
202                 x86_64_address_byte(0,REG_SP,REG_SP); \
203             } else if (x86_64_is_imm8((disp))) { \
204                 x86_64_address_byte(1,(dreg),REG_SP); \
205                 x86_64_address_byte(0,REG_SP,REG_SP); \
206                 x86_64_emit_imm8((disp)); \
207             } else { \
208                 x86_64_address_byte(2,(dreg),REG_SP); \
209                 x86_64_address_byte(0,REG_SP,REG_SP); \
210                 x86_64_emit_imm32((disp)); \
211             } \
212             break; \
213         } \
214         if ((disp) == 0 && (basereg) != RBP && (basereg) != R13) { \
215             x86_64_address_byte(0,(dreg),(basereg)); \
216             break; \
217         } \
218         \
219         if ((basereg) == RIP) { \
220             x86_64_address_byte(0,(dreg),RBP); \
221             x86_64_emit_imm32((disp)); \
222             break; \
223         } \
224         \
225         if (x86_64_is_imm8((disp))) { \
226             x86_64_address_byte(1,(dreg),(basereg)); \
227             x86_64_emit_imm8((disp)); \
228         } else { \
229             x86_64_address_byte(2,(dreg),(basereg)); \
230             x86_64_emit_imm32((disp)); \
231         } \
232     } while (0)
233
234
235 #define x86_64_emit_memindex(reg,disp,basereg,indexreg,scale) \
236     do { \
237         if ((basereg) == -1) { \
238             x86_64_address_byte(0,(reg),4); \
239             x86_64_address_byte((scale),(indexreg),5); \
240             x86_64_emit_imm32((disp)); \
241         \
242         } else if ((disp) == 0 && (basereg) != RBP && (basereg) != R13) { \
243             x86_64_address_byte(0,(reg),4); \
244             x86_64_address_byte((scale),(indexreg),(basereg)); \
245         \
246         } else if (x86_64_is_imm8((disp))) { \
247             x86_64_address_byte(1,(reg),4); \
248             x86_64_address_byte((scale),(indexreg),(basereg)); \
249             x86_64_emit_imm8 ((disp)); \
250         \
251         } else { \
252             x86_64_address_byte(2,(reg),4); \
253             x86_64_address_byte((scale),(indexreg),(basereg)); \
254             x86_64_emit_imm32((disp)); \
255         }    \
256      } while (0)
257
258
259 #define x86_64_is_imm8(imm) \
260     (((long)(imm) >= -128 && (long)(imm) <= 127))
261
262
263 #define x86_64_is_imm32(imm) \
264     ((long)(imm) >= (-2147483647-1) && (long)(imm) <= 2147483647)
265
266
267 #define x86_64_emit_imm8(imm) \
268     *(mcodeptr++) = (u1) ((imm) & 0xff);
269
270
271 #define x86_64_emit_imm16(imm) \
272     do { \
273         x86_64_imm_buf imb; \
274         imb.i = (s4) (imm); \
275         *(mcodeptr++) = imb.b[0]; \
276         *(mcodeptr++) = imb.b[1]; \
277     } while (0)
278
279
280 #define x86_64_emit_imm32(imm) \
281     do { \
282         x86_64_imm_buf imb; \
283         imb.i = (s4) (imm); \
284         *(mcodeptr++) = imb.b[0]; \
285         *(mcodeptr++) = imb.b[1]; \
286         *(mcodeptr++) = imb.b[2]; \
287         *(mcodeptr++) = imb.b[3]; \
288     } while (0)
289
290
291 #define x86_64_emit_imm64(imm) \
292     do { \
293         x86_64_imm_buf imb; \
294         imb.l = (s8) (imm); \
295         *(mcodeptr++) = imb.b[0]; \
296         *(mcodeptr++) = imb.b[1]; \
297         *(mcodeptr++) = imb.b[2]; \
298         *(mcodeptr++) = imb.b[3]; \
299         *(mcodeptr++) = imb.b[4]; \
300         *(mcodeptr++) = imb.b[5]; \
301         *(mcodeptr++) = imb.b[6]; \
302         *(mcodeptr++) = imb.b[7]; \
303     } while (0)
304
305
306 /* additional functions and macros to generate code ***************************/
307
308 #define BlockPtrOfPC(pc)  ((basicblock *) iptr->target)
309
310
311 #ifdef STATISTICS
312 #define COUNT_SPILLS count_spills++
313 #else
314 #define COUNT_SPILLS
315 #endif
316
317
318 #define CALCOFFSETBYTES(var, reg, val) \
319     if ((s4) (val) < -128 || (s4) (val) > 127) (var) += 4; \
320     else if ((s4) (val) != 0) (var) += 1; \
321     else if ((reg) == RBP || (reg) == RSP || (reg) == R12 || (reg) == R13) (var) += 1;
322
323
324 #define CALCIMMEDIATEBYTES(var, val) \
325     if ((s4) (val) < -128 || (s4) (val) > 127) (var) += 4; \
326     else (var) += 1;
327
328
329 /* gen_nullptr_check(objreg) */
330
331 #define gen_nullptr_check(objreg) \
332         if (checknull) { \
333         x86_64_test_reg_reg((objreg), (objreg)); \
334         x86_64_jcc(X86_64_CC_E, 0); \
335             codegen_addxnullrefs(mcodeptr); \
336         }
337
338
339 #define gen_bound_check \
340     if (checkbounds) { \
341         x86_64_alul_membase_reg(X86_64_CMP, s1, OFFSET(java_arrayheader, size), s2); \
342         x86_64_jcc(X86_64_CC_AE, 0); \
343         codegen_addxboundrefs(mcodeptr, s2); \
344     }
345
346
347 #define gen_div_check(v) \
348     if (checknull) { \
349         if ((v)->flags & INMEMORY) { \
350             x86_64_alu_imm_membase(X86_64_CMP, 0, REG_SP, src->regoff * 8); \
351         } else { \
352             x86_64_test_reg_reg(src->regoff, src->regoff); \
353         } \
354         x86_64_jcc(X86_64_CC_E, 0); \
355         codegen_addxdivrefs(mcodeptr); \
356     }
357
358
359 /* MCODECHECK(icnt) */
360
361 #define MCODECHECK(icnt) \
362         if ((mcodeptr + (icnt)) > (u1*) mcodeend) mcodeptr = (u1*) codegen_increase((u1*) mcodeptr)
363
364 /* M_INTMOVE:
365     generates an integer-move from register a to b.
366     if a and b are the same int-register, no code will be generated.
367 */ 
368
369 #define M_INTMOVE(reg,dreg) \
370     if ((reg) != (dreg)) { \
371         x86_64_mov_reg_reg((reg),(dreg)); \
372     }
373
374
375 /* M_FLTMOVE:
376     generates a floating-point-move from register a to b.
377     if a and b are the same float-register, no code will be generated
378 */ 
379
380 #define M_FLTMOVE(reg,dreg) \
381     if ((reg) != (dreg)) { \
382         x86_64_movq_reg_reg((reg),(dreg)); \
383     }
384
385
386 /* var_to_reg_xxx:
387     this function generates code to fetch data from a pseudo-register
388     into a real register. 
389     If the pseudo-register has actually been assigned to a real 
390     register, no code will be emitted, since following operations
391     can use this register directly.
392     
393     v: pseudoregister to be fetched from
394     tempregnum: temporary register to be used if v is actually spilled to ram
395
396     return: the register number, where the operand can be found after 
397             fetching (this wil be either tempregnum or the register
398             number allready given to v)
399 */
400
401 #define var_to_reg_int(regnr,v,tempnr) \
402     if ((v)->flags & INMEMORY) { \
403         COUNT_SPILLS; \
404         if ((v)->type == TYPE_INT) { \
405             x86_64_movl_membase_reg(REG_SP, (v)->regoff * 8, tempnr); \
406         } else { \
407             x86_64_mov_membase_reg(REG_SP, (v)->regoff * 8, tempnr); \
408         } \
409         regnr = tempnr; \
410     } else { \
411         regnr = (v)->regoff; \
412     }
413
414
415
416 #define var_to_reg_flt(regnr,v,tempnr) \
417     if ((v)->flags & INMEMORY) { \
418         COUNT_SPILLS; \
419         if ((v)->type == TYPE_FLT) { \
420             x86_64_movlps_membase_reg(REG_SP, (v)->regoff * 8, tempnr); \
421         } else { \
422             x86_64_movlpd_membase_reg(REG_SP, (v)->regoff * 8, tempnr); \
423         } \
424 /*        x86_64_movq_membase_reg(REG_SP, (v)->regoff * 8, tempnr);*/ \
425         regnr = tempnr; \
426     } else { \
427         regnr = (v)->regoff; \
428     }
429
430
431 /* store_reg_to_var_xxx:
432     This function generates the code to store the result of an operation
433     back into a spilled pseudo-variable.
434     If the pseudo-variable has not been spilled in the first place, this 
435     function will generate nothing.
436     
437     v ............ Pseudovariable
438     tempregnum ... Number of the temporary registers as returned by
439                    reg_of_var.
440 */      
441
442 #define store_reg_to_var_int(sptr, tempregnum) \
443     if ((sptr)->flags & INMEMORY) { \
444         COUNT_SPILLS; \
445         x86_64_mov_reg_membase(tempregnum, REG_SP, (sptr)->regoff * 8); \
446     }
447
448
449 #define store_reg_to_var_flt(sptr, tempregnum) \
450     if ((sptr)->flags & INMEMORY) { \
451          COUNT_SPILLS; \
452          x86_64_movq_reg_membase(tempregnum, REG_SP, (sptr)->regoff * 8); \
453     }
454
455
456 /* function gen_resolvebranch **************************************************
457
458     backpatches a branch instruction
459
460     parameters: ip ... pointer to instruction after branch (void*)
461                 so ... offset of instruction after branch  (s8)
462                 to ... offset of branch target             (s8)
463
464 *******************************************************************************/
465
466 #define gen_resolvebranch(ip,so,to) \
467     *((s4*) ((ip) - 4)) = (s4) ((to) - (so));
468
469
470 /* function prototypes */
471
472 void codegen_init();
473 void init_exceptions();
474 void codegen();
475 void codegen_close();
476 void dseg_display(s4 *s4ptr);
477
478 void codegen_addreference(basicblock *target, void *branchptr);
479
480 #endif /* _CODEGEN_H */
481
482
483 /*
484  * These are local overrides for various environment variables in Emacs.
485  * Please do not remove this and leave it at the end of the file, where
486  * Emacs will automagically detect them.
487  * ---------------------------------------------------------------------
488  * Local variables:
489  * mode: c
490  * indent-tabs-mode: t
491  * c-basic-offset: 4
492  * tab-width: 4
493  * End:
494  */