Merge branch 'master' of github.com:mono/mono
[mono.git] / mono / arch / amd64 / amd64-codegen.h
1 /*
2  * amd64-codegen.h: Macros for generating amd64 code
3  *
4  * Authors:
5  *   Paolo Molaro (lupus@ximian.com)
6  *   Intel Corporation (ORP Project)
7  *   Sergey Chaban (serge@wildwestsoftware.com)
8  *   Dietmar Maurer (dietmar@ximian.com)
9  *   Patrik Torstensson
10  *   Zalman Stern
11  * 
12  * Copyright (C)  2000 Intel Corporation.  All rights reserved.
13  * Copyright (C)  2001, 2002 Ximian, Inc.
14  */
15
16 #ifndef AMD64_H
17 #define AMD64_H
18
19 #include <glib.h>
20
21 typedef enum {
22         AMD64_RAX = 0,
23         AMD64_RCX = 1,
24         AMD64_RDX = 2,
25         AMD64_RBX = 3,
26         AMD64_RSP = 4,
27         AMD64_RBP = 5,
28         AMD64_RSI = 6,
29         AMD64_RDI = 7,
30         AMD64_R8 = 8,
31         AMD64_R9 = 9,
32         AMD64_R10 = 10,
33         AMD64_R11 = 11,
34         AMD64_R12 = 12,
35         AMD64_R13 = 13,
36         AMD64_R14 = 14,
37         AMD64_R15 = 15,
38         AMD64_RIP = 16,
39         AMD64_NREG
40 } AMD64_Reg_No;
41
42 typedef enum {
43         AMD64_XMM0 = 0,
44         AMD64_XMM1 = 1,
45         AMD64_XMM2 = 2,
46         AMD64_XMM3 = 3,
47         AMD64_XMM4 = 4,
48         AMD64_XMM5 = 5,
49         AMD64_XMM6 = 6,
50         AMD64_XMM7 = 7,
51         AMD64_XMM8 = 8,
52         AMD64_XMM9 = 9,
53         AMD64_XMM10 = 10,
54         AMD64_XMM11 = 11,
55         AMD64_XMM12 = 12,
56         AMD64_XMM13 = 13,
57         AMD64_XMM14 = 14,
58         AMD64_XMM15 = 15,
59         AMD64_XMM_NREG = 16,
60 } AMD64_XMM_Reg_No;
61
62 typedef enum
63 {
64   AMD64_REX_B = 1, /* The register in r/m field, base register in SIB byte, or reg in opcode is 8-15 rather than 0-7 */
65   AMD64_REX_X = 2, /* The index register in SIB byte is 8-15 rather than 0-7 */
66   AMD64_REX_R = 4, /* The reg field of ModRM byte is 8-15 rather than 0-7 */
67   AMD64_REX_W = 8  /* Opeartion is 64-bits instead of 32 (default) or 16 (with 0x66 prefix) */
68 } AMD64_REX_Bits;
69
70 #ifdef TARGET_WIN32
71 #define AMD64_ARG_REG1 AMD64_RCX
72 #define AMD64_ARG_REG2 AMD64_RDX
73 #define AMD64_ARG_REG3 AMD64_R8
74 #define AMD64_ARG_REG4 AMD64_R9
75 #else
76 #define AMD64_ARG_REG1 AMD64_RDI
77 #define AMD64_ARG_REG2 AMD64_RSI
78 #define AMD64_ARG_REG3 AMD64_RDX
79 #define AMD64_ARG_REG4 AMD64_RCX
80 #endif
81
82 #ifdef TARGET_WIN32
83 #define AMD64_CALLEE_REGS ((1<<AMD64_RAX) | (1<<AMD64_RCX) | (1<<AMD64_RDX) | (1<<AMD64_R8) | (1<<AMD64_R9) | (1<<AMD64_R10))
84 #define AMD64_IS_CALLEE_REG(reg)  (AMD64_CALLEE_REGS & (1 << (reg)))
85
86 #define AMD64_ARGUMENT_REGS ((1<<AMD64_RDX) | (1<<AMD64_RCX) | (1<<AMD64_R8) | (1<<AMD64_R9))
87 #define AMD64_IS_ARGUMENT_REG(reg) (AMD64_ARGUMENT_REGS & (1 << (reg)))
88
89 #define AMD64_CALLEE_SAVED_REGS ((1<<AMD64_RDI) | (1<<AMD64_RSI) | (1<<AMD64_RBX) | (1<<AMD64_R12) | (1<<AMD64_R13) | (1<<AMD64_R14) | (1<<AMD64_R15) | (1<<AMD64_RBP))
90 #define AMD64_IS_CALLEE_SAVED_REG(reg) (AMD64_CALLEE_SAVED_REGS & (1 << (reg)))
91 #else
92 #define AMD64_CALLEE_REGS ((1<<AMD64_RAX) | (1<<AMD64_RCX) | (1<<AMD64_RDX) | (1<<AMD64_RSI) | (1<<AMD64_RDI) | (1<<AMD64_R8) | (1<<AMD64_R9) | (1<<AMD64_R10))
93 #define AMD64_IS_CALLEE_REG(reg)  (AMD64_CALLEE_REGS & (1 << (reg)))
94
95 #define AMD64_ARGUMENT_REGS ((1<<AMD64_RDI) | (1<<AMD64_RSI) | (1<<AMD64_RDX) | (1<<AMD64_RCX) | (1<<AMD64_R8) | (1<<AMD64_R9))
96 #define AMD64_IS_ARGUMENT_REG(reg) (AMD64_ARGUMENT_REGS & (1 << (reg)))
97
98 #define AMD64_CALLEE_SAVED_REGS ((1<<AMD64_RBX) | (1<<AMD64_R12) | (1<<AMD64_R13) | (1<<AMD64_R14) | (1<<AMD64_R15) | (1<<AMD64_RBP))
99 #define AMD64_IS_CALLEE_SAVED_REG(reg) (AMD64_CALLEE_SAVED_REGS & (1 << (reg)))
100 #endif
101
102 #define AMD64_REX(bits) ((unsigned char)(0x40 | (bits)))
103 #define amd64_emit_rex(inst, width, reg_modrm, reg_index, reg_rm_base_opcode) do \
104         { \
105                 unsigned char _amd64_rex_bits = \
106                         (((width) > 4) ? AMD64_REX_W : 0) | \
107                         (((reg_modrm) > 7) ? AMD64_REX_R : 0) | \
108                         (((reg_index) > 7) ? AMD64_REX_X : 0) | \
109                         (((reg_rm_base_opcode) > 7) ? AMD64_REX_B : 0); \
110                 if ((_amd64_rex_bits != 0) || (((width) == 1))) *(inst)++ = AMD64_REX(_amd64_rex_bits); \
111         } while (0)
112
113 typedef union {
114         gsize val;
115         unsigned char b [8];
116 } amd64_imm_buf;
117
118 #include "../x86/x86-codegen.h"
119
120 /* In 64 bit mode, all registers have a low byte subregister */
121 #undef X86_IS_BYTE_REG
122 #define X86_IS_BYTE_REG(reg) 1
123
124 #define amd64_modrm_mod(modrm) ((modrm) >> 6)
125 #define amd64_modrm_reg(modrm) (((modrm) >> 3) & 0x7)
126 #define amd64_modrm_rm(modrm) ((modrm) & 0x7)
127
128 #define amd64_rex_r(rex) ((((rex) >> 2) & 0x1) << 3)
129 #define amd64_rex_x(rex) ((((rex) >> 1) & 0x1) << 3)
130 #define amd64_rex_b(rex) ((((rex) >> 0) & 0x1) << 3)
131
132 #define amd64_sib_scale(sib) ((sib) >> 6)
133 #define amd64_sib_index(sib) (((sib) >> 3) & 0x7)
134 #define amd64_sib_base(sib) ((sib) & 0x7)
135
136 #define amd64_is_imm32(val) ((gint64)val >= -((gint64)1<<31) && (gint64)val <= (((gint64)1<<31)-1))
137
138 #define x86_imm_emit64(inst,imm)     \
139         do {    \
140                         amd64_imm_buf imb;      \
141                         imb.val = (gsize) (imm);        \
142                         *(inst)++ = imb.b [0];  \
143                         *(inst)++ = imb.b [1];  \
144                         *(inst)++ = imb.b [2];  \
145                         *(inst)++ = imb.b [3];  \
146                         *(inst)++ = imb.b [4];  \
147                         *(inst)++ = imb.b [5];  \
148                         *(inst)++ = imb.b [6];  \
149                         *(inst)++ = imb.b [7];  \
150         } while (0)
151
152 #define amd64_membase_emit(inst,reg,basereg,disp) do { \
153         if ((basereg) == AMD64_RIP) { \
154         x86_address_byte ((inst), 0, (reg)&0x7, 5); \
155         x86_imm_emit32 ((inst), (disp)); \
156     } \
157         else \
158                 x86_membase_emit ((inst),(reg)&0x7, (basereg)&0x7, (disp)); \
159 } while (0)
160
161 #define amd64_alu_reg_imm_size(inst,opc,reg,imm,size)   \
162         do {    \
163                 if (x86_is_imm8((imm))) {       \
164                         amd64_emit_rex(inst, size, 0, 0, (reg)); \
165                         *(inst)++ = (unsigned char)0x83;        \
166                         x86_reg_emit ((inst), (opc), (reg));    \
167                         x86_imm_emit8 ((inst), (imm));  \
168                 } else if ((reg) == X86_EAX) {  \
169                         amd64_emit_rex(inst, size, 0, 0, 0); \
170                         *(inst)++ = (((unsigned char)(opc)) << 3) + 5;  \
171                         x86_imm_emit32 ((inst), (imm)); \
172                 } else {        \
173                         amd64_emit_rex(inst, size, 0, 0, (reg)); \
174                         *(inst)++ = (unsigned char)0x81;        \
175                         x86_reg_emit ((inst), (opc), (reg));    \
176                         x86_imm_emit32 ((inst), (imm)); \
177                 }       \
178         } while (0)
179
180 #define amd64_alu_reg_imm(inst,opc,reg,imm) amd64_alu_reg_imm_size((inst),(opc),(reg),(imm),8)
181
182 #define amd64_alu_reg_reg_size(inst,opc,dreg,reg,size)  \
183         do {    \
184                 amd64_emit_rex(inst, size, (dreg), 0, (reg)); \
185                 *(inst)++ = (((unsigned char)(opc)) << 3) + 3;  \
186                 x86_reg_emit ((inst), (dreg), (reg));   \
187         } while (0)
188
189 #define amd64_alu_reg_reg(inst,opc,dreg,reg) amd64_alu_reg_reg_size ((inst),(opc),(dreg),(reg),8)
190
191 #define amd64_alu_reg_membase_size(inst,opc,reg,basereg,disp,size) \
192         do { \
193                 amd64_emit_rex ((inst),(size),(reg),0,(basereg)); \
194                 *(inst)++ = (((unsigned char)(opc)) << 3) + 3;  \
195                 amd64_membase_emit (inst, reg, basereg, disp); \
196 } while (0)
197
198
199 #define amd64_mov_regp_reg(inst,regp,reg,size)  \
200         do {    \
201                 if ((size) == 2) \
202                         *(inst)++ = (unsigned char)0x66; \
203                 amd64_emit_rex(inst, (size), (reg), 0, (regp)); \
204                 switch ((size)) {       \
205                 case 1: *(inst)++ = (unsigned char)0x88; break; \
206                 case 2: case 4: case 8: *(inst)++ = (unsigned char)0x89; break; \
207                 default: assert (0);    \
208                 }       \
209                 x86_regp_emit ((inst), (reg), (regp));  \
210         } while (0)
211
212 #define amd64_mov_membase_reg(inst,basereg,disp,reg,size)       \
213         do {    \
214                 if ((size) == 2) \
215                         *(inst)++ = (unsigned char)0x66; \
216                 amd64_emit_rex(inst, (size), (reg), 0, (basereg)); \
217                 switch ((size)) {       \
218                 case 1: *(inst)++ = (unsigned char)0x88; break; \
219                 case 2: case 4: case 8: *(inst)++ = (unsigned char)0x89; break; \
220                 default: assert (0);    \
221                 }       \
222                 x86_membase_emit ((inst), ((reg)&0x7), ((basereg)&0x7), (disp));        \
223         } while (0)
224
225 #define amd64_mov_mem_reg(inst,mem,reg,size)    \
226         do {    \
227                 if ((size) == 2) \
228                         *(inst)++ = (unsigned char)0x66; \
229                 amd64_emit_rex(inst, (size), (reg), 0, 0); \
230                 switch ((size)) {       \
231                 case 1: *(inst)++ = (unsigned char)0x88; break; \
232                 case 2: case 4: case 8: *(inst)++ = (unsigned char)0x89; break; \
233                 default: assert (0);    \
234                 }       \
235         x86_address_byte ((inst), 0, (reg), 4); \
236         x86_address_byte ((inst), 0, 4, 5); \
237         x86_imm_emit32 ((inst), (mem)); \
238         } while (0)
239
240 #define amd64_mov_reg_reg(inst,dreg,reg,size)   \
241         do {    \
242                 if ((size) == 2) \
243                         *(inst)++ = (unsigned char)0x66; \
244                 amd64_emit_rex(inst, (size), (dreg), 0, (reg)); \
245                 switch ((size)) {       \
246                 case 1: *(inst)++ = (unsigned char)0x8a; break; \
247                 case 2: case 4: case 8: *(inst)++ = (unsigned char)0x8b; break; \
248                 default: assert (0);    \
249                 }       \
250                 x86_reg_emit ((inst), (dreg), (reg));   \
251         } while (0)
252
253 #define amd64_mov_reg_mem(inst,reg,mem,size)    \
254         do {    \
255                 if ((size) == 2) \
256                         *(inst)++ = (unsigned char)0x66; \
257                 amd64_emit_rex(inst, (size), (reg), 0, 0); \
258                 switch ((size)) {       \
259                 case 1: *(inst)++ = (unsigned char)0x8a; break; \
260                 case 2: case 4: case 8: *(inst)++ = (unsigned char)0x8b; break; \
261                 default: assert (0);    \
262                 }       \
263         x86_address_byte ((inst), 0, (reg), 4); \
264         x86_address_byte ((inst), 0, 4, 5); \
265         x86_imm_emit32 ((inst), (mem)); \
266         } while (0)
267
268 #define amd64_mov_reg_membase(inst,reg,basereg,disp,size)       \
269         do {    \
270                 if ((size) == 2) \
271                         *(inst)++ = (unsigned char)0x66; \
272                 amd64_emit_rex(inst, (size), (reg), 0, (basereg)); \
273                 switch ((size)) {       \
274                 case 1: *(inst)++ = (unsigned char)0x8a; break; \
275                 case 2: case 4: case 8: *(inst)++ = (unsigned char)0x8b; break; \
276                 default: assert (0);    \
277                 }       \
278                 amd64_membase_emit ((inst), (reg), (basereg), (disp));  \
279         } while (0)
280
281 #define amd64_movzx_reg_membase(inst,reg,basereg,disp,size)     \
282         do {    \
283                 amd64_emit_rex(inst, (size), (reg), 0, (basereg)); \
284                 switch ((size)) {       \
285                 case 1: *(inst)++ = (unsigned char)0x0f; *(inst)++ = (unsigned char)0xb6; break;        \
286                 case 2: *(inst)++ = (unsigned char)0x0f; *(inst)++ = (unsigned char)0xb7; break;        \
287                 case 4: case 8: *(inst)++ = (unsigned char)0x8b; break; \
288                 default: assert (0);    \
289                 }       \
290                 x86_membase_emit ((inst), ((reg)&0x7), ((basereg)&0x7), (disp));        \
291         } while (0)
292
293 #define amd64_movsxd_reg_mem(inst,reg,mem) \
294     do {     \
295        amd64_emit_rex(inst,8,(reg),0,0); \
296        *(inst)++ = (unsigned char)0x63; \
297        x86_mem_emit ((inst), ((reg)&0x7), (mem)); \
298     } while (0)
299
300 #define amd64_movsxd_reg_membase(inst,reg,basereg,disp) \
301     do {     \
302        amd64_emit_rex(inst,8,(reg),0,(basereg)); \
303        *(inst)++ = (unsigned char)0x63; \
304        x86_membase_emit ((inst), ((reg)&0x7), ((basereg)&0x7), (disp)); \
305     } while (0)
306
307 #define amd64_movsxd_reg_reg(inst,dreg,reg) \
308     do {     \
309        amd64_emit_rex(inst,8,(dreg),0,(reg)); \
310        *(inst)++ = (unsigned char)0x63; \
311            x86_reg_emit ((inst), (dreg), (reg));        \
312     } while (0)
313
314 /* Pretty much the only instruction that supports a 64-bit immediate. Optimize for common case of
315  * 32-bit immediate. Pepper with casts to avoid warnings.
316  */
317 #define amd64_mov_reg_imm_size(inst,reg,imm,size)       \
318         do {    \
319                 amd64_emit_rex(inst, (size), 0, 0, (reg)); \
320                 *(inst)++ = (unsigned char)0xb8 + ((reg) & 0x7);        \
321                 if ((size) == 8) \
322                         x86_imm_emit64 ((inst), (gsize)(imm));  \
323                 else \
324                         x86_imm_emit32 ((inst), (int)(gsize)(imm));     \
325         } while (0)
326
327 #define amd64_mov_reg_imm(inst,reg,imm) \
328         do {    \
329                 int _amd64_width_temp = ((gsize)(imm) == (gsize)(int)(gsize)(imm)); \
330         amd64_mov_reg_imm_size ((inst), (reg), (imm), (_amd64_width_temp ? 4 : 8)); \
331         } while (0)
332
333 #define amd64_set_reg_template(inst,reg) amd64_mov_reg_imm_size ((inst),(reg), 0, 8)
334
335 #define amd64_set_template(inst,reg) amd64_set_reg_template((inst),(reg))
336
337 #define amd64_mov_membase_imm(inst,basereg,disp,imm,size)       \
338         do {    \
339                 if ((size) == 2) \
340                         *(inst)++ = (unsigned char)0x66; \
341                 amd64_emit_rex(inst, (size) == 1 ? 0 : (size), 0, 0, (basereg)); \
342                 if ((size) == 1) {      \
343                         *(inst)++ = (unsigned char)0xc6;        \
344                         x86_membase_emit ((inst), 0, (basereg) & 0x7, (disp));  \
345                         x86_imm_emit8 ((inst), (imm));  \
346                 } else if ((size) == 2) {       \
347                         *(inst)++ = (unsigned char)0xc7;        \
348                         x86_membase_emit ((inst), 0, (basereg) & 0x7, (disp));  \
349                         x86_imm_emit16 ((inst), (imm)); \
350                 } else {        \
351                         *(inst)++ = (unsigned char)0xc7;        \
352                         x86_membase_emit ((inst), 0, (basereg) & 0x7, (disp));  \
353                         x86_imm_emit32 ((inst), (imm)); \
354                 }       \
355         } while (0)
356
357 #define amd64_lea_membase(inst,reg,basereg,disp)        \
358         do {    \
359                 amd64_emit_rex(inst, 8, (reg), 0, (basereg)); \
360                 *(inst)++ = (unsigned char)0x8d;        \
361                 amd64_membase_emit ((inst), (reg), (basereg), (disp));  \
362         } while (0)
363
364 /* Instruction are implicitly 64-bits so don't generate REX for just the size. */
365 #define amd64_push_reg(inst,reg)        \
366         do {    \
367                 amd64_emit_rex(inst, 0, 0, 0, (reg)); \
368                 *(inst)++ = (unsigned char)0x50 + ((reg) & 0x7);        \
369         } while (0)
370
371 /* Instruction is implicitly 64-bits so don't generate REX for just the size. */
372 #define amd64_push_membase(inst,basereg,disp)   \
373         do {    \
374                 amd64_emit_rex(inst, 0, 0, 0, (basereg)); \
375                 *(inst)++ = (unsigned char)0xff;        \
376                 x86_membase_emit ((inst), 6, (basereg) & 0x7, (disp));  \
377         } while (0)
378
379 #define amd64_pop_reg(inst,reg) \
380         do {    \
381                 amd64_emit_rex(inst, 0, 0, 0, (reg)); \
382                 *(inst)++ = (unsigned char)0x58 + ((reg) & 0x7);        \
383         } while (0)
384
385 #define amd64_call_reg(inst,reg)        \
386         do {    \
387                 amd64_emit_rex(inst, 0, 0, 0, (reg)); \
388                 *(inst)++ = (unsigned char)0xff;        \
389                 x86_reg_emit ((inst), 2, ((reg) & 0x7));        \
390         } while (0)
391
392 #define amd64_ret(inst) do { *(inst)++ = (unsigned char)0xc3; } while (0)
393 #define amd64_leave(inst) do { *(inst)++ = (unsigned char)0xc9; } while (0)
394 #define amd64_movsd_reg_regp(inst,reg,regp)     \
395         do {    \
396                 *(inst)++ = (unsigned char)0xf2;        \
397                 amd64_emit_rex(inst, 0, (reg), 0, (regp)); \
398                 *(inst)++ = (unsigned char)0x0f;        \
399                 *(inst)++ = (unsigned char)0x10;        \
400                 x86_regp_emit ((inst), (reg) & 0x7, (regp) & 0x7);      \
401         } while (0)
402
403 #define amd64_movsd_regp_reg(inst,regp,reg)     \
404         do {    \
405                 *(inst)++ = (unsigned char)0xf2;        \
406                 amd64_emit_rex(inst, 0, (reg), 0, (regp)); \
407                 *(inst)++ = (unsigned char)0x0f;        \
408                 *(inst)++ = (unsigned char)0x11;        \
409                 x86_regp_emit ((inst), (reg) & 0x7, (regp) & 0x7);      \
410         } while (0)
411
412 #define amd64_movss_reg_regp(inst,reg,regp)     \
413         do {    \
414                 *(inst)++ = (unsigned char)0xf3;        \
415                 amd64_emit_rex(inst, 0, (reg), 0, (regp)); \
416                 *(inst)++ = (unsigned char)0x0f;        \
417                 *(inst)++ = (unsigned char)0x10;        \
418                 x86_regp_emit ((inst), (reg) & 0x7, (regp) & 0x7);      \
419         } while (0)
420
421 #define amd64_movss_regp_reg(inst,regp,reg)     \
422         do {    \
423                 *(inst)++ = (unsigned char)0xf3;        \
424                 amd64_emit_rex(inst, 0, (reg), 0, (regp)); \
425                 *(inst)++ = (unsigned char)0x0f;        \
426                 *(inst)++ = (unsigned char)0x11;        \
427                 x86_regp_emit ((inst), (reg) & 0x7, (regp) & 0x7);      \
428         } while (0)
429
430 #define amd64_movsd_reg_membase(inst,reg,basereg,disp)  \
431         do {    \
432                 *(inst)++ = (unsigned char)0xf2;        \
433                 amd64_emit_rex(inst, 0, (reg), 0, (basereg)); \
434                 *(inst)++ = (unsigned char)0x0f;        \
435                 *(inst)++ = (unsigned char)0x10;        \
436                 x86_membase_emit ((inst), (reg) & 0x7, (basereg) & 0x7, (disp));        \
437         } while (0)
438
439 #define amd64_movss_reg_membase(inst,reg,basereg,disp)  \
440         do {    \
441                 *(inst)++ = (unsigned char)0xf3;        \
442                 amd64_emit_rex(inst, 0, (reg), 0, (basereg)); \
443                 *(inst)++ = (unsigned char)0x0f;        \
444                 *(inst)++ = (unsigned char)0x10;        \
445                 x86_membase_emit ((inst), (reg) & 0x7, (basereg) & 0x7, (disp));        \
446         } while (0)
447
448 #define amd64_movsd_membase_reg(inst,basereg,disp,reg)  \
449         do {    \
450                 *(inst)++ = (unsigned char)0xf2;        \
451                 amd64_emit_rex(inst, 0, (reg), 0, (basereg)); \
452                 *(inst)++ = (unsigned char)0x0f;        \
453                 *(inst)++ = (unsigned char)0x11;        \
454                 x86_membase_emit ((inst), (reg) & 0x7, (basereg) & 0x7, (disp));        \
455         } while (0)
456
457 #define amd64_movss_membase_reg(inst,basereg,disp,reg)  \
458         do {    \
459                 *(inst)++ = (unsigned char)0xf3;        \
460                 amd64_emit_rex(inst, 0, (reg), 0, (basereg)); \
461                 *(inst)++ = (unsigned char)0x0f;        \
462                 *(inst)++ = (unsigned char)0x11;        \
463                 x86_membase_emit ((inst), (reg) & 0x7, (basereg) & 0x7, (disp));        \
464         } while (0)
465
466 /* The original inc_reg opcode is used as the REX prefix */
467 #define amd64_inc_reg_size(inst,reg,size) \
468     do { \
469             amd64_emit_rex ((inst),(size),0,0,(reg)); \
470         *(inst)++ = (unsigned char)0xff; \
471         x86_reg_emit ((inst),0,(reg) & 0x7); \
472     } while (0)
473
474 #define amd64_dec_reg_size(inst,reg,size) \
475     do { \
476             amd64_emit_rex ((inst),(size),0,0,(reg)); \
477         *(inst)++ = (unsigned char)0xff; \
478         x86_reg_emit ((inst),1,(reg) & 0x7); \
479     } while (0)
480
481 /* From the AMD64 Software Optimization Manual */
482 #define amd64_padding_size(inst,size) \
483     do { \
484             switch ((size)) {                                                             \
485         case 1: *(inst)++ = 0x90; break;                                                  \
486         case 2: *(inst)++ = 0x66; *(inst)++ = 0x90; break;                        \
487         case 3: *(inst)++ = 0x66; *(inst)++ = 0x66; *(inst)++ = 0x90; break; \
488                 default: amd64_emit_rex ((inst),8,0,0,0); x86_padding ((inst), (size) - 1); \
489                 }; \
490                 } while (0)
491
492 #define amd64_fld_membase_size(inst,basereg,disp,is_double,size) do { \
493         amd64_emit_rex ((inst),0,0,0,(basereg)); \
494     *(inst)++ = (is_double) ? (unsigned char)0xdd : (unsigned char)0xd9;        \
495         amd64_membase_emit ((inst), 0, (basereg), (disp));      \
496 } while (0)
497
498 #define amd64_call_membase_size(inst,basereg,disp,size) do { amd64_emit_rex ((inst),0,0,0,(basereg)); *(inst)++ = (unsigned char)0xff; amd64_membase_emit ((inst),2, (basereg),(disp)); } while (0)
499 #define amd64_jump_membase_size(inst,basereg,disp,size) do { amd64_emit_rex ((inst),0,0,0,(basereg)); *(inst)++ = (unsigned char)0xff; amd64_membase_emit ((inst), 4, (basereg), (disp)); } while (0)
500     
501 #define amd64_jump_code_size(inst,target,size) do { \
502         if (amd64_is_imm32 ((gint64)(target) - (gint64)(inst))) {               \
503                 x86_jump_code((inst),(target));                                                                 \
504         } else {                                                                                                                        \
505             amd64_jump_membase ((inst), AMD64_RIP, 0);                                                  \
506                 *(guint64*)(inst) = (guint64)(target);                                                  \
507                 (inst) += 8; \
508         } \
509 } while (0)
510
511 /*
512  * SSE
513  */
514
515 //TODO Reorganize SSE opcode defines.
516
517 /* Two opcode SSE defines */
518
519 #define emit_sse_reg_reg_op2_size(inst,dreg,reg,op1,op2,size) do { \
520     amd64_emit_rex ((inst), size, (dreg), 0, (reg)); \
521     *(inst)++ = (unsigned char)(op1); \
522     *(inst)++ = (unsigned char)(op2); \
523     x86_reg_emit ((inst), (dreg), (reg)); \
524 } while (0)
525
526 #define emit_sse_reg_reg_op2(inst,dreg,reg,op1,op2) emit_sse_reg_reg_op2_size ((inst), (dreg), (reg), (op1), (op2), 0)
527
528 #define emit_sse_reg_reg_op2_imm(inst,dreg,reg,op1,op2,imm) do { \
529    emit_sse_reg_reg_op2 ((inst), (dreg), (reg), (op1), (op2)); \
530    x86_imm_emit8 ((inst), (imm)); \
531 } while (0)
532
533 #define emit_sse_membase_reg_op2(inst,basereg,disp,reg,op1,op2) do { \
534     amd64_emit_rex ((inst), 0, (reg), 0, (basereg)); \
535     *(inst)++ = (unsigned char)(op1); \
536     *(inst)++ = (unsigned char)(op2); \
537     amd64_membase_emit ((inst), (reg), (basereg), (disp)); \
538 } while (0)
539
540 #define emit_sse_reg_membase_op2(inst,dreg,basereg,disp,op1,op2) do { \
541     amd64_emit_rex ((inst), 0, (dreg), 0, (basereg) == AMD64_RIP ? 0 : (basereg)); \
542     *(inst)++ = (unsigned char)(op1); \
543     *(inst)++ = (unsigned char)(op2); \
544     amd64_membase_emit ((inst), (dreg), (basereg), (disp)); \
545 } while (0)
546
547 /* Three opcode SSE defines */
548
549 #define emit_opcode3(inst,op1,op2,op3) do { \
550    *(inst)++ = (unsigned char)(op1); \
551    *(inst)++ = (unsigned char)(op2); \
552    *(inst)++ = (unsigned char)(op3); \
553 } while (0)
554
555 #define emit_sse_reg_reg_size(inst,dreg,reg,op1,op2,op3,size) do { \
556     *(inst)++ = (unsigned char)(op1); \
557         amd64_emit_rex ((inst), size, (dreg), 0, (reg)); \
558     *(inst)++ = (unsigned char)(op2); \
559     *(inst)++ = (unsigned char)(op3); \
560     x86_reg_emit ((inst), (dreg), (reg)); \
561 } while (0)
562
563 #define emit_sse_reg_reg(inst,dreg,reg,op1,op2,op3) emit_sse_reg_reg_size ((inst), (dreg), (reg), (op1), (op2), (op3), 0)
564
565 #define emit_sse_reg_reg_imm(inst,dreg,reg,op1,op2,op3,imm) do { \
566    emit_sse_reg_reg ((inst), (dreg), (reg), (op1), (op2), (op3)); \
567    x86_imm_emit8 ((inst), (imm)); \
568 } while (0)
569
570 #define emit_sse_membase_reg(inst,basereg,disp,reg,op1,op2,op3) do { \
571     *(inst)++ = (unsigned char)(op1); \
572     amd64_emit_rex ((inst), 0, (reg), 0, (basereg)); \
573     *(inst)++ = (unsigned char)(op2); \
574     *(inst)++ = (unsigned char)(op3); \
575     amd64_membase_emit ((inst), (reg), (basereg), (disp)); \
576 } while (0)
577
578 #define emit_sse_reg_membase(inst,dreg,basereg,disp,op1,op2,op3) do { \
579     *(inst)++ = (unsigned char)(op1); \
580     amd64_emit_rex ((inst), 0, (dreg), 0, (basereg) == AMD64_RIP ? 0 : (basereg)); \
581     *(inst)++ = (unsigned char)(op2); \
582     *(inst)++ = (unsigned char)(op3); \
583     amd64_membase_emit ((inst), (dreg), (basereg), (disp)); \
584 } while (0)
585
586 /* Four opcode SSE defines */
587
588 #define emit_sse_reg_reg_op4_size(inst,dreg,reg,op1,op2,op3,op4,size) do { \
589     *(inst)++ = (unsigned char)(op1); \
590         amd64_emit_rex ((inst), size, (dreg), 0, (reg)); \
591     *(inst)++ = (unsigned char)(op2); \
592     *(inst)++ = (unsigned char)(op3); \
593     *(inst)++ = (unsigned char)(op4); \
594     x86_reg_emit ((inst), (dreg), (reg)); \
595 } while (0)
596
597 #define emit_sse_reg_reg_op4(inst,dreg,reg,op1,op2,op3,op4) emit_sse_reg_reg_op4_size ((inst), (dreg), (reg), (op1), (op2), (op3), (op4), 0)
598
599 /* specific SSE opcode defines */
600  
601 #define amd64_sse_xorpd_reg_reg(inst,dreg,reg) emit_sse_reg_reg ((inst),(dreg),(reg), 0x66, 0x0f, 0x57)
602
603 #define amd64_sse_xorpd_reg_membase(inst,dreg,basereg,disp) emit_sse_reg_membase ((inst),(dreg),(basereg), (disp), 0x66, 0x0f, 0x57)
604
605 #define amd64_sse_andpd_reg_membase(inst,dreg,basereg,disp) emit_sse_reg_membase ((inst),(dreg),(basereg), (disp), 0x66, 0x0f, 0x54)
606
607 #define amd64_sse_movsd_reg_reg(inst,dreg,reg) emit_sse_reg_reg ((inst), (dreg), (reg), 0xf2, 0x0f, 0x10)
608
609 #define amd64_sse_movsd_reg_membase(inst,dreg,basereg,disp) emit_sse_reg_membase ((inst), (dreg), (basereg), (disp), 0xf2, 0x0f, 0x10)
610
611 #define amd64_sse_movsd_membase_reg(inst,basereg,disp,reg) emit_sse_membase_reg ((inst), (basereg), (disp), (reg), 0xf2, 0x0f, 0x11)
612
613 #define amd64_sse_movss_membase_reg(inst,basereg,disp,reg) emit_sse_membase_reg ((inst), (basereg), (disp), (reg), 0xf3, 0x0f, 0x11)
614
615 #define amd64_sse_movss_reg_membase(inst,dreg,basereg,disp) emit_sse_reg_membase ((inst), (dreg), (basereg), (disp), 0xf3, 0x0f, 0x10)
616
617 #define amd64_sse_comisd_reg_reg(inst,dreg,reg) emit_sse_reg_reg ((inst),(dreg),(reg),0x66,0x0f,0x2f)
618
619 #define amd64_sse_comisd_reg_membase(inst,dreg,basereg,disp) emit_sse_reg_membase ((inst), (dreg), (basereg), (disp), 0x66, 0x0f, 0x2f)
620
621 #define amd64_sse_ucomisd_reg_reg(inst,dreg,reg) emit_sse_reg_reg ((inst),(dreg),(reg),0x66,0x0f,0x2e)
622
623 #define amd64_sse_cvtsd2si_reg_reg(inst,dreg,reg) emit_sse_reg_reg_size ((inst), (dreg), (reg), 0xf2, 0x0f, 0x2d, 8)
624
625 #define amd64_sse_cvttsd2si_reg_reg_size(inst,dreg,reg,size) emit_sse_reg_reg_size ((inst), (dreg), (reg), 0xf2, 0x0f, 0x2c, (size))
626
627 #define amd64_sse_cvttsd2si_reg_reg(inst,dreg,reg) amd64_sse_cvttsd2si_reg_reg_size ((inst), (dreg), (reg), 8)
628
629 #define amd64_sse_cvtsi2sd_reg_reg_size(inst,dreg,reg,size) emit_sse_reg_reg_size ((inst), (dreg), (reg), 0xf2, 0x0f, 0x2a, (size))
630
631 #define amd64_sse_cvtsi2sd_reg_reg(inst,dreg,reg) amd64_sse_cvtsi2sd_reg_reg_size ((inst), (dreg), (reg), 8)
632
633 #define amd64_sse_cvtsd2ss_reg_reg(inst,dreg,reg) emit_sse_reg_reg ((inst), (dreg), (reg), 0xf2, 0x0f, 0x5a)
634
635 #define amd64_sse_cvtss2sd_reg_reg(inst,dreg,reg) emit_sse_reg_reg ((inst), (dreg), (reg), 0xf3, 0x0f, 0x5a)
636
637 #define amd64_sse_addsd_reg_reg(inst,dreg,reg) emit_sse_reg_reg ((inst), (dreg), (reg), 0xf2, 0x0f, 0x58)
638
639 #define amd64_sse_subsd_reg_reg(inst,dreg,reg) emit_sse_reg_reg ((inst), (dreg), (reg), 0xf2, 0x0f, 0x5c)
640
641 #define amd64_sse_mulsd_reg_reg(inst,dreg,reg) emit_sse_reg_reg ((inst), (dreg), (reg), 0xf2, 0x0f, 0x59)
642
643 #define amd64_sse_divsd_reg_reg(inst,dreg,reg) emit_sse_reg_reg ((inst), (dreg), (reg), 0xf2, 0x0f, 0x5e)
644
645 #define amd64_sse_sqrtsd_reg_reg(inst,dreg,reg) emit_sse_reg_reg((inst), (dreg), (reg), 0xf2, 0x0f, 0x51)
646
647
648 #define amd64_sse_pinsrw_reg_reg_imm(inst,dreg,reg,imm) emit_sse_reg_reg_imm ((inst), (dreg), (reg), 0x66, 0x0f, 0xc4, (imm))
649
650 #define amd64_sse_pextrw_reg_reg_imm(inst,dreg,reg,imm) emit_sse_reg_reg_imm ((inst), (dreg), (reg), 0x66, 0x0f, 0xc5, (imm))
651
652
653 #define amd64_sse_cvttsd2si_reg_xreg_size(inst,reg,xreg,size) emit_sse_reg_reg_size ((inst), (reg), (xreg), 0xf2, 0x0f, 0x2c, (size))
654
655
656 #define amd64_sse_addps_reg_reg(inst,dreg,reg) emit_sse_reg_reg_op2((inst), (dreg), (reg), 0x0f, 0x58)
657
658 #define amd64_sse_divps_reg_reg(inst,dreg,reg) emit_sse_reg_reg_op2((inst), (dreg), (reg), 0x0f, 0x5e)
659
660 #define amd64_sse_mulps_reg_reg(inst,dreg,reg) emit_sse_reg_reg_op2((inst), (dreg), (reg), 0x0f, 0x59)
661
662 #define amd64_sse_subps_reg_reg(inst,dreg,reg) emit_sse_reg_reg_op2((inst), (dreg), (reg), 0x0f, 0x5c)
663
664 #define amd64_sse_maxps_reg_reg(inst,dreg,reg) emit_sse_reg_reg_op2((inst), (dreg), (reg), 0x0f, 0x5f)
665
666 #define amd64_sse_minps_reg_reg(inst,dreg,reg) emit_sse_reg_reg_op2((inst), (dreg), (reg), 0x0f, 0x5d)
667
668 #define amd64_sse_cmpps_reg_reg_imm(inst,dreg,reg,imm) emit_sse_reg_reg_op2_imm((inst), (dreg), (reg), 0x0f, 0xc2, (imm))
669
670 #define amd64_sse_andps_reg_reg(inst,dreg,reg) emit_sse_reg_reg_op2((inst), (dreg), (reg), 0x0f, 0x54)
671
672 #define amd64_sse_andnps_reg_reg(inst,dreg,reg) emit_sse_reg_reg_op2((inst), (dreg), (reg), 0x0f, 0x55)
673
674 #define amd64_sse_orps_reg_reg(inst,dreg,reg) emit_sse_reg_reg_op2((inst), (dreg), (reg), 0x0f, 0x56)
675
676 #define amd64_sse_xorps_reg_reg(inst,dreg,reg) emit_sse_reg_reg_op2((inst), (dreg), (reg), 0x0f, 0x57)
677
678 #define amd64_sse_sqrtps_reg_reg(inst,dreg,reg) emit_sse_reg_reg_op2((inst), (dreg), (reg), 0x0f, 0x51)
679
680 #define amd64_sse_rsqrtps_reg_reg(inst,dreg,reg) emit_sse_reg_reg_op2((inst), (dreg), (reg), 0x0f, 0x52)
681
682 #define amd64_sse_rcpps_reg_reg(inst,dreg,reg) emit_sse_reg_reg_op2((inst), (dreg), (reg), 0x0f, 0x53)
683
684 #define amd64_sse_addsubps_reg_reg(inst,dreg,reg) emit_sse_reg_reg((inst), (dreg), (reg), 0xf2, 0x0f, 0xd0)
685
686 #define amd64_sse_haddps_reg_reg(inst,dreg,reg) emit_sse_reg_reg((inst), (dreg), (reg), 0xf2, 0x0f, 0x7c)
687
688 #define amd64_sse_hsubps_reg_reg(inst,dreg,reg) emit_sse_reg_reg((inst), (dreg), (reg), 0xf2, 0x0f, 0x7d)
689
690 #define amd64_sse_movshdup_reg_reg(inst,dreg,reg) emit_sse_reg_reg((inst), (dreg), (reg), 0xf3, 0x0f, 0x16)
691
692 #define amd64_sse_movsldup_reg_reg(inst,dreg,reg) emit_sse_reg_reg((inst), (dreg), (reg), 0xf3, 0x0f, 0x12)
693
694
695 #define amd64_sse_pshufhw_reg_reg_imm(inst,dreg,reg,imm) emit_sse_reg_reg_imm((inst), (dreg), (reg), 0xf3, 0x0f, 0x70, (imm))
696
697 #define amd64_sse_pshuflw_reg_reg_imm(inst,dreg,reg,imm) emit_sse_reg_reg_imm((inst), (dreg), (reg), 0xf2, 0x0f, 0x70, (imm))
698
699 #define amd64_sse_pshufd_reg_reg_imm(inst,dreg,reg,imm) emit_sse_reg_reg_imm((inst), (dreg), (reg), 0x66, 0x0f, 0x70, (imm))
700
701
702 #define amd64_sse_addpd_reg_reg(inst,dreg,reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0x58)
703
704 #define amd64_sse_divpd_reg_reg(inst,dreg,reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0x5e)
705
706 #define amd64_sse_mulpd_reg_reg(inst,dreg,reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0x59)
707
708 #define amd64_sse_subpd_reg_reg(inst,dreg,reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0x5c)
709
710 #define amd64_sse_maxpd_reg_reg(inst,dreg,reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0x5f)
711
712 #define amd64_sse_minpd_reg_reg(inst,dreg,reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0x5d)
713
714 #define amd64_sse_cmppd_reg_reg_imm(inst,dreg,reg,imm) emit_sse_reg_reg_imm((inst), (dreg), (reg), 0x66, 0x0f, 0xc2, (imm))
715
716 #define amd64_sse_andpd_reg_reg(inst,dreg,reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0x54)
717
718 #define amd64_sse_andnpd_reg_reg(inst,dreg,reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0x55)
719
720 #define amd64_sse_orpd_reg_reg(inst,dreg,reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0x56)
721
722 #define amd64_sse_sqrtpd_reg_reg(inst,dreg,reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0x51)
723
724 #define amd64_sse_rsqrtpd_reg_reg(inst,dreg,reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0x52)
725
726 #define amd64_sse_rcppd_reg_reg(inst,dreg,reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0x53)
727
728 #define amd64_sse_addsubpd_reg_reg(inst,dreg,reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xd0)
729
730 #define amd64_sse_haddpd_reg_reg(inst,dreg,reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0x7c)
731
732 #define amd64_sse_hsubpd_reg_reg(inst,dreg,reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0x7d)
733
734 #define amd64_sse_movddup_reg_reg(inst,dreg,reg) emit_sse_reg_reg((inst), (dreg), (reg), 0xf2, 0x0f, 0x12)
735
736
737 #define amd64_sse_pmovmskb_reg_reg(inst,dreg,reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xd7)
738
739
740 #define amd64_sse_pand_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xdb)
741
742 #define amd64_sse_por_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xeb)
743
744 #define amd64_sse_pxor_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xef)
745
746
747 #define amd64_sse_paddb_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xfc)
748
749 #define amd64_sse_paddw_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xfd)
750
751 #define amd64_sse_paddd_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xfe)
752
753 #define amd64_sse_paddq_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xd4)
754
755
756 #define amd64_sse_psubb_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xf8)
757
758 #define amd64_sse_psubw_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xf9)
759
760 #define amd64_sse_psubd_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xfa)
761
762 #define amd64_sse_psubq_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xfb)
763
764
765 #define amd64_sse_pmaxub_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xde)
766
767 #define amd64_sse_pmaxuw_reg_reg(inst, dreg, reg) emit_sse_reg_reg_op4((inst), (dreg), (reg), 0x66, 0x0f, 0x38, 0x3e)
768
769 #define amd64_sse_pmaxud_reg_reg(inst, dreg, reg) emit_sse_reg_reg_op4((inst), (dreg), (reg), 0x66, 0x0f, 0x38, 0x3f)
770
771
772 #define amd64_sse_pmaxsb_reg_reg(inst, dreg, reg) emit_sse_reg_reg_op4((inst), (dreg), (reg), 0x66, 0x0f, 0x38, 0x3c)
773
774 #define amd64_sse_pmaxsw_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xee)
775
776 #define amd64_sse_pmaxsd_reg_reg(inst, dreg, reg) emit_sse_reg_reg_op4((inst), (dreg), (reg), 0x66, 0x0f, 0x38, 0x3d)
777
778
779 #define amd64_sse_pavgb_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xe0)
780
781 #define amd64_sse_pavgw_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xe3)
782
783
784 #define amd64_sse_pminub_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xda)
785
786 #define amd64_sse_pminuw_reg_reg(inst, dreg, reg) emit_sse_reg_reg_op4((inst), (dreg), (reg), 0x66, 0x0f, 0x38, 0x3a)
787
788 #define amd64_sse_pminud_reg_reg(inst, dreg, reg) emit_sse_reg_reg_op4((inst), (dreg), (reg), 0x66, 0x0f, 0x38, 0x3b)
789
790
791 #define amd64_sse_pminsb_reg_reg(inst, dreg, reg) emit_sse_reg_reg_op4((inst), (dreg), (reg), 0x66, 0x0f, 0x38, 0x38)
792
793 #define amd64_sse_pminsw_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xea)
794
795 #define amd64_sse_pminsd_reg_reg(inst, dreg, reg) emit_sse_reg_reg_op4((inst), (dreg), (reg), 0x66, 0x0f, 0x38, 0x39)
796
797
798 #define amd64_sse_pcmpeqb_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0x74)
799
800 #define amd64_sse_pcmpeqw_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0x75)
801
802 #define amd64_sse_pcmpeqd_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0x76)
803
804 #define amd64_sse_pcmpeqq_reg_reg(inst, dreg, reg) emit_sse_reg_reg_op4((inst), (dreg), (reg), 0x66, 0x0f, 0x38, 0x29)
805
806
807 #define amd64_sse_pcmpgtb_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0x64)
808
809 #define amd64_sse_pcmpgtw_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0x65)
810
811 #define amd64_sse_pcmpgtd_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0x66)
812
813 #define amd64_sse_pcmpgtq_reg_reg(inst, dreg, reg) emit_sse_reg_reg_op4((inst), (dreg), (reg), 0x66, 0x0f, 0x38, 0x37)
814
815
816 #define amd64_sse_psadbw_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xf6)
817
818
819 #define amd64_sse_punpcklbw_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0x60)
820
821 #define amd64_sse_punpcklwd_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0x61)
822
823 #define amd64_sse_punpckldq_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0x62)
824
825 #define amd64_sse_punpcklqdq_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0x6c)
826
827 #define amd64_sse_unpcklpd_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0x14)
828
829 #define amd64_sse_unpcklps_reg_reg(inst, dreg, reg) emit_sse_reg_reg_op2((inst), (dreg), (reg), 0x0f, 0x14)
830
831
832 #define amd64_sse_punpckhbw_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0x68)
833
834 #define amd64_sse_punpckhwd_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0x69)
835
836 #define amd64_sse_punpckhdq_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0x6a)
837
838 #define amd64_sse_punpckhqdq_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0x6d)
839
840 #define amd64_sse_unpckhpd_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0x15)
841
842 #define amd64_sse_unpckhps_reg_reg(inst, dreg, reg) emit_sse_reg_reg_op2((inst), (dreg), (reg), 0x0f, 0x15)
843
844
845 #define amd64_sse_packsswb_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0x63)
846
847 #define amd64_sse_packssdw_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0x6b)
848
849 #define amd64_sse_packuswb_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0x67)
850
851 #define amd64_sse_packusdw_reg_reg(inst, dreg, reg) emit_sse_reg_reg_op4((inst), (dreg), (reg), 0x66, 0x0f, 0x38, 0x2b)
852
853
854 #define amd64_sse_paddusb_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xdc)
855
856 #define amd64_sse_psubusb_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xd8)
857
858 #define amd64_sse_paddusw_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xdd)
859
860 #define amd64_sse_psubusw_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xd8)
861
862
863 #define amd64_sse_paddsb_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xec)
864
865 #define amd64_sse_psubsb_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xe8)
866
867 #define amd64_sse_paddsw_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xed)
868
869 #define amd64_sse_psubsw_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xe9)
870
871
872 #define amd64_sse_pmullw_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xd5)
873
874 #define amd64_sse_pmulld_reg_reg(inst, dreg, reg) emit_sse_reg_reg_op4((inst), (dreg), (reg), 0x66, 0x0f, 0x38, 0x40)
875
876 #define amd64_sse_pmuludq_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xf4)
877
878 #define amd64_sse_pmulhuw_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xe4)
879
880 #define amd64_sse_pmulhw_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xe5)
881
882
883 #define amd64_sse_psrlw_reg_imm(inst, reg, imm) emit_sse_reg_reg_imm((inst), X86_SSE_SHR, (reg), 0x66, 0x0f, 0x71, (imm))
884
885 #define amd64_sse_psrlw_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xd1)
886
887
888 #define amd64_sse_psraw_reg_imm(inst, reg, imm) emit_sse_reg_reg_imm((inst), X86_SSE_SAR, (reg), 0x66, 0x0f, 0x71, (imm))
889
890 #define amd64_sse_psraw_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xe1)
891
892
893 #define amd64_sse_psllw_reg_imm(inst, reg, imm) emit_sse_reg_reg_imm((inst), X86_SSE_SHL, (reg), 0x66, 0x0f, 0x71, (imm))
894
895 #define amd64_sse_psllw_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xf1)
896
897
898 #define amd64_sse_psrld_reg_imm(inst, reg, imm) emit_sse_reg_reg_imm((inst), X86_SSE_SHR, (reg), 0x66, 0x0f, 0x72, (imm))
899
900 #define amd64_sse_psrld_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xd2)
901
902
903 #define amd64_sse_psrad_reg_imm(inst, reg, imm) emit_sse_reg_reg_imm((inst), X86_SSE_SAR, (reg), 0x66, 0x0f, 0x72, (imm))
904
905 #define amd64_sse_psrad_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xe2)
906
907
908 #define amd64_sse_pslld_reg_imm(inst, reg, imm) emit_sse_reg_reg_imm((inst), X86_SSE_SHL, (reg), 0x66, 0x0f, 0x72, (imm))
909
910 #define amd64_sse_pslld_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xf2)
911
912
913 #define amd64_sse_psrlq_reg_imm(inst, reg, imm) emit_sse_reg_reg_imm((inst), X86_SSE_SHR, (reg), 0x66, 0x0f, 0x73, (imm))
914
915 #define amd64_sse_psrlq_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xd3)
916
917
918 #define amd64_sse_psraq_reg_imm(inst, reg, imm) emit_sse_reg_reg_imm((inst), X86_SSE_SAR, (reg), 0x66, 0x0f, 0x73, (imm))
919
920 #define amd64_sse_psraq_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xe3)
921
922
923 #define amd64_sse_psllq_reg_imm(inst, reg, imm) emit_sse_reg_reg_imm((inst), X86_SSE_SHL, (reg), 0x66, 0x0f, 0x73, (imm))
924
925 #define amd64_sse_psllq_reg_reg(inst, dreg, reg) emit_sse_reg_reg((inst), (dreg), (reg), 0x66, 0x0f, 0xf3)
926
927
928 #define amd64_movd_xreg_reg_size(inst,dreg,sreg,size) emit_sse_reg_reg_size((inst), (dreg), (sreg), 0x66, 0x0f, 0x6e, (size))
929
930 #define amd64_movd_reg_xreg_size(inst,dreg,sreg,size) emit_sse_reg_reg_size((inst), (sreg), (dreg), 0x66, 0x0f, 0x7e, (size))
931
932 #define amd64_movd_xreg_membase(inst,dreg,basereg,disp) emit_sse_reg_membase((inst), (dreg), (basereg), (disp), 0x66, 0x0f, 0x6e)
933
934
935 #define amd64_movlhps_reg_reg(inst,dreg,sreg) emit_sse_reg_reg_op2((inst), (dreg), (sreg), 0x0f, 0x16)
936
937 #define amd64_movhlps_reg_reg(inst,dreg,sreg) emit_sse_reg_reg_op2((inst), (dreg), (sreg), 0x0f, 0x12)
938
939
940 #define amd64_sse_movups_membase_reg(inst, basereg, disp, reg) emit_sse_membase_reg_op2((inst), (basereg), (disp), (reg), 0x0f, 0x11)
941
942 #define amd64_sse_movups_reg_membase(inst, dreg, basereg, disp) emit_sse_reg_membase_op2((inst), (dreg), (basereg), (disp), 0x0f, 0x10)
943
944 #define amd64_sse_movaps_membase_reg(inst, basereg, disp, reg) emit_sse_membase_reg_op2((inst), (basereg), (disp), (reg), 0x0f, 0x29)
945
946 #define amd64_sse_movaps_reg_membase(inst, dreg, basereg, disp) emit_sse_reg_membase_op2((inst), (dreg), (basereg), (disp), 0x0f, 0x28)
947
948 #define amd64_sse_movaps_reg_reg(inst, dreg, reg) emit_sse_reg_reg_op2((inst), (dreg), (reg), 0x0f, 0x28)
949
950 #define amd64_sse_movntps_reg_membase(inst, dreg, basereg, disp) emit_sse_reg_membase_op2((inst), (dreg), (basereg), (disp), 0x0f, 0x2b)
951
952 #define amd64_sse_prefetch_reg_membase(inst, arg, basereg, disp) emit_sse_reg_membase_op2((inst), (arg), (basereg), (disp), 0x0f, 0x18)
953
954 /* Generated from x86-codegen.h */
955
956 #define amd64_breakpoint_size(inst,size) do { x86_breakpoint(inst); } while (0)
957 #define amd64_cld_size(inst,size) do { amd64_emit_rex ((inst),0,0,0,0); x86_cld(inst); } while (0)
958 #define amd64_stosb_size(inst,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_stosb(inst); } while (0)
959 #define amd64_stosl_size(inst,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_stosl(inst); } while (0)
960 #define amd64_stosd_size(inst,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_stosd(inst); } while (0)
961 #define amd64_movsb_size(inst,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_movsb(inst); } while (0)
962 #define amd64_movsl_size(inst,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_movsl(inst); } while (0)
963 #define amd64_movsd_size(inst,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_movsd(inst); } while (0)
964 #define amd64_prefix_size(inst,p,size) do { amd64_emit_rex ((inst),0,0,0,0); x86_prefix((inst), p); } while (0)
965 #define amd64_rdtsc_size(inst,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_rdtsc(inst); } while (0)
966 #define amd64_cmpxchg_reg_reg_size(inst,dreg,reg,size) do { amd64_emit_rex ((inst),(size),(dreg),0,(reg)); x86_cmpxchg_reg_reg((inst),((dreg)&0x7),((reg)&0x7)); } while (0)
967 #define amd64_cmpxchg_mem_reg_size(inst,mem,reg,size) do { amd64_emit_rex ((inst),(size),0,0,(reg)); x86_cmpxchg_mem_reg((inst),(mem),((reg)&0x7)); } while (0)
968 #define amd64_cmpxchg_membase_reg_size(inst,basereg,disp,reg,size) do { amd64_emit_rex ((inst),(size),(reg),0,(basereg)); x86_cmpxchg_membase_reg((inst),((basereg)&0x7),(disp),((reg)&0x7)); } while (0)
969 #define amd64_xchg_reg_reg_size(inst,dreg,reg,size) do { amd64_emit_rex ((inst),(size),(dreg),0,(reg)); x86_xchg_reg_reg((inst),((dreg)&0x7),((reg)&0x7),(size) == 8 ? 4 : (size)); } while (0)
970 #define amd64_xchg_mem_reg_size(inst,mem,reg,size) do { amd64_emit_rex ((inst),(size),0,0,(reg)); x86_xchg_mem_reg((inst),(mem),((reg)&0x7),(size) == 8 ? 4 : (size)); } while (0)
971 #define amd64_xchg_membase_reg_size(inst,basereg,disp,reg,size) do { amd64_emit_rex ((inst),(size),(reg),0,(basereg)); x86_xchg_membase_reg((inst),((basereg)&0x7),(disp),((reg)&0x7),(size) == 8 ? 4 : (size)); } while (0)
972 #define amd64_inc_mem_size(inst,mem,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_inc_mem((inst),(mem)); } while (0)
973 #define amd64_inc_membase_size(inst,basereg,disp,size) do { amd64_emit_rex ((inst),(size),0,0,(basereg)); x86_inc_membase((inst),((basereg)&0x7),(disp)); } while (0)
974 //#define amd64_inc_reg_size(inst,reg,size) do { amd64_emit_rex ((inst),(size),0,0,(reg)); x86_inc_reg((inst),((reg)&0x7)); } while (0)
975 #define amd64_dec_mem_size(inst,mem,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_dec_mem((inst),(mem)); } while (0)
976 #define amd64_dec_membase_size(inst,basereg,disp,size) do { amd64_emit_rex ((inst),(size),0,0,(basereg)); x86_dec_membase((inst),((basereg)&0x7),(disp)); } while (0)
977 //#define amd64_dec_reg_size(inst,reg,size) do { amd64_emit_rex ((inst),(size),0,0,(reg)); x86_dec_reg((inst),((reg)&0x7)); } while (0)
978 #define amd64_not_mem_size(inst,mem,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_not_mem((inst),(mem)); } while (0)
979 #define amd64_not_membase_size(inst,basereg,disp,size) do { amd64_emit_rex ((inst),(size),0,0,(basereg)); x86_not_membase((inst),((basereg)&0x7),(disp)); } while (0)
980 #define amd64_not_reg_size(inst,reg,size) do { amd64_emit_rex ((inst),(size),0,0,(reg)); x86_not_reg((inst),((reg)&0x7)); } while (0)
981 #define amd64_neg_mem_size(inst,mem,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_neg_mem((inst),(mem)); } while (0)
982 #define amd64_neg_membase_size(inst,basereg,disp,size) do { amd64_emit_rex ((inst),(size),0,0,(basereg)); x86_neg_membase((inst),((basereg)&0x7),(disp)); } while (0)
983 #define amd64_neg_reg_size(inst,reg,size) do { amd64_emit_rex ((inst),(size),0,0,(reg)); x86_neg_reg((inst),((reg)&0x7)); } while (0)
984 #define amd64_nop_size(inst,size) do { x86_nop(inst); } while (0)
985 //#define amd64_alu_reg_imm_size(inst,opc,reg,imm,size) do { amd64_emit_rex ((inst),(size),0,0,(reg)); x86_alu_reg_imm((inst),(opc),((reg)&0x7),(imm)); } while (0)
986 #define amd64_alu_mem_imm_size(inst,opc,mem,imm,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_alu_mem_imm((inst),(opc),(mem),(imm)); } while (0)
987 #define amd64_alu_membase_imm_size(inst,opc,basereg,disp,imm,size) do { amd64_emit_rex ((inst),(size),0,0,(basereg)); x86_alu_membase_imm((inst),(opc),((basereg)&0x7),(disp),(imm)); } while (0)
988 #define amd64_alu_membase8_imm_size(inst,opc,basereg,disp,imm,size) do { amd64_emit_rex ((inst),(size),0,0,(basereg)); x86_alu_membase8_imm((inst),(opc),((basereg)&0x7),(disp),(imm)); } while (0)     
989 #define amd64_alu_mem_reg_size(inst,opc,mem,reg,size) do { amd64_emit_rex ((inst),(size),0,0,(reg)); x86_alu_mem_reg((inst),(opc),(mem),((reg)&0x7)); } while (0)
990 #define amd64_alu_membase_reg_size(inst,opc,basereg,disp,reg,size) do { amd64_emit_rex ((inst),(size),(reg),0,(basereg)); x86_alu_membase_reg((inst),(opc),((basereg)&0x7),(disp),((reg)&0x7)); } while (0)
991 //#define amd64_alu_reg_reg_size(inst,opc,dreg,reg,size) do { amd64_emit_rex ((inst),(size),(dreg),0,(reg)); x86_alu_reg_reg((inst),(opc),((dreg)&0x7),((reg)&0x7)); } while (0)
992 #define amd64_alu_reg8_reg8_size(inst,opc,dreg,reg,is_dreg_h,is_reg_h,size) do { amd64_emit_rex ((inst),(size),(dreg),0,(reg)); x86_alu_reg8_reg8((inst),(opc),((dreg)&0x7),((reg)&0x7),(is_dreg_h),(is_reg_h)); } while (0)
993 #define amd64_alu_reg_mem_size(inst,opc,reg,mem,size) do { amd64_emit_rex ((inst),(size),0,0,(reg)); x86_alu_reg_mem((inst),(opc),((reg)&0x7),(mem)); } while (0)
994 //#define amd64_alu_reg_membase_size(inst,opc,reg,basereg,disp,size) do { amd64_emit_rex ((inst),(size),(reg),0,(basereg)); x86_alu_reg_membase((inst),(opc),((reg)&0x7),((basereg)&0x7),(disp)); } while (0)
995 #define amd64_test_reg_imm_size(inst,reg,imm,size) do { amd64_emit_rex ((inst),(size),0,0,(reg)); x86_test_reg_imm((inst),((reg)&0x7),(imm)); } while (0)
996 #define amd64_test_mem_imm_size(inst,mem,imm,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_test_mem_imm((inst),(mem),(imm)); } while (0)
997 #define amd64_test_membase_imm_size(inst,basereg,disp,imm,size) do { amd64_emit_rex ((inst),(size),0,0,(basereg)); x86_test_membase_imm((inst),((basereg)&0x7),(disp),(imm)); } while (0)
998 #define amd64_test_reg_reg_size(inst,dreg,reg,size) do { amd64_emit_rex ((inst),(size),(dreg),0,(reg)); x86_test_reg_reg((inst),((dreg)&0x7),((reg)&0x7)); } while (0)
999 #define amd64_test_mem_reg_size(inst,mem,reg,size) do { amd64_emit_rex ((inst),(size),0,0,(reg)); x86_test_mem_reg((inst),(mem),((reg)&0x7)); } while (0)
1000 #define amd64_test_membase_reg_size(inst,basereg,disp,reg,size) do { amd64_emit_rex ((inst),(size),(reg),0,(basereg)); x86_test_membase_reg((inst),((basereg)&0x7),(disp),((reg)&0x7)); } while (0)
1001 #define amd64_shift_reg_imm_size(inst,opc,reg,imm,size) do { amd64_emit_rex ((inst),(size),0,0,(reg)); x86_shift_reg_imm((inst),(opc),((reg)&0x7),(imm)); } while (0)
1002 #define amd64_shift_mem_imm_size(inst,opc,mem,imm,size) do { amd64_emit_rex ((inst),(size),0,0,(reg)); x86_shift_mem_imm((inst),(opc),(mem),(imm)); } while (0)
1003 #define amd64_shift_membase_imm_size(inst,opc,basereg,disp,imm,size) do { amd64_emit_rex ((inst),(size),(reg),0,(basereg)); x86_shift_membase_imm((inst),(opc),((basereg)&0x7),(disp),(imm)); } while (0)
1004 #define amd64_shift_reg_size(inst,opc,reg,size) do { amd64_emit_rex ((inst),(size),0,0,(reg)); x86_shift_reg((inst),(opc),((reg)&0x7)); } while (0)
1005 #define amd64_shift_mem_size(inst,opc,mem,size) do { amd64_emit_rex ((inst),(size),0,0,(reg)); x86_shift_mem((inst),(opc),(mem)); } while (0)
1006 #define amd64_shift_membase_size(inst,opc,basereg,disp,size) do { amd64_emit_rex ((inst),(size),0,0,(basereg)); x86_shift_membase((inst),(opc),((basereg)&0x7),(disp)); } while (0)
1007 #define amd64_shrd_reg_size(inst,dreg,reg,size) do { amd64_emit_rex ((inst),(size),(dreg),0,(reg)); x86_shrd_reg((inst),((dreg)&0x7),((reg)&0x7)); } while (0)
1008 #define amd64_shrd_reg_imm_size(inst,dreg,reg,shamt,size) do { amd64_emit_rex ((inst),(size),(dreg),0,(reg)); x86_shrd_reg_imm((inst),((dreg)&0x7),((reg)&0x7),(shamt)); } while (0)
1009 #define amd64_shld_reg_size(inst,dreg,reg,size) do { amd64_emit_rex ((inst),(size),(dreg),0,(reg)); x86_shld_reg((inst),((dreg)&0x7),((reg)&0x7)); } while (0)
1010 #define amd64_shld_reg_imm_size(inst,dreg,reg,shamt,size) do { amd64_emit_rex ((inst),(size),(dreg),0,(reg)); x86_shld_reg_imm((inst),((dreg)&0x7),((reg)&0x7),(shamt)); } while (0)
1011 #define amd64_mul_reg_size(inst,reg,is_signed,size) do { amd64_emit_rex ((inst),(size),0,0,(reg)); x86_mul_reg((inst),((reg)&0x7),(is_signed)); } while (0)
1012 #define amd64_mul_mem_size(inst,mem,is_signed,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_mul_mem((inst),(mem),(is_signed)); } while (0)
1013 #define amd64_mul_membase_size(inst,basereg,disp,is_signed,size) do { amd64_emit_rex ((inst),(size),0,0,(basereg)); x86_mul_membase((inst),((basereg)&0x7),(disp),(is_signed)); } while (0)
1014 #define amd64_imul_reg_reg_size(inst,dreg,reg,size) do { amd64_emit_rex ((inst),(size),(dreg),0,(reg)); x86_imul_reg_reg((inst),((dreg)&0x7),((reg)&0x7)); } while (0)
1015 #define amd64_imul_reg_mem_size(inst,reg,mem,size) do { amd64_emit_rex ((inst),(size),0,0,(reg)); x86_imul_reg_mem((inst),((reg)&0x7),(mem)); } while (0)
1016 #define amd64_imul_reg_membase_size(inst,reg,basereg,disp,size) do { amd64_emit_rex ((inst),(size),(reg),0,(basereg)); x86_imul_reg_membase((inst),((reg)&0x7),((basereg)&0x7),(disp)); } while (0)
1017 #define amd64_imul_reg_reg_imm_size(inst,dreg,reg,imm,size) do { amd64_emit_rex ((inst),(size),(dreg),0,(reg)); x86_imul_reg_reg_imm((inst),((dreg)&0x7),((reg)&0x7),(imm)); } while (0)
1018 #define amd64_imul_reg_mem_imm_size(inst,reg,mem,imm,size) do { amd64_emit_rex ((inst),(size),0,0,(reg)); x86_imul_reg_mem_imm((inst),((reg)&0x7),(mem),(imm)); } while (0)
1019 #define amd64_imul_reg_membase_imm_size(inst,reg,basereg,disp,imm,size) do { amd64_emit_rex ((inst),(size),(reg),0,(basereg)); x86_imul_reg_membase_imm((inst),((reg)&0x7),((basereg)&0x7),(disp),(imm)); } while (0)
1020 #define amd64_div_reg_size(inst,reg,is_signed,size) do { amd64_emit_rex ((inst),(size),0,0,(reg)); x86_div_reg((inst),((reg)&0x7),(is_signed)); } while (0)
1021 #define amd64_div_mem_size(inst,mem,is_signed,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_div_mem((inst),(mem),(is_signed)); } while (0)
1022 #define amd64_div_membase_size(inst,basereg,disp,is_signed,size) do { amd64_emit_rex ((inst),(size),0,0,(basereg)); x86_div_membase((inst),((basereg)&0x7),(disp),(is_signed)); } while (0)
1023 #define amd64_mov_mem_reg_size(inst,mem,reg,size) do { amd64_emit_rex ((inst),(size),0,0,(reg)); x86_mov_mem_reg((inst),(mem),((reg)&0x7),(size) == 8 ? 4 : (size)); } while (0)
1024 //#define amd64_mov_regp_reg_size(inst,regp,reg,size) do { amd64_emit_rex ((inst),(size),(regp),0,(reg)); x86_mov_regp_reg((inst),(regp),((reg)&0x7),(size) == 8 ? 4 : (size)); } while (0)
1025 //#define amd64_mov_membase_reg_size(inst,basereg,disp,reg,size) do { amd64_emit_rex ((inst),(size),(reg),0,(basereg)); x86_mov_membase_reg((inst),((basereg)&0x7),(disp),((reg)&0x7),(size) == 8 ? 4 : (size)); } while (0)
1026 #define amd64_mov_memindex_reg_size(inst,basereg,disp,indexreg,shift,reg,size) do { amd64_emit_rex ((inst),(size),(reg),(indexreg),(basereg)); x86_mov_memindex_reg((inst),((basereg)&0x7),(disp),((indexreg)&0x7),(shift),((reg)&0x7),(size) == 8 ? 4 : (size)); } while (0)
1027 #define amd64_mov_reg_reg_size(inst,dreg,reg,size) do { amd64_emit_rex ((inst),(size),(dreg),0,(reg)); x86_mov_reg_reg((inst),((dreg)&0x7),((reg)&0x7),(size) == 8 ? 4 : (size)); } while (0)
1028 //#define amd64_mov_reg_mem_size(inst,reg,mem,size) do { amd64_emit_rex ((inst),(size),0,0,(reg)); x86_mov_reg_mem((inst),((reg)&0x7),(mem),(size) == 8 ? 4 : (size)); } while (0)
1029 //#define amd64_mov_reg_membase_size(inst,reg,basereg,disp,size) do { amd64_emit_rex ((inst),(size),(reg),0,(basereg)); x86_mov_reg_membase((inst),((reg)&0x7),((basereg)&0x7),(disp),(size) == 8 ? 4 : (size)); } while (0)
1030 #define amd64_mov_reg_memindex_size(inst,reg,basereg,disp,indexreg,shift,size) do { amd64_emit_rex ((inst),(size),(reg),(indexreg),(basereg)); x86_mov_reg_memindex((inst),((reg)&0x7),((basereg)&0x7),(disp),((indexreg)&0x7),(shift),(size) == 8 ? 4 : (size)); } while (0)
1031 #define amd64_clear_reg_size(inst,reg,size) do { amd64_emit_rex ((inst),(size),0,0,(reg)); x86_clear_reg((inst),((reg)&0x7)); } while (0)
1032 //#define amd64_mov_reg_imm_size(inst,reg,imm,size) do { amd64_emit_rex ((inst),(size),0,0,(reg)); x86_mov_reg_imm((inst),((reg)&0x7),(imm)); } while (0)
1033 #define amd64_mov_mem_imm_size(inst,mem,imm,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_mov_mem_imm((inst),(mem),(imm),(size) == 8 ? 4 : (size)); } while (0)
1034 //#define amd64_mov_membase_imm_size(inst,basereg,disp,imm,size) do { amd64_emit_rex ((inst),(size),0,0,(basereg)); x86_mov_membase_imm((inst),((basereg)&0x7),(disp),(imm),(size) == 8 ? 4 : (size)); } while (0)
1035 #define amd64_mov_memindex_imm_size(inst,basereg,disp,indexreg,shift,imm,size) do { amd64_emit_rex ((inst),(size),0,(indexreg),(basereg)); x86_mov_memindex_imm((inst),((basereg)&0x7),(disp),((indexreg)&0x7),(shift),(imm),(size) == 8 ? 4 : (size)); } while (0)
1036 #define amd64_lea_mem_size(inst,reg,mem,size) do { amd64_emit_rex ((inst),(size),0,0,(reg)); x86_lea_mem((inst),((reg)&0x7),(mem)); } while (0)
1037 //#define amd64_lea_membase_size(inst,reg,basereg,disp,size) do { amd64_emit_rex ((inst),(size),0,0,(basereg)); x86_lea_membase((inst),((reg)&0x7),((basereg)&0x7),(disp)); } while (0)
1038 #define amd64_lea_memindex_size(inst,reg,basereg,disp,indexreg,shift,size) do { amd64_emit_rex ((inst),(size),(reg),(indexreg),(basereg)); x86_lea_memindex((inst),((reg)&0x7),((basereg)&0x7),(disp),((indexreg)&0x7),(shift)); } while (0)
1039 #define amd64_widen_reg_size(inst,dreg,reg,is_signed,is_half,size) do { amd64_emit_rex ((inst),(size),(dreg),0,(reg)); x86_widen_reg((inst),((dreg)&0x7),((reg)&0x7),(is_signed),(is_half)); } while (0)
1040 #define amd64_widen_mem_size(inst,dreg,mem,is_signed,is_half,size) do { amd64_emit_rex ((inst),(size),(dreg),0,0); x86_widen_mem((inst),((dreg)&0x7),(mem),(is_signed),(is_half)); } while (0)
1041 #define amd64_widen_membase_size(inst,dreg,basereg,disp,is_signed,is_half,size) do { amd64_emit_rex ((inst),(size),(dreg),0,(basereg)); x86_widen_membase((inst),((dreg)&0x7),((basereg)&0x7),(disp),(is_signed),(is_half)); } while (0)
1042 #define amd64_widen_memindex_size(inst,dreg,basereg,disp,indexreg,shift,is_signed,is_half,size) do { amd64_emit_rex ((inst),(size),(dreg),(indexreg),(basereg)); x86_widen_memindex((inst),((dreg)&0x7),((basereg)&0x7),(disp),((indexreg)&0x7),(shift),(is_signed),(is_half)); } while (0)
1043 #define amd64_cdq_size(inst,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_cdq(inst); } while (0)
1044 #define amd64_wait_size(inst,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_wait(inst); } while (0)
1045 #define amd64_fp_op_mem_size(inst,opc,mem,is_double,size) do { amd64_emit_rex ((inst),0,0,0,0); x86_fp_op_mem((inst),(opc),(mem),(is_double)); } while (0)
1046 #define amd64_fp_op_membase_size(inst,opc,basereg,disp,is_double,size) do { amd64_emit_rex ((inst),0,0,0,(basereg)); x86_fp_op_membase((inst),(opc),((basereg)&0x7),(disp),(is_double)); } while (0)
1047 #define amd64_fp_op_size(inst,opc,index,size) do { amd64_emit_rex ((inst),0,0,0,0); x86_fp_op((inst),(opc),(index)); } while (0)
1048 #define amd64_fp_op_reg_size(inst,opc,index,pop_stack,size) do { amd64_emit_rex ((inst),0,0,0,0); x86_fp_op_reg((inst),(opc),(index),(pop_stack)); } while (0)
1049 #define amd64_fp_int_op_membase_size(inst,opc,basereg,disp,is_int,size) do { amd64_emit_rex ((inst),0,0,0,(basereg)); x86_fp_int_op_membase((inst),(opc),((basereg)&0x7),(disp),(is_int)); } while (0)
1050 #define amd64_fstp_size(inst,index,size) do { amd64_emit_rex ((inst),0,0,0,0); x86_fstp((inst),(index)); } while (0)
1051 #define amd64_fcompp_size(inst,size) do { amd64_emit_rex ((inst),0,0,0,0); x86_fcompp(inst); } while (0)
1052 #define amd64_fucompp_size(inst,size) do { amd64_emit_rex ((inst),0,0,0,0); x86_fucompp(inst); } while (0)
1053 #define amd64_fnstsw_size(inst,size) do { amd64_emit_rex ((inst),0,0,0,0); x86_fnstsw(inst); } while (0)
1054 #define amd64_fnstcw_size(inst,mem,size) do { amd64_emit_rex ((inst),0,0,0,0); x86_fnstcw((inst),(mem)); } while (0)
1055 #define amd64_fnstcw_membase_size(inst,basereg,disp,size) do { amd64_emit_rex ((inst),(size),0,0,(basereg)); x86_fnstcw_membase((inst),((basereg)&0x7),(disp)); } while (0)
1056 #define amd64_fldcw_size(inst,mem,size) do { amd64_emit_rex ((inst),0,0,0,0); x86_fldcw((inst),(mem)); } while (0)
1057 #define amd64_fldcw_membase_size(inst,basereg,disp,size) do { amd64_emit_rex ((inst),0,0,0,(basereg)); x86_fldcw_membase((inst),((basereg)&0x7),(disp)); } while (0)
1058 #define amd64_fchs_size(inst,size) do { amd64_emit_rex ((inst),0,0,0,0); x86_fchs(inst); } while (0)
1059 #define amd64_frem_size(inst,size) do { amd64_emit_rex ((inst),0,0,0,0); x86_frem(inst); } while (0)
1060 #define amd64_fxch_size(inst,index,size) do { amd64_emit_rex ((inst),0,0,0,0); x86_fxch((inst),(index)); } while (0)
1061 #define amd64_fcomi_size(inst,index,size) do { amd64_emit_rex ((inst),0,0,0,0); x86_fcomi((inst),(index)); } while (0)
1062 #define amd64_fcomip_size(inst,index,size) do { amd64_emit_rex ((inst),0,0,0,0); x86_fcomip((inst),(index)); } while (0)
1063 #define amd64_fucomi_size(inst,index,size) do { amd64_emit_rex ((inst),0,0,0,0); x86_fucomi((inst),(index)); } while (0)
1064 #define amd64_fucomip_size(inst,index,size) do { amd64_emit_rex ((inst),0,0,0,0); x86_fucomip((inst),(index)); } while (0)
1065 #define amd64_fld_size(inst,mem,is_double,size) do { amd64_emit_rex ((inst),0,0,0,0); x86_fld((inst),(mem),(is_double)); } while (0)
1066 //#define amd64_fld_membase_size(inst,basereg,disp,is_double,size) do { amd64_emit_rex ((inst),0,0,0,(basereg)); x86_fld_membase((inst),((basereg)&0x7),(disp),(is_double)); } while (0)
1067 #define amd64_fld80_mem_size(inst,mem,size) do { amd64_emit_rex ((inst),0,0,0,0); x86_fld80_mem((inst),(mem)); } while (0)
1068 #define amd64_fld80_membase_size(inst,basereg,disp,size) do { amd64_emit_rex ((inst),(size),0,0,(basereg)); x86_fld80_membase((inst),((basereg)&0x7),(disp)); } while (0)
1069 #define amd64_fild_size(inst,mem,is_long,size) do { amd64_emit_rex ((inst),0,0,0,0); x86_fild((inst),(mem),(is_long)); } while (0)
1070 #define amd64_fild_membase_size(inst,basereg,disp,is_long,size) do { amd64_emit_rex ((inst),0,0,0,(basereg)); x86_fild_membase((inst),((basereg)&0x7),(disp),(is_long)); } while (0)
1071 #define amd64_fld_reg_size(inst,index,size) do { amd64_emit_rex ((inst),0,0,0,0); x86_fld_reg((inst),(index)); } while (0)
1072 #define amd64_fldz_size(inst,size) do { amd64_emit_rex ((inst),0,0,0,0); x86_fldz(inst); } while (0)
1073 #define amd64_fld1_size(inst,size) do { amd64_emit_rex ((inst),0,0,0,0); x86_fld1(inst); } while (0)
1074 #define amd64_fldpi_size(inst,size) do { amd64_emit_rex ((inst),0,0,0,0); x86_fldpi(inst); } while (0)
1075 #define amd64_fst_size(inst,mem,is_double,pop_stack,size) do { amd64_emit_rex ((inst),0,0,0,0); x86_fst((inst),(mem),(is_double),(pop_stack)); } while (0)
1076 #define amd64_fst_membase_size(inst,basereg,disp,is_double,pop_stack,size) do { amd64_emit_rex ((inst),0,0,0,(basereg)); x86_fst_membase((inst),((basereg)&0x7),(disp),(is_double),(pop_stack)); } while (0)
1077 #define amd64_fst80_mem_size(inst,mem,size) do { amd64_emit_rex ((inst),0,0,0,0); x86_fst80_mem((inst),(mem)); } while (0)
1078 #define amd64_fst80_membase_size(inst,basereg,disp,size) do { amd64_emit_rex ((inst),0,0,0,(basereg)); x86_fst80_membase((inst),((basereg)&0x7),(disp)); } while (0)
1079 #define amd64_fist_pop_size(inst,mem,is_long,size) do { amd64_emit_rex ((inst),0,0,0,0); x86_fist_pop((inst),(mem),(is_long)); } while (0)
1080 #define amd64_fist_pop_membase_size(inst,basereg,disp,is_long,size) do { amd64_emit_rex ((inst),0,0,0,(basereg)); x86_fist_pop_membase((inst),((basereg)&0x7),(disp),(is_long)); } while (0)
1081 #define amd64_fstsw_size(inst,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_fstsw(inst); } while (0)
1082 #define amd64_fist_membase_size(inst,basereg,disp,is_int,size) do { amd64_emit_rex ((inst),0,0,0,(basereg)); x86_fist_membase((inst),((basereg)&0x7),(disp),(is_int)); } while (0)
1083 //#define amd64_push_reg_size(inst,reg,size) do { amd64_emit_rex ((inst),(size),0,0,(reg)); x86_push_reg((inst),((reg)&0x7)); } while (0)
1084 #define amd64_push_regp_size(inst,reg,size) do { amd64_emit_rex ((inst),(size),0,0,(reg)); x86_push_regp((inst),((reg)&0x7)); } while (0)
1085 #define amd64_push_mem_size(inst,mem,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_push_mem((inst),(mem)); } while (0)
1086 //#define amd64_push_membase_size(inst,basereg,disp,size) do { amd64_emit_rex ((inst),(size),0,0,(basereg)); x86_push_membase((inst),((basereg)&0x7),(disp)); } while (0)
1087 #define amd64_push_memindex_size(inst,basereg,disp,indexreg,shift,size) do { amd64_emit_rex ((inst),(size),0,(indexreg),(basereg)); x86_push_memindex((inst),((basereg)&0x7),(disp),((indexreg)&0x7),(shift)); } while (0)
1088 #define amd64_push_imm_size(inst,imm,size) do { amd64_emit_rex ((inst),0,0,0,0); x86_push_imm((inst),(imm)); } while (0)
1089 //#define amd64_pop_reg_size(inst,reg,size) do { amd64_emit_rex ((inst),(size),0,0,(reg)); x86_pop_reg((inst),((reg)&0x7)); } while (0)
1090 #define amd64_pop_mem_size(inst,mem,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_pop_mem((inst),(mem)); } while (0)
1091 #define amd64_pop_membase_size(inst,basereg,disp,size) do { amd64_emit_rex ((inst),(size),0,0,(basereg)); x86_pop_membase((inst),((basereg)&0x7),(disp)); } while (0)
1092 #define amd64_pushad_size(inst,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_pushad(inst); } while (0)
1093 #define amd64_pushfd_size(inst,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_pushfd(inst); } while (0)
1094 #define amd64_popad_size(inst,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_popad(inst); } while (0)
1095 #define amd64_popfd_size(inst,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_popfd(inst); } while (0)
1096 #define amd64_loop_size(inst,imm,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_loop((inst),(imm)); } while (0)
1097 #define amd64_loope_size(inst,imm,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_loope((inst),(imm)); } while (0)
1098 #define amd64_loopne_size(inst,imm,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_loopne((inst),(imm)); } while (0)
1099 #define amd64_jump32_size(inst,imm,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_jump32((inst),(imm)); } while (0)
1100 #define amd64_jump8_size(inst,imm,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_jump8((inst),(imm)); } while (0)
1101 #define amd64_jump_reg_size(inst,reg,size) do { amd64_emit_rex ((inst),0,0,0,(reg)); x86_jump_reg((inst),((reg)&0x7)); } while (0)
1102 #define amd64_jump_mem_size(inst,mem,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_jump_mem((inst),(mem)); } while (0)
1103 #define amd64_jump_disp_size(inst,disp,size) do { amd64_emit_rex ((inst),0,0,0,0); x86_jump_disp((inst),(disp)); } while (0)
1104 #define amd64_branch8_size(inst,cond,imm,is_signed,size) do { x86_branch8((inst),(cond),(imm),(is_signed)); } while (0)
1105 #define amd64_branch32_size(inst,cond,imm,is_signed,size) do { x86_branch32((inst),(cond),(imm),(is_signed)); } while (0)
1106 #define amd64_branch_size(inst,cond,target,is_signed,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_branch((inst),(cond),(target),(is_signed)); } while (0)
1107 #define amd64_branch_disp_size(inst,cond,disp,is_signed,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_branch_disp((inst),(cond),(disp),(is_signed)); } while (0)
1108 #define amd64_set_reg_size(inst,cond,reg,is_signed,size) do { amd64_emit_rex((inst),1,0,0,(reg)); x86_set_reg((inst),(cond),((reg)&0x7),(is_signed)); } while (0)
1109 #define amd64_set_mem_size(inst,cond,mem,is_signed,size) do { x86_set_mem((inst),(cond),(mem),(is_signed)); } while (0)
1110 #define amd64_set_membase_size(inst,cond,basereg,disp,is_signed,size) do { amd64_emit_rex ((inst),0,0,0,(basereg)); x86_set_membase((inst),(cond),((basereg)&0x7),(disp),(is_signed)); } while (0)
1111 #define amd64_call_imm_size(inst,disp,size) do { x86_call_imm((inst),(disp)); } while (0)
1112 //#define amd64_call_reg_size(inst,reg,size) do { amd64_emit_rex ((inst),(size),0,0,(reg)); x86_call_reg((inst),((reg)&0x7)); } while (0)
1113 #define amd64_call_mem_size(inst,mem,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_call_mem((inst),(mem)); } while (0)
1114 #define amd64_call_code_size(inst,target,size) do { x86_call_code((inst),(target)); } while (0)
1115 //#define amd64_ret_size(inst,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_ret(inst); } while (0)
1116 #define amd64_ret_imm_size(inst,imm,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_ret_imm((inst),(imm)); } while (0)
1117 #define amd64_cmov_reg_size(inst,cond,is_signed,dreg,reg,size) do { amd64_emit_rex ((inst),(size),(dreg),0,(reg)); x86_cmov_reg((inst),(cond),(is_signed),((dreg)&0x7),((reg)&0x7)); } while (0)
1118 #define amd64_cmov_mem_size(inst,cond,is_signed,reg,mem,size) do { amd64_emit_rex ((inst),(size),0,0,(reg)); x86_cmov_mem((inst),(cond),(is_signed),((reg)&0x7),(mem)); } while (0)
1119 #define amd64_cmov_membase_size(inst,cond,is_signed,reg,basereg,disp,size) do { amd64_emit_rex ((inst),(size),0,0,(basereg)); x86_cmov_membase((inst),(cond),(is_signed),((reg)&0x7),((basereg)&0x7),(disp)); } while (0)
1120 #define amd64_enter_size(inst,framesize) do { amd64_emit_rex ((inst),(size),0,0,0); x86_enter((inst),(framesize)); } while (0)
1121 //#define amd64_leave_size(inst,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_leave(inst); } while (0)
1122 #define amd64_sahf_size(inst,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_sahf(inst); } while (0)
1123 #define amd64_fsin_size(inst,size) do { x86_fsin(inst); } while (0)
1124 #define amd64_fcos_size(inst,size) do { x86_fcos(inst); } while (0)
1125 #define amd64_fabs_size(inst,size) do { x86_fabs(inst); } while (0)
1126 #define amd64_ftst_size(inst,size) do { x86_ftst(inst); } while (0)
1127 #define amd64_fxam_size(inst,size) do { x86_fxam(inst); } while (0)
1128 #define amd64_fpatan_size(inst,size) do { x86_fpatan(inst); } while (0)
1129 #define amd64_fprem_size(inst,size) do { x86_fprem(inst); } while (0)
1130 #define amd64_fprem1_size(inst,size) do { x86_fprem1(inst); } while (0)
1131 #define amd64_frndint_size(inst,size) do { x86_frndint(inst); } while (0)
1132 #define amd64_fsqrt_size(inst,size) do { x86_fsqrt(inst); } while (0)
1133 #define amd64_fptan_size(inst,size) do { x86_fptan(inst); } while (0)
1134 //#define amd64_padding_size(inst,size) do { x86_padding((inst),(size)); } while (0)
1135 #define amd64_prolog_size(inst,frame_size,reg_mask,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_prolog((inst),(frame_size),(reg_mask)); } while (0)
1136 #define amd64_epilog_size(inst,reg_mask,size) do { amd64_emit_rex ((inst),(size),0,0,0); x86_epilog((inst),(reg_mask)); } while (0)
1137 #define amd64_xadd_reg_reg_size(inst,dreg,reg,size) do { amd64_emit_rex ((inst),(size),(dreg),0,(reg)); x86_xadd_reg_reg ((inst), (dreg), (reg), (size)); } while (0)
1138 #define amd64_xadd_mem_reg_size(inst,mem,reg,size) do { amd64_emit_rex ((inst),(size),0,0,(reg)); x86_xadd_mem_reg((inst),(mem),((reg)&0x7), (size)); } while (0)
1139 #define amd64_xadd_membase_reg_size(inst,basereg,disp,reg,size) do { amd64_emit_rex ((inst),(size),(reg),0,(basereg)); x86_xadd_membase_reg((inst),((basereg)&0x7),(disp),((reg)&0x7),(size)); } while (0)
1140
1141
1142
1143
1144 #define amd64_breakpoint(inst) amd64_breakpoint_size(inst,8)
1145 #define amd64_cld(inst) amd64_cld_size(inst,8)
1146 #define amd64_stosb(inst) amd64_stosb_size(inst,8)
1147 #define amd64_stosl(inst) amd64_stosl_size(inst,8)
1148 #define amd64_stosd(inst) amd64_stosd_size(inst,8)
1149 #define amd64_movsb(inst) amd64_movsb_size(inst,8)
1150 #define amd64_movsl(inst) amd64_movsl_size(inst,8)
1151 #define amd64_movsd(inst) amd64_movsd_size(inst,8)
1152 #define amd64_prefix(inst,p) amd64_prefix_size(inst,p,8)
1153 #define amd64_rdtsc(inst) amd64_rdtsc_size(inst,8)
1154 #define amd64_cmpxchg_reg_reg(inst,dreg,reg) amd64_cmpxchg_reg_reg_size(inst,dreg,reg,8)
1155 #define amd64_cmpxchg_mem_reg(inst,mem,reg) amd64_cmpxchg_mem_reg_size(inst,mem,reg,8)
1156 #define amd64_cmpxchg_membase_reg(inst,basereg,disp,reg) amd64_cmpxchg_membase_reg_size(inst,basereg,disp,reg,8)
1157 #define amd64_xchg_reg_reg(inst,dreg,reg,size) amd64_xchg_reg_reg_size(inst,dreg,reg,size)
1158 #define amd64_xchg_mem_reg(inst,mem,reg,size) amd64_xchg_mem_reg_size(inst,mem,reg,size)
1159 #define amd64_xchg_membase_reg(inst,basereg,disp,reg,size) amd64_xchg_membase_reg_size(inst,basereg,disp,reg,size)
1160 #define amd64_xadd_reg_reg(inst,dreg,reg,size) amd64_xadd_reg_reg_size(inst,dreg,reg,size)
1161 #define amd64_xadd_mem_reg(inst,mem,reg,size) amd64_xadd_mem_reg_size(inst,mem,reg,size)
1162 #define amd64_xadd_membase_reg(inst,basereg,disp,reg,size) amd64_xadd_membase_reg_size(inst,basereg,disp,reg,size)
1163 #define amd64_inc_mem(inst,mem) amd64_inc_mem_size(inst,mem,8)
1164 #define amd64_inc_membase(inst,basereg,disp) amd64_inc_membase_size(inst,basereg,disp,8)
1165 #define amd64_inc_reg(inst,reg) amd64_inc_reg_size(inst,reg,8)
1166 #define amd64_dec_mem(inst,mem) amd64_dec_mem_size(inst,mem,8)
1167 #define amd64_dec_membase(inst,basereg,disp) amd64_dec_membase_size(inst,basereg,disp,8)
1168 #define amd64_dec_reg(inst,reg) amd64_dec_reg_size(inst,reg,8)
1169 #define amd64_not_mem(inst,mem) amd64_not_mem_size(inst,mem,8)
1170 #define amd64_not_membase(inst,basereg,disp) amd64_not_membase_size(inst,basereg,disp,8)
1171 #define amd64_not_reg(inst,reg) amd64_not_reg_size(inst,reg,8)
1172 #define amd64_neg_mem(inst,mem) amd64_neg_mem_size(inst,mem,8)
1173 #define amd64_neg_membase(inst,basereg,disp) amd64_neg_membase_size(inst,basereg,disp,8)
1174 #define amd64_neg_reg(inst,reg) amd64_neg_reg_size(inst,reg,8)
1175 #define amd64_nop(inst) amd64_nop_size(inst,8)
1176 //#define amd64_alu_reg_imm(inst,opc,reg,imm) amd64_alu_reg_imm_size(inst,opc,reg,imm,8)
1177 #define amd64_alu_mem_imm(inst,opc,mem,imm) amd64_alu_mem_imm_size(inst,opc,mem,imm,8)
1178 #define amd64_alu_membase_imm(inst,opc,basereg,disp,imm) amd64_alu_membase_imm_size(inst,opc,basereg,disp,imm,8)
1179 #define amd64_alu_mem_reg(inst,opc,mem,reg) amd64_alu_mem_reg_size(inst,opc,mem,reg,8)
1180 #define amd64_alu_membase_reg(inst,opc,basereg,disp,reg) amd64_alu_membase_reg_size(inst,opc,basereg,disp,reg,8)
1181 //#define amd64_alu_reg_reg(inst,opc,dreg,reg) amd64_alu_reg_reg_size(inst,opc,dreg,reg,8)
1182 #define amd64_alu_reg8_reg8(inst,opc,dreg,reg,is_dreg_h,is_reg_h) amd64_alu_reg8_reg8_size(inst,opc,dreg,reg,is_dreg_h,is_reg_h,8)
1183 #define amd64_alu_reg_mem(inst,opc,reg,mem) amd64_alu_reg_mem_size(inst,opc,reg,mem,8)
1184 #define amd64_alu_reg_membase(inst,opc,reg,basereg,disp) amd64_alu_reg_membase_size(inst,opc,reg,basereg,disp,8)
1185 #define amd64_test_reg_imm(inst,reg,imm) amd64_test_reg_imm_size(inst,reg,imm,8)
1186 #define amd64_test_mem_imm(inst,mem,imm) amd64_test_mem_imm_size(inst,mem,imm,8)
1187 #define amd64_test_membase_imm(inst,basereg,disp,imm) amd64_test_membase_imm_size(inst,basereg,disp,imm,8)
1188 #define amd64_test_reg_reg(inst,dreg,reg) amd64_test_reg_reg_size(inst,dreg,reg,8)
1189 #define amd64_test_mem_reg(inst,mem,reg) amd64_test_mem_reg_size(inst,mem,reg,8)
1190 #define amd64_test_membase_reg(inst,basereg,disp,reg) amd64_test_membase_reg_size(inst,basereg,disp,reg,8)
1191 #define amd64_shift_reg_imm(inst,opc,reg,imm) amd64_shift_reg_imm_size(inst,opc,reg,imm,8)
1192 #define amd64_shift_mem_imm(inst,opc,mem,imm) amd64_shift_mem_imm_size(inst,opc,mem,imm,8)
1193 #define amd64_shift_membase_imm(inst,opc,basereg,disp,imm) amd64_shift_membase_imm_size(inst,opc,basereg,disp,imm,8)
1194 #define amd64_shift_reg(inst,opc,reg) amd64_shift_reg_size(inst,opc,reg,8)
1195 #define amd64_shift_mem(inst,opc,mem) amd64_shift_mem_size(inst,opc,mem,8)
1196 #define amd64_shift_membase(inst,opc,basereg,disp) amd64_shift_membase_size(inst,opc,basereg,disp,8)
1197 #define amd64_shrd_reg(inst,dreg,reg) amd64_shrd_reg_size(inst,dreg,reg,8)
1198 #define amd64_shrd_reg_imm(inst,dreg,reg,shamt) amd64_shrd_reg_imm_size(inst,dreg,reg,shamt,8)
1199 #define amd64_shld_reg(inst,dreg,reg) amd64_shld_reg_size(inst,dreg,reg,8)
1200 #define amd64_shld_reg_imm(inst,dreg,reg,shamt) amd64_shld_reg_imm_size(inst,dreg,reg,shamt,8)
1201 #define amd64_mul_reg(inst,reg,is_signed) amd64_mul_reg_size(inst,reg,is_signed,8)
1202 #define amd64_mul_mem(inst,mem,is_signed) amd64_mul_mem_size(inst,mem,is_signed,8)
1203 #define amd64_mul_membase(inst,basereg,disp,is_signed) amd64_mul_membase_size(inst,basereg,disp,is_signed,8)
1204 #define amd64_imul_reg_reg(inst,dreg,reg) amd64_imul_reg_reg_size(inst,dreg,reg,8)
1205 #define amd64_imul_reg_mem(inst,reg,mem) amd64_imul_reg_mem_size(inst,reg,mem,8)
1206 #define amd64_imul_reg_membase(inst,reg,basereg,disp) amd64_imul_reg_membase_size(inst,reg,basereg,disp,8)
1207 #define amd64_imul_reg_reg_imm(inst,dreg,reg,imm) amd64_imul_reg_reg_imm_size(inst,dreg,reg,imm,8)
1208 #define amd64_imul_reg_mem_imm(inst,reg,mem,imm) amd64_imul_reg_mem_imm_size(inst,reg,mem,imm,8)
1209 #define amd64_imul_reg_membase_imm(inst,reg,basereg,disp,imm) amd64_imul_reg_membase_imm_size(inst,reg,basereg,disp,imm,8)
1210 #define amd64_div_reg(inst,reg,is_signed) amd64_div_reg_size(inst,reg,is_signed,8)
1211 #define amd64_div_mem(inst,mem,is_signed) amd64_div_mem_size(inst,mem,is_signed,8)
1212 #define amd64_div_membase(inst,basereg,disp,is_signed) amd64_div_membase_size(inst,basereg,disp,is_signed,8)
1213 //#define amd64_mov_mem_reg(inst,mem,reg,size) amd64_mov_mem_reg_size(inst,mem,reg,size)
1214 //#define amd64_mov_regp_reg(inst,regp,reg,size) amd64_mov_regp_reg_size(inst,regp,reg,size)
1215 //#define amd64_mov_membase_reg(inst,basereg,disp,reg,size) amd64_mov_membase_reg_size(inst,basereg,disp,reg,size)
1216 #define amd64_mov_memindex_reg(inst,basereg,disp,indexreg,shift,reg,size) amd64_mov_memindex_reg_size(inst,basereg,disp,indexreg,shift,reg,size)
1217 //#define amd64_mov_reg_reg(inst,dreg,reg,size) amd64_mov_reg_reg_size(inst,dreg,reg,size)
1218 //#define amd64_mov_reg_mem(inst,reg,mem,size) amd64_mov_reg_mem_size(inst,reg,mem,size)
1219 //#define amd64_mov_reg_membase(inst,reg,basereg,disp,size) amd64_mov_reg_membase_size(inst,reg,basereg,disp,size)
1220 #define amd64_mov_reg_memindex(inst,reg,basereg,disp,indexreg,shift,size) amd64_mov_reg_memindex_size(inst,reg,basereg,disp,indexreg,shift,size)
1221 #define amd64_clear_reg(inst,reg) amd64_clear_reg_size(inst,reg,8)
1222 //#define amd64_mov_reg_imm(inst,reg,imm) amd64_mov_reg_imm_size(inst,reg,imm,8)
1223 #define amd64_mov_mem_imm(inst,mem,imm,size) amd64_mov_mem_imm_size(inst,mem,imm,size)
1224 //#define amd64_mov_membase_imm(inst,basereg,disp,imm,size) amd64_mov_membase_imm_size(inst,basereg,disp,imm,size)
1225 #define amd64_mov_memindex_imm(inst,basereg,disp,indexreg,shift,imm,size) amd64_mov_memindex_imm_size(inst,basereg,disp,indexreg,shift,imm,size)
1226 #define amd64_lea_mem(inst,reg,mem) amd64_lea_mem_size(inst,reg,mem,8)
1227 //#define amd64_lea_membase(inst,reg,basereg,disp) amd64_lea_membase_size(inst,reg,basereg,disp,8)
1228 #define amd64_lea_memindex(inst,reg,basereg,disp,indexreg,shift) amd64_lea_memindex_size(inst,reg,basereg,disp,indexreg,shift,8)
1229 #define amd64_widen_reg(inst,dreg,reg,is_signed,is_half) amd64_widen_reg_size(inst,dreg,reg,is_signed,is_half,8)
1230 #define amd64_widen_mem(inst,dreg,mem,is_signed,is_half) amd64_widen_mem_size(inst,dreg,mem,is_signed,is_half,8)
1231 #define amd64_widen_membase(inst,dreg,basereg,disp,is_signed,is_half) amd64_widen_membase_size(inst,dreg,basereg,disp,is_signed,is_half,8)
1232 #define amd64_widen_memindex(inst,dreg,basereg,disp,indexreg,shift,is_signed,is_half) amd64_widen_memindex_size(inst,dreg,basereg,disp,indexreg,shift,is_signed,is_half,8)
1233 #define amd64_cdq(inst) amd64_cdq_size(inst,8)
1234 #define amd64_wait(inst) amd64_wait_size(inst,8)
1235 #define amd64_fp_op_mem(inst,opc,mem,is_double) amd64_fp_op_mem_size(inst,opc,mem,is_double,8)
1236 #define amd64_fp_op_membase(inst,opc,basereg,disp,is_double) amd64_fp_op_membase_size(inst,opc,basereg,disp,is_double,8)
1237 #define amd64_fp_op(inst,opc,index) amd64_fp_op_size(inst,opc,index,8)
1238 #define amd64_fp_op_reg(inst,opc,index,pop_stack) amd64_fp_op_reg_size(inst,opc,index,pop_stack,8)
1239 #define amd64_fp_int_op_membase(inst,opc,basereg,disp,is_int) amd64_fp_int_op_membase_size(inst,opc,basereg,disp,is_int,8)
1240 #define amd64_fstp(inst,index) amd64_fstp_size(inst,index,8)
1241 #define amd64_fcompp(inst) amd64_fcompp_size(inst,8)
1242 #define amd64_fucompp(inst) amd64_fucompp_size(inst,8)
1243 #define amd64_fnstsw(inst) amd64_fnstsw_size(inst,8)
1244 #define amd64_fnstcw(inst,mem) amd64_fnstcw_size(inst,mem,8)
1245 #define amd64_fnstcw_membase(inst,basereg,disp) amd64_fnstcw_membase_size(inst,basereg,disp,8)
1246 #define amd64_fldcw(inst,mem) amd64_fldcw_size(inst,mem,8)
1247 #define amd64_fldcw_membase(inst,basereg,disp) amd64_fldcw_membase_size(inst,basereg,disp,8)
1248 #define amd64_fchs(inst) amd64_fchs_size(inst,8)
1249 #define amd64_frem(inst) amd64_frem_size(inst,8)
1250 #define amd64_fxch(inst,index) amd64_fxch_size(inst,index,8)
1251 #define amd64_fcomi(inst,index) amd64_fcomi_size(inst,index,8)
1252 #define amd64_fcomip(inst,index) amd64_fcomip_size(inst,index,8)
1253 #define amd64_fucomi(inst,index) amd64_fucomi_size(inst,index,8)
1254 #define amd64_fucomip(inst,index) amd64_fucomip_size(inst,index,8)
1255 #define amd64_fld(inst,mem,is_double) amd64_fld_size(inst,mem,is_double,8)
1256 #define amd64_fld_membase(inst,basereg,disp,is_double)  amd64_fld_membase_size(inst,basereg,disp,is_double,8) 
1257 #define amd64_fld80_mem(inst,mem) amd64_fld80_mem_size(inst,mem,8)
1258 #define amd64_fld80_membase(inst,basereg,disp) amd64_fld80_membase_size(inst,basereg,disp,8)
1259 #define amd64_fild(inst,mem,is_long) amd64_fild_size(inst,mem,is_long,8)
1260 #define amd64_fild_membase(inst,basereg,disp,is_long) amd64_fild_membase_size(inst,basereg,disp,is_long,8)
1261 #define amd64_fld_reg(inst,index) amd64_fld_reg_size(inst,index,8)
1262 #define amd64_fldz(inst) amd64_fldz_size(inst,8)
1263 #define amd64_fld1(inst) amd64_fld1_size(inst,8)
1264 #define amd64_fldpi(inst) amd64_fldpi_size(inst,8)
1265 #define amd64_fst(inst,mem,is_double,pop_stack) amd64_fst_size(inst,mem,is_double,pop_stack,8)
1266 #define amd64_fst_membase(inst,basereg,disp,is_double,pop_stack) amd64_fst_membase_size(inst,basereg,disp,is_double,pop_stack,8)
1267 #define amd64_fst80_mem(inst,mem) amd64_fst80_mem_size(inst,mem,8)
1268 #define amd64_fst80_membase(inst,basereg,disp) amd64_fst80_membase_size(inst,basereg,disp,8)
1269 #define amd64_fist_pop(inst,mem,is_long) amd64_fist_pop_size(inst,mem,is_long,8)
1270 #define amd64_fist_pop_membase(inst,basereg,disp,is_long) amd64_fist_pop_membase_size(inst,basereg,disp,is_long,8)
1271 #define amd64_fstsw(inst) amd64_fstsw_size(inst,8)
1272 #define amd64_fist_membase(inst,basereg,disp,is_int) amd64_fist_membase_size(inst,basereg,disp,is_int,8)
1273 //#define amd64_push_reg(inst,reg) amd64_push_reg_size(inst,reg,8)
1274 #define amd64_push_regp(inst,reg) amd64_push_regp_size(inst,reg,8)
1275 #define amd64_push_mem(inst,mem) amd64_push_mem_size(inst,mem,8)
1276 //#define amd64_push_membase(inst,basereg,disp) amd64_push_membase_size(inst,basereg,disp,8)
1277 #define amd64_push_memindex(inst,basereg,disp,indexreg,shift) amd64_push_memindex_size(inst,basereg,disp,indexreg,shift,8)
1278 #define amd64_push_imm(inst,imm) amd64_push_imm_size(inst,imm,8)
1279 //#define amd64_pop_reg(inst,reg) amd64_pop_reg_size(inst,reg,8)
1280 #define amd64_pop_mem(inst,mem) amd64_pop_mem_size(inst,mem,8)
1281 #define amd64_pop_membase(inst,basereg,disp) amd64_pop_membase_size(inst,basereg,disp,8)
1282 #define amd64_pushad(inst) amd64_pushad_size(inst,8)
1283 #define amd64_pushfd(inst) amd64_pushfd_size(inst,8)
1284 #define amd64_popad(inst) amd64_popad_size(inst,8)
1285 #define amd64_popfd(inst) amd64_popfd_size(inst,8)
1286 #define amd64_loop(inst,imm) amd64_loop_size(inst,imm,8)
1287 #define amd64_loope(inst,imm) amd64_loope_size(inst,imm,8)
1288 #define amd64_loopne(inst,imm) amd64_loopne_size(inst,imm,8)
1289 #define amd64_jump32(inst,imm) amd64_jump32_size(inst,imm,8)
1290 #define amd64_jump8(inst,imm) amd64_jump8_size(inst,imm,8)
1291 #define amd64_jump_reg(inst,reg) amd64_jump_reg_size(inst,reg,8)
1292 #define amd64_jump_mem(inst,mem) amd64_jump_mem_size(inst,mem,8)
1293 #define amd64_jump_membase(inst,basereg,disp) amd64_jump_membase_size(inst,basereg,disp,8)
1294 #define amd64_jump_code(inst,target) amd64_jump_code_size(inst,target,8)
1295 #define amd64_jump_disp(inst,disp) amd64_jump_disp_size(inst,disp,8)
1296 #define amd64_branch8(inst,cond,imm,is_signed) amd64_branch8_size(inst,cond,imm,is_signed,8)
1297 #define amd64_branch32(inst,cond,imm,is_signed) amd64_branch32_size(inst,cond,imm,is_signed,8)
1298 #define amd64_branch(inst,cond,target,is_signed) amd64_branch_size(inst,cond,target,is_signed,8)
1299 #define amd64_branch_disp(inst,cond,disp,is_signed) amd64_branch_disp_size(inst,cond,disp,is_signed,8)
1300 #define amd64_set_reg(inst,cond,reg,is_signed) amd64_set_reg_size(inst,cond,reg,is_signed,8)
1301 #define amd64_set_mem(inst,cond,mem,is_signed) amd64_set_mem_size(inst,cond,mem,is_signed,8)
1302 #define amd64_set_membase(inst,cond,basereg,disp,is_signed) amd64_set_membase_size(inst,cond,basereg,disp,is_signed,8)
1303 #define amd64_call_imm(inst,disp) amd64_call_imm_size(inst,disp,8)
1304 //#define amd64_call_reg(inst,reg) amd64_call_reg_size(inst,reg,8)
1305 #define amd64_call_mem(inst,mem) amd64_call_mem_size(inst,mem,8)
1306 #define amd64_call_membase(inst,basereg,disp) amd64_call_membase_size(inst,basereg,disp,8)
1307 #define amd64_call_code(inst,target) amd64_call_code_size(inst,target,8)
1308 //#define amd64_ret(inst) amd64_ret_size(inst,8)
1309 #define amd64_ret_imm(inst,imm) amd64_ret_imm_size(inst,imm,8)
1310 #define amd64_cmov_reg(inst,cond,is_signed,dreg,reg) amd64_cmov_reg_size(inst,cond,is_signed,dreg,reg,8)
1311 #define amd64_cmov_mem(inst,cond,is_signed,reg,mem) amd64_cmov_mem_size(inst,cond,is_signed,reg,mem,8)
1312 #define amd64_cmov_membase(inst,cond,is_signed,reg,basereg,disp) amd64_cmov_membase_size(inst,cond,is_signed,reg,basereg,disp,8)
1313 #define amd64_enter(inst,framesize) amd64_enter_size(inst,framesize)
1314 //#define amd64_leave(inst) amd64_leave_size(inst,8)
1315 #define amd64_sahf(inst) amd64_sahf_size(inst,8)
1316 #define amd64_fsin(inst) amd64_fsin_size(inst,8)
1317 #define amd64_fcos(inst) amd64_fcos_size(inst,8)
1318 #define amd64_fabs(inst) amd64_fabs_size(inst,8)
1319 #define amd64_ftst(inst) amd64_ftst_size(inst,8)
1320 #define amd64_fxam(inst) amd64_fxam_size(inst,8)
1321 #define amd64_fpatan(inst) amd64_fpatan_size(inst,8)
1322 #define amd64_fprem(inst) amd64_fprem_size(inst,8)
1323 #define amd64_fprem1(inst) amd64_fprem1_size(inst,8)
1324 #define amd64_frndint(inst) amd64_frndint_size(inst,8)
1325 #define amd64_fsqrt(inst) amd64_fsqrt_size(inst,8)
1326 #define amd64_fptan(inst) amd64_fptan_size(inst,8)
1327 #define amd64_padding(inst,size) amd64_padding_size(inst,size)
1328 #define amd64_prolog(inst,frame,reg_mask) amd64_prolog_size(inst,frame,reg_mask,8)
1329 #define amd64_epilog(inst,reg_mask) amd64_epilog_size(inst,reg_mask,8)
1330
1331 #endif // AMD64_H