Commit | Line | Data |
---|---|---|
b6f8c7c4 L |
1 | # Check instructions with optimized encoding |
2 | ||
3 | .allow_index_reg | |
4 | .text | |
5 | _start: | |
6 | vandnpd %zmm1, %zmm1, %zmm5{%k7} | |
0ba3a731 | 7 | vandnpd %ymm1, %ymm1, %ymm5 {%k7} {z} |
b6f8c7c4 L |
8 | vandnpd %zmm1, %zmm1, %zmm5 |
9 | vandnpd %ymm1, %ymm1, %ymm5 | |
10 | ||
11 | vandnps %zmm1, %zmm1, %zmm5{%k7} | |
12 | vandnps %ymm1, %ymm1, %ymm5{z}{%k7} | |
13 | vandnps %zmm1, %zmm1, %zmm5 | |
14 | vandnps %ymm1, %ymm1, %ymm5 | |
15 | ||
16 | vpandn %ymm1, %ymm1, %ymm5 | |
17 | ||
18 | vpandnd %zmm1, %zmm1, %zmm5{%k7} | |
19 | vpandnd %ymm1, %ymm1, %ymm5{z}{%k7} | |
20 | vpandnd %zmm1, %zmm1, %zmm5 | |
21 | vpandnd %ymm1, %ymm1, %ymm5 | |
22 | ||
23 | vpandnq %zmm1, %zmm1, %zmm5{%k7} | |
24 | vpandnq %ymm1, %ymm1, %ymm5{z}{%k7} | |
25 | vpandnq %zmm1, %zmm1, %zmm5 | |
26 | vpandnq %ymm1, %ymm1, %ymm5 | |
27 | ||
28 | vxorpd %zmm1, %zmm1, %zmm5{%k7} | |
29 | vxorpd %ymm1, %ymm1, %ymm5{z}{%k7} | |
30 | vxorpd %zmm1, %zmm1, %zmm5 | |
31 | vxorpd %ymm1, %ymm1, %ymm5 | |
32 | ||
33 | vxorps %zmm1, %zmm1, %zmm5{%k7} | |
34 | vxorps %ymm1, %ymm1, %ymm5{z}{%k7} | |
35 | vxorps %zmm1, %zmm1, %zmm5 | |
36 | vxorps %ymm1, %ymm1, %ymm5 | |
37 | ||
38 | vpxor %ymm1, %ymm1, %ymm5 | |
39 | ||
40 | vpxord %zmm1, %zmm1, %zmm5{%k7} | |
41 | vpxord %ymm1, %ymm1, %ymm5{z}{%k7} | |
42 | vpxord %zmm1, %zmm1, %zmm5 | |
43 | vpxord %ymm1, %ymm1, %ymm5 | |
44 | ||
45 | vpxorq %zmm1, %zmm1, %zmm5{%k7} | |
46 | vpxorq %ymm1, %ymm1, %ymm5{z}{%k7} | |
47 | vpxorq %zmm1, %zmm1, %zmm5 | |
48 | vpxorq %ymm1, %ymm1, %ymm5 | |
8305403a L |
49 | |
50 | vpsubb %zmm1, %zmm1, %zmm5{%k7} | |
51 | vpsubb %ymm1, %ymm1, %ymm5{z}{%k7} | |
52 | vpsubb %zmm1, %zmm1, %zmm5 | |
53 | vpsubb %ymm1, %ymm1, %ymm5 | |
54 | ||
55 | vpsubw %zmm1, %zmm1, %zmm5{%k7} | |
56 | vpsubw %ymm1, %ymm1, %ymm5{z}{%k7} | |
57 | vpsubw %zmm1, %zmm1, %zmm5 | |
58 | vpsubw %ymm1, %ymm1, %ymm5 | |
59 | ||
60 | vpsubd %zmm1, %zmm1, %zmm5{%k7} | |
61 | vpsubd %ymm1, %ymm1, %ymm5{z}{%k7} | |
62 | vpsubd %zmm1, %zmm1, %zmm5 | |
63 | vpsubd %ymm1, %ymm1, %ymm5 | |
64 | ||
65 | vpsubq %zmm1, %zmm1, %zmm5{%k7} | |
66 | vpsubq %ymm1, %ymm1, %ymm5{z}{%k7} | |
67 | vpsubq %zmm1, %zmm1, %zmm5 | |
68 | vpsubq %ymm1, %ymm1, %ymm5 | |
1424ad86 JB |
69 | |
70 | kxord %k1, %k1, %k5 | |
71 | kxorq %k1, %k1, %k5 | |
72 | ||
73 | kandnd %k1, %k1, %k5 | |
74 | kandnq %k1, %k1, %k5 | |
97ed31ae L |
75 | |
76 | vmovdqa32 %xmm1, %xmm2 | |
77 | vmovdqa64 %xmm1, %xmm2 | |
78 | vmovdqu8 %xmm1, %xmm2 | |
79 | vmovdqu16 %xmm1, %xmm2 | |
80 | vmovdqu32 %xmm1, %xmm2 | |
81 | vmovdqu64 %xmm1, %xmm2 | |
82 | ||
83 | vmovdqa32 127(%eax), %xmm2 | |
84 | vmovdqa64 127(%eax), %xmm2 | |
85 | vmovdqu8 127(%eax), %xmm2 | |
86 | vmovdqu16 127(%eax), %xmm2 | |
87 | vmovdqu32 127(%eax), %xmm2 | |
88 | vmovdqu64 127(%eax), %xmm2 | |
89 | ||
90 | vmovdqa32 %xmm1, 128(%eax) | |
91 | vmovdqa64 %xmm1, 128(%eax) | |
92 | vmovdqu8 %xmm1, 128(%eax) | |
93 | vmovdqu16 %xmm1, 128(%eax) | |
94 | vmovdqu32 %xmm1, 128(%eax) | |
95 | vmovdqu64 %xmm1, 128(%eax) | |
96 | ||
97 | vmovdqa32 %ymm1, %ymm2 | |
98 | vmovdqa64 %ymm1, %ymm2 | |
99 | vmovdqu8 %ymm1, %ymm2 | |
100 | vmovdqu16 %ymm1, %ymm2 | |
101 | vmovdqu32 %ymm1, %ymm2 | |
102 | vmovdqu64 %ymm1, %ymm2 | |
103 | ||
104 | vmovdqa32 127(%eax), %ymm2 | |
105 | vmovdqa64 127(%eax), %ymm2 | |
106 | vmovdqu8 127(%eax), %ymm2 | |
107 | vmovdqu16 127(%eax), %ymm2 | |
108 | vmovdqu32 127(%eax), %ymm2 | |
109 | vmovdqu64 127(%eax), %ymm2 | |
110 | ||
111 | vmovdqa32 %ymm1, 128(%eax) | |
112 | vmovdqa64 %ymm1, 128(%eax) | |
113 | vmovdqu8 %ymm1, 128(%eax) | |
114 | vmovdqu16 %ymm1, 128(%eax) | |
115 | vmovdqu32 %ymm1, 128(%eax) | |
116 | vmovdqu64 %ymm1, 128(%eax) | |
392a5972 L |
117 | |
118 | vmovdqa32 (%eax), %zmm2 | |
a0a1771e JB |
119 | |
120 | vpandd %xmm2, %xmm3, %xmm4 | |
121 | vpandq %xmm2, %xmm3, %xmm4 | |
122 | vpandnd %xmm2, %xmm3, %xmm4 | |
123 | vpandnq %xmm2, %xmm3, %xmm4 | |
124 | vpord %xmm2, %xmm3, %xmm4 | |
125 | vporq %xmm2, %xmm3, %xmm4 | |
126 | vpxord %xmm2, %xmm3, %xmm4 | |
127 | vpxorq %xmm2, %xmm3, %xmm4 | |
128 | ||
129 | vpandd %ymm2, %ymm3, %ymm4 | |
130 | vpandq %ymm2, %ymm3, %ymm4 | |
131 | vpandnd %ymm2, %ymm3, %ymm4 | |
132 | vpandnq %ymm2, %ymm3, %ymm4 | |
133 | vpord %ymm2, %ymm3, %ymm4 | |
134 | vporq %ymm2, %ymm3, %ymm4 | |
135 | vpxord %ymm2, %ymm3, %ymm4 | |
136 | vpxorq %ymm2, %ymm3, %ymm4 | |
137 | ||
138 | vpandd 112(%eax), %xmm2, %xmm3 | |
139 | vpandq 112(%eax), %xmm2, %xmm3 | |
140 | vpandnd 112(%eax), %xmm2, %xmm3 | |
141 | vpandnq 112(%eax), %xmm2, %xmm3 | |
142 | vpord 112(%eax), %xmm2, %xmm3 | |
143 | vporq 112(%eax), %xmm2, %xmm3 | |
144 | vpxord 112(%eax), %xmm2, %xmm3 | |
145 | vpxorq 112(%eax), %xmm2, %xmm3 | |
146 | ||
147 | vpandd 128(%eax), %xmm2, %xmm3 | |
148 | vpandq 128(%eax), %xmm2, %xmm3 | |
149 | vpandnd 128(%eax), %xmm2, %xmm3 | |
150 | vpandnq 128(%eax), %xmm2, %xmm3 | |
151 | vpord 128(%eax), %xmm2, %xmm3 | |
152 | vporq 128(%eax), %xmm2, %xmm3 | |
153 | vpxord 128(%eax), %xmm2, %xmm3 | |
154 | vpxorq 128(%eax), %xmm2, %xmm3 | |
155 | ||
156 | vpandd 96(%eax), %ymm2, %ymm3 | |
157 | vpandq 96(%eax), %ymm2, %ymm3 | |
158 | vpandnd 96(%eax), %ymm2, %ymm3 | |
159 | vpandnq 96(%eax), %ymm2, %ymm3 | |
160 | vpord 96(%eax), %ymm2, %ymm3 | |
161 | vporq 96(%eax), %ymm2, %ymm3 | |
162 | vpxord 96(%eax), %ymm2, %ymm3 | |
163 | vpxorq 96(%eax), %ymm2, %ymm3 | |
164 | ||
165 | vpandd 128(%eax), %ymm2, %ymm3 | |
166 | vpandq 128(%eax), %ymm2, %ymm3 | |
167 | vpandnd 128(%eax), %ymm2, %ymm3 | |
168 | vpandnq 128(%eax), %ymm2, %ymm3 | |
169 | vpord 128(%eax), %ymm2, %ymm3 | |
170 | vporq 128(%eax), %ymm2, %ymm3 | |
171 | vpxord 128(%eax), %ymm2, %ymm3 | |
172 | vpxorq 128(%eax), %ymm2, %ymm3 |