1 # Check 64bit instructions with optimized encoding
37 vandnpd %zmm1, %zmm1, %zmm5
39 vmovdqa32 %xmm1, %xmm2
40 vmovdqa64 %xmm1, %xmm2
42 vmovdqu16 %xmm1, %xmm2
43 vmovdqu32 %xmm1, %xmm2
44 vmovdqu64 %xmm1, %xmm2
46 vmovdqa32 %xmm11, %xmm12
47 vmovdqa64 %xmm11, %xmm12
48 vmovdqu8 %xmm11, %xmm12
49 vmovdqu16 %xmm11, %xmm12
50 vmovdqu32 %xmm11, %xmm12
51 vmovdqu64 %xmm11, %xmm12
53 vmovdqa32 127(%rax), %xmm2
54 vmovdqa64 127(%rax), %xmm2
55 vmovdqu8 127(%rax), %xmm2
56 vmovdqu16 127(%rax), %xmm2
57 vmovdqu32 127(%rax), %xmm2
58 vmovdqu64 127(%rax), %xmm2
60 vmovdqa32 %xmm1, 128(%rax)
61 vmovdqa64 %xmm1, 128(%rax)
62 vmovdqu8 %xmm1, 128(%rax)
63 vmovdqu16 %xmm1, 128(%rax)
64 vmovdqu32 %xmm1, 128(%rax)
65 vmovdqu64 %xmm1, 128(%rax)
67 vmovdqa32 %ymm1, %ymm2
68 vmovdqa64 %ymm1, %ymm2
70 vmovdqu16 %ymm1, %ymm2
71 vmovdqu32 %ymm1, %ymm2
72 vmovdqu64 %ymm1, %ymm2
74 vmovdqa32 %ymm11, %ymm12
75 vmovdqa64 %ymm11, %ymm12
76 vmovdqu8 %ymm11, %ymm12
77 vmovdqu16 %ymm11, %ymm12
78 vmovdqu32 %ymm11, %ymm12
79 vmovdqu64 %ymm11, %ymm12
81 vmovdqa32 127(%rax), %ymm2
82 vmovdqa64 127(%rax), %ymm2
83 vmovdqu8 127(%rax), %ymm2
84 vmovdqu16 127(%rax), %ymm2
85 vmovdqu32 127(%rax), %ymm2
86 vmovdqu64 127(%rax), %ymm2
88 vmovdqa32 %ymm1, 128(%rax)
89 vmovdqa64 %ymm1, 128(%rax)
90 vmovdqu8 %ymm1, 128(%rax)
91 vmovdqu16 %ymm1, 128(%rax)
92 vmovdqu32 %ymm1, 128(%rax)
93 vmovdqu64 %ymm1, 128(%rax)
95 vmovdqa32 %xmm21, %xmm2
96 vmovdqa64 %xmm21, %xmm2
97 vmovdqu8 %xmm21, %xmm2
98 vmovdqu16 %xmm21, %xmm2
99 vmovdqu32 %xmm21, %xmm2
100 vmovdqu64 %xmm21, %xmm2
102 vmovdqa32 %zmm1, %zmm2
103 vmovdqa64 %zmm1, %zmm2
104 vmovdqu8 %zmm1, %zmm2
105 vmovdqu16 %zmm1, %zmm2
106 vmovdqu32 %zmm1, %zmm2
107 vmovdqu64 %zmm1, %zmm2
109 {evex} vmovdqa32 %ymm1, %ymm2
110 {evex} vmovdqa64 %ymm1, %ymm2
111 {evex} vmovdqu8 %xmm1, %xmm2
112 {evex} vmovdqu16 %xmm1, %xmm2
113 {evex} vmovdqu32 %xmm1, %xmm2
114 {evex} vmovdqu64 %xmm1, %xmm2
116 vmovdqa32 %ymm1, %ymm2{%k1}
117 vmovdqa64 %ymm1, %ymm2{%k1}
118 vmovdqu8 %xmm1, %xmm2{%k1}
119 vmovdqu16 %xmm1, %xmm2{%k1}
120 vmovdqu32 %xmm1, %xmm2{%k1}
121 vmovdqu64 %xmm1, %xmm2{%k1}
123 vmovdqa32 (%rax), %ymm2{%k1}
124 vmovdqa64 (%rax), %ymm2{%k1}
125 vmovdqu8 (%rax), %xmm2{%k1}
126 vmovdqu16 (%rax), %xmm2{%k1}
127 vmovdqu32 (%rax), %xmm2{%k1}
128 vmovdqu64 (%rax), %xmm2{%k1}
130 vmovdqa32 %ymm1, (%rax){%k1}
131 vmovdqa64 %ymm1, (%rax){%k1}
132 vmovdqu8 %xmm1, (%rax){%k1}
133 vmovdqu16 %xmm1, (%rax){%k1}
134 vmovdqu32 %xmm1, (%rax){%k1}
135 vmovdqu64 %xmm1, (%rax){%k1}
137 vmovdqa32 %xmm1, %xmm2{%k1}{z}
138 vmovdqa64 %xmm1, %xmm2{%k1}{z}
139 vmovdqu8 %xmm1, %xmm2{%k1}{z}
140 vmovdqu16 %xmm1, %xmm2{%k1}{z}
141 vmovdqu32 %xmm1, %xmm2{%k1}{z}
142 vmovdqu64 %xmm1, %xmm2{%k1}{z}
144 vpandd %xmm2, %xmm3, %xmm4
145 vpandq %xmm12, %xmm3, %xmm4
146 vpandnd %xmm2, %xmm13, %xmm4
147 vpandnq %xmm2, %xmm3, %xmm14
148 vpord %xmm2, %xmm3, %xmm4
149 vporq %xmm12, %xmm3, %xmm4
150 vpxord %xmm2, %xmm13, %xmm4
151 vpxorq %xmm2, %xmm3, %xmm14
153 vpandd %ymm2, %ymm3, %ymm4
154 vpandq %ymm12, %ymm3, %ymm4
155 vpandnd %ymm2, %ymm13, %ymm4
156 vpandnq %ymm2, %ymm3, %ymm14
157 vpord %ymm2, %ymm3, %ymm4
158 vporq %ymm12, %ymm3, %ymm4
159 vpxord %ymm2, %ymm13, %ymm4
160 vpxorq %ymm2, %ymm3, %ymm14
162 vpandd 112(%rax), %xmm2, %xmm3
163 vpandq 112(%rax), %xmm2, %xmm3
164 vpandnd 112(%rax), %xmm2, %xmm3
165 vpandnq 112(%rax), %xmm2, %xmm3
166 vpord 112(%rax), %xmm2, %xmm3
167 vporq 112(%rax), %xmm2, %xmm3
168 vpxord 112(%rax), %xmm2, %xmm3
169 vpxorq 112(%rax), %xmm2, %xmm3
171 vpandd 128(%rax), %xmm2, %xmm3
172 vpandq 128(%rax), %xmm2, %xmm3
173 vpandnd 128(%rax), %xmm2, %xmm3
174 vpandnq 128(%rax), %xmm2, %xmm3
175 vpord 128(%rax), %xmm2, %xmm3
176 vporq 128(%rax), %xmm2, %xmm3
177 vpxord 128(%rax), %xmm2, %xmm3
178 vpxorq 128(%rax), %xmm2, %xmm3
180 vpandd 96(%rax), %ymm2, %ymm3
181 vpandq 96(%rax), %ymm2, %ymm3
182 vpandnd 96(%rax), %ymm2, %ymm3
183 vpandnq 96(%rax), %ymm2, %ymm3
184 vpord 96(%rax), %ymm2, %ymm3
185 vporq 96(%rax), %ymm2, %ymm3
186 vpxord 96(%rax), %ymm2, %ymm3
187 vpxorq 96(%rax), %ymm2, %ymm3
189 vpandd 128(%rax), %ymm2, %ymm3
190 vpandq 128(%rax), %ymm2, %ymm3
191 vpandnd 128(%rax), %ymm2, %ymm3
192 vpandnq 128(%rax), %ymm2, %ymm3
193 vpord 128(%rax), %ymm2, %ymm3
194 vporq 128(%rax), %ymm2, %ymm3
195 vpxord 128(%rax), %ymm2, %ymm3
196 vpxorq 128(%rax), %ymm2, %ymm3
198 vpandd %xmm22, %xmm23, %xmm24
199 vpandq %ymm22, %ymm3, %ymm4
200 vpandnd %ymm2, %ymm23, %ymm4
201 vpandnq %xmm2, %xmm3, %xmm24
202 vpord %xmm22, %xmm23, %xmm24
203 vporq %ymm22, %ymm3, %ymm4
204 vpxord %ymm2, %ymm23, %ymm4
205 vpxorq %xmm2, %xmm3, %xmm24
207 vpandd %xmm2, %xmm3, %xmm4{%k5}
208 vpandq %ymm12, %ymm3, %ymm4{%k5}
209 vpandnd %ymm2, %ymm13, %ymm4{%k5}
210 vpandnq %xmm2, %xmm3, %xmm14{%k5}
211 vpord %xmm2, %xmm3, %xmm4{%k5}
212 vporq %ymm12, %ymm3, %ymm4{%k5}
213 vpxord %ymm2, %ymm13, %ymm4{%k5}
214 vpxorq %xmm2, %xmm3, %xmm14{%k5}
216 vpandd (%rax){1to8}, %ymm2, %ymm3
217 vpandq (%rax){1to2}, %xmm2, %xmm3
218 vpandnd (%rax){1to4}, %xmm2, %xmm3
219 vpandnq (%rax){1to4}, %ymm2, %ymm3
220 vpord (%rax){1to8}, %ymm2, %ymm3
221 vporq (%rax){1to2}, %xmm2, %xmm3
222 vpxord (%rax){1to4}, %xmm2, %xmm3
223 vpxorq (%rax){1to4}, %ymm2, %ymm3