1 # Check 64bit instructions with optimized encoding
6 vandnpd %zmm1, %zmm1, %zmm15{%k7}
7 vandnpd %zmm1, %zmm1, %zmm15
8 vandnpd %zmm1, %zmm1, %zmm16
9 vandnpd %zmm17, %zmm17, %zmm1
11 vandnps %zmm1, %zmm1, %zmm15{%k7}
12 vandnps %zmm1, %zmm1, %zmm15
13 vandnps %zmm1, %zmm1, %zmm16
14 vandnps %zmm17, %zmm17, %zmm1
16 vpandnd %zmm1, %zmm1, %zmm15{%k7}
17 vpandnd %zmm1, %zmm1, %zmm15
18 vpandnd %zmm1, %zmm1, %zmm16
19 vpandnd %zmm17, %zmm17, %zmm1
21 vpandnq %zmm1, %zmm1, %zmm15{%k7}
22 vpandnq %zmm1, %zmm1, %zmm15
23 vpandnq %zmm1, %zmm1, %zmm16
24 vpandnq %zmm17, %zmm17, %zmm1
26 vxorpd %zmm1, %zmm1, %zmm15{%k7}
27 vxorpd %zmm1, %zmm1, %zmm15
28 vxorpd %zmm1, %zmm1, %zmm16
29 vxorpd %zmm17, %zmm17, %zmm1
31 vxorps %zmm1, %zmm1, %zmm15{%k7}
32 vxorps %zmm1, %zmm1, %zmm15
33 vxorps %zmm1, %zmm1, %zmm16
34 vxorps %zmm17, %zmm17, %zmm1
36 vpxord %zmm1, %zmm1, %zmm15{%k7}
37 vpxord %zmm1, %zmm1, %zmm15
38 vpxord %zmm1, %zmm1, %zmm16
39 vpxord %zmm17, %zmm17, %zmm1
41 vpxorq %zmm1, %zmm1, %zmm15{%k7}
42 vpxorq %zmm1, %zmm1, %zmm15
43 vpxorq %zmm1, %zmm1, %zmm16
44 vpxorq %zmm17, %zmm17, %zmm1
46 vpsubb %zmm1, %zmm1, %zmm15{%k7}
47 vpsubb %zmm1, %zmm1, %zmm15
48 vpsubb %zmm1, %zmm1, %zmm16
49 vpsubb %zmm17, %zmm17, %zmm1
51 vpsubw %zmm1, %zmm1, %zmm15{%k7}
52 vpsubw %zmm1, %zmm1, %zmm15
53 vpsubw %zmm1, %zmm1, %zmm16
54 vpsubw %zmm17, %zmm17, %zmm1
56 vpsubd %zmm1, %zmm1, %zmm15{%k7}
57 vpsubd %zmm1, %zmm1, %zmm15
58 vpsubd %zmm1, %zmm1, %zmm16
59 vpsubd %zmm17, %zmm17, %zmm1
61 vpsubq %zmm1, %zmm1, %zmm15{%k7}
62 vpsubq %zmm1, %zmm1, %zmm15
63 vpsubq %zmm1, %zmm1, %zmm16
64 vpsubq %zmm17, %zmm17, %zmm1