1 # Check instructions with optimized encoding
6 vandnpd %zmm1, %zmm1, %zmm5{%k7}
7 vandnpd %ymm1, %ymm1, %ymm5 {%k7} {z}
8 vandnpd %zmm1, %zmm1, %zmm5
9 vandnpd %ymm1, %ymm1, %ymm5
11 vandnps %zmm1, %zmm1, %zmm5{%k7}
12 vandnps %ymm1, %ymm1, %ymm5{z}{%k7}
13 vandnps %zmm1, %zmm1, %zmm5
14 vandnps %ymm1, %ymm1, %ymm5
16 vpandn %ymm1, %ymm1, %ymm5
18 vpandnd %zmm1, %zmm1, %zmm5{%k7}
19 vpandnd %ymm1, %ymm1, %ymm5{z}{%k7}
20 vpandnd %zmm1, %zmm1, %zmm5
21 vpandnd %ymm1, %ymm1, %ymm5
23 vpandnq %zmm1, %zmm1, %zmm5{%k7}
24 vpandnq %ymm1, %ymm1, %ymm5{z}{%k7}
25 vpandnq %zmm1, %zmm1, %zmm5
26 vpandnq %ymm1, %ymm1, %ymm5
28 vxorpd %zmm1, %zmm1, %zmm5{%k7}
29 vxorpd %ymm1, %ymm1, %ymm5{z}{%k7}
30 vxorpd %zmm1, %zmm1, %zmm5
31 vxorpd %ymm1, %ymm1, %ymm5
33 vxorps %zmm1, %zmm1, %zmm5{%k7}
34 vxorps %ymm1, %ymm1, %ymm5{z}{%k7}
35 vxorps %zmm1, %zmm1, %zmm5
36 vxorps %ymm1, %ymm1, %ymm5
38 vpxor %ymm1, %ymm1, %ymm5
40 vpxord %zmm1, %zmm1, %zmm5{%k7}
41 vpxord %ymm1, %ymm1, %ymm5{z}{%k7}
42 vpxord %zmm1, %zmm1, %zmm5
43 vpxord %ymm1, %ymm1, %ymm5
45 vpxorq %zmm1, %zmm1, %zmm5{%k7}
46 vpxorq %ymm1, %ymm1, %ymm5{z}{%k7}
47 vpxorq %zmm1, %zmm1, %zmm5
48 vpxorq %ymm1, %ymm1, %ymm5
50 vpsubb %zmm1, %zmm1, %zmm5{%k7}
51 vpsubb %ymm1, %ymm1, %ymm5{z}{%k7}
52 vpsubb %zmm1, %zmm1, %zmm5
53 vpsubb %ymm1, %ymm1, %ymm5
55 vpsubw %zmm1, %zmm1, %zmm5{%k7}
56 vpsubw %ymm1, %ymm1, %ymm5{z}{%k7}
57 vpsubw %zmm1, %zmm1, %zmm5
58 vpsubw %ymm1, %ymm1, %ymm5
60 vpsubd %zmm1, %zmm1, %zmm5{%k7}
61 vpsubd %ymm1, %ymm1, %ymm5{z}{%k7}
62 vpsubd %zmm1, %zmm1, %zmm5
63 vpsubd %ymm1, %ymm1, %ymm5
65 vpsubq %zmm1, %zmm1, %zmm5{%k7}
66 vpsubq %ymm1, %ymm1, %ymm5{z}{%k7}
67 vpsubq %zmm1, %zmm1, %zmm5
68 vpsubq %ymm1, %ymm1, %ymm5
76 vmovdqa32 %xmm1, %xmm2
77 vmovdqa64 %xmm1, %xmm2
79 vmovdqu16 %xmm1, %xmm2
80 vmovdqu32 %xmm1, %xmm2
81 vmovdqu64 %xmm1, %xmm2
83 vmovdqa32 127(%eax), %xmm2
84 vmovdqa64 127(%eax), %xmm2
85 vmovdqu8 127(%eax), %xmm2
86 vmovdqu16 127(%eax), %xmm2
87 vmovdqu32 127(%eax), %xmm2
88 vmovdqu64 127(%eax), %xmm2
90 vmovdqa32 %xmm1, 128(%eax)
91 vmovdqa64 %xmm1, 128(%eax)
92 vmovdqu8 %xmm1, 128(%eax)
93 vmovdqu16 %xmm1, 128(%eax)
94 vmovdqu32 %xmm1, 128(%eax)
95 vmovdqu64 %xmm1, 128(%eax)
97 vmovdqa32 %ymm1, %ymm2
98 vmovdqa64 %ymm1, %ymm2
100 vmovdqu16 %ymm1, %ymm2
101 vmovdqu32 %ymm1, %ymm2
102 vmovdqu64 %ymm1, %ymm2
104 vmovdqa32 127(%eax), %ymm2
105 vmovdqa64 127(%eax), %ymm2
106 vmovdqu8 127(%eax), %ymm2
107 vmovdqu16 127(%eax), %ymm2
108 vmovdqu32 127(%eax), %ymm2
109 vmovdqu64 127(%eax), %ymm2
111 vmovdqa32 %ymm1, 128(%eax)
112 vmovdqa64 %ymm1, 128(%eax)
113 vmovdqu8 %ymm1, 128(%eax)
114 vmovdqu16 %ymm1, 128(%eax)
115 vmovdqu32 %ymm1, 128(%eax)
116 vmovdqu64 %ymm1, 128(%eax)
118 vmovdqa32 (%eax), %zmm2