1 .*: Assembler messages:
53 [ ]*1[ ]+\# Check 64bit instructions with optimized encoding
55 [ ]*3[ ]+\.include "x86-64-optimize-7\.s"
56 [ ]*1[ ]+\# Check 64bit instructions with optimized encoding
58 [ ]*3[ ]+\.allow_index_reg
61 [ ]*6[ ]+vandnpd %zmm1, %zmm1, %zmm15\{%k7\}
62 [ ]*7[ ]+vandnpd %zmm1, %zmm1, %zmm15
63 [ ]*8[ ]+vandnpd %zmm1, %zmm1, %zmm16
64 [ ]*9[ ]+vandnpd %zmm17, %zmm17, %zmm1
66 [ ]*11[ ]+vandnps %zmm1, %zmm1, %zmm15\{%k7\}
67 [ ]*12[ ]+vandnps %zmm1, %zmm1, %zmm15
68 [ ]*13[ ]+vandnps %zmm1, %zmm1, %zmm16
69 [ ]*14[ ]+vandnps %zmm17, %zmm17, %zmm1
71 [ ]*16[ ]+vpandnd %zmm1, %zmm1, %zmm15\{%k7\}
72 [ ]*17[ ]+vpandnd %zmm1, %zmm1, %zmm15
73 [ ]*18[ ]+vpandnd %zmm1, %zmm1, %zmm16
74 [ ]*19[ ]+vpandnd %zmm17, %zmm17, %zmm1
76 [ ]*21[ ]+vpandnq %zmm1, %zmm1, %zmm15\{%k7\}
77 [ ]*22[ ]+vpandnq %zmm1, %zmm1, %zmm15
78 [ ]*23[ ]+vpandnq %zmm1, %zmm1, %zmm16
79 [ ]*24[ ]+vpandnq %zmm17, %zmm17, %zmm1
81 [ ]*26[ ]+vxorpd %zmm1, %zmm1, %zmm15\{%k7\}
82 [ ]*27[ ]+vxorpd %zmm1, %zmm1, %zmm15
83 [ ]*28[ ]+vxorpd %zmm1, %zmm1, %zmm16
84 [ ]*29[ ]+vxorpd %zmm17, %zmm17, %zmm1
86 [ ]*31[ ]+vxorps %zmm1, %zmm1, %zmm15\{%k7\}
87 [ ]*32[ ]+vxorps %zmm1, %zmm1, %zmm15
88 [ ]*33[ ]+vxorps %zmm1, %zmm1, %zmm16
89 [ ]*34[ ]+vxorps %zmm17, %zmm17, %zmm1
91 [ ]*36[ ]+vpxord %zmm1, %zmm1, %zmm15\{%k7\}
92 [ ]*37[ ]+vpxord %zmm1, %zmm1, %zmm15
93 [ ]*38[ ]+vpxord %zmm1, %zmm1, %zmm16
94 [ ]*39[ ]+vpxord %zmm17, %zmm17, %zmm1
96 [ ]*41[ ]+vpxorq %zmm1, %zmm1, %zmm15\{%k7\}
97 [ ]*42[ ]+vpxorq %zmm1, %zmm1, %zmm15
98 [ ]*43[ ]+vpxorq %zmm1, %zmm1, %zmm16
99 [ ]*44[ ]+vpxorq %zmm17, %zmm17, %zmm1
101 [ ]*46[ ]+vpsubb %zmm1, %zmm1, %zmm15\{%k7\}
102 [ ]*47[ ]+vpsubb %zmm1, %zmm1, %zmm15
103 [ ]*48[ ]+vpsubb %zmm1, %zmm1, %zmm16
104 [ ]*49[ ]+vpsubb %zmm17, %zmm17, %zmm1
106 [ ]*51[ ]+vpsubw %zmm1, %zmm1, %zmm15\{%k7\}
107 [ ]*52[ ]+vpsubw %zmm1, %zmm1, %zmm15
108 [ ]*53[ ]+vpsubw %zmm1, %zmm1, %zmm16
109 [ ]*54[ ]+vpsubw %zmm17, %zmm17, %zmm1
114 [ ]*56[ ]+vpsubd %zmm1, %zmm1, %zmm15\{%k7\}
115 [ ]*57[ ]+vpsubd %zmm1, %zmm1, %zmm15
116 [ ]*58[ ]+vpsubd %zmm1, %zmm1, %zmm16
117 [ ]*59[ ]+vpsubd %zmm17, %zmm17, %zmm1
119 [ ]*61[ ]+vpsubq %zmm1, %zmm1, %zmm15\{%k7\}
120 [ ]*62[ ]+vpsubq %zmm1, %zmm1, %zmm15
121 [ ]*63[ ]+vpsubq %zmm1, %zmm1, %zmm16
122 [ ]*64[ ]+vpsubq %zmm17, %zmm17, %zmm1