1 .*: Assembler messages:
33 [ ]*1[ ]+\# Check instructions with optimized encoding
35 [ ]*3[ ]+\.include "optimize-6\.s"
36 [ ]*1[ ]+\# Check instructions with optimized encoding
38 [ ]*3[ ]+\.allow_index_reg
41 [ ]*6[ ]+vandnpd %zmm1, %zmm1, %zmm5\{%k7\}
42 [ ]*7[ ]+vandnpd %zmm1, %zmm1, %zmm5
44 [ ]*9[ ]+vandnps %zmm1, %zmm1, %zmm5\{%k7\}
45 [ ]*10[ ]+vandnps %zmm1, %zmm1, %zmm5
47 [ ]*12[ ]+vpandnd %zmm1, %zmm1, %zmm5\{%k7\}
48 [ ]*13[ ]+vpandnd %zmm1, %zmm1, %zmm5
50 [ ]*15[ ]+vpandnq %zmm1, %zmm1, %zmm5\{%k7\}
51 [ ]*16[ ]+vpandnq %zmm1, %zmm1, %zmm5
53 [ ]*18[ ]+vxorpd %zmm1, %zmm1, %zmm5\{%k7\}
54 [ ]*19[ ]+vxorpd %zmm1, %zmm1, %zmm5
56 [ ]*21[ ]+vxorps %zmm1, %zmm1, %zmm5\{%k7\}
57 [ ]*22[ ]+vxorps %zmm1, %zmm1, %zmm5
59 [ ]*24[ ]+vpxord %zmm1, %zmm1, %zmm5\{%k7\}
60 [ ]*25[ ]+vpxord %zmm1, %zmm1, %zmm5
62 [ ]*27[ ]+vpxorq %zmm1, %zmm1, %zmm5\{%k7\}
63 [ ]*28[ ]+vpxorq %zmm1, %zmm1, %zmm5
65 [ ]*30[ ]+vpsubb %zmm1, %zmm1, %zmm5\{%k7\}
66 [ ]*31[ ]+vpsubb %zmm1, %zmm1, %zmm5
68 [ ]*33[ ]+vpsubw %zmm1, %zmm1, %zmm5\{%k7\}
69 [ ]*34[ ]+vpsubw %zmm1, %zmm1, %zmm5
71 [ ]*36[ ]+vpsubd %zmm1, %zmm1, %zmm5\{%k7\}
72 [ ]*37[ ]+vpsubd %zmm1, %zmm1, %zmm5
74 [ ]*39[ ]+vpsubq %zmm1, %zmm1, %zmm5\{%k7\}
75 [ ]*40[ ]+vpsubq %zmm1, %zmm1, %zmm5
77 [ ]*42[ ]+kxord %k1, %k1, %k5
78 [ ]*43[ ]+kxorq %k1, %k1, %k5
80 [ ]*45[ ]+kandnd %k1, %k1, %k5
81 [ ]*46[ ]+kandnq %k1, %k1, %k5