{nooptimize} vmovdqu16 %xmm1, %xmm2
{nooptimize} vmovdqu32 %xmm1, %xmm2
{nooptimize} vmovdqu64 %xmm1, %xmm2
+
+ {nooptimize} vpandd %xmm2, %xmm3, %xmm4
+ {nooptimize} vpandq %ymm12, %ymm3, %ymm4
+ {nooptimize} vpandnd %ymm2, %ymm13, %ymm4
+ {nooptimize} vpandnq %xmm2, %xmm3, %xmm14
+ {nooptimize} vpord %xmm2, %xmm3, %xmm4
+ {nooptimize} vporq %ymm12, %ymm3, %ymm4
+ {nooptimize} vpxord %ymm2, %ymm13, %ymm4
+ {nooptimize} vpxorq %xmm2, %xmm3, %xmm14