Merge remote-tracking branch 'lightnvm/for-next'
[deliverable/linux.git] / drivers / net / ethernet / atheros / alx / main.c
index 4eb17daefc4fc2243084c6a84181626d90dd4807..9887cee434dd1f16bebf22e7661c0ba5b6d0a4f5 100644 (file)
@@ -51,6 +51,9 @@
 
 const char alx_drv_name[] = "alx";
 
+static bool msix = false;
+module_param(msix, bool, 0);
+MODULE_PARM_DESC(msix, "Enable msi-x interrupt support");
 
 static void alx_free_txbuf(struct alx_priv *alx, int entry)
 {
@@ -292,32 +295,29 @@ static int alx_poll(struct napi_struct *napi, int budget)
        napi_complete(&alx->napi);
 
        /* enable interrupt */
-       spin_lock_irqsave(&alx->irq_lock, flags);
-       alx->int_mask |= ALX_ISR_TX_Q0 | ALX_ISR_RX_Q0;
-       alx_write_mem32(hw, ALX_IMR, alx->int_mask);
-       spin_unlock_irqrestore(&alx->irq_lock, flags);
+       if (alx->flags & ALX_FLAG_USING_MSIX) {
+               alx_mask_msix(hw, 1, false);
+       } else {
+               spin_lock_irqsave(&alx->irq_lock, flags);
+               alx->int_mask |= ALX_ISR_TX_Q0 | ALX_ISR_RX_Q0;
+               alx_write_mem32(hw, ALX_IMR, alx->int_mask);
+               spin_unlock_irqrestore(&alx->irq_lock, flags);
+       }
 
        alx_post_write(hw);
 
        return work;
 }
 
-static irqreturn_t alx_intr_handle(struct alx_priv *alx, u32 intr)
+static bool alx_intr_handle_misc(struct alx_priv *alx, u32 intr)
 {
        struct alx_hw *hw = &alx->hw;
-       bool write_int_mask = false;
-
-       spin_lock(&alx->irq_lock);
-
-       /* ACK interrupt */
-       alx_write_mem32(hw, ALX_ISR, intr | ALX_ISR_DIS);
-       intr &= alx->int_mask;
 
        if (intr & ALX_ISR_FATAL) {
                netif_warn(alx, hw, alx->dev,
                           "fatal interrupt 0x%x, resetting\n", intr);
                alx_schedule_reset(alx);
-               goto out;
+               return true;
        }
 
        if (intr & ALX_ISR_ALERT)
@@ -329,19 +329,32 @@ static irqreturn_t alx_intr_handle(struct alx_priv *alx, u32 intr)
                 * is cleared, the interrupt status could be cleared.
                 */
                alx->int_mask &= ~ALX_ISR_PHY;
-               write_int_mask = true;
+               alx_write_mem32(hw, ALX_IMR, alx->int_mask);
                alx_schedule_link_check(alx);
        }
 
+       return false;
+}
+
+static irqreturn_t alx_intr_handle(struct alx_priv *alx, u32 intr)
+{
+       struct alx_hw *hw = &alx->hw;
+
+       spin_lock(&alx->irq_lock);
+
+       /* ACK interrupt */
+       alx_write_mem32(hw, ALX_ISR, intr | ALX_ISR_DIS);
+       intr &= alx->int_mask;
+
+       if (alx_intr_handle_misc(alx, intr))
+               goto out;
+
        if (intr & (ALX_ISR_TX_Q0 | ALX_ISR_RX_Q0)) {
                napi_schedule(&alx->napi);
                /* mask rx/tx interrupt, enable them when napi complete */
                alx->int_mask &= ~ALX_ISR_ALL_QUEUES;
-               write_int_mask = true;
-       }
-
-       if (write_int_mask)
                alx_write_mem32(hw, ALX_IMR, alx->int_mask);
+       }
 
        alx_write_mem32(hw, ALX_ISR, 0);
 
@@ -350,6 +363,46 @@ static irqreturn_t alx_intr_handle(struct alx_priv *alx, u32 intr)
        return IRQ_HANDLED;
 }
 
+static irqreturn_t alx_intr_msix_ring(int irq, void *data)
+{
+       struct alx_priv *alx = data;
+       struct alx_hw *hw = &alx->hw;
+
+       /* mask interrupt to ACK chip */
+       alx_mask_msix(hw, 1, true);
+       /* clear interrupt status */
+       alx_write_mem32(hw, ALX_ISR, (ALX_ISR_TX_Q0 | ALX_ISR_RX_Q0));
+
+       napi_schedule(&alx->napi);
+
+       return IRQ_HANDLED;
+}
+
+static irqreturn_t alx_intr_msix_misc(int irq, void *data)
+{
+       struct alx_priv *alx = data;
+       struct alx_hw *hw = &alx->hw;
+       u32 intr;
+
+       /* mask interrupt to ACK chip */
+       alx_mask_msix(hw, 0, true);
+
+       /* read interrupt status */
+       intr = alx_read_mem32(hw, ALX_ISR);
+       intr &= (alx->int_mask & ~ALX_ISR_ALL_QUEUES);
+
+       if (alx_intr_handle_misc(alx, intr))
+               return IRQ_HANDLED;
+
+       /* clear interrupt status */
+       alx_write_mem32(hw, ALX_ISR, intr);
+
+       /* enable interrupt again */
+       alx_mask_msix(hw, 0, false);
+
+       return IRQ_HANDLED;
+}
+
 static irqreturn_t alx_intr_msi(int irq, void *data)
 {
        struct alx_priv *alx = data;
@@ -614,31 +667,136 @@ static void alx_free_rings(struct alx_priv *alx)
 static void alx_config_vector_mapping(struct alx_priv *alx)
 {
        struct alx_hw *hw = &alx->hw;
+       u32 tbl = 0;
 
-       alx_write_mem32(hw, ALX_MSI_MAP_TBL1, 0);
+       if (alx->flags & ALX_FLAG_USING_MSIX) {
+               tbl |= 1 << ALX_MSI_MAP_TBL1_TXQ0_SHIFT;
+               tbl |= 1 << ALX_MSI_MAP_TBL1_RXQ0_SHIFT;
+       }
+
+       alx_write_mem32(hw, ALX_MSI_MAP_TBL1, tbl);
        alx_write_mem32(hw, ALX_MSI_MAP_TBL2, 0);
        alx_write_mem32(hw, ALX_MSI_ID_MAP, 0);
 }
 
+static bool alx_enable_msix(struct alx_priv *alx)
+{
+       int i, err, num_vec = 2;
+
+       alx->msix_entries = kcalloc(num_vec, sizeof(struct msix_entry),
+                                   GFP_KERNEL);
+       if (!alx->msix_entries) {
+               netdev_warn(alx->dev, "Allocation of msix entries failed!\n");
+               return false;
+       }
+
+       for (i = 0; i < num_vec; i++)
+               alx->msix_entries[i].entry = i;
+
+       err = pci_enable_msix(alx->hw.pdev, alx->msix_entries, num_vec);
+       if (err) {
+               kfree(alx->msix_entries);
+               netdev_warn(alx->dev, "Enabling MSI-X interrupts failed!\n");
+               return false;
+       }
+
+       alx->num_vec = num_vec;
+       return true;
+}
+
+static int alx_request_msix(struct alx_priv *alx)
+{
+       struct net_device *netdev = alx->dev;
+       int i, err, vector = 0, free_vector = 0;
+
+       err = request_irq(alx->msix_entries[0].vector, alx_intr_msix_misc,
+                         0, netdev->name, alx);
+       if (err)
+               goto out_err;
+
+       vector++;
+       sprintf(alx->irq_lbl, "%s-TxRx-0", netdev->name);
+
+       err = request_irq(alx->msix_entries[vector].vector,
+                         alx_intr_msix_ring, 0, alx->irq_lbl, alx);
+               if (err)
+                       goto out_free;
+
+       return 0;
+
+out_free:
+       free_irq(alx->msix_entries[free_vector++].vector, alx);
+
+       vector--;
+       for (i = 0; i < vector; i++)
+               free_irq(alx->msix_entries[free_vector++].vector, alx);
+
+out_err:
+       return err;
+}
+
+static void alx_init_intr(struct alx_priv *alx, bool msix)
+{
+       if (msix) {
+               if (alx_enable_msix(alx))
+                       alx->flags |= ALX_FLAG_USING_MSIX;
+       }
+
+       if (!(alx->flags & ALX_FLAG_USING_MSIX)) {
+               alx->num_vec = 1;
+
+               if (!pci_enable_msi(alx->hw.pdev))
+                       alx->flags |= ALX_FLAG_USING_MSI;
+       }
+}
+
+static void alx_disable_advanced_intr(struct alx_priv *alx)
+{
+       if (alx->flags & ALX_FLAG_USING_MSIX) {
+               kfree(alx->msix_entries);
+               pci_disable_msix(alx->hw.pdev);
+               alx->flags &= ~ALX_FLAG_USING_MSIX;
+       }
+
+       if (alx->flags & ALX_FLAG_USING_MSI) {
+               pci_disable_msi(alx->hw.pdev);
+               alx->flags &= ~ALX_FLAG_USING_MSI;
+       }
+}
+
 static void alx_irq_enable(struct alx_priv *alx)
 {
        struct alx_hw *hw = &alx->hw;
+       int i;
 
        /* level-1 interrupt switch */
        alx_write_mem32(hw, ALX_ISR, 0);
        alx_write_mem32(hw, ALX_IMR, alx->int_mask);
        alx_post_write(hw);
+
+       if (alx->flags & ALX_FLAG_USING_MSIX)
+               /* enable all msix irqs */
+               for (i = 0; i < alx->num_vec; i++)
+                       alx_mask_msix(hw, i, false);
 }
 
 static void alx_irq_disable(struct alx_priv *alx)
 {
        struct alx_hw *hw = &alx->hw;
+       int i;
 
        alx_write_mem32(hw, ALX_ISR, ALX_ISR_DIS);
        alx_write_mem32(hw, ALX_IMR, 0);
        alx_post_write(hw);
 
-       synchronize_irq(alx->hw.pdev->irq);
+       if (alx->flags & ALX_FLAG_USING_MSIX) {
+               for (i = 0; i < alx->num_vec; i++) {
+                       alx_mask_msix(hw, i, true);
+                       synchronize_irq(alx->msix_entries[i].vector);
+               }
+       } else {
+               synchronize_irq(alx->hw.pdev->irq);
+       }
 }
 
 static int alx_request_irq(struct alx_priv *alx)
@@ -650,9 +808,18 @@ static int alx_request_irq(struct alx_priv *alx)
 
        msi_ctrl = (hw->imt >> 1) << ALX_MSI_RETRANS_TM_SHIFT;
 
-       if (!pci_enable_msi(alx->hw.pdev)) {
-               alx->msi = true;
+       if (alx->flags & ALX_FLAG_USING_MSIX) {
+               alx_write_mem32(hw, ALX_MSI_RETRANS_TIMER, msi_ctrl);
+               err = alx_request_msix(alx);
+               if (!err)
+                       goto out;
+
+               /* msix request failed, realloc resources */
+               alx_disable_advanced_intr(alx);
+               alx_init_intr(alx, false);
+       }
 
+       if (alx->flags & ALX_FLAG_USING_MSI) {
                alx_write_mem32(hw, ALX_MSI_RETRANS_TIMER,
                                msi_ctrl | ALX_MSI_MASK_SEL_LINE);
                err = request_irq(pdev->irq, alx_intr_msi, 0,
@@ -660,6 +827,7 @@ static int alx_request_irq(struct alx_priv *alx)
                if (!err)
                        goto out;
                /* fall back to legacy interrupt */
+               alx->flags &= ~ALX_FLAG_USING_MSI;
                pci_disable_msi(alx->hw.pdev);
        }
 
@@ -669,19 +837,25 @@ static int alx_request_irq(struct alx_priv *alx)
 out:
        if (!err)
                alx_config_vector_mapping(alx);
+       else
+               netdev_err(alx->dev, "IRQ registration failed!\n");
        return err;
 }
 
 static void alx_free_irq(struct alx_priv *alx)
 {
        struct pci_dev *pdev = alx->hw.pdev;
+       int i;
 
-       free_irq(pdev->irq, alx);
-
-       if (alx->msi) {
-               pci_disable_msi(alx->hw.pdev);
-               alx->msi = false;
+       if (alx->flags & ALX_FLAG_USING_MSIX) {
+               /* we have only 2 vectors without multi queue support */
+               for (i = 0; i < 2; i++)
+                       free_irq(alx->msix_entries[i].vector, alx);
+       } else {
+               free_irq(pdev->irq, alx);
        }
+
+       alx_disable_advanced_intr(alx);
 }
 
 static int alx_identify_hw(struct alx_priv *alx)
@@ -847,6 +1021,8 @@ static int __alx_open(struct alx_priv *alx, bool resume)
 {
        int err;
 
+       alx_init_intr(alx, msix);
+
        if (!resume)
                netif_carrier_off(alx->dev);
 
@@ -993,6 +1169,18 @@ static void alx_reset(struct work_struct *work)
        rtnl_unlock();
 }
 
+static int alx_tpd_req(struct sk_buff *skb)
+{
+       int num;
+
+       num = skb_shinfo(skb)->nr_frags + 1;
+       /* we need one extra descriptor for LSOv2 */
+       if (skb_is_gso(skb) && skb_shinfo(skb)->gso_type & SKB_GSO_TCPV6)
+               num++;
+
+       return num;
+}
+
 static int alx_tx_csum(struct sk_buff *skb, struct alx_txd *first)
 {
        u8 cso, css;
@@ -1012,6 +1200,45 @@ static int alx_tx_csum(struct sk_buff *skb, struct alx_txd *first)
        return 0;
 }
 
+static int alx_tso(struct sk_buff *skb, struct alx_txd *first)
+{
+       int err;
+
+       if (skb->ip_summed != CHECKSUM_PARTIAL)
+               return 0;
+
+       if (!skb_is_gso(skb))
+               return 0;
+
+       err = skb_cow_head(skb, 0);
+       if (err < 0)
+               return err;
+
+       if (skb->protocol == htons(ETH_P_IP)) {
+               struct iphdr *iph = ip_hdr(skb);
+
+               iph->check = 0;
+               tcp_hdr(skb)->check = ~csum_tcpudp_magic(iph->saddr, iph->daddr,
+                                                        0, IPPROTO_TCP, 0);
+               first->word1 |= 1 << TPD_IPV4_SHIFT;
+       } else if (skb_is_gso_v6(skb)) {
+               ipv6_hdr(skb)->payload_len = 0;
+               tcp_hdr(skb)->check = ~csum_ipv6_magic(&ipv6_hdr(skb)->saddr,
+                                                      &ipv6_hdr(skb)->daddr,
+                                                      0, IPPROTO_TCP, 0);
+               /* LSOv2: the first TPD only provides the packet length */
+               first->adrl.l.pkt_len = skb->len;
+               first->word1 |= 1 << TPD_LSO_V2_SHIFT;
+       }
+
+       first->word1 |= 1 << TPD_LSO_EN_SHIFT;
+       first->word1 |= (skb_transport_offset(skb) &
+                        TPD_L4HDROFFSET_MASK) << TPD_L4HDROFFSET_SHIFT;
+       first->word1 |= (skb_shinfo(skb)->gso_size &
+                        TPD_MSS_MASK) << TPD_MSS_SHIFT;
+       return 1;
+}
+
 static int alx_map_tx_skb(struct alx_priv *alx, struct sk_buff *skb)
 {
        struct alx_tx_queue *txq = &alx->txq;
@@ -1022,6 +1249,16 @@ static int alx_map_tx_skb(struct alx_priv *alx, struct sk_buff *skb)
        first_tpd = &txq->tpd[txq->write_idx];
        tpd = first_tpd;
 
+       if (tpd->word1 & (1 << TPD_LSO_V2_SHIFT)) {
+               if (++txq->write_idx == alx->tx_ringsz)
+                       txq->write_idx = 0;
+
+               tpd = &txq->tpd[txq->write_idx];
+               tpd->len = first_tpd->len;
+               tpd->vlan_tag = first_tpd->vlan_tag;
+               tpd->word1 = first_tpd->word1;
+       }
+
        maplen = skb_headlen(skb);
        dma = dma_map_single(&alx->hw.pdev->dev, skb->data, maplen,
                             DMA_TO_DEVICE);
@@ -1082,9 +1319,9 @@ static netdev_tx_t alx_start_xmit(struct sk_buff *skb,
        struct alx_priv *alx = netdev_priv(netdev);
        struct alx_tx_queue *txq = &alx->txq;
        struct alx_txd *first;
-       int tpdreq = skb_shinfo(skb)->nr_frags + 1;
+       int tso;
 
-       if (alx_tpd_avail(alx) < tpdreq) {
+       if (alx_tpd_avail(alx) < alx_tpd_req(skb)) {
                netif_stop_queue(alx->dev);
                goto drop;
        }
@@ -1092,7 +1329,10 @@ static netdev_tx_t alx_start_xmit(struct sk_buff *skb,
        first = &txq->tpd[txq->write_idx];
        memset(first, 0, sizeof(*first));
 
-       if (alx_tx_csum(skb, first))
+       tso = alx_tso(skb, first);
+       if (tso < 0)
+               goto drop;
+       else if (!tso && alx_tx_csum(skb, first))
                goto drop;
 
        if (alx_map_tx_skb(alx, skb) < 0)
@@ -1172,7 +1412,10 @@ static void alx_poll_controller(struct net_device *netdev)
 {
        struct alx_priv *alx = netdev_priv(netdev);
 
-       if (alx->msi)
+       if (alx->flags & ALX_FLAG_USING_MSIX) {
+               alx_intr_msix_misc(0, alx);
+               alx_intr_msix_ring(0, alx);
+       } else if (alx->flags & ALX_FLAG_USING_MSI)
                alx_intr_msi(0, alx);
        else
                alx_intr_legacy(0, alx);
@@ -1351,7 +1594,10 @@ static int alx_probe(struct pci_dev *pdev, const struct pci_device_id *ent)
                }
        }
 
-       netdev->hw_features = NETIF_F_SG | NETIF_F_HW_CSUM;
+       netdev->hw_features = NETIF_F_SG |
+                             NETIF_F_HW_CSUM |
+                             NETIF_F_TSO |
+                             NETIF_F_TSO6;
 
        if (alx_get_perm_macaddr(hw, hw->perm_addr)) {
                dev_warn(&pdev->dev,
This page took 0.18975 seconds and 5 git commands to generate.