]> git.baikalelectronics.ru Git - kernel.git/commitdiff
mt76: add support for an extra wiphy in the main tx path
authorFelix Fietkau <nbd@nbd.name>
Fri, 11 Oct 2019 21:27:20 +0000 (23:27 +0200)
committerFelix Fietkau <nbd@nbd.name>
Fri, 14 Feb 2020 06:49:59 +0000 (07:49 +0100)
This is preparation for supporting multiple wiphys per device to support the
concurrent dual-band feature of MT7615D

Signed-off-by: Felix Fietkau <nbd@nbd.name>
drivers/net/wireless/mediatek/mt76/mt76.h
drivers/net/wireless/mediatek/mt76/mt7603/mac.c
drivers/net/wireless/mediatek/mt76/mt7603/main.c
drivers/net/wireless/mediatek/mt76/mt7615/main.c
drivers/net/wireless/mediatek/mt76/mt76x0/main.c
drivers/net/wireless/mediatek/mt76/mt76x02_mmio.c
drivers/net/wireless/mediatek/mt76/mt76x02_txrx.c
drivers/net/wireless/mediatek/mt76/mt76x2/pci_main.c
drivers/net/wireless/mediatek/mt76/mt76x2/usb_main.c
drivers/net/wireless/mediatek/mt76/tx.c
drivers/net/wireless/mediatek/mt76/usb.c

index 705d25f9778ac4af2be7b09f7aebdfa3d6cc90b4..4fd36b3e9440c6049b367258f0a45cd0357f52a0 100644 (file)
@@ -720,15 +720,15 @@ static inline bool mt76_is_skb_pktid(u8 pktid)
 }
 
 void mt76_rx(struct mt76_dev *dev, enum mt76_rxq_id q, struct sk_buff *skb);
-void mt76_tx(struct mt76_dev *dev, struct ieee80211_sta *sta,
+void mt76_tx(struct mt76_phy *dev, struct ieee80211_sta *sta,
             struct mt76_wcid *wcid, struct sk_buff *skb);
 void mt76_txq_init(struct mt76_dev *dev, struct ieee80211_txq *txq);
 void mt76_txq_remove(struct mt76_dev *dev, struct ieee80211_txq *txq);
 void mt76_wake_tx_queue(struct ieee80211_hw *hw, struct ieee80211_txq *txq);
 void mt76_stop_tx_queues(struct mt76_dev *dev, struct ieee80211_sta *sta,
                         bool send_bar);
-void mt76_txq_schedule(struct mt76_dev *dev, enum mt76_txq_id qid);
-void mt76_txq_schedule_all(struct mt76_dev *dev);
+void mt76_txq_schedule(struct mt76_phy *phy, enum mt76_txq_id qid);
+void mt76_txq_schedule_all(struct mt76_phy *phy);
 void mt76_tx_tasklet(unsigned long data);
 void mt76_release_buffered_frames(struct ieee80211_hw *hw,
                                  struct ieee80211_sta *sta,
index 812d081ad943f202c6a9380a50440a16efcb5c83..31611195251bcc315fe663a81b825b73bf65572f 100644 (file)
@@ -1392,7 +1392,7 @@ static void mt7603_mac_watchdog_reset(struct mt7603_dev *dev)
        set_bit(MT76_RESET, &dev->mt76.state);
 
        /* lock/unlock all queues to ensure that no tx is pending */
-       mt76_txq_schedule_all(&dev->mt76);
+       mt76_txq_schedule_all(&dev->mphy);
 
        tasklet_disable(&dev->mt76.tx_tasklet);
        tasklet_disable(&dev->mt76.pre_tbtt_tasklet);
@@ -1456,7 +1456,7 @@ skip_dma_reset:
        napi_schedule(&dev->mt76.napi[1]);
 
        ieee80211_wake_queues(dev->mt76.hw);
-       mt76_txq_schedule_all(&dev->mt76);
+       mt76_txq_schedule_all(&dev->mphy);
 }
 
 static u32 mt7603_dma_debug(struct mt7603_dev *dev, u8 index)
index 962e2822d19fa755ab43489d1f28b0a1bfd30884..b10bf9da3798b3ed3b8665e3595771ccc8d8370a 100644 (file)
@@ -178,7 +178,7 @@ mt7603_set_channel(struct mt7603_dev *dev, struct cfg80211_chan_def *def)
 
        clear_bit(MT76_RESET, &dev->mt76.state);
 
-       mt76_txq_schedule_all(&dev->mt76);
+       mt76_txq_schedule_all(&dev->mphy);
 
        ieee80211_queue_delayed_work(mt76_hw(dev), &dev->mt76.mac_work,
                                     msecs_to_jiffies(MT7603_WATCHDOG_TIME));
@@ -667,7 +667,7 @@ static void mt7603_tx(struct ieee80211_hw *hw,
                wcid = &mvif->sta.wcid;
        }
 
-       mt76_tx(&dev->mt76, control->sta, wcid, skb);
+       mt76_tx(&dev->mphy, control->sta, wcid, skb);
 }
 
 const struct ieee80211_ops mt7603_ops = {
index 070b0340389436e76f76308920e36741ec0c3d4a..c55609c06fc40698007afd2bbf654d1ff8067932 100644 (file)
@@ -171,7 +171,7 @@ out:
        clear_bit(MT76_RESET, &dev->mt76.state);
        mutex_unlock(&dev->mt76.mutex);
 
-       mt76_txq_schedule_all(&dev->mt76);
+       mt76_txq_schedule_all(&dev->mphy);
        ieee80211_queue_delayed_work(mt76_hw(dev), &dev->mt76.mac_work,
                                     MT7615_WATCHDOG_TIME);
        return ret;
@@ -458,7 +458,7 @@ static void mt7615_tx(struct ieee80211_hw *hw,
                wcid = &mvif->sta.wcid;
        }
 
-       mt76_tx(&dev->mt76, control->sta, wcid, skb);
+       mt76_tx(&dev->mphy, control->sta, wcid, skb);
 }
 
 static int mt7615_set_rts_threshold(struct ieee80211_hw *hw, u32 val)
index b2ccf50512dc3cfde59096a5f5850ff22adf3864..bae99aa4d863c6d6c33d1e19c57498a4264145a6 100644 (file)
@@ -28,7 +28,7 @@ mt76x0_set_channel(struct mt76x02_dev *dev, struct cfg80211_chan_def *chandef)
        }
        mt76x02_pre_tbtt_enable(dev, true);
 
-       mt76_txq_schedule_all(&dev->mt76);
+       mt76_txq_schedule_all(&dev->mphy);
 }
 
 int mt76x0_config(struct ieee80211_hw *hw, u32 changed)
index 4e2371c926d8a80625b800a54e3b87d299c1f726..6006c831c0a2b224164e38a961975c99831af97f 100644 (file)
@@ -151,7 +151,7 @@ static void mt76x02_tx_tasklet(unsigned long data)
        mt76x02_mac_poll_tx_status(dev, false);
        mt76x02_process_tx_status_fifo(dev);
 
-       mt76_txq_schedule_all(&dev->mt76);
+       mt76_txq_schedule_all(&dev->mphy);
 }
 
 static int mt76x02_poll_tx(struct napi_struct *napi, int budget)
@@ -514,7 +514,7 @@ static void mt76x02_watchdog_reset(struct mt76x02_dev *dev)
                ieee80211_restart_hw(dev->mt76.hw);
        } else {
                ieee80211_wake_queues(dev->mt76.hw);
-               mt76_txq_schedule_all(&dev->mt76);
+               mt76_txq_schedule_all(&dev->mphy);
        }
 }
 
index 13825f642087f71ffc28e839b8d61ad15a9c6433..05dd531a9e1af6f4f757e23df4d13c1af9a3b6b1 100644 (file)
@@ -28,7 +28,7 @@ void mt76x02_tx(struct ieee80211_hw *hw, struct ieee80211_tx_control *control,
                wcid = &mvif->group_wcid;
        }
 
-       mt76_tx(&dev->mt76, control->sta, wcid, skb);
+       mt76_tx(&dev->mphy, control->sta, wcid, skb);
 }
 EXPORT_SYMBOL_GPL(mt76x02_tx);
 
index cfe8905ce73f4de2f470a7881d56f01714e992a7..7845e56cb23b207ee3c516a87a330c1031b64726 100644 (file)
@@ -63,7 +63,7 @@ mt76x2_set_channel(struct mt76x02_dev *dev, struct cfg80211_chan_def *chandef)
        tasklet_enable(&dev->dfs_pd.dfs_tasklet);
        tasklet_enable(&dev->mt76.pre_tbtt_tasklet);
 
-       mt76_txq_schedule_all(&dev->mt76);
+       mt76_txq_schedule_all(&dev->mphy);
 
        return ret;
 }
index 9e97204841f5d377cac2eb88be3e9abde202c01a..8a04a7bf25c03497aab4c88ee9aff97a63e81660 100644 (file)
@@ -56,7 +56,7 @@ mt76x2u_set_channel(struct mt76x02_dev *dev,
        mutex_unlock(&dev->mt76.mutex);
 
        mt76x02_pre_tbtt_enable(dev, true);
-       mt76_txq_schedule_all(&dev->mt76);
+       mt76_txq_schedule_all(&dev->mphy);
 
        return err;
 }
index 7ee91d946882e8ab7df0e97a7e70d1fea2d2beb0..d9fccbeff2065a81bfe12e181b40a8fe2b8c6366 100644 (file)
@@ -245,9 +245,10 @@ void mt76_tx_complete_skb(struct mt76_dev *dev, struct sk_buff *skb)
 EXPORT_SYMBOL_GPL(mt76_tx_complete_skb);
 
 void
-mt76_tx(struct mt76_dev *dev, struct ieee80211_sta *sta,
+mt76_tx(struct mt76_phy *phy, struct ieee80211_sta *sta,
        struct mt76_wcid *wcid, struct sk_buff *skb)
 {
+       struct mt76_dev *dev = phy->dev;
        struct ieee80211_tx_info *info = IEEE80211_SKB_CB(skb);
        struct ieee80211_hdr *hdr = (struct ieee80211_hdr *)skb->data;
        struct mt76_queue *q;
@@ -282,7 +283,7 @@ mt76_tx(struct mt76_dev *dev, struct ieee80211_sta *sta,
        dev->queue_ops->kick(dev, q);
 
        if (q->queued > q->ndesc - 8 && !q->stopped) {
-               ieee80211_stop_queue(dev->hw, skb_get_queue_mapping(skb));
+               ieee80211_stop_queue(phy->hw, skb_get_queue_mapping(skb));
                q->stopped = true;
        }
 
@@ -291,7 +292,7 @@ mt76_tx(struct mt76_dev *dev, struct ieee80211_sta *sta,
 EXPORT_SYMBOL_GPL(mt76_tx);
 
 static struct sk_buff *
-mt76_txq_dequeue(struct mt76_dev *dev, struct mt76_txq *mtxq, bool ps)
+mt76_txq_dequeue(struct mt76_phy *phy, struct mt76_txq *mtxq, bool ps)
 {
        struct ieee80211_txq *txq = mtxq_to_txq(mtxq);
        struct sk_buff *skb;
@@ -306,7 +307,7 @@ mt76_txq_dequeue(struct mt76_dev *dev, struct mt76_txq *mtxq, bool ps)
                return skb;
        }
 
-       skb = ieee80211_tx_dequeue(dev->hw, txq);
+       skb = ieee80211_tx_dequeue(phy->hw, txq);
        if (!skb)
                return NULL;
 
@@ -335,7 +336,8 @@ mt76_release_buffered_frames(struct ieee80211_hw *hw, struct ieee80211_sta *sta,
                             enum ieee80211_frame_release_type reason,
                             bool more_data)
 {
-       struct mt76_dev *dev = hw->priv;
+       struct mt76_phy *phy = hw->priv;
+       struct mt76_dev *dev = phy->dev;
        struct sk_buff *last_skb = NULL;
        struct mt76_queue *hwq = dev->q_tx[MT_TXQ_PSD].q;
        int i;
@@ -350,7 +352,7 @@ mt76_release_buffered_frames(struct ieee80211_hw *hw, struct ieee80211_sta *sta,
                        continue;
 
                do {
-                       skb = mt76_txq_dequeue(dev, mtxq, true);
+                       skb = mt76_txq_dequeue(phy, mtxq, true);
                        if (!skb)
                                break;
 
@@ -377,9 +379,10 @@ mt76_release_buffered_frames(struct ieee80211_hw *hw, struct ieee80211_sta *sta,
 EXPORT_SYMBOL_GPL(mt76_release_buffered_frames);
 
 static int
-mt76_txq_send_burst(struct mt76_dev *dev, struct mt76_sw_queue *sq,
+mt76_txq_send_burst(struct mt76_phy *phy, struct mt76_sw_queue *sq,
                    struct mt76_txq *mtxq)
 {
+       struct mt76_dev *dev = phy->dev;
        struct ieee80211_txq *txq = mtxq_to_txq(mtxq);
        enum mt76_txq_id qid = mt76_txq_get_qid(txq);
        struct mt76_wcid *wcid = mtxq->wcid;
@@ -395,7 +398,7 @@ mt76_txq_send_burst(struct mt76_dev *dev, struct mt76_sw_queue *sq,
        if (test_bit(MT_WCID_FLAG_PS, &wcid->flags))
                return 0;
 
-       skb = mt76_txq_dequeue(dev, mtxq, false);
+       skb = mt76_txq_dequeue(phy, mtxq, false);
        if (!skb)
                return 0;
 
@@ -426,7 +429,7 @@ mt76_txq_send_burst(struct mt76_dev *dev, struct mt76_sw_queue *sq,
                if (test_bit(MT76_RESET, &dev->state))
                        return -EBUSY;
 
-               skb = mt76_txq_dequeue(dev, mtxq, false);
+               skb = mt76_txq_dequeue(phy, mtxq, false);
                if (!skb)
                        break;
 
@@ -464,8 +467,9 @@ mt76_txq_send_burst(struct mt76_dev *dev, struct mt76_sw_queue *sq,
 }
 
 static int
-mt76_txq_schedule_list(struct mt76_dev *dev, enum mt76_txq_id qid)
+mt76_txq_schedule_list(struct mt76_phy *phy, enum mt76_txq_id qid)
 {
+       struct mt76_dev *dev = phy->dev;
        struct mt76_sw_queue *sq = &dev->q_tx[qid];
        struct mt76_queue *hwq = sq->q;
        struct ieee80211_txq *txq;
@@ -483,7 +487,7 @@ mt76_txq_schedule_list(struct mt76_dev *dev, enum mt76_txq_id qid)
                        break;
                }
 
-               txq = ieee80211_next_txq(dev->hw, qid);
+               txq = ieee80211_next_txq(phy->hw, qid);
                if (!txq)
                        break;
 
@@ -505,8 +509,8 @@ mt76_txq_schedule_list(struct mt76_dev *dev, enum mt76_txq_id qid)
                        spin_lock_bh(&hwq->lock);
                }
 
-               ret += mt76_txq_send_burst(dev, sq, mtxq);
-               ieee80211_return_txq(dev->hw, txq,
+               ret += mt76_txq_send_burst(phy, sq, mtxq);
+               ieee80211_return_txq(phy->hw, txq,
                                     !skb_queue_empty(&mtxq->retry_q));
        }
        spin_unlock_bh(&hwq->lock);
@@ -514,8 +518,9 @@ mt76_txq_schedule_list(struct mt76_dev *dev, enum mt76_txq_id qid)
        return ret;
 }
 
-void mt76_txq_schedule(struct mt76_dev *dev, enum mt76_txq_id qid)
+void mt76_txq_schedule(struct mt76_phy *phy, enum mt76_txq_id qid)
 {
+       struct mt76_dev *dev = phy->dev;
        struct mt76_sw_queue *sq = &dev->q_tx[qid];
        int len;
 
@@ -528,21 +533,21 @@ void mt76_txq_schedule(struct mt76_dev *dev, enum mt76_txq_id qid)
        rcu_read_lock();
 
        do {
-               ieee80211_txq_schedule_start(dev->hw, qid);
-               len = mt76_txq_schedule_list(dev, qid);
-               ieee80211_txq_schedule_end(dev->hw, qid);
+               ieee80211_txq_schedule_start(phy->hw, qid);
+               len = mt76_txq_schedule_list(phy, qid);
+               ieee80211_txq_schedule_end(phy->hw, qid);
        } while (len > 0);
 
        rcu_read_unlock();
 }
 EXPORT_SYMBOL_GPL(mt76_txq_schedule);
 
-void mt76_txq_schedule_all(struct mt76_dev *dev)
+void mt76_txq_schedule_all(struct mt76_phy *phy)
 {
        int i;
 
        for (i = 0; i <= MT_TXQ_BK; i++)
-               mt76_txq_schedule(dev, i);
+               mt76_txq_schedule(phy, i);
 }
 EXPORT_SYMBOL_GPL(mt76_txq_schedule_all);
 
@@ -550,7 +555,9 @@ void mt76_tx_tasklet(unsigned long data)
 {
        struct mt76_dev *dev = (struct mt76_dev *)data;
 
-       mt76_txq_schedule_all(dev);
+       mt76_txq_schedule_all(&dev->phy);
+       if (dev->phy2)
+               mt76_txq_schedule_all(dev->phy2);
 }
 
 void mt76_stop_tx_queues(struct mt76_dev *dev, struct ieee80211_sta *sta,
@@ -578,7 +585,8 @@ EXPORT_SYMBOL_GPL(mt76_stop_tx_queues);
 
 void mt76_wake_tx_queue(struct ieee80211_hw *hw, struct ieee80211_txq *txq)
 {
-       struct mt76_dev *dev = hw->priv;
+       struct mt76_phy *phy = hw->priv;
+       struct mt76_dev *dev = phy->dev;
 
        if (!test_bit(MT76_STATE_RUNNING, &dev->state))
                return;
index 3b9849b595710eed100cb4194bb0e2125b397493..ea5eeaf2dd044b7c29e22f7f3be612a00cc6b850 100644 (file)
@@ -694,7 +694,7 @@ static void mt76u_tx_tasklet(unsigned long data)
 
                spin_unlock_bh(&q->lock);
 
-               mt76_txq_schedule(dev, i);
+               mt76_txq_schedule(&dev->phy, i);
 
                if (!test_and_set_bit(MT76_READING_STATS, &dev->state))
                        queue_work(dev->usb.stat_wq, &dev->usb.stat_work);