]> git.baikalelectronics.ru Git - kernel.git/commitdiff
net/mlx5e: IPsec, Inline feature_check fast-path function
authorTariq Toukan <tariqt@nvidia.com>
Tue, 12 Jan 2021 07:05:33 +0000 (23:05 -0800)
committerJakub Kicinski <kuba@kernel.org>
Wed, 13 Jan 2021 23:45:58 +0000 (15:45 -0800)
Feature check functions are in the TX fast-path of all SKBs, not only
IPsec traffic.
Move the IPsec feature check function into a header and turn it inline.
Use a stub and clean the config flag condition in Eth main driver file.

Signed-off-by: Tariq Toukan <tariqt@nvidia.com>
Reviewed-by: Raed Salem <raeds@nvidia.com>
Reviewed-by: Huy Nguyen <huyn@nvidia.com>
Signed-off-by: Saeed Mahameed <saeedm@nvidia.com>
Signed-off-by: Jakub Kicinski <kuba@kernel.org>
drivers/net/ethernet/mellanox/mlx5/core/en_accel/ipsec_rxtx.c
drivers/net/ethernet/mellanox/mlx5/core/en_accel/ipsec_rxtx.h
drivers/net/ethernet/mellanox/mlx5/core/en_main.c

index a9b45606dbdb7f6768a603d77e7ccb8253be6b31..a97e8d205094dce07f934b4e52d8278bb793e182 100644 (file)
@@ -497,20 +497,6 @@ void mlx5e_ipsec_offload_handle_rx_skb(struct net_device *netdev,
        }
 }
 
-bool mlx5e_ipsec_feature_check(struct sk_buff *skb, struct net_device *netdev,
-                              netdev_features_t features)
-{
-       struct sec_path *sp = skb_sec_path(skb);
-       struct xfrm_state *x;
-
-       if (sp && sp->len) {
-               x = sp->xvec[0];
-               if (x && x->xso.offload_handle)
-                       return true;
-       }
-       return false;
-}
-
 void mlx5e_ipsec_build_inverse_table(void)
 {
        u16 mss_inv;
index fabf4b6b2b84899b51825711bdc8f6816222d80a..3e80742a3caf5d70ccbd17f12f3a6b04a74fe2b7 100644 (file)
@@ -57,8 +57,6 @@ struct sk_buff *mlx5e_ipsec_handle_rx_skb(struct net_device *netdev,
                                          struct sk_buff *skb, u32 *cqe_bcnt);
 
 void mlx5e_ipsec_inverse_table_init(void);
-bool mlx5e_ipsec_feature_check(struct sk_buff *skb, struct net_device *netdev,
-                              netdev_features_t features);
 void mlx5e_ipsec_set_iv_esn(struct sk_buff *skb, struct xfrm_state *x,
                            struct xfrm_offload *xo);
 void mlx5e_ipsec_set_iv(struct sk_buff *skb, struct xfrm_state *x,
@@ -94,6 +92,21 @@ static inline bool mlx5e_ipsec_eseg_meta(struct mlx5_wqe_eth_seg *eseg)
 
 void mlx5e_ipsec_tx_build_eseg(struct mlx5e_priv *priv, struct sk_buff *skb,
                               struct mlx5_wqe_eth_seg *eseg);
+
+static inline bool mlx5e_ipsec_feature_check(struct sk_buff *skb, struct net_device *netdev,
+                                            netdev_features_t features)
+{
+       struct sec_path *sp = skb_sec_path(skb);
+
+       if (sp && sp->len) {
+               struct xfrm_state *x = sp->xvec[0];
+
+               if (x && x->xso.offload_handle)
+                       return true;
+       }
+       return false;
+}
+
 #else
 static inline
 void mlx5e_ipsec_offload_handle_rx_skb(struct net_device *netdev,
@@ -107,6 +120,8 @@ static inline bool mlx5e_ipsec_eseg_meta(struct mlx5_wqe_eth_seg *eseg)
 }
 
 static inline bool mlx5_ipsec_is_rx_flow(struct mlx5_cqe64 *cqe) { return false; }
+static inline bool mlx5e_ipsec_feature_check(struct sk_buff *skb, struct net_device *netdev,
+                                            netdev_features_t features) { return false; }
 #endif /* CONFIG_MLX5_EN_IPSEC */
 
 #endif /* __MLX5E_IPSEC_RXTX_H__ */
index 1f66756f66f99379b29d28c11e0b68056f45c056..ee86b2b57f4dd1b56a9bb6fc797187940c046cee 100644 (file)
@@ -4376,10 +4376,8 @@ netdev_features_t mlx5e_features_check(struct sk_buff *skb,
        features = vlan_features_check(skb, features);
        features = vxlan_features_check(skb, features);
 
-#ifdef CONFIG_MLX5_EN_IPSEC
        if (mlx5e_ipsec_feature_check(skb, netdev, features))
                return features;
-#endif
 
        /* Validate if the tunneled packet is being offloaded by HW */
        if (skb->encapsulation &&