Le secteur du commerce électronique est très concurrentiel. Les commerçants doivent constamment consulter les sites Web de leurs homologues pour garder une longueur d'avance. Que vous ayez besoin de suivre les prix, de surveiller les niveaux de stock ou de recueillir les avis des clients, l'accès à ces données peut fournir des informations précieuses. Cependant, de nombreux sites de commerce électronique ont mis en place des mesures pour empêcher le scraping automatisé des données. C'est là que les proxys rotatifs entrent en jeu.

Les proxys rotatifs vous permettent de récupérer des données sur des sites Web sans être bloqué. En faisant tourner votre adresse IP à chaque requête, vous pouvez imiter le comportement de navigation humaine et éviter d'être détecté.

Dans ce guide, nous allons aborder les bases des proxys rotatifs pour le scraping Web, en expliquant ce qu'ils sont et pourquoi ils sont essentiels pour récupérer avec succès les données des sites Web de commerce électronique. Nous fournirons également des instructions pratiques sur la façon d'utiliser les proxys rotatifs pour maximiser vos efforts de scraping.

Plongeons dedans!

Table des Matières

  1. Que sont les proxys rotatifs ?
  • Comment fonctionnent les proxys rotatifs
  • Principales caractéristiques des proxys rotatifs
  1. Pourquoi utiliser des proxys rotatifs pour les données de commerce électronique
  2. Configuration de votre environnement
  3. Mise en œuvre de proxys rotatifs
  • Choisir un fournisseur de proxy
  • Configuration de votre Scraper
  • Gestion de la rotation des IP
  1. Extraction des données de commerce électronique
  • Informations sur le produit de grattage
  • Prix ​​de grattage
  • Avis sur le grattage
  • Disponibilité des stocks de grattage
  1. Bonnes pratiques pour l'utilisation de proxys rotatifs
  2. Dépannage des problèmes courants
  3. Réflexions finales
  4. Foire aux questions (FAQ)

Que sont les proxys rotatifs ?

Les proxys rotatifs sont un type de configuration de serveur proxy qui attribue une nouvelle adresse IP à chaque connexion établie avec le site Web cible. C'est ce qu'on appelle la rotation IP. Lorsque vous utilisez des proxys rotatifs, chaque requête que vous envoyez au site Web provient d'une adresse IP différente, ce qui donne l'impression que les requêtes proviennent de différents utilisateurs du monde entier.

Comment fonctionnent les proxys rotatifs

Lorsque vous vous connectez à un site Web à l'aide d'un proxy rotatif, votre demande est acheminée via un pool d'adresses IP. Chaque fois que vous effectuez une nouvelle demande, une adresse IP différente de ce pool est utilisée. Il est donc plus difficile pour les sites Web de détecter et de bloquer votre activité de scraping, car vos demandes ne semblent pas provenir d'une source unique.

Principales caractéristiques des proxys rotatifs

  • Rotation IP automatique:Les adresses IP changent automatiquement en fonction de règles prédéfinies, par exemple après un certain nombre de requêtes ou une période définie.
  • l'anonymat:Les proxys rotatifs masquent votre véritable adresse IP, offrant ainsi l'anonymat de vos activités Web.
  • Fiabilité:En utilisant plusieurs adresses IP, les proxys rotatifs garantissent un accès continu aux sites Web cibles sans interruption.

Les proxys rotatifs sont des outils essentiels pour quiconque a besoin de récupérer des données de manière efficace et efficiente tout en minimisant le risque d'être détecté ou bloqué.

Pourquoi devriez-vous utiliser des proxys rotatifs pour récupérer des données de commerce électronique sur le Web

L'utilisation de proxys rotatifs pour le scraping de données de commerce électronique est essentielle pour plusieurs raisons. Les proxys rotatifs garantissent que vos efforts de collecte de données sont efficaces, fiables et ininterrompus. Voici les principaux avantages de l'utilisation de proxys rotatifs pour le scraping de données de commerce électronique :

Éviter le blocage IP

Lorsque vous récupérez des sites de commerce électronique, l'envoi de trop de requêtes à partir de la même adresse IP peut entraîner un blocage de l'IP. Les sites Web disposent souvent de mesures de sécurité pour détecter et bloquer les adresses IP qui effectuent des requêtes fréquentes. En utilisant un proxy rotatif, chaque requête provient d'une adresse IP différente, ce qui réduit le risque d'être bloqué.

Contournement des limites de débit

De nombreux sites de commerce électronique imposent des limites de débit, limitant le nombre de requêtes qu'une adresse IP peut effectuer au cours d'une certaine période. Les proxys rotatifs permettent de contourner ces limites en répartissant les requêtes sur plusieurs adresses IP. Cela vous permet de collecter des données plus rapidement sans interruption.

Accéder aux données géo-restreintes

Certains sites de commerce électronique affichent un contenu différent en fonction de l'emplacement de l'utilisateur. Les proxys rotatifs peuvent fournir des adresses IP de différentes régions, vous permettant ainsi d'accéder à des données géo-restreintes. Cela est particulièrement utile pour la comparaison des prix et les études de marché, car vous pouvez voir les prix et les produits disponibles dans différents endroits.

Imiter le comportement humain

Les sites Web sont conçus pour détecter et bloquer les activités de scraping automatisées. L'utilisation de proxys rotatifs donne l'impression que vos requêtes proviennent de différents utilisateurs du monde entier. Cela imite le comportement humain naturel, ce qui réduit la probabilité que vos activités de scraping soient détectées et bloquées.

Collecte de données complètes

Pour prendre des décisions commerciales éclairées, vous avez besoin de données de commerce électronique complètes et précises. Les proxys rotatifs vous permettent d'extraire en continu des données provenant de plusieurs sources sans interruption. Cela vous permet de collecter de gros volumes de données, notamment les détails des produits, les prix, les avis et la disponibilité des stocks, ce qui vous donne une image complète du marché.

Améliorer la fiabilité des données

L'utilisation de proxys rotatifs améliore la fiabilité des données que vous collectez. Étant donné que les requêtes proviennent de différentes adresses IP, les risques de blocage sont minimisés, ce qui garantit un flux d'informations constant. Des données fiables sont essentielles pour une analyse et une prise de décision précises dans le commerce électronique.

L'utilisation de proxys rotatifs est essentielle pour quiconque cherche à extraire efficacement les données du commerce électronique. En incorporant des proxys rotatifs dans votre stratégie de scraping, vous pouvez obtenir de meilleurs résultats avec moins d'obstacles.

Configuration de votre environnement

Pour commencer à utiliser des proxys rotatifs pour le scraping de données de commerce électronique, vous devez configurer votre environnement avec les outils et bibliothèques nécessaires. Voici un guide étape par étape :

  1. Installer Python: Assurez-vous que Python est installé sur votre système. Vous pouvez vérifier en exécutant la commande suivante dans votre terminal.
1
python --version
  1. Configurer un environnement virtuel: Créez un environnement virtuel pour gérer les dépendances de votre projet. Accédez au répertoire de votre projet et exécutez :
1
python -m venv ecommerce_scraper

Activez l'environnement :

  • Sur Windows:

    1
    ecommerce_scraper\Scripts\activer
  • Sous macOS/Linux :

    1
    source ecommerce_scraper/bin/activate
  1. Installer les bibliothèques requises:Installez les bibliothèques nécessaires en utilisant pip :
1
demandes d'installation pip beautifulsoup4
  • Demandes:Une bibliothèque populaire pour faire des requêtes HTTP.
  • BelleSoupe4: Une bibliothèque pour l'analyse HTML et l'extraction de données de pages web. Pour sécuriser l'accès à vos identifiants proxy, pensez à utiliser un gestionnaire de mots de passe pour stocker et protéger les informations sensibles telles que les clés API et les jetons d'accès. Adopter des pratiques de mots de passe sécurisées peut contribuer à prévenir les accès non autorisés et à protéger vos données lors des sessions de scraping.

Mise en œuvre de proxys rotatifs

La mise en œuvre efficace de proxys rotatifs est essentielle pour réussir le scraping Web. Cette section vous guidera dans le choix d'un fournisseur de proxy, la configuration de votre scraper et la gestion de la rotation IP.

Choisir un fournisseur de proxy

Lors du choix d'un fournisseur de proxy, la fiabilité et les performances sont essentielles. Un bon fournisseur de proxy propose un large pool d'adresses IP, des vitesses de connexion rapides et un support client fiable. Crawlbase est connu pour ses services de proxy rotatifs robustes.

Pour ce guide, nous vous recommandons d'utiliser CrawlbaseProxy IA intelligent de après-vente. Inscrivez-vous maintenant et obtenez vos informations d'identification Smart AI Proxy.

Pourquoi choisir Crawlbase Proxy IA intelligent ?

  • Grand pool IP:Accès à un grand nombre d'adresses IP pour minimiser le risque d'être bloqué.
  • Rotation IP automatique:Simplifie le processus en faisant tourner automatiquement les adresses IP.
  • Haute vitesse: Assure une récupération rapide et efficace des données.
  • Soutien fiable: Fournit une assistance si vous rencontrez des problèmes.

Configuration de votre Scraper

Une fois votre fournisseur de proxy choisi, l'étape suivante consiste à configurer votre scraper web pour utiliser ces proxys. Voici comment configurer votre scraper Python avec Crawlbase Proxy IA intelligent :

Configurer les informations d'identification du proxy

Obtenez vos informations d'identification proxy (URL, nom d'utilisateur et mot de passe) à partir de Crawlbase.

Configurer les requêtes pour utiliser des proxys

Voici un exemple de configuration de la bibliothèque de requêtes à utiliser Crawlbase Proxy IA intelligent :

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
importer demandes
à partir de bs4 importer BeautifulSoup

# Ton Crawlbase Informations d'identification du proxy Smart AI
url_proxy = "smartproxy.crawlbase.com:8012"
jeton_utilisateur = "VOTRE_JETON_D'ACCÈS"

# Créer un dictionnaire de proxys
mandataires = {
"http": f"http://{jeton_utilisateur}@{proxy_url}",
« https »: f"http://{jeton_utilisateur}@{proxy_url}",
}

# Exemple de fonction pour récupérer une page Web
def gratter_page(url):
réponse = requêtes.get(url, proxies=proxies)
if réponse.status_code == 200:
soupe = BeautifulSoup(response.content, « Parseur HTML »)
retourner soupe
d'autre:
impression(« Impossible de récupérer la page »)
retourner Aucun

# Tester le grattoir
URL = "http://httpbin.org/ip"
soupe = scrape_page(url)
if soupe:
impression(soupe)

Gestion de la rotation des IP

La gestion de la rotation des adresses IP est essentielle pour éviter d'être détecté et bloqué par le site web que vous récupérez. Voici comment gérer la rotation des adresses IP avec Crawlbase:

Rotation IP automatique

CrawlbaseLe service Smart AI Proxy de s'occupe automatiquement de la rotation des adresses IP. Vous n'avez donc pas besoin de changer manuellement d'adresse IP pendant vos sessions de scraping.

Rotation IP manuelle (en option)

Si vous disposez de plusieurs adresses IP de serveur proxy et que vous souhaitez les faire pivoter manuellement, vous pouvez le faire à l'aide d'une liste de proxys et d'une méthode de sélection aléatoire :

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
importer aléatoire

# Liste des proxys (mettre à jour les espaces réservés avec vos proxys)
liste_proxies = [
"IP1:PORT",
"IP2:PORT",
"IP3:PORT",
]

# Fonction pour obtenir un proxy aléatoire
def obtenir_un_proxy_aléatoire
retourner random.choice(liste_proxies)

# Exemple de fonction pour récupérer une page Web avec des proxys rotatifs
def gratter_page_avec_rotation(url):
proxy = get_random_proxy()
mandataires = {
"http": mandataire,
« https »: mandataire,
}
réponse = requêtes.get(url, proxies=proxies)
if réponse.status_code == 200:
soupe = BeautifulSoup(response.content, « Parseur HTML »)
retourner soupe
d'autre:
impression(« Impossible de récupérer la page »)
retourner Aucun

# Tester le grattoir avec rotation
URL = "http://httpbin.org/ip"
soupe = scrape_page_with_rotation(url)
if soupe:
impression(soupe.titre.chaîne)

En suivant ces étapes, vous serez en mesure d'implémenter efficacement des proxys rotatifs dans vos projets de scraping Web. Cela vous permet de collecter efficacement des données de commerce électronique tout en minimisant le risque d'être bloqué.

Extraction des données de commerce électronique

L'extraction de données de commerce électronique à partir de sites Web comme Amazon peut fournir des informations précieuses pour la comparaison des prix, les études de marché et l'analyse concurrentielle. Dans cette section, nous verrons comment extraire des informations sur les produits, les prix, les avis et la disponibilité des stocks à l'aide de proxys rotatifs. Pour notre exemple, nous utiliserons une page produit Amazon.

Informations sur le produit de grattage

L'extraction d'informations sur les produits est essentielle pour recueillir des détails tels que le nom, la description et les spécifications du produit. Crawlbase Proxy IA intelligent pour la rotation des adresses IP afin d'éviter tout blocage par Amazon. Voici comment procéder :

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
importer demandes
à partir de bs4 importer BeautifulSoup

url_proxy = "smartproxy.crawlbase.com:8012"
jeton_utilisateur = "VOTRE_JETON_D'ACCÈS"

mandataires = {
"http": f"http://{jeton_utilisateur}:@{proxy_url}",
« https »: f"http://{jeton_utilisateur}:@{proxy_url}",
}

def gratter_informations_sur_le_produit(url):
réponse = requêtes.get(url, proxys=proxies, vérifier=Faux)
soupe = BeautifulSoup(response.content, « Parseur HTML »)
nom_produit = soup.find("portée", {"id": « Titre du produit »}).get_text(bande=Vrai)
description_du_produit = soupe.find("div", {"id": "Description du produit"}).get_text(bande=Vrai)
retourner {
"prénom": nom_du_produit,
"la description": description_du_produit
}

URL = "https://www.amazon.com/dp/B07BJL1GN9"
info_produit = scrape_info_produit(url)
impression(informations sur le produit)

Prix ​​de grattage

Le scraping des prix vous permet de surveiller les tendances des prix et les stratégies de prix concurrentielles.

1
2
3
4
5
6
7
8
def gratter_prix(url):
réponse = requêtes.get(url, proxys=proxies, vérifier=Faux)
soupe = BeautifulSoup(response.content, « Parseur HTML »)
prix = soup.select_one("span.a-texte-prix > span").get_text(bande=Vrai)
retourner prix

prix = scrape_price(url)
impression(f"Prix: {prix}")

Avis sur le grattage

Le scraping des avis vous aide à comprendre le sentiment des clients et les performances des produits.

1
2
3
4
5
6
7
8
9
10
11
def avis_grattage(url):
réponse = requêtes.get(url, proxys=proxies, vérifier=Faux)
soupe = BeautifulSoup(response.content, « Parseur HTML »)
avis = []
review_elements = soupe.select("avis-contenu avis-texte avis-texte-contenu"})
pour évaluation in éléments de révision :
critiques.append(review.get_text(strip=Vrai))
retourner Avis Client

avis = scrape_reviews(url)
impression(f"Avis : {commentaires}")

Disponibilité des stocks de grattage

Le scraping de la disponibilité des stocks vous aide à suivre les niveaux de stock des produits et l'état de disponibilité.

1
2
3
4
5
6
7
8
9
def statut_du_stock_gratté(url):
réponse = requêtes.get(url, proxys=proxies, vérifier=Faux)
soupe = BeautifulSoup(response.content, « Parseur HTML »)
stock_status_element = soupe.find("div", {"id": "disponibilité"})
stock_status = stock_status_element.get_text(bande=Vrai) if élément_statut_stock d'autre 'Disponible'
retourner état des stocks

stock_status = scrape_stock_status(url)
impression(f"État du stock : {état_du_stock}")

En suivant ces étapes, vous pouvez extraire efficacement les données de commerce électronique d'Amazon à l'aide de proxys rotatifs. Cette approche permet de garantir un accès continu aux données tout en minimisant le risque de blocage. Que vous récupériez des informations sur les produits, les prix, les avis ou la disponibilité des stocks, l'utilisation de proxys rotatifs et de rotations IP est essentielle pour un scraping Web réussi et évolutif.

Bonnes pratiques pour l'utilisation de proxys rotatifs

L'utilisation efficace de proxys rotatifs nécessite de suivre les meilleures pratiques pour garantir un scraping Web fluide et réussi. Voici quelques conseils essentiels pour optimiser votre utilisation de proxys rotatifs :

En suivant ces bonnes pratiques, vous pouvez utiliser efficacement des proxys rotatifs pour extraire les données du commerce électronique. Cette approche vous aide à éviter la détection, à gérer efficacement la rotation des IP et à garantir une opération de scraping transparente et évolutive. Que vous collectiez des informations sur les produits, les prix, les avis ou la disponibilité des stocks, l'utilisation judicieuse de proxys rotatifs est essentielle pour un scraping Web réussi.

Dépannage des problèmes courants

Lorsque vous utilisez des proxys rotatifs pour le scraping Web, vous pouvez rencontrer des problèmes courants qui peuvent perturber votre processus de scraping. Voici des solutions pour résoudre efficacement ces problèmes :

Blocage d'IP

Question:Certains sites Web peuvent bloquer vos adresses IP proxy, empêchant l'accès à leur contenu.

Solution: Faites régulièrement tourner vos adresses IP proxy pour éviter toute détection ou blocage. Utilisez un large pool d'adresses IP diverses pour minimiser le risque de blocage.

Défis CAPTCHA

Question:Les sites Web peuvent présenter des défis CAPTCHA pour vérifier si l'utilisateur est humain, perturbant ainsi les processus de scraping automatisés.

Solution: Mettre en œuvre des services de résolution de CAPTCHA comme Crawlbase ou des outils capables de gérer automatiquement les CAPTCHA. Assurez une résolution CAPTCHA fluide pour poursuivre le scraping sans interruption.

Temps de réponse lents

Question:Les temps de réponse lents des proxys peuvent ralentir votre processus de scraping et avoir un impact sur son efficacité.

Solution: Surveillez les performances de vos proxys et remplacez ceux qui sont lents ou peu fiables. Utilisez des fournisseurs de proxy qui offrent des connexions rapides et fiables pour minimiser les délais.

Délais de connexion

Question:Les délais d'expiration de connexion se produisent lorsque le serveur proxy ne parvient pas à établir une connexion avec le site Web cible.

Solution: Ajustez les paramètres de délai d'expiration dans vos scripts de scraping pour autoriser des tentatives de connexion plus longues. Implémentez des mécanismes de nouvelle tentative pour gérer les échecs de connexion avec élégance.

Ports ou protocoles bloqués

Question:Certains proxys peuvent avoir des restrictions sur certains ports ou protocoles, limitant leur compatibilité avec certains sites Web.

Solution: Choisissez des proxys qui prennent en charge les protocoles et les ports requis pour vos tâches de scraping. Vérifiez la compatibilité avec les sites Web cibles avant de lancer les opérations de scraping.

Erreurs d'authentification du proxy

Question:Des informations d’identification d’authentification proxy incorrectes peuvent entraîner des erreurs d’authentification et des échecs de connexion.

Solution: Vérifiez les informations d'authentification fournies par votre fournisseur de proxy. Assurez-vous que le nom d'utilisateur et le mot de passe sont correctement configurés dans vos scripts de scraping.

Liste noire des proxys

Question:Les proxys peuvent être mis sur liste noire par les sites Web en raison d'un comportement abusif ou suspect, entraînant un accès bloqué.

Solution: Faites régulièrement tourner les adresses IP proxy et évitez les comportements de scraping agressifs pour éviter la mise sur liste noire. Choisissez des fournisseurs de proxy réputés et ayant une bonne réputation pour minimiser le risque de mise sur liste noire des adresses IP.

Erreurs de script

Question:Des erreurs dans vos scripts de scraping peuvent provoquer des échecs de scraping et perturber le processus d'extraction des données.

Solution: Déboguez soigneusement vos scripts de scraping pour identifier et corriger les éventuelles erreurs. Testez vos scripts sur des ensembles de données plus petits ou des exemples de pages avant de passer à des tâches de scraping plus importantes.

Conformité aux politiques du site Web

Question:Les activités de scraping peuvent violer les conditions de service des sites Web, entraînant des problèmes juridiques ou des interdictions de propriété intellectuelle.

Solution: Consultez et respectez les conditions d'utilisation des sites Web que vous récupérez. Respectez les fichiers robots.txt et les consignes de récupération pour éviter les conséquences juridiques et maintenir une réputation positive.

Assistance du fournisseur de proxy

Question:Le manque de support de votre fournisseur proxy peut entraver les efforts de dépannage et retarder la résolution des problèmes.

Solution: Choisissez des fournisseurs de proxy qui proposent un support client et une assistance technique réactifs. Contactez votre fournisseur de proxy pour obtenir de l'aide pour résoudre les problèmes et les défis techniques.

En abordant ces problèmes courants de manière proactive et en mettant en œuvre des solutions efficaces, vous pouvez garantir une expérience fluide et réussie lors de l'utilisation de proxys rotatifs pour le scraping Web. Restez vigilant, surveillez régulièrement vos processus de scraping et soyez prêt à dépanner et à résoudre tous les problèmes qui surviennent.

Réflexions finales

L'utilisation de proxys rotatifs est une stratégie puissante pour récupérer les données du commerce électronique. En faisant tourner les adresses IP, vous pouvez éviter la détection, réduire le risque de blocage et collecter les données plus efficacement. Cette méthode est particulièrement utile pour récupérer les sites Web dynamiques comme Amazon, où les adresses IP statiques sont facilement détectées et bloquées. La mise en œuvre de proxys rotatifs implique de choisir un fournisseur de proxy fiable, de configurer correctement votre scraper et de gérer efficacement la rotation des IP.

Les proxys rotatifs améliorent vos capacités de scraping et vous aident à rester conforme aux directives de scraping Web. Investissez dans des services proxy fiables comme Crawlbase, suivez les meilleures pratiques et profitez d'un scraping de données de commerce électronique transparent.

Si vous souhaitez en savoir plus sur le scraping Web à l'aide de proxys, lisez nos guides suivants :

(I.e. Scraping Instagram à l'aide d'un proxy IA intelligent
(I.e. Extraction des ASIN d'Amazon à grande échelle grâce à un proxy IA intelligent
(I.e. Comment utiliser le proxy AliExpress pour récupérer des données
(I.e. Scraping Walmart avec Firefox Selenium et Smart AI Proxy

Si vous avez des questions ou des commentaires, notre équipe de soutien est toujours disponible pour vous aider dans votre parcours de scraping Web. Bon scraping !

Foire aux questions (FAQ)

Q. Comment utiliser les proxys rotatifs ?

Pour utiliser des proxys rotatifs, vous devez intégrer un service proxy à votre script de scraping Web. Ce service basculera automatiquement entre différentes adresses IP, ce qui donnera l'impression que vos requêtes proviennent de plusieurs emplacements. Cela permet d'éviter la détection et le blocage. La plupart des fournisseurs de proxy proposent une API que vous pouvez facilement intégrer à vos outils de scraping.

Q. Que sont les proxies rotatifs ?

Les proxys rotatifs sont des serveurs proxy qui modifient automatiquement l'adresse IP après chaque requête ou après un intervalle défini. Cette rotation permet de répartir les requêtes Web sur plusieurs adresses IP, réduisant ainsi le risque d'être bloqué par des sites Web. Les proxys rotatifs sont essentiels pour extraire les données des sites dotés de mesures anti-scraping strictes.

Q. Comment faire pivoter le proxy dans Selenium Python ?

Pour faire tourner les proxys dans Selenium à l'aide de Python, vous pouvez utiliser une liste d'adresses IP proxy et configurer Selenium pour utiliser un nouveau proxy pour chaque instance de navigateur. Voici un exemple simple :

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
à partir de sélénium importer Webdriver
à partir de selenium.webdriver.common.proxy importer Proxy, type de proxy

mandataires = ['proxy1:port', 'proxy2:port', 'proxy3:port'] # Liste des proxys

def obtenir_proxy
retourner proxys.pop() # Obtenir un proxy à partir de la liste

proxy_ip = get_proxy()
proxy = Proxy()
proxy.proxy_type = ProxyType.MANUEL
proxy.http_proxy = adresse IP du proxy
proxy.ssl_proxy = adresse IP du proxy

capacités = webdriver.DesiredCapabilities.CHROME
proxy.add_to_capabilities(capacités)

pilote = webdriver.Chrome(desired_capabilities=capacités)
pilote.get('http://exemple.com')

Ce script configure un proxy pour Selenium WebDriver et le fait pivoter en sélectionnant une nouvelle IP proxy dans la liste pour chaque session.