Farfetch est l'une des plus grandes plateformes de mode de luxe, avec des milliers de vêtements, chaussures et accessoires haut de gamme des plus grandes marques du monde entier. Que vous réalisiez une étude de marché, analysiez les tendances de la mode de luxe ou créiez votre base de données de commerce électronique, l'extraction de données de Farfetch peut s'avérer très utile.
Cependant, comme de nombreux autres sites Web, Farfetch utilise JavaScript pour charger son contenu, de sorte que les scrapers traditionnels ne peuvent pas extraire les données de vente au détail dont vous avez besoin. Base d'exploration Crawling API intervient. Il facilite le scraping en gérant le contenu JavaScript, en gérant les proxys et en contournant les mécanismes anti-bot, le tout avec seulement quelques lignes de code en Python.
Dans ce blog, nous allons parcourir les pages SERP et produits de Farfetch avec Crawlbase Crawling API en Python.
Table des matières
- Avantages du scraping de données Farfetch
- Données clés à extraire de Farfetch
- Base d'exploration Crawling API pour le scraping de Farfetch
- Bibliothèque Python Crawlbase
- Installation de Python et bibliothèques requises
- Choisir un EDI
- Inspection du code HTML pour les sélecteurs CSS
- Rédaction du scraper de listes de recherche
- Gestion de la pagination dans Farfetch
- Stockage des données dans un fichier CSV
- Exemple de code complet
- Inspection du code HTML pour les sélecteurs CSS
- Rédaction du scraper de page produit
- Stockage des données dans un fichier CSV
- Exemple de code complet
Avantages du scraping de données Farfetch
Farfetch, l'un des plus grands acteurs du marché de la mode de luxe, met en relation les consommateurs avec les boutiques et les marques haut de gamme. Farfetch est une véritable mine d'or pour les entreprises, les universitaires et les développeurs, avec des milliers de produits allant des vêtements haut de gamme aux accessoires.

Scraping Farfetch vous donnera un aperçu de :
- Tendances des prix:Comment les prix des produits de luxe sont fixés selon les marques, les catégories et les régions.
- La disponibilité des produits:Suivez les niveaux de stock et la disponibilité pour voir ce qui se vend rapidement et quelles marques sont populaires.
- Tendances du marché:Découvrez les tendances de la mode, les nouveautés saisonnières et les nouvelles marques.
- Analyse de la concurrence:Comparez les prix, les descriptions de produits et les remises avec vos concurrents.
- Création de bases de données:Créez une base de données propre de produits avec des titres, des descriptions, des prix, des images et plus encore.
Données clés à extraire de Farfetch
Lorsque vous récupérez Farfetch, concentrez-vous sur ces points de données :
- Blurb:Une brève description pour vous aider à identifier le produit.
- Marque:Suivez et identifiez les marques de luxe sur la plateforme.
- Prix:Obtenez des prix originaux et réduits.
- Déscription:Recueillir des informations sur les matériaux et les caractéristiques pour le catalogage.
- Tailles et disponibilité:Surveillez l’état des stocks et la demande pour les tailles populaires.
- Catégories : Analyser les tendances au sein de segments de produits spécifiques.
- Images: Extraire les URL des images de produits pour les bases de données visuelles.
- Évaluations et commentaires:Comprendre les préférences des clients et évaluer la qualité des produits.
- Tarifs régionaux:Comparez les prix entre différentes devises et régions.
- Options de livraison:Évaluer les délais et les coûts d’expédition.
En collectant ces points de données, vous pouvez obtenir des informations pour les études de marché et la croissance de votre entreprise. Voyons maintenant comment récupérer Farfetch avec Crawlbase Crawling API.
Base d'exploration Crawling API pour le scraping de Farfetch
Le Base d'exploration Crawling API est un outil de scraping Web qui facilite l'extraction de données à partir de Farfetch. Il gère le rendu JavaScript, les proxys et la résolution de CAPTCHA afin que vous puissiez vous concentrer sur la création de votre scraper sans les maux de tête techniques.
Bibliothèque Python Crawlbase
Crawlbase dispose également d'un Librairie Python pour faciliter l'intégration des API. Une fois que vous s'inscricre, vous recevrez un jeton d'accès pour l'authentification. Voici un exemple rapide de son utilisation :
1 | de base d'exploration importer API d'exploration |
Points clés:
- Crawlbase dispose de jetons distincts pour le scraping de contenu statique et dynamique.
- Utilisez un jeton JavaScript (JS) pour récupérer le contenu dynamique de Farfetch.
- Base d'exploration Crawling API s'occupe du rendu JavaScript et des proxys pour vous.
Comment configurer votre environnement Python
Avant de commencer à scraper Farfetch, vous devez configurer votre environnement Python. Cela vous guidera tout au long du processus d'installation de Python, de configuration des bibliothèques requises et de choix d'un IDE adapté à vos besoins.
Installation de Python et bibliothèques requises
- Installez Python:
- Cliquez sur python.org et téléchargez la dernière version de Python.
- Assurez-vous de cocher l’option « Ajouter Python au PATH » lors de l’installation.
- Installer les bibliothèques requises :
- Ouvrez un terminal ou une invite de commande et exécutez la commande suivante :
1 | pip installe crawlbase beautifulsoup4 |
- Ces bibliothèques sont essentielles pour le scraping Web et l'utilisation de Crawlbase Crawling API.
Choisir un EDI
Pour écrire et gérer votre code, vous aurez besoin d'un IDE ou d'un éditeur de code. Voici quelques options :
- PyCharm:Un IDE complet avec des outils avancés de débogage et de navigation dans le code
- Visual Studio Code:Un éditeur léger et personnalisable avec des extensions pour Python.
- Jupyter Notebook:Pour tester et exécuter des extraits de code de manière interactive.
Choisissez l'IDE qui vous convient et vous serez prêt à partir. Dans la section suivante, nous verrons comment extraire les résultats de recherche de Farfetch.
Récupération des résultats de recherche Farfetch
Maintenant que votre environnement Python est configuré, passons à l'extraction des résultats de recherche de Farfetch. Cette section vous guidera dans la façon d'inspecter le code HTML, de créer un scraper, de gérer la pagination et d'enregistrer les données dans un fichier CSV.
Inspection de la structure HTML
Avant d'écrire le scraper, nous devons inspecter le code HTML des résultats de recherche de Farfetch pour trouver les titres, les prix et les liens des produits. Pour cet exemple, nous utiliserons une catégorie telle que « baskets pour hommes » à partir de l'URL suivante.
1 | https://www.farfetch.com/pk/shopping/men/trainers-2/items.aspx |
- Outils de développement ouverts:Accédez à l'URL et appuyez sur
Ctrl + Shift + I
(ouCmd + Option + I
(sur Mac) pour ouvrir les outils de développement de votre navigateur. - Inspecter les éléments du produit: Passez la souris sur les titres, les prix et les liens des produits pour trouver leurs balises et classes CSS correspondantes.

Sélecteurs clés pour les listes de recherche Farfetch :
- Marque:Trouvé dans un
<p>
tag avec ledata-component="ProductCardBrandName"
attribuer. - Description:Trouvé dans un
<p>
tag avec ledata-component="ProductCardDescription"
attribuer. - Prix:Trouvé dans un
<p>
tag avec ledata-component="Price"
ordata-component="PriceFinal"
attribuer. - La remise:Trouvé dans un
<p>
tag avec ledata-component="PriceDiscount"
attribuer. - Lien produit:Trouvé dans un
<a>
balise dans le conteneur du produit. L'attribut href fournit le lien du produit, préfixé parhttps://www.farfetch.com
.
Rédaction du scraper de listes de recherche
Voici un script Python pour extraire les données du produit à l'aide de Crawlbase
et BeautifulSoup
bibliothèques :
1 | de base d'exploration importer API d'exploration |
Ce code définit une fonction, scrape_farfetch_listings
, pour extraire les détails des produits des résultats de recherche Farfetch. Il envoie une demande à Crawlbase Crawling API pour obtenir le code HTML SERP de Farfetch. Il utilise ajax_wait
et page_wait
paramètres fournis par Crawlbase Crawling API pour gérer le contenu JS. Vous pouvez en savoir plus sur ces paramètres ici.
Si la requête aboutit, la fonction utilise BeautifulSoup pour analyser le code HTML renvoyé et extraire les détails du produit pour chaque fiche produit. Les données extraites sont stockées sous forme de dictionnaires dans une liste et la fonction renvoie la liste des produits.
Gestion de la pagination dans Farfetch
Farfetch répertorie les produits sur plusieurs pages. Pour extraire toutes les listes, parcourez chaque page en ajoutant le paramètre de page à l'URL (par exemple, ?page=2
).
1 | def gratter_plusieurs_pages(base_url, nombre_total_pages): |
Stockage des données dans un fichier CSV
Après le scraping, enregistrez les données dans un fichier CSV pour une analyse plus approfondie.
1 | importer csv |
Exemple de code complet
Vous trouverez ci-dessous le script complet pour extraire les listes de recherche de Farfetch à l'aide de Crawlbase Crawling API, gérer la pagination et enregistrer les données dans un fichier CSV :
1 | de base d'exploration importer API d'exploration |
farfetch_listings.csv
Fichier instantané :

Dans la section suivante, nous explorerons la récupération de pages de produits individuelles pour obtenir des données plus détaillées.
Récupération des pages de produits Farfetch
Maintenant que vous avez extrait les listes de produits, l'étape suivante consiste à extraire les pages de produits individuelles pour obtenir les descriptions des produits, les tailles, les matériaux, etc. Ici, nous vous montrerons comment inspecter le code HTML, écrire un scraper pour les pages de produits et stocker les données dans un fichier CSV.
Inspection du code HTML pour les sélecteurs CSS
Visitez une page produit Farfetch, par exemple :
1 | https://www.farfetch.com/pk/shopping/men/gucci-screener-sneakers-item-27582236.aspx |
Ouvrez les outils de développement dans votre navigateur (Ctrl + Shift + I
or Cmd + Option + I
(sur Mac) et inspectez les éléments clés que vous souhaitez récupérer.

Sélecteurs clés pour les pages produits Farfetch :
- Blurb:Situé dans un
<p>
tag avecdata-testid="product-short-description"
. - Marque:Situé dans un
<a>
tag avecdata-component="LinkGhostDark"
. - Prix:Situé dans un
<div>
tag avecid="price"
. - Description:Situé dans un imbriqué
<div>
avecdata-component="AccordionPanel"
avec est à l'intérieur d'undiv
avecdata-testid="product-information-accordion"
.
Rédaction du scraper de page produit
Voici un script Python pour extraire les détails du produit à l'aide de Crawlbase
et BeautifulSoap
:
1 | de base d'exploration importer API d'exploration |
Le scrape_product_page
La fonction effectue une requête HTTP vers l'URL donnée avec des options pour afficher du JavaScript. Elle utilise ensuite BeautifulSoup pour analyser le code HTML et extraire le texte de présentation, la marque, le prix, la description et les tailles. Les données sont renvoyées sous forme de dictionnaire. Si la requête échoue, elle affiche une erreur.
Stockage des données dans un fichier CSV
Une fois que vous avez récupéré les détails du produit, vous pouvez les enregistrer dans un fichier CSV pour un accès plus facile.
1 | importer csv |
Exemple de code complet
Voici le script complet pour récupérer une page de produit Farfetch à l'aide de Crawlbase Crawling API et enregistrer les données dans un fichier CSV :
1 | de base d'exploration importer API d'exploration |
farfetch_product_details.csv
Fichier instantané :

Réflexions finales
Scraping Farfetch peut vous fournir des données précieuses pour les études de marché, l'analyse des prix et pour rester en tête du jeu de la mode. Base d'exploration Crawling API et des bibliothèques comme BeautifulSoup, vous pouvez extraire les détails des produits, automatiser la collecte de données et rationaliser votre flux de travail.
Mais n'oubliez pas de respecter les conditions d'utilisation du site Web et le scraping éthique. Avec le code et les conseils fournis dans ce blog, vous pouvez facilement scraper les pages de recherche et de produits de Farfetch. Vous souhaitez scraper plus de sites Web ? Consultez nos autres guides.
(I.e. Comment récupérer Monster.com
(I.e. Comment récupérer un coupon Groupon
(I.e. Comment récupérer TechCrunch
(I.e. Comment récupérer les pages de tweets de X.com
(I.e. Comment gratter Clutch.co
Si vous avez des questions ou souhaitez donner votre avis, notre équipe de soutien peut aider au scraping Web. Bon scraping !
FAQ - Foire Aux Questions
Q. Comment gérer le contenu JavaScript lors du scraping de Farfetch ?
Lors de l'extraction de sites dynamiques tels que Farfetch, le contenu JavaScript peut ne pas se charger immédiatement. Utilisez le Base d'exploration Crawling API, qui prend en charge le rendu JavaScript. Cela garantit que la page est entièrement chargée, y compris le contenu dynamique, avant d'extraire les données. Vous pouvez définir l'option ajax_wait sur true dans la requête API pour laisser suffisamment de temps à JavaScript pour restituer la page.
Q. Puis-je récupérer les détails des produits à partir de plusieurs pages sur Farfetch ?
Oui, vous pouvez extraire les détails des produits de plusieurs pages sur Farfetch. Pour ce faire, vous devez gérer la pagination. Vous pouvez ajuster l'URL pour inclure un paramètre de numéro de page et extraire les listes de chaque page dans une boucle. Si utilisé avec Crawlbase Crawling API, vous pourrez récupérer plusieurs pages sans craindre d'être banni.
Q. Comment puis-je stocker les données récupérées ?
Après avoir extrait des données de Farfetch, il est essentiel de les stocker dans un format organisé. Vous pouvez enregistrer les données dans des fichiers CSV ou JSON pour un accès facile et une utilisation ultérieure. Par exemple, le code peut écrire les détails du produit extraits dans un fichier CSV, garantissant ainsi que les informations sont enregistrées de manière structurée, ce qui est idéal pour l'analyse ou le partage.