Comment récupérer des emplois monstrueux avec Python
27 août 2024Temps de lecture 22 minutes
Monster.com est l'un des meilleurs sites pour les chercheurs d'emploi et les employeurs, avec des millions d'offres d'emploi dans divers secteurs. C'est un endroit idéal pour les chercheurs d'emploi et les employeurs à la recherche d'employés. En récupérant Monster.com, vous pouvez obtenir des tonnes de données sur les emplois à utiliser pour des analyses, pour surveiller le marché du travail ou pour créer un outil de recherche d'emploi personnalisé.
Monster.com attire plus de 6.7 millions Il accueille des milliers de visiteurs par mois et des milliers d'offres d'emploi actives, ce qui en fait une mine d'or d'informations utiles. Cependant, sa nature en constante évolution signifie que vous avez besoin d'une stratégie intelligente pour extraire Monster.com. Ce guide vous montrera comment configurer un environnement Python, créer un scraper de pages Monster.com et l'améliorer avec le Crawlbase Crawling APICette API permet de gérer des éléments délicats tels que le rendu JavaScript et la pagination à défilement sans fin.
Ce guide vous fournira les connaissances et les outils dont vous avez besoin pour scraper Monster.com sans aucun obstacle. Commençons !
Scraping Monster.com vous donne accès à une énorme quantité de données sur le marché du travail, offrant des informations clés difficiles à recueillir manuellement. En automatisant la manière dont vous collectez les offres d'emploi, vous pouvez obtenir des informations telles que les intitulés de poste, les emplacements, les salaires, les noms d'entreprise et les descriptions de poste. Ces données sont essentielles pour comprendre les tendances actuelles du marché et faire des choix basés sur des faits.
Vous êtes peut-être un recruteur qui souhaite consulter les offres d'emploi de ses concurrents, un analyste de données qui étudie les tendances du marché du travail ou un demandeur d'emploi qui souhaite suivre les évolutions dans différents secteurs. Si tel est le cas, Monster.com est une excellente source. Avec des millions d'offres d'emploi, la plateforme est parfaite pour tous ceux qui ont besoin de données d'emploi actualisées et détaillées.
L'automatisation de la collecte de données permet de gagner du temps et d'obtenir des informations fiables et exactes. Plutôt que de parcourir et d'extraire les données à la main, vous pouvez vous concentrer sur leur interprétation. Cela vous permet de créer des outils utiles tels que des outils de recherche d'emploi, des outils de suivi des tendances ou des moyens de comparer les salaires.
Données clés à extraire de Monster.com
Lorsque vous extrayez des données de Monster.com, vous devez vous concentrer sur l'obtention des informations clés qui vous donnent des informations utiles. Voici ce que vous devez récupérer :
Intitulé de votre projet:Cela vous indique quels emplois sont ouverts en ce moment.
Description:Ceci résume le poste, couvrant les tâches, les compétences requises, l'expérience professionnelle requise et les avantages éventuels.
Nom de l'entreprise :Identifie les employeurs qui offrent les emplois.
À propos de l'entreprise:Cela donne un aperçu rapide de l’histoire et des objectifs de l’entreprise.
Site web de l'entreprise:La page Web principale de l'entreprise.
Taille de l'entreprise:Cela vous indique la taille de l'entreprise, ainsi que le nombre de personnes qui y travaillent.
Année de fondation:L'année de création de l'entreprise.
Localisation:Indique où le poste est basé, aidant à filtrer les postes par région.
Informations sur le salaire:Si c'est le cas, cela vous aide à savoir à quel salaire vous attendre.
Date d'affichage du poste:Cela vous permet de voir à quel point les offres d'emploi sont nouvelles.
Type d'emploi:Que l'emploi soit à temps plein, à temps partiel, contractuel, etc.
Lien d'application:Cela vous amène directement à l'endroit où vous pouvez postuler à l'emploi.
Industrie:Cela indique dans quel domaine se situe le travail, comme la technologie, les soins de santé ou l'argent.
Compétences requises:Compétences nécessaires pour le rôle.
ID de la tâche:Un identifiant unique pour chaque offre d'emploi, utile pour le suivi et la mise à jour des offres.
Avoir une idée claire de ce qu'il faut extraire avant de démarrer votre scraper Monster.com vous aide à rester concentré et garantit que votre scraper collecte des données significatives.
Crawlbase Crawling API pour le scraping de Monster.com
Lors du scraping de Monster.com, la gestion du contenu rendu par JavaScript et la navigation dans les pages dynamiques peuvent être difficiles avec des techniques de scraping simples. C'est là que le Crawlbase Crawling API est pratique. Cet outil permet de gérer ces complexités en rendant JavaScript et en gérant la pagination de manière efficace.
Pourquoi utiliser Crawlbase Crawling API?
Monster.com utilise JavaScript pour charger dynamiquement les offres d'emploi et autres contenus importants. Les méthodes de scraping traditionnelles, qui se contentent d'extraire du HTML statique, ne permettent pas de récupérer ce type de contenu. Crawlbase Crawling API évite ces restrictions en imitant un navigateur réel, permettant à tous les composants rendus par JavaScript d'être chargés et disponibles.
Monster.com s'appuie sur JavaScript pour charger dynamiquement les offres d'emploi et autres contenus. Les méthodes de scraping traditionnelles, qui ne récupèrent que du HTML statique, échouent souvent à capturer ce contenu. Crawlbase Crawling API surmonte ces limitations en simulant un véritable navigateur, garantissant que tous les éléments rendus par JavaScript sont chargés et accessibles.
Les principales caractéristiques de Crawlbase Crawling API
Rendu JavaScript: Crawlbase peut gérer l'exécution de JavaScript sur la page, vous permettant de récupérer des données chargées dynamiquement.
Évitez le blocage IP et les CAPTCHA: Crawlbase fait automatiquement pivoter les IP et contourne les CAPTCHA, permettant un grattage ininterrompu de Monster.com sans faire face à des blocages IP ou à des défis CAPTCHA.
Gestion de la pagination:L'API permet toutes sortes de méthodes de pagination, y compris le « défilement infini » que l'on trouve sur les sites d'emploi comme Monster.
Options de demande:Personnalisez vos demandes de scraping avec des options de gestion des cookies, de configuration des agents utilisateurs, etc., rendant vos efforts de scraping plus robustes et fiables.
Crawlbase Bibliothèque Python
Crawlbase Il dispose d'une bibliothèque Python qui simplifie grandement le scraping web. Cette bibliothèque nécessite un jeton d'accès pour l'authentification. Ce jeton est disponible en créant un compte sur crawlbase.
Voici un exemple de fonction montrant comment utiliser le Crawlbase Crawling API pour envoyer des demandes :
1 2 3 4 5 6 7 8 9 10 11 12 13 14
à partir de base d'exploration importer API d'exploration
# Initialiser Crawlbase API avec votre jeton d'accès crawling_api = API d'exploration({ 'jeton': 'VOTRE_JETON_CRAWLBASE' })
if réponse['en-têtes']['pc_status']== «200 ': html_content = réponse['corps'].décoder(« utf-8 ») retourner contenu_html d'autre: impression(f"Échec de la récupération de la page. Crawlbase code d'état : {réponse['en-têtes']['pc_status']}") retournerAucun
Note: Crawlbase propose deux types de jetons : _ Jeton normal pour les sites statiques. _ Jeton JavaScript (JS) pour les requêtes dynamiques ou basées sur un navigateur.
Pour récupérer des sites dynamiques comme Monster.com, vous aurez besoin du jeton JS. Crawlbase Vous bénéficiez de 1,000 XNUMX demandes gratuites pour démarrer, et aucune carte de crédit n'est requise pour cet essai. Pour plus d'informations, consultez le Crawlbase Crawling API Documentation.
Dans la section suivante, nous vous guiderons dans la configuration d'un environnement Python pour ce projet. Commençons par la configuration !
Configuration de votre environnement Python
Nous devons configurer votre environnement Python avant de créer le scraper Monster.com. Cette section couvre les éléments essentiels : l'installation de Python et des bibliothèques, la configuration d'un environnement virtuel et le choix d'un IDE.
Installer Python
Tout d'abord, assurez-vous que Python est installé sur votre ordinateur. Python est un langage très flexible utilisé pour de nombreuses choses, dont le scraping Web. Vous pouvez le télécharger à partir du site officiel PythonSuivez les instructions d’installation spécifiques à votre système d’exploitation.
Configuration d'un environnement virtuel
Un environnement virtuel facilite la gestion des dépendances des projets sans affecter les autres projets Python. Voici comment en créer un :
Créer un environnement virtuel:Accédez au répertoire de votre projet dans le terminal et exécutez :
1
python -m venv monstre_env
Activer l'environnement virtuel:
Sur Windows:
1
monster_env\Scripts\activer
Sous macOS/Linux :
1
source monstre_env/bin/activate
Installation des bibliothèques requises
Une fois l'environnement virtuel activé, vous devrez installer quelques bibliothèques pour faciliter le scraping Web et le traitement des données.
Crawlbase: La bibliothèque principale pour envoyer des requêtes avec le Crawlbase Crawling API.
BelleSoupe4:Pour analyser les documents HTML et XML.
Pandas:Pour le traitement et l'analyse des données.
Vous pouvez installer ces bibliothèques à l'aide de pip. Ouvrez votre terminal ou votre invite de commande et exécutez :
1
pip install crawlbase beautifulsoup4 pandas
Choisir le bon IDE
Un environnement de développement intégré (IDE) facilite le codage en fournissant des fonctionnalités utiles telles que la coloration syntaxique, les outils de débogage et la gestion de projet. Voici quelques IDE populaires pour le développement Python :
PyCharm:Un IDE professionnel pour Python avec de nombreuses fonctionnalités vraiment intéressantes.
Jupyter Notebook:Idéal pour le codage interactif et l'analyse de données, en particulier lorsque vous avez besoin de visualiser les données.
Choisissez un IDE adapté à vos préférences et à votre flux de travail pour rationaliser votre expérience de codage.
Maintenant que Python est installé, que les bibliothèques sont téléchargées et que l'environnement de développement est configuré, nous pouvons passer à la phase suivante de l'écriture du scraper de pages Monster.com.
Récupération des offres d'emploi de Monster.com
Commençons par extraire les offres d'emploi de Monster.com avec Python. Monster.com utilisant le chargement dynamique du contenu et la pagination par défilement, les méthodes d'extraction simples ne suffiront pas. Nous utiliserons Crawlbase's Crawling API de prendre en charge le rendu JavaScript et la pagination de défilement, afin que nous récupérions un maximum d'offres d'emploi.
Inspection de la page d'offres d'emploi de Monster.com
La première chose à faire est d'examiner la structure HTML de la page d'offre d'emploi avant de passer au code. Connaître la hiérarchie nous permet de déterminer les sélecteurs CSS appropriés pour obtenir des informations sur l'emploi, telles que le titre du poste, l'entreprise, le lieu et l'URL du poste.
Visitez l'URL:Ouvrez Monster.com et accédez à une page d’offres d’emploi.
Outils de développement ouverts:Cliquez avec le bouton droit n’importe où sur la page et sélectionnez « Inspecter » pour ouvrir les outils de développement.
Identifier les éléments clés:Les offres d'emploi se trouvent généralement dans <article> éléments avec l'attribut data-testid="svx_jobCard" Dans un <div> avec l'ID JobCardGridLes éléments clés comprennent :
Intitulé de votre projet:Trouvé dans un <a> balise avec l'attribut data-testid="jobTitle".
Nom de l'entreprise :Trouvé dans un <span> balise avec l'attribut data-testid="company".
Localisation : Situé dans un <span> balise avec l'attribut data-testid="jobDetailLocation".
Lien d'emploi:Trouvé dans le href attribut du titre du poste <a> tag avec data-testid="jobTitle".
Rédaction du scraper de listings Monster.com
Maintenant, écrivons le scraper pour extraire les détails des offres d'emploi de Monster.com. Nous utiliserons Crawlbase Crawling API, ce qui simplifie la gestion du contenu dynamique.
tous_emplois = [] pour JOB in cartes_de_travail: titre = job.select_one('a[data-testid="jobTitle"]').texte.strip() if travail.select_one('a[data-testid="jobTitle"]') d'autre'' entreprise = job.select_one('span[data-testid="société"]').texte.strip() if travail.select_one('span[data-testid="société"]') d'autre'' emplacement = job.select_one('span[data-testid="jobDetailLocation"]').texte.strip() if travail.select_one('span[data-testid="jobDetailLocation"]') d'autre'' lien = job.select_one('a[data-testid="jobTitle"]')['href'] if travail.select_one('a[data-testid="jobTitle"]') d'autre''
retourner offres d'emploi d'autre: impression(f"Échec de la récupération des données. Code d'état : {réponse['en-têtes']['pc_status']}") retournerAucun
options le paramètre inclut des paramètres tels que ajax_wait pour gérer le chargement de contenu asynchrone et page_wait Attendre 5 secondes avant de gratter, afin de permettre à tous les éléments de se charger correctement. Vous pouvez en savoir plus sur Crawlbase Crawling API paramètres ici.
Gestion de la pagination par défilement
Monster.com utilise la pagination par défilement pour charger plus d'offres d'emploi de manière dynamique. Pour capturer toutes les offres d'emploi, nous utiliserons le scroll et scroll_interval paramètres fournis par Crawlbase Crawling API.
défilement=vrai: Active la pagination basée sur le défilement.
intervalle_de_défilement=60: Définit la durée de défilement à 60 secondes, ce qui est le temps maximum autorisé. Étant donné que nous avons ajouté du temps pour le défilement, il n'est pas nécessaire de définir explicitement page_wait.
defscrape_monster_avec_pagination(url): choix = { 'ajax_wait': 'vrai', 'rouleau': 'vrai', # Active la pagination par défilement 'intervalle_de_défilement': «60 '# Durée de défilement fixée à 60 secondes }
tous_emplois = [] pour JOB in cartes_de_travail: titre = job.select_one('a[data-testid="jobTitle"]').texte.strip() if travail.select_one('a[data-testid="jobTitle"]') d'autre'' entreprise = job.select_one('span[data-testid="société"]').texte.strip() if travail.select_one('span[data-testid="société"]') d'autre'' emplacement = job.select_one('span[data-testid="jobDetailLocation"]').texte.strip() if travail.select_one('span[data-testid="jobDetailLocation"]') d'autre'' lien = job.select_one('a[data-testid="jobTitle"]')['href'] if travail.select_one('a[data-testid="jobTitle"]') d'autre''
retourner tous_les_emplois d'autre: impression(f"Échec de la récupération des données. Code d'état : {réponse['en-têtes']['pc_status']}") retournerAucun
Stockage des données dans un fichier JSON
Une fois que vous avez extrait les données de travail, vous pouvez facilement les stocker dans un fichier JSON pour une utilisation ou une analyse ultérieure :
1 2 3 4 5 6 7 8
defenregistrer_dans_json(données, nom de fichier='monster_jobs.json'): avecouvert(nom de fichier, 'w') as fichier: json.dump(données, fichier, indent=4) impression(f"Données enregistrées dans {nom de fichier}")
# Exemple d'utilisation après le scraping if emplois: save_to_json(emplois)
Exemple de code complet
Voici le code complet combinant tout ce qui a été discuté :
à partir de base d'exploration importer API d'exploration à partir de bs4 importer BeautifulSoup importer json
# Initialiser Crawlbase API avec votre jeton d'accès crawling_api = API d'exploration({'jeton': 'VOTRE_JETON_CRAWLBASE'})
defscrape_monster_avec_pagination(url): choix = { 'ajax_wait': 'vrai', 'rouleau': 'vrai', # Active la pagination par défilement 'intervalle_de_défilement': «60 '# Durée de défilement fixée à 60 secondes }
tous_emplois = [] pour JOB in cartes_de_travail: titre = job.select_one('a[data-testid="jobTitle"]').texte.strip() if travail.select_one('a[data-testid="jobTitle"]') d'autre'' entreprise = job.select_one('span[data-testid="société"]').texte.strip() if travail.select_one('span[data-testid="société"]') d'autre'' emplacement = job.select_one('span[data-testid="jobDetailLocation"]').texte.strip() if travail.select_one('span[data-testid="jobDetailLocation"]') d'autre'' lien = job.select_one('a[data-testid="jobTitle"]')['href'] if travail.select_one('a[data-testid="jobTitle"]') d'autre''
retourner tous_les_emplois d'autre: impression(f"Échec de la récupération des données. Code d'état : {réponse['en-têtes']['pc_status']}") retournerAucun
defenregistrer_dans_json(données, nom de fichier='monster_jobs.json'): avecouvert(nom de fichier, 'w') as fichier: json.dump(données, fichier, indent=4) impression(f"Données enregistrées dans {nom de fichier}")
if __nom__ == "__principale__": base_url = 'https://www.monster.com/jobs/search?q=Java+Developers&where=New+York&page=1&so=pslh' emplois = scrape_monster_with_pagination(base_url)
if emplois: save_to_json(emplois)
Ce code vous montre comment configurer le scraper, gérer la pagination de défilement et stocker les données dans un format JSON structuré, ce qui vous permet d'utiliser facilement les données récupérées ultérieurement.
[ { "Titre d'emploi":« Développeur Java (Core Java) », "Compagnie":« Georgia IT Inc. », "Emplacement":« New York, État de New York », « Lien vers l'emploi »:"https://www.monster.com/job-openings/java-developer-core-java-new-york-ny--1abe38e2-8183-43d3-a152-ecdf208db3bf?sid=3a00f5d1-d543-4de0-ab00-0f9e9c8079f8&jvo=m.mo.s-svr.1&so=p.s.lh&hidesmr=1" }, { "Titre d'emploi":« Développeur back-end Java (Java, Spring, Microservices, Maven) », "Compagnie":« Lynx diversifié », "Emplacement":« Manhattan, New York », « Lien vers l'emploi »:"https://www.monster.com/job-openings/java-backend-developer-java-spring-microservices-maven-manhattan-ny--7228b274-60bb-41d7-b8d9-8a51ff8c8d1c?sid=3a00f5d1-d543-4de0-ab00-0f9e9c8079f8&jvo=m.mo.s-svr.2&so=p.s.lh&hidesmr=1" }, { "Titre d'emploi":« Développeur back-end Java (Java, Spring, Microservices, Maven) », "Compagnie":« Linx diversifié », "Emplacement":« Manhattan, New York », « Lien vers l'emploi »:"https://www.monster.com/job-openings/java-backend-developer-java-spring-microservices-maven-manhattan-ny--2d652118-1c17-43e3-8cef-7b940a8b0490?sid=3a00f5d1-d543-4de0-ab00-0f9e9c8079f8&jvo=m.mo.s-svr.3&so=p.s.lh&hidesmr=1" }, { "Titre d'emploi":"DÉVELOPPEUR JAVA FULL STACK", "Compagnie":« HexaQuEST Global », "Emplacement":« Brooklyn, New York », « Lien vers l'emploi »:"https://www.monster.com/job-openings/java-full-stack-developer-brooklyn-ny--c60fb5f3-5adf-43a7-bfac-03c93853dd4e?sid=3a00f5d1-d543-4de0-ab00-0f9e9c8079f8&jvo=m.mo.s-svr.4&so=p.s.lh&hidesmr=1" }, .... plus ]
Suppression des pages d'emploi de Monster.com
Après avoir collecté les offres d'emploi sur Monster.com, l'étape suivante consiste à extraire des informations détaillées de chaque page d'offre d'emploi. Dans cette section, nous vous expliquerons comment extraire des détails spécifiques tels que les descriptions de poste, les exigences et les informations sur l'entreprise à partir des pages d'offres d'emploi.
Inspection de la page d'emploi de Monster.com
Pour commencer à extraire une page d'emploi, vous devez inspecter sa structure HTML pour identifier les éléments qui contiennent les données dont vous avez besoin. Voici comment procéder :
Visitez une page d'emploi:Cliquez sur une offre d'emploi pour ouvrir sa page détaillée.
Développeur ouvert Outils : Faites un clic droit sur la page et sélectionnez « Inspecter » pour ouvrir les outils de développement.
Identifier les éléments clés:Recherchez des éléments contenant des informations telles que :
Intitulé de votre projet:Trouvé dans un <h2> balise avec l'attribut data-testid="jobTitle".
Description: Généralement situé dans un <div> balise avec l'attribut data-testid="svx-description-container-inner".
Chiffres et faits: On le trouve généralement dans une ligne de tableau (<tr>) à l'intérieur d'une table avec l'attribut data-testid="svx-jobview-details-table".
À propos de l'entreprise:Situé dans un <div> balise avec une classe contenant "about-styles__AboutCompanyContainerInner".
Rédaction du scraper de pages d'emploi Monster.com
Une fois que vous connaissez la structure, vous pouvez créer un scraper pour extraire ces détails. Crawlbase Crawling API aidera à gérer tout contenu dynamique tout en garantissant un processus de scraping fluide.
job_title = soup.select_one('h2[data-testid="titre_de_travail"]').texte.strip() if soupe.select_one('h2[data-testid="titre_de_travail"]') d'autre'' job_description = soup.select_one('div[data-testid="svx-description-container-inner"]').texte.strip() if soupe.select_one('div[data-testid="svx-description-container-inner"]') d'autre'' nombresEtfaits = [{tr.select_one('td:premier-enfant').text.strip() : tr.select_one('td:dernier-enfant').texte.strip()} pour tr in soupe.select('tableau[data-testid="svx-jobview-details-table"] tr')] if soupe.select('tableau[data-testid="svx-jobview-details-table"] tr') d'autre [] about_company = soup.select_one('div[class*="about-styles__AboutCompanyContainerInner"]').texte.strip() if soupe.select_one('div[class*="about-styles__AboutCompanyContainerInner"]') d'autre''
détails_du_travail = { 'Titre d'emploi': titre d'emploi, 'Description de l'emploi': Description de l'emploi, « Chiffres et faits »: nombres et faits, « À propos de la société »: à propos de l'entreprise }
retourner détails_du_travail d'autre: impression(f"Échec de la récupération des données. Code d'état : {réponse['en-têtes']['pc_status']}") retournerAucun
Stockage des données dans un fichier JSON
Une fois les détails du travail extraits, vous pouvez enregistrer les données dans un fichier JSON pour un accès et une analyse plus faciles :
1 2 3 4
defenregistrer_les_détails_de_la_tâche_dans_json(données, nom de fichier='job_details.json'): avecouvert(nom de fichier, 'w') as fichier: json.dump(données, fichier, indent=4) impression(f"Données enregistrées dans {nom de fichier}")
job_title = soup.select_one('h2[data-testid="titre_de_travail"]').texte.strip() if soupe.select_one('h2[data-testid="titre_de_travail"]') d'autre'' job_description = soup.select_one('div[data-testid="svx-description-container-inner"]').texte.strip() if soupe.select_one('div[data-testid="svx-description-container-inner"]') d'autre'' nombresEtfaits = [{tr.select_one('td:premier-enfant').text.strip() : tr.select_one('td:dernier-enfant').texte.strip()} pour tr in soupe.select('tableau[data-testid="svx-jobview-details-table"] tr')] if soupe.select('tableau[data-testid="svx-jobview-details-table"] tr') d'autre [] about_company = soup.select_one('div[class*="about-styles__AboutCompanyContainerInner"]').texte.strip() if soupe.select_one('div[class*="about-styles__AboutCompanyContainerInner"]') d'autre''
détails_du_travail = { 'Titre d'emploi': titre d'emploi, 'Description de l'emploi': Description de l'emploi, « Chiffres et faits »: nombres et faits, « À propos de la société »: à propos de l'entreprise }
retourner détails_du_travail d'autre: impression(f"Échec de la récupération des données. Code d'état : {réponse['en-têtes']['pc_status']}") retournerAucun
defenregistrer_les_détails_de_la_tâche_dans_json(données, nom de fichier='job_details.json'): avecouvert(nom de fichier, 'w') as fichier: json.dump(données, fichier, indent=4) impression(f"Données enregistrées dans {nom de fichier}")
if __nom__ == "__principale__": URL_du_travail = 'https://www.monster.com/job-openings/d94729d8-929e-4c61-8f26-fd480c31e931' détails_du_travail = scrape_job_page(url_du_travail)
if détails_du_travail : enregistrer_les_détails_du_travail_dans_json(détails_du_travail)
Le code ci-dessus montre comment inspecter les pages d'emploi de Monster.com, extraire des informations d'emploi spécifiques et les stocker dans un fichier JSON.
Exemple de sortie :
1 2 3 4 5 6 7 8 9 10 11 12 13 14
{ "Titre d'emploi":« Associé d'entrepôt de la station de livraison », "Description de l'emploi":« Associé d'entrepôt de la station de livraison Amazon »Présentation du posteVous ferez partie de l'équipe Amazon dévouée à la station de livraison, le dernier arrêt avant de livrer des sourires aux clients. Nos rôles rapides et actifs reçoivent des camions remplis de commandes, puis les préparent pour la livraison. Vous chargerez les bandes transporteuses et transporterez et organiserez les livraisons qui seront récupérées par les chauffeurs. Fonctions et responsabilités Certaines de vos tâches peuvent inclure : Recevoir et préparer les stocks pour la livraison Utiliser la technologie comme les smartphones et les appareils portables pour trier, numériser et préparer les commandes Construire, emballer, trier et transporter des palettes et des colis Vous devrez également être capable de : Soulever jusqu'à 2019 livres Recevoir les livraisons par camion Afficher les invites sur les écrans et suivre les instructions pour certaines tâches Se tenir debout, marcher, pousser, tirer, s'accroupir, se pencher et tendre les bras pendant les quarts de travail Utiliser des chariots, des diables, des diables et d'autres équipements pour déplacer des articles Monter et descendre des escaliers (le cas échéant) Travailler à une hauteur maximale de 2019 pieds sur une mezzanine (le cas échéant) À quoi cela ressemble dans une station de livraison Amazon Environnement. Vous travaillerez à proximité de machines en mouvement : préparateurs de commandes, chariots élévateurs à conducteur debout, chariots à tourelle et chariots mobiles.Activité. Certaines activités peuvent nécessiter de rester debout au même endroit pendant de longues périodes, de marcher ou de monter des escaliers.Température. Même avec des contrôles de climatisation, les températures peuvent varier entre 60\u00b0F et 90\u00b0F dans certaines parties de l'entrepôt; lors des journées chaudes, les températures peuvent dépasser 90\u00b0F dans la cour des camions ou à l'intérieur des remorques.Niveau de bruit. Cela peut parfois devenir bruyant. Nous fournissons une protection auditive si vous en avez besoin.Code vestimentaire. Détendu, avec quelques règles à respecter pour la sécurité. Des chaussures confortables et fermées sont requises et des chaussures de sécurité de protection sont requises dans certaines unités commerciales. Selon le rôle ou le lieu, Amazon propose un code cadeau Zappos de 110 $ pour l'achat de chaussures, afin de vous préparer pour votre premier jour de travail.Pourquoi vous adorerez AmazonNous avons des emplois qui conviennent à tous les styles de vie, des lieux de travail à la pointe de la technologie, des équipes qui soutiennent et écoutent nos associés, ainsi que des initiatives et des avantages axés sur l'entreprise pour vous aider à atteindre vos objectifs.Nos emplois sont à proximité, avec un excellent salaire et offrent un équilibre entre vie professionnelle et vie privée.Flexibilité des horaires. Selon l'endroit où vous travaillez, les horaires peuvent inclure un temps plein (40 heures), un temps réduit (30 à 36 heures) ou un temps partiel (20 heures ou moins), le tout avec la possibilité de travailler des heures supplémentaires si nécessaire. Apprenez-en plus sur nos horaires. Options de quarts de travail. Travaillez quand cela fonctionne pour vous. Les quarts de travail peuvent inclure la nuit, tôt le matin, le jour, le soir et le week-end. Vous pouvez même avoir des semaines de travail de quatre jours et des week-ends de trois jours. En savoir plus sur nos quarts de travail. Paiement en tout temps. Vous pouvez encaisser instantanément jusqu'à 70 % de vos gains immédiatement après votre quart de travail (pour certains groupes d'employés). En savoir plus sur Anytime Pay. Notre lieu de travail ne ressemble à aucun autre. Des installations à la pointe de la technologie. Nous disposons d'entrepôts modernes, propres et bien organisés.Sécurité. Votre sécurité est importante pour nous. Toutes les équipes partagent quotidiennement des conseils de sécurité et nous veillons à ce que des équipements de protection soient disponibles sur place. Veuillez noter que le port d'un casque de sécurité et/ou de chaussures de sécurité lors du travail est obligatoire pour certains postes sur certains sites.Notre équipe vous accompagne et vous écoute.Culture. Faites partie d'un milieu de travail inclusif qui offre une variété de programmes DEI et de groupes d'affinité. Environnement d'équipe. Travaillez dans de petites ou grandes équipes qui se soutiennent mutuellement dans un lieu de travail classé parmi les meilleurs au monde.De nouvelles compétences. Selon le rôle et le lieu, vous apprendrez à utiliser les dernières technologies d'Amazon, y compris les appareils portables et la robotique. Notre entreprise soutient vos objectifs. Avantages. Bon nombre de nos quarts de travail sont assortis d’une gamme d’avantages qui peuvent inclure des options de rémunération et d’épargne, des soins de santé, la tranquillité d’esprit pour vous et votre famille, et bien plus encore. Avancement de carrière. Nous nous sommes engagés à perfectionner les compétences de nos employés et à offrir une variété de programmes de formation et de développement gratuits. Nous proposons également des options de soutien aux frais de scolarité pour certains groupes d'employés. Découvrez où votre voyage Amazon peut vous mener. Apprenez-en plus sur toutes les raisons de choisir Amazon. Une liste complète des avantages et des critères offerts à chaque candidat retenu peut être trouvée ici.Exigences : Les candidats doivent être âgés de 18 ans ou plus et être capables de comprendre et de respecter toutes les exigences du poste et les consignes de sécurité en anglais.Comment commencerVous pouvez commencer par postuler ci-dessus. Si vous avez besoin d'aide pour votre candidature ou pour en savoir plus sur notre processus de recrutement, vous pouvez trouver de l'aide ici : https://hiring.amazon.com/hiring-process# /.Veuillez noter que si vous avez déjà une candidature active mais que vous cherchez à passer à un autre site, au lieu de postuler pour un nouveau poste, vous pouvez contacter l'aide à la candidature à l'adresse https://hiring.amazon.com/contact-us#/ pour les étapes suivantes.Si vous souffrez d'un handicap et que vous avez besoin d'un aménagement pendant le processus de candidature et d'embauche, y compris une assistance pour l'événement New Hire, ou si vous devez initier une demande avant de commencer votre premier jour, veuillez visiter https://hiring.amazon.com/people-with-disabilities#/ ou contacter l'équipe d'aménagement des candidats et des candidats (ACAT). Vous pouvez nous joindre par téléphone au 888-435-9287, du lundi au vendredi, entre 6 heures du matin. et 4 h PT.Equal EmploymentAmazon s’engage en faveur d’un lieu de travail diversifié et inclusif. , « Chiffres et faits »:{ "Emplacement":« Revere, Massachusetts », « Type de travail »:« Temporaire, à temps partiel », "Industrie":« Transport et stockage – Matériaux », "Un salaire":« 18.50 $ l'heure », « Taille de l'entreprise »:« 10,000 XNUMX employés ou plus », « Année de fondation »:"1994", "Site Internet":" http://Amazon.com/militaryroles " }, « À propos de la société »:« Chez Amazon, nous n'attendons pas que la prochaine grande idée se présente. Nous imaginons la forme de choses impossibles et nous les concrétisons avec audace. Jusqu'à présent, cet état d'esprit nous a aidés à réaliser des choses incroyables. Construisons de nouveaux systèmes, remettons en question le statu quo et concevons le monde dans lequel nous voulons vivre. Nous pensons que le travail que vous faites ici sera le meilleur travail de votre vie. \nOù que vous en soyez dans votre exploration de carrière, Amazon a probablement une opportunité pour vous. Nos chercheurs scientifiques et ingénieurs façonnent l'avenir de la compréhension du langage naturel avec Alexa. Les associés des centres de traitement des commandes du monde entier envoient les commandes des clients de nos entrepôts à domicile. Les chefs de produit définissent les exigences en matière de fonctionnalités, la stratégie et les messages marketing pour de toutes nouvelles expériences client. Et à mesure que nous grandissons, nous ajouterons des emplois qui n'ont pas encore été inventés. \nC'est toujours le jour 2019 \nChez Amazon, c'est toujours le jour 2019. \u2019d Mais qu'est-ce que cela signifie et pourquoi est-ce important ? Cela signifie que notre approche reste la même que lors du tout premier jour d'Amazon : prendre des décisions intelligentes et rapides, rester agile, inventer et rester concentré sur la satisfaction de nos clients. Dans notre lettre aux actionnaires de 2019, le PDG d'Amazon, Jeff Bezos, a partagé ses réflexions sur la manière de conserver un état d'esprit d'entreprise du premier jour. « Pour rester au premier jour, il faut expérimenter patiemment, accepter les échecs, planter des graines, protéger les jeunes pousses et redoubler d'efforts lorsque vous constatez la satisfaction des clients », a-t-il écrit. « Une culture obsédée par le client crée les meilleures conditions pour que tout cela puisse se produire. » Vous pouvez lire la lettre complète ici. « Nos principes de leadership » Nos principes de leadership nous aident à conserver une mentalité du premier jour. Ils ne sont pas seulement une jolie tenture murale inspirante. Les employés d'Amazon les utilisent au quotidien, qu'ils discutent d'idées pour de nouveaux projets, décident de la meilleure solution pour résoudre le problème d'un client ou interviewent des candidats. Pour lire nos principes de leadership, de l'obsession du client à la tendance à l'action, rendez-vous sur https://www.amazon.jobs/principles" }
Supprimez les emplois monstrueux avec Crawlbase
L'extraction d'offres d'emploi depuis Monster.com peut révolutionner votre approche de la collecte de données sur l'emploi. Ce guide vous explique comment configurer un environnement Python, créer un scraper de pages Monster.com, gérer la pagination par défilement et stocker vos informations.
Pour des sites comme Monster.com qui s'appuient sur JavaScript, des outils tels que Crawlbase Crawling API Les techniques de scraping Web sont très utiles. Vous pouvez adapter cette méthode à vos besoins, que vous souhaitiez créer un système de suivi de travail personnel ou collecter des données pour un projet à grande échelle. Continuez à élargir vos connaissances et n'oubliez pas qu'un scraping Web efficace repose sur la sélection d'outils et de techniques adaptés.
Pour élargir vos compétences en matière de scraping Web, pensez à consulter nos prochains guides sur l'extraction de données à partir d'autres sites Web clés.
Si vous avez des questions ou des commentaires, notre équipe de soutien est toujours disponible pour vous aider dans votre parcours de scraping Web. Bon scraping !
Foire aux questions (FAQ)
Q. Puis-je extraire des offres d'emploi de Monster.com à l'aide de bibliothèques Python de base ?
Vous pouvez essayer de récupérer les données de Monster.com à l'aide de bibliothèques Python basiques comme requests et BeautifulSoup. Cependant, le site utilise JavaScript pour afficher le contenu. Il est donc difficile pour les méthodes de récupération simples de récupérer correctement les offres d'emploi. Pour gérer JavaScript et modifier le contenu, nous vous suggérons d'utiliser Crawlbase Crawling API.
Q. Comment gérer la pagination lors du scraping de Monster.com ?
Monster.com charge plus d'offres d'emploi à mesure que vous faites défiler la page. C'est ce qu'on appelle la pagination par défilement. Pour gérer cela, vous pouvez utiliser l' scroll et scroll_interval paramètres dans le Crawlbase Crawling API. Cette méthode garantit que votre scraper agit comme un véritable utilisateur qui défile et obtient autant d'offres d'emploi que possible.
Q. Le scraping de Monster.com est-il légal ?
Vous devez vérifier les conditions d'utilisation du site pour être sûr de ce que vous pouvez récupérer légalement. Il est également important de récupérer de manière responsable en respectant robots.txt règles et en évitant les demandes excessives qui pourraient surcharger leurs serveurs.
Hassan Rehan
Hassan Rehan est ingénieur logiciel chez Crawlbase Fort de plus de 5 ans d'expérience dans la création d'applications web évolutives, il est spécialisé en Java, Python et JavaScript. Fort d'une solide expérience en web scraping, il a développé plusieurs extensions Chrome de premier ordre. En tant que rédacteur technique principal chez CrawlbaseIl crée du contenu technique et anime des webinaires. Auparavant, il a collaboré avec des entreprises de premier plan, notamment Mentor Graphics (Siemens), Etisalat UAE et Systems Limited.
Protégez votre robot d'exploration Web contre les requêtes bloquées, les échecs de proxy, les fuites d'IP, les plantages de navigateur et les CAPTCHA !
Crawlbase est une solution de scraping de données tout-en-un conçue pour répondre à un large éventail de besoins en matière de données Web. En savoir plus