# Übertragen de données à die Crawler

Avant de cliquer sur les URL et de les cliquer sur la souris CrawlerVous devez commencer créer un nouveau Crawler Einer hier (öffnet neues Fenster) (ouvre une nouvelle fenêtre).

Um URLs zu pushen, die von der Crawler, vous devez les utiliser Crawling API avec deux paramètres précis :

In Répondez à votre question Crawler-PousserEnvoyez l'API une création JSON avec une seule prise en charge (RID). Ce RID est unique et prend en charge les services fournis dans le cadre de la période d'identification.

Exemple d'une réponse Push :

{ "rid": "1e92e8bff32c31c2728714d4" }

Standardmäßig können Sie bis zu 30 URLs pro Sekunde an die Crawler.

# Crawler Limite de taille de chaîne

Le total de tous Crawler Warteschlangen est auf 1 Million Seiten begrenzt. Lorsqu'un ou tous les Warteschlangen zusammen mehr als 1 Million Seiten umfassen, Crawler Appuyez dessus pour mettre en pause et vous pourrez vous connecter par e-mail. Crawler Le Push-Vorgang sera automatiquement fortifié, ce qui signifie que l'analyse de la page dans le Warteschlange (den Warteschlangen) est inférieure à 1 million de dollars.

# Übermittlung zusätzlicher Daten

En option, vous pouvez utiliser l'en-tête défini pour votre appareil lorsque vous le souhaitez. callback_headers Paramètre. C'est idéal, um zusätzliche Daten zu Identifikationszwecken an Ihre Seite weiterzugeben.

Le format est le suivant : HEADER-NAME:VALUE|HEADER-NAME2:VALUE2|etc. Et il faut que ce soit riche en code.

Exemple d'en-tête et de valeur MY-ID 1234, some-other 4321

&callback_headers=MY-ID%3A1234%7Csome-other%3A4321

Cet en-tête est affiché dans le Webhook-Post-Anfrage zurückgegeben.