# Передача данных в Crawler

Avant de pouvoir transférer l'adresse URL vers Crawler, tu vas vraiment le faire Créer un nouveau Crawler один здесь (открывается новое окно) (ouvre une nouvelle fenêtre).

Que faire pour l'adresse URL pour la numérisation Crawler, vous devez utiliser Crawling API avec deux paramètres supplémentaires :

In ответ на ваш push-уведомление поискового робота, L'API utilise automatiquement la version JSON pour l'identification unique du RID. C'est RID qui vous permettra d'identifier les problèmes dans votre entreprise à un moment donné.

Voici un exemple de l'installation push :

{ "rid": "1e92e8bff32c31c2728714d4" }

Vous pouvez ajouter 30 adresses URL par seconde à Crawler.

# Crawler limite de durée de vie des travailleurs

Общая сумма для всех Crawler ожидание очередей ограничено 1 млн страниц. Si l'argent est trop grand ou si vous avez un peu plus de 1 million de dollars, vous Crawler L'interrupteur à pression est maintenant à portée de main et je vous l'utilise avec une prise électrique. Crawler Le bouton-poussoir s'ouvre automatiquement, jusqu'à ce que la quantité de liquide contenue dans l'ordonnance soit inférieure à 1 million.

# Отправка дополнительных данных

Si vous avez la possibilité d'utiliser des articles polonais pour votre travail, si vous n'utilisez pas callback_headers paramètre. Cela pourrait être utile pour les personnes qui ont déjà acheté des données dans certaines identifications de votre magasin.

Format suivant : HEADER-NAME:VALUE|HEADER-NAME2:VALUE2|etc. И он должен быть правильно закодирован.

Пример заголовков и значений MY-ID 1234, some-other 4321

&callback_headers=MY-ID%3A1234%7Csome-other%3A4321

Ces articles sont publiés dans les publications précédentes.