Создать 8 парсеров на scrapy
Для каждого сайта надо создать краулер и сборщик items с использование фреймворка scrapy. Сохранение items нужно реализовать в базу данных mongodb. Проект должен запускаться в docker-compose, для запуска спайдеров использовать scrapyd. По каждому сайту необходимо собрать данные и сохранить в базу.
- Для работы будет предоставлен сервер и прокси.
- Срок на выполнение задачи 1 месяц.
- Приемка задачи поэтапная по каждому сайту.
- Критерий приемки - полнота собранных данных.
Оплата на карту с оформлением договора подряда. Сумма указана за проект и включает в себя подоходный налог 13%.