Ищу уже который день способ парсить страницы как можно быстрее и эффективней.
Парсинг происходит через прокси, так как если с одного ип делать слишком частые запросы на сайт(который парсим) возвращаются ошибки о временной блокировки (анти ddos).
Мне нужно просто загружать страницы, т.е. параметры передавать не нужно. Обычные Get запросы.
Какие классы лучше использовать? Я использовал
HttpWebResponse/RequestиWebResponse/Request. У этих классов у меня возникает иногда трабла с proxy, некоторые адреса очень долго не отвечают и потоки в которых делю запрос зависают. Возможно есть другие более эффективные способы сделать GET запрос через прокси? Мб стоит использовать другую библиотеку, например CURL?Как эффективней организовать работу с потоками? Использовать просто массив потоков? Использовать трэдПул? Смотреть в сторону асинхронности?
Если есть возможность предоставьте наиболее эффективный и простой пример с многопоточным совершение GET запросов через прокси.