Когда вы получаете 403 или 429, первое желание — ускорить ротацию IP. Но в 2025 году у крупных сайтов антиботы анализируют не только адрес источника. Важны сигнатуры TLS (JA3/JA3S/JA4), наборы заголовков, соответствие User-Agent и поддерживаемых протоколов, стабильность cookie jar и сессий, HTTP/2 приоритезация, даже мелочи вроде порядка заголовков и интервалов между запросами. Мобильный прокси сам по себе не исправит расхождение. Если ваш клиент шлет редкий набор шифров или «комбо» заголовков, которые типично оставляют библиотеки, а не браузер, вы получите 403 как «подозрительный клиент» или 429 как «слишком активный автомат».
Вторая блок причин — IP-репутация, ASN и география. Операторы связи используют CGNAT, из-за чего один IP одновременно делят десятки и сотни абонентов. Это плюс (много живого трафика), но и минус: если на IP до вас был всплеск автоматизированных действий, репутация падает. На некоторых сайтах «под краской» работают плотные скоринговые модели: странный ASN (автономная система), непривычная география для конкретной страницы, резкий «холодный старт» без прогрева — и вы видите 403. Иногда 429 генерируется как мягкий барьер: сайт говорит «я вижу твой тип клиента и скорость — притормози». Правильный backoff и уважение к Retry-After решают половину кейсов.
Третье — сессии и кэш. Многие забывают, что мобильный прокси хорош, когда вы ведете себя как пользователь: сохраняете куки, ETag/Last-Modified, соблюдаете кеширование, не скачете между протоколами, не теряете токены. Работать «в лоб» без cookie jar и с постоянной ротацией IP — все равно что каждый раз заходить в магазин в новом парике и требовать скидку по прежней карте. Современные WAF/антиботы (Cloudflare, F5, Akamai, PerimeterX и др.) умеют связывать сигналы: IP, время, поведение, подписи клиента, последовательность событий. Чем стабильнее и правдоподобнее ваш след, тем меньше шансов словить жесткий 403.
Наконец, банальные сетевые мелочи: резкие таймауты, прерывания TCP, неверная обработка HTTP/2 GOAWAY, отсутствие SNI/ALPN соответствия User-Agent, несовместимые промежуточные сертификаты — все это попадает в телеметрию и косвенно влияет на решетку антибота. Убедитесь, что библиотека/рантайм (Python requests, Node fetch, Go http, curl и т. п.) настроены корректно: включен HTTP/2 там, где его ждет сайт; порядок заголовков не «кричит» о боте; а Keep-Alive/Sessions не уничтожаются после каждого запроса. Точки коррекции тут обычно простые: реалистичные заголовки, единый HTTP-клиент с закрепленными параметрами, реплика реального браузерного стека (или использование безголовых браузеров с честной эмуляцией).
- Проверьте соответствие User-Agent возможностям клиента: поддержка HTTP/2, списки шифров TLS, ALPN и SNI должны совпадать с заявленным браузером.
- Стабилизируйте сессии: храните куки, не меняйте IP и отпечаток в рамках одной логической сессии, используйте аккуратную ротацию.
- Соблюдайте backoff и читайте Retry-After: 429 — это приглашение к диалогу по скорости, а не стенка, которую пробивают числом потоков.