Стоит ли блокировать прямые заходы (пустой refer)?

Доброго времени суток всем!
Просмотрел много информации. Рекомендуют пропускать через капчу http < 2 (т.е. старые версии протокола), а так же пустой рефер - прямые заходы. С http < 2 полностью согласен. А вот нужно ли отсекать прямые заходы (см. скрин ниже)? Т.е. по ссылке - заход происходит сразу на сайт. А если ввести с клавиатуры или из избранного выбрать - то появится несложная капча перед переходом на сайт, не отпугнет ли это потенциальных клиентов, которые принимают решене не сразу? К примеру запомнили сайт или добавили в избранное. Мой сайт во время атаки на хостинг был взломан 2 раза за 3 дня. После этого решил поставить защиту.
Подскажите Ваше мнение. Нужно ли защищать капчей пустой рефер?
Спасибо за помощь!

Good day to everyone!
I looked through a lot of information. It is recommended to pass http < 2 through the captcha (i.e. old versions of the protocol), as well as an empty referral - direct visits. I completely agree with http < 2. But is it necessary to cut off direct calls (see the screenshot below)? That is, by the link - the visit takes place immediately on the site. And if you type from the keyboard or select from favorites, then a simple captcha will appear before going to the site, won’t this scare away potential customers who do not decide immediately? For example, they remembered the site or added it to favorites. My website was hacked 2 times in 3 days during the hosting attack. After that, I decided to put up protection.
Tell me your opinion. Do I need to protect an empty ref with a captcha?
I apologize for the translation.
Thank you for your help!

Не знаю, откуда вы взяли такой совет, но я бы точно не стал блокировать запросы HTTP 1.1.

Точно так же блоки рефереров в большинстве случаев бессмысленны.

С этим согласен! Не поспоришь, удалил уже рефер из правил.
I agree with that! You can’t argue, I have already removed the referee from the rules.

С видео на Ютуб, их не так много, и все рекомендуют блокировать запросы HTTP 1.1 и рефер. С первого взгляда логично, добавляем “белых” роботов в исключение и блокируем старый протокол. Но, получается куча проблем.

With videos on YouTube, there are not so many of them, and everyone recommends blocking HTTP 1.1 requests and referrals. At first glance, it is logical to add “white” robots to the exception and block the old protocol. But, it turns out a lot of problems.

Спасибо Вам за помощь Sandro!
Thank you for your help Sandro!

Главный вопрос заключается в том, от чего вы пытаетесь защититься.

Я не могу сказать, как был скомпрометирован ваш сайт, но CAPTCHA, вероятно, не поможет. Вам необходимо убедиться, что сам сервер безопасен.

Я бы посоветовал отказаться от CAPTCHA на основе версии HTTP и реферера и сосредоточиться на безопасности сервера.

Что касается видео на Youtube, то многим из них (если даже большинству) просто нельзя доверять.

Согласен. Там много не совсем нужной информации…
Белых ботов пропускаю настройками на скрине. Можно ли сюда добавить МАК-адрес Битрикс робота?
Спасибо.

I agree. There is a lot of information that is not quite necessary…
I skip the White bots with the settings on the screenshot. Is it possible to add the MAC address of Bitrix Work here?
Thank you.

Вы можете добавить IP-адрес в этот список.

Что касается блоков HTTP, вы также можете посмотреть на [FirewallTip] HTTP and a welcome to 1996.

1 Like

Ну, после настроек Cloudflare прекратилось. Правда, каждую неделю обновляю компоненты сервера.

Well, after the settings, Cloudflare stopped. However, I update the server components every week.

Боюсь, это, вероятно, вопрос к администратору вашего сервера.

This topic was automatically closed 3 days after the last reply. New replies are no longer allowed.