Этот пользователь не опубликовал ещё ни одного поста. Мы помогаем изо всех сил — теперь дело за автором!
Vira ShkrebtsovaPR Specialist в Netpeak Software
3 августа 2022
Антон Куниченко
5 июля 2022
Насколько это актуально сейчас для США?
Антон, попытаюсь ответить на ваш вопрос: Общий регламент по защите данных (GDPR) действует только в Евросоюзе. Что касается США, то на данный момент ситуация следующая: 1) Только в Калифорнии (CCPA), Вирджинии и Колорадо есть единые и всеобъемлющие законы о защите персональных данных. Они, разумеется, применяются только к жителям этих трех штатов и не распространяются на всю страну. 2) На федеральном уровне в стране действует ряд разрозненных законов, регулирующих лишь отдельные виды данных. Среди них — Акт о мобильности и подотчетности медицинского страхования (HIPAA), Закон о конфиденциальности электронных сообщений (ECPA), Закон о защите конфиденциальности детей в Интернете (COPPA) и другие. 3) Единый закон пытаются лоббировать различные эксперты, активисты и отдельные чиновники. Однако пока что его принятие не обсуждается на высшем уровне.
Vira ShkrebtsovaPR Specialist в Netpeak Software
14 февраля 2023
Анонимная сова
14 февраля 2023
robots.txt не забороняє індексування, він забороняє сканування. Різниця в тому, що бот все одно просканує сторінку, якщо знайде на неї зовнішнє посилання (з інших доменів), і викине в індекс, тому що файл robots.txt не повʼязаний з правилами індексування. вам варто краще перевіряти матеріал, читати справку наприклад (пряма цитата - "Файл robots.txt не предназначен для того, чтобы запрещать показ ваших материалов в результатах поиска Google. ") таклж можу стверджувати (перевірено на практиці) - Disallow в роботс.тхт не допоможе з відсутністю сторінки в індексі, якщо на сторінку ведуть інші посилання. У вас просто буде в видачі сторінка без сніпету (бо бот її не можу пріндексувати і витягнути контент)
Дякую за ваш цінний коментар! Проте немає 100% гарантії, що сторінка буде проіндексована через зовнішнє посилання, але вірогідність дуже висока. На практиці таке не часто трапляється, та ризик все ж таки є. Від індексації краще закривати тегом Robots зі значенням Noindex. Або HTTP заголовком зі значенням Noindex. І у жодному разі не можна закривати сторінку від індексації й від сканування одночасно, бо в таких випадках вірогідність індексації сторінки теж залишається. Довідка Google пояснює це тим, що бот не зможе просканувати сторінку, закриту через robots.txt, а тому не побачить закриваючого тегу Robots Noindex і зможе відправити її в індекс не скануючи.
Нравится комментарий?
Чтобы поставить комментарию отметку «Нравится», пожалуйста, зарегистрируйтесь (в этом случае вы получите массу плюшек от Netpeak Software) или войдите в свой аккаунт.
Хотите ответить на комментарий?
Чтобы ответить на комментарий к посту, пожалуйста, зарегистрируйтесь (в этом случае вы получите массу плюшек от Netpeak Software) или войдите в свой аккаунт.