nickspringМои соображения по поводу т. н. непота

  20.05.2007, nickspring

Оговорюсь, что речь идет о т. н. новом (автоматическом?) фильтре Яндекса, которому подверглось очень большое число морд Рунета и который многие предпочитают сравнивать и сопоставлять с непот-фильтром. По ряду проведенных экспериментов и наблюдений:

1. Фильтр накладывается не на сайт, а лишь на некоторые ссылки конкретного документа.

2. Работает,

Добавить в  google.com bobrdobr.ru del.icio.us technorati.com linkstore.ru news2.ru rumarkz.ru memori.ru moemesto.ru

Комментарии (9) к статье "Мои соображения по поводу т. н. непота"

  1. Коля Дубр пишет:

    Люди, пишущие программы для массовой проверки на непот и желающие «срубить» на этом денег, не учитывают некоторые тонкие моменты, чем вводят в заблуждение пользователей.

    За всех продавцов непотометров говорить не буду, скажу за Костю Каширина, с которым вчера на эту тему общался. Он вполне резонно сказал: "Мой сервис почти ни для каких морд не покажет, что работоспособность равна 100%, но зато морду с нулевым эффектом он не пропустит". Мне кажется, такая постановка вопроса вполне разумна, и никого в заблуждение не вводит

    По остальным пунктам — спасибо за наблюдения, с чем-то согласен, с чем-то нет

  2. nickspring пишет:

    Коля Дубр, в том то и фишка, что с нулевым запросто пропустит, есть куча примеров морд, когда нет ни одной внешней ссылки, удовлетворяющей условию проверки. Просто, возможно, Константин не знает о всех условиях.

  3. Коля Дубр пишет:

    Если честно, я его сервис лично не тестил, вчера только условия узнал Неужели случаи, когда невозможно установить наличие ссылочного с донора, будут трактоваться в положительную сторону?

    Просто, возможно, Константин не знает о всех условиях

    А о всех — никто не знает Хотя общими силами собрали их уже немало ))

  4. nickspring пишет:

    Неужели случаи, когда невозможно установить наличие ссылочного с донора, будут трактоваться в положительную сторону?

    Нет, но и не в отрицательную, так что получается пропустит .

  5. Scan пишет:

    Коля, какая травля? Как только оптимизаторы делают что-то такое, что начинает заметно влиять на выдачу, поисковые системы просто обязаны это отфильтровать, иначе им грош цена.

    Беда не в том, что поисковики фильтруют какие-то параметры, влияющие на ранжирование (ссылочное, например). Беда в том, что один умный человек создает инструмент (биржу ссылок), а масса тупых леммингов продвигает с помощью этого инструмента свое говно.

    Хочешь сделать интернет лучше - не берись за продвижение плохих сайтов. Берешься - не жалуйся на поисковые системы.

  6. letov пишет:

    плохие — это какие?

  7. Scan пишет:

    Плохие - которые при попадании в топ вызывают желание их забанить

  8. The end пишет:

    nickspring, а где обещанная статья?

  9. nickspring пишет:

    Статью я не написал по ряду причин, теперь уже поздно, но вот статистика по 1500 занепоченным мордам:

    http://controlstyle.ru/trash/np-report-april-2007/

Оставьте комментарий

Уважаемые SEOш... спамеры! Ссылки в комментариях в теге «noindex» и с атрибутом «nofollow». Пишите, пожалуйста, по делу.

Присылать комментарии на