Наполнение сайта

Так ли уж важен для сайта уникальный контент?

Самый распространённый миф поисковых систем – уникальный контент. С одной стороны оно и ясно – уникальный контент – это главный двигатель интернета. Это именно то, что интересует пользователя интернета прежде всего.

А поисковые системы всегда стоят на защите пользователей интернета, так как практически все пользователи интернета – это пользователи поисковых систем. Но так всё только лишь в теории, а на практике всё совершенно по другому.

Наполнение сайта

Кто сказал, что посетителя в основном интересует именно уникальный контент? Всё это неправда. Посетителя прежде всего интересует полезный контент, причём именно тот, который он ещё не видел. А это не обязательно уникальный контент.

Ведь не может же один пользователь быстро прочитать миллионы самых разных единиц контента, даже если на поиск каждой единицы потребуются секунды. Таким образом контент стареет и растаскивается по другим сайтам, и таким образом становится неуникальным. А так как это растаскивание происходит ежесекундно, и нападению «растаскивателей» подвержены все существующие сайты, то можно констатировать, что в интернете вообще не имеется уникального контента.

Вот так и получается, что хорошая, светлая идея уникальности контента не играет никакой практической роли. Посетителей сайтов интересует не уникальный контент, а полезный контент, но и этого мало. Контент должен быть ещё и интересным, иначе большой процент его полезности просто теряется. Но и это ещё не всё. Он должен быть качественным, чтобы его можно было усвоить без всяких проблем.

Причём интересность и качество – это разные вещи. Даже если контент не интересен, но полезен (например, описание какой-то новой технологии), он не перестаёт быть полезным. А вот если текст написан плохо, да ещё с ошибками, то до полезных качеств можно попросту не добраться. Вот именно эти качества и являются главными для любого контента, а уникальность если и играет какую-то роль, то только чисто гипотетическую.

Теперь рассмотрим вышеприведённое утверждение на практике:

  • • Заходим в поисковую выдачу Гугла или Яндекса по любому популярному запросу;
  • • Открываем первый же попавшийся сайт, переходим на какую-либо внутреннюю страницу и копируем небольшой кусок любой фразы из размещённой на этой странице статьи;
  • • Потом вводим скопированное в строку поиска и ищем. И нашему взору откроется множество сайтов с той статьей, из которой взята эта фраза.

То есть, получается, что в топе поисковой системы по популярному запросу из статьи (отметим это особо!) оказался сайт, не обладающий уникальностью этой самой статьи. Для чистоты эксперимента можем взять некоторые другие фразы с некоторых других статей, поискать по ним, и мы увидим то же самое – все статьи с «топового» сайта – не уникальны, все они размещены на многих других сайтах. И самое интересное при этом то, что «наш» сайт зачастую не в топе, а то и вовсе его не видно.

Эксперимент этот можно продолжить до бесконечности, но в большинстве случаев мы не обнаружим полностью уникальных статей, а если и обнаружим, то случайно и ненадолго – любая появившаяся на каком-нибудь сайте уникальная статья тут же воруется и тиражируется на многих других сайтах. Причём в большинстве случаев процесс этот производится автоматически – существует огромная масса роботов-копипастеров, которые рыскают по интернету в поисках уникального контента и работают очень быстро. Конечно, многие сайты пытаются защититься от несанкционированного копирования своего контента (то есть воровства), но подавляющее большинство средств защиты на сегодня уже устарело – они прекрасно подавляются современными средствами воровства, и практически любой сайт сегодня беззащитен, особенно если учесть, что и жаловаться, в принципе, некому.

Некоторое время назад Яндекс анонсировал одну из своих функций, которая, по идее, должна была помочь вебмастерам защитить свой уникальный контент. Называется эта функция – «Оригинальные тексты». Идея такая: автор, разместив на своём сайте уникальную статью, полностью принадлежащую ему (сам написал, или купил права на неё у какого-то копирайтера), тут же загружает в специальную форму на Яндексе её текст с указанием своего сайта, на котором она размещена. Яндекс фиксирует эти данные, и указанный сайт считает первоисточником. Таким образом, если эта статья впоследствии появится на каких-нибудь других сайтах, то они не будут считаться первоисточниками, то есть от её размещения никакого гешефта не поимеют, по крайней мере, в Яндексе.

В Гугле тоже есть некое подобие такой защиты, правда, менее функциональное технически, но всё же есть – через связь контента со своим профилем, который имеется в +Google. Казалось бы – проблема решена раз и навсегда.

Однако эта система совершенно не работает. Почему именно не работает – не так уж и важно, главное, что всё это совершенно не защищает сайты от копирования контента. Контент по-прежнему воруется, и сайты-воры по-прежнему выходят в топы выдачи поисковых систем. Мало того, никакие жалобы в администрацию Яндекса и Гугла по поводу воровства контента попросту не принимаются. Проведённые исследования показали, что если сайт-вор имеет больший траст, чем сайты-источники, с которых он «позаимствовал» свои статьи, то он будет в выдаче выше по всем необходимым запросам, чем все его жертвы.

С одной стороны возникает вполне законное недоумение, как такой беспредел может твориться? Но с другой всё понятно и без пояснений – интернет по-прежнему живёт по закону джунглей, и прав тот, кто сильней. Если Яндекс или Гугл будут заниматься тяжбами по поводу сворованного контента, то им только этим и придётся заниматься. А все эти так пышно прорекламированные функции типа «Оригинальные тексты» и иже с ними – это обычные пиар-акции, единственное предназначение которых – поднять значимость поисковых систем в глазах пользователей, а не вебмастеров и СЕО-оптимизаторов.

В общем, исходя из всего вышеизложенного, должно быть понятно, что уникальность контента в глазах поисковых систем не играет совсем никакой роли. Единственное, на что обращают внимание поисковые системы – это на интерес посетителя того или иного сайта. Пусть на сайте будет хоть самый уникальный-разуникальный контент – он не выберется в топы, если посетитель на этом сайте проводит очень мало времени, демонстрируя, что сайт ему не интересен.

И наоборот – если сайт набит копипастом под самую завязку, но посетители «сидят» на нём часами – то значит сайт интересный, полезный, качественный. Такой сайт – прямой кандидат на топы выдачи. И других критериев не существует. Нет, есть, конечно, и другие факторы успешного продвижения веб-ресурсов в поисковых системах – ссылочная масса, например, или постоянное обновление сайта, — но это совершенно другие темы, и место им на страницах совершенно других исследований!


Оставьте свой комментарий: