Оптимизация сайта под Яндекс и какие нужно приложить усилия по поисковому продвижению сайта, что бы этот сайт попал в желанный ТОП Яндекса. Но что бы эти усилия не пропали даром, надо себе четко представлять как работает этот робот, кто и что за ним стоит, что стоит далать, а чего ни в коим случае делать нельзя. SEO продвижение в нынешних временах приобрело очень большое количество мифов. Да таких, что выдумку отличить от реальности бродя по различным блогам и форумам бывает очень и очень непросто
Выражение ТОП, что в переводе «вершина», уже прочно закрепилось в оптимизаторском словаре. Десять первых результатов на странице выдачи поисковой машины и называются ТОПом. ТОП это святая цель каждого оптимизатора. ТОП - это новые клиенты, новые посетители для сайта и в результате больше доходы. Но попасть туда бывает очень непросто.
И основная причина - жесткая конкуренция оптимизаторов друг с другом. Многие оптимизаторы, натыкаясь на какую-то ценную информацию или приходя к понимаю важных принципов продвижения, стремятся использовать их в одиночку, чтобы обеспечить себе конкурентное преимущество. Но, стоит, алгоритму Яндекса немного измениться, как все это преимущество быстро тает. Самое интересное, что жесткая конкуренция наблюдается во многих сферах бизнеса, но это не мешает руководителям и предпринимателям организовывать отраслевые сообщества и делиться своими находками. Поэтому мы не считаем версию о конкуренции главной причиной нежелания обмениваться информацией.
Истина, нам кажется, немного глубже. Еще совсем недавно Яндекс имел массу своеобразных недочетов. Например, ТИц можно было «поднимать до небес» при помощи XSS-уязвимостей чужих сайтов, а попасть в ТОП, можно было при помощи поискового спама или линк-бомбинга. Кто-то нашел очередную «тему» по накрутке позиций или ТИЦ и эксплуатирует ее по-полной. Но вот уже «тема спалена» публично, и Яндекс прикрыл брешь. Пока не найдется новая лазейка.
Кто же захочет делиться информацией в таких условиях? Но времена меняются. Яндекс стал гораздо более интеллектуальным и динамичным. Прикрыты все возможные способы накруток, а любые появляющиеся недочеты очень быстро устраняются. Поисковый спам, линк-бомбинг- все это уже в прошлом и давно уже не работает. Манипуляция поисковой выдачей пресекается все жестче и жестче. Наступает время «белого» SEO.
По-сути «палить» больше нечего. Все рабочие подходы известны и выложены публично в сеть на форумах и блогах. Даже Яндекс принимает участие в информировании владельцев сайтов о том, как лучше их разрабатывать, и чего стоит избегать.
SEO -мифы и реальность
Но по неведомой нам причине мифотворчество, так распространенное в те времена,что продолжает здравствовать и сегодня. Чуть ли не каждую неделю на Серче обсуждаются совершенно новые мифические фильтры и еще более мифические причины их наложения, придумываются сверхъестественные объяснения вылета сайтов из топов или попадания их под АГС. Это и создает информационный шум, который мешает искать полезную информацию.
Как Яндекс ранжирует сайты
Задача Яндекса - дать наилучший ответ на поисковый запрос пользователя. Для этого Яндексу, прежде всего, необходимо проиндексировать миллиарды документов, найденных по всему интернету, чтобы не упустить ничего важного. А затем в тот момент, когда пользователь задает поисковый запрос быстро вывести релевантные, то есть соответствующие запросу страницы.
Однако в день к Яндексу обращаются миллионы пользователей с разными запросами. Трудно представить, что сотрудники Яндекса могут всегда проконтролировать, что по каждому запросу выдаются наилучшие результаты. Так как же Яндекс решает задачу поиска наиболее подходящих страниц?
Поисковая система - мощный искусственный интеллект
Решение заключается в машинном обучении поисковой системы и превращении Яндекса в своеобразный искусственный интеллект. Поясним это на примере из статьи «Матрикснет-новое качество поиска Яндекса».
Представьте, что перед нами стоит задача научить робота отбирать самые вкусные яблоки. Для этого мы берем ящик яблок и по очереди пробуем все яблоки на вкус, раскладывая вкусные яблоки в одну сторону, а невкусные - в другую. Теперь наступает очередь робота. Конечно, робот не может попробовать яблоки на вкус, но он может оценить их размер, цвет, твердость, содержание сахара и кислоты. Робот оценивает свойства яблок и определяет зависимость между этими свойствами и вкусом.
После такого обучения робот сможет самостоятельно отбирать самые вкусные яблоки. Однако в этот процесс может вкрасться ошибка, например, робот может посчитать вкусным червивое яблоко, ведь он ничего не знает о червях. Поэтому чем больше свойств предмета анализируется в процессе машинного обучения, тем ниже будет вероятность ошибки.
Точно так же, обучается и Яндекс находить лучшие страницы под любые поисковые запросы. Специально обученные сотрудники Яндекса (асессоры) учат поисковую систему «отделять зерна от плевел». Асессоры задают поисковой системе ряд запросов, а затем детально оценивают, качество поисковой выдачи. Яндекс же определяет закономерности между свойствами запросов и релевантных страниц.
Обучение Яндекса происходит постоянно. Получая все больше и больше данных для анализа, искусственный интеллект Яндекса развивается и учится отвечать на вопросы пользователей все более правильно.
Матрикснет на страже топа
Получается, чуть ли не идеальная картина. Есть искусственный интеллект, который нужно просто обучать, и он будет становиться все совершеннее и совершеннее. Но так ли все прекрасно на самом деле? Почти... Но у машинного обучения есть один большой недостаток, называемый переобучением. Суть переобучения в том, что алгоритм отлично работает на примерах, участвующих в обучении, но плохо в реальной ситуации. Получается, что в процессе обучения система обнаруживает какие-то случайные несуществующие закономерности в обучающей выборке. И в результате Яндекс мог подмешивать в поисковую выдачу нерелевантные результаты.
1 апреля 2009 года Яндекс объявил о запуске нового алгоритма машинного обучения - Матрикснета Яндекс. Особенность данного алгоритма - устойчивость к переобучению и гибкий учет сотен и тысяч факторов ранжирования. Кроме того, Матрикснет позволяет применять особые правила ранжирования по узким запросам.
Есть ли шансы у оптимизаторов?
Что это значит для оптимизаторов? Фактически, сегодня Яндекс получил возможность подстраивать алгоритмы ранжирования отдельно в каждом регионе и в каждой тематической нише. А значит, особенности продвижения сайтов в разных ситуациях могут значительно отличаться. Матрикснет также дает Яндексу возможность быстрее и гибче подстраиваться под изменяющиеся реалии интернета. В результате Яндекс может значительно легче отсеивать поисковый спам, некачественные и «переоптимизированные» сайты.
Стало ли сложнее продвигать сайты? И да, и нет. Продвигать сайты стало дороже - это точно, и продвижение сайтов стало бесспорно занимать больше времени. Но есть и хорошая новость, продвижение сайтов стало более стабильным. Хороший сайт, попавший в топ, пускает там корни. Если оптимизатор делает все основательно и правильно, то выбить его сайт из топа ой как не просто. А вот как заставить Яндекс «влюбиться» в ваш сайт и подарить ему место в топе мы далее и обсудим...
Какие сайты любит Яндекс
Большое заблуждение многих начинающих оптимизаторов заключается в том, что они считают, что качество продвигаемого сайта не влияет на его попадание в топ. Поэтому они начинают продвижение сайта с активного наращивания ссылочной массы и клепания десятков SEO-текстов, переполненных ключевыми фразами. Если тематика сайта конкурентная, то все заканчивается вполне предсказуемо - сайт сначала попадает в первую двадцатку, а затем стремительно из нее вылетает. Последующие попытки вырваться в топ заканчиваются безрезультатно.
Сталкивались с подобной ситуацией? А если нет, то хотели бы ее избежать? Ну что же, давайте разберемся в причинах проблемы.
Плохие сайты не попадают в топ?
Качество сайта определяет, сможет ли сайт находиться в топе. В основе алгоритма работы Яндекса лежит машинное обучение. Машинное обучение предполагает постоянный контроль и оценку результатов поиска специально обученными асессорами. Именно на основе этих оценок Яндекс учится находить релевантные сайты.
Конечно же, асессоры постоянно следят за конкурентными топами, а вернее даже за двадцатками первых результатов в наиболее конкурентных тематиках. И если в конкурентный топ прорывается непонятного качества сайт, то он довольно быстро его покидает благодаря такому экспертному мониторингу или жалобам пользователей. У плохого сайта есть
шанс находиться в топе очень долго, если речь идет о низкочастотных, а иногда и среднечастотных ключевых фразах, однако там, где конкуренция велика, асессорский контроль наиболее активен.
Руководитель отдела веб-поиска Яндекса, Александр Садовский, на конференции Optimization-2009, отвечая на вопросы аудитории, сказал: «Пользователи дальше второй-третьей страницы не ходят никогда. Все замеры по улучшению качества делаются в районе первой двадцатки-тридцатки. Соответственно, если ваш сайт сместился с десятого на двадцатое место, с точки зрения поисковой системы он стал хуже, либо появились другие сайты, которые лучше. Сместился с тридцатого на тысяча восьмое - ничего не значит. Колебания за пределами первой двадцатки-тридцатки можете не рассматривать как изменение отношения к сайту».
Суть этой цитаты в том, что пока сайт «болтается» где-то далеко за пределами топа, асессорам нет до него дела. Но как только сайт приближается к топу, то здесь они уже могут внести свои коррективы.
Большой брат знает все о твоем сайте
Многие оптимизаторы опрометчиво считают, что чуть ли не единственное условие для попадания в топ - это количество и качество входящих ссылок. Однако часто должного внимания не уделяется поведенческим факторам ранжирования. Знаете ли вы, что Яндекс уже давно учитывает поведение пользователей на разных сайтах? Благодаря Яндекс.Бару, который установлен на огромном количестве компьютеров (а также вшит в русскую версию ICQ), Яндекс получает информацию о поведении пользователей на каждом сайте. Речь идет о рейтинге посещаемости, наподобие Alexa Rank, количестве и списке просматриваемых страниц, длительности просмотра разных страниц, источниках трафика и так далее, и так далее...
А теперь представьте, какие огромные возможности открываются перед Яндексом в процессе анализа этого материала. Теперь Яндекс точно знает, какие страницы и разделы вашего сайта являются посещаемыми и интересными, а какие нет, и, вообще, насколько интересен пользователям ваш сайт. Ведь если пользователи подолгу проводят на нем время -это говорит о многом, обратное - тоже, но со знаком минус.
Яндекс знает, как часто пользователи кликают по тем или иным ссылкам на страницах, а, следовательно, с большей точностью отличает платные ссылки от естественных.
То есть, все прежние представления о том, что Яндекс оценивает в основном только внутренние и ссылочные факторы сегодня не актуальны. Яндекс учитывает и поведенческий фактор пользователей. Именно поэтому сегодня дорвеи и псевдосайты держатся в поисковой выдаче очень недолго, АГС косит ряды сателлитов, а некачественные сайты плохо лезут в ТОП, но зато хорошо из него вылетают.
Нужно четко понимать, что Яндекс имеет представление, какой из сайтов является более интересным для пользователей, а какой нет. И сегодня продвинуть неинтересный никому сайт в конкурентный ТОП - дело бесперспективное.
Однако заранее придется разочаровать тех, кто считает, что можно «накрутить» своему сайту поведенческий авторитет. Возможностей для определения накруток у Яндекса гораздо больше, чем шансов у накрутчика элементарно понять, какой эффект оказали на сайт те или иные манипуляции.
Качество сайта - основа основ
Продвижение площадки должно начинаться с изучения сайтов конкурентов в топе. Ваш сайт не должен в чем-либо уступать конкурентам. Здесь важно все: дизайн, понятная структура сайта, полнота представленной на нем информации и даже грамотность текстов. Сайт не должен злоупотреблять рекламой. Чтобы «влюбить» Яндекс в ваш сайт, нужно, чтобы в сайт влюблялся потенциальный клиент.
Дайте протестировать несколько сайтов из топа, а также продвигаемый сайт группе пользователей. Пусть пользователи ответят на несколько важных вопросов. Насколько каждый сайт внушает доверие? Какие из сайтов содержат наиболее полезную информацию по продвигаемым запросам? Какими из указанных сайтов легче и приятнее пользоваться? На основе их ответов внесите нужные изменения в дизайн, структуру и контент сайта.
Запомните важнейшее правило продвижения: в конкурентный топ попадают только хорошие сайты !
Пример из практики
В конце 2009 года в компанию Миралинкс обратился клиент для продвижения сайта на околоюридическую тематику по ряду средне и высококонкурентных запросов. Ранее предпринималось несколько попыток по его продвижению. Итогом этих попыток было лишь кратковременное попадание сайта по одному из запросов в топ и по нескольким запросам в двадцатку.
Проведенный аудит сайта, кроме прочего, показал, что среднее количество просматриваемых пользователями страниц было на уровне 1,2 страниц на пользователя, трафик был довольно низким и плохо конвертировался. Структура сайта
оставляла желать лучшего, дизайн и тексты не внушали доверия. Был сделан вывод, что продвигать данный сайт без внутренней оптимизации структуры и текстов, а также смены дизайна не целесообразно.
Для сайта был подготовлен новый дизайн, проведена реорганизация структуры сайта. На сайт были добавлены полезные мини-сервисы (например, калькулятор тарифов), специальный поиск по базе и дополнительные подсказки на аяксе, а также ряд уточняющих статей по теме. Тексты и структура сайта были подготовлены таким образом, что задержать пользователя на сайте на как можно более долгое время и увеличить конверсию.
В середине января началось постепенное ссылочное продвижение сайта (количество просматриваемых страниц увеличилось до очень хорошего в данной сфере показателя 3,9 страниц на посетителя). И уже через 3 месяца в топе было примерно 85% продвигаемых запросов, при этом значительно возрос поток звонков.
Примечательно, что данный эффект был достигнут во многом благодаря грамотной внутренней оптимизации сайта, речь о которой пойдет в следующей главе.
Внутренняя оптимизация сайта
Продвижение сайта без его внутренней оптимизации можно сравнить с собеседованием при устройстве на работу, когда соискатель приходит с опозданием в грязной мятой одежде с красными уставшими глазами и потрепанным видом. Да, может быть, он - отличный работник, классный специалист, но интервьюер, наверняка, предпочтет на должность кого-то другого. Точно так же и Яндекс отдает предпочтение сайтам и страницам с грамотной внутренней оптимизацией.
Подбираем поисковые запросы
Внутренняя оптимизация начинается с подбора запросов, по которым нужно продвигать тот или иной сайт. Лучше всего для этого пользоваться Яндекс-Директом, который позволяет не только оценить популярность запросов, но и их конкурентность. Чем выше цена размещения рекламы по конкретному запросу и чем больше количество показов, тем сложнее будет его продвигать.
Под каждый запрос или пару запросов делается отдельная страница. Текст страницы должен быть максимально релевантным поисковым запросам. Это значит, что пользователь, пришедший по какому-либо запросу, должен найти ответ на свой вопрос. Поэтому поместите на страницу всю необходимую информацию, изображения, ссылки на уточняющие материалы. Сделайте все, чтобы пользователю понравилось то, что он увидит. А иначе? Помните про асессоров?
И еще не рекомендуем продвигать одну и ту же страницу по более чем двум поисковым запросам одновременно.
Готовим контент страниц
Поисковые запросы должны обязательно присутствовать в теге страницы, тексте страницы и, желательно, в заголовках разделов. Если поместить отрывки текста с ключевыми словами в отдельные мини-блоки, наподобие цитат или важной информации к прочтению, то такой текст вероятнее всего попадет в снипет. Это очень важно, ведь оттого, какой будет снипет в поисковой выдаче, очень сильно зависит, перейдет ли пользователь на сайт. Длина текста в мини-блоке не должна превышать 150-200 символов.
Яндекс уже умеет отличать так называемые SEO-тексты, напичканные ключевыми фразами, от нормальных текстов для людей, и очень сильно занижает их в поисковой выдаче. Поэтому ориентироваться на количество вхождений ключевых фраз, скрупулезно высчитывая их количество на каждой странице, не стоит. Вот что сказал Александр Садовский по этому вопросу на РИФ+КИБ 2010: «Наша задача заключалась в том, чтобы научить машину отличать искусственные тексты, которые пользователю не нужны, от хороших, нормальных, естественных текстов... Если вы хотите в ТОП, если вы пишете тексты, которые не такие же как в ТОПе, а такие, как нужны людям, и попали под какие-то наши пессимизации - это наша ошибка. А если вы пытаетесь искать границы и подстраиваться под поисковую машину, извините, но с вами может быть все что угодно».
А вот как на практике выглядит SEO-текст:
Мыпродаембольшойассортименткондиционеров. СредимарокнашихкондиционероввынайдетеGeneral, Samsung, Mitsubishi, LGимногиедругие. Накондиционерыдаетсягарантияот 1 до 3 лет. Купитькондиционеры можнозаналичныеилипоперечислению. Покупкакондиционеравкредиттеперьвозможнавсегоза 10 минут. Посетитенашмагазинкондиционеров«Холодок»наул. Ленина 14, напротивкинотеатра«Октябрь».
Обратите внимание, на избыток ключевых фраз в таком коротком отрывке текста. Это будет балластом в процессе продвижения сайта.
Важно, чтобы тексты на сайте были грамотными, ясными, легко читаемыми и раскрывали тему, а также заставляли пользователя переходить на все новые и новые страницы, которые бы отвечали на смежные вопросы. Прежде всего, это повысит конвертацию трафика, то есть, превратит посетителя в клиента, и плюс к этому даст огромное преимущество сайту при подсчете поведенческих факторов.
Например, если страница продвигается по запросу «Правила ОСАГО», то на этой же странице в самых удобных для пользователя местах можно предложить ему перейти на такие страницы как: «Заказать ОСАГО онлайн», «Как правильно выбрать страховую компанию для ОСАГО», «Калькулятор ОСАГО», «Что делать в случае аварии» и так далее...
Редактируем код
Яндекс рекомендует скрывать от индексации все служебные участки кода при помощи тега <noindexx/noindex>. Это делает сайт «легче» с точки зрения работы с ним поисковой системы. Следует убедиться, что навигация по сайту осуществляется при помощи обычных текстовых ссылок, а не изображений или скриптов.
Оформлять сайт нужно при помощи CSS-файлов, вынося туда все стили. Это позволит сократить размер страницы и упростить ее индексацию. Желательно проверить валидность кода при помощи онлайн-валидатора W3C. Корректность верстки и срабатывания ява-скриптов нужно протестировать во всех распространенных браузерах: Internet Explorer, Opera, Mozilla, Chrome.
Пример из практики.
В марте 2010 года в компанию «Миралаб» обратился клиент, сайт которого ранее продвигался по нескольким высоко и среднеконкурентным запросам (всего 7 штук). Довольно продолжительное время 4 из 7 запросов были в топе, 3 других запроса - во второй-третьей десятке поисковой выдачи. Во второй половине 2009 года, сайт оставался в топе только по одному поисковому запросу, а вскоре утратил позиции и по нему. Последующие месяцы работы не дали ощутимого результата.
Аудит сайта показал, что главная страница продвигалась одновременно по 4 запросам, одна из внутренних страниц сразу по 3 запросам. Кроме того, сайт, который был представлен несколькими десятками страниц, был переполнен SEO-текстами с теми самыми 7 ключевыми фразами. Их плотность в текстах зашкаливала даже на главной странице. И хотя сайт в целом был довольно аккуратным и внушал доверие, необходимо было провести реорагнизацию контента.
К продвигаемым ранее 7 ключевым фразам были добавлены еще 25 фраз, отобранные при помощи Яндекс-Директа. Было принято решение продвигать главную страницу по 2 наиболее важным поисковым запросам. Остальные 30 запросов продвигались при помощи внутренних страниц - по одному запросу на страницу. Были написаны новые качественные тексты, рассчитанные на завоевание доверия и раскрытие темы по каждой ключевой фразе. Также в текст было внедрено микро-меню на родственные статьи. HTML-код, скрипты и верстка были приведены в порядок.
Сайт показал отличную динамику движения в топ. Спустя 3 месяца с начала продвижения сайта 24 из 32 запросов уже в топе, еще 5 вот-вот должны были к ним присоединиться.
Дальнейшее чтение будет бесполезно, если не усвоить одну важную вещь. Даже если на сайт ведут миллионы качественных ссылок с лучших сайтов интернета, этот сайт никогда не займет место в конкурентном топе, если не представляет никакой ценности для пользователей. Асессоры этого не допустят. Поэтому качество и юзабилити сайта первично.
Резюме
1. Подберите поисковые запросы, используя Яндекс Директ (при продвижении под Яндекс)
2. Каждая страница должна оптимизироваться под 1-2 запроса, не больше (исключение - главная страница)
3. Ключевые слова и фразы должны содержаться в теге страницы
4. Желательно, чтобы ключевые слова и фразы также присутствовали в заголовках статей и разделов на странице
5. Не лишним будет использовать ключевые слова и фразы в атрибутах alt и title изображений на странице
6. Не стоит переусердствовать с количеством ключевых слов и фраз на странице, несколько упоминаний 2-5 вполне достаточно. В противном случае можно получить санкции за спам, которые проявляются в автоматическом понижении на 10-30 позиций в поисковой выдаче по нужным запросам.
7. Содержимое на странице должно четко и ясно раскрывать тему поискового запроса, это очень важно.
8. Желательно размещать ссылки на внутренние и, если уместно, внешние страницы с материалами, которые раскрывают тему ключевых слов и фраз.
9. Картинки, схемы, фотографии, видеофайлы по теме страницы - отличное дополнение к оптимизации страницы.
10. Не рекомендуется использовать выделение ключевых слов и фраз в тексте жирным шрифтом или подчеркиванием.
11. Текст, не представляющий никакой ценности для продвижения, технические участки кода и текста нужно закрыть тегами
12. Для оформления страницы необходимо максимально использовать возможности CSS.
13. Проверяйте валидность кода страниц. Хотя большинство ошибок не носит критического характера, все же часть из них может явиться причиной неверной интерпретации контента страницы Яндексом.
Хорошие ссылки - плохие ссылки
Продвинуть сайт в топ по сколь-нибудь конкурентным запросам без обратных ссылок невозможно. Наличие большого количества хороших ссылок является основным условием попадания сайта в топ.
Однако не все ссылки одинаково полезны. Более того, некоторые ссылки, а также принцип появления ссылок на разных сайтах могут оказать негативный эффект на продвижение сайта. Далее мы выясним, какие ссылки являются хорошими, а какие плохими. Мы научимся получать ссылки бесплатно на лучших сайтах в интернете, разберемся, как правильно покупать ссылки, и обсудим, какие риски связаны с бессистемной расстановкой платных ссылок.
Основной постулат о хороших ссылках
Как было сказано ранее, не все ссылки одинаково хороши. Часть ссылок подтягивает сайт к топу, некоторые же ссылки - препятствуют его вхождению в топ. Наша задача - научиться выбирать хорошие ссылки на хороших сайтах. В общем случае, можно считать, что ссылки с плохих сайтов (сайтов, находящихся на грани АГС и бана, дорвеев и тд) являются плохими ссылками. С другой стороны ссылки с хороших сайтов (трастовые популярные сайты) не всегда и не при всех условиях являются хорошими.
Спам не пройдет
Есть такое понятие - ссылочный спам, который подразумевает расстановку множества единообразных ссылок на разных сайтах. К ссылочному спаму относится массовая регистрация в форумах с установкой ссылки в профиле, массовое размещение одинаковых сообщений с ссылкой в форумах, гостевых книгах, комментариях к блогам. Даже размещение одинаковых статей на разных сайтах является поисковым спамом.
Ключевой особенностью поискового спама является одинаковый ссылочный или околоссылочный текст. Допустим, вы хотите разместить сразу на 100 сайтах ссылку «Изготавливаем металлические двери на заказ». В этом случае можно не сомневаться, ссылки будут отнесены к поисковому спаму. Точно так же дело обстоит и с неуникальными статьями. Если Яндекс находит множество одинаковых статей в интернете с одной и той же ссылкой, то никакого положительного эффекта от таких статей не будет.
Более того, Яндекс довольно легко находит рерайт, поэтому мнение, что можно написать одну статью, затем размножить ее до 1000 штук, и ссылки в таких статьях будут передавать вес, ошибочно. Синонимы, перестановки слов, написание текста из кусков других текстов вычисляется быстрее, чем можно себе представить.
Метод промышленного клонирования ссылок и текстов сегодня не просто не работает, а при определенных условиях может оказать негативный эффект на продвижение сайта, то есть, сайт вместо приближения к топу будет от него удаляться. Сегодня можно смело утверждать, что спам побежден, и эпоха его закончена. Лучше о нем забыть раз и навсегда.
Более того, в своем докладе «Поиск неестественных текстов» Яндекс ясно дал понять, что умеет эффективно вычислять машинно-сгенерированные тексты (такие как http://referats.yandex.ru), в том числе, машинные переводы невысокого уровня качества. Если Яндекс находит такие тексты на сайте, то он использует это обстоятельство как маркер поискового спама. Поэтому настоятельно не рекомендуем использовать данный спам-метод, как и любые другие спам-технологии.
Выявление плохих сайтов на основе осмотра
Самое главное при выявлении плохих сайтов - это осмотр и оценка сайта с позиции пользователя. Нужно погулять по его страницам, посмотреть статьи, регулярность и частоту обновления конента, наличие пользовательских комментариев к контенту, в том числе и спам-комментариев. Если сайт живой, интересный, и пользователи общаются, оставляя свои комментарии, то это хороший сайт. Если же кроме спам-комментариев и редкого нерегулярного обновления контента вы не заметили ничего примечательного, то лучше воздержаться от сотрудничества с таким сайтом. Вот несколько признаков плохого сайта:
1. Плохой, некачественный дизайн
2 .Очень неудобная структура сайта, не рассчитанная на удобство пользователя
3. Нерегулярное обновление сайта
4. Коротенькие статьи на 500-1500 символов (характерно для псевдо-сайтов)
5. Сканированные рисунки
6. Многочисленные внешние ссылки в текстах статей, не связанные с их содержимым (например, неожиданная ссылка «Купить авто» в тексте о вязании)
7. Закрытое комментирование в блоге
8 . Полное отсутствие комментариев к контенту, если комментирование открыто
9. Большое количество спам-комментариев к контенту
10. Чрезмерное количество баннеров, тизеров и другой рекламы, особенно, если она порно-характера
11. Имя домена, противоречащее содержимому сайта (например домен buycar.xyz, а сайт о разведении собак)
12. Наличие на сайте большого количества автоматических текстов и машинных переводов И снова рекомендуем принимать решение о том, является ли данный сайт хорошим сайтом, на основе сочетания ряда факторов. Конечно, выше перечислены не все свойства, характерные для псевдосайтов, и у вас может быть свой собственный список маркеров. Использовать его - действительно хорошая идея. Не стоит гнаться за количеством ссылок. Куда важнее сегодня их качество. И в первую очередь нужно отсечь плохие сайты-доноры.
Читайте в Каталоге статей,сайтов,объявлений и файлов интересных тем интересную статью Что надо учитывать, создавая сайт на Joomla