Google: як перевіряються алгоритми та переваги авторитетності перед популярністю

Серед всіх пошукових систем найбільш дружелюбно до вебмастерам відноситься саме Google. Жодна інша компанія не обзавелася таким величезним штатом техпідтримки і не проводить з веб-майстрами стільки часу, як цей американський гігант. Відеоподкасти Метта Катса, голови підрозділу Google по боротьбі з веб-спамом, є проектом самого інженера. У них розбираються цікаві питання, що піднімаються вебмастерами з усього світу, в основному - стосовно оптимізації і думки пошукача щодо якихось технологій просування.

На минулому тижні Катс розповів про те, як здійснюється перевірка ефективності оновлень алгоритмів пошукача, а також анонсував прийдешні зміни в факторах ранжирування системи. Що саме слід знати оптимізаторові про авторитетність сайту і як Google допомагає якісних ресурсів пробитися в топ?

Авторитетність ресурсу і з чим її їдять

Найбільш важливим оголошенням можна назвати анонс алгоритмів, які будуть займатися оцінкою авторитетності ресурсу. Катс підкреслив, що тільки авторитетні сайти зможуть добитися високих позицій у видачі, незалежно від їхньої популярності. Що це означає для звичайного оптимізатора?

Накрутка поведінкових факторів втрачає сенс. Ні авторитетності - ніяка популярність не врятує. Катс підкреслив, що авторитетність враховується і зараз - незважаючи на найвищу відвідуваність сайтів для дорослих, державні ресурси все одно виявляються вищими їх у видачі, притому набагато.

Контент - першочергова мета. Визначити авторитетність сайту Google має намір за допомогою алгоритмічних рішень, а значить, якісні тексти стають ще дорожче. Ресурсам знадобитися шукати авторів, популярних у аудиторії, а також звертатися до лідерів думок за допомогою. Конкуренція і попит на хороших копірайтерів серйозно зросте.

Додасться роботи і у дизайнерів. Наповнений контентом сайт з поганою навігацією буде демонструвати огидні результати, якщо при роботі з ним користувач буде постійно відчувати себе втраченим. Юзабіліті стане затребуваним аспектом, а саме цього хочуть пошуковики від вебмайстрів.

Маркетологам доведеться думати не просто над тим, де розмістити посилання, а про те, як їх подати, щоб привернути цільову аудиторію. Цінність посилального профілю занадто непостійна, що вже довели в «Яндексі». А залучені в роботу з сайтом користувачі надовго залишаться з ним і посприяють подальшої популяризації ресурсу.

Вранці авторитетність, ввечері популярність - так може описати готуються в Google зміни. Навіть якщо ви щодня зустрічаєте мільйони відвідувачів, ви не зможете конкурувати з професіоналами у вашій сфері без професійного підходу до контенту.

Новий алгоритм - нові експерименти

Якими б досконалими були алгоритми ранжирування, з часом оптимізатори знаходять важелі впливу на них. І якщо Google схвалює, коли цими маніпуляторами виступають цікаві, детальні матеріали для людей, то до «накруткам» він ставиться різко негативно. Щоб звести ефективність подібних технік до мінімуму, а також для загального поліпшення якості видачі, в Google регулярно проводять оновлення основних ранжирують алгоритмів. Але як саме визначається, що нова видача краще колишньої?

За словами Катса, спершу з видачею знайомляться самі розробники алгоритму. Зазвичай вони займаються вузьким набором ключів, релевантність видачі за якими стала занадто низькою. На цьому етапі алгоритми постійно переробляються, але він займає мінімум часу - оцінка результату та внесення змін виробляються в одному місці.

Якщо розробники залишилися задоволені своїми результатами праці, в справу вступає наступний відділ тестування - асесори. Люди, найняті Google для стеження за релевантностью видачі. Компанія не використовує роботів, т.к. навіть найсучасніший штучний інтелект насилу відрізняє корисний контент від марного, не кажучи вже про юзабіліті сайту і його дизайні. Тестери оцінюють корисність сайтів, що потрапляють у видачу по широкому спектру запитів, і виставляють кожному результату свою оцінку. За ангажованість або особисті якості асессоров можна не переживати - тисячі людей роблять результати досить репрезентативними. Потім створюється загальна картина змін, виражена у вигляді різниці оцінок колишньої видачі та нової. Оновлення вважаються задовільними, якщо якість покращився або хоча б не змінилося в гіршу сторону.

Алгоритм, що пройшов і цю стадію, встановлюється на невелику частку серверів Google і починає обробляти «живі» запити звичайних користувачів. Фахівці стежать за активністю на сторінці видачі, клікабельністю результатів і змінами в картині поведінки. При цьому інші користувачі, що працюють з колишніми алгоритмами, стають контрольними тестерами, з якими і ведеться порівняння.

Іноді, з нез'ясовних причин, спам-ресурси набирають достатньо високу кількість кліків користувачів, але самі при цьому не дають ніякої корисної інформації за запитом. У такому випадку Google або відправляє алгоритми на переробку, якщо обсяг «сміттєвих» сайтів виявився занадто великий, або звертається до особливого відділу тестування. Ці фахівці шукають причини, за якими подібні сайти могли опинитися у видачі, і допомагають виправити недоробки в формулах.

Таким чином, оцінка - доля не роботів, а живих людей. З цієї причини оптимізація і повинна проводитися з урахуванням потреб реальних відвідувачів. Асесори не зможуть позитивно оцінити сайт, де акцент зроблено на ключі і роботів. Користувачі теж навряд чи скажуть спасибі за неузгоджені тексти або неопрацьований дизайн.

Поради, які раніше давали всі пошуковики - орієнтуватися на людей, створювати якісний контент і займатися юзабіліті - стали актуальні як ніколи. Зниження ролі посилань, поведінкових показників, популярності - все йде до того, що топ буде зайнятий професіоналами, яких цікаво читати людям. Щоб опинитися в їх числі потрібно починати працювати прямо зараз. А ви вже розробили контент-стратегію?

Повернутися до списку

 


Є запитання?

Проконсультуйтеся з виниклих питань і отримаєте вичерпну інформацію про свій сайт

Телефонуйте +38 (050) 541-04-58

просування та розкрутка сайтів.


Комментарии: