У меня созрели пара проектов, трафик на которых приносят, в основном, переходы с поисковых систем по НЧ-запросам на внутренние страницы, не подкрепленные (в основном) внешней ссылочной массой. Я решил вплотную заняться этим..
В качестве первого объекта я выбрал свою успешную доску строительных объявлений, которая на данный момент имеет посещаемость в будни около 700 человек в день. Часть посетителей приходит на главную страницу по приоритетным словосочетаниям (приносящие контент). С некоторых пор значительная часть хитов стала приходить на страницы объявлений. Именно эта аудитория составляет массу потенциальных клиентов, ради которых размещают объявления и именно она приносит ощутимый доход на контекстной рекламе (я использую преимущественно Google AdSense, иногда Begun).
На данный момент я максимально (на мой взгляд) задействовал текстовую оптимизацию страниц объявлений, а также использовал внутреннюю перелинковку. Однако внешнее ссылочное давление могло бы увеличить трафик в разы.
Я решил воспользоваться известной методикой: cоставить большой массив ключевиков и наиболее релевантных им страниц объявлений используя парсинг статистики (liveinternet). В дальнейшем использовать эти данные для составления проекта. Далее использовать этот проект для наращивания ссылочной массы с помощью биржи ссылок (Sape – бест!).
На сайте имеются некоторые показатели, потенциально очень подходящие для такого рода продвижения. В индексе Яндекса, Рамблера – 13000 страниц (читай все). В Гугле 1200 страниц (большая часть объявлений в «соплях»). Сейчас трафик составляет 600-700 уников в будни. Весь трафик поисковый, около 200 посетителей приходят сразу на страницу объявления (200-250 посетителей) . Именно эту долю я хочу удвоить-утроить (и более). Кроме того, потенциально может значительно увеличиться трафик с гугл, т.к. объявления под внешним давлением должны вылезти из «соплей» (вылезали и раньше после простановки мощной PR6 на морду).
В качестве инструмента мне сначала понадобится парсер статистики LI. Проблемка в том, что несколько найденных в паблике php парсеров парсят только базовую статистику, а надо статсу из экспресс-анализа. Посидев ночку, понял, что надо или дорабатывать напильником скрипт DudeLiveInternetParser или использовать готовый десктопный парсер статистики liveinternet Traffic Web (стоит эта прелесть 45$). Вероятно я начну прямо сейчас с TrafficWeb а потом, когда будет время (0_O), добью скрипт пхпдьюда и сделаю что-нибудь типа сервиса для себя любимого.
Начинаю работать, исходные данные описал не просто так – продолжение следует.
Октябрь 17th, 2009 в 1:21 пп
Если сайт с боль�?им количеством ключевых слов, я бы посоветовал связаться с программистом по аське и попросить версию, которая сохраняет ПО ХОДУ получения информации ее на компьютер. Обычная версия все держит в памяти, я гонял 3 дня подряд, 24000 ссылок и в итоге даже не получил заветный xls потому что при сохранении боль�?ого файла (20мб) зависла прога…