Архив метки: rss

Как раскрутить RSS канал

В рамках акции по обмену постами, публикую занятную статью о продвижении RSS канала:

Мало создать интересный RSS канал. Необходимо еще и правильно осуществить его “раскрутку” — то, что в дальнейшем обеспечит вашему сайту постоянный приток посетителей. В этой статье мы попытаемся кратко изложить последовательность действий, которые желательно производить с каждым новым RSS каналом.
Читать далее

SEO: Мутирующий серп и Уникальность рулит

Итак, начнем цикл статей SEO-подозрений, догадок и наблюдений.

«Мутирующий серп»

По самым странным запросам, Google иногда выдает этот блог в TOP-10-20 выдаче. Ключевое слово — иногда. При прочих равных (ссылки стоят как вкопанные), посетители переходят по самым странным, хотя и релевантным запросам, из чего делаем догадку: В выдаче Гугла есть фактор случайности и назовем этот фактор «мутирующий серп» :)

Аналогично тому, как происходят мутации в природе, давая возможность новым свойствам организмов пройти проверку на жизнеспособность, Гугл дает возможность не раскрученным сайтам получить внимание пользователей. Поднимая случайные, но релевантные сайты в выдаче до 10го-20го места Гугл дает возможность посетителям найти интересную информацию на не раскрученных сайтах. Если эта информация действительно интересна, высоковероятно что посетитель установит на нее ссылку и поднимет страницу/сайт в основной выдаче.

Хотя конечно-конечно это может быть просто глюк индекса или ссорящиеся дата-центры :)

«Уникальность рулит»

Фильтр уникальности (новизны) при индексации, который я назову «Уникальность рулит» уже описан как догадка у лаборанта из Сумасшедшей лаборатории. Поэтому с позволения копипастю:

Логично, что новые страницы с уникальным контентом более приоритетны к индексации чем новые страницы с контентом уже известным поисковым системам. И наверняка, если речь идет о миллионах новых страниц и очереди на их индексацию, то существуют факторы влияющие на положение новых страниц в этой очереди. Ведь вычислительные ресурсы не резиновые и приходится выбирать что индексировать в первую очередь.

Естественно новостной контент (уникальный) является самым приоритетным для индексации. Поэтому хорошо бы маскироваться под новостной контент даже не новостным сайтам. И здесь рулит RSS .

Кстати, часто замечаю, что дублирующийся контент отсекается прежде всего в пределах одного сайта. Даже на стадии вхождения новых страниц. Причем иногда отсекаются просто похожие страницы, даже со слегка разными заголовками и слегка разным контентом. Поэтому делайте ваш контент псевдо-уникальным.

Вот почему SEO это хорошо, но не стоит, перечисляя кейворды, делать посту абсолютно такой же заголовок как и у миллиона других страниц.

А тем временем земляк Bolverin наткнулся на то что вызывает (или по крайней мере должно вызывать) головную боль у большинства веб-дизайнеров на планете — кроссбраузерность. Разработчики IE, Файрфокс и Opera очевидно исторически не дружат со стандартами CSS и статья кроссбраузерный CSS описывает полезный хак позволяющий их помирить.

P.S. Кстати по относительные пиксели у меня уже что-то было.

Оптима’s RSS

feed-icon-28x28.pngСделал себе RSS-канал новой музыки что выкладывает в локальный доступ провайдер. Дабы не караулить новинки на сайте. Со списком url’ов, чтоб сразу в качалку.

Конверсия парсера. Нефиг ему пылиться.

Будет интересно только клиентам Оптимы:

Подписка на Urth’s Freehold

Подпишитесь на блог Urth’s Freehold:

1. Добавив адрес rss-ленты блога в ваш reader:

http://urths.com/feed/

2. Либо просто укажите свой e-mail в форме подписки:

Получать на E-mail:
Urth’s Freehold

rss2email.ru

Трансляция RSS. Технические вопросы

Созданный прежде RSS поток начал транслировать на открытые платформы.

Уже при эксплуатации потока появилось неожиданное ограничение. Информации на вход RSS-потока подается больше, чем тот может экспортировать. Экспорт выставлен в 30 записей (кто сказал, что робот не может подавиться?) и 6 часов обновления. Поначалу казалось этого будет хватать с запасом. Но специфика подаваемой информации оказалась таковой, что несколько дней ее может не быть вообще, а потом создается сразу пол сотни записей.

Поэтому придется в скрипт добавлять отложенную публикацию, публикуя посты с задержкой для роботов. Ну и для приличия. Ведь 50 постов за 2 секунды, а потом трое суток молчания — это как-то… ненормально.
Лучше реже, но регулярно ;)

А результат трансляции — обнадеживающий. Как никак — внешние ссылки на внутряки по низкочастотке. Чувствуется, как Гугл зашевелился, находя трансляции. Но на все нужно время…

И как оказалось, удобных открытых платформ для трансляции, вроде beta.ya.ru, можно пересчитать на пальцах. Но это уже другая история.

P.S. Да, да, проще купить ссылок на сапе :)

RSS старт. Google sitemap — на очереди

This is a valid RSS feedRSS-канал (фида, лента, эрэсэс — нужное подчеркнуть) — создана, запущена в автоматическом режиме и опубликована.

Хотя у меня до сих пор недуомение по поводу необходимости замены html specialchars (&,>,<,’,»)  самих html tags внутри xml. Модуль работает с стандартным пространством имен RSS 2.0 плюс dc. Намеренно пропустил разве что проработку атрибутов enclosure, это пока незачем. Валидатор светит зеленым и это хорошо.

Есть большая надежда в то что лента повлияет на оперативность включения новых страниц. Во всяком случае в самых ближайших планах — google sitemap. Хотя кто придумал так называть список страниц сайта? Это определенно siteindex, а не sitemap. Поскольку карта на то и карта, что должна содержать структуру. В данном случае — сайта. Ведь в простейшем случае все эти sitemap’s — только список страниц тупому роботу, который почему-то кладет на под полку большую часть страниц.

С точки зрения движка, создание карты индекса сайта это а) один простой SELECT и форматированый фильтрованый вывод в XML и б) опрос модулей о их виртуальных страницах, что уже на порядок сложнее. И сложнее не столько в техническом плане, сколько в организационном. Код и структура — должны быть красивыми.

Но красота кода и структуры — разговор отдельный…

Работа. Вкалываем потихоньку

Гугл практически перестал есть новые страницы сайта. Терзают смутные сомнения. Делаю rss ленту новых страниц. На очереди sitemap.

Кстати о RSS. Два года назад разбирался в формате (2.0) и написал модуль для создания. Тогда тема не особо пригодилась, хотя все еще используется. Вечер доработки и модуль с админкой встали под новый движок. От кошерного RSS с юникодом отказался ввиду возни с перекодировкой. Сейчас остро стоит вопрос времени.

«Изменились» приоритеты развития. Теперь в спешном порядке подключаю магазин к порталам. Для начала bigmir.net, на очереди объявления в ПС. С рекламой в ПС — идея плохая, но пока рекламный бюджет не откусил кусок больше прибыли — идея хорошая.

По мере работы копирайтер(ов) появляются факты плагиата и случаи успешной борьбы с ними. Пока что несистематической. Но об этом я еще напишу пост. А пока — вкалывать! :)