18
Январь
2011
Понадобилось по ТЗ встроить в сайт текущий курс евро, в сети ничего не нашел, сваял свой мини-скриптик:
|
$url = 'http://www.cbr.ru/scripts/XML_daily.asp?date_req='.date("d/m/Y"); $buf = file_get_contents($url); if($buf) { $xmldoc = new SimpleXMLElement($buf); $result = $xmldoc->Xpath("//Valute[@ID='R01239']"); //R01239 код евро echo $result[0]->Value; } |
рубрики: Программирование |
23
Ноябрь
2010
Сваял я таки задуманное !
На входе имя RSS ленты в FeedBurner.
На выходе значение integer — количество подписчиков
Для скрипта картинка FeedBurner со счётчиком — капча 🙂 Тупо её распознаём по шаблонным символам (благо нет помех и всяческих защит) и усё готово.
Проверить работоспособность скрипта.
Скачать исходники.
P.S.
На g-post.ru добавил авторизацию с возможность редактировать информацию о своих блогах.
рубрики: SEO |
25
Август
2010

Возможно многие посчитают мой сегодняшний труд напрасным, т.к. многие современные телефоны нормально справляются и с обычной версией цитатника рунета, но мой Samsung D900 ругается на слишком большой объем документа, а выделить 5 минут на отдых — почитать свежих цитат я люблю.
Официальной WAP версии я не нашел, долгое время мучался с виджет-версией баша ideawidgets.ru — постоянные подвисоны с дальнейшей переактивацией просто выбесили… потом нашел таки чьё то творение, полностью меня устраивающее — wapbashorg.ru, но к величайшему моему сожалению с неделю назад меня стало редиректить на какой то «Вы очевидец».
В итоге решил сделать свой проектик WAP версии bash.org.ru чем сегодня и занимался (ушло больше времени чем планировал — поначалу думал часа за два справлюсь). Завтра ещё допишу парсер RSS ленты, и в крон её — и вуаля !
Дизайн тупо скоммуниздил с wapbashorg, выкинув лишнее (будет время возможно переделаю), контент решил позаимствовать у первоисточника — грабер-парсер раза на 3 переписывал (всё оптимизировал).
В итоге получилось, что получилось 🙂
Прошу любить и жаловать: wap.gtalex.ru
рубрики: Программирование |
16
Октябрь
2009
В общем, как не печально, всё таки решил я завязать с ру-трафом, а точнее с русскими PPC — мои эксперименты не увенчались должным результатом.
Соответственно моя база кейвордов продаётся.
Сразу скажу, что диких миллионов она не содержит — т.к. считаю это бредом — во первых такие базы очень неповоротливы, во вторых подобные базы (начиная от Пастуховских, кончая сервисами типа kwds.ru) на 99% захламлены всякими бесполезными кеями.
Мой подход, с учётом того что работал я с PPC, немного иной:
т.к. основная масса объявлений (ppc, begun, да и SE) составляется по вхождению в запрос однословников, соответственно я уделял основное внимание именно однословникам. Все однословники прочеканы на количество объявлений и бид (мин, макс, средний) на PPC click-click.ru с московского IP.
Самые высокобидовые однословники (более 10 центов), пропарсены «вглубь» на wordstat.yandex.ru
Таким образом база содержит всего 776 тысяч кейвордов, и них 320 тысяч однословников, (более 3500 кеев с бидом более 5 центов, 500 более 10, 86 более 20, 47 более 30).
Продам за 30 wmz вместе с парсером вордстата (для парсинга «вглубь» по нужным кеям), либо поменяюсь на чё нить интересное 🙂
рубрики: SEO |
4
Сентябрь
2009
Серфил по инету — на одном портальчике наткнулся на довольно ценную информацию, на основе которой, по моей идее, можно сварганить еще более интересный сайтик и собирать целевой траф — в общем для опытов мне понадобился сайт донор ЦЕЛИКОМ.
Сваял скриптик для полного «сдутия» сайта — этакой универсальный граббер на PHP, win32 приложений таких полно, а вот серверных nix решений не нашел (скорее всего снова изобретение велосипеда — но минут 15 моих поисков в поисковиках не увенчались успехом).
Итак:
На входе любая ссылка с сайта — на выходе папочка содержащая все файлы с данного сайта (всё куда мог дотянуться граббер). Грабятся только внутренние ссылки — внешние полностью игнорируются.
Сохраняются все файлы, найденные по маске href= … и src= …
Кому интересно — готов обсудить цену вопроса.
рубрики: SEO, Программирование |
26
Май
2009
Уже второй раз понадобилось мне БЫСТРО декодировать из URL — закодированного формата аля «%C0%EB%E5%EA%F1%E5%E9» , в читабельную кириллицу типа «Алексей»
Быстренько наваял скриптик Анализ и декодирование URL в основе коего лежат 2 php команды — parse_url и urldecode 🙂
Раз мне пригодилось уже не раз, думаю и Вам может сгодиться.
Скрипт сначала «разбирает урл» parse_url, потом уже расчленяет переданные параметры и декодирует их.
Enjoy!
Кстати — если есть потребность в каких то, небольших, но полезных скриптиках — обращайтесь — сделаю!
P.S. Желающим поглядеть исходники — пожалуйста.
рубрики: Полезности, Программирование |
23
Апрель
2009
Довелось мне давеча поработать с небезизвестным регистратором по каталогам 1ps.ru
При составлении альтернативных наименований, с помощью шаблонного мастера столкнулся с проблемкой — у них совершенно не обрабатывается вложенность !
Допустим такой шаблон, просто не отрабатывался 🙁
RemDvig.ru — {{качественный|быстрый} ремонт| {качественное|быстрое} восстановление} электродвигателей в Новосибирске
т.е. на второй уровень вложенности не рассчитано, а мне очень понадобилось.
Пришлось ваять самому
Что получилось, можно оценить тут — Скрипт перебора вариантов по шаблону
Кому интересно — выкладываю исходники.
(в случае коммерческого использования жду благодарностей на WMZ )
рубрики: SEO, Программирование |
18
Март
2009
В сервисе обмена постовыми — PostLinks.ru использую скриптик для проверки ссылок — наличие ссылки, опция nofollow и тег noindex.
Подумал, что возможно кому нибудь будет полезно отдельно поюзать — вынес в отдельный скрипт —
Сервис проверки ссылок
И до кучи скриптик на основе тех, что выкладывал раньше в виде кода (пузомерные скрипты)
Проверка пузомерок
Если кому интересно — могу и исходники выложить.
Вообще если не лень — попинайте маленько скриптики, а то работоспособность особо не проверял — не хочется в postlinks косячные скрипты встраивать.
P.S.
Сильный ролик на ру-тубе (около-футбольные трюки)
http://rutube.ru/tracks/621313.html?v=84e6a7f9e3967cc7ac05ac1d278d85f9
рубрики: SEO |
20
Декабрь
2008
<рекламный пост>
Прежде, чем всерьез заняться оптимизацией своего сайта, следует тщательно изучить своих конкурентов и оценить собственные силы. Кроме внутренних факторов, безусловно следует уделить особое внимание ссылочной массе. Есть несколько программ и онлайн-сервисов, которые смогут Вам помочь в этом. Я решил остановиться на Seolib.ru, который, как мне кажется, может решить лучшим образом эту проблему.
Этот скрипт можно использовать как в платном, так и в бесплатном режиме. Конечно же, бесплатный режим (http://www.seolib.ru/script/backfree/) имеет определенные ограничения, и самое важное: отображается всего 20 первых беклинков. Но все же можно получить представление о работе сервиса и общее представление о ссылающихся страницах.
Гораздо более полная информация предоставляется в платном варианте (http://www.seolib.ru/script/back/). Среди общих показателей ссылающихся страниц (тИЦ, PR, ЯК, DMOZ), вы получаете сам текст ссылки, IP-адрес сайта, дату регистрации домена, уровень вложенности ссылающейся страницы, а так же примерная стоимость ссылки с такими показателями.
Скрипт можно запускать в отложенном режиме, или быстрый, экспресс-сбор данных. В этом случае некоторые данные будут отсутствовать (анкоры, например), но значительно сокращает время ожидания.
В целом, система сделано удобно и понятна простым пользователям. Кроме описанного выше скрипта, есть масса других интересных функций. Особенно заинтересовала оценка стоимости, ежедневная проверка позиций, проверка размещения ссылок и анализ ссылок для покупки.
рубрики: SEO, Реклама |