Не так давно узнал, что есть возможность делать автообновляемые сайты и зарабатывать на этом неплохие деньги...
вот статьи, которые мне показались интересными, и хотелось бы услышать Ваши мнения по данному вопросу.
_http://homelessin.blogspot.com/2007/06/blog-post_08.html и _http://davydov.blogspot.com/2007/04/blog-post_16.html
Как создать сплог?
Сразу скажу что первый сплог я создал месяц назад в мае Поэтому мысли по этому поводу хотел выразить когда будут хоть какие то результаты...
На самом деле я о этом сайте узнал только сегодня... взял первый попавшийся Когда я первый раз наткнулся на похожий сплог он был с PR 7
И линки на него были Дигга и профайлов социальнвых сетей Т.е простой сплог на Новости Digg + линки с социалок из профайлов
Так же видел сетки таких сплогов Например 8 сплогов на разные разделы Digga перелинкованные друг на друга PR от 3 до 7
Я думаю вы конечно все догадались как это сделать но на всякий случай
- Регистрируемся
- Profile -> Profile -> Blog Settings -> Настравиваем на свой блог
- Главная страница Digg.com
- Под каждой новостью есть линк ”blog it”
Вот так все просто
Как можно это использовать- Digg -> search -> вбивает кейворд по теме будущего сплога ну и ”Blog it”->”Blog it”->”Blog it”->”Blog it” -> Тематический сплог готов
Нужен контент?В плюс к предыдущему не ленимся открывать новость копировать текст и вставлять в свой блог
Нужен уникальный контент?В плюс к предыдущему не ленимся открывать гугл (http://www.google.com/language_tools )
Английский -> Русский -> Английский
+ ГОСПОДА ВСЕГДА МЕНЯЙТЕ ЗАГОЛОВКИ
Хотя 1 мой сплог основанный только на принципе ”Blog it”->”Blog it”->”Blog it”->”Blog it” имеет 30 уников в день с серча + 50 с социалок (линк в профайле)
Ха скажете вы... 80 в день это ни что....И правильно сделаете Но я всего месяц сплогер.....А 2 месяца назад не знал о продвижении в сети ничего...
Ко мне на сайт часто приходят по запросам, которые содержат слово сплог. Поэтому я решил написать общеобразовательную статейку по теме «правильнее сплоги».
Дело в том, что сплоги можно делать «как все» - то есть иметь 20-30 автоматических блогов, на которые никто не ходит и никто не читает. А можно делать, как надо. Выбор ваш.
Зачем нужны сплоги? Это самый первый вопрос, которым надо задаться, ибо сплог ради сплога это нечто сомнительное. Сплоги нужны как аккумулятор трафа. Чтобы в нужный момент вы могли взять и направить этот траф туда, куда вам нужно.
Что значит «аккумулировать траф» - это значит, что сайт должен быть «липким», то есть процент повторных читателей должен быть очень высоким. Конечно не таким высоким, как на авторских блогах (на этом у меня 80% повторников), но приличным. Мои два основных сплога – Анкомон и Нишгик варьируются от 50% до 25%.
Если на слогах нет повторников, то такой сплог нафиг не нужен и толку от него никакого.
Второй момент. Абсолютно ошибочно считать, что источник трафа на сплоги это поисковики. Ничего подобного, даже имея сплоги под 1000 уников в день и выше, максимальный процент людей с поисковиков, которых мне удалось привести – 40% от общего числа. Но обычно этот показатель где-то в районе 25%.
Третий момент – самый важный – про автоматизацию. Автоматизировать сплоги – это дурь. Можно автоматизировать алерты на Google News или Yahoo News по нужным словам, можно играться с RSS, но вести прямую ретрансляцию это верный способ присоедениться к 99% неудачников, которые имеют херову тучу сплогов на которые никто не ходит.
Сплоги читают люди, а не автоматы. Поэтому если вы автоматизировано перепечатываете все статьи со словом eBay, то вам не видать и сотой части трафа сплога, где человек вручную бы отбирал статьи, посвященные самым необычным аукционам на eBay.
Тема сплога – это основная. Тема должна быть интересной. Не похудание, не диеты, не виагры, не кредиты, не всякая срань и херня. Не ведите сплоги по кейвордам. Ведите сплоги по теме или темам. Сплог должно быть интересно читать. А интересно его читать исключительно если там интересные материалы. Что зависит от вас, а не от RSS плагина.
Я лично всегда читаю перепечатки в своих главных сплогах, потому что меня эта тема сама интересует. Есть чужие сплоги, типа http://www.business-opportunities.biz/, которые я регулярно читаю.
Сколько трафика можно получить со сплогов? Я специально открыл новый сплог MadConomist.Com, чтобы можно было отслеживать поднятие сплога с нуля.
Мой опыт таков – выстреливает примерно 1-2 сплога из 10, причем выстреливает достаточно быстро. Интересные сплоги за год доползают примерно до 1000 уников в день.
За неделю сплог выходит на уровень в 100 уников за день. MadConomist.Com имел посещаемость в 111 человек на второй день, в выходные дни народу было меньше – 74, но так обычно и бывает.
Откуда трафик – 37% с моих сплогов, 20% - direct, 19% - Reddit, 12% - StumbleUpon, остальное с других сайтов. Никакого трафика с поисковиков на сплоге четырехдневки нет и не может быть, как вы понимаете.
Если сплог интересный, то его будут растаскивать. Поэтому обязательно включите RSS полные фиды и предоставьте другим (ленивым) сплоггерам раскручивать вас. Один из моих сплогов перепечатывают около 200 сплогов, что достаточно приколько, но это потому что я неоднократно был в топах Реддита и Дигга.
Последний момент – повторюсь, ибо это важно. Сплоги нужны ради чего-то, а не ради самих себя. На сплогах вы не разбогатеете. За первые 15 дней апреля, к примеру, с АдСенса за сплоги мне капнуло 304 доллара. Так что не рассматривайте сплоги как инструмент заработка – они таковыми не являются.
И последнее наблюдение. Я стараюсь открывать по одному сайту в месяц. В январе я сделал два видеосплога, в феврале PickyDomains, в апреле MadConomist.Com еще один сайт, который пока светить не буду.
Я ленивый человек и не люблю много работать. По моим наблюдением – один сайт в месяц – это хороший темп, и не важно, сплог это или сервис или что-то еще. Такое неторопливое развитие поможет вам легко обойти среднестатестического человека, который бьется над якобы неразрешимыми проблемами «где взять трафик», «как получить линки» и «как раскрутить сайт».
Создавая собственную сетку сайтов по уму, а не перепечатывая результаты выдачи поисковиков по запросу «сиськи Курниковой», вы обрастете и большим количеством сайтов с вменяемым PageRank и собственным трафом, чтобы не париться по поводу того, есть вы в Гугле, нет вас в Гугле, есть линки на вас, нет линков на вас, и так далее.
Не хочу уходить в оффтоп, но не могу не встрять в умный разговор - при том что в современном инете я дилетант, лишь прочитавший пару популярных статей и не сделавший ни одного сайта. (Но когда-то я был программистом и даже сам делал сложный универсальный язык запросов к одной базе данных.)
Насколько я понимаю, опечаточные запросы применимы к уникальному контенту, написанному человеком - но к контенту, полученному механическим путем (скажем, двойной перевод), ИМХО, практически никак не относятся.
И проводить аналогии, искать связи между запросами на опечатках и механическим уникальным контентом, возможно, не вполне правомерно.
Опечатка, в основном, есть неправильная письменная форма осмысленного (правильного) запроса.
Человек думал что спрашивал - только поторопился или кривые ручки подвели.
Человек применял достаточно правильные конструкции русского языка - но, при их записи, ошибся.
Можно поспорить об эффективности (КПД) ловли НЧ трафика по запросам на опечатках - но это все же реально осмысленные (предсказуемые, вычисляемые) запросы, просто записанные юзером неправильно.
Это трудный и умный дополнительный трафик - но в нем есть логика, которую вебмастер может понять и, хорошо подумав, под этот трафик подстроиться.
Механический же перевод порождает абсолютно неправильные и нелогичные языковые конструкции - как минимум, в большинстве фраз слова записываются в обратном порядке или просто хаотично.
Мало того, в механическом переводе масса слов просто не к месту - поскольку они заведомо неправильно переведены.
В результате формируется словесная масса, критично не соответствующая синтаксису и семантике русского языка, запрос на которую правильно составить может только психически больной человек или иностранец, практически не владеющий русским. Нормальных же русский человек так, как написано после двух переводов, не спросит даже спьяну!...
Я понимаю, что поисковики переводной контент поймут и примут как абсолютно уникальный - но кто будет писать запросы в абсолютно нерусских и нелогичных терминах и контрукциях переводного уникального контента?!
В общем, я не понял, откуда берется поисковый трафик на механический уникальный контент.
И прав ли я, говоря, что аналогии (и связи) между опечаточным трафиком и механическим уникальным контентом проводить (искать) не стоит.
раз Вы програмист, то наверно знаете как можно сделать в тексте принудитеьльно опечатки, просто нужно знать алгоритм действий, а за скриптом дело не встанет, тем более, что мне такие уже попадались.
например возьмем любую очень популярную фразу и подвергнем её методике дорвейщиков для создания уникального текста с сбором всех крошек трафика
(к сплогам это тоже имеет отношение, тк есть специальные сплоговые cms, которые пропускают входящий текст или через синонимайзер или еще через опечаточные фильтры... привет мастеру ласто ))
как пример прям щас поразвелкаемся со статистикой яндекса на пластиковые окна
обычная ошибка: пластековые окна 36 показов
ластиковые окна 25
окн 383
забыли пробел : пластиковыеокна 25
забыли переключить раскладку клавы: gkfcnbrjdst jryf 499 - удивлён если честно))
так же меняют первую и первую буквы в словах, забывают первую или последнюю буквы, двойные буквы... да что там размениваться - транслит и транслит с ошибками ))
и тому подобные варианты...
как видите если выбрать несколько словосочетаний и немного над ними поработать, можно получать ценный поисковой траф.
Palkovvodec, вы слишком хорошо обо мне подумали - я не писал программ с 1992 года и однозначно пока прохожу по категории "бывший программист". В современном инете и его инструментах я пока нулевой.
Но определенные понятия, конечно, остались - строгий тип мышления программиста вещь неубиенная.
Вот у меня иногда и возникают нехарактерные для реально ламера вопросы...
Ваш ответ, как всегда, откровенен и чрезвычайно информативен.
Я понял подсказки относительно некоторых способов модерирования нормально читаемого формально оригинального контента и применения комбинаторики для сбора крошек трафика даже самых дорогих ВЧ и СЧ запросов.
Ваши советы дорогого стоят!...
Но, честно говоря, ни из статей, ни из вашего ответа я так и не уяснил имеет ли хоть какую-то поисковую ценность сам дважды переведенный текст - или это только метод наполнения страниц псевдо уникальным контентом...
Конечно, возможно, что я невнимательно читал - или пока мне квалификации не хватает, чтобы осознать все многочисленные выгоды дважды переведенных текстов...
Но, честно говоря, ни из статей, ни из вашего ответа я так и не уяснил имеет ли хоть какую-то поисковую ценность сам дважды переведенный текст - или это только метод наполнения страниц псевдо уникальным контентом...
в своём посте про ГС я забыл упомянуть еще один , пожалуй, самый популярный способ применения таких сайтов, а именно продажа ссылок в сапе (sape.ru) или любой другой хитрой конторе.
уникальный текст быстро индексируется, а точнее появляется в индексе поисковиков - в этом его основная ценность и преимущество перед копипастом - тупо скопированном откуда нибудь контентом.
Сапа принемает нулевые (непрокачанные на тИЦ и PR) сайты, лишь бы страницы были проиндексированны яндексом, домен второго уровня и теперь уже разрешен бесплатный хостинг.
Оптимизаторы покупают ссылки с таких ресурсов для продвижения в выдаче по нужным им анкорам - им главное количество, а не качество, тем более что ссылки стоят копейки - от 1-2 центов.
Можно прикинуть, что с ГС в 1000 страниц по 3-4 ссылки на страницу через 2-3 месяца можно иметь 50-100 баксов в месяц)))
Если кто захочет меня поправить по части тИЦ, выскажу своё мнение - лучше покупать морды или сквозняки для этого, а не отдельные внутренние страницы.
Palkovvodec, консультируя по данной тематике, вы рискуете установить мировой рекорд по количеству полученных благодарностей!...
И это ж пока я один спрашиваю и читаю ваши ответы - но потом же еще сотни людей в топик зайдут и благодарить будут...
Ладно, позвольте продолжить задавать вам наивные вопросы.
Если я уж совсем коммерческие тайны начну публично спрашивать, то просто промолчите или скажите мне в личку, чтобы я поменьше букв расходовал, а то всем не хватит - ОК?!
Как экономист, из изложенного выше я понял, что если сделать, скажем, 5 ГС по 1000 страниц, то проблема получения (обеспечения) вполне достойного прожиточного минимума будет решена на годы вперед.
Причем какого-то особого сопровождения этот минимальный заработок вроде как и вообще не требует...
Правильно?!
Если же, как писал автор статьи в первом топике, быть очень ленивым и делать всего лишь по одному сайту в месяц каждый месяц, то просто на чистой технологии можно зарабатывать до хрена и по столичным меркам.
Я, конечно, догадывался, что умным и компетентным быть выгодно - но чтобы настолько...
Правильно?!
Теперь более технические (но все равно экономические) вопросы.
Что, на ваш взгляд, технологичнее и выгоднее для работы с Сапе (и ее аналогов): 1 ГС на 1000 страниц - или 5 ГС по 200?
Нет, я понимаю, что лучше (выгоднее) всего 5 ГС по 1000 страниц каждый.
Я имею в виду доходность на 1000 страниц ГС в зависимости от компановки - без разницы, или выгоднее одним сайтом или выгоднее 5-10 ГС по 200-100 страниц каждый?!
Что больше интересует покупателей-оптимизаторов - только общее количество страниц со ссылками или покупателям может быть предпочтительнее все же какая-то структура (сетка) ГС?
Я понимаю условность вопроса - и готов к достаточно общему ответу...
Цитата:
Оптимизаторы покупают ссылки с таких ресурсов для продвижения в выдаче по нужным им анкорам...
Во-первых, просьба все же учитывать уровень подготовки и расшифровывать часть специальных терминов. Скажем, я (да и другие новички) не знаю точного значения терминов "анкор" и "сквозняк"...
Во-вторых, все же рискну задать вопрос - можно ли как-то подстроить ГС под потенциально более популярные и более востребованные в Рунете анкоры? Как это сделать? Скажем, достаточно ли взять ТОП-100 запросов Яндекс и слепить по 100 или 1000 страниц ГС под каждый из наиболее популярных запросов?
Если вопросы некорректные или неграмотные - извиняюсь. Я честно предупредил, что я лишь любознательный ламер.
А вот за ответы заранее спасибо.
ну, начнём с конца ))
я тоже не seo гуру, и многого не знаю, и я не палю темы)) всё взято из открытых источников.
терминология:
сквозняк, сквозная ссылка - ссылка, которая устанавливается на всех страницах сайта - передаёт вИЦ самой прокачанной страницы из всех, передаёт PR от всех страниц, передаёт тИЦ. покупать и продавать лучше договариваясь лично. стоит дорого, но того стоит.
<a href=site.ru>анкор</a> - анкор ссылки очень важен для поискового продвижения. Например при продвижении на определённое слово или фразу(ключевую), которая есть на странице вашего сайта, сделать кучу ссылок с этим анкором с других ресурсов, то можно по ней выбится в ТОП поисковой выдачи.
Цитата:
можно ли как-то подстроить ГС под потенциально более популярные и более востребованные в Рунете анкоры? Как это сделать?
да, можно, парсеры яндекс каталога вам в помощь)) - в Яке все сайты имеют описание - обычно это либо дорогие запросы, либо правильные высоко- и среднечастотные запросы - многие сдирают (копируют или парсят на определённую тематику) такие описания и из них набирают сайт... дальше используют контекстную рекламу, а именно - распределяют по странице так, чтобы было не понятно, где контент, а где реклама, на грани фола...
по себе знаю, еще когда в сети ничего не понимал, а нужно было искать всякую хрень по работе, связанной как сейчас узнал с одним высокочастотником - натыкался на такие сайты - 2-3 строчки твоего поискового запроса - затем блок рекламы - и кликал переходил)), со второго-третьего раза находил нужный сайт... так что тема рабочая.
есть бесплатные парсеры, наити не так сложно.
дальше
Цитата:
Что, на ваш взгляд, технологичнее и выгоднее для работы с Сапе (и ее аналогов): 1 ГС на 1000 страниц - или 5 ГС по 200?
ИМХО и только ИМХО - 5 ГС по 200... не стоит хранить все яйца в одной корзине. Сайты банятся за разные провинности, и шанс потерять все 5 маленьких меньше чем один большой (особенно если их не перелинковывать между собой и не хранить в одном акке я.вебмастера и гугловских инструментов.
еще момент - индексация роботом сапы - он проходит только до 3 уровня вложенности страниц, и если не сделать грамотную внутреннюю перелинковку, то засунуть всю 1000 страниц врядли удасться (живые примеры - сайты на 10 000 страниц имеют проиндексированные сапой только 700-1200)
Делать ГС скучно и неинтересно - это кропотливая монотонная работа, по моему гораздо приятнее даже для самооценки найти свой способ или использующий творчество при выкачивании бабла из сети ))
Стакан дегтя: поисковики скоро научатся правильно с орфографической, пунктуационной и главное логической точки зрения оценивать текст - малочитаемый будет выкидываться из индекса, так что о заработке на ГС на годы вперёд я бы не расчитывал.
Так же поисковики активно борятся с продажными ссылками - и предпоследний ап яндекса показал очень существенное снижение их влияния на выдачу. Введение новых алгоритмов типа Магадана и Находки откровенно это подтверждает. Не будет бонуса новичка, теперь более старые сайты выше в выдаче чем свежие.
Биржы ссылок, конечно не умрут, но делать под них сайты станут намного меньше, ибо предложение уже превышает спрос.
На мой взгляд сейчас стоит обратить внимание на продвижение статьями и биржи статей, тк отличить продажную ссылку окруженную релевантным текстом в 1000 знаков машинным способом сложно, да и даже визуально не всегда удаётся.
Лично я делаю каталоги статей - вручную можно добавиться бесплатно, но так же стоят скрипты от двух бирж - народ добавляется за деньги, стоит контекстная реклама и сапа. Получается авто -добавляемый и -обновляемый сайт относительно уникальным и главное читабельным контентом. Вроде все в выйгрыше - я получаю деньги, народ - продвижение...
Но об этом как нибудь в другой раз )) и так дофига букф
Стакан дегтя: поисковики скоро научатся правильно с орфографической, пунктуационной и главное логической точки зрения оценивать текст - малочитаемый будет выкидываться из индекса, так что о заработке на ГС на годы вперёд я бы не расчитывал.
С этим вашим утверждением, Palkovvodec, пожалуй, поспорю.
Еще в конце СССР мне довелось делать весьма сложную программу бесформатного ввода информации - шел поток алфавитно-цифровых данных (фразы и числа), которые мне надо было проверить на достоверность (допустимость) и обработать (разложить, сгруппировать, оформить) согласно их содержания.
Поток данных (поначалу результаты вступительных экзаменов, а позднее результаты заводских испытаний) был по сути мини-языком - наверно, в тысячную процента от объема и сложности великого и могучего русского языка.
Для синтаксического и семантического анализа потока данных мне пришлось разработать аж 54 проверки синтаксиса и семантики входного потока данных - причем не последовательно, а кучерявого дерева анализа.
Ну я-то с задачей справился - но, доложу вам, 54 уровня проверки есть ну очень до хрена глубоко и сложно.
Так ведь это был искуственный локальный мини-язык данных, по сравнению с русским языком простой, как лепет ребенка.
Поэтому мне ну очень трудно поверить в то, что боты поисковиков в скором времени будут понимать смысл написанного на сайтах.
А ведь без понимания смысла написанного практически невозможно правильно расставить пунктуацию...
Но я согласен с тем, что проверять синтаксис отдельных слов написанного на сайте возможно, поскольку давно существуют электронные словари. Отдельные слова синтаксически проверить почти не проблема, кроме падежей - хотя и глаголы в разных падежах зашить в словари не проблема.
Но семантика фраз (и пунктуация) - это задача совсем другого уровня, поскольку требует уже логического понимания взаимосвязей написанных слов, чисел, аббревиатур на уровне понимания семантического значения (в фразах) каждой последовательности символов!... Это качественно другая задача!!
Не будем еще забывать, что от 80% труженников Рунета русским языком "владеет со словарем" - причем критично нужным им словарем-то почему-то и не пользуется... То есть народ "по ходу" легко создает проблемы в помании семантики написанного!
Ну, и не хотел бы по стариковски брюзжать, но не могу не отметить, что оригинальный, авторский контент множества сайтов, извиняюсь, по уровню очень трудно отличить от говноконтента... Вникнуть в семантику многих сайтов не по силам не то что ботам, но и образованным людям...
Так что с машинным пониманием семантики контента сайтов многое сложнее, чем кажется!...
Ну, а уж осмысленное понимание написанного и, тем более, вынесение на основе анализа вердиктов сайтам - это задача следующего порядка, сроки решения которой я не берусь назвать даже приблизительно.
Это, конечно, ИМХО.
Но есть могучее подтверждение моих предположений - электронные переводчики, начиная с Google. Ведь как они смысл текста понимают - так они и переводят!!
И если, после 1-2 переводов, исходный текст не узнает даже его мама родная, а мы получаем неограниченные объемы уникального говноконтента, то это может означать только одно - даже самые лучшие электронные переводчики мира пока абсолютно ни хрена не понимают в переводимых текстах!
Поэтому предположение, что боты поисковиков вот-вот начнут понимать смысл написанного или, хотя бы, расставлять за нас запятые, мне кажется неоправданно оптимистичным!
И, как по мне, будущее у говносайтов еще большое и светлое...
Делать ГС скучно и неинтересно - это кропотливая монотонная работа, по моему гораздо приятнее даже для самооценки найти свой способ или использующий творчество при выкачивании бабла из сети ))
Копать канаву от обеда до забора тоже безрадостно - но если это единственное, на что обучен, то выбора способа заработка практически нет. Точнее, выбор обычно есть, но сводится он к тому, чтобы копать канаву с севера на юг или, наоборот, с юга на север...
У новичков вообще ограничен уровень знаний, доступный инструментарий и, соответственно, выбор способа получения минимального дохода.
Тема ГС, конечно, не радует - но, как для новичка, эта относительно простая технология позволяет немного разобраться в происходящем в Рунете, освоить какие-то азы и довести до автоматизма некоторые навыки работы.
Не надо ж забывать, что, учитывая молодость Рунета, не так уж и много людей реально имеет что сказать другим на своих сайтах!...
Да, правильнее всего поголовно всем делать оригинальные сайты - но мало кто знает о чем вообще писать...
Увы, но говноконтент штука самовоспроизводящаяся - и к этому надо адекватно просто относится.
А критерий самооценки можно начинать применять после решения проблемы получения минимального дохода... Потому что понятие самооценки у человека без минимального дохода просто отсутствует!
В остальном же, Palkovvodec, я с вами согласен.
Цитата:
Так же поисковики активно борятся с продажными ссылками - и предпоследний ап яндекса показал очень существенное снижение их влияния на выдачу. Введение новых алгоритмов типа Магадана и Находки откровенно это подтверждает.
Не знаю могу ли я, не сделавший ни одного сайта, хоть что-то постить по этой теме - но все не смолчу!
Думаю, что новые алгоритмы реализуют криминалистический подход - ищут улики применения искуственных методов продвижения сайтов и, согласно нарытому, понижают сайты в выдаче.
Причем пока что, как я понял, преобладает обвинение - потому что были опущены уважаемые мною многолетние трудовые сайты с сотнями естественных ссылок...
На мой взгляд, такой перегиб и наезд на достойные сайты свидетельствует о том, что и новые алгоритмы с вполне "военными" названиями по прежнему не в состоянии адекватно оценивать реальный контент сайта!!
И сайты и сейчас продолжают оцениваться не по содержанию (контенту), а по формальным признакам!
Несмотря на новейшие алгоритмы...
Эти 2 мини поста к тому, что говноконтент еще долго будет наполнять просторы Рунета - причем его и так очень высокая доля может даже возрастать...