суббота, 13 июня 2009 г.

Уникализация текстового контента - реальный опыт

Чем просить и унижаться, лучше стырить и молчать.

Неизвестный пользователь торрента


Эти слова неизвестного героя, скачивающего с Интернета всё что нужно через торренты, вдохновили меня рассказать о способе получения "уникального" контента для сайтов из просторов родного Интернета.

Ну, конечно контент этот предназначен в первую очередь для наполнения говноблогов. Но конкретно один такой блог (он и сделан был пока что в единственном числе, для проверки работоспособности этого метода) по медицинской тематике мною сделан, Яша его отлично скушал и в индексе уже довольно долго держатся почти 1000 страниц.

В сапе ссылки с него отлично продаются. Так что пусть это и не "высшее качество", но технология в хозяйстве полезная.

Итак. Что нам потребуется? Для начала нам нужно найти сайт-донор подходящей тематики, на котором имеется достаточно большое количество статей или иных текстовых материалов для нашего говноблога.

Нам подойдут каталоги статей, каталоги товаров или услуг, тематические новостные сайты, и т.д.

Главное, чтобы в них было достаточно много материала (чем больше, тем лучше).

Затем мы выкачиваем такой сайт полностью на локальный компьютер при помощи программы Teleport Pro или аналогичной.

Как правило, файлы со статьями или другими аналогичными данными имеют типовое название, например: article-medicine-2735672.html.

Т.е. их достаточно просто отфильтровать от остальных страниц сайта.

Удаляем всё ненужное, оставляем только файлы с контентом, которые мы обработаем при помощи программы TextPipe Pro.

Как пользоваться этой программой рассказывать не буду - это отдельная история. Если интересно - спрашивайте в камментах, я на примерах тогда расскажу, как пользоваться этой программой для обработки конкретных сайтов. Т.к. для каждого сайта нужно составлять немного отличающуюся обработку.

Главное, чего мы добиваемся - чистим собранные файлы от мусора (html-код и прочие ненужные нам данные) и сохраняем их в текстовом формате.

Теперь переименовываем все собранные файлы. Использовать для этого можно любую удобную программу ренэймер. Их десятки, если не сотни. Какая больше нравится, ту и берите.

Названия делаем просто рэндомными. Это позволит нам "перемешать" статьи не по порядку, чтобы они шли вразнобой, а не так, как они идут на сайте-доноре.

Затем при помощи той-же программы TextPipe Pro мы объединяем полученные файлы в один большой текстовый файл, используя какой-нибудь уникальный разделитель, например ********!!!******* или что-то типа того.

В полученном файле случайном порядке будут идти собранные нами ранее материалы.

Теперь ничего нет проще, чем разделить полученный файл на куски, но не по 1 статье, как это было изначально, а по N-статей в одном текстовом файле. Где N - любое разумное число от 2 и выше. Делить тоже можно программой TextPipe Pro.

Я склеивал по 5 текстов, так, чтобы объём готовых статей получался в пределах 2000 символов.

Для надёжности, я ещё прогнал все тексты после объединения синонимайзером SmartRewriter по стандартной базе (она меняет в среднем от 5 до 25% слов в тексте, сохраняя его более-менее читаемым).

И всё что получилось закинул в блог.

Выполнять абсолютно всю последовательность действий не обязательно, а вот использование самого принципа поможет вам получить из неуникального текста достаточно уникальные материалы для публикации в блоге под сапу.

Резюмируя всё вышесказанное подведём итог всех действий:

- Находим большой источник текстовых материалов
- Выкачиваем весь сайт
- Удаляем лишнее, оставляем только тексты статей
- "Перемешиваем" статьи
- Склеиваем все статьи в один файл и делим на нужное количество частей
- Синонимизируем полученные материалы для большей уникальности (необязательный шаг)
- Размещаем статьи на блоге
- Дожидаемся индексации Яндексом
- Подаём сайт в сапу и рубим бабло.

Надеюсь, Вам эта методика также поможет в создании уникального контента. Я сейчас планирую десяточек таких блогов сделать не спеша. Это не исключает СДЛ, это дополняет их, т.к. при кажущейся громоздкости всей процедуры, контент в основном готовится на автомате, требует минимум участия от человека и количество готовых материалов зависит только от размера сайта-источника. Но никто не запрещает нам использовать несколько источников материалов.

И напоследок традиционные мысли вслух.

Андрей Борисов начинает Gameboss-марафон: заработай играючи!, посвященный заработку в партнёрской программе Gameboss.

Главная цель этого марафона - достичь уровня заработка с этой программы как минимум 20$ в день или достижение посещаемости в 1000 уникальных посетителей в день.

Участие в марафоне открытое. Чтобы присоединиться - достаточно читать и что-нибудь делать.

Особо стоит подчеркнуть специальное предложение для блоггеров. Каждый блоггер может получить бонус. Какой? Читаем тут.

8 комментариев:

dieselpro комментирует...

интересный способ, хочу попробовать и узнать что будет с вашим 10 блогов. А синонимазер платный?

Redmonk комментирует...

Обязательно напишу, что с ними станется. Но будет это не раньше чем через 2-3 недели. До того ещё будет не всё понятно.

Да, этот синонимайзер платный, но не дорогой.

Выпускается в двух версиях, за 28$ и за 38$.

Тот что подороже работает значительно шустрее.

Вот тут про него можно больше почитать: http://smartbyte.org/

Но на нулледе (nulled.ws) можно найти несколько "бесплатнх" синонимайзеров. Другое дело - базу синонимов придётся искать отдельно.

MaxXx комментирует...

Гм, очень отличная метода, спасибо, что поделились. Пошел искать кряку к телепорту, ведь не пользовался им уже полгода точно =)

Анонимный комментирует...

И каков результат? Держатся в индексе?

Redmonk комментирует...

Часть блогов на таком контенте вылетела из индекса, чась осталась.

Причина вылета - продажа "сомнительных" ссылок в SAPE, поэтому сложно сказать, на сколько целесообразно использовать эту методику.

Kölner комментирует...

А как с помощью этой программы резать текстовый файл по разделителю в тексте на кучу маленьких текстовых файлов? Я все перепробовал не получается.Можете показать на примере?

Kölner комментирует...

А как с помощью этой программы резать текстовый файл по разделителю в тексте на кучу маленьких текстовых файлов? Я все перепробовал не получается.Можете показать на примере?

Kölner комментирует...

А как с помощью этой программы резать текстовый файл по разделителю в тексте на кучу маленьких текстовых файлов? Я все перепробовал не получается.Можете показать на примере?