Что нужно чтобы спамить блоги? Для этого нам понадобится крякнутый Хрумер 2.9 и крякнутый хрумер 3.0. Почему нужно 2 разных хрумера, отвечу. В хрумере 2.9 нужно составить проект, а хрумером 3.0 мы будем отправлять сообщения в блоги. Скачать архив с хрумаками можно от сюда. http://hotfile.com/dl/10536894/c135d4f/xrumer29_3g.rar.html
Теперь у вас есть чем спамить, есть что спамить (база блогов). Вам нужна только инструкция, которую я Вам сюда и напишу.
Пошаговая Инструкция:
1. Разархивируйте скачанный архив.
2. Откройте хрумер 2.9
3. Выберите вкладку “База ссылок” и три раза нажмите на кнопку “подробности”.
4. После третьего раза чуть выше появилась кнопка, на которой 3 точки, кликаем туда.
5. Заполняем все данные, если вы спамите блоги то заполняем имя, на всякий случай пароль, url сайта, и сообщение. Если вы собираетесь спамить что-то другое, то заполняем все поля. Там где “описание темы” вписываем ключевики, это если вы постите в каталоги, доски и прочее.
6. Проект сохраняем, хрумер сам по себе должен закрыться.
7. Теперь заходим в папку “Projects”. Жмём на проект правой кнопкой и выбираем “копировать”
8. Заходим в папку с хрумером 3.0.
9. Открываем папку “Projects”, щёлкаем правой кнопкой и выбираем “Вставить”.
10. Теперь открываем папку “Links”, если такой нет, то создайте её.
11. В эту папку закидывайте свою базу.
12. Изменяем название базы на “ForumsList id777.txt”, вместо “777″ Можете написать любое другое число.
13. Открываем хрумер 3.0.
14. Заходим на вкладку “База ссылок”, там вписываем номер нашей базы, 777. Справа выбираем “ForumsList”.
15. Сверху, где написано “Текущий проект” выбирайте проект.
16. Заходим на вкладку “настройка многопоточности”. Я обычно ставлю 10 потоков и периодичность 20. Это если у вас dial-up досуп.
17. Жмём на кнопку “Продолжить с последней позиции” И наслаждаемся постингом!
Для тренировки этого достаточно. В будущем купите себе лицензионный софт.
Как парсить блоги?
Статья опубликована Ноябрь 16, 2009
0
Как парсить боги?Вы решили продвинуть свой блог методом комментирования постов на других блогах? Но оставлять комментарии вручную долго, хоть и надёжно. Вопрос – Чем постить в блоги? На него я отвечу в следующем посте, а сейчас возникает следующий вопрос. Как и чем парсить блоги?
Для парсинга существует много разных программ, как платных, так и бесплатных. Я буду рассматривать бесплатные варианты.
Для парсинга нам понадобится хорошая программа Aggress Parser, это бесплатная програмка, компании AGGRESS. Не сказать что она очень крутая, но для нас подойдёт. Ещё мы будем юзать программу Allsubmitter 4.7 crack. Вот эти две програмки нам для парсинга и понадобятся. Вы пока поищите их в гугле, а как скачаете их, продолжим.
Скачали? Значит продолжаем. Переходим к следующему вопросу. Какой поисковый запрос нужно ввести, чтобы напарсить ссылки блогов? Сам долго мучался с этим вопросом. Многие говорят, что нужно подставить любой спам-коммент, честно говоря, потом в базе один мусор. Но, поразмыслив немного я обнаружил, что вполне можно парсить по такому запросу “Почта (не публикуется)” конечно без кавычек. Теперь посмотрите на форму оставления комментария под этой статьёй? Видите – что там написано. Таким образом будет собираться база именно тех блогов, где можно оставить коммент. Да, но не стоит забывать самое главное! Комментарии типа: Автор молодец, отличная статья, подписался на RSS – фуфло! Такие комменты отсеет либо специальный плагин, либо автор блога. А как же быть? А вот так! Смотрим на тематику своего блога. Придумываем свой комментарий по теме. Например, тема блога у вас – заработок в интернете. Пишем, что-то подобное – “Отличный способ заработать, тоже думал его применить, но всё руки не доходили.” Коммент готов, теперь будем собирать базу. Комментарий у Вас на тему “заработок в интернете”, значит вводим в прогу, которой будете спамить, такой запрос – “Почта (не публикуется) + заработок в интернете” Теперь парсер соберёт базу тех страничек, на которых написано про заработок в интернете. Это значит, что Ваш комментарий, скорее всего, попадёт в блог. Ну, с запросами разобрались!
Устанавливаем скачанный AGGRESS Parser – это очень простая програмка. Ищем там слева меню с поисковыми системами и выбираем яндекс. Теперь добавляем наш поисковый запрос и жмём старт. Всё, база собирается, потом сохраните базу, в этом же парсере удалите дубли и опять сохраните.
Теперь разберёмся с Алсабом, как же работает эта прога? Тут сложнее, для начала установите её, крякните, а потом запустите. Если у вас установлен антивирус, то он может определить crack_allsubmitter как Троян, ничего страшного так и должно быть, антивирусы часто определяют автосабмиттеры как Трояны, в таких программах записан спец алгоритм, похожий на вредоносную программу. Жмём в ней кнопарь “база каталогов” Ищем в левом столбике названия категорий, щёлкаем на любой из них, правой кнопкой и создаём ещё одну категорию с названием блоги. Теперь создана категория – там пусто? Поправимо. Ищем в левом столбике кнопку “Добавить с SE” Жмём на неё, опять выбираем, яндекс, вбиваем наш запрос и пусть парсит. Потом сохраните, дубли автоматом отсеются. Сохранённую базу экспортируйте в txt, она потом нам ещё пригодится. Можно собирать и с других Поисковиков. Значит парсить, мы научились. В следующей статье, я опишу как, и чем спамить блоги.
Если у тебя есть сателлит на wordpress то наверняка в него приходит спам, тогда тебе повезло. Берёшь и парсишь выдачу по этим спам-комментариями. Мне например в день на один блог по 50-60 комментариев приходят, через 3-5 дней я проверяю их в гугле, обычно 300-500 страниц бывает проспамлено, которые вошли в индекс.
Примеры спам комментариев:
По моему у Вас украли эту статью и поместили на другом сайте. Я её уже видела.
Отличная статья. Краткость явно Ваша сестра
Надо почаще бывать на вашем блоге)) интересно
Да если копнуть в инете подобного добра навалом!
Хоть кто-то здравомыслящий остался
Хотелось бы видеть надпись to be continied
Добавь жару брат, добавь жару.
хороший блог, респект
А подробнее на эту тему будет что-нить?
Интересно и позновательно, а будет еще что-то по этой теме?
Спасибо, много полезного почерпнул.
Хороший сайт, спасибо творцу.
Так-то оно так, потому как быть того не может, кабы чего-нибудь да не было…
Это, безусловно, важно, однако на мой взгляд гораздо важнее не это. Ведь существует немало примеров..
хороший рассказ, все разложено по полкам
Ну, вот раззадорили, а теперь када ждать продолжения?
Отлично написано! Буду много думать…
Блин классика жанра, посмеялся от души…
Добавил в закладки. Теперь буду почаще читать!
Здорово, тоже хотелось бы писать на эту тему, жаль литературного дара нет
Супер статья! Подписался на RSS, буду следить =)
Мне кажется или автор что-то недоговаривает
Где-то я это уже видел… А если по теме то спасибо.
а как вы относитесь к войне Грузии и Абхазии?
Огромное человеческое спасибочки !
Зер гуд ставлю 5 балов.
Спам Алсубмиттером
Статья старая, но всё-же полезная новичкам.
Основы парсинга для новичков.
Среди своих рефов я очень часто встречаю схожие затруднения, у большинства из них есть спамилки, которые они либо покупают, либо находят где-то в интернете, но спамить им нечем, у них нет более ли менее хорошей конкурентноспособной базы. В этой статье я постараюсь изложить методы парсинга, т.е. постараюсь научить новичков собирать как можно больше.
Парсинг — это процесс сбора ресурсов (сайтов). Сбора не именно сайтов, а их адресов. Мы эти ресурсы собираем для последующего в них спама. Парсить можно все что угодно — гостевые книги, форумы, блоги, вики, главное чтобы в них можно было оставить свое сообщение со ссылкой на свой дор.
Запрос — это то, что мы вводим в поисковике.
Выдача — это те сайты, которые выдает поисковик на наш запрос.
Далее хочу заметить, что наиболее важное в парсинге это умение правильно пользоваться поисковиком. Поэтому нужно знать синтаксис запросов. Я остановлюсь на гугле т.к. у него самая большая база данных, относительно других поисковиков.
Синтаксис запросов гугла.
1)inurl:»xxx» — поисковик выдаст все сайты у адресе которых найдет ххх, вместо ххх мы можем вставить любое другое слово, например guestbook,forum и т.д.
2)intitle:»xxx» — поисковик выдаст все сайты в заголовке которых найдет ххх. Опять же вместо ххх может быть любое слово.
3)site:.xxx.com — поисковик выдаст все страницы с домена xxx.com, вместо ххх.соm может быть любой домен любого уровня. Это может быть jopa.mail.ru или например просто .ru, если мы просто оставим .ru, то поисковик выдаст нам все сайты с доменной зоны .ru. Вместо .ru могут быть .com, .org, .net и т.д.
4)intext:»xxx» — поисковик выдаст нам все сайты в тексте у которых было найдено слово ххх. Вместо ххх — любое слово.
5)»ххх» — поисковик выдаст нам сайты в которых было найдено слово ххх (найденно было везде в урле или в тексте или в заголовке, неважно).
6) -«ххх» — поисковик выдаст нам все сайты исключая те, в которых было найдено слово ххх. После минуса также могут стоять inurl:»xxx» intitle:»xxx» site:.xxx.com intext:»xxx» и др.
***Можно писать то же самое и без кавычек, но я настоятельно рекомендую всегда их ставить, т.к. кавычки показывает гуглу строгость запроса, и поэтому он не будет выдавать всякую дрянь, которая по его мнению тоже подходит под запрос.
Очень важно не только знать синтаксис запросов, но и уметь правильно комбинировать их. Этим мы сейчас и займемся. На самом деле все очень и очень просто.
Введение.
В мире существует огромное число гостевых книг, но все они грубо говоря делятся на два основных вида однотипные и неоднотипные. Однотипные гостевые — это гостевые которые имеют одинаковые окончания и одинаковые обязательные поля для заполнения.
Вот примеры некоторых однотипных гостевых.
http://saveus.org/guestbook/sign.asp?PagePosition=1
http://caltrap.org/guestbook/sign.asp?PagePosition=1
http://mail.bebat.be/guestbookf/sign.asp?PagePosition=1
или
http://becquet.com/addguest.html
http://vetgen.com/guest/addguest.html
http://newcreations.net/webmaster/guestbook/addguest.html
Чем эти гостевые удобны :
1) Легко парсятся
2) Легче анализируются (если не спамиться 10 гостевых этого типа, значит все остальные скорее всего тоже не спамятся)
Так вот новичкам я бы советовал начинать со сбора именно однотипных гостевых.
Типов гостевых существует огромное приогромное множество, соответственно различных однотипных гостевых тоже.
Займемся парсингом. Для начала мы должны определиться какой тип гостевой мы хотим собирать и чем (всмысле руками много не соберешь Smile ). Когда я начинал, я пользовался программой AllSubmiter. В нем есть встроенный парсер. Программа как и все другие платная, но без триал срока. А если не крякать эту программу то она выполняет только функции парсера, хех, а нам именно это и нужно т.к. если мы скачам его и не активируем, то будет работать только парсер, парсер собирает все урлы со страницы исключая внутренние ссылки гугла, парсер отсеивает на дубликаты доменов и дубликаты ссылок.
AllSubmitter берем здесь
Для нового типа гостевых мы создаем новую базу данных.
Задаем ей имя.
Теперь приступим, я покажу на конкретном примере как собирать базу с помощью аллсубмитера. Давайте соберем, ну скажем тип гостевой — gbook.php?a=sign. Эти гостевые имеют одинаковые окончания При вводе в гугле inurl:»gbook.php?a=sign» в гугле их ~ 10,5К. Но гугл не выдает больше 1000 результатов с запроса, что же делать, как собрать больше 1К? Для этого необходимо много раз сузить запрос, обязательно чтобы выдача по запросу не превышала тысячу сайтов, таким образом мы можем собрать все результаты. Аналогией может быть то, что с девочки не снимешь всю одежду сразу одним махом, сначала одно, потом другое, потом лифчик и т.д. В результате она все равно станет голой, и трахаться будет тот, который снял всю одежду, а не тот, который попробовав снять все сразу одним махом, снял только кепку и подумал что ничего другого с нее не снимешь. Это я к тому что не заканчивается парсинг сбором гостевых по запросу inurl:»gbook.php?a=sign», но с него начинается. Желательно сделать запрос даже таким
inurl:»gbook.php?a=sign» -«error» -«warning» ,таким образом мы убираем часть плохих нерабочих сайтов.
После того как мы создали новую базу данных а allsubmitere, вводим в браузере программы google.com, и вводим там запрос. (Необходимо чтобы в гугле было поставленно — «выдавать по 100 урлов на странице», это ускорит сбор парсером аллсубмитера), вот что мы видим
Далее жмем на Базы Данных -> Импортировать из IE
Добавить
Добавилось 99 ссылок
Потом жмем ОК, потом в браузере программы «Назад» и то же самое проделываем со 2-й страницой выдачи, потом с третьей и т.д.
Проделав это составим другой запрос например >>
inurl:»gbook.php?a=sign» site:.com, т.е. соберем все гесты с доменной зоны .com, опять проделаем ту же процедуру сбора (см. картинки)
потом другой запрос
inurl:»gbook.php?a=sign» site:.net
inurl:»gbook.php?a=sign» site:.biz
inurl:»gbook.php?a=sign» site:.org
Вообще можно пребрать все типы доменов.
site:.com
site:.net
site:.biz
site:.org
site:.in
site:.name
site:.ru
site:.fr
site:.it
site:.edu
site:.gov
site:.mil
site:.info
site:.au
site:.at
site:.by
site:.be
site:.bg
site:.ca
site:.cn
site:.cz
site:.dk
site:.eg
site:.de
site:.gr
site:.hu
site:.ie
site:.il
site:.jp
site:.us
site:.uk
site:.ua
site:.ch
site:.se
site:.es
site:.pl
site:.nl
site:.ro
site:.to
site:.mx
Алсубмитер будет добавлять базу только уникальные домены, поэтому не стоит бояться делать любые запросы, дубликатов не будет
Затем можно сделать такие запросы
inurl:»guestbook/gbook.php?a=sign»
inurl:»gbook/gbook.php?a=sign»
inurl:»gb/gbook.php?a=sign»
inurl:»guest/gbook.php?a=sign»
А потом сделать такую фишку
inurl:»gbook.php?a=sign» — inurl:»guestbook/gbook.php?a=sign» -inurl:»gbook/gbook.php?a=sign» -inurl:»gb/gbook.php?a=sign» -inurl:»guest/gbook.php?a=sign»
т.е. отсеить то что уже напарсилось
Можно комбинировать самые и самые разные запросы вместе, можно используя “-”
отсеивать то, что вы уже напарсили, главное сделать как можно больше запросов.
Где искать новые типы гестов? Обычно я использовал два метода :
1) В интернете часто распостраняются готовые гостевые книги, а раз они распостраняются значит они массовые, т.е. для всех, то есть многие их себе устанавливают на разные сайты и т.д. Просто качаешь эти гесты заливаешь на фришник и смотришь на что они оканчиваются, а потом это окончание смотришь в гугле, если большая выдача значит имеет место ее собирать, небольшая — значит эти книги не пользуются популярностью и собирать их нет особого смысла.
2)Можно искать новые типы гестов в бэках у конкурентов, все может и говорят типо некрасиво и т.д., но очень и очень многие так делают, хотя имхо лучше комбинировать первый и второй способы.
Из нормальных автоматических парсеров очень рекомендую парсер Манго (253880089 – его ася), он недорогой, но очень быстро и качественно собирает, фильтрует на дубликаты и удаляет пхп сессии + распределяет по ПР.
Впринципе все, все вопросы и пожелания пишите тут, постараюсь ответить всем.
Источник сдесь: http://klikforum.com/viewtopic.php?t=1405
Наш сайт runeto.com предлагает вебмастерам огромный выбор бесплатных сервисов для вебмастера.
Такие популярные сервисы как
Анализ сайта
WHOIS IP сайта
WHOIS владельца домена сайта
Генератор опечаток слепой печати
Анализ контента сайта
Анализ внешних и внутренних ссылок
Массовая проверка доменов на занятость
Нанесение текста на изображение
Массовая проверка скорости сайта
Зашифровка HTML в код JavaScript
и многoе другое
Для того, чтобы не пропустить главные новости последней недели, подпишитесь на новостные RSS ленты нашего сайта. Вам предоставят больше функциональных возможностей на нашем сайте.