Webbell » Интернет новости » Автоматический спамер CMS Bitrix
Правила Контакты Чтение RSS

Автоматический спамер CMS Bitrix

У нас вы можете скачать бесплатно Автоматический спамер CMS Bitrix .

Не пропустите комментарии к Автоматический спамер CMS Bitrix.
Данный материал предоставлен сайтом Webbell.ru исключительно в ознакомительных целях. Администрация не несет ответственности за его содержимое.
Автоматический спамер CMS Bitrix


Автоматический спамер CMS Bitrix - полное руководство

Важные замечания:

· Скрипт работает полностью корректно только в браузере Mozilla Firefox!

· Обращайтесь за поддержкой только по работе самого скрипта. Вопросы по установке/настройке/удалению/обновлению денвера, PHP, Windows рассматриваться не будут. Если что-то не работает – внимательно перечитайте руководство, здесь представлена вся необходимая информация.



Итак, Вы приобрели уникальный набор скриптов, позволяющий без каких-либо усилий с вашей стороны наращивать ссылочную массу любого сайта посредством спама блогов, созданных на распространенной CMS Bitrix. Осталось установить все инструменты, необходимые для работы, и данное руководство поможет вам в этом.






Установка в 3 шага

Внимание! Доступная ниже инструкция предполагает, что вы установили денвер в папку по умолчанию (C:WebServers). Если при установке вы указали другую папку, заменяйте указанные директории на свои.

1. Перед началом работы необходимо установить денвер (http://www.denwer.ru/). Процесс установки подробно расписан на сайте, поэтому нет смысла описывать его здесь.

Примечание: при скачивании выбираем версию PHP 5.3

2. Кидаем папку spamer из архива scripts.zip в директорию виртуальных хостов по адресу C:WebServershome. Таким образом, в папке C:WebServershomespamerwww должны быть следующие файлы:

Автоматический спамер CMS Bitrix


3. Для работы спамера необходимо установить расширение php_curl. Для этого поместите файл php_curl.dll, находящийся в папке soft из архива scripts.zip, в директорию C:WebServersusrlocalphp5ext. Затем перейдите в папку C:WebServersusrlocalphp5 и отредактируйте файл php.ini, заменив строку ;extension=php_curl.dll на extension=php_curl.dll.

Все, необходимый инструментарий для работы спамера установлен. После запуска денвера спамер будет доступен в браузере по адресу http://spamer.






Настройка. Antigate.com

Если установка прошла удачно, по адресу http://spamer в вашем браузере появится главное меню спамера. Здесь есть шесть кнопок, по которым доступны определенные скрипты, выполняющие отдельные задачи, ссылки на краткую информацию о спамере. Но сейчас нас интересует лишь одна кнопка – Настройки.

Здесь вам нужно будет ввести код антикапчи. Получить его можно, зарегистрировавшись на сайте http://antigate.com. Кто не в курсе – данный ресурс позволяет за сравнительно небольшую плату автоматически распознавать картинки CAPTCHA. Цитата с сайта:

Цена фиксирована - $1 за 1000 загруженных вами файлов. Процент ошибок - не более 10%.

Капча используется практически во всех блогах на Bitrix для защиты от ботов, поэтому без автоматического распознавания спамить у вас не получится. Итак, регистрируемся на сайте, вносим деньги на счет (немного, 5$ будет более чем достаточно), получаем свой уникальный ключ и вводим его в поле на странице настроек. Спамер готов к работе.
Спам

Переходим непосредственно к спаму – нажимаем в главном меню кнопку Шаг 1.
Шаг 1. Яндекс-парсер

Рабочий файл - spamer/scripts/page_url.txt

Для спама нам нужна база доноров. Для отбора блогов на CMS Bitrix можно использовать программу YandexParser, расположенную в папке soft. Тут все очень просто – вводим необходимые запросы, получаем тонны ссылок на необходимые сайты.

Список запросов, по которым легко обнаружить сайты на Битриксе:

· Последние сообщения блогов

· Посмотреть все блоги

· Список блогов

· Новые сообщения блогов



Если вам нужны тематические доноры, к представленным выше запросам можно добавлять ключевые слова, например:

· Последние сообщения блогов + Медицина



Кроме того, необходимые страницы можно найти по специфическому строению URL, например:

· Последние сообщения блогов + inurl:PAGEN



Помните: степень уникальности вашей базы полностью зависит от степени уникальности запросов, которые вы использовали!

Обработанные с помощью Яндекс-парсера результаты выдачи копируем в форму и жмем кнопку Сохранить. Данные запишутся в рабочий файл (при каждом запуске файл перезаписывается). При повторном запуске Шага 1 форма уже будет содержать ссылки из рабочего файла. Если они вам не нужны (а скорей всего, так оно и есть), просто скопируйте в форму новые ссылки, удалив старые.
Шаг 2. Наращивание базы для спама

Рабочий файл - spamer/scripts/page_url.txt

Этот шаг не требует инструкций. Можно разве что вкратце описать его работу – на блогах, полученных в предыдущем шагу, ищутся ссылки на другие страницы этого блога. Таким образом ваша база доноров существенно расширяется. Полученные ссылки добавляются в рабочий файл (файл не перезаписывается).
Шаг 3. Получение ссылок на посты

Рабочий файл - spamer/scripts/post_url.txt

Анализируем каждую страницу из базы и получаем ссылки на отдельные посты. Есть возможность отфильтровывать посты, в которых количество внешних ссылок превышает указанный порог. Заспамленных доноров лучше избегать. По умолчанию максимально допустимое количество внешних ссылок – 15. Полученные ссылки на посты добавляются в рабочий файл (файл не перезаписывается). Внимание! Этот шаг очень объемен, и процесс парсинга постов может затянуться. Если в шагах 1-2 вы получили большую базу (>1000 url), то имеет смысл разбить ее на несколько частей. При первом запуске скрипта крайне рекомендуется обработать в этом шаге небольшой список из 300-500 url, чтобы оценить время выполнения.
Шаг 4. «Подготовительный» спам

Этот шаг в принципе не обязателен, но он позволяет отсеять «некачественных» доноров – сайты, на которых комментарии со спамом оперативно удаляются модераторами, либо ссылки на которых содержат атрибут «nofollow». Ничего сложного тут опять же нет – вводим в форму комментарии и жмем кнопку Начать спам. Можно указывать один или несколько комментариев – но в одной строке должен быть только 1 комментарий. В этом шаге следует оставлять ссылку только на один ваш сайт – это очень важно. Во время работы на некоторых сайтах скрипт не сможет оставить комментарий – и это нормально, так как существуют блоги на модифицированном движке и не исключены ошибки при распознавании капчи.
Шаг 5. Отсев nofollow и удаленных ссылок

Рабочий файл - spamer/scripts/post_url.txt

После Шага 4 рекомендуется выждать 1-2 дня – примерно за такой срок удаляются комментарии со спамом на модерируемых ресурсах. Нетерпеливые могут сразу же приступать к отсеву, но в таком случае получится избавиться только от ссылок с атрибутом «nofollow». Итак, вводим в поле адрес вашего сайта, ссылки на который вы оставляли в предыдущем шаге, и жмем кнопку Начать проверку. Скрипт почистит рабочий файл, удалив из него «некачественных» доноров.
Шаг 6. Спам

Итак, у нас на руках есть готовая база «белых» блогов, сохраненная в файле spamer/scripts/post_url.txt. Осталось выбрать из нее часть ссылок - рекомендуется спамить именно по частям и не использовать всю базу за раз - и вставить их в поле URL (изначально в поле URL находятся ссылки, которые использовались для предыдущего спама). В поле Комментарии вставляем нужное количество комментов, правила оформления те же, что и в Шаге 4 (изначально в поле также отображаются комментарии, используемые в предыдущем спаме). Наконец, нажимаем кнопку Начать спам и ждем прироста тИЦ.


Примечания

1. Рабочий файл – файл, над которым производятся операции на том или ином шаге.

2. Основные файлы, использующиеся в работе:

· spamer/scripts/page_url.txt – ссылки на страницы блогов

· spamer/scripts/post_url.txt – основная база для спама, ссылки на посты в блогах

auto-tic.rar [2,04 Mb] (cкачиваний: 55)


Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь.
Мы рекомендуем Вам зарегистрироваться либо войти на сайт под своим именем.
  • 30 марта 2013 01:29
  • Регистрация: 29.03.2013 Статус: Пользователь offline
  • Группа: Посетители
  • Комментариев: 1

privet2345 Всем привет!

  • 15 августа 2013 16:34
  • Регистрация: 15.08.2013 Статус: Пользователь offline
  • Группа: Посетители
  • Комментариев: 2

Здравствуйте. ЯндексПарсером собрал урлы, вставил в Шаге 1 "Отбор" нажал сохранить, поле со вставленными урлами очистилось, ну думал так надо, нажимаю "Перейти к следующему шагу" кликаю на "Начать парсинг" ничего не происходит, проверил файл page_урлtxt в папке scripts, он оказался девственно чист, скопипастил урлы прямо в файл, нажимаю "Начать парсинг" и снова ничего не происходит, где накосячил никак не пойму, поясните кто в курсе что надо переделать, пожалуйста

  • 15 августа 2013 17:40
  • Регистрация: 15.08.2013 Статус: Пользователь offline
  • Группа: Посетители
  • Комментариев: 2

в-общем как и сказал выше в Мозилле на шаге 2 "Начать парсинг" ничего не происходит, попробовал в других браузерах: в Хроме и в Яндексе после клика на "Начать парсинг" в окне появляется вот такая строка "Fatal error: Call to undefined function курл_инит () in Zhomespamerвввscriptsparsersparsepage php on line 26", в Opera и Интернет Эксплорер результат идентичный как в Мозилле.

  • 15 августа 2013 23:00
  • Регистрация: 12.11.2010 Статус: Пользователь offline
  • Группа: Администраторы
  • Комментариев: 53

trewor, здравствуйте!
Сложно сказать, почему вылезает ошибка. Статья написана более 2 лет назад. Возможно, что технологии борьбы со спамерами с тех пор продвинулись, и данный инструмент не работает. Возможно проблема в самом скрипте. Точно сказать не могу, т.к. разрабатывался скрипт не командой нашего сайта.


«    Июль 2018    »
ПнВтСрЧтПтСбВс
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
 
Яндекс Апдейты
↓ Апдейты Яndex тИЦ
18.11.2017 ←Последний
04.11.2017
16.08.2017
↓ Апдейты выдачи Яndexa
14.07.2018 ←Последний
12.07.2018
09.07.2018
↓ Апдейты ЯКаталога
16.01.2018 ←Последний
20.12.2017
15.12.2017
Мы рекомендуем
Заработай на сайте!
Gogetlinks-Биржа вечных ссылок для сайтов с Тиц
Getgoodlinks-Биржа вечных ссылок для сайтов с PR


Опрос на портале

Сколько у вас сайтов?

Больше 20 сайтов
От 10 до 20 сайтов
От 5 до 10 сайтов
От 1 до 5 сайтов
Нету сайтов

Наш архив
Облако тегов
ajax, Build, DataLife, dle, dle 9.0, dle 9.2, Engine, Final, Google, Opera, Release, RSS, WordPress, адаптация, административная панель, бесплатно, виджет, Игровой, кино, комментарии, модуль, новости, Новый, Оригинал, парсер, парсер поисковых систем yandex google рассылка комментариев по DLE Joomla Community спаммер раскрутк, Переходы, плагин wordpress, сайта, сайтов, сбор данных телефонов адресов email контактов потенциальные клиенты BlackSpider универсальный сборщи, тема, тематики, универсальный, хак, хак wordpress, Шаблон, шаблона, Яндекс

Показать все теги
Последние комментарии
Популярные файлы

Информация!
Уважаемый посетитель! Присоединяйтесь к нам
в Твиттере.