Добро пожаловать! Форум WLUX.NET - Игры, Читы, Скрипты, Статьи, Софт, Курсы.

Присоединяйтесь к нам сейчас, чтобы получить доступ ко всем нашим функциям. После регистрации и входа в систему вы сможете создавать темы, публиковать ответы на существующие темы, повышать репутацию участников, скачивать вложения и файлы и многое, многое другое. Так чего же вы ждете?

Добро пожаловать гость!

Приветствуем вас на нашем форуме! Мы очень рады вас видеть и с большим удовольствием поделимся всей информацией нашего форума!

Мы уважаем своих пользователей и так же ждем от вас приятного общения.

Система наград, ежедневное пополнения тем!

Общайся, получай награды.

Статьи, гайды, софт

У нас вы можете скачать бесплатно читы для игр. Полезные гайды на любые темы и схемы заработка. Есть раздел халявы!

FAQ по форуму

Не понимаю, как и что тут работает у вас?!Как создавать темы, писать сообщения, как получать реакции. Почему не засчитывает сообщения. Все ответы здесь

  • Добро пожаловать на сайт - wlux.net!

    FAQ по форуму

    1. Все сообщения до группы местный проходят модерацию от 1 минуты до 24 часа

    2. Сообщения учитываются в следующих разделах: Читать

    3.Что-бы скачать вложение нужно 2 сообщения.

    4.Личные переписки не работают на форуме

    5. Запрещено: Просить скрытый текст , спам, реклама, скам, ддос, кардинг и другая чернуха, нарушать любые законы РФ/СНГ = бан аккаунта

    6. Внимание! Мы не удаляем аккаунты с форума! Будьте внимательны ДО регистрации! Как удалить аккаунт на форуме?!

    5.Не понимаю, как и что тут работает у вас?!Как создавать темы, писать сообщения, как получать реакции. Почему не засчитывает сообщения. Все ответы здесь

Гайд Бесплатно получаем много прокси

wlux.net Оффлайн

wlux.net

Где волчьи уши, там волчьи зубы.
Команда форума
LV
7
 
20.06.2022
26 467
230
36
Награды
10
Пол
Муж.

Репутация:

  • Автор темы
  • Администратор
  • Модератор
  • Команда форума
  • #1
В данном мануале я расскажу, как можно добыть много прокси различных стран абсолютно на халяву.

1. Устанавливаем «

Пожалуйста, войдите или зерегистрируйтесь, чтобы увидеть скрытый текст.

» версии 3.10.6;
2. Теперь нам необходимо установить библиотеки для получения прокси и их проверки на работоспособность. Нажимаем сочетанием клавиш «Win» + «R», нажимаем «Enter» и в появившейся консоли вставляем следующий текст:
pip install requests && pip install lxml && pip install beautifulsoup4 && pip install cfscrape;
3. После установки библиотек создаём файл с расширением .py, куда вставляем следующий код:
Код:
import cfscrape

from bs4 import BeautifulSoup

from datetime import date



def main2():

  try:

    print("Start 2 step || Site - free-proxy-list.net")

    scraper = cfscrape.create_scraper()

    r = scraper.get('https://free-proxy-list.net')

    soup = BeautifulSoup(r.text, 'lxml')

    line = soup.find('table', class_='table table-striped table-bordered').find('tbody').find_all('tr')



    for tr in line:

      td = tr.find_all('td')

      ip = td[0].text

      port = td[1].text



      with open("proxy_scraped.txt", "a+", encoding="utf-8") as f:

        f.write(str(ip + ":" + port + "\n"))

  except Exception as e:

    print(e)





def main3():

  try:

    print("Start 3 step || Site - free.proxy-sale.com")

    scraper = cfscrape.create_scraper()

    r = scraper.get('https://free.proxy-sale.com')

    soup = BeautifulSoup(r.text, 'lxml')

    line = soup.find('div', class_="main__table-wrap").find('table').find('tbody').find_all('tr')



    for i in line:

      td = i.find_all('td', class_="ip")

      for n in td:

        a = n.find("a").text.replace("Нажмите ⌘-С чтобы скопировать Скопировать в буфер", " ").strip()

        ip = a

        with open("proxy_scraped.txt", "a+", encoding="utf-8") as f:

          f.write(str(ip + "\n"))

  except Exception as e:

    print(e)





def main4():

  try:

    print("Start 4 step || Site - proxyscrape.com and openproxylist.xyz")

    scraper = cfscrape.create_scraper()

    response5 = scraper.get("https://openproxylist.xyz/http.txt")

    response6 = scraper.get("https://openproxylist.xyz/socks4.txt")

    response7 = scraper.get("https://openproxylist.xyz/socks5.txt")



    proxies5 = response5.text.strip()

    proxies6 = response6.text.strip()

    proxies7 = response7.text.strip()

    with open("proxy_scraped.txt", "a") as txt_file:

      txt_file.write(proxies5+"\n"+proxies6+"\n"+proxies7+"\n")

  except Exception as e:

    print(e)





def main5():

  try:

    print("Start 5 step || Site - hidemy.name")

    scraper = cfscrape.create_scraper()

    r = scraper.get('https://hidemy.name/ru/proxy-list/')

    soup = BeautifulSoup(r.text, 'lxml')

    line = soup.find('div', class_="table_block").find('table').find('tbody').find_all('tr')



    for a in line:

      td = a.find_all('td')

      ip = td[0].text

      port = td[1].text



      with open("proxy_scraped.txt", "a+", encoding="utf-8") as f:

        f.write(str(ip + ":" + port + "\n"))

  except Exception as e:

    print(e)



kol_st = 0



def main7():

  try:

    print("Start 7 step || Site - sslproxies.org")

    scraper = cfscrape.create_scraper()



    r = scraper.get(f'https://www.sslproxies.org/#list')

    soup = BeautifulSoup(r.text, 'lxml')

    line = soup.find('table', class_="table table-striped table-bordered").find('tbody').find_all('tr')



    for a in line:

      td = a.find_all('td')

      ip = td[0].text

      port = td[1].text



      with open("proxy_scraped.txt", "a+", encoding="utf-8") as f:

        f.write(str(ip + ":" + port + "\n"))

  except Exception as e:

    print(e)



def main8():

  try:

    print("Start 8 step || Site - spys.one")

    scraper = cfscrape.create_scraper()



    r = scraper.get(f'https://spys.one')

    soup = BeautifulSoup(r.text, 'lxml')

    line = soup.find('table', cellspacing="0", cellpadding="2").find('table', cellspacing="1", cellpadding="1", align="left").find_all('tr', class_="spy1x", onmouseover="this.style.background='#002424'")

    line2 = soup.find('table', cellspacing="0", cellpadding="2").find('table', cellspacing="1", cellpadding="1",align="left").find_all('tr', class_="spy1xx",onmouseover="this.style.background='#002424'")



    for tr in line:

      td = tr.find_all('td')

      ip = td[0].text



      with open("proxy_scraped.txt", "a+", encoding="utf-8") as f:

        f.write(str(ip + '\n'))



    for tr2 in line2:

      td2 = tr2.find_all('td')

      ip2 = td2[0].text



      with open("proxy_scraped.txt", "a+", encoding="utf-8") as f:

        f.write(str(ip2 + '\n'))

  except Exception as e:

    print(e)



def main10():

  try:

    print("Start 10 step || Site - userel.com")

    scraper = cfscrape.create_scraper()



    r = scraper.get(f'https://userel.com/')

    soup = BeautifulSoup(r.text, 'lxml')

    line = soup.find('div', class_="proxy").find('table').find_all('tr')



    for tr in line:

      td = tr.find_all('td')

      ip = td[0].text



      with open("proxy_scraped.txt", "a+", encoding="utf-8") as f:

        f.write(str(ip) + '\n')

  except Exception as e:

    print(e)



def main11():

  try:

    print("Start 11 step || Site - ArchiveProxy")

    scraper = cfscrape.create_scraper()

    ear, month, day = str(date.today()).split('-')

    ear = int(ear)

    month = int(month)

    day = int(day)



    for today in range(day):

      try:

        scoc = scraper.get(f'https://checkerproxy.net/api/archive/{ear}-{month}-{today}').json()

      except:

        break

      try:

        for i in range(40000):

          with open('proxy_scraped.txt', 'a+') as file:

            file.write(scoc[i]['addr'] + '\n')

      except:

        pass

  except Exception as e:

    print(e)



if __name__ == "__main__":

  main2()

  main3()

  main4()

  main5()

  main7()

  main8()

  main10()

  main11()



  print("Duplicates cleaning...")

  with open("proxy_scraped.txt") as input_:

    result = dict.fromkeys(input_).keys()



  with open("proxy_scraped.txt", "w") as output:

    print(*result, file=output, sep="")

  print("Duplicates successfully cleared!")
└ Код отвечает за парсинг прокси с различных сайтов;
4. Запускаем скрипт. Нужно подождать какое-то время, пока скрипт соберёт прокси с открытых сайтов, после чего он удалит дубликаты;
5. Теперь, когда у нас есть файл proxy_scraped.txt, создаём второй файл .py, куда вставляем следующий код:
Код:
import threading

import requests

import os



filename = input("FILENAME: ")

timeout = int(input("TIMEOUT: "))



x = 0

y = 0



def check_proxy(proxy):

  global y

  protocols = ['http', 'https', 'socks4', 'socks5']

  for protocol in protocols:

    try:

      proxies = {protocol: f'{protocol}://{proxy}', 'https': f'{protocol}://{proxy}'}

      response = requests.get('http://ip-api.com/json', proxies=proxies, timeout=timeout)

      if response.status_code == 200:

        data = response.json()

        country = data['country']

        folder_path = os.path.join('country', country)

        file_path = os.path.join(folder_path, f'{protocol}.txt')

        file_path2 = os.path.join(folder_path, 'ALL.txt')

        file_path3 = os.path.join("ALL", "ALL.txt")

        file_path4 = os.path.join("ALL", protocol)



        os.makedirs(folder_path, exist_ok=True)

        os.makedirs("ALL", exist_ok=True)



        with open(file_path, 'a') as f: #country

          f.write(f'{proxy}\n')

        with open(file_path2, 'a') as f: #country all

          f.write(f'{proxy}\n')



        with open(f"{file_path4}.txt", 'a') as f:

          f.write(f'{proxy}\n')

        with open(file_path3, 'a') as f:

          f.write(f'{proxy}\n')



        y += 1

    except:

      pass



with open(filename, 'r') as f:

  proxy_list = [line.strip() for line in f]



for i in proxy_list:

  t = threading.Thread(target=check_proxy, args=(i,)).start()

  x += 1

  print(f"\r\rПроверенно: {x}/{len(proxy_list)} Good: {y}", end='')
└ Код отвечает за проверку прокси на работоспособность, а также разделяет их по протоколам (socks, http), и сортирует их по странам;
6. Запускаем скрипт, и, после того, как чекер выполнит свою работу, он отсортирует рабочие прокси по странам. Также, вы можете воспользоваться этим чекером для проверки своих прокси;
└ Прокси будут разделены по протоколам, а также, в папке с скриптом будет создана папка «ALL», где будут все прокси без разделения по странам, и без разделения по протоколам. Данные прокси можно использовать в любых целях;
 
5rgses Оффлайн

5rgses

Участник
LV
0
 
25.09.2023
17
0
8
Пол
Муж.

Репутация:

работает, если вдруг у кого не запускается пишите это
pip install --upgrade urllib3
pip install --upgrade requests
pip install --upgrade botocore
pip install --upgrade cfscrape
 

Поиск по форуму

Похожие темы:

shape1
shape2
shape3
shape4
shape7
shape8
Верх