• Добро пожаловать на сайт - wlux.net!

    FAQ по форуму

    1. Все сообщения до группы местный проходят модерацию от 1 минуты до 24 часа

    2. Сообщения учитываются в следующих разделах: Читать

    3.Что-бы скачать вложение нужно 2 сообщения.

    4.Личные переписки не работают на форуме

    5. Запрещено: Просить скрытый текст , спам, реклама, скам, ддос, кардинг и другая чернуха, нарушать любые законы РФ/СНГ = бан аккаунта

    6. Внимание! Мы не удаляем аккаунты с форума! Будьте внимательны ДО регистрации! Как удалить аккаунт на форуме?!

    5.Не понимаю, как и что тут работает у вас?!Как создавать темы, писать сообщения, как получать реакции. Почему не засчитывает сообщения. Все ответы здесь

This is a mobile optimized page that loads fast, if you want to load the real page, click this text.

python Исходник Гайд Скрипт проверяет телеграм-ссылки пользователей, групп, каналов, приглашений на существование

Оффлайн

wlux.net

Где волчьи уши, там волчьи зубы.
Команда форума
LV
7
 
20.06.2022
26 938
230
36
Награды
10
Пол
Муж.

Репутация:

  • Автор темы
  • Администратор
  • Модератор
  • Команда форума
  • #1
Что это такое?
Скрипт проверяет телеграм-ссылки пользователей, групп, каналов, приглашений на существование

Зачем он вам?
Вам он может и не нужен, но лично я из сотен тысяч случайных комбинаций символов достал: несколько тысяч закрытых чатов, пару приватных каналов с софтом, и просто кучу валидных чатов под мои личные задачи

Исходник:
Скрытое содержимое доступно для зарегистрированных пользователей!

Код:

Python:
import re

import requests
from bs4 import BeautifulSoup


def parse(start_url):
    start_url = start_url.replace('\n', '').replace('https://', '').replace('http://', '')
    url = re.search('[a-zA-Z0-9\_]*.t.me', start_url)

    if not url:
        url = re.search('t.me.[a-zA-Z0-9\_]*', start_url)

    if url:
        url = url.group(0).strip()
        url = 'https://' + url
        response = requests.get(url)
        soup = BeautifulSoup(response.content, 'html.parser')

        title = soup.find(
            'div',
            class_='tgme_page_title')
        if title:
            return url
    return None


def main():
    with open(f'links.txt', 'r', encoding="utf8") as file:
        links = file.readlines()
    counter, valid = 0, 0
    for link in links:
        counter += 1
        res = parse(link)
        if res:
            with open(f'result.txt', 'a') as result:
                valid += 1
                result.write(f'{res}\n')
                print(f'{valid}/{counter}/{len(links)} | {res}')


if __name__ == '__main__':
    main()

Установка:
1. Выполнить:
pip install beautifulsoup4
pip install regex
pip install requests

2. Напишите все свои ссылки в файл links.txt, каждая ссылка с новой строки
3. Запустите

Пожалуйста, войдите или зерегистрируйтесь, чтобы увидеть скрытый текст.


4. В появившемся файле result.txt будут записаны все существующие ссылки

Доп:
  1. Проверка ссылок производится посредством парсинга браузерной страницы

    Пожалуйста, войдите или зерегистрируйтесь, чтобы увидеть скрытый текст.

  2. Для проверки ссылок аккаунты TG не нужны
  3. Работает в 1 поток, кому надо - можете сами увеличить
  4. Принимает ссылки вида

    Пожалуйста, войдите или зерегистрируйтесь, чтобы увидеть скрытый текст.

    ,

    Пожалуйста, войдите или зерегистрируйтесь, чтобы увидеть скрытый текст.

    ,

    Пожалуйста, войдите или зерегистрируйтесь, чтобы увидеть скрытый текст.

    ,

    Пожалуйста, войдите или зерегистрируйтесь, чтобы увидеть скрытый текст.

Генератор ссылок код:

Python:
import random
import string

count = int(input("Сколько ссылок сгенерировать: "))


def main():
    for i in range(1, count + 1):
        link = 'https://t.me/+' + ''.join(
            random.sample(string.ascii_letters + string.digits, 16))
        print(f'{i} - {link}')
        with open(f'links.txt', 'a') as result:
            result.write(f'{link}\n')


if __name__ == '__main__':
    main()
 
I Оффлайн

inf0man

Участник
LV
2
 
11.09.2023
18
0
25
Награды
2
24

Репутация:

Почему всё не объеденить сразу?
 
I Оффлайн

igor32

Участник
LV
0
 
01.09.2024
2
0
6
Награды
1
33

Репутация:

Такая ошибка возникает

Код:
Warning (from warnings module):
  File "C:\Users\Игорь\AppData\Local\Programs\Python\Python312\Save\TG-links-checker-main\main.py", line 9
    url = re.search('[a-zA-Z0-9\_]*.t.me', start_url)
SyntaxWarning: invalid escape sequence '\_'
>>>
Warning (from warnings module):
  File "C:\Users\Игорь\AppData\Local\Programs\Python\Python312\Save\TG-links-checker-main\main.py", line 12
    url = re.search('t.me.[a-zA-Z0-9\_]*', start_url)
SyntaxWarning: invalid escape sequence '\_'
>>>
 
I Оффлайн

igor32

Участник
LV
0
 
01.09.2024
2
0
6
Награды
1
33

Репутация:

Валидными признает только те ссылки что в links.txt
Попробовал подставить в links рабочие пригласительные ссылки на каналы, но он их не видит
 

Поиск по форуму

Похожие темы:

Данный сайт использует cookie. Вы должны принять их для продолжения использования. Узнать больше....