Сейчас я вам расскажу как можно бесплатно получить API нейросети для своих нужд.
Шаг 1. Авторизация
Для начала нужно авторизироваться. Здесь всё
максимально просто. Переходим на сайт (
), авторизируемая через
Google, Github или
почтой.
Шаг 2. Получаем токен
После самой авторизации нужно получить токен, что-бы в будущем через него отправлять сообщения. В чате нам нужно отловить запрос с токеном, для это:
Нажимаем F12 > Переходим во вкладку Network > Ставим сортировку по Fetch/XHR запросам (Для удобности)
Посмотреть вложение 39681
Далее ловим сам запрос отправкой любого сообщения ии. После отправки сообщения в
DevTools посыпались различные запросы от клиента, нам нужен только
completions, в нём и будет наш
токен.
Посмотреть вложение 39682
Скролим чуть ниже, к полю Authorization, там и лежит наш токен.
Посмотреть вложение 39683
Шаг 3. Используем токен
Токен получен, используем в коде. К примеру буду приводить код на
Python, так как используем
REST API из библиотек использую только
requests.
# Константы
TOKEN = "Токен который мы получили на предыдущем шаге"
QWEN_URL = "https://chat.qwenlm.ai/api/chat/completions"
QWEN_HEADERS = {
"Authorization": f"Bearer {TOKEN}",
"Content-Type": "application/json",
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/237.84.2.178 Safari/537.36"
}
Массив из отправленных сообщений может содержать сообщения как от
пользователя - user, от
ии - assistant, и от
системы - system.
# Пример сообщений для отправки
messages = [
{"role": "user", "content": "Привет!", "extra": {}, "chat_type": "t2t"},
] # chat_type указываю на t2t для обмена сообщениями (В самом ИИ можно ещё видео и картинки генерировать)
В боди запроса можно указать модель ИИ (
qwen-max-latest самая мощная на данный момент, на уровне с
gpt-4o или
даже выше), так же параметр stream отвечает за потоковую передачу сообщений.
# Параметры запроса
payload = {
"chat_type": "t2t",
"messages": messages,
"model": "qwen-max-latest",
"stream": False
}
Ну и сама отправка запроса и получение ответа от ИИ:
# Отправка POST-запроса
response = requests.post(QWEN_URL, headers=QWEN_HEADERS, json=payload)
# Обработка ответа
if response.status_code == 200:
result = response.json()
print("Ответ от нейросети:", result["choices"][0]["message"]["content"])
else:
print(f"Ошибка при отправке запроса: {response.status_code}")
print("Текст ошибки:", response.text)
Готово! Мы получили полностью рабочую китайскую
ИИшку для любых целей.
Кому надо, вот полный код на
питончике
import requests
TOKEN = "Токен который мы получили на шаге 2"
QWEN_URL = "https://chat.qwenlm.ai/api/chat/completions"
QWEN_HEADERS = {
"Authorization": f"Bearer {TOKEN}",
"Content-Type": "application/json",
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/237.84.2.178 Safari/537.36"
}
messages = [
{"role": "user", "content": "Привет!", "extra": {}, "chat_type": "t2t"},
]
payload = {
"chat_type": "t2t",
"messages": messages,
"model": "qwen-max-latest",
"stream": False
}
response = requests.post(QWEN_URL, headers=QWEN_HEADERS, json=payload)
if response.status_code == 200:
result = response.json()
print("Ответ от нейросети:", result["choices"][0]["message"]["content"])
else:
print(f"Ошибка при отправке запроса: {response.status_code}")
print("Текст ошибки:", response.text)