Jak skonfigurować serwer proxy w Pythonie - StableProxy

Opublikowany

черв. 17-е, 2024

Temat

podręcznik

Czas czytania

10 min

Blog
Author

Autor

StableProxy

Python i proxy

Requests to biblioteka Pythona, znana ze swojej prostoty i popularności w obsłudze żądań HTTP/1.1. Jej popularność wśród deweloperów wynika z milionów pobrań każdego miesiąca. Biblioteka ułatwia zarządzanie żądaniami i odpowiedziami HTTP, eliminując potrzebę ręcznego wprowadzania linii żądań do adresu URL.
Znaczenie integracji serwerów proxy z bibliotekami do scrapingu lub żądań internetowych jest niezaprzeczalne. Korzystając z serwerów proxy, unikniesz blokowania adresów IP docelowych stron i zmniejszysz ryzyko ujawnienia własnego adresu IP.

Instalacja Requests nie jest skomplikowana. Poniżej znajdują się szczegóły na temat tego, jak włączyć proxy w swoim kodzie.

import requests

\# URL, który należy zeskanować

url = 'https://www.example.com'  # zamień na URL pożądanej strony

\# Konfiguracja proxy z autoryzacją

proxy\_host = 'de-1.stableproxy.com'

proxy\_port = 11001

proxy\_login = '2TYt4bmrOn\_0'

proxy\_password = '2oRTH88IShd4'

proxy = f'http://:@:'

proxies = {

    'http': proxy,

    'https': proxy

}

\# Wyślij żądanie GET, używając proxy

response = requests.get(url, proxies=proxies)

\# Sprawdź, czy żądanie się powiodło

if response.status\_code == 200:

    # Przetwórz zawartość odpowiedzi

    print(response.text)

else:

    print('Request failed with status code:', response.status\_code)

UWAGA: Proszę, zamień na swoje rzeczywiste dane logowania do serwera proxy, aby kod mógł działać z twoim loginem i hasłem do serwera proxy.

To wszystko! Integracja serwerów proxy z bibliotekami do scrapingu lub żądań internetowych jest kluczowa. Skonfigurując je w kodzie Pythona, możesz bez obaw rozpocząć swoje projekty scrapingu stron internetowych, nie obawiając się blokady IP lub ograniczeń geograficznych.