Um analisador de proxy público simples em Python usando a pesquisa do Google. Estaremos usando o googlesearch-python
biblioteca para realizar pesquisas no Google e BeautifulSoup
para análise de HTML.
Primeiro, certifique-se de ter as bibliotecas necessárias instaladas:
pip install beautifulsoup4 google
Agora, vamos criar o analisador de proxy:
from googlesearch import search
from bs4 import BeautifulSoup
import requests
def fetch_proxies():
proxies = []
# Perform a Google search for public proxy lists
query = "public proxy list"
for url in search(query, num=5, stop=5, pause=2):
# Fetch the HTML content of the search result
try:
response = requests.get(url, timeout=10)
if response.status_code == 200:
html_content = response.text
# Parse the HTML using BeautifulSoup
soup = BeautifulSoup(html_content, 'html.parser')
# Find proxy IP addresses and ports
for row in soup.find_all('tr'):
cols = row.find_all('td')
if len(cols) >= 2:
proxy = cols[0].text.strip() + ':' + cols[1].text.strip()
proxies.append(proxy)
except Exception as e:
print(f"Error fetching proxies from {url}: {e}")
return proxies
if __name__ == "__main__":
proxies = fetch_proxies()
for proxy in proxies:
print(proxy)
Este script realizará uma pesquisa no Google por listas de proxy públicas, analisará o HTML dos resultados da pesquisa e extrairá os endereços IP e portas dos proxies. Observe que a qualidade e a confiabilidade dos proxies obtidos usando este método podem variar. Além disso, certifique-se sempre de usar proxies com responsabilidade e cumprir os termos de serviço dos sites que você acessa por meio deles.
Comentários (0)
Ainda não há comentários aqui, você pode ser o primeiro!