Un semplice parser proxy pubblico in Python che utilizza la ricerca di Google. Utilizzeremo il googlesearch-python
libreria per eseguire ricerche su Google e BeautifulSoup
per l'analisi HTML.
Innanzitutto, assicurati di aver installato le librerie necessarie:
pip install beautifulsoup4 google
Ora creiamo il parser proxy:
from googlesearch import search
from bs4 import BeautifulSoup
import requests
def fetch_proxies():
proxies = []
# Perform a Google search for public proxy lists
query = "public proxy list"
for url in search(query, num=5, stop=5, pause=2):
# Fetch the HTML content of the search result
try:
response = requests.get(url, timeout=10)
if response.status_code == 200:
html_content = response.text
# Parse the HTML using BeautifulSoup
soup = BeautifulSoup(html_content, 'html.parser')
# Find proxy IP addresses and ports
for row in soup.find_all('tr'):
cols = row.find_all('td')
if len(cols) >= 2:
proxy = cols[0].text.strip() + ':' + cols[1].text.strip()
proxies.append(proxy)
except Exception as e:
print(f"Error fetching proxies from {url}: {e}")
return proxies
if __name__ == "__main__":
proxies = fetch_proxies()
for proxy in proxies:
print(proxy)
Questo script eseguirà una ricerca su Google per elenchi di proxy pubblici, analizzerà l'HTML dei risultati della ricerca ed estrarrà gli indirizzi IP e le porte dei proxy. Tieni presente che la qualità e l'affidabilità dei proxy ottenuti utilizzando questo metodo possono variare. Inoltre, assicurati sempre di utilizzare i proxy in modo responsabile e di rispettare i termini di servizio dei siti Web a cui accedi tramite essi.
Commenti (0)
Non ci sono ancora commenti qui, puoi essere il primo!