Un simple analyseur de proxy public en Python utilisant la recherche Google. Nous utiliserons le googlesearch-python
bibliothèque pour effectuer des recherches Google et BeautifulSoup
pour l'analyse HTML.
Tout d’abord, assurez-vous que les bibliothèques nécessaires sont installées :
pip install beautifulsoup4 google
Maintenant, créons l'analyseur proxy :
from googlesearch import search
from bs4 import BeautifulSoup
import requests
def fetch_proxies():
proxies = []
# Perform a Google search for public proxy lists
query = "public proxy list"
for url in search(query, num=5, stop=5, pause=2):
# Fetch the HTML content of the search result
try:
response = requests.get(url, timeout=10)
if response.status_code == 200:
html_content = response.text
# Parse the HTML using BeautifulSoup
soup = BeautifulSoup(html_content, 'html.parser')
# Find proxy IP addresses and ports
for row in soup.find_all('tr'):
cols = row.find_all('td')
if len(cols) >= 2:
proxy = cols[0].text.strip() + ':' + cols[1].text.strip()
proxies.append(proxy)
except Exception as e:
print(f"Error fetching proxies from {url}: {e}")
return proxies
if __name__ == "__main__":
proxies = fetch_proxies()
for proxy in proxies:
print(proxy)
Ce script effectuera une recherche Google sur les listes de proxys publiques, analysera le HTML des résultats de la recherche et extraira les adresses IP et les ports des proxys. Veuillez noter que la qualité et la fiabilité des proxys obtenus à l'aide de cette méthode peuvent varier. De plus, assurez-vous toujours d’utiliser les proxys de manière responsable et de respecter les conditions d’utilisation des sites Web auxquels vous accédez via eux.
Commentaires (0)
Il n'y a pas encore de commentaires ici, vous pouvez être le premier !