گوگل سرچ کا استعمال کرتے ہوئے ازگر میں ایک سادہ پبلک پراکسی پارسر۔ ہم استعمال کریں گے googlesearch-python
گوگل سرچ کرنے کے لیے لائبریری اور BeautifulSoup
HTML تجزیہ کے لیے۔
سب سے پہلے، یقینی بنائیں کہ آپ کے پاس ضروری لائبریریاں انسٹال ہیں:
pip install beautifulsoup4 google
اب، پراکسی پارسر بنائیں:
from googlesearch import search
from bs4 import BeautifulSoup
import requests
def fetch_proxies():
proxies = []
# Perform a Google search for public proxy lists
query = "public proxy list"
for url in search(query, num=5, stop=5, pause=2):
# Fetch the HTML content of the search result
try:
response = requests.get(url, timeout=10)
if response.status_code == 200:
html_content = response.text
# Parse the HTML using BeautifulSoup
soup = BeautifulSoup(html_content, 'html.parser')
# Find proxy IP addresses and ports
for row in soup.find_all('tr'):
cols = row.find_all('td')
if len(cols) >= 2:
proxy = cols[0].text.strip() + ':' + cols[1].text.strip()
proxies.append(proxy)
except Exception as e:
print(f"Error fetching proxies from {url}: {e}")
return proxies
if __name__ == "__main__":
proxies = fetch_proxies()
for proxy in proxies:
print(proxy)
یہ اسکرپٹ عوامی پراکسی فہرستوں کے لیے گوگل سرچ کرے گا، تلاش کے نتائج کے HTML کو پارس کرے گا، اور پراکسیز کے IP پتے اور پورٹس کو نکالے گا۔ براہ کرم نوٹ کریں کہ اس طریقہ کار کا استعمال کرتے ہوئے حاصل کردہ پراکسیوں کا معیار اور وشوسنییتا مختلف ہو سکتا ہے۔ اس کے علاوہ، ہمیشہ ذمہ داری سے پراکسیز کا استعمال یقینی بنائیں اور ان ویب سائٹس کی سروس کی شرائط پر عمل کریں جن تک آپ ان کے ذریعے رسائی حاصل کر رہے ہیں۔
تبصرے (0)
یہاں ابھی تک کوئی تبصرہ نہیں ہے، آپ پہلے ہو سکتے ہیں!