import requests
import colorama
from os import system

colorama.init(autoreset=True)
system("title Proxy-Scraper")

def fetch_proxies(url):
    response = requests.get(url)
    return response.text.splitlines()

def save_proxies(proxies, filename):
    with open(filename, "w") as file:
        for proxy in proxies:
            file.write(proxy + "\n")

def main():
    proxy_sources = {
        "https": "https://api.proxyscrape.com/?request=displayproxies&proxytype=https&timeout=7000&country=ALL&anonymity=elite&ssl=no",
        "http": "https://api.proxyscrape.com/?request=displayproxies&proxytype=http&timeout=7000&country=ALL&anonymity=elite&ssl=no",
        "socks4": "https://www.proxy-list.download/api/v1/get?type=socks4",
        "socks5": "https://www.proxy-list.download/api/v1/get?type=socks5",
    }

    proxies = {ptype: fetch_proxies(url) for ptype, url in proxy_sources.items()}
    
    for ptype, proxy_list in proxies.items():
        save_proxies(proxy_list, f"{ptype}.txt")
        for proxy in proxy_list:
            print(f"[{colorama.Fore.GREEN}+{colorama.Fore.RESET}] Successfully Found {ptype.upper()} >> {proxy}")
    
    print(f"[{colorama.Fore.CYAN}i{colorama.Fore.RESET}] All proxies successfully grabbed & saved")

if __name__ == "__main__":
    main()

06.06.2024

अनुकूलन:

  1. प्रॉक्सी लोड करने और सहेजने के तर्क को सरल बनाया गया।
  2. अनावश्यक चर और फ़ंक्शन हटा दिए गए.
  3. प्रॉक्सी यूआरएल और प्रकारों को संग्रहीत करने के लिए एक शब्दकोश का उपयोग किया गया, जिससे पठनीयता और मापनीयता में सुधार हुआ।
  4. समेकित सामान्य संचालन fetch_proxies और save_proxies कोड दोहराव को कम करने के लिए कार्य करता है।

टिप्पणियाँ (0)

यहां अभी तक कोई टिप्पणी नहीं है, आप पहले हो सकते हैं!

प्रातिक्रिया दे

आपका ईमेल पता प्रकाशित नहीं किया जाएगा. आवश्यक फ़ील्ड चिह्नित हैं *


प्रॉक्सी चुनें और खरीदें

डेटासेंटर प्रॉक्सी

घूर्णनशील प्रॉक्सी

यूडीपी प्रॉक्सी

दुनिया भर में 10000 से अधिक ग्राहकों द्वारा विश्वसनीय

प्रॉक्सी ग्राहक
प्रॉक्सी ग्राहक
प्रॉक्सी ग्राहक प्रवाहch.ai
प्रॉक्सी ग्राहक
प्रॉक्सी ग्राहक
प्रॉक्सी ग्राहक