import requests
import colorama
from os import system

colorama.init(autoreset=True)
system("title Proxy-Scraper")

def fetch_proxies(url):
    response = requests.get(url)
    return response.text.splitlines()

def save_proxies(proxies, filename):
    with open(filename, "w") as file:
        for proxy in proxies:
            file.write(proxy + "\n")

def main():
    proxy_sources = {
        "https": "https://api.proxyscrape.com/?request=displayproxies&proxytype=https&timeout=7000&country=ALL&anonymity=elite&ssl=no",
        "http": "https://api.proxyscrape.com/?request=displayproxies&proxytype=http&timeout=7000&country=ALL&anonymity=elite&ssl=no",
        "socks4": "https://www.proxy-list.download/api/v1/get?type=socks4",
        "socks5": "https://www.proxy-list.download/api/v1/get?type=socks5",
    }

    proxies = {ptype: fetch_proxies(url) for ptype, url in proxy_sources.items()}
    
    for ptype, proxy_list in proxies.items():
        save_proxies(proxy_list, f"{ptype}.txt")
        for proxy in proxy_list:
            print(f"[{colorama.Fore.GREEN}+{colorama.Fore.RESET}] Successfully Found {ptype.upper()} >> {proxy}")
    
    print(f"[{colorama.Fore.CYAN}i{colorama.Fore.RESET}] All proxies successfully grabbed & saved")

if __name__ == "__main__":
    main()

06.06.2024

最適化:

  1. プロキシの読み込みと保存のロジックを簡素化しました。
  2. 不要な変数と関数を削除しました。
  3. 辞書を使用してプロキシ URL とタイプを保存し、読みやすさとスケーラビリティを向上させました。
  4. 共通業務を統合し、 fetch_proxies そして save_proxies コードの重複を減らす機能。

コメント (0)

まだコメントはありません。あなたが最初のコメントを投稿できます!

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です


プロキシの選択と購入

データセンター・プロキシ

プロキシのローテーション

UDPプロキシ

世界中の10,000以上の顧客から信頼されています

代理顧客
代理顧客
代理顧客 flowch.ai
代理顧客
代理顧客
代理顧客