Cześć wszystkim. Mam na imię Michael, jakkolwiek banalnie to brzmi. Jestem 30-letnim freelancerem z Illinois w USA.
Po raz pierwszy usłyszałem o parsowaniu danych na Uniwersytecie Stanowym Illinois w latach 2012-2013, kiedy studiowałem, aby zostać programistą. Wydawało mi się to interesujące i zabawne, ale nie miałem pojęcia, jak bardzo zmieni to moje życie w przyszłości.
Wszystko zaczęło się od małego projektu podczas mojego stażu w firmie IT. Miałem za zadanie zebrać i przeanalizować dane dla naszego produktu. Większość danych była rozproszona na różnych stronach internetowych i wtedy przypomniałem sobie o parsowaniu. Nauczyłem się Pythona i bibliotek do web scrapingu, takich jak BeautifulSoup i Scrapy. Projekt zakończył się sukcesem, otrzymałem premię (i ją wydałem 🙂 ) i zdałem sobie sprawę, że lubię ten proces.
Kilka lat po ukończeniu studiów pracowałem jako programista, ale często myślałem o założeniu własnej firmy. Wtedy właśnie wpadłem na pomysł, by wykorzystać web scraping do zarabiania pieniędzy. Zacząłem szukać klientów, którzy potrzebowali ustrukturyzowanych danych. O dziwo, było ich wielu.
W swojej pracy korzystam z kilku narzędzi i programów:
1. Python: Główny język programowania, którego używam do pisania skryptów web scrapingowych. Python ma potężne biblioteki do skrobania stron internetowych, takie jak BeautifulSoup, Scrapy i Selenium.
2. BeautifulSoup: Biblioteka Pythona używana do analizowania dokumentów HTML i XML. Doskonale nadaje się do wyodrębniania danych ze stron internetowych.
3. Scrapy: Kolejna potężna biblioteka Pythona do skrobania stron internetowych. Scrapy ma rozbudowaną funkcjonalność i jest przeznaczony do skrobania na dużą skalę.
4. Selen: Selenium jest zwykle używany do automatycznego testowania aplikacji internetowych, ale może być również używany do skrobania stron internetowych, szczególnie w przypadkach, gdy dane są dynamicznie ładowane za pomocą JavaScript.
5. Notatnik Jupyter: Interaktywne środowisko do pisania i testowania kodu Python. Świetnie nadaje się do eksploracyjnej analizy danych i prototypowania skryptów do skrobania stron internetowych.
6. Bazy danych SQL/NoSQL: Używam baz danych SQL i NoSQL do przechowywania i przetwarzania dużych ilości zebranych danych. PostgreSQL, MongoDB i MySQL to niektóre z moich preferowanych baz danych.
7. Pełnomocnik: Aby obejść ograniczenia IP i zwiększyć szybkość skrobania, korzystam z płatnych usług proxy.
8. Cron lub inne programy planujące zadania: Używam ich do automatycznego uruchamiania skryptów do skrobania stron internetowych w określonym czasie.
Teraz, gdy mam zestaw narzędzi i wiem, kiedy i jak ich używać, moja praca zajmuje bardzo mało czasu. Jeśli wcześniej mogłem siedzieć nad projektem przez kilka dni, teraz konfiguracja zajmuje od 1 do 4 godzin, a potem wszystko działa automatycznie.
Mam kilka kanałów pozyskiwania klientów:
1. Platformy dla freelancerów: Strony takie jak Upwork, Freelancer i Fiverr zapewniają wiele możliwości znalezienia klientów potrzebujących usług web scrapingu. Aktywnie korzystam z tych platform, aby znaleźć projekty odpowiadające moim umiejętnościom.
2. Sieci społecznościowe: LinkedIn stał się jedną z najlepszych platform do znajdowania klientów B2B. Jestem aktywny na LinkedIn, publikując artykuły na temat web scrapingu i docierając do firm, które moim zdaniem mogą być zainteresowane moimi usługami.
3. Fora i społeczności: Jestem również aktywny na forach i społecznościach związanych z programowaniem i web scrapingiem, takich jak StackOverflow i Reddit. To nie tylko pomaga mi być na bieżąco z najnowszymi trendami w web scrapingu, ale także pomaga mi znaleźć klientów.
4. Wydarzenia i konferencje networkingowe: Staram się uczestniczyć w wydarzeniach i konferencjach związanych z danymi i IT, ponieważ stanowią one doskonałą okazję do poznania potencjalnych klientów i partnerów.
5. Próbowałem prowadzić bloga i klienci przychodzili stamtąd, ale zajmuje to dużo czasu i musiałem go zamknąć.
Dlaczego to wszystko piszę? Ponieważ wiele osób, zwłaszcza młodych, nie wie, co robić i gdzie zarabiać na życie.
Na moim przykładzie chcę pokazać, że odrobina wiedzy (podstawy Pythona można opanować w kilka tygodni), chęci i ciężkiej pracy może pomóc w osiągnięciu celów i uniezależnieniu się w życiu.
Komentarze (0)
Nie ma tu jeszcze żadnych komentarzy, możesz być pierwszy!