import requests # do pobierania stron from bs4 import BeautifulSoup # do ekstrakcji informacji ze stron import pandas as pd # do analizy danych import numpy as np # do analizy danych import time # do wstrzymania kodu na jakiś czas from datetime import datetime # do pobrania bieżącej daty from pymongo import MongoClient # do łączenia z bazą MongoDB # klasa - zbiór metod i atrybutów, uruchamianych później class WebScraping: # ze strony myhttpheader # slownik {"klucz":"wartość","klucz":"wartość"} headers={"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/133.0.0.0 Safari/537.36 Edg/133.0.0.0", "Accept":"text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.7", "Accept-:Language":"pl,en;q=0.9,en-GB;q=0.8,en-US;q=0.7"} # konstruktor - wykonuje się w momencie tworzenia obiektu def __innit___(self): # self - wskazuje na bieżący obiekt print("Utworzono obiekt") def skrapuj(self,www): # self musi być zawsze self.html = requests.get(www).text