
Untitled
Guest 11 9th Mar, 2025
import requests # do pobierania stron
from bs4 import BeautifulSoup # do ekstrakcji informacji ze stron
import pandas as pd # do analizy danych
import numpy as np # do analizy danych
import time # do wstrzymania kodu na jakiś czas
from datetime import datetime # do pobrania bieżącej daty
from pymongo import MongoClient # do łączenia z bazą MongoDB
# klasa - zbiór metod i atrybutów, uruchamianych później
class WebScraping:
# ze strony myhttpheader
# slownik {"klucz":"wartość","klucz":"wartość"}
headers={"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/133.0.0.0 Safari/537.36 Edg/133.0.0.0",
"Accept":"text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.7",
"Accept-:Language":"pl,en;q=0.9,en-GB;q=0.8,en-US;q=0.7"}
# konstruktor - wykonuje się w momencie tworzenia obiektu
def __innit___(self): # self - wskazuje na bieżący obiekt
print("Utworzono obiekt")
def skrapuj(self,www): # self musi być zawsze
self.html = requests.get(www).text
To share this paste please copy this url and send to your friends
RAW Paste Data