s

import requests from bs4 import BeautifulSoup from urllib.parse import urljoin def extract_links(url): try: # Webseite abrufen response = requests.get(url) response.raise_for_status() # Überprüfen, ob der Request erfolgreich war # BeautifulSoup zum Parsen verwenden soup = BeautifulSoup(response.text, 'html.parser') # Alle Links extrahieren links = set() # Finde alle Links im Tag for a in soup.find_all('a', href=True): full_url = urljoin(url, a['href']) # Vollständige URL erstellen links.add(full_url) # Links in eine Menge einfügen (doppelte Links werden ignoriert) # Finde alle Links in

Kommentare

Beliebte Posts aus diesem Blog

cc

ttt