s
import requests
from bs4 import BeautifulSoup
from urllib.parse import urljoin
def extract_links(url):
try:
# Webseite abrufen
response = requests.get(url)
response.raise_for_status() # Überprüfen, ob der Request erfolgreich war
# BeautifulSoup zum Parsen verwenden
soup = BeautifulSoup(response.text, 'html.parser')
# Alle Links extrahieren
links = set()
# Finde alle Links im Tag
for a in soup.find_all('a', href=True):
full_url = urljoin(url, a['href']) # Vollständige URL erstellen
links.add(full_url) # Links in eine Menge einfügen (doppelte Links werden ignoriert)
# Finde alle Links in
Kommentare
Kommentar veröffentlichen