support:beautifulsoup_installationsanleitung
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen angezeigt.
| Beide Seiten der vorigen RevisionVorhergehende ÜberarbeitungNächste Überarbeitung | Vorhergehende Überarbeitung | ||
| support:beautifulsoup_installationsanleitung [2025/07/14 19:20] – admin | support:beautifulsoup_installationsanleitung [2025/08/10 19:42] (aktuell) – admin | ||
|---|---|---|---|
| Zeile 1: | Zeile 1: | ||
| - | ====== BeautifulSoup Installationsanleitung ====== | + | **<< |
| - | {{: | + | ====== BeautifulSoup Installationsanleitung |
| + | {{: | ||
| ===== BeautifulSoup installieren ===== | ===== BeautifulSoup installieren ===== | ||
| - | @sudo apt-get install python3-bs4 | + | @sudo apt-get install python3-bs4 |
| - | @sudo apt-get install python3-lxml | + | |
| - | @sudo apt-get install python3-html5lib | + | |
| ===== BeautifulSoup Script Beispiele ===== | ===== BeautifulSoup Script Beispiele ===== | ||
| - | Datei Beispielscript.py erstellen und Inhalt einfügen und speichern. Scrip wird dann folgendermaßen ausgeführt, | + | Datei Beispielscript.py erstellen und Inhalt einfügen und speichern. Scrip wird dann folgendermaßen ausgeführt, |
| - | @python3 Beispielscript.py | + | @python3 Beispielscript.py |
| ===== Alle Webseiten werden ausgelesen inkl. Inhalte und im Terminal angezeigt ===== | ===== Alle Webseiten werden ausgelesen inkl. Inhalte und im Terminal angezeigt ===== | ||
| Zeile 74: | Zeile 75: | ||
| url = " | url = " | ||
| | | ||
| + | |||
| + | ===== Alle Webseite und Inhalte auslesen und in Textdatei speichern ===== | ||
| + | |||
| + | | ||
| + | from bs4 import BeautifulSoup | ||
| + | | ||
| + | |||
| + | def get_current_date(): | ||
| + | | ||
| + | |||
| + | def get_current_time(): | ||
| + | | ||
| + | |||
| + | def scrape_website(url): | ||
| + | | ||
| + | soup = BeautifulSoup(response.text, | ||
| + | |||
| + | # Extract all text content from the website | ||
| + | | ||
| + | |||
| + | with open(" | ||
| + | | ||
| + | |||
| + | if __name__ == " | ||
| + | | ||
| + | | ||
| + | |||
| + | | ||
| + | | ||
| + | |||
| + | # Specify the website URL to scrape | ||
| + | url = " | ||
| + | | ||
| + | |||
| + | ===== Alle Webseiten und ausführlich Inhalte und im Terminal anzeigen. Wenn Sie nicht wollen im Terminal anzeigen zu lassen sondern nur in Datei schreiben dann setzen Sie # vor print(.. also so #print(.. ===== | ||
| + | |||
| + | | ||
| + | from bs4 import BeautifulSoup | ||
| + | from urllib.parse import urljoin | ||
| + | |||
| + | # Ersetzen Sie dies durch die URL der Webseite, die Sie scrapen möchten | ||
| + | url = ' | ||
| + | |||
| + | # Erstellen Sie eine Anfrage an die Webseite | ||
| + | | ||
| + | |||
| + | # Stellen Sie sicher, dass die Anfrage erfolgreich war | ||
| + | if response.status_code == 200: | ||
| + | # Erzeugen Sie ein BeautifulSoup-Objekt | ||
| + | soup = BeautifulSoup(response.text, | ||
| + | |||
| + | # Drucken Sie die URL der Hauptseite | ||
| + | | ||
| + | |||
| + | # Finden Sie alle Links auf der Hauptseite | ||
| + | for link in soup.find_all(' | ||
| + | # Erstellen Sie eine vollständige URL für jeden Link | ||
| + | | ||
| + | |||
| + | # Erstellen Sie eine Anfrage an jede Seite | ||
| + | | ||
| + | |||
| + | # Stellen Sie sicher, dass die Anfrage erfolgreich war | ||
| + | if response.status_code == 200: | ||
| + | # Erzeugen Sie ein BeautifulSoup-Objekt für die Seite | ||
| + | | ||
| + | |||
| + | # Drucken Sie die URL der Seite | ||
| + | | ||
| + | |||
| + | # Drucken Sie das gesamte HTML-Inhalt der Seite | ||
| + | | ||
| + | with open(' | ||
| + | | ||
| + | | ||
| + | else: | ||
| + | | ||
| + | else: | ||
| + | | ||
support/beautifulsoup_installationsanleitung.1752513650.txt.gz · Zuletzt geändert: von admin
