logo
languageDEdown
menu

Scrapen von DuckDuckGo-Suchergebnissen in Excel ohne Kodierung

5 Minuten lesen

In diesem Artikel geht es nicht um das Kinderspiel Duck, Duck, Goose, sondern um eine Internetsuchmaschine, deren Name eine Anspielung auf dieses berühmte Spiel ist.

DuckDuckGo unterscheidet sich von anderen Suchmaschinen wie Google und Microsoft Bing durch seine eigene Positionierung auf dem Markt. Während diese Suchmaschinen einen Algorithmus verwenden, um personalisierte Suchergebnisse zu liefern, setzt DuckDuckGo auf den Schutz der Privatsphäre der Nutzer und die Vermeidung von Filterblasen. Dies wird erreicht, indem verschiedene APIs anderer Websites genutzt werden, um schnelle und relevante Ergebnisse zu liefern, anstatt auf Inhalte von Content-Farmen zurückzugreifen. Laut der offiziellen Website verzeichnet DuckDuckGo etwa 3 Milliarden monatliche Suchanfragen und 6 Millionen monatliche Downloads.

Hier finden Sie die einfachen Schritte zum Scrapen von DuckDuckGo-Suchergebnissen und zum Exportieren in Excel-Dateien.

Was Sie über DuckDuckGo Web Scraping wissen müssen

Es ist in der Regel akzeptabel, Web-Scraping zu betreiben, solange dabei keine privaten Informationen gestohlen werden. Es kann jedoch vorkommen, dass das Extrahieren von Daten von einer Website gegen deren Nutzungsbedingungen verstößt. Obwohl ein Verstoß gegen die Nutzungsbedingungen nicht illegal ist, könnte die Website rechtliche Schritte wegen Vertragsbruchs gegen Sie einleiten. Um solche unangenehmen Situationen zu vermeiden, empfehlen wir dringend, die Nutzungsbedingungen zu lesen, bevor Sie mit dem Scrapen beginnen.

Hat DuckDuckGo APIs?

Ja, DuckDuckGo ermutigt seine Nutzer, seine offiziellen APIs zu nutzen. Zuvor bot DuckDuckGo eine Instant Answer API an, die jedoch nicht alle Links in den Suchergebnissen enthielt. Derzeit gibt es keine weiteren Details zu den verfügbaren APIs auf DuckDuckGo. Wenn Sie mehr erfahren möchten, sollten Sie die Hilfeseite sorgfältig lesen oder sich über die offizielle Seite mit den Entwicklern in Verbindung setzen.

4 Schritte zum Scrapen von DuckDuckGo-Suchergebnissen

Anstelle von APIs zeigen wir Ihnen, wie Sie Suchergebnisse von DuckDuckGo mit Octoparse extrahieren können. Es ist ein einfach zu bedienendes Tool für Web Scraping. Jeder Benutzer kann damit vollständige Suchergebnisse von DuckDuckGo sammeln, unabhängig von seinen Programmierkenntnissen.

Beim ersten Gebrauch können Sie Octoparse herunterladen und auf Ihrem Gerät installieren. Sie müssen sich anmelden, um die App zu starten, und ein kostenloses Konto erstellen. Nach erfolgreicher Anmeldung können Sie die folgenden Schritte ausführen, um DuckDuckGo-Suchergebnisse 14 Tage lang kostenlos zu scrapen!

Schritt 1: Erstellen Sie eine neue Aufgabe

Kopieren Sie die URL der Suchergebnisseite und fügen Sie sie in die Suchleiste von Octoparse ein. Klicken dann auf „Starten“, um eine neue Aufgabe zu erstellen. Die Zielseite wird in Sekundenschnelle in den integrierten Browser von Octoparse geladen.

Schritt 2: Wählen Sie die gewünschten Datenfelder aus

Nachdem die Seite vollständig geladen ist, klicken Sie auf “Webpage-Daten automatisch erkennen” in den Tipps. Dadurch wird Octoparse die Website scannen und Ihnen verschiedene Datenvorschläge anbieten. Die erkannten Datenfelder werden auf der Seite hervorgehoben, damit Sie überprüfen können, ob Octoparse richtig liegt. Sie können die Daten auch unten in der Vorschau anzeigen und unerwünschte Datenfelder entfernen.

Schritt 3: Erstellen und Ändern des Workflows

Sobald Sie alle erforderlichen Datenfelder ausgewählt haben, klicken Sie auf “Workflow erstellen”. Daraufhin wird auf der rechten Seite des Bildschirms ein Workflow angezeigt, der jeden Schritt des Scraping-Prozesses darstellt. Sie können den Workflow von oben nach unten und von innen nach außen in verschachtelten Aktionen lesen. Um sicherzustellen, dass alles ordnungsgemäß funktioniert, können Sie jeden Schritt in der Vorschau anzeigen, indem Sie auf die einzelnen Stufen klicken. Wenn der Workflow nicht ordnungsgemäß funktioniert, kann es sein, dass keine Daten erhalten werden.

Schritt 4: Starten Sie die Aufgabe

Bitte klicken Sie auf „Ausführen“, um den Scraper zu starten, nachdem Sie alle Details überprüft haben. Es gibt zwei Möglichkeiten, die Aufgabe auszuführen. Wenn Ihr Projekt klein ist oder Sie nur einen schnellen Durchlauf benötigen, können Sie es auf Ihrem lokalen Gerät ausführen. Für große Projekte ist es jedoch besser, die Aufgabe auf die Cloud-Server von Octoparse zu übertragen. Wählen Sie einfach eine Option, und Octoparse kümmert sich um den Rest. Nach Abschluss der Aufgabe können Sie die Daten in eine Excel-, CSV- oder JSON-Datei exportieren.

Einen DuckDuckGo-Crawler mit Python erstellen

Wenn Sie mit Python vertraut sind, ist die Erstellung eines Crawlers eine großartige Möglichkeit, um Daten von DuckDuckGo zu sammeln, ohne die offizielle API zu verwenden. Im folgenden Beispiel finden Sie einen Code, den Sie als Referenz für die Erstellung Ihres eigenen DuckDuckGo-Crawlers verwenden können.

import requests
from bs4 import BeautifulSoup
from selenium import webdriver
from selenium.webdriver.chrome.options import Options
import time

def get_selenium_driver():
    options = Options()
    options.add_argument("--headless")  
    options.add_argument("--disable-gpu")
    options.add_argument("--no-sandbox")
    options.add_argument("--disable-dev-shm-usage")
    driver = webdriver.Chrome(options=options)
    return driver

def duckduckgo_search(query):
    search_url = "https://duckduckgo.com/html/?q=" + query.replace(" ", "+")
    
    driver = get_selenium_driver()
    driver.get(search_url)
    time.sleep(2)  

    html = driver.page_source
    driver.quit()

    soup = BeautifulSoup(html, 'html.parser')
   
    results = soup.find_all('div', {'class': 'result results_links results_links_deep web-result'})
    
    for result in results:
        title_tag = result.find('a', {'class': 'result__a'})
        title = title_tag.get_text(strip=True) if title_tag else 'No title'
        
        link = title_tag['href'] if title_tag and 'href' in title_tag.attrs else 'No link'
        
        description = result.find('div', {'class': 'result__snippet'}).get_text(strip=True) if result.find('div', {'class': 'result__snippet'}) else 'No description'
        
        print(f"Title: {title}")
        print(f"Link: {link}")
        print(f"Description: {description}")
        print("-" * 80)

if __name__ == "__main__":
    query = input("Enter your search query: ")
    duckduckgo_search(query)

Vorlagen – Der einfachste Weg, DuckDuckGo zu scrapen

Um Ihre Web-Scraping-Reise zeitsparender und müheloser zu gestalten, bietet Octoparse jetzt Hunderte von Vorlagen, mit denen Sie Daten von verschiedenen Websites ohne Einstellungen scrapen können. Beim Scrapen von DuckDuckGo-Suchergebnissen mit der untenstehenden Vorlage musst du nur die Suchbegriffe (bis zu 10k pro Durchlauf) eingeben, die du auf DuckDuckGo suchen möchtest. Danach kümmert sich Octoparse um den Rest und versorgt Sie mit aktuellen Informationen, einschließlich Titel, Ergebnis-URL, Hauptseite und Beschreibung.

https://www.octoparse.de/template/duckduckgo-scraper

Zusammenfassung

DuckDuckGo wächst schnell und bietet offizielle APIs an, aber es gibt auch alternative Lösungen. In unserem Artikel zeigen wir, wie man Suchergebnisse mit Octoparse scrapen oder einen Crawler mit Python erstellen kann. Egal, ob Sie programmieren können oder nicht, Sie finden hier eine Methode, um Ihr Ziel des Web Scraping zu erreichen.

👍👍 Wenn Sie Interesse an Octoparse und Web Scraping haben, können Sie es zunächst 14 Tage lang kostenlos ausprobieren.

Hier bekommen Sie Octoparse! 🤩

Preis: $0~$249 pro Monat

Packet & Preise: Octoparse Premium-Preise & Verpackung

Kostenlose Testversion: 14-tägige kostenlose Testversion

Herunterladen: Octoparse für Windows und MacOs

Erhalte Webdaten in Klicks
Daten-Scraping von jeder Website ganz ohne Codierung.
Kostenloser Download

Beliebte Beiträge

Themen untersuchen

Starten mit Octoparse heute

Downloaden

Verwandte Artikel

  • avatarNeela Schmidt
    Heute zeigen wir Ihnen, wie Sie Bing-Suchergebnisse ohne Python-Scraper mit einem No-Code-Web-Scraper abrufen können.
    2024-08-14T11:46:02+00:00 · 5 Minuten lesen
  • avatarChristel Kiesel
    Möchten Sie Filmdaten von Websites wie IMDb, Flixster und Rotten Tomatoes extrahieren? Ich werde einen einfach zu bedienenden Film Scraper vorstellen, mit dem Sie alle On-Page-Daten ohne Programmierkenntnisse sammeln können.
    2024-08-01T00:00:00+00:00 · 6 Minuten lesen
  • avatarChristel Kiesel
    In diesem Tutorial zeige ich Ihnen, wie Sie Twitter-Daten in 3 Minuten scrapen können, ohne die Twitter-API, Tweepy oder Python zu verwenden und keine einzige Zeile Code zu schreiben. Um Daten aus Twitter zu extrahieren, können Sie ein automatisiertes Web-Scraping-Tool verwenden - Octoparse. Octoparse simuliert die menschliche Interaktion mit einer Webseite, und ermöglicht Ihnen, alle Informationen auf einer beliebigen Website zu extrahieren, wie z. B. Twitter. So können Sie beispielsweise ganz einfach Tweets eines Benutzers, Tweets, die bestimmte Hashtags enthalten oder innerhalb eines bestimmten Zeitraums gepostet wurden, usw. extrahieren. Sie brauchen nur die URL Ihrer Zielwebseite zu erfassen und die in den in Octoparse integrierten Browser einzufügen. Mit ein paar Mausklicks können Sie einen Crawler von Grund auf selbst erstellen. Wenn die Extraktion abgeschlossen ist, können Sie die Daten in Excel-Tabellen, CSV, HTML oder SQL exportieren oder sie über die Octoparse-APIs in Echtzeit in Ihre Datenbank exportieren.
    2024-07-08T16:00:00+00:00 · 5 Minuten lesen
  • avatarNeela Schmidt
    Wie erfasst man Daten von Websites? Mit der Technologie des Web Scrapings, der Automatisierung und der RPA kann die Datenerfassung viel tiefer gehen, als nur Kopien von Daten zusammenzustellen. In diesem Artikel würden Sie für die Datenerfassung ein tiefes Verständnis haben.
    2022-08-01T00:00:00+00:00 · 4 Minuten lesen