Herausforderung.
Viele Informationen sind online verfügbar. Googeln ist ein Synonym für das Finden von Informationen geworden – vom einfachen Kochrezept bis hin zur wissenschaftlichen Abhandlung. Die meisten Daten sind frei zugänglich und können einfach abgerufen werden. Allein die Menge an Daten und die Vielzahl verfügbarer Websites macht eine Suche allerdings sehr zeit- und personalintensiv. Der Zeitaufwand spielt insbesondere dann eine große Rolle, wenn die Suche nicht nur einmalig geschehen soll, sondern regelmäßig. Damit können dann auch Änderungen und Entwicklungen überwacht werden. Hier bieten sich sogenannte WebCrawler als eine einfache und vor allem kosteneffiziente Möglichkeit an, Webseiten gezielt nach Informationen zu durchsuchen und komprimiert und vor allem automatisiert zur Verfügung zu stellen.
Herangehensweise.
Je nach Untersuchungsziel, erstellen wir einen WebCrawler, der das Aufsuchen aller auf den Zielseiten befindlichen Informationen ermöglicht. Die Informationen können in einer Liste zur Verfügung gestellt werden. Durch diese Methode können rein theoretisch alle erreichbaren Seiten des World Wide Web untersucht und Informationen daraus zur Verfügung gestellt werden.
Tatsächlich treffen wir mit unseren Kunden meistens eine themenspezifische Vorauswahl. Hier kommen sogenannte focused Crawlers zum Einsatz. Der Unterschied zu herkömmlichen Webcrawlern liegt darin, dass die themenspezifischen Webcrawler eine Art künstliche Intelligenz besitzen, mit der sie den besten Weg durch das Web finden und dabei nur relevante Bereiche indizieren. Nutzungsbereiche können dabei sein: Dass Auffinden gewisser Begrifflichkeiten, die Indexierung von Inhalten einer Webseite oder das Sammeln von Ansprechpartnern und E-Mail Adressen aus Impressen.
Ergebnis & Nutzen.
WebCrawler stellen eine kostengünstige und effektive Möglichkeit dar, zeit- und kostenintensive Analyse-Aufgaben abzubilden, schnell, günstig und umfassend Web-Content zu scannen, zu analysieren und zu indexieren. Dabei können wir WebCrawler schnell und einfach implementieren und garantieren damit eine umfassende und kontinuierliche Datensammlung und -analyse.
So lässt sich das eigene Online-Marketing durch die Ausweitung und Fokussierung des eigenen Kundenspektrums optimieren. Zudem können Crawler die Online-Reputation eines Unternehmens durch Erfassung von Kommunikationsmustern in sozialen Medien verbessern.