|
Web-Analytics - Referat
Was ist das?
Web-Analytics, auch als Datenverkehrsanalyse beziehungsweise Webtracking bezeichnet, ist ein Ausdruck, der sich auf das Sammeln von Datenmengen bezieht, um herauszufinden, wie unterschiedliche Besuchergruppen mit dem Content einer Internetseite interagieren. Somit können der Inhalt, Aufbau und Struktur der Seite zum Nutzen des Besuchers wie zum Eigennutzen verbessert werden. Standardmäßig untersucht jedes Analytic-Tool von welchem Standort aus der Besucher zugreift und wie mit Werbemitteln umgegangen wird (mit eingeschlossen deren Wirksamkeit). Es kann ebenfalls protokolliert werden, wie lange sich der Besucher in welchen Bereichen der Website aufhält. Verallgemeinert unterscheidet man beim Einsetzen von Web-Analytics-Tools zwischen der Durchsuchung der Internetpräsenz nach Schwachpunkten und Möglichkeiten zur Verbesserung, sowie der regelmäßigen Kontrolle und Überprüfung der Effektivität von Webseiten. Als Folge dessen können vom Betreiber dann wichtige Informationen über etwaige zu behebende Mängel der Seite ausgewertet werden. Auf der anderen Seite kann durch den Vergleich verschiedener, statistisch wertvoller Parameter ein Kontextrahmen geschaffen werden, welcher beispielsweise den Umsatzverlauf pro Jahr oder das Werbeeffizienzverhältnis des Netzauftrittes aufzeigt. Dies alles verfolgt das Ziel, die Nutzer mit ihrem Verhalten besser zu verstehen und dadurch eine größtmögliche Optimierung des Gesamtbildes und eine höhere Verständlichkeit der Internetseite für den Besucher zu erzielen bzw. zu schaffen.
Sammlung, Weiterverarbeitung und Nutzung von Daten
Um in der Rolle des Webseitenbetreibers an die zur Auswertung benötigten Daten zu kommen, muss der Website in irgendeiner Weise spezieller Programmcode hinzugefügt werden. Dieser kann die zu analysierenden Daten erheben. Dann können die Datenmengen mithilfe unterschiedlichster Software ausgewertet werden, um tieferen Einblick in das Verhalten der Besucher auf der eigenen Seite zu erhalten.
Im Laufe der Geschichte der Clickstream-Analyse haben sich die verschiedensten Möglichkeiten entwickelt, um an Informationen über den Aufrufer einer Internetseite zu kommen. Jedoch hat sich gegenüber der Analyse der vom Webserver angelegten Protokolldateien das Datensammeln auf Basis des Clienten, also seitens des Aufrufers durch seinen Browser, etabliert und in drei Hauptverfahrensarten gegliedert.
Verfahrensart: Javascript-Tags
Ein sehr häufig vorkommendes Verfahren zum Datensammeln im Netz ist das Platzieren von Javascript-Codes im HTML-Kopf jeder einzelnen Seite der Internetpräsenz. Der Javascript-Code kann durch das standardmäßig aktivierte Javascript im Browser sehr unterschiedliche Informationen über den Websitebesuchenden preisgeben. Darunter fällt beispielsweise seine IP-Adresse, seine Herkunft, den verwendeten Browser und weitere genutzte Techniken, sowie das unterschiedliche Verhalten eines Besuchers im Vergleich zu dem eines Anderen. Hinzu kommen detaillierte Informationen über Betriebssystem und Auflösung des Bildschirms sowie die im Browser installierten Plug-Ins. Durch all diese Informationen kann sich eine dynamische Website im Hintergrund zum Nutzen des Seitenaufrufers anpassen. Dies geschieht, indem beispielsweise Seiteninhalte an die Bildschirmgröße des jeweiligen Browsers angepasst werden. Zusätzlich kann auch zwischen mobilem Endgerät oder PC unterschieden werden. Informationen über Plug-Ins helfen, alternative Anzeigemöglichkeiten nur bei Bedarf zu aktivieren, wenn ein spezieller Plug-In (etwa der Flash-Player) nicht auf dem PC des Users installiert ist. All diese Dinge verbessern scheinbar das Nutzungserlebnis des Internets. Jedoch birgt der ständige Zugriff auf sensible Daten dieser Art durch jede aufgerufene Website ein nicht zu verachtendes Gefahrenpotential für den Nutzer und seine Privatsphäre.
Falls nun Nutzer kein Javascript in ihrem Browser aktiviert haben, besteht die Gefahr, dass die Aussagekraft der Web-Analyse sinkt, da diese Besucher nicht registriert werden würden. Um dem entgegen zu wirken, gibt es eine weitere Möglichkeit zum Datensammeln: die sogenannten Zählpixel.
Verfahrensart: Zählpixel
Zählpixel sind 1x1 Pixel große Grafiken, welche unsichtbar auf der Website integriert und meist von einem anderen Server, dem sogenannten Zählserver oder Analyseserver, abgerufen werden. Dieser Zugriff auf den Zählpixel wird sofort beim Abruf vom Server registriert und ebenfalls mit in die Protokolldaten aufgenommen. Somit kann immer noch ein detailgetreues Bewegungsprofil erstellt werden, während sich der Nutzer auf der Internetseite aufhält. Da der Nutzer eine direkte Verbindung zum Analyseserver aufstellt, kann dieser wiederum immer noch seine IP-Adresse und dadurch schlussfolgernd den Internetdienstanbieter des Besuchers aufzeichnen. All diese Daten fließen mit denen, die durch die Analyse mittels Javascript-Tags erfasst wurden, in einer umfassenden Visualisierung zusammen. Daraus kann der bzw. die Webseitenbetreiber die weiteren Schlüsse aus den gesammelten Informationen ziehen. Im Bereich Web-Analytics gibt es viele verschiedene Anbieter, welche durchaus auch kostenlose Lösungen für Internetseiten zur Verfügung stellen. Durch den großen Umfang an Funktionen und Darstellungen, können Inhalte der Website besser organisiert und gestaltet werden. Es kann auch zusätzlich in Erfahrung gebracht werden, welche Themen Besucher mehr interessieren und welche weniger. Google hat beispielsweise schon seit längerem sein Erfolgsmodell Google Analytics auf dem Markt, welches für seine Nutzer kostenlos angeboten wird, ebenso wie Piwik, Googles Konkurrent auf dem deutschen Markt. Tools mit erweitertem Funktionsumfang und Fokus auf größere Besuchergruppen für Unternehmen gibt es von Adobe mit SiteCatalyst oder von IBM mit Coremetrics.
Verfahrensart: Cookies
Da man mittels Javascript und Zählpixeln ziemlich schnell an die Grenzen des Möglichen kommt, trotzdem aber vor allem im Bereich der Web-Analyse und des systematischen Trackings immer weitere, neue Informationen benötigt, wurden zu diesem Zweck die sogenannten Cookies entwickelt. Diese werden vom Server durch den Browser des Users auf seinem PC hinterlegt und sind winzig kleine Datenfetzen, denen immer ein Name und ein Inhalt zugewiesen werden. Früher traten sie als Textdateien auf, existieren heute jedoch nur noch in Form von SQLite-Datenbanken. Diese werden automatisch bei Seitenaufruf vom Server bzw. Webseitenbetreiber über den Browser angefordert. Somit kann eine Webseite immer wissen, mit wem sie es zu tun hat, außer, der User betritt die Seite zum ersten Mal oder er hat Cookies grundsätzlich in seinem Webbrowser nicht zugelassen. Einer der größten Vorteile, welche Cookies mit sich bringen, ist, dass sich durch sie auch noch nach einem langen Zeitraum und auch nach Ändern der IP-Adresse die Identität eines Users herausfinden lässt. Im vorrangegangenen Seitenaufruf wird durch die Anlegung eines eigenen Cookies eine Session-ID auf dem PC des Nutzers gespeichert. Dieser Cookie wird zusammen mit allen anderen von dieser einen Seite erstellten Cookies an den Webserver übermittelt und der User ist auch noch nach Monaten als ein und dieselbe Person identifizierbar. Dadurch ist es möglich, dass zum Beispiel die im Warenkorb eines Onlineshops abgelegten, aber noch nicht gekauften und bezahlten Produkte nach einer Woche immer noch genau am selben Ort zu finden sind, oder dass dauerhaftes Anmelden bei Webseiten mit Login Funktion möglich ist. Der Webserver erkennt selbstständig, von welchem Gerät aus zugegriffen wird. Natürlich kann mit Cookies nur ein Gerät, also ein PC, Laptop oder Handy über die Session-ID identifiziert werden und nicht dieselbe Person, falls sie zufällig ein anderes Gerät nutzen sollte. Cookies werden offline auf dem einzelnen Gerät abgespeichert und somit kann auch nur mit ein und demselben Webbrowser und PC / Laptop darauf zugegriffen werden. Dies Alles kann zwar die eine oder andere Bequemlichkeit mit sich bringen. Die Kehrseite davon ist jedoch, dass die Datensicherheit der Surfenden im Internet dadurch stark gefährdet wird. Nicht umsonst ist der Einsatz von Cookies höchst umstritten und auch datenschutzrechtlich bedenklich.
Die Ursprungsversion des Cookies wurde vom amerikanischen Programmierer Lou Montulli entwickelt. Er veröffentlichte im Jahr 1994 eine neue Technologie, durch die er dem Internet das bis zu dem Zeitpunkt in diesem Sinne noch nicht vorhandene „Gedächtnis“ geben wollte. Wenn man eine Webseite zum ersten Mal besucht, werden Cookies zu unterschiedlichen Ereignissen wie zum Beispiel dem genauen Aufrufzeitpunkt und dem Zeitpunkt des Verlassens der Seite erstellt, aus denen wiederum die Aufenthaltsdauer errechnet werden kann. Zusätzlich wird durch manche Web-Analyse Tools, wie beispielsweise Google Analytics, ein Zähler mittels eines Cookies erstellt, welcher registriert, wie viele Male ein Besucher eine Seite schon besucht hat. Der Webseitenbesitzer erhält riesige, auswertbare Mengen an Wissen. Am Beispiel eines Shops kann so die Anzahl der Besuche auf der Website oder die Zeit, bis ein Einkauf abgeschlossen wird, ermittelt werden.
Kommentare zum Referat Web-Analytics:
|