Umsetzung der EU-Cookierichtlinie bei zalando

Datenschutz in der Webanalyse – AT Internet

Das Thema Datenschutz ist nicht erst seit Snowden und dem NSA-Skandal ein Thema für Webanalysten. Wir haben immer wieder Kunden, die sich vor dem Einsatz von Google Analytics scheuen, da sie Google – der Datenkrake – nicht noch mehr Daten überlassen wollen.

Mögliche Alternativen zu Google gibt es einige. Von den Systemen, bei denen man selbst Herr über die Server ist, bis zu denen, die ihre Systeme auf europäischen Servern liegen haben ist alles vertreten. Eines der europäischen Systeme ist AT Internet. Mit Sitz in Frankreich richtet sich der Datenschutz des Webanalyseanbieters nach dem EU-Recht. Zu unterscheiden ist zwischen dem Datenschutz der erhobenen Daten auf Serverseite/durch Cookies und dem Schutz vor Missbrauch durch die Mitarbeiter, die Zugriff auf die erhobenen Daten der Kunden haben.

Die gesetzliche Grundlage

 

Personenbezogene Daten

§ 1 BDSG

(1) Zweck dieses Gesetzes ist es, den Einzelnen davor zu schützen, dass er durch den Umgang mit seinen personenbezogenen Daten in seinem Persönlichkeitsrecht beeinträchtigt wird. 

Erlaubnisvorbehalt

Die Erhebung, Verarbeitung und Nutzung personenbezogener Daten sind nur zulässig, soweit dieses Gesetz oder eine andere Rechtsvorschrift dies erlaubt oder anordnet oder der Betroffene eingewilligt hat.

§ 4 BDSG, §§ 28 ff BDSG

Personenbezogene Daten sind Einzelangaben über persönliche oder sachliche Verhältnisse einer bestimmten oder bestimmbaren natürlichen Person (Betroffener). Also zum Beispiel Name, Adresse, Geburtstag, Handynummer, E-Mail-Adresse, Leistungsangaben, Lebenslauf, Passfoto, Anwesenheitszeiten, IP-Adressen, Gesundheit, Religion etc.

Datenverarbeitung

§ 3 IIV BDSG
Verantwortliche Stelle ist jede Person oder Stelle, die personenbezogene Daten für sich selbst erhebt, verarbeitet oder nutzt oder dies durch andere im Auftrag vornehmen lässt.
§ 11 I BDSG
Werden personenbezogene Daten im Auftrag durch andere Stellen erhoben, verarbeitet oder genutzt, ist der Auftraggeber für die Einhaltung der Vorschriften dieses Gesetzes und anderer Vorschriften über den Datenschutz verantwortlich

 

Der Auftraggeber

Gemäß der Gesetze muss der Auftraggeber “Herr über die Daten” sein. Das beinhaltet:

  • Auftragnehmer muss sorgfältig auswählen
  • Auftrag schriftlich erteilen
  • Besondere Formvorschriften (10 Punkte im Vertrag!),
  • Erstkontrolle
  • Festlegung der Datenerhebung, -verarbeitung oder –nutzung
  • Festlegung und Kontrolle der technischen und organisatorischen Datensicherungsmaßnahmen
  • Unterauftragsverhältnisse schriftlich fixieren

Für den Auftragnehmer bedeutet dies:

  • Verarbeitung oder Nutzung nur im  Rahmen der Weisungen
  • Hinweispflicht auf datenschutzrechtliche Verstöße an Auftraggeber
  • Durchführung erforderlicher technischer und organisatorischer Maßnahmen

Um sicherzustellen, dass alle Vorschriften und Gesetze eingehalten werden gibt es Datenschutzbeauftragte bei AT Internet.

Aufgabe dieser Datenschutzbeauftragten ist es:

  • Auf die Ausführung des BDSG und anderer Datenschutzvorschriften hinwirken
  • Beratung / Überwachung der ordnungsgemäßen Ausführung der DV
  • Schulung zum Datenschutz durchführen
  • Verpflichtung der Mitarbeiter auf das Datengeheimnis nach § 5 BDSG
  • Auskunft an und Benachrichtigung der Betroffenen
  • Vorabkontrolle
  • Verfahrensregister führen
  • Auskunft an Jedermann
  • Organisatorische Aufgaben wie die Sicherheitsrichtlinie IT

 

Schutz der Daten durch Missbrauch der Mitarbeiter

Hier greift § 5 BDSG: Verpflichtung der Mitarbeiter auf das Datengeheimnis: Den bei der Datenverarbeitung beschäftigten Personen ist untersagt, personenbezogene Daten unbefugt zu erheben, zu verarbeiten oder zu nutzen (Datengeheimnis). Diese Personen sind, … , bei der Aufnahme ihrer Tätigkeit auf das Datengeheimnis zu verpflichten. Das Datengeheimnis besteht auch nach Beendigung ihrer Tätigkeit fort.

Die 8 Gebote des Datenschutzes §9 BDSG i.V.m. Anlage

  1. Zutrittskontrolle: Schlüssel, Elektronische Karte, …
  2. Zugangskontrolle: Unbefugte dürfen Datenverarbeitungsprogramme nicht nutzen
  3. Zugriffskontrolle: verschiedene Zugangsberechtigungen, externer Zugriff von zu Hause, VPN, keine unbefugte Nutzung und Speicherung
  4. Weitergabekontrolle: bei elektronischer Übertragung darf keine unbefugte Speicherung usw. stattfinden wie z.B. Passwörter bei USB-Sticks
  5. Eingabekontrolle: wer, wann, wie Daten, Docs auf dem Server ändert
  6. Auftragskontrolle: Erhebung der Daten nur so, wie der Kunde das will
  7. Verfügbarkeitskontrolle: Sind alle Daten jederzeit verfügbar und auch reproduzierbar, wenn etwas gelöscht wurde?
  8. Trennungsgebot: Wie werden Daten gespeichert?

 

Die EU-Cookie-Richtlinie

Die EU-Cookierichtlinie beinhaltet die Einwilligungspflicht der Nutzer für den Einsatz von Cookies. Sie soll den Nutzer vor der Erstellung von Nutzerprofilen schützen. Auf immer mehr Websites wird deshalb inzwischen der Hinweis gegeben, dass Cookies gesetzt werden, sowie die Möglichkeit diesem Einsatz zu widersprechen.

Umsetzung der EU-Cookierichtlinie bei zalando

Cookie Einsatz

AT Internet erklärt den Einsatz der Cookies wie folgt:

Beim Besuch  eines Internetnutzers auf einer Website, die von einer der Lösungen von AT Internet getrackt wird, sammelt AT Internet statistische Daten über den Besuch. Bei diesen Daten handelt es sich um Verbindungsdaten, mit denen sich der verwendeten Browser, die Anzahl der Seitenaufrufe und Visits, das Navigationsverhalten und die Verweildauer des Internetnutzer auf einer Website oder einer Seite, sowie das Anlegen oder der Abbruch eines Warenkorbs usw., messen lassen. Bei der Leistungserbringung werden von unserer Seite keinerlei primäre persönliche Daten (Name, Vorname, Telefon, E-Mail-Adresse, etc.) erfasst.

Ausschließlich zwei Arten von sogenannten sekundären persönlichen Daten (z.B. Daten, die unter bestimmten Voraussetzungen zu einer Identifikation eines Individuums verwendet werden können) werden durch AT Internet gesammelt: die IP Adresse und das Cookie.

Die „Cookies“ erlauben es AT Internet, detailliertere und aussagekräftige statistische Datenanalysen zu erstellen. Der Einsatz des Cookies erlaubt es, die Analyse des JavaScript-Markers zu vervollständigen und wiederholte Sitzungen den Besuchern zuzuordnen (wissen, dass es sich um denselben Besucher handelt ohne zu wissen, wer er ist). Diese „Cookies“ enthalten nur eine eindeutige alphanumerische „Benutzerkennung“ des Besuchergeräts und werden auf keinen Fall zur Erfassung von namentlichen Daten der Besucher verwendet. Alle gewonnenen Ergebnisse werden weiterverarbeitet und dabei vollständig anonymisiert.

Schließlich können die AT Internet Lösungen entweder die sogenannten‚ first party“ Cookies (d.h. Cookies, die durch die gemessene Website ausgegeben wird) oder die sogenannten „third party“ Cookies (d.h. Cookies, die von AT Internet ausgegeben werden: xiti.com oder ati-host.net) verwenden, je nach den Bedürfnissen des Kunden. In beiden Fällen bleibt der oben genannte Zweck  unberührt und keine personenbezogenen Daten werden durch die Cookies gesammelt.

IP-Adressen

Zur Datenerfassung und –verarbeitung verwendet AT Internet –die IP-Adresse des Internetusers und das ausschließlich zum Zweck der Geolokalisierung seines Gerätes, d.h. zur präzisen Zuordnung einer Region oder einer Stadt für einige Ländern. Zum Schutz des Privatsphäre bietet AT Internet ihren Kunden die Möglichkeit der Anonymisierung der IP Adresse an: die letzten 3 Ziffern der IP Adresse werden direkt nach der Sammlung  und bevor die Geolokalisierung gelöscht. Die Anonymisierung wird standardmäßig für die IP Adresse der Internetnutzer umgesetzt, die Websites von Kunden unserer Tochtergesellschaft AT Internet GmbH (Deutschland) besuchen. Zum Schutz der persönlichen Daten speichert AT Internet die vollständigen und gekürzten IP Adressen nur für eine beschränkte Zeit  (6 Monate) in verschlüsseltem Zustand. Unter keinen Umständen sind sie in der Benutzeroberfläche für den Kunden oder an anderen Stellen im Unternehmen zugänglich.

 

Weitere Infos zum Thema Datenschutz bei AT Internet:

http://www.atinternet.com/de/digital-analytics/datensicherheit/

http://www.atinternet.com/de/politique-du-respect-de-la-vie-privee/

 

White Paper des BVDW zum Thema “Webanalyse und Datenschutz”

http://www.bvdw.org/medien/bvdw-veroeffentlicht-kostenfreies-whitepaper-zur-datenschutzkonformen-webanalyse

schema-wywy

TV Tracking: Echtzeitmessung der Performance über Second Screen

Bereits im September haben wir euch das Prinzip hinter dem TV Tracking von AT Internet vorgestellt. Wie man in der Praxis damit umgeht zeigen wir heute.

Verbindung zwischen Offline und Online herstellen

Der Ausgangspunkt für die Analyse von TV Daten ist die Wirkung einer TV-Kampagnen auf die Online-Kanäle: zusätzlicher Traffic, angesehene Produkte, Mehrverkäufe. Durch automatisierte Systeme für Content Recognition ist es möglich in Echtzeit zu ermitteln, wann ein TV-Spot ausgestrahlt wir. Diese Messungen werden durch den AT Internet Partner wywy übernommen und mit den Webanalyse Daten verknüpft. Dadurch kann man auf der Stelle den Online-Traffic identifizieren, der durch den ausgestrahlten TV-Spot hervorgerufen wurde.

schema-wywy

Der Vorteil in der Kombination dieser Systeme ist, dass Advertiser nicht länger auf den Media Plan angewiesen sind: Dazu zählt zum Beispiel die Gefahr, dass eine Analyse falsch durchgeführt wird, weil kurzfristig etwas im Media Plan geändert wurde. Oder es kommt zu einer verspäteten Auswertung, weil man auf die Ausstrahlungsdaten warten muss, die manchmal erst einen Monat später kommen.

Steigerung der Performance mithilfe eines eigenen Dashboards

Um die Wechselwirkung zwischen TV-Werbung und Online-Auftritt zu optimieren ist es wichtig, dass die Messung der Effektivität der TV-Kampagnen dazu verwendet wird die Onlinestrategie zu planen: Implementierung, Definition von KPIs und Dashboards erstellen. Wenn das Interface einer Webanalyselösung umfassende Daten bietet, die von TV-Spots stammen, sollte ein benutzerdefiniertes Dashboard angelegt werden, um eine schnelle, effektive und direkte Vorstellung davon zu bekommen, wie sich der TV-Spot auf Second Screen auswirkt:

  • Konnte die TV-Kampagne im Vergleich zu Zeiten ohne TV-Werbung zusätzlichen Traffic generieren?
  • Welche Kombination von “Spot x TV-Kanal x Zeit” hat den meisten Traffic gebracht?
  • Wie viel hat mich ein Visit, der mit dem TV-Spot zusammenhängt, gekostet?
  • Was ist der ROI? Wie viel habe ich mit einem Verkauf, der auf die Kampagne zurückzuführen ist, verdient?

Neben der Analyse der Wirkung von TV-Spots auf den Webtraffic ermöglichen es Onlinemessungen zu überprüfen, ob der Spot zur vereinbarten Zeit ausgestrahlt wurde. Dadurch kann der Media-Plan leichter verwaltet und verbessert werden.

Mehr Informationen zum TV Tracking von AT Internet findet ihr hier: www.atinternet.com/de/ und in diesem Blogpost blog.atinternet.com/de/tv-werbung-echtzeitmessung-der-performance-per-second-screen/

Außerdem erklärt Frank Piotraschke hier nochmal die Idee hinter dem TV Tracking und die Umsetzung: www.atinternet.com/de/documents/video-tv-tracking-mit-hilfe-von-web-analyse/

etracker-Logo_lo

etracker aktualisiert Interface

etracker-Logo_lo

 

etracker überarbeitet sein Interface

Neben neuen Funktionen, wird das neue Interface nun intuitiver und leichter zu bedienen. So spart man beim Erstellen von Berichten Zeit und die Arbeit wird effektiver. Bisher sind die neuen Funktionen noch über eine Beta-Version erreichbar. Gewechselt werden kann über den “Beta”-Icon im Interface.

 

Die Neuerungen im Überblick

  • neue Grafiken: größer, mit interaktiven Legenden
  • Zoom- und Vergleichsmodus: so können Grafiken genauer unter die Lupe genommen und Zeiträume verglichen werden
  • Grafikeinstellungen: welche Diagrammart, angepasste Zeitachse etc. werden angezeigt, sodass schnell erkennbar ist, welche Daten man sieht

 

Neues Dashboard

  • Anpassbare Dashboardelemente: die einzelnen Elemente der Dashboards lassen sich jetzt in der Größe anpassen
  • Tachometer & individuelle Dashboardelemente: neue Standardwidgets können den Dashboards hinzugefügt werden um noch schneller einen Überblick über die aktuellen Daten zu bekommen

Navigation

  • Die neue Aufklappnavigation erleichtert das Erreichen der Berichte
  • Schnellzugriff über die Suchfunktion
  • Speichern der wichtigsten Berichte in der persönlichen Ansicht

 

Weiteres

  • Überarbeitete Tabellenoptik
  • Erweiterung der Notizen-speichern-Funktion
  • Übersichtlichere Einstellungen
  • neuer Grafiktyp “Säulengrafik” für Kontaktkommbinationen

 

Da das neue Interface noch in der Beta-Phase ist sollen kontinuierlich weitere neue Funktionen hinzukommen. Derzeit kann es deshalb auch noch zu Fehlern in der Anwendung der neuen Version kommen.

Ausführliche Infos zu den Neuerungen findet ihr hier: http://www.etracker.com/blog/produkt-news/das-neue-etracker-einfacher-schneller-leistungsfaehiger

BDEuVfApDV1RjoqlPPJiKukgt3SPrByJjFKJHBZpw98

Soft Tagging – Tag Management von AT Internet

BDEuVfApDV1RjoqlPPJiKukgt3SPrByJjFKJHBZpw98

Wir sind inzwischen an dem Punkt angekommen, an dem Webanalyse für Unternehmen nicht mehr ein Fremdwort ist. Viele Unternehmen haben inzwischen ihre eigenen Webanalysten oder beauftragen Agenturen mit dieser Aufgabe. Dennoch gibt es beim Einrichten der Analysetools und dem Tracking immer wieder Probleme. Viele der Webanalysetool Anbieter haben mittlerweile darauf reagiert um nicht nur die Initialisierung, sondern auch das Implementieren neuer Features, Beheben von Taggingfehlern oder eine Veränderung im ursprünglichen Taggingplan einfacher und schneller zu realisieren.

 

Probleme im Taggingprozess

Die meisten Probleme bei der Umsetzung oder Änderungen im Tracking begründet sich häufig darauf, dass sehr viele Personen und mehrere Teams an der Umsetzung beteiligt sind. Dadurch kommt es nicht nur zu Unstimmigkeiten aufgrund der unterschiedlichen Sichtweisen, sondern auch zu Verständnis- und Kommunikationsproblemen.

Tagginprozess_AT_Internet

 

Tag Management

Die wichtigste Phase beim Implementieren eines Webanalysetools ist die Bedarfsanalyse und das darauf folgende Trackingkonzept. Da es normalerweise nicht ausreicht einfach nur den Standardtag des Webanaylsesystems einzubinden um alle gewünschten Werte zu messen, wird es genau an dieser Stelle kompliziert. Während der Webanalyst (intern oder extern) versucht alle Anforderungen in seinem Trackingkonzept innerhalb der gegebenen Rahmenbedingen der Variablen unterzubringen, hat das technische Team bei der Umsetzung meist die ersten Probleme. Um genau diese zu lösen gibt es Tag-Managementsysteme. Bei AT Internet, wo ein solches System bereits 2012 eingeführt wurde, nennt man es Soft Tagging.

 

Soft Tagging – 20% Tagging, 80% Konfiguration

Soft Tagging hat den Ansatz die Aufgaben der Marketingteams – Analysen und Auswertung der Daten- mit denen der Technik – Integration der Tags – zu verbinden. Das System funktioniert so, dass Marketingverantwortliche selbst die nötigen und gewünschten Variablen anlegen können und das System sie dann trotzdem erkennt. Man ist also nicht mehr auf das von AT Internet vorgegebene Variablenset oder deren Bezeichnung (xt_an für Visitor) angewiesen. Zudem müssen die Variablen nicht von Anfang an eingesetzt werden, sondern können auch nach der Initialisierung noch einfach eingefügt und an die aktuellen Bedürfnisse des Unternehmens angepasst werden.

 

Data Manager

Für die individuelle Anpassung der Variablen wurde ein extra Interface – der Data Manager – eingerichtet. Über diesen können die Variablen und Verarbeitungsregeln selbst eingestellt werden. Zudem können die gerade erstellten Variablen direkt überprüft und getestet werden. Dies erspart wiederum Zeit, die normalerweise mit Nachfragen und Kommunikation zwischen Technik und Marketing verloren geht. Die IT dagegen erleichtert es, da nicht mehr alle möglichen Anforderungen im Vorhinein vorausgesehen werden müssen.

Data_Manager_AT_Internet

Das Prinzip, das hinter dem Erstellen der Variablen steht ist relativ simple. Als Grundlage wird die URL der Seite genommen, auf der die Variablen gemessen werden sollen. Die darin enthaltenen Parameter werden isoliert und mit der jeweils gewünschten Analyse verbunden. Anschließend werden die Variablen gespeichert und veröffentlicht.

Data_Manager_Variablen_AT_Internet

Im Data Manager können neben Variablen auch Referenztabellen verwaltet werden. Auch dies hat den Hintergrund die Arbeit für sowohl IT als auch Marketingteam zu erleichtern. Wo bisher der Trackingcode angepasst werden musste kann nun direkt im Data Manager die Referenztabelle angelegt und verknüpft werden. Es ist also keine Hilfe der IT nötig.

 

Key Features des Soft Taggings

  • Individualisierbare Variablen: Erstellen von “aufgabenspezifischen” Variablen mit den unterschiedlichen zur Verfügung stehenden Werten und Referenztabellen, um die Auswertung der Analysen zu erleichtern.
  • Bedarfsgerechte Analysen: Baumstrukturen nach den individuellen Anforderungen erstellen und anpassen.
  • Tagging-Test: Testen und überprüfen des Features und der neuen Konfiguration in Echtzeit.
  • Monatliche Historie: detaillierte Informationen über die verschiedenen online veröffentlichten Zuteilungen (mit Informationen über Dimensionen und Nutzer-Accounts).

 

Weitere Informationen zum Soft Tagging findet ihr auf der Website von AT Internet.

Mobile_Analytics_AT_Internet

Multi Channel Analyse mit AT Internet

 

Multi Channel Kampagnen Analyse mit AT Internet

Im Büro mal schnell die News über den Büro-Rechner checken. In der Bahn mit dem Smartphone die Zeit vertreiben. Zu Hause mit dem Laptop  E-Mails abrufen und anschließend vor dem Fernseher mit dem iPad das Produkt aus der Werbung suchen. Das Phänomen ist inzwischen mehr als bekannt. Für Werbetreibende ist es besonders interessant zu analysieren, welcher der Kanäle am erfolgreichsten ist. Wie diese Analyse mit dem Tool von AT Internet funktioniert, erklären wir heute, im nächsten Teil unserer kleinen Serie über den französischen Webanalyse Anbieter.

Internetnutzung_über_verschiedene_Endgeräte_2013

Für eine Multi-Channel Kampagne ist kein zusätzliches Tagging notwendig, wenn man bereits seine Marketing-Kampagnen mit AT Internet erfasst. Sofern dies der Fall ist, kann man direkt über das Interface die Kampagnen zu Muti-Channel-Kampagnen zusammenführen und diese gemeinsam analysieren. Es lassen sich jedoch nur Marketing-Kampagnen bilden, die bereits mit dem DataManager oder über den Kampagnen-Tag von AT Internet gemessen werden.

 

Key Features der Multichannel Anlayse

  • “Traffic-Quellen” Dashboards bieten Überblick über die wichtigsten Trafficquellen
  • Eine HeatMap-Darstellung erlaubt Ihnen für bestimmte Zeiträume Quellen zu identifizieren, die für Traffic sorgen
  • Das Attributionsmodell bietet ein fortschrittliches Filtersystem um entscheidende Sequenzen hervorzuheben
  • Ein personalisierter Fokus auf die wichtigsten Trafficquellen
  • Detallierte Nachbereitung von Marketingkampagnen in allen Channeltypen
  • Unterschiedliche Marketingaktionen können zu einer Multi-Channel-Kampagne zusammengefasst werden
lunapark_office_cmyk_groß

luna-park ist jetzt offizieller Google Analytics Partner

 

“Die Auszeichnung als Google Analytics Certified Partner bestätigt luna-park die hohe Qualität der Web Analytics Leistungen und bietet zusätzliche Vorteile für die Kunden.”

So die Headline der heute erschienenen Pressemitteilung der Kölner Digitalen Marketing Agentur.

Bei dem Programm für zertifizierte Google Analytics-Partner handelt es sich um eine Zertifizierung für Agenturen und Unternehmensberatungen, die Dienstleistungen im Bereich Implementierung von Webanalyselösungen, Datenanalyse, Testen von Websites und Optimierung anbieten.

Durch die Aufnahme in den Google Analytics Partnerkreis erhält luna-park also den direkten Kontakt zum Google Team und kann damit natürlich auch wesentlich mehr Insiderwissen an die Kunden weitergeben. So nehmen die Analytics Consultants des 20-köpfigen Agenturteams zum Beispiel  an wichtigen Google Veranstaltungen teil und werden relevante Informationen direkt aus erster Quelle erfahren – für jeden Webanalysten also ein Traum :-) Zudem gibt es regelmäßige Schulungen, Webinare und den exklusiven Zugang zum Google Analytics Partnerforum.

Natürlich hat das Ganze nicht nur mit einer Menge Input und Infos aus erster Hand zu tun. Die Consultants mussten bereits im Vorhinein zeigen was sie drauf haben und wurden auf Herz und Nieren geprüft. Diverse Kundenbeispiele wurden in Form von Case Studies aufbereitet und im Zuge der Bewerbung nach Mountain View geschickt. Es folgte ein Telefoninterview, bei dem nochmals alle Beteiligten von einem der amerikanischen Google Mitarbeiter geprüft wurden. Bereits am nächsten Tag kam dann die Nachricht: ihr habt es geschafft!!

„Die Partnerschaft ermöglicht es uns nun, noch näher an den Google Analytics Entwicklungen zu sein und unseren Kunden damit weitere Vorteile bieten zu können,“ so Markus Vollmert, der die Kölner Digital Marketing Agentur gemeinsam mit seinem Bruder Christian Vollmert leitet und den Analytics Bereich verantwortet. „Unser komplettes Portfolio im Web Analytics wurde genau geprüft und zahlreiche Projekte unter die Lupe genommen. Nach diesem intensiven Austausch ist es natürlich eine positive Bestätigung der Arbeit unseres Teams.“

 

DAALA Berlin

 

Erster DAALA in Berlin dieses Jahr

 

Der erste der Digital Analytics Association Late Afternoons in diesem Jahr findet am Dienstag, den 28. Januar, in der “Volksbar” in Berlin Mitte statt.

 

Die Veranstaltung richtet sich an alle, die im Bereich Web- und Digital Analytics, Online Marketing Optimierung, Daten-Integration und Big Data, Social Media, Mobile, sowie verwandten Gebieten tätig sind. Natürlich sind auch interessierte Gäste aus anderen Berufsfeldern herzlich willkommen.

Die Teilnahme ist kostenlos, lediglich eine vorherige Anmeldung wird erbeten. Es werden 1-2 kurze Präsentationen vorgetragen (ab ca. 19h), danach besteht die Möglichkeit zum Netzwerken und dem Austausch untereinander.

Der DAALA am 28. Januar wird von Optimizely gesponsort. Der Vortrag lautet: “10 Einwände zum Thema Conversion Optimierung und wie man diese widerlegt””

Mehr zum Veranstaltungsort: http://www.volksbar-berlin.de/start.htm

 

Anmelden könnt ihr euch über das xing-Event: https://www.xing.com/events/daala-berlin-digital-analytics-after-work-event-1339068

 

2013-12-19_115156

Einsatz einer API – ein Beispiel von AT Internet

„Eine Programmierschnittstelle (englisch application programming interface, API; deutsch Schnittstelle zur Anwendungsprogrammierung) ist ein Programmteil, der von einem Softwaresystem anderen Programmen zur Anbindung an das System zur Verfügung gestellt wird.“                            Quelle: Wikipedia

 

Es gibt zahlreiche ökonomische Modelle für APis, darunter kostenlose, gebührenpflichtige und limitierte. Neben Ebay, Amazon, salesforces, Googlemaps, facebook und twitter gab es im Oktober 2012 fast 8.000 APis, also 100% mehr als das Jahr zuvor (Quelle: fabelnovel, 6 Gründe, warum APis ihr Unternehmen neu formen, November 2012). Bei der Entwicklung der Lösungen von AT Internet nahmen APis schon immer eine zentrale Stellung ein, da es mit ihnen möglich ist die vielen verschiedenen Konfigurationen, Automatisierungen, Datenexporte und -importe zur Verfügung zu stellen.

 

Beispiel Criteo

Als Beispiel soll criteo, einer der technologischen Partner von AT Internet, dienen. Die beiden Anbieter sind durch AT Connect Retargeting miteinander verbunden. Aufgrund der Verbindungen zwischen den beiden Lösungen profitieren Kunden von reduzierten Kosten und brauchen weniger Zeit für das implementieren einer Kampagne. Kampagnen von Criteo werden im Konfigurationsbereich der Lösung von AT Internet automatisiert deklariert. Die Analysen von criteo stehen im AT Internet Interface in Echtzeit zur Verfügung, was bedeutet, dass Nutzer in der Lage sind die Ergebnisse unmittelbar einzusehen.

 

 

 

Den Datenfluss nach Innen und Außen kontrollieren

 

Datenimporte

Um das Lesen von Daten zu vereinfachen, erweitern manche Verbindungen die Webanalyse mit neuen Variablen von von unseren Partnern. Diese Variablen werden direkt in das Tool von AT Internet importiert, können also neben den Daten aus der Webanalyse konsultiert werden. Zur Verdeutlichung eine Verbindung zwischen der Webanaylse-Plattform und einer Adserver-Lösung (AT Connect Adserver AdPerf): zusätzlich zum normalen Tagging werden Metriken von AdPerf mit der Bezeichnung Post View importiert. Mit einer Gruppe spezifischer Variablen misst diese Metrik den Einfluss einer Kampagne, indem eine komplette Ansicht des Besucherpfads angezeigt wird. Nutzer können den Einfluss erkennen, den Anzeigenkampganen auf Internetnutzer haben, welche Werbebanner sehen, bevor sie eine Seite besuchen. Dies gilt für jede Conversion, egal von welcher Traffic-Quelle. Diese Informationen können verwendet werden um die Verwaltung der Investitionen in Werbung zu verbessern und das Budget auf die Werbekombination zu verteilen, die am besten performed.

Datenexporte

Durch die Integration von Drittanbieter-Daten ein eine Webanalyse-Lösung bekommen Nutzer mehr Komfort. Es ist allerdings manchmal notwendig den Vorgang umzukehren und Daten aus dem Webanalyse Tool in die Lösung von Drittanbietern zu exportieren um die dort weiter zu verarbeiten. Durch die Zusammenarbeit mit Partnern ist dies bei AT Internet möglich. Durch die Kooperation mit Partnern aus unterschiedlichen Bereichen ist es möglich Daten aus dem Webanalyse Tool sowohl in andere Tools als auch in interne Werkzeuge zu integrieren. Das dafür entwickelte Tool heißt Data Query. Es ist ein Tool, das Nutzern erlaubt Reports mittels personalisierbaren Templates zu strukturieren und exportieren. Die Templates können in verschiedenen Formaten exportiert werden, 2 davon nutzen die API:

  • DER IQY-Connector, der verwendet wird um Dashboards zu erstellen und direkt aus Excel heraus aktualisiert werden kann
  • Die REST URL, die erstellt wurde, um Daten automatisch in die Lösung eines Drittanbieters zu importieren

 

 Automatisches Performance-Management

Eine der wichtigsten Anfragen von Marketingteams hängt mit der Frage zusammen, wie sie ihre Aktivitäten verwalten und ein präzises Reporting implementieren können, damit es einfach wird den ROI jeder eingesetzten Marketingaktion zu messen. Das kann schnell sehr zeitaufwändig werden und muss oft auf regelmäßiger Basis manuell durchgeführt werden. Um diese Aufgabe wesentlich zu vereinfachen und menschliche Fehler zu vermeiden, ist es notwendig, den Prozess so weit wie möglich zu automatisieren, damit sich die Marketingteams auf die Analyse der Daten konzentrieren können. Data Query enthält eine innovative und einfach zu verwendende Funktion: Einen Connector, der Excel-Dateien, in unserem Fall Dashboards, direkt miz der API verknüpft. Der Connector ruft die gesammelten Webanalyse-Daten ab, damit sie direkt in eine Excel-Datei integriert werden können. Diese Funktion ist speziell an regelmäßige Reports, die Informationen von fortlaufenden Zeiträumen enthalten, angepasst. Jeder Nutzer kann das Dashboard einfach an seine Bedürfnisse anpassen, ohne dafür Hilfe von technischen Teams zu benötigen.

 

Online- und Offline Daten kombinieren

Wie können einzelne Individuen gezielt angesprochen werden? Indem man die Beschränkungen der Onlinedaten überwindet. Das heißt eine Webanalyse-Lösung mit dem CRM-Tool eines Unternehmens verbinden. Diese Anpassung erlaubt es Unternehmen Services anzubieten, die an das Profil eines jeden Kunden oder potentiellen Kunden angepasst sind. Dafür werden alle auf den verschiedenen Tools gesammelten Daten kombiniert. Online- und Offline-Daten können direkt in der Webanalyselösung kombiniert werden. Daten aus dem CRM identifizieren jeden Visitor und weisen diesem spezielle Kriterien zu. Der Vorteil diese Daten zu importieren ist, dass dadurch die genaue Segmentierung der importierten Daten möglich ist. Damit wissen sie zum Beispiel über das Geschlecht, Alter, soziale Einordnung usw. Bescheid. Auf der anderen Seite können die von einer Webanalyse-Lösung gesammelten Daten auch in ein CRM-Tool exportiert werden. Nehmen wir eine Versicherungsgesellschaft, die ihren Umsatz auf der Website steigern will. Um erfolgreich zu sein, hat das Unternehmen mehrere Kampagnen auf verschiedenen Marketing-Kanälen implementiert (Affiliate, gesponserte links, soziale Netzwerke, Newsletter, etc.). mit einer Analyselösung für Multichannel, kann das Unternehmen diese Daten in sein CRM-Tool einspeisen, das die Grundlage für die Kundendatenbank bildet. Kundenprofile können damit segmentiert und Angebote speziell auf das beobachtete Nutzerverhalten abgestimmt werden.

 

Weitere Informationen zur API von AT Internet findet ihr hier: http://www.atinternet.com/de/produkt/web-analytics/verbindungen/

7567931_f7764528cb_m

Webtrekk kauft Divolution

 

Das Portfolio von Webtrekk wird um Advanced Testing, Conversion-Optimierung und Onsite-Targeting erweitert. Die Marke Divolution bleibt bestehen, Michael Beck bleibt Geschäftsführer

Als strategische Maßnahme der Neuausrichtung, die auf der dmexco bekannt gegeben wurde, akquiriert Webtrekk den Spezialisten für Advanced Testing und intelligente Optimierung der Kundenansprache Divolution – Digital Revolution Technology GmbH zu 100 Prozent.

Die Produkte beider Unternehmen werden auf technologischer Ebene innerhalb des nächsten Jahres mit einem Best-of-Breed-Ansatz verknüpfbar werden. Die mächtige Rohdaten-Engine von Webtrekk wird bei Divolution eingesetzt werden, um Testauswertungen und granulare Echtzeitsegmentierungen beim Advanced Testing zu verbessern.
Einen ausführlichen Bericht zur Übernahme findet ihr bei Ralf Haberich.
besuchs-segmentierung mit at internet

Besucher Segmentierung mit AT Internet

Zu einer ordentlichen Analyse der Website gehört das segmentieren. Nur durch die Betrachtung bestimmter Besuchergruppen lassen sich die unterschiedlichen Online Marketing Maßnahmen gezielt optimieren.

Bei dem Webanalyse Anbieter AT Internet ist die Segmentierung ein eigener Teil des Tools – der DataExplorer ermöglicht es nicht nur die vordefinierten Segmente anzuwenden, sondern über benutzerdefinierte Metriken eigene zu erstellen und diese über den DataQuery beliebig zu exportieren.

Key Features des Data Explorers

Zunächst einmal die Hauptfunktionen des DataExplorers im Überblick:

  • Leistungsstark: Mit Antwortzeiten von unter einer Minute selbst bei Datenvolumina mit über einer Milliarde Page Impressions.
  • Keine Grenzen: Segmentierung der Daten für alle verfügbaren Metriken und auf verschiedenen Analyse-Ebenen. Erstellung kombinierter Auswertungen für alle Arten von Daten.
  • “Visitorzentriert”: Messung der Beteiligung der Besucher durch Analyse der Besuchergruppen sowie Isolierung und Vergleich von Nutzerprofilen für bestimmte Zeiträume.
  • Erstellung von Segmenten “on the fly”: Erstellen Sie Segmente entsprechend Ihrer Anforderungen in dem Moment in dem Sie die Daten benötigen und sehen Sie unverzüglich die Ergebnisse.
  • Echtzeit auf die Minute: Verfeinerung der Analysen so weit wie möglich, z. B. indem Sie die Daten der letzten Minuten segmentieren.
  • Intuitive Bedienung: Die an den Analyzer angelehnte Oberfläche erleichtert die Bedienung.
  • Kollaboration: Funktionen zur vielseitigen Nutzung der Segmente (z.B. Shareing, Export).
  • Multi-Plattform-Struktur: Die technische Architektur der neuesten Generation, bietet eine hohe Leitungsfähigkeit der Segmentierung, die je nach Anfrage eine verfügbare Technologie verwendet (u.a. Microsoft und Oracle).
  • Dashboards und Berichte: Unterstützung der Entscheidungsfindung durch die Integration von Segmenten in Dashboards und durch die Erstellung regelmäßiger Berichte.
  • API und Datenanbindung: Exportmöglichkeit der segmentierten Daten per API in jede beliebige Oberfläche.

 

Der Unterschied zwischen Besuch und Besucher

Grundlegend für die Segmentierung ist das Verständnis der Unterscheidung zwischen Besuch und Besucher aus einer Website.

Ein Besuch ist definiert als eine Session auf einer Website. Bei AT Internet wird der Besuch nach 30 Minuten Inaktivität beendet.

Ein Besucher ist ein Gerät oder ein Browser. Es handelt sich hierbei nicht um eine reale Person. Ein Besucher kann innerhalb einer bestimmten Zeit mehrere Besuche durchführen.

 

Die Besucher-bezogene Sichtweise

Was man sich immer im Hinterkopf behalten sollte während der Analyse ist, dass:

  • der Besucher technisch gesehen nichts weiter ist, als eine ID
  • um aus der ID eine Person zu machen ist es nötig den Besucher so lange wie möglich zu markieren. Hierfür werden normalerweise Cookies verwendet
  • die Cookie ID wird gelesen und mit den bereits vorhandenen Daten abgeglichen, um zu erkennen, ob es sich um einen bereits bekannten Besucher handelt oder nicht
  • wenn der Besucher Cookies löscht kann er bei einem erneuten Besuch nicht als wiederkehrender Besucher erkannt werden

Aus diesen Voraussetzungen ergeben sich folgende Punkte, die bei der Auswertung beachtet werden müssen:

  • Cookie Domain (third- oder first-party cookie) bei variierender Cookie-Ablehnungsrate
  • Geräte können von mehreren Personen genutzt werden (z.B. eine Familie pro Computer)
  • Eine Person kann mehrere Geräte nutzen

 

Besucher Tracking und Analyse

Die Analyse von AT Internet baut darauf auf, dass der Besucher anhand des AT Internet Cookies, oder aber des fingerprints erkannt wird. Gibt es einen Login-Bereich, wird dem Besucher eine eindeutige Besucher-ID zugeordnet. Damit wird er bei jedem Login eindeutig erkannt und dieser ID zugeordnet. Auf diese Weise ist auch ein multi-device-tracking möglich.

Es gibt bei AT Internet zwei Möglichkeiten zur Segmentierung der Besucher. Zum einen die Segmentierung von Besuchs-Reihen und die von Besucher-Reihen.

 

Segmentierung von Besuchen

Segmentierung der Daten auf Basis einer Anzahl von Besuchen, die innerhalb eines bestimmten Zeitraums stattgefunden haben und alle vordefinierte Merkmale aufweisen

 

 

Die Segmentierung von Besuchen ist  zum Beispiel sinnvoll um die folgenden Fragestellungen zu beantworten:

  • Welche Seite wurde am meisten aufgerufen, wenn Besuche über eine gesponserte Link-Kampagne kamen?
  • Sind Besuche mit einer Fehlerseite in einem bestimmten Browser häufiger, als bei anderen Browsern?
  • Ist die Conversion Rate für Besuche, welche die interne Suche nutzen, besser als für solche, die dies nicht tun?
  • Kommen Besuche aus europäischen Ländern (Deutschland ausgeschlossen) über bestimmten Quellen die ich mir zu Nutzen machen kann?

 

Segmentierung von Besuchern

Die Besucher Segmentierung basiert auf dem Kohorten-Ansatz. Eine Kohorte ist ein Set von Besuchern die ein gemeinsames Besuchsmerkmal innerhalb eines bestimmten Zeitraums gemeinsam haben. Kohorten / Besucher Segmente basieren bei AT Internet auf Cookies (Besucher) oder identifizierten Besuchern (Variable xtan).

Wichtig ist, dass eine Anfrage immer alle Besuche einer definierten Kohorte ausgibt. Das Hauptziel ist es das Verhalten der Besucher über einen bestimmten Zeitraum hinweg zu verstehen.

Die Granularität der Analyse bleibt der Besuch:

  • ein Segment wird immer aus allen Besuchen eines Besuchers bestehen, der sich in einem seiner Besuche das erwartete Verhalten ausweist
  • Besucher, die aufgrund einer Kombination aus Besuchen den Kriterien entsprechen, werden nicht mit in die Kohorte einbezogen

Beispiel: Die definierte Kohorte umfasst alle Besucher, die in im März mehr als 100€ Umsatz generierten.

  • Besucher A macht 2 Besuche, bei eine dieser Besuche beträgt der generierte Umsatz > 100€                                              –> Besucher A wird in die Kohorte mit einbezogen
  • Besucher B macht 3 Besuche und generiert jedes Mal einen Umsatz von 40€ (insgesamt 120€ in diesem Monat)       –> Besucher B wird nicht mit in die Kohorte einbezogen

Als Grundlage für die Identifizierung eines Besuchers dient entweder die Cookie ID oder die Besucher ID (bei Login). Es ist nicht möglich die Cookie ID mit der Besucher ID zu kombinieren. Zudem ist eine Kohorte höchstens für einen Zeitraum von 31 Tagen (sowohl aufeinander folgend, als auch nicht aufeinander folgend) definierbar.

 

 

Die Segmentierung von Besuchern ist  zum Beispiel sinnvoll um die folgenden Fragestellungen zu beantworten:

  • Kommen Besucher, die die Seite über einen Newsletter aufgerufen haben, in den folgenden Wochen auf die Seite zurück?
  • Wie haben sich die besten Käufer in der Kauf-Periode in den Wochen vor dem Kauf verhalten?
  • Welche Quelle eignet sich am besten um interessierte Besucher zu generieren, die auch über die Zeit wieder zurück kommen?
  • Kommen Besucher, die ein bestimmtes Video auf der Seite angesehen haben, zurück um andere Videos anzusehen? Und wenn ja, welche Videos schauen sie sich an?

 

Gemeinsamkeiten und Unterschiede

Die beiden Segmentierungsmöglichkeiten sind unabhängig voneinander, können aber nicht gleichzeitig auf dieselbe Analyse angewandt werden.

Gemeinsamkeiten:

  • Die Standardvoreinstellung bestimmt, dass ein Segment maximal auf eine Periode von 45 Tagen angewandt werden kann (gerechnet ab der Aktivierung im DataExplorer)
  • Die Analysen, auf welche die Segmente angewandt werden können sind identisch

Der Unterschied zwischen den beiden Typen ist, dass Besuchs-Segmente auf eine Periode in Echtzeit angewandt werden kann. Dies ist mit der Besucher-Segementierung nicht möglich.

 

Analytics_Summit_2013

Analytics Summit 2013

 

 

Auch dieses Jahr findet wieder der Analytics Summit statt. Heute in einer Woche, dem 21.November 2013 im Curio-Haus in Hamburg. Eine Anmeldung ist noch möglich!

Der Analytics Summit deckt sämtliche Themen in Bezug zu Google Analytics, aber auch allgemein zur Web Analyse ab. Tipps und Tricks für die Implementierung, Erstellung sinnvoller KPIs, operative Nutzung in Unternehmen verschiedener Branchen und Größen, mobile Tracking, social Tracking und Verknüpfungen mit anderen Produkten. Auch Neuigkeiten wie Universal Analytics, BigQuery, Datenimport, etc. kommen nicht zu kurz.
Sämtliche Themen werden abgedeckt, sowohl Business- als auch Marketing- und Technik-Themen.

Referenten 2013

 

Dirk Schridde

Seit 2012 ist Dirk Schridde bei kalaydo.de für alle Themen rund um die Webanalyse verantwortlich. Neben gängigen Reporting- und Analysetätigkeiten beschäftigt er sich vor allem mit dem systematisierten, bedarfsgerechten und innovativen normierenden Ausbau und die fortlaufende Optimierung aller Google-Analytics-Accounts. Beginnend 2008 war Dirk Schridde neben seiner Redaktions- und Content-Management-Tätigkeit bei der Music Networx AG immer auch für die Webanalysen und das Reporting zuständig. Ab 2010 übernahm er hauptberuflich Aufbau, Pflege und Ausbau des Web- und App-Trackings bei simfy, parallel mittels Webtrekk und Google Analytics.

 

Jorge Reyes

Jorge Reyes ist seit Juli 2012 Head of Online Marketing bei Myphotobook und leitet dort das SEM, SEO und Affiliatemarketing europaweit aus Berlin. Zuvor war er als Head of Performance Marketing bei DailyDeal tätig, die später von Google akquiriert wurde und seit 2013 wieder in den Händen der Gründer ist. Seit 2002 hat er die verschiedensten Online-Marketing-Disziplinen operativ und als Teamleiter verantwortet und hat die stetige Weiterentwicklung dieser aktiv verfolgt. Seine Interessensschwerpunkte liegen auf den Themen SEM, Webanalyse, Tracking und der Landingpage-Optimierung.

Michael Buschmann

Michael Buschmann ist geschäftsführender Gesellschafter der takevalue Consulting GmbH in Darmstadt. Die in 2012 gegründete Beratung unterstützt Unternehmen bei der Optimierung Ihrer Online-Marketing-Aktivitäten. Zuvor war Michael als Bereichsleiter bei der Deutschen Telekom AG, Products & Innovation, für den Aufbau und die Ausrichtung eines zentralen Online-Marketing-Bereichs verantwortlich. Michael verfügt über eine kaufmännische Ausbildung und beschäftigt sich seit 1996 ununterbrochen beruflich mit dem Internet. Seither konnte er bei Arbeitgebern wie Dresdner Bank AG, ProSieben Sat1 Media AG, Letsbuyit.com, Kirch New Media und zuletzt bei der Deutschen Telekom umfangreiche Erfahrungen in den Bereichen Electronic Payments, Media, E-Commerce, Mobile Internet, Web Search und Online Marketing sammeln.

Nico Hesser

Nico Hesser ist Analytics & User Intelligence Specialist für eBay Kleinanzeigen und dabei für die Themen Tracking, Data Mining und Product Analytics verantwortlich. Er ist seit 2011 bei eBay Kleinanzeigen und war vor seiner aktuellen Tätigkeit für die Steuerung und Analyse des Mobile Marketings und mehrere andere Marketingprojekte verantwortlich. Zuvor hat er an der TU Ilmenau Angewandte Medienwissenschaft mit Schwerpunkten auf Medienmanagement und Forschungsmethoden studiert.

Stefan Rabsch

Stefan Rabsch ist seit 2010 bei eBay Germany, erst als SEO & Product Analtics Manager und seit 2013 SEO Manager. Zuvor war er Head of SEO bei der Zalando GmbH und verantwortlich für die Suchmaschinenoptimierung für Zalando.de, zalando.nl, zalando.fr, zalando.it und zalando.co.uk. Des Weiteren ist Stefan Rabsch erfolgreicher Fachbuchautor, er hat zusammen mit Esther Düweke das Buch “Erfolgreiche Websites” geschrieben, das bereits in der zweiten Auflage verfügbar ist.

 

René Nijhuis

René Nijhuis entered the Internet business in 1999, when he became the manager of the Dutch Careersite Jobnet. Having survived the first Internet bubble of 2001 and returned the business to profit he left that company to start working for Google Netherlands in 2005. That was about the same time that Google acquired Urchin and launched Google Analytics later in the year. At the first opportunity, René joined the Analytics team where he helped rolling out the product in the Benelux and Scandinavian countries and consulted large enterprises in their adoption. In 2009 René made a move to his current employer Netsociety (soon to be rebranded iProspect) as manager of the Business Intelligence team. His team focuses on consultancy around webanalytics, dashboarding and data analysis and has clients, the likes of Philips Electronics, KLM, Nikon Europe, Thomas Cook Europe, Wieden & Kennedy, UPC, THULE and ABN AMRO.

 

Simon Ritter

Simon Ritter ist seit Juli 2013 CMO für Europa und Latein Amerika bei home24.de. Von 2009 bis 2013 war er bei Rocket Internet als Global CMO verantwortlich für sämtliche internationalen Ventures in EU, LATAM, APAC, CIS und hat damit zu der erfolgreichen internationalen Expansion von Rocket Internet beigetragen. Vor dieser Zeit hat Simon als Key Account Mangager/Head of Business Develpoment bei Global Media/Big Mountain Media gearbeitet.

 

Tom Alby

Tom Alby, 1972 in Duisburg geboren, scheiterte zunächst als Profimusiker, bevor er sein Studium der Anglistik, Germanistik und Informatik in den 90er Jahren mit der Erstellung von Webseiten finanzierte. Früh verlor er sein Herz an die Suchmaschinen und war bereits während der Magisterprüfungen für die technische Entwicklung derselben bei Lycos Europe verantwortlich, darunter HotBot und später Fireball. Nach dem Rollout der europäischen Suchmaschine Seekport arbeitete er an der Relevanz der internationalen Suchprodukte von Ask.com und als Director Search bei der Hamburger Agentur uniquedigital. Außerdem hatte er Lehraufträge an der HAW Hamburg und an der BiTS Iserlohn. Seit Februar 2011 arbeitet Tom Alby bei Google als Head of Performance Agency. Da das Web nicht nur aus Suchmaschinen besteht, hat Tom Alby neben einem SEO-Buch das erste deutschsprachige Buch über das Web 2.0 geschrieben, ein Buch über professionelles Blogging mit WordPress sowie zuletzt über das Mobile Web.

 

Timo Aden

Timo Aden ist Gründer und Geschäftsführer der Trakken Web Services GmbH. Als Spezialist für Web Analyse und Conversion Optimierung ist Trakken eines der führenden Unternehmen in diesem Bereich und beispielsweise von Google als Google Analytics Certified Partner anerkannt. Trakken berät Kunden neutral bei sämtlichen Themen der Web Analyse und setzt Verbesserungen auf den Websites der Kunden im Bereich Conversion Optimierung direkt im Full Service Ansatz um. Mit der innovativen SaaS Report Automation Web Controlling Dashboard Lösung TrakkBoard hat Trakken eine eigene Technologie entwickelt und vertreibt dieses international. Timo Aden betreibt zudem den größten deutschsprachigen Web Analyse Blog (www.timoaden.de), ist Dozent an der FH Würzburg und Bestseller-Buchautor des ersten deutschsprachigen Google Analytics Buches. Auf nationalen und internationalen Konferenzen tritt er regelmäßig als Speaker auf. Vor der Gründung von Trakken war Timo Aden bei Google verantwortlich für Google Analytics in Deutschland, Österreich, Schweiz und Skandinavien. Zuvor arbeitete er als Produkt Manager bei dem Online Vermarkter AdLINK. Timo Aden hat in Lüneburg BWL studiert und durch diverse Auslandsaufenthalte (China, Schweden, Guatemala) internationale Erfahrungen gesammelt.

 

Nikhil Roy

Nickhil is a Product Manager of the Google Analytics Team in Mountain View, California for already 3 years. He has a passion for bridging the gap between business requirements and technical capabilities and is eager to improve Google Analytics every day. He started his career as a founder of the finanical plattform rudder.com. He studied at the State University of New York.

 

 Jan Ippen

Jan Ippen, Gründer und Geschäftsführer bei Ippen Digital GmbH, liefert Verlagen mit dem hauseigenen CMS eine optimierte Publikationsumgebung die nahtlos von kleinsten Auftritten bis hin zu sehr großen skaliert. Das Portal ist eine SaaS-Lösung die kontinuierlich um weitere aktuelle Features ergänzt wird. Dazu gehört natürlich auch ein (Web-)Analytics und Big-Data-Bereich. Vor der Ippen Digital hat er die markt-gruppe mit aufgebaut und die Portale markt.de und autoanzeigen.de gegründet. Begonnen hat alles mit dem Auf- und Abbau der Versum.de AG in Düsseldorf.

Katharina Kiéck

Die Trend- und Innovationsstrategin hat ihren Schwerpunkt in den Bereichen Digitalisierung, Web of Things und E-Commerce. Bei STURM und DRANG arbeitet Katharina Kiéck in den Bereichen Foresight und Trends und versteht sich besonders auf die Übertragung neuester Innovationen und Trends in den jeweiligen Kundenkontext. Darauf aufbauend entwickelt sie interne und externe Systeme für kollaboratives Trendmanagement. Außerdem berichtet Katharina Kiéck für internationale Agenturen wie Springwise und Trendwatching.com über neueste Entwicklungen und Microtrends aus allen Ländern. Die Techniken des Scoutens vermittelt sie an der Universität Hamburg und als „digitales Enabling“ in diversen Unternehmen. Auf ihrer Suche nach Trends entstand in Kooperation mit dem Nailab Incubation Lab die erste Sub-Sahara-Trendagentur in Nairobi (Kenia), die Katharina weiterhin betreut. Zuvor studierte Katharina Kulturwissenschaften, Anglistik und Medienkunde.

 

Tobias Aubele

Tobias Aubele ist wissenschaftlicher Mitarbeiter an der Hochschule für angewandte Wissenschaften Würzburg-Schweinfurt. Er ist dort Dozent im Bereich E-Commerce in den Studiengängen E-Commerce, Informatik und Wirtschaftsinformatik. Parallel dazu ist er Doktorand im Bereich Konsumpsychologie an der University of Gloucestershire, UK. Zuvor war er mehrere Jahre in einem internationalen Multi-Channel-Unternehmen in diversen Positionen tätig, zuletzt als Bereichsleiter E-Commerce.

 

Michael Sinner

Michael Sinner ist seit Oktober 2012 als Business Intelligence und Web Analyse Developer bei Gruner + Jahr tätig. Neben der Implementierung von Web Analyse Systemen bei stern.de, brigitte.de, etc. betreut er die Integration digitaler Daten in ein zentrales Data Warehouse. Dazu gehören der Ausbau von ETL-Strecken, die Einbindung eines Tag Management Systems sowie die Integration neuer Technologien wie Universal Analytics. Seit 2008 hat er den Schwerpunkt in Online Marketing und arbeitete in unterschiedlichen Agenturen in den Bereichen SEO, SEA und diverse Online Marketing Kanäle.

 

Michael Sandbote

Seit 2012 ist Michael Sandbote Leiter des Business Intelligence Competence Centers (BICC) bei Gruner + Jahr. Er ist dort verantwortlich für die technische Konzeption und Entwicklung von Business Intelligence-Systemen und den Aufbau eines zentralen Data Warehouse zur Vernetzung von Online und Nicht Online Daten aus unterschiedlichen Quellen. Michael hat Wirtschaftsinformatik studiert. Er entwickelt und verantwortet seit 2002 als Softwareentwickler, Projekteiter und Teamleiter BI-Systeme. Seine Interessensschwerpunkte liegen auf den Themen Big Data, Enterprise Data Warehouse und Webanalyse.

Remi van Beekum

Als Chief Innovation Officer bei Storm Digital Marketing Consultants (Groningen, Niederlande) ist Remi verantwortlich für die Qualität und Entwicklung der Dienstleistungen. Er arbeitet bereits über 10 Jahre im Bereich Online Marketing. Vorher war er bei Traffic4u verantwortlich für Dienstleistungen rund um den Bereich SEO, CRO und Web Analytics. Bei dem Unternehmen V12 entwickelte und steuerte er mobile Apps und Websiten.

 

Lennart Paulsen

Lennart Paulsen ist Geschäftsführer der Trakken Web Services GmbH und ist für die Produktentwicklung verantwortlich. Seit 2006 ist er im Online Marketing aktiv und hat zunächst bei Google Deutschland gearbeitet bevor er in 2008 zusammen mit Timo Aden Trakken gegründet hat. Als bekannter Berater für Online Marketing hat er in den letzten Jahren viele bekannte kleine und große Unternehmen bei der Optimierung von Marketing-Maßnahmen und Kaufprozessen unterstützt. Er ist regelmäßig Speaker bei diversen Online Konferenzen in Deutschland und Europa. Lennart Paulsen hat in Hamburg, Sydney und Bern BWL studiert und dabei durch diverse Auslandspraktika internationale Erfahrungen gesammelt.

 

Fabian Schlupp

Fabian Schlupp ist seit 2012 Web Analytics Consultant bei Trakken Web Services und betreut internationale Kunden bei allen Fragen rund ums Webtracking – von der Implementierung über die Datenanalyse bis hin zur Etablierung einer Webanalysekultur im Unternehmen. Davor war er für andere Online-Beratungsunternehmen vorrangig im SEO- und SEA-Bereich tätig und ist hierüber zur Webanalyse gekommen. Zuvor hat er Volkswirtschaftslehre an der Universität Hamburg und an der Barcelona Graduate School of Economics studiert.

 

Sebastian Pospischil

Sebastian beschäftigt sich seit Anfang 2000 mit Online Marketing & E-Commerce. Bereits neben seinem Studium der technisch orientierten BWL gründete er in 2003 kunstform?! BMX Shop einen BMX Online Versand. Seit 2008 arbeitet er bei der e-wolff Consulting GmbH. Nachdem er dort zunächst in den Bereichen SEA, SEO und Social arbeitete spezialisierte er sich recht früh auf Webanalyse und Testing. Verantwortlich für alle Conversion relevanten Google Zertifizierungen bei e-wolff (GACP, WOCP, GCP) ist Sebastian heute Head of Analytics und leitet ein mehrköpfiges Team. Außerdem ist Sebastian Dozent für Webanalyse bei der Social Media Akademie.

 

Das Programm zum Analytics Summit 2013 gibt es hier: http://www.analytics-summit.de/agenda/

Weitere Infos gibt’s auf der Seite vom Analytics Summit

Rich Media Tracking AT Internet

Rich Media Tracking mit AT Internet

AT Internet ist ein französicher Webanalyse Anbieter. Wie stellen kurz vor, wie das Rich Media Tracking mit dem Tool funktioniert.

Rich Media (angereicherte Medien) ist eine Verbindung von Bildern, Texten und Sounds zur Generierung synchronisierter Multimedia-Inhalte. Die angereicherte, ergonomischere Schnittstelle bietet dem Benutzer eine interaktive Navigation, die einen anerkannten Marketingvorteil bringt.

Das Modul Rich Media unterstützt bei der Messung des Zugriffs auf Video-, Audioinhalte und Animationen (Präsentationen in Form von Folien) und Podcasts.

Wichtige Ziele

Messung der Effizienz von Multimedia-Inhalte

Inhalte, Videos, Audios, Animationen und Podcasts werden nach Themen gruppiert, und man erhält eine globale thematische Analyse der Elemente nach Kapiteln. Das Anlegen der Themen erfolgt bei der Markierung. Es können bis zu drei Analyse-Ebenen angeben werden. Das Kontextmenü listet Ihre Themen auf und liefert Traffic-, Verwendungs-, Wiedergabe- und Aktionsanalysen für die Themen Intern/Extern (Rich Media). Die angebotenen Messungen geben Aufschluss über die Gewohnheiten der Besucher, die Anzahl der Besucher, der Wiedergaben oder Verwendungen, ihre Dauer und die ausgeführten Aktionen, die Buffering-Dauer.

Detailanalyse der gemessenen Inhalte

Mit dieser Analyse erfährt man, welche Aktionen von Besuchern mit den Online-Inhalten auf der (internen) Website oder mit Inhalten durchgeführt wurden, die gemessen werden sollen und die von einer anderen (externen) Website bereitgestellt werden. Darüber hinaus ist es möglich, die Inhalte in Hinblick auf ihre Positionierung, d.h. ob sie als Hauptinhalte oder Post-Rolls gezeigt werden, zu analysieren. Man erfährt mehr zur Wiedergabe- und Nutzungshäufigkeit (aufgeschlüsselt nach Art der Inhalte) und kann die Aktualisierungsstrategie entsprechend optimieren.

Podcasts

Die Analyse von Podcasts zeigt, wie viele Artikel oder RSS-Feeds heruntergeladen oder aktualisiert wurden. Die Daten über den Aufruf des Artikels stehen jedoch nicht zur Verfügung, da er extern erfolgt.

Analyse der Bereitstellungsart

Die Bereitstellungsanalyse liefert Informationen über den Abruf Ihrer Dokumente nach Bereitstellungsart: Video, Audio oder Animation. Man kann sich in einer Tabelle kombinierte Analysen anzeigen lassen, den globalen Abruf mit dem Verhalten der Besucher bei einem bestimmten Inhaltstyp mit einem anderen vergleichen und so feststellen, welches Format präferiert wird, um möglichst viele Besucher zu erreichen. Durch den Abgleich dieser Informationen mit den Daten zur Häufigkeit der Aufrufe lassen sich die Ziele in puncto Abdeckung und Wiederholung erreichen.

Ausgeführte Aktionen

Diese Analyse verschafft einen allgemeinen Überblick über die Gesamtanzahl der Wiedergabeaktionen (Play, Pause, Stop) sowie über weitere Aktionen des Besuchers (Sharing, Aufnahme in die Favoritenliste usw). Aktionen sind Operationen, die Besucher mit den auf der Website zur Verfügung stehenden oder über eine externe Website bereitgestellten Multimedia-Inhalten ausführen. Diese Aktionen geben Aufschluss über das Nutzungsverhalten hinsichtlich Ihrer Videos, Audios und Präsentationen. Für jede Aktion wird die Gesamtzahl der Besucher und Aktivitäten sowie der Aktivitäten pro Besucher angezeigt.

Messungen

Folgende Informationen über das Verhalten der Nutzer stehen zur Verfügung:

  • Anzahl der Besucher mit Wiedergaben oder Nutzungen
  • Nutzungsanzahl
  • Nutzungsanzahl/Besucher mit Nutzungen
  • Besucher – mit Wiedergabe (Rich Media)
  • Anzahl der Wiedergaben
  • Anzahl der vollständigen Wiedergaben
  • Anzahl der Wiedergaben/Besucher (mit Wiedergabe)
  • Vollständige Wiedergaben pro Besucher (mit Wiedergabe)
  • Durchschnittliche Wiedergabezeit
  • Playback progress rate
  • Gesamtdauer des Inhalts
  • Ausfüllquoten
  • Besucher (mit Wiedergabe)/Besucher (mit Nutzung) (%)
  • Anzahl der Aktionen (Sharing, Download, Versenden per E-Mail, Hinzufügen zu den Favoriten)
  • Buffering-Dauer
  • Wiedergabe mit Buffering
  • Wiedergabe mit Verschiebung

Bei Podcasts

  • Aktualisierungen
  • Besucher
  • Aktualisierung/Besucher
  • Download
  • Downloads/Besuch

Bei Aktionen

  • Besucher
  • Häufigkeit
  • Häufigkeit pro Besucher
Weitere Funktionen

Segmentierung zur besseren Ausrichtung der Inhalte

Einige Beispiele für kombinierte Analysen:

  • die am häufigsten aufgerufenen Media-Dateien für ein bestimmtes Land
  • Besuchsquellen mit einem oder mehreren Media-Inhalten
  • für einen Player verwendete Ausstattung des Besuchers (Betriebssystem, Browser etc.)
  • Die bei Besuchern, welche ein Video aufgerufen haben, registrierten Prozesse
  • Bestellungen und ihre Inhalte mit Umsatz für einen bestimmten Media-Inhalt oder ein komplettes Thema

 

Weitere Informationen über Rich Media Tracking mit AT Internet

 

 

Webtrekk_Warnung_fuer_eigene_Formeln

Webtrekk Produkterweiterungen in Q3

Webtrekk  bietet wir mit dem Release 4.3.2 und 4.3.3 eine Reihe an Produkterweiterungen für Q3 an, die eine tiefgreifende sowie umfassende Analyse der Webpräsenzen ermöglicht. Hier der Überblick über die Neuerungen:

Warnung für eigene Formeln

Mit dem Release 4.3.2 wird ein neuer Warndialog für Formeln eingeführt, der analog zu den Warnungen für eigene Metriken arbeitet und dem Nutzer bei unvollständigen oder fehlerhaften Eingaben den Status der Formel anzeigt und so dafür sorgen kann, dass fehlerhafte oder unlogische Berechnungen vermieden werden.

Dem Formel- und Metrikeneditor wird mit der Einführung in diesem Release eine zentrale Rolle für die Konfiguration von Formeln und Metriken zugewiesen. Zukünftig können hier nicht mehr nur die Metriken bearbeitet werden, sondern auch Formeln.

 

Passwortmanagement

Eine neue Sicherheitsfunktion ermöglicht es zukünftig Administratoren, den Nutzern die regelmäßige Passworterneuerung “aufzuzwingen” und beugt so dem Identitäten, sowie Daten Diebstahl und Passwortmissbrauch durch unberechtigte Dritte vor.

Die neu eingeführte Funktion “Gültigkeitszeitraum” lässt es zu, dass Administratoren individuelle Laufzeiten für Passwörter festlegen, wobei die Standardeinstellung per Default auf “unbeschränkt gültig” vorselektiert ist.

Ist das Ablaufdatum erreicht und die o.g. Option gesetzt, gelangt der User nach seinem Login auf eine Konfigurationsseite, wo er mithilfe des alten Passwortes ein neues festlegen kann. Dieses ist dann ebenfalls für den eingestellten Zeitraum gültig.

 

Darstellung Anzahl versendeter  Objekte im Frontend

Die Konfigurationsmarke “Report versenden” wurde um eine Information erweitert, die es Anwendern ermöglicht, das Reportlimit zu überwachen. Dabei zeigt die “Anzahl versendeter Objekte” den bisherigen Exportverbrauch an.

 

Neue Aktualisierungsmöglichkeiten bei der Konfiguration des Feed Importes

Um  ein zeitnahes Auswerten von wichtigen Kennzahlen zu ermöglichen, wurden die Feeds mit neuen Ex- und Import Intervallen versehen. So ist es beispielsweise möglich, Feeds stündlich oder sofort aus Webtrekk heraus zu ex- oder importieren. Zudem wurde ein neuer Menüpunkt “Aktualisierung” eingeführt, der es dem Benutzer fortan ermöglicht, sich für einen Exportzeitraum zwischen folgenden Intervallen zu entscheiden;

  • täglich
  • stündlich
  • einmalig sofort

Sequenz Analyse

Die Sequenzanalyse bietet als erweiterte Variante der bekannten Assoziationsanalyse die Möglichkeit, festzustellen, welche Kombinationen von Objekten in einer vorher definierten, zeitlichen Abfolgen von Besuchern gesehen/verwendet/besucht werden. In der Konfiguration sieht das dann so aus:

Hier wird eine Assoziation konstruiert, welche sämtliche (Aktion -> Seite)-Paare mit ihrer Vorkommensanzahl, ihrem Support und Ihrer Häufigkeit (-> Konfidenz, nicht Anzahl) zeigt, solange die Häufigkeit über 1% liegt. Die Aktion darf hierbei nicht länger als 30 Tage vor dem Seitenaufruf liegen.

 

150 Eigene Parameter

Jedem Kunden ist es ab sofort möglich, bis zu 150 eigene Parameter jeden Typs in Webtrekk einzurichten und für die Webseitenanalyse zu nutzen. Eine Ausnahme davon stellen die Kampagnenparameter dar. Hier ist das Limit auf 10 begrenzt.

 

Division durch 0

Sollte bei einer Berechnung einer Formel die Division durch die Zahl “0″ erfordern, wird diese nicht länger automatisch durch eine “1″ ersetzt, sondern das Ergebnis mit einem “-” deklariert. Dadurch fallen Formel- oder Berechnungsfehler sowie evtl. fehlende Daten für die Berechnung schneller auf.

 

Pivot für gefilterte User

Die Option der Pivottabelle in Analysen steht nun auch Usern zur Verfügung welche einer Beschränkung unterliegen wie zum Beispiel in der Kampagnenkonfiguration oder Beschränkung im Filter.

 

Rohdatenexport adhoc anfordern

Ab sofort kann der Rohdatenexport manuell angestoßen und der Zeitraum für den Export verändert werden. Bitte beachten, dass hier das Limit bei 10 Exporten pro Tag liegt.

 

Data Profiles

Ab sofort besteht die Möglichkeit Daten aus verschiedenen Accounts in einen Account zu leiten ohne die Verpixelung der Seite zu verändern. Die Filterung, welche Daten übernommen werden sollen, kann auf Basis jedes Parameters im Track-Request erfolgen. Voraussetzung für die Nutzung des Features und der damit einhergehenden einheitlichen Visitor Base ist eine einheitliche Cookie Basis.

Voraussetzung für die Verwendung dieses Parameter ist die Pixelversion 3.2.4

 

Listenansicht für Pivot

Webtrekk hat die Listenansicht der Pivot Tabelle verbessert. Bei einer Pivot deren Dimensions-Ausprägungen jeweils nur eine Ausprägung in der nächsten Ausprägung haben, dann möchte man die Dimension nicht extra aufklappen müssen, sondern erwartet, dass die Ausprägung der nächsten Dimension in der selben Zeile schon zu sehen ist.

 

Erweiterung der JSON-API – TV Löschjob

Mit der Methode “deleteTvData” können die importierten TV Daten gelöscht werden. Um die Löschung vorzunehmen werden folgende Parameter erwartet:

  • customerId
  • login
  • pass
  • token

und die Pflichtparameter:

  • time_start
  • time_stop

 

 

Suchmaschinenmarktanteile in Europa September 2013

Suchmaschinen Marktanteile in Frankreich, Deutschland, Spanien und England im September 2013

Monatlich führt AT Internet auf Grundlage ihrer Kunden Studien zur Nutzung der verbreitetsten Suchmaschinen in Europa durch.

Die Ergebnisse zeigen die Entwicklung der Visitanteile, durch den durch Suchmaschinen erzeugten Traffic in den Ländern Deutschland, Spanien, Frankreich und England. Die Daten basieren auf  7.761 von AT Internet betreuten Websites.

Die folgende Grafik zeigt einen Schätzwert der durchschnittlichen Traffic-Verteilung der Suchmaschinen, welche als Quelle der für diese Studie berücksichtigen Visits dienten. Als Vergleich dient der Vormonat August 2013.

Die Suchmaschinen Liste beinhaltet die meist genutzten Suchmaschinen, wie Google, Bing, T-Online, Ask und Yahoo. Unschwer zu erkennen ist die prozentuale Dominanz von Google in allen vier Ländern.

Suchmaschinenmarktanteile in Europa September 2013

Suchmaschinenmarktanteile in Europa September 2013

 

Die gesamte Studie gibt es hier http://www.atinternet.com/de/documents/suchmaschinen-barometer/

BDEuVfApDV1RjoqlPPJiKukgt3SPrByJjFKJHBZpw98

TV tracking mit AT Internet

Online Werbetreibende sind es gewohnt über ihr Web Analytics Tool genaue Daten über den Erfolg ihrer Werbemaßnahmen zu erhalten.
Das Bedürfnis dieses Wissen auch für die Maßnahmen im TV zu übertragen wird immer größer, weshalb ein paar  Web Analytics Anbieter hier inzwischen mit verschiedenen Lösungsansätzen aufwarten.

Werbetreibende erhalten die Sendezeiten ihrer Spots über einen Media Plan. Dieser weist allerdings lediglich die Startzeit des Werbeblocks aus und oft gibt es dabei Abweichungen. Zudem kann man die Daten meist erst am Ende des Monats einsehen. Somit ist eine zeitnahe Analyse des Traffics und der Performance sowie Umsatz und Conversion nicht möglich.

Kooperation mit Start-Up

AT Internet arbeitet für das TV Tracking mit wywy - einem Start-up aus München – zusammen.

Wywy legt für jeden TV-Spot einen eigenen Audiofingerprint an und identifiziert darüber den Spot sobald dieser im TV ausgestrahlt wird. Ist dies der Fall wird ein extra Tag an den AT Internet Server geschickt, welcher signalisiert, dass der ab jetzt einlaufende Traffic über den TV Spot kommt. Es wird also zunächst einmal der gesamte Traffic der folgenden 5-10 Minuten dem Werbespot zugerechnet.

Ablauf des TV Trackings von AT Internet

Ablauf des TV Trackings von AT Internet

Segmentierung der Besucher

Voraussetzung für die Analyse des TV-Spot Traffics ist die Annahme, dass User eher nach der Marke suchen, wenn sie den TV Spot sehen. Durch Segmentierung wird  Traffic, der über andere Kampagnen generiert wird aus dem Gesamt-Traffic herausgefiltert. Somit kann man sämtlichen direct und brand Traffic, der nach Ausstrahlung des TV-Spots zustande gekommen ist, getrennt von anderen Kampagnen-Quellen analysieren.

Um den Peak, der durch den TV Spot entstanden ist, herauszufiltern wird als nächstes der Durchschnittstraffic, der zum Zeitpunkt des TV Spots auf die Seite gelangt ist, definiert. Hierfür wird eine Baseline gezogen. Der Traffic, der oberhalb dieser liegt wird dem TV-Spot zugerechnet.

Kohorten Analyse auf  Basis der TV-Spots

Durch Segmentierung der TV-Spot-Besucher lassen sich alle Aktionen dieser auf der Website analysieren. So kann genau festgestellt werden, wie sich diese über die Seite navigiert haben. Wie viel Umsatz durch sie generiert wurde, welche Produkte von ihnen gekauft wurden – all das lässt sich nun analysieren. Stichwort hier ist der Begriff Kohorten Analyse. Durch sie lässt sich das Verhalten der TV-Spot-Besucher über einen längeren Zeitraum hinweg analysieren und somit ermitteln, welcher Spot der erfolgreichste war.

Bisher gibt es noch keine einheitliche Variante, wie mit der Analyse von TV-Spots umgegangen wird. Neben AT Internet haben auch andere Anbieter Methoden dazu entwickelt, wie z.B. Webtrekk und IntelliAd.

 

Web Analytics Tipps, Tricks und News