Das Datalion Blog

Craftbier & Data Tasting

Nach dem großen Erfolg unseres Festbier-Tastings im Rahmen der Bits & Pretzels, veranstalten wir anlässlich unserer Standpremiere auf der Marktforschungsmesse Research & Results erneut eine „datengetriebene“ Bierverkostung.

Diesmal widmen wir uns spannenden Craftbieren. Gemeinsam mit dem Bier-Sommelier Stefan Hermansdorfer werden wir diesmal 6 unterschiedliche Craftbiere aus München und Umland verkosten.

Wie beim letzten Mal werden alle Ergebnisse unserer Verkostung – von Aussehen und Mundgefühl über Aroma bis Geschmack – in Echtzeit auf einem DataLion Live-Dashboard angezeigt:

Wir freuen uns sehr auf diesen Event – und es sind auch noch ein paar restliche kostenlose Tickets verfügbar: Hier geht es zur Anmeldung.

Datum: Mittwoch, den 25. Oktober 2017
Uhrzeit: 20:00 Uhr – 22:00 Uhr MESZ
Ort: DataLion GmbH, Herzog-Wilhelm-Straße 1, 80331 München (direkt am Karlsplatz/Stachus)

Datengetriebene Bier-Verkostung @ DataLion

Montagabend war ein besonderer Abend im Münchener DataLion-Büro:

Als offizielle Begleit-Veranstaltung im Rahmen der Bits & Pretzels Gründerkonferenz und Startup-Night haben wir eine datengetriebene Bierverkostung veranstaltet.

Gemeinsam mit dem Bier-Sommelier Stefan Hermansdorfer haben wir sechs unterschiedliche Biere aus München und Umgebung verkostet, die alle im Märzen- oder Festbierstil gebraut sind (Hacker-Pschorr, Augustiner, Hofbräu, Tilmans Das Helle, Eittinger and Giesinger). Eines dieser Biere trug sogar einen Löwen auf dem Etikett. Und weil wir Daten so sehr lieben, haben wir einen kurzen Fragebogen erstellt, mit dem unsere Gäste die verkosteten Biere nach Aussehen, Aroma und Geschmack beschreiben und bewerten konnten.

Alle Ergebnisse wurden in einem Live-Dashboard in unserem Konferenzraum dargestellt: Wir haben Spinnen-Netzcharts (oder: Radar-Charts) für die Echtzeit-Visualisiernug verwendet, da man mit ihnen intuitiv auf einem Blick die Geschmacksprofile der Biere vergleichen kann. Jedes Mal, wenn einer der Teilnehmer ein Bier bewertet hatte, haben sich alle Ergebnisse aktualisiert und den neuen Stand der Bewertung gezeigt.

Das Live-Dashboard dieses Abends finden Sie hier zum Nachlesen. Falls Sie für Ihr Unternehmen oder Ihre Veranstaltung ebenfalls an Live-Dashboards interessiert sind, die sich an einen Fragebogen anschließen lassen, können Sie uns gerne über unsere Kontakt-Seite eine Nachricht schreiben.

Big Data Design Thinking

Problemlösungen und Innovationen für Big Data mit Design Thinking entwickeln

Daten sind das neue Öl. Aber während der Nutzen und die Verwendungsmöglichkeiten von Öl relativ klar definiert waren, stecken in Daten viel mehr Möglichkeiten.

Fast alle Unternehmen stehen vor der Herausforderung, sehr viele Daten aus unterschiedlichen Quellen zu besitzen. Oft fehlt aber eine klare Vorstellung davon, wofür die Daten verwendet werden können.

Wie sehen neue Geschäftsmodelle aus, die mit den Daten erschlossen werden können? Welche Datenprodukte können Unternehmen definieren und verkaufen? Die Lösung lautet: Design Thinking.

Continue reading „Big Data Design Thinking“

Data Discovery und Data Reporting – Zwei Spielarten der Datenvisualisierung

Der Saal der alten Börse in Porto

Ende April trafen sich in Porto zum 8. Mal die Datenspezialisten aus Agenturen, Instituten und Unternehmen weltweit, um im Rahmen des ICOM Global Summits über die Zukunft des datengetriebenen Marketings auszutauschen.

Wir haben uns sehr gefreut, als Teil der offiziellen Jury-Auswahl der Data Startup Challenge dem voll besetzten Saal der Alten Börse in Porto unsere Datenanalyse und Visualisierungssoftware sowie unsere Vision einer „Self-Driving Data Science“ vorzustellen. Was für eine tolle Atmosphäre!

Continue reading „Data Discovery und Data Reporting – Zwei Spielarten der Datenvisualisierung“

Künstliche Intelligenz – Wie Marketing und Marktforschung davon profitieren können

Leben im Zeitalter der Künstlichen Intelligenz

Die Dinge, die uns umgeben, werden immer intelligenter. Die Weiterentwicklung der künstlichen Intelligenz hat dazu geführt, dass wir mit unseren Smartphones frei sprechen können, dass Autos autonom fahren können oder auch dass die Vorteile des Menschen in Disziplinen wie Schach oder Go gegenüber den Maschinen nicht mehr gelten.

Algorithmen der künstlichen Intelligenz, wie sie hinter Alexa, Siri und Co stecken, sammeln kontinuierlich Daten, werten sie aus, entwickeln Vorhersagen und Modelle, die dann laufend getestet und optimiert werden. Oft sind diese Vorgänge nicht offen sichtbar, aber in vielen Fällen basieren sie auf neuronalen Netzen – oder wie man diese Verfahren des Maschinellen Lernens heute nennt: Deep Learning.

Continue reading „Künstliche Intelligenz – Wie Marketing und Marktforschung davon profitieren können“

Zeitreihen, Datenimport und Drag & Drop – Version 1.6 ist live

Neuer Monat – neues Update! Bis gestern Abend haben unsere Entwicklungs-Löwen noch an den letzten neuen Features gearbeitet und die letzten Bugs gejagt. Ihre Jagd war so erfolgreich, dass wir Ihnen jetzt die neue DataLion-Version 1.6 präsentieren können.

Zu den wichtigsten neuen Features und Verbesserungen der Software gehören die folgenden:

Drag & Drop für noch individuellere Dashboards

Mit der neuen Version können Sie Dashboard noch individueller gestalten: Alle Charts lassen sich frei über das Dashboard verschieben und auch die Größen der Charts lassen sich per Drag & Drop stufenlos anpassen. Wenn Sie mit der Maus über die untere rechte Ecke eines Charts fahren, erscheint ein Pfeil, mit dem Sie das Chart größer oder kleiner ziehen können.

Einfacher Datenimport mit dem neuen Import-Wizard

Bislang erforderte der Import von Datensätzen Administrations-Rechte. Jetzt können Sie auch als normaler User CSV-Dateien in DataLion hochladen, die Ausprägungen nach Bedarf neu kodieren und dann Ihre eigenen Daten in Dashboards verwandeln. In der kostenlosen Version können Sie zum Testen CSV-Datensätze mit bis zu 500 Fällen und 100 Variablen hochladen. Probieren Sie diese Funktion jetzt aus!

Automatischer Datenimport und dynamische Variablen

Diese beiden neuen Funktionen ergänzen sich perfekt. So können die Daten Ihres Dashboards in regelmäßigen Abständen (z.B. jeden Sonntagabend um 02:00 Uhr) automatisch aktualisiert werden. Die vorab erstellten Analysen und Reports aktualisieren sich dementsprechend ebenfalls automatisch.

Mit der Integration von dynamischen Variablen in Dashboards können Sie noch einfacher Realtime-Analysen durchführen und z.B. sich die Ergebnisse für die letzten 10 Tage mit nur wenigen Klicks anschauen oder die entsprechende Analyse im Report hinterlegen, so dass Sie für die Auswertung nur den bestehenden Report aufrufen müssen.

Erweiterung des Diagrammtyps „Timeline“

Aufgrund der großen Bedeutung von Zeitreihen-Analysen für viele User haben wir die dazugehörige Auswertung noch einmal erweitert. So kann der Nutzer nun mit zwei Klicks zwischen unterschiedlichen Zeitintervallen wechseln (z.B. Wochen, Monate und Jahre).

Außerdem kann man mit den Erweiterungen auch Zielgruppenvergleiche oder unterschiedliche Variablen im Zeitverlauf darstellen.

Software-Tour

Vor allem für Neu-User haben wir eine Software-Tour im Tool integriert, die Sie mit den wichtigsten Funktionen vertraut macht. Um die Tour aufzurufen, gehen Sie im Login-Bereich auf „Start Tour„.

Präsentationen in Rekordzeit

Mit der erweiterten Exportfunktionen können Sie nicht nur einzelne Charts, sondern auch ganze Dashboards und Reports exportieren und erstellen so Ihre Präsentationen in Rekordzeit.

Weitere Updates in 1.6

  • Visualisierung von Google Analytics Daten: Nutzen Sie ab jetzt auch die Möglichkeit, Google Analytics Daten in Realtime auszuwerten und zu visualisieren.
  • Einbau von Textfeldern und Bildern in Reports
  • Verwendung von Themes: Damit können Sie die Farben des gesamten Dashboards anpassen
  • Regenbogen-Modus: Bei Balkendiagrammen lassen sich die einzelnen Balken unterschiedlich einfärben
  • Neue Chart-Typen: Tacho und Multidimensionale Skalierung (Live-Beispiel hier)

Wir sind schon sehr gespannt, wie Ihnen die neuen Features gefallen und freuen uns auf Ihr Feedback!

DataLion in der offiziellen Auswahl der Data Startup Challenge der I-COM 2017

Vom 24. bis 27. April trifft sich die internationale Marketing- und Daten-Community unter dem Motto „Data 2017 – The Year of Change“ in Porto auf dem Global Summit der I-COM. Wir freuen uns sehr, dass die hochkarätige Jury DataLion – als einziges Unternehmen aus Deutschland – unter die 10 Finalisten der Data Startup Challenge gewählt hat.

Am 25. April werden wir zusammen mit spannenden innovativen Startups wie Sentiance aus Belgien oder Catalyx aus den UK um den von Unilever gesponserten Startup Award pitchen.

Aber auch an den anderen Tagen werden wir vor Ort sein und freuen uns sehr über viele anregende Gespräche rund um Data Science, Machine Learning, Dashboards und Datenvisualisierung.

Wer sich für unsere Eindrücke von dieser sehr vielseitigen Veranstaltung interessiert – das sehr umfangreiche Programm reicht von künstlicher Intelligenz über Targeting und Attributionsmodelle bis hin zur Bedeutung von Daten in der Sterneküche – kann uns gerne auf Twitter und Instagram folgen – wir werden live berichten.

Neue Software-Version 1.4.2 veröffentlicht

Es gibt Neues aus der DataLion-Softwareentwicklung: Gerade haben wir die nächste Software-Version 1.4.2. für alle Nutzer ausgerollt.

Mit unserer neuen Aktualisierungsroutine konnten wir das Update im laufenden Betrieb einspielen, ohne dass dafür eine Wartungspause notwendig war. Dabei haben wir in den letzten Wochen unter anderem die folgenden Optimierungen und Features der Software für Sie implementiert.

Die wichtigsten Features im Überblick

Mehr Leistung

DataLion unterstützt jetzt auch Apache Drill als Daten-Backend für Big Data-Visualisierungen und –Zählungen im Gigabyte-Bereich. So können wir unseren Usern nun schnelle und anspruchsvolle Analysen von großen Datenmengen bieten und sind somit noch besser den steigenden Anforderungen der Big Data-Welt gewappnet.

Zeitsparen

Herkömmliche Datenanalyse und die visuelle Aufbereitung von Daten ist ein zeitraubender und schwieriger Vorgang. Um Ihnen die Arbeit mit Ihren Daten zu erleichtern haben wir ein Feature entwickelt: Mit einem Klick könne Sie jetzt mehrere Fragen auf einmal visualisieren. Ziehen Sie hierfür eine Frage-Ebene per Drag & Drop aus der Navigation in den Arbeitsbereich des Dashboards und erstellen so sekundenschnell Analysen und Präsentationen für die Sie bisher Stunden benötigt haben.

Neuer, Intuitiver Zielgruppen-Editor

Um Zielgruppen-Analysen für Sie noch einfacher zu machen, haben wir den Filter-/Zielgruppen-Editor optimiert.
Sobald Sie ein Chart ausgewählt haben, erscheint über dem Diagramm der Button „Zielgruppe erstellen“, über den Sie in den Zielgruppen-Editor gelangen. Ziehen Sie nun aus der Filter-Navigation die für Sie relevanten Ausprägungen per Drag & Drop in den Editor. Beim Ziehen auf ein leeres Feld können weitere Ausprägungen hinzugefügt werden. Beim Ziehen auf ein Merkmal werden automatisch Klammern erstellt. Der Editor setzt automatisch UND sowie ODER-Verknüpfungen, die jedoch mit nur einem Klick angepasst werden können.
Die neu erstellten Filter werden wie gewohnt unter „Meine Variablen/Filter“ abgespeichert und können auch zu einem späteren Zeitpunkt als Filter oder Fragen verwendet werden. Natürlich besteht ebenfalls die Möglichkeit diese Filter zu einem späteren Zeitpunkt über den Filter-/Zielgruppen-Editor zu bearbeiten oder als Charts zu visualisieren.

Wir freuen uns sehr auf Ihr Feedback zu den neuen Funktionen!

Realtime-Dashboards für das Internet of Things

Screenshot des Internet of Things-Dashboards

Für die Veranstaltung „DENK:Raum“ der BMW-Stiftung letzten November hat sich das DataLion-Innovationsteam mit einem Prototypen für ein Internet of Things-Dashboard auf die Sensordatenjagd begeben. Wir haben Mess-Stationen entwickelt und zusammengebaut, die in Echtzeit Messwerte aus unterschiedlichen Sensoren verarbeiten und visualisieren können.

Da die Veranstaltung mehrere parallele Workshops beinhaltete, haben wir an unterschiedlichen Orten des Veranstaltungsortes Sensor-Stationen aufgebaut. Jede dieser Sensor-Stationen bestand aus einem Rasperry Pi 3-Minicomputer sowie einer Steckplatine mit Temperatur-, Lautstärke-, Feuchtigkeits- und Infrarot-Bewegungs-Sensoren.

Durchblick im Internet of Things-Dschungel

Die Raspberry Pi basierte Sensor-Station

Da die Sensorstationen vollständige Computer darstellen, konnte ein großer Teil der Berechnung – zum Beispiel die Umrechnung der Geräuschmesswerte – direkt auf dem Gerät stattfinden. In der Sensorik spricht man hierbei auch von dem Edge Analytics-Paradigma. Jedes Gerät sendet seine Messwerte dann verschlüsselt an einen Apache Kafka-Server, der die Daten zentral entgegennimmt und auf mehreren Server verteilt speichert.

Das Dashboard greift dann auf diesen Server zu, um sich die jeweils relevanten Daten zu ziehen – entweder die historischen Daten der letzen Stunde oder des ganzen Workshop-Tages oder aber die gerade in diesem Moment empfangenen Echtzeitdaten. Die Visualisierung der Internet of Things-Daten verläuft dann Browser-basiert, wobei das Dashboard so aufgebaut ist, dass man genau erkennen kann, welcher Sensor an welcher Position gerade welche Messwerte gesendet hat.

Wo ist am meisten Aktivität?

DataLion im Internet of Things

Sehr schön erkennt man in den Verlaufsdiagrammen, wie sich die Aktivität während der Vorträge und den Kaffeepausen räumlich verlagert hatte, wie während der Vorträge konzentriert zugehört wurde, in welchen Räumen am lebhaftesten (wortwörtlich am heißesten) diskutiert wurde und welche Vorträge am allermeisten Applaus erhielten.

Über ein Administrationsbackend können die Anwender die Standorte der Mess-Stationen sowie die Sensoren, ihre Beschriftung und die Skalierung der Messwerte ganz einfach selbst verwalten. Auch die Erweiterung um weitere Messwerte ist mit wenigen Klicks möglich.

Einsatzszenarien für Internet of Things-Dashboards

Closeup Raspberry Pi und Steckplatine

Neben dem Messen der Aktivität auf Tagungen und Workshops wie in dem oben skizzierten Beispiel, stößt man schnell auf weitere spannende Felder für den Einsatz eines solchen Internet of Things-Projekts:

  • Messen: Welche Messestände und Messebereiche werden am häufigsten besucht? Wo wird am angeregtesten diskutiert? Wie verändert sich die Aufmerksamkeit im Zeitverlauf?
  • Gebäudemanagement: Wie entwickeln sich Temperatur, Feuchtigkeit, Luftqualität über die Zeit hinweg? Bei welchen Schwellenwerten müssen Warnungen verschickt werden?
  • Umweltsensorik: Wann und wo ist die Smoggefahr am höchsten? Wie entwickeln sich die Feinstaubwerte?
  • Bildungsprojekte: Wie kann man mit Schülern die Umwelt messen und verstehen?

Fallen euch noch weitere spannende Einsatzszenarien ein? Wir freuen uns über Kommentare.

Wie gewinnt man Wahlen mit Big Data?

In den letzten Tagen wurde über alle Kanäle ein Artikel aus der Schweizer Publikation „Das Magazin“ immer wieder geteilt und kontrovers diskutiert: Die Geschichte des Psychologen Michal Kosinski, der eine Methode entwickelt haben soll, die von der Data Science-Firma Cambridge Analytica aufgegriffen wurde und mit der Donald Trump letztlich die Wahl gewonnen haben soll. So zumindest wurde dieser Artikel immer wieder zusammengefasst. Doch was ist dran an der Story? Lassen sich Informationen aus Social Media wirklich dazu verwenden, Vorhersagen über Parteipräferenzen, Wahlverhalten und politische Aktivitäten zu treffen?

Image by Paul Albertella (Flickr CC-BY-SA)
Image by Paul Albertella (Flickr CC-BY-SA)

Die Antwort lautet: Auf jeden Fall. Die ungefilterten Posts, Likes und Shares in Social Media sind sehr viel konkreter und näher an der Realität als es jede klassische Wahlforschungs-Umfrage sein könnte. Wenn man diese Informationen mit anderen Daten kombiniert – zum Beispiel den Antworten einer Person in einem Psychologischen Test oder einer Umfrage à la „Welche Stadt passt am besten zu dir“ -, kann man mit den Standard-Methoden des Machine Learning tatsächlich sehr treffsichere Vorhersagen („Predictions“) treffen. In der Werbung ist das unter dem Begriff Targeting schon so weit gang und gäbe, so dass mittlerweile ein großer Teil der Werbebanner und Mailings, die man erhält, auf solchen Vorhersagen beruht.

Aber auch der Einsatz von Datenbanken und Targeting für den Wahlkampf ist in den USA mittlerweile fast schon ein alter Hut. Schon die beiden von Karl Rove geplanten Kampagnen von George W. Bush 2000 und 2004 wurden im Nachhinein als Erfolg der „Number Cruncher“ gesehen. Damals war es Alex Gage und seine Firma Target Point, der als „Entschlüssler der politischen DNA“ immer wieder in den Wahlanalysen vorgekommen ist. Selbstverständlich war das Microtargeting und Data-Mining auch in den beiden Obama-Kampagnen zentral. Hier entdeckte Jim Messina zum Beispiel die überdurchschnittliche Affinität von Frauen 40-49 mit hohem Wahlkampfspendenpotential zur TV-Serie Sex and the City. Prompt wurde die Schauspielerin Sarah Jessica Parker als Gastgeberin für ein Fundraising-Dinner gewonnen – und diese Meldung ging per Mail an alle Frauen in dieser Zielpopulation.

Da zum einen die Abstände zwischen den Kandidaten in den jüngsten Wahlen immer enger wurden, so dass wenige Tausend Stimmen wahlentscheidend werden können, und zum anderen die verfügbaren Daten (Social Media, Datenbanken, Geodaten, Wahldatenbanken) immer detaillierter und umfangreicher werden, hat auch das Targeting einen immer größeren Stellenwert in der Wahlkampfplanung gewonnen. Ziel ist es – genau wie in Lehrbüchern der klassischen Werbung – die richtigen Personen mit der richtigen Botschaft im richtigen Moment zu erwischen. Aber das Datenbankmarketing ermöglicht es, in allen drei Dimensionen immer granularer vorzugehen:

  1. Die „Zielgruppen“ sind nicht mehr grobe soziodemographische Raster, sondern sehr konkrete, oft auf Lebensstilen aufbauende Beschreibungen à la „Soccer Mom“. Oft sind es sogar nur wenige Tausende oder Hunderte Personen, die mit einer Kampagne angesprochen werden sollen.
  2. Die Botschaft wird in der Regel vor dem eigentlichen Versand intensiv AB-getestet, um die Variante herauszufinden, die in der jeweiligen Zielpopulation die größte Wirkung hat – bis hin zu individuellen Botschaften, die den exakten Musikgeschmack oder die Hobbies einer Person ansprechen.
  3. Mit Smartphones ist auch der richtige Zeitpunkt nahezu beliebig wählbar. Ob abends zuhause auf dem Sofa oder unterwegs am Bahnhof oder beim Skifahren – je nachdem, welche Botschaft kommuniziert werden soll, lässt sich der richtige Ort und die richtige Zeit exakt ansteuern.

Die aktuell heiß diskutierte psychometrische Methode, die aus Social Media-Informationen erst Persönlichkeitsprofile erstellt um dann aus diesen Profilen dann Kampagnen zu steuern, ist fast so etwas wie ein Relikt aus der Vergangenheit. Nicht nur, dass die OCEAN- oder Big Five-Persönlichkeitsprofile aus den 1930er Jahren stammen, sondern sie sind eigentlich nur eine Komplexitätsreduktion für uns Menschen, die sich 5 Dimensionen vielleicht gerade noch vorstellen können. Moderne Machine-Learning-Algorithmen können problemlos aus 10.000 dimensionalen Profilen ihre Vorhersagen treffen. Den Maschinen reicht es völlig aus, dass 200 Personen in Präferenzcluster 2049 fallen und besonders gut mit den Themen A, B, C angesprochen werden können, und sie brauchen auch keine psychologische Theorien, um Zusammenhänge zu finden und zu testen.

Welche Rolle Data Mining und Targeting in den nächsten Wahlen, vor allem der Bundestagswahl, spielen wird, werden wir sehen. Die ersten „Daten-Zauberer“ werden aber schon in Stellung gebracht.

Siehe dazu auch das Interview mit dem Zündfunk.