Das Datalion Blog

DataLion in der offiziellen Auswahl der Data Startup Challenge der I-COM 2017

Vom 24. bis 27. April trifft sich die internationale Marketing- und Daten-Community unter dem Motto „Data 2017 – The Year of Change“ in Porto auf dem Global Summit der I-COM. Wir freuen uns sehr, dass die hochkarätige Jury DataLion – als einziges Unternehmen aus Deutschland – unter die 10 Finalisten der Data Startup Challenge gewählt hat.

Am 25. April werden wir zusammen mit spannenden innovativen Startups wie Sentiance aus Belgien oder Catalyx aus den UK um den von Unilever gesponserten Startup Award pitchen.

Aber auch an den anderen Tagen werden wir vor Ort sein und freuen uns sehr über viele anregende Gespräche rund um Data Science, Machine Learning, Dashboards und Datenvisualisierung.

Wer sich für unsere Eindrücke von dieser sehr vielseitigen Veranstaltung interessiert – das sehr umfangreiche Programm reicht von künstlicher Intelligenz über Targeting und Attributionsmodelle bis hin zur Bedeutung von Daten in der Sterneküche – kann uns gerne auf Twitter und Instagram folgen – wir werden live berichten.

Neue Software-Version 1.4.2 veröffentlicht

Es gibt Neues aus der DataLion-Softwareentwicklung: Gerade haben wir die nächste Software-Version 1.4.2. für alle Nutzer ausgerollt.

Mit unserer neuen Aktualisierungsroutine konnten wir das Update im laufenden Betrieb einspielen, ohne dass dafür eine Wartungspause notwendig war. Dabei haben wir in den letzten Wochen unter anderem die folgenden Optimierungen und Features der Software für Sie implementiert.

Die wichtigsten Features im Überblick

Mehr Leistung

DataLion unterstützt jetzt auch Apache Drill als Daten-Backend für Big Data-Visualisierungen und –Zählungen im Gigabyte-Bereich. So können wir unseren Usern nun schnelle und anspruchsvolle Analysen von großen Datenmengen bieten und sind somit noch besser den steigenden Anforderungen der Big Data-Welt gewappnet.

Zeitsparen

Herkömmliche Datenanalyse und die visuelle Aufbereitung von Daten ist ein zeitraubender und schwieriger Vorgang. Um Ihnen die Arbeit mit Ihren Daten zu erleichtern haben wir ein Feature entwickelt: Mit einem Klick könne Sie jetzt mehrere Fragen auf einmal visualisieren. Ziehen Sie hierfür eine Frage-Ebene per Drag & Drop aus der Navigation in den Arbeitsbereich des Dashboards und erstellen so sekundenschnell Analysen und Präsentationen für die Sie bisher Stunden benötigt haben.

Neuer, Intuitiver Zielgruppen-Editor

Um Zielgruppen-Analysen für Sie noch einfacher zu machen, haben wir den Filter-/Zielgruppen-Editor optimiert.
Sobald Sie ein Chart ausgewählt haben, erscheint über dem Diagramm der Button „Zielgruppe erstellen“, über den Sie in den Zielgruppen-Editor gelangen. Ziehen Sie nun aus der Filter-Navigation die für Sie relevanten Ausprägungen per Drag & Drop in den Editor. Beim Ziehen auf ein leeres Feld können weitere Ausprägungen hinzugefügt werden. Beim Ziehen auf ein Merkmal werden automatisch Klammern erstellt. Der Editor setzt automatisch UND sowie ODER-Verknüpfungen, die jedoch mit nur einem Klick angepasst werden können.
Die neu erstellten Filter werden wie gewohnt unter „Meine Variablen/Filter“ abgespeichert und können auch zu einem späteren Zeitpunkt als Filter oder Fragen verwendet werden. Natürlich besteht ebenfalls die Möglichkeit diese Filter zu einem späteren Zeitpunkt über den Filter-/Zielgruppen-Editor zu bearbeiten oder als Charts zu visualisieren.

Wir freuen uns sehr auf Ihr Feedback zu den neuen Funktionen!

Realtime-Dashboards für das Internet of Things

Screenshot des Internet of Things-Dashboards

Für die Veranstaltung „DENK:Raum“ der BMW-Stiftung letzten November hat sich das DataLion-Innovationsteam mit einem Prototypen für ein Internet of Things-Dashboard auf die Sensordatenjagd begeben. Wir haben Mess-Stationen entwickelt und zusammengebaut, die in Echtzeit Messwerte aus unterschiedlichen Sensoren verarbeiten und visualisieren können.

Da die Veranstaltung mehrere parallele Workshops beinhaltete, haben wir an unterschiedlichen Orten des Veranstaltungsortes Sensor-Stationen aufgebaut. Jede dieser Sensor-Stationen bestand aus einem Rasperry Pi 3-Minicomputer sowie einer Steckplatine mit Temperatur-, Lautstärke-, Feuchtigkeits- und Infrarot-Bewegungs-Sensoren.

Durchblick im Internet of Things-Dschungel

Die Raspberry Pi basierte Sensor-Station

Da die Sensorstationen vollständige Computer darstellen, konnte ein großer Teil der Berechnung – zum Beispiel die Umrechnung der Geräuschmesswerte – direkt auf dem Gerät stattfinden. In der Sensorik spricht man hierbei auch von dem Edge Analytics-Paradigma. Jedes Gerät sendet seine Messwerte dann verschlüsselt an einen Apache Kafka-Server, der die Daten zentral entgegennimmt und auf mehreren Server verteilt speichert.

Das Dashboard greift dann auf diesen Server zu, um sich die jeweils relevanten Daten zu ziehen – entweder die historischen Daten der letzen Stunde oder des ganzen Workshop-Tages oder aber die gerade in diesem Moment empfangenen Echtzeitdaten. Die Visualisierung der Internet of Things-Daten verläuft dann Browser-basiert, wobei das Dashboard so aufgebaut ist, dass man genau erkennen kann, welcher Sensor an welcher Position gerade welche Messwerte gesendet hat.

Wo ist am meisten Aktivität?

DataLion im Internet of Things

Sehr schön erkennt man in den Verlaufsdiagrammen, wie sich die Aktivität während der Vorträge und den Kaffeepausen räumlich verlagert hatte, wie während der Vorträge konzentriert zugehört wurde, in welchen Räumen am lebhaftesten (wortwörtlich am heißesten) diskutiert wurde und welche Vorträge am allermeisten Applaus erhielten.

Über ein Administrationsbackend können die Anwender die Standorte der Mess-Stationen sowie die Sensoren, ihre Beschriftung und die Skalierung der Messwerte ganz einfach selbst verwalten. Auch die Erweiterung um weitere Messwerte ist mit wenigen Klicks möglich.

Einsatzszenarien für Internet of Things-Dashboards

Closeup Raspberry Pi und Steckplatine

Neben dem Messen der Aktivität auf Tagungen und Workshops wie in dem oben skizzierten Beispiel, stößt man schnell auf weitere spannende Felder für den Einsatz eines solchen Internet of Things-Projekts:

  • Messen: Welche Messestände und Messebereiche werden am häufigsten besucht? Wo wird am angeregtesten diskutiert? Wie verändert sich die Aufmerksamkeit im Zeitverlauf?
  • Gebäudemanagement: Wie entwickeln sich Temperatur, Feuchtigkeit, Luftqualität über die Zeit hinweg? Bei welchen Schwellenwerten müssen Warnungen verschickt werden?
  • Umweltsensorik: Wann und wo ist die Smoggefahr am höchsten? Wie entwickeln sich die Feinstaubwerte?
  • Bildungsprojekte: Wie kann man mit Schülern die Umwelt messen und verstehen?

Fallen euch noch weitere spannende Einsatzszenarien ein? Wir freuen uns über Kommentare.

Wie gewinnt man Wahlen mit Big Data?

In den letzten Tagen wurde über alle Kanäle ein Artikel aus der Schweizer Publikation „Das Magazin“ immer wieder geteilt und kontrovers diskutiert: Die Geschichte des Psychologen Michal Kosinski, der eine Methode entwickelt haben soll, die von der Data Science-Firma Cambridge Analytica aufgegriffen wurde und mit der Donald Trump letztlich die Wahl gewonnen haben soll. So zumindest wurde dieser Artikel immer wieder zusammengefasst. Doch was ist dran an der Story? Lassen sich Informationen aus Social Media wirklich dazu verwenden, Vorhersagen über Parteipräferenzen, Wahlverhalten und politische Aktivitäten zu treffen?

Image by Paul Albertella (Flickr CC-BY-SA)
Image by Paul Albertella (Flickr CC-BY-SA)

Die Antwort lautet: Auf jeden Fall. Die ungefilterten Posts, Likes und Shares in Social Media sind sehr viel konkreter und näher an der Realität als es jede klassische Wahlforschungs-Umfrage sein könnte. Wenn man diese Informationen mit anderen Daten kombiniert – zum Beispiel den Antworten einer Person in einem Psychologischen Test oder einer Umfrage à la „Welche Stadt passt am besten zu dir“ -, kann man mit den Standard-Methoden des Machine Learning tatsächlich sehr treffsichere Vorhersagen („Predictions“) treffen. In der Werbung ist das unter dem Begriff Targeting schon so weit gang und gäbe, so dass mittlerweile ein großer Teil der Werbebanner und Mailings, die man erhält, auf solchen Vorhersagen beruht.

Aber auch der Einsatz von Datenbanken und Targeting für den Wahlkampf ist in den USA mittlerweile fast schon ein alter Hut. Schon die beiden von Karl Rove geplanten Kampagnen von George W. Bush 2000 und 2004 wurden im Nachhinein als Erfolg der „Number Cruncher“ gesehen. Damals war es Alex Gage und seine Firma Target Point, der als „Entschlüssler der politischen DNA“ immer wieder in den Wahlanalysen vorgekommen ist. Selbstverständlich war das Microtargeting und Data-Mining auch in den beiden Obama-Kampagnen zentral. Hier entdeckte Jim Messina zum Beispiel die überdurchschnittliche Affinität von Frauen 40-49 mit hohem Wahlkampfspendenpotential zur TV-Serie Sex and the City. Prompt wurde die Schauspielerin Sarah Jessica Parker als Gastgeberin für ein Fundraising-Dinner gewonnen – und diese Meldung ging per Mail an alle Frauen in dieser Zielpopulation.

Da zum einen die Abstände zwischen den Kandidaten in den jüngsten Wahlen immer enger wurden, so dass wenige Tausend Stimmen wahlentscheidend werden können, und zum anderen die verfügbaren Daten (Social Media, Datenbanken, Geodaten, Wahldatenbanken) immer detaillierter und umfangreicher werden, hat auch das Targeting einen immer größeren Stellenwert in der Wahlkampfplanung gewonnen. Ziel ist es – genau wie in Lehrbüchern der klassischen Werbung – die richtigen Personen mit der richtigen Botschaft im richtigen Moment zu erwischen. Aber das Datenbankmarketing ermöglicht es, in allen drei Dimensionen immer granularer vorzugehen:

  1. Die „Zielgruppen“ sind nicht mehr grobe soziodemographische Raster, sondern sehr konkrete, oft auf Lebensstilen aufbauende Beschreibungen à la „Soccer Mom“. Oft sind es sogar nur wenige Tausende oder Hunderte Personen, die mit einer Kampagne angesprochen werden sollen.
  2. Die Botschaft wird in der Regel vor dem eigentlichen Versand intensiv AB-getestet, um die Variante herauszufinden, die in der jeweiligen Zielpopulation die größte Wirkung hat – bis hin zu individuellen Botschaften, die den exakten Musikgeschmack oder die Hobbies einer Person ansprechen.
  3. Mit Smartphones ist auch der richtige Zeitpunkt nahezu beliebig wählbar. Ob abends zuhause auf dem Sofa oder unterwegs am Bahnhof oder beim Skifahren – je nachdem, welche Botschaft kommuniziert werden soll, lässt sich der richtige Ort und die richtige Zeit exakt ansteuern.

Die aktuell heiß diskutierte psychometrische Methode, die aus Social Media-Informationen erst Persönlichkeitsprofile erstellt um dann aus diesen Profilen dann Kampagnen zu steuern, ist fast so etwas wie ein Relikt aus der Vergangenheit. Nicht nur, dass die OCEAN- oder Big Five-Persönlichkeitsprofile aus den 1930er Jahren stammen, sondern sie sind eigentlich nur eine Komplexitätsreduktion für uns Menschen, die sich 5 Dimensionen vielleicht gerade noch vorstellen können. Moderne Machine-Learning-Algorithmen können problemlos aus 10.000 dimensionalen Profilen ihre Vorhersagen treffen. Den Maschinen reicht es völlig aus, dass 200 Personen in Präferenzcluster 2049 fallen und besonders gut mit den Themen A, B, C angesprochen werden können, und sie brauchen auch keine psychologische Theorien, um Zusammenhänge zu finden und zu testen.

Welche Rolle Data Mining und Targeting in den nächsten Wahlen, vor allem der Bundestagswahl, spielen wird, werden wir sehen. Die ersten „Daten-Zauberer“ werden aber schon in Stellung gebracht.

Siehe dazu auch das Interview mit dem Zündfunk.

DataLion auf den Medientagen in München

logo_medientage

Nachdem wir letztes Jahr auf der Pitch-Bühne der MEDIENTAGE MÜNCHEN den SXSW-Pitch gewonnen hatten und dann gemeinsam mit einer Handvoll bayerischer Startups nach Austin, Texas fliegen durften, war es keine Frage, dass DataLion auch dieses Mal wieder vor Ort ist: Wir freuen uns sehr, dieses Jahr mit einem eigenen Stand auf den Medientagen München vertreten zu sein. Vom 25. bis 27. Oktober finden Sie uns im Startup-Bereich im Erdgeschoss der Messe, genau gegenüber der Startup-Bühne.

Sehr gerne zeigen wir Ihnen live, wie Sie mit DataLion blitzschnell Marktforschungs-, Medien- oder Unternehmensdaten analysieren und vor allem auch überzeugend visualisieren können. Auch den ein oder anderen Datensatz aus dem Medienbereich werden wir mit im Gepäck haben. Wenn Sie einen persönlichen Termin ausmachen möchten, können Sie uns gerne per Mail Ihre Kontaktdaten und Ihren Wunschzeitpunkt schreiben: medientage@datalion.com

Wir freuen uns auf viele spannende und inspirierende Gespräche!

„Wir müssen reden“ – Paneldiskussion auf dem 8. Internet Governance Forum in Berlin

igf

Je mehr Informationen wir über Facebook, Twitter und Co. teilen, je mehr Entscheidungen in Sekundenbruchteilen von Algorithmen getroffen werden, je mehr Lebensbereiche miteinander digital vernetzt werden, desto wichtiger wird es, die ethischen Folgen dieser Entwicklungen im Blick zu behalten. In der Web-Talk-Sendung „Isarrunde“ hatten wir uns schon 2012 mit dem Thema „Algorithmenethik“ befasst und darüber diskutiert, was passiert, wenn zum Beispiel auf Grundlage unserer Social-Media-Aktivitäten individuelle Score-Werte erstellt werden, die dann mit entscheiden, ob man ein kostenloses Status-Upgrade bekommt oder sogar wie kreditwürdig man ist.

Gerade die Kombination von großen Datenmengen auf der einen Seite („Big Data“) und automatisch lernenden Algorithmen auf der anderen Seite (z.B. „Deep Learning“) macht es oft sogar für Experten sehr schwer, zu durchschauen, welche ethischen Konsequenzen bestimmte Datenquellen oder Algorithmen-Parameter haben. Sogar wenn die Algorithmen an sich sehr einfach gestrickt sind, sorgen die großen Datenmengen dafür, dass oft überraschende Ergebnisse zutage kommen – Katzenvideos gehören hier eindeutig zu den harmloseren Ergebnissen.

Ich bin auf jeden Fall sehr gespannt über die Diskussionsrunde auf dem 8. Internet Governance Forum über „Encoding Values – Zur Ethik von Protokollen“ um 10:15 im Berliner Roten Rathaus, zu der ich eingeladen wurde. Es gibt noch Karten für die Veranstaltung – Eintritt ist frei.

DataLion über „Predictive analytics“ in der FAZ

Die Fähigkeit, die Zukunft vorhersagen zu können, war für den Menschen schon immer eine faszinierende Vorstellung. Technologischer Fortschritt macht es uns möglich, dieser Vision immer näher zu kommen – das Stichwort lautet: „Predictive Analytics“. Ein Thema für das sich auch die Medien zunehmend interessieren, wie man am Beispiel der FAZ erkennt, die zu dem Thema neben anderen Experten auch DataLion Gründer Benedikt Köhler interviewt hat.

Predictions

Bei Predictive Analytics kommen Big Data und entsprechende Modelle ins Spiel, die für Prognosezwecke geeignet sind. Ausgeklügelte Algorithmen sorgen dafür, dass die Vorhersagen immer exakter werden. Bei DataLion helfen uns solche Algorithmen, unter anderem Werbewirkung, Kundenzufriedenheit oder Absatzchancen zu prognostizieren. Dabei ist die Menge des Daten-Inputs entscheidend, denn je größer die vorhandene Datenmenge, auf der die Vorhersagen basiert, desto präziser und sicherer fallen diese auch aus. Das ganze Interview finden Sie hier.

Sehr gefreut hat uns außerdem, dass das Online-Magazin THE LOCAL in einem Beitrag über sieben besonders hervorzuhebende deutsche Startups berichtet, die auf der der Bühne der vergangenen SXSW in Austin, Texas zu sehen waren. Den passenden Artikel lesen Sie hier.

Wir alle werden Data Scientists

marktforschung.de-logo

„Data Scientist: The Sexiest Job of  the 21st Century“. Bereits Ende 2012 war diese Überschrift so im Harvard Business Review zu lesen. Doch wo stehen wir heute? Auf diese und noch viele weitere Fragen gibt unser Gründer und Geschäftsführer Dr. Benedikt Köhler Antworten in Deutschlands größtem Marktforschungsportal marktforschung.de.

Für diese Zunahme an Attraktivität ist sicherlich zu einem großen Teil die zunehmend große Datenmenge verantwortlich, die jeder einzelne von uns tagtäglich automatisch und in nahezu allen Lebensbereichen produziert. Doch für die Nicht-Data Scientists unter uns sind Daten etwas sehr abstraktes. Um Daten verstehen und sinnvolle Rückschlüsse daraus ziehen zu können, ist die Datenvisualisierung nicht nur „nice to have“ sondern unabdingbar. Was dabei heute schon möglich ist und was morgen möglich sein wird, erfahren Sie hier.

Wir wünschen viel Spaß beim Lesen!

DataLion beim Data Natives ’15 Startupbattle

Am Freitag ist es so weit: DataLion wurde ausgewählt, um bei der Data Natives Conference 2015 in Berlin mit sechs weiteren Startups aus den Bereichen BigData, IoT und FinTech um den Sieg zu pitchen. Die Data Natives Conference zieht führende Köpfe der Forschung, Wirtschaft, Gründer- und Investoren-Szene aus aller Welt an.

Mit mehr als 40 Rednern, über 450 Teilnehmern und 6 Startup-Pitches gehören spannende Workshops, Vorträge, Präsentationen und Networkings zum Programm des zweitägigen Events.

Dabei wird unser Co-Founder und Geschäftsführer Dr. Benedikt Köhler für DataLion in den Ring steigen. Wir sind gespannt auf das Event und den Pitch am Freitag und freuen uns auf viele neue & interessante Kontakte!

Das Löwenrudel wächst

Mit Julia Stenzel und Jan Akerman holt sich DataLion sowohl langjährige Expertise auf dem Gebiet der Marktforschung und Datenanalyse als auch Innovationsgeist aus der Gründerszene ins Team.

JuliaJan

Julia ist seit September zuständig für den Bereich Client-Services und damit zentrale Ansprechpartnerin für neue und laufende Projekte. Zuvor hat sie mehr als fünf Jahre lang bei der Münchner Marktforschungs-Agentur d.core zahlreiche Studien aus der Markt- und Medienforschung betreut.

Jan startete Anfang November im Bereich Business Development und soll das Team dabei in puncto Produktkonzeption, Sales und Marketing unterstützen. Er kann bereits auf mehr als zwei Jahre Gründungserfahrung in dem Passauer Lifestyle-Startup Campusbeauties zurückgreifen.