Smart Data – Mehr als nur ein Buzzword?

Dr. Meitz, Ihr Lehrbereich ist die Kommunikations- und Medienpsychologie. Wie erfolgt denn da der Schritt zu Big und Smart Data?
Mein Fachbereich steht grundsätzlich für empirische und deduktive Vorgehensweisen, also eher experimentalpsychologische Untersuchungen. Aber die Kommunikations- und Medienpsychologie beschäftigt sich mit allen Facetten der medienvermittelnden Kommunikation und wir kommen nicht umher, uns mit digitalen Kommunikationsangeboten zu beschäftigen, insbesondere mit User-Generated Content. Wegen der Digitalisierung haben wir Datenquellen in einer bis dato unbekannten Fülle vorliegen. Das Gute ist, dass wir mit Software- oder Analysetools für Big Data oder Smart Data jetzt auch Möglichkeiten haben, diese großen Datensätze auszuwerten.

Steckt hinter Smart Data tatsächlich ein anderer Ansatz als bei Big Data, wo es mehr um die Datensammelwut ging?
Im allgemeinen Sprachgebrauch ist es sicherlich eher ein Buzzword. Ich würde es differenziert betrachten: Die Unterscheidung zwischen Big Data als deskriptiver Begriff für große Datenmengen zeigt einfach nur, dass es etwas ist, was substanziell das Vorhandensein dieser Daten beschreibt. Wohingegen Smart Data, wenn man das als eine Prozesskette betrachtet, eher die Frage stellt, was wir mit diesen großen Datenmengen machen oder wie wir wirklich in der Analyse Intelligenz damit erzeugen. Damit meine ich nicht Intelligenz, die in den Daten drin ist! Das ist einer der zentralen Kritikpunkte – wenn keine konkreten Fragestellungen vorhanden sind, dann modellieren die Algorithmen irgendetwas, was aber nicht zwingend smart ist. Das Modell ist noch keine Interpretation dessen, was modelliert wurde. Da sind wir meines Erachtens noch lange nicht so weit, dass diese ebenfalls durch Smart Data selber vorgenommen wird.  

Was macht den Reiz von Big Data aus?
Unsere Untersuchungen beschäftigen sich mit sehr kleinen Ausschnitten der systematischen Variation von Variablen – aus gutem Grund, denn die gemessenen Effekte sollen auch wirklich auf sie zurückzuführen sein. Häufig haben wir Variablenstrukturen oder Merkmale in der wirklichen Welt, die deutlich komplexer sind. Oder latente Variablen und Muster, die wir nicht so erkennen können innerhalb unserer systematischen Manipulationen. Diese latenten Abhängigkeiten müssen wir berücksichtigen oder zumindest mal explorieren, um unsere Hypothesen, die wir über Wirkungszusammenhänge und menschliche Verhaltensweisen haben, auch letztlich an tatsächliches Verhalten rückbinden zu können.

Gibt es auch die Möglichkeit, dass sich kein Muster finden lässt?
Kein Muster zu finden ist in großen Datensätzen eher hypothetisch, dennoch möchte ich das nicht ausschließen. Ich glaube aber eher, wir finden in der Regel zu häufig Muster und sehen nicht, dass diese vielleicht im besten Fall aus einem einzelnen Datensatz entstanden und dann aber nicht verallgemeinerungsfähig sind. Wir versuchen im Grunde genommen eine Verallgemeinerungsfähigkeit von korrelativen Zusammenhängen zu ergründen, die jedoch streng genommen keine kausale Interpetation erlauben. Genau das ist das Problem mit der Mustererkennung: Wir sehen vermeintliche Effekte, die auf Basis von einzelnen Datensätzen zustande kommen – was bedeutet das in der Prognosefähigkeit für den nächsten Datensatz? Tendenziell haben wir Variablen, die wir aus dem Stand des Wissens der empirischen Forschung überhaupt nicht berücksichtigen würden, aber mit in diese Datensätze hineingeben und die so innerhalb dieses Datensatzes zur Varianzaufklärung beitragen. Man ist also von einem guten Model Fit überzeugt, es liegen aber vielmehr Overfitting und ein statistisches Problem vieler Freiheitsgrade vor. Die Daten sind dann nur künstlich signifikant. Wenn ich behaupte, es gibt einen bestimmten Effekt, muss ich das offen und transparent machen, damit Kolleginnen und Kollegen in nachfolgenden Experimenten eine Chance haben, diesen Effekt zu replizieren. Wenn sich die Anzahl und Art der Variablen von Datensatz zu Datensatz ändert, ist diese Replikation kaum möglich.

Spielen wir den Transfer in die Werbewirtschaft durch: Onlinekampagnen erschienen lange als reizvoll, weil sie wegen der Daten angeblich zielgenau ausgesteuert werden konnten. Aktuell wird hier zurückgerudert.
Ich würde es folgenderweise formulieren: Die Kritik an klassischen Massenmedien ist partiell insofern berechtigt, als dass die Massenmedien vor 20 bis 25 Jahren genau die Fehler gemacht haben, die aktuell den Onlinemedien vorgeworfen werden. Damals haben sich Printmedien auch nur bedingt für mehr interessiert als Leser pro Auflage oder Reichweite, obwohl klar war, dass das nichts über die Werbewirkung aussagt. Beantwortet werden muss aber die Frage, ob auf das Werbespending ein Return of Investment stattfindet – diese wird mit den aktuellen KPIs nicht unbedingt beantwortet. Onlinemedien bieten einen gewissen Charme, weil Kontakte in Echtzeit gemessen werden können. Mit dem Problem, aber das haben wir bei allen Medien, was ist als „Kontakt“ definiert? Wenn Sie sich anschauen, wie viele Standards wir für Bewegtbilder-Ausspielungen im Onlinebereich haben, was ist eine relevante View-Time und was haben Menschen im Rahmen der Betrachtung von wenigen Sekunden wirklich kognitiv verarbeiten können? Das liegt noch sehr viel Arbeit vor uns, aber letztlich geht es nicht um das Versagen eines einzelnen Mediums, sondern vor allen Dingen um einen langwierigen Abstimmungsprozess zwischen den Gattungen, die hier noch viel zu tun haben. Wenn man sich beispielsweise die AGMA anschaut, dann ist es meines Erachtens der richtige Weg, die großen Digitalanbieter, ob das jetzt Alphabet ist, ob das Facebook ist, mit an den Tisch zu bekommen und gemeinsam Standards zu entwickeln. Wir brauchen Faktoren, die wir als relevante Reichweitengrößen bezeichnen. Massenmedien wie Rundfunk und Print haben aber mittlerweile aufgrund des Druckes, der auf ihnen lastet viel, viel besser verstanden, was die expliziten Wirkmechanismen in ihrer Gattung sind.

Inwiefern wird sich das in der täglichen Arbeit widerspiegeln?
Im Grunde genommen durch einen Wandel in den Organisationen selber. Wenn Sie heute Kampagnen einbetten wollen, ob Sie Mediavermarkter sind, ob Sie eine Kreativagentur sind, dann müssen Sie bei jedem Pitch damit rechnen, dass nicht mehr die Marketingabteilung das Sagen hat, sondern Menschen aus dem Vertrieb am Tisch sitzen. Natürlich muss es eine Legitimation für den Mitteleinsatz geben. Die entscheidende Frage ist, wie bedeutend sind Marketingfunktionen in den entsprechenden Unternehmen noch? Vieles was in Bezug auf Brand Building, Markenpflege et cetera wirkt oder unternommen wird, lässt sich nicht einfach durch klassische KPIs, wie sie meist im Vertrieb und Controlling gerne gesehen werden, widerspiegeln. Wir haben es mit einem differenzierten Medienmarkt zu tun, der wird immer komplexer. Aus der Budgetrestriktion der Werbemittel entsteht des Weiteren eine Allokationsfrage. Hier halte ich Smart Data-Analysen für sehr sinnvoll, denn es kann nicht darum gehen, den Etat auf neue Medientechnologien zu übertragen, sondern das Zusammenspiel von verschiedenen Gattungen besser auszuloten. Geld aus klassischen Massenmedien abzuziehen und das alles ins Digitale zu stecken, ist ein Fehler. Auf den Trichter sind auch mittlerweile viele Unternehmen gekommen, weil der Effekt aus den Massenmedien nun wegbricht – und sich in den digitalen Medien nicht mehr im gleichen Umfang messen lässt. Bisher gibt es leider relativ wenig substanzielle Forschung zu diesen Cross-Media-Effekten.

Wie könnte man die Forschung voranbringen?
Ich bin ein großer Sympathisant von Public Private Partnerships. Ich glaube, dass sich Unternehmen als die entsprechenden Stakeholder insgesamt stärker daran orientieren sollten, was in der Forschung überhaupt passiert. Das sollte einhergehen mit der Selbstverpflichtung der Forschung, Ergebnisse aktiv an entsprechende Öffentlichkeiten zu kommunizieren. Insofern glaube ich, dass es für Absolventen, die sich in diese Berufsfelder wagen möchten, gute Felder außerhalb der Universitäten oder Forschungseinrichtungen gibt. Eines der spannenden Felder, die wir momentan haben, sind sicherlich Unternehmensberatungen, die in diesem Bereich gemeinschaftlich oder in Kooperation mit entsprechenden Softwareanbietern arbeiten. Wenn ich mir anschaue, wer die Technologietreiber in der Analysesoftware sind, dann sind das nicht mehr die klassischen IT-Unternehmen, sondern vor allem Verbünde von IT-Unternehmen und entsprechenden beratungsstarken Unternehmen, die Fragen der Industrie oder der Wirtschaft seit Jahren verfolgen und hier mit der Expertise aufwarten können.

Inwiefern benötigen Hochschulabsolventen grundsätzlich mehr IT-Kenntnisse?
Jeder, der in der medienpsychologischen Forschung arbeitet, braucht grundsätzlich statistische Kenntnisse. Aber was sind IT-Kenntnisse? Sind das Programmierkenntnisse oder wahrscheinlichkeitstheoretische statistische Kenntnisse? Man muss nicht alles können. Aber ich glaube, dass wir in diesem Bereich an den Hochschulen mehr interdisziplinäre Kooperationen brauchen.

Das Grundgebot ist also Interdisziplinarität.
Genau. Es ist für die Datenanalyse allein unglaublich wichtig. Die schließt daran an, dass ich einfach ein ganz klares Bild davon haben muss, wie die Datenaufbereitung zu Stande gekommen ist. Das ist nicht so einfach. Wer auch immer Analyse-Software anbietet: Es muss das Recht der anwendenden Unternehmen und der Mitarbeitenden geben, nachzuvollziehen, wie die Aggregation, die tatsächliche algorithmische Verarbeitung von Daten aussieht, um die Güte von Datensätzen letztendlich auch einschätzen zu können.

Wie wird sich denn die Güte von den Datensätzen demnächst ändern, Stichwort EU-Datenschutz-Grundverordnung?
Das finde ich schwierig abzuschätzen. Auf der einen Seite müssen Verbraucher das gute Recht haben, selbstbestimmt mit Daten umgehen zu können. Ich glaube, wir unterminieren in der Debatte häufig, dass wirklich der Mehrwert des freiwilligen Handels mit seinen eigenen Daten etwas ist, bei dem Unternehmen gut beraten sind zu kommunizieren, was die Vorteile auch für den Nutzer sind. Handel meine ich nicht im Sinne von an einem Markt, sondern des Umgehens mit Daten und der Bereitschaft zu sagen, wie viel gebe ich von mir preis. Banken unterliegen beispielsweise einerseits strengen Datenschutzrichtlinien, aber die Kunden erwarten in beratungssensitiven Bereichen passgenau zugeschnittene Angebote. Es geht um zwei Seiten einer Medaille. Enorm wichtig ist, dass der Kunde erkennt, was mit seinen Daten passiert und wo Mehrwerte für ihn entstehen. Die andere Frage ist: Wenn wir den Datenschutz in Deutschland heranziehen, dann haben wir sehr rigide Vorgaben. Allerdings haben wir jedoch auch Verbraucher, die Datennutzung zwar sehr kritisch thematisieren, aber in ihrem alltäglichen Handeln in keiner Weise diese Rigidität erkennen lassen. In Deutschland führen wir eine sehr extrapolierte Debatte, die teils auch mit falschen Themen aufwartet. In der Öffentlichkeit sind zum Thema Datenschutz eigentlich immer nur Fälle bekannt, die mit der Datenschutzrichtlinie nur sehr wenig zu tun haben. Es wird das medial aufbereitet, was plakativ darstellbar ist, also Skandale von gehackten oder gestohlenen Daten. In erster Linie ist das kein Problem des Datenschutzes, sondern das Delikt des Diebstahls von Informationen, die wir freiwillig abgegeben haben und die anscheinend nicht ausreichend gesichert waren. Das ist ein ganz anderes Thema als die Frage des Datenschutzes im Sinne eines Verbraucher- oder Persönlichkeitsrechtes.

Das zweite Problem, glaube ich, ist auch so ein bisschen der Fokus auf den eigenen Mikrokosmos. Bei Datenschutz denkt jeder automatisch an sich selbst und fragt sich, „Warum will jemand wissen, auf welchen Webseiten ich vorher war, bevor ich den Kauf getätigt habe?“ Dass es dabei um wesentlich größere Fragenstellungen geht, wie zum Beispiel im medizinischen Bereich und damit eine gesamtgesellschaftliche Verbesserung unserer gesundheitlichen Versorgung, ist bisher überhaupt nicht angekommen.


Smart-Data, Dr. Tino Meitz

Dr. Tino Meitz, Jahrgang 1973, promovierte in der Kommunikationswissenschaft, Psychologie, Wirtschaftspolitik und Politikwissenschaft an der Westfälischen Wilhelms-Universität Münster. Nach Stationen an der University of Surrey, Großbritannien, dem Arbeitsbereich für Empirische Medienforschung der Universität Tübingen und als Vertreter des Lehrstuhls Kommunikationswissenschaft (W3) – Rezeption und Wirkung an der Universität Augsburg habilitierte er 2015 an der Universität Münster: »Informationsverarbeitung und Rezeptionserleben. Zum Stellenwert kognitionspsychologischer Aspekte der Informationsverarbeitung in der kommunikationswissenschaftlichen Medienrezeptions- und Medienwirkungsforschung«. Seit dem Sommersemester 2017 vertritt er die Professur für Kommunikations- und Medienpsychologie an der Friedrich-Schiller-Universität Jena. 


 

Interview und Text von Bettina Riedel.


Weitere Artikel zu Fach- und Karrierethemen für IT-Absolventen von Morgen findest du in dieser Übersicht.

Share.