tweet.garantiert.biz

Bedeutung von Machine Learning, AI & Rankbrain auf SEO & Google

by garantiert
Comments are off for this post.

Machine Learning und Artificial Intelligence (AI) nehmen einen immer größeren Raum bei der Modellierung  und Klassifizierung nach Mustern auch im Online Marketing ein. Unternehmen wie z.B. Tesla, Google, Microsoft, Amazon und Facebook betreiben großen Forschungsaufwand im Bereich der künstlichen Intelligenz.

In diesem Beitrag versuche ich die Welt des Machine Learnings und deren Einfluss auf SEO zusammen mit der Unterstützung einiger geschätzter Kollegen namens Markus Hövener, Sepita Ansari, Christian Kunz, Marcus Tober, Kai Spriestersbach, Sebastian Erlhofer und Marcel Schrepel  greifbarer zu machen.

machine-learning_seo

Spätestens nach der Bekanntgabe von Google im November 2015, dass ein neues sehr wichtiges Ranking-Signal bzw. wichtiger Ranking-Faktor  namens Rankbrain bereits seit Monaten im Einsatz ist, ist das Interesse an dem Thema Machine-Learning in der SEO– und Online-Marketing-Gemeinde endgültig angekommen. Ich halte das Thema Machine Learning gerade im digitalen Kontext für ähnlich einschneidend und zukunftsweisend wie z.B. die Themen Mobile, Big Data und Content-Marketing. Wie Machine-Learning im Zusammenhang mit anderen aktuellen Buzzwords wie Artificial Intelligence (Künstliche Intelligenz), Semantik oder Deep Learning steht und welche Auswirkungen diese Entwicklung hin zu selbstlernenden Algorithmen auf Suchmaschinen hat möchte ich nachfolgend erläutern. Dabei möchte ich darauf hinweisen, dass ich das Thema Künstliche Intelligenz bzw. Machine Learning nur oberflächlich betrachten konnte. Wer tiefer in die Materie einsteigen möchte findet am Ende des Beitrags eine ausführliche Quellen-Sammlung an Videos und Links zu dem Thema.

Was ist Machine Learning? Bedeutung, Definition & Methodik

Die aktuelle und vor allem zukünftige Bedeutung von Machine Learning ist im digitalen Kontext ähnlich einzuordnen wie die Themen Mobile, Big Data oder Content-Marketing. Auch die Schlagzahl der medialen Präsenz der Themen nimmt seit 2014 deutlich zu, wie man bei Google-Trends nachverfolgen kann.

Google Trends: Entwicklung des Suchvolumens für Big Data, Machine Learning und Content-Marketing

Google Trends: Weltweite Entwicklung des Suchvolumens für Big Data (gelb), Machine Learning (blau) und Content-Marketing (rot)

Wie ich in meinem Beitrag Das semantische Web (Web 3.0) als logische Konsequenz aus dem Web 2.0 bereits erläutert habe sind Systeme, die Informationen identifizierbar, kategorisierbar, bewertbar und je nach Kontext sortierbar machen die einzige Möglichkeit der Informations- und Datenflut begründend auf den Innovationen des Web 2.0 herr zu werden. Doch hier reicht reine Semantik nicht aus. Deswegen benötigen die digitalen Gatekeeper immer zuverlässigere Algorithmen um diese Aufgabe zu bewerkstelligen. Hier werden zukünftig selbstlernende Algorithmen basierend auf  Artificial Intelligence und Methoden des Machine-Learnings eine immer wichtigere Rolle spielen. Nur so kann die Relevanz von Ergebnissen bzw. erwartungskonforme Ausgaben / Ergebnisse gewährleistet werden.

Doch was ist Machine-Learning nun genau und wie funktioniert es?

Machine Learning ist im Themenfeld Artficial Intelligence zu deutsch Künstliche Intelligenz zu verorten. Der Bereich Artificial Intelligence teilt sich in folgende Teilbereiche auf:

1. Reasoning
2. Knowledge representation
3. Automated planning and scheduling
4. Machine Learning
5. Natural language processing
6. Computer vision
7. Robotics
8. General intelligence, or strong AI

Der Begriff Intelligenz trifft in Bezug auf Machine-Learning nicht ganz zu, da es weniger um Intelligenz, viel mehr um durch Maschinen bzw. Computer erkennbare Muster und Genauigkeit geht. Machine Learning befasst sich mit der automatisierten Entwicklung von Algorithmen basierend auf empirischen Daten bzw. Trainings-Daten. Dabei liegt der Fokus auf der Optimierung der Ergebnisse bzw. Verbesserung der Vorhersagen aufgrund von Lernprozessen.

Künstliche Intelligenz hat zum Ziel Entscheidungen aufgrund erhobener Daten gemäß eines Menschen zu treffen. Dafür bedarf es mehr als nur Machine-Learning-Methodiken. Die Technologie hinter dem Machine-Learning sind sogenannte Neural Networks.

Was sind Neurale Netzwerke?

Neural Network zu deutsch Neurale Netzwerke sind Gruppen von Algorithmen, die gemäß eines menschlichen Gehirns aufgebaut sind, um wiederkehrende Muster zu erkennen und diese daraufhin zu ordnen bzw. zu etikettieren. Die erkannten Muster werden in mathematisch Vektoren übersetzt. Dabei werden alle Informationen der realen Welt wie Bilder, Sound, Text oder Zeitfolgen berücksichtigt.

Neurale Netzwerke helfen über mehrere Ebenen hinweg für das jeweilige System neue Informationen aufgrund von Ähnlichkeiten zu klassifizieren und in Modellgruppen zusammenzufassen. Labels helfen dabei diese Gruppen zu benennen. Beispiele für Labels können sein: Spam, Kein Spam, Zufriedener Kunde, Unzufriedener Kunde, Gekaufter Link, Nicht gekaufter Link 😉  …

Die folgende Folie aus einem Vortrag von Googles Jeff Dean, veranschaulicht, dass bestimmte Muster z.B. eines Bilds eines Löwen immer wiederkehrend sind, Aufgrund dieser immer wieder kehrenden Muster kann man über Machine Learning automatisiert das Bild eines Löwen interpretieren und etikettieren.

Quelle: Präsentation Jeff Dean / Google

Quelle: Präsentation Jeff Dean / Google

Neurale Netzwerke bestehen aus mehreren Ebenen bzw. Layern, die in Reihe geschaltet zur Verfeinerung bzw. Genauigkeit der Annahmen beitragen. Wer sich noch tiefer mit dem Thema beschäftigen findet hier eine schöne Einführung.

Machine-Learning-Arten

Man unterscheidet grundsätzlich in drei verschiedene Arten des Machine Learnings:

Überwachtes Lernen Unüberwachtes Lernen Bestärkendes Lernen

Dazu ein Auszug aus der deutschen Wikpiedia:

Überwachtes Lernen (engl. supervised learning)Der Algorithmus lernt eine Funktion aus gegebenen Paaren von Ein- und Ausgaben. Dabei stellt während des Lernens ein „Lehrer“ den korrekten Funktionswert zu einer Eingabe bereit. Ziel beim überwachten Lernen ist, dass dem Netz nach mehreren Rechengängen mit unterschiedlichen Ein- und Ausgaben die Fähigkeit antrainiert wird, Assoziationen herzustellen. Ein Teilgebiet des überwachten Lernens ist die automatische Klassifizierung. Ein Anwendungsbeispiel wäre die Handschrifterkennung. Unüberwachtes Lernen (engl. unsupervised learning)Der Algorithmus erzeugt für eine gegebene Menge von Eingaben ein Modell, das die Eingaben beschreibt und Vorhersagen ermöglicht. Dabei gibt es Clustering-Verfahren, die die Daten in mehrere Kategorien einteilen, die sich durch charakteristische Muster voneinander unterscheiden. Das Netz erstellt somit selbständig Klassifikatoren, nach denen es die Eingabemuster einteilt. Ein wichtiger Algorithmus in diesem Zusammenhang ist der EM-Algorithmus, der iterativ die Parameter eines Modells so festlegt, dass es die gesehenen Daten optimal erklärt. Er legt dabei das Vorhandensein nicht beobachtbarer Kategorien zugrunde und schätzt abwechselnd die Zugehörigkeit der Daten zu einer der Kategorien und die Parameter, die die Kategorien ausmachen. Eine Anwendung des EM-Algorithmus findet sich beispielsweise in den Hidden Markov Models (HMMs). Andere Methoden des unüberwachten Lernens, z. B. Hauptkomponentenanalyse verzichten auf die Kategorisierung. Sie zielen darauf ab, die beobachteten Daten in eine einfachere Repräsentation zu übersetzen, die sie trotz drastisch reduzierter Information möglichst genau wiedergibt. Bestärkendes Lernen (engl. reinforcement learning)Der Algorithmus lernt durch Belohnung und Bestrafung eine Taktik, wie in potenziell auftretenden Situationen zu handeln ist, um den Nutzen des Agenten (d. h. des Systems, zu dem die Lernkomponente gehört) zu maximieren. Dies ist die häufigste Lernform eines Menschen.

Dazu habe ich auch in dieser Präsentation von Rahul Jain einige gute Grafiken gefunden. (Verlinkung zur Präsentation am Ende des Artikels).

überwachtes-Lernen

Machine-Learning-Prozess: Überwachtes Lernen

Das Überwachte Lernen bedarf Einiges an Vorarbeit, denn es müssen Beispielmodelle im Vorfeld festgelegt und belabelt werden, um eingehende Informationen zu identifizieren und dieser Modellgruppe zuordnen zu können bzw. zu klassifizieren. Diese Belabelung wird aufgrund der Qualitätssicherung in der Regel durch menschliche Hand durchgeführt. Aufgrund bestimmter immer wieder auftretender Muster kann das System dann, zukünftig  Informationen mit gleichen oder ähnlichen Muster-Eigenschaften  selbstständig erkennen und der jeweiligen Modellgruppe zuordnen.

unüberwachtes-Lernen

Machine-Learning-Prozess: Unüberwachtes Lernen

Beim Unüberwachten Lernen findet die Vorab-Belabelung nicht statt und die Modellgruppen werden automatisiert aufgrund von Mustern gebildet.

Bestärkendes-Lernen

Machine-Learning-Prozess: Bestärkendes Lernen

Ähnlich wie mit dem Begriff Artificial Intelligence wird der Begriff Machine Learning mit Deep Learning und Semantik oft gleichgesetzt bzw. im selben Atemzug genannt. Nachfolgend ein Versuch der Differenzierung.

 

Unterschied zwischen Machine Learning und Deep Learning

Deep Learning ist ein Teilbereich des Machine Learnings, könnte auch als Weiterentwicklung bezeichnet werden. Während klassische Machine-Learning Algorithmen auf feste Modellgruppen zur Erkennung und Klassifizierung zurückgreifen, entwickeln Deep-Learning Algorithmen eigenständig diese Modelle weiter bzw. erstellen eigenständig neue Modellebenen innerhalb der Neuralen Netzwerke. Dadurch müssen nicht immer wieder Modelle für neue Begebenheiten manuell entwickelt und eingeführt werden, wie es bei klassischen Machine-Learning-Algorithmen der Fall wäre. So sind auch Vorraussagen durch Deep-Learning-Algos besser zu treffen. Dazu diese Grafik (Die Orginaquelle ist leider nicht mehr online. Deswegen der Verweis auf diesen Beitrag.)

deep-learning-workflow

Hier ein veranschaulichendes kurzes Video dazu

Abgrenzung zwischen Machine Learning und Semantik

Die Semantik kann dabei helfen die Bedeutung eines Objekts über die Klassifizierung als eindeutige Entität und über die Beziehungen mit anderen Entitäten besser zu indentifizieren. Bei der Klassifizierung greift die Semantik auf Eigenschaften ähnlich der Muster bei der Zuordnung zu Modellgruppen im Machine Learning zurück. Der entscheidende Unterschied ist aber, dass die Semantik keinen keinen Lernprozess verfolgt, wie es beim Machine Learning der Fall ist. Dadurch sind semantische Systeme eher statisch und nur schlecht in der Lage Vorraussagen für neu eintretende Situation durchzuführen. Modellgruppen und Muster bzw. Enitäten müssen bekannt sein.

 

Machine Learning und (Suchmaschinen-) Algorithmen

Das spannende an dieser Entwicklung hin zum Machine-Learning ist, dass Algorithmen sich zukünftig selbst weiter entwickeln und anpassen können. Bisher wurden z.B. bei Google der Suchalgorithmus wie folgt weiter entwickelt.

Eine durchschnittliche Veränderung an den Algorithmen beginnt mit einer Idee zur Verbesserung der Suche von einem der Google-Entwickler. Sie folgen einem datenbasierten Ansatz und alle vorgeschlagenen Algorithmusänderungen werden vor der Veröffentlichung im Rahmen einer umfangreichen Qualitätsbewertung getestet.

In der Regel führen Entwickler zu Beginn eine Reihe von Experimenten durch, optimieren die eine oder andere Variable und bitten Kollegen um Feedback. Wenn sie mit dem Ergebnis zufrieden sind, wird das Experiment für ein größeres Publikum freigegeben.

Algorithmus-Weiterentwicklung bei Google Quelle: Google

Algorithmus-Weiterentwicklung bei Google Quelle: Google

Die Folge ist ein statischer allgemeiner Algorithmus, der durch viele kleinere und größere Updates weiter entwickelt wird. Dieser Algorithmus ist für jede Situation gleich. Tauchen völlig neue vorher nie da gewesene Situationen auf ist der Algo erst einmal überfordert. Auch die Berücksichtigung jedes inviduellen Kontexts, wie z.B. Standort, genutztes Endgerät …  in dem sich ein Nutzer befindet muss dieser eine Algorithmus bedienen. Im Optimalfall hätte jeder Nutzer oder zumindest Nutzergruppe einen eigenen individuellen Algorithmus „verdient“, um gemäß des jeweiligen Kontexts bedient zu werden. Das ist mit dem bisherigen relativ statischem Algorithmus nicht möglich.

Es ist nicht möglich für jede Aufgaben einen eigenen Algorithmus zu schreiben. Es müssen Algorithmen geschrieben werden, die aufgrund von Beobachtungen lernen. Machine-Learning würde dies möglich machen und Google geht bereits in diese Richtung.

Zudem hat Google Signale von Nutzerseite, die als Erfolgsmetriken im Lernprozess genutzt werden können:

Long to Short Click Ratio Anteil der Suchenden die verwandte und zusätzliche Suchanfragen durchführen Kennzahlen für Nutzer-Engagement (ermittelbar z.B. über Chrome) Relative Kickrate in den SERPs Geteilte Inhalte Nutzer Engagement auf den Websites

Im Zusammenspiel mit den klassischen Offpage-Ranking-Signalen wie Backlinks, Co-Citations und Co-Occurences können diese als Erfolgsmetriken zur Verifizierung einer Einschätzung durch den Algorithmus genutzt werden.

Eine interessante Frage ist Woher bezieht Google die Nutzerbezogenen Trainings-Daten zum Einleiten des Machine-Learning-Prozess?

Sind es echte Nutzerdaten oder bedient sich Google hier zukünftig weiter der Daten, die durch die Such-Evaluatoren vzw. Quality-Rater in einer Testumgebung generiert werden?

(Diskussionen u.a. hierzu gerne in den Kommentaren.)

Das obige Modell zur Algorithmus-Weiterentwicklung nach und nach obsolet zu werden. Ein Beleg dafür sind auch die immer häufiger werdenden Real-Time-Updates wie z.B. das Real-Time-Pinguin Updates oder die „nebenher laufenden“ Panda Updates. Früher wurden kommende Updates groß angekündigt und von den Kollegen wie z.B. sistrix dokumentiert. Ich denke solche Dokumentationen werden bald ihre Sinnhaftigkeit verloren haben. Und auch Studien und Übersichten von Rankingfaktoren wie wir sie bisher kennen werden in ein paar Jahren Geschichte sein. Aber dazu weiter unten mehr.

Google bezieht schon eine Menge von Informationen aus verschiedenen Ebenen beim Indexieren und Ranking ein, die irgendwie im Algorithmus berücksichtigt werden müssen

Text Visuelles (Bilder, Videos) Audio Nutzerverhalten  Knowledge Graph (Abbild von Beziehungen)

Dabei kann Google inzwischen auch schon Nummern und Text aus Bildern auslesen, wie mein Kollege Philipp in seinem Beitrag in der nächsten Woche eindrucksvoll beschreiben wird.

Mehr dazu im Beitrag Bilderkennung: Kann Google Texte in Bildern lesen und erkennen?

Wenn man sich noch einmal, die verschiedenen Machine-Learning-Arten ansieht und in die Suchmaschinen-Welt überträgt macht es Sinn zu überlegen, wo bereits zumindest Machine-Learning-Ansätze bei Google genutzt werden. Bezogen auf die Suche kann man zumindest Ansätze des ML hier erkennen:

Knowledge Graph Hummingbird Rankbrain eventuell Real-Time-Pinguin

Zudem sind schone einige Google Produkte im Einsatz, die sich Deep-Learning-Funktionalitäten bedienen wie z.B. Text in Bild Erkennung, Spracherkennung, Google Translate …

Die große Frage ist: Wie  kann man Systeme schaffen, die mit all diesen ganzen Informationen zurecht kommen?

Und wieder lautet die Antwort: Machine-Learning kann sie sein.

Das größte Problem beim Handling bei solch einer Masse an Daten ist das Thema Performance und Skalierbarkeit. Dennoch möchte Google hier mit aller Kraft einen Weg in Richtung Machine-Learning gehen will und laut Eric Schmidt ist Machine Learning das bestimmende Thema der Zukunft für Google, wie er vor Studenten der TU Berlin kürzlich darstellte:

Das überragende Thema der kommenden Jahre ist laut Schmidt Machine Learning. Also die Entwicklung von Maschinen und Computern, die selbstständig lernen können. Schmidt: „Wir werden dem Computer in Zukunft keine Fragen mehr stellen müssen, weil er gelernt hat, was wir fragen werden. Es beginnt gerade etwas ganz Großes.“ Schmidt vertraut den Maschinen. Computer seien in vielen Dingen einfach besser und schneller als Menschen.

 

Googles Engagement in Sachen künstlicher Intelligenz & Machine Learning

Dass Google irgendwann ein künstliches Gehirn erschaffen möchte und dass dafür Hummingbird und der Knowldege Graph nur der Anfang sind hat meine Kollegin Svenja vor zwei Jahren mit dem Beitrag Knowledge Graph: Google baut ein Gehirn hier im Blog erläutert. Doch bis dato konnte man es nur erahnen. Durch die weiteren Aktivitäten in den letzten Jahren wird das Bild nun immer klarer.

Laut eigenen Angaben hat Google seit 2014 seine Aktivitäten in Sachen Deep Learning knapp vervierfacht, wie man aus der Folie des weiter unten aufgeführten Vortrag von Jeff Dean entnehmen kann.

Unbenannt13

Quelle: Präsentation Jeff Dean / Google

Googles Engagement in Sachen Artificial Intelligence und Machine-Learning begann im Jahr 2011 mit dem Projektstart von „Google Brain“.  Ziel von Google Brain ist es eigene Neural Networks zu schaffen. Seitdem entwickelt Google mit einer selbst entwickelten Deep-Learning-Software DistBelief die eigenen Produkte in Sachen Machine-Learning weiter. Die zweite Software-Generation namens Tensor Flow steht aber schon in den Startlöchern.

Betrachtet man die Investitionen und Engagements in Sachen Artificial Intelligence im Zeitverlauf wird schnell klar wie wichtig Google diese Themen sind:

Googles Engagement in Sachen Machine Learning und Artificial Intelligence

Googles Engagement in Sachen Machine Learning und Artificial Intelligence

Während der Knowledge-Graph und Hummingbird bereits Machine-Learning-Ansätze beinhalten, lag hier noch eher die  semantische Suchmaschine im Fokus. Spätestens mit den mehrere hundert Millionen schweren Investitionen in diverse Unternehmen aus den Bereichen Artificial Intelligence und Machine-Learning im Jahr 2014 wird klar wohin Google aber wirklich will.

Mit Deep Mind (ca. 365 Mio. Dollar) kaufte Google ein bereits 2011 gegründetes Unternehmen, das sich im Schwerpunkt mit Systemen rund um Künstlicher Intelligenz beschäftigt. U.a. ist DeepMind für die Entwicklung von Google Now verantwortlich. DeepMinds ausgegebenes Unternehmensziel ist das Verstehen von Intelligenz. Zudem beschäftigt sich DeepMind nicht nur mit der Entwicklung von neuronalen Netzen sondern arbeitet an deutlich flexibleren Modellen ähnlich einem Kurzzeitgedächtnis.

Dark Blue Labs hingegen beschäftigt sich im Schwerpunkt mit der Erkennung und Deutung natürlicher Sprache also auch Audio-Formaten.

Vision-Factory hat sich auf Erkennung und Deutung von visuellen Medien wie Bildern oder Videos spezialisiert.

Im Umgang Mit Texten hat Google hingegen als textbasierte Suchmaschine schon länger Erfahrungen. Im Bereich Audio, Video und Bild hat man sich mit den genannten Unternehmen professionelle Unterstützung mit ins Boot geholt.

Zudem investiert Google laut eigener Aussage seit Jahren sehr viel in das Thema Künstliche Intelligenz.  So hat Google hat bis heute Dekaden an Mannstunden investiert in die Entwicklung einer State-of-the-Art Infrastruktur z.B. eigene neuronale Netze investiert. Desweiteren beschäftigt Google tausende CPUs und GPUs um aus dem Billionen von Datensätzen parallel weiter zu lernen.

Im Dezember 2015 gab Google bekannt zusammen mit der NASA an einem Quanten-Computer zu arbeiten.

Google veröffentlicht oft als erste Instanz wissenschaftliche Aufgabenstellungen zu Themen wie Bilderkennung, Spracherkennung. So wurden in den letzten zwei Jahren über 460 Publikationen zum Thema Artificial Intelligence veröffentlicht. Siehe dazu http://research.google.com/pubs/ArtificialIntelligenceandMachineLearning.html.

Und es bleibt nicht nur bei der Theorie. So hat Google laut eigener Aussage ihre Erfahrungen in Sachen Deep Learning seit 2012 in mehr als 47 Produkte implementiert. Hier ein Auszug:

Objekt-Erkennung in Bildern Objekt- Katgeorie Erkennung in Videos Spracherkennung Passanten-Erkennung für selbstfahrende Autos OCR: Texterkennung in Bildern Erkennung von Umgangssprache  Maschinen-Übersetzung Online-Werbung

The Expander team’s machine learning system is now being used on massive graphs (containing billions of nodes and trillions of edges) to recognize and understand concepts in natural language, images, videos, and queries, powering Google products for applications like reminders, question answering, language translation, visual object recognition, dialogue understanding, and more.

Google selbst bestätigt, dass  Semi-Supervised-Machine-Learning (Erklärung weiter oben im Beitrag) zum Einsatz kommt.

At its core, Expander’s platform combines semi-supervised machine learning with large-scale graph-based learning by building a multi-graph representation of the data with nodes corresponding to objects or concepts and edges connecting concepts that share similarities. The graph typically contains both labeled data (nodes associated with a known output category or label) and unlabeled data (nodes for which no labels were provided).

Wer die manuelle Belabelung bzw. Vorkennzeichnung bei Google übernimmt ist unklar. Es könnte sein, dass dies je nach Aufgabenstellung durch Quality-Rater und günstige Clickworker durchgeführt wird.

Wer mehr über Googles Aktivitäten in Sachen Artificial Intelligence herausfinden möchte, den empfehle ich einen der zahlreichen Vorträge von Jeff Dean

Spätestens mit der Einführung von der Algorithmus-Erweiterung von Hummingbird namens Rankbrain sollte jedem SEO klar sein, dass das Thema Machine Learning ein immer wichtigere Einflussfaktor für das Ranking sein wird.

Bevor ich dann auf die Auswirkungen dieser Aktivitäten auf die Suchmaschinenoptimierung eingehe für die Vertiefung einige weiterführende Lesetipps.

Quellen zum Thema Machine Learning und Künstliche Intelligenz

Deep Learning vs Machine Learning vs Pattern Recognition

Machine learning explained in simple words

Introduction to Deep Neural Networks

Wikipedia: Maschinelles Lernen

What is the difference between Artificial Intelligence, Machine Learning, Statistics, and Data Mining

Introduction to Machine Learning

Rise of the Machines from JAX TV on Vimeo.

Welche Rolle spielt Rankbrain?

Laut Google wurde  Rankbrain am Anfang in erster Linie auf 15-20% der vorher niemals gestellten Suchanfragen angewendet. Seit ca. Juni 2016 wird Rankbrain auf alle Suchanfragen angewendet.

Rankbrain wird von Google selbst als drittwichtigster Rankingfaktor benannt. Obwohl ich den Begriff Rankingfaktor nicht optimal finde. Un hier beginnt bereits die Unklarheit, die von regelmäßig widersprüchlichen Aussagen von Google nicht beseitigt wird.

Es gibt zwei offene Fragen, die bisher weder Google noch angesehene SEO-Experten weltweit eindeutig beantworten können oder wollen.

Ist Rankbrain für das Query Refinement bzw. Suchbegriff-Klassifizierung sowie -Interpretation zuständig oder das Scoring von URLs? Nutzt Rankbrain reale Nutzerdaten, Trainingsdaten von Suchevaluatoren bzw. Quality-Ratern oder keins von beiden als Trainingsdaten?

Hier gibt es folgende Theorien:

Rankbrain ist kein Rankingsignal sondern nur für das Query Refinement zuständig Rankbrain ist Rankingsignal und damit im Scoring von Dokumenten involviert Neben Rankbrain sind noch weitere Machine Learning Systeme im Hummingbird im Einsatz

 

1. Rankbrain ist kein Rankingsignal sondern nur für das Query Refinement zuständig

Bei Rankbrain handelt es sich nicht um einen klassischen Rankingfaktor wie z.B. Seitentitel oder Backlinks. Rankbrain ist vielmehr eine Update des Hummingbird-Algorithmus in Form einer Erweiterung. Aufgrund der Ermittlung thematischer Nähe zu bereits bekannten Begriffen kann Rankbrain bisher unbekannte Suchanfragen in thematische Kontexte einordnen bzw. insbesondere längere komplexere Suchanfragen auf gemeinsame Nenner herunterbrechen. Dadurch kann besser die Bedeutung interpretiert und damit die unbekannte Suchanfrage bereits bekannten Synonymen bzw. Begriffen ähnlicher oder gleicher Bedeutung zugeordnet werden. Gerade bei der Interpretation von Suchanfragen kann Rankbrain so Google einen großen Schritt weiter bringen.

So wurde Rankbrain bei der ersten Bekanntmachung von Google vorgestellt und Paul Haahr von Google bestätigte diese Theorie auf der SMX Advanced 2016 in diesem Interview mit Danny Sullivan (ab Minute 3:00). Man beachte, dass auch Gary Illyes in einer Nebenrolle dabei ist, der gleich noch an anderer Stelle Erwähnung findet.

2. Rankbrain ist Rankingsignal und damit im Scoring von Dokumenten involviert

Rankbrain ist direkt bei der Bewertung von Seiteninhalten beteiligt. Hier könnten bestimmte Muster, die passenden Inhalten zu einer bestimmten Suchanfrage immer wieder vorkommen identifiziert und zum Scoring herangezogen werden. Dazu gibt es aber nur wenige Aussagen seitens Google. Etwas verblüffend ist, dass der bereits erwähnte Gary Illyes nun in der Hauptrolle in einer Q&A mit Danny Sullivan ebenfalls auf der SMX Advanced 2016  folgendes in Bezug zu Rankbrain von sich gab (ab 5:40 Minuten):

„It’s less for understanding the query, more for scoring the results…“

Danny Sullivan schien bis dato auch eher von der ersten Theorie ausgegangen zu sein, die ihm auf dem selben Event von Illyes Kollegen Haahr bestätigt wurde.

Sehr verwirrend was aus dem Hause Google hier kommuniziert wird.

3. Neben Rankbrain sind noch weitere Machine Learning Systeme im Hummingbird im Einsatz

Eine weitere Vermutung ist, dass neben Rankbrain auch in anderen Teilen des Hummingbird Machine Learning auch z.B. für das Website Scoring eingesetzt wird. Dazu auch Mario Fischer in einer Diskussion auf Facebook:

mario-fischer_rankbrain

Mario Fischer zur Verwirrung um Rankbrain in einer Facebook-Diskussion am 22.11.2016

Ich habe John Mueller von Google im Webmaster Hangout vom 01.12.2016 um eine Antwort gebeten. Hier seine Meinung zur Rolle von Rankbrain:

Rankbrain für das Query Refinement

Ich glaube an die erste Aussage von Google, dass Rankbrain als Mittel zum Query Refinement, also auf der Seite der Suchanfrage eingesetzt wird. Zumal Paul Haahr mir in den beiden Videos den deutlich kompetenteren Eindruck machte und Gary Illyes nicht zum ersten Mal etwas unsouverän in Kommunikation aufgetreten ist. Das würde aber bedeuten, dass Rankbrain entgegen der Folumierung von Gary Illyes kein direkter Rakingfaktor ist.

Ich denke auch, dass neben Rankbrain weitere Machine-Learning-Systeme z.B. für das Scoring von Websites eingesetzt werden. Wenn nicht schon jetzt, dann in Zukunft.  Davon, dass Google auch Machine Learning zur Ermittlung der Suchintention auch unter Einbeziehung von realen Nutzerdaten einsetzt bin ich auch überzeugt. Aber fast alles ist bis dato Spekulation bzw. Annahme.

Zu weiteren Theorien, zu was Rankbrain noch genutzt werden könnte empfehle ich die Präsentation von Kai Spriestersbach von der SEOkomm 2016. Die Einschätzung zum Einfluss der Engagement-Daten wie Absprungrate und CTR auf Rankbrain teile ich allerdings nicht voll und ganz. Dazu hat sich Gary Illyes in diesem Interview klar geäußert:

Quelle: http://www.kwasistudios.com/gary-illyes-interview/

Quelle: http://www.kwasistudios.com/gary-illyes-interview/

Wir sollten bei Kais Präsentation vielleicht eher von Machine Learning bei Google und nicht explizit von Rankbrain sprechen.

SEOkomm 2016 – Google RankBrain Kai Spriestersbach from Kai Spriestersbach

Wer sich mit dem Thema beschäftigt sollte sich auch diese Keynote von Marcus Tandler ansehen:
Marcus Tandler Vortrag, Rise of the Machines

Welche Auswirkung kann Machine-Learning zukünftig auf das Ranking haben?

Ich denke, dass Machine Learning Funktionalitäten nicht erst bei Rankbrain, sondern bereits bei Hummingbird und der stetigen Weiterentwicklung bzw. Vergrößerung und Strukturierung des Knowledge Graph im Einsatz sind. Dass Machine Learning zur Spam-Bekämpfung z.B. im Rahmen des Pinguin-Algos zum Einsatz kommt wurde inzwischen durch eine Aussage von Google bzw. Gary Illyes wiedersprochen. Ich hoffe hier bleibt es auch bei dieser eindeutigen Aussage.

Ob Google jetzt schon Machine Learning für die Bewertung von Websites nutzt kann aufgrund der widersprüchlichen Aussagen aus dem Hause Google nicht beantwortet werden. Sinn würde es für die Zukunft machen.

Ich denke, dass Machine Learning bereits schon seit längerem zur Kategorisierung von Suchanfragen, Inhalten aber auch Entitäten ( Mehr zum Thema Semantik und Entitäten)  eingesetzt wird. Es muss ja nicht zwangsläufigüber Rankbrain sein. Die ein oder andere Prise Machine Learning könnte auch schon in den Hummingbird-Algo direkt eingeflossen sein.

Gerade in Kombination mit dem Knowledge Graph als semantische Datenbank hätte Google zwei mächtige Werkzeug an der Hand.

Hilfreich könnte hierfür auch ein  Google-Patent zur Nutzung von Knowledge Base Kategorien sein, über das man im Beitrag How Google Might Make Better Synonym Substitutions Using Knowledge Base Categories mehr erfahren kann.

Dafür, dass Google Suchanfragen bereits zu verschiedenen Kategorien zuordnet gibt es klare Anzeichen wie z.B. die Beobachtungen von Ross Hudgens zeigen.

google-disambiguation-1

Entitäten-Katgeorien in Google Suggest: Quelle siehe obigen Link zu The SEM Post

Google versucht hier zwecks Eindeutigkeit Begriffe insbesondere Entitäten mit mehreren Bedeutungen je nach Kontext über Kategorisierung voneinander abzugrenzen. Auch in Google Trends kategorisiert Google Begriffe bereits nach Kategorien:

google-trends_apple

adidas_google-trends

 

mercedes-trends

Hier scheint Google sowohl allgemeine Kategorisierungen wie z.B. nach Thema, Company, Brand oder Suchbegriff als auch fachspezifische Kategorien wie z.B. Vehicle-Manufacturer,  Fruit, Technology Company, Formula One Team, Design Company Chancellor of Germany … zu nutzen.

Bisher wird Machine- bzw. Deep-Learning mit hoher Wahrscheinlichkeit bzw. laut Googles eigener Aussage bereits für folgende Fälle eingesetzt:

Kategoriesierung bzw. Identifizierung von Suchanfragen nach Suchintention (Infomational, Transactional, Navigational …) Kategorisierung von Inhalten/Dokumenten nach Zweck (Information, Verkauf, Navigation …) Erkennung, Kategorisierung von Entitäten im Knowledge Graph Erkennung, Kategorisierung und Interpretation von Bildern Erkennung, Kategorisierung und Interpretation von Sprache Erkennung, Kategorisierung und Interpretation von Video

Das wirklich Neue ist dabei, dass Google diese Kategorisierung nun immer besser, da stetig dazu lernend und vor allem automatisiert durchführen kann.

Prozess_Text-Kategoriseirung_via_Machine-Learning

Zur Kategorisierung von Text-Inhalten via Machine Learning habe ich hier schöne wissenschaftliche Arbeit mit dem Titel Automatic text categorization by unsupervised learning gefunden, aus der auch die obige Grafik stammt.

Die Kombination aus Nutzerdaten insbesondere Interaktionsdaten bezogen auf Dokumente, Inhalte, aber auch ganze Domains in Kombination mit dem Abgleich bestimmter Dokumenten-, Domain- bzw. Enitätsmuster  ist eine gute gute Grundlage für Google die eigenen Machine-Learning-Prozesse z.B. nach dem Muster des bestärkenden Lernens einzusetzen.

Bestärkendes-Lernen

Machine-Learning-Pozess: Bestärkendes Lernen / Quelle: http://www.slideshare.net/rahuldausa/introduction-to-machine-learning-38791937

Ob nun die Nutzerdaten oder das Feedback der Such-Evaluatoren bzw. Quality-Rater oder sogar beide Gruppen das bestärkende Element für den Algorithmus sind kann man nur erraten…

Das alles ist reichhaltiges Futter für die selbst lernende Weiterentwicklung der Ranking-Algorithmen und dadurch teils sehr individuelle Suchergebnisse pro Nutzer.

Ich glaube, dass die bisherigen Einsatzgebiete für Machine Learning bei Google nur der Anfang sind. So könnten theoretisch selbstlernende Algorithmen auch für alle vorkommenden Suchanfragen angewandt werden, nicht nur wie bei Rankbrain auf die bisher unbekannten Suchwörter.  Doch welche Auswirkungen hätte das Ganze für SEOs?

 

Welche Auswirkung haben selbst lernende Algorithmen auf  SEO?

Machine Learning als Teil des  Ranking-Algorithmus könnte dafür sorgen, dass Google zukünftig auf die Optimierung von statischen Rankingsignalen durch Webmaster und SEOs nicht mehr angewiesen ist.

Die Implementierung von strukturierten Daten in Form von Mark-Ups hat in der Vergangenheit nur sehr schleppend stattgefunden. So hat eine Untersuchung des Tool-Anbieters Searchmetrics aus dem Jahr 2014 ergeben, dass nur 0,3% der untersuchten Websites auf Schema.org Mark Ups setzen. Die Daten stammen aus Herbst 2013 und es ist anzunehmen. dass sich hier inzwischen etwas getan hat. Ich denke, aber das Google lieber auch ohne der technischen Mithilfe von Webmastern, Redakteuren und SEOs erkennen möchte, was sich hinter einem Inhaltsbaustein verbirgt. Die meisten Inhalts-Verantwortlichen kennen sich mit Mark-Ups nicht aus und wollen sich auch zukünftig nicht damit beschäftigen. Deswegen ist es für Google umso wichtiger Inhaltselemente auch ohne die Ausweisung strukturierter Daten zu interpretieren.

Auch was Optimierungen der Seitentitel, Alt-Tags von Bildern, etc. angeht haben viele Websites immer noch Nachholbedarf.

Anhand selbst lernender pro Nutzer individueller Such-Algorithmen kann Google alle Dimensionen bezogen auf den situativen Kontexts des jeweiligen Nutzers berücksichtigen. Jeder Nutzer hätte damit komplett eigene Suchergebnisse. Das wäre der letzte Schritt von Google zur Entmanipulierung ihrer Suchergebnisse.

Die Folgen für SEOs noch einmal kurz zusammengefasst:

Noch personalisiertere Suchergebnisse als bisher nach Kontext des Nutzers Nur noch bedingte Mithilfe durch SEOs bzw. Webmaster für Google notwendig Manipulierung der Suchergebnisse quasi nicht mehr möglich Einfluss statischer Rankingfaktoren wie Seitentitel, Backlinks, Nutzung von Keywords, Alt-Tags für Bilder … nimmt weiter ab Aktive Optimierung  nur für Suchmaschinen verliert noch mehr an Wichtigkeit

Das Ganze ist natürlich Zukunftsmusik und wann und ob überhaupt Google das Ranking komplett selbst lernenden Algorithmen übergibt bleibt abzuwarten. Dies würde mit einem nahezu kompletten Kontrollverlust durch Google einhergehen. Somit könnte Google überhaupt nicht mehr nachvollziehen, warum Rankings für den einen Nutzer so und für den anderen Nutzer so aussehen. Laut Aussage von John Mueller scheint der anarchistische Algorithmus auch bisher nicht angedacht, wie aus seiner Aussage aus dem Webmaster Hangout Anfang Dezember zu entnehmen ist:

Wir machen viel mit Machine Leraning, das ist ein faszinierendes Feld. Manchmal ist es spannend, dass die maschinellen Algorithmen auf etwas kommen, an das wir sonst nicht gedacht hätten. Dann versuchen wir herauszufinden, wie die Algorithmen darauf gekommen sind.

Es ist jedoch oft schwer, in dieser Umgebung die Fehler zu finden. Wenn wir also einen nur maschinell lernenden Algorithmus hätten, der alles macht, dann würde es sehrschwerwerden potentielle Fehler zu finden und zu beheben.

Man muss also die richtige Balancezwischen den verschiedenen Algorithmen finden. Alles muss reproduzierbar und verständlich sein, aber es muss auch Raum für Neuerungen geben.

Google scheint hier selbst noch nicht sicher zu sein wie viel  Kontrolle sie an selbst lernende Algorithmen abgeben wollen. Wir werden es in Zukunft sehen oder auch nicht …

Mehr zum Thema Semantik und Machine Learning kann man hier bei uns im Blog lesen >>>

 

Expertenstimmen zum Einfluss von Machine Learning auf SEO

Hier einige weitere exklusive Stimmen von geschätzten Kollegen und SEO-Experten zu der Thematik Machine Learning und SEO:

 

Christian_KunzChristian Kunz:  Christian ist Inhaber der Webseite SEO Südwest und Senior Project Manager Search bei 1&1. Dort ist er unter anderem für die Suche-Projekte der Marken WEB.DE und GMX verantwortlich.

Für die SEOs wird sich nur wenig ändern. Warum? Dazu muss man sich den Wirkungskreislauf von SEO-Maßnahmen, Nutzersignalen und den durch maschinelles Lernen angepassten Rankingfaktoren ansehen. Gehen wir aus vom wichtigsten Indikator, den eine Webseite an Google sendet: den Nutzersignalen. Dazu gehören zum Beispiel die Verweildauer, die Absprungrate, aber auch die Gesamtzahl der Besuche und der Page Impressions. Anhand dieser Nutzersignale kann Google erkennen, ob eine Webseite den Bedürfnissen der Besucher entspricht. Wird die Seite häufig besucht, gibt es viele wiederkehrende Besucher und bleiben diese länger auf der Seite, dann kann davon ausgegangen werden, dass die Inhalte der Seite den Besuchern gefallen.

Google verwendet die besonders beliebten Seiten (und damit meine ich nicht nur die großen Webseiten, sondern zum Beispiel auch kleine Nischenseiten zu speziellen Themen) und analysiert deren Aufbau. Dabei werden nicht nur die Inhalte bewertet, sondern zum Beispiel auch die Navigation, die Seitenstruktur, das Verhältnis von Text zu Bildern und so weiter. Natürlich weiß außer einem kleinen Kreis von Google-Mitarbeitern niemand genau, wie genau diese Analyse abläuft und welche Faktoren betrachtet werden. Man kann aber mit ziemlicher Sicherheit davon ausgehen, dass die beliebten Seiten als Blaupause für die Bewertung weiterer Webseiten genutzt werden. Dabei können sich die Rankingfaktoren und deren Gewichtung immer wieder ändern. Umso mehr eine Webseite dem jeweiligen Idealbild entspricht, desto besser die Rankingchancen der Seite.

Hier kommt die Suchmaschinenoptimierung ins Spiel: Aufgabe der SEOs ist es, die Webseiten ihrer Kunden an die jeweils aktuellen Rankingfaktoren anzupassen. Wenn zum Beispiel gerade das Thema Mobilfreundlichkeit wichtig ist, dann muss dafür gesorgt werden, die Webseite des Kunden für die Darstellung auf Smartphones zu optimieren. Geht es um sichere Datenübertragung, muss die Webseite auf TLS und idealerweise auf HTTP/2 portiert werden und so weiter.

Die SEO-Maßnahmen wirken sich wiederum auf die Nutzersignale aus, die dann zur weiteren Anpassung der Rankingfaktoren führen können – ein sich fortsetzender Kreislauf also.

Die Arbeit der SEOs ändert sich im Vergleich zu früher nicht viel, denn sie sind weiterhin im Unklaren darüber, welche Rankingfaktoren mit welchem Gewicht wirken. Sie können nur spekulieren. Der Unterschied zum alten Vorgehen besteht in zwei Dingen: Erstens werden sich die Rankingfaktoren zukünftig schneller ändern, denn maschinelles Lernen wird Anpassungen nahezu in Echtzeit ermöglichen. Zweitens werden Nutzersignale wie die Verweildauer oder die Absprungrate noch wichtiger als schon in der Vergangenheit, denn sie werden die Hauptindikatoren für Google zur Bewertung der Webseitenqualität sein.

Bei alldem darf natürlich nicht vergessen werden, dass es neben dem beschriebenen Mechanismus weiterhin auch andere Rankingfaktoren geben wird, die konstant bleiben. Die Relevanz der Inhalte auf einer Webseite zur jeweiligen Suchanfrage wird genauso einfließen wie die Autorität der Webseite, gemessen an Backlinks und Signalen aus den sozialen Netzwerken.

 

markus-hoevenerMarkus Hövener: Markus ist Gründer und Head of SEO der auf SEO und SEM spezialisierten Online-Marketing-Agentur Bloofusion (www.bloofusion.de). Als geschäftsführender Gesellschafter von Bloofusion Germany ist er verantwortlich für alle Aktivitäten in Deutschland, Österreich und der Schweiz. Markus Hövener ist Chefredakteur des Magazins suchradar (www.suchradar.de) und Blogger bei den Internetkapitänen (www.internetkapitaene.de). Außerdem ist er Autor vieler Artikel und Studien rund um SEO und SEM und spricht auf vielen Online-Marketing-Konferenzen.

Grundsätzlich ist Machine Learning für Google ja nichts neues. Die haben zwar erst vor einigen Wochen TensorFlow („Open Source Software Library for Machine Intelligence“) veröffentlicht, aber das Thema verfolgt Google ja schon seit langem. So basiert ja schon das Panda-Update auf dem, was Googles Maschinen aus guten und schlechten Websites lernen konnten.

Für Google ist Machine Learning wahnsinnig wichtig, da sie so effizient arbeiten können und aus den gewaltigen Datenmengen Sinn machen können. Für klassisches SEO ist das natürlich der Exodus: Man kann Google halt nicht mehr mit einfachen Mitteln reinlegen und etwas mit geringer Qualität in etwas verwandeln, das Google trotzdem mag.

Für SEOs ergibt sich also ein Nachteil – aber zeitgleich auch ein Vorteil, denn es geht ja schon lange nicht mehr darum, eine bestimmte Keyword-Dichte einzuhalten. Es geht für uns als Agentur wirklich darum, den Kunden dahin zu bringen, eine erstklassige Website mit herausragenden Inhalten zu haben.

 

Marcus-ToberMarcus Tober: Marcus  ist nicht nur als Gründer, Geschäftsführer und treibende Kraft von Searchmetrics über einschlägige SEO Kreise hinaus bekannt, sondern auch als Impulsgeber und Experte auf vielen internationalen Bühnen: Der „Big Data und Statistik-Freak“ (Tober über Tober) ist bei Kongressen, Symposien und Think Tanks weltweit ein gefragter Gast und Keynote Speaker.

 

In 2016 wird für den SEO explizites Analysieren oder Anwenden von Machine Learning Funktionen nicht Bestandteil der Arbeit sein. Auch wenn Machine Learning längst allgegenwärtig ist und die Grundlage für zig Updates die Suchmaschinen in den letzten Jahren gemacht haben. Was bedeutet das? Suchmaschinen benutzen schon seit vielen Jahren die gelernten Daten aus vorherigen Updates (Panda 1,2,3 etc, Penguin) und mache täglich Tests aus denen sie wiederum Anpassungen vornehmen die zu weiteren Updates führen. Bei Google ist der ständige Everflux, quasi die andauernde Bewegung der Ergebnisse.

Userdaten dienen mindestens dazu zu bewerten ob die Features die Google eingebaut oder geändert zu Verbesserungen geführt hat. Für uns SEOs heißt das ingesamt dass die abhängig von guten Ergebnissen (Rankings) weniger von nur ein paar Faktoren abhängt. Vielmehr müssen SEOs immer den Kontext berücksichtigen. Sprich die Faktoren warum eine Page erfolgreich ist können stark abweichen wenn man verschiedene Branchen oder Keywords zwischen Shorthead und Longtail betrachtet. 2016 wird sich also der Trend fortsetzen dass sich SEO je nach Webseite, Branche und natürlich Gerät (Desktop, Mobile) ändern wird und man unterschiedliche Strategien braucht um holistisch erfolgreich zu werden.

 

sebastian-erlhofer_mindshapeSebastian Erlhofer: Sebastian  ist geschäftsführender Gesellschafter der mindshape GmbH aus Köln und Bestsellerautor des Buches „Suchmaschinen-Optimierung“. Er betreibt SEO seit 2002 und freut sich auf die nächste SEO-Dekade

 

Als Suchmaschinen-Optimierer ist man ja gewohnt, regelmäßig sich mit neuen Technologien und Bewertungsmechanismen auseinander zu setzen. Vor 10 Jahren waren es noch ganz einfache statistische Verfahren, die ein Dokumententreffer und ein Ranking ausmachten: Wenn ein bestimmtes Keyword in der Meta-Beschreibung stand, dann kam das Dokument in die Treffermenge. Und wenn das Keyword noch häufig vorkam im Dokument, dann wurde dieses auch gut geranked. Heute ist – wie jeder SEO weiß – die ganze Geschichte etwas vielfältiger. Nach der Keyworddichte kam WDF*IDF und mittlerweile geht es um holistische, verständliche und nutzerorientierte Texte, die möglichst multimodal mit Videos, Infografiken und Co aufbereitet sein sollen. Links verlieren stetig an Bedeutung bzw. die Qualität der Links ist immer wichtiger. Soweit so klar.
Was verändert maschinelles Lernen dann eigentlich? Meiner Meinung nach ist das eine weitere Stufe in der Suchmaschinen-Optimierung. Mit zunehmender Rechnerkapazität und verstärkter Forschung werden Computerprogramme immer besser darin, bestimmte Entitäten zu verstehen, zu klassifizieren und letztendlich Rankings zu generieren. Irgendwann – aber das ist meiner Meinung nach noch Jahre entfernt – wird maschinelles Lernen eingesetzt werden können, damit Algorithmen sich selbst optimieren und verbessern. Hier sind wir dann im Bereich der künstlichen Intelligenz oder vielleicht sogar von künstlichen Lebensformen. Die Einflüsse des maschinellen Lernens auf SEO sind schleichend. RankBrain und Co. kommen Stück für Stück und die Forschungsergebnisse von den schlausten Forschern, die sich Google weltweit kaufen kann, werden über die nächsten Jahre spannende „Rankingfaktoren“ produzieren.

Ich denke nicht, dass wir in den nächsten zwei bis drei Jahren signifikante Auswirkungen auf unsere Arbeit als SEOs spüren werden – nicht anders als sonst auch: Es werden neue Verfahren kommen und wir werden versuchen, sie zu verstehen und zu optimieren. Im Vergleich zu Beispielen aus der Vergangenheit, etwa WDF*IDF, werden allerdings noch mehr SEOs thematisch aussteigen. Heute schon können viele SEOs kaum die Hintergründe von WDF*IDF korrekt und vollständig erklären. Man nutzt die Tools und gut ist. Das reicht auch, um hier und da gut zu optimieren und Dienstleistungen zu verkaufen. Der Einäugige ist unter den Blinden immer der Sehende. Aber maschinelles Lernen mit neuronalen Netzen, Entscheidungsalgorithmen und anderen Dingen sind nicht für Laien verständlich – ich habe selbst im Informatikstudium mich alleine nur mit den Grundlagen beschäftigt (d.h. vor allem viel Mathematik die dahinter steckt) und es ist wahnsinnig komplex. Seit mittlerweile Generationen beschäftigen sich Forscher damit, Computerprogrammen das Lesen und Verstehen von Texten beizubringen. Wir sollten als SEOs nicht den Anspruch haben, das verstehen zu können oder zu wollen.

Wir sollten trotz des Fortschritts auf technischer Seite das im Fokus behalten, was unsere Arbeit ausmacht: Produkte und Dienstleistungen von unseren Kunden in den Suchergebnissen sichtbarer machen (um SEO einmal ganz klassisch zu definieren). Wir müssen Abschied nehmen von Glaubenssätzen wie „das hat bei anderen Sites auch so funktioniert“ und wir müssen uns verabschieden von den Tipps und Tricks, den Abkürzungen, die es früher gab, um schneller zu optimieren. Ich freue mich auf das jetzige und zukünftige SEO, weil es gezwungen nachhaltiger wird und damit zwingend auf den Menschen fokussiert werden muss. Nicht mehr auf Google. Denn spätestens wenn in ein paar Jahren maschinelles Lernen große Teile im Algorithmus ausmacht, und daran glaube ich definitiv, wird auch kein Ingenieur bei Google mehr irgendwelche logischen Zusammenhänge erklären können. Das können Sie heute im Prinzip schon nicht mehr. Am Ende können wir alle dann nur noch versuchen, die Entscheidungen des Rankalgorithmus nachzuvollziehen. Eben genau so, wie wir Entscheidungen von Mitmenschen nicht immer detailliert in ihre Bestandteile sezieren können, aber wir können sie nachvollziehen. Ich freu mich drauf!

 

marcel-schrepelMarcel Schrepel: Marcel  ist Geschäftsführer und Gründer der Onlinemarketing-Agentur trust in time in Berlin. Die fachlichen Schwerpunkte der Agentur liegen im Suchmaschinenmarketing für D-A-CH und Russland (Yandex). Marcel ist überzeugter Slow-Blogger und schreibt Fachartikel über Suchmaschinenoptimierung (SEO), Google und die moderne Welt des Web 2.0.  Er beschäftigt sich gerne mit Strategieentwicklung und Kommunikationswissenschaft und ist nebenbei als Lehrbeauftragter tätig.

 

Durch die Digitale Revolution und die Computerisierung unserer Gesellschaft, haben sich Kommunikations- und Informationsprozesse seit der Jahrtausendwende gewaltig geändert. Fast alles ist digitalisiert und Nutzer- sowie Nutzerverhalten lassen sich immer besser in Form von Daten darstellen. Durch die zunehmende mobile Nutzung lässt sich das Nutzungsverhalten von Menschen auf immer mehr Ebenen messen und algorithmisch aus- und verwerten.
Maschinelles Lernen gibt es nicht erst seit gestern. Das Finden von Gesetzmäßigkeiten in Daten ist meiner Meinung nach die Kernfunktion von Google (Information Retrieval System).

Man sollte meinen, dass man aus all diesen Modellen, da stark datengetrieben, SEO relevante Muster und Daten generieren kann, die man strategisch einsetzen kann. Viele verwechseln das immer noch mit Korrelationen. Man vergisst gerne schnell die Komplexität, mit der Algorithmen heutzutage arbeiten. Google-Algorithmen, KI-Modelle und erhobene Daten – das sind alles Variablen in einer „SEO-Rechnung“, die wir nicht kennen, auch wenn das vor 10 Jahren vielleicht noch anders war.

Menschen sind launisch und verändern ihre Gewohnheiten. Lebenslagen und Jobs wechseln. Krankheit, Heirat, Kinder sind einschlägige Ereignisse. Algorithmen werden von diesen Veränderungen lernen, inwiefern sich ein Nutzer anders im Netz bewegt.

„Emotionale Intelligenz“ ist das Stichwort.

Suchmaschinen wie Google wollen auch genau das lernen, damit der Algorithmus eine gewisse Flexibilität besitzt. Durch Machine Learning bedarf es keiner ständigen Einspielung separater Algorithmen oder Algorithmus-Updates – durch Machine Learning selbst wird ein Algorithmus erst flexibel und erweitert sein „Wissen“ auf selbstständige Art und Weise – dauerhaft und zeitgemäß.

Google wird in nicht allzu ferner Zukunft in der Lage sein, Menschen zu verstehen, sie kennen zu lernen und zu erahnen, was sie als nächstes tun werden. Aktuell arbeitet Google schon mit Mustern, z.B. die personalisierte Suche oder Hummingbird.

Dem ein oder anderen dürfte vielleicht das „Google Opinion Reward“ – Programm etwas sagen.

https://www.google.com/insights/consumersurveys/google_opinion_rewards

Auf den ersten Blick scheint dies wie ein Tool für Marktforscher zu wirken. Denkt man das Ganze aber etwas utopischer in die Höhe, so könnte Google theoretisch mit solchen Umfragen auch wertvolle Zusatzdaten über einen Nutzer generieren. Daten, die sich nicht aus dem normalen Sucherverhalten schöpfen lassen, die aber zur Erstellung von Lern-Modellen unbedingt benötigt werden. Quasi ein Vorzeigedatensatz zur Referenzierung in den Lern-Algorithmen.
Das Gleiche unterstelle ich Facebook mit dem Kauf von WhatsApp.

Ich denke, dass sich SEO weiterhin in eine empathiegetriebene, zielgruppenorientierte Richtung entwickeln wird, was ja einige SEO´s schon länger praktizieren. Alleine deswegen, weil SEO längst nicht mehr rein datengetrieben funktioniert. Conversion Prozesse sind längst nicht mehr einzig und allein an die Auffindbarkeit eines Angebots gekoppelt. Traffic allein ist kein Garant für eine Conversion.

Ich denke, dass Machine Learning nur ein Faktor von etlichen ist, der dafür sorgen wird, dass einheitliche Rankings verschwinden werden. Schon jetzt sind die Unterschiede messbar.

 

ipHPDCE_Kai Spriestersbach: Kai ist Online Strategy Consultant und strategischer Partner der eology GmbH sowie Inhaber der strategischen SEO-Beratung SEARCH ONE. Er berät und begleitet ausgewählte Kunden bei der Positionierung im Internet sowie der Verbesserung ihrer Online-Präsenz mit Blick auf die Sichtbarkeit in den Suchmaschinen. Derzeit forscht und entwickelt er an neuen Ansätzen für Marketing Software sowie Website-Projekten und bereitet sein erstes Buchprojekt vor.

 

In der näheren Zukunft stehen uns spannende Veränderungen ins Haus. Aber Machine Learning ist nicht neu. Die beiden Updates Panda und Penguin basieren bereits auf Machine Learning Technologie und werden nun zu einem sich kontinuierlich selbst verbessernden System ausgebaut. Anhand der Informationen über das Panda Update, die allesamt sehr vage und auf einem sehr viel abstrakteren Level waren (z.b. Würden Sie dieser Seite Ihre Kreditkarteninformationen anvertrauen) wird klar, dass es in Zukunft noch weniger Informationen von Google über Updates und direkte Rankingfaktoren geben wird.

Zum einen liegt das daran, dass Deep Learning Algorithmen selbst erkennen, welche Metriken relevant sind und die Engineers bei Google keinen Einfluß mehr darauf haben und zum anderen sehr viel mehr Daten in das Ranking einfließen werden. Hier bei ist alles vorstellbar – Googles Mitarbeiter sind sehr kreativ – wieso nicht die (auf den ersten Blick) absurdesten Informationen über Webseiten einfach mal in das System kippen und die Maschine untersuchen zu lassen, was davon sich als Rankingfaktor eignet.

Deutlich wichtiger und auch sehr viel schneller spürbar werden Nutzerdaten in das Ranking einfließen. Eine schlechte Seite wird trotz toller Optimierung und vieler Links alleine durch die Signale unzufriedener Nutzer nach unten rutschen. Das ist zwar bisher schon der Fall, allerdings nur bei sehr großen Suchvolumen und über längere Zeiträume. Hier wird Google sehr viel schneller reagieren können.

Ich betrachte selbst die Entwicklungen als sehr positiv, denn wer sich darauf konzentriert den Nutzern genau das zu bieten, was diese Suchen, wird sehr viel stärker profitieren als bisher.

 

_DSC7219Sepita Ansari: Sepita, Geschäftsführer der Catbird Seat GmbH, ist einer der anerkanntesten SEO-Experten in Deutschland. Seit 2005 beschäftigt sich Sepita Ansari mit Online Marketing. Der Wirtschafts-und Sozialwissenschaftler war 3 Jahre bei der Scout24-Gruppe tätig und hat dort das JobScout24-Online Team geleitet.

 

Früher bedienten wir die Technik, heute dient die Technik uns und lernt und interagiert mit uns. Dank zahlreicher Sensoren, ist ein interaktiver Umgang mit Computern möglich geworden, dabei ist das Smartphone zum persönlichen Alltagsmanager geworden. Algorithmen und die künstliche Intelligenz „verstehen“ zunehmend den Bedeutungszusammenhang und liefern relevante Ergebnisse. Diese Maschinen werden uns weiter unterstützen und gar imitieren, ersetzen werden sie uns aber nicht.

Mit Hilfe von Daten können Suchmaschinen (mit stochastischer Wahrscheinlichkeit) das menschliche Suchverhalten vorhersagen, mit Hilfe von Mathematik kann die Suchvergangenheit erklärt werden. Die Zukunft kann jedoch nicht mit 100% Güte prognostiziert werden. Da unser menschliches (Such-)Verhalten auf individuellen Interpretationen und Bewertungen beruht, kann eine Maschine dieses noch schwer vorhersehen, aber sehr gut erklären. Diese Erklärbarkeit der Daten wird auch im SEO zum erfolgsentscheidenden Kriterium: Inhalte müssen individuell ansprechen, strukturiert sein und optimal innerhalb der User Journey auf den verschiedenen Medien und Geräten auf den Nutzer zugeschnitten werden. Damit wird die Datenstruktur, die -transparenz und –validität zu einem wichtigen Faktor innerhalb der Suchmaschinenoptimierung.

 

Weitere Beiträge zum Thema Machine Learning und SEO Quantum Computing, Search and The Web Online Radar Podcast: Google Updates, Guidelines und das Brain What Deep Learning and Machine Learning mean for the Future of SEO

Rankbrain: Künstliche Intelligenz bestimmt das Ranking von Google Deep Learning and the Future of Search Engine Optimization Machine Learning for SEOs

 

SEO in a Two Algorithm World from Rand Fishkin Videos zum Thema Machine Learning und Artificial Intelligence

Der Beitrag Bedeutung von Machine Learning, AI & Rankbrain auf SEO & Google erschien zuerst auf | Aufgesang.

Der Musik SEO: Wie Matt Farley mit Keyword-Spam-Songs 2.000 US-Dollar im Monat verdient

by garantiert
Comments are off for this post.

Ist das die Zukunft des Musikmarketings im Digitalzeitalter? Lassen sich auf Musikplattformen wie iTunes und Spotify mit SEO-Tricks mehr Reichweite und damit mehr Plays für bestimmte Musikstücke generieren? Matt Farley schreibt Songs zu bestimmten Keywords und lädt sie ins Netz hoch – und verdient damit mehr als in seinem Hauptberuf. Online Marketing Rockstars hat den […]

Der Beitrag Der Musik SEO: Wie Matt Farley mit Keyword-Spam-Songs 2.000 US-Dollar im Monat verdient erschien zuerst auf Daily.

Relaunch des R+V-Newsrooms – Suitbert Monz im Interview

by garantiert
Comments are off for this post.

Viele Unternehmen haben die Mehrwerte eines Online-Newsrooms bereits erkannt. Auch unser Kunde, die R+V Versicherung, hat ihren Newsroom, der sämtliche Social Media Aktivitäten bündelt, schon 2010 gemeinsam mit uns entwickelt und umgesetzt. Sechs Jahre entsprechen in Zeiten der immer schnelleren Digitalisierung aber quasi Lichtjahren. Also war es nun Zeit für eine Veränderung und einen kompletten Relaunch. Suitbert Monz, Social Media Manager bei der R+V Versicherung, stand mir anlässlich der Neugestaltung nun Rede und Antwort. Mit ihm habe ich über Veränderungen, Hintergründe und die Verankerung des Newsrooms in der bestehenden Content-Strategie des Versicherungsunternehmens gesprochen. Suitbert Monz, Social Media Manager bei der R+V - verantwortlich u.a. für den R+V Newsroom Suitbert, wieso setzt die R+V Versicherung auf einen Newsroom? Welche Rolle nimmt dieser in eurer Content Strategie ein?

Der Newsroom ist ein ganz wesentlicher Bestandteil unserer Content Strategie. Er stellt die Themen unseres Social Media Engagements gesammelt für den Nutzer dar und dient uns als Verteilseite auf die verschiedenen Kanäle. Der Leser erhält so auf einen Blick eine gute Übersicht über unsere Themenvielfalt. Er wird neugierig gemacht und stöbert vielleicht auch einmal in benachbarten Themengebieten.

Durch seine hohe Individualisierbarkeit ist der Newsroom auch an vielen unterschiedlichen Stellen der Customer Journey relevant. So kann ein User beispielsweise einfach durch die Themen browsen und sich inspirieren lassen. Er kann sich aber auch gezielt über einzelne Produktbereiche informieren, indem er nach diesen filtert. 

Welche neuen Features bietet der überarbeitete Newsroom gegenüber dem vorherigen Angebot?

Der überarbeitete Newsroom kommt in einem neuen und zeitgemäßen Design daher. Die Handhabung ist auf einen aktuellen Stand gebracht worden und insbesondere die Darstellung in der mobilen Version ist deutlich besser gelöst als das bisher der Fall war.

Einen großen Fokus haben wir auf die Filtermöglichkeiten für den Anwender gelegt. Dieser kann die Inhalte im neuen Newsroom leicht nach seinen Schwerpunktthemen und/oder nach seinen Lieblingskanälen auswählen. Der so individuell zusammengestellte Newsfeed kann dann per RSS-Feed abonniert werden. Auch wird der User, sollte er den Newsroom verlassen und zu einem späteren Zeitpunkt zurückkehren, wieder so vorfinden, wie er ihn verlassen hatte – mit all seinen gewählten Filterungen.

Umgekehrt bieten wir aber auch bereits vorgefilterte Themenwelten an. Aktuell sind das vor allem die Bereiche Karriere, Presse, Kfz und Landwirtschaft. Hier kann man sich über diese Themen und was die R+V dazu publiziert informieren. Wir veröffentlichen als R+V teilweise Content für sehr unterschiedliche Zielgruppen. Die Presse-News sind für Journalisten interessant, den Endkunden interessieren wiederum ganz andere Themen. Potenzielle Bewerber hingegen interessieren sich vermutlich eher für den Blick hinter die Kulissen, den wir in der Themenwelt Karriere bieten. So stellen die Themenwelten sicher, dass die unterschiedlichen Zielgruppen direkt passenden Content finden können. Auch für unsere Social Media-Kampagnen der vergangenen Jahre (#verschenkZeit, #helfiestattselfie, #zusammentun) haben wir Themenwelten angelegt, sodass man in einer Art Archivfunktion auch unsere Aktivitäten der letzten Jahre zurückverfolgen kann.

Außerdem freuen wir uns sehr über ein eigens konzipiertes Newsroom-Widget, welches die Integration einer Art Vorschaukasten auf einen bereits vorgefilterten Newsroom auch auf anderen R+V-eigenen Plattformen ermöglicht. Dadurch kann der Mehrwert des Newsrooms, dass dort die Inhalte auf einzelne Themenfelder heruntergebrochen und gleichzeitig eine Vielzahl an Kanälen abgebildet werden können, auch auf unseren anderen Plattformen übertragen werden. So planen wir beispielsweise themenbezogene Ausschnitte des Newsrooms auch in unserem Intranet und der Unternehmensseite www.ruv.de einzubinden. 

R+V Newsroom Keyvisual Welchen Mehrwert bietet der Newsroom den Nutzern? Wieso sollten sie ihn nutzen und nicht (nur) die einzelnen Kanäle?

Anwender, die uns auf einem sozialen Netzwerk besuchen, wechseln eher von einem Kanal zum nächsten. Wer uns dort noch nicht begegnet ist, lernt unser Engagement vielleicht über die Newsroom-Seite kennen. Unsere Leser werden von dort zu den einzelnen Beiträgen in den verschiedenen Netzwerken geführt und müssen also zunächst überhaupt keine Nutzer von sozialen Netzwerken sein. Solche Interessenten würden wir ansonsten also vielleicht gar nicht gewinnen können.

Und dann gibt es natürlich noch die Interessenten, die gezielt, strukturiert und möglichst effizient Informationen zum Thema Versicherung, unserem Unternehmen und unseren Produkten und Dienstleistungen suchen und finden wollen. Ihren Ansprüchen können wir mit den neuen Funktionen sicher entsprechen.

Was war euch besonders wichtig bei der Neugestaltung?

Eine wichtige Anforderung, die ich von Anfang an an die Neugestaltung des Newsrooms gestellt habe, war das Thema Datenschutz. Daher verzichten wir auch komplett auf die Nutzung von Social Plugins und geben somit keinerlei User-Informationen an die Sozialen Netzwerke weiter. 

Darüber hinaus, war uns wichtig, Design und Funktionalitäten so anzulegen, dass sie eingängig, leicht zu verstehen und zu handhaben sind. Der User stand bei unseren Überlegungen zur Neugestaltung des Newsrooms von Beginn an im Fokus. So entschieden wir uns auch schon zu einem recht frühen Zeitpunkt im Projektverlauf, erste Designs bei einem Usability Testessen testen zu lassen. Das gab uns wichtige Einsichten, an welchen Stellen die User Probleme hatten die Seite zu verstehen. So konnten wir schon sehr früh Anpassungen vornehmen, um eine möglichst verständliche und userzentrierte Plattform zu schaffen.

Wir wollen die Leser so durch unseren Content führen, dass wir ihnen möglichst viele Freiheitsgrade in der Handhabung eröffnen, damit die Beschäftigung mit unseren Inhalten Spaß macht!

 

Der Beitrag Relaunch des R+V-Newsrooms – Suitbert Monz im Interview erschien zuerst auf PR-Blogger.

Wir lieben Loser! Wie Testverlierer noch Uplifts bringen.

by garantiert
Comments are off for this post.

Hast Du schon mal einen Test durchgeführt der ein (signifikant) negatives Ergebnis hatte – also einen Testverlierer hervorgebracht hat? Wie bist Du damit umgegangen? Wie hast Du es dem Team, bzw. dem Chef erklärt? Wie war die Reaktion? Es scheint, als schwebe ein Damokles-Schwert über jeden, der negative Test-Ergebnisse verantworten muss. Wie ist der richtige Umgang mit negativen Tests?

Das ist alles nur ein Experiment

Ein guter Test beginnt immer mit einer Hypothese. Diese dient als Basis für das Testkonzept. Die Idee für die Hypothese wird in einer Analyse geboren. Mit quantitativen und qualitativen Forschungsmethoden werden Motivationsbarrieren und Conversion Killer identifiziert. Der Website-Test soll nur noch belegen, ob Deine Hypothese bestätigt oder abgelehnt werden kann.

testing-sprint-ablauf

Das Ganze ist ein Experiment. Nicht mehr und nicht weniger. Mit dem Test kannst Du letztlich nur belegen, dass Deine Idee funktioniert hat und bei der Zielgruppe zu einer positiven Reaktion geführt hat. Damit hast Du etwas gelernt und den Beweis erbracht, dass Dein Prinzip funktioniert.

Du suchst nach einem Sieger? Du wirst ihn finden.

Nach Hypothese, Konzeption, Design und Test-Setup folgt die Testing-Phase. Wir nennen es mal die Zeit des Bangens. Denn hier zeigt sich, wie gut das Testkonzept wirklich ist. Klar sind die Erwartungen hoch und idealerweise soll der eigene Favorit auch gewinnen. Bei der Interpretation der Testergebnisse neigen wir gerade deshalb dazu, die Daten so zu interpretieren, dass unsere Erwartungen erfüllt werden (confirmation bias – Bestätigungsfehler). In der Praxis wird ein Test zum Beispiel dann gestoppt, wenn der Uplift oder die chance to beat original möglichst hoch sind. Doch das ist nicht der richtige Zeitpunkt zum Stoppen. Wir belügen uns selbst.

Lief der Test lange genug?

Ob Du einen Testsieger feierst oder ein langes Gesicht machst, hängt davon ab, wie valide Deine Ergebnisse sind. Lief der Test lange genug, um eine verlässliche Aussage zu treffen? Kannst Du den Daten trauen? 2/3 aller Tests sind nicht valide!

Mithilfe des konversionsKRAFT Testmengen-Kalkulators kannst Du das genau ausrechnen.
testlaufzeiten-kalkulator

Wenn Du Dir sicher bist, dass die Laufzeit ausreichend war und Du den Daten trauen kannst, dann sollten die Ergebnisse des Testverlierers kommuniziert werden. Dabei solltest Du aber folgendes beachten:

Es gibt keine Verlierer!

Wenn man es streng nimmt, gibt es beim Testing keinen Verlierer. Die Erklärung liegt in der Methodik des hypothesengetriebenen Testings, denn Deine Hypothese kann nur bestätigt oder abgelehnt werden.

Beispiel für eine Hypothese:

Wenn … wir die Service-Vorteile unseres Online-Shops stärker kommunizieren
Dann … werden mehr Besucher zu Kunden,
Weil … sie verstehen, dass sie diesen Service nur bei uns bekommen

Einseitiges Testing
Da mit dieser Hypothese auf einen positiven Effekt der Variante abgezielt wird, bedeutet eine Bestätigung, dass die Hypothese zutrifft (einseitiger Test).

Die Hypothese für die Steigerung der Conversion Rate lautet:

Hypothese: p>p0
(Der Conversion Rate der neuen Variante ist größer als in der Control-Variante)

Wenn der Test allerdings einen negativen Effekt erzielt, kann rein statistisch gesehen die Hypothese nur abgelehnt werden. Doch was heißt das in der Praxis? Wenn wir nicht mehr Conversions haben, was haben wir denn dann? Natürlich haben wir gleich viele, oder weniger Conversions. Doch rein methodisch gesehen, kannst Du nicht einfach sagen, dass der Test dann signifikant schlechter läuft.

Zweiseitiges Testing
Wenn Du die Möglichkeit einer Steigerung und einer Senkung der Conversion Rate einer Variante überprüfen möchtest, dann sprechen wir von einem zweiseitigen Test. Die Hypothese muss sich ändern:

Vorher: Einseitiger Test
Wenn … wir die Service-Vorteile unseres Online-Shops stärker kommunizieren
Dann … werden mehr Besucher zu Kunden,
Weil … sie verstehen, dass sie diesen Service nur bei uns bekommen

Nun die neue Hypothese (bitte genau lesen)
Zweiseitiger Test
Wenn … wir die Service-Vorteile unseres Online-Shops verändern
Dann … wird sich das Kaufverhalten der Besucher verändern,
Weil … die Services bei der Kaufentscheidung eine wichtige Rolle spielen

Die Hypothese beim zweiseitigen Testing lautet:
H1:p≠p0
(Der Conversion Rate der neuen Variante ist anders als in der Control-Variante)

Du siehst, dass sich mit der Hypothese das Konzept ändern müsste, um diese zu bestätigen. Eine völlig andere Herangehensweise, denn in der Praxis wird bei einer Senkung der Conversion Rate einfach nur die Auswertung (zweiseitig) geändert, allerdings nicht das Konzept. 

Im konversionsKRAFT Konfidenz-Rechner kannst Du überprüfen, ob ein Test ein signifikantes Ergebnis erzielt hat (einseitig und zweiseitig).

Doch was tun, wenn der Test lange genug lief und die Daten wirklich valide sind?

Wir haben einen Testverlierer – wir werden alle sterben.

Wer überbringt schon gerne eine schlechte Nachricht? Niemand!
Und niemand will sagen: „Tut mir leid, der Test hatten keinen Sieger. Wir haben sogar eine Verschlechterung der Conversion Rate nachweisen können für die Variante B.“

Ruhig Blut, das Geschäft wird aufgrund des Tests schon nicht den Bach runtergehen. Es war ein Experiment, ein Test, ob etwas funktioniert. Es wurde nicht komplett ausgerollt. Dafür hat man es ja getestet, weil man sich unsicher war, ob es funktioniert. 

Loser-Varianten sind unbeliebt und das völlig zu unrecht, denn beim Website-Testing geht es nicht darum, einen Sieger zu präsentieren. Es geht darum, etwas über das Verhalten der Zielgruppen zu lernen und damit eine datengetriebene Entscheidungsgrundlage für Maßnahmen zu schaffen.

Conversion Optimization = Data Driven Marketing

Wie viele (Marketing-) Entscheidungen treffen wir täglich? 15, 50, 76? Wie viele davon treffen wir aus dem Bauch heraus? Wie hoch denkst Du ist die Trefferquote-Deines Bauchs? Wie oft liegst Du also daneben?

Wir machen täglich Fehler. Das ist normal.

Mit Hilfe der Conversion Optimierung haben wir allerdings die Möglichkeit, Ideen auszuprobieren. Wir bekommen ein Sicherheitsnetz, einen doppelten Boden.

Wir können etwas T E S T E N.

Und diese Tests liefern Ergebnisse, auf deren Basis wir wiederum Entscheidungen treffen können. Jemand der einen Test-Verlierer abstraft, hat nicht verstanden, dass es sich um ein Experiment gehandelt hat, aus dem man lernen sollte. Anhand eines Praxisbeispiels möchte ich aufzeigen, was ich genau damit meine.

Praxisbeispiel

Im folgenden Praxisbeispiel möchte ich zeigen, was aus einer Testvariante geworden ist, die als Testverlierer feststand. Im Zuge eines Relaunches wurden bei Görtz unterschiedliche Seitentypen getestet. Ein Test hat sich mit der Gestaltung der Detailseite beschäftigt.

Testing-Sprint „Detailseite“
Im ersten Sprint wurde die Detailseite auf das neue Design des Relaunchs angepasst. Zusätzlich wurden eine Leiste mit Service-Vorteilen (Var A) und die Zahlungsarten (Var B) und getestet.

Die Varianten im Detail

Die Ergebnisse
Die Variante A mit der Service-Leiste hat zu einer signifikanten Verschlechterung der Conversion Rate geführt (-5,4%). Die Variante B mit den Zahlungsarten hatte keinen Effekt erzielt. (In einem zweiseitigen Test könnte man sagen, es wurde nichts kaputt gemacht).
Wir hatten keinen eindeutigen Gewinner und auch noch einen Verlierer. Doof erstmal. Was nun? Die Variante B umsetzen, Variante A verwerfen?

Wir haben uns für die Umsetzung der Variante B entschieden (wegen des neues Designs), ABER dort nicht aufgehört. Wir wollten verstehen, warum A schlechter performt hat. Wo ist der Unterschied zu B?

Follow-up Test
Im Folgetest haben wir unser darauf konzentriert, wichtige Service-Vorteile im Multichannel Marketing hervorzuheben und diese zudem noch viel prominenter abzubilden.

Die Service-Vorteile der grünen Leiste gab es im ersten Test in der Control-Variante und in der Variante A. Doch in der Variante A waren diese Vorteile nicht sichtbar bei Standardauflösungen. Die prominente Platzierung der Zahlungsarten (Variante B) hatte keinen Einfluss auf die Kaufentscheidung. Daher konnten wir diese Fläche nutzen und haben die Service-Vorteile dort in einem Folgetest nochmal gespielt und wichtige Fragen zum Versand & Rückversand, zur Filiale und zu Kauf auf Rechnung aufgenommen.

Die Varianten im Detail

Die Ergebnisse
Die Ergebnisse haben die Hypothese bestätigt und es konnte ein signifikanter Uplift in Höhe von 5,7% (Sales Conversion Rate) erzielt werden. Der Test hat gezeigt, dass die Vorteile wichtig waren, aber noch viel stärker hervorgehoben werden mussten.

Fazit – liebe Deine Loser-Varianten!

Wir neigen sicherlich dazu, Testverlierer schnell abzustempeln und sie in einer Loser-Schublade verschwinden zu lassen. Das Beispiel soll zeigen, dass dies völlig zu unrecht geschieht. Testing heißt lernen, auch aus Verlierern. Deswegen ist es umso wichtiger, die Gründe für negative Effekte einer Testvariante zu hinterfragen. Auf einen Testverlierer muss daher immer ein Sieger folgen.

Viel Erfolg beim Testing!

Wer dennoch einen Verlierer findet, für den gilt 😉
keep calm and continue testing

The post Wir lieben Loser! Wie Testverlierer noch Uplifts bringen. appeared first on Conversion Optimierung, Landingpage Optimierung | konversionsKRAFT.

Influencer Marketing Geschäftsmodelle: Sarah Liz im Futurebiz Podcast

by garantiert
Comments are off for this post.

Welche Influencer Marketing Geschäftsmodell gibt es und wie können YouTuber, Blogger und Instagrammer auch neben Kooperationen mit Unternehmen eigenes Geld verdienen? Sarah Liz ist Influencerin, hauptsächlich auf Instagram und YouTube aktiv und war zu Gast in unserem Futurebiz Hauptstadtflavor Podcast.

Futurebiz Podcast - Sarah Liz

Influencer Marketing wird oft mit Product Placements gleichgesetzt, es gibt aber noch viele weitere Geschäftsmodelle. Das gilt für beide Seiten, denn sowohl Marken und Unternehmen als auch Influencer können auf die unterschiedlichste Art und Weise miteinander kooperieren.

Sarah Liz im Futurebiz Podcast

Affiliate Marketing, Spenden, Product Placements, YouTube Werbung, Merchandise und Co.. Die Möglichkeiten sind vielfältig. Influencer und Unternehmen müssen sich aber auch immer vor Augen halten, welcher Kanal ist der Richtige, wie wichtig ist die Reichweite und welche Botschaft soll kommuniziert werden. Speziell, wenn Influencer über Affiliate Links auf Instagram, YouTube und Blogs ihre Kanäle monetarisieren möchten, sind wir schnell wieder beim Reichweitenthema. Denn nur wer viele Abonnenten und Follower für seine eigenen Kanäle gewinnen kann, wird auch entsprechend Klicks für seine Affiliate Links erzielen. Für Sarah ist dieses Geschäftsmodell mehr ein Nebenverdienst, beziehungsweise eine Ergänzung zu anderen Ansätzen.

„Ich möchte meine Reichweite für das Gute nutzen.“

Auch über Livestreaming haben wir mit Sarah gesprochen. Livestreaming wird oftmals noch mit Twitch und Gaming gleichgesetzt. Es gibt aber auch viele Möglichkeiten für Lifestyle Influencer. Nicht grundlos sind viele der Vine Stars zu live.ly gewechselt. In Deutschland gibt es mit YouNow eine Plattform, die auch von vielen großen YouTubern genutzt wird, um zusätzliche Einnahmen zu generieren.

Für Sarah ist Instagram das Netzwerk der Stunde und hat das Thema Influencer Marketing nochmals weiter in den Mainstream gebracht. Geht es um die Verdienstmöglichkeiten, sieht Sarah YouTube aber immer noch vor Instagram.

Zu viel möchte ich aber nicht Vorweg nehmen. Also ab zum Podcast!

Futurebiz Hauptstadtflavor Podcast abonnieren

Ihr wollt keinen Podcast mehr verpassen? Dann würden wir uns über ein Abo von euch freuen. Alle Folgen findet ihr auf Soundcloud. Natürlich könnt ihr auch einfach den RSS-Feed abonnieren.

Google+ | Twitter | Facebook |

Influencer Marketing Geschäftsmodelle: Sarah Liz im Futurebiz Podcast wurde zuerst von Jan Firsching auf Futurebiz.de veröffentlicht. Futurebiz.de.

Wie Affiliates bei Instagram mit Viral-Content Reichweite monetarisieren

by garantiert
Comments are off for this post.

Dies ist ein Gastbeitrag von Isabell Meuth. Auf Instagram wiederholt sich derzeit das, was sich auf allen anderen großen Plattformen im Internet (Google, Facebook) zuvor ebenfalls ereignet hat: Die steigende Reichweite zieht immer mehr Glücksritter und Affiliates an, die versuchen, so lange es geht, aus der sich bietenden Gelegenheit Profit zu schlagen – indem sie […]

Link zum Artikel: Wie Affiliates bei Instagram mit Viral-Content Reichweite monetarisieren

How to Plan a Seasonal Marketing Campaign: A 5-Step Guide

by garantiert
Comments are off for this post.

Seasonal-Campaign-compressor.jpg

Seasonal events and celebrations present different opportunities for different business sectors. For many brands, seasonal opportunities are huge and often the most commercially critical times of the financial year.

But planning an effective seasonal campaign not only takes a lot of organisation, it also takes a considerable amount of time. For this reason, smaller brands tend to let these opportunities come and go without making the most of them.

Rather than miss out on an opportunity to connect with you audience and leverage the ongoing conversation during any given season, we put together some tips designed to help you get your campaign off the ground. Let's walk through them below.

How to Plan a Seasonal Marketing Campaign: A 5-Step Guide Step #1: Choose a seasonal opportunity.

When choosing a season to serve as the jumping off point for your campaign, it's important that you're being strategic. In simple terms, one of the key routes to success with seasonal campaigns is using an opportunity that engages your audience. If your audience doesn't engage with the season itself, you can’t expect to see results from a campaign centred around it.

That said, if you have conducted research into your audience, then you’ll likely know their attitudes around these big seasonal events and should be able to pair that with an event that suits your product or service.

Audit Existing Seasonal Campaigns

Once you have decided on a seasonal event to utilise for a campaign, have a look at some of the last few years’ most successful content campaigns for this occasion -- Ahrefs and BuzzSumo are great places to start with this. When evaluating existing, successful campaigns, spend some time thinking about how each piece approached content format, distribution, messaging, and emotion.

When validating a campaign, you might find that it's helpful to ask yourself the following questions:

How has this piece used multiple content types and distribution platforms? Is the messaging clear and if so, what is it? What emotion does this campaign evoke in the user?

This type of analysis makes it easier for you to uncover common denominators that may inspire the ideation for your own campaign and contribute to your strategy when planning.

Gather Insights via External Outreach

If you're looking for an outsider's opinion, try doing some outreach to journalists or various digital publications that have previously covered some of the campaigns you analyzed above.

By sending out some feelers to see what kind of content they like to post around your chosen season, and when they like to receive press releases for these pieces, is a valuable way to spend a couple of hours or so.

That isn’t to say you must take the feedback you get as gospel, but it is good to bear in mind when you are planning your seasonal campaign.

Step #2: Nail down the messaging.

As with any marketing campaign, your seasonal campaign messaging is so important. To help you get started, you should be thinking the following:

The customer journey and the story you want to tell The emotions you want to evoke in your audience A call-to-action or the desired next steps you want to encourage

In 2013, MegaRed -- a company that sells a type of krill oil supplement that is good for your heart -- launched a noteworthy digital Valentine's Day campaign.

The basis of the campaign was simple: ‘Whose Heart do you Love?’ consisted of a video piece that urged viewers to give the gift of a healthy heart to someone they love on Valentine's Day by applying for a free sample of MegaRed via its Facebook Page. To return the love, MegaRed would send the user a free sample, too.

To add an additional tug on the old heart strings, MegaRed also promised that once 100,000 free samples has been claimed, it would donate $100,000 to the National Coalition for Women With Heart Disease.

When it comes to messaging, this campaign hit on all the points mentioned above:

The customer journey and the story you want to tell: The messaging focused on new customer acquisition, and pushed the universal importance of hearth health. The emotions you want to evoke in your audience: In this case, it was love. MegaRed promoted its product by urging those watching to help their loved ones take care of themselves and their heart. A call-to-action or the desired next steps you want to encourage: Request a free sample. Step #3: Establish a schedule.

With seasonal campaigns, timing is of the essence. This means not only scheduling time to plan well in advance of the event, but also planning the execution of each stage of the campaign at the right time.

With today’s journalists, editors, and site owners receiving hundreds of content pitches and press releases each and every day, you can imagine the influx they receive around peak seasonal times. That said, you need to have your content prepared, built, planned and ready to be sent to sites at least two months before the big event -- preferably sooner.

When creating a schedule for your campaign, don't forget about your audience. When is the best time to contact them? When will they be most willing to share the content or engage with the campaign? Plan around that, too.

Step #4: Organise your assets.

You should consider all marketing platforms -- email, social, PR, blogging, SEO -- when planning your seasonal content campaign, as incorporating different platforms in your campaign allows for an effective content flow, increased reach, and increased engagement.

One of Zazzle’s most successful seasonal campaigns was one done for AO.com, a retailer specialising in household appliances. This simple idea -- ‘A Guide to the Ultimate Christmas Dinner’ -- manifested into a truly successful campaign that spanned many different content formats and platforms.

Zazzle Christmas Campaign.jpg

Zazzle Christmas Campaign Food Guide.jpg

Zazzle Christmas Campaign Recipe.jpg

The hero piece was a content hub that sat on the AO.com blog. This interactive piece greeted the user with 12 of the staple ingredients that make up a Christmas dinner that, when clicked on, lead to a simple recipe on how to cook them -- including both an ingredients list and a methodology. This recipe could then be downloaded by clicking a ‘download recipe’ CTA.

Outside of the content hub, we created an infographic that detailed step-by-step instructions for cooking a Christmas dinner. This was distributed via our blogger relations team to help AO.com's campaign gain traction on related websites.

Then it came down to outreach. And with the help of an organized press release and PR push, this campaign was featured in three different articles -- including spots on Daily Mail, The Huffington Post, and 50 Connect.

Finally, due to the useful nature of the content, it shared well on social platforms, adding to the overall success and visibility of the campaign.

The lesson? Think big picture when planning your campaign assets. By distributing your campaign's message across different mediums and placements, it's easier for folks to find it and share it with their following.

Pro Tip: Having an effective, up-to-date campaign plan document is absolutely essential during this part of the process. It will enable you to better organize the timing and frequency of content release, and keep your messaging consistent by serving as a home for all of your campaign assets and communications. Check out these content marketing planning templates to get started.

Step #5: Report and remain agile.

Something that is imperative when managing and planning a marketing campaign is the ability to be agile. Report and review the campaign’s performance as you go along and adjust your strategy if you feel it's necessary.

Where is the majority of traffic coming from? Which pages have the best bounce rate? Which ones are converting the best? Use these simple metrics, and other campaign success measurements, to inform your strategy moving forward.

Don’t be afraid to make alterations to the original plans. If the changes you are going to make will ultimately improve the campaign’s success, why wouldn’t you make them? Remember: It doesn’t matter that this plan isn’t what you started with.

Getting Started

With 2017 coming at us full steam ahead, begin to think about which seasonal events your brand could benefit from over the next 12 months. After all, nailing these seasonal campaigns could be the key to your best financial year yet.

What are your best tips for planning a seasonal campaign? Share them below.

free content creation templates

Gutes Content Marketing gleich gutes Management?

by garantiert
Comments are off for this post.

Die Kritik an Content Marketing lautet oft, es sei nichts anderes als verschleierte Reklame. Ein Blick in die Forschung im strategischen Management zeigt, dass gute Grundlagen für Content Marketing von einer stakeholder-zentrierten Unternehmensführung geschaffen werden können.

Im digitalen öffentlichen Raum merken Unternehmen vor allem eines: Der Kunde rückt näher. Er ist informierter. Seine Aufmerksamkeit ist aufgrund des Informationsüberangebotes im Netz sehr, sehr, sehr endlich. Und er publiziert selbst. Auch über Unternehmen. Die, die mit unpassender Ansprache die Zeit der Nutzer verschwenden, riskieren viel: Wer hier einen schlechten Eindruck macht, wäre besser offline geblieben.

Hyperwettbewerb: Kurzfristige Strategien reichen nicht mehr – jeder Widerspruch fällt auf

Dabei haben Unternehmen sowieso gerade alle Hände voll zu tun: „Technologie und Information haben alle Geschäftsaktivitäten einer wahren globalen Wettbewerbssituation ausgesetzt“, beschreibt Unternehmensberater Joachim A. Kappel bereits 2003 den sich veränderten Kontext für Unternehmen. Und weiter: Es sei eine „technologiegesteuerte Informationsrevolution“ im Gange, die neue Geschäftsumfelder des „übersteigerten Tempos“ schaffe, was nach einem „Paradigmenwechsel für Organisationen, intern wie extern“, verlange. Dieser Trend setzt sich bis heute fort. Der US-amerikanische Strategieprofessor Richard A. D’Aveni nennt das Phänomen „alle gegen alle“ „Hypercompetition“: Zu kurz gedachte Strategien bringen keinen langfristigen Erfolg mehr.

ManagerErschrocken copyDa wird manchem nicht zu Unrecht bange, denn schließlich ist, wer sich ins Digitale wagt, noch zusätzlich exponiert und wird genau beobachtet – von Kunden, Partnern, den eigenen Mitarbeitern und von der Konkurrenz. Da fällt jeder Widerspruch auf – öffentlich. Um im Umfeld des Hyperwettbewerbs zu bestehen, schlägt D’Aveni sieben Initiativen beziehungsweise Maßnahmen vor, mit welchen sich Unternehmen dabei einen nachhaltigen Wettbewerbsvorteil verschaffen können. An erster Stelle steht die Zufriedenheit der Stakeholder. Orientieren Sie sich an den Bedürfnissen von Anspruchsgruppen

Diese Einsicht ist nicht neu: Der Ansatz, sich an den Bedürfnissen von Stakeholdergruppen zu orientieren, gewinnt im strategischen Management an Bedeutung. Die Stakeholder View ist in der Unternehmenspraxis angekommen. Was aber für die Strategie eines Unternehmens gilt, sollte für seine Kommunikation erst recht gelten. Wer also im Digitalen einen Blumentopf gewinnen will, tut dies ganz sicher nicht ohne gut gemachte Inhalte, die die Bedürfnisse der Zielgruppe erfüllen – dafür ist die Konkurrenz der Inhalte zu groß und die Aufmerksamkeit der Nutzer zu begrenzt.

Zugleich werden die Versprechen von Unternehmen überprüfbarer – in Sachen Qualität der Produkte oder Dienstleistungen, der Preise, der Mitarbeiterstimmung. So ist digitale Kommunikation höchst imagerelevant. Die Kommunikationsforschung stellt in diesem Kontext fest: Organisationen stehen zunehmend unter Legitimationsdruck und „Kommunikation avanciert damit […] zum entscheidenden Mittel, um organisatorische Interessen durchzusetzen und damit die Existenz der Organisation langfristig zu sichern“ (Bentele/Fechner/Seidenglanz, Berufsfeldstudie Pressesprecher 2015: S. 90-91).

Mehrwert gegen Kontakt: ein legitimer Deal

Content Marketing-Kommunikation wird oft der Vorwurf gemacht, sie sei nichts weiter als Reklame. Sogar Reklame von der ganz üblen Sorte, weil sie verschleiern wolle, dass sie eigentlich Reklame sei. Ruft man sich das Ziel der stakeholder-orientierten Unternehmensführung ins Gedächtnis, zeigen sich aber große Parallelen. Denn auch beim Content Marketing stehen klar die Bedürfnisse derjenigen im Vordergrund, die Ansprüche an ein Unternehmen haben oder haben könnten. Qualitativ hohes Content Marketing kann in diesem Licht als konsequenteste Schlussfolgerung für Kommunikation im Digitalen bezeichnet werden, wenn es die Bedürfnisse von Stakeholdern in den Vordergrund stellt.

2016-11-23_1332

Fragen Sie sich selbst: Wenn ein Haarshampoohersteller auf seiner Seite Videotutorials anbietet, in denen Frauen Hochsteckfrisuren zaubern, ist das dann reine Reklame? Oder wenn ein Nahrungsmittelimporteur eine vielfältige Rezept- und Kochanleitungsseite bereitstellt, welche die eigene Produktpalette zelebriert? Nein, eben nicht. Es sind Kommunikationsprodukte, die Unternehmen kostenlos anbieten, um im Gegenzug mit den Nutzern in Kontakt treten zu dürfen.

Natürlich: Unternehmen geht es am Ende darum, etwas zu verkaufen. Die Basis dafür ist aber, als vertrauens- und glaubwürdig wahrgenommen zu werden – heute mehr denn je. Das Vertrauen verdient, wer die Bedürfnisse und Interessen der Menschen erkennt und sich mit relevanten Inhalten um ihre Aufmerksamkeit bemüht: ob es nun um Unterhaltung, das Bereitstellen von Wissen, die Erweiterung von Fähigkeiten oder einfach nur um kuratierte Artikelsammlungen zu einem Thema von Interesse geht. Für die Unternehmen dagegen geht es um die Legitimation ihrer Geschäftstätigkeit. 20161122_101104~2_resized Gelungenes Content Marketing – ein Hinweis auf durchdachte Unternehmensführung?

Gelungenes Content Marketing könnte also ein Hinweis darauf sein, dass ein Unternehmen eine reflektierte zukunftsfähige strategische Ausrichtung erarbeitet hat. Denn wer seine Anspruchsgruppen mit besseren Inhalten erreichen will, muss sie nicht nur in einem Analyseprozess identifizieren, sondern auch intern einiges in Bewegung setzen, was auch die Grundlagen für gute digitale Inhalte schafft: Silodenken muss minimiert werden, um relevante Ressourcen im Unternehmen überhaupt zu entdecken.

Eine Analyse der eigenen Stärken und Schwächen wird notwendig. Ressourcen werden identifiziert; manchmal umgeschichtet. Prozesse ändern sich. Wissenstransfer muss organisiert werden, die Weiterbildung der Mitarbeiter wird notwendig, Leistungs- und Effizienzhemmnisse werden hinterfragt und abgebaut. Die Irritationen des „System Unternehmen“ durch die Stakeholder View sorgen dafür, dass es sich ändert. Und meist nicht zum Nachteil für seine Kunden und Produkte. Oder?

Bildquellen: Schwarzkopf, Shutterstock, Sandra Elgaß

Der Beitrag Gutes Content Marketing gleich gutes Management? erschien zuerst auf PR-Blogger.

Instagram für Unternehmen – Der neue Instagram Business Account

by garantiert
Comments are off for this post.

SocialMedia Institute (SMI) - Social Media Strategie / Coaching / Workshops

In diesem Blogbeitrag geht es rund um den neuen Instagram Business Account. Wie wird er eingerichtet, welchen Mehrwert haben Unternehmen davon und wie können Firmen im allgemeinen Instagram für ihr Business nutzen.   Das kann der neue … Weiterlesen

Dieser Beitrag Instagram für Unternehmen – Der neue Instagram Business Account erschien erstmals auf SocialMedia Institute (SMI).

5 Tipps, wie Sie im Ideen-Workshop Ihr Social Media-Team auf Trab bringen

by garantiert
Comments are off for this post.

Wer auf den sozialen Medien kommuniziert, sollte seine Fans und Follower nicht langweilen oder nerven. Das gilt gerade für Unternehmen. Aber was, wenn die Ideen ausbleiben? Dann hilft ein Kreativ-Workshop, in dem mit verschiedenen Methoden die Kreativität angeregt wird. Hier kommen 5 Tipps, die Ihre Truppe dabei nachhaltig zur Ideen-Schmiede machen.

shutterstock_thumbs up_mittel(1)

Tipp 1: Strukturieren Sie die Veranstaltung sichtbar für alle und sorgen Sie für nachhaltige Ergebnisse: mit der Ideen- und Fragewand.

Nehmen Sie sich bewusst Zeit und strukturieren Sie die Veranstaltung vorab in Input mit kreativen Phasen

Egal, ob Sie mit Ihrem Kollegen eine Stunde oder mit Ihrem ganzen Team einen ganzen Tag Ideen entwickeln möchten: Nehmen Sie sich diese Zeit. Machen Sie allen bewusst, dass Ideenfindung etwas ist, das einen freien Kopf erfordert. Wenn die Teilnehmer oder Sie selbst nebenbei noch andere Aufgaben zu bearbeiten haben, wird sich das im Ergebnis niederschlagen.

Planen Sie eine Mischung aus Input und Arbeitsphasen. Passen Sie die Input-Themen an die Kreativ-Übungen an, wenn der Fokus auf der Ideenentwicklung liegt. Wenn der Fokus auf Weiterbildung liegt, bietet es sich an, die Kreativ-Übungen möglichst passend zu den Inputphasen auszuwählen.

Sie sollten auch dafür sorgen, dass die Ideen, die Sie zusammen mit Ihrem Team entwickeln, direkt sichtbar werden und bleiben. Dazu bietet sich als Rahmen beispielsweise an, zwei Flächen an der Wand zu markieren, die eine für die Ideen, die andere für auftauchende oder offene Fragen. Sind Sie ein Lebensmittelhändler, könnten Sie die Flächen Schnelldreherecke und Fragelager benennen. Sind Sie eine Autovermietung, heißen die Flächen Ideenhaltestelle und Frageparkplatz. Seien Sie hier kreativ und gehen Sie mit gutem Beispiel voran!

Vergessen Sie nicht das Erwartungsmanagement

Fragen Sie die Teilnehmer vorab nach Ihren Erwartungen und halten Sie diese irgendwo am Rande fest. Führen Sie dann die Agenda des Workshops ein. So können Sie am Ende des Workshops ein kleines Fazit ziehen. Das entlässt die Teilnehmer mit einem guten Gefühl und einer Vorstellung dafür, wie weitere Schritte aussehen könnten.

shutterstock_2

Tipp 2: Spionieren Sie Ihre Fans/Follower aus!

Erkunden Sie die Bedürfnisse Ihrer Fans/Follower

Teilen Sie Ihre Teilnehmer in Arbeitsgruppen zu je zwei bis drei Leuten ein und lassen Sie Ihnen die Wahl: Entweder, sie denken sich basierend auf ihren eigenen Erfahrungen im Community-Management einen typischen Fan/Follower aus oder sie suchen sich einfach jemanden aus der Liste der Fans/Follower Ihrer bestehenden Social Media-Präsenzen aus, dessen Profil und Social Media-Aktivitäten die Grundlage für die Aufgabe ist.

Wichtig dabei: Der Social Media-Fan ist eventuell nicht deckungsgleich mit ihren Kunden oder bereits in einer Kundenanalyse entwickelten Personas. Dann sollen die Teilnehmer ihre Persona anhand folgender Kriterien analysieren: Neben Name, Alter und Job sollen sich die Teilnehmer Gedanken über Denken & Fühlen, Hören & Sehen, Charakter & Vorlieben, Produktbezug, Sprache & intellektueller Anspruch, Umfeld & Lifestyle dieser Person machen. Noch ein Tipp: Analysieren Sie ruhig auch einmal jemanden, der sich auf ihren Social Media-Präsenzen kritisch Ihnen gegenüber zeigt. Eventuell übersehen Sie hier ein Bedürfnis, das gar nicht so schwer zu bedienen wäre? Die Plakate könnten etwa so aufgebaut sein:

2016-12_SandraElgass_PR-Blogger

 

shutterstock_3

Tipp 3: Setzen Sie Kreativtechniken ein und beginnen damit schon in der Vorstellungsrunde.

Die Kreativ-Techniken: Ideen anregen von Anfang an

Auch wenn sich die Teilnehmer des Workshops schon kennen, bietet sich in dieser Phase die Übung „Was, wenn ich ein/e … wäre“ an. So regen Sie schon jetzt die Kreativität Ihrer Teilnehmer an und können diese auch noch mit einem kleinen Kniff direkt in Ideen für die Social Media-Kanäle Ihres Unternehmens nutzen. Dafür setzen Sie an die Stelle von „…“ einfach etwas, was mit Ihrem Unternehmen zu tun hat.

Eine Vorstellungsrunde voller Kreativität

Sind Sie beispielsweise eine Autovermietung, könnten Sie die Teilnehmer dazu anregen, sich als ein bestimmtes Auto vorzustellen und zu erklären, warum sie das entsprechende Modell gewählt haben. Falls Sie die Öffentlichkeitsarbeit einer Universität leiten, könnten Sie als Vergleich verschiedene Studienfächer wählen. Falls Sie Waschmittel herstellen, könnten sich Ihre Teilnehmer als Kleidungsstücke präsentieren. Sie werden sehen: Das sorgt für gute Atmosphäre und dabei findet sicher schon die ein oder andere Idee den Weg auf die Ideenwand.

Bringen Sie Best Practices auf den Tisch und analysieren Sie sie gemeinsam

Spicken Sie bei anderen! Bitten Sie jeden Teilnehmer, kurz zu überlegen, was sie auf Social Media in letzter Zeit überrascht, amüsiert oder beeindruckt hat, unabhängig von der Quelle. Dann sollen sie drei Beispiele aufschreiben. Stellen Sie sich diese Beispiele gegenseitig vor und überlegen Sie zusammen, warum das Beispiel Erfolg hatte.

Ordnen Sie heimlich diese Beispiele an der Wand den Bereichen „witzig & unterhaltsam“, „Information & Mehrwert“, „Identifikation & Emotion“ und „Begeisterung & Erstaunen“ zu. Lösen die Bereiche erst hinterher auf. Das schärft Ihren Sinn und den Ihrer Teilnehmer für Kategorien, in denen Inhalte auf dem entsprechenden Kanal funktionieren. Prüfen Sie zum Schluss, ob sie weitere Kategorien an die Wand bringen müssen.

Mit der 635-Methode Gehirnschmalz zusammenwerfen und Assoziationen anregen

Bei dieser Methode kommt es darauf an, sich von den Ideen der anderen zu weiteren Ideen inspirieren zu lassen. Der Name rührt eigentlich vom Aufbau des zu nutzenden Arbeitsblattes her: 6 Zeilen mit je 3 Ideen, die in in 5 Minuten erdacht werden sollen. Das ist aber beinahe beliebig auf Ihre Bedürfnisse anpassbar. Entwickeln Sie vorab ein Arbeitsblatt, das sinnvoll auf ihrem Thema aufbaut. So kann aus 635 auch mal 737, 435 oder 335 werden. Jedes Blatt enthält außerdem Informationen über die Kategorie der zu bearbeitenden Contentidee und das Über-Thema.

Bitten Sie sie nun die Teilnehmer, die Grundinformationen des Blatts auszufüllen. Schauen Sie sich dazu beispielsweise nicht erfolgreiche Facebook-Posts ihres Unternehmens an. In Falle unseres Autovermieters wäre die Kategorie vielleicht Information und das Thema „Einparken leicht gemacht“. Nun sollen die Teilnehmer dazu 3 Ideen in die erste Zeile in jeder der drei Spalten schreiben.

Danach wird das Arbeitsblatt an den Nachbarn zur jeweils Linken weitergereicht, der weitere 3 Ideen in die zweite Zeile schreiben soll, welche auf den bereits dort stehenden aufbauen. Sind die Blätter nach einer Runde wieder am Ausgangspunkt angekommen, werden sie gemeinsam ausgewertet. Ideen, die daraus entstehen, werden sofort an die Ideenwand gepinnt.

shutterstock_4

Tipp 4: Falls der Ideenfluss mal stockt und/oder die Laune sinkt: Überlisten Sie das Gehirn mit der Worst-Case-Technik!

Das Gehirn überlisten: Worst Cases brainstormen und umdrehen

Das menschliche Gehirn achtet mehr auf Unordnung als auf Ordnung, und es fällt ihm leichter, eine negative Perspektive zu entwerfen als eine positive. Das nutzen Sie beim Worst-Case-Brainstorming. Zur Vorbereitung können Sie die USPs Ihres Unternehmens in Schlagworte oder Schlagphrasen umwandeln. Verkaufen Sie beispielsweise Waschmittel, könnten die Schlagphrasen lauten: Schlammschlacht, leerer Tresor, Falten haben, miefen (USPs: Sauberkeit, günstig, knitterfrei, feiner Duft). Verschleiern Sie dabei die Verbindung zu den USPs, so gut es geht.

Schritt 1: Bitten Sie die Teilnehmer, zu diesen Schlagphrasen zu brainstormen und alle Assoziationen direkt für alle sichtbar festzuhalten. Beim leeren Tresor ist eine Assoziation vielleicht „Räuber“ oder „pleite“.

Schritt 2: Bitten Sie die Teilnehmer, zu allen Assoziationen die Gegenteile zu bilden und halten Sie auch diese für alle sichtbar fest. Zu „Räuber“ wäre das Gegenteil vielleicht „Gönner“ oder „Spender“ oder „wohlhabend“.

Schritt 3: Bilden Sie nun aus allen Gegenteilen Superlative. Diese können völlig übertrieben sein. Aus Spender wird so vielleicht „Robin Hood mit Goldsäcken in der Hand“ oder „steinreich“ oder „reicher als Dagobert Duck“.

Schritt 4: Nehmen Sie sich die Superlative vor und versuchen Sie in der Gruppe, aus jedem eine Idee an der Ideenwand zu generieren.

shutterstock_5

Tipp 5: Sorgen Sie für frische Perspektiven durch eine externe Seminarleitung und Mitarbeiter aus anderen Abteilungen.

Tunnelblick vermeiden: Holen Sie sich jemanden dazu

Eine unverbrauchte Perspektive bewirkt manchmal Wunder. Dabei können „Externe“ auf zwei Arten helfen.

Sich einen externen Workshopleiter einzuladen hilft erstens dabei, den Workshop im Kopf der Teilnehmer vom alltäglichen Trott im Job oder im Team abzuheben. So lassen sich leichter auch mal andere Denkwege einzuschlagen. Außerdem hilft es bei der Vorbereitung der Übungen, einen unbeeinflussten Blick aufs Unternehmen zu erhalten, zum Beispiel beim Finden der Schlagworte für das Worst-Case-Brainstorming oder um Probleme ohne Scheu zu benennen.

Zweitens kann es auch fruchtbar sein, Teilnehmer aus anderen Abteilungen zum Workshop einzuladen. Einerseits erhält man so vielleicht Perspektiven, die Social Media-Verantwortliche auf ganz neue Ideen bringen können. Andererseits kann es so gelingen, weitere Mitarbeiter von der Sinnhaftigkeit von Social Media zu überzeugen. Gleichzeitig erhalten diese einen besseren Eindruck von Art und Umfang der Arbeit, die hinter Ihrer Social Media-Kommunikation steckt.

shutterstock_Idee

So, und jetzt viel Spaß bei Ihrem Workshop!

Sie haben mit weiteren Kreativmethoden gute Erfahrungen gemacht? Oder ein regelmäßiges Meetingformat, das regelmäßig viele gute Ideen produziert? Dann freuen ich mich selbstverständlich, wenn Sie sie in den Kommentaren mit uns teilen!

Bilder: Sandra Elgaß, Shutterstock.

Der Beitrag 5 Tipps, wie Sie im Ideen-Workshop Ihr Social Media-Team auf Trab bringen erschien zuerst auf PR-Blogger.

default-poup

Immer perfekt informiert!

Melde dich an und versäume keine News mehr.

Deine Daten sind sicher und werden nicht an Dritte weitergegeben!
mouse-poup

Immer perfekt informiert!

Melde dich an und versäume keine News mehr.

Deine Daten sind sicher und werden nicht an Dritte weitergegeben!
mouse-poup

Immer perfekt informiert!

Melde dich an und versäume keine News mehr.

Deine Daten sind sicher und werden nicht an Dritte weitergegeben!