Portraitfoto Robert Weller
Robert Weller
Content-Stratege, Buchautor und Dozent für Content Marketing.

Content Testing: Wie du durch Experimente den ROI deiner Inhalte steigerst (inkl. Beispiele)

Lesezeit Icon 21 min
Content
Durch Content Testing den ROI von Inhalten steigern

Entdecke den Business Value deines Contents.

„Sicherlich einer der inhaltlich wertvollsten Newsletter, die ich bisher erhalten habe.“

Andreas Hoffmann
Head of Marketing @ OmniCult

Versand- & Datenschutzbestimmungen
Abmeldung ist jederzeit möglich.

Sag mal, liest du lange Artikel?

Schaust du dir lange YouTube-Videos an? Hörst du dir Podcast-Episoden über 30 oder sogar 60 Minuten an?

Ich werde oft gefragt, ob überhaupt jemand meine Artikel liest, weil sie so lang sind, oder ob ich damit nicht eigentlich ganz schön viel Zeit und Arbeit verschwende.

Ersetze das Wort “lang” doch einfach mal mit umfassend, tiefgründig oder relevant. Nicht, weil es Synonyme sind, sondern weil wir dann über Qualität statt nur die Quantität sprechen. Und dann klingt die Frage schon ganz anders, nicht? Zudem unterscheide ich gerne zwischen gelesen haben und verstanden haben. Letzteres ist noch schwieriger zu erreichen.

Wie lang ein Blogartikel oder ein Text denn nun sein sollte oder wie kurz ein Video sein muss, damit Leute diese Inhalte konsumieren, ist in meinen Augen nicht die entscheidende Frage. Viel wichtiger ist doch, wie viel “Umfang” nötig ist, um das Ziel zu erreichen – denke hierbei bitte sowohl an dein “Businessziel” als auch an das deiner Zielgruppe – und wie du es schaffst, deinen Content so zu gestalten, dass Leute Lust haben, ihn zu konsumieren.

Die Antwort darauf ist so individuell, dass sie nicht pauschal getroffen werden kann. Auch, wenn das viele vermeintliche Experten gerne tun. Es geht nicht. Natürlich gibt es Empfehlungen von Plattformen und Best Practice Erfahrungen von Marktbegleitern, aber die sind alles andere als allgemeingültig. Besser ist es, du findest selbst heraus was funktioniert und was nicht: durch systematisches Testen auf Basis sehr konkreter Hypothesen.

Und das nicht nur mit Blick auf den Umfang, sondern die Effektivität deiner Inhalte in jedweder Hinsicht.

Ich schreibe diesen Artikel über “Content Testing”, weil ich überzeugt davon bin, dass sich viele Fragen im Content Marketing durch gezielte Experimente viel besser – weil individueller und datenbasiert – beantworten lassen. Wir müssen uns nur angewöhnen, diese Fragen aktiv zu stellen und die Antworten darauf stets zu hinterfragen.

In diesem Artikel findest du insgesamt 11 Content Testing-Beispiele unter anderem zu den folgenden Fragen:

  • Hat die visuelle Gestaltung von Texten Auswirkungen auf die Zielerreichung, zum Beispiel die Newsletter-Anmelderate? (zum Beispiel)
  • Ist die Länge eines Textes entscheidend? (zum Beispiel)
  • Wie kann ich lange Texte gestalten, um Nutzer:innen zu motivieren, sie vollständig zu lesen? (zum Beispiel)
  • Welche Headline ist die beste? (zum Beispiel)
  • Welches Titelbild funktioniert besser? (zum Beispiel)

Experimente im Content Marketing, wieso eigentlich nicht?

Experimentieren ist ein probates Mittel, um die Effektivität deiner Inhalte zu messen. Die Erkenntnisse daraus helfen dir bei der Produktion, Distribution und vor allem bei der kontinuierlichen Optimierung deines Content-Portfolios. Insbesondere A/B-Tests sind wichtig, um herauszufinden, welche Inhalte funktionieren, welche nicht und vor allem wieso. Also wie(so) sich verschiedene Elemente wie Überschriften, die Formatierung und visuelle Gestaltung oder unterschiedliche Content-Typen auf den Traffic, das Kundenverhalten und die Conversion Rate auswirken.

Im E-Commerce ist Testing fast schon gängige Praxis, insbesondere im Bereich von Usability und anderen User Experience (UX) Tests. Amazon, Shopify, Booking, Netflix – sie alle profitieren durch Testen. Doch auch Content (im Marketing) lässt sich hervorragend testen, um beispielsweise Annahmen über die eigene Zielgruppe zu validieren, tatsächlich positiv resonierende Texte zu formulieren (Markenversprechen, Alleinstellungsmerkmale, Kaufargumente etc.) oder die klickstärksten Headlines für Blogartikel und Anzeigentexte zu bestimmen.

"When it comes to testing, people love focusing on UX, design, layout and call-to-actions, yet they often neglect copy. In my opinion, you should focus on nailing your value proposition, everything else is just window dressing."

Sandra Wu, Director of Growth, Himalaya

Die Stärken von Content Testing

Besonders in zwei Fällen können wir durch Experimente effektive Lösungen entwickeln: Einerseits, wenn wir nicht wissen, was zu tun ist, etwa weil uns Informationen fehlen, und andererseits wenn wir nicht wissen bzw. abschätzen können, welche Auswirkung eine angedachte Änderung auf ein Ziel haben wird. Oder kurz gesagt: Durch Testen können wir das Was?, Wie? und vor allem das Warum? beantworten.

Ob Blogartikel, E-Mail-Marketing, Social Media, Copywriting, Visual Design, Landingpages oder Suchmaschinenoptimierung – quantitative und/oder qualitative Tests lassen sich quasi überall sinnvoll integrieren. Dabei gibt es eine Vielzahl von Variablen, die wir testen können: Titel und meta title, die Beschreibung von strukturierten Daten, die Artikellänge, den einleitenden Absatz oder die Integration von Bild- und Videoinhalten.

Der entscheidende Faktor ist, laut Edward Wood, Chief Marketing Officer bei CareerFoundry und davor Head of Content Marketing bei Babbel, der primärer Distributionskanal. Ist das beispielsweise die organische Suche, sollten wir wahrscheinlich den Meta-Titel, die Einbeziehung von Rich Media sowie die Ergänzung des FAQ-Schemas testen. Wenn es sich hingegen um eine bezahlte Distribution über Content-Discovery-Netzwerke wie Outbrain und Taboola handelt, fokussieren wir uns auf besser auf die Iteration von Titeln/Überschriften sowie die Artikellänge und das -template.

Besonders spannend ist Content Testing auf “Value Pages”, also auf jenen Webseiten, durch die du dein Geschäft ankurbelst – sei es durch die Traffic-Generierung über Blogartikel, die Produktkommunikation über Produktseiten oder die Akquise über Kontaktseiten. Schau einfach mal in deinem Web Analytics Tool nach, welche Seiten besonders häufig aufgerufen werden bzw. eine besonders hohe Conversion Rate aufweisen.

At Babbel, we divided articles into three broad categories; Performance, Social, and Organic. While a lot of companies and agencies will probably focus on the latter two, it was the Performance articles which really brought in the traffic, the leads, and the sales, and were the focus of our optimization efforts. At CareerFoundry, organic – and particularly organic search – content is integral to the company’s success. Therefore, we spend much more time testing there than in content discovery.

Edward Wood, Chief Marketing Officer, CareerFoundry

Die unterschiedlichen Arten des Testens

Viele der folgenden Beispiele basieren auf A/B/n-Tests, bei denen verschiedene Varianten in randomisiert segmentierten Zielgruppen verglichen werden. Das geschieht dynamisch auf ein und derselben Seite mithilfe entsprechender Testing-Tools, oder, und in dem Fall sprechen wir dann von Split Testing, durch die gezielte Traffic-Aufteilung auf unterschiedliche Seiten.

Daneben gibt es aber auch andere Arten des Testens. Für diesen Artikel habe ich beispielsweise ein sogenanntes “Preliminary Testing” (kurz Pretest) gemacht. Diese Form des Testings ist typisch für TV-Werbung, die vor der Ausstrahlung erstmal einem kleinen Publikum gezeigt wird, um grobe Schnitzer zu vermeiden und sicherzustellen, dass die Werbebotschaft auch wirklich rüberkommen wird.

Was genau hab ich getan?

Ich habe diesen Artikel vorab an ein paar freiwillige “Beta Leser” geschickt (was mit Blick auf die Stichprobenwahl nicht ganz ideal ist, in meinem Fall aber völlig ausreichend) und sie um Feedback gebeten. Besonders interessant war für mich zu wissen, …

  • welche Begriffe auftauchen, die unklar sind; die habe ich dann noch erläutert.
  • welche Aussagen/Passagen/Bilder für AHA-Momente gesorgt haben; diese habe ich visuell hervorgehoben und auch als Teaser für die Promotion genutzt.
  • ob am Ende noch Fragen zum Thema offen sind; woraus sich ergeben hat, dass ich noch einen zweiten Artikel über Content Testing schreiben werde.
  • wie motivierend der Artikel ist, um ihn einerseits überhaupt in Gänze zu lesen und andererseits selbst mit Testing zu beginnen; sodass ich die Struktur des Artikels noch leicht angepasst habe.

Mehr über die verschiedenen Arten des (Content) Testings folgt wie gesagt in einem weiteren Artikel.

Bevor wir uns konkrete Beispiele dazu anschauen, will ich aber kurz den Prozess skizzieren, der sich für Content Testing bewährt hat.

Content Testing: Schritt für Schritt zum ersten Experiment

Hast du vielversprechende Seiten oder vielleicht auch ganze Seitentypen (zum Beispiel “Blogartikel”, “Pillar Pages” oder “Service Seiten”) identifiziert, kann es auch schon losgehen.

  1. Konkretisiere dein Problem: Aufgrund welcher beobachtbarer, ergo messbarer Symptome vermutest du Potenzial durch eine Optimierung? Das könnten beispielsweise eine steigende Absprungrate wie im Screenshot unten sein oder eine niedrige bzw. sinkende Newsletter-Anmelderate.
Absprungrate in Google Analytics
Überdurchschnittliche und vor allem steigende Absprungraten sollten wir immer genauer betrachten (Screenshot: Google Analytics)
  1. Identifiziere Testfelder durch User Research, beispielsweise durch Jobs-to-be-Done-Interviews, Copy Testing oder Usability Tests. Derartige qualitative Forschungsmethoden sind wichtig, denn nur sie geben Aufschluss darüber, warum bspw. die Absprungrate steigt.

While analytics give you metrics on how a page or its elements are performing, it doesn't give you any input on what exactly is resonating with your audience and what creates friction. Based on this open-ended feedback, we can formulate a hypothesis for A/B testing. You can't optimize copy without qualitative user research.

Viljo Vabrit, Founder & Partner bei Speero

  1. Formuliere auf Basis deiner Erkenntnisse eine Hypothese: Welche Veränderung deines Contents (textlich/sprachlich, visuell, strukturell etc.) werden die Zielmetrik positiv beeinflussen? Was führt zu dieser Verhaltensänderung deiner Nutzer:innen; welche kognitive Verzerrung oder welches psychologisches Verhaltensmuster (wir sprechen von “Behavior Pattern”) liegt dieser zugrunde?

    Die ursprüngliche Hypothese für die Kürzung der Seite und des Inhalts von The Motley Fool (siehe Beispiel 3 oben) basierte beispielsweise auf der Beobachtung, dass ein großer Teil der Besucher:innen es nie bis zum Ende der Seite schafft, wo sich der Handlungsaufruf befindet. Die Vermutung lag nahe, dass der Inhalt durch die Länge vielleicht sogar eher Ängste und Unsicherheit ausgelöst hat, weshalb Nutzer:innen abspringen. Die Hypothese lautete dann:

    Wenn wir den Artikel kürzen, ohne die Story zu verändern, dann können wir die Wahrscheinlichkeit erhöhen, dass die Nutzer:innen bis zum Ende lesen und konvertieren.

    Da sich diese Vermutung nicht bewahrheitet hat, haben sie das Experiment sozusagen um 180 Grad gedreht und den Inhalt und die Seitenlänge verdoppelt, um das Engagement zu steigern. Es lag also auf der Hand, Bilder, Zitate, Headlines etc. zu testen:

    Wenn wir mehr Bilder hinzufügen, um die Seite länger und ansprechender zu machen, dann wird das dazu beitragen, das Engagement zu erhöhen und mehr Conversions zu erzielen.

    Ein einfaches Schema für gute Hypothesen ist “Wenn …, dann …, weil …” – wobei insbesondere der letzte Teil wichtig ist, um aus jedem Test, unabhängig vom Ergebnis, Insights und damit Impulse für weitere Tests zu generieren.
Hypothesen-Formel
Eine gute Hypothese beschreibt auch den Grund für das zu erwartende Ergebnis
  1. Erstelle das Konzept für deine Variante(n), führe den Test durch und werte ihn aus. Ich fasse diese drei Schritte hier einfach mal zusammen, denn eine detaillierte Erläuterung würde den Rahmen sprengen. Was wir brauchen, ist eine kontrastreiche Variante, bei der wir idealerweise nur eine konkrete Änderung testen, um nicht nur eine Korrelation sondern bestenfalls eine Kausalität nachweisen zu können. Das bezieht sich primär auf “Prinzipien” (Behavior Pattern) und nicht einzelne Text- oder visuelle Elemente. Beim Test von The Motley Fool ging es weniger um die Länge an sich, sondern die dadurch erzeugten Emotionen.

    Ich empfehle dir außerdem diese Grundlagen in Sachen A/B-Testing-Statistik und diese Tipps von Dr. Julia Engelmann, Head of Data Analytics bei konversionsKRAFT.

Ein oftmals vernachlässigter Schritt

  1. Mach die Änderungen wieder rückgängig (optional). Wer es ganz genau wissen will, der sollte durch die Wiederherstellung der Kontrollvariante nach Abschluss eines Tests validieren, ob die Veränderung der Zielmetrik wirklich durch die Änderungen am Content / Design verursacht wurden. In dem Fall sollten sich die Zahlen wieder auf das Niveau von vor dem Test zurückbewegen. Damit wäre die Hypothese wirklich validiert und du kannst bedenkenlos die neue Variante wieder ausrollen.

Sei beim Experimentieren stets offen für unerwartete Ergebnisse, oft sind die Gründe für eine Veränderung nicht die, die du antizipiert hattest!

Ein Problem kann auf unterschiedliche Arten gelöst werden. Wichtig ist daher, dass du einzelne Lösungsansätze nacheinander testest. Priorisiere deine Hypothesen am besten im Vorfeld auf Basis des zu erwartenden Business Impacts (z.B. prozentuale Steigerung der Conversion Rate) und des damit verbundenen Aufwands für die Umsetzung.

So stellst du sicher, dass du die wichtigsten Aspekte optimierst und von Beginn an von Content Testing profitierst.

Wichtig: Priorisiere deine Ideen!

Ich will kein Fass aufmachen, denn diese Aufgabe ist nicht so trivial, wie sie klingt, und ich widme dem Thema in Zukunft lieber einen eigenen Artikel. Aber ich will zumindest das Bewusstsein dafür schaffen, dass das Potenzial einzelner Ideen unterschiedlich groß ist und wir unsere Ressourcen sehr gezielt in ausgewählte Optimierungsvorhaben investieren sollten. Frameworks wie ICE, PIE oder die MoSCoW-Methode kennst du vielleicht, spannend finde ich aber auch das “PXL Framework” von Speero. Viljo Vabri erklärt es so:

This framework helps us to measure signal strength based on how many different data points we have to support a hypothesis, combined with an "ease of implementation" metric. With objectivity at its core, this model requires data to impact the scoring. It breaks down what it means to be 'easily implemented', and instead of taking a shot in the dark regarding the potential impact of your idea, this model quantifies the potential.

Ich finde es deshalb spannend, weil es sich für verschiedene Content Use Cases adaptieren lässt, etwa für SEO oder Leadgenerierung. Details sowie eine Vorlage dafür findest du hier im Speero Blog.

Schauen wir uns nun ein paar Beispiele und Erfahrungswerte an. Damit kommt sicherlich auch die Inspiration für eigene Experimente.

Beispiele und Inspiration für zielführendes und datengetriebenes Content Testing

In unserem Buch Content Design beschreiben Ben Harmanus und ich viele Möglichkeiten, um Texte optisch zu gestalten – durch die Verwendung von Überschriften, Absätzen, Listen, Zeilenabständen etc. Das sind alles bewährte Gestaltungsmittel, die einen Text harmonischer wirken lassen, aber setz das bitte niemals gleich mit effektiver. Diese Aussage wirst du nur durch entsprechende Tests objektiv beantworten können!

Content Design Buch (2. Auflage, Hanser Verlag)

WERBUNG

Content Design (2. Auflage)

Robert Weller, Ben Harmanus

Mit diesem Buch lernst du die Konzeption und audiovisuelle Gestaltung von Content holistisch zu betrachten und zielgerichtet umzusetzen.

Einige meiner Lieblingsbeispiele für Content Testing kommen von Blinkist. Das Unternehmen testet wahnsinnig viel, da sie hauptsächlich durch ihr Magazin Leads generieren und es somit das Fundament für die Nutzerakquisition darstellt. Jeder Prozentpunkt mehr mit Blick auf die Conversion Rate bedeutet also bares Geld. Gleiches gilt für The Motley Fool, die über ihr Magazin Abo-Produkte und Premiumberichte vermarkten.

Eine Zusammenfassung der wichtigsten Learnings findest du am Ende dieses Artikels; spring gerne direkt dorthin, wenn es das ist, was du suchst.

1. Hat die visuelle Gestaltung von Texten Auswirkungen auf die Zielerreichung, zum Beispiel die Newsletter-Anmelderate?

Ja, die Optik kann die Conversion Rate sowohl positiv als auch negativ beeinflussen. Mit einer Steigerung – wir nennen das Uplift – von 16,5 % war der Test bei Blinkst, bei dem sie primär mit Zwischenüberschriften experimentiert haben, extrem positiv (siehe Screenshot unten). Auch The Motley Fool konnte in Experimenten dahingehend einen signifikanten Uplift messen (siehe Punkt 4).

Zwischenüberschriften im Test
Kaum jemand liest alles, daher sind Fokuspunkte und eine sinnvolle Informationshierarchie (das Wichtigste im Zweifelsfall zuerst) wichtig (Quelle: Sandra Wu, Blinkist)

2. Lohnt es sich, Texte um der guten Sprache willen zu überarbeiten?

In 75 % der bei Blinkist getesteten (!) Fälle nicht… Solange die Qualität des Geschriebenen akzeptabel ist, gibt es oft keinen Grund, die Sprache zu verschönern, weil dadurch kein zusätzlicher Wert für die Nutzer:innen geschaffen wird.

Im Test: Sprachliche Anpassungen von Texten
Sag, was du zu sagen hast, und zwar so, dass es jeder versteht. Mehr braucht ein guter Text nicht unbedingt (Screenshot: Sandra Wu, Blinkist)

3. Ist die Länge eines Textes entscheidend?

So, da ist die Frage, die sich jeder Content Marketer früher oder später stellt; Blinkist und The Motley Fool sind da keine Ausnahmen. Die Argumentation für kurze Texte hatten wir im Beispiel zuvor: kaum jemand liest alles, sondern scannt umfangreiche Texte auf der Suche nach relevanten Schlüsselbegriffen ab. Doch die Gegenargumentation ist simpel: Was, wenn Nutzer:innen mehr Informationen wollen oder es schlichtweg mehr Informationen bedarf, um ein Produkt zu erklären?

Die Antwort ist in gewisser Weise ebenso simpel und durch entsprechende Tests lässt sie sich sogar objektivieren:

Solange mehr Text auch mehr Wert für die Nutzer:innen bedeutet (ergo relevant ist), spielt die Länge keine Rolle.

Textumfang im Test
In über zwei Dutzend Experimenten hat Blinkist den Umfang von Texten mit mehrheitlich positiver Auswirkung auf die Conversion Rate erweitert (Screenshot: Sandra Wu, Blinkist)
Long-form vs. short-form Content
Im Test bei The Motley Fool gewann long-form Content gegenüber der kurzen Variante deutlich (Screenshot: WiderFunnel)

4. Wie kann ich lange Texte gestalten, um Nutzer:innen zu motivieren, sie vollständig lesen?

Wie die Tests aus dem vorherigen Beispiel belegen, ist die Relevanz ausschlaggebend für ein Grundinteresse der Nutzer:innen. Für James Flory, Director Experimentation Strategy, und seine Kollegen bei WiderFunnel war dieser erste Test aber vielmehr der Ausgangspunkt für weitere Experimente – mit Grafiken innerhalb der Artikel, visuell kontrastreich gestalteten Zitaten, Infoboxen und anderen Content-Elementen, die einerseits einen Mehrwert für Nutzer:innen darstellen, gleichzeitig aber auch den Text auflockern und die “Content Experience” abwechslungsreicher gestalten. Kumuliert haben sie dadurch bis heute einen Umsatz-Uplift von 26 % generiert. Iterativ kann long-form Content also immer effektiver werden – und mithilfe gezielter Experimente lernen wir auch, warum.

Content-Elemente im Test
Iterativ kann long-form Content immer effektiver werden – und mithilfe gezielter Experimente lernen wir auch, warum (Screenshot: WiderFunnel)

5. Welche Headline ist die beste?

Die Frage ist berechtigt, aber gleichzeitig sollten wir auch fragen: Wann ist der Titel das einzige, das eine Person zum Klicken motivieren muss, etwa in der Suche oder auf einer Übersichtsseite, und wann kannst du durch einen ergänzenden Beitragstext mehr Kontext liefern?

Dass zum Beispiel die New York Times die Titel ihrer Artikel testet, ist kein Geheimnis. Spannend ist jedoch zu sehen, wie viele Artikel sie testet, wie viele Varianten sie jeweils testet und wie erfolgreich sie damit ist. Tom Cleveland, Software Engineer bei Stripe, analysiert genau das mithilfe seines NYT Trackers. Ein Muster, das durch diese Analyse bereits erkennbar ist, sind mit der Zeit leider – immer dramatischer werdende Schlagzeilen.

Entwicklung einer NYT Headline im Zeitverlauf
Entwicklung einer NYT Headline im Zeitverlauf. (Screenshot/Quelle: TJCX)

Insgesamt wird aus den Daten ersichtlich, dass getestete Artikel mit 80 % höherer Wahrscheinlichkeit auf einer Liste der beliebtesten Artikel landen. Außerdem korreliert die Anzahl der Tests mit der Engagement Rate (z.B. Reaktionen in Form von Kommentaren oder Social Media Shares). Nichtsdestotrotz ist der Anteil an getesteten Headlines insgesamt mit 29 % recht gering und die meisten Tests (79 %) umfassen gerade einmal zwei Alternativen. Einen Grund für dieses eher rudimentäre Testen vermutet Cleveland darin, dass die NYT weniger als ein Drittel ihres Umsatzes durch Anzeigen verdient (Tendenz fallend). Eine Titelseite voller Clickbait-Headlines wirkt auf potenzielle Abonnenten, mit denen das Unternehmen hingegen fast zwei Drittel seines Umsatzes macht, wahrscheinlich eher abschreckend.

Moment, funktionieren Headline-Tests überhaupt?

Wie Alex Birkett (ehem. Growth Manager bei HubSpot) in seinem Artikel auf cxl.com richtig anmerkt, hat eine Headline normalerweise nur eine sehr begrenzte Lebensdauer – insbesondere in Medien, die mit hoher Frequenz publizieren, etwa die NYT. Ein A/B-Vergleich, der beispielsweise vier Wochen laufen muss, um ein vernünftiges Konfidenzniveau zu erreichen, ist nicht wirklich zielführend. Das Beispiel der NYT ist also genau genommen kein A/B-Test. Vielmehr geht es darum, möglichst schnell herauszufinden, welcher Titel die stärkste Resonanz erzeugt. Dabei laufen wir allerdings Gefahr, dem sogenannten “Confirmation Bias” zu erliegen, weil wir einerseits externe Variablen nicht kontrollieren können (insbesondere segmentierte Zielgruppen) und andererseits mehr als eine Metrik berücksichtigen (Klicks, Shares etc.).

Der Confirmation Bias (Bestätigungsfehler) bezeichnet die Neigung, Informationen so auszuwählen, zu ermitteln und zu interpretieren, dass diese die eigenen Erwartungen bestätigen.

Das Testen von Headlines über Werbeanzeigen ist dahingehend definitiv die bessere Alternative, aber eben mit zusätzlichen Kosten und Zeit verbunden.

Die Königsklasse sind sicherlich sogenannte “Multi-armed Bandit-Tests”, ich verweise dazu aber auf diesen Artikel, um den Rahmen hier nicht zu sprengen.

Unterm Strich bleibt Folgendes zu sagen:

Headline-Tests sind möglich, aber das Zeitfenster ist extrem klein und es erfordert enorm viel Traffic auf einzelne (!) Artikel/Seiten, um aussagekräftige Ergebnisse zu erzielen.

6. Wie aggressiv kann ich innerhalb meiner Artikel für Produkte werben? Wird Werbung überhaupt toleriert?

Viele Unternehmen wollen durch Content ihren Umsatz ankurbeln – langfristig und vielleicht eher indirekt, nicht selten aber auch direkt und kurzfristig. Je nachdem, welches Ziel du mit einem Blogartikel beispielsweise verfolgst, sieht deine “Werbung” unterschiedlich aus: Geht es dir primär um Markenbildung, dann liegt dein Fokus eher auf einer sympathisierenden Geschichte. Willst du hingegen Leads generieren oder Besucher:innen anderweitig konvertieren, dann brauchst du effektive Calls-to-Action.

Auch Blinkist hat sich damit beschäftigt, wie aggressiv – oder nennen wir es besser selbstbewusst – sie ihr Produkt bewerben können und wann sie innerhalb eines Artikels erstmals darauf hinweisen. Ihr Fazit:

Hab keine Angst, über dein Produkt zu sprechen. Sei stolz darauf!

Sandra Wu

Werbung im redaktionellen Umfeld
Blinkist integriert Zitate (Pressestimmen, Testimonials, Kundenmeinungen), um innerhalb von Artikeln auf ihr Produkt hinzuweisen und zu beschreiben (Screenshot: Sandra Wu, Blinkist)

Ein anderes Beispiel für derartiges “Copy Testing” ist CXL, die im letzten Jahr den Pitch auf ihrer Startseite durch qualitatives User Feedback optimiert haben. Was vorher elitär und arrogant rüberkam (links im Bild, wird danach als hilfreiche Information zum notwendigen Arbeitseinsatz verstanden (Mitte). Und ein Blick auf die heutige Variante (ganz rechts im Bild unten) zeigt, dass sie sich inzwischen voll auf Social Proof in Form eines Testimonials verlassen.

Copy Testing bei CXL
Pitches, Vorstellungstexte und Angebotsbeschreibungen zu testen kann wertvolle Informationen zutage tragen. (Quelle: cxl.com)

7. Wie kann ich meinen Content interaktiver gestalten?

Gibt es jemanden, der sich diese Frage nicht regelmäßig stellt? Aber wie definieren wir “Interaktion” eigentlich? Für viele ist schon das Scrollen eine Interaktion, andere verstehen darunter eher das Kommentieren eines Beitrags oder das Teilen über Social Media. So auch für einen Kunden von WiderFunnel (anonymisiert), der in einem Test mit Blick auf das Angebot und die Gestaltung (einschließlich Positionierung) von Share Buttons eindeutig positive Ergebnisse erzielen konnte:

Social Sharing im Test
Vorformulierte Tweets, Sticky Social Sharing Icons und Mouse-over-Effekte – wer Klicks generieren will, sollte ausprobieren, was Nutzer:innen am ehesten triggert (Quelle: WiderFunnel)

8. Welche E-Mail-Betreffzeile ist die beste?

Die Betreffzeile ist das erste und, neben der Kurzbeschreibung, oft das einzige, was Nutzer:innen von einer E-Mail sehen. Sie ist demnach die wichtigste Entscheidungsgrundlage dafür, ob Nutzer:innen eine E-Mail öffnen oder nicht. Ist eine persönliche Ansprache über Name-Tokens sinnvoll? Wie wirken Emojis? Sind Fragen effektiv? Wie lang soll/darf eine Betreffzeile sein?

James Scherer hat sich in seiner damaligen Rolle als Content Editor bei Wishpond genau diese Fragen mit seinem Team gestellt und ihre Erfahrungen in einem Artikel aufbereitet: The Highest-Impact Email A/B Tests We've Ever Run. Die Ergebnisse sind teilweise überraschend, insbesondere den folgenden Test zur Groß- und Kleinschreibung finde ich spannend! Die Hypothese: Wenn wir Großbuchstaben in den Betreffzeilen entfernen, dann wirkt die E-Mail persönlicher und lässt sie so aussehen, als ob eine echte Person sie geschrieben und zu schnell auf "Senden" geklickt hat.

Ein simpler Test, im Fall von Wishpond aber mit extrem positiver Wirkung.

E-Mail-Betreffzeilen im A/B-Vergleich
E-Mails waren ursprünglich sehr persönlich. Was, wenn wir diese Eigenschaft imitieren? (Quelle: Wishpond)

Newsletter-Tools bieten seit Langem entsprechende Features und ich würde eigentlich immer die Betreffzeilen von Newslettern testen, um langfristig zu verstehen, wodurch die Öffnungsrate beeinflusst wird.

9. Welches Titelbild funktioniert besser?

Besser in welcher Hinsicht? Aufmerksamkeit erregen? Emotionen triggern? Auch Bilder sollten immer eine Funktion, ein konkretes Ziel haben.

Wie du vielleicht schon gemerkt hast, habe ich keine Titelbilder mehr in meinen Artikeln. Bilder für die Linkvorschau in Social Media Beiträgen, ja, aber nicht mehr als “Standard” zu Beginn eines Artikels. Wieso? Weil sie an der Stelle einfach keinen konkreten Mehrwert beigetragen haben und die Nutzer im Grunde vom eigentlichen Content ferngehalten haben (ich erinnere an die Long-form Content Tests von oben).

Kein Titelbild bedeutet in diesem Fall, dass Leser:innen schneller zum Content gelangen – bzw. auf den ersten Blick mehr Content sehen – und demnach schneller einen Nutzen aus meinen Artikeln ziehen können.

Eine mögliche Metrik wäre in diesem Fall also “Time to Value”. Getestet habe ich das (leider) nicht, aber da ich seither keinen Downcast in den Zahlen beobachtet habe, werte ich diese Veränderung als Erfolg. *duck und weg*

Artikel-Titelbilder im Test
Wie schnell können Nutzer:innen einen Mehrwert aus unseren (Text-)Inhalten ziehen? (Screenshot: toushenne.de, 2021)

10. (Wann) Brauchen Nutzer:innen eine Zusammenfassung, ein Inhaltsverzeichnis und/oder Sprungmarken?

Der Gedanke dahinter: Helfen solche Elemente Nutzer:innen dabei, durch den Content zu navigieren, ihn einfacher zu verstehen und schneller an die gesuchten Informationen zu gelangen? Sofern du zum Beispiel hohe Absprungraten oder niedrige Scroll Rates und in Folge suboptimale Conversion Rates beobachtest (oder allgemein eine niedrige “Engagement Rate”, wie sie im neuen Google Analytics 4 genannt wird), können solche Content-Elemente die Nutzbarkeit deiner Artikel steigern und dafür sorgen, dass Nutzer:innen die gesuchten Informationen (einfacher/schneller) finden. In eine ähnliche Richtung gingen auch WiderFunnel mit ihren Tests für The Motley Fool (siehe Punkt 4) und mit der Veröffentlichung dieses Artikels läuft auch hier ein entsprechender Test.

Bild: Sprungmarken im Test
Sprungmarken in der Inhaltsübersicht können Nutzer:innen die Orientierung und Navigation erleichtern (Screenshot: toushenne.de, 2021)

11. Wie kann ich die Klickrate auf Suchergebnisseiten verbessern?

Verrückt, dass wir mal nicht ausschließlich über Rankings sprechen, oder? Oft ist die “Snippet Optimierung” (Stichwort: title tag, meta description aber auch Schema Markup) ein echter Quick-win, um den Wert bestehender Rankings zu steigern. Denn was wir – neben der reinen Sichtbarkeit in Suchmaschinen – ja letztendlich wollen sind Klicks.

Das Team von SearchPilot (eine “SEO A/B-Testing Software”) hat in einem lokalen Kontext genau hiermit experimentiert und den Namen einer – zugegeben sehr bekannten, aber im Beispiel anonymisierten – Brand in die Seitentitel eingebunden – mit positivem Ergebnis auf die Klickrate, genauer gesagt 15 % Uplift.

If your brand strength is influential, putting it first in the title tag for users to see could tempt more of them to click through to the page - just because your name has more visibility. We believe this test performed as well as it did because displaying a powerful brand in the search results helped make these pages more noticeable to the user resulting in improved click-through rates.

Rida Abidi, Web Analyst bei SearchPilot

Meta-Daten im A/B-Test
(Bekannte) Markennamen können die Klickrate in Suchergebnissen fördern (Screenshots: SearchPilot)

Edward und sein Team testen die CTR in den Suchergebnissen auch mit Blick auf die Auswirkung von Emojis in meta titles, das FAQ-Dropdown-Schema, die Verwendung von “Power Wörtern”, die Ausrichtung von Begriffen an den Insights aus der Search Console und die Verwendung von Klammern – alles Aspekte aus einer HubSpot-Studie zum datengetriebenen Texten von Headlines.

Das Beispiel von SearchPilot macht aber auch deutlich, wie wichtig eine gute Hypothese ist und wie schwierig die Interpretation von Ergebnissen eines Tests sein kann, ohne ergänzende Tests durchzuführen, um wiederum diese Erkenntnisse zu validieren. Wollen wir wirklich sicher gehen, dürfen wir niemals aufhören zu testen.

 

Du merkst schon, dass wir diese Liste um unzählige Fragen fortführen können. Das ist genau das, was ich eingangs meinte: Wir haben als Content Marketer so viele Fragen, aber nur selten machen wir uns die Mühe, echte (objektive) Antworten zu finden. Dabei ist das Potenzial enorm groß! Stell dir einfach mal vor, du könntest die Uplifts aus diesen ganzen Beispielen kumulieren …

Erkenntnisse aus Content Testing

  • Strukturiere deine Texte so, dass Nutzer:innen sie scannen können und sie leicht verständlich sind. Solange er einen Mehrwert darstellt, spielt der Umfang des Contents keine Rolle.
  • Hab keine Angst, dein Produkt oder deine Dienstleistung zu bewerben. Insbesondere in Corporate Blogs rechnet doch eigentlich jede:r Leser:in damit. Entscheidend ist, wie du deinen “Pitch” verpackst: Nativ, also “redaktionell anmutend”, oder visuell kontrastreich “in your face” – beides kann
  • Baue neue Tests auf den Insights vorheriger Tests auf. Egal, wie das Ergebnis eines “Long-from vs. Short-form Content”-Tests ausfällt, kann das Aufhänger für weitere Tests in die entsprechende Richtung sein.
  • Nutze die Erkenntnisse aus deinen Tests, um Qualitätskriterien für zukünftige Inhalte sowie dein Content Design mit Blick bspw. auf Artikel Templates zu definieren. Dadurch kannst du (externe) Kreative und Autor:innen besser briefen und mit der Zeit immer bessere Ergebnisse erzielen.

Mein Dank für die vielen Beispiele und Insights geht insbesondere an James Flory, Director Experimentation Strategy bei WiderFunnel, der hier seine Erfahrung aus gut fünf Jahren des Experimentens für The Motley Fool geteilt hat. Außerdem an Sandra Wu, ehem. Paid Content Marketing Lead bei Blinkist und heute Director Growth bei Himalaya. Sie hat viele der beschriebenen Experimente im Blinkist Magazin verantwortet und auf der CopyCon 2020 präsentiert.

Werbung Sandra wird übrigens beim growthmarketingSUMMIT weitere Insights aus ihren Experimenten teilen, durch die sie Content-Marketing als Akquisitionskanal für Apps wie Blinkist und 8fit etabliert hat.

Ein Ausblick: Werden wir künftig noch mehr Content Testing sehen?

I think the most important learning I’ve found in content testing so far is that UX/UI almost always comes second to content. Best practices, modern layouts, stylistic design won’t trump content, and in many cases can actually detract from the efficacy of good content.

James Flory, Director Experimentation Strategy, WiderFunnel

Ich stimme James Flory hier definitiv zu: ohne Content funktioniert Design nicht. Aber ohne Design funktioniert auch Content nicht. Leider gibt es dafür keine Blaupausen, vielmehr ist die Gestaltung ein iterativer, experimenteller Prozess. Es spricht zwar nichts dagegen, sich an Designstandards zu orientieren und Konventionen zu folgen, aber über die User Experience entscheiden, wie der Name schon sagt, nun mal die User. Und sie sind von Fall zu Fall unterschiedlich, sodass effektiver Content eigentlich individuell gestaltet ist.

Teste deinen Content und dein Design also wann immer es dir möglich ist.

 

 

Vorschau: Da ich durch das Pre-Testing dieses Artikels – vielen Dank an dieser Stelle an meine “Beta Leser”, insbesondere Rebecca, Andy, Jutta, Daniel und Björn – sehr wertvolles Feedback erhalten habe mit weiterführenden Fragen, Anregungen und Ideen zum Thema, werde ich wohl einen zweiten Artikel dazu schreiben; unter anderem darüber,

  • wie ich solche qualitativen Tests nutze,
  • inwieweit sich Content Testing auch abseits von Conversions zum Beispiel mit Blick auf die Positionierung und Reputation rentiert und
  • wie du auch mit wenig Traffic sinnvoll testen kannst.


Steig gerne in die Diskussion hier auf LinkedIn ein, wenn auch du Feedback hast oder weitere Fragen ergänzen willst!

VG Wort Zähler

Möchtest du weiterhin investigative, inspirative und inhaltlich tiefgründige Fachartikel mit journalistischen Anspruch erhalten? Dann unterstütze mich dabei – jeder Beitrag, schon ab 1 Euro, ist eine wertvolle Hilfe, um die Zukunft von toushenne.de zu sichern.

via PayPal unterstützen

Portraitfoto Robert Weller
Robert Weller

Robert ist Autor des Bestsellers „Content Design“ (Hanser Verlag), unabhängiger Content-Stratege und Gründer dieses Magazins (ehem. „toushenne.de“). Daneben lehrt er Content-Marketing an der FH JOANNEUM sowie Content Design an der ZHAW. Mit über zehn Jahren Erfahrung aus dem Agenturgeschäft, E-Commerce- & SaaS-Unternehmen sowie zahlreichen Freelance-Projekten mit führenden Marken wie Adobe, Bike24 und contentbird, entwickelt er wirksame Strategien für die Optimierung des Content ROI.

Website Icon E-Mail Icon LinkedIn