Was ist der Cover-Bandit?

Welches Titelbild ist für meinen Text optimal? Der Cover-Bandit nimmt den Autoren der Mitarbeiterzeitung diese Entscheidung ab.

Was ist der Cover-Bandit?

Die Suche nach dem perfekten Titelbild für Ihren Artikel frisst Zeit. Zeit, die Sie effizienter nutzen könnten. In IK-up-Newsrooms nimmt Ihnen das Headline-Bandit-Tool diese Entscheidung ab.

Mit dem Cover-Bandit können Sie mehrere Titelbild-Varianten anlegen. Der Algorithmus bewertet dann automatisch, welches Bild die besseren Performancewerte erzielt.

Dafür testet der Algorithmus in Echtzeit verschiedene Kombinationen an Ihren Lesern. Das bedeutet: Manchen Lesern wird die eine, anderen Lesern die andere Variante angezeigt. Das geht so lange, bis der Algorithmus genug signifikantes Leserfeedback gesammelt hat, um eine eindeutige Aussage zur statistisch besten Variante zu treffen. Dann wird den Lesern nur noch die Gewinner-Variante ausgespielt.

Übrigens können Sie nicht nur mehrere Titelbilder testen – mit dem Headline-Bandit können Sie dasselbe auch mit verschiedenen Überschrift-Varianten machen. Hier erfahren Sie mehr zum Headline-Bandit.

Wie man den Cover-Bandit benutzt, erfahren Sie hier.

Hintergrund

Der Headline-Bandit basiert auf dem Multi-Armed-Bandit-Experiment. Das Experiment beschreibt einen hypothetischen Test, in dem mehrere „einarmige Banditen“ (Spielautomaten) analysiert werden. Ziel ist es, den Spielautomaten zu finden, der die höchste Auszahlungsrate hat. Für die Umsetzung des Multi-Armed-Bandit-Verfahrens werden komplexe Wahrscheinlichkeitsrechnungen durchgeführt.

IK-up! überträgt das Multi-Armed-Bandit-Verfahren auf Content. Tests, die auf dem Multi-Armed-Bandit-Verfahren basieren, sind im allgemeinen effizienter als das „klassische“ A-B-Testing, das auf statistischen Hypothesentests basiert. Die Multi-Armed-Bandit-Tests sind effizienter, da sie die Zugriffe schrittweise in Richtung der gewinnbringenden Varianten verschieben. Sie müssen nicht auf eine „endgültige Antwort“ am Ende eines Tests warten. Für diejenigen unter Ihnen, die gerne noch besser verstehen möchten, wie Multi-Armed-Bandit-Algorithmen funktionieren, empfehlen wir den Wikipedia-Artikel.

_____________________________________________________

Logo