Social Media Posts zur richtigen Zeit

Wer Inhalte für Social Media produziert weiß worauf es ankommt: Aufmerksamkeit der Zielgruppe auf sich ziehen und zwar so viel wie möglich. Aus dem Meer von Content in den Sozialen Medien herauszustechen ist keine leichte Aufgabe. Wer von vielen gesehen und gehört werden will, braucht eine ausgeklügelte Strategie.

Dafür schrauben Social Media Profis an ihren Posts, erforschen ihre Zielgruppe und suchen sich die passendsten Beitragsbilder, bis sie den „Jetzt Posten“ Button klicken. Aber wann genau sollte geklickt werden? Zu welchem Zeitpunkt bekommen Posts die meiste Aufmerksamkeit?

Die Relevanz dieser Frage steigt. Chronologische Timelines, die den Nutzern die Postings all ihrer abonnierten Accounts in zeitlich korrekter Reihenfolge präsentieren, sind lange nicht mehr der einzige Weg, auf dem Social Media Konsumenten zu Inhalten gelangen.

Algorithmen der Social Media Plattformen bieten ihren Nutzern die Möglichkeit, Inhalte zu sehen, die ganz anders ausgewählt wurden. Solche Algorithmen orientieren sich an Inhalten, die dem Nutzern gefallen und stellen daraufhin eine Auswahl aus ähnlichen Inhalten zusammen, die dem Nutzer ebenfalls gefallen könnten. Auch wenn die genaue Funktionsweise der Social Media Algorithmen geheim ist, fällt eines auf: die Algorithmen präsentieren oft besonders beliebte und auch besonders aktuelle Posts.

Der richtige Zeitpunkt für Deinen Post ist demnach genau dann, wenn die meisten Leute die Plattform nutzen. Zu welchen Stunden der Woche das der Fall ist, schauen wir uns anhand einiger vom Sprout Social Team gesammelter Daten an.

Nutzungszeiten auf Facebook

Mit beinahe 2,5 Milliarden monatlichen Nutzern weltweit ist Facebook die größte Social Media Plattform. Als Plattform mit vielen verschiedenen Nutzergruppen zeigt das Nutzungsmuster von Facebook einen Trend für viele Plattformen.

Der allgemeine Trend für Social Media Nutzung: die Aufmerksamkeit ist in der Mitte der Woche am höchsten und fällt am Wochenende stark ab. Nutzer scheinen sich am Wochenende überwiegend mit etwas anderem als ihrem Facebook-Account zu beschäftigen. Sonntags sind sogar noch weniger Facebook-User eingeloggt als Samstags.

Auch Montags ist die Facebook-Nutzung geringer als am Rest der Wochentage. Doch auch hier zeigt sich, wann die meisten Menschen schlafen. Von 22 Uhr bis morgens um 5 Uhr ist kaum Aufmerksamkeit auf der Plattform zu holen, von 8 Uhr bis 17 Uhr, liegen deutlich mehr los.

Wer sich lose an das Verhalten der Nutzer anpassen will, sollte auf Facebook dienstags bis donnerstags zwischen 8 Uhr und 15 Uhr sowie Freitags zwischen 9 Uhr und 12 Uhr posten. Die absolute Hochzeit ist in der Mitte der Woche. Mittwochs von 11 Uhr bis 12 Uhr und von 13 Uhr bis 15 Uhr beschäftigen sich die meisten Nutzer gleichzeitig mit der Plattform.

Nutzungszeiten auf Instagram

Mittlerweile ist Instagram zur zweitgrößten Plattform für tägliche Social Media Nutzung geworden. Was einst noch die Plattform für Influencer, Fotografen, Food- und Fashionblogger war, ist nun eine Plattform des Mainstreams. Das verstehen verschiedenste Unternehmen für ihre Zwecke zu nutzen und auch die Plattform selbst unterstützt Marketing über Instagram, zum Beispiel mit dem Hinzufügen eines Shopping-Tabs.

Auch auf Instagram sollten sich Marketer Gedanken machen, wann sie ihre Posts veröffentlichen. Die Nutzungszeiten der Plattform sind mit denen von Facebook vergleichbar: am geschäftigsten ist die Plattform in der Mitte der Woche, Montag ist der ruhigste der Wochentage und nach Freitag fällt die Nutzung stark ab. Auch auf Instagram ist der Sonntag der Tag mit der geringsten Nutzungsdauer.

Wer Posten will wenn die meisten Augen auf der Plattform liegen, der veröffentlicht seine Inhalte mittwochs um 11 Uhr oder freitags von 10 Uhr bis 12 Uhr. Eine gröbere Regel wäre wochentags zwischen 8 Uhr und 17 Uhr zu posten.

Insgesamt ist die Nutzung der Instagram User verteilter als auf anderen Plattformen, besonders morgens und am Wochenende. Grund dafür könnte die viel genutzte Story-Funktion der Plattform sein. Die Funktion erlaubt wiederholte, kurze Checks von Neuigkeiten. Auch die „Fear of Missing out“ spielt bei dieser Verhaltensweise sicher eine Rolle.

Nutzungszeiten auf Twitter

Auch über den Kurznachrichtendienst Twitter kann für Unternehmenszwecke genutzt werden. Besonders beliebt ist er für Unternehmenskommunikation, da viele Nutzer die Plattform hauptsächlich als eine Quelle für Neuigkeiten nutzen. Das spiegeln auch die Daten wieder.

In der Woche ist die Twitternutzung ab 9 Uhr bis 5 Uhr relativ stark. Dabei ist 9 Uhr die absolute Hochzeit. Vermutlich suchen viele Nutzer zu dieser Zeit nach den neuesten Updates und Nachrichten. mittwochs und freitags erreichen die Nutzungswerte um 9 Uhr den Höhepunkt der ganzen Woche.

Anders als auf anderen Plattformen ist auch am Wochenende etwas auf Twitter los, Sonntags sogar mehr als Samstags. Die täglichen Neuigkeiten scheinen sich viele auch Samstags um 9 Uhr zu holen, jedoch bricht die Nutzung im laufe des Tages ein. Das Nutzungsverhalten an Sonntagen ist im Gegensatz dazu mit dem eines Wochentags zu verwechseln.

Ruhe ist auf der Plattform nur wenn alle schlafen: nach 21 Uhr und vor 4 Uhr nutzt kaum jemand Twitter. Einen Ausläufer gibt es aber: Samstags um 3 Uhr nachts steigt die Nutzung kurz an. Zurückzuführen ist dieser Anstieg wahrscheinlich auf Nutzer die Freitagnacht besonders lange wach bleiben und sich erst spät noch einmal über das Neuste informieren oder gar den ein oder anderen „drunk Tweet“ absetzen.

Nutzungszeiten auf LinkedIn

Im Vergleich zu anderen sozialen Medien hat LinkedIn eine spezifischere Zielgruppe: professionelle Nutzer, die die Plattform für ihre berufliche oder Unternehmerische Entwicklung nutzen. So ist es auch kein Wunder, dass sich die Nutzungszeiten auf dieser Plattform an Arbeitszeiten zu orientieren scheinen.

Als Faustregel gilt auf LinkedIn: von Dienstag bis Freitag, zwischen 8 Uhr und 14 Uhr erreichst Du die meisten Menschen. Was ist mit den Montagen? Am ersten Tag der Woche verzeichnet LinkedIn sogar noch weniger Nutzer als andere Plattformen. Die Zielgruppe könnte auch hier die Erklärung sein. Montags ist für viele Arbeitende der härtste Tag der Woche: das Wochenende ist vorbei und es ist Zeit einiges aufzuholen oder neue Projekte zu starten – da bleibt keine Zeit für LinkedIn.

Diese Zeit scheinen sich viele bei Arbeitsbeginn oder in der Mittagspause zu nehmen. Am geschäftigsten ist die Plattform nämlich mittwochs von 8 Uhr bis 11 Uhr, mit einem weiterem Höhepunkt um 12 Uhr. Ebenso sind die Nutzerzahlen donnerstags und freitags um 9 Uhr besonders hoch, donnerstags auch von 13 Uhr bis 15 Uhr.

Wie zu erwarten ist das Wochenende besonders ruhig auf LinkedIn. Samstags zwischen 8 Uhr und 9 Uhr informieren sich viele noch einmal über das Neuste, Sonntags ist fast nichts los. Die Nutzung ist so gering wie in den Nächten der Wochentage.

Und wann postest Du?

Social Media Zeit

Die hier vorgestellten Hochzeiten der Plattformen sollen keinesfalls als die besten Zeiten für jeden verstanden werden. Zum Beispiel kann es sich auch lohnen genau diese Zeiten zu meiden. Ist deine Branche besonders gut von starken Konkurrenten besetzt? Versuche doch mal weniger belebte Zeitpunkte zum Posten.

Außerdem sollte selbstverständlich auch in diesem Fall zielgruppenorientiert vorgegangen werden. Für die Optimierung lohnt sich die Untersuchung mithilfe eines Analytics-Tools. Wer weiß, vielleicht nutzt deine Zielgruppe soziale Medien ganz anders als die Mehrheit? Vielleicht besteht sie überwiegend aus Menschen die Nachtschichten arbeiten? Das würde ihr Nutzungsverhalten in die Nächte verschieben. Finde es heraus und erfahre wann dein Publikum ein offenes Ohr für dich hat!

Australien streitet mit Google und Facebook

In Australien will die Regierung Google und Facebook dazu verpflichten, einige Einnahmen an News-Konzerne abzutreten. Doch die Verhandlungen laufen überhaupt nicht wie geplant: Google kündigt an ihre Suchmaschine möglicherweise für alle Australier abschalten zu müssen. Facebook sperrt prompt alle Accounts von Nachrichten und Regierungsseiten. Wie sind wir hier gelandet?

Springen wir kurz in der Zeit zurück. Es ist der vierte Februar 2004. Das soziale Netzwerk Facebook geht online. Genau wie andere soziale Netzwerke zeigt Facebook die wohl größte Stärke des Internets: Vernetzung. Egal ob zwischen Mensch und Mensch, Kunden und Unternehmen oder Menschen und Inhalten. Alles zwischen Internationalen Neuigkeiten und Katzenvideos des Nachbarn ist nur wenige Klicks entfernt. Plötzlich sind enorm viele Informationen kinderleicht zu konsumieren. Ein enormer Wert für die Gesellschaft.

Gleichzeitig macht Google das Internet navigierbar. Die Suchmaschine wird zum meistgenutzten Schlüssel zu den gewaltigen Informationsmengen des Internets. Mit der Zeit wächst die Internetnutzung an, ganze Gesellschaften wandelt sich. Google und Facebook werden zu zwei der wichtigsten Seiten des Internets. Beide gehören inzwischen zu den wertvollsten Unternehmen der Welt und womöglich auch zu den mächtigsten. Für viele sind die Dienste der Tech Giganten kaum noch aus dem alltäglichen Leben wegzudenken.

Warum setzt sich Australien für Verlage ein?

Zeitungen in der Krise, Print Medien in der Krise

Als die Internetnutzung zunimmt gerät die Print-Branche und damit auch viele Nachrichtendienste ins wanken. Anstatt sich eine Zeitung zu kaufen finden immer mehr Menschen ihre tagesaktuellen Nachrichten im Internet – zum Beispiel über Google und Facebook. Etablierte News-Konzerne geraten in eine Monetarisierungskrise und das obwohl sie ein wertvolles gesellschaftliches Gut für demokratische Gesellschaften sind.

Die Macht am Markt der riesigen Tech Konzerne, insbesondere die von Google und Facebook, soll begrenzt werden, gleichzeitig braucht die Nachrichtenindustrie Unterstützung. In einem Versuch zwei Fliegen mit einer Klappe zu schlagen kommt den australischen Behörden eine Idee: der „Media News Barging Code“.

Vorgesehen ist ein Gesetz, welches digitale Plattformen dazu verpflichtet, Nachrichtenkonzerne zu bezahlen, wenn diese auf der Plattform verlinkt werden. Schließlich gäbe es keine qualitativen Inhalte, die auf den Plattformen geteilt werden könnten, wenn journalistische Unternehmen sie nicht produzieren würden. Scheint logisch, ist für die digitalen Giganten aber ein großes Problem.

Google kritisiert und verhandelt

Google äußert Kritik am Vorhaben der australischen Regierung und nennt in einem Blogpost einige Forderungen des Gesetzesentwurfs „nicht umsetzbar“. Würde das Gesetz durchgesetzt werden wie ursprünglich vorgeschlagen, müsse Google ihren Dienst für alle Australier einstellen, ein Szenario, was sich wohl weder Google noch Australien wünscht.

Das Problem läge dabei bei der Art und Weise wie Google zahlen soll. Nach eigenen Angaben zerstöre das Bezahlen für Links die Funktionsweise einer Suchmaschine. Auch sei das Weglassen der Links zu News-Seiten aus den Suchvorschlägen unmöglich. Grund dafür ist die verwendete Definition von Nachrichten, nach der fast jede Information als eine Nachricht gelten könne.

Außerdem seien die Zahlungen schlichtweg unfair, schließlich profitieren die Nachrichtenseiten von Traffic, der von Google kommt.

Google selbst, aber auch andere Sprecher argumentieren außerdem, dass das Gesetz die Freiheit des Internets gefährdet. Allen voran Tim Berners-Lee, der Erfinder des World Wide Webs. Die kostenlose Verlinkung von einer Website zu anderen müsse dringend gewahrt werden. Logisch, ein Netz in dem gewisse Vernetzungen kostenpflichtig sind wird weniger Vernetzungen haben und zweifellos ein schlechteres sein.

Googles Pläne für den Journalismus

Im Blogartikel des Suchmaschinengiganten wird aber auch betont, dass Google das zugrundeliegende Problem sieht. Journalistische Arbeit muss auch in einer Zukunft entlohnt werden, in der keiner mehr Zeitung kauft. Dafür hat Google einen eigenen Plan: Googles Produkt „News Showcase“.

News Showcase verspricht ein Nachrichtenprodukt, dass Artikel von vielen verschiedenen Verlagen nutzt. So soll zum Beispiel von einem Artikel zu anderen, ähnlichen Artikeln verlinkt werden. Auf diese Weise könnten Nutzer mehr über ein Thema erfahren oder die Perspektiven anderer Berichterstatter sehen. Wer im Rahmen dieses Produkts publizieren will, geht einen Vertrag mit Google ein, welcher Pauschalzahlungen an das journalistische Unternehmen vorsieht.

Auf der einen Seite ist dieser Vorschlag eine Lösung für beide Seiten – Google und News-Konzerne verhandeln einen Vertrag. Auf der Kehrseite fällt auf, das einer außen vor bleibt: der Staat. Was würde passieren wenn Google die Wichtigsten News-Konzerne der Welt von sich abhängig macht? Staaten auf der ganzen Welt müssen sich womöglich auch hier bald eine Regulierung überlegen, denn Google finanziert bereits viele große Verlage. Als Reaktion auf den Vorschlag des Media News Barging Codes verhandelt Google nun mit australischen Nachrichtendiensten. Partner hat das Projekt aber schon auf ganzer Welt. In Deutschland gehören unter anderem der Spiegel, die Frankfurter Allgemeine Zeitung und Zeit Online dazu.

Facebook gibt sich kämpferisch

Während Google die Verhandlungen mit australischen Nachrichtendiensten sucht, zeigt Facebook direkt, was sie von dem Gesetzesentwurf halten. Ähnlich wie Google kann Facebook nach eigenen Angaben nicht in einer Situation arbeiten, in der gewisse Verlinkungen Geld kosten. Anders als Google, empfindet Facebook das Sperren solcher Links aber als machbar.

Am 18. Februar war es dann soweit, plötzlich sind sämtliche Accounts von australischen Nachrichtendiensten und unabhängigen Journalisten gesperrt. Aber auch Seiten der Regierung, unter anderem das Bureau of Meteorology, was für viele Australier jetzt zur Waldbrandsaison besonders wichtig ist, wurden gesperrt.

Grund dafür ist Facebooks Ausführung der Aktion. Anstatt Nachrichten-Accounts nach und nach auf eine Blacklist zu setzen, nutzte Facebook ein maschinelles Lernsystem, welches scheinbar keine Rücksicht auf Verluste nahm.

Obwohl der Großteil der Inhalte auf Facebook nichts mit Nachrichten zu tun hat, demonstriert das Soziale Netzwerk eindrucksvoll, wie sehr es Teil des öffentlichen Lebens geworden ist. Eine Machtdemonstration, die der Regierung die Stirn bietet. Außerdem überlegen jetzt wohl viele Nachrichtenseiten, ob sie mit dem Traffic, der bis jetzt von Facebook auf ihre Seiten kam, nicht besser dran gewesen wären.

Fazit

Was gerade in Australien passiert, ist für die ganze Welt von Interesse und viele Nationen warten gebannt auf das Ausgehen der Situation um zu lernen, wie mit Google und Facebook umzugehen ist. Dass die Verhandlungen zum Teil wie ein Machtkampf aussehen, zeigt was Google und Facebook für eine große Rolle in unserer Gesellschaft spielen – und die werden sie nicht ohne weiteres abgeben.

Der Merksatz für SEO Fragen

Es ist ein einfacher Satz zu Googles Funktionsweise und doch beantwortet er viele Fragen zum Thema Search Engine Optimization: ‚Google ranks webpages, not websites‘. Klingt simpel, ist es auch; wie beantwortet der Satz also SEO-Fragen?

Zuerst sollten kurz einige Begriffe geklärt werden. Ein „Google-Ranking“ entscheidet, wie weit oben eine Seite bei einer Suchanfrage bei Google auftaucht, das sollte vielen geläufig sein. Auch der Unterschied zwischen Webpages und Websites mag bekannt sein, jedoch sind die Begriffe im deutschen deutlich verwirrender. Wir sagen für Webpages meist Webseiten und für Websites bleiben wir meist beim englischen Begriff, oder wir nutzen die Wörter Webpräsenz, Webauftritt und Webangebot. In der Alltagssprache werden diese jedoch oft miteinander verwechselt und die Ähnlichkeit zwischen Webseite und Website wirkt auf viele konfus. Der Einfachheit halber bleibe ich für den Rest des Textes bei den englischen Begriffen.

Aber was ist denn nun der Unterschied zwischen Webpage und Website? Kurz gesagt sind Webpages die aufrufbaren Seiten im Netz und Websites die Adressen, an der diese zu finden sind. Beispielsweise verweist dieser Link: https://www.michaelstockmann.de/blogverzeichnis/ auf unser Blogverzeichnis, welches eine Page auf der michaelstockmann-Website ist.

Was heißt das für mein Google Ranking?

Der Ausgangspunkt für jede SEO-Strategie ist ein gutes Verständnis von Googles Indexierung und Ranking. Google gibt die Spielregeln für die Suchmaschinenoptimierung vor und die gilt es zu verstehen.

Mit dem Satz ‚Google ranks webpages, not websites‘ im Hinterkopf führen wir uns den Prozess des Rankings nun einmal vor Augen. Zuerst muss Google einige Informationen zu einer neuen Page speichern und analysieren, damit diese in einem Ranking auftauchen kann. Dafür ruft der Google-Crawler die Page ab und speichert Daten bezüglich Inhalt, Webpage Design, und Autorität (Links).

Auf Grundlage dieser Daten bestimmt Google dann für welche Suchanfragen die Page in den Ergebnissen auftaucht. Durch einen Vergleich mit ähnlichen Pages wird schließlich das Ranking für diese Suchanfragen entschieden.

Zu welcher Website diese Webpages gehören ist dabei völlig egal, die Performance einer Webpage hängt nicht mit der Performance anderer Webpages der selben Website zusammen. Warum das so ist hängt eben genau damit zusammen, was Google ranked und was nicht.

Google hat dieses Vorgehen bereits selbst bestätigt. Selbst wer Googles Wort kein Vertrauen schenkt, findet Beweise für die nun schon oft benannte Ranking-Grundlage.

Rankingfaktor Inhalt

Der wohl prominenteste dieser Beweise ist das gute Ranking von Artikeln auf Nachrichtenportalen. Die Website eines Nachrichtenportals behandelt sehr viele verschiedene Themen, die meisten Pages solcher Sites haben nichts miteinander zu tun. Würde Google nach dem Prinzip ‚websites, not webpages‘ ranken, wäre das aufgrund der vielen verschiedenen Schlagwörter katastrophal für das Ranking. Zum Glück entspricht das nicht der Realität, Thementreue muss nur innerhalb einer Page eingehalten werden um gut zu ranken und Nachrichtenartikel tauchen in der Tat oft auf den ersten Plätzen für gewisse Suchanfragen auf.

Generell wären Suchergebnisse aus der Nutzerperspektive deutlich schlechter, wenn Google die Regel ‚webpages, not websites‘ nicht hätte. Ein Unternehmen was zum Beispiel hauptsächlich Holztische herstellt, würde mit jeder Page für den Suchbegriff „Holztisch“ ranken, auch wenn die Page zum Beispiel die Mitarbeiter vorstellt oder sogar wenn sie sich mit Plastikstühlen beschäftigt.

Wer Sorgen um das Ranking eines Blogs hat, weil die Themen „zu vielfältig“ seien kann beruhigt sein. Solange die einzelnen Artikel, also die Pages, ihren Fokus auf ein Thema legen, schadet Themenvielfalt nicht dem Google-Ranking.

Subdomain oder Subfolder?

Was heißt das Ranking-Grundprinzip für das Webpage Design? Sollte man für ein besseres Ranking Subdomains oder Subfolders nutzen? Kurz gesagt: es ist egal. Da Googles Ranking-Prozess nicht mit einbezieht wo eine Page zu finden ist, kann zwischen Subdomains und Subfolders entschieden werden, ohne sich Gedanken um das Google-Ranking zu machen.

Zum Glück, muss man sagen. Oft kommt es vor, dass eine Page deutlich langsamer ist als alle anderen auf der selben Website. Würde sich Google nicht nur auf die Pages konzentrieren, könnte solch eine Page alle anderen auf der Website mit runter ziehen, was nicht nur unsinnig, sondern auch frustrierend für alle Webmaster wäre.

Gut ranken durch Links

Besseres Ranking

Ein weiterer Rankingfaktor ist die Autorität der Webpage. Einen hohen Wert erreichen Pages dabei vor allem durch Links, die auf sie verweisen. Googles Crawler erkennt, wenn eine Page von vielen anderen erwähnt und empfohlen wird und schätzt solche Pages als nützlicher für den Verbraucher ein.

Aufgrund dessen ist eine der bekannteren SEO-Strategien der „Content-Hub“, auch bekannt als „Pillar-Cluster-Modell“. Durch die Verlinkung einer Hauptpage, dem Pillar/Hub (Säule/Zentrum), auf untergeordnete Pages, welche das Thema detaillierter behandeln, kann viel für die Autorität getan werden. Einerseits verbessern die Pages ihre Autorität gegenseitig durch Links. Andererseits profitieren alle Seiten von der Autorität der anderen Seiten, da Besucher leicht von einer Page zur nächsten kommen.

Besonders die Hauptpage sollte von vielen externen Links profitieren, die wertvoller sind als interne. Auf diese Weise kann eine Page ein hohes Ranking erreichen und Besucher dann auf die für sie relevanten Pages verteilen. Wer allerdings auf eine Themen-Autorität der ganzen Website hofft, begeht leider einen Trugschluss. Schließlich beeinflussen die Werte der Pages und nur die der Pages ihre Rankings.

Ja, auch diese Taktik funktioniert aufgrund eines Satzes, der von nun an bei jeder SEO-Frage im Hinterkopf sein sollte: ‚Google ranks webpages, not websites‘.

Warum Sales-Funnel das Herzstück eines Unternehmens sind

Der Sales-Funnel (Verkaufstrichter), kein Unternehmen kommt ohne einen aus. Selbst wer sich nicht bewusst mit dem Thema beschäftigt, schafft unterbewusst solch einen Verkaufstrichter. Aber wie funktioniert so ein Trichter? Warum sind Sales-Funnel so wichtig? Diese Fragen und noch viel mehr beantworte ich heute in dieser Einleitung in das Thema Sales-Funnel.

Trichter oder Filter?

Zu Beginn sollte festgehalten werden was ein Sales-Funnel ist. Der Begriff Sales-Funnel beschreibt ein Modell, welches den Verkaufsprozess in verschiedene Phasen unterteilt. Auf diese Weisen können Messungen vorgenommen werden, die die Basis für die Analyse des eigenen Vertriebs bilden. Eine Analyse dieser Art ist enorm wichtig, um die Nutzung der Unternehmensressourcen zu optimieren.

Aber woher kommt nun der Vergleich mit einem Trichter? Das liegt an den Phasen des Modells: in der ersten Phase soll Aufmerksamkeit für das Unternehmen/Produkt erregt werden. In der zweiten Phase wird diese Aufmerksamkeit in Interesse gewandelt und in der dritten Phase werden Interessenten zu Kunden, sie kaufen. Visualisiert man nun den Kundenstrom fällt auf, dass in der ersten Phase noch sehr viele potentielle Kunden angesprochen werden, wovon nicht alle Interessenten werden und noch weniger tatsächlich einen Kauf tätigen.

Der Grund warum in jeder Phase Kontakte abspringen liegt an der Filterfunktion des Sales-Funnels. Wer nur den Vergleich mit einem Trichter kennt könnte meinen, dass in der ersten Phase so viele Kontakte wie nur möglich gesammelt werden sollten, um am Ende möglichst viele Kunden zu haben. Das ist ein Trugschluss! Besser ist es sich gleich bewusst zu machen, dass nicht jeder ein potentieller Kunde für Dein Produkt ist. Demnach sollten schon in der ersten Phase nur Menschen angesprochen werden, die zur klar definierten Zielgruppe passen.

Obwohl sich der Begriff Verkaufstrichter durchgesetzt hat, der den Kundenstrom gut beschreibt, funktioniert der Sales-Funnel also eher wie ein Filtersystem für qualifizierte Kunden.

Analysieren und Optimieren

Analyse, Optimierung, Team

Beim Analysieren des Verkaufstrichters wird die Customer-Journey unter die Lupe genommen. Besonders genau werden die Punkte beobachtet an denen die Leute abspringen. Hierbei ist es wichtig so genau wie möglich zu sein. Bei der Funnel-Analyse einer Website helfend dabei Analytics-Tools, wie zum Beispiel Google-Analytics.

Springen die meisten ab, bevor oder nachdem sie das Video auf der Landingpage gesehen haben? Ist die Absprungrate bei der ersten Unterbreitung des Angebots besonders hoch? Alles wichtige Fragen, um den Grund für das Abspringen zu erkennen. Hierbei sollte man sich aber nicht nur auf die quantitativen Daten verlassen, qualitative Ansätze wie z.B Kundenbefragungen können auf der Suche nach dem Problem eine große Hilfe sein.

Ist das Problem erkannt, kann die Optimierung beginnen. Die Veränderungen zielen darauf ab die Absprungraten zu verringern, was zu einer erhöhten Konvertierungsrate führt, was letzten Endes mehr Umsatz bedeutet. Dabei sollte zwar eine Abteilung den Überblick über den ganzen Sales-Funnel haben, die Arbeit an den verschiedenen Phasen kann aber auf die passenden Abteilungen verteilt werden.

Oft ist die Wirkung einer Veränderung schwer voraus zu sehen. Ideen sollten immer getestet werden, bevor die komplett implementiert werden. Im digitalen Bereich helfen dabei Splittests. Ein Splittest ermöglicht das gleichzeitige Nutzen von mehreren Varianten einer Webseite. Nach einiger Zeit können dann die Daten, der verschieden Varianten miteinander verglichen werden und die am besten funktionierende Variante stellt sich heraus.

Der Sales-Funnel 2.0

Das klassische Sales-Funnel-Modell hört nach drei Phasen auf. Schließlich muss ja auch jeder Kunde wieder auf das das Unternehmen aufmerksam gemacht werden, zum Interessenten gemacht werden und dann erst noch ein Angebot bekommen, um erneut Kunde zu werden. Klingt unlogisch, ist es auch.

Der verbesserte Sales-Funnel setzt genau hier an, bei den Bestandskunden. Damit diese erneut kaufen, müssen sie vor allem eines sein: zufrieden mit dem Kauf. Für Optimierungen kann hier vor allem am Produkt und an Serviceleistungen geschraubt werden. Außerdem wird der Kontakt zu Bestandskunden aufrecht erhalten um die Beziehung zum Kunden zu pflegen. Die neue, vierte Phase des Verkaufstrichters.

Kunden die eine gute Erfahrung mit einem Produkt hatten, kaufen das Produkt wohl möglich erneut, besonders wenn ihr Vertrauen zum Verkäufer durch Kontaktpflege gestärkt wird. Aber was wenn nach dem ersten Kauf ein anderes Produkt verkauft werden soll?

Kein Problem! Bestandskunden können im Rahmen der Kontaktpflege in einen Sales-Funnel eines anderen Produktes geführt werden. Je nachdem wie ähnlich die Produkte sind, muss der Kunde auch nicht zwingend jede Phase des neuen Funnels durchlaufen, in manchen Fällen wäre erneute Marketingarbeit Ressourcenverschwendung.

Beim sogenannten Cross-Selling startet der Kunde im neuen Funnel sogar direkt beim Angebot. Die angebotenen Produkte müssen dabei dem zuerst gekauften ahneln oder Erweiterungen dieses Produkts sein. Auf diese Weise lässt sich ein Lead mehrmals konvertieren und aus Kundenzufriedenheit Umsatz machen.

Fazit

Das Sales-Funnel-Modell verbindet viele Teile eines Unternehmens logisch miteinander. So kann auch die Verantwortung der einzelnen Bereiche schärfer bestimmt werden. Analysiert man den Verkaufstrichter eines Unternehmens in der Totalen, lassen sich Messungen vornehmen, auf die die Verbesserung des ganzen Unternehmens baut.

Mit den richtigen Veränderungen werden Ressourcen effizienter genutzt. Der Sales-Funnel 2.0 geht dafür schon einen großen Schritt, indem er Kunden nicht sofort wieder aus dem Verkaufstrichter entlässt.

Die unsichere Zukunft der Web-Browser

Im Januar 2020 wurde der erste Microsoft Edge Browser veröffentlicht, der Google‘s Chromium Engine nutzt. Damit reiht sich ein weiterer populärer Web-Browser unter Google ein. Zusammen mit Chrome, Samsung Internet und Opera, nutzt nun auch Microsoft Edge Google‘s Browser Engine. Laut Statcounter Nutzen damit 70% der Nutzer einen Browser der mit Chromium läuft.

Was hält die Zukunft der Web-Browser für Entwickler und Nutzer bereit? Sollten sich Experten für mehr Diversität einsetzen? Ist Google‘s Dominanz überhaupt ein Problem?

Wie problematisch wäre ein Browser-Monopol?

Eine Browser-Monokultur wird schon seit den frühen 2000er Jahren gefürchtet, als der Internet Explorer der dominanteste Browser war. Wie in den meisten Fällen sind Sorgen vor einem Monopol auch durchaus berechtigt.

In der Branche der Internet-Browser ist das Argument, dass eine zu einseitige Browser-Kultur dazu führt, dass Entwickler aufhören mit anderen, nicht dominanten Browsern, zu arbeiten. Das würde dazu führen, dass die meisten Produkte von Dritten, nur noch mit einem einzigen Browser zu nutzen sind. Die ganze Branche rund um die Browser herum wäre so auf einen einzigen Browser fixiert; das Monopol des dominanten Browsers wäre beinahe unumstößlich.

Doch die Debatte ist keinesfalls einseitig, es gibt ebenso Stimmen, die ein Internet-Browser-Monopol bevorzugen würden. Auch wenn solch ein Monopol die eben angeführten Nachteile mit sich bringt, gibt es gleichzeitig Chancen. So könnten sich Entwickler in einer Browser-Monokultur voll und ganz auf Innovation konzentrieren. Bedenken um die Eigenarten anderer Browser und möglicherweise das Anpassen an diese, würden zu Sorgen der Vergangenheit werden.

Eine verlockende Sichtweise, doch man sollte nicht aus den Augen verlieren was auf dem Spiel steht. Wer 100% der Browser kontrolliert, hat eine enorme Entscheidungskraft über das ganze Internet. Selbst mit einem wohlwollenden und optimistischen Blick auf solche eine Zukunft besteht eine Sorge. Was passiert, wenn dem dominanten Browser-Entwickler ein schwerer Fehler unterläuft? Ein Chaosszenario, welches weite Teile des Internets beeinflussen könnte; auch in der gegenwärtigen Situation in der „nur“ 70% der Nutzer einen Browser nutzen, der mit Googles Engine läuft.

Chancen und Schwierigkeiten bei einer Chromium Vorherrschaft

Was wären die konkreten Vorteile, was die Nachteile wenn sich der Trend fortsetzt und Google in Zukunft ein Monopol über Webbrowser hat? Ein Teil von Googles Marke ist es, das Internet für alle zugänglich zu machen. Dafür investiert Google in Barrierefreiheit. Zusammen mit Microsoft, die die Chromium Engine für ihre Edge Browser benutzen, könnte die Zukunft des Netzes deutlich zugänglicher sein und das nicht nur über Google Chrome.

Außerdem könnte das Surfen Nutzerfreundlicher werden. Bereits jetzt ist die Chromium Engine auf die Nutzung progressiver Applikationen fokussiert. Diese Entwicklung könnte durch den oben genannten Effekt noch verstärkt werden; in einer Browser-Monokultur könnten sich mehr Entwickler auf Innovationen konzentrieren.

Obwohl Google bisher die Unterstützung vieler Entwickler hatte, könnte es Probleme geben, wenn Google die Browser-Welt dominiert. Bisher schien Google bereits einige Male einer Diskussion über Web-Standards auszuweichen und durch Googles gegenwärtige Größe, ist es dem Unternehmen bereits möglich Web-Standards zu diktieren. In einer Monopolstellung wäre das noch stärker der Fall. Ohne Rücksprache mit der Community könnte es so zu problematischen Änderungen kommen.

Außerdem kann das Thema Datenschutz für dieses Szenario nicht ignoriert werden. Selbst wenn zur Zeit nicht alle Chromium-Browser Nutzerdaten an Google weitergeben, gibt es keine Garantie, dass sich das nicht mit einer Monopolstellung ändern würde. Ohne echte Mitstreiter könnte sich Google schlichtweg mehr erlauben, so könnte auch das drängeln zu Downloads von bestimmten Plugins aggressiver werden.

Wie können wir eine diverse Browser-Kultur erhalten?

Auch wenn die Tech-Giganten Google, Microsoft, Apple und Co. oft übermächtig scheinen, können Entwickler, Designer und die ganze Tech-Gemeinde die Entwicklungen des Internets mitbestimmen. Wir teilen unsere Sichtweise mit der Öffentlichkeit und informieren sie. Aber auch der direkte Kontakt mit den Tech-Giganten kann funktionieren, wie einige folgende Beispiele zeigen.

Das Chrome Team fügte im Jahr 2019 das html-Tag „<std-toast>“ hinzu, ein Tag für Benachrichtigungen, die von der unteren Seite des Bildschirms nach oben springen. Ja, auch fertige Toasts springen von unten nach oben, dennoch waren viele der Meinung, dass das Tag einen eindeutigeren Namen benötigt.

Zum einen zeigt Googles Verhalten in diesem Fall, dass sie die Macht haben Entscheidungen ohne die Community zu treffen. Zum andere haben andere Browser-Engines das Tag aufgrund der Stimmen aus der Community nicht integriert.

Mozilla und Apple scheinen auf eine Zukunft hinzuarbeiten, in der die Privatsphären der Nutzer stärker respektiert werden. Der Schlüssel zur Realisation dieser Vision ist die Monetarisierung im digitalen Sektor. Wenn diese nicht der Sammlung von Nutzerdaten basieren würde, könnten die Privatsphären der Nutzer leichter geschützt werden, ohne dem geschäftlichen Teil des Internets massiv zu schaden. All das zeigt, dass Browser-Entwickler und Community eine Chance haben, dass Web nach ihren Vorstellungen zu verändern.

Online Marketing 2021 – Wie sieht das Netz mit weniger Cookies aus?

Für viele geht das Jahr 2020 wahrscheinlich als eines der schlechtesten in der jüngsten Vergangenheit ein. Trotzdem gab es auch gute Seiten, zum Beispiel für die digitale Branche. Aufgrund der Coronapandemie mussten große Teile des alltäglichen Leben ins digitale verlegt werden, was der digitalen Branche flächendeckend mehr Relevanz gab. Für das bevorstehende Jahr heißt es jetzt diesen Schwung mitzunehmen, denn neben Chancen gibt es auch neue Schwierigkeiten.

Der ganzen Branche steht eine Änderung bevor, die ein Umdenken bei einem der bisher wichtigsten Monetarisierungsstrategien im Netz fordert: der Datensammlung. Analysierte und verdichtete Datensätze verlieren zwar nicht ihren Wert, dafür sind diese Informationen zu nützlich für alle Werbetreibenden. In Zukunft könnten aussagekräftige Datensätze aber schwieriger zu erstellen sein.

Grund sind angekündigte technologische und rechtliche Änderungen, die das Nutzen von Third-Party-Cookies unmöglich machen. Bisher konnten so Datensätze gesammelt werden, die durch das Tracken eines Besuchers auf anderen Webseiten, ein relativ komplettes Bild lieferten.

Wie die Branche mit diesem und mit anderen Änderungen im Jahr 2021 umgehen wird, zeigen wir euch in diesem Jahresausblick.

Das Ende der Third-Party-Cookies

Die größte Veränderung zuerst: Third-Party-Cookies werden quasi abgeschafft. Für die werbetreibende Industrie heißt es jetzt Wege zu finden dieses Loch zu stopfen, was sich jedoch als knifflige Aufgabe erweisen dürfte. Die Wiedererkennung von Nutzern könnte so schwierig werden, dass das Erstellen von genauen Nutzerprofilen für die meisten beinahe unmöglich wird.

Ganz bewusst ist hier die Rede von „den meisten“, denn die großen Tech-Konzerne, besonders Google und Facebook, könnten vom Ende der Third-Party-Cookies sogar profitieren. Grund dafür ist, dass sie genaue Nutzerprofile auch ohne Third-Party-Cookies erstellen können, zumindest besser als es dem Rest des Markts möglich ist. Die Datenerfassung ermöglicht bei Google der Chrome Browser, der inzwischen einen Marktanteil von 70% hat und bei Facebook sind es die Social-Media-Apps, über die der Großteil der Social-Media-Nutzung stattfindet.

Mehr Datenschutz und faire Werbung

Doch die Lage der digitalen Branche ist nicht so misslich wie sie auf den ersten Blick scheinen mag. Zwar ist das Ende der Third-Party-Cookies ein harter Einschnitt in die Möglichkeiten Daten zu erheben, jedoch wird die Möglichkeit First-Party-Daten zu sammeln fruchtbarer. Schließlich steigt die Beliebtheit des Online-Shoppings, aus dem zahlreiche relevante Daten erhoben werden können.

Für alle Nutzer ist die Änderung ein toller Schritt für den Datenschutz. In Zukunft werden nur noch die Unternehmen mit dem der Nutzer im direkten Kontakt steht, Daten über ihn erheben können. Die Relevanz solcher Daten und auch sogenannte Zero-Party-Daten, freiwillig und vom Nutzer proaktiv geteilte Daten, könnte in Zukunft steigen. Zurückzuführen ist das auf den wachsenden Anspruch auf Privatsphäre und Datenschutz bei den Verbrauchern. Denn wenn das Marketing im digitalen Bereich transparenter wird, dann könnte die Akzeptanz der Nutzer auch steigen. Statt Alexa der Spionage zu beschuldigen und sich bei jeder ein wenig zu genauen Werbung beobachtet zu fühlen, könnten Nutzer tatsächlich dankbar sein, die richtigen Angebote zu bekommen.

Dieser Trend in der Informationspolitik wird primär von den Gesetzgebern der Welt getrieben, in Europa zum Beispiel mit der Datenschutzgrundverordnung (DSGVO) und in Amerika mit dem California Consumer Privacy Act (CCPA). Experten gehen davon aus, das die großen Digitalkonzerne ebenfalls langsam auf die Wünsche der Nutzerschaft nach mehr Privatsphäre eingehen werden.

Ist Server-Side-Tracking die Alternative?

Alternativen zum Third-Party-Tracking gibt es reichlich, wenn auch kein eins zu eins Ersatz. Zum Beispiel funktioniert Umfeldmarketing mit Pretargeting auch digital. Außerdem können digitale Fingerabdrücke die zumindest pseudonymisierte Ansprache eines Kunden ermöglichen. Hinzu kommen klassische First-Party-Methoden wie Apps und Newslettermarketing.

Server-Side-Tracking wird im kommenden Jahr wahrscheinlich an Bedeutung gewinnen, da es nicht mit Third-Party-Cookies arbeitet. Schon jetzt ist diese Art des Trackings eine gute Alternative: es besteht zwar kein Zugriff auf Kontextdaten des Nutzers wie beim Client-Tracking, dafür kann es nicht zu Verbindungsunterbrechungen durch Ad- und Trackerblocker kommen. Mit Sicherheit ein Top-Trend des Jahres.

Marken werden agiler

Eine Erkenntnis, die sich aus der Pandemie ziehen lässt, ist dass sich Marken mittlerweile extrem schnell an neue Situationen anpassen. Viele änderten ihren Ton schnell und bezogen sich zunehmend auf die Pandemie. In solch einer Marketingwelt schrumpft der Platz für monatelang geplante Kampagnen.

Gleichzeitig sind Marken im gegenwärtigen Zeitalter auch auf mehreren Kanälen vertreten, die jeweils Teilzielgruppen ansprechen. Die Botschaft einer Kampagne setzt sich aus vielen kleinen Teilen zusammen, welche auf den unterschiedlichen sozialen Medien, Google My Business oder in Video Ads veröffentlicht werden. So wird nicht nur eine genauere zielgruppenspezifische Ansprache ermöglicht, Werbebudgets können durch kurzfristige Optimierungen besser genutzt werden. Eine Botschaft die auf einen Schlag veröffentlicht wird, lässt sich nicht so leicht verbessern, wie eine, die aus vielen Puzzleteilen zusammengesetzt ist. Auch diese Entwicklung wird uns im Jahr 2021 erhalten bleiben.

Social Media Marketing wird diverser

Bisher kam Facebook immer eine klare Vormachtstellung in den sozialen Medien zu, besonders für die Marketingbranche. Das hat sich geändert, TikTok ist im letzten Jahr auf eine ernstzunehmende Größe gewachsen. Neben Tanzvideos ist TikTok eine Plattform für Kreativität geworden, egal ob mit oder ohne Marketing Absichten.

Auch andere Plattformen wie Pinterest und Snapchat bieten innovative Möglichkeiten, sodass sich viele Marken wieder mehr mit diesen „anderen“ Plattformen beschäftigen. Schon bald könnten wir mehr längerfristige Strategien und mehr Anzeigen auf diesen sozialen Medien sehen.

Druck auf Print – Budgets verschieben sich

Immer mehr Menschen wollen nachhaltig leben, dazu gehört: Müll verhindern wo es nur möglich ist. Viele sehen klassische Prospektwerbung nur noch als Papiermüll und verweigern diese Form von Werbung. Gleichzeitig wächst die Akzeptanz digitaler Kanäle seit Jahren stetig.

Die Folge: Werbebudgtes verschieben sich zugunsten des digitalen Marketings. Laut Resolution Media erreichte das Marktvolumen des digitalen Marketings im Jahr 2020 zehn Milliarden Euro, eine Milliarde mehr als im Vorjahr. Demnach gehen 45% des gesamten Werbemarktes auf das Konto des digitalen Marketings.

Die Pandemie hat hier nicht nur einige Entwicklungen beschleunigt, sie hat Unternehmen auch gezeigt was für Vorteile digitales Marketing hat. Abgesehen von der stetig wachsenden Reichweite kann die Effektivität digitaler Anzeigen sehr viel genauer gemessen werden. Zudem fällt der Papiermüll weg. Deswegen deuten viele Prognosen in eine Zukunft, in der datengetriebenes Online-Marketing eine noch größere Rolle spielt.

Was Trumps Social Media Sperre für die Meinungsfreiheit bedeutet

Nach dem viel diskutierten Sturm auf das Kapitol in Washington, D.C. am 6. Januar 2021 trifft Twitter eine schwerwiegende Entscheidung. Der Kurznachrichtendienst sperrt Donald Trump und auch Facebook und Instagram legen die Accounts des US-Präsidenten kurze Zeit später lahm. Aus der politischen Chaossituation sprießt eine neue Debatte, die die Social Media Plattformen in den Fokus nimmt.

Eine problematische Sperrung

Technisch wie rechtlich verläuft die Sperrung der Social Media Accounts des US-Präsidenten glatt. Twitter verkündet in einem Statement die Lage nach den Regeln der Plattform, bezüglich der Anstiftung von Gewalt, beurteilt zu haben. Ein Unternehmen setzt Richtlinien auf der eigenen Plattform durch; also alles kein Problem?

Angela Merkel widerspricht: sie nennt das Handeln der Plattformbetreiber problematisch, da Twitter und Facebook in diesem Fall die Meinungsfreiheit einschränken. Zwar müssen die sozialen Netzwerke dafür sorgen, dass die Kommunikation auf ihren Seiten nicht mit Hass gefüllt ist, die Meinungsfreiheit solle aber nur vom Gesetzgeber einschränkbar sein.

Ob die Sperrung gerechtfertigt war spielt in dieser Diskussion keine Rolle. Die eigentliche Frage lautet: sollten die Betreiber der Sozialen Medien in diesem Fall die Entscheidungsträger sein? Egal wie man diese Frage beantwortet, eine Sache machen Twitter und Facebook mit ihren Sperren deutlich: sie haben die Macht solche Entscheidungen zu treffen und durchzusetzen, auch wenn es um den Präsidenten der Vereinigten Staaten von Amerika geht.

Die Macht der Sozialen Medien

Aber warum müssen wir überhaupt über Meinungs- und Redefreiheit diskutieren wenn ein Unternehmen eigene Regeln auf der eigenen Plattform durchsetzt? Die Popularität dieser Plattformen bietet eine Antwort auf die Frage. Einige Social Media Plattformen verzeichnen schlichtweg so viele Nutzer, dass sie als Teil des öffentlichen Raumes wahrgenommen werden müssen. Hier finden meinungsbildende Debatten statt und ohne Meinungs- und Redefreiheit im öffentlichen Raum funktioniert keine demokratische Gesellschaft.

Aus dieser Perspektive ist die Sperre von Trumps Social Media Accounts keineswegs nur ein unternehmensinternes Durchsetzen von Regeln. Bis zuletzt erreichten die Tweets des Präsidenten der USA über 88 Millionen Follower. Die Sperre muss also auch als ein Begrenzen der Redefreiheit einer Person im öffentlichen Raum gesehen werden, die ein Publikum von über 88 Millionen Menschen hatte. Wenn auch nicht als Machtdemonstration vorgesehen, zeigt das Sperren Trumps, wie sehr einzelne Unternehmen den öffentlichen Raum formen können.

Ein Blick in die Zukunft

Wer von diesem Zeitpunkt aus einen Blick in die Zukunft wagt, könnte mit seinen Vorhersagen leicht ins dystopische abrutschen. Wenn die Social Media Plattformen nicht von der Politik reguliert werden, wächst ihre Macht über den öffentlichen Raum nur weiter an. Schließlich wird prognostiziert, dass die Nutzerzahlen von Sozialen Medien aufgrund des demographischen Wandels weiter zunehmen.

In dieser Dystopie könnten die Plattformbetreiber den öffentlichen Kurs durch Zensur größtenteils lenken, und das weit über Landesgrenzen hinaus, schließlich sind Twitter und Facebook globale Plattformen. Soweit muss es aber keineswegs kommen, es muss jetzt nur anerkannt werden, dass unsere Informations- und Diskussionskultur ein Problem hat: Teile des öffentlichen Raumes liegen in der Hand privater Unternehmen.

Damit die Staaten ihr Monopol über die Einschränkung von Meinungsfreiheit nicht an Twitter, Facebook, etc. abgeben, müssen Regulierungen her. Außerdem könnten die Monopolstellungen einiger Plattformen angegriffen werden, um die Macht jedes Plattformbetreibers zu begrenzen. Nutzer, Betreiber und Staat gleichzeitig gerecht zu werden, könnte eine enorme Aufgabe werden.

Fazit

Die Sperrung der Social Media Account von Donald Trump, dem Präsidenten der USA, macht deutlich, wie viel macht den Sozialen Medien beim Formen des öffentlichen Raums zukommt. Damit die Entscheidungsmacht über Einschränkungen der Meinungs- und Redefreiheit in der Hand der Politik bleibt, müssen Soziale Medien staatlich reguliert werden. Wie solch eine Regulierung aussehen wird und funktionieren kann, ist noch ungewiss.

Neu bei Google : Core Web Vitals

Neu bei Google: die Core Web Vitals. Dabei handelt es sich um ein neues Set von Kennzahlen, die Webseiten mit Blick auf ihre Nutzererfahrung bewerten. In Zukunft werden diese Core Web Vitals auch relevant für SEO. Die drei Kennzahlen sind messen insbesondere die Ladezeiten aller Websites und sind auch bei realen Seitenbesuchen zu erfassen, zum Beispiel mit dem Chrome UX Report, aber auch mit Google Page Speed Insights. Im Folgenden werden die drei Kennzahlen nun alle kurz erklärt.
• Largest Contentful Paint (LCP): Mit dieser Kennzahl wird die Zeit gemessen, die es braucht bis die Hauptinhalte einer Seite geladen sind. Passiert das in unter 2,5 Sekunden wir die Seite in diesem Bereich als „gut“ eingestuft
• First Input Delay (FID): Beim FID dreht sich die Messung um die Interaktivität der Website. Die Kennzahl misst die Zeitspanne zwischen der ersten Eingabe des Nutzers und der darauf folgenden Reaktion der Seite. Ist diese Zeitspanne kleiner als 100 Millisekunden schneidet die Seite gut ab.
• Cumulative Layout Shift (CLS): Dieser Wert zeigt an, wie Stabil das Layout einer Seite ist. Besonders Nutzerfreundlich sind Seiten, deren Layout sich nicht stark und auf unerwartete Weise verändert. Plötzliche Änderungen können dazu führen, dass Nutzer etwas anklicken, dass sie nicht anklicken wollten. Damit Website-Betreiber ihre Seiten diesen neuen Ranking-Faktoren anpassen können, ist eine Datenerhebung für jeden möglich. Die Web Vitals Open-Source JavaScript-Bibliothek kann zusammen mit beliebigen Analytics-Anbietern genutzt werden. Außerdem existiert eine Erweiterung für Google Chrome, die die Kennzahlen beim Aufruf von Webseiten anzeigt. In Kürze sollen auch Chrome DevTools, Neu bei Google: die Core Web Vitals. Dabei handelt es sich um ein neues Set von Kennzahlen, die Webseiten mit Blick auf ihre Nutzererfahrung bewerten. In Zukunft werden diese Core Web Vitals auch relevant für SEO.