Blog

Fachbeitrag

Google BERT – Wissen, was gemeint ist.

Google hat jüngst das größte Algorithmus-Update der letzten fünf Jahre durchgeführt.

Hintergrund ist zum einen der weiter wachsende Trend von Sprach-Assistenten wie Siri, Alexa und Googles eigenem Assistant. Werden solche Dienste für die Websuche eingesetzt (Voice Search), ergeben sich daraus ganz anders formulierte und viel längere Suchanfragen.

Zum anderen nehmen aber auch die Suchanfragen im Bereich »Conversational Search« weiter zu. Das heißt, Suchende tendieren dazu, ihre Fragen ausformuliert bei Google einzugeben, anstatt nur ein oder zwei Keywords zu nutzen. Kein Wunder, schließlich nimmt die Gesamtmenge an Content im Internet ständig zu – gute Antworten bedingen daher ausführliche Fragen.

Für wen wird hier geschrieben?

In seinem eigenen Blogbeitrag beschreibt Pandu Nayak, Vice President Search von Google, die Herausforderung so: »At its core, Search is about understanding language. It’s our job to figure out what you’re searching for and surface helpful information from the web, no matter how you spell or combine the words in your query.« (»Im Kern geht es bei der Suche darum, Sprache zu verstehen. Unser Job ist es, herauszufinden was du suchst und hilfreiche Informationen aus dem Web zu präsentieren, ganz gleich wie du die Wörter schreibst oder sie in deiner Frage kombinierst.«)

Nutzer*innen hätten bisher oft dazu tendiert, Fragen in der Suche nicht so zu schreiben, wie sie sie sprechen würden. Stattdessen sei versucht worden, Fragen keywordlastig zu formulieren, in der Hoffnung, dass die Suchmaschine sie dann besser verstehen würde.

Dieses Vorgehen soll von nun an nicht mehr nötig sein, um die passenden Websites und Onlineshops zu finden.

Der Mensch fragt

BERT hilft dem Suchmaschinenplatzhirsch, den semantischen Kontext längerer Anfragen zu entschlüsseln. Schnappte die Maschine früher ausschließlich die einzelnen Keywords auf, ist sie jetzt in der Lage, die Beziehungen zwischen den Wörtern zu erkennen. Eine gewichtige Rolle spielen dabei vor allem Präpositionen – wie beispielsweise »für«, »zu« oder »bei«. Sie markieren, wie sich die einzelnen Worte einer Frage zueinander verhalten.

Einfaches Beispiel: Wurde früher nach »Reise von Deutschland nach Amerika« gesucht, hat Google die Worte Reise, Deutschland und USA »gesehen«. Heraus kamen Ergebnisse, die auch Reisen in die Gegenrichtung enthielten.

Dank BERT versteht Google nun anhand der Worte »von« und »nach«, in welchem Zusammenhang die Destinationen stehen und gibt im besten Fall nur noch Ergebnisse aus, die Start- und Zielort der Reise korrekt wiedergeben.

Früher hätte Google bei dieser Suchanfrage vor allem die Wörter »Parken« und »Bordstein« beachtet, nicht aber das kritische Wort »kein«. Quelle: Google Blog
Früher hätte Google bei dieser Suchanfrage vor allem die Wörter »Parken« und »Bordstein« beachtet, nicht aber das kritische Wort »kein«. Quelle: Google Blog

Die Maschine lernt

Dank Machine Learning, Google spricht von sogenannten neuronalen Netzen, und einer Technik namens Natural Language Processing (NLP) lernt der Algorhythmus nun mit jeder Suchanfrage mehr über die Sprachmuster der Menschen und weiß sie besser zu interpretieren.

Aktuell ist BERT nur für die organische Suche in den USA aktiviert. In Deutschland profitieren bisher ausschließlich die sogenannten Featured Snippets von dem Update. Allerdings geht Google davon aus, anhand der Erkenntnisse im Rahmen der englischen Sprache bald auch viele andere Landessprachen besser verstehen zu können.

Das Ergebnis zählt

Das ultimative Ziel bleibt, den Nutzenden möglichst präzise und passende Antworten auf ihre Suchanfragen zu liefern. Daran hatte Google bereits intensiv mit den Updates Panda, Hummingbird und Rank Brain gearbeitet.

BERT ist nun quasi die Weiterentwicklung, welche speziell darauf abzielt, von Menschen formulierte Fragen zu durchschauen. Bereits heute soll jede zehnte Suche im englischen Sprachraum davon profitieren.

Was bedeutet BERT für die eigene Website?

Vor allem eins: Gut ausgearbeiteter Content ist weiterhin das A und O. Wer die Inhalte auf seinen Websites ausführlich aufbaut und darin Fragen beantwortet, die einer thematischen Tiefe bedürfen, hat gute Chancen von BERT zu profitieren. »Gut« kann aber auch schlicht heißen, den passenden Content an der richtigen Stelle zugänglich zu machen. Usability ist also weiterhin ein ebenso wichtiger Faktor.

Bereits jetzt zeigt sich, dass immer mehr Websites und Blogbeiträge Überschriften und Zwischenüberschriften als Fragen formulieren – in diesem Zusammenhang gilt es jedoch, stets die Suchintention zu bedenken und nicht pauschal auf ein Vorgehen zu setzen.

Noch Fragen?

SEO ist und bleibt weiterhin ein komplexes Zusammenspiel zahlreicher Faktoren. Wer mehr zum Thema Suchmaschinenoptimierung erfahren möchte oder über besseren Content für seine Website nachdenkt, ist bei uns genau richtig.

Jetzt Termin vereinbaren

Auf dem Weg zur Gemeinwohl-Bilanz
Schulterblick September 2020

Auf dem Weg zur Gemeinwohl-Bilanz

Spätestens seit unserem Open Friday im vergangenen Oktober, bei dem Frauke Marquard einen Vortrag zur Gemeinwohl-Ökonomie hielt, steht der Begriff auf unserer Agenda. Mit Levke haben wir nun eine Kollegin, die sich diesem Thema explizit annimmt.

Artikel lesen
1, 2, … Statamic 3!
Fachbeitrag August 2020

1, 2, … Statamic 3!

Die dritte Version des Flat-File-CMS ist live – und damit macht das auf Laraval basierende System einen großen Sprung im Funktionsumfang. 

Artikel lesen
Newsletter-Empfehlungen für Webentwickler*innen
Fachbeitrag August 2020

Newsletter-Empfehlungen für Webentwickler*innen

Das Web ist ständig in Bewegung. Neue Applikationen, Software-Versionen, Frameworks, Methoden, Ideen, Sprachen und Technologien erblicken täglich das Licht der Welt. Newsletter sind eine Möglichkeit, um auf dem Laufenden zu bleiben.

Artikel lesen