Sie haben GhostBlog erfolgreich abonniert.
Toll! Schließen Sie als Nächstes die Prüfung ab, um vollen Zugriff auf GhostBlog zu erhalten.
Willkommen zurück! Sie haben sich erfolgreich angemeldet.
Erfolg! Ihr Konto ist vollständig aktiviert, Sie haben nun Zugriff auf alle Inhalte.
Erfolg! Ihre Zahlungsinformationen werden aktualisiert.
Aktualisierung der Rechnungsinformationen fehlgeschlagen.
Eine kurze Geschichte der Suchmaschinenoptimierung

Eine kurze Geschichte der Suchmaschinenoptimierung

Mike Konia

Wenn heutzutage von Suchmaschinenoptimierung (SEO) die Rede ist, dann ist in der Regel die Optimierung für Googles Suchmaschine gemeint. Die Praxis, die wir heute als SEO kennen, geht jedoch auf eine Zeit zurück, wo Google – die derzeit populärste Suchmaschine der Welt – noch nicht einmal existierte.

Bevor sich also der Terminus «Suchmaschinenoptimierung» etablierte, kamen noch andere Termini zur Anwendung. Wie zum Beispiel:

  • Suchmaschinenplatzierung
  • Suchmaschinenpositionierung
  • Suchmaschinenranking
  • Suchmaschinenregistrierung
  • Suchmaschineneintrag
  • Website-Promotion

Im Jahr 2001 schlug der prominente Branchenautor Danny Sullivan den Begriff «Suchmaschinenmarketing» als Nachfolger für den Terminus «Suchmaschinenoptimierung» vor. Obwohl sich Sullivan mit diesem Substitut nicht durchsetzen konnte, gab er mit seinem Vorschlag die Richtung an. Heutzutage ist die Suchmaschinenoptimierung neben der Suchmaschinenwerbung (englisch: Search Engine Advertising oder SEA) selbstverständlicher Bestandteil des Suchmaschinenmarketings.

Suchmaschinen haben die Art und Weise, wie wir Informationen finden, Recherchen durchführen, nach Produkten und Dienstleistungen suchen, uns unterhalten und mit anderen in Kontakt treten, verändert. Hinter fast jedem Online-Inhalt – ob Website, Blog, soziales Netzwerk oder App – verbirgt sich eine Suchmaschine. Suchmaschinen sind zum Bindeglied und Richtungsweiser im Alltag geworden.

Aber wie hat das alles angefangen? Um zu verstehen, wie die Suchmaschinen und die Suchmaschinenoptimierung zu einem so wichtigen Teil unserer Welt geworden sind, enthält der folgende Abschnitt eine Chronologie der bemerkenswertesten Meilensteine dieser Technologie.

Die «SEO-Wildwestzeit»

Im letzten Jahrzehnt des 20. Jahrhunderts setzte sich der Suchmaschinenmarkt aus vielen Mitbewerbern zusammen. Darunter fallen die Suchmaschinen von AltaVista, Ask Jeeves, Excite, Infoseek, Lycos und Yahoo. Wobei zwei Typen von Suchmaschinen miteinander wetteiferten. Solche, deren Verzeichnisse (Suchergebnisse) redaktionell betreut wurden, die bekannteste davon war Yahoo, und solche mit rein maschinell erstellten Verzeichnissen, so genannte Crawler-basierte Listen.

Zu dieser Zeit bestand die einzige Möglichkeit, SEO als On-Page-Optimierung zu betreiben. Bei der On-Page-Optimierung wird der Fokus auf qualitativ hochstehende und relevante Inhalte, lange Texte, fehlerfreies HTML sowie eine gewisse Menge von internen und externen Links gelegt. Allerdings hielten sich zu dieser Zeit nicht alle Player an diese Maxime. Um schnell eine gute Platzierung zu erreichen, genügte es, Schlüsselwörter (Keywords) auf den Webseiten und im Meta-Tag-Bereich so oft wie möglich zu wiederholen. Wollte man also eine Seite, die hundert Mal ein Keyword verwendete, im Ranking  übertreffen, dann genügte es, das Schlüsselwort zweihundert Mal zu verwenden. Heute wird diese Praxis als Keyword Stuffing (deutsch: «Wörter stopfen») bezeichnet.

Die Suchmaschinen-Highlights der 1990er Jahre

1994 Yahoo wird von den Studenten Jerry Wang und David Filo an der Stanford University entwickelt. Yahoo war ursprünglich eine Internet-Lesezeichenliste und ein Verzeichnis interessanter Webseiten. Webmaster mussten ihre Seite manuell zum Indizieren an das Yahoo-Verzeichnis senden, damit Yahoo sie finden konnte, wenn jemand eine Suche durchführte. In diesem Jahr nehmen auch die Suchmaschinenunternehmen AltaVista, Excite und Lycos ihre Geschäftstätigkeit auf.

1996 Larry Page und Sergey Brin, zwei Studenten der Stanford University, entwickeln Backrub, eine neue Suchmaschine, die Websites nach Relevanz und Beliebtheit eingehender Links, so genannter «Inbound Links» , klassifiziert. Aus Backrub wird letztendlich Google.

1998 Mit GoTo.com taucht erstmals ein Unternehmen auf dem SEO-Markt auf, das erfolgreich einen «Pay-for-Placement»-Suchdienst anbietet. Es begann mit dem Kauf von World Wide Web Worm, einer der ältesten Suchmaschinen überhaupt. GoTo.com gilt als einflussreicher Pionier der bezahlten Suche. 2013 wird die Firma GoTo.com, die sich 2001 in Overture Services, Inc. umbenannt hat, von Yahoo übernommen.

Im gleichen Jahr wird auch das Unternehmen DMOZ gegründet. Das Akronym DMOZ ist vom Domainnamen directory.mozilla.org abgeleitet. DMOZ – auch bekannt unter dem Namen Open Directory Project – war ein mehrsprachiges Webverzeichnis von thematisch geordneten Linklisten. Einträge in diesem Verzeichnis wurde anfangs von Google sehr hoch bewertet. Im dritten Quartal des Jahres schliesslich kommt auch Microsoft mit MSN Search auf den Suchmaschinenmarkt.

1999 Die allererste Search-Marketing-Konferenz, Search Engine Strategies (SES), findet statt. Und die Firma Google meldet eines ihrer ersten Forschungsarbeiten zu semantischen Fragestellungen unter dem Titel «Extracting Patterns and Relations from Scattered Databases Such as the World Wide Web» zum Patent an.

Die Google-Revolution

Im Jahr 2000 fällt Yahoo einen folgenreichen Entscheid: Es schliesst sich mit Google zusammen, um künftig deren organische Suchergebnisse  anstelle seines bisherigen Partners, Inktomi, zu nutzen. Bis zu diesem Zeitpunkt war Google eine wenig bekannte Suchmaschine. Doch von nun an stand unter jedem Suchergebnis von Yahoo «Powered by Google». Damit wurde Google schlagartig bekannt und es war nur noch eine Frage der Zeit, bis das Unternehmen zum grössten Konkurrenten von Yahoo avancierte.

Googles Webcrawler mit seinem von Larry Page und Sergey Brin 1996 in Stanford entwickelten «PageRank»-Algorithmus waren für das Abrufen von Informationen im Web revolutionär. Bis in die zweite Hälfte der 1990er Jahre stuften Suchmaschinen Websites hauptsächlich auf der Grundlage des On-Page-Inhalts, der Domain-Namen, der Listung in Webverzeichnissen und der Sitestruktur ein. Der Webcrawler von Google dagegen untersuchte sowohl On-Page- als auch Off-Page-Faktoren, also die Anzahl und Qualität der externen Links, die auf eine Website verweisen.

Im Wesentlichen ist Googles PageRank-Algorithmus darauf ausgelegt, Inhalte, die bei den Nutzern beliebt sind und deswegen verlinkt werden, als relevant zu taxieren. Relevanz ist für PageRank kein inhaltliches, sondern reines Mengenkriterium: Je mehr ein bestimmter Inhalt verlinkt wird, desto wichtiger scheint dieser zu sein, also wird er vom Algorithmus auch besser bewertet und erscheint auf den Suchergebnisseiten  weiter vorne.

Neben den organischen Suchergebnissen wurden ab 2000 auch bezahlte, von Google als Google AdWords (im Juli 2018 zu Google Ads umbenannt) vermarktete, Suchanzeigen angezeigt. Diese bezahlten Suchanzeigen wurden oberhalb, unterhalb und rechts von den unbezahlten (organischen) Suchergebnissen geschaltet.

Im selben Jahr traf sich auch eine Gruppe von Webmastern informell in einem Pub in London, um sich über «sämtliche» Aspekte der Suchmaschinenoptimierung auszutauschen. Dieses informelle Treffen mutierte schliesslich zu Pubcon, eine grosse Konferenzreihe, die noch heute jeden Herbst im Las Vegas Convention Center stattfindet und an der seit ihrer Gründung über 30 000 SEO-Fachleute teilnahmen.

Nach der Übernahme der Blogplattform «Blogger.com» startete Google 2003 «AdSense». Mit AdSense werden kontextbezogene Werbeanzeigen auf den Webseiten der Herausgeber geschaltet. Dazu analysiert Google die einzelne Seite auf ihren thematischen Gehalt und blendet dann möglichst passende Werbeanzeigen ein. Klickt ein Besucher darauf, erhält die Website-Herausgeberin eine Vergütung. Die Mischung aus AdSense und Webpublishing, die Möglichkeit also beim Webpublishing Geld zu verdienen, führte ganz allgemeinen zu einem starken Anstieg des monetarisierten Webpublishings. Im Blogbereich allerdings löste die Übernahme von Blogger.com und die Lancierung von AdSense durch Google geradezu einen Boom aus.

Lokales SEO und Personalisierung

Um 2004 beginnen Google und andere führende Suchmaschinen, die Ergebnisse für Anfragen mit geografischer Ausrichtung – z. B. nach einem Restaurant oder Handwerker vor Ort – zu verbessern. 2006 führt Google dann die «Maps Plus Box» ein.

Screenshot der von Google 2006 eingeführten Maps Plus Box
Von Google 2006 eingeführte «Maps Plus Box». Nach der Sucheingabe «Kotobuki» erscheint der Eintrag «Kotobuki Japanese Restaurant» (Bild links). Klickt man auf das Pluszeichen, poppt ein eingebetteter, dynamischer Stadtplan auf (Bild rechts). Zu dieser Zeit eine kleine Sensation.

Um das Jahr 2004 beginnen die Suchmaschinen auch, Endnutzerdaten wie Suchverlauf und Suchinteressen stärker zu nutzen, um die Suchergebnisse zu personalisieren. Dies bedeutete, dass die Ergebnisse, die bei der einen Nutzerin ausgespielt wurden, sich von denen unter-scheiden konnten, die ein unmittelbar benachbarter Nutzer bei identischer Suchabfrage auf seinem Gerät zu sehen bekam.

Der Beginn des semantischen Webs

Im März 2005 reicht Google beim US Patent and Trademark Office ein Patent ein, in dem beschrieben wird, wie Google auf Suchanfragen direkte Antworten geben kann. Bis dahin haben Suchmaschinen wie Google, Bing und Yahoo keine kurz gefassten, direkten Antworten auf Suchanfragen gegeben. Stattdessen wurde eine Liste von Links zu Webseiten angezeigt, auf denen diese Antworten möglicherweise gefunden werden können. Es war aber den Usern überlassen, diese Liste zu durchsuchen. Glaubten sie fündig geworden zu sein, brauchten sie immer noch auf den Link zu klicken. Einmal auf der Zielseite angekommen, musste die Seite zur Auffindung der gesuchten Antwort von den Nutzern dann auch noch «geskimmt und gescannt», also mittels überfliegenden Lesens, durchsucht werden. Im schlechtesten Fall fanden die Suchenden nach all dem Aufwand immer noch keine befriedigende Antwort.

Mit Googles patentierter Lösung konnte dieser langwierige Suchprozess nun massiv verkürzt werden. Bereits im April nimmt Google in seinem Blog unter der Überschrift «Just the Facts, Fast» Bezug auf dieses Patent, ohne allerdings das Patent selber zu erwähnen: «Have you ever needed a piece of info right now? Today we're excited to introduce Google Q&A. We've pulled together facts from all over the Web to help give you the fastest possible access to the quick bits of information you need every day; just type a query into the search box, and you'll get back the answer at the top of your search results» (Google, 2005).

Screenshot einer direkten Antwort von Google auf die Suchanfrage «photoshop line tool thickness».
Googles direkte Antworten auf Nutzeranfragen erscheinen auf der Suchergebnisseite oberhalb der ersten 10 Links.

Nach Einschätzung des SEO-Experten Bill Slawski könnte dieses Patent von Google unter anderem eine Reaktion auf einen von Tim Berners-Lee 2001 publizierten Artikel sein). In dieser Publikation mit dem Titel «The Semantic Web: A New Form of Web Content That is Meaningful to Computers Will Unleash a Revolution of New Possibilities», die Berners-Lee zusammen mit James Hendler und Ora Lassila verfasst hat, stellen die Verfasser die These in den Raum, das semantische Web sei eine Erweiterung des herkömmlichen Webs, in dem Informationen mit eindeutigen Bedeutungen versehen werden, um die Arbeit zwischen Mensch und Maschine zu erleichtern.

Doch der Fokus auf Semantik ist bei Google schon weit vor 2005 zu erkennen. Ein Blick in die Patent-Suche von Google lässt dieses vermuten. So hat Google schon seit dem Jahr 2000 einige Patente mit Blick auf semantische Analysen von Suchanfragen und Dokumenten gezeichnet wie zum Beispiel die Patente «Identification of semantic units from within a search query» im Jahr 2000 und «Document ranking based on semantic distance between terms in a document» im Jahr 2004. Es ist davon auszugehen, dass Google sich schon seit der Gründung im Jahr 1998 mit der Entwicklung einer Suchmaschine mit Einflüssen aus der Semantik auseinandersetzt.

2007 erklärte die damalige Verantwortliche für die Suche und User Experience bei Google, Marissa Mayer, in einem Interview mit IDG News Service, dass Google derzeit zwar sehr gut mit Keywords umgehen könne, aber diese Reduzierung auf Schlüsselwörter sei nicht wirklich befriedigend. Menschen sollte es ermöglicht werden, einer Suchmaschine syntaktisch vollständige Fragen zu stellen und Google sollte in der Lage sein, die Bedeutung dieser Fragen zu verstehen. Allein dies genüge aber noch immer nicht. Vielmehr müssten Menschen mit der Suchmaschine über Dinge auf konzeptioneller Ebene  sprechen können. Google stelle in der Tat fest, dass Menschen Suchmaschinen konzeptbasierte Fragen stellen und nicht einfach nur Stichwörter ins Suchfeld eingeben.

Marissa Mayer zeigt sich im Interview davon überzeugt, dass Suchmaschinen in naher Zukunft in der Lage sein werden, mit konzeptbasierten Fragen umgehen zu können, dazu sei aber ein entscheidender Schritt Richtung semantisches Web notwendig.

Googles Universal Search und Microsofts Suchmaschinen-Desaster

Nicht direkt im Zusammenhang stehend mit der semantischen Suche, aber doch erwähnenswert sind weitere wichtige Entwicklungen, die zwischen 2007 und der Einführung des Knowledge Graphs 2012 stattfinden und führ die Suchmaschinenoptimierung von Bedeutung sind. Zu erwähnen ist da zum Beispiel die Einführung von Googles Universal Search, auch «Blended Search» oder «Enhanced Search, im Jahr 2007. Bis anhin bestanden die Suchergebnisse auf der Suchergebnisseite aus 10 blauen Links. Mit Universal Search beginnt Google, traditionelle organische Suchergebnisse mit anderen Arten von vertikalen Ergebnissen wie Nachrichten, Videos und Bildern zu vermischen (deshalb «Blended Search», blended = englisch für vermischen). Wer nach visuellen Themen sucht, bekommt eine Bildereinblendung zu sehen, die mit Googles Bildersuche verlinkt ist. Bei aktuellen Themen kann ein Verweis auf die Schlagzeilen von Google News erfolgen. Lokale Suchanfragen führen oft zu einer Einblendung von lokalen Ergebnissen aus Google Maps.

Im September 2006 begräbt Microsoft seine Suchmaschine MSN Search und lanciert dessen Nachfolger Live Search mit dem Ziel, Googles Dominanz zu brechen. Gut zweieinhalb Jahre später, Ende Mai 2009, ersetzt Microsoft Live Search durch die Suchmaschine Bing. Vom Bestreben beflügelt, dem kontinuierlich wachsenden Marktanteil von Google Einhalt zu gebieten, verkünden Yahoo und Microsoft im Juli 2009 eine Vereinbarung zu einer «Suchallianz». Im Abkommen mit einer Laufzeit von 10 Jahren verständigen sich die beiden Vertragsparteien darauf, dass Yahoos bisherige Suchmaschine durch Bing ersetzt wird.

Dank dieser Vereinbarung rückt Bing auf dem Suchmaschinenmarkt auf den zweiten Platz vor, doch gelingt es der Allianz letztendlich nicht, die haushohe Marktführerschaft von Google zu brechen. 2019, gut 10 Jahre nach dieser Vereinbarung, erreicht Bing noch einen Marktanteil von 8,24 Prozent, verglichen mit 75,5 Prozent bei Google und 10,47 Prozent bei Baidu. Auf Mobilgeräten ist Bing mit einem Nutzungsanteil von nur gerade 0,82 Prozent praktisch inexistent.

Panda – Update mit grosser Auswirkung bis heute

Google verbessert seinen Suchalgorithmus kontinuierlich. Bei bis zu mehreren 100 oft geringfügigen Aktualisierungen im Jahr finden die meisten davon kaum Beachtung. Eine wichtige Aktualisierung, das Panda-Update im Jahr 2011, hatte jedoch grosse Auswirkung auf die Suchmaschinenoptimierung, die bis heute nachwirkt.

Um 2011 musste Google vermehrt zur Kenntnis nehmen, dass die Suchergebnisse auf seinen Suchergebnisseiten (SERPs) von so genannten «Content Farms» dominiert wurden. Im Internet-Kontext ist eine Content Farm (oder Content Mill) ein Unternehmen, das in hoher Frequenz Inhalte produziert, die einzig darauf ausgerichtet sind, den Algorithmen der Suchmaschinen zu genügen, mit dem Ziel, eine grosse Anzahl an Seitenaufrufe und somit Werbeeinnahmen zu generieren. Zudem fanden sich in den vorderen Suchergebnissen auch Einträge von so genannten Scraper Sites sowie automatisch generierte Inhalte. Bei Scraper Sites handelt es sich um Websites, die «ihre» Inhalte von anderen Webseiten kopieren. Diese kopierten Inhalte rankten in einige Fällen sogar besser als die Originale.

Mit dem Panda-Update von 2011 wollte Google diesen Manipulationen Einhalt gebieten. Inhalte allein für die Suchmaschine zu optimieren, sollte nicht mehr ausreichen, um eine gute Platzierung in den SERPs zu erzielen. Vielmehr sollte der Usernutzen in den Vordergrund gestellt werden. Zum Usernutzen gehört zum einen gute Usability; also schnell ladende Webseiten, schnell auffindbare Inhalte sowie barrierefreier Zugang zu den Inhalten. Zum anderen müssen Informationen vollständig sein. Mit anderen Worten: Das auf einer bestimmten Webseite behandelte Thema soll keine Fragen offen lassen. Beides, Usability und Informationsvollständigkeit, sind, neben weiteren Faktoren, zwingend für qualitativ hochwertige Inhalte. Mit dem Panda-Algorithmus konnte Google den eigenen Anspruch an eine hohen Usernutzen erfüllen, nämlich den Usern auf den Suchergebnisseiten qualitativ hochwertige Websites aufzulisten.

Der Knowledge Graph – die Wende zum semantischen Web

Im Mai 2012 stellt Google den Knowledge Graph vor. Mit der Einführung des Knowledge Graphs vollzieht Google die entscheidende Wende von der reinen Interpretation von Schlüsselwortketten zum semantischen Web.

Der Knowledge Graph ist im Kern eine Wissensdatenbank, in der Informationen über Personen, Orte und Ereignisse, so genannte Entitäten, sowie die Bezüge zueinander (Ontologien ) gespeichert sind. Zur Zusammenstellung der Daten nutzt Google einen Algorithmus, der verschiedenen Quellen nach strukturierten und semistrukturierten Daten durchforstet. Zu diesen Quellen gehören unter anderen Wikidata (strukturierte Daten) und Wikipedia bzw. Wikimedia (semistrukturierten Daten). Dank des Knowledge Graphs ist Google in der Lage, inhaltlich der Suchabfrage entsprechende Suchresultate auszugeben, ohne dass die suchende Person die Entität namentlich abgefragt hat.

Hummingbird – der Algorithmus für mobile Nutzer

Der nächste Schritt in der Evolution der Google-Suchalgorithmen erfolgt im September 2013 in Form von Hummingbird, einem Algorithmus, mit dem einerseits Abfragen in natürlicher Sprache (Abfragen in gesprochener Sprache), andererseits komplexe Suchabfragen besser adressiert werden können. Mit dem Aufkommen der Mobil- (und Sprachsuche) musste Google die Funktionsweise seines Algorithmus vollständig überarbeiten, um diesen neuen Anforderungen gerecht zu werden. Hummingbird gilt bis zum Zeitpunkt seiner Einführung als die umfangreichste Änderung am Kernalgorithmus von Google seit 2001. Mit dem Update bezweckte Google offensichtlich, schnellere und relevantere Ergebnisse insbesondere für mobile Nutzer zu liefern.

Maschinelles Lernen, KI und intelligente Suche

Im Oktober 2015 stellt Google den «RankBrain»-Algorithmus vor. RankBrain nutzt Machine Learning, ein Teilbereich der künstlichen Intelligenz, um riesige Mengen an geschriebener Sprache in mathematische Einheiten – sogenannte Vektoren – einzubetten. Diese Einbettung in Vektoren ist eine Voraussetzung, damit der Computer geschriebene Sprache überhaupt erst «verstehen» kann. Wenn RankBrain bei der Analyse einer Suchanfrage auf ein Wort oder eine Phrase trifft, das bzw. die ihm nicht bekannt ist, kann der Algorithmus eine Vermutung anstellen, welche Wörter oder Phrasen eine ähnliche Bedeutung haben könnten, und das Ergebnis entsprechend filtern, um so diese neuen, unbekannten Suchanfragen angemessen zu bearbeiten.

2017 schliesslich erklärt Google-CEO Sundar Pichai Google zum «AI-first»-Unternehmen. AI steht für das englischsprachige artificial intelligence, zu deutsch «künstliche Intelligenz» oder kurz: «KI». Zum 20. Geburtstag von Google, im September 2018 dann, gibt Google an einer Presskonferenz den Einsatz von «Neural Matching» bekannt. 11 Jahre nachdem Marissa Mayer im Interview mit IDG News Service darlegte, dass es nicht genüge, allein die Bedeutung von Wörtern und Phrasen zu erkennen, sondern dass Suchmaschinen vielmehr konzeptbasierte Fragestellungen verstehen müssen und dass sie überzeugt sei, Google kriege das in naher Zukunft hin.

In einem Tweet vom 24. September 2018 präzisiert Danny Sullivan, Mitbegründer von Search Engine Land und seit 2017 Mitarbeiter bei Google, dank der künstlichen Intelligenz des Neural-Matching-Algorithmuses sei es nun besser möglich, Wörter mit Konzepten in Verbindung zu bringen. Und Google SearchLiaison twittert am 21. März 2019, der Algorithmus sei in der Lage, bei einer Frage wie «Warum sehen die Filme auf meinem Fernsehen so komisch aus?» einen direkten Zusammenhang mit dem Konzept des Soap-Opera-Effekts herzustellen. Worauf Google Suchergebniseinträge rund um das Thema «Soap-Opera-Effekt» ausspiele – obwohl bei der Suchabfrage die Nominalphrase «Soap-Opera-Effekt» nicht eingegeben wurde.

Fazit

Suchmaschinen und Suchmaschinenoptimierung haben seit den 1990er Jahren einen weiten Weg zurückgelegt. Der Weg war geprägt von dramatischen Wendungen: aufstrebende Start-ups verdrängten mit neuen SERP-Funktionen, neuen Algorithmen und permanenten Aktualisierungen altgediente Suchmaschinen vollständig vom Markt; erstklassige SEO-Publikationen wurden publiziert, SEO-Konferenzen abgehalten, Instrumente zur Suchmaschinenoptimierung entwickelt und aus Geeks wurden SEO-Experten.

Während sich Suchmaschinen und Suchmaschinenoptimierung im Laufe der Jahre also stark weiterentwickelt haben, bleibt eines bestehen: Solange es Suchmaschinen gibt, wird die Suchmaschinenoptimierung ihren gewichtigen Beitrag zur Verbesserung der Sprachbeziehung zwischen Mensch und Maschine leisten.

Fachegriffe kurz erklärt

Inbound Links Hypertextuelle Verweise, die von einer Seite auf eine andere eingehen. Verweist A auf B, ist der Link auf B ein eingehender Link. Inbound Links spielen bei der Berechnung der Linkpopularität eine zentrale Rolle.

Konzepte Sprachwissenschaftlich sind Konzepte «Konstellationen von Wissen».

Meta-Tag-Bereich Festgelegter, unsichtbarer Bereich einer Webseite, der Informationen zum Dokument selbst bereitstellt. Für Suchmaschinen ist dieser Bereich einsehbar, nicht aber für Webnutzer.

Organische Suchergebnisse Als «organisch» werden diejenigen Suchergebnisse bezeichnet, die von einer Suchmaschine auf Grund einer Suchanfrage gelistet werden, für die aber nicht bezahlt wurde. Bei den bezahlten Listungen spricht man dagegen von «gekauften» Suchergebnissen. Diese werden pro Klick abgerechnet.

Ontologien stellen in der Semantik ein Umfeld dar, in dem Entitäten in Beziehung zueinander gestellt werden. So ist z. B. die Autobranche eine Ontologie, Hersteller von Autos wie Mercedes oder Autozulieferer wie Autoneum sind Entitäten, die in einer Relation zueinander stehen.

PageRank Skala zwischen null und zehn für die Linkpopularität einer Webseite bei Google. Je mehr eingehende Verweise eine Webseite verzeichnen kann, desto höher ist ihr PageRank. Der Algorithmus wurde nach dem Google-Mitbegründer Larry Page benannt.

Phrasen sind im sprachwissenschaftlichen Konnex Wortgruppen mit einem regierenden Element als Kern. Dieser charakterisiert die Wortgruppe. So sind Wortgruppen wie «mein Haus» oder «Ihre Schilderung» Nominalphrasen, weil sie ein Nomen als Kern haben. Wortgruppen wie «aus dem Oberland» sind Präpositionalphrasen, weil sie eine Präposition als Kern haben. Entsprechend gibt es auch Verbalphrasen, Adjektivalphrasen, Adverbialphrasen usw.

Ranking Das Erstellen einer Rangfolge von Suchergebnissen nach bestimmten Kriterien aufgrund von Ranking-Algorithmen mit dem Ziel, die relevantesten Treffer für eine Anfrage möglichst weit oben zu platzieren.

Suchergebnisseiten In der SEO-Terminologie als SERPs bezeichnet. SERPs steht für Search Engine Results Pages. Wenn das Akronym SERP ohne Pluralendung verwendet wird, dann ist in der Regel die erste Suchergebnisseite gemeint.

Literatur