Sie haben GhostBlog erfolgreich abonniert.
Toll! Schließen Sie als NĂ€chstes die PrĂŒfung ab, um vollen Zugriff auf GhostBlog zu erhalten.
Willkommen zurĂŒck! Sie haben sich erfolgreich angemeldet.
Erfolg! Ihr Konto ist vollstÀndig aktiviert, Sie haben nun Zugriff auf alle Inhalte.
Erfolg! Ihre Zahlungsinformationen werden aktualisiert.
Aktualisierung der Rechnungsinformationen fehlgeschlagen.
Eine kurze Geschichte der Suchmaschinenoptimierung

Eine kurze Geschichte der Suchmaschinenoptimierung

Mike Konia

Wenn heutzutage von Suchmaschinenoptimierung (SEO) die Rede ist, dann ist in der Regel die Optimierung fĂŒr Googles Suchmaschine gemeint. Die Praxis, die wir heute als SEO kennen, geht jedoch auf eine Zeit zurĂŒck, wo Google – die derzeit populĂ€rste Suchmaschine der Welt – noch nicht einmal existierte.

Bevor sich also der Terminus «Suchmaschinenoptimierung» etablierte, kamen noch andere Termini zur Anwendung. Wie zum Beispiel:

  • Suchmaschinenplatzierung
  • Suchmaschinenpositionierung
  • Suchmaschinenranking
  • Suchmaschinenregistrierung
  • Suchmaschineneintrag
  • Website-Promotion

Im Jahr 2001 schlug der prominente Branchenautor Danny Sullivan den Begriff «Suchmaschinenmarketing» als Nachfolger fĂŒr den Terminus «Suchmaschinenoptimierung» vor. Obwohl sich Sullivan mit diesem Substitut nicht durchsetzen konnte, gab er mit seinem Vorschlag die Richtung an. Heutzutage ist die Suchmaschinenoptimierung neben der Suchmaschinenwerbung (englisch: Search Engine Advertising oder SEA) selbstverstĂ€ndlicher Bestandteil des Suchmaschinenmarketings.

Suchmaschinen haben die Art und Weise, wie wir Informationen finden, Recherchen durchfĂŒhren, nach Produkten und Dienstleistungen suchen, uns unterhalten und mit anderen in Kontakt treten, verĂ€ndert. Hinter fast jedem Online-Inhalt – ob Website, Blog, soziales Netzwerk oder App – verbirgt sich eine Suchmaschine. Suchmaschinen sind zum Bindeglied und Richtungsweiser im Alltag geworden.

Aber wie hat das alles angefangen? Um zu verstehen, wie die Suchmaschinen und die Suchmaschinenoptimierung zu einem so wichtigen Teil unserer Welt geworden sind, enthÀlt der folgende Abschnitt eine Chronologie der bemerkenswertesten Meilensteine dieser Technologie.

Die «SEO-Wildwestzeit»

Im letzten Jahrzehnt des 20. Jahrhunderts setzte sich der Suchmaschinenmarkt aus vielen Mitbewerbern zusammen. Darunter fallen die Suchmaschinen von AltaVista, Ask Jeeves, Excite, Infoseek, Lycos und Yahoo. Wobei zwei Typen von Suchmaschinen miteinander wetteiferten. Solche, deren Verzeichnisse (Suchergebnisse) redaktionell betreut wurden, die bekannteste davon war Yahoo, und solche mit rein maschinell erstellten Verzeichnissen, so genannte Crawler-basierte Listen.

Zu dieser Zeit bestand die einzige Möglichkeit, SEO als On-Page-Optimierung zu betreiben. Bei der On-Page-Optimierung wird der Fokus auf qualitativ hochstehende und relevante Inhalte, lange Texte, fehlerfreies HTML sowie eine gewisse Menge von internen und externen Links gelegt. Allerdings hielten sich zu dieser Zeit nicht alle Player an diese Maxime. Um schnell eine gute Platzierung zu erreichen, genĂŒgte es, SchlĂŒsselwörter (Keywords) auf den Webseiten und im Meta-Tag-Bereich so oft wie möglich zu wiederholen. Wollte man also eine Seite, die hundert Mal ein Keyword verwendete, im Ranking Â ĂŒbertreffen, dann genĂŒgte es, das SchlĂŒsselwort zweihundert Mal zu verwenden. Heute wird diese Praxis als Keyword Stuffing (deutsch: «Wörter stopfen») bezeichnet.

Die Suchmaschinen-Highlights der 1990er Jahre

1994 Yahoo wird von den Studenten Jerry Wang und David Filo an der Stanford University entwickelt. Yahoo war ursprĂŒnglich eine Internet-Lesezeichenliste und ein Verzeichnis interessanter Webseiten. Webmaster mussten ihre Seite manuell zum Indizieren an das Yahoo-Verzeichnis senden, damit Yahoo sie finden konnte, wenn jemand eine Suche durchfĂŒhrte. In diesem Jahr nehmen auch die Suchmaschinenunternehmen AltaVista, Excite und Lycos ihre GeschĂ€ftstĂ€tigkeit auf.

1996 Larry Page und Sergey Brin, zwei Studenten der Stanford University, entwickeln Backrub, eine neue Suchmaschine, die Websites nach Relevanz und Beliebtheit eingehender Links, so genannter «Inbound Links» , klassifiziert. Aus Backrub wird letztendlich Google.

1998 Mit GoTo.com taucht erstmals ein Unternehmen auf dem SEO-Markt auf, das erfolgreich einen «Pay-for-Placement»-Suchdienst anbietet. Es begann mit dem Kauf von World Wide Web Worm, einer der Ă€ltesten Suchmaschinen ĂŒberhaupt. GoTo.com gilt als einflussreicher Pionier der bezahlten Suche. 2013 wird die Firma GoTo.com, die sich 2001 in Overture Services, Inc. umbenannt hat, von Yahoo ĂŒbernommen.

Im gleichen Jahr wird auch das Unternehmen DMOZ gegrĂŒndet. Das Akronym DMOZ ist vom Domainnamen directory.mozilla.org abgeleitet. DMOZ – auch bekannt unter dem Namen Open Directory Project – war ein mehrsprachiges Webverzeichnis von thematisch geordneten Linklisten. EintrĂ€ge in diesem Verzeichnis wurde anfangs von Google sehr hoch bewertet. Im dritten Quartal des Jahres schliesslich kommt auch Microsoft mit MSN Search auf den Suchmaschinenmarkt.

1999 Die allererste Search-Marketing-Konferenz, Search Engine Strategies (SES), findet statt. Und die Firma Google meldet eines ihrer ersten Forschungsarbeiten zu semantischen Fragestellungen unter dem Titel «Extracting Patterns and Relations from Scattered Databases Such as the World Wide Web» zum Patent an.

Die Google-Revolution

Im Jahr 2000 fĂ€llt Yahoo einen folgenreichen Entscheid: Es schliesst sich mit Google zusammen, um kĂŒnftig deren organische Suchergebnisse  anstelle seines bisherigen Partners, Inktomi, zu nutzen. Bis zu diesem Zeitpunkt war Google eine wenig bekannte Suchmaschine. Doch von nun an stand unter jedem Suchergebnis von Yahoo «Powered by Google». Damit wurde Google schlagartig bekannt und es war nur noch eine Frage der Zeit, bis das Unternehmen zum grössten Konkurrenten von Yahoo avancierte.

Googles Webcrawler mit seinem von Larry Page und Sergey Brin 1996 in Stanford entwickelten «PageRank»-Algorithmus waren fĂŒr das Abrufen von Informationen im Web revolutionĂ€r. Bis in die zweite HĂ€lfte der 1990er Jahre stuften Suchmaschinen Websites hauptsĂ€chlich auf der Grundlage des On-Page-Inhalts, der Domain-Namen, der Listung in Webverzeichnissen und der Sitestruktur ein. Der Webcrawler von Google dagegen untersuchte sowohl On-Page- als auch Off-Page-Faktoren, also die Anzahl und QualitĂ€t der externen Links, die auf eine Website verweisen.

Im Wesentlichen ist Googles PageRank-Algorithmus darauf ausgelegt, Inhalte, die bei den Nutzern beliebt sind und deswegen verlinkt werden, als relevant zu taxieren. Relevanz ist fĂŒr PageRank kein inhaltliches, sondern reines Mengenkriterium: Je mehr ein bestimmter Inhalt verlinkt wird, desto wichtiger scheint dieser zu sein, also wird er vom Algorithmus auch besser bewertet und erscheint auf den Suchergebnisseiten  weiter vorne.

Neben den organischen Suchergebnissen wurden ab 2000 auch bezahlte, von Google als Google AdWords (im Juli 2018 zu Google Ads umbenannt) vermarktete, Suchanzeigen angezeigt. Diese bezahlten Suchanzeigen wurden oberhalb, unterhalb und rechts von den unbezahlten (organischen) Suchergebnissen geschaltet.

Im selben Jahr traf sich auch eine Gruppe von Webmastern informell in einem Pub in London, um sich ĂŒber «sĂ€mtliche» Aspekte der Suchmaschinenoptimierung auszutauschen. Dieses informelle Treffen mutierte schliesslich zu Pubcon, eine grosse Konferenzreihe, die noch heute jeden Herbst im Las Vegas Convention Center stattfindet und an der seit ihrer GrĂŒndung ĂŒber 30 000 SEO-Fachleute teilnahmen.

Nach der Übernahme der Blogplattform «Blogger.com» startete Google 2003 «AdSense». Mit AdSense werden kontextbezogene Werbeanzeigen auf den Webseiten der Herausgeber geschaltet. Dazu analysiert Google die einzelne Seite auf ihren thematischen Gehalt und blendet dann möglichst passende Werbeanzeigen ein. Klickt ein Besucher darauf, erhĂ€lt die Website-Herausgeberin eine VergĂŒtung. Die Mischung aus AdSense und Webpublishing, die Möglichkeit also beim Webpublishing Geld zu verdienen, fĂŒhrte ganz allgemeinen zu einem starken Anstieg des monetarisierten Webpublishings. Im Blogbereich allerdings löste die Übernahme von Blogger.com und die Lancierung von AdSense durch Google geradezu einen Boom aus.

Lokales SEO und Personalisierung

Um 2004 beginnen Google und andere fĂŒhrende Suchmaschinen, die Ergebnisse fĂŒr Anfragen mit geografischer Ausrichtung – z. B. nach einem Restaurant oder Handwerker vor Ort – zu verbessern. 2006 fĂŒhrt Google dann die «Maps Plus Box» ein.

Screenshot der von Google 2006 eingefĂŒhrten Maps Plus Box
Von Google 2006 eingefĂŒhrte «Maps Plus Box». Nach der Sucheingabe «Kotobuki» erscheint der Eintrag «Kotobuki Japanese Restaurant» (Bild links). Klickt man auf das Pluszeichen, poppt ein eingebetteter, dynamischer Stadtplan auf (Bild rechts). Zu dieser Zeit eine kleine Sensation.

Um das Jahr 2004 beginnen die Suchmaschinen auch, Endnutzerdaten wie Suchverlauf und Suchinteressen stÀrker zu nutzen, um die Suchergebnisse zu personalisieren. Dies bedeutete, dass die Ergebnisse, die bei der einen Nutzerin ausgespielt wurden, sich von denen unter-scheiden konnten, die ein unmittelbar benachbarter Nutzer bei identischer Suchabfrage auf seinem GerÀt zu sehen bekam.

Der Beginn des semantischen Webs

Im MĂ€rz 2005 reicht Google beim US Patent and Trademark Office ein Patent ein, in dem beschrieben wird, wie Google auf Suchanfragen direkte Antworten geben kann. Bis dahin haben Suchmaschinen wie Google, Bing und Yahoo keine kurz gefassten, direkten Antworten auf Suchanfragen gegeben. Stattdessen wurde eine Liste von Links zu Webseiten angezeigt, auf denen diese Antworten möglicherweise gefunden werden können. Es war aber den Usern ĂŒberlassen, diese Liste zu durchsuchen. Glaubten sie fĂŒndig geworden zu sein, brauchten sie immer noch auf den Link zu klicken. Einmal auf der Zielseite angekommen, musste die Seite zur Auffindung der gesuchten Antwort von den Nutzern dann auch noch «geskimmt und gescannt», also mittels ĂŒberfliegenden Lesens, durchsucht werden. Im schlechtesten Fall fanden die Suchenden nach all dem Aufwand immer noch keine befriedigende Antwort.

Mit Googles patentierter Lösung konnte dieser langwierige Suchprozess nun massiv verkĂŒrzt werden. Bereits im April nimmt Google in seinem Blog unter der Überschrift «Just the Facts, Fast» Bezug auf dieses Patent, ohne allerdings das Patent selber zu erwĂ€hnen: «Have you ever needed a piece of info right now? Today we're excited to introduce Google Q&A. We've pulled together facts from all over the Web to help give you the fastest possible access to the quick bits of information you need every day; just type a query into the search box, and you'll get back the answer at the top of your search results» (Google, 2005).

Screenshot einer direkten Antwort von Google auf die Suchanfrage «photoshop line tool thickness».
Googles direkte Antworten auf Nutzeranfragen erscheinen auf der Suchergebnisseite oberhalb der ersten 10 Links.

Nach EinschÀtzung des SEO-Experten Bill Slawski könnte dieses Patent von Google unter anderem eine Reaktion auf einen von Tim Berners-Lee 2001 publizierten Artikel sein). In dieser Publikation mit dem Titel «The Semantic Web: A New Form of Web Content That is Meaningful to Computers Will Unleash a Revolution of New Possibilities», die Berners-Lee zusammen mit James Hendler und Ora Lassila verfasst hat, stellen die Verfasser die These in den Raum, das semantische Web sei eine Erweiterung des herkömmlichen Webs, in dem Informationen mit eindeutigen Bedeutungen versehen werden, um die Arbeit zwischen Mensch und Maschine zu erleichtern.

Doch der Fokus auf Semantik ist bei Google schon weit vor 2005 zu erkennen. Ein Blick in die Patent-Suche von Google lĂ€sst dieses vermuten. So hat Google schon seit dem Jahr 2000 einige Patente mit Blick auf semantische Analysen von Suchanfragen und Dokumenten gezeichnet wie zum Beispiel die Patente «Identification of semantic units from within a search query» im Jahr 2000 und «Document ranking based on semantic distance between terms in a document» im Jahr 2004. Es ist davon auszugehen, dass Google sich schon seit der GrĂŒndung im Jahr 1998 mit der Entwicklung einer Suchmaschine mit EinflĂŒssen aus der Semantik auseinandersetzt.

2007 erklĂ€rte die damalige Verantwortliche fĂŒr die Suche und User Experience bei Google, Marissa Mayer, in einem Interview mit IDG News Service, dass Google derzeit zwar sehr gut mit Keywords umgehen könne, aber diese Reduzierung auf SchlĂŒsselwörter sei nicht wirklich befriedigend. Menschen sollte es ermöglicht werden, einer Suchmaschine syntaktisch vollstĂ€ndige Fragen zu stellen und Google sollte in der Lage sein, die Bedeutung dieser Fragen zu verstehen. Allein dies genĂŒge aber noch immer nicht. Vielmehr mĂŒssten Menschen mit der Suchmaschine ĂŒber Dinge auf konzeptioneller Ebene  sprechen können. Google stelle in der Tat fest, dass Menschen Suchmaschinen konzeptbasierte Fragen stellen und nicht einfach nur Stichwörter ins Suchfeld eingeben.

Marissa Mayer zeigt sich im Interview davon ĂŒberzeugt, dass Suchmaschinen in naher Zukunft in der Lage sein werden, mit konzeptbasierten Fragen umgehen zu können, dazu sei aber ein entscheidender Schritt Richtung semantisches Web notwendig.

Googles Universal Search und Microsofts Suchmaschinen-Desaster

Nicht direkt im Zusammenhang stehend mit der semantischen Suche, aber doch erwĂ€hnenswert sind weitere wichtige Entwicklungen, die zwischen 2007 und der EinfĂŒhrung des Knowledge Graphs 2012 stattfinden und fĂŒhr die Suchmaschinenoptimierung von Bedeutung sind. Zu erwĂ€hnen ist da zum Beispiel die EinfĂŒhrung von Googles Universal Search, auch «Blended Search» oder «Enhanced Search, im Jahr 2007. Bis anhin bestanden die Suchergebnisse auf der Suchergebnisseite aus 10 blauen Links. Mit Universal Search beginnt Google, traditionelle organische Suchergebnisse mit anderen Arten von vertikalen Ergebnissen wie Nachrichten, Videos und Bildern zu vermischen (deshalb «Blended Search», blended = englisch fĂŒr vermischen). Wer nach visuellen Themen sucht, bekommt eine Bildereinblendung zu sehen, die mit Googles Bildersuche verlinkt ist. Bei aktuellen Themen kann ein Verweis auf die Schlagzeilen von Google News erfolgen. Lokale Suchanfragen fĂŒhren oft zu einer Einblendung von lokalen Ergebnissen aus Google Maps.

Im September 2006 begrĂ€bt Microsoft seine Suchmaschine MSN Search und lanciert dessen Nachfolger Live Search mit dem Ziel, Googles Dominanz zu brechen. Gut zweieinhalb Jahre spĂ€ter, Ende Mai 2009, ersetzt Microsoft Live Search durch die Suchmaschine Bing. Vom Bestreben beflĂŒgelt, dem kontinuierlich wachsenden Marktanteil von Google Einhalt zu gebieten, verkĂŒnden Yahoo und Microsoft im Juli 2009 eine Vereinbarung zu einer «Suchallianz». Im Abkommen mit einer Laufzeit von 10 Jahren verstĂ€ndigen sich die beiden Vertragsparteien darauf, dass Yahoos bisherige Suchmaschine durch Bing ersetzt wird.

Dank dieser Vereinbarung rĂŒckt Bing auf dem Suchmaschinenmarkt auf den zweiten Platz vor, doch gelingt es der Allianz letztendlich nicht, die haushohe MarktfĂŒhrerschaft von Google zu brechen. 2019, gut 10 Jahre nach dieser Vereinbarung, erreicht Bing noch einen Marktanteil von 8,24 Prozent, verglichen mit 75,5 Prozent bei Google und 10,47 Prozent bei Baidu. Auf MobilgerĂ€ten ist Bing mit einem Nutzungsanteil von nur gerade 0,82 Prozent praktisch inexistent.

Panda – Update mit grosser Auswirkung bis heute

Google verbessert seinen Suchalgorithmus kontinuierlich. Bei bis zu mehreren 100 oft geringfĂŒgigen Aktualisierungen im Jahr finden die meisten davon kaum Beachtung. Eine wichtige Aktualisierung, das Panda-Update im Jahr 2011, hatte jedoch grosse Auswirkung auf die Suchmaschinenoptimierung, die bis heute nachwirkt.

Um 2011 musste Google vermehrt zur Kenntnis nehmen, dass die Suchergebnisse auf seinen Suchergebnisseiten (SERPs) von so genannten «Content Farms» dominiert wurden. Im Internet-Kontext ist eine Content Farm (oder Content Mill) ein Unternehmen, das in hoher Frequenz Inhalte produziert, die einzig darauf ausgerichtet sind, den Algorithmen der Suchmaschinen zu genĂŒgen, mit dem Ziel, eine grosse Anzahl an Seitenaufrufe und somit Werbeeinnahmen zu generieren. Zudem fanden sich in den vorderen Suchergebnissen auch EintrĂ€ge von so genannten Scraper Sites sowie automatisch generierte Inhalte. Bei Scraper Sites handelt es sich um Websites, die «ihre» Inhalte von anderen Webseiten kopieren. Diese kopierten Inhalte rankten in einige FĂ€llen sogar besser als die Originale.

Mit dem Panda-Update von 2011 wollte Google diesen Manipulationen Einhalt gebieten. Inhalte allein fĂŒr die Suchmaschine zu optimieren, sollte nicht mehr ausreichen, um eine gute Platzierung in den SERPs zu erzielen. Vielmehr sollte der Usernutzen in den Vordergrund gestellt werden. Zum Usernutzen gehört zum einen gute Usability; also schnell ladende Webseiten, schnell auffindbare Inhalte sowie barrierefreier Zugang zu den Inhalten. Zum anderen mĂŒssen Informationen vollstĂ€ndig sein. Mit anderen Worten: Das auf einer bestimmten Webseite behandelte Thema soll keine Fragen offen lassen. Beides, Usability und InformationsvollstĂ€ndigkeit, sind, neben weiteren Faktoren, zwingend fĂŒr qualitativ hochwertige Inhalte. Mit dem Panda-Algorithmus konnte Google den eigenen Anspruch an eine hohen Usernutzen erfĂŒllen, nĂ€mlich den Usern auf den Suchergebnisseiten qualitativ hochwertige Websites aufzulisten.

Der Knowledge Graph – die Wende zum semantischen Web

Im Mai 2012 stellt Google den Knowledge Graph vor. Mit der EinfĂŒhrung des Knowledge Graphs vollzieht Google die entscheidende Wende von der reinen Interpretation von SchlĂŒsselwortketten zum semantischen Web.

Der Knowledge Graph ist im Kern eine Wissensdatenbank, in der Informationen ĂŒber Personen, Orte und Ereignisse, so genannte EntitĂ€ten, sowie die BezĂŒge zueinander (Ontologien ) gespeichert sind. Zur Zusammenstellung der Daten nutzt Google einen Algorithmus, der verschiedenen Quellen nach strukturierten und semistrukturierten Daten durchforstet. Zu diesen Quellen gehören unter anderen Wikidata (strukturierte Daten) und Wikipedia bzw. Wikimedia (semistrukturierten Daten). Dank des Knowledge Graphs ist Google in der Lage, inhaltlich der Suchabfrage entsprechende Suchresultate auszugeben, ohne dass die suchende Person die EntitĂ€t namentlich abgefragt hat.

Hummingbird – der Algorithmus fĂŒr mobile Nutzer

Der nĂ€chste Schritt in der Evolution der Google-Suchalgorithmen erfolgt im September 2013 in Form von Hummingbird, einem Algorithmus, mit dem einerseits Abfragen in natĂŒrlicher Sprache (Abfragen in gesprochener Sprache), andererseits komplexe Suchabfragen besser adressiert werden können. Mit dem Aufkommen der Mobil- (und Sprachsuche) musste Google die Funktionsweise seines Algorithmus vollstĂ€ndig ĂŒberarbeiten, um diesen neuen Anforderungen gerecht zu werden. Hummingbird gilt bis zum Zeitpunkt seiner EinfĂŒhrung als die umfangreichste Änderung am Kernalgorithmus von Google seit 2001. Mit dem Update bezweckte Google offensichtlich, schnellere und relevantere Ergebnisse insbesondere fĂŒr mobile Nutzer zu liefern.

Maschinelles Lernen, KI und intelligente Suche

Im Oktober 2015 stellt Google den «RankBrain»-Algorithmus vor. RankBrain nutzt Machine Learning, ein Teilbereich der kĂŒnstlichen Intelligenz, um riesige Mengen an geschriebener Sprache in mathematische Einheiten – sogenannte Vektoren – einzubetten. Diese Einbettung in Vektoren ist eine Voraussetzung, damit der Computer geschriebene Sprache ĂŒberhaupt erst «verstehen» kann. Wenn RankBrain bei der Analyse einer Suchanfrage auf ein Wort oder eine Phrase trifft, das bzw. die ihm nicht bekannt ist, kann der Algorithmus eine Vermutung anstellen, welche Wörter oder Phrasen eine Ă€hnliche Bedeutung haben könnten, und das Ergebnis entsprechend filtern, um so diese neuen, unbekannten Suchanfragen angemessen zu bearbeiten.

2017 schliesslich erklĂ€rt Google-CEO Sundar Pichai Google zum «AI-first»-Unternehmen. AI steht fĂŒr das englischsprachige artificial intelligence, zu deutsch «kĂŒnstliche Intelligenz» oder kurz: «KI». Zum 20. Geburtstag von Google, im September 2018 dann, gibt Google an einer Presskonferenz den Einsatz von «Neural Matching» bekannt. 11 Jahre nachdem Marissa Mayer im Interview mit IDG News Service darlegte, dass es nicht genĂŒge, allein die Bedeutung von Wörtern und Phrasen zu erkennen, sondern dass Suchmaschinen vielmehr konzeptbasierte Fragestellungen verstehen mĂŒssen und dass sie ĂŒberzeugt sei, Google kriege das in naher Zukunft hin.

In einem Tweet vom 24. September 2018 prĂ€zisiert Danny Sullivan, MitbegrĂŒnder von Search Engine Land und seit 2017 Mitarbeiter bei Google, dank der kĂŒnstlichen Intelligenz des Neural-Matching-Algorithmuses sei es nun besser möglich, Wörter mit Konzepten in Verbindung zu bringen. Und Google SearchLiaison twittert am 21. MĂ€rz 2019, der Algorithmus sei in der Lage, bei einer Frage wie «Warum sehen die Filme auf meinem Fernsehen so komisch aus?» einen direkten Zusammenhang mit dem Konzept des Soap-Opera-Effekts herzustellen. Worauf Google SuchergebniseintrĂ€ge rund um das Thema «Soap-Opera-Effekt» ausspiele – obwohl bei der Suchabfrage die Nominalphrase «Soap-Opera-Effekt» nicht eingegeben wurde.

Fazit

Suchmaschinen und Suchmaschinenoptimierung haben seit den 1990er Jahren einen weiten Weg zurĂŒckgelegt. Der Weg war geprĂ€gt von dramatischen Wendungen: aufstrebende Start-ups verdrĂ€ngten mit neuen SERP-Funktionen, neuen Algorithmen und permanenten Aktualisierungen altgediente Suchmaschinen vollstĂ€ndig vom Markt; erstklassige SEO-Publikationen wurden publiziert, SEO-Konferenzen abgehalten, Instrumente zur Suchmaschinenoptimierung entwickelt und aus Geeks wurden SEO-Experten.

WĂ€hrend sich Suchmaschinen und Suchmaschinenoptimierung im Laufe der Jahre also stark weiterentwickelt haben, bleibt eines bestehen: Solange es Suchmaschinen gibt, wird die Suchmaschinenoptimierung ihren gewichtigen Beitrag zur Verbesserung der Sprachbeziehung zwischen Mensch und Maschine leisten.

Fachegriffe kurz erklÀrt

Inbound Links Hypertextuelle Verweise, die von einer Seite auf eine andere eingehen. Verweist A auf B, ist der Link auf B ein eingehender Link. Inbound Links spielen bei der Berechnung der LinkpopularitÀt eine zentrale Rolle.

Konzepte Sprachwissenschaftlich sind Konzepte «Konstellationen von Wissen».

Meta-Tag-Bereich Festgelegter, unsichtbarer Bereich einer Webseite, der Informationen zum Dokument selbst bereitstellt. FĂŒr Suchmaschinen ist dieser Bereich einsehbar, nicht aber fĂŒr Webnutzer.

Organische Suchergebnisse Als «organisch» werden diejenigen Suchergebnisse bezeichnet, die von einer Suchmaschine auf Grund einer Suchanfrage gelistet werden, fĂŒr die aber nicht bezahlt wurde. Bei den bezahlten Listungen spricht man dagegen von «gekauften» Suchergebnissen. Diese werden pro Klick abgerechnet.

Ontologien stellen in der Semantik ein Umfeld dar, in dem EntitÀten in Beziehung zueinander gestellt werden. So ist z. B. die Autobranche eine Ontologie, Hersteller von Autos wie Mercedes oder Autozulieferer wie Autoneum sind EntitÀten, die in einer Relation zueinander stehen.

PageRank Skala zwischen null und zehn fĂŒr die LinkpopularitĂ€t einer Webseite bei Google. Je mehr eingehende Verweise eine Webseite verzeichnen kann, desto höher ist ihr PageRank. Der Algorithmus wurde nach dem Google-MitbegrĂŒnder Larry Page benannt.

Phrasen sind im sprachwissenschaftlichen Konnex Wortgruppen mit einem regierenden Element als Kern. Dieser charakterisiert die Wortgruppe. So sind Wortgruppen wie «mein Haus» oder «Ihre Schilderung» Nominalphrasen, weil sie ein Nomen als Kern haben. Wortgruppen wie «aus dem Oberland» sind PrÀpositionalphrasen, weil sie eine PrÀposition als Kern haben. Entsprechend gibt es auch Verbalphrasen, Adjektivalphrasen, Adverbialphrasen usw.

Ranking Das Erstellen einer Rangfolge von Suchergebnissen nach bestimmten Kriterien aufgrund von Ranking-Algorithmen mit dem Ziel, die relevantesten Treffer fĂŒr eine Anfrage möglichst weit oben zu platzieren.

Suchergebnisseiten In der SEO-Terminologie als SERPs bezeichnet. SERPs steht fĂŒr Search Engine Results Pages. Wenn das Akronym SERP ohne Pluralendung verwendet wird, dann ist in der Regel die erste Suchergebnisseite gemeint.

Literatur