www.gma2011.de

Die Entstehung der Suchmaschinen und deren Geschichte
Die Methoden der Suchmaschinenoptimierung
Was machen eigentlich die Robots
Was wird im Ranking berücksichtigt

Die Entstehung der Suchmaschinen und deren Geschichte.html

Die großen Suchmaschinen bieten Informationen und Leitlinien für den Webmaster mit Indizierung und Optimierung Ihrer Website unterstützen : Google , Yahoo und MSN.

Sind nicht gefunden Erwähnungen der Optimierung für Suchmaschinen in Usenet vor 1997 , einige Jahre nach der Einführung der ersten Suchmaschinen. Die Betreiber der Suchmaschinen schnell erkannt einige Webmaster wurden die Bemühungen um Rang besser in den Suchmaschinen -Ranking , bis zu Manipulation Techniken verwenden . In den ersten Suchmaschinen, wie Infoseek wurde die erste Position des Rankings ohne große Schwierigkeiten erhalten, wie es Kommissionierung wurde der Quellcode der Seite besser in der Lage , legte auf der Seite selbst und senden Sie die Adresse , um sofort zu indizieren und Rang der Seite .

Google hat den Google Webmaster Tools , die um herauszufinden, ob es irgendein Problem der Indizierung der Website Webmaster innerhalb der Suchmaschine und bietet auch zahlreiche Verkehrsdaten in Google für Ihre Website hilft .

Yahoo! Site Explorer hat (in englischer Sprache ), die Sie auf Ihre URL kostenlos senden (sowie MSN und Google) erlaubt , erkunden Sie alle Web-Seiten von Yahoo! indexiert , zu sehen, welche sind die beliebtesten und bietet eine detaillierte Karte der Web-Seite , Ihre Seiten und Links.

Diese Websites ermöglichen auch die Schaffung von " Adwords ", das Anzeigen einer Website oder Geschäft auf dem Internet , die im Suchergebnis erscheinen für jemanden, der für alles im Zusammenhang mit diesem Produkt / Dienstleistung sind . Eine Möglichkeit, dass viele Unternehmen sind mit der Offenlegung und Internet -Marketing zu machen . Yahoo! Search Marketing hat ( in Englisch) und Google hat die Google Advertising Professionals

Die Methoden der Suchmaschinenoptimierung.html

Die White Hat SEO-Techniken sind im Wesentlichen die Empfehlungen der großen Suchmaschinen sind diese Empfehlungen Leitlinien, Empfehlungen, Verhaltensregeln, wo er erklärte, was wir tun können, ist, und was nicht akzeptabel ist. Beratung von einer Werbeagentur im Allgemeinen, um Inhalte für Benutzer generieren, nicht für Suchmaschinen, generieren Inhalte für ihre Spinnen, versuchen Sie nicht, um Ihr System zu betrügen. Es ist üblich, wenn einige Webmaster Fehler zur Design-Zeit zu machen oder die Programmierung Ihrer Website, damit "Vergiftung" sie macht gute Positionierung. White Hat SEOs arbeiten zu finden und diese Probleme zu beheben, wie Menüs unlesbar für Suchmaschinen, defekte Links, temporäre Umleitungen, auch bei schwachen Struktur Navigation.

Grundsätzlich kann man als White Hat SEO Domination gute Nutzung der Web-Programmierung zu verstehen.

Was machen eigentlich die Robots.html

Neue Standorte müssen nicht "vorgelegt" werden bei Suchmaschinen gelistet werden . Ein einfacher Link von einer Website gesetzt wurde bewirkt, dass die Suchmaschinen die neue Website zu besuchen und starten Mapping Inhalt . Dies kann mehrere Tage oder sogar Wochen für die Indexierung der bestehenden Verbindung auf einer Website bereits in allen wichtigen Suchmaschinen und Spinnen zu starten besuchen indiziert und die Indizierung der neuen Website zu nehmen.

Sobald die Suchmaschinen Ihre Website finden startet dann die Mapping-Informationen und Seiten auf der Website zur Verfügung gestellt , dass alle Seiten die Link-Tags verwenden mit Standard Hyperlinks. Links zu Seiten, die nur über Anwendungen in Flash oder Javascript sind, können nicht von Spinnen gefunden werden.

Webmaster können für eine gute Suchmaschinenoptimierung die Spyder anweisen nicht auf bestimmte Dateien oder Verzeichnisse über die Standard robots.txt -Datei als Reiter auf der Domain-Root kriechen. Diese Protokolle für die Suchmaschinen und Spinnen benötigen, um für die Existenz dieser Datei überprüft werden , wenn die einen Bereich betreten , und sogar eine Suchmaschinen-Spider oder halten Sie eine versteckte Kopie dieser Datei für den Einsatz auf den nächsten Besuch der Seiten der Website , kann nicht diese Kopie aktualisieren , sobald ein Webmaster. Das Geschäftsfeld der Web-Entwicklung können diese Ressourcen nutzen, um bestimmte Seiten wie Warenkörbe oder andere dynamische Inhalte zu verhindern erscheinen Inhalt spezifischen Verwendung von Operatoren in Suchmaschinen bisherigen Ergebnisse spyder können bestimmte Dateien zu behalten.

Spiders der Suchmaschinen -Systeme können beobachten eine abwechslungsreiche Reihe von Faktoren beim Surfen eine Website sind , und viele Seiten einer Website kann nicht von Suchmaschinen indexiert werden, bis sie mehr Verkehr oder PageRank oder Links zu erwerben. Der Abstand von den Seiten des Home-Verzeichnisses einer Website kann auch ein entscheidender Faktor , ob eine Seite von der Spinne wird navigiert werden , und andere wichtige Kennzahlen sein . Cho et al.7 beschrieben einige Muster für diese Entscheidungen , wenn eine besuchte Seite durch das Suchsystem indiziert werden müssen.

Für die Suchmaschinen, die ihr eigenes System zum Senden bezahlt (wie Yahoo! ) haben , können Sie Zeit , indem Sie eine Send- Wert zu speichern , jedoch zahlte die sendende Programm keine Garantie für die Aufnahme in seinen Suchergebnissen .

Was wird im Ranking berücksichtigt.html

Um Seiten zu klassifizieren , berücksichtigen Suchmaschinen die folgenden Aspekte:

Zeit der Registrierung der Domain (Domain Age)
Alter Inhalt
Häufigkeit des Inhalts: Regelmäßigkeit, mit der neue Inhalte hinzugefügt
Textgröße: Anzahl der Wörter über 200-250 ( nicht betroffen Google im Jahr 2005)
Age of Link und den Ruf der Website, die darauf
Standard- Features der Seite
Negative Werte auf der Features-Seite (zB auf Webseiten mit umfangreichen Einsatz von Meta-Keyword- Tags reduziert , was darauf hinweist , sie seien künstlich optimiert )
Originalität des Inhalts
Begriffe, die in der relevanten Inhalte verwendet ( Begriffe, die Suchenden assoziieren als mit dem Hauptthema der Seite stehen)
Google Pagerank (nur in den Google- Algorithmus verwendet wird)
Anzahl der externen Links, die für eine gute Suchmaschinenoptimierung durchaus wichtig sind, wie auch die Anker-Text in externer Links
Relevanz der Website, die Links zu Ihrer Website
Zitate und Quellen für die Forschung ( die den Inhalt ist die Qualität der Forschung )
Verwandte Begriffe in der Datenbank -Suchmaschine ( Finanzierung)
Negative Punkte für Links der Ankunft ( wahrscheinlich aus niedrigen Wert Seiten, wechselseitige Verbindungen der Anreise , etc..)
Rate des Erwerbs der Links Ankunft viele oder zu schnell kann darauf hindeuten, erhöhte Aktivität der Kauf kommerzielle Links
Text neben Links, die darauf hinweisen, und die Verbindungen der Anreise. Ein Link von den Worten begleitet " gesponserte Links " kann ignoriert werden
Verwenden Sie das Tag " rel = nofollow" , um die interne Website-Ranking formen
Tiefe des Dokuments auf der Website
Metrics aus anderen Quellen, wie z. B. die Überwachung der Häufigkeit, mit der Benutzer wieder zurück, wenn Sie sie senden SERPs zu einer bestimmten Seite ( Bouncerate ) gesammelt
Metrics aus Quellen wie Google Toolbar , Google AdWords / AdSense etc. gesammelt .
Metrics gesammelt Datenaustausch mit Dritten ( wie Anbieter von statistischen Programmen verwendet werden, um Traffic-Sites ( Websites überwachen ) )
Rate der Entfernung von Links, die auf der Website
Verwendung von Sub-Domains , die Verwendung von Keywords in Sub-Domains und Volumen des Inhalts auf Sub-Domains , mit negativen Noten für diese Tätigkeit
Semantic Verbindungen der Dokumente serviert
IP -Hosting-Service und die Anzahl / Qualität der anderen Webseiten gehostet gibt
Mit 301-Weiterleitungen anstelle von 302 -Weiterleitungen (temporäre )
Zeigen Sie einen Header 404 statt 200 für Seiten , die nicht
Der richtige Einsatz von robots.txt-Datei
Häufigkeit der Zeit -Server aktiv ist (Reliability )
Wenn die Website zeigt verschiedene Inhalte an verschiedene Arten von Benutzern oder Crawler ( Cloaking )
Links " gebrochen "
Unsichere oder illegale Inhalte
Qualität der HTML-Programmierung, Vorhandensein von Fehlern im Code
Realzins der Klicks von der Suchmaschine zu den Listen in den SERPs angezeigt beobachtet
Wichtigkeit Bewertung von Menschen auf den Seiten mit häufigeren Zugang gemacht - ODP
Ladegeschwindigkeit der Website und die Verwendung von CDN