Jump to content
xt:Commerce Community Forum

[SOLVED] Google indiziert mit sessions - wie vermieden?


prost

Recommended Posts

Hallo, wie kann man vermeiden, das google meine Seiten mit sessions indiziert. Ich finde meines Seiten so in den Suchergebnissen: http://www.meineseite/artikel.html?l...8b3e2fc10a4c7d.

Bei Crawlingfehlern (sichtbar in Webmastertools) sagt mir google, dass er über 680 Seiten nicht finden kann.

Simaps erstelle ich mit phpSitemapNG, die sehen alle sauber aus und enthalten keine Sessions.

Vor einger Zeit habe ich unter Einstellungen/Konfiguration/Performance den Punkt "Datenbank Hooks verwenden:" auf nein gestellt. Kann das daran liegen? Ich habe ihn wieder auf die Standardstellung "true" zurückgesetzt.

Einstellungen/Konfiguration/Suchmaschinen sieht so aus:

Mod Rewrite URL: true

404 Seite bei falscher Url: true

Sperre SEO Url manuell bearbeiten:false

Meta Keywords - min. Wortlänge:2

Meta Keywords - max Zeichen:800

Meta Keywords - max. Wörter:30

Dateiendung der Seo Urls:html

Sprachabhängige Seo Urls:true

Produkt-URLS mit Kategorien:true

Ich bin am verzweifeln. Kann mir jemand helfen?

Link to comment
Share on other sites

ja das ist die lösung, das unterbinden der session id ist nut für bereits indexierte links.

Das sollten wir im Rahmen des Servicevetrages diskutieren. Es ist nicht die Lösung, da google verschiedene Sessions indiziert hat und man nicht täglich die robots.txt damit vollknallen kann. Ich habe nunmehr xaf26a und x6ba59. kommen da noch mehr? Kann man diese mit Sessions indizierten Seiten nicht per htaccess umleiten? DAs wäre ja schon mal eine Hilfe.

Link to comment
Share on other sites

google konnte nur xaf26a indexieren, wenn x6ba59 indexiert wurde dann hat hier der administrator gepatzt und irgendwo einen hardcodierten link in das template integriert.

Das werde ich überprüfen. Was ist mit der Umleitung per htaccess?

Link to comment
Share on other sites

per robots.txt die session unterbinden...

.

...was genau muss ich dazu tun? In der Sitemap findet google lediglich 1 indizierte URL...crawling fehler gibts auch kaum....aber die Links sehen halt "doof" aus....

Zudem exportiere ich die Artikel für Google Base per Cronjob(domainfactory) einmal täglich neu, aber wenn das automatisch über den cronjob passiert, und ich mir dann die textdatei anschaue, dann sind die Artikellinks auch mit sessions versehen (x371e3) führe ich den export manuell aus, dann ist alles korrekt...ist das normal??? Wie kann ich das ändern bzw. was mache ich falsch?

Link to comment
Share on other sites

google konnte nur xaf26a indexieren, wenn x6ba59 indexiert wurde dann hat hier der administrator gepatzt und irgendwo einen hardcodierten link in das template integriert.

Der Templatebauer hatte tatsächlich ein Logo hart verlinkt. Das ist am 24.10.09 entfernt worden. Google war am 22.10. da und hat 9.733 Seiten per robots.txt (Crawling-Fehler) gesperrt. Hier frage ich mich, welche Auswirkungen das hat. Was wurde denn im neu runterzuladenden xt-framework geändert (das habe ich am 21.10.09 neu eingespielt)? Wie müßte das normal aussehen? Gibt es noch mehr Veyton-Nutzer, die mit Sessions indiziert wurden? Werden die Domains nunmehr auch ohne den Sessionkey in den google-index aufgenommen?

Link to comment
Share on other sites

Ich habe auch gerade mal die Datei ausgetauscht weil ich eine alte Version hatte, den Veyton Cache geleert und dann meinen Shop über die neue "Abruf wie beim Googlebot"-Funktion der Webmaster Tools geprüft.

Leider erscheinen da immer noch unzählige xaf26a-Links...

@prost: wie sieht das denn bei dir aus?

Wie setzt man denn einen korrekten Link zu einer Kategorie im Template?

Für Content Links geht es ja wohl so:

{link page=content seo_url='Impressum'}

... aber wie adressiert man eine spezifische Kategorie?

und wie adressiere ich die Startseite als '/' anstatt als '/index.php&page=index', was nämlich bei

{link page=index} passiert.

Link to comment
Share on other sites

Habe heute nochmals die class.agent_check.php getauscht und bin gespannt. (Die vo0m 21.10. enthielt noch einen bug) Der Abruf wie beim Googlebot in Webmastgertools sieht aus wie immer. Nur die ssl-Domains haben die Sessions dran. Ich bin jetzt bei satten 48.876 gesperretn Seiten (durch die robots.txt). Ich habe die Seite nochmals mit Hello Engines geprüft und die Links sehen sauber aus.

Link to comment
Share on other sites

bzgl cronjob müsstest du ansehen welchen useragent dieser verwendet, und diesen über die bots.txt (library/bots/) in die bot erkennung einschließen.

...den Useragent habe ich mittlerweile rausgefunden, das löst das Problem aber nicht, die Session wird immer noch gesetzt, sowohl beim manuellen Aufruf, als auch bei dem Aufruf durch den Cronjob! ...

...was kann ich sonst tun?! Jemand eine Idee?

Link to comment
Share on other sites

Hallo und Guten Tag,

ich habe folgenden Sessionfehler:

Warnung: Das Verzeichnis für die Sessions existiert nicht: /tmp. Die Sessions werden nicht funktionieren bis das Verzeichnis erstellt wurde!

Der war plötzlich da. Wie kann ich den abschalten oder wo muss ich etwas verstellen?

Danke Frank

Link to comment
Share on other sites

Ordner xtFramework, sofern man eine 4.0.12 aus den ersten tagen geladen hat.

bzw sollte reichen diese datei /xtFramework/classes/

die class.agent_check.php

( # @version $Id: class.agent_check.php 3875 2009-10-23 14:57:36Z mzanier $ )

löste bei mir beim ersten Aufruf des Shops eine Fehlermeldung aus.

Hab Zeile 49 angepasst:

vorher: $bots[] = trim(fgets($bf, 4096));

nachher: if(trim(fgets($bf, 4096)) != "" ) $bots[] = trim(fgets($bf, 4096));

Gruß

Torsten

Link to comment
Share on other sites

Wäre gut, wenn das Thema irgendwo übersichtlich abgehandelt wird. Wenn ich hier im Forum suche, dann tauchen viele Informationen auf, die noch Vorgängerversionen von Veyton betreffen.

Bei unserem Veyton-Shop listet Google mittlerweile auch über 200 nicht gefundene Seiten auf, weil die Session-Id mitgespidert wird. Ist es nun sicher und notwendig, die class.agent_check.php auszutauschen?

Und wie sollte robots.txt aussehen, damit die bereits indexierten Links weggelassen werden?

Link to comment
Share on other sites

Durch den Austausch der agent.php wird das Problem gelöst. Die findest Du in diesem thread hier weiter vorn zum Download. Für die robots.txt schau Dir bei google an, welche Seiten mit sessons indexiert wurde (site:www.deinedomain.de) und schreibe Disallow: /*xaf26a= , Ich weiß nur nicht ob der tag "xaf26a=" auch Deiner ist, da musst Du mal in den Suchergebnissen nachschauen.

Link to comment
Share on other sites

... aber wie adressiert man eine spezifische Kategorie?

und wie adressiere ich die Startseite als '/' anstatt als '/index.php&page=index', was nämlich bei

{link page=index} passiert.

Würde mich auch interessieren.

Darf man in im Content direkt eigentlich harte links nehmen!? oder gibt das auch Probleme?

Im übrigens besteht der Fehler bei mir immernoch. Obwohl ich im Template nirgends hart verlinkt habe!

Link to comment
Share on other sites

Archived

This topic is now archived and is closed to further replies.

×
  • Create New...