prost Posted October 17, 2009 Report Share Posted October 17, 2009 Hallo, wie kann man vermeiden, das google meine Seiten mit sessions indiziert. Ich finde meines Seiten so in den Suchergebnissen: http://www.meineseite/artikel.html?l...8b3e2fc10a4c7d. Bei Crawlingfehlern (sichtbar in Webmastertools) sagt mir google, dass er über 680 Seiten nicht finden kann. Simaps erstelle ich mit phpSitemapNG, die sehen alle sauber aus und enthalten keine Sessions. Vor einger Zeit habe ich unter Einstellungen/Konfiguration/Performance den Punkt "Datenbank Hooks verwenden:" auf nein gestellt. Kann das daran liegen? Ich habe ihn wieder auf die Standardstellung "true" zurückgesetzt. Einstellungen/Konfiguration/Suchmaschinen sieht so aus: Mod Rewrite URL: true 404 Seite bei falscher Url: true Sperre SEO Url manuell bearbeiten:false Meta Keywords - min. Wortlänge:2 Meta Keywords - max Zeichen:800 Meta Keywords - max. Wörter:30 Dateiendung der Seo Urls:html Sprachabhängige Seo Urls:true Produkt-URLS mit Kategorien:true Ich bin am verzweifeln. Kann mir jemand helfen? Link to comment Share on other sites More sharing options...
badausstattung24.de Posted October 17, 2009 Report Share Posted October 17, 2009 Hallo. Wird bereits von den Machern bearbeitet. Link to comment Share on other sites More sharing options...
prost Posted October 17, 2009 Author Report Share Posted October 17, 2009 Wird bereits von den Machern bearbeitet. D.h. da ist ein Ticket offen bei der Fa. xt-commerce? Oder gibt es hier im Forum noch was dazu? Ich konnte irgendwie nichts finden. Link to comment Share on other sites More sharing options...
prost Posted October 23, 2009 Author Report Share Posted October 23, 2009 Bei mir geschah das mit den update auf die v12. xt sagt: nochmals updaten und per robots.txt die session unterbinden. das kann doch aber nicht die lösung sein Hat denn noch jemand das Problem? . Link to comment Share on other sites More sharing options...
mzanier Posted October 23, 2009 Report Share Posted October 23, 2009 ja das ist die lösung, das unterbinden der session id ist nut für bereits indexierte links. Link to comment Share on other sites More sharing options...
amilo Posted October 23, 2009 Report Share Posted October 23, 2009 Hallo, welche Datei muss denn ausgetauscht werden? MfG. Hansen Link to comment Share on other sites More sharing options...
mzanier Posted October 23, 2009 Report Share Posted October 23, 2009 Ordner xtFramework, sofern man eine 4.0.12 aus den ersten tagen geladen hat. bzw sollte reichen diese datei /xtFramework/classes/class.agent_check.zip Link to comment Share on other sites More sharing options...
prost Posted October 23, 2009 Author Report Share Posted October 23, 2009 ja das ist die lösung, das unterbinden der session id ist nut für bereits indexierte links. Das sollten wir im Rahmen des Servicevetrages diskutieren. Es ist nicht die Lösung, da google verschiedene Sessions indiziert hat und man nicht täglich die robots.txt damit vollknallen kann. Ich habe nunmehr xaf26a und x6ba59. kommen da noch mehr? Kann man diese mit Sessions indizierten Seiten nicht per htaccess umleiten? DAs wäre ja schon mal eine Hilfe. Link to comment Share on other sites More sharing options...
mzanier Posted October 23, 2009 Report Share Posted October 23, 2009 google konnte nur xaf26a indexieren, wenn x6ba59 indexiert wurde dann hat hier der administrator gepatzt und irgendwo einen hardcodierten link in das template integriert. Link to comment Share on other sites More sharing options...
prost Posted October 23, 2009 Author Report Share Posted October 23, 2009 google konnte nur xaf26a indexieren, wenn x6ba59 indexiert wurde dann hat hier der administrator gepatzt und irgendwo einen hardcodierten link in das template integriert. Das werde ich überprüfen. Was ist mit der Umleitung per htaccess? Link to comment Share on other sites More sharing options...
mzanier Posted October 23, 2009 Report Share Posted October 23, 2009 per htaccess kan man natürlich so ziemlich alles machen was man möchte, eine umleitung für sowas kann man natürlich realisieren. Link to comment Share on other sites More sharing options...
Der_Beni Posted October 23, 2009 Report Share Posted October 23, 2009 per robots.txt die session unterbinden... . ...was genau muss ich dazu tun? In der Sitemap findet google lediglich 1 indizierte URL...crawling fehler gibts auch kaum....aber die Links sehen halt "doof" aus.... Zudem exportiere ich die Artikel für Google Base per Cronjob(domainfactory) einmal täglich neu, aber wenn das automatisch über den cronjob passiert, und ich mir dann die textdatei anschaue, dann sind die Artikellinks auch mit sessions versehen (x371e3) führe ich den export manuell aus, dann ist alles korrekt...ist das normal??? Wie kann ich das ändern bzw. was mache ich falsch? Link to comment Share on other sites More sharing options...
mzanier Posted October 23, 2009 Report Share Posted October 23, 2009 bzgl cronjob müsstest du ansehen welchen useragent dieser verwendet, und diesen über die bots.txt (library/bots/) in die bot erkennung einschließen. Link to comment Share on other sites More sharing options...
Der_Beni Posted October 23, 2009 Report Share Posted October 23, 2009 okay..und wie finde ich den UserAgent raus? Link to comment Share on other sites More sharing options...
prost Posted October 25, 2009 Author Report Share Posted October 25, 2009 google konnte nur xaf26a indexieren, wenn x6ba59 indexiert wurde dann hat hier der administrator gepatzt und irgendwo einen hardcodierten link in das template integriert. Der Templatebauer hatte tatsächlich ein Logo hart verlinkt. Das ist am 24.10.09 entfernt worden. Google war am 22.10. da und hat 9.733 Seiten per robots.txt (Crawling-Fehler) gesperrt. Hier frage ich mich, welche Auswirkungen das hat. Was wurde denn im neu runterzuladenden xt-framework geändert (das habe ich am 21.10.09 neu eingespielt)? Wie müßte das normal aussehen? Gibt es noch mehr Veyton-Nutzer, die mit Sessions indiziert wurden? Werden die Domains nunmehr auch ohne den Sessionkey in den google-index aufgenommen? Link to comment Share on other sites More sharing options...
yumwebdesign Posted October 27, 2009 Report Share Posted October 27, 2009 Ich habe auch gerade mal die Datei ausgetauscht weil ich eine alte Version hatte, den Veyton Cache geleert und dann meinen Shop über die neue "Abruf wie beim Googlebot"-Funktion der Webmaster Tools geprüft. Leider erscheinen da immer noch unzählige xaf26a-Links... @prost: wie sieht das denn bei dir aus? Wie setzt man denn einen korrekten Link zu einer Kategorie im Template? Für Content Links geht es ja wohl so: {link page=content seo_url='Impressum'} ... aber wie adressiert man eine spezifische Kategorie? und wie adressiere ich die Startseite als '/' anstatt als '/index.php&page=index', was nämlich bei {link page=index} passiert. Link to comment Share on other sites More sharing options...
prost Posted October 27, 2009 Author Report Share Posted October 27, 2009 Habe heute nochmals die class.agent_check.php getauscht und bin gespannt. (Die vo0m 21.10. enthielt noch einen bug) Der Abruf wie beim Googlebot in Webmastgertools sieht aus wie immer. Nur die ssl-Domains haben die Sessions dran. Ich bin jetzt bei satten 48.876 gesperretn Seiten (durch die robots.txt). Ich habe die Seite nochmals mit Hello Engines geprüft und die Links sehen sauber aus. Link to comment Share on other sites More sharing options...
Der_Beni Posted October 28, 2009 Report Share Posted October 28, 2009 bzgl cronjob müsstest du ansehen welchen useragent dieser verwendet, und diesen über die bots.txt (library/bots/) in die bot erkennung einschließen. ...den Useragent habe ich mittlerweile rausgefunden, das löst das Problem aber nicht, die Session wird immer noch gesetzt, sowohl beim manuellen Aufruf, als auch bei dem Aufruf durch den Cronjob! ... ...was kann ich sonst tun?! Jemand eine Idee? Link to comment Share on other sites More sharing options...
capewine Posted October 28, 2009 Report Share Posted October 28, 2009 Hallo und Guten Tag, ich habe folgenden Sessionfehler: Warnung: Das Verzeichnis für die Sessions existiert nicht: /tmp. Die Sessions werden nicht funktionieren bis das Verzeichnis erstellt wurde! Der war plötzlich da. Wie kann ich den abschalten oder wo muss ich etwas verstellen? Danke Frank Link to comment Share on other sites More sharing options...
pronord Posted October 29, 2009 Report Share Posted October 29, 2009 Ordner xtFramework, sofern man eine 4.0.12 aus den ersten tagen geladen hat. bzw sollte reichen diese datei /xtFramework/classes/ die class.agent_check.php ( # @version $Id: class.agent_check.php 3875 2009-10-23 14:57:36Z mzanier $ ) löste bei mir beim ersten Aufruf des Shops eine Fehlermeldung aus. Hab Zeile 49 angepasst: vorher: $bots[] = trim(fgets($bf, 4096)); nachher: if(trim(fgets($bf, 4096)) != "" ) $bots[] = trim(fgets($bf, 4096)); Gruß Torsten Link to comment Share on other sites More sharing options...
prost Posted November 2, 2009 Author Report Share Posted November 2, 2009 ... in der robots.txt sehe ich keine gesperrten urls mehr, die zu meinen 176.064 hinbzugekommen wären. Link to comment Share on other sites More sharing options...
Webco Posted November 2, 2009 Report Share Posted November 2, 2009 Wäre gut, wenn das Thema irgendwo übersichtlich abgehandelt wird. Wenn ich hier im Forum suche, dann tauchen viele Informationen auf, die noch Vorgängerversionen von Veyton betreffen. Bei unserem Veyton-Shop listet Google mittlerweile auch über 200 nicht gefundene Seiten auf, weil die Session-Id mitgespidert wird. Ist es nun sicher und notwendig, die class.agent_check.php auszutauschen? Und wie sollte robots.txt aussehen, damit die bereits indexierten Links weggelassen werden? Link to comment Share on other sites More sharing options...
prost Posted November 2, 2009 Author Report Share Posted November 2, 2009 Durch den Austausch der agent.php wird das Problem gelöst. Die findest Du in diesem thread hier weiter vorn zum Download. Für die robots.txt schau Dir bei google an, welche Seiten mit sessons indexiert wurde (site:www.deinedomain.de) und schreibe Disallow: /*xaf26a= , Ich weiß nur nicht ob der tag "xaf26a=" auch Deiner ist, da musst Du mal in den Suchergebnissen nachschauen. Link to comment Share on other sites More sharing options...
Webco Posted November 2, 2009 Report Share Posted November 2, 2009 Vielen Dank! Link to comment Share on other sites More sharing options...
ahlfy Posted November 4, 2009 Report Share Posted November 4, 2009 ... aber wie adressiert man eine spezifische Kategorie? und wie adressiere ich die Startseite als '/' anstatt als '/index.php&page=index', was nämlich bei {link page=index} passiert. Würde mich auch interessieren. Darf man in im Content direkt eigentlich harte links nehmen!? oder gibt das auch Probleme? Im übrigens besteht der Fehler bei mir immernoch. Obwohl ich im Template nirgends hart verlinkt habe! Link to comment Share on other sites More sharing options...
Recommended Posts
Archived
This topic is now archived and is closed to further replies.