ftinagli Posted November 21, 2009 Report Share Posted November 21, 2009 Hallo, ich habe des Forum lange durchsucht aber nichts Passendes gefunden. Mein Problem: Ich habe für meinen Shop eine Google Sitemap erstellt und diese hochgeladen. Google ist wie wild am crawlen und findet meinen Shop scheinbar auch nicht schlecht (wenn ich mir ansehe wie oft und wie lange sich deren Crawler auf meinen Seiten aufhält). Aber die Keywords, die Google im Index einträgt taugen nichts. Wenn ich unter den Webmaster tools die Keywords anzeigen lasse sind ersten 10-15 Positionen besetzt mit Begriffen wie commerce, ecommerce, engine, shopsoftware,, etc. Für jeden Artikel in meinem Shop habe ich eine umfangreiche Berschreibung erstellt und auch entsprechende Keywords unter dem Artikel angelegt. Weiß jemand, ob ich bestimmte Seiten/folder/directories von XTcommerce aus der Sitemap enfernen muss, um dieses Problem zu beheben? Vielen Dank! Link to comment Share on other sites More sharing options...
web-looks Posted November 22, 2009 Report Share Posted November 22, 2009 Dabei handelt es sich ja wahrscheinlich um den Footer mit dem Copyright Hinweis von xt:commerce. Da steht ja was von Shop-Software und wird auf jeder Seite eingeblendet. Hast du eine vernünftige Version der Meta-Tags? Aßerdem solltest du wenn möglich überall von Hand die Meta-Daten ausfüllen (sowohl bei Content, als auch bei Artikeln und Kategorien). Link to comment Share on other sites More sharing options...
ftinagli Posted November 22, 2009 Author Report Share Posted November 22, 2009 Hi web-looks, vielen Dank für die schnelle Antwort. Ich schätze auch, das kommt aus dem Copyright, aber das steht nun einmal auf jeder Seite und wird daher wohl von Google als Hauptkeywords gewertet. Genauso wie Begriffe wie "incl., excl., USt., Versandkosten, etc", was bei allen Artikeln aufgeführt ist. Die Metadaten haben ich für alle Artikel eingegeben, aber wie ich das verstehe, wertet Google eher den Text einer Seite aus als diese Parameter. Also gibt es da keinen Trick, bestimmte Seiten im robot.txt auszublenden, damit die Standardbegriffe des Shops ignoriert, bzw. nicht gecrawled werden? Link to comment Share on other sites More sharing options...
web-looks Posted November 22, 2009 Report Share Posted November 22, 2009 Wenn Google wirklich diese Fragmente als Keywords erkennt, dann ist dein Shop nicht gerade optimal gestaltet. Es gibt viele Maßnahmen die du auch auf deiner Seite zur Verbesserung des Suchmaschinenrankings vornehmen kannst. Alles aufzulisten wäre wohl zu viel, aber das wichtigste bleibt immer der Inhalt der Seite, also der Text. Die Artikelbeschreibungen sollten möglichst ausführlich sein und für deine Seite wichtige Keywords enthalten. Dann kannst du noch Seiten untereinander verlinken. Die Links setzt du am besten in den Fließtext und nutzt dafür wieder wichtige Keywords als Ankertext. Der Text innerhalb eines Links hat Relevanz und sollte deshalb entsprechend des Inhaltes der verlinkten Seite gewählt werden. Auch der Aufbau des Templates spielt eine Rolle. Natürlich kannst du einzelne Seiten aus der robots.txt rausnehmen, dass wird dir bei den Keywords aber wohl nicht viel helfen. Die Begriffe tauchen ja auf jeder Seite auf. Mein erster Ansatz wäre mal den Inhalt, also Beschreibungen zu prüfen. Link to comment Share on other sites More sharing options...
Recommended Posts
Archived
This topic is now archived and is closed to further replies.