במקרה ובמשך יומיים היו באתר דפים עם מילות מפתח דחוסות, ולאחר מכן הם הוסרו סביר להניח שאם היה עונש אלגוריתמי לאחר סריקה מחודשת הוא היה נעלם(אם תוכן ירוד נעלם איתו גם העונש האלגוריתמי שהוא גרר)
אם מדובר בעונש ידני וקיבלת התראה בכלי מנהלי האתרים של גוגל אז לאחר הטיפול בדפים ישנו צורך להגיש בקשה לאבחון ולשקף שהיה תוכן ברמה ירודה והוא טופל.
מעיון בתגובות נראה שאין מדובר בשני המקרים ולטעמי הסיבה לחוסר ההופעה של האתר בשאילתות לא קשורה לדפים הללו(אין סיבה לחשוש)
לגבי מפות האתר, חשוב שהם היו דינאמיות ויתעדכנו בכל עיבוי תוכן באתר, ברוב מערכות התוכן ישנם תוספים המיועדים למפות האתר וברובם יש גם רשומות RSS שיתאימו.
לגבי שליחת המפה, שולחים אותם פעם אחת או ב GWT או בקובץ ה ROBOTS.TXT ולאחר מכן גוגל יבקר בו בכדי לבדוק את השינויים
ארצה גם להוסיף שבהנגאוט האחרון שבו השתתפתי העליתי שאלה לגבי פרוטוקול ה PubSubHubbub שהוצג מחדש באחד הבלוגים של גוגל.
נאמר לי שמדובר בדרך הכי מהירה לאנדקס דפים בגוגל ושגוגל נעזר בהם(הפרוטוקל מפרסם תכנים שניות בודדות לאחר יצירתם)
למרות שאין זה פורסם בשום מקום נדמה שכלי המנהלים של גוגל משתמש בפרוטוקול ושווה היה לשאול זאת
תוכלו לעיין בתמצית ובסרטון בקישור שפה:
https://plus.google.com/u/0/115458653342720255766/posts/QMmU9wRsHxX