שלום לכולם,
רציתי לשאול לגבי קובץ robots.txt:
לקוח שלי בנה אתר חדש על אותו דומיין, עשינו הפניות 301 מכל הקישורים הישנים לחדשים.
ב-search.google.com רואים את כל העמודים החדשים כמו שצריך בלי שגיאות בכלל, אבל רואים גם עמודים שאינם כלולים (שהם כל העמודים הישנים).
האם אני צריך להוסיף את הקישורים הישנים לקובץ robots.txt בצורת Disallow?
תודה רבה,
גיא