שגיאה 404 - העמוד לא נמצא

איך להתייחס לשגיאות סריקה ואינדוקס באתר?

סוגי השגיאות הנפוצות והדרכים להתמודד מולן בפועל

כלי מנהל האתרים של גוגל הוא הכלי הבסיסי והטוב ביותר עבור אופטימיזציה והוא מאפשר לנו לבחון את ביצועי האתר דרך עיני העכביש. קידום אתרים בגוגל מושפע מביצועים אלו ושגיאות רבות עלולות להזיק בתהליך הקידום. הכלי מאפשר לנו לראות איך האתר נראה בעיני העכביש אשר סורק אותו מעת לעת ומגלה שגיאות שהוא נתקל בהן במהלך הסריקה. חלק מהשגיאות יופיעו באופן זמני, למשל שגיאות קישוריות שרת שיכולות לקרות בגלל עומס על השרת בנקודת הזמן בו העכביש סרק אותו ולא יכול היה לגשת אליו. השגיאות הבעתיות יותר הן אלה שחוזרות על עצמן באופן עקבי והכלי מתריע עליהן במייל , במקרה כזה רצוי להתייחס אליהן ברצינות רבה ולהתחיל לטפל בגורם לבעיה באופן מיידי.

תחילת עבודה עם שגיאות סריקה בכלי מנהל אתרים

שלב ראשון: התחברות לחשבון שלך, תחת לוח המחוונים באתר שלך, לחץ על בריאות > שגיאות סריקה. דף זה יציג גרף עם רשימה של שגיאות והגורם שלהן.

שגיאות וובמאסטר בהיבט של קידום אתרים אורגני

כלי מנהלי אתרים של גוגל מציג שלושה סוגים של שגיאות

  • שגיאות DNS
  • קישוריות שרת
  • שגיאות Robots.txt.

שגיאות DNS

שגיאות אלה הן כמו בעיות DNS נורמליות שאנו נתקלים בהן במחשב הביתי שלנו, כאשר חיבור האינטרנט שלנו נופל לא נוכל פתאום לפתוח כתובת ושגיאת DNS תוצג בדפדפן. זה קורה בדרך כלל מכמה סיבות ואחת מהן היא כאשר מעבירים את האתר ממקום אחסון אחד לאתר או שינוי בשמות השרת .אם גרף השגיאות הולך וגדל עד שביום בהיר וצח אתה מקבל מייל מכלי מנהל האתרים של גוגל שאומר כך: “במהלך 24 השעות האחרונות, Googlebot מצא 44 שגיאות בעת שניסה לאחזר מידע DNS של האתר שלך. שיעור השגיאה הכוללת לשאילתות DNS לאתר שלך הוא 1.6%. ניתן לראות פרטים נוספים על השגיאות הללו ב Webmaster Tools. ” במקרה כזה יש להיכנס ולבדוק מהיכון מגיעות השגיאות ולטפל בבעיה. סיבה נוספת לשגיאות DNS בכלי מנהל אתר היא בגלל שהיה גבוהה וזה בדרך כלל בעיה עם אחסון האתר. במידה וכל הזמן מתקבלות שגיאות חוזרות ונשנות, עליך לפנות לחברת האחסון שהאתר מאוחסן בשרת שלה ולבקש מהם לבדוק את זה.

שגיאות קישוריות שרת

בעיה זו נובעת בעיקר מתצורת השרת שלך, הרובוטים של גוגל לא יכולים בעצם לסרוק את האתר או פסקי הזמן באתר שלך לפני טעינת הדף. דבר זה בדרך כלל קורה כאשר לדף מסוים לוקח יותר מדי זמן להיטען. דרך אחת קלה לפתור בעיה זו היא שליטה על קצב הסריקה של הרובוטים. אפשר להשתמש למשל בקובץ Robots.txt כדי לשלוט בזחילה. עצות שימושיות כדי להגדיל את קצב הסריקה של גוגל הן לוודא שהשרת שלך לא קורס תחת העומס, ואם כן יש לדאוג שחברת האחסון תגדיל את הנפח שלו. בנוסף לכך יש לוודא שחומת האש והגדרות האבטחה אינם חוסמים את הגישה לרובוטים של מנועי חיפוש.

שגיאות קובץ Robots.txt

אלו שגיאות שמופיעות כאשר הגישה לעמוד מסוים נמנעת באופן אקטיבי דרך השרת או שעמוד מסוים לא נמצא. השגיאה יכולה להיווצר מקישור שבור, או הגדרות לא נכונות של ספריות על השרת. אם המקור של הקישור הוא מהאתר עצמו, אפשר פשוט לתקן אותו, אך אם מדובר בקישור מאתר אחר, ייתכן שיש צורך לפנות לבעל האתר על מנת לבקש ממנו שיתקן אותו. סיבה נוספת היא כי יש גם עמודים  ריקים שנמצאים על השרת וגוגל מתייחס אליהם כ – SOFT 404. אם יש מספר רב של עמודים שלא נמצאו, גוגל אמנם לא מעניש את האתר באופן אקטיבי, אבל הרובוט שלו מבזבז זמן רב על ניווט בין קישורים שבורים במקום לסרוק דפים תקינים, ולכן כמות הדפים הטובים שנסרקים כל יום פוחתת.

בעיות אינדוקס וסריקה של דפים באתר

אלו השגיאות הנפוצות ביותר והן קורות בדרך כלל בגלל אי הגדרה של קובץ robots.txt אשר מורה לרובוט להפסיק את הסריקה באזור מסוים של האתר אותו לא רוצים לאנדקס. חשוב מאד לזכור כי חלק מהשגיאות יופיעו באופן זמני. לדוגמה, שגיאות קישוריות שרת יכולות לקרות בגלל עומס על שרת בפרק זמן מסוים ולכן הן לא יהיו אלה שגיאות קבועות.

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

שינוי גודל גופנים
ניגודיות