सेमल्ट: Google को आपकी वेबसाइट को रोकने के लिए कब (और क्यों) पता है?

Google मकड़ियों किसी वेबसाइट की मार्केटिंग करते समय एसईओ अभियान के समान ही महत्वपूर्ण हैं। वे उन सभी पृष्ठों से वेबसाइटों और अनुक्रमणिका सामग्री को क्रॉल कर सकते हैं जो इसे मिल सकते हैं। यह साइट पर अपडेट किए गए पृष्ठों पर पुन: अनुक्रमण भी करता है। यह कई कारकों के आधार पर एक नियमित आधार पर ऐसा करता है। वे शामिल हैं, लेकिन पेजरैंक, पेज पर पाए जाने वाले लिंक, क्रॉलिंग बाधाओं और लिंक तक सीमित नहीं हैं। Google मकड़ियों को किसी साइट पर क्रॉल करने की संख्या इन कारकों में से एक या अधिक पर निर्भर करेगी।

आगंतुकों द्वारा और साथ ही Google क्रॉल मकड़ियों द्वारा एक वेबसाइट को आसानी से नेविगेट किया जा सकता है। यही कारण है कि क्रॉल-फ्रेंडली वेबसाइट होने के कारण किसी के एसईओ अभियान में अतिरिक्त लाभ होता है। अन्यथा, Google सामग्री तक पहुंच प्राप्त करने में असमर्थ होगा, जिसके परिणामस्वरूप खोज इंजन रैंकिंग पृष्ठ पर साइट की रैंकिंग कम हो जाएगी।

रॉस बार्बर, सेमल्ट के कस्टमर सक्सेस मैनेजर, यह परिभाषित करते हैं कि Google द्वारा अपने निर्णय को धीमा करने या रोकने के लिए प्रभावित करने वाले दो सबसे महत्वपूर्ण अनुक्रमण कारक हैं कनेक्ट समय और HTTP स्थिति कोड। अन्य में डिसॉवो कमांड, "नो-फॉलो" टैग और robots.txt शामिल हैं।

कनेक्ट समय और HTTP स्थिति कोड

कनेक्ट समय कारक उस समय से संबंधित है जो Google क्रॉल बॉट साइट सर्वर और वेब पेज तक पहुंचने में लेता है। Google द्वारा गति बहुत मूल्यवान है क्योंकि यह अच्छे उपयोगकर्ता अनुभव का अत्यधिक संकेत है। यदि वेबपृष्ठ गति-अनुकूलित नहीं है, तो साइट तब खराब हो जाएगी। Google स्पाइडर वेबसाइट तक पहुंचने के लिए प्रयास करेंगे, और यदि कनेक्शन बनाने में लगने वाला समय लंबा है, तो वे इसे बंद कर देते हैं और इसे कम बार क्रॉल करते हैं। इसके अलावा, यदि Google वर्तमान गति के साथ वेबसाइट को अनुक्रमित करने के लिए धक्का देता है, तो यह उपयोगकर्ता के अनुभव को बाधित कर सकता है क्योंकि यह उसके सर्वर को काफी धीमा कर सकता है।

दूसरा अनुक्रमण कारक एचटीटीपी स्टेटस कोड होता है जो साइट को क्रॉल करने के अनुरोध के लिए सर्वर द्वारा कितनी अच्छी तरह से प्रतिक्रिया करता है इसका संदर्भ देता है। यदि स्टेटस कोड 5xx सीमा के भीतर हैं, तो Google इसे उस दर को रोकने या देरी करने के लिए लेता है जिस पर वे वर्तमान साइट को क्रॉल करते हैं। 5xx रेंज के भीतर कुछ भी सर्वर के साथ संभावित मुद्दों का एक संकेतक है और अनुरोध का जवाब समस्याग्रस्त हो सकता है। अतिरिक्त समस्याएं पैदा करने के जोखिम के कारण, Google बॉट्स अलग हो जाएंगे और सर्वर के अधिक उपलब्ध होने पर इंडेक्सिंग का संचालन करेंगे।

जब Google फिर से शुरू साइट क्रॉल करता है?

Google उपयोगकर्ताओं को सर्वश्रेष्ठ अनुभव प्रदान करने में विश्वास रखता है और उन साइटों को रैंक करेगा जो अपने एसईओ तत्वों को इन उद्देश्यों के लिए उच्च स्तर पर अनुकूलित करते हैं। हालाँकि, यदि वेबसाइट वर्तमान में ऊपर बताई गई समस्याओं को प्रदर्शित करती है, तो वह बाद में इसे क्रॉल करने का प्रयास करने के लिए अपने Googlebot को आदेश देगी। यदि समस्याएं बनी रहती हैं, तो स्वामी Google को अपनी सामग्री के माध्यम से जाने और खोज परिणामों पर एक अच्छी तरह से योग्य रैंक प्रदान करने के एक महान अवसर पर खो देंगे। इन समस्याओं के अलावा, स्पैम के किसी भी संकेत को खोज परिणामों में कभी भी दिखाई देने से अवरुद्ध साइट होगी।

Google द्वारा उपयोग किए जाने वाले अन्य सभी एल्गोरिदम की तरह, इसके स्पाइडर भी स्वचालित हैं। वे कुछ मापदंडों के आधार पर सामग्री को खोजने, क्रॉल करने और अनुक्रमित करने के लिए विकसित किए जाते हैं। यदि साइट कुछ सर्वोत्तम प्रथाओं के अनुरूप नहीं है, तो अनुक्रमण नहीं होगा। इसमें कई अन्य कारक शामिल हैं, लेकिन हमेशा अपनी साइट के कनेक्ट समय और HTTP स्थिति कोड पर पूरा ध्यान देना याद रखें।