फेब्रुअरी 12, 2015

रोबोट.टक्स्ट बुझ्दै, ब्ल्गर र वर्डप्रेसमा रोबोट फाइल अनुकूलन गर्दै

त्यहाँ धेरै चीजहरू छन् जुन तपाईलाई चिन्नु र ब्लगि learnमा सिक्नु पर्छ। तपाई कुनै पनि क्षेत्रमा कहिल्यै पनि परिपूर्ण हुन सक्नुहुन्न किनकि त्यहाँ धेरै ठूला र राम्रा चीजहरू हुन्छन् जुन तपाईंलाई मार्गले थाँहा हुनेछ। तपाईंको वेबसाइटमा धेरै साना चीजहरू र फाईलहरू पनि गुगल र्याकिंगको सर्तमा धेरै फरक पार्दछ एसईओ समग्रमा। त्यस्तै एउटा कुरा हो “robots.txt"फाईल। शुरुमा, जब मैले ब्लग गर्न शुरू गरे, मलाई वास्तवमै यो फाईल के हो र यस फाईलको महत्त्व थाहा छैन। त्यसोभए, मैले बिभिन्न स्रोतहरूबाट धेरै अनुसन्धान गरें र यसको सही प्रयोग र यो SEO मा कत्तिको महत्त्वपूर्ण छ भनेर बुझें। धेरै नौसिखिए ब्लगर्सलाई रोबोट्स ttxt के हो र यसको प्रयोग थाहा छैन, त्यसैले मैले यसमा एक सही वर्णनात्मक लेख लेख्ने सोचे।

robots.txt

Robots.txt फाइल के हो?

रोबोट.टक्सट धेरै सानो पाठ फाईल हो जुन तपाईंको साइटको मूलमा अवस्थित छ। तपाईलाई धेरै जसो थाहा छ, वेब क्रॉलरहरू र माकुरा सम्पूर्ण वेब नेटवर्कको विकासको लागि जिम्मेवार छन्। आदर्श रूपमा, यी क्रलरहरू कुनै पनि पृष्ठमा वा वेबमा अवस्थित कुनै पनि यूआरएलमा क्रॉल हुन सक्छ, यहाँसम्म कि एक निजी हो र पहुँच गर्न हुँदैन।

यसले मानिसहरूलाई तपाईंको सामग्री पहुँच गर्न प्रतिबन्धित गर्दैन।

तपाईं क्रॉलरहरू पहुँच गर्न र प्रतिबन्धित गर्न चाहानुहुने फाइलहरूको नियन्त्रण लिनको लागि, तपाईं तिनीहरूलाई रोबोट्स। txt फाईल प्रयोग गरेर निर्देशित गर्न सक्नुहुनेछ। Robots.txt एक html फाईल होईन, तर माकुराहरूले यो फाइलले भनेको कुरा पालन गर्छन्। यो फाईल त्यस्तो चीज होइन जुन तपाइँको साइटलाई बाह्य खतराहरूबाट सीधै सुरक्षित गर्दछ, तर यसले केवल क्रलर बट्सलाई तपाइँको साइटको विशेष क्षेत्रमा प्रवेश नगर्न अनुरोध गर्दछ।

तपाईं कहाँ robots.txt फाइल पाउनुहुन्छ?

यो फाईलको स्थान क्रॉलरहरूको लागि यसलाई पहिचान गर्न धेरै महत्त्वपूर्ण छ। त्यसो भए यो तपाईंको वेबसाइटको मुख्य डाइरेक्टरीमा हुनुपर्दछ।

http://youdomain.com/robots.txt

यो जहाँ बट्स र तपाईले कुनै वेबसाइटको फाईल फेला पार्न सक्नुहुनेछ। यदि क्रलरहरूले मुख्य डाईरेक्टरीमा फाइल फेला पार्दैनन् भने, तिनीहरू केवल यो मान्दछन् कि वेबसाइटको लागि कुनै रोबोट फाइल छैन र त्यहाँ साइटका सबै पृष्ठहरू अनुक्रमणिका द्वारा।

Robots.txt फाईलको आधारभूत संरचना

फाईलको संरचना धेरै सरल छ र जो कोहीले यसलाई सजीलै बुझ्न सक्दछन्। यसले मुख्य रूपमा २ कम्पोनेन्टहरू समावेश गर्दछ अर्थात् प्रयोगकर्ता एजेन्ट र अस्वीकृत।

सिन्ट्याक्स:

प्रयोगकर्ता-एजेन्ट:

अस्वीकृत गर्नुहोस्:

उदाहरणका साथ बहिष्कारको पूर्ण समझ

सर्वप्रथम, तपाईंले कम्पोनेन्टहरूको ठ्याक्कै के भनेको र उनीहरूको प्रकार्य के हो थाहा पाउनुपर्दछ। "उपयोगकर्ता-एजेन्ट" सर्च इन्जिन क्रॉलर निर्धारण गर्न प्रयोग गरिएको शब्द हो, यो गुगल, याहू वा कुनै पनि खोज इञ्जिन हुन सक्छ। "अस्वीकृत" यो शब्द भनेको फाईलहरू वा डाइरेक्टरीहरू सूचीबद्ध गर्न र क्रलर सूचीबाट समावेश गर्नका लागि प्रयोग गरिन्छ।

निर्देशिका वा फोल्डर बहिष्कार:

आधारभूत बहिष्करण जुन प्राय साइटहरू द्वारा प्रयोग गरिन्छ,

प्रयोगकर्ता-एजेन्ट: *

अस्वीकृत: / परीक्षण /

यहाँ, * सबै खोज ईन्जिन क्रॉलरहरू संकेत गर्दछ। अस्वीकार / परीक्षण / संकेत गरीयो कि नाम 'परीक्षण' को साथ फोल्डरलाई क्रल हुनबाट हटाउनुपर्नेछ।

फाइल बहिष्कार:

प्रयोगकर्ता-एजेन्ट: *

अस्वीकृत गर्नुहोस्: /est.html

यसले स that्केत गर्दछ कि सबै खोजी ईन्जिन क्रोलरहरूले 'test.html' नामको फाइल क्रोल गर्नु हुँदैन।

सम्पूर्ण साइट को अपवर्जन:

प्रयोगकर्ता-एजेन्ट: *

अस्वीकृत: /

सम्पूर्ण साइटको समावेश:

प्रयोगकर्ता-एजेन्ट: *

अस्वीकृत गर्नुहोस्:

OR

प्रयोगकर्ता-एजेन्ट: *

अनुमति दिनुहोस्: /

एकल क्रलरको बहिष्कार:

प्रयोगकर्ता-एजेन्ट: googlebot

अस्वीकृत: / परीक्षण /

एक साइटम्याप जोड्नुहोस्:

प्रयोगकर्ता-एजेन्ट: *

अस्वीकृत: / परीक्षण /

साइटम्याप: http://www.yourdomain.com/sitemap.xml

रोबोट_टीक्स्ट_भिजुअल

कसरी robots.txt फाईल सिर्जना गर्ने?

एक रोबोट.टक्सट फाईल बनाउनु एकदम सरल छ किनकि यहाँ कुनै विशेष भाषा वा प्राविधिक जटिलता छैन। तपाईं यसलाई दुई तरिकाले गर्न सक्नुहुनेछ, एउटा म्यानुअल क्रिएसन हो र अर्को यो कि उपकरणहरू प्रयोग गरेर फाईल सिर्जना गर्नु।

फाइलको मैन्युअल निर्माण माथिको भागमा छलफल गरिएको छ, त्यसकारण हामी उपकरणहरूको प्रयोगमा जान सक्छौं, जुन अझ सरल छ। तपाईं द्वारा robots.txt फाइल जनरेटर उपकरणहरू प्रयोग गर्न सक्नुहुन्छ SEOBook, म्याकनरिन, इत्यादि।

Robots.txt फाइल जाँच गर्दै।

तपाईंले सिर्जना गर्नु भएको फाइल या त राम्रोसँग काम गर्दछ वा छैन। त्यो परीक्षण गर्न, तपाईं यो प्रयोग गर्न सक्नुहुनेछ robots.txt परीक्षक उपकरण। तपाइँ केवल परीक्षक उपकरणमा यूआरएल बुझाउन सक्नुहुन्छ, उपकरणले गुगलबोटको रूपमा संचालन गर्दछ तपाइँको जाँच गर्न robots.txt फाईल र तपाईंको URL लाई ब्लक गरिएको छ भनि प्रमाणित गर्दछ।परीक्षक उपकरण

यहाँ गुगल द्वारा वेबमास्टर्स को लागी सूचीबद्ध केहि चरणहरु छन्, जुन तपाईले बनाउनु भएको रोबोट.टी.टी.टी. फाइलको परीक्षण गर्न मद्दत गर्दछ।

परीक्षण

Robots.txt फाइलको सीमितता:

जे होस् रोबोट.टक्सट एक विश्वास योग्य घटक हो जब यो क्रोलरलाई निर्देशनको रूपमा आउँदछ, अझै व्यावहारिक रूपमा व्यवहार गर्दा यसको केही सीमितता वा बेफाइदाहरू छन्।

१. क्रॉलरहरूलाई बाध्य गर्न सकिदैन, तिनीहरूलाई केवल निर्देशित गर्न सकिन्छ: जब हामी एक विशेष मार्ग वा यूआरएल लाई अस्वीकार गर्न रोबोट.टीएसटी फाइल प्रयोग गर्छौं, हामी केवल वेब क्रॉलरहरूलाई अनुरोध गर्दछौं कि त्यो विशेष यूआरएल वा डाइरेक्टरीलाई अनुक्रमणिका नगरौं तर बट्सलाई विचलित गर्न जबरजस्ती गरिरहेको छैन। र सबै वेब क्रॉलरहरूले यो फाईलमा दिइएका निर्देशनहरूको पालना नगर्न सक्छ। त्यसकारण कुनै विशेष यूआरएल रोक्नको लागि, अन्य विधिहरू जस्तै पासवर्ड सुरक्षा वा मेटा ट्यागहरूको प्रयोग लागू गर्न सकिन्छ जुन अधिक प्रभावकारी र प्रभावशाली छ।

२. सिन्ट्याक्स व्याख्या प्रत्येक क्रोलरको लागि फरक हुन सक्छ: माथि वर्णन गरिएको सिन्ट्याक्सले वेब क्रलरहरूको अधिकतम प्रतिशतको लागि राम्रो हो। तर केहि क्रोलरहरूले कि त सिन्ट्याक्स बुझ्दैनन् वा यसलाई पूर्ण रूपमा फरक तरिकाले व्याख्या गर्दैनन्, जसले तपाईंलाई समस्यामा पार्दछ।

Other. तपाइँको URL मा अन्य साइटबाट आएको सन्दर्भलाई रोबोट.टक्स्ट द्वारा रोक्न सकिदैन। यो व्यावहारिक रूपमा रोबोट. txt फाइल को एक मुख्य नुकसान हो। फाइलले गुगल क्रॉलरहरूलाई कुनै विशेष यूआरएल पहुँच गर्न अनुमति दिँदैन, जब तिनीहरू सिधा साइटमा आउँदछन्। तर यसको विपरीत, जब तपाईं ब्लक गर्न चाहानुहुन्छ त्यो विशेष यूआरएल केहि अन्य वेबसाइटबाट सन्दर्भ गरिएको छ, तब क्रलरहरूले लिंकमा जानबाट आफूलाई रोक्दैन, जसमा अवरुद्ध URL लाई सूचीबद्ध गर्दछ।

त्यसोभए, यी चीजहरूलाई हुनबाट रोक्नको लागि, तपाईं अन्य सुरक्षा विधिहरू जस्तै जानुपर्दछ सर्भरबाट पासवर्ड सुरक्षा फाईलहरू or मेटा ट्यागहरू प्रयोग गरेर (सूचकांक, पालना गर्नुहोस्) robots.txt फाइलको साथ।

म्याट कट्सले ऑप्टिमाइजिंग रोबोट्स। टेक्सटमा के लिन्छ जाँच गर्नुहोस्

YouTube भिडियो

 ब्ल्गरमा कस्टम रोबोट्स। Txt थप्दै

मैले यस बारेमा पहिले नै लेख लेखेको छु उन्नत खोज इञ्जिन प्राथमिकताहरू जहाँ मैले कस्टम रोबोट.टक्स्ट फाइलको बारेमा कुरा गरें ब्ल्गरका लागि उन्नत एसईओ गाईड। सामान्यतया, ब्ल्गरका लागि रोबोट। txt फाइल यस्तो देखिन्छ:

प्रयोगकर्ता-एजेन्ट: Mediapartners- गुगल अस्वीकृत:
प्रयोगकर्ता-एजेन्ट: *
अस्वीकृत गर्नुहोस्: / खोज्नुहोस्
अनुमति दिनुहोस्: /
साइटम्याप: https://www.alltechbuzz.net/feeds/posts/default?orderby=UPDATED

अनुसरण गर्न चरणहरू:

  1. तपाईको ब्ल्गर ड्यासबोर्ड खोल्नुहोस्
  2. नेभिगेट गर्नुहोस् सेटिङप्राथमिकताहरू खोज्नुहोस् > क्रॉलर र अनुक्रमणिका > कस्टम रोबोट्स। टेक्स्ट > सम्पादन गर्नुहोस्> हो।
  3. यसमा तपाईंको रोबोट.टीएसटी कोड टाँस्नुहोस्।
  4. परिवर्तनहरू बचत गर्नुहोस् बटन क्लिक गर्नुहोस्।

कसरी Wordpress को लागी Robots.txt लाई अनुकूलित गर्ने:

Wordpress को लागी हामी सँगै गर्न को लागी धेरै प्लगइनहरु छन्। मँ तपाइँलाई अगाडि बढ्न सिफारिस गर्दछु योआस्ट प्लगइन खोजी प्राथमिकताहरू प्रबन्ध गर्न। हाम्रो लेख जाँच गर्नुहोस् Yoast SEO सेटिंग्स पूर्ण सेटिंग्स को लागी।

तल रोबोट.टक्सट फाइलको उदाहरण छ जुन तपाईं कुनै पनि डोमेनको लागि प्रयोग गर्न सक्नुहुनेछ जुन WordPress मा होस्ट गरिएको छ:

साइटम्याप: http://www.yourdomain.com/sitemap.xML प्रयोगकर्ता-एजेन्ट: * # यी डाइरेक्टरीहरूमा सबै फाईलहरू अस्वीकार गर्नुहोस्: / cgi-bin / अस्वीकृत: / wp-प्रशासन / अस्वीकृत: / wp-शामिल / अस्वीकृत: / wp-सामग्री / अस्वीकृत: / अभिलेखहरू / अस्वीकृत: / *? * अस्वीकृत: *? जवाफटोकम अस्वीकृत: / wp- * अस्वीकृत: / टिप्पणि / फिड / प्रयोगकर्ता-एजेन्ट: Mediapartners- गुगल * अनुमति दिनुहोस्: / प्रयोगकर्ता-एजेन्ट: Googlebot -अबिजय अनुमति दिनुहोस्: / wp-सामग्री / अपलोडहरू / प्रयोगकर्ता-एजेन्ट: विज्ञापनबोट-गुगल अनुमति दिनुहोस्: / प्रयोगकर्ता-एजेन्ट: गुगलबोट-मोबाइल अनुमति दिनुहोस्: /

एकचोटि तपाईंले आफ्नो रोबोट्स.टी.टी.एस्. फाइललाई अनुकूलित गर्नुहोला गुगल वेबमास्टर उपकरणमा robots.txt परीक्षक.

रोबोट.टक्सट टेस्ट alltechbuzz को लागी

त्यसोभए मलाई आशा छ कि त्यसले सहयोग पुर्‍यायो। मलाई थाहा दिनुहोस् यदि तपाईंसँग टिप्पणीहरूमा रोबोट्स। टेक्स्ट अप्टिमाइजेसनको बारेमा कुनै शंका छ।

लेखक बारे 

इमरान उद्दिन


email "ईमेल": "ईमेल ठेगाना अवैध", "url": "वेबसाइट ठेगाना अवैध", "आवाश्यक": "आवश्यक फिल्ड हराइरहेको छ"}