• مقالات
  • خدمات
  • اخبار
  • درباره ما
  • تماس با ما
عضویت ورود   ۰۲۱-۸۶۰۸۶۸۶۴
وب 24
  • طراحی سایت  
    • طراحی سایت حرفه ای
    • قیمت طراحی سایت
    • طراحی سایت فروشگاه اینترنتی
    • طراحی سایت صنعتی
    • طراحی سایت گردشگری
    • طراحی سایت خبری
    • طراحی سایت شرکتی
    • طراحی وب سایت تبلیغاتی
  • سئو و بهینه سازی سایت  
    • خدمات سئو
    • قیمت سئو
    • سفارش سئو
    • مشاوره سئو
    • آموزش سئو
  • دیجیتال مارکتینگ  
    • خدمات رپورتاژ آگهی
      • رپورتاژ آگهی چیست
      • تعرفه رپورتاژ آگهی
    • خدمات تولید محتوا
      • تعرفه تولید محتوا
    • بازاریابی اینترنتی
  • نمونه کارها  
    • نمونه کارهای طراحی سایت
    • نمونه کارهای سئو
پورتال مشتریان وب24
وب 24
پایگاه دانش
مقالات
آموزش سئو و بهینه سازی سایت
فایل Robots.txt چیست و چه کاربردی در سئوی سایت دارد؟

فایل Robots.txt چیست و چه کاربردی در سئوی سایت دارد؟

زمان انتشار: یکشنبه ۲۲ دی ۱۳۹۸  

بعد از اینکه سایتتان را ساختید، باید به ربات‌های گوگل و دیگر موتورهای جستجو اعلام کنید کدام صفحات سایتتان را crawl کنند و کدام را نکنند. برای این منظور فایل robots.txt را می‌سازیم. از آنجا که این فایل راهنمای ربات‌های موتورهای جستجوست، از نظر سئو نیز تأثیر بسیار زیادی بر نحوه ایندکس شدن سایت خواهد گذاشت. در این مطلب با نحوه عملکرد فایل robots.txt، نحوه ساخت، بهینه‌سازی و معرفی آن به گوگل آشنا خواهید شد.

فایل Robots.txt چیست؟

فایل robots.txt یک فایل متنی است که وبمستران باید خودشان بسازند. این فایل به ربات‌های موتورهای جستجو فرمان می‌دهد کدام صفحات وب را خزش کرده یا کدام صفحات را نباید خزش کنند. طبق پروتکل REP (Robots Exclusion Protocol) استانداردهایی برای ساماندهی به وضعیت خزیدن وب توسط ربات‌ها، دسترسی به صفحات وب و ایندکس کردن آن‌ها برای دسترسی کاربران تعیین شده است. فایل robots.txt و لینک‌های فالو و نوفالو نیز بخشی از پروتکل REP هستند.

بیشتر بخوانید: ثبت سایت در گوگل وبمستر - معرفی سایت به کنسول گوگل

فایل Robots.txt چیست

دستورات قابل پشتیبانی در فایل robots.txt

به طور کلی پنج دستور مهم در فایل robots.txt وجود دارد که در ادامه با آن‌ها آشنا خواهید شد:

دستور user-agent

دستور user-agent به تنهایی نمی‌تواند یک دستور کامل باشد، بلکه باید در کنار یکی از سه دستور بعدی استفاده شود. این دستور نوع رباتی که باید از دستورات بعدی اطاعت کند را مشخص می‌کند.
برای مثال اگر قصد داشته باشید برای ربات‌های گوگل دستوری صادر کنید، نام ربات‌های گوگل (googlebot) را می‌نویسید. هم‌چنین اگر دستور برای تمام ربات‌هاست باید در مقابل user-agent: از علامت ستاره (*) استفاده شود.

دستور disallow

بعد از اینکه ربات‌های موردنظر مشخص شدند، وقت آن است تا برایشان دستور صادر شود. دستور disallow به معنی «اجازه ندادن» است. بنابراین طبعاً باید صفحاتی را که ربات مذکور نباید کرول کند (بخزد) را در مقابل آن نوشت. توجه داشته باشید که روت دامین نباید نوشته شود و فقط بعد از اسلش را بنویسید.  نکته دیگر این‌که، چنانچه قصد دارید چندین صفحه را disallow کنید، باید چند دستور disallow بنویسید. به مثال زیر توجه کنید:
User-agent: *
Disallow: /products/content/
Disallow: /local/enterprise/confirm
Disallow: /researchtools/ose/
Disallow: /page-strength/*
Disallow: /thumbs/*

دستور allow

دستور allow به معنی اجازه دادن است و همان طور که حدس می‌زنید به ربات‌های مشخص‌شده اجازه می‌دهد صفحاتی را که در مقابل این دستور نوشته می‌شوند بخزند.
البته نوشتن این دستور ضرورتی ندارد؛ چراکه ربات‌ها به صورت پیش‌فرض تمام صفحات سایت را می‌خزند. با این حال برخی وبمستران برای تأکید بر برخی صفحات سایتشان، از دستور allow استفاده می‌کنند. نحوه استفاده از دستور allow نیز دقیقاً مانند دستور disallow است.

دستور crawl-delay

این دستور می‌تواند بر سرعت لود صفحات سایتتان اثر بگذارد. به این ترتیب سرعت سایت به دلیل ورود تعداد زیاد خزنده‌ها کاهش پیدا نمی‌کند. شما می‌توانید عددی را در مقابل این دستور تایپ کنید. این عدد نشان می‌دهد که ربات‌های تعیین شده باید به آن مقدار ثانیه صبر کرده و سپس سایت را بخزند. البته توجه داشته باشید که این دستور برای ربات‌های گوگل اثر ندارد.

دستور sitemap

در مقابل این دستور باید آدرس سایت مپ را وارد کنید. این دستور نیازی به دستور user-agent ندارد.

بیشتر بخوانید: ریدایرکت چیست؟ | با انواع redirect ها آشنا شوید

دستورات قابل پشتیبانی در فایل robots.txt

یک فایل Robots.txt باید حاوی چه چیزی باشد؟

معمولاً در این فایل، چنانچه سایت وردپرسی باشد، صفحات /wp-admin/ و /readme.html/ که حاوی اطلاعات نسخه وردپرس شماست و هم‌چنین صفحه افزونه‌ها /plugins/ باید disallow شوند. هم‌چنین آدرس sitemap را در این فایل تعریف می‌کنند تا خزنده‌های گوگل جایگاه صفحات مختلف سایت را پیدا کنند. موارد گفته‌شده از ضروریات ساخت یک فایل robots است؛ اما شما می‌توانید بنا بر نیاز خود هر فایلی که تمایل دارید را disallow کرده و یا برای تأکید فایل‌های ضروری را allow نمایید.

چرا باید از فایل robots.txt برای سایت خود استفاده کنیم؟

این فایل در برخی موارد می‌تواند خیلی به کار شما بیاید. برای مثال:
1- در مواقعی که محتوای تکراری روی سایت داشته باشید، یکی از صفحات را disallow کنید.
2- بخشی از سایت را در دسترس عموم قرار ندهید. برای مثال صفحه عقد قراردادها.
3- مکان نقشه سایت را برای ربات‌های گوگل با دستور allow مشخص کنید.
4- اجازه ندهید ربات‌ها برخی فایل‌های روی سایتتان (مانند فایل‌های PDF یا تصاویر) را ایندکس کرده و در فهرست نتایج نمایش دهند.
5- برای ربات‌ها یک زمان تأخیر در خزیدن تعریف کنید تا وقتی سایت شلوغ می‌شود، سرعت پایین نیاید.

فایل robots.txt چگونه کار می‌کند؟

ربات‌ها لینک‌ها را دنبال می‌کنند. پس اگر از یک سایت به سایت دیگری لینک داده شود، ربات‌ها آن لینک را دنبال کرده و به سایت دیگر راه پیدا می‌کنند. اما پیش از اینکه سایت جدید را بخزند به فایل robots.txt نگاه می‌کنند. اگر این فایل وجود داشته باشد از اطلاعات آن پیروی می‌کنند و اگر وجود نداشته باشد، تمام صفحات سایت را می‌خزند.

چک کردن وجود فایل robots.txt برای یک سایت

برای اینکه فایل robots.txt یک سایت را ببینید کافی است در انتهای ریشه دامین اصلی سایت یک اسلش گذاشته و عبارت robots.txt را تایپ کنید. مانند مثال زیر:
Example.com/robots.txt
به این ترتیب، محتویات فایل robots.txt آن سایت را مشاهده خواهید کرد.
چنانچه سایت دارای فایل robots.txt نباشد، با تایپ کردن آدرس ذکرشده در آدرس بار، با خطای 404 مواجه خواهید شد.

ساخت فایل robots.txt

1- برای ساخت فایل robots.txt به صفحه اصلی‌هاست خود در سی پنل یا دایرکت ادمین بروید.
2- سپس بر روی file manager کلیک کنید.
3- وارد پوشه public_html شوید.
4- در این پوشه یک فایل جدید ایجاد کنید به نام robots.txt.
5- بر روی فایلی که ایجاد کرده‌اید دو بار کلیک نمایید تا در کامپیوترتان ذخیره شود. سپس آن را با برنامه notepad باز کنید و دستورات لازم را در آن وارد کرده و تغییرات را ذخیره کنید.
6- فایل را مجدداً درهاست خود جایگزین فایل قبلی نمایید.
در تمام مراحل توجه داشته باشید که فایل robots.txt نسبت به کوچکی و بزرگی حروف حساس است. نام خود فایل باید با حروف کوچک نوشته شود. در نوشتن دستورات نیز به کوچکی یا بزرگی نام فایل‌ها توجه کنید.

بهینه‌سازی فایل robots.txt برای سئو

از نظر سئو چند مورد در مورد فایل robots.txt وجود دارد که باید به آن‌ها توجه شود:
-    فایل‌هایی که در دستور disallow قرار می‌گیرند، به طور کلی خزیده نمی‌شوند. به این معنا که حتی لینک‌های داخل این فایل‌ها نیز تبدیل به نوفالو می‌شوند. بنابراین اگر قصد دارید لینک‌های داخل صفحه فالو باشند از روش دیگری به جای disallow استفاده کنید.
-    استفاده از دستور disallow برای عدم نمایش اطلاعاتی مانند اطلاعات خصوصی کاربران بی‌فایده است؛ چراکه ممکن است شما از صفحات دیگر سایت به این صفحه لینک داده باشید و در نتیجه خزنده‌ها یا ربات‌ها از طریق آن لینک‌ها به صفحه مذکور رسیده و آن را ایندکس نمایند.
-    معمولاً اطلاعات فایل robots.txt در موتورهای جستجو برای یک روز در کش ذخیره می‌شود؛ لذا اگر محتوای این فایل را تغییر دادید و قصد دارید موتورهای جستجو زودتر از این تغییرات مطلع شوند، لازم است فایل را مجدداً در کنسول گوگل قرار دهید.

بیشتر بخوانید: خصوصیت Alt چیست و چه اهمیتی در سئو سایت دارد؟

قرار دادن robots.txt در سرچ کنسول گوگل

قرار دادن robots.txt در سرچ کنسول گوگل

بعد از اینکه فایل robots.txt خود را ساختید، باید آن را در کنسول گوگل نیز قرار دهید. به این ترتیب ربات‌های گوگل خیلی سریع‌تر به صفحات allow یا disallow سایت شما دسترسی پیدا خواهند کرد و سایتتان را سریع‌تر می‌خزند.
برای این منظور باید این لینک را باز کنید.
در لینک باز شده، سایت مورد نظرتان را انتخاب کنید. چنانچه قبلاً در کنسول گوگل ثبت‌نام نکرده باشید در اینجا باید مراحل ثبت‌نام را انجام دهید.
بعد از انتخاب سایت موردنظر، وارد صفحه‌ای می‌شوید که چنانچه قبلاً فایل robots.txt را آپلود کرده باشید، محتویات فایل قبلی را نشان می‌دهد.
در غیر این صورت فایل robots.txt را از نوار پایین صفحه آپلود کرده و دکمه submit را کلیک نمایید.
به همین سادگی، فایل شما به گوگل معرفی می‌شود و گوگل ربات‌هایش را طبق راهنمای شما به سمت سایتتان روانه خواهد کرد.

جمع بندی

برای اینکه در مورد نحوه خزش و کرال کردن سایت‌مان به موتورهای جستجو و گوگل کمک کنیم، فایلی به نام robots.txt می‌سازیم که در این فایل متنی به کمک دستورات مختلف به کرالرها می‌گوییم که کدام صفحات را خزش کرده یا نکنند.
 

مقالات مرتبط :

  • ریدایرکت 302 چیست؟ | با ریدایرکت یا انتقال موقت آشنا شوید
  • تگ کنونیکال چیست؟ | آموزش استفاده از canonical
  • انکر تکست (Anchor Text) چیست و چه اهمیتی در سئو سایت دارد؟

 برچسب ها:
  • اهمیت متا تگ ها در سئو
  • چک سئو
  • تکنیک های سئو
  • مقالات سئو
نظرات (اولین نفری باشید که نظر می دهد)
 مقالات مرتبط
طول محتوا در سئو ؛ طول محتوای متنی باید چقدر باشد؟
کنیبالیزیشن (Cannibalization) یا هم نوع خواری چیست؟
آموزش Disavow - حذف بک لینک های مخرب و اسپم با ابزار Disavow
شبکه خصوصی لینک سازی یا PBN چیست؛ شمشیر دو لبه سئو
سئو تکنیکال چیست؟ آموزش Technical SEO
چطور صفحات سایت را برای بهبود سئو حذف کنیم؟
آموزش استفاده صحیح از تگ‌ های هدینگ H1 تا H6 در متن
 دسته بندی مقالات
آموزش طراحی سایت
آموزش سئو و بهینه سازی سایت
آموزش بازاریابی اینترنتی
اخبار تکنولوژی
ویدئوهای آموزشی
دسترسی سریع
  • خدمات رپورتاژ آگهی
  • خدمات تولید محتوا
  • مقالات
  • نمونه کارهای طراحی سایت
  • خدمات
  • نمونه کارهای سئو
  • اخبار
  • درباره ما
  • تماس با ما
خدمات وب 24
  • تبلیغات در گوگل
  • سئو و بهینه سازی سایت
  • طراحی سایت فروشگاه اینترنتی
  • طراحی سایت صنعتی
  • طراحی سایت گردشگری
  • طراحی سایت خبری
  • طراحی وب سایت تبلیغاتی
  • طراحی سایت شرکتی
تماس با ما
  • آدرس شرکت: خیابان گاندی، کوچه دهم، پلاک 4، زنگ سوم تهران
  • تلفن تماس: 86086864 - 02186086906
  • تلگرام: 09027362447
وب 24 در شبکه های اجتماعی
آدرس شرکت وب 24
  • طراحی سایت
  • قیمت طراحی سایت
  • مقالات
  • خدمات سئو
  • سفارش سئو
  • تعرفه تولید محتوا
  • تعرفه رپورتاژ آگهی
  • مشاوره سئو
  • درباره ما
  • تماس با ما

طبق ماده 12 فصل سوم قانون جرائم رایانه هرگونه کپی برداری ممنوع بوده و پیگرد قانونی دارد

تمام حقوق نزد شرکت طراحی سایت وب 24 محفوظ است

  • ۰۲۱۸۶۰۸۶۸۶۴
  • ثبت نام در باشگاه مشتریان وب 24
  • نمونه کارهای وب 24
  • ثبت سفارش در وب 24
  • ارتباط از طریق تلگرام
  • آدرس صفحه ی اینستاگرام وب 24
 ثبت سفارش