وردپرس

ساختن یک robots.txt بهینه برای سایت های فروشگاهی


پاسخ‌ها: 0

سلام دوستان برای اینکه یک robots.txt بهینه و اصولی برای سایت های فروشگاهی در وردپرس بسازیم بهتره چه مواردی رو رعایت بکنیم؟

فایل robots.txt ابزاری حیاتی برای مدیریت نحوه خزیدن ربات‌های موتور جستجو در وب‌سایت‌ها است. بهینه‌سازی این فایل می‌تواند تأثیر قابل توجهی بر صد و عملکرد سایت شما داشته باشد. در ادامه به نکات کلیدی برای ایجاد یک فایل robots.txt بهینه و اصولی پرداخته می‌شود.

مزایای استفاده از robots.txt

  • کنترل دسترسی: این فایل به شما اجازه می‌دهد تا مشخص کنید کدام بخش‌ها یا صفحات سایت شما باید ایندکس شوند و کدام‌ها نباید.
  • جلوگیری از بارگذاری غیرضروری سرور: با مسدود کردن صفحات غیرضروری، می‌توانید بار سرور را کاهش دهید و منابع را برای صفحات مهم‌تر آزاد کنید.
  • بهبود بودجه خزیدن: با جلوگیری از ایندکس شدن صفحات بی‌اهمیت، ربات‌ها می‌توانند زمان بیشتری را صرف خزیدن در صفحات مهم‌تر کنند.

نکات کلیدی برای بهینه‌سازی robots.txt

  1. استفاده از دستورات صحیح:
    • عامل کاربر: مشخص می‌کند که کدام ربات‌ها تحت تأثیر دستورات قرار می‌گیرند.
    • غیر مجاز: تعیین می‌کند که کدام صفحات یا دایرکتوری‌ها نباید خزیده شوند.
    • اجازه دهید: در صورت نیاز، می‌توانید برخی زیرپوشه‌ها را در دایرکتوری‌های مسدود شده مجاز کنید.
User-agent: *
Disallow: /wp-content/uploads/wc-logs/
Disallow: /wp-content/uploads/woocommerce_transient_files/
Disallow: /wp-content/uploads/woocommerce_uploads/
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Disallow: *?filter*
Disallow: */?*
Disallow: *?s=*
Allow: /*.css
Allow: /*.js

# START YOAST BLOCK
# ---------------------------
User-agent: *
Disallow:

Sitemap: https://barghme.com/sitemap_index.xml
# ---------------------------
# END YOAST BLOCK
این خبر را در ایران وب سازان مرجع وب و فناوری دنبال کنید

مشاهده پاسخ های این مطلب
———————————————
این مطلب از سایت انجمن وردپرس گردآوری شده است و کلیه حقوق مطلق به انجمن وردپرس می باشد در صورت مغایرت و یا بروز مشکل اطلاع دهید تا حذف گردد

منبع: انجمن وردپرس

دکمه بازگشت به بالا