وردپرس
ساختن یک robots.txt بهینه برای سایت های فروشگاهی
پاسخها: 0
سلام دوستان برای اینکه یک robots.txt بهینه و اصولی برای سایت های فروشگاهی در وردپرس بسازیم بهتره چه مواردی رو رعایت بکنیم؟
فایل robots.txt ابزاری حیاتی برای مدیریت نحوه خزیدن رباتهای موتور جستجو در وبسایتها است. بهینهسازی این فایل میتواند تأثیر قابل توجهی بر صد و عملکرد سایت شما داشته باشد. در ادامه به نکات کلیدی برای ایجاد یک فایل robots.txt بهینه و اصولی پرداخته میشود.
مزایای استفاده از robots.txt
- کنترل دسترسی: این فایل به شما اجازه میدهد تا مشخص کنید کدام بخشها یا صفحات سایت شما باید ایندکس شوند و کدامها نباید.
- جلوگیری از بارگذاری غیرضروری سرور: با مسدود کردن صفحات غیرضروری، میتوانید بار سرور را کاهش دهید و منابع را برای صفحات مهمتر آزاد کنید.
- بهبود بودجه خزیدن: با جلوگیری از ایندکس شدن صفحات بیاهمیت، رباتها میتوانند زمان بیشتری را صرف خزیدن در صفحات مهمتر کنند.
نکات کلیدی برای بهینهسازی robots.txt
- استفاده از دستورات صحیح:
- عامل کاربر: مشخص میکند که کدام رباتها تحت تأثیر دستورات قرار میگیرند.
- غیر مجاز: تعیین میکند که کدام صفحات یا دایرکتوریها نباید خزیده شوند.
- اجازه دهید: در صورت نیاز، میتوانید برخی زیرپوشهها را در دایرکتوریهای مسدود شده مجاز کنید.
User-agent: *
Disallow: /wp-content/uploads/wc-logs/
Disallow: /wp-content/uploads/woocommerce_transient_files/
Disallow: /wp-content/uploads/woocommerce_uploads/
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Disallow: *?filter*
Disallow: */?*
Disallow: *?s=*
Allow: /*.css
Allow: /*.js
# START YOAST BLOCK
# ---------------------------
User-agent: *
Disallow:
Sitemap: https://barghme.com/sitemap_index.xml
# ---------------------------
# END YOAST BLOCK
این خبر را در ایران وب سازان مرجع وب و فناوری دنبال کنید
مشاهده پاسخ های این مطلب
———————————————
این مطلب از سایت انجمن وردپرس گردآوری شده است و کلیه حقوق مطلق به انجمن وردپرس می باشد در صورت مغایرت و یا بروز مشکل اطلاع دهید تا حذف گردد
منبع: انجمن وردپرس