آموزش ساخت فایل robots txt با روشهای ساده
آیا میدانید فایل robots.txt چیست و چگونه میتوان با کمک آن سئوی سایت را بهبود داد؟ فایل robots.txt یکی از ابزارهای مهم و ضروری در بهینهسازی سایت برای موتورهای جستجو است. این فایل به موتورهای جستجو میگوید که چگونه وبسایت شما را مورد بررسی قرار دهند و کدام صفحات را خزش کنند یا نکنند.
این موضوع باعث میشود که فایل robots.txt به یکی از ابزارهای بسیار موثر در سئو تبدیل شود. با استفاده مناسب از این فایل، میتوانید به شکل چشمگیری بهبود عملکرد سئوی سایت خود را تجربه کنید.اگر به بهینهسازی موتورهای جستجو (SEO) سایت خود اهمیت میدهید و نمیخواهید هیچ جزئیاتی را در این زمینه از قلم بیندازید، خواندن این مقاله ضروری است.
در این مقاله، نحوه ساخت فایل robots.txt را برای سایتهای وردپرسی به شما آموزش میدهیم و نشان میدهیم که چگونه میتوانید از این فایل برای بهبود سئوی سایت خود بهره ببرید. پس تا انتهای مقاله همراه ژاکت آکادمی باشید.
فایل Robots.txt چیست؟
همه بازدیدکنندگان سایت شما انسانهای عادی نیستند؛ بلکه رباتهای گوگل نیز در فواصل زمانی مختلف به سایت شما سر میزنند. به این فرایند خزیدن یا کراول (Crawl) گفته میشود. بازدید رباتهای گوگل از سایت شما به منظور یافتن صفحات جدید یا ایندکس کردن صفحات موجود انجام میشود.
فایل robots.txt یک فایل متنی است که نحوه کراول کردن رباتها و ایندکس کردن صفحات سایت را مشخص میکند. به طور کلی، این فایل به رباتهای گوگل دستور میدهد که چگونه در سایت شما حرکت کنند و چه صفحاتی را ببینند یا نبینند.
فایل robots.txt بخشی از پروتکل Robots Exclusion Protocol (REP) است که شامل دستورالعملهایی برای مدیریت دسترسی رباتها به صفحات وب است. لینکهای فالو و نوفالو نیز جزئی از همین پروتکل هستند. این فایل توسط وبمسترها ایجاد میشود تا به رباتهای گوگل بگویند که کدام صفحات سایت را کراول کنند و کدام صفحات را نادیده بگیرند.
قبل از پرداخت به روش ساخت فایل robots.txt لازم است که بدانیم این فایل از چهار دستور اصلی تشکیل میشود:
User-agent: در این بخش، ربات یا رباتهایی که دستورات برای آنها نوشته شده را مشخص میکنید.
Disallow: این دستور به ربات میگوید که اجازه ندارد به بخشهای مشخص شده از سایت دسترسی پیدا کند.
Allow: این دستور به ربات اجازه میدهد که به بخشهای خاصی از سایت دسترسی پیدا کند، حتی اگر آن بخشها در دستور Disallow قرار گرفته باشند.
Sitemap: این دستور برای اعلام آدرس نقشه سایت به رباتهای موتور جستجو استفاده میشود.
ساخت فایل Robots txt چگونه است؟
برای ساخت فایل robots.txt، دو روش اصلی وجود دارد که بر اساس نوع سایتتان میتوانید یکی از آنها را انتخاب کنید:
- استفاده از افزونه برای سایتهای وردپرسی
- ساخت فایل robots txt بصورت دستی برای سایتهای کدنویسی
ساخت فایل روبوتس با افزونه وردپرسی
در سایتهای وردپرسی با استفاده از افزونههای مختلف میتوانید به راحتی فایل robots.txt را ایجاد و مدیریت کنید. این افزونهها به شما امکان میدهند تا دستورات مورد نظر خود را به سادگی وارد کرده و فایل را مستقیماً از پنل مدیریت وردپرس ویرایش کنید.
افزونه All in One SEO (AIOSEO) با بیش از 2 میلیون نصب فعال، یکی از محبوبترین افزونهها برای سئو و بهینهسازی وبسایتهای وردپرسی است. این افزونه به دلیل طراحی کاربرپسند خود، گزینهای عالی برای مبتدیان به شمار میآید. با استفاده از AIOSEO، میتوانید به راحتی فایل robots.txt خود را ایجاد و ویرایش کنید. در ادامه نحوه انجام این کار توضیح داده میشود.
1. نصب و فعالسازی افزونه: ابتدا افزونه All in One SEO را نصب و فعال کنید. پس از فعالسازی، از منوی All in One SEO گزینه Tools را انتخاب کنید تا به صفحه ابزارها دسترسی پیدا کنید.
2. فعال کردن گزینه Custom Robots.txt: در این صفحه، گزینه Enable Custom Robots.txt را فعال کنید. با فعال کردن این گزینه، یک فایل سفارشی robots.txt در وردپرس ایجاد میشود که میتوانید آن را ویرایش کنید.
3. مشاهده فایل Robots.txt موجود: افزونه AIOSEO فایل robots.txt موجود را در بخش Robots.txt Preview در پایین صفحه نمایش میدهد. این بخش شامل قوانین پیشفرضی است که توسط وردپرس اضافه شدهاند و به موتورهای جستجو دستور میدهد که از فایلهای اصلی وردپرس استفاده نکنند، اجازه ایندکس کردن تمام مطالب را بدهند و به نقشههای XML سایت دسترسی داشته باشند.
4. افزودن قوانین سفارشی: برای افزودن قوانین جدید، دکمه Add Rule را انتخاب کنید. سپس، در قسمت “User Agent”، عامل کاربری مورد نظر خود را وارد کنید. اگر میخواهید قانون برای همه رباتها اعمال شود، از علامت * استفاده کنید.در قسمت Rule، مشخص کنید که آیا میخواهید دسترسی به بخش مشخصی از سایت مجاز یا غیرمجاز باشد. سپس نام فایل یا مسیر دایرکتوری را در قسمت Directory Path وارد کنید.
5. ذخیره تنظیمات: پس از وارد کردن قوانین، برای ذخیره تنظیمات روی دکمه Save Changes کلیک کنید.
این مراحل به شما کمک میکند تا فایل robots.txt سایت وردپرسی خود را به راحتی ایجاد و مدیریت کنید و کنترل بیشتری بر روی نحوه خزش و ایندکسشدن صفحات سایت توسط موتورهای جستجو داشته باشید.
ساخت و یا ویرایش فایل Robots نیازمند داشتن دانش سئو و بهینه سازی وبسایت است. با شرکت در دوره سئو پیشرفته ژاکت آکادمی علاوه بر مباحث سئو داخلی و خارجی، اصول سئو تکنیکال را یاد بگیرید و به راحتی خودتان Robots.txt را برای سایتتان به بهترین شکل بسازید و یا ادیت کنید. این دوره کامل با 50% تخفیف ویژه در حال عرضه است و برای مشاهده آن میتوانید بر روی بنر زیر کلیک نمایید.
ساخت فایل Robots.txt به صورت دستی
اگر سایت شما اختصاصی و کدنویسی باشد، شما باید فایل robots.txt را به صورت دستی ایجاد کنید و سپس آن را در دایرکتوری اصلی سایت خود آپلود کنید. برای این کار در دایرکتوری اصلی وبسایت خود راستکلیک کرده و گزینه “Create new file” را انتخاب کنید. سپس نام فایل را به robots.txt تغییر دهید.
اگر فایل موجود باشد میتوانید از طریق سیپنل هاست یا با استفاده از FTP به هاست خود متصل شوید و فایل robots.txt را ویرایش و سفارشیسازی کنید. در اینجا نحوه انجام این کار با استفاده از FTP توضیح داده شده است:
- اتصال به هاست با استفاده از FTP: ابتدا از طریق یک کلاینت FTP مانند FileZilla به هاست خود متصل شوید.
- پیدا کردن فایل Robots.txt: پس از ورود به هاست، به دایرکتوری اصلی وبسایت خود
(پوشه public_html) بروید و فایل robots.txt را پیدا کنید. - ویرایش فایل Robots.txt: فایل robots.txt را باز کرده و دستورات مورد نظر خود را وارد کنید. برای مثال:
User-agent: *
Disallow: /private/
Allow: /public/
Sitemap: https://www.example.com/sitemap.xml - ذخیره تغییرات: پس از ویرایش فایل، آن را ذخیره کنید و مطمئن شوید که تغییرات اعمال شدهاند.
این روش به شما امکان میدهد تا کنترل کاملی بر نحوه دسترسی رباتهای موتور جستجو به محتوای سایت خود داشته باشید و میتوانید فایل robots.txt خود را به دلخواه حتی در سایتهای غیر وردپرسی سفارشیسازی کنید.
نمونهای از فایل robots.txt بهینه برای سئو
در زیر نمونهای از یک فایل robots.txt بهینهشده برای سئو را نشان میدهد. در این فایل، بخشهای مختلفی مانند User-agent، Disallow، و Allow وجود دارد که هر کدام دستورالعملهای خاصی را به موتورهای جستجو میدهند.
ساخت فایل robots.txt بهینه یکی از اولین و سادهترین کارهایی است که میتوانید برای بهبود سئوی سایت خود انجام دهید. با محدود کردن دسترسی به صفحات غیرمهم و هدایت موتورهای جستجو به سمت صفحات مهم، میتوانید رتبه سایت خود را در نتایج جستجو بهبود بخشید.
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Sitemap: https://example.com/sitemap_index.xml
نتیجهگیری
ساخت و بهینهسازی فایل robots.txt به موتورهای جستجو کمک میکند تا به جای صرف زمان و منابع روی صفحات غیرضروری یا تکراری، تمرکز خود را روی محتوای ارزشمند سایت شما بگذارند. این کار نه تنها بودجه خزش سایت را مدیریت میکند، بلکه به بهبود رتبه صفحات مهم سایت شما در نتایج جستجو کمک میکند.
در این مقاله با یکدیگر بررسی کردیم که فایل روبوتس چیست، چگونه میتوان فایل robots.txt را ساخت و همچنین دستورهای حیاتی و مهم آن را با یکدیگر بررسی کردیم تا بتوانید در هنگام ساخت این فایل مهم برای وبسایت آن را برای سئو سایت خود نیز بهینهسازی کنید.
سوالات متداول
robots.txt چیست؟
- robots.txt یک فایل با فرمت txt است که در داخل روت یا ریشه وبسایت بارگزاری میشود و شامل دستوراتی است که به رباتهای موتورهای جستجو اجازه میدهد که چه صفحات یا فایلهایی را ایندکس و چه فایل و صفحاتی را ایندکس نکنند.
robots.txt کجاست؟
- برای دسترسی به این فایل کافی است به سی پنل یا دایرکت ادمین سایت خود بروید و وارد پوشه public_html شوید. این پوشه همان روت یا ریشه سایت شماست. در آنجا فایل robots.txt را مشاهده خواهید کرد.
چرا فایل robots.txt را باید برای سئو بهینه سازی کرد؟
- فایل robots.txt یک ابزار کلیدی در بهینهسازی موتورهای جستجو (SEO) است که به شما اجازه میدهد کنترل دقیقی بر نحوه خزش و ایندکس شدن صفحات سایتتان داشته باشید. و از موارد آسیب رسان به سئو سایتتان مانند کنیبالیزیشن جلوگیری کنید.
مطالب زیر را حتما مطالعه کنید
تگ Alt تصویر چیست و چه اهمیتی در سئو دارد؟
فوتر سایت چیست و چرا در طراحی سایت مهم است؟
مراحل طراحی سایت بهصورت کاربردی و حرفهای
نقشه سایت چیست؟ چه اهمیتی در سئو دارد؟
اسکیما چیست و چه تأثیری در سئو دارد؟
CSS چیست و چه کاربردهایی در طراحی دارد؟
2 دیدگاه
به گفتگوی ما بپیوندید و دیدگاه خود را با ما در میان بگذارید.
فایل ربات حتما باید فرمتش txt باشه؟ مثه سایت مپ نمیشه فرمت دیگه ای گذاشت داخل روت سایت؟؟
کاربر عزیز، فایل robots حتما باید با فرمت txt داخل روت سایت آپلود بشه.