Cấu trúc file robots.txt như thế thế nào chuẩn seo cho một trang blog.
Đó là một vấn đề chúng ta phải làm, nghĩa là muốn để một robot chuẩn thì bạn phải thiết lập làm sao cho đúng, bạn phải hiểu những đoạn text trong file robot.txt, điều quan trong không thể thiếulà người dùng muốn cho phép các công cụ tìm kiếm index những nội dung nào và không cho phép nội dung index nào, điều này thì các bạn phải chỉnh sữa trong đoạn mã dưới đây.
Đây là file robot được mình chỉnh sửa và theo đánh giá là một file robot.txt 2020 chuẩn seo nhất hiện nay.
dưới đây là tệp Robots.txt của Smobile36 đang sử dụng .
Ý nghĩa của các dòng lệnh :
User-agent: Mediapartners-Google
Disallow:
User-agent: *
Allow: /search
Disallow: /search*
Allow: /
Allow: *max-results=8
Allow: /search/label/
Disallow: *archive.html
Disallow: *?updated-max*
Disallow: *?m=0
Allow: /
Sitemap: https://smobile36.com/feeds/posts/default?orderby=UPDATED
Sitemap: https://smobile36.com/sitemap-index.xml
Sitemap:https://smobile36.com/atom.xml?redirect=false&start-index=1&max-results=500
Ý nghĩa của các dòng lệnh :
- User-agent: Phần này là tên của các trình thu thập dữ liệu web. (ví dụ: Googlebot, Bingbot,…)
- Disallow: Lệnh này được sử dụng để thông báo cho các user-agent không thu thập bất kì dữ liệu URL cụ thể nào. Mỗi URL chỉ được sử dụng 1 dòng disallow.
- Allow (chỉ áp dụng cho Googlebot): Lệnh này thông báo cho Googlebot rằng nó có thể truy cập một trang hoặc thư mục con. Mặc dù các trang hoặc các thư mục con của nó có thể không được phép.
- Sitemap: Lệnh này được sử dụng để cung cấp các vị trí của bất kì XML sitemap nào được liên kết với URL này. Lưu ý lệnh này chỉ được hỗ trợ bởi Google, Ask, Bing và Yahoo.
Ví dụ để xem trang Smobile36.com của mình đang khai báo như nào các bạn thực hiện thêm robots.txt vài sau link như sau http://smobile36.com/robots.txt
Post a Comment
Post a Comment