Thêm code Robot.txt chuẩn cho blogspot


Robots.txt là một tài liệu cho các con bọ (SE: Search Engine) đọc trang này (index) dữ liệu website ở trang nào, và không cho đọc trang nào lên các máy chủ tìm kiếm.

Các con bọ tìm kiếm đều phải tuân thủ nội dung trong Robots.txt trước khi lập chỉ mục các nội dung trong website.

Việc thiết lập Robots.txt chuẩn cho công cụ lập chỉ mục (index) nhanh chóng hoặc index các nội dung không muốn cho lập chỉ mục.

ROBOTS.TXT MÀ EBOOKBKMT.COM ĐANG DÙNG

Bạn thay link https://www.ebookbkmt.com/ ở các code bên dưới nhé!


"Click vào để xem ảnh gốc với chất lượng tốt hơn"

Hoặc tham khảo robots.txt mà ebookbkmt đang dùng tại https://www.ebookbkmt.com/robots.txt

User-agent: Mediapartners-Google
Disallow:
User-agent: *
Allow: /search
Disallow: /search*
Allow: /
Allow: *max-results=10
Allow: /search/label/
Disallow: *archive.html
Disallow: *?updated-max*
Disallow: *?m=0
Sitemap: https://www.ebookbkmt.com/posts/default?orderby=UPDATED
Sitemap: https://www.ebookbkmt.com/sitemap.xml
Sitemap: https://www.ebookbkmt.com/atom.xml?redirect=false&start-index=1&max-results=500

GIẢI THÍCH CÁCH HOẠT ĐỘNG CỦA ROBOT.TXT

User-agent: Mediapartners-Google
Disallow: >> Mình chặn index các trang đối tác của Google (Google Adsense)
User-agent: * >> Khai báo cho tất cả bộ máy tìm kiếm (SE)
Allow: /        >> Cho phép đọc trang domain.com/ (Khác với domain.com không có / phía sau .com)
Disallow: /search* >> Chặn trang tìm kiếm
Allow: /search  >> Cho phép đọc trang bài viết mới
Disallow: *archive.html  >> Chặn index trang lưu trữ
Disallow: *?m=0  >> chặn index trang có giá trị domain.com?m=0
Allow: /search/label/   >> Cho phép index trang nhãn
Allow: *max-results=10 >> Cho phép Index trang nhãn có max-results=10 (vì mình muốn như thế)
Dành cho các site không index các trang *max-results=*
Disallow: *max-results=*  >> Chặn index đuôi max-results=10, max-results=20, max-results=xxx. 
Thường dùng cho code phân trang.

RIÊNG ĐỐI VỚI BLOGGER SỬ DỤNG CẤP DỮ LIỆU QUA ATOM VÀ MỖI LẦN CẤP LÀ TỐI ĐA 500 BÀI NÊN TA MỚI KHAI BÁO SITEMAP NHƯ SAU:

Sitemap: https://www.ebookbkmt.com/posts/default?orderby=UPDATED
Sitemap: https://www.ebookbkmt.com/sitemap.xml
Sitemap: https://www.ebookbkmt.com/atom.xml?redirect=false&start-index=1&max-results=500
Sitemap: https://www.ebookbkmt.com/atom.xml?redirect=false&start-index=501&max-results=500
Sitemap: https://www.ebookbkmt.com/atom.xml?redirect=false&start-index=1001&max-results=500
Sitemap: https://www.ebookbkmt.com/atom.xml?redirect=false&start-index=1501&max-results=500
Sitemap: https://www.ebookbkmt.com/p/map.html

Trong đó các link sau:

Sitemap: https://www.ebookbkmt.com/atom.xml?redirect=false&start-index=1&max-results=500
Sitemap: https://www.ebookbkmt.com/atom.xml?redirect=false&start-index=501&max-results=500
Sitemap: https://www.ebookbkmt.com/atom.xml?redirect=false&start-index=1001&max-results=500
Sitemap: https://www.ebookbkmt.com/atom.xml?redirect=false&start-index=1501&max-results=500

= Được khai báo trong Google Webmaster Tools

Sitemap: https://www.ebookbkmt.com/p/map.html
Sitemap dành cho người dùng nhưng cũng khai báo link để Google (SE) vào đó đọc link cho nhanh.



CÁCH KHAI BÁO ROBOTS.TXT


1. CHO PHÉP DÒ VÀ INDEX TOÀN BỘ TRANG VÀ CÁC THƯ MỤC, CÁC FILE

Allow: /

2. CHẶN KHÔNG CHO PHÉP TẤT CẢ BOT (SE) TRUY CẬP VÀ INDEX TOÀN BỘ

Disallow: /

3. CHẶN TOÀN BỘ MỘT THƯ MỤC VÀ CÁC FILE, THƯ MỤC CON TRONG NÓ

Disallow: /abc/

4. CHẶN MỘT TRANG CỐ ĐỊNH

Disallow: /abc.html

5. CHẶN MỘT LOẠI FILE CỐ ĐỊNH TỪ MỘT BOT CỦA CÔNG CỤ TÌM KIẾM

User-agent: Googlebot
Disallow: /*.doc$ (thay doc bằng jpg hoặc bất kì file nào muốn chặn)

6. CHẶN MỘT HÌNH KHÔNG CHO GOOGLEBOT-IMAGE INDEX

User-agent: Googlebot-Image
Disallow: /abc/def.jpg

7. CHẶN KHÔNG CHO MỘT BOT BẤT KÌ TRUY CẬP:

User-agent: Googlebot
Disallow: /

LƯU Ý KHI SỬ DỤNG VÀ TẠO FILE ROBOTS.TXT

- Phân biệt chữ hoa, chữ thường
- Không được viết thừa hoặc thiếu khoảng trắng
- Mỗi lệnh viết trên một dòng
- Không tự ý thêm các ký tự đặc biệt dễ gây nhầm lẫn cho bot
- Hết sức thận trọng khi sử dụng khi bạn chưa hiểu thường tận
- Kiểm tra thường xuyên file robots.txt

NGUỒN: (toilaquantri.com)


Robots.txt là một tài liệu cho các con bọ (SE: Search Engine) đọc trang này (index) dữ liệu website ở trang nào, và không cho đọc trang nào lên các máy chủ tìm kiếm.

Các con bọ tìm kiếm đều phải tuân thủ nội dung trong Robots.txt trước khi lập chỉ mục các nội dung trong website.

Việc thiết lập Robots.txt chuẩn cho công cụ lập chỉ mục (index) nhanh chóng hoặc index các nội dung không muốn cho lập chỉ mục.

ROBOTS.TXT MÀ EBOOKBKMT.COM ĐANG DÙNG

Bạn thay link https://www.ebookbkmt.com/ ở các code bên dưới nhé!


"Click vào để xem ảnh gốc với chất lượng tốt hơn"

Hoặc tham khảo robots.txt mà ebookbkmt đang dùng tại https://www.ebookbkmt.com/robots.txt

User-agent: Mediapartners-Google
Disallow:
User-agent: *
Allow: /search
Disallow: /search*
Allow: /
Allow: *max-results=10
Allow: /search/label/
Disallow: *archive.html
Disallow: *?updated-max*
Disallow: *?m=0
Sitemap: https://www.ebookbkmt.com/posts/default?orderby=UPDATED
Sitemap: https://www.ebookbkmt.com/sitemap.xml
Sitemap: https://www.ebookbkmt.com/atom.xml?redirect=false&start-index=1&max-results=500

GIẢI THÍCH CÁCH HOẠT ĐỘNG CỦA ROBOT.TXT

User-agent: Mediapartners-Google
Disallow: >> Mình chặn index các trang đối tác của Google (Google Adsense)
User-agent: * >> Khai báo cho tất cả bộ máy tìm kiếm (SE)
Allow: /        >> Cho phép đọc trang domain.com/ (Khác với domain.com không có / phía sau .com)
Disallow: /search* >> Chặn trang tìm kiếm
Allow: /search  >> Cho phép đọc trang bài viết mới
Disallow: *archive.html  >> Chặn index trang lưu trữ
Disallow: *?m=0  >> chặn index trang có giá trị domain.com?m=0
Allow: /search/label/   >> Cho phép index trang nhãn
Allow: *max-results=10 >> Cho phép Index trang nhãn có max-results=10 (vì mình muốn như thế)
Dành cho các site không index các trang *max-results=*
Disallow: *max-results=*  >> Chặn index đuôi max-results=10, max-results=20, max-results=xxx. 
Thường dùng cho code phân trang.

RIÊNG ĐỐI VỚI BLOGGER SỬ DỤNG CẤP DỮ LIỆU QUA ATOM VÀ MỖI LẦN CẤP LÀ TỐI ĐA 500 BÀI NÊN TA MỚI KHAI BÁO SITEMAP NHƯ SAU:

Sitemap: https://www.ebookbkmt.com/posts/default?orderby=UPDATED
Sitemap: https://www.ebookbkmt.com/sitemap.xml
Sitemap: https://www.ebookbkmt.com/atom.xml?redirect=false&start-index=1&max-results=500
Sitemap: https://www.ebookbkmt.com/atom.xml?redirect=false&start-index=501&max-results=500
Sitemap: https://www.ebookbkmt.com/atom.xml?redirect=false&start-index=1001&max-results=500
Sitemap: https://www.ebookbkmt.com/atom.xml?redirect=false&start-index=1501&max-results=500
Sitemap: https://www.ebookbkmt.com/p/map.html

Trong đó các link sau:

Sitemap: https://www.ebookbkmt.com/atom.xml?redirect=false&start-index=1&max-results=500
Sitemap: https://www.ebookbkmt.com/atom.xml?redirect=false&start-index=501&max-results=500
Sitemap: https://www.ebookbkmt.com/atom.xml?redirect=false&start-index=1001&max-results=500
Sitemap: https://www.ebookbkmt.com/atom.xml?redirect=false&start-index=1501&max-results=500

= Được khai báo trong Google Webmaster Tools

Sitemap: https://www.ebookbkmt.com/p/map.html
Sitemap dành cho người dùng nhưng cũng khai báo link để Google (SE) vào đó đọc link cho nhanh.



CÁCH KHAI BÁO ROBOTS.TXT


1. CHO PHÉP DÒ VÀ INDEX TOÀN BỘ TRANG VÀ CÁC THƯ MỤC, CÁC FILE

Allow: /

2. CHẶN KHÔNG CHO PHÉP TẤT CẢ BOT (SE) TRUY CẬP VÀ INDEX TOÀN BỘ

Disallow: /

3. CHẶN TOÀN BỘ MỘT THƯ MỤC VÀ CÁC FILE, THƯ MỤC CON TRONG NÓ

Disallow: /abc/

4. CHẶN MỘT TRANG CỐ ĐỊNH

Disallow: /abc.html

5. CHẶN MỘT LOẠI FILE CỐ ĐỊNH TỪ MỘT BOT CỦA CÔNG CỤ TÌM KIẾM

User-agent: Googlebot
Disallow: /*.doc$ (thay doc bằng jpg hoặc bất kì file nào muốn chặn)

6. CHẶN MỘT HÌNH KHÔNG CHO GOOGLEBOT-IMAGE INDEX

User-agent: Googlebot-Image
Disallow: /abc/def.jpg

7. CHẶN KHÔNG CHO MỘT BOT BẤT KÌ TRUY CẬP:

User-agent: Googlebot
Disallow: /

LƯU Ý KHI SỬ DỤNG VÀ TẠO FILE ROBOTS.TXT

- Phân biệt chữ hoa, chữ thường
- Không được viết thừa hoặc thiếu khoảng trắng
- Mỗi lệnh viết trên một dòng
- Không tự ý thêm các ký tự đặc biệt dễ gây nhầm lẫn cho bot
- Hết sức thận trọng khi sử dụng khi bạn chưa hiểu thường tận
- Kiểm tra thường xuyên file robots.txt

NGUỒN: (toilaquantri.com)

M_tả
M_tả

Không có nhận xét nào: