File robots.txt là gì? - Web marketing



Bạn đã cấu hình file robots.txt của mình đúng hay chưa? Bài viết này sẽ giúp bạn có một cái nhìn đúng về robots.txt là gì? và cấu hình cho phù hợp, hạn chế việc đối thủ khai thác nhằm hạ điểm chất lượng website của bạn.

FILE ROBOTS.TXT LÀ GÌ ?

Tệp robots.txt là một tệp ở gốc trang web của bạn cho biết những phần thuộc trang web bạn không muốn cấp quyền truy cập cho trình thu thập dữ liệu của công cụ tìm kiếm. Đây là file đầu tiên mà Bot của các công cụ tìm kiếm sẽ đọc khi truy cập Website của bạn.

FILE ROBOTS.TXT ĐỂ LÀM GÌ?

File robots.txt bao gồm giao thức là một tệp nhỏ các lệnh để quy định cho các cỗ máy tìm kiếm dữ liệu được phép hoặc không được phép thu thập dữ liệu trong website của bạn.

Cho phép hoặc hạn chế Google Bot (hay các công cụ thu thập dữ liệu khác như Cốc Cốc Bot, Bing bot, Ahrefs…) được phép lập chỉ mục, thu thập dữ liệu Website của bạn. Robots.txt được sử dụng để kiểm soát lưu lượng truy cập của Bot, hạn chế các trang kém chất lượng, ẩn website khỏi công cụ tìm kiếm…

CÁC TỆP LỆNH NHỎ TRONG FILE ROBOTS.TXT BẠN CẦN BIẾT

File robots.txt được nằm ở thư mục gốc của Website. Để kiểm tra website của bạn có file robots.txt hay chưa bạn chỉ cần thêm /robots.txt vào sau tên miền của bạn. Nếu có thể truy cập được thì Website đã có robots.txt . Nếu Website chưa có thì bạn chỉ cần tạo file này trên máy tính và gửi cho người code trang web.

VD: http://www.hvdong.com/robots.txt

Một số tệp lệnh nhỏ trong file robots.txt

- User-agent: Tên loại bot
- Allow: Cho phép
- Disallow: Không cho phép
- Sitemap: Đường dẫn sơ đồ của trang web.
- Ghi chú: Dấu * thay cho chuỗi, có nghĩa là áp dụng với tất cả. Mỗi công cụ thu thập dữ liệu đều có một cái tên như googlebot, bingbot, coccocbot… nếu muốn chặn một loại bot cụ thể chúng ta sẽ khai báo tên cụ thể của loại bot đó.

CÁC TRƯỜNG HỢP CỤ THỂ SỬ DỤNG FILE ROBOTS.TXT

Robots.txt bao gồm các tệp lệnh, chỉ sử dụng để chặn các trang có cấu trúc về đường dẫn tương đồng.

1.SỬ DỤNG FILE ROBOTS.TXT ĐỂ CHẶN GOOGLE (TRONG QUÁ TRÌNH WEBISTE ĐANG XÂY DỰNG)

Trong quá trình bạn đang hoàn thiện website, cụ thể là website trong giai đoạn demo, chưa có nội dung, chưa tối ưu nội dung, hình ảnh, cấu trúc… thì bạn nên chặn Google lập chỉ mục trong thời gian này.

Cấu trúc file robots.txt như sau:
User-agent: *
Disallow: /

2. SỬ DỤNG FILE ROBOTS.TXT ĐỂ QUY ĐỊNH NỘI DUNG NÀO ĐƯỢC LẬP CHỈ MỤC, NỘI DUNG NÀO KHÔNG ĐƯỢC LẬP CHỈ MỤC.


VD: Bạn có 1 website là domain.com và có 2 danh mục Apple (domain.com/apple) và Samsung (domain.com/samsung).



Do danh mục samsung chưa những bài viết kém chất lượng, chủ yếu đi copy về kéo view nên bạn không muốn Google đọc những nội dung này, bạn sẽ phải cấu trúc lại file robots.txt như sau:

User-agent: *
Disallow: /samsung

Ý nghĩa: Chặn tất cả đường dẫn nào có chứa từ samsung sau dấu.

3. SỬ DỤNG ROBOT.TXT ĐỂ CHẶN NHỮNG TRANG KÉM CHẤT LƯỢNG, NỘI DUNG TỰ TẠO

Phổ biến nhất là trang tìm kiếm trên mỗi Website. Trang này có nội dung kém chất lượng và bất kỳ ai đều có tự tạo nội dung ở đây. Bất kỳ từ khóa nào người dùng tìm kiếm khi gõ vào ô tìm kiếm đều được hiển thị trên Website của bạn. Vậy sẽ ra sao nếu đối thủ họ đưa các từ khóa nhạy cảm, từ khóa cấm vào website của bạn và họ xây dựng các backlink về những liên kết đó ?



Dựa vào đó đối thủ dùng cách này để cố gắng đánh tụt các từ khóa của website bạn. Phần tìm kiếm là trang mà bạn nên chặn. Mỗi một trang web có url của phần tìm kiếm khác nhau, trong ví dụ này là search?q= bởi vậy cấu trúc file robots.txt sẽ chặn như sau:

User-agent: *
Disallow: /search?q=

4. SỬ DỤNG ĐỂ CHẶN GOOGLE INDEX VÀ LỘ LINK CÁC FILE DOWNLOAD TRẢ PHÍ

Một số các trang web có tải lên các file pdf để người dùng tải về, thông thường các file này rất nặng sẽ gây tốn tài nguyên cho Website. Hoặc một số Website cho phép tải file trả phí nhưng ko dấu đường link download cũng có thể Google sẽ index các nội dung này. Lời nguyên tốt nhất là đừng tải file nào nặng lên Website (hacker có thể tấn công website sẽ rất nhanh bị hạ gục). Hoặc bạn có thể chặn theo cách sau để hạn chế.

User-agent: *
Disallow: *.pdf

(Tương tự các loại file khác bạn cũng có thể làm như thế)

5. SỬ DỤNG ĐỂ CHẶN CÁC CÔNG CỤ THU THẬP LIÊN KẾT (NHƯ AHREFS)

Để đảm bảo an toàn cho các website vệ tinh tránh việc đối thủ nhòm ngó và biết được hệ thống của bạn, bạn nên chặn tất cả các công cụ quét liên kết (đặc biệt là ahrefs.com – công cụ check backlink lớn nhất hiện tại).

Lưu ý: Robots.txt không chặn dược các liên kết (link) tham chiếu tới Website của bạn. Để chặn ahrefs bạn cần đặt file robots.txt này trên các website vệ tinh.

User-agent: AhrefsBot
Disallow: /

Tổng hợp 145 công cụ check backlink thế giới hay sử dụng bởi A.tú cao. Bạn có thể tải về miễn phí và sử dụng cho vệ tinh của mình. TẠI ĐÂY

6. CHẶN PHẦN PHÂN TRANG TRONG WORDPRESS

Rất nhiều bạn sử dụng WordPress, bạn để ý ở những danh mục có nhiều bài viết thì WordPress sẽ phân trang. Những trang con chúng ta luôn bị trùng lặp title, description và thường là không SEO các trang này. Vì thế cách tốt nhất hãy chặn nó đi, tránh để google báo cáo dữ liệu chúng ta có những trang kém chất lượng, trùng lặp title, description.

VD: Danh mục iPad của Website này có phần trang. Bạn không seo các page2, page3 của nó nên sẽ chặn.

https://thanhtrungmobile.com/sua-chua/sua-chua-apple/ipad
https://thanhtrungmobile.com/sua-chua/sua-chua-apple/ipad/page/2

Cấu trúc như sau:

User-agent: *
Allow:/
Disallow: */page/
Sitemap: https://thanhtrungmobile.com/sitemap.xml

CẤU TRÚC CỦA 1 FILE ROBOTS.TXT CHUẨN BAO GỒM

Lưu ý: bạn cần chỉnh sửa cho phù hợp với Website của bạn. (thay đổi lại url tìm kiếm và link tới sitemap)

User-agent: *
Allow: /
Disallow: /tim-kiem/
Sitemap: https://domain.com/sitemap.xml

Hy vọng qua bài viết trên bạn sẽ hiểu rõ nhất về file robots.txt 

Nguồn: nguyencaotu.com