Bắt bệnh lỗi robots.txt khiến Google không thể index

Bắt bệnh lỗi robots.txt khiến Google không thể index
Hướng dẫn toàn tập cách bắt bệnh và khắc phục lỗi robots.txt khiến Google Bot không thể crawl và lập chỉ mục website. Tổng hợp kinh nghiệm từ cộng đồng Vozwiki để tối ưu SEO. Lỗi robots.txt là một trong những pha "tự hủy" kinh điển nhất mà anh em làm web, từ gà mờ đến cả SEOer lâu năm thỉnh thoảng vẫn dính đòn. Tưởng tượng bác đập cả đống tiền tối ưu website, viết content bục mặt, đi backlink ầm ầm nhưng traffic vẫn nằm im ở con số không tròn trĩnh. Check lại GSC thì Google nó đập cho dòng chữ đỏ chót "Bị chặn bởi robots.txt" . Cảm giác lúc đó nó thốn đến tận rốn, vì bao nhiêu công sức trôi tuột chỉ vì một dòng code vô tri tào lao cản đường con bọ thu thập dữ liệu. N hiều lúc anh em code web xong, bật chế độ chặn index để test cho sướng, đến lúc bàn giao hoặc public site lại quên béng mất việc mở khóa. File robots.txt sinh ra là để làm bảo vệ, hướng dẫn các bot tìm kiếm xem phòng nào được vào, phòng nào cấm. Nhưng nếu bác lỡ tay chỉ đạo bảo vệ …