Danh sách và những phân tích 10 thủ thuật mà các Webmaster hay những người làm SEO cần tránh sử dụng khi tối ưu hóa Website cho máy tìm kiếm.
Công việc quảng bá Web, cụ thể là tối ưu hóa cho công cụ tìm kiếm (Search Engine Optimization) tạm gọi là nghề SEO khá là toàn diện và phức tạp. Bởi các thuật toán của máy tìm kiếm, các thủ thuật SEO rất phức tạp và liên tục thay đổi. Đơn cử như Google có đến hàng trăm nhân tố trong thuật toán xếp hạng trang Web. Hơn nữa, các máy tìm kiếm coi thuật toán là ưu tiên hàng đầu bởi hai lý do chính :
- Họ không muốn đối thủ biết họ đang làm gì.
- Họ không muốn các webmaster hay các spammers thiết kế Web, áp dụng các thủ thuật SEO một cách lạm dụng để có hạng hạng cao
Còn một lý do khác khiến cho nghề SEO trở nên phức tạp là các lý thuyết SEO, kinh nghiệm SEO thay đổi chóng mặt trong những năm gần đây. Những thủ thuật SEO mà Webmaster, các chuyên gia SEO áp dụng trong những năm trước đây không còn áp dụng được cho thời điểm hiện tại.
Sự thay đổi diện mạo Web dẫn đến sự thay đổi môi trường và các thuật toán của máy tìm kiếm một cách liên tục đã khiến cho nghề SEO trở nên phức tạp hơn. Rất nhiều câu hỏi, nhiều vấn đề vẫn còn được coi là bí hiểm trong nghề SEO. Bài viết này vietSEO sẽ tổng hợp cho các bạn 10 thủ thuật SEO đã lỗi thời và cần tránh. vietSEO.net hi vọng đưa ra vài lý giải ngắn gọn những người làm SEO, các Webmaster.
Dựa vào từ khóa trong thẻ MetaTags Keywords
Đây là điều cấm kỵ đầu tiên mà lý do đơn giản bởi vì các máy tìm kiếm đã không còn dựa vào thẻ MetaTags Keywords để xác định nội dung của trang Web từ hơn 3 năm nay. Thay vào đó, các máy tìm kiếm sẽ phân tích nội dung được hiển thị cho người dùng để xác định nội dung và phân loại, qui định thứ hạng cho trang. Những phần văn bản ẩn đối với người dùng, như MetaTags Keywords, đã không còn có ý nghĩa từ vài năm trở lại đây bởi chúng bị các Spammer lạm dụng quá mức. Tuy nhiên một số máy tìm kiếm vẫn dùng đến thẻ Meta Tags này với trọng số rất thấp. Vì vậy bạn hãy đặt vào trong thẻ Meta Tags này những từ khóa chính (như sau), rồi sau đó hãy quên chúng đi.
Trong khi đó, thẻ Meta Title – cung cấp thông tỉn thuật hiện cho người dùng, lại là một trong những thủ thuật SEO quan trọng nhất của việc làm SEO. Nó giúp bạn cải thiện đáng kể thứ hạng của trang.
Ngoài ra bạn cũng nên khai đầy đủ và chính xác thẻ Meta Description so với nội dung của trang. Thẻ Meta Description không giúp bạn cải thiện trực tiếp thứ hạng trang, nhưng nó giúp Google xây dựng snippets gắn kết với nội dung trong trang kết quả tìm kiếm. Trong khí đó Yahoo lại sử dụng thẻ description này trong trang kết quả tìm kiếm trong một số trường hợp. Việc này làm tăng tỷ lệ nhắp chọn CRT. Và vô hình chung, thẻ Meta Description cũng tham gia gián tiếp vào việc tăng chất lượng và tăng thứ hạng Website của bạn.
Nhồi nhét từ khóa vào trong phần text ẩn
Chiếm vị trí thứ hai bởi nó sẽ khiến cho Website của bạn bị phạt, cấm hoặc xóa khỏi danh mục chỉ số. Việc chèn các từ khóa với font chữ cực nhỏ, cùng màu sắc với font chữ nền hay vượt khỏi cửa sổ của trình duyệt hay thậm chí sử dụng các kỹ xảo SEO CSS HTML cũng là những thủ thuật SEO cấm kỵ. Các thuật toán của Google đã khá hoàn thiện trong việc phát hiện ra các kỹ xảo SEO này. Và việc bị trừng phạt là khó tránh khỏi nhất là khi việc chống spam đang trở thành mối quan tâm hàng đầu của nhiều máy tìm kiếm (Google, Yahoo).
Mua bán liên kết
Đây là một trong những cách thức rất phổ biến và được vận dụng rộng rãi bởi các Webmaster và những người làm SEO. Đặc biệt ở Việt Nam, khi mà chỉ số thông lượng truy cập Alexa được người dùng đánh giá cao và người ta nghĩ rằng việc liên kết, mua bán, trao đổi liên kết sẽ mang lại lượng truy cập cho Website. vietSEO nhận thấy rằng nhiều Webmaster Việt Nam vẫn coi trọng lượng truy cập trực tiếp mang lại từ việc trao đổi link hơn là lượng truy cập gián tiếp từ các máy tìm kiếm thông qua thứ hạng của Website.
Vấn đề là, việc trao đổi liên kết làm sai bản chất đường dẫn URL “tự nhiên” và nó sẽ khiến kết quả tìm kiếm không còn chuẩn xác với truy vấn của người dùng (Ghi nhớ là thứ hạng trang Web cũng phụ thuộc nhiều vào đường dẫn URL bên ngoài trỏ đến trang). Và các máy tìm kiếm, đặc biệt là Google, trong nỗ lực cải thiện kết quả tìm kiếm hữu ích cho người dùng, sẽ tìm cách chống lại việc mua bán liên kết và họ rất ưu tiên việc này. Matt Cutts, kỹ sư của Google cũng đã khẳng định rằng các thuật toán của Google đã rất hoàn thiện trong việc phát hiện các liên kết đựoc mua bán. Thông thường, Google sử dụng ba phương pháp sau để xác định việc mua bán liên kết này :
- Thuật toán sẽ tìm kiếm theo mẫu khả nghi, ví dụ như các từ dạng “quảng cáo”, “tài trợ” nằm ngay gần liên kết. Nó cũng có thể tìm ra một nhóm các liên kết rời rạc không có liên quan gì tới chủ đề trang có chứ liên kết này.
- Google cũng có hàng nghìn biên tập viên tại Châu Á, những người này quản lý chất lượng tìm kiếm. Và chắc chắn một phần trong số đó sẽ được đào tạo để phát hiện ra và cảnh báo việc mua bán liên kết giữ các Website.
- Ngoài ra, Google còn có công cụ cho phép người dùng thông báo và khiếu nại việc mua bán liên kết. Và chúng sẽ được gửi đến đội ngũ quản lý chất lượng tìm kiếm nằm tại Châu Á.
Vậy thì Google sẽ làm gì khi phát hiện ra việc mua bán liên kết ? Các liên kết đó sẽ bị đánh dấu và không còn có hiệu lực về thứ hạng cho trang được liên kết đến. Ngoài ra, nếu việc mua bán được phát hiện trong mục đích tăng thứ hạng thì Google sẽ áp dụng các hình thức phạt, như đánh tụt PageRank và thậm chí cấm luôn Website.
Vì vậy hãy sử dụng thời gian và tiền bạc hợp lý hơn. Thay vì bỏ thời gian tìm mua các liên kết thì bạn hãy tìm các liên kết đáng giá, có liên quan tới chủ đề của trang nhằm mang lại thông tin có ích cho người dùng. Và xây dựng một trang Web giàu thông tin hay các công cụ hữu ích, bạn sẽ có được các liên kết “tự nhiên” của người dùng. Đó là giữ chân được người dùng cũ và mang lại lượng truy cập mới. Đây là cách làm chắc chắn và lâu dài.
Thất thoát thứ hạng PageRank
Đây là một trong những lời khuyên mà vietSEO tâm đắc nhất bởi đơn giản nó là điều mà rất nhiều các Webmaster không hiểu được. Đặc biệt trong bối cảnh của Việt Nam, người quản trị Website, hay quản trị nội dung thường vì cái vòng luẩn quẩn của quyền tác giả nhiều hơn là khía cạnh SEO, nên rất “hà tiện” trong việc đặt liên kết tới các trang Web khác.
Cách hiểu sai lầm của những người làm SEO là khi trang Web liên kết tới các trang bên ngoài thì PageRank của trang đó sẽ bị “chia nhỏ” và “thất thoát” sang các trang khác. Thế nhưng thế giới đã thay đổi. PageRank chỉ còn là một chỉ số thông thường trong xếp hạng trang Web thôi.
Vì vậy bạn hãy thiết lập tăng cường liên kết tới các trang tương đồng nội dung, việc này tăng cường độ tin cậy thông tin trên trang Web của bạn.
Tham gia hệ thống trao đổi liên kết
Lại là một việc làm khá cũ nhưng không còn hiệu lực tí nào. Máy tìm kiếm muốn liên kết giữ đựoc bản chất “tự nhiên”, trích dẫn khi cần cung cấp thông tin, công cụ. Trong khi đó, việc trao đổi liên kết lại thể hiện sự đổi trác và chúng rất dễ dàng bị phát hiện.
Đừng mất thời gian tham gia trao đổi liên kết để để xây dựng hệ thống liên kết tiểu xảo giản đơn này. Tuy nhiên xây dựng liên kết lại là việc làm rất quan trọng néu như những trang Web trong sơ đồ liên kết có ích đối vời người dùng. Hãy xây dựng liên kết tới những trang có cùng chủ đề và có ích cho người dùng. Và tất nhiên sẽ còn tốt hơn nếu như những trang Web cùng chủ đề này liên kết tới Website của bạn mà không nhất thiết liên kết ngược lại.
Nội dung trung lặp
Như trong một số bài viết về nội dung trung lặp trên vietSEO mà các bạn có thể tham khảo thêm :
- Nội dung kép và phương pháp phát hiện mới của Google
- Phỏng vấn Matt Cutts về trùng lặp nội dung
- Thảo luận Webmaster sau phỏng vấn Matt Cutts về trùng lặp nội dung
Theo quan điểm của vietSEO thì có hai cách tạo ra nội dung kép :
- Nhiều Webmaster cố tình tạo ra các trang doorway, trang web với nội dung tương tự, thậm chí hoàn toàn giống trang gốc. Các trang này được trình bày theo nhiều cách khác nhau nhằm quảng bá sản phẩm hay dịch vụ của công ty.
- Nhiều khi, trong cùng một trang Web, cùng một nội dung sẽ xuất hiện tại nhiều trang khác nhau (đường dẫn URL khác nhau). Ví dụ, cùng một nội dung của Blog có thể tìm thấy trong phần liên kêt tới bài viết, thể loại, lưu trữ, RSS và trên trang chủ.
Vấn đề với nội dung kép là Google luôn muốn mang lại cho người tìm kiếm nhiều lựa chọn về nội dung, ví thế Google chỉ chọn ra một trang duy nhất trong số các nội dung trùng lặp. Bởi thế nội dung trùng lặp làm lãng phí thời gian của các máy tìm kiếm và làm tốn băng thông máy chủ Web của bạn. Và đôi khi kết quả hiển thị trên trang tìm kiếm lại không phải là phiên bản nội dung mà bạn muốn người dùng tiếp cận.
Bạn phải làm gì để tránh nội dung trung lặp ? Hãy tham khảo các bài viết về nội dung trùng lặp ở trên và tìm cách giảm bớt chúng. Ngoài còn có một số công cụ giúp bạn chỉ ra phiên bản cần thiết phải đánh chỉ số trong khi loại trừ các phiên bản phụ đi kèm.
Hãy tham khảo cách sử dụng Robots Exclusion Protocol (REP) để tránh đánh chỉ số nội dung trùng lặp hoặc không cần thiết, cá nhân :
Robots.txt disallows Web Robot, User-agent
Bài viết giới thiệu về Robots Exclusion Protocol (REP)với tệp tin robots.txt và cú pháp, cách sử dụng đúng và danh sách các User Agent Names.
Robots, HTML Meta và Google, Yahoo, Microsoft
Qui ước chung về chuẩn REP của cả ba đại gia : Google, Yahoo và Microsoft : Robots.txt và HTML Meta
Googlebot và Robots.txt : Allow, Disallow
Cách ứng dụng tệp tin robots.txt đối với máy tìm kiếm Google. Cách biên dịch đặc biệt tệp tin robots.txt của spider GoogleBot.
Robots META Tag – Metadata Elements
Ứng dụng thẻ Metadata Robots cho các trang đơn lẻ.
Hay sử dụng Redirection cho các thư mục, các trang:
Redirection Permanent Link – Redirect 301
Sử dụng Redirection 301 để chuyển hướng các bài viết.
Cấu hình máy chủ Apache với htacess
Sử dụng tên tin cấu hình Apache .htacess để chuyển hướng bài viết.
Sử dụng các Session IDs trong URLs
Trước khi đi vào chi tiết, nếu các bạn chưa nắm vững thành phần cơ bản của một liên kết siêu văn bản URL thì bạn hãy tham khảo bài viết các thành phân cơ bản của URL, Web tĩnh và Web động.
Việc Google đánh chỉ số các trang Web là liên tục. Tần suất của Googlebot lại phụ thuộc vào thứ hạng trang Web và mức độ cập nhật thông tin của trang. Để có trang Web đứng thứ hạng cao là công việc kiên trì kéo dài. Ngoài ra, Google cũng như các máy tìm kiếm khác luôn thích các trang Web tĩnh. Các tham biến xuất hiện cuối URL sẽ được máy tìm kiếm coi như là một thành phần của URL.
Nếu như trang Web động của bạn có chứa tham số Session ID, thì có nhiều khả năng là bọ tìm kiếm sẽ rơi vào vòng vô tận khi đánh chỉ số trang của bạn vì mỗi lần ghé thăm chúng lại được gán một Session ID mới và GoogleBot sẽ coi đây là bài viết mới. Với Session ID, bạn sẽ tạo ra nhiều nội dung trùng lặp như đã nói. Và Google sẽ mất nhiều thời gian vô ích đánh chỉ số, trong khi bạn lại tốn them băng thông cho chúng. Session ID sẽ làm giảm thứ hạng trang của bạn.
Dù các thuật toán của Google đã cải thiện đáng kể trong việc xử lý các session ID, nhưng bạn nên sử dụng cookie thay cho dùng tham biến trên URL. Nhớ rằng chỉ có 2% người dùng không sử dụng cookie.
Bạn cũng hãy cố gắng tạo ra các đường dẫn URL thân thiện (từ khóa trong URL) bằng cách sử dụng mod_rewrite URL với htacess chẳng hạn, hay cấu hình Permanent Link cho WordPress.
Website bằng Flash
Về mặt mỹ thuật, một trang Web trình bày hoàn toàn bằng Flash có thể rát bắt mắt, nhưng chắc chắn khó mà có thể có thứ hạng cao trên máy tìm kiếm. Như trong bài viết SEO Flash Website cho Google thì dù các máy tìm kiếm có thể đọc và đánh chỉ số Flash, nhưng khó mà thấy một trang Web Flash nào lại có thứ hạng cao đối với các từ khóa nóng, có tính cạnh tranh cao. Một trong những lý do đơn giản là Google thích text. Và nếu bạn trình bày trang với nhiều text thì Flash chỉ dừng lại ở việc cung cấp các hiệu ứng hình ảnh.
Sử dụng quá nhiều JavaScript
JavaScript có thể rất hiệu quả trong thiết kế Website. Nhưng vấn đề là Google sẽ gặp khó khăn để hiểu mã nguồn javascript. Dù hiện nay và trong tương, Google đã và sẽ nỗ lực nhiều hơn nhưng việc sử dụng JavaScript sẽ vẫn thiếu hiệu qua trong việc liên lạc với máy tìm kiếm.
Để tối ưu, những người làm SEO thường tách rời riêng JavaScript, còn trong trường hợp phải sử dụng, bạn hãy chèn file (include) hoặc dùng CSS để thay thế trong phần tiêu đề hoặc thân của Website. Hãy giúp máy hiểu được nội dung chính của trang và đánh chỉ số chúng dễ dàng, như thế, tất cả mọi người đều được lợi.
Kỹ thuật Cloaking
Đây là kỹ xảo SEO “mũ đen” nhằm hiển thị nội dung khác cho bọ tìm kiếm so với người dùng thường. Đây là một kỹ thuật khác cũ được nhiều spammers sử dụng trong những năm trước.
Các máy tìm kiếm ngày nay phát hiện dễ dàng trò gian lận này bằng cách gửi đi thường ký các bọ tìm kiếm mới với mục đích phát hiện cloaking. Có rất nhiều kỹ thuật cloaking, lừa các bọ tìm kiếm mà không thể liệt kê hết trong gìới hạn của bài viết. Tuy nhiên chúng đều sớm muộn bị phát hiện. Đây là một thủ thuật SEO “black hat” cần tránh.
Trong trường hợp bị phát hiện, trang Web liên quan sẽ bị cấm. Vì thế bạn không nên sử dụng kỹ thuật này. Hãy giả quyết vấn đề bằng cách kỹ thuật khác.
Kết luận thủ thuật SEO
Qua những phân tích bên trên, vietSEO đúc kết lại hai vấn đề chính mà các Webmaster, những người làm SEO cần chú ý khi áp dụng các thủ thuật SEO :
- Hãy học cách thức hoạt động của máy tìm kiếm để giúp chúng hiểu nội dung trang web của bạn. Các vấn đề tìm hiểu phần trên đều có một điểm chung là chúng gây khó dễ cho các máy tìm kiếm trong việc đánh chỉ số và xác định nội dung trang Web. Vì thế hay xây dựng trang Web tương tác tốt với máy tìm kiếm nhằm cung cấp cho chúng những nội dung duy nhất.
- Đừng sử dụng thời gian vô ích trong việc đánh lừa các máy tìm kiếm. Vì các thuật toán của máy tìm kiếm thừa đủ thông minh để phát hiện ra các tiểu xảo, chưa kể đến sự tiếp sức con người trong việc chống spam. Dù ngay cả trường hợp bạn qua mắt được máy tìm kiếm. Thì đó cũng chỉ là tạm thời trong một thời gian ngắn và cái giá phải trả khi bị lật tẩy sẽ đắt hơn nhiều. Đánh lừa máy tìm kiếm không phải là cách thức lâu dài.Hãy sử dụng thời gian, sức lực và tiền bạc để đầu tư vào nội dung, công cụ hữu ích và tham gia các chương trình quảng bá khác mà bạn sẽ làm nếu như các máy tìm kiếm đã không tồn tại.
Hoài Nam – vietSEO.net
Bài viết cùng chủ đề liên quan
- Thủ thuật Webmaster tạo Website khả kiến, chỉ số hoá dễ dàng
Tối ưu tính khả kiến của trang Web để đạt thứ hạng cao trên máy tìm kiếm Google Seach nói chung và cho người khiếm thị, Accessible Search, nói riêng.
- Chỉ số BrowseRank Microsoft cạnh tranh PageRank Google
Microsoft nghiên cứu chỉ số BrowseRank, xếp hạng mức độ quan trọng Website nhằm cạnh tranh với PageRank của Google
- Error 404 – Lỗi 404 – Thuật ngữ SEO Webmaster
Đây là một trong các thông báo lỗi rất phổ biến, nhằm thông tin cho người dùng khi một địa chỉ Web không được tìm thấy
- Redirection 302 – Thuật ngữ SEO Webmaster Internet
Redirection 302 gần giống với Redirection 301 là thông báo trang đã được chuyển nhưng khách vẫn phải tiếp tục sử dụng đường dẫn URL cũ.
- Webmaster – Quản trị Web – Thuật ngữ Quảng bá Web
Webmaster là một khái niệm khá chung bao quát tập hợp nhiều nghề hoặc chức năng khác nhau. Một cách khái quát, Webmaster tạm dịch là quản trị Web, người chịu trách nhiệm một trang Web.
- Google Adsense – Thuật ngữ SEO Webmaster Internet
Google Adsense trước tiên là một dịch vụ thương mại của Google cho phép chủ nhân Website lớn bé để nhanh chóng, dễ dàng đăng quảng cáo của Google trên nội dung trang Web của họ để kiếm tiền.