Thuật toán Possum và mức độ ảnh hưởng đến kết quả tìm kiếm

  • -

Thuật toán Possum và mức độ ảnh hưởng đến kết quả tìm kiếm

Chắc bạn đã từng nghe câu “Điều duy nhất trong SEO không đổi chính là sự thay đổi”. Sự thật là Google thay đổi cập nhật thuật toán 500 – 600 lần mỗi năm. Những thuật toán nhỏ thường không thu hút sự quan tâm của cộng đồng SEO nên chúng ta không biết và cứ sau một khoảng thời gian nhất định, Google sẽ tung ra bản cập nhật với quy mô lớn.

Một trong những thuật toán của Google là Possum

Possum – Một loài chuột có túi hoang dã hoạt động về đêm tại Mỹ. Thức ăn của chúng chủ yếu là hoa quả và ngọn cây, lá non. Loài động vật này rất nhanh và thường hoạt động về đêm nên người ta chỉ có thể thấy dấu hiệu tồn tại của chúng mà thường rất ít khi gặp được chúng về đêm.

Việc đặt tên bản cập nhật này là Possum nhằm ám chỉ địa chỉ Local của các doanh nghiệp giờ đây đang giống như những con Possum, địa chỉ doanh nghiệp bạn vẫn tồn tại nhưng không một ai nhìn thấy bạn.

Thuật toán Possum ảnh hưởng đến tìm kiếm Local như thế nào?

Địa chỉ
Trước đây khi người dùng của Google tìm kiếm kèm tên thành phố trong các truy vấn thì Google không có thông tin chính xác để cung cấp. Cho nên nó rõ ràng là tạo ra bất lợi cho phía doanh nghiệp. Một số trung tâm kinh doanh, thương mại thì có cùng một địa chỉ nên nó gây ra sự khó khăn cho người dùng khi họ cần thông tin chính xác. Với sự ra đời của thuật toán Possum của Google thì giờ đây Google có thể lọc các doanh nghiệp có cùng địa chỉ.

Ví dụ, nếu như vị trí của một công ty thực phẩm nằm ở vùng ngoại ô, thì sẽ thật khó khăn để người tìm kiếm local xác định được vị trí của doanh nghiệp trong danh mục kết quả Local Pack. Sau khi Google ra mắt cập nhật Possum, thì những vấn đề trên trở thành chuyện nhỏ với cpaaj nhật về thông tin bổ sung về địa chỉ doanh nghiệp trong SEO. Người tìm kiếm giớ đây có thể rút ra bất kỳ thông tin gì dựa trên những cập nhật địa chỉ.

Vị trí của người dùng
Với phát minh “ Possum” trên SEO, thì bạn có thể tùy chỉnh tìm kiếm của bạn bằng việc sử dụng các zip code khác nhau. Do đó bạn có thể tìm kiếm chính xác thứ mà bạn đang tìm kiếm. Ví dụ như, nếu như bạn ở thành phố Bình Dương và tìm kiếm “ khu công nghiệp ở thành phố Hồ Chí Minh”, thì có thể bạn sẽ nhận được một kết quả khác so với người tìm kiếm đang ở thành phố Hồ Chí Minh cũng thực hiện một truy vấn tương tự. Đó là lý do tại sao Google tùy chỉnh các kết quả tìm kiếm theo vị trí địa lý của người tìm kiếm.

Các kết quả tìm kiếm khác nhau, theo như các sai biệt trong từ khóa
Với cập nhật Possum mới, có một sự thay đổi nhẹ trong các kết quả tìm kiếm cho cùng một tìm kiếm sử dụng các từ khóa khác nhau. Ví dụ như là: nếu như bạn đang tìm kiếm “ nhà hàng ở quận 1”, “ nhà hàng quận 1”, hay “ các nhà hàng ở quận 1, thành phố Hồ Chí Minh” ; thì chúng là 2 tìm kiếm với các từ khóa riêng, nhưng đều có cùng ý nghĩa. Các kết quả tìm kiếm mà Google cung cấp thì có hơi khác biệt một ít cho tất cả các từ khóa mà tiện lợi cho người tìm kiếm. Bạn càng thay đổi các từ khóa, thì càng nhiều biến thể sẽ xuất hiện.

Nếu như trước đây, một doanh nghiệp có thể có 2 hoặc nhiều các địa chỉ trên bảng kết quả tìm kiếm local, thì giờ đây, chỉ duy nhất 1 địa chỉ của họ sẽ được Google hiển thị. Các địa chỉ khác sẽ bị bộ lọc của Google Local Map lọc ẩn đi, và chỉ được show ra khi người dùng click vào hiển thị ngoài bộ lọc.

Google xác định địa chỉ trùng lặp dựa trên địa chỉ khai báo của doanh nghiệp và địa chỉ trang web của doanh nghiệp đó trên bảng xếp hạng kết quả tìm kiếm tự nhiên.

Việc lọc các địa chỉ trùng lặp trên bảng xếp hạng kết quả tìm kiếm Local đang ngày càng trở lên độc lập hơn với việc lọc các kết quả tìm kiếm tự nhiên trùng lặp.

Hiện tại, các bạn làm local SEO nên bỏ thơi gian để phân tích xem cái gì làm ảnh hưởng tới xếp hạng tìm kiếm Local sau cập nhật Possum. Về lâu dài thì câu trả lời cho chuyện này sẽ ngày càng khó hơn và việc của chúng ta sẽ không còn đơn giản chỉ là viết thêm review hay chèn thêm từ khóa như vài năm trước đây nữa.

Xem thêm bài viết có liên quan Phạm vi ảnh hưởng của thuật toán Google Panda

_______________________________________________________________________________

TEAM Seo Lên Top 10 SEOLENTOP10.COM –  Dịch vụ seo từ khóa chuyên nghiệp và uy tín
Phone: 033 556 1529
Email: seolentop10.com@gmail.com
Chat Skype: seolentop10.com (vui lòng gõ tìm kiếm để add nick)
https://www.facebook.com/seolentop10


  • -

Tìm hiểu về thuật toán Phantom đánh giá chất lượng

Một số điểm cần lưu ý với thuật toán Phantom đặc biệt khi RankBrain và các thuật toán khác được cập nhật:

1. Phantom đánh giá chất lượng và tập trung vào ý định người dùng, đó là một phần trong thuật toán xếp hạng cốt lõi của Google, có nghĩa là phantom liên tục thích ứng cách xử lý tín hiệu chất lượng.

2. Cập nhật thuật toán Phantom 2 thăng 6 năm 2015 cho thấy nó hoạt động trên cơ sở cấp trang, có nghĩa những trang chất lượng thấp bị ảnh hưởng riêng biệt với toàn bộ domain (toàn website). Tuy nhiên một số lượng lớn các trang kém chất lượng sẽ vẫn gián tiếp gây tác động xấu cho toàn bộ website. Do đó các phần của website hoạt động kém hiệu quả cần được cải thiện chất lượng tránh ảnh hướng tới toàn bộ trang.

Theo số liệu thống kê chứng kiến sự sụt giảm mạnh trong Visibility SEO ảnh hưởng đến domain vào cuối tháng 6/2016 đến đầu tháng 7/2016. Cộng đồng SEO  cũng đã quan sát thấy sự biến động trong suốt khoảng thời gian trong tháng 6 và công bố những kết quả này.

Mục tiêu của thuật toán Pantom đánh giá chất lượng là gì?

Cái này rất quan trọng. Mỗi khi có sự thay đổi xảy ra tại Google, ngành công nghiệp SEO phản ứng bằng cách tuyên bố rằng Google nhắm mục tiêu vào một loại spam cụ thể.

Theo lịch sử thì đây là một thực tế, các bản cập nhật của Google dường như có khả năng nhắm mục tiêu nhằm cải thiện nội dung chất lượng cao. Nhưng vì một số ngành công nghiệp SEO bị ám ảnh với việc giải thích rằng tất cả mọi bản cập nhật đều nhắm mục tiêu vào chất lượng thấp.

Xem xét một tình huống trong đó Google đưa ra một thuật toán cải thiện khả năng hiểu nội dung và cách kết nối nội dung đó với ý định của người dùng sau mỗi truy vấn tìm kiếm. Trong trường hợp đó, chất lượng nội dung thấp với từ khoá được nhắm mục tiêu (nhưng không phải là mục đích của người dùng) sẽ ngăn chặn việc xếp hạng và nội dung chất lượng cao hơn phù hợp với mục đích của người dùng sẽ được xếp hạng.

Sự thay đổi này sẽ ảnh hưởng đến một loạt các trang web. Các trang web đang được xếp hạng với liên kết của họ sẽ dừng xếp hạng nếu nội dung của họ không xác định được đâu là câu trả lời chính xác cho một truy vấn tìm kiếm. Điều tương tự có thể xảy ra với các trang web khác có chứa quá nhiều quảng cáo.

Sự phong phú của quảng cáo không phải là một yếu tố, khả năng trả lời đúng truy vấn là một yếu tố duy trì thứ hạng của trang web đó. Tương tự như vậy, với một số trang web khác, sự phong phú về anchor text trong các liên kết không phải là yếu tố duy trì thứ hạng của một trang web.

Đó là ảnh hưởng của việc một thuật toán đang tập trung vào việc hiểu nội dung tốt hơn chứ không phải là tập trung vào việc giảm giá trị các trang web chất lượng kém hoặc có quá nhiều anchor text.

Bản cập nhật chính sẽ không nhắm mục tiêu vào các trang web chất lượng thấp nhưng ngành công nghiệp SEO đã nhận thức trái ngược với điều đó. Và ngành công nghiệp SEO có thể đã sai. Tôi chắc chắn rằng ngành công nghiệp SEO đã sai về thuật toán Phantom: Không phải thuật toán nào thay đổi cũng nhắm mục tiêu vào spam.

Xem thêm bài viết có liên quan Thuật toán Google Penguin đánh vào những website nào

_______________________________________________________________________________

TEAM Seo Lên Top 10 SEOLENTOP10.COM –  Dịch vụ seo từ khóa chuyên nghiệp và uy tín
Phone: 033 556 1529
Email: seolentop10.com@gmail.com
Chat Skype: seolentop10.com (vui lòng gõ tìm kiếm để add nick)
https://www.facebook.com/seolentop10