Tối ưu hóa công cụ tìm kiếm (dịch vụ SEO) là quá trình cải thiện chất lượng và số lượng lưu lượng truy cập vào một trang web hoặc một trang web từ các công cụ tìm kiếm. [1] SEO nhắm mục tiêu lưu lượng truy cập không phải trả tiền (được gọi là kết quả "tự nhiên" hoặc "không phải trả tiền") hơn là lưu lượng truy cập trực tiếp hoặc lưu lượng truy cập có trả tiền. Lưu lượng truy cập không phải trả tiền có thể bắt nguồn từ các loại tìm kiếm khác nhau, bao gồm tìm kiếm hình ảnh, tìm kiếm video, tìm kiếm học thuật, [2] tìm kiếm tin tức và các công cụ tìm kiếm dọc theo ngành cụ thể.

Là một chiến lược tiếp thị trên Internet, SEO xem xét cách thức hoạt động của các công cụ tìm kiếm, các thuật toán được lập trình máy tính điều khiển hành vi của công cụ tìm kiếm, những gì mọi người tìm kiếm, các cụm từ hoặc từ khóa tìm kiếm thực tiễn được nhập vào các công cụ tìm kiếm và công cụ tìm kiếm nào được đối tượng mục tiêu của họ ưa thích . SEO được thực hiện bởi vì một trang web sẽ nhận được nhiều khách truy cập hơn từ công cụ tìm kiếm khi các trang web xếp hạng cao hơn trong trang kết quả của công cụ tìm kiếm (SERP). Những khách truy cập này kế tiếp có thể được chuyển đổi thành khách hàng
Lịch sử

Các nhà quản trị web và nhà cung cấp nội dung bắt đầu tối ưu hóa trang web cho các công cụ tìm kiếm vào giữa những năm 1990, khi các công cụ tìm kiếm đầu tiên lập danh mục cho trang Web ban đầu. Ban đầu, tất cả các quản trị viên web chỉ cần gửi Địa chỉ cửa hàng của một trang hoặc URL đến các công cụ không giống nhau sẽ gửi một trình thu thập thông tin web để thu thập thông tin trang đó, trích xuất các link đến các trang khác từ nó và trả lại thông tin tìm thấy trên trang được lập chỉ mục .[4] Quá trình này bao gồm một trình craw dữ liệu công cụ tìm kiếm tải xuống một trang và lưu trữ nó trên máy chủ của chính công cụ tìm kiếm. Chương trình thứ hai, được gọi là trình lập chỉ mục, trích xuất thông tin về trang, chẳng hạn như các từ mà trang chứa, vị trí của chúng và bất kỳ trọng số nào cho các từ cụ thể, cũng tương tự tất cả các liên kết mà trang chứa. Tất cả thông tin này sau đó được đưa vào một bộ lập lịch để thu thập thông tin vào một ngày tiếp nối.

Chủ sở hữu trang web nhận ra giá trị của thứ hạng cao và khả năng hiển thị trong kết quả của công cụ tìm kiếm, [5] tạo cơ hội cho cả những người thực hành SEO mũ trắng và mũ đen. Theo nhà phân tích ngành Danny Sullivan, cụm từ "tối ưu hóa công cụ tìm kiếm" có thể được sử dụng vào năm 1997. Sullivan ghi nhận Bruce Clay là một trong những người đầu tiên phổ biến thuật ngữ này. [6] Vào ngày 2 tháng 5 năm 2007, [7] Jason Gambert đã cố gắng đăng ký nhãn hiệu cho thuật ngữ SEO bằng cách thuyết phục Văn phòng nhãn hiệu ở Arizona [8] rằng SEO là một "quy trình" liên quan đến thao tác từ khóa chứ không phải "dịch vụ quảng bá sản phẩm".

Các phiên bản đầu tiên của thuật toán tìm kiếm dựa trên thông tin do quản trị viên web cung cấp, chẳng hạn như thẻ meta từ khóa hoặc các tệp chỉ mục trong các công cụ như ALIWEB. Thẻ meta cung cấp hướng dẫn cho nội dung của mỗi trang. Tuy nhiên, việc sử dụng siêu dữ liệu để lập chỉ mục các trang được cho là ít đáng tin tưởng hơn vì sự tuyển lựa từ khóa của quản trị viên web trong thẻ meta có thể là sự thuyết trình không chính xác về nội dung thực tế của trang web. Dữ liệu không chính xác, không đầy đủ và không nhất quán trong các thẻ meta có thể và đã khiến các trang xếp hạng cho các tìm kiếm không ảnh hưởng. [9] [đáng ngờ - thảo luận] Các nhà cung cấp nội dung web cũng thao túng một số thuộc tính trong nguồn HTML của một trang nhằm cố gắng xếp hạng tốt trong công cụ tìm kiếm. [10] Đến năm 1997, các nhà kiến thiết công cụ tìm kiếm nhận ra rằng các quản trị viên web đã nỗ lực để xếp hạng tốt trong công cụ tìm kiếm của họ và một số quản trị viên web thậm chí đang thao túng thứ hạng của họ trong kết quả tìm kiếm bằng cách nhồi các trang có không ít từ khóa hoặc không liên quan. Các công cụ tìm kiếm ban đầu, chẳng hạn như Altavista và Infoseek, đã điều chỉnh thuật toán của họ để ngăn quản trị viên web thao túng thứ hạng. [11]
Bằng cách dựa nhiều vào các yếu tố như mật độ từ khóa, vốn chỉ nằm trong tầm kiểm soát của quản trị viên web, các công cụ tìm kiếm ban đầu đã bị lạm dụng và thao túng xếp hạng. Để cung cấp kết quả tốt hơn cho người dùng của họ, các công cụ tìm kiếm phải điều chỉnh để đảm bảo các trang kết quả của họ hiển thị các kết quả tìm kiếm phù hợp nhất, thay vì các trang không tương tác bị quản trị web vô lương tâm nhồi nhiều từ khóa. Điều này có nghĩa là chuyển từ sự phụ thuộc nhiều vào mật độ thuật ngữ sang một quy trình toàn diện hơn để ghi các tín hiệu ngữ nghĩa. [12] Vì sự thành tựu và phổ biến của một công cụ tìm kiếm được xác định bởi khả năng tạo ra các kết quả phù hợp nhất cho bất kỳ tìm kiếm nhất quyết nào, nên các kết quả tìm kiếm có chất lượng kém hoặc không liên quan có thể khiến người dùng tìm các nguồn tìm kiếm khác. Các công cụ tìm kiếm phản ứng bằng cách phát triển các thuật toán xếp hạng phức hợp hơn, có tính đến các yếu tố bổ sung mà quản trị viên web khó thao tác hơn. Năm 2005, một hội nghị thường niên, AIRWeb (Truy xuất thông tin đối phương trên Web), được Ra đời để tập trung các nhà thực hành và nhà nghiên cứu thúc đẩy đến tối ưu hóa công cụ tìm kiếm và các chủ đề liên quan. [13]

Các công ty sử dụng các kỹ thuật quá mạnh có thể khiến các trang web khách hàng của họ bị cấm khỏi kết quả tìm kiếm. Năm 2005, Wall Street Journal đưa tin về một công ty, Traffic Power, bị buộc tội sử dụng các kỹ thuật rủi ro cao và không tiết lộ những rủi ro đó cho khách hàng của mình. [14] Tạp chí Wired đã báo cáo rằng cùng một công ty đã kiện blogger và SEO Aaron Wall vì đã viết về lệnh cấm. [15] Matt Cutts của Google tiếp nối xác nhận rằng trên thực tế, Google đã cấm Traffic Power và một số khách hàng của mình. [16]

Một số công cụ tìm kiếm cũng đã tiếp cận với ngành công nghiệp SEO và thường xuyên là nhà tài trợ và khách mời tại các hội nghị, webchats và hội thảo về SEO. Các công cụ tìm kiếm chính cung cấp thông tin và hướng dẫn để giúp tối ưu hóa trang web. [17] [18] Google có chương trình Sơ đồ trang web để giúp quản trị viên web tìm hiểu xem Google có gặp vấn đề gì khi lập chỉ mục trang web của họ hay không và cũng cung cấp dữ liệu về lưu lượng truy cập của Google vào trang web. [19] Bing Webmaster Tools cung cấp một cách để quản trị viên web gửi sơ đồ trang web và nguồn cấp dữ liệu web, cho phép người dùng xác định "tốc độ tìm nạp dữ liệu" và theo dõi trạng thái chỉ mục của các trang web.

Vào năm 2015, có thông tin cho rằng Google đang phát triển và quảng bá tìm kiếm trên thiết bị thiết bị cầm tay như một tính năng chính trong các sản phẩm tương lai. Để đáp lại, nhiều thương hiệu bắt đầu có cách tiếp cận khác đối với các chiến lược tiếp thị trên Internet của họ. [20]
Mối quan hệ với Google

Năm 1998, hai sinh viên tốt nghiệp tại Đại học Stanford, Larry Page và Sergey Brin, đã phát triển "Backrub", một công cụ tìm kiếm dựa trên một thuật toán toán học để đánh giá mức độ nổi bật của các trang web. Con số được tính toán bởi thuật toán, Xếp hạng trang, là một hàm của số lượng và độ mạnh của các links đến. [21] PageRank ước tính khả năng một trang nhất thiết sẽ được tiếp cận bởi một người dùng web ngẫu nhiên lướt web và theo các liên kết từ trang này sang trang khác. Trên thực tế, điều này tức là một số links mạnh hơn những liên kết khác, vì trang Xếp hạng trang cao hơn có nhiều khả năng được truy cập bởi người lướt web ngẫu nhiên hơn.

Page và Brin ra đời Google vào năm 1998. [22] Google đã thu hút một lượng người theo dõi trung thành giữa số lượng ngày càng tăng người dùng Internet, những người thích xây đắp đơn giản của nó. [23] Các yếu tố ngoài trang (chẳng hạn như Xếp hạng trang và phân tích siêu links) được xem xét cũng tương tự các yếu tố trên trang (chẳng hạn như tần suất từ ​​khóa, thẻ meta, tiêu đề, liên kết và cấu trúc trang web) để cho phép Google tránh loại thao tác được thấy trong các công cụ tìm kiếm mà chỉ xem xét các yếu tố trên trang cho thứ hạng của họ. Mặc dù PageRank khó chơi hơn, nhưng các quản trị viên web đã phát triển các công cụ và kế hoạch xây dựng liên kết để tương tác đến công cụ tìm kiếm Inktomi và các phương pháp này được chứng minh là có thể áp dụng tương tự đối với PageRank chơi game. Nhiều trang web tụ họp vào việc trao đổi, mua và bán các liên kết, thường ở quy mô lớn. Một số chiến lược này, hoặc các trang trại liên kết, liên quan đến việc tạo ra hàng nghìn trang web với mục đích duy nhất là gửi spam liên kết. [24]

Đến năm 2004, các công cụ tìm kiếm đã kết hợp một loạt các yếu tố chưa được tiết lộ trong các thuật toán xếp hạng của họ để giảm tác động của việc thao túng backlink. Vào tháng 6 năm 2007, Saul Hansell của The New York Times tuyên bố rằng Google xếp hạng các trang web sử dụng hơn 200 tín hiệu khác nhau. [25] Các công cụ tìm kiếm hàng đầu, Google, Bing và Yahoo, không tiết lộ các thuật toán mà họ sử dụng để xếp hạng các trang. Một số học viên SEO đã nghiên cứu các cách tiếp cận khác nhau để tối ưu hóa công cụ tìm kiếm và đã chia sẻ ý kiến ​​cá nhân của họ. [26] Bằng sáng chế liên quan đến công cụ tìm kiếm có thể cung cấp thông tin để hiểu rõ hơn về công cụ tìm kiếm. [27] Năm 2005, Google bắt đầu cá nhân hóa kết quả tìm kiếm cho từng người dùng. Tùy thuộc vào lịch sử tìm kiếm trước đó của họ, Google tạo ra kết quả cho những người dùng đã đăng nhập. [28]

Vào năm 2007, Google đã công bố một chiến dịch chống lại các link trả phí chuyển PageRank. [29] Vào ngày 15 tháng 6 năm 2009, Google tiết lộ rằng họ đã thực hiện các biện pháp để giảm thiểu tác động của việc tạo PageRank bằng cách sử dụng thuộc tính nofollow trên các liên kết. Matt Cutts, một kỹ sư phần mềm nổi tiếng tại Google, đã thông báo rằng Google Bot sẽ không còn xử lý bất kỳ link nofollow nào theo cách tương tự, để ngăn các nhà cung cấp dịch vụ SEO sử dụng nofollow để tạo PageRank. [30] Kết quả của sự thay đổi này là việc sử dụng nofollow đã dẫn đến việc bốc hơi PageRank. Để tránh những điều trên, các kỹ sư SEO đã phát triển các kỹ thuật thay thế thay thế các thẻ nofollowed bằng JavaScript bị xáo trộn và do đó cho phép tạo PageRank. Hình như, một số giải pháp đã được đề xuất bao gồm việc sử dụng iframe, Flash và JavaScript. [31]

Vào tháng 12 năm 2009, Google thông báo họ sẽ sử dụng lịch sử tìm kiếm trên web của tất cả người dùng của mình để đưa vào kết quả tìm kiếm. [32] Vào ngày 8 tháng 6 năm 2010, một hệ thống lập chỉ mục web mới có tên là Google Caffeine đã được tuyên bố. Được thiết kế để cho phép người dùng tìm thấy kết quả tin tức, bài đăng trên diễn đàn và nội dung khác sau khi xuất bản sớm hơn nhiều so với trước đây, Google Caffeine là một thay đổi đối với cách Google cập nhật chỉ mục của mình để triển khai cho mọi thứ hiển thị nhanh hơn trên Google so với trước đây. Theo Carrie Grimes, kỹ sư phần mềm đã công bố Caffeine cho Google, "Caffeine cung cấp kết quả tìm kiếm trên web mới hơn 50% so với chỉ mục chung cuộc của chúng tôi ..." [33] Google Instant, tìm kiếm theo thời gian thực, được giới thiệu vào cuối năm 2010 trong cố gắng làm cho kết quả tìm kiếm tương xứng và kịp thời hơn. Trong lịch sử, các quản trị viên trang web đã dành nhiều tháng hoặc thậm chí nhiều năm để tối ưu hóa một trang web để tăng thứ hạng tìm kiếm. Với sự phát triển về mức độ phổ biến của các trang mạng xã hội và blog, các công cụ hàng đầu đã thực hiện các thay đổi đối với thuật toán của họ để cho phép nội dung mới có thứ hạng nhanh chóng trong kết quả tìm kiếm. [34]
Vào tháng 2 năm 2011, Google đã có phát ngôn bản cập nhật Panda, bản cập nhật này sẽ phạt các trang web có nội dung trùng lặp từ các trang web và nguồn khác. Trong lịch sử các trang web đã xào luộc nội dung của nhau và được hưởng lợi trong xếp hạng công cụ tìm kiếm bằng cách tham gia vào thực hành này. tuy vậy, Google đã triển khai một hệ thống mới trừng phạt các trang web có nội dung không độc đáo. [35] Google Penguin năm 2012 đã cố gắng trừng phạt các trang web sử dụng các kỹ thuật thao túng để cải thiện thứ hạng của họ trên công cụ tìm kiếm. [36] Mặc dù Google Penguin đã được trình bày như một thuật toán nhằm chống lại spam web, nó thực sự tụ họp vào các liên kết spam [37] bằng cách đánh giá chất lượng của các trang web mà các backlinks đến từ đó. Bản cập nhật Google Hummingbird 2013 có một thay đổi thuật toán được xây dựng để cải thiện khả năng xử lý ngôn ngữ tự nhiên của Google và hiểu ngữ nghĩa của các trang web. Hệ thống xử lý ngôn ngữ của Hummingbird thuộc thuật ngữ mới được công nhận là "tìm kiếm đàm thoại", trong đó hệ thống chú ý nhiều hơn đến từng từ trong truy vấn để đối sánh các trang với ý nghĩa của truy vấn hơn là một vài từ. [38] thúc đẩy đến những thay đổi được thực hiện để tối ưu hóa công cụ tìm kiếm, đối với các nhà xuất bản và nhà văn nội dung, Hummingbird nhằm giải quyết các vấn đề bằng cách sa thải nội dung không liên quan và spam, cho phép Google tạo ra nội dung chất lượng cao và dựa vào chúng để trở thành tác giả 'đáng tin cẩn' .

Vào tháng 10 năm 2019, Google thông báo họ sẽ bắt đầu áp dụng mô hình BERT cho các truy vấn tìm kiếm bằng tiếng Anh ở Hoa Kỳ. Trình diễn mã hóa hai chiều từ Người biến hình (BERT) là một nỗ lực khác của Google nhằm cải thiện khả năng xử lý ngôn ngữ tự nhiên của họ nhưng lần này là để hiểu rõ hơn các truy vấn tìm kiếm của người dùng. [39] Về tối ưu hóa công cụ tìm kiếm, BERT dự định kết nối người dùng dễ dàng hơn với nội dung có liên quan và tăng chất lượng lưu lượng truy cập đến các trang web đang xếp hạng trong Trang kết quả của công cụ tìm kiếm.
phương pháp
Được lập chỉ mục
Công cụ tìm kiếm sử dụng các thuật toán toán học phức tạp để giải thích trang web nào mà người dùng tìm kiếm. Trong sơ đồ này, nếu mỗi bong bóng đại diện cho một trang web, các chương trình đôi khi được gọi là trình thu thập dữ liệu sẽ kiểm tra trang web nào backlink đến trang web nào khác, với các mũi tên đại diện cho các link này. Các trang web nhận được nhiều liên kết đến hơn hoặc liên kết mạnh hơn, được cho là quan trọng hơn và những gì người dùng đang tìm kiếm. Trong ví dụ này, vì trang web B là nơi nhận nhiều backlinks đến, nó xếp hạng cao hơn trong tìm kiếm trên web. Và các backlink "mang qua", chẳng hạn như trang web C, Mặc dù nó chỉ có một links đến, có một links đến từ một trang web rất phổ biến (B) trong khi trang web E thì không. Lưu ý: Phần trăm được làm tròn.

Các công cụ tìm kiếm hàng đầu, chẳng hạn như Google, Bing và Yahoo !, sử dụng trình thu thập thông tin để tìm các trang cho kết quả tìm kiếm theo thuật toán của họ. Các trang được liên kết từ các trang được lập chỉ mục của công cụ tìm kiếm khác không cần phải gửi vì chúng được tìm thấy tự động hóa. Yahoo! Directory và DMOZ, hai thư mục chính lần lượt đóng cửa vào năm 2014 và 2017, đều yêu cầu gửi thủ công và đánh giá biên tập của con người. [40] Google cung cấp Google Search Console, trong đó nguồn cấp dữ liệu Sơ đồ trang web XML có thể được tạo và gửi miễn phí để đảm bảo rằng tất cả các trang đều được tìm thấy, đặc biệt là các trang không thể phát hiện được bằng cách auto theo backlinks [41] ngoài bảng điều khiển gửi URL của chúng. [42 ] Yahoo! trước đây đã vận hành một dịch vụ gửi trả phí đảm bảo thu thập thông tin với giá mỗi nhấp chuột; [43] Tuy nhiên, hoạt động này đã bị ngừng vào năm 2009.

Trình thu thập thông tin của công cụ tìm kiếm có thể xem xét một số yếu tố khác nhau khi thu thập thông tin một trang web. Không phải mọi trang đều được lập chỉ mục bởi các công cụ tìm kiếm. Khoảng cách của các trang từ thư mục gốc của một trang web cũng có thể là một yếu tố trong việc các trang có được thu thập thông tin hay không. [44]

Ngày nay, hầu hết mọi người đang tìm kiếm trên Google bằng thiết bị di động. [45] Vào tháng 11 năm 2016, Google đã công bố một thay đổi lớn đối với cách thu thập dữ liệu các trang web và bắt đầu đặt chỉ mục của họ lên trên thiết bị di động trước tiên, có nghĩa là phiên bản dế yêu của một trang web một mực trở thành điểm khởi đầu cho những gì Google đưa vào chỉ mục của họ. [46] Vào tháng 5 năm 2019, Google đã cập nhật công cụ kết xuất của trình thu thập thông tin của họ thành phiên bản Chromium mới nhất (74 tại thời điểm thông báo). Google cho biết rằng họ sẽ thường xuyên cập nhật công cụ kết xuất Chromium lên phiên bản mới nhất. [47] Vào tháng 12 năm 2019, Google đã bắt đầu cập nhật chuỗi Tác nhân người dùng của trình thu thập thông tin của họ để đề đạt phiên bản Chrome mới nhất được dịch vụ kết xuất của họ sử dụng. Sự chậm trễ này là để cho phép quản trị viên web có thời gian cập nhật mã của họ đáp ứng các chuỗi Tác nhân người dùng bot cụ thể. Google đã chạy các Review và cảm thấy tin rằng tác động sẽ nhỏ. [48]
Ngăn thu thập thông tin
Bài chi tiết: Tiêu chuẩn đào thải rô bốt

Để tránh nội dung không mong muốn trong chỉ mục tìm kiếm, quản trị viên web có thể hướng dẫn trình thu thập thông tin không craw dữ liệu các tệp hoặc thư mục nhất định thông qua tệp robots.txt chuẩn trong thư mục gốc của miền. Hình như, một trang có thể bị loại trừ rõ ràng khỏi cơ sở dữ liệu của công cụ tìm kiếm bằng cách sử dụng thẻ meta dành riêng cho rô bốt (thường là

). Khi một công cụ tìm kiếm truy cập một trang web, tệp robots.txt nằm trong thư mục gốc là tệp đầu tiên được thu thập thông tin. sau đó, tệp robots.txt sẽ được phân tích cú pháp và sẽ hướng dẫn rô bốt biết trang nào không được thu thập thông tin. Vì trình thu thập thông tin của công cụ tìm kiếm có thể giữ bản sao được lưu trong bộ nhớ cache của tệp này, nên đôi khi nó có thể craw dữ liệu các trang mà quản trị viên web không muốn thu thập thông tin. Các trang thường bị ngăn thu thập thông tin bao gồm các trang đăng nhập cụ thể như giỏ hàng và nội dung dành riêng cho người dùng, chẳng hạn như kết quả tìm kiếm từ các tìm kiếm nội bộ. Vào tháng 3 năm 2007, Google đã cảnh báo các quản trị viên web rằng họ nên ngăn chặn việc lập chỉ mục các kết quả tìm kiếm nội bộ vì những trang đó bị coi là spam tìm kiếm. [49]
ngày càng nổi bật

Nhiều cách thức có thể làm tăng sự nổi bật của một trang web trong kết quả tìm kiếm. Việc liên kết chéo giữa các trang của cùng một trang web để cung cấp nhiều liên kết hơn đến các trang quan trọng có thể cải thiện khả năng hiển thị của nó. [50] Viết nội dung bao gồm cụm từ khóa được tìm kiếm thường xuyên, để có liên quan đến nhiều loại truy vấn tìm kiếm sẽ có xu hướng tăng lưu lượng truy cập. [50] Cập nhật nội dung để giữ cho các công cụ tìm kiếm thu thập thông tin lại thường xuyên có thể tạo thêm sức nặng cho một trang web. Thêm từ khóa có liên quan vào siêu dữ liệu của trang web, bao gồm thẻ tiêu đề và mô tả meta, sẽ có xu hướng cải thiện mức độ thúc đẩy của danh sách tìm kiếm của trang web, do đó tăng lưu lượng truy cập. Việc chuẩn hóa URL của các trang web có thể truy cập qua nhiều URL, sử dụng phần tử backlinks chuẩn [51] hoặc qua chuyển hướng 301 có thể giúp đảm bảo các backlinks đến các phiên bản không giống nhau của URL đều được tính vào điểm phổ biến của links của trang.
Kỹ thuật mũ trắng so với mũ đen

Các kỹ thuật SEO có thể được phân thành hai loại lớn: các kỹ thuật mà các công ty công cụ tìm kiếm yêu cầu như một phần của thiết kế tốt ("mũ trắng") và các kỹ thuật mà các công cụ tìm kiếm không chấp thuận ("mũ đen"). Các công cụ tìm kiếm cố gắng giảm thiểu ảnh hưởng của thứ sau, trong số đó có spamdexing. Các nhà bình luận trong ngành đã phân loại các phương pháp này và các học viên sử dụng chúng, là SEO mũ trắng hoặc SEO mũ đen. [52] Mũ trắng có xu hướng tạo ra kết quả tồn tại trong một thời gian dài, trong khi mũ đen dự đoán rằng các trang web của họ cuối cùng có thể bị cấm tạm bợ hoặc vĩnh viễn khi các công cụ tìm kiếm phát hiện ra chúng đang làm gì. [53]

Một kỹ thuật SEO được coi là mũ trắng nếu nó vâng lệnh các nguyên tắc của công cụ tìm kiếm và không liên quan đến sự lừa dối. Vì các hướng dẫn của công cụ tìm kiếm [17] [18] [54] không được viết dưới dạng một loạt các quy tắc hoặc lệnh, đây là một điểm khác lạ quan trọng cần chú ý. SEO mũ trắng không chỉ là tuân theo các nguyên tắc mà còn là đảm bảo rằng nội dung mà một công cụ tìm kiếm lập chỉ mục và xếp hạng Tiếp nối là cùng một nội dung mà người dùng sẽ thấy. Lời khuyên mũ trắng thường được tóm tắt là tạo nội dung cho người dùng, không phải cho công cụ tìm kiếm và sau đó làm cho nội dung đó dễ dàng truy cập vào các thuật toán "con nhện" trực tuyến, thay vì cố gắng đánh lừa thuật toán khỏi mục đích đã định. SEO mũ trắng về nhiều mặt tương tự như phát triển web nhằm thúc đẩy khả năng truy cập, [55] Mặc dù cả hai không giống nhau.

SEO mũ đen cố gắng cải thiện thứ hạng theo những cách bị các công cụ tìm kiếm từ chối hoặc tương tác đến lừa dối. Một kỹ thuật mũ đen sử dụng văn bản ẩn, hoặc là văn bản có màu tương tự như nền, trong một div ẩn hoặc được đặt ngoài màn hình. Một cách thức khác cung cấp một trang khác tùy thuộc vào việc trang đó được khách truy cập hay công cụ tìm kiếm yêu cầu, một kỹ thuật được gọi là kỹ thuật che giấu. tiện loại khác đôi khi được sử dụng là SEO mũ xám. Điều này nằm giữa phương thức tiếp cận mũ đen và mũ trắng, trong đó các cách thức được sử dụng tránh trang web bị phạt nhưng không hoạt động trong việc tạo ra nội dung tốt nhất cho người dùng. SEO mũ xám hoàn toàn tập trung vào việc cải thiện thứ hạng của công cụ tìm kiếm.

Các công cụ tìm kiếm có thể phạt các trang web mà họ phát hiện bằng cách sử dụng các cách thức mũ đen hoặc xám, bằng cách giảm thứ hạng của họ hoặc loại bỏ hoàn toàn danh sách của họ khỏi cơ sở dữ liệu của họ. Các hình phạt như vậy có thể được áp dụng tự động bởi các thuật toán của công cụ tìm kiếm hoặc bằng cách xem xét trang web thủ công. Một ví dụ là vào tháng 2 năm 2006 Google đã loại bỏ cả BMW Đức và Ricoh Đức vì hành vi lừa đảo. [56] Tuy nhiên, cả hai công ty đã nhanh chóng xin lỗi, sửa các trang vi phạm và được khôi phục về trang kết quả của công cụ tìm kiếm của Google. [57]
Là chiến lược tiếp thị

SEO không phải là một chiến lược thích hợp cho mọi trang web và các chiến lược tiếp thị trên Internet khác có thể hiệu quả hơn, chẳng hạn như quảng cáo trả tiền duyệt chiến dịch trả tiền cho mỗi lần nhấp chuột (PPC), tùy thuộc vào kim chỉ nam của nhà điều hành trang web. Tiếp thị công cụ tìm kiếm (SEM) là hoạt động thiết kế, chạy và tối ưu hóa các chiến dịch quảng cáo trên công cụ tìm kiếm. [58] Sự khác lạ của nó so với SEO được mô tả đơn giản nhất là sự khác lạ giữa xếp hạng ưu tiên có trả tiền và không trả tiền trong kết quả tìm kiếm. SEM tụ họp vào sự nổi bật hơn là mức độ tương tác; các nhà phát triển trang web nên coi SEM là tầm quan trọng số 1 khi xem xét khả năng hiển thị vì hầu hết điều hướng đến danh sách chính tìm kiếm của họ. [59] Một chiến dịch tiếp thị trên Internet thắng lợi cũng có thể phụ thuộc vào việc xây dựng các trang web chất lượng cao để lôi cuốn và thuyết phục người dùng internet, tùy chỉnh thiết lập các chương trình phân tích để cho phép chủ sở hữu trang web đo lường kết quả và cải thiện tỷ lệ chuyển đổi của trang web. [60] Vào tháng 11 năm 2015, Google đã phát hành phiên bản đầy đủ 160 trang của Nguyên tắc xếp hạng chất lượng tìm kiếm của mình cho công chúng, [61] cho thấy sự thay đổi trọng tâm của họ đối với "tính hữu ích" và tìm kiếm trên thiết bị điện thoại. Trong những năm vừa mới đây, thị trường di động đã bùng nổ, vượt qua việc sử dụng máy tính để bàn, biểu đạt bởi StatCounter vào tháng 10 năm 2016, nơi họ phân tích 2,5 triệu trang web và nhận thấy rằng 51,3% số trang được tải bằng thiết bị di động. [62] Google là một trong những công ty đang tận dụng sự phổ biến của việc sử dụng thiết bị thiết bị cầm tay bằng cách khuyến khích các trang web sử dụng Google Search Console của họ, Bài kiểm tra tính thân thiết với thiết bị di động, cho phép các công ty đo lường trang web của họ với kết quả của công cụ tìm kiếm và xác định mức độ thân thiện với người dùng trang web của họ là.

SEO có thể tạo ra lợi nhuận tương xứng. Tuy nhiên, các công cụ tìm kiếm không được trả tiền cho lưu lượng tìm kiếm không phải trả tiền, các thuật toán của chúng thay đổi và không có gì đảm bảo về việc tiếp tục giới thiệu. Do sự thiếu đảm bảo này và sự không chắc chắn, một công ty phụ thuộc nhiều vào lưu lượng truy cập của công cụ tìm kiếm có thể bị thiệt hại lớn nếu công cụ tìm kiếm ngừng gửi khách truy cập. [63] Các công cụ tìm kiếm có thể thay đổi thuật toán của chúng, ảnh hưởng đến xếp hạng trên công cụ tìm kiếm của trang web, có thể dẫn đến mất lưu lượng truy cập nghiêm trọng. Theo Giám đốc điều hành của Google, Eric Schmidt, trong năm 2010, Google đã thực hiện hơn 500 lần thay đổi thuật toán - gần 1,5 lần mỗi ngày. [64] Nó được coi là một thực hành kinh doanh khôn ngoan cho các nhà điều hành trang web để giải phóng mình khỏi sự phụ thuộc vào lưu lượng truy cập của công cụ tìm kiếm. [65] Ngoài khả năng truy cập về trình craw dữ liệu web (đã nêu ở trên), khả năng truy cập web của người dùng càng ngày càng trở nên quan trọng đối với SEO.
Thị phần quốc tế

Các kỹ thuật tối ưu hóa được điều chỉnh cân xứng với các công cụ tìm kiếm thống trị trong thị trường kim chỉ nam. thị phần của các công cụ tìm kiếm khác nhau giữa các Thị phần, cũng như cạnh tranh. Năm 2003, Danny Sullivan tuyên bố rằng Google đại diện cho khoảng 75% tổng số tìm kiếm. [66] Ở các Thị Phần bên ngoài Hoa Kỳ, thị phần của Google thường lớn hơn và Google vẫn là công cụ tìm kiếm thống trị trên toàn thị trường quốc tế tính đến năm 2007. [67] Tính đến năm 2006, Google có 85–90% thị phần ở Đức. [68] Trong khi có hàng trăm công ty SEO ở Mỹ vào thời điểm đó, thì chỉ có khoảng năm công ty ở Đức. [68] Tính đến tháng 6 năm 2008, thị phần của Google tại Vương quốc Anh là gần 90% theo Hitwise. [69] thị phần đó đạt được ở một số nước nhà.

Tính đến năm 2009, chỉ có một số Thị Trường lớn mà Google không phải là công cụ tìm kiếm hàng đầu. Trong hầu hết các trường hợp, khi Google không dẫn đầu trong một Thị Phần nhất định, Google sẽ tụt hậu so với một công ty địa phương. Các thị trường điển hình đáng chú ý nhất là Trung Quốc, Nhật Bản, Hàn Quốc, Nga và Cộng hòa Séc, nơi tương ứng là Baidu, Yahoo! Nhật Bản, Naver, Yandex và Seznam dẫn đầu thị trường.

Tối ưu hóa tìm kiếm chiến thắng cho thị trường quốc tế có thể yêu cầu dịch chuyên nghiệp các trang web, đăng ký tên miền với miền cấp cao nhất trong thị trường mục tiêu và lưu trữ web cung cấp Showroom IP cục bộ. Mặt khác, các yếu tố chủ chốt của tối ưu hóa tìm kiếm về cơ bản giống nhau, bất kể ngôn ngữ. [68]
Tiền lệ pháp

Vào ngày 17 tháng 10 năm 2002, SearchKing đã đệ đơn kiện lên Tòa án quận Hoa Kỳ, Quận Tây Oklahoma, chống lại công cụ tìm kiếm Google. Tuyên bố của SearchKing là các chiến thuật của Google để ngăn chặn gửi thư rác đã tạo ra một sự can thiệp nghiêm trọng vào các quan hệ hợp đồng. Vào ngày 27 tháng 5 năm 2003, tòa án đã cho phép Google bác đơn khiếu nại vì SearchKing "không đưa ra được khiếu nại mà theo đó có thể được cứu trợ". [70] [71]

Vào tháng 3 năm 2006, KinderStart đã đệ đơn kiện Google về xếp hạng công cụ tìm kiếm. Trang web của KinderStart đã bị xóa khỏi chỉ mục của Google trước vụ kiện, và lượng truy cập vào trang web đã giảm 70%. Vào ngày 16 tháng 3 năm 2007, Tòa án Quận phía Bắc của California (San Jose Division) của Hoa Kỳ đã bác bỏ đơn khiếu nại của KinderStart mà không cần nghỉ phép để sửa đổi và chấp thuận một phần kiến ​​nghị của Google về các biện pháp trừng phạt theo Quy tắc 11 đối với luật sư của KinderStart, yêu cầu anh ta phải trả một phần tiền chi phí hợp pháp. [72] [73]

Nhận xét

Bài đăng phổ biến từ blog này

Bất động sản Phạm Ngọc Hạnh hướng dẫn từ A đến Z các bước tiến hành mua nhà đất

thi công trần thạch cao Quận Thủ Đức