საძიებო სისტემის ოპტიმიზაცია: განსხვავება გადახედვებს შორის

[შეუმოწმებელი ვერსია][შეუმოწმებელი ვერსია]
შიგთავსი ამოიშალა შიგთავსი დაემატა
No edit summary
ხაზი 9:
ვებ მასტერებმა და საიტის ტექსტის პროვაიდერებმა საიტის ოპტიმიზაცია საძიებო სისტემებისთვის 1990 – იანების შუა წლებში დაიწყეს, პირველი საძიებო სისტემები ახდენდნენ ვებ საიტების აღრიცხვას და მათ კატალოგებად აწყობას საკუთარ მონაცემთა ბაზებში. საწყის ეტაპზე, ყველა ვებ მასტერს ესაჭიროებოდა მიეთითებინა ვებ საიტის მისამართი ანუ URL სხვადასხვა საძიებო სისტემებისთვის, რომელიც გაუგზავნიდა ობობას (ბოტს) გვერდზე „შესაცოცებლად“. მას ობობა ეწოდა იქედან გამომდინარე, რომ მისი თითოეული ფეხი საიტის სხვადასხვა ნაწილებში აღწევს.<ref>[http://blog.hubspot.com/marketing/history-of-seo-glimpse-into-future-tl-ss SEO – ს ისტორია და მისი მომავალი]</ref>
 
[[2004]] წლისთვის, საძიებო სისტემებმა გააერთიანეს ალგორითმების ფარული ფაქტორების ფართო სპექტრი, რათა შეემცირებინათ ბმულების მანიპულაციის ზეგავლენა. [[2007]] წელს, [[ნიუ-იორკ ტაიმზი (გაზეთი)|„ნიუ იორკ თაიმსში“]] საულ ჰენსელმა განაცხადა, რომ [[Google]] საიტების რეიტინგებს ადგენს 200 – ზე მეტი სხვადასხვა სიგნალების გამოყენებით. წამყვანი საძიებო სისტემები [[Google]], [[Bing]], და [[Yahoo]] არ ამჟღავნებენ ალგორითმებს, რომელთაც იყენებენ გვერდების რეიტინგების შედგენისათვის. რამდენიმე SEO – ზე მომუშავე ადამიანმა შეისწავლა სხვადასხვა მიდგომები საძიებო სისტემის ოპტიმიზაციისათვის და გააზიარეს თავიანთი ინდივიდუალური მოსაზრებები. პატენტები, რომლებიც დაკავშირებულია საძიებო სისტემებთან, შეიძლება უფრო კარგად გაგარკვიოთ საძიებო სისტემების შესწავლაში.
 
[[2005]] წელს [[Google]] – მა დაიწყო ძიების შედეგის პერსონალიზაცია ყოველი მომხმარებლისათვის. დამოკიდებული მათ ყოფილ ძებნის ისტორიაზე, Google ცნობდა შედეგებს მხოლოდ დარეგისტრირებული მომხმარებლისათვის. [[2008]] წელს ბრიუს ქლეიმ განაცხადა, რომ „რეიტინგი მოკვდა“ სწორედ პერსონალიზირებული ძებნის გამო. მან გამოთქვა მოსაზრება, რომ ყოველგვარი კამათი აზრს მოკლებული იქნება საიტის რეიტინგის თაობაზე, რადგანაც მისი რეიტინგი პოტენციურად სხვადასხვაა ყოველი მომხმარებლისათვისა და ყოველი ძებნისთვის.
 
[[2011]] წლის თებერვალში, [[Google]] – მა გამოუშვა Panda Update<ref>[http://searchengineland.com/library/google/google-panda-update Google – ის Panda Update]</ref>, რომელიც რიცხავს საიტებს, რომელთაც თავის მხრივ მოახდინეს ტექსტისა და წყაროების დუბლირება სხვა საიტებიდან. ისტორიულად, საძიებო სისტემებში ისეთი საიტები წინაურდებოდნენ, რომლებიც ტექსტებს სხვა საიტებიდან იღებდნენ, თუმცა Google – მა ამ სისტემის მეშვეობით მოახდინა ამ საიტების გარიცხვა საძიებო სისტემიდან, საიტების, რომელთა ტექსტიც არ იყო და არის უნიკალური.
 
[[2012]] წლის აპრილში Google – მა გამოუშვა Google Penguin Update<ref>[http://searchengineland.com/library/google/google-penguin-update Google – ის Penguin Update]</ref>, რომლის მიზანი იყო ისეთი საიტების დასჯა, რომლებიც სხვადასხვა ტექნოლოგიების გამოყენებით ცდილობდნენ საძებო სისტემაზე მანიპულირებას.
 
[[2013]] წლის სექტემბერში [[Google]] – მა გამოუშვა Google – ის Hummingbird Update<ref>[http://www.businessinsider.com/googles-new-humminbird-search-algorithm-2013-9 Google Hummingbird update]</ref>, შეცვლილი ალგორითმი, რომლის მიზანია გააუმჯობესოს Google – ის ბუნებრივი ენა და უკეთ გაიგოს საიტის აზრობრივი მნიშვნელობა.
 
== ოპტიმიზაციის მეთოდები ==