بهینه سازی موتورهای جستجو (SEO) فرآیند بهبود کیفیت و کمیت ترافیک وب سایت به یک وب سایت یا صفحه وب از موتورهای جستجو است.
سئو ترافیک بدون پرداخت (معروف به نتایج "طبیعی" یا "ارگانیک") را به جای ترافیک مستقیم یا ترافیک پرداختی هدف قرار می دهد. ترافیک بدون پرداخت ممکن است از انواع مختلف جستجوها، از جمله جستجوی تصویر، جستجوی ویدیویی، جستجوی آکادمیک، جستجوی اخبار، و موتورهای جستجوی عمودی خاص صنعت سرچشمه بگیرد.
برای دریافت خدمات سئو حرفه ای و تضمینی لطفا بر روی عکس زیر کلیک کنید:
به عنوان یک استراتژی بازاریابی اینترنتی، سئو نحوه کار موتورهای جستجو، الگوریتم های برنامه ریزی شده کامپیوتری که رفتار موتورهای جستجو را دیکته می کنند، آنچه افراد جستجو می کنند، عبارات جستجوی واقعی یا کلمات کلیدی تایپ شده در موتورهای جستجو و اینکه کدام موتورهای جستجو مورد علاقه مخاطبان هدف هستند را در نظر می گیرد...
سئو به این دلیل انجام می شود که وقتی وب سایت ها در صفحه نتایج موتور جستجو (SERP) رتبه بالاتری داشته باشند، یک وب سایت بازدیدکنندگان بیشتری از موتور جستجو دریافت می کند. سپس این بازدیدکنندگان می توانند به مشتری تبدیل شوند.
تاریخ:
وب مسترها و ارائه دهندگان محتوا در اواسط دهه 1990 بهینه سازی وب سایت ها را برای موتورهای جستجو آغاز کردند، زیرا اولین موتورهای جستجو در حال نمایه سازی وب اولیه بودند.
در ابتدا، تمام وب مسترها فقط نیاز داشتند عنوان صفحه یا URL را به موتورهای مختلف ارسال کنند، که یک خزنده وب را برای خزیدن آن صفحه، استخراج لینک به صفحات دیگر از آن، و بازگرداندن اطلاعات به صفحه برای ایندکس کردن، ارسال می کرد.
این فرآیند شامل یک موتور جستجوگر عنکبوت است که یک صفحه را دانلود کرده و آن را در سرور خود موتور جستجو ذخیره می کند. برنامه دوم، که به عنوان نمایه ساز شناخته می شود، اطلاعاتی را در مورد صفحه استخراج می کند، مانند کلماتی که در آن وجود دارد، در کجا قرار دارند، و هر وزنی برای کلمات خاص، و همچنین تمام پیوندهایی که صفحه حاوی آن است.
سپس تمام این اطلاعات در یک زمانبندی قرار داده میشود تا در تاریخ بعدی خزیده شود.
صاحبان وبسایتها ارزش رتبهبندی بالاتر و ظاهر شدن در نتایج موتورهای جستجو را تشخیص دادهاند، که فرصتی را برای متخصصان سئو کلاه سفید و کلاه سیاه ایجاد میکند. به گفته دنی سالیوان، تحلیلگر صنعت، عبارت "بهینه سازی موتور جستجو" احتمالاً در سال 1997 مورد استفاده قرار گرفت. سالیوان بروس کلی را یکی از اولین افرادی می داند که این اصطلاح را رایج کرده است.
نسخه های اولیه الگوریتم جستجو بر اطلاعات ارائه شده توسط وب مستر مانند متا تگ کلمه کلیدی یا فایل های فهرست در موتورهایی مانند ALIWEB متکی بودند. متا تگ ها راهنمای محتوای هر صفحه را ارائه می دهند.
استفاده از ابرداده برای نمایه سازی صفحات کمتر قابل اعتماد است، زیرا انتخاب کلمات کلیدی توسط مدیر وب سایت در متا تگ ممکن است نمایش نادرستی از محتوای واقعی سایت باشد. دادههای ناقص در متا تگها، مانند آنهایی که مشخصههای دقیق یا کامل یا نادرست نبودند، این پتانسیل را ایجاد میکنند که صفحات در جستجوهای نامربوط به اشتباه توصیف شوند.
ارائهدهندگان محتوای وب همچنین برخی ویژگیها را در HTML منبع صفحه دستکاری کردهاند تا در موتورهای جستجو رتبه خوبی کسب کنند.
در سال 1997، طراحان موتورهای جستجو متوجه شدند که مدیران وبسایتها تلاش میکنند تا در موتور جستجوی خود رتبه خوبی داشته باشند و برخی از مدیران وبسایتها رتبهبندی خود را در نتایج جستجو با پر کردن صفحات با کلمات کلیدی بیش از حد یا نامربوط دستکاری میکنند. موتورهای جستجوی اولیه، مانند Altavista و Infoseek، الگوریتم های خود را تغییر دادند تا از دستکاری مدیران سایت در رتبه بندی جلوگیری کنند.
موتورهای جستجوی اولیه با تکیه بر عواملی مانند تراکم کلمات کلیدی که منحصراً در کنترل وبمستر بود، از سوء استفاده و دستکاری رتبهبندی رنج میبردند. برای ارائه نتایج بهتر به کاربران خود، موتورهای جستجو مجبور شدهاند تا اطمینان حاصل کنند که صفحات نتایج آنها مرتبطترین نتایج جستجو را نشان میدهند، به جای صفحات بیربط که با کلمات کلیدی زیادی توسط وبمستران بیوجدان پر شدهاند.
این به معنای دور شدن از اتکای شدید به تراکم اصطلاح به فرآیند جامعتر ثبت سیگنالهای معنایی است. از آنجایی که موفقیت و محبوبیت یک موتور جستجو با توانایی آن در تولید مرتبط ترین نتایج برای هر جستجوی مشخص تعیین می شود، نتایج جستجو با کیفیت پایین یا نامربوط ممکن است کاربران را به یافتن منابع جستجوی دیگر سوق دهد. موتورهای جستجو با توسعه الگوریتمهای رتبهبندی پیچیدهتر، با در نظر گرفتن عوامل دیگری که پرداختن به آنها برای مدیران وبسایت دشوار بود، پاسخ دادند.
شرکت هایی که از تکنیک های بیش از حد تهاجمی استفاده می کنند می توانند وب سایت های مشتریان خود را از نمایش در نتایج جستجو مسدود کنند. در سال 2005، وال استریت ژورنال در مورد شرکتی به نام Traffic Power گزارش داد که ظاهراً از تکنیکهای پرخطر استفاده میکرد و نتوانست آن خطرات را برای مشتریانش فاش کند. Wired گزارش داد که همان شرکت از وبلاگ نویس و SEO Aaron Wall به دلیل نوشتن در مورد ممنوعیت شکایت کرد. مت کاتس گوگل بعداً تأیید کرد که گوگل در واقع Traffic Power و برخی از مشتریانش را ممنوع کرده است.
برخی از موتورهای جستجو نیز به صنعت سئو دسترسی پیدا کرده اند و حامیان مالی و مهمانان مکرر کنفرانس های سئو، گفتگوهای وب و سمینارها هستند. موتورهای جستجوی اصلی اطلاعات و دستورالعمل هایی را برای کمک به بهبود وب سایت ها ارائه می دهند. Google یک برنامه نقشه سایت دارد تا به مدیران وب سایت کمک کند تا ببینند آیا Google در فهرست کردن وب سایت خود با مشکلی مواجه است یا خیر، و همچنین داده هایی را در مورد ترافیک Google به وب سایت ارائه می دهد. Bing Webmaster Tools راهی برای وب مسترها فراهم می کند تا نقشه سایت و فیدهای وب را ارسال کنند و به کاربران اجازه می دهد تا «نرخ خزیدن» را تعیین کنند و وضعیت فهرست صفحات وب را ردیابی کنند.
در سال 2015، گزارش شد که گوگل در حال توسعه و ترویج جستجوی موبایل به عنوان یک ویژگی اصلی در محصولات آینده است. در پاسخ، بسیاری از برندها شروع به اتخاذ رویکردی متفاوت برای استراتژی های بازاریابی آنلاین خود کرده اند.
رابطه با گوگل
در سال 1998، دو دانشجوی فارغ التحصیل دانشگاه استنفورد، لری پیج و سرگئی برین، Backrub را توسعه دادند، یک موتور جستجو بر اساس یک الگوریتم ریاضی برای ارزیابی اهمیت صفحات وب. عددی که الگوریتم محاسبه می کند، PageRank، تابعی از مقدار و قدرت لینک های ورودی است. PageRank این احتمال را تخمین می زند که یک کاربر وب در یک صفحه خاص در حال مرور تصادفی وب و دنبال کردن پیوندها از یک صفحه به صفحه دیگر است. در واقع، این بدان معنی است که برخی از پیوندها قوی تر از سایرین هستند، زیرا به یک صفحه بالاتر در رتبه صفحه احتمال بیشتری وجود دارد که توسط وب گردهای تصادفی به دست آید.
پیج و برین گوگل را در سال 1998 تاسیس کردند. گوگل طرفداران وفاداری را در میان تعداد فزاینده ای از کاربران اینترنت جذب کرده است که طراحی مینیمالیستی آن را دوست داشتند. عوامل خارج از صفحه (مانند رتبه صفحه و تجزیه و تحلیل هایپرلینک) و همچنین عوامل درون صفحه (مانند فراوانی کلمات کلیدی، متا تگ ها، عنوان ها، پیوندها و ساختار سایت) در نظر گرفته شدند تا Google را قادر سازد از نوع دستکاری جلوگیری کند. در موتورهای جستجو که فاکتورهای موجود در صفحه را فقط برای چیدمان در نظر می گیرند دیده می شود. اگرچه اجرای PageRank دشوارتر بود، مدیران وبسایتها قبلاً ابزارها و طرحهایی برای ایجاد پیوند برای تأثیرگذاری بر موتور جستجوی Inktomi ایجاد کرده بودند، و این روشها به طور مشابه برای بازیهای PageRank قابل استفاده بودند. بسیاری از سایت ها بر تبادل، خرید و فروش لینک ها، اغلب در مقیاس بزرگ تمرکز می کنند. برخی از این طرحها یا مزرعههای پیوند، شامل ایجاد هزاران سایت با هدف ارسال هرزنامه به شما میشوند.
تا سال 2004، موتورهای جستجو طیف وسیعی از عوامل فاش نشده را در الگوریتم های رتبه بندی خود گنجانده بودند تا تأثیر دستکاری لینک ها را کاهش دهند. در ژوئن 2007، سائول هانسل از نیویورک تایمز گزارش داد که گوگل سایت ها را با استفاده از بیش از 200 سیگنال مختلف رتبه بندی می کند. موتورهای جستجوی پیشرو، گوگل، بینگ و یاهو، الگوریتم هایی را که برای رتبه بندی صفحات استفاده می کنند، فاش نمی کنند. برخی از متخصصان سئو روش های مختلف سئو را مطالعه کرده و نظرات شخصی خود را به اشتراک گذاشته اند. پتنت های مربوط به موتورهای جستجو می توانند اطلاعاتی را برای درک بهتر موتورهای جستجو ارائه دهند. در سال 2005، گوگل شروع به شخصی سازی نتایج جستجو برای هر کاربر کرد. بر اساس تاریخچه جستجوهای قبلی، گوگل نتایج را برای کاربران ثبت نام شده برگردانده است.
در سال 2007، گوگل کمپینی را علیه لینک های پولی اعلام کرد که رتبه صفحه را پایین می آورد. در 15 ژوئن 2009، گوگل فاش کرد که اقداماتی را برای کاهش اثرات مجسمه سازی PageRank با استفاده از ویژگی nofollow بر روی پیوندها انجام داده است. Matt Cutts، مهندس نرمافزار معروف در گوگل، اعلام کرد که Google Bot دیگر به همان شیوه از هیچ لینک بدون دنبال کردنی استفاده نمیکند تا از استفاده ارائهدهندگان سئو برای جلوگیری از استفاده از nofollow برای ایجاد رتبه صفحه جلوگیری کند. در نتیجه این تغییر، استفاده از nofollow باعث تبخیر رتبه صفحه شد. به منظور اجتناب از موارد فوق، مهندسان سئو تکنیکهای جایگزینی را توسعه دادهاند که جاوا اسکریپت مبهم را جایگزین برچسبهای nofollowed میکند و به این ترتیب امکان مجسمهسازی رتبه صفحه را فراهم میکند. علاوه بر این، چندین راه حل شامل استفاده از iframes، فلش و جاوا اسکریپت پیشنهاد شده است.
در دسامبر 2009، گوگل اعلام کرد که از تاریخچه جستجوی وب همه کاربران خود برای انتشار نتایج جستجو استفاده خواهد کرد. در 8 ژوئن 2010، یک سیستم نمایه سازی وب جدید به نام Google Caffeine اعلام شد. Google Caffeine که به کاربران امکان می دهد نتایج اخبار، پست های انجمن و سایر محتواها را خیلی زودتر از قبل پیدا کنند، تغییری در روشی بود که Google فهرست خود را به روز می کرد تا چیزها را سریعتر از قبل در Google نشان دهد. به گفته کری گریمز، مهندس نرمافزاری که کافئین را برای گوگل اعلام کرد، «کافئین 50 درصد نتایج تازهتری نسبت به فهرست قبلی ما برای جستجوهای وب ارائه میکند...» [31] Google Instant، جستجوی بلادرنگ، در اواخر سال 2010 در تلاش برای ایجاد نتایج جستجو به موقع و مرتبط از لحاظ تاریخی، مدیران وبسایت ماهها یا حتی سالها را صرف بهینهسازی یک وبسایت برای افزایش رتبهبندی جستجو کردهاند. با محبوبیت روزافزون سایتها و وبلاگهای رسانههای اجتماعی، موتورهای پیشرو تغییراتی در الگوریتمهای خود ایجاد کردهاند تا به محتوای جدید اجازه دهند به سرعت در نتایج جستجو رتبهبندی شوند.
در فوریه 2011، گوگل بهروزرسانی پاندا را اعلام کرد که سایتهایی را که حاوی محتوای تکراری از سایتها و منابع دیگر هستند جریمه میکند. از لحاظ تاریخی، وب سایت ها محتوا را از یکدیگر کپی می کردند و با درگیر شدن در این عمل از رتبه بندی موتورهای جستجو سود می بردند. با این حال، گوگل سیستم جدیدی را پیاده سازی کرده است که سایت هایی را که محتوای منحصر به فرد نیستند جریمه می کند. برنامه Google Penguin در سال 2012 تلاش کرد تا وب سایت هایی را که از تکنیک های دستکاری برای بهبود رتبه بندی موتورهای جستجوی خود استفاده می کنند، جریمه کند. اگرچه Google Penguin به عنوان یک الگوریتم با هدف مبارزه با هرزنامه ها در وب ارائه می شود، اما با اندازه گیری کیفیت سایت هایی که پیوندها از آن ها می آیند، واقعاً بر پیوندهای هرزنامه تمرکز می کند. به روز رسانی مرغ مگس خوار Google در سال 2013 یک تغییر الگوریتم طراحی شده برای بهبود پردازش زبان طبیعی گوگل و درک معنایی صفحات وب را نشان داد. سیستم پردازش زبان مرغ مگس خوار تحت اصطلاح جدید شناخته شده "جستجوی مکالمه" قرار می گیرد، که در آن سیستم به هر کلمه در یک پرس و جو توجه بیشتری می کند تا صفحات را بهتر با معنای پرس و جو تطبیق دهد تا فقط چند کلمه. از نظر تغییرات در بهینه سازی موتورهای جستجو، برای ناشران و نویسندگان محتوا، مرغ مگس خوار قصد دارد مشکلات را با حذف محتوای نامربوط و هرزنامه ها حل کند، و به گوگل اجازه می دهد محتوای با کیفیت تولید کند و با تکیه بر آنها نویسندگان "معتمد" باشند.
در اکتبر 2019، گوگل اعلام کرد که استفاده از فرم های BERT را برای جستجوهای انگلیسی زبان در ایالات متحده آغاز خواهد کرد. بازنمایی رمزگذار دوطرفه از ترانسفورماتورها (BERT) تلاش دیگری بود که گوگل برای بهبود پردازش زبان طبیعی خود انجام داد، اما این بار به منظور درک بهتر سوالات جستجوی کاربرانش. از نظر بهینهسازی موتورهای جستجو، BERT قصد دارد آسانتر کاربران را به محتوای مرتبط متصل کند و کیفیت ترافیک ورودی به وبسایتهایی را که در صفحه نتایج موتور جستجو رتبهبندی میشوند، افزایش دهد.
خدمات سئو سایت.