سیما وب

سیما وب

۱ مطلب در اسفند ۱۴۰۱ ثبت شده است

بهینه سازی موتورهای جستجو (SEO) فرآیند بهبود کیفیت و کمیت ترافیک وب سایت به یک وب سایت یا صفحه وب از موتورهای جستجو است.

سئو ترافیک بدون پرداخت (معروف به نتایج "طبیعی" یا "ارگانیک") را به جای ترافیک مستقیم یا ترافیک پرداختی هدف قرار می دهد. ترافیک بدون پرداخت ممکن است از انواع مختلف جستجوها، از جمله جستجوی تصویر، جستجوی ویدیویی، جستجوی آکادمیک، جستجوی اخبار، و موتورهای جستجوی عمودی خاص صنعت سرچشمه بگیرد.

برای دریافت خدمات سئو حرفه ای و تضمینی لطفا بر روی عکس زیر کلیک کنید:

به عنوان یک استراتژی بازاریابی اینترنتی، سئو نحوه کار موتورهای جستجو، الگوریتم های برنامه ریزی شده کامپیوتری که رفتار موتورهای جستجو را دیکته می کنند، آنچه افراد جستجو می کنند، عبارات جستجوی واقعی یا کلمات کلیدی تایپ شده در موتورهای جستجو و اینکه کدام موتورهای جستجو مورد علاقه مخاطبان هدف هستند را در نظر می گیرد...

سئو به این دلیل انجام می شود که وقتی وب سایت ها در صفحه نتایج موتور جستجو (SERP) رتبه بالاتری داشته باشند، یک وب سایت بازدیدکنندگان بیشتری از موتور جستجو دریافت می کند. سپس این بازدیدکنندگان می توانند به مشتری تبدیل شوند.

تاریخ:
وب مسترها و ارائه دهندگان محتوا در اواسط دهه 1990 بهینه سازی وب سایت ها را برای موتورهای جستجو آغاز کردند، زیرا اولین موتورهای جستجو در حال نمایه سازی وب اولیه بودند.

در ابتدا، تمام وب مسترها فقط نیاز داشتند عنوان صفحه یا URL را به موتورهای مختلف ارسال کنند، که یک خزنده وب را برای خزیدن آن صفحه، استخراج لینک به صفحات دیگر از آن، و بازگرداندن اطلاعات به صفحه برای ایندکس کردن، ارسال می کرد.

این فرآیند شامل یک موتور جستجوگر عنکبوت است که یک صفحه را دانلود کرده و آن را در سرور خود موتور جستجو ذخیره می کند. برنامه دوم، که به عنوان نمایه ساز شناخته می شود، اطلاعاتی را در مورد صفحه استخراج می کند، مانند کلماتی که در آن وجود دارد، در کجا قرار دارند، و هر وزنی برای کلمات خاص، و همچنین تمام پیوندهایی که صفحه حاوی آن است.

سپس تمام این اطلاعات در یک زمان‌بندی قرار داده می‌شود تا در تاریخ بعدی خزیده شود.

صاحبان وب‌سایت‌ها ارزش رتبه‌بندی بالاتر و ظاهر شدن در نتایج موتورهای جستجو را تشخیص داده‌اند، که فرصتی را برای متخصصان سئو کلاه سفید و کلاه سیاه ایجاد می‌کند. به گفته دنی سالیوان، تحلیلگر صنعت، عبارت "بهینه سازی موتور جستجو" احتمالاً در سال 1997 مورد استفاده قرار گرفت. سالیوان بروس کلی را یکی از اولین افرادی می داند که این اصطلاح را رایج کرده است.

نسخه های اولیه الگوریتم جستجو بر اطلاعات ارائه شده توسط وب مستر مانند متا تگ کلمه کلیدی یا فایل های فهرست در موتورهایی مانند ALIWEB متکی بودند. متا تگ ها راهنمای محتوای هر صفحه را ارائه می دهند.

استفاده از ابرداده برای نمایه سازی صفحات کمتر قابل اعتماد است، زیرا انتخاب کلمات کلیدی توسط مدیر وب سایت در متا تگ ممکن است نمایش نادرستی از محتوای واقعی سایت باشد. داده‌های ناقص در متا تگ‌ها، مانند آن‌هایی که مشخصه‌های دقیق یا کامل یا نادرست نبودند، این پتانسیل را ایجاد می‌کنند که صفحات در جستجوهای نامربوط به اشتباه توصیف شوند.

ارائه‌دهندگان محتوای وب همچنین برخی ویژگی‌ها را در HTML منبع صفحه دستکاری کرده‌اند تا در موتورهای جستجو رتبه خوبی کسب کنند.

در سال 1997، طراحان موتورهای جستجو متوجه شدند که مدیران وب‌سایت‌ها تلاش می‌کنند تا در موتور جستجوی خود رتبه خوبی داشته باشند و برخی از مدیران وب‌سایت‌ها رتبه‌بندی خود را در نتایج جستجو با پر کردن صفحات با کلمات کلیدی بیش از حد یا نامربوط دستکاری می‌کنند. موتورهای جستجوی اولیه، مانند Altavista و Infoseek، الگوریتم های خود را تغییر دادند تا از دستکاری مدیران سایت در رتبه بندی جلوگیری کنند.


موتورهای جستجوی اولیه با تکیه بر عواملی مانند تراکم کلمات کلیدی که منحصراً در کنترل وب‌مستر بود، از سوء استفاده و دستکاری رتبه‌بندی رنج می‌بردند. برای ارائه نتایج بهتر به کاربران خود، موتورهای جستجو مجبور شده‌اند تا اطمینان حاصل کنند که صفحات نتایج آنها مرتبط‌ترین نتایج جستجو را نشان می‌دهند، به جای صفحات بی‌ربط که با کلمات کلیدی زیادی توسط وب‌مستران بی‌وجدان پر شده‌اند.

این به معنای دور شدن از اتکای شدید به تراکم اصطلاح به فرآیند جامع‌تر ثبت سیگنال‌های معنایی است. از آنجایی که موفقیت و محبوبیت یک موتور جستجو با توانایی آن در تولید مرتبط ترین نتایج برای هر جستجوی مشخص تعیین می شود، نتایج جستجو با کیفیت پایین یا نامربوط ممکن است کاربران را به یافتن منابع جستجوی دیگر سوق دهد. موتورهای جستجو با توسعه الگوریتم‌های رتبه‌بندی پیچیده‌تر، با در نظر گرفتن عوامل دیگری که پرداختن به آنها برای مدیران وب‌سایت دشوار بود، پاسخ دادند.

شرکت هایی که از تکنیک های بیش از حد تهاجمی استفاده می کنند می توانند وب سایت های مشتریان خود را از نمایش در نتایج جستجو مسدود کنند. در سال 2005، وال استریت ژورنال در مورد شرکتی به نام Traffic Power گزارش داد که ظاهراً از تکنیک‌های پرخطر استفاده می‌کرد و نتوانست آن خطرات را برای مشتریانش فاش کند. Wired گزارش داد که همان شرکت از وبلاگ نویس و SEO Aaron Wall به دلیل نوشتن در مورد ممنوعیت شکایت کرد. مت کاتس گوگل بعداً تأیید کرد که گوگل در واقع Traffic Power و برخی از مشتریانش را ممنوع کرده است.

برخی از موتورهای جستجو نیز به صنعت سئو دسترسی پیدا کرده اند و حامیان مالی و مهمانان مکرر کنفرانس های سئو، گفتگوهای وب و سمینارها هستند. موتورهای جستجوی اصلی اطلاعات و دستورالعمل هایی را برای کمک به بهبود وب سایت ها ارائه می دهند. Google یک برنامه نقشه سایت دارد تا به مدیران وب سایت کمک کند تا ببینند آیا Google در فهرست کردن وب سایت خود با مشکلی مواجه است یا خیر، و همچنین داده هایی را در مورد ترافیک Google به وب سایت ارائه می دهد. Bing Webmaster Tools راهی برای وب مسترها فراهم می کند تا نقشه سایت و فیدهای وب را ارسال کنند و به کاربران اجازه می دهد تا «نرخ خزیدن» را تعیین کنند و وضعیت فهرست صفحات وب را ردیابی کنند.

در سال 2015، گزارش شد که گوگل در حال توسعه و ترویج جستجوی موبایل به عنوان یک ویژگی اصلی در محصولات آینده است. در پاسخ، بسیاری از برندها شروع به اتخاذ رویکردی متفاوت برای استراتژی های بازاریابی آنلاین خود کرده اند.

رابطه با گوگل
در سال 1998، دو دانشجوی فارغ التحصیل دانشگاه استنفورد، لری پیج و سرگئی برین، Backrub را توسعه دادند، یک موتور جستجو بر اساس یک الگوریتم ریاضی برای ارزیابی اهمیت صفحات وب. عددی که الگوریتم محاسبه می کند، PageRank، تابعی از مقدار و قدرت لینک های ورودی است. PageRank این احتمال را تخمین می زند که یک کاربر وب در یک صفحه خاص در حال مرور تصادفی وب و دنبال کردن پیوندها از یک صفحه به صفحه دیگر است. در واقع، این بدان معنی است که برخی از پیوندها قوی تر از سایرین هستند، زیرا به یک صفحه بالاتر در رتبه صفحه احتمال بیشتری وجود دارد که توسط وب گردهای تصادفی به دست آید.

پیج و برین گوگل را در سال 1998 تاسیس کردند. گوگل طرفداران وفاداری را در میان تعداد فزاینده ای از کاربران اینترنت جذب کرده است که طراحی مینیمالیستی آن را دوست داشتند. عوامل خارج از صفحه (مانند رتبه صفحه و تجزیه و تحلیل هایپرلینک) و همچنین عوامل درون صفحه (مانند فراوانی کلمات کلیدی، متا تگ ها، عنوان ها، پیوندها و ساختار سایت) در نظر گرفته شدند تا Google را قادر سازد از نوع دستکاری جلوگیری کند. در موتورهای جستجو که فاکتورهای موجود در صفحه را فقط برای چیدمان در نظر می گیرند دیده می شود. اگرچه اجرای PageRank دشوارتر بود، مدیران وب‌سایت‌ها قبلاً ابزارها و طرح‌هایی برای ایجاد پیوند برای تأثیرگذاری بر موتور جستجوی Inktomi ایجاد کرده بودند، و این روش‌ها به طور مشابه برای بازی‌های PageRank قابل استفاده بودند. بسیاری از سایت ها بر تبادل، خرید و فروش لینک ها، اغلب در مقیاس بزرگ تمرکز می کنند. برخی از این طرح‌ها یا مزرعه‌های پیوند، شامل ایجاد هزاران سایت با هدف ارسال هرزنامه به شما می‌شوند.

تا سال 2004، موتورهای جستجو طیف وسیعی از عوامل فاش نشده را در الگوریتم های رتبه بندی خود گنجانده بودند تا تأثیر دستکاری لینک ها را کاهش دهند. در ژوئن 2007، سائول هانسل از نیویورک تایمز گزارش داد که گوگل سایت ها را با استفاده از بیش از 200 سیگنال مختلف رتبه بندی می کند. موتورهای جستجوی پیشرو، گوگل، بینگ و یاهو، الگوریتم هایی را که برای رتبه بندی صفحات استفاده می کنند، فاش نمی کنند. برخی از متخصصان سئو روش های مختلف سئو را مطالعه کرده و نظرات شخصی خود را به اشتراک گذاشته اند. پتنت های مربوط به موتورهای جستجو می توانند اطلاعاتی را برای درک بهتر موتورهای جستجو ارائه دهند. در سال 2005، گوگل شروع به شخصی سازی نتایج جستجو برای هر کاربر کرد. بر اساس تاریخچه جستجوهای قبلی، گوگل نتایج را برای کاربران ثبت نام شده برگردانده است.

در سال 2007، گوگل کمپینی را علیه لینک های پولی اعلام کرد که رتبه صفحه را پایین می آورد. در 15 ژوئن 2009، گوگل فاش کرد که اقداماتی را برای کاهش اثرات مجسمه سازی PageRank با استفاده از ویژگی nofollow بر روی پیوندها انجام داده است. Matt Cutts، مهندس نرم‌افزار معروف در گوگل، اعلام کرد که Google Bot دیگر به همان شیوه از هیچ لینک بدون دنبال کردنی استفاده نمی‌کند تا از استفاده ارائه‌دهندگان سئو برای جلوگیری از استفاده از nofollow برای ایجاد رتبه صفحه جلوگیری کند. در نتیجه این تغییر، استفاده از nofollow باعث تبخیر رتبه صفحه شد. به منظور اجتناب از موارد فوق، مهندسان سئو تکنیک‌های جایگزینی را توسعه داده‌اند که جاوا اسکریپت مبهم را جایگزین برچسب‌های nofollowed می‌کند و به این ترتیب امکان مجسمه‌سازی رتبه صفحه را فراهم می‌کند. علاوه بر این، چندین راه حل شامل استفاده از iframes، فلش و جاوا اسکریپت پیشنهاد شده است.

در دسامبر 2009، گوگل اعلام کرد که از تاریخچه جستجوی وب همه کاربران خود برای انتشار نتایج جستجو استفاده خواهد کرد. در 8 ژوئن 2010، یک سیستم نمایه سازی وب جدید به نام Google Caffeine اعلام شد. Google Caffeine که به کاربران امکان می دهد نتایج اخبار، پست های انجمن و سایر محتواها را خیلی زودتر از قبل پیدا کنند، تغییری در روشی بود که Google فهرست خود را به روز می کرد تا چیزها را سریعتر از قبل در Google نشان دهد. به گفته کری گریمز، مهندس نرم‌افزاری که کافئین را برای گوگل اعلام کرد، «کافئین 50 درصد نتایج تازه‌تری نسبت به فهرست قبلی ما برای جستجوهای وب ارائه می‌کند...» [31] Google Instant، جستجوی بلادرنگ، در اواخر سال 2010 در تلاش برای ایجاد نتایج جستجو به موقع و مرتبط از لحاظ تاریخی، مدیران وب‌سایت ماه‌ها یا حتی سال‌ها را صرف بهینه‌سازی یک وب‌سایت برای افزایش رتبه‌بندی جستجو کرده‌اند. با محبوبیت روزافزون سایت‌ها و وبلاگ‌های رسانه‌های اجتماعی، موتورهای پیشرو تغییراتی در الگوریتم‌های خود ایجاد کرده‌اند تا به محتوای جدید اجازه دهند به سرعت در نتایج جستجو رتبه‌بندی شوند.

در فوریه 2011، گوگل به‌روزرسانی پاندا را اعلام کرد که سایت‌هایی را که حاوی محتوای تکراری از سایت‌ها و منابع دیگر هستند جریمه می‌کند. از لحاظ تاریخی، وب سایت ها محتوا را از یکدیگر کپی می کردند و با درگیر شدن در این عمل از رتبه بندی موتورهای جستجو سود می بردند. با این حال، گوگل سیستم جدیدی را پیاده سازی کرده است که سایت هایی را که محتوای منحصر به فرد نیستند جریمه می کند. برنامه Google Penguin در سال 2012 تلاش کرد تا وب سایت هایی را که از تکنیک های دستکاری برای بهبود رتبه بندی موتورهای جستجوی خود استفاده می کنند، جریمه کند. اگرچه Google Penguin به عنوان یک الگوریتم با هدف مبارزه با هرزنامه ها در وب ارائه می شود، اما با اندازه گیری کیفیت سایت هایی که پیوندها از آن ها می آیند، واقعاً بر پیوندهای هرزنامه تمرکز می کند. به روز رسانی مرغ مگس خوار Google در سال 2013 یک تغییر الگوریتم طراحی شده برای بهبود پردازش زبان طبیعی گوگل و درک معنایی صفحات وب را نشان داد. سیستم پردازش زبان مرغ مگس خوار تحت اصطلاح جدید شناخته شده "جستجوی مکالمه" قرار می گیرد، که در آن سیستم به هر کلمه در یک پرس و جو توجه بیشتری می کند تا صفحات را بهتر با معنای پرس و جو تطبیق دهد تا فقط چند کلمه. از نظر تغییرات در بهینه سازی موتورهای جستجو، برای ناشران و نویسندگان محتوا، مرغ مگس خوار قصد دارد مشکلات را با حذف محتوای نامربوط و هرزنامه ها حل کند، و به گوگل اجازه می دهد محتوای با کیفیت تولید کند و با تکیه بر آنها نویسندگان "معتمد" باشند.

در اکتبر 2019، گوگل اعلام کرد که استفاده از فرم های BERT را برای جستجوهای انگلیسی زبان در ایالات متحده آغاز خواهد کرد. بازنمایی رمزگذار دوطرفه از ترانسفورماتورها (BERT) تلاش دیگری بود که گوگل برای بهبود پردازش زبان طبیعی خود انجام داد، اما این بار به منظور درک بهتر سوالات جستجوی کاربرانش.  از نظر بهینه‌سازی موتورهای جستجو، BERT قصد دارد آسان‌تر کاربران را به محتوای مرتبط متصل کند و کیفیت ترافیک ورودی به وب‌سایت‌هایی را که در صفحه نتایج موتور جستجو رتبه‌بندی می‌شوند، افزایش دهد.

خدمات سئو سایت.

۲۰ اسفند ۰۱ ، ۲۱:۳۷
جمشید سام