SEO یا بهینه سازی بر پایه موتورهای جستجو درواقع پاسخ به نیاز اصلی سایت های وب جهان گستر یعنی ترافیک هدفمند یا آمار بالای بازدید کنندگان از سایت است. برای داشتن بیننده در یک سایت یا به عبارت دیگری بازاریابی برای یک سایت چندین روش وجود دارد : روش نخست تبلیغات در خارج از وب است. یعنی تبلیغات به روش سنتی ، کارایی این روش به دلایل ذیر چندان مناسب نیست . با وجود اینترنت و پیامدهای آن توجه جامعه ی جهانی ازرسانه های دیگر به سمت این پدیده کشیده شده وتبلیغات به روش سنتی حتی در زمینه های قبلی نیز کارایی خود را از دست داده چه برسد برای کار کرد در خود اینترنت. گذشته از این چون این تبلیغات درخارج از محیط وب انجام می شود ،پس تاثیر گذاری آن کم است. تصور کنید که این تبلیغ روی تابلوی تبلیغاتی یک اتوبان نصب شده باشد ، حتی در صورتی که توجه بیننده را جلب کند، احتمال اینکه او به سایت مورد نظر برود کم است چون تا از خیابان به منزل یا محل کار یا محیطی که در آن به اینترنت دسترسی دارد برود ،فاصله زمانی زیادی رخ داده و تاثیرگذاری آگهی از بین رفته است. روش دوم تبلیغات در خود وب است به عنوان مثال قراردادن یک flash تبلیغاتی در یک سایت پر بیننده. که کار روش دوم در اکثر موارد از روش اول بهتر است اما ضعفهایی هم دارد مثلا هزینه ی زیاد واینکه ما مطمئن نیستیم که کاربران آن سایت پر بیننده به آگاهی ما علاقه مند هستند یا نه . یک روش نوین دیگر هم وجود داردکه با روش های سنتی کاملا در تضاد است . در این روش در واقع به جای ارائه ی سایت به بیننده در واقع به نیاز وپرسش خود او جواب می دهیم . اینجا به جای اینکه دنبال بیننده باشیم خود بیننده ما را پیدا کرده وبه سراغ ما می آید . اما او چگونه اینکار را انجام می دهد؟ بهتر است از آمار کمک بگیریم تا متوجه شویم که کاربران اینترنت چگونه موضوع های مورد علاقه ی را پیدا می کنند :
تقریبا 90% از کاربران اینترنت با حداقل یک موتور جستجوگر آشنا هستند و از آن استفاده می کنند .
50% از کاربران اینترنت هر روز جستجو می کنند که بیش از نیمی از این جستجوها برای کالا یا خدمات است .
یکی از اولین کارهایی که یک کاربر تازه کار شبکه انجام می دهد ، جستجو در یکی از موتورهای جستجوگر است .
از آمار بالا نتیجه می شود که جستوجوگرها محبوب ترین ابزار برای جستوجوی اطلاعات در محیط وب هستند پس در این روش سعی می شود تا کاربر به این روش ما را پیدا کند درنتیجه چیزی که خود او به دنبالش بوده را ما به او ارائه می کنیم .
نیاز به جستجوگرها یک نیاز انکارنا پذیر است . باتوجه به حجم عظیم وب و اطلاعاتی که روزانه به وب افزوده می شود کاربروب برای پیدا کردن موضوع خاصی دروب با وجود این همه اطلاعات بی پایان دچار مشکل است و پیداشدن موتور های جستجوگر درواقع پاسخ بر این نیاز کاربران است. درSEO سعی براین است که بینندگان بیشتری بااین روش با سایت مورد نظر روبه رو شوند به عبارت بهتر سایت با صفحه ی مورد نظر درصفحه ی نتایج موتور جستوجوگر که به کاربر ارائه می شود رتبه ی بالایی کسب کند . هدف نهایی قرار گرفتن در صفحه ی اول نتایج است (نتایج اول تا دهم) و اولویت به نتایج اول تا سوم است .
گذشته از این ها مهمترین نقش SEO در تجارت آنلاین است یعنی جایی که حضور بیننده پر اهمیت ترین موضوع است. شرکت های بزرگ سرمایه گزاری زیادی برای قرار گرفتن سایت شان در لیست جستوجوگرهای بزرگ انجام می دهند همین موضوع باعث رونق بازار SEO شده است.
معرفی انواع جستجوگرها
قبل از اینکه به تکنیکهای SEO بپردازیم لازم است که یک شناخت کلی از یک جستجوگر داشته باشیم. ابتدا به برسی ساختار یکی از انواع مهم جستجوگر ها یعنی Search Engine می پردازیم.
1. Search Engine
هر موتور جستجوگر چندین بخش مرتبط به هم دارد :
1. روبات نرم افزاری : تشکیل شده از دو بخش است : Spider و Crawler
Spider یا عنکبوت نوعی برنامه نرم افزاری است که وظیفه کاوش در وب و جمع آوری اطلاعات از وب و ارسال آن به موتور جستجوگر را به عهده دارد . و کراولر تعیین می کند که Spider باید چه کارهایی انجام دهد. کار Spider به این صورت است که طبق دستور Crawler به یک صفحه می رود اطلاعات آن صفحه را از رویSource صفحه خوانده .و به Search Engine ارسال می کند سپس باز هم با دستور Crawler لینک هایی که در آن صفحه وجود دارند را دنبال می کند .در صفحه های مقصد باز هم همین عمل را تکرار می کند . به این ترتیب Spider با دنبال کردن لینک ها )تارهای شبکه وب( مانند یک عنکبوت در شبکه تار عنکبوتی وب حرکت می کند و اطلاعات جدید را جمع آوری می کند . مجموعه روبات نرم افزاری وظیفه بایگانی کردن وب را به عهده دارد .
2. بایگانی : این قسمت شامل بخش تجزیه و تحلیل گر (Indexer) وبخش پایگاه داده
(Database) است.
Indexer : اطلاعاتی را که روبات نرم افزاری جمع آوری میکند در اختیار این بخش قرار میدهد. Indexer اطلاعات ارسالی را تجزیه و تحلیل می کند. به عبارت دیگر اطلاعات را سازماندهی می کند. به عنوان مثال در یک سند چند کلمه وجود دارد، کلمات کلیدی در کجای متن هستند، نسبت کلمات کلیدی به کل متن چند است، تصاویر در کجای صفحه هستند و به طور کلی همه پارامترهایی را که به جستجوگ، در تعیین رتبه سند کمک میکنند در این مرحله بدست میایند. این پارامترها در Indexer به یک مقیاس عددی تبدیل می شوند تا سیستم رتبه بندی بتواند الگوریتم های خاص ویژه و فوق محرمانه موتور جستجوگر را که آنها هم محرمانه هستند اعمال کند و در نهایت رتبه هر سایت مشخص می شود.
Indexer سپس اطلاعات صفحه و پارامترها را در اختیار پایگاه داده جستجوگر قرار می دهد. با توجه به اینکه هر جستجوگر نوعی بایگانه کننده وب به شمار می رود، پس باید پایگاه داده عظیمی برای بایگانی وب داشته باشد. علاوه بر این یک جستجوگر باید الگوریتم های خاصی برای جستجو در پایگاه داده خودش داشته باشد تا در کمترین زمان اسناد مورد نظر را بر اساس سوالات کاربر ارائه دهد.
علاوه بر این برای بالا بردن سرعت جستجو در پایگاه داده، اطلاعات گروه بندی و کدگذاری می شوند تا دسترسی به آنها آسانتر شود. این مرحله ضعف عمده جستجوگرها بشمار می رود چون در صورت وجود ابهام در سوال کاربر و گروه بندی های کلی نتایج بسیار وحشتناکی ببار می اورد . یکی از تفاوت های عمده موتورهای جستجوگر در حجم پایگاه داده آنها و همینطور نحوه سازماندهی اطلاعات و جستجو در پایگاه داده است.
هر موتور جستجوگر فقط نتایجی را به کاربر ارائه می دهد که در پایگاه داده اش وجود دارند، به عبارت بهتر عمل جستجو فقط در پایگاه داده جستجوگر انجام می شود. پس، پیش از مراجعه کاربر، جستجوگر باید پایگاه داده خود را آماده کند.
3. سیستم رتبه بندی Ranker : این مرحله تنها مرحله ای است که بعد از وارد کردن
کلمات کلیدی توسط کاربر انجام می شود. یعنی قبل از عمل جست و جو مراحل قبل باید به پایان رسیده باشند؛ Spider اطلاعات را ارسال کرده، در جستجوگر اطلاعات تجزیه تحلیل و ذخیره شده اند و پایگاه داده جستجوگر آماده شده است و سیستم آماده پاسخگویی می شود.
البته کار روبات نرم افزاری هیچگاه تمام نمی شود و دائما در حال پرسه زنی و جمع آوری اطلاعات از وب است. بعد از اینکه کاربر کلمات کلیدی خود را وارد کرد، این کلمات در بانک اطلاعاتی جستجو می شوند و نتایج مرتبط بدست می آید. اما هنوز یک مرحله باقی مانده است، یعنی چگونگی ارائه این نتایج به کاربر. اگر نتایج جستجو کم باشد مشکل چندانی پیش نمی آید و نتایج در یک صفحه به کاربر ارائه می شوند. اما در صورتی که صفحات زیادی پیدا شود مثلا چند هزار صفحه، در این صورت، تصمیم گیری در مورد اینکه کدام صفحات در رتبه های بالا بویژه بین ده رتبه اول قرار بگیرند بسیار مهم است.
سیستم رتبه بندی این وظیفه را به عهده دارد. این سیستم با اعمال یکسری الگوریتم های ویژه و خاص و البته محرمانه، روی پارامترهای سندهای مختلف، به هر صفحه یک رتبه اختصاص می دهد و در نهایت صفحات در خروجی به ترتیب از بیشترین تا کمترین ارتباط مرتب می شوند.
مهمترین تفاوت موتور جستجوگرهای مختلف، تفاوت در الگوریتم های سیستم رتبه بندی آنها است. همین موضوع باعث می شود که یک کلیدواژه در چند جستجوگر مختلف، نتایج متفاوتی داشته باشد.
هدف از بهینه سازی سایت این است که پارامترهای مورد توجه جستجوگر که در صفحات سایت وجود دارند را طوری تنظیم و بهینه کنیم که در سیستم رتبه بندی و بعد از اعمال الگوریتم ها روی آنها، رتبه مناسبی به سایت داده شود.
نکته قابل توجه این است که هیچکدام از این پارامترها و الگوریتم ها شناخته شده و قطعی نیست و در موتورهای مختلف، متفاوت است. و در طول فرایندهای بهبود رتبه، از روی تجربه و مقایسه نتایج مختلف حدس زده می شوند.
مهمترین ویژگی این نوع جستجوگرها، وجود روبات نرم افزاری است که هیچگاه از فعالیت نمی ایستد و همواره اطلاعات جدید وب را جمع آوری می کند یا اطلاعات قدیمی را به روز می کند. که این امر به روز بودن نتایج ارائه شده را در پی دارد.
مهمترین جستجوگر در این دوره Google است.
سایر جستجوگرهای مهم عبارتند از :
Fast (All the web)
Altavista
MSN
Teoma
Info Seek
Nurthern Light
2. Directory :
دایرکتوری یا فهرست، اطلاعات وب را به صورت موضوعی طبقه بندی می کند؛ به این صورت که کاربرازکل اطلاعات به قسمت های جزئی وتخصصی می رسد. درواقع کاربردر هر مرحله یک فهرست را انتخاب می کند و از آن فهرست یک زیرفهرست و به همین ترتیب آنقدر ادامه می دهد تا به نتیجه دلخواه برسد. به عنوان مثال اگر شما به دنبال تاریخچه یک تیم فوتبال باشید، به جای وارد کردن کلمات مرتبط در موتور جستجوگر، از دایرکتوری شاخه ورزشی را انتخاب می کنید سپس، زیرشاخه فوتبال و زیر شاخه تاریخ تیم های فوتبال را انتخاب می کنید که در این زیرشاخه ممکن است اطلاعات مورد نظر شما وجود داشته باشد.
ساختار دایرکتوری ها به این ترتیب است که هر دایرکتوری چندین ویراستار دارد، هر سایت برای قرار گرفتن در دایرکتوری باید ضمن معرفی سایت و انتخاب گروه و زیر گروه مناسب، خود رابه دایرکتوری معرفی کند. بعد از آن ویراستارهای دایرکتوری سایت را از نظر تناسب محتوا با گروه انتخابی و سایر قوانین برسی می کنند. در صورت پذیرفته شدن، سایت مورد نظر در دایرکتوری به ثبت می رسد. در نتیجه این نوع جستجوگرها نیازی به روبات نرم افزاری ندارند و از آن استفاده نمی کنند. بنابراین تا زمانیکه یک سایت خود را به دایرکتوری معرفی نکند از دید آن پنهان است.
در فرایند بهینه سازی قرار گرفتن در دایرکتوری های بزرگ یک مرحله مهم و از اولین مراحل شروع ثبت در موتورهای جستجوگر است.
مهمترین دایرکتوری ها عبارتند از :
Yahoo
Internet Public Library
Dmoz
Look Smart
Galaxy
3. موتورهای جستجوگر مادر (Meta Search Engine) :
این نوع جستجوگر از چندین موتور جستجو به طور همزمان و موازی استفاده می کند. به این صورت که سوال کاربر را به طور همزمان به چند موتور جستجوی مهم می فرستد وگزیده نتایج مهم و غیر تکراری آنها را به کاربر ارائه می کند. به این ترتیب نتایج چندین موتور جستجو در یک صفحه در اختیار کاربر قرار داده می شود.
مهمترین انواع موتورهای مادر عبارتند از :
Mamma
Meta Crawler
Dog pile
Ixquick
4. جستجوگر پرداخت به ازای هر کلیک (Pay per click search engine) :
طرز کار این نوع جستجو گرها دقیقا مشابه Search Engine است، با این تفاوت که شما برای قرار گرفتن در رتبه ای خاص باید مبلغ بالاتری نسبت به سایر رقبا بپردازید.
مثلا اگر سایتی در رتبه سوم صفحه نتایج به ازای کلیدواژه خاصی باشد و برای قرار گرفتن در این رده مبلغ ¢30 به ازای هر کلیک را می پردازد، شما برای قرار گرفتن در این رتبه باید مبلغی بیشتر از ¢30 بپردازید. این مبلغ تنها برای یک کلیک است. یعنی هر زمان که یک کاربر کلیدواژه مذکور را جستجو کند و از طریق این جستجوگر سایت شما را پیدا کند، شما باید این مبلغ را بپردازید. به عبارت بهتر قرار گرفتن در رتبه های این نوع سایت ها حالت مزایده دارد.
اگر سایت شما یک سایت تجاری باشد، برای قرار گرفتن در رتبه بندی اکثر جستجوگرها شما مجبور به پرداخت مبلغی معین هستید.
:: موضوعات مرتبط:
,
,
:: بازدید از این مطلب : 1067
|
امتیاز مطلب : 14
|
تعداد امتیازدهندگان : 5
|
مجموع امتیاز : 5