لینک پرداخت و دانلود *پایین مطلب*
فرمت فایل:Word (قابل ویرایش و آماده پرینت)
تعداد صفحه: 19
فهرست و توضیحات:
مقدمه
موتورجستجوگر چگونه کار میکند
انواع موتورهای جستجوگر
نسل بعدی موتورهای جستجوگر
منابع و مأخذ
مقدمه :
با پیشرفت بشر در زمینههای مختلف علمی و افزایش سطح آگاهی انسان درباره پدیدههای مختلف و البته نیاز رو به گسترش ما به دانش و اطلاعات در این عصر زمینه برای بروز پدیدههای مختلفی که بتواند خواستههای علمی و اطلاع رسانی انسان را برای برآورده سازد افزایش یافته است . با ساخت کامپیوتر در اواسط قرن گذشته مقداری از نیازهای انسان برآورده شد با گذشت زمان این دستگاه در قسمتهای مختلف جامعه نفوذ کرد و تا امروز که در جاهایی مانند مراکز نظامی، پزشکی و اداری به وفور استفاده میشود .
در دهههای پایانی قرن گذشته با افزایش نیازبه اطلاعات بصورت روزانه گسترش ارتباط بین سازمانها و نهادها . نیاز به یک شبکه جهانی احساس شد که هم اطلاعات به روز شده و فراوانی بتواند در آن وجود داشته باشد و هم به سادگی و ارزان در اختیار مردم قرار گیرد . که اینترنت بر این اساس شکل گرفت . امروزه اینترنت به سرعت در حال وارد شدن به زندگی مردم است این رسانه با مطالب فراوان و متنوعی که دارد توانسته است قشرهای مختلف مردم را به خود جذب کند .
امروزه عده زیادی از مردم عادی، ادارات دولتی، سازمانها ، … در روز از اینترنت استفاده میکنند . به همین خاطر به مکانیزمی نیاز شد که کاربران بتوانند امکان جستجو داشته باشند در نتیجه موتورهای جستجوگر در این رسانه ایجاد شده است تا بتواند مطالب مورد نظر کاربر را به سرعت پیدا کنند .
موتورهای جستجو از ابتدای تشکیل خود با امکان جستجوی مطلب در بعضی از سایتهای اینترنتی قرار گرفتند. این سایتها با گذشت زمان توانستند مکانیزم جستجوی خود را بهینه و از طرفی گستردهتر کنند . با گسترش استفاده از اینترنت احتیاج به موتور جستجوی فارسی بشدت مشاهده میشد که این کار توسط GOOGLE انجام شده است . و میتوان به کمک آن اطلاعات فراوانی را بصورت فارسی در زمینههای مختلف بدست آورد . گستردگی این مطالب بقدری زیاد است که پیشنهاد میشود که هر کاربر اسم خود را یک بار در موتور جستجو نوشته و نتیجه کار را مشاهده کنند .
سایتهای موتور جستجو در حال حاضر نیز در حال بهتر کردن الگوریتم جستجوی خود و اضافه کردن کاراییهای دیگر به سایت خود هستند که در قسمت پایانی تحقیق آمده است . در این تحقیق سعی شده است مطالبی راجع به موتورهای جستجو و انواع آن و نسل
آینده آنها مطالبی آورده شده است .
موتور جستجوگر چگونه کار می کند ؟
وقتی جستجویی در یک موتور جستجوگر انجام و نتایج جستجو ارائه میشود، کاربر در واقع نتیجه کار بخشهای متفاوت آن موتور جستجوگر را میبینند .
موتور جستجوگر قبلاً پایگاه دادهاش «Database » را آماده کرده است و این گونه نیست که در همان لحظه جستجو، تمام وب را بگردد . بسیاری از خود میپرسند که چگونه امکان دارد گوگل « Google » در کمتر از یک ثانیه تمام سایتهای وب را بگردد و میلیونها صفحه را در نتایج جستجوی خود ارائه کند ؟
نه گوگل و نه هیچ موتور جستجوگر دیگری توانایی انجام این کار را ندارد. همه آنها در زمان پاسخگوی به کاربران، تنها در پایگاه دادهای که در اختیار دارند به جستجو میپردازند و نه در وب ! موتور جستجوگر به کمک بخشهای متفاوت خود، اطلاعات مورد نیاز قبلاً جمعآوری، تجزیه و تحلیل میکند و آنرا در پایگاه دادهاش ذخیره مینماید، بخشهای مجزای یک موتور جستجوگر عبارتند از :
- Spider یا عنکبوت
- Crawler یا خزنده
- Indexer یا بایگانی کننده
- Database یا پایگاه داده
- Ranker یا سیستم رتبه بندی
الف ـ Spider (عنکبوت)
اسپایدر یا روبوت « Robot » نرم افزاری است که کار جمعآوری اطلاعات مورد نیاز یک موتور جستجوگر را بر عهده دارد . اسپایدر به صفحات مختلف سر میزند، محتوای آنها را میخواند و اطلاعات مورد نیاز موتور جستجوگر را جمعآوری میکند و آنرا در اختیار سایر بخشهای موتور جستجوگر قرار میدهد.
کار یک اسپایدر، بسیار شبیه کار کاربران وب است. همانطور که کاربران، صفحات مختلف را بازدید میکنند، اسپایدر هم این کار را انجام میدهد با این تفاوت که اسپایدر کدهای HTML صفحات را میبیند اما کاربران نتیجه حاصل از کنار هم قرار گرفتن این کدها را.
اسپایدر، به هنگام مشاهده صفحات، از خود بر روی سرورها « رد پا بر جای میگذارد . شما اگر اجازه دسترسی به آمار دید و بازدیدهای صورت گرفته از یک سایت و اتفاقات انجام شده در آنرا داشته باشید، میتوانید مشخص کنید که اسپایدر کدام موتورهای جستجوگر صفحات سایت را مورد بازدید قرار دادهاند .
اسپایدرها کاربردهای دیگری نیز دارند، به عنوان مثال عدهای از آنها به سایتهای مختلف مراجعه میکنند و فقط به بررسی فعال بودن لینکهای آنها میپردازند و یا به دنبال آدرس پست الکترونیکی « Email » افراد میگردند .
ب ـ Crawler (خزنده )
کراولر، نرم افزاری است که به عنوان فرمانده برای اسپایدر عمل میکند. کراولر مشخص میکند که اسپایدر کدام صفحات را مورد بازدید قرار دهد. در واقع کراولر تصمیم میگیرد که کدام یک از لینکهای صفحهای که اسپایدر در حال حاضر در آن قرار دارد، دنبال شود. ممکن است همه آنها را دنبال کند، بعضیها را دنبال کند و یا هیچ کدام را دنبال نکند .
کراولر، ممکن است قبلاً توسط دارندگان موتورهای جستجوگر برنامهریزی شده باشد که آدرسهای خاصی را طبق برنامه در اختیار اسپایدر قرار دهد تا از آنها دیدن کند .
دنبال کردن لینکهای یک صفحه به این بستگی دارد که موتورهای جستجوگر چه حجمی از اطلاعات یک سایت را میتواند در پایگاه دادهاش ذخیره کندو همچنین ممکن است اجازه دسترسی به عضی از صفحات به موتورهای جستجوگر داده نشده باشد.
شما به عنوان دارنده سایت، همان طور که دوست دارید موتورهای جستجوگر اطلاعات شما را با خود ببرند، میتوانید آنها را از بعضی از صفحات سایتتان دور کنید و اجازه دسترسی به محتوای آن صفحات را به موتورهای جستجوگر ندهید .
تنظیم میزان دسترسی موتورهای جستجوگر به محتوای یک سایت توسط پروتکل Robots انجام میشود . به عمل کراولر، خزش (Crawling ) میگویند.
این فقط قسمتی از متن مقاله است . جهت دریافت کل متن مقاله ، لطفا آن را خریداری نمایید
دانلود تحقیق کامل درمورد موتورهای جستجوگر