موتور کاوش چیست؟
موتور کاوش به طرحی گفته میگردد که عبارات کلیدی جان دار در پوشه ها وسندها و آرشیوهای FTP و تیم های خبری و..... را جست وجو می کند . هرمورد از موتورهای جست وجو برای کامل شدن فهرست خویش از طریق خاصی به کارگیری می کنند. seo وب سایت برای موتورهای جست وجو یک کدام از مواقعی میباشد که امروزه گزینه دقت مدیران تارنما ها قرار گرفته میباشد .موتور جستجوی اینترنت یک سیستم قابل انعطاف افزاری میباشد که برای جستجوی داده ها در کانال جهانی اینترنت پیاده سازی گردیدهاست. نتیجه ها کاوش به صورت کلی در یک خط از نتیجه ها ارائه می گردد که اکثر اوقات تحت عنوان صفحه های حاصل موتورهای کاوش (SERPs) نامیده میگردد. داده ها ممکن میباشد ترکیبی از صفحه های اینترنت، تصاویر و اشکال دیگر فولدر ها باشد. همینطور بعضا از موتورهای کاوش، داده های جانور در مقر های داده یا این که دایرکتوری های گشوده را در دسترس داراهستند. مغایر دایرکتوری های اینترنت که صرفا به وسیله ویراستاران انسانی حفظ میگردند، موتورهای کاوش با به کارگیری از یک الگوریتم در یک پایشگر اینترنت، داده ها بلادرنگ را محافظت می نمایند. محتوای اینترنتی که به وسیله موتور جستجوی اینترنت قابل کاوش وجود ندارد عموما تحت عنوان deep web آموزش سئو در مشهد تعریف میگردد.
شروع شغل موتورهای جستجوی اینترنتی دسامبر سال 1990 پیش گویی گردیده بود. ولی جستجوی یوزرها از سال 1982 استارت شد، و جستجوی خدمت اطلاعاتی Knowbot برای نخسین بار در سال 1989 جاری ساختن شد. اولین موتور کاوش غیر وابسته که پوشه های محتوا یا این که همان FTP را کاوش میکرد، Archie بود که در تاریخ 10 سپتامبر 1990 عرضه شد. پیش از سپتامبر 1993، World Wide Web تماما لیست بندی شد. یک لیست از اینترنت سرورهای بازنویسی گردیده بوسیله دسته برنرز لی و میزبانی اینترنت سرور CERN وجود داشت. یک تصویر تاریخی از لیست در سال 1992 مانده میباشد، البته هرچه اینترنت سرور های بیشتری آنلاین می شدند، حفظ لیست مرکزی دشوارتر میشد. در وبسایت NCSA، سرورهای نو به عنوان "نو چه خبر" آموزش سئو مشهد منتشر شد.
حدود سال 2000، موتور جستجوی گوگل به پر رنگ سازی رسید. این مجموعه با خلاقیت به اسم PageRank برای کاوش به نتیجه ها بهتری دست یافت. این الگوریتم صفحه های اینترنت را براساس تعداد و امتیاز بقیه تارنما ها و صفحاتی که به آن لینک و پیوند میدهند، مرتبه بندی میکرد.
روش فعالیت موتورهای کاوش چهگونه میباشد؟
موتورهای کاوش عمل کردن با وب را بسیار راحت کردند آنها مقر تعالی اطلاعاتی می باشند ، که داده ها خویش را از پیشین مهیا می نمایند. و این سیرتکامل وجود ندارد كه صحیح در به عبارتی لحظه کاوش، آحاد اینترنت را بگردند . آنان داده ها ما یحتاج را تا قبل از این" گردآوری، تجزیه و محاسبه می كنند، آن را در مقر داده اش ذخیره می کند و به هنگام جستجوی استفاده کننده صرفا در همین مقر داده می شود. قسمت های مجزای یك موتور کاوش گر عبارتند از:
Spider یا این که عنکبوت
Crawler یا این که خزنده
Indexer یا این که آرشیو کننده
Database یا این که مقر داده
Ranker یا این که سیستم مرتبه بندی
الف Spider- (عنکبوت)
اسپایدر یا این که روبوت (Robot)، اسپایدر به صفحه ها متعدد راز میزند، محتوای آنها را میخواند، لینکها را دنبال می نماید، داده ها موردنیاز را گردآوری می كند و آن را در چنگ بقیه قسمت های موتور جستجو گر قرار میدهد. اسپایدر كدهای HTML صفحه های را می بیند.
اسپایدر، به هنگام مشاهده صفحه ها، بر روی سرورها رد پا برجای میگذارد. شما در شرایطیکه اذن دسترسی به داده های عددی رویت کرد و بازدیدهای انجام یافته از یک تارنما و اتفاقات صورت گرفته در آن را داشته باشید، میتوانید معلوم كنید كه
اسپایدر كدام یک از موتورهای کاوشگر صفحه ها وبسایت را گزینه بازدید قرار داده میباشد. یکیاز فعالیتهای اساسی که در SEM جاری ساختن میشود چک داده های عددی همین روئت کرد و بازدیدها میباشد.
اسپایدرها كاربردهای دیگری نیز دارا هستند، برای مثال جمعی از آن ها به تارنما های متعدد مراجعه می كنند و تنها به نظارت فعال بودن لینك های آنان میپردازند و یا این که بهدنبال نشانی آدرس اینترنتی (Email) می شوند.
ب- Crawler (خزنده)
كراولر، قابل انعطاف افزاری میباشد كه تحت عنوان یك فرمانده برای اسپایدر کار می كند. آن معین می كند که اسپایدر كدام صفحه های را گزینه بازدید قرار دهد. در واقع کراولر تصمیم میگیرد كه كدام یك از لینك های شیت ای كه اسپایدر فعلا در آن قراردارد، دنبال گردد. ممكن میباشد کلیه آنان را دنبال كند، برخی ها را دنبال كند و یا این که هیچ كدام را دنبال نكند.
کراولر، ممكن میباشد تا قبل از این" طرح ریزی گردیده باشد که نشانی های خاصی را طبق اپلیکیشن، در دست اسپایدر قرار دهد تا از آنها دیدن نماید. دنبال كردن لینك های یک کاغذ بدین بستگی داراست كه موتور جستجو گر چه حجمی از داده ها یک وبسایت را قادر است (میخواهد) در مقر داده اش ذخیره كند. همینطور ممكن میباشد اذن دسترسی به بعضا از صفحه های به موتورهای جستجو گر داده نشده باشد.
ج- Indexer (آرشیو كننده)
تک تک داده ها گردآوری گردیده به وسیله اسپایدر در چنگ ایندکسر قرار میگیرد. دراین قسمت داده ها ارسالی آیتم تجزیه و محاسبه قرار میگیرند و به قسمت های متفاوتی تقسیم میشوند. تجزیه و ارزیابی به این مفهوم میباشد كه مشخص و معلوم میگردد داده ها از كدام ورقه ارسال گردیدهاست، چه حجمی داراست، كلمات مو جود در آن كدامند، و ... .
در واقعیت ایندکسر، کاغذ را به پارامترهای آن کوچک می نماید و مجموع این پارامترها را به یک مقیاس عددی تبدیل می نماید تا سیستم درجه بندی بتواند پارامترهای صفحه های متعدد را با هم مقایسه نماید. در طی تجزیه و چک داده ها، ایندکسر برای كاهش وسعت اطلاعات از بعضا كلمات كه بسیار رایج میباشند صرفنظر می نماید. كلماتی نظیر a ، an ، the ، www ، is و ... . از این سیرتکامل كلمات می باشند.
موتور کاوش چیست؟
موتور کاوش به طرحی گفته میگردد که عبارات کلیدی جان دار در پوشه ها وسندها و آرشیوهای FTP و تیم های خبری و..... را جست وجو می کند . هرمورد از موتورهای جست وجو برای کامل شدن فهرست خویش از طریق خاصی به کارگیری می کنند. seo وب سایت برای موتورهای جست وجو یک کدام از مواقعی میباشد که امروزه گزینه دقت مدیران تارنما ها قرار گرفته میباشد .موتور جستجوی اینترنت یک سیستم قابل انعطاف افزاری میباشد که برای جستجوی داده ها در کانال جهانی اینترنت پیاده سازی گردیدهاست. نتیجه ها کاوش به صورت کلی در یک خط از نتیجه ها ارائه می گردد که اکثر اوقات تحت عنوان صفحه های حاصل موتورهای کاوش (SERPs) نامیده میگردد. داده ها ممکن میباشد ترکیبی از صفحه های اینترنت، تصاویر و اشکال دیگر فولدر ها باشد. همینطور بعضا از موتورهای کاوش، داده های جانور در مقر های داده یا این که دایرکتوری های گشوده را در دسترس داراهستند. مغایر دایرکتوری های اینترنت که صرفا به وسیله ویراستاران انسانی حفظ میگردند، موتورهای کاوش با به کارگیری از یک الگوریتم در یک پایشگر اینترنت، داده ها بلادرنگ را محافظت می نمایند. محتوای اینترنتی که به وسیله موتور جستجوی اینترنت قابل کاوش وجود ندارد عموما تحت عنوان deep web آموزش سئو در مشهد تعریف میگردد.
شروع شغل موتورهای جستجوی اینترنتی دسامبر سال 1990 پیش گویی گردیده بود. ولی جستجوی یوزرها از سال 1982 استارت شد، و جستجوی خدمت اطلاعاتی Knowbot برای نخسین بار در سال 1989 جاری ساختن شد. اولین موتور کاوش غیر وابسته که پوشه های محتوا یا این که همان FTP را کاوش میکرد، Archie بود که در تاریخ 10 سپتامبر 1990 عرضه شد. پیش از سپتامبر 1993، World Wide Web تماما لیست بندی شد. یک لیست از اینترنت سرورهای بازنویسی گردیده بوسیله دسته برنرز لی و میزبانی اینترنت سرور CERN وجود داشت. یک تصویر تاریخی از لیست در سال 1992 مانده میباشد، البته هرچه اینترنت سرور های بیشتری آنلاین می شدند، حفظ لیست مرکزی دشوارتر میشد. در وبسایت NCSA، سرورهای نو به عنوان "نو چه خبر" آموزش سئو مشهد منتشر شد.
حدود سال 2000، موتور جستجوی گوگل به پر رنگ سازی رسید. این مجموعه با خلاقیت به اسم PageRank برای کاوش به نتیجه ها بهتری دست یافت. این الگوریتم صفحه های اینترنت را براساس تعداد و امتیاز بقیه تارنما ها و صفحاتی که به آن لینک و پیوند میدهند، مرتبه بندی میکرد.
روش فعالیت موتورهای کاوش چهگونه میباشد؟
موتورهای کاوش عمل کردن با وب را بسیار راحت کردند آنها مقر تعالی اطلاعاتی می باشند ، که داده ها خویش را از پیشین مهیا می نمایند. و این سیرتکامل وجود ندارد كه صحیح در به عبارتی لحظه کاوش، آحاد اینترنت را بگردند . آنان داده ها ما یحتاج را تا قبل از این" گردآوری، تجزیه و محاسبه می كنند، آن را در مقر داده اش ذخیره می کند و به هنگام جستجوی استفاده کننده صرفا در همین مقر داده می شود. قسمت های مجزای یك موتور کاوش گر عبارتند از:
Spider یا این که عنکبوت
Crawler یا این که خزنده
Indexer یا این که آرشیو کننده
Database یا این که مقر داده
Ranker یا این که سیستم مرتبه بندی
الف Spider- (عنکبوت)
اسپایدر یا این که روبوت (Robot)، اسپایدر به صفحه ها متعدد راز میزند، محتوای آنها را میخواند، لینکها را دنبال می نماید، داده ها موردنیاز را گردآوری می كند و آن را در چنگ بقیه قسمت های موتور جستجو گر قرار میدهد. اسپایدر كدهای HTML صفحه های را می بیند.
اسپایدر، به هنگام مشاهده صفحه ها، بر روی سرورها رد پا برجای میگذارد. شما در شرایطیکه اذن دسترسی به داده های عددی رویت کرد و بازدیدهای انجام یافته از یک تارنما و اتفاقات صورت گرفته در آن را داشته باشید، میتوانید معلوم كنید كه
اسپایدر كدام یک از موتورهای کاوشگر صفحه ها وبسایت را گزینه بازدید قرار داده میباشد. یکیاز فعالیتهای اساسی که در SEM جاری ساختن میشود چک داده های عددی همین روئت کرد و بازدیدها میباشد.
اسپایدرها كاربردهای دیگری نیز دارا هستند، برای مثال جمعی از آن ها به تارنما های متعدد مراجعه می كنند و تنها به نظارت فعال بودن لینك های آنان میپردازند و یا این که بهدنبال نشانی آدرس اینترنتی (Email) می شوند.
ب- Crawler (خزنده)
كراولر، قابل انعطاف افزاری میباشد كه تحت عنوان یك فرمانده برای اسپایدر کار می كند. آن معین می كند که اسپایدر كدام صفحه های را گزینه بازدید قرار دهد. در واقع کراولر تصمیم میگیرد كه كدام یك از لینك های شیت ای كه اسپایدر فعلا در آن قراردارد، دنبال گردد. ممكن میباشد کلیه آنان را دنبال كند، برخی ها را دنبال كند و یا این که هیچ كدام را دنبال نكند.
کراولر، ممكن میباشد تا قبل از این" طرح ریزی گردیده باشد که نشانی های خاصی را طبق اپلیکیشن، در دست اسپایدر قرار دهد تا از آنها دیدن نماید. دنبال كردن لینك های یک کاغذ بدین بستگی داراست كه موتور جستجو گر چه حجمی از داده ها یک وبسایت را قادر است (میخواهد) در مقر داده اش ذخیره كند. همینطور ممكن میباشد اذن دسترسی به بعضا از صفحه های به موتورهای جستجو گر داده نشده باشد.
ج- Indexer (آرشیو كننده)
تک تک داده ها گردآوری گردیده به وسیله اسپایدر در چنگ ایندکسر قرار میگیرد. دراین قسمت داده ها ارسالی آیتم تجزیه و محاسبه قرار میگیرند و به قسمت های متفاوتی تقسیم میشوند. تجزیه و ارزیابی به این مفهوم میباشد كه مشخص و معلوم میگردد داده ها از كدام ورقه ارسال گردیدهاست، چه حجمی داراست، كلمات مو جود در آن كدامند، و ... .
در واقعیت ایندکسر، کاغذ را به پارامترهای آن کوچک می نماید و مجموع این پارامترها را به یک مقیاس عددی تبدیل می نماید تا سیستم درجه بندی بتواند پارامترهای صفحه های متعدد را با هم مقایسه نماید. در طی تجزیه و چک داده ها، ایندکسر برای كاهش وسعت اطلاعات از بعضا كلمات كه بسیار رایج میباشند صرفنظر می نماید. كلماتی نظیر a ، an ، the ، www ، is و ... . از این سیرتکامل كلمات می باشند.