Back to Question Center
0

Semalt: دسترسی به محتوای سایت شما با استفاده از متا تگ ها و فایل های Robots.txt را مسدود می کند

1 answers:

جیسون آدلر Semalt مدیر موفقیت مشتری، می گوید این امکان وجود دارد که در صورت امن بودن داده ها و اشتراک گذاری آن در اینترنت، با آنچه بین Bing، Yahoo و Google به اشتراک گذاشته می شود کنترل شود. . اطلاعاتی که برای حفظ راز وجود دارد شامل اطلاعات تماس، شناسه PayPal، جزئیات کارت اعتباری، نامهای کاربری و رمزهای عبور است. شما باید این نوع از اطلاعات را در گوگل و دیگر موتورهای جستجو فهرست بندی کنید. هنگامی که مسدود کردن URL های سایت شما می شود، شما می توانید Google و سایر موتورهای جستجو را از خالی کردن صفحات یا مقالات خاص متوقف کنید. این به این معنی است که وقتی افراد از طریق نتایج جستجو می روند، به URL هایی که مسدود شده اند را مشاهده نمی کنند و به سمت آنها حرکت نمی کنند. همچنین، آنها نمیتوانند به محتوای آن دسترسی پیدا کنند و شما می توانید بسیاری از مقالات را در نتایج جستجوی گوگل مشاهده کنید. در اینجا چگونگی جلوگیری از دسترسی به محتوای وب سایت شما

نمایه سازی جستجو با متا تگ ها را مسدود کنید: شما می توانید صفحات را از نمایش در موتورهای جستجو بلاک کنید وقتی که از متا تگ های غیر شاخص در کد HTML سایت استفاده می کنید. Googlebot صفحاتی را که این متا تگ ندارند باز می کند و به دلیل آن، صفحات خاص خود را از نتایج جستجو حذف می کند. بگذارید اینجا به شما بگویم که این متا تگ فقط زمانی کار می کند که فایل robots.txt شما تغییر نکند.

بلوک URL ها با فایل های robots.txt: فایل robots.txt در ریشه وب سایت شما قرار دارد و بخش وب سایت شما را نشان می دهد که خزنده های موتور جستجو و عنکبوت های موتور جستجو را به فهرست نمی دهد. این استفاده از استاندارد محرومیت رباتها را می دهد، که یک پروتکل با مجموعه ای از دستورات است که نشان می دهد کجا و چگونه خزنده های وب به سایت شما دسترسی پیدا می کنند. روبات ها.txt همچنین به جلوگیری از نمایش تصاویر در نتایج جستجو کمک می کند اما کاربران را از اتصال سایت خود به صفحات خود منع نمی کند. قبل از ویرایش آن باید محدودیت ها و محدودیت های فایل های robots.txt را در نظر داشته باشید. برخی از مکانیزم ها اطمینان حاصل می کنند که URL ها به درستی مسدود شده اند. دستورالعملهای robots.txt دستورالعملهایی هستند که به این معنی نیست که آنها نمیتوانند رفتار خزندههای وب را اجرا کنند. همه خزنده ها نحو را به روش خودشان تفسیر می کنند و فایل های robots.txt نمیتوانند مراجع خود را از وب سایت های دیگر جلوگیری کنند. گوگل خوب است که دستورالعملهای فایلهای robots.txt را دنبال کند، اما ممکن است موتور جستجو به دلیل سیاست های آن، فهرست وبسایت مسدود شده را نداشته باشد.

خروج از Google Local و Google Properties: شما می توانید محتوای خود را از نمایش در خواص مختلف Google نمایش داده شده پس از آن نشان داده شده است. این شامل Google Local، Google Flights، Google Shopping و Google Hotels است. وقتی انتخاب کنید که در همه این رسانه ها نمایش داده نشود، محتوای شما خزنده نخواهد شد و یا به روز نخواهد شد. هر مقاله ای که در هر یک از این سیستم عامل ها نمایش داده می شود، 30 روز پس از خروج از سیستم حذف خواهد شد.

نتیجه گیری:

مهم است که محتوای محتمل و مفیدتر را از بازدیدکنندگان خود پنهان کنید. اگر وبسایت شما مضامین مشابهی در چندین مکان داشته باشد، میتواند یک نتیجه منفی در موتورهای جستجو و بازدیدکنندگان شما ایجاد کند. به همین دلیل است که شما باید همه صفحات را مخفی کنید و موتورهای جستجو را به آنها نشان ندهید. از محتوای شخص ثالث خلاص شوید شما باید از محتوای شخص ثالث خلاص شوید که به هیچ وجه به سایت شما ارزشمند نیست. اجازه ندهید Google ببیند که محتوای سوم شخص را به اشتراک می گذارید به عنوان موتور جستجو در این مورد، در سایت شما کمتر ارزش را می بیند. هنگامی که محتوای را از تعداد زیادی سایت کپی می کنید، Google ممکن است شما را مجازات کند و شما می توانید مقالات تکراری را برای بهبود رتبه های Google خود مسدود کنید.

November 30, 2017
Semalt: دسترسی به محتوای سایت شما با استفاده از متا تگ ها و فایل های Robots.txt را مسدود می کند
Reply