Google برای تشخیص محتوای تکراری بر اساس الگوهای URL ، از روش پیش بینی استفاده می کند که می تواند منجر به شناسایی اشتباه صفحات به عنوان نسخه تکراری شود.
به منظور جلوگیری از خزیدن و نمایه سازی غیرضروری ، Google سعی دارد پیش بینی کند که چه زمانی صفحات ممکن است حاوی محتوای مشابه یا تکراری بر اساس URL آنها باشد.
وقتی Google صفحاتی با الگوهای URL مشابه را خزنده می کند و متوجه می شود که آنها دارای محتوای یکسانی هستند ، ممکن است تعیین کند که سایر صفحات با آن الگوی URL نیز دارای محتوای مشابه هستند.
متأسفانه برای دارندگان سایت که به معنای این است که صفحاتی با محتوای منحصر به فرد به عنوان نسخه کپی می شوند زیرا آنها دارای الگوی URL مشابه صفحات تکراری هستند. سپس این صفحات از فهرست Google خارج می شوند.
این موضوع در طی پاتوق Google Search Central SEO ثبت شده در 5 مارس مورد بحث قرار گرفته است مالک سایت Ruchit Patel از مولر در مورد وب سایت رویداد خود که هزاران URL به درستی ایندکس نمی شوند می پرسد.
یکی از نظریه های مولر در مورد چرایی این اتفاق به دلیل روش پیش بینی کننده ای است که برای تشخیص محتوای تکراری استفاده می شود.
تبلیغات
ادامه مطلب را در زیر بخوانید
پاسخ مولر را در بخش زیر بخوانید.
جان مولر از گوگل در مورد پیش بینی محتوای تکراری
Google دارای سطوح مختلفی برای تعیین زمان محتوای تکراری صفحات وب است.
یکی از آنها نگاه مستقیم به محتوای صفحه است ، و دیگری پیش بینی زمان تکراری بودن صفحات بر اساس URL آنها.
“آنچه که از طرف ما اتفاق می افتد این است که چندین سطح تلاش برای درک زمانی که محتوای تکراری در یک سایت وجود دارد ، داریم. و یکی اینکه وقتی به محتوای صفحه به طور مستقیم نگاه می کنیم و به نوعی می بینیم ، خوب ، این صفحه دارای این محتوا است ، این صفحه دارای محتوای مختلف است ، ما باید با آنها به عنوان صفحات جداگانه رفتار کنیم.
مورد دیگر نوعی رویکرد پیش بینی گسترده تر است که ما در آنجا به ساختار URL وب سایتی نگاه می کنیم که در گذشته می دیدیم ، وقتی URL هایی را به این شکل می دیدیم ، می دیدیم که دارای محتوای مشابه URL هایی مانند این. و سپس ما اساساً آن الگو را یاد می گیریم و می گوییم ، URL هایی که به این شکل هستند همان URL هایی هستند که به این شکل هستند. “
تبلیغات
ادامه مطلب را در زیر بخوانید
مولر در ادامه توضیح می دهد که دلیل این کار Google برای صرفه جویی در منابع در هنگام خزیدن و نمایه سازی است.
وقتی گوگل فکر می کند یک صفحه نسخه تکراری صفحه دیگری است زیرا دارای URL مشابه است ، حتی صفحه گفته شده را خز نمی کند تا ببیند که محتوای واقعاً چگونه است.
“حتی بدون نگاه کردن به URL های منفرد ، گاهی اوقات می توان گفت ، خوب ، ما برخی از خزیدن و نمایه سازی را در خود ذخیره خواهیم کرد و فقط بر روی موارد تکراری فرض شده یا بسیار محتمل تمرکز می کنیم. و من این اتفاق را در مورد چیزهایی مانند شهرها دیده ام.
من دیده ام که این اتفاق در مواردی مانند ، نمی دانم ، اتومبیل یکی دیگر از مواردی است که ما شاهد وقوع آن بوده ایم ، جایی که اساساً سیستم های ما تشخیص می دهند آنچه شما به عنوان نام شهر تعیین می کنید چیزی است که برای URL های واقعی چندان مرتبط نیست. و معمولاً وقتی سایتی محتوای یکسانی را با نام های جایگزین ارائه می دهد ، این نوع الگوی را یاد می گیریم. “
مولر درباره اینکه چگونه روش پیش بینی کننده Google برای شناسایی محتوای تکراری ممکن است بر وب سایت های رویداد تأثیر بگذارد ، صحبت می کند:
“بنابراین با یک سایت رویداد ، من نمی دانم که این مورد در مورد وب سایت شما وجود دارد یا خیر ، با یک سایت رویداد ممکن است یک شهر را بگیرید ، و یک شهر را که شاید یک کیلومتر دورتر باشد ، و صفحات رویدادها را شما نشان می دهید که دقیقاً همان موارد وجود دارد زیرا حوادث مشابه مربوط به هر دو مکان است.
و شما شاید شهری را پنج کیلومتری دور کنید و دقیقاً همان وقایع را دوباره نشان دهید. و از طرف ما ، به راحتی می تواند در شرایطی قرار گیرد که بگوییم ، خوب ، ما 10 URL رویداد را بررسی کردیم ، و این پارامتر که به نظر می رسد مانند یک نام شهر باشد در واقع بی ربط است زیرا ما 10 مورد از آنها را بررسی کردیم و محتوای مشابه را نشان می داد.
و این چیزی است که سیستم های ما می توانند بگویند ، خوب ، شاید نام شهر به طور کلی بی ربط باشد و ما فقط بتوانیم آن را نادیده بگیریم. “
تبلیغات
ادامه مطلب را در زیر بخوانید
یک مالک سایت برای رفع این مشکل چه کاری می تواند انجام دهد؟
مولر پیشنهاد می کند به عنوان یک راه حل احتمالی برای این مشکل ، به دنبال موقعیت هایی باشید که موارد واقعی محتوای تکراری وجود دارد و تا آنجا که ممکن است این موارد را محدود کنید.
“بنابراین آنچه که من سعی می کنم در چنین مواردی انجام دهم این است که ببینم آیا این نوع شرایط را دارید که محتوای شما با هم تداخل زیادی دارد یا خیر و سعی کنید راه هایی برای محدود کردن آن تا حد ممکن پیدا کنید.
و این می تواند با استفاده از چیزی مانند rel canonical در صفحه و گفتن ، خوب ، این شهر کوچک که درست خارج از شهر بزرگ است ، من متعارف را برای شهر بزرگ تنظیم می کنم زیرا دقیقاً همان محتوا را نشان می دهد.
بنابراین در واقع هر URL که در وب سایت و فهرست شما می یابیم ، می توانیم ببینیم که این URL و محتوای آن منحصر به فرد هستند و برای ما مهم است که همه این URL ها را در فهرست خود داشته باشیم.
یا اطلاعات واضحی می بینیم که این URL که می دانید قرار است همان آدرس دیگر باشد ، شما ممکن است یک تغییر مسیر را تنظیم کرده باشید یا یک Canonical Rel در آنجا تنظیم شده باشد ، و ما فقط می توانیم روی آن URL های اصلی تمرکز کنیم و هنوز هم درک کنیم که جنبه شهر در آن برای صفحات منفرد شما حیاتی است. “
تبلیغات
ادامه مطلب را در زیر بخوانید
مولر به این جنبه از مسئله نمی پردازد ، اما لازم به ذکر است که هیچ مجازات یا سیگنال رتبه بندی منفی مرتبط با محتوای تکراری وجود ندارد.
حداکثر ، Google محتوای تکراری را فهرست بندی نمی کند ، اما به طور کلی در سایت منفی نخواهد بود.
پاسخ مولر را در فیلم زیر بشنوید: