duplicate-content-یا-محتوای-تکراری-چیست؟

duplicate content یا محتوای تکراری چیست؟

محتوای تکراری درمعنای عام به محتوای خیلی شبیه یا دقیقا یکسان درچندین صفحه در وبسایت شما یادیگران می‌گویند. 

محتوای تکراری درمعنای خاص، محتوایی است که برای بازدیدکنندگان وبسایت شما یا ارزشی ایجاد نمی‌کند یا ارزش ایجادشده بسیار ناچیزاست. بنابراین، صفحات با محتوای کم یا محتوایی که به درد کسی نمی‌خورد، به‌عنوان محتوای تکراری درنظرگرفته می‌شوند.

باید از محتوای تکراری اجتناب کنید، چراکه موتورهای جستجو را سردرگم کرده و ممکن است برعملکرد سئوی سایت شما تاثیرمنفی بگذارد. داشتن چندین صفحه با محتوای تکراری در یک وبسایت صدصفحه‌ای، موضوعی است که باید بررسی ورفع شود، اما زمانی‌که تعداد صفحات حاوی محتوای تکراری زیاد باشد، عملکردسئوی سایت شما را به‌شدت مختل می‌کند.  

چرا محتوای تکراری برای سئو بد است؟

این نوع محتوا به دو دلیل بد است:

زمانی‌که چندین ورژن از محتوا وجود داشته باشد، برای موتورهای جستجو سخت است تعیین کنند کدام ورژن باید ایندکس شود. و درنتیجه در نتایج جستجوها نمایش داده شود. این اتفاق، عملکرد همه‌ی ورژن‌های محتوا را پایین می‌آورد چراکه آن‌ها با یکدیگر رقابت می‌کنند.

موتورهای جستجو برای یکسان‌سازی متریک‌های محتوا با مشکل مواجه خواهند شد (اعتبار، مرتبط بودن و توانایی جلب اعتماد) به‌ویژه زمانی‌که وب‌سایت‌های دیگربه بیش از یک ورژن از آن محتوا لینک داده شوند.

محتوای تکراری جریمه دارد؟

محتوای تکراری می‌تواند عملکرد سئوی سایت شما را مختل کند، بااین حال تازمانی که وبسایت شخص دیگری را به عمد کپی نکنید،گوگل شمارا جریمه نخواهد کرد. اگرصاحب صادق یک وب‌سایت باشید که با برخی چالش‌هایی فنی روبرویید، و سعی نداشته باشید گوگل را گول بزنید، نباید نگران جریمه آن باشید.   

 

علل رایج محتوای تکراری

محتوای تکراری اغلب تنظیم نادرست وب‌سرور یا وب‌سایت است. این اتفاقات به صورت طبیعی، فنی هستند وهرگز به جریمه ازسمت گوگل منجرنخواهند شد. آن‌ها به‌صورت جدیمی‌توانند به رتبه‌بندی شما آسیب بزنند بنابراین رفع آن باید دراولویت کار قرار گیرد.

اما درکنار علل فنی، علل انسانی نیز وجود دارند: محتوایی که به‌عمد کپی و جای دیگر منتشر می‌شود. همانطورکه گفتیم، این اقدام می‌تواند درصورتی که پای نیت بد درمیان باشد، جریمه گوگل را به دنبال داشته باشد.

محتوای تکراری به دلایل فنی

 Non-www vs www و HTTP vs HTTPs

سایت با یا بدون www و بدون HTTP و HTTPs میتواند صفحات دابلیکیت برای شما ایجاد کند.اگروب‌سرور شما بدتنظیم شده باشد، محتوای شما ممکن است به طرقی دیگر قابل دسترسی باشد:شیوه‌ای ترجیحی برای ارائه‌ی محتوای خود انتخاب، و ریدایرکت 301 را برای شیوه‌های غیرترجیحی خود اجراکنید که به ورژن ترجیحی ختم می‌شود. https://www.example.com.

 casing و trailing slashes

برای گوگل، URL ها حساس به بزرگ و کوچکی حروفند. به این معنا که https://example.com/url-a/ و https://example.com/url-A/  ، URL های متفاوت هستند. زمانی که لینک ایجاد می‌کنید، نوشتن آن ساده است، و سبب می‌شود هردو ورژن URL ایندکس شوند. بنابراین توجه داشته باشید که URL ها برای جستجوگر Bingبه حروف کوچک و بزرگ حساس نیستند.

فوروارد اسلش (/) درانتهای یک URL تریلینگ اسلش trailing slash نامیده می‌شود. اغلب URL ها ازتغییر دو متغییر قابل دسترسی هستند:  https://example.com/url-و  https://example.com/url-a/.

یک ساختار ترجیحی برای URL های خود انتخاب کنید، و برای ورژن‌های URL های غیرترجیحی، ریدایرکت 301 را به ورژن URL ترجیحی متصل کنید.

صفحات ایندکس ( index.html, index.php)

صفحه‌ی اصلی شما بدون آن که بدانید ممکن است ازطریق ساhttps://www.example.com و نیز به طرق:

https://www.example.com/index.html

https://www.example.com/index.asp

https://www.example.com/index.aspx

https://www.example.com/index.php

قابل دسترسی باشند.

یک ساختار ترجیحی برای ارائه‌ی صفحه‌اصلی خود انتخاب کنید، و از ورژن‌های غیرترجیحی به ورژن ترجیحی ریدایرکت 301 راانجام دهید.

درصورتی‌که وب‌سایت شما یکی ازاین URL ها رابرای ارائه‌ی محتوا استفاده می‌کند، مطمئن شوید این صفحات cannibalize نیستندچراکه ریدایرکت آن‌ها ممکن است به صفحات آسیب بزند.

پارامترهای فیلترینگ محتوای صفحات

وب‌سایت‌ها اغلب ازپارامترهایی در URL ها استفاده می‌کنند بنابراین می‌توانند فیلترین عملیاتی پیشنهاد دهند. به این مثال توجه کنید:

https://www.example.com/toys/cars?colour=black

این صفحه تمام ماشین‌های اسباب‌بازی مشکلی را نمایش می‌دهد.

درحالی‌که این نمایش برای بازدیدکنندگان خوب است، ممکن است موارد زیادی را برای موتورهای جستجو به وجود آورد. زمانی‌که بیش از یک گزینه فیلتر وجودداشته باشد، گزینه‌های فیلتراغلب حجم نامعینی ترکیب به صورت مجازی به وجود می‌آورد. هرچه بیشتر از این پارامترها استفاده کنیم بیشتر به هم می‌ریزنند.

این دو URL را نشان می‌دهند. دقیقا محتوای یکسانی را نمایش می‌دهند.

برای صفحاتی که فیلترنشده‌اند یک canonical URL ایجاد می‌کنیم، تا ازبه وجودآمدن محتوای تکراری و تولید صفحات جدید ازطریق اعمال فیلترها جلوگیری کنیم. توجه کنید این کار باعث جلوگیری از به وجود آمدن مشکل crawl budget (محدودیت در کرال شدن صفحات توسط ربات‌های گوگل می‌شود. به‌صورت جایگزین، می‌توانید ازامکان مدیریت پارامترها درسرچ کنسول گوگل و وب‌مستر بینگ برای مدیریت کرراولرزها برای مواجهه با پارامترهای URL استفاده کنید. 

تکسونومی

تکسونومی مکانیسمی گروهی برای طبقه‌بندی محتواست و اغلب برای سیستم‌های مدیریت محتوا استفاده می‌شود تا ادسته‌بندی و تگ‌ها را پشتیبانی کند.

بگذارید بگوییم یک پست بلاگ دارید که درسه رده دسته‌بندی شده است. این پست ممکن است به هر سه طریق زیر قابل دسترسی باشد:

  • https://www.example.com/category-a/topic/
  • https://www.example.com/category-b/topic/
  • https://www.example.com/category-c/topic/

مطمئن شوید یکی ازاین دسته‌بندی‌ها را به عنوان اولویت نخست انتخاب می‌کنید، و بقیه را به آن که از URLاستفاده می‌کند، canonical  کنید.

صفحات اختصاصی برای تصاویر

برخی سیستم‌های مدیریت محتوا صفحه‌ای مجزا برای هرتصویر ایجادمی‌کند. این صفحه اغلب فقط تصویر را روی صفحه‌ی خالی دیگر نشان می‌دهد. ازآنجایی که این صفحه محتوای دیگری ندارد، این صفحه بسیارشبیه دیگرصفحات حاوی تصاویراست وبنابراین به‌عنوان صفحات تکراری محاسبه می شود.  

اگربرایتان ممکن است، آن ویژگی را غیرفعال کنید که به تصاویر صفحات اختصاصی می‌د‌هند. اگراین کارامکانپذیرنیست، بهترین گزینه این است که تگ متا روبات noindex   را اضافه کنید.

صفحات کامنت

اگرکامنت‌های فعال درصفحه‌تان دارید، ممکن است به‌صورت خودکار پس از حجم معینی آن‌ها را صفحه‌گذاری کنید. صفحات کامنت شماره‌گذاری شده محتوای اصلی را نمایش خواهتد داد؛ فقط محتوای انتهایی متفاوت خواهد بود.

برای مثال، آیتم آن URL که کامنت‌های 1الی20 را به نمایش می‌گذارد، می‌تواند https://www.example.com/category/topic  باشد و برای کامنت‌های  21الی40

 https://www.example.com/category/topic/comments-2 باشد.

از لینک‌های صفحه‌بندی برای نشان دادن آن‌که این صفحات شماره‌گذاری ودسته‌بندی شده‌اند، استفاده کنید.

بومی‌سازی

زمانی که بحث بومی‌سازی به میان می‌آید، موارد محتوای تکراری زمانی بیشتر می‌شود که ازمحتوای دقیقا یکسان برای هدف قراردادن افراد با زبان یکسان در نواحی مختلف استفاده می‌کنید. برای مثال، زمانی که وب‌سایت اختصاصی برای بازار کانادا ویکی هم برای بازارایالات متحده دارید که هردو درانگلیس هستند- احتمال تکراری بودن زیاد محتوا وجود دارد. عملکرد گوگل دراین مورد بسیارخوب است واین نتایج را بایکدیگر دسته‌بندی می‌کند. ویژگی hreflang ازمحتوای تکراری جلوگیری می‌کند. بنابراین، اگرازمحتوای یکسان برای مخاطبان مختلف استفاده می‌کنید، مطمئن شوید hreflang را به عنوان بخشی از استراتژی سئوی بین‌الملل‌تان اجراکنید.

صفحاتی که قابلیت ایندکس‌شدن دارند

وب‌سایت‌های زیادی امکان جستجوی درون وب‌سایت را میسرمی‌کنند. صفحاتی که درآن‌ها نتایج جستجو نمایش داده می‌شوند همگی بسیار شبیهند، و دراکثرمواردارزشی برای موتورهای جستجو فراهم نمی‌کنند. به این دلیل است که نمی‌خواهید آن‌ها برای موتورهای جستجو قابلیت ایندکس شدن داشته باشند.

نگذارید موتورهای جستجو صفحات نتایج جستجو را با استفاده از تگ متا روبات نوایندکس meta robots noindex ایندکس کنند، ویژگی فالو به لینک دهید. وهمچنین به طورکلی، بهترین عملاین است که آن را به صحات نتایج جستجو لینک نکنید.

 درموارد تعداد زیاد صفحات نتایج که به‌وسیله‌ی موتورهای جستجو کراول می‌شوند، توصیه می‌شود که درفایل robots.txt به موتورهای جستجو دسترسی ندهید.

مرحله‌ ایندکس شدن/ بررسی محیط

همچنین، خوب است ازدسته‌بندی محیط برای امتحان ویژگی‌های جدید وب‌سایت استفاده کنید. اما این‌ها اغلب به‌صورت نادرست دردسترس قرارمی‌گیرند و برای موتورهای جستجو ایندکس می‌شوند.

از نماد HTTP برای جلوگیری از دسترسی برای آزمایش و دسته‌بندی محیط استفاده کنید. مزیت فزاینده این است که شما از افراد غیرمرتبط برای دسترسی به آن‌ صفحات جلوگیری می‌کنید.

ازانتشار محتوای در حال تکمیل خودداری کنید

زمانی که صفحه‌ی جدیدی حاوی محتوای کم ایجاد می‌کنید، بدون آن که آن رامنتشرکرده باشید، ذخیره‌اش کنید، کاری بی‌ارزش یا کم‌ارزش است.   

صفحات ناتمام را به‌عنوان درفت ذخیره کنید. اگرنیاز به انتشارصفحات با محتوای کم دارید، مانع شوید موتورهای جستجوآن‌ها را ایندکس کنند. از ویژگی meta robots noindex
استفاده کنید.

صفحات فرود درتبلیغات

تبلیغات به صفحات فرود اختصاصی نیازدارند که کلمات کلیدی خاص را هدف قرار می‌دهند. صفحات ورود اغلب گپی صفحات اصلی هستند، که تنظیم می‌شوند تا این کلمات کلیدی خاص را هدف قرار دهند. ازآ؛نجاکه این صفحات بسیارشبیهند، اگرازطریق موتورهای جستجو ایندکس شوند، محتوای تکراری تولید می‌کنند.

باید مانع شوید موتورهای جستجو صفحات فرود را ازطریق ویژگی  meta robots noindex ایندکس کنند. به‌طورکلی، بهترین کاراین است که نه به صفحات ورودتان لینک دهید و نه آن‌ها را درسایت مپ sitemap بیاورید.

دیگران محتوای شما را کپی می‌کنند

 محتوای تکراری همچنین می‌تواند ازکپی‌برداری دیگران ازمحتوای شما وانتشارآن درجای دیگر ایجادشود. این به‌طورخاص زمانی مشکل‌سازخواهد بود که سایت شما اعتبارکمتری دارد و فردی که محتوای سایت شما را کپی می‌کنداز اعتباربالاتری برخوردار باشد. وب‌سایت‌ها با اعتبار بالاتر اغلب بیشترکراول و سبب می‌شوند محتوای کپی شده ابتدا روی وب‌سایت فردی بیاید که آن محتوا را ازشما کپی کرده است. دراین زمان ممکن است این فرد به عنوان نویسنده‌ی اصلی متن شناخته شود و رتبه‌بندی بالاتری نسبت به شما بگیرد.

مطمئن شوید وب‌سایت‌های دیگر ازطریق URL که به سمت صفحه‌ی شما هدایت می‌شود و لینکی که به شما ارائه می‌دهد، به شما اعتبار می‌دهند. اگرتمایلی به این کار ندارند، می‌توانید برای گوگل درخواست DMCA بدهید و اقدام قانونی انجام دهید. 

کپی محتوا ازسایت‌های دیگر

کپی کردن محتوا از سایت‌های دیگر نیز شکلی ازمحتوای تکراری است. گوگل ازدیدگاه سئو و ارائه‌ی بهتر آنها را دسته‌بندی می‌کند. آن را به منبع اصلی لینک می‌دهد و آن را با canonical URL و تگ meta robots noindex  ترکیب کند. به یاد داشته باشید که نه صاحبان همه‌ی وب‌سایت‌ها ازکپی برداری شما راضی نیستند ازاین رو توصیخ می‌شود برای استفاده ازمحتوای سایت‌های آن‌ها اجازه بگیرید.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.

اسکرول به بالا