Conteúdo Duplicado

Um conteúdo pode ser classificado como duplicado quando se encontra, de forma totalmente igual ou muito similar, em um ou mais domínios. Ele pode ser responsável por afetar as classificações dos mecanismos de busca, impactando os resultados de um negócio e, portanto, as estratégias utilizadas no Marketing Digital. 

Implicações dos conteúdos duplicados 

Os conteúdos duplicados podem ser encarados como empecilhos tanto para os mecanismos de busca como para os proprietários de sites, prejudicando as estratégias de SEO. 

Mecanismos de busca

O principal problema que os conteúdos duplicados apresentam aos mecanismos de busca é a dificuldade de identificar qual versão rankear nos resultados de busca. Visto que são o mesmo conteúdo, mas em URLs diferentes.

Proprietários de sites 

Com a presença de conteúdos duplicados, os proprietários de sites podem sofrer uma queda nas suas posições nos resultados dos buscadores e perdas de tráfego. Essas problemáticas têm duas principais causas: 

  • Os buscadores, com objetivo de oferecer uma experiência de pesquisa de qualidade, dificilmente apresentam diversas versões do mesmo conteúdo, pois são obrigados a optar pela versão que possui maiores chances de proporcionar melhores resultados. Isso faz com que cada um dos conteúdos duplicados perca a sua visibilidade.
  • Divisão não proposital dos links, que consiste em um fator importante para a classificação nos resultados de busca, pois, com mais de uma versão do mesmo conteúdo, podem ser gerados links internos e externos para diferentes URLs, dissipando a transferência de autoridade.

Como acontecem os problemas de conteúdo duplicado

Segundo uma pesquisa elaborada pela Raven Tools, até 29% dos conteúdos presentes na internet são duplicados. Entretanto, na maioria dos casos, os proprietários não têm a intenção de desenvolver conteúdos duplicados. Existem diferentes maneiras pelas quais um conteúdo pode ser duplicado involuntariamente. 

WWW vs. páginas não WWW e HTTP vs. HTTPS 

Caso um domínio possua versões separadas em “site.com” e “www.site.com”, ou seja, sem e com o prefixo “www”, e o mesmo conteúdo esteja nas duas versões, cria-se um conteúdo duplicado. Isso também ocorre em páginas que têm versões em “https://” e “http://”.

Notícias e releases

Mesmo que indicando a fonte, recompartilhar uma notícia de outro canal faz com que o conteúdo seja considerado duplicado. Isso também ocorre com os releases, os quais a assessoria não distribui apenas para um canal, mas sim para vários canais distintos. 

Variações de URL 

Se uma URL possui diversas versões utilizando parâmetros de rastreamento sem tratativa por meio da tag canonical, os buscadores podem interpretá-los como conteúdos duplicados. 

Scrapers 

Scrapers de conteúdo são programas automáticos capazes de copiar e republicar o conteúdo de maneira idêntica ou com pequenas modificações em outras páginas, como se fossem as publicações originais. Conteúdos copiados tendem a não ter bom posicionamento, pois o conteúdo original tem prioridade sempre.

Formas de corrigir problemas de conteúdo duplicado

A solução de problemas relacionados a conteúdos duplicados é guiada a partir da identificação de qual das duplicatas é a original ou “correta”. Existem diferentes formas de solucionar essas questões, impedindo-as de afetar as estratégias do Marketing de Performance. 

Alguns exemplos são o redirecionamento 301, a canonização de URLs, os meta robots noindex e a configuração e manipulação de parâmetros da URL no Google Search Console. 

Redirecionamento 301

Trata-se da solução mais utilizada quando se deseja evitar que URLs que possuem o mesmo conteúdo funcionem paralelamente. Para isso, configura-se um redirecionamento 301 da página que conta com o conteúdo duplicado para a página de conteúdo original. 

Canonização de URLs 

Consiste no uso da tag HTML <link rel=“canonical”> dentro da página que copiou o conteúdo, responsável por elaborar uma referência no HTML capaz de informar aos buscadores qual página possui o conteúdo original. Com essa tag, é possível copiar trechos ou conteúdos inteiros sem riscos de penalização nas buscas. 

Meta robots noindex 

Essa tag é introduzida ao código HTML no cabeçalho da página que se deseja excluir. Na maior parte dos casos, trata-se de uma metodologia utilizada no controle de indexação, como em situações nas quais o usuário tem como objetivo excluir a página do índice dos resultados de pesquisa. 

Manipulação de parâmetros no Google Search Console 

O Google fornece uma configuração de parâmetros via Search Console, indicado para casos em que não é possível alterar o código ou garantir acesso ao servidor. Assim, essa ferramenta permite a definição do domínio de preferência para um site e também especifica se o bot do Google precisa identificar diferentes parâmetros de modos distintos. 

No entanto, a manipulação de parâmetros somente funciona para o Google, desconsiderando os demais mecanismos de busca. 

Confira: Tudo sobre a criação de conteúdo

GUIA DE SEO