Criação do SITEMAP e ficheiro robots.txt

João Cancelo
29/02/2024 11:06:48

SITEMAP Páginas

Para criação de um SITEMAP para o site, é necessário criar um query com todas as páginas que queremos que apareçam e  que não apareçam.

Exemplo query:

select strUrl 
from [WEBSITE_PAGES] 
where WEBSITE_PAGES.bitActive=1 and WEBSITE_PAGES.idPageHead>0 
and strUrl not like '%confirmation%' 
and strUrl not like '%checkout%' 
and strUrl not like '%index_bk%'
and strUrl not like '%novaPass%'

Neste exemplo estão a ser excluídas a página da confirmação, checkout...

Para que esta query seja executada é necessário coloca-la no parâmetro "strSitemapPagesQuery"

Para que esta query seja executada, é necessário "chamar" o url -> https://enderecaodosite/sitemap

Para verificar o SITEMAP, é ir ao endereço https://enderecaodosite/sitemap.xml

NOTA: é necessário limpar a cache do site para que este novo parâmetro seja aplicado. 


SITEMAP Produtos

Para os SITEMAP dos produtos, existem dois parâmetros que podem ser alterados:

  • strUrlNameProduct  -> Defenir qual a página do produto (se não estiver preenchido, é colocado "product")
  • strSitemapProductsQuery -> Defenir a query para os produtos 
    • Tem dois campos de SQL obrigatórios: strReference e strProductURL


      Robots.txt

      Os robots.txt é um ficheiro que tem que estar inserido na raiz do servidor da página web. Este pode ser inserido por FTP.

      Exemplo

      User-Agent: *
      Disallow: /cart
      Disallow: /checkout
      Disallow: /myorder
      Disallow: /profile
      Disallow: /new-
      Sitemap: https://enderecaodosite/sitemap.xml

      Neste exemplo, está a indicar qual o sitemap do site, sendo este o obrigatório e o User-agent.
      O "Disallow" são todas as páginas que são bloqueadas a sua indexação ao google.