Como criar robots.txt Otimizado para Magento

É importante para criar e otimizar o robots.txt para fazer sua loja Magento segura e melhorar a SEO.

O robots.txt (“robôs dot texto”) é um arquivo de texto que ajuda robôs do Search Engine (como Google e Bing bot bot) para determinar quais informações para o índice. Por padrão não há robots.txt em Magento Community ou Enterprise distributiva por isso você deve criá-lo.

Como robots.txt irá melhorar o seu Magento?

Este é apenas alguns casos de uso de uso de robots.txt, então você vai ter uma idéia melhor por que é tão importante:

* O robots.txt irá ajudá-lo a evitar problemas de conteúdo duplicado (é muito importante para SEO).
* Ele irá esconder informações técnicas, como erros de logs, relatórios, arquivos de núcleo, arquivos etc .svn de indexação inesperado (hackers não será capaz de usar motores de busca para detectar a sua plataforma e outras informações).

Instalação robots.txt

Nota: O arquivo robots.txt abrange um domínio. Para sites Magento com vários domínios ou sub-domínios, cada domínio / sub-domínio (por exemplo store.example.com e example.com) deve ter seu próprio arquivo robots.txt.

Comunidade Magento e Magento Empresa

Instalação de robots.txt é fácil. Tudo que você precisa é criar o arquivo robots.txt e copie o código robots.txt do nosso blog. Em seguida, fazer o upload do arquivo robots.txt na raiz do seu servidor web, por exemplo aqui: example.com/robots.txt.

Se você vai fazer o upload do arquivo robots.txt para sub-pasta, por exemplo example.com/store/robots.txt neste caso robots.txt será ignorada por todos os motores de busca.

Robots.txt para Magento

Aqui o nosso código robots.txt recomendado, por favor leia os comentários marcados por # antes de publicar robots.txt:

## robots.txt for Magento Community and Enterprise

## GENERAL SETTINGS

## Enable robots.txt rules for all crawlers
User-agent: *

## Crawl-delay parameter: number of seconds to wait between successive requests to the same server.
## Set a custom crawl rate if you're experiencing traffic problems with your server.
# Crawl-delay: 30

## Magento sitemap: uncomment and replace the URL to your Magento sitemap file
# Sitemap: http://www.hostingmagento.com.br/sitemap.xml

## DEVELOPMENT RELATED SETTINGS

## Do not crawl development files and folders: CVS, svn directories and dump files
Disallow: /CVS
Disallow: /*.svn$
Disallow: /*.idea$
Disallow: /*.sql$
Disallow: /*.tgz$

#Baiduspider
User-agent: Baiduspider
Disallow: /
User-agent: Baiduspider
Disallow: /
User-agent: Baiduspider-imagem
Disallow: /
User-agent: Baiduspider-video
Disallow : /
User-agent: Baiduspider-news
Disallow: /
User-agent: Baiduspider-favo
Disallow: /
User-agent: Baiduspider-cpro
Disallow: /
User-agent: Baiduspider-anúncios
Disallow: /
User-agent: Baidu
Disallow: /
User-agent: majestic12
Disallow: /
User-agent: YandexImages
Disallow: /
User-agent: Yandex
Disallow: /
User-agent: MJ12bot
Disallow: /

## GENERAL MAGENTO SETTINGS

## Do not crawl Magento admin page
Disallow: /admin/

## Do not crawl common Magento technical folders
Disallow: /app/
Disallow: /downloader/
Disallow: /errors/
Disallow: /includes/
Disallow: /lib/
Disallow: /pkginfo/
Disallow: /shell/
Disallow: /var/

## Do not crawl common Magento files
Disallow: /api.php
Disallow: /cron.php
Disallow: /cron.sh
Disallow: /error_log
Disallow: /get.php
Disallow: /install.php
Disallow: /LICENSE.html
Disallow: /LICENSE.txt
Disallow: /LICENSE_AFL.txt
Disallow: /README.txt
Disallow: /RELEASE_NOTES.txt

## MAGENTO SEO IMPROVEMENTS

## Do not crawl sub category pages that are sorted or filtered.
Disallow: /*?dir*
Disallow: /*?dir=desc
Disallow: /*?dir=asc
Disallow: /*?limit=all
Disallow: /*?mode*

## Do not crawl 2-nd home page copy (example.com/index.php/). Uncomment it only if you activated Magento SEO URLs.
## Disallow: /index.php/

## Do not crawl links with session IDs
Disallow: /*?SID=

## Do not crawl checkout and user account pages
Disallow: /checkout/
Disallow: /onestepcheckout/
Disallow: /customer/
Disallow: /customer/account/
Disallow: /customer/account/login/

## Do not crawl seach pages and not-SEO optimized catalog links
Disallow: /catalogsearch/
Disallow: /catalog/product_compare/
Disallow: /catalog/category/view/
Disallow: /catalog/product/view/

## SERVER SETTINGS

## Do not crawl common server technical folders and files
Disallow: /cgi-bin/
Disallow: /cleanup.php
Disallow: /apc.php
Disallow: /memcache.php
Disallow: /phpinfo.php

## IMAGE CRAWLERS SETTINGS

## Extra: Uncomment if you do not wish Google and Bing to index your images
User-agent: Googlebot
Disallow:
User-agent: Slurp
Disallow:
User-agent: MSNBot
Disallow:
User-agent: Googlebot-Image
Disallow:
User-agent: yahoo-mmcrawler
Disallow:
User-agent: psbot
Disallow:
2017-01-24T20:24:09+00:00

RECEBA DICAS VALIOSAS NO SEU EMAIL

x