segunda-feira, 27 de dezembro de 2010

Serviços Planeta Criativo

Conheça alguns de nossos serviços:

- Criação, desenvolvimento e otimização de sites institucionais
- portais corporativos
- e-commerce
- newsletter
- e-mail marketing
- mala direta
- cartão de visita
- folders
- panfletos
- identidade para sua empresa
- desenvolvimento de logomarcas
- criação gráfica
- marketing online (SEO, SEM e SMO)
- otimização de sites (Google, Yahoo, Bing)
- páginas no padrão W3C
- sistemas em PHP, ASP e ASPX (Microsoft .NET Framework)
- intranet e extranet

Contatos

Nome: Renato Abreu
E-mail: renatolabreu@gmail.com

Site: www.planetacriativo.com.br
Twitter: @planetacriativo
MSN: renatolabreu@hotmail.com
Skype: renatolabreu
Facebook: www.facebook.com/planetacriativo

Critérios de classificação de um website

- Tempo de registro do domínio (Idade do domínio)
- Idade do conteúdo
- Freqüência do conteúdo: regularidade com a qual novo conteúdo é adicionado
- Tamanho do texto: número de palavras acima de 200-250 (não afetava o Google em 2005)
- Idade do link e reputação do site que o aponta
- Características padrão da página
- Pontuação negativa sobre as características da página (por exemplo, redução para sítios web com utilização extensiva de meta-tags de palavra chave, indicativos de terem sido artificialmente otimizadas)
- Originalidade do conteúdo
- Termos relevantes utilizados no conteúdo (os termos que os buscadores associam como sendo relacionados ao tema principal da página)
- Google Pagerank (usado apenas no algoritmo do Google)
- Quantidade de links externos
- O texto âncora contido nos links externos
- Relevância do site que linka para o seu website
- Citações e fontes de pesquisa (indica que o conteúdo é de qualidade para pesquisa)
- Termos relacionados na base de dados do mecanismo de busca (financiar/financiamento)
- Pontuação negativa para links de chegada (provavelmente advindos de páginas de baixo valor, links de chegada recíprocos, etc.)
- Ritmo de aquisição dos links de chegada: muitos ou incremento muito rápido pode indicar atividade de comercial de compra de links
- Texto próximos aos links que apontam para fora e os links de chegada. Um link acompanhado das palavras "links patrocinados" pode ser ignorado
- Uso da tag "rel=nofollow" para esculpir o ranking interno do website
- Profundidade do documento no site
- Métricas coletadas de outras fontes, tais como monitoramento da frequência com a qual usuários retornam clicando em voltar quando as SERPs as enviam para uma página em particular (Bouncerate)
- Métricas coletadas de fontes como Google Toolbar, Google AdWords/Adsense, etc.
- Métricas coletadas de compartilhamento de dados com terceiros (como provedores de dados estatísticos de programas utilizados para monitorar tráfego de sítios (sites))
- Ritmo de remoção dos links que apontam para o site
- Uso de sub-domínios, uso de palavras-chave em sub-domínios e volume de conteúdo nos sub-domínios, com pontuação negativa para esta atividade
- Conexões semânticas dos documentos servidos
- IP do serviço de hospedagem e o número/qualidade dos demais sites hospedados lá
- Uso de redirecionamentos 301 ao invés de redirecionamentos 302 (temporário)
- Mostrar um cabeçalho de erro 404 em vez de 200 para páginas que não existem
- Uso adequado do arquivo robots.txt
- Frequência de tempo em que servidor se encontra ativo (Confiabilidade)
- Se o site mostra conteúdo diferente a diferente tipos de usuários ou crawlers (cloaking)
- Links "quebrados"
- Conteúdo inseguro ou ilegal
- Qualidade da codificação HTML, presença de erros no código
- Taxa real de cliques observados pelo mecanismo de busca para as listas exibidas na SERPs
- Classificação de importância feita por humanos nas páginas com acessos mais frequentes - ODP

Participando dos resultados nas listagens dos sistemas de busca

Novos sites não precisam ser necessariamente "enviados" aos sistemas de busca para serem listados. Um simples link vindo de um website já estabelecido fará com que os sistemas de busca visitem o novo site e inicie o mapeamento do conteúdo. Isto pode levar alguns dias ou mesmo semanas para a indexação do link existente em um site já indexado em todos os principais sistemas de busca e spiders para iniciar a visitação e indexação do novo site.

Uma vez que os sistemas de busca encontrem o site dará início então ao mapeamento das informações e páginas do site, contanto que todas as páginas usam as tags de link com padrão hyperlinks. Links para páginas que são acessíveis somente através de aplicativos em Flash ou Javascript podem não ser encontrados pelos spiders.

Os Webmasters podem instruir os spiders para não indexar certos arquivos ou diretórios através do arquivo padrão robots.txt como guia na raiz do domínio. Os protocolos atuais para as máquinas de busca e spiders exigem que seja verificada a existência deste arquivo ao visitar um domínio, e mesmo que um spider ou motor de busca mantenha uma cópia oculta deste arquivo para uso na próxima visita as páginas do site, não pode atualizar essa cópia tão rapidamente quanto um webmaster. Os empresários da área de Desenvolvimento Web podem usar estes recursos para prevenir que determinadas páginas tal como carrinhos de compras ou outras páginas dinâmicas, conteúdo de uso específico de operadores apareçam em resultados sistemas de busca, assim podem manter os spyder distantes de certos arquivos.

Spiders de sistemas de busca podem observar um número variado de fatores quando estiverem navegando em um site, e muitas páginas de um site podem não ser indexadas pelos sistemas de busca até que elas adquiram mais pagerank ou links ou tráfego. A distância das páginas do diretório inicial de um site pode também ser um fator decisivo se uma página vai ou não ser navegada pelo spider, bem como outras métricas importantes. Cho et al. descreveu alguns padrões para essas decisões de quando uma página visitada deve ser indexada pelo sistema de busca.

Para aqueles sistemas de busca que possuem seu próprio sistema de envio pago (como o Yahoo!), pode-se poupar algum tempo ao pagar um valor de envio, no entanto, o programa de envio pago não garante a inclusão no seus resultados de busca.

O relacionamento entre profissionais de SEO e as máquinas de busca

Não são encontradas menções de Otimização para Sistemas de Busca na Usenet antes de 1997, alguns anos após a introdução dos primeiros mecanismos de busca. Os operadores de mecanismos de busca rapidamente reconheceram alguns webmasters estavam realizando esforços visando melhor classificação no ranking dos mecanismos de busca, chegando a se utilizar de técnicas de manipulação. Nos primeiros mecanismos de busca, como o Infoseek, a primeira posição do ranking era obtida sem muita dificuldade, assim como era pegar o código-fonte da página mais bem colocada, colocar na própria página e enviar o endereço para instantaneamente indexar e classificar a página.

Os principais motores de busca disponibilizam guias e informações para ajudar o webmaster com a indexação e otimização do seu site: Google, Yahoo, e MSN.

A Google tem o Ferramentas do Google para webmasters, que ajuda a descobrir se existe algum problema de indexação do site do webmaster dentro da máquina de busca e ainda disponibiliza inúmeros dados sobre o tráfego no Google para o seu site.

O Yahoo! tem o Site Explorer (em inglês), que permite enviar sua URL gratuitamente (como também o MSN e o Google), explorar todas as páginas indexadas pelo Yahoo!, ver quais são as mais populares e disponibiliza um mapa detalhado de um site, suas páginas e links.

Estes sites de busca também permitem a criação de "adWords", que são anúncios de um site ou negócio na internet, que aparecem no resultado da busca de alguém que procura qualquer coisa relacionada com aquele produto/serviço. Uma forma que muitas empresas estão usando para fazer a divulgação e marketing na Internet. O Yahoo! tem o Search Marketing(em inglês) e a Google tem o Google Advertising Professionals.

Sistemas de busca

Webmasters e responsáveis dos portais de conteúdo começaram a otimizar seus sites para os sistemas de busca em meados de -1990s, porque os primeiros motores de busca estavam iniciando a indexação do conteúdo na World Wide Web. No início, os webmasters precisavam enviar o endereço do site aos vários sistemas de busca existentes na Rede, para que programas como spiders, pudessem "mapear" o site e armazenar as informações coletadas. O padrão e suporte das Máquinas de Busca era mapear uma página da web inteira e selecionar as chamadas palavras relacionadas na busca; então uma página com muitas palavras diferentes ampliavam a combinação de resultados, e uma página da web contendo uma relação de palavras como um dicionário teria como resultado um grande número de combinações, consequentemente limitando os resultados somente a nomes únicos. Os sistemas de busca então classificavam a informação por tópicos, muitas vezes exibindo como resultado das buscas páginas já expiradas, não existentes ou de conteúdo diferente ao que estava armazenado. Como o número crescente de documentos online, e vários webmasters trabalhando para aumentar o valor nos resultados em busca orgânica, os sistemas de buscas mais populares começaram a classificar as páginas de resultados mais relevantes em primeiro. Isto era o início de um atrito entre Sistemas de Busca e webmasters que continua até hoje.

Os primeiros motores de busca eram orientados pelos próprios webmasters. Na ocasião, as versões existentes dos algoritmos utilizados nos sistemas de busca confiaram aos webmasters e provedores de conteúdo a responsabilidade no fornecimento das informações na forma de Categorias e o uso das Meta-Tag para palavras-chave meta tags ou sistemas de busca que usavam arquivos de índice como ALIWEB, fornecendo assim um guia para o índice de cada página. Quando alguns webmasters começaram a abusar no uso das Meta-Tags, fazendo com que as informações de Meta-Tags das páginas não correspondessem ao conteúdo, os motores de busca abandonaram esta forma de obter informações através de Meta-Tags e desenvolveram um sistema de ranking mais complexo utilizando algoritmos, elevando a filtragem das palavras e elevando o número limitado para palavras (antidicionário) e são mais diversas, incluindo:

- Texto dentro do Tag de título
- Nome de Domínio
- URL (de Universal Resource Locator): em português significa (Localizador Uniforme de Recursos) diretórios e nomes de arquivos
- HTML tags: cabeçalhos, negrito e textos com ênfase
- Keyword density: Densidade das palavras
- Proximidade das Palavras-Chave
- Alt attributes: Atributo em texto alternativo para imagens
- Textos dentro da Tag NOFRAMES

Pringle, também definiu um número de atributos dentro da codificação HTML de uma página que freqüentemente eram manipulados por provedores de conteúdo na Internet tentando melhorar a própria classificação em motores de busca. Devido a fatores que estão praticamente sob o controle exclusivo dos responsáveis por um site, os motores de busca continuaram a sofrer abusos e tentativas de classificações manipuladas. Para fornecer melhores resultados a seus usuários, os sistemas de busca tiveram que se adaptar e assegurar que as páginas de resultados mostrem sempre os resultados mais relevantes durante uma procura, em lugar de páginas inúteis cheias de palavras-chave e termos criados inescrupulosamente por webmasters na tentativa de usá-las como iscas para exibirem webpages sem link ou conteúdo. Estes fatos levaram ao nascimento de um novo tipo de motor de busca.

Sistemas de Busca Orgânica

Google foi iniciado por dois estudantes Ph.D. da Universidade de Stanford, Sergey Brin e Larry Page, e trouxe um novo conceito para avaliar páginas da web. Este conceito, chamado PageRank™, foi importante para o início da criação dos algoritmos do Google.

O PageRank™ trabalha principalmente com o fator link e usa a lógica deste sistema de ligação entre páginas como se tivesse o valor de um voto para a página em questão. O fato de uma página ser referenciada através de um link funciona de forma a validar a existência do site e dar um valor mais "digno" ao voto. O valor de cada link de referência varia diretamente baseado no PageRank da página que faz referência ao link e funciona de forma inversa no número de links de saídas de uma página.

Com ajuda de PageRank™, o Google provou ser muito eficiente em oferecer resultados relevantes nas páginas de resultados e tornou-se o sistema de busca mais bem sucedido e popular.

Pelo motivo do sistema PageRank™ fazer a avaliação de websites através de fatores externos ou fora do controle de pessoas em particular, o Google sentiu que desta maneira poderia ser mais difícil de manipular a relevância de uma página.

No entanto, webmasters já tinham desenvolvido ferramentas para manipulação de links e esquemas para influenciar o sistema de busca Inktomi. Estes métodos provaram ser igualmente aplicáveis aos algoritmos do Google. Muitos sites focalizaram suas ações em trocar, comprar, e vender links numa escala imensa. A confiança do PageRank no sistema de link como um voto de confiança para um valor da página foi subvertido quando muitos webmasters procuraram vender links para gerar tráfego, influenciando dessa forma o Google, independentemente dos links serem realmente útil aos visitantes humanos do site.

Para complicar a situação, o suporte de busca omitia o mapeamento de uma página web inteira para procurar as chamadas palavras-relacionadas nas páginas web, e uma página web contendo uma listagem do tipo dicionário ainda combinaria quase todas as buscas (exceto nomes especiais) alcançando um link-rank mais alto. Páginas de dicionários e links para esquemas podem distorcer severamente os resultados de uma página de resultados.

Já era tempo para o Google - e outros motores de procura - olharem para algo mais distante sobre os fatores fora de controle humano. Havia outras razões para desenvolver algoritmos mais inteligentes.

A Internet estava alcançando uma grande parcela de usuários "leigos", que geralmente não conheciam técnicas avançadas de pesquisa que os ajudassem a encontrar a informação que eles estavam buscando e, além disso, o volume e complexidade dos dados indexados haviam tido um enorme crescimento em relação aos primórdios da Internet.

Surgimento do termo SEO (Search Engine Optimization)

Existem três "propostas" para o surgimento do termo SEO. A primeira foi relatada em 1997 no livro Net Results, onde Bob Heyman juntamente com Leland Harden, definiram verbalmente o termo após melhorarem o posicionamento de um website de um cliente.

A segunda vertente, e mais concreta que a primeira, é um post referenciado por Danny Sullivan, indicando um post SPAM feito na Usenet em 26 de Julho de 1997, onde o termo Search Engine Optimization aparece.

Por fim, a terceira vertente, que é mais concreta e antiga, sugere que o termo é uma criação da Multimedia Marketing Group (MMG), empresa online de John Audette, que possuía páginas no início de 1997 que já mencionavam o termo Search Engine Optimization.

Otimização para motores de busca

Otimização de Sites é o conjunto de estratégias com o objetivo de potencializar e melhorar o posicionamento de um site nas páginas de resultados naturais (orgânicos) nos sites de busca. O termo SEO (do inglês, Search Engine Optimization, Acrônimo SEO, também traduzido no Brasil como "otimização para mecanismos de busca") também se refere a indústria de consultoria, que trabalha na otimização de projetos e websites de seus clientes. Alguns comentaristas, e também alguns profissionais de SEO, dividiram os métodos usados por seus praticantes em categorias como os "SEO de White Hat" (geralmente utilizam métodos aprovados pelos sistemas de busca, como a prática de construção de conteúdo relevante e melhoria da qualidade do site), ou "SEO de Black Hat" (utilizam truques como "Cloaking", que é a camuflagem do conteúdo real da página, e spamdexing). O termo "spamdexing" (originado da fusão de spam e indexing) refere-se a pratica de Spam direcionada aos motores de busca.

Os praticantes de técnicas de White Hat dizem que os Black hat se valem de métodos que são vistos como tentativas de manipular o posicionamento dos resultados nos Mecanismos de Busca a seu próprio favor. Praticantes do Black Hat dizem que todas as tentativas e técnicas utilizadas para manipular o posicionamento são legítimas e o tipo de técnica utilizada para se alcançar o objetivo de melhorar o page rank é irrelevante.

Os Mecanismos de Busca indicam diferentes tipos de listagens nas páginas de resultados, incluindo: publicidade paga nas páginas de resultados, (SERPs - Search Engine Result Pages), conteúdo de publicidade paga por clique (pay per click), anúncios, pagamento para inclusões em sistemas de busca e resultados de busca orgânica.

As técnicas utilizadas no SEO são concebidas para alavancar seus objetivos no seu website melhorando o número e a posição de seus resultados nas busca orgânica para uma grande variedade de palavras-chave relevantes ao conteúdo do web site. Estratégias de SEO podem melhorar tanto o número de visitações quanto a qualidade dos visitantes, onde qualidade significa que os visitantes concluem a ação esperada pelo proprietário do site (ex. comprar, assinar, aprender algo). A Otimização para Sistemas de Busca normalmente é oferecida como um serviço profissional autônomo, ou como parte de um projeto de Webmarketing e pode ser muito eficaz quando incorporado no início do desenvolvimento do projeto de um website.

Em termos de competição, um termo de busca palavra-chave com grande volume de resultados dificulta o posicionamento através programação para busca orgânica, podendo ser necessária uma ação de anúncios pagos ou links patrocinados; dependendo do número de resultados o custo de uma estratégia de marketing de internet pode ser bem expressivo. Um bom posicionamento nos resultados orgânicos de busca pode fornecer o mesmo tráfego almejado e ter um custo potencialmente mais baixo. Os proprietários de websites devem optar por otimizar seus sites para a busca orgânica, se o custo do otimização for menor do que o custo da publicidade paga.

Nem todos os sites têm objetivos idênticos para o otimização em sistemas de busca. Alguns querem atingir todo o tipo de tráfego na rede e podem ser otimizados para incrementar a busca de frases comuns. Uma boa estratégia para otimização nos sistemas de busca pode funcionar perfeitamente com sites que tenham interesse em atingir um grande público-alvo, tais como informativos periódicos, serviços de diretórios, guias, ou sites que exibem publicidade com um modelo baseado em CPM (cost per mile). Muitas empresas tentam otimizar seus sites para um grande número de palavras-chave altamente específicas que indicam a disponibilidade para venda. Otimizações deste tipo, tendo em vista um amplo espectro de termos de busca, pode impedir a venda de produtos por gerar um grande volume de requisições com baixa-qualidade, com um custo financeiro alto, resultando em pequeno volume de vendas. Focalizar a qualidade do tráfego gera melhor qualidade nas vendas, permitindo que sua equipe de vendas feche negócios mais rentáveis. A otimização para sistemas de busca pode ser muito eficiente quando usada como parte de uma estratégia de Marketing.

Google Analytics

Google Analytics é um serviço gratuito oferecido pela Google no qual, ao ativar-se o serviço por intermédio de uma conta do Google, e ao cadastrar-se um site recebe-se um código para ser inserido na página cadastrada e, a cada exibição, estatísticas de visitação são enviadas ao sistema e apresentadas ao dono do site. Foi criado principalmente como um auxilio aos webmasters para otimizar seus sites para campanhas de marketing e para o Google AdSense.

O sistema foi modelado com o sistema de estatísticas Urchin, da Urchin Software Corporation, adquirida pela Google em abril de 2005. Ainda hoje o sistema Urchin original para instalação em computadores é vendido pela Google como um novo pacote.

Recursos

O Analytics é capaz de identificar além da tradicional taxa de exibição e hit de uma página, localização geográfica do visitante, forma com a qual chegou na página (através de links de outros sites, buscador, AdSense ou diretamente pelo endereço), sistema operacional, navegador, navegador e sistema operacional combinados e suas versões, resolução de tela, javascript habilitado, reprodutor de flash instalado, entre outros, em períodos diários, semanais, mensais e anuais.

Embora muitas pessoas vejam o Google Analytics apenas como uma ferramenta de monitoramento de tráfego essa ferramenta na verdade funciona como uma poderosa ferramenta para tomada de decisões em negócios relacionados a Internet.

Tecnologia

O Sistema conta com um breve código javascript em cada página do site que o visitante acessar. Este código envia os dados ao Analytics, que, por sua vez, os transmite ao dono. A cada novo site cadastrado no sistema, o Google Analytics varre o código-fonte em busca do código fornecido. Caso não encontre ele continua acessando a página periodicamente até encontrar a seqüencia de caracteres prevista. Caso não encontre-a, o sistema não fornecerá dados ao cadastrante. Isto serve como uma forma de confirmar que somente o dono da página cadastre seus sites e somente ele tenha acesso aos dados.

Problemas

Alguns softwares e plugins instalados na maquina do visitante bloqueiam a exibição das incômodas propagandas dos mais variados tipos. O código fornecido pelo sistema para inserir na página é muitas vezes bloqueado por eles, ocasionando muitas vezes a não-contagem da visita de um usuário específico. O mesmo ocorre com dados como localização, que é mascarada pelo programa, ficando inexata.