ONLINE
4


 


La optimización de un sitio Web
La optimización de un sitio Web

Optimización para motores de búsqueda (portugués europeo) o la optimización para motores de búsqueda (portugués brasileño)) es el conjunto de estrategias destinadas a aumentar y mejorar el posicionamiento de un sitio web en las páginas de resultados naturales (orgánicos) en los motores de búsqueda generar conversiones, ya sea una ventaja, una compra, un envío de formularios, la programación de consultas y otros.1 El término SEO (Inglés, Search Engine Optimization) se refiere también a una industria de consultores que trabajan naotimização proyectos y sitios web de sus clientes. Algunos comentaristas, y también algunos profesionales de SEO, se descomponen los métodos utilizados por los profesionales en categorías tales como "White Hat SEO" (métodos generalmente aprobados por los motores de búsqueda, como práctica de construcción de contenido relevante y mejora de la calidad sitio), o "Negro Hat SEO" (trucos de uso como "encubrimiento", que es el camuflaje el contenido real de la página, y spamdexing). El término "spamdexing" (originado a partir de la fusión de correo no deseado y la indexación) se refiere a la práctica de spam dirigido a los motores de búsqueda. Los practicantes de técnicas Blanca Sombrero dicen sombrero Negro hacer uso de los métodos que se consideran intentos de manipular la posición de los resultados en los motores de búsqueda en su propio favor. Los practicantes de Sombrero Negro dicen que todos los intentos y las técnicas utilizadas para manipular la posición son legítimas y el tipo de técnica utilizada para lograr el objetivo de la mejora de la fila de la página es irrelevante. El Search Engine display diferentes tipos de anuncios en las páginas de resultados, incluyendo: pagó naspáginas resultados de la publicidad (SERPs - Página de resultados de motores de búsqueda), pago de contenido publicitario por click (pago por clic) anuncios, pagados sistemas de inclusión búsqueda y resultados de búsqueda orgánica. Las técnicas utilizadas en SEO están diseñados para promover los objetivos de su sitio web mediante la mejora de la cantidad y la posición de sus resultados en las búsquedas orgánicas para una variedad de palabras clave relevantes para el contenido del sitio web. Estrategias de SEO puede mejorar tanto el número de visitas como la calidad de los visitantes, donde la calidad significa que los visitantes llegan a la conclusión de la acción esperada por el propietario del sitio (por ejemplo. Comprar, signo, aprender algo). Optimización para Motores de Búsqueda generalmente se ofrece como un servicio profesional independiente o como parte de un proyecto Webmarketing y puede ser muy eficaz cuando se incorporan temprano en el desarrollo del diseño de un sitio web. En términos de competencia, un término de búsqueda de palabras clave con gran volumen de resultados de posicionamiento difícil a través de la programación para la búsqueda orgánica y puede requerir una acción de los anuncios pagados o enlaces patrocinados; dependiendo del número de resultados el coste de una estrategia de marketing en Internet puede ser muy significativo. Clasificación y en los resultados de búsqueda orgánica puede proporcionar el mismo destino del tráfico a un costo potencialmente menor. Los propietarios del sitio pueden optar por optimizar sus sitios para la búsqueda orgánica, si el costo de la optimización es menor que el costo de la publicidad. No todos los sitios tienen objetivos idénticos para la optimización en motores de búsqueda. Algunos quieren llegar a todos los tipos de tráfico de red y puede ser optimizado para buscar frases comunes. Una buena estrategia para la optimización de los sistemas de búsqueda puede trabajar para un sitio que están interesados ​​en llegar a una gran audiencia, como boletines periódicos, servicios de directorio, guías o sitio que muestra publicidad con un modelo basado en CPM (coste por milla). Muchas empresas tratan de optimizar sus sitios para un gran número de palabras clave muy específicas que indican la disponibilidad para la venta. Las optimizaciones de este tipo, con el fin de una amplia gama de términos de búsqueda, pueden impedir la venta de productos mediante la generación de un gran volumen de baja calidad de las solicitudes, con altos costos, resultando en pequeño volumen de ventas. Tráfico de calidad Focus genera mejores ventas de la calidad, lo que permite a su equipo de ventas de los negocios cierran más rentables. La optimización para motores de búsqueda puede ser muy eficaz cuando se utiliza como parte de una estrategia de marketing. Inicio Histórico de motores de búsqueda de Webmasters y responsable de los portales de contenidos empezaron a optimizar sus sitios para los motores de búsqueda a mediados de los -1990s, debido a que los primeros motores de búsqueda estaban empezando indexar el contenido de la World Wide Web. Al principio, webmasters necesarios para enviar la dirección del sitio a los motores de búsqueda existentes en la red, por lo que los programas tales como arañas, podrían "mapa" del sitio web y almacenar la información recopilada. El estándar y apoyar a las máquinas de búsqueda fue para mapear una página web completa y seleccionar las llamadas palabras relacionadas en la búsqueda; a continuación, una página con muchas palabras diferentes amplifica la combinación de resultados, una página web que contiene un enlace como palabras del diccionario daría lugar a un gran número de combinaciones, limitando así su uso sólo nombres únicos. Los motores de búsqueda a continuación información clasificada por temas, a menudo mostrando como resultado de las páginas de búsqueda ya han expirado, el contenido no existe o es diferente a lo que estaba almacenado. A medida que el creciente número de documentos en línea, y muchos webmasters que trabajan para incrementar el valor de los resultados de búsqueda orgánica, los sistemas de búsqueda más populares comenzaron a clasificar las páginas resultados más relevantes primero. Este fue el comienzo de una fricción entre los motores de búsqueda y los webmasters que continúa hoy. Los primeros motores de búsqueda fueron guiados por sus propios webmasters. En ese momento, los dosalgoritmos versiones existentes utilizadas en los motores de búsqueda se basan webmasters y proveedores de contenido de la responsabilidad de proporcionar la información en forma de categorías y el uso de meta-tags de palabras clave meta tags o sistemas de búsqueda que utilizan archivo índice como ALIWEB, proporcionando así una guía para cada índice de página. Mientras que algunos webmasters comenzaron a abusar del uso de etiquetas meta, haciendo que los meta tags de páginas de información no corresponder con el contenido, los motores de búsqueda han abandonado esta forma de información a través de las etiquetas meta y desarrollado un sistema de clasificación utilizando algoritmos más complejos, aumentando el filtrado de palabras y elevando el número limitado de palabras (antidicionário) y son más diversos, incluyendo: texto dentro de la URL etiqueta del título de nombres de dominio (Universal Resource Locator): en portugués significa (Localizador Uniforme Recursos) directorios HTML etiquetas y nombres de archivo: encabezados, texto en negrita con énfasis densidad de palabras clave: Densidad de palabras Proximidad de Alt Palabras clave atributos: Atributo de texto alternativo para imágenes textos dentro de la etiqueta NOFRAMES Pringle ,, 2 también definen una número de atributos en el código HTML de una página que a menudo eran manejados por los proveedores de contenidos de Internet que tratan de mejorar su ranking en los motores de búsqueda. Debido a factores que son prácticamente bajo el control exclusivo de los responsables de un sitio web, buscacontinuaram motor siendo abusado y manipulado clasificaciones de intentos. Para ofrecer mejores resultados a sus usuarios, los motores de búsqueda tuvieron que adaptarse y garantizar que las páginas de resultados siempre muestran los resultados más relevantes para una búsqueda, en lugar de palabras clave llenas inútiles páginas y términos sin escrúpulos creados por webmasters en intentar utilizarlos como cebo para mostrar páginas web sin enlace o contenido. Estos hechos llevaron al nacimiento de un nuevo tipo de motor de búsqueda. Buscar orgánicos Motores [edit | fuente editar] Google fue fundada por dos estudiantes de doctorado en la Universidad de Stanford, Sergey Brin y Larry Page, y trajo un nuevo concepto para evaluar páginas web. Este concepto, denominado PageRank ™, era importante para la pronta creación de dosalgoritmos Google.3 PageRank ™ trabaja principalmente con el factor de enlace y utiliza la lógica de este sistema que une las páginas como si tuviera el valor de un voto a favor de la página problema. El hecho de que una página se hace referencia a través de un enlace funciones para validar la existencia del sitio y dar un valor más "digno" para votar. El valor de cada enlace de referencia varía basado directamente en el PageRank de la página que hace referencia al enlace y funciona a la inversa en el número de salidas de una página de enlaces. Con la ayuda PageRank ™, Google ha demostrado ser muy eficiente en la prestación de los resultados pertinentes en las páginas de resultados y se ha convertido en el motor de búsqueda más exitoso y popular. En la razón del sistema de PageRank ™ hacer la evaluación de sitios web por factores externos o fuera de control particular de personas, Google se sintió así podría ser más difícil de manipular la relevancia de una página. Sin embargo, los webmasters que ya habían desarrollado herramientas para la manipulación de los vínculos y esquemas de influir en el motor de búsqueda de Inktomi. Estos métodos han demostrado ser igualmente aplicable a los algoritmos de Google. Muchos sitios se centraron sus acciones en el intercambio, compra y venta de enlaces en una escala masiva. La confianza del sistema de enlace PageRank como un voto de confianza para un valor de la página fue subvertido cuando muchos webmasters intentaron vender enlaces para generar tráfico, lo que influye en Google sin tener en cuenta los enlaces son realmente útiles para los visitantes del sitio humanos. Para complicar las cosas, la búsqueda omite apoyar la asignación de una página web completa para buscar las llamadas relacionadas con palabras en las páginas web, y una página web que contiene una lista del diccionario tipo incluso combinar casi todas las búsquedas (excepto nombres especiales) que alcanza un vínculo de mayor rango. Páginas diccionarios y enlaces a planes pueden distorsionar gravemente los resultados de una página de resultados de búsqueda. Ya era hora de Google - y otros motores de búsqueda - buscar algo más en factores más allá del control humano. Había otras razones para desarrollar algoritmos más inteligentes. El Internet estaba llegando a una gran parte de los usuarios "forasteros", que generalmente no conocen las técnicas de búsqueda avanzada para ayudarles a encontrar la información que estaban buscando y también el volumen y la complejidad de los datos indexados había tenido un enorme crecimiento en en comparación con los primeros días de la Internet. Aparición del término SEO (Search Engine Optimization) [editar | Fuente de editar] Hay tres "propuestas" para la aparición de la SEO.4 plazo El primero fue reportado en 1997 en el libro de los resultados netos, donde Bob Heyman junto con Leland Harden define el término después de mejorar verbalmente el posicionamiento de un sitio web de un cliente.5 la segunda ventana, y más concreto que el primero, es un puesto al que hace referencia Danny Sullivan, lo que indica un post SPAM hecho a Usenet el 26 de julio de 1997, en el que el término Search Engine Optimization aparece.6 Por último, la tercera parte, que es más concreta y de edad, sugiere que el término es una creación del Grupo Multimedia Marketing (MMG), compañía en línea John Audette, que tenía páginas a principios de 1997 ya se ha mencionado el término motor de búsqueda Optimization.7 La relación entre los profesionales de SEO y de búsqueda de optimización de motores de términos no se encuentran a los motores de búsqueda en Usenet antes de 1997, algunos años después de la introducción de los primeros motores de búsqueda. Los operadores de motores de búsqueda rápidamente reconocieron algunos webmasters estaban haciendo esfuerzos para mejor ranking en los motores de búsqueda ranking, llegando a ser utilizado técnicas de manipulación. En los primeros motores de búsqueda como Infoseek, la primera posición en el ranking se obtuvo sin mucha dificultad, y fue a tomar el código fuente de la página en mejores condiciones, poner en la propia página y enviar la dirección a instante índice y clasificar a la página . Los principales motores de búsqueda proporcionan directrices e información para ayudar a los webmaster con la indexación y optimización de su sitio web: Google, Yahoo y MSN. Google tiene las Herramientas para webmasters de Google, lo que ayuda a determinar si hay algún problema de indexación webmaster del sitio en el motor de búsqueda y también proporciona numerosos datos sobre el tráfico de Google a su sitio. Yahoo! tiene Site Explorer (en Inglés), que le permite enviar su URL de forma gratuita (así como MSN y Google), explorando todas las páginas indexadas por Yahoo!, Ver que son los más populares y ofrece un mapa detallado de un sitio, sus páginas y enlaces. Estos motores de búsqueda también permiten la creación de "AdWords", que son los anuncios para un sitio web o negocio en el Internet, que aparecen en un resultado de búsqueda de alguien que busca algo relacionado con ese producto / servicio. Una manera en que muchas empresas están utilizando para hacer la difusión y marketing en Internet. Yahoo! Search Marketing tiene (en Inglés) y Google tiene las de Google Advertising Professionals. Compartiendo en los beneficios en los listados de motores de búsqueda Nuevos sitios no necesitan necesariamente ser "enviados" a los motores de búsqueda para ser listados. Un simple enlace de un sitio web ya establecido hará que los motores de búsqueda para visitar el nuevo sitio e iniciar el mapeo de los contenidos. Esto puede tomar varios días o incluso semanas para indexar el enlace existente en un sitio ya indexada en los principales motores de búsqueda y arañas para empezar a visitar e indexar el nuevo sitio. Una vez que los motores de búsqueda encontrar el sitio comenzará entonces el mapeo de información y páginas en el sitio, a condición de que todas las páginas utilizan las etiquetas de vínculos con el estándar de hipervínculos. Enlaces a páginas que son accesibles sólo a través de aplicaciones en Flash o Javascript no se pueden encontrar por las arañas. Los webmasters pueden instruir a las arañas no arrastrarse ciertos archivos o directorios a través de archivos padrãorobots.txt como la ficha raíz del dominio. Los protocolos actuales para los motores de búsqueda y arañas requieren para ser revisadas para este archivo al visitar un dominio, e incluso si una araña o motor de búsqueda a mantener una copia oculta de este archivo para su uso en la siguiente visita las páginas del sitio, no puede actualizar esta copia tan pronto como webmaster. Área de Emprendedores de Desarrollo Web puede utilizar estos recursos para evitar que ciertas páginas tales como carros de la compra u otras páginas dinámicas, operadores contenido de una sola función aparecen en los resultados de búsqueda de sistemas, para que puedan mantener spyder distante ciertos archivos. Sistemas de recuperación de arañas pueden observar una serie de factores diferentes cuando está explorando un sitio, y muchas páginas de un sitio no pueden ser indexados por los motores de búsqueda, hasta que adquieran más pagerank o enlaces o el tráfico. La distancia de las páginas iniciales de un directorio de sitios web también puede ser un factor decisivo si una página será o no puede navegar por la araña, y otros indicadores importantes. Cho et al 8 describen algunas normas para estas decisiones cuando una página visitada debe ser indexados por el buscador. Para los motores de búsqueda que tienen su propio sistema de presentación pagada (como Yahoo!), usted puede ahorrar un poco de tiempo para pagar un valor de envío, sin embargo, anuncio publicitario pagado no garantiza su inclusión en sus resultados de búsqueda . A los criterios de calificación sitio web para clasificar los sitios web, motores de búsqueda tienen en cuenta los siguientes aspectos: el dominio del tiempo de registro (edad del dominio) Frecuencia contenido contenido Edad: regularidad con la que el nuevo contenido se agrega Tamaño del texto : número de palabras por encima de 200 a 250 (no afectó a Google en 2005) la edad y la reputación del sitio de enlace indica que la página Las características estándar en las características negativas página de tarifas (por ejemplo, la reducción de los sitios web con amplio uso de meta-etiquetas de palabras clave, indicativo de haber sido optimizado artificialmente) Originalidad del contenido términos pertinentes utilizados en el contenido (los términos que los motores de búsqueda asociado por estar relacionados con el tema principal de la página) Google Pagerank (usados ​​solamente en el algoritmo de Google) Número de Enlaces externos El texto ancla contenida en enlaces externos Relevancia del sitio que enlaza a sus citas de sitios web y fuentes de investigación (indica que el contenido es la investigación de calidad) Términos relacionados en la base de datos del motor de búsqueda (finanzas / financiamiento) Puntuación negativo para la llegada de los enlaces (probablemente procedentes de páginas de bajo valor, enlaces recíprocos llegada, etc.) adquisición Ritmo de enlaces llegada: muchos o demasiado rápido, puede indicar una mayor actividad vínculos comerciales para la compra de enlaces de texto apuntando a la siguiente y el enlace de la llegada. Un enlace acompañado de las palabras "enlaces patrocinados" puede ser ignorada Usando la etiqueta "rel = nofollow" para tallar el ranking interno de la profundidad documento web en las mediciones del sitio obtenida de otras fuentes, tales como el control de la frecuencia con la que los usuarios vuelven clic atrás cuando SERPs los envían a una página en particular (Bouncerate) métricas recogidos de fuentes tales como barra de herramientas de Google, Google AdWords / AdSense, etc. Métricas recopilados con terceros intercambio de datos (como los programas de proveedores de datos estadísticos utilizados para monitorear los sitios de tráfico (sitios)) de la eliminación de enlaces de ritmo que enlazan con el sitio El uso de subdominios, el uso de palabras clave en sub- campos y volumen de contenido en subdominios, con puntuación negativa para esta actividad conexiones semántica de los documentos de propiedad intelectual sirven el servicio de alojamiento y el número / calidad de otros sitios alojados allí Usando redirecciones 301 en lugar de 302 redirecciones (temporal) Mostrar un error de cabecera 404 en lugar de 200 para las páginas que no existen El uso adecuado de archivo robots.txt Frecuencia de servidor de tiempo está activo (Fiabilidad) Si el sitio muestra diferentes contenidos a diferentes tipos de usuarios o crawlers (encubrimiento) Enlaces " roto "inseguro o ilegal código HTML calidad de contenidos, la presencia de errores en el código de tasa real de clics observados por el motor de búsqueda de las listas que se muestran en la importancia SERPs de calificación hecha por páginas seres humanos con un acceso más frecuente - ODP velocidad de carga sitio y el uso de CDN Utilice amistoso URL. utilizar los códigos y parámetros (seusite.com.br/index.php?content=16897) no indica que es la propuesta de contenido. Entonces la URL amigable es siempre importante (seusite.com.br/seu-conteudo-contextualizado). Envío de archivos XML a través de una cuenta establecida en Google Webmaster Tools con el mapa de las páginas más importantes de su sitio. Técnicas Blanca Método de camionero Blanco Hat SEO son, básicamente, las recomendaciones de los principales motores de búsqueda, estas recomendaciones son directrices, recomendaciones o normas de conducta, que se explica qué se puede hacer y lo que no es aceptable. Asesorar en general para generar contenido para los usuarios, no para los motores de búsqueda; generar contenidos accesibles a sus arañas; No trate de engañar a su sistema. Es común que cuando algunos webmasters cometen errores en el momento de diseño o programación de su sitio web para "envenenamiento" de la misma, lo que dificulta el correcto posicionamiento. White Hat SEO trabajan para encontrar y solucionar estos problemas, como los menús ilegibles para los motores de búsqueda, enlaces rotos, redirecciones temporales, incluso con mala estructura de navegación. Básicamente, se puede entender White Hat SEO como la dominación del buen uso de la programación web. Algunos métodos declarados aptos por los motores de búsqueda utilizan un título corto, único y relevante para el contenido del sitio. Edición de páginas web para que muestren tema relevante en el que fue llamado a hacer, por lo que los usuarios no tienen sorpresas para acceder a ellos. Aumentar el número de contenidos relevantes en el sitio. Usando una descripción "meta" de tamaño optimizado (aproximadamente 160 caracteres), que es adecuado para el contenido relacionado, sin excesos. Asegúrese de que todas las páginas son accesibles mediante enlaces regulares, y no para un guión, o cualquier otro método que dificulta la comprensión por los motores de búsqueda. Permita que las arañas de los motores de búsqueda pueden usar sus rastreadores en las páginas web para ser indexados y sin la necesidad de aceptar sesiones con cookies y factores relacionados. Desarrollo de conexiones por métodos naturales, como se describe en las recomendaciones principales. La participación en webring con otros sitios web está permitida, siempre y cuando los demás son independientes, relevantes para el mismo tema y comparable en calidad. Utilice una técnica semántica de palabras clave. Después de actualización de Google, llamado Colibrí, páginas con grandes cantidades de la misma palabra clave objetivo pueden representar falta de calidad o spam palabra clave intentado. Método Sombrero Negro [editar | Código fuente editar] Spamdexing es el intento de promover las páginas a través del uso irrelevante, principalmente comercial, a través de detécnicas engañosa y que hacen uso de los algoritmos de una manera abusiva. Muchos administradores de los motores de búsqueda tienen en cuenta cualquier técnica para la optimización de y mejorar el rango de página de un sistema de sitios web como spamdexing. Sin embargo, un entendimiento común del tiempo desarrollado en la industria que puede ser aceptable y lo que no es aceptable para el refuerzo de una colocación en los sistemas de búsqueda y la consiguiente mejora en el tráfico. Dado que los motores de búsqueda funcionan de una manera altamente automatizada, los webmasters suelen utilizar métodos y tácticas no aprobados por los motores de búsqueda para lograr una clasificación más alta. Estos métodos a veces pasan desapercibidos, a menos que un motor de búsqueda oficial de la compañía visite y observe la actividad, o un cambio en el algoritmo que controla los resultados de la clasificación en la pérdida de beneficios de forma manual. A veces las empresas van a contratar un SEO para evaluar los sitios de la competencia, e informar de los resultados de los métodos de optimización en motores de búsqueda antitéticos. Spamdexing de vez en cuando se confunde con las técnicas de optimización de motores de búsqueda legítimas que no impliquen engaño. Spamming significa hacer los sitios más expuestos de lo que merecen por sus palabras clave, lo que lleva a resultados insatisfactorios. Optimización expresar el acto de hacer sitios reciben el rango que se merecen las palabras clave más específicas, y los resultados de búsqueda en consecuencia pertinentes. Cuando fue descubierto, los motores de búsqueda pueden reaccionar a los que utilizan métodos de SEO no éticas. En febrero de 2006, Google eliminó tanto BMW Alemania como Ricoh Alemania para el uso de tales prática.9 Algunos métodos de sombrero negro conocidos relleno de palabras clave: Spam con clave; repetición de la misma con el fin de aumentar la densidad y la pertinencia a ella en una página web. Texto Invisible: texto de nuevo a los motores de búsqueda, para ser indexados. Pero no tiene relevancia para el usuario y son el mismo tono de color de fondo, que pasa desapercibido. Encubrimiento Página: orientaciones pertinentes a los que acceden a la página. Utilice la redirección por IP para mostrar contenido para los motores de búsqueda, y es diferente para los usuarios. Página del umbral: similar a la técnica de la página de camuflaje se diferencia sólo con el método de redireccionamiento, que utiliza secuencias de comandos. Enlace Granjas: la creación de múltiples sitios con enlaces mutuos para aumentar la visibilidad. Over-Presentando: Los procesos de difusión automáticas que generan spam. Contenido duplicado: el contenido duplicado, múltiples fuentes para el mismo contenido. Copiar contenidos con derechos de autor Copiar contenido sin dar crédito apropiado. Falsificar Contenido: el contenido publicado no corresponde con la finalidad del sitio. Las cuestiones jurídicas SearchKing fue una importante comunidad virtual en la que los voluntarios mantuvieron pequeños sitios individuales sobre temas de su interés. El administrador SearchKing, Bob Massa, fue uno de los primeros en ver que, gracias a la importancia que el entonces creciente algoritmo de Google dio a los enlaces, éstos adquieren un valor monetario. Massa comenzó a usar el alto PageRank SearchKing (entonces PR7) como cebo para vender enlaces; el tiempo (antes de Google crear contramedidas para atacar a la manipulación de enlaces), un enlace a tales PR fue capaz de mejorar la posición de una página en Google. Google cambió su algoritmo con el fin de hacer que el PR SearchKing cayó a PR2 (perdiendo así su valor potencial financiero). Bob Massa presentó una demanda contra Google, alegando que la modificación ad hoc de PageRank con el fin de degradar un sitio específico fue la actitud poco ética (práctica comercial desleal). La Corte falló a favor de Google, aceptando que el PageRank no es más que una forma para que la empresa para expresar su opinión sobre la relevancia de las páginas web, y cómo cualquier opinión que se podría cambiar en cualquier momento. El caso se ha convertido en emblemático porque dejó en claro algunos puntos: los enlaces, que antes eran (y esto fue el algoritmo de Google error u omisión) de referencia significa que las páginas adicionales, se convirtió en herramientas de manipulación de las clasificaciones; varios individuos y empresas empezaron a prestar atención específica a los enlaces (relegando un poco la cuestión del contenido), lo que permite el crecimiento del mercado de la optimización de motores de búsqueda en ciernes; Google estaba alerta a los cambios y adoptaría varios cambios en el algoritmo con el fin de mantener la calidad (y control) de su servicio de búsqueda. Calidad y Rankeamento Páginas Un webmaster que quieren maximizar el valor de su sitio pueden leer los lineamientos publicados por los motores de búsqueda, así como las directrices de codificación publicados por el Consorcio World Wide Web. Si éstas se siguen, y el sitio ofrecen contenido actualizado, útil, original y relativamente significativa, los enlaces de acceso útiles pueden ser posible lograr una gran cantidad de tráfico y una buena posición en el motor de búsqueda. Cuando un sitio tiene contenido útil y atractivo, hay una buena probabilidad de que otros webmasters, naturalmente, crean un enlace a ella, lo que aumenta el PageRank y el número de visitantes del sitio web. Para descubrir enlaces de interés, los visitantes tienden a indicar el sitio web y entrar en la señal o de vincular a ella. Como resultado, las prácticas de SEO que aumentan la calidad del sitio más probable superan buscar tácticas de manipulación del motor. El mejor SEO recomienda centrarse en algo que los motores de búsqueda buscar: contenido relevante y útil para sus usuarios.

topo