M

Mysteryland

Usuario (Nueva Zelanda)

Primer post: 7 oct 2008Último post: 9 oct 2008
3
Posts
0
Puntos totales
20
Comentarios
Google te Responde en Menos de 1 Segundo
Google te Responde en Menos de 1 Segundo
InfoporAnónimo10/7/2008

Registrate y eliminá la publicidad! La verdadera magia de Google reside en su concepción de la web: Google nunca ha entendido la web como un conjunto de documentos de texto, si no como un conjunto de relaciones entre documentos de texto y cada una de éstas relaciones constituye verdaderamente la esencia de Google. En este artículo de HelloGoogle veremos cómo se desarrolla todo el proceso de búsqueda: Cuando escribimos una búsqueda en www.google.com nuestra petición viaja por el hiperespacio hasta el servidor web de Google. Google recibe más de 1000 peticiones de búsqueda cada segundo de todos los días del año: * El servidor web de Google está formado por una red de más de 10.000 equipos trabajando en paralelo. * Cada servidor de la red de Google es extremadamente sencillo y económico: PCs con procesadores X86, disco duro IDE y demás prestaciones estándar. * El bajo coste del hardware es la base del modelo de negocio de Google y lo que le permite ofrecer la mayoría de sus servicios de manera gratuita. * Cada servidor falla una vez cada tres años. * Cada día fallan dos servidores. * Si se produce cualquier problema de hardware, el software de Google lo hace imperceptible para sus usuarios. * Google no ha sufrido un fallo general desde el año 2000. A continuación se envía la consulta a los servidores de índices de Google. Cada índice está formado por una relación entre una palabra y la dirección del servidor de documentos de Google donde se almacenan las páginas que contienen dicha palabra. * Cada servidor de índices contiene sólo una parte de las webs de Internet y son necesarios varios servidores trabajando en paralelo para calcular el resultado de la búsqueda. Con la información de los índices se accede a los servidores de documentos de Google que contienen una copia de cada web indexada. * Google contiene más de 4000 millones de páginas, por cada página almacena 10KB de información, lo que supone 40 Terabytes de información. * Google dispone de 50 mirrows (replicas) por cada servidor. Por último se aplica el algoritmo de PageRank para ordenar los resultados de la búsqueda por relevancia. El algoritmo de PR calcula la relevancia de una web gracias a 2 billones de ecuaciones con más de 500 millones de variables. Con toda esta información se crea y muestra al usuario la conocida página de resultados SERP, merece la pena mencionar que Google completa todo este proceso de búsqueda en menos de 1 segundo. Fuente: http://www.hellogoogle.com/ Dejo 2 datos que les pueden parecer interesantes y quizas a mas de uno les sirva. Como posicionar un nombre en Google Tal vez usted también haya tenido la curiosidad de saber cómo podría posicionar su nombre en Internet para mostrar por ejemplo su currículum vitae o una página con información de contacto. Si es así está de enhorabuena pues es una tarea realmente sencilla que puede conseguir siguiendo estos 10 sencillos pasos. Para ilustrar este ejemplo he elegido un nombre tan corriente como Margarita del Campo Alegre. Ni que decir tiene que puede sustituirlo por su propio nombre, el de su mascota o el de su propia empresa. 1. Cree una plantilla xhtml + css2 para mostrar la información. Puede utilizar una plantilla muy sencilla, en la que evitaremos utilizar tablas anidadas en la maquetación de contenidos. Para ello recurriremos a los estilos css2 para mostrar la información. Las plantillas css2 tienen la ventaja de requerir menos código html y facilitan a los buscadores la indexación de su contenido. Por otro lado el estándar XHTML nos asegura que nuestra página no contendrá errores de codificación que pongan en peligro nuestra indexación. Si usted no está familiarizado con este tipo de plantillas existen infinidad de webs donde puede conseguirlas de manera gratuita: Cita :* http://www.templateworld.com/free_templates.html * http://www.oswt.co.uk/ * http://www.ex-designz.net/template/tempcat.asp?cat_id=13 * http://www.google.es/search?hl=es&q=free+xhtml+css2+templates&btnG=Buscar&meta= 2. Evite todos los elementos que podrían dificultar o imposibilitar la indexación de páginas. Tenga en cuenta los siguientes puntos. * Es indispensable que no utilice frames para mostrar sus contenidos ya que imposibilitaría su indexación por Google. * Abstengase de utilizar flash para mostrar información relevante. * Evite utilizar html dinámico en javascript para mostrar información relevante. * Bajo ningún concepto, caiga en la tentación de incluir su nombre de manera reiterada y abusiva de manera oculta, ya sea dentro de comentarios, tag <NOSCRIPT></NOSCRIPT> o en el meta keywords. 3. Incluya su nombre en la url de la página. Por ejemplo podría utilizar uno de estos formatos: * www.mipagina.com/profile/margarita_del_campo_alegre.htm * www.mipagina.com/profile/margarita_del_campo_alegre/ * www.mipagina.com/profile/margarita/del_campo/alegre/ 4. Incluya su nombre y apellidos en el título de la página. Por ejemplo podríamos tener este título <title>Margarita del Campo Alegre, bienvenidos a mi pagina personal.</title> 5. Incluya su nombre dentro de la meta información. <meta name="robots" CONTENT="index, follow"/> <meta name="description" content="Bienvenidos a la página personal de Margarita del Campo Alegre, aquí encontraréis mis mejores fotografías y todo aquello que se me vaya ocurriendo. "/> 6. Incluya su nombre en el titular principal de la página. <h1>Perfil de Margarita del Campo Alegre</h1> 7. Incluya su nombre en la nomenclatura de la(s) fotografía(s) e incluya información textual dentro del alt. <img src="/images/margarita_del_campo_alegre_00.jpg" alt="Margarita del Campo Alegre en el día de su licenciatura"/> 8. Redacte su contenido de manera amigable con los buscadores (Seo Copyright). Puede seguir los siguientes consejos a la hora de redactar el contenido de la página: * Cuide el número de veces en el que aparece su nombre dentro del documento, no peque por defecto ni por exceso. * Utilice los tags semánticos <EM></EM> <STRONG></STRONG> para destacar la información más relevante. * Mime la redacción de sus contenidos: redacte con frescura y no comenta errores ortográficos. Aquí tiene un ejemplo: <p>Hola a todos desde este mi rincón de Internet al que he bautizado como <strong>"El rincón de Margarita del Campo Alegre"</strong>.</p> <p>Aunque soy bastante nueva en esto de las nuevas tecnologías, lo cierto es que estoy poniéndome al día a pasos de gigante. Ya me he suscrito a cuantos blogs han caído en mis manos y mi lista de contactos del OutLook empieza a parecer interesante</p> <p>Lamentablemente, todo tiene sus inconvenientes y en mi afán por subirme al tren de los Geeks ya he sido víctimas de varias estafas on-line tipo pishing que me han costado más de un disgusto. Por este motivo me he visto obligada a sacar todo mi dinero de mi cuenta corriente y guardarlo dentro de un calcetín. Y es que ya me lo decía mi madre: -<em>Margarita</em> parece que aprendes nunca, de buena que eres pareces tonta! </p> <p>bla,bla,bla...</p> 9. Consiga algún enlace de calidad. Si su nombre no tiene mucha competencia en Internet, es decir si usted no se llamará Julio Iglesias o David Bisbal, con unos pocos links bastará: * Puede incluir un enlace desde la home de su propia página web. * También puede incluir un enlace en la firma con la que comenta en foros y blogs. * Puede solicitar la inclusión de su página en un directorio web Cuanto más competencia tenga su nombre, necesitará conseguir un mayor número de enlaces. Recuerde que es importante que se incluya el nombre en el anchor text del link: Conozca la web de <a href="http://www.mipagina.com/profile/margarita_del_campo_alegre/">Margarita del Campo Alegre</a> 10. Deje a Google realizar su trabajo. Ahora sólo le queda esperar a que Google encuentre su página y la indexe, esto puede llevar entre 1 y 4 semanas en función del estado de ánimo del GoogleBot. En el caso de que su nombre tenga mucha competencia, bien porque coincide con el de alguna celebridad o porque es muy habitual (Jorge Pérez García) puede que tenga que enfrentarse también al odioso efecto SandBox que ralentice aún más el posicionamiento de su página. En cualquier caso espero que le haya sido útil este artículo y que de una vez por todas su “yo virtual” consiga asomar la cabecita por esta inmensa ventana que llaman Internet. Javascript no intrusivo, un ejemplo mágico. Navegando por Internet he encontrado un curioso ejemplo de javascript no intrusivo que por su sencillez y espectacularidad me gustaría compartir con ustedes. Creo que antes de comenzar con ninguna explicación lo mejor será que lo prueben: * Para ello vaya a su navegador favorito (google) y accedan a la sección de búsqueda de imágenes. * Realicen la búsqueda que prefieran, por ejemplo “hellogoogle” y pulse en buscar para ver todos los resultados. * Una vez llegado a este punto copie la siguiente linea de código y péguela en su navegador (Como si se tratara de la dirección de una web): javascript:R=0; x1=.1; y1=.05; x2=.25; y2=.24; x3=1.6; y3=.24; x4=300; y4=200; x5=300; y5=200; DI=document.images; DIL=DI.length; function A(){for(i=0; i-DIL; i++){DIS=DI[ i ].style; DIS.position='absolute'; DIS.left=Math.sin(R*x1+i*x2+x3)*x4+x5; DIS.top=Math.cos(R*y1+i*y2+y3)*y4+y5}R++}setInterval('A()',5); void(0); # Pulse enter…¿Sorprendido? Aunque a pesar de su sencillez es un efecto muy espectacular, no se trata de ningún truco de prestidigitación. La explicación hay que buscarla en el javascript no intrusivo, si analizamos el código para ver cómo se consigue este efecto puede sacar algunas conclusiones interesantes: * En primer lugar hay que tener presente que el código javascript se ejecuta después haber cargado una página web en el navegador. En nuestro caso era la página de resultados de una búsqueda de imágenes. * Cuando un navegador web carga una página crea una estructura de objetos en memoria denominada DOM (Document Object Model). Esta modelo de objetos puede ser consultado e incluso modificado a través de un lenguaje de scripting como javascript. * Por ejemplo en el array document.images se almacena una referencia a cada imagen del documento: DI=document.images //Array con las imagenes del DOM # Podemos determinar fácilmente la longitud de este Array con el atributo length para poder recorrerlo con un bucle for: DIL=DI.length for(i=0; i-DIL; i++) { ... } # Los atributos de cada una de las imágenes de la página puede ser modificado con javascript accediendo al DOM: DIS=DI[ i ].style; // Obtenemos una referencia al atributo style # Así podemos modificar el atributo position que por defecto es block a absolute . Un elemento con posicionamiento absolute puede ser posicionado en cualquier coordinada de la página a través de los atributos top y left: DIS.position='absolute'; //Modificamos el posicionamiento a absolute DIS.left=Math.sin(R*x1+i*x2+x3)*x4+x5; //Actualizamos el atributo left DIS.top=Math.cos(R*y1+i*y2+y3)*y4+y5}R++} /Actualizamos el atributo top # Por último se crea de un temporizador con la función setInterval que ejecuta cada 5 milisegundos la función A que es la que realiza el movimiento de las imágenes modificando sus atributos top y left: setInterval('A()',5); void(0); # nota: Aunque no tiene relación directa con el javascript no intrusivo la función que realiza el movimiento de las imágenes es una función helicoidal. Variando los parámetros de la función podemos conseguir que las imágenes describan otros parábolas: javascript:R=0; x1=.01; y1=.005; x2=.025; y2=.24; x3=1.6; y3=.24; x4=300; y4=200; x5=300;y5=200;DI=document.getElementsByTagName("img"; DIL=DI.length; function A(){for(i=0; i-DIL; i++){DIS=DI[ i ].style; DIS.position='absolute'; DIS.left=(Math.sin(R*x1+i*x2+x3)*x4+x5)+"px"; DIS.top=(Math.cos(R*y1+i*y2+y3)*y4+y5)+"px"}R++}setInterval('A()',5); void(0); La utilidad del javascript no intrusivo no se limitan a este tipo de ejemplos curiosos, si no que es una herramienta de gran importancia a la hora de realizar webs accedibles que no dependan de que el navegador del visitante soporte o no javascript. Esto lo veremos sin duda en próximos artículos. Fuente de la noticia original:http://www.destructoid.com/forum/viewtopic.php?t=1271 Bueno llegamos al final por ahora. Podria agregar algunos detalles mas, pero no quiero cansarlos ni mucho menos dejarlos ciegos xD, es pero que les haya gustado, si es asi, espero sus comentarios. saludos a toda la comunidad

0
13
C
Cómo Incrementar Las Visitas o Tráfico De Una Web
InfoporAnónimo10/8/2008

La propia naturaleza de una web establece su potencial de visitas. Así el público que podrá visitar una web con contenido exclusivamente en castellano sera menor que el de un Site multi-idioma, y los visitantes potenciales de un periódico on-line serán también más elevados que las personas interesadas en una tienda on-line especializada en quesos ahumados. El webmaster tiene la responsabilidad de explotar este potencial y conseguir que todos los usuarios que podrían estar interesados en su web, tengan acceso a ella bien sea a través de buscadores, webs de terceros, portales especializaos o cualquier otro medio que Internet pone a su disposición. El objetivo de este artículo es el de presentarle todas las estratégias y técnicas encaminadas a optimizar las visitas de una web y poder llegar eficientemente al segmento de mercado que le corresponde. De modo muy general, existen tres fuentes de tráfico web: 1. Buscadores. 2. Enlaces. 3. Publicidad Offline: publicidad en medios impresos, radio, televisión, etc. Si dejamos a un lado los elementos externas a la web podemos centrar el origen de las visitas en los buscadores y enlaces. El trabajo necesario para optimizar el tráfico de una web comprende la realización de los siguientes puntos: 1. Optimización orgánica del código. 2. Estrategia de posicionamiento en buscadores. 3. Acciones de e-marketing para lograr enlaces entrantes de calidad. 4. Optimización de la arquitectura de la Home. 5. Acciones encaminadas a Fidelizar los visitantes. 6. Elegir, configurar y monitorizar un sistema de gestión de estádísticas web. A continuación veremos en detalle cada uno de estos puntos. 1. Optimización orgánica. La optimización orgánica de un Site busca crear una web accesible y usable para cualquier tipo de visitante, incluyendo también a los buscadores. Una web bien diseñada debe presentar una naturaleza modular en la que el diseño, la funcionalidad y el contenido convivan de manera independiente. Por ejemplo, un cambio en los estilos no debría influir en el contenido y una modificación de la funcionalidad de sindicación de noticias no debería tener impacto en los contenidos existentes . La optimización orgánica ofrece varias ventajas al webmaster: 1. Portabilidad: La independencia entre diseño, funcionalidad y contenido permite manejar una web fácilmente migrable a cualquier plataforma. Fácilmente escalable para añadir nuevas funcionalidades. 2. Escalabilidad: Es posible agregar nuevas funcionalidades de manera sencilla. 3. Accesibilidad y Usabilidad: Los usuarios realizan con facilidad la tarea que tenían en mente cuando entraron en la web; bien sea comprar un producto, contratar un servicio o ponerse en contacto con el administrador. Todos los usuarios pueden acceder de manera eficiente al contenido del Site independientemente del cliente que utilicen para acceder a la página: navegador web, PDA, teléfono móvil, sistema de lectura para invidentes, etc. 4. Posicionamiento en buscadores: En una consecuencia directa de la accesibilidad, para entenderlo basta con considerar a los motores de búsqueda como usuarios de una web. Una web accesible permite a los motores de busqueda extraer e interpretar correctamente el contenido de una web. Por tanto la optimización orgánica de una web es la base sobre la que poder iniciar con éxito una estrategia de posicionamiento en buscadores. La optimización orgánica orientada a mejorar el posicionamiento en buscadores contempla diversos aspectos del desarrollo de una web: I. Ingeniería de nombre de dominio. El nombre de dominio es la tarjeta de visita de una web. Un nombre de dominio atractivo ofrece una imágen positiva de su web a los usuarios de Internet y es la base sobre la que posicionar su página en buscadores. Existen varias pautas que le pueden orientar a la hora de elegir un nombe de dominio. II. Ingeniería de urls. A la hora de posicionar una web es básico cuidar la nomenclatura de las páginas y recursos de una web. Las urls largas que incluyen extensas querystrings pueden llegar a ser inmanejables tanto para los buscadores como para los demás visitantes. Imagine una url como esta: http://www.mydomain.com/page.php?j=78&k=1977&j=22&n=jon+bon+jonki&c=56A40034678FFE45673E28 Ahora imagine que pudieramos trabajar con una análoga que fuera así: http://www.mydomain.com/profile/Ignacio_gorostiza/ ¿No le parece una dirección más atractiva?, pues a los buscadores también. * Los buscadores tienden a recorrer con menos frecuencia e incluso no recorrer aquellas URLs dinámicas largas que no tienen suficientes enlaces externos. Tenga en cuenta que cuanto más larga sea la URL menos oportunidades tendrá de ser indexada por los buscadores. * En la práctica trabajar con urls search engine friendly consiste en minimizar las querystring y utilizar tags descriptivos para nombrar directorios y ficheros * Las url search engine friendly ofrecen a los buscadores información muy relevante sobre el contenido de la página web. En Apache existen varios sistemas que permiten transformar fácilmente urls dinámicas con múltiples querystrings en urls search engine friendly: Path_Info: Es un método sencillo de aplicar y permite manejar urls del tipo: www.hellogoogle.com/ariculo_123.php/posicionamiento/web/ Apache incluye una funcionalidad llamada "look back" que permite analizar la URL y descomponerla si no encuentra el documento que referencia. De esta forma si no existe la carpeta /web retrocede hasta la carpeta /posicionamiento y así sucesivamente hasta que encuentra el fichero articulo_123.php.Este método deja en manos del desarrollador la responsabilidad de manejar la URL almacenada en la variable $REQUEST_URI para recoger la información suministrada por la URL y actuar en consecuencia. * ForceType: Es un método similar al anterior pero incluye la peculiaridad de que oculta la extensión del archivo para que tenga la apariencia de un directorio.De esta forma la url anterior podria presentarse como www.hellogoogle.com/ariculo_123/posicionamiento/web/ * Módulo mod_rewrite: El módulo mod_rewrite de Apache module ofrece la posilidad de utilizar expresiones regulares para manejar y re-escribir una URL. Es el método más flexible y que ofrece más posibilidades pero conlleva la complejidad de manejar expresiones regulares.Tenga en cuenta que el manejo de expresiones regulares es bastante exigente en cuanto a consumo de recursos, por este motivo puede no ser un método recomendable para servidores con poca capacidad o sitios web con mucho tráfico. Nota para usuarios avanzados: Como ya he comentado anteriormente, los buscadores tienden a recorrer con menos frecuencia e incluso no recorrer aquellas URLs dinámicas largas que no tienen suficientes enlaces externos. Tenga en cuenta que cuanto más larga sea la URL menos oportunidades tendrá de ser indexada por los buscadores. Existen casos en los que es imposible eliminar por completo las query string de la url. Es el caso de aplicaciones tipo tienda que guardan el ID de la sesión del usuario en la URL. En este caso es conveniente identificar cuando el usuario que ha accedido a la página es un buscador a través de la variable de servidor HTTP_USER_AGENT y deshabilitar el ID de sessión. III. Política de Títulos para las páginas. El título es la principal fuente de información para los motores de búsqueda, debemos mimarlo de manera especial si queremos posicionar nuestra web de manera óptima. Puede tener en cuenta las siguientes consideraciones para optimizar los títulos de su Site. IV. Maquetación en base a css (hojas de estilo en cascada). Los estilos css permiten al webmaster maquetar el contenido de una web sin necesidad de recurrir a las tablas. Son varios los beneficios que se derivan de esta práctica: * Se reduce el código html de la página, optimizando la relación entre contenido y código. * Al sacar los estilos en hojas de estilo externas se independiza el contenido del diseño. * Permiten establecer un orden lógico en los contenidos que no necesita corresponder con el orden en el que se presentan visualmente. Ésto permite agrupar la información más importante al inicio de la página. Estos tres puntos tienen una repercusión muy positiva de cara a la indexación de una página en buscadores. Le recomiendo la página www.csszengarden.com donde encontrará multitud de tutoriales y recursos sobre maquetación con css. V. Optimización de la Meta información de la página. Los buscadores extraen de los META parte de la información que muestra en los resultados de las búsquedas. Además es posible indicar ciertas directrices a los motores de búsqueda para tener control sobra la indexación de la página. Puede leer el siguiente artículo donde hablo de manera extensa sobre los meta y su repercusión en el posicionamiento web. VI. Maquetación basada en estándares XHTML. Una de los beneficios de ajustarnos a las directrices de etiquetación que establecen las diferentes gramáticas de XTML es asegurarnos que los buscadores podrán acceder correctamente a nuestros contenidos. Puede revisar la siguiente guía de maquetación web donde podrá encontar más información sobre estándares de desarrollo. VII. Jerarquización y Etiquetación semántica de contenidos. Algunas etiquetas html permiten agregar una información semántica al texto que contienen. Por ejemplo los tags <strong> <em> ó <u>, indican a los motores de búsquedas que su contenido es especialmente relevante dentro del contexto en el que se enmarcan. Las etiquetas lde cabecera <h1> <h2> <h3>...<h4> permiten establecer una jerarquía de titular, subtitular, etc dentro del contenido de una página. Su uso facilita la labor de los buscadores a la hora de interpretar una página. Le recomiendo la lectura del siguiente artículo para profundizar en la natualeza semántica del HTML y su importancia en el posicionamiento web. VIII. Estructura interna de enlaces. La estructura interna de una web permite transmitir el link power desde la Home hacia el resto de páginas de una web. Una estructura interna eficiente permite optimizar la navegabilidad de nuestra web por los buscadores y nuestros visitantes. * El contenido principal debe ser accesible con pocos clicks. * Utilice palabras clave para describir los enlaces, evite los enlaces del tipo haga click aquí. * Añada el atributo nofollow en todos los links que no quiere que sean accedidos por los buscadores * Incluya un Site Map para facilitar la labor de sus usuarios. * Incluya un Google Site Map para facilita la labor de los buscadores. IX. Accesibilidad de la información: Debe asegurarse que el contenido de su página podrá ser leído tanto por sus visitantes como por los motores de búsqueda. Texto alternativo para información visual, Scripting no intrusivo, etc. * Ofrezca un texto alternativo a todos los elementos gráficos. (p.ej: alt, longdesc). * No utilice frames. * Agilice el uso de los formularios describiendo los campos e incluyendo captions. * Asegúrese de que su página será funcional con javasscript, applets ó flash desactivado. * Utilice un lenguaje claro y sencillo que se ajuste a la temática de la web. Le recomiendo la lectura del siguiente artículo sobre accesibilidad web y buscadores. X. Seocopywriting: Search Engine Optimization Copyrighting consiste en escribir el contenido de una web teniendo presente que nuestros lectores serán tanto personas como motores de búsqueda. Esta doble perspectiva permite al editor generar contenido atractivo para sus visitantes y a la vez optimizado para su indexación en buscadores. Existen algunos patrones que nos pueden servir para desarrollar nuestro contenido: * A los motores de búsqueda también les gusta las páginas de calidad y odian aquellas que se realizan con el único animo de alcanzar una buena posición. * Recuerde que los usuarios de Internet no leen el contenido de una página de principio a fin. El contenido se ojea por encima para detenerse en aquellos puntos que resultan más destacados o atractivos ya sea por su diseño o contenido. * Tenga presente que no está escribiendo un libro, está escribiendo en Internet y para usuarios de Internet. * Tenga presente el término de búsqueda principal por el que busca posicionarse antes de comenzar a escibir. * Es recomendable que no busque posicionarse por más de dos términos de búsqueda por página de contenido. * Tenga presente a qué sector va dirigido el contenido antes de comenzar a escribir. * Su contenido debe ofrecer una solución al problema que demandan sus usuarios. * Incluya el término de busqueda principal como titular de la página. * Destaque sus titulares con tags de párrafo (H1,H2...) y tags semánticos (B, EM, etc). * Distribuya los términos de búsqueda de manera natural a lo largo del contenido de la página. * Regla del 3 por ciento: El 3% de las palabras de una página deben ser keywords relevantes para los buscadores. * Redacte los contenidos de forma concisa y directa, prescindiendo de todo aquello que resulte redundante o superfluo. * Por último, recuerde que un contenido de calidad es la clave para el éxito de una web. 2. Estrategia de posicionamiento en buscadores. Una estrategia de posicionamiento eficiente se prolonga a lo largo de todo el periodo de vida de una web y requiere de la implicación de todas las personas que intervienen en el desarrollo, actualización y mantenimiento de la web. Debe abandonar la idea de elegir un conjunto de criterios atractivos y generar un contenido en el que sólo importa el número de veces en el que se repite la frase "alquiler de pisos en Torrevieja". En primer lugar porque no conseguirá nunca un buen posicionamiento para criterios medianamente competitivos y en segundo lugar porque se arriesga a que su web sea penalizada por Google. Hace tiempo me llamó la atención un estudio realizado sobre empresas SEO en el que se pedía a 5 webs empresariales que con un mismo presupuesto realizaran una campaña de posicionamiento en buscadores con el objetivo de incrementar sus visitantes. Al cabo de 6 meses sólo una de las empresas había conseguido mejorar sustancialmente sus visitas. Mientras las otras 4 habían recurrido a empresas SEO para mejorar su posicionamiento, está empresa había contratada a un editor que se había dedicado a escribir diariamente en una sección de la web pequeños artículos sobre las actividades de la empresa. La calidad de estos artículos habían conseguido atraer hacia la web la atención de un gran número de visitantes . No existe una estrategia de posicionamiento que pueda aplicarse de manera genérica a cualquier web. Sería inteligente utilizar los recursos ya existentes en una web para mejorar su posicionamiento, por ejemplo, una empresa de antivirus que disponga de una gran base de datos con información sobre malware podría optimizar las plantillas de las fichas para que toda esta información se posicionara eficientemente. Si no tiene claro como puede abordar el posicionamiento de su web le animo que recurra a un profesional SEO para que analice su caso y le aconseje sobre la estrategia que le permitirá mejorar su posicionamiento de manera más rápida y eficiente. Desde HelloGoogle también pueden ofrecerte asesoramiento, manda sin ningún tipo de compromiso un e-mail a webmaster@hellogoogle.com y estaran encantados de atenderte personalmente. 3. Lograr enlaces entrantes. Encontrará dos formas de conseguir enlaces: con dinero y con contenido de calidad. Es un error pensar que no se debe pagar por enlaces, una canpaña de e-marketing requiere en muchas ocasiones de importantes inversiones económicas en redes de afiliados y publicidad Google Adsense. Sin embargo no debemos olvidar que existen otros caminos que nos ofrecen una gran cantidad de visitantes de manera gratuita a cambio de ofrecer desde nuestra web un contenido original, útil al resto de la comunidad y de calidad. Los enlaces tienen una doble importancia: atraen visitantes a su web y pueden afianzar su posicionamiento en buscadores. Existen varios tipos de enlace en función de su naturaleza: 1. Enlaces permanentes. 2. Redes de afiliados. 3. Sistema publicitario de Google Adsense. 4. Newsletters y campañas de E-mails. 5. Sitios especializados. 6. Webs sociales. dijo:Google Adsense https://www.google.com/adsense/login/es/?gsessionid=tHjCANqJ8_Y I. Enlaces permanentes: Son los enlaces que nacen de manera natural en blogs, prensa on-line o webs de terceros en respuesta al interés que una página despierta en la comunidad web. Los enlaces ofrecen las siguientes ventajas: * Permiten generar tráfico desde Sites que recomiendan o se hacen eco de la publicación de una web. * Mejoran al PageRank de una página. * Mejoran la presencia en buscadores. * Los enlaces no tienen por qué desaparecer y su efectividad perdura a lo largo del tiempo. II. Links de redes de afiliados: Los programas de afiliación permiten diversificar la presencia de una web en diversos puntos de contacto on-line con el objetivo de incrementar las visitas y las posibilidades de venta. La promoción se realiza a través de banners que son mostrados en Sites de terceros pertenecientes a la red de afiliación. Cómo funcionan las redes de afiliados: * Una red de afiliados esta formada por una serie de websites (afiliados) que ofrecen sus páginas a los anunciantes como soporte de campañas de banners y promoción * El Afiliado (un webmaster que dispone de una web y que quiere insertar publicidad para generar ganancias) se registra en la empresa proveedora del servicio. * El Afiliado debe reservar un espacio destacado en su Web e incrustar un código para mostrar un banner con publicidad. * El Anunciante ( empresa o particular que desea aumentar el tráfico a su Web para incrementar ventas, registros, etc) se registra en la red de afiliados. * Los banners no dirigen directamente al afiliado con un enlace html. * Al hacer click en los banners los visitantes son redirigidos al servidor de la empresa proveedora, donde se registra la información relacionada con las transacciones (visitas, ventas, registros, etc.). * Tras registrar la información el visitante es redirigido a la web del afiliado. * El Afiliado recibe periódicamente los ingresos generados por la publicidad de su web. Ejemplos: TradeDoubler, NETFILIA, GEOPROMOS. Las redes de afiliados ofrecen notables beneficios: * Permite incrementar rápidamente la presencia de la web. * Reduce los costes de comunicación y promoción de marcas y productos. * Facilita la captación de nuevos clientes. * Origina un incremento del tráfico entrante. * Origina un incremento de ventas que puede variar entre el 2% y el 35% del volumen total de ventas. Sin embargo es importante conocer sus limitaciones: * No mejoran la presencia de una web en buscadores. * No ayudan a mejorar el pagerank de una web. * Su efectividad se limita al periodo en el que se contrata. Al finalizar éste, las visitas caen drásticamente. III. Sistema publicitario Google Adwords: Google AdWords es el mécanismo de publicidad patrocinada que ofrece Google, ofreciéndonos la posibilidad de publicitar nuestra página en webs relacionadas con nuestro sector. ¿Sabía que Google Adwords es uno de los pocos servicios por los que Google cobra a sus usuarios y por tanto una de sus principales fuentes de ingreso? Tiene la ventaja de contar con una enorme cantidad de clientes a lo largo del todo el mundo. Google cobra en función de los clicks hechos sobre el anuncio. El precio del click varía en función de la competitividad de los keywords por los que queramos anunciarnos. Los anuncios se muestran en la parte derecha de la página de reultados de búsqueda de Google, Gmail, y en las webs que incluyan enlaces patrocinados AdSense. El anunciante tiene la seguridad de que sus anuncios se mostrarán en Sites relacionados con su segmento de mercado. El principal problema que presenta es la dificultad para discernir entre los clicks verdaderos (usuarios interesados) y los clicks falsos (realizados por los propios webmasters para incrementar sus ingresos). Desde el propio weblog de Google AdWords (Inside AdWords) se han echo eco de este problema y varios medios de comunicación se han hecho eco de las grandes cantidades de dinero que ha devuelto Google a sus clientes en relación a clicks fraudulentos. dijo:Inside AdWords -> http://adwords.blogspot.com/2006/03/invalid-click-credits.html IV. Newsletters y campañas de e-mails: El correo electrónico es un canal de marketing potente y eficaz si se realiza de forma correcta: 1. Es personal: Permite a la empresa contactar de manera personal con el cliente. 2. Es personalizable: Los mensajes se pueden y se deben personalizar en función del destinatario. El destinatario de nuestros correos elige la información que desea recibir. 3. Es Interactivo: Nos permite recibir un mensaje de vuelta con la opinión de los clientes para saber su opinión sobre nuestros productos, ofertas, hábitos de consumo e incluso si desea o no desea seguir recibiendo información publicitaria. 4. El correo es la herramienta más utilizada en Internet: Así lo atestigua un estudio de Forrester Research en el que se afirma que los usuarios dedican el 80% de su tiempo online a leer su correo. 5. Es económico: Al ser un canal eléctronico podemos prescindir de los costes asociados al marketing directo tradicional. 6. Es legal: La LSSICE indica que cualquier comunicación por e-mail debe realizarse con el expreso consentimiento del destinatario. Esto nos asegura que los destinatarios estarán altamente interesados en nuestra información comercial. 7. Es medible. Podemos conocer datos estadísticos de las campañas: recepción, conversiones, registros, etc. La desventaja más importante viene realizada con la práctica inadecuada: * Un usuario que no desea recibir nuestra información comercial puede considerarla como SPAM. * Un filtro antispam puede catalogar nuestros correos como SPAM y no entregarlos a sus destinatarios. * Varias denuncias de nuestros correos a las Listas Negras Internacionales pueden bloquear nuestros envíos de correos. * El spam puede dañar la imagen de nuestra empresa en Internet. * Una vez baneado por las listas Negras Internacionales puede ser complicado salir. V. Tráfico desde sitios especializados y directorios: Los sitios especializados presentan la ventaja de ofrecer visitantes altamente interesados en nuestros servicios o productos. Se trata de un público acostumbrado a utilizar Internet para realizar transacciones y compras y que busca encontrar las páginas que mejor se ajustan a sus necesidades. Un directorio web contiene un conjunto organizado de enlaces. Presenta una estructura de categorías y subcategorias para agrupar las webs de diversas temáticas. Los directorios permiten a los webmasters solicitar a los editores del diretorio la inserción de su web dentro de una determinada categoría. Es un error pensar que cualquier web puede ser incluida en un directorio: * La web será evaluada por un editor que se trata de una persona de carne y hueso, por tanto asegúrese de que su web no presenta errores, ofrece un contenido interesante y está finalizada. * Para asegurarnos que será incluida en el menor tiempo posible, intente facilitar la labor de los editores,eligiendo la categoría que mejor se ajusta e incluyendo un título y una descripción que se ajuste tanto al contenido de la web como a las normas de uso del directorio. Los directorios más importantes son: * Dmoz — Open Directory Project * Yahoo * Directorio de Google (Se suministra de la información de Dmoz) dijo:Dmoz — Open Directory Project http://www.dmoz.org/ dijo:Yahoo http://es.yahoo.com/ dijo:Directorio de Google http://www.google.com/dirhp?hl=es VI. Webs Sociales de Contenido y Social Bookmarks: Las web sociales son muy útiles para generar visitas siempre y cuando nuestra web ofrezca un contenido original, útil, actualizado y, en general, de alta calidad. Tenga presente que las páginas orientadas a la venta no son bien recibidas por este tipo de webs. El usuario de este tipo de webs se caracteriza por estar familiarizado con la web como medio de consulta y compra. Web Sociales de Contenido. Las webs sociales de contenido son sites hechos por y para sus propios usuarios que comparten entre ellos la información que encuentran en diversas páginas de Internet. Un usuario registrado puede enviar un artículo, noticia o web que considere interesante y someterlo a la valoración del resto de la comunidad que con sus comentarios y votos pueden promoverlos hasta aparecer en la portada. Es importante recalcar que un webmaster no debe enviar artículos de su propia Web pues se considera una práctica de tipo SPAM. El trabajo del webmaster debe ser incluir en su Site las herramientas oportunas para facilitar el trabajo de sus visitantes para compartir la página en las Webs sociales. El tráfico procedente de una Web Social se caracteriza por ser muy grande en el momento de la publicación (miles de visitas en pocas horas) e ir disminuyendo gradualmente con el paso del tiempo, ésto se conoce como efecto Digg. El efecto Digg puede llegar a ser un arma de doble filo, pudiendo generar un tráfico tan grande que colapse el servidor de la página enlazada. Las redes sociales más relevantes son: Internacionales * Digg.com * Propeller.com * Slashdot * Reddit * Fark.com * newsvine.com * Mister-Wong * dzone.com * Tailrank.com En español. * Meneame * Fresqui * Barrapunto * Webeame * Enchílame dijo:Digg.com http://digg.com/ Propeller.com http://www.propeller.com/ Slashdot http://slashdot.org/ Reddit http://www.reddit.com/ Fark.com http://www.fark.com/ newsvine.com http://www.newsvine.com/ Mister-Wong http://www.mister-wong.de/ dzone.com http://www.dzone.com/links/index.html Tailrank.com http://www.tailrank.com/ En español. dijo:Meneame http://meneame.net/ Fresqui http://tec.fresqui.com/ Barrapunto http://barrapunto.com/ Webeame http://webeame.net/ Enchílame http://www.enchilame.com/ Social Bookmarks. Las webs de Social bookmarking permiten a sus usuarios guardar y administrar sus web favoritas y descubrir las webs que otros usuarios guardaron. Funcionan como la sección de favoritos de un navegador pero sin las limitaciones de almacenarse en un ordenador particular. Las webs se organizan en base a tags en lugar de los antiguos sistemas de carpetas. Esto permite a los usuarios encontrar las páginas asociadas con un tag determinado. Muchas web sociales permiten a sus usuarios suscribirse a feeds para estar al corriente de webs que vayan apareciendo para determinados tags. Los social Bookmarks más relevantes son: * Technorati.com * del.icio.us * StumbleUpon.com * MyBlogLog.com * kaboodle.com * Bloglines.com * blinklist.com * netvouz.com * clipmarks.com * Furl.net * ma.gnolia.com * Mención especial merece la web AddThis, el primer intento serio de unificar el envío decontenido a las webs Sociales. dijo:Technorati.com http://www.technorati.com/ del.icio.us http://delicious.com/ StumbleUpon.com http://www.stumbleupon.com/http://www.kaboodle.com/ MyBlogLog.com http://www.mybloglog.com/ kaboodle.com http://www.kaboodle.com/ Bloglines.com http://www.bloglines.com/ blinklist.com http://www.blinklist.com/ netvouz.com http://www.netvouz.com/ clipmarks.com http://www.clipmarks.com/ Furl.net http://www.furl.net/ ma.gnolia.com http://ma.gnolia.com/ 4. Optimizar la arquitectura de la Home. La home es la página de entrada para la mayor parte de los visitantes. Es la página que dará acceso al resto de secciones de la web. Existen algunas pautas que se pueden aplicar al diseño de la home: 1. Muestre de manera clara, visible y concisa la finalidad de la web, qué ofrece y qué no puede ofrecer. * Incluya un slogan que resuma el cometido de la empresa o de la página. * Incluya un tíulo que describa el nombre de su marca o empresa y una breve descripción del Site. * Reserve una sección "About <company-name>" para incluir toda su información corporativa. 2. Indique claramente qué ofrece su empresa que sus competidores no pueden ofrecer. 3. Facilite a sus visitantes encontrar lo que buscan. * Destaque cláramente las cuatro secciones principales. * Ofrezca un buscador funcional y accesible. No incluya un titular "buscador", en vez de ello incluya en el botón la etiqueta "Buscar". * Diferencie visualmente los links ya visitados por el usuario de los que no ha visitado todavía. 4. Evite incluir un enlace a la home en la propia home, es posible que desoriente a sus visitantes. 5. Presente de manera clara a los usuarios el contenido que pueden encontrar en el resto del Site. * Muestre contenido real del resto de la web. * Describa en los links lo que el usuario encontrará al pinchar en ellos. * Facilite a los usuarios el acceso al resto de secciones e información destacada de la web. * Mantenga el acceso a aquellos servicios que se mostraron como destacados aunque ahora ya no lo sean. 6. Utilice recursos visuales para destacar información real pero no sobrecarge la página utilizándolos gratuitamente. * Los usuarios tienden a no prestar atención a los gráficos si consideran que son publicitarios y se centran en las partes de la home que ofrecen información de utilidad. * Utilice gráficos con significado para los usuarios que le ayuden a transmitir una idea o funcionalidad. 5. Fidelizar visitantes Tan importante como conseguir visitantes nuevos es conseguir fidelizar las visitas para conseguir que vuelvan de manera periódica a nuestra web. Los puntos clave son: 1. Recuros de sindicación RSS 2. Suscripción a boletines. 3. Ofrecer un contenido dinámico y actualizado a diario. 4. Ofrecer foros de discusión. 5. Ofrecer un diseño atractivo. 6. Conocer al cliente 7. Manener un Sistema estable y consistente que no desanime a los usuarios que nos visitaron. 6. Sistema de gestión de estadísticas. Durante el ciclo de vida de un Site es necesario contar con un Sistema de Gestión de Estadísticas fiable para monitorizar el tráfico de la web: fuentes de entrada, páginas vistas, tiempos de visita, keywords de entrada, etc. Los sistemas de gestión de estadísticas son la heramienta básica para identificar problemas y poder iniciar las acciones necesarias encaminadas a aumentar el tráfico web. Elementos estadísticos más importantes a considerar. Visitas. Las visitas representan el número de sesiones únicas de usuarios que acceden a una web. Una sesión representa el periodo desde que un usuario accede al Site hasta que lo abandona. Conocer la evolución de las visitas nos permite evaluar la popularidad de nuestra web y el éxito de las acciones de marketing. Hay dos factores a considerar: 1. Estabilidad y tendencias de las visitas. 2. Comparación con la competencia. Páginas vistas. Conocer el número de páginas vista y el tiempo de visita nos permite evaluar el interés que despierta nuestra web en los visitantes. Un promedio alto de páginas vistas es un síntoma de visitas de calidad. * Tráfico bien orientado. * Contenido de alta calidad. Promedio de tiempo en el sitio El valor de esta variable tiene algún tipo de margen de error por todos los usuarios que dejan abiertas las ventanas del navegador, aunque ya no estén consultando o utilizando el sitio. Porcentaje de rebote El porcentaje de rebote indica qué cantidad de usuarios abandonaron la web desde la propia página de entrada y sin visitar ninguna otra página. Un porcentaje de rebote alto indica que nuestros visitantes nos encontraron por casualidad y sin estar realmente interesados en lo que podemos ofrecerle. Esta variable nos permite conocer si nuestras páginas están correctamente segmentadas y si ofrecen a los usuarios el contenido que esperan encontrar. Páginas más visitadas.Conocer las páginas más visitadas permite deducir qué productos y servicios despiertan más interés en los usuarios y cuáles están pasando desapercibidos. Porcentaje de visitas nuevas. Los informes «Frecuencia» y «Fidelización» permiten al webmaster conocer la frecuencia con la que regresan al sitio los usuarios y las veces que lo hacen. Un porcentaje alto de visitas nuevas es síntoma de una web bien segmentada, que ha penetrado correctamente en un gran número de sitios y que por tanto goza de un gran poder de captación de usuarios. Un porcentaje alto de visitas recurrentes es síntoma de una web que por su contenido o utilidad tiene un gran poder de fidelización de usuarios. Fuentes de entrada.Conocer las fuentes de entrada nos permite conocer desde qué Sites se nos enlaza y qué porcentaje de visitas proviene de motores de búsquedas. Keywords de búsqueda.Conocer los keywords de búsqueda nos permite hacernos una idea de nuestro posicionamiento en buscadores y monitorizar la eficacia de nuestras acciones SEO. Ruta de navegación.Estudiar las rutas de navegación de los usuarios nos permite deducir si nuestras páginas objetivo son accesibles fácilmente y si los usuarios pueden realizar sus cometidos en la web (por ejemplo una compra) de manera sencilla y eficiente. Los datos deben ser examinados por un experto para poder tomar acciones correctivas y ajustes que sean necesarios. Sistemas de Gestión de estadísticas. Existen varios sistemas de gestión de estadísticas gratuitos: * GoogleAnalytics: nos pemite conocer de manera detallada qué acciones de e-marketing son más rentables y analizar cómo interactúan los usuarios con la web. Google las desarrolló en base a la compra de Urchin, la compañía más importante de análisis estadístico de páginas web. dijo:GoogleAnalytics http://www.google.com/analytics/ * Clicky: es un servicio para pequeños sitios webs y blogs que abarca todos los análisis necesarios para un sitio. dijo:Clicky http://www.getclicky.com/ * Enquisite: enfocado específicamente para el estudio de visitas provenientes de buscadores y tráfico pay per click. dijo:Enquisite http://www.enquisite.com/ * CrazyEgg: Utilidad que genera los heatmaps de una web para mostrar las zonas del sitio en las que interactúan los usuarios. dijo:CrazyEgg http://crazyegg.com/ * 103bees: Servicio enfocado en el análisis del tráfico proveniente de motores de búsqueda. dijo:103bees http://103bees.com/ * Measure Map: Ofrece estadísticas web para bloggers sencillas y fáciles de entender. dijo:Measure Map http://www.measuremap.com/ * Whos.amung.us: Información en tiempo real sobre los visitantes que se encuentran en un Site. dijo:Whos.amung.us http://whos.amung.us/ * FeedBurner: Ofrece Información sobre los usuarios que se han suscripto a los feeds de una web. Cabe mencionar que FeedBurner ha sido adquirido recientemente por Google para formar a ser su referente para la sindicación de contenidos. dijo:FeedBurner http://www.feedburner.com/fb/a/home * Snoop: Utilidad de escritorio que ofrece información en tiempo real sobre los eventos que acontecen en una web. dijo:Snoop http://report.reinvigorate.net/snoop * ClickTale: Ofrece Heatmaps y permite ver en vídeo la actividad de los visitantes sobre las páginas de una web. dijo:ClickTale http://www.clicktale.com/ * MyBlogLog: Además de ser una red social para blogs ofrece datos estadísticas muy interesantes. dijo:MyBlogLog http://www.mybloglog.com/ 7. El tráfico web no da la felicidad... Una web con un gran número de visitantes no siempre es sinónimo de una web con éxito. Imagínese que por un azar de la vida, un buen día compró el dominio gogle.com(fíjese que sólo he incluído una o), y su web recibe al cabo del día cientos de miles de visitas, la mayor parte de pobres navegantes que se equivocaron a la hora de teclear la dirección de su buscador favorito. La repercusión de este enorme flujo de visitas sería desastroso para usted: * En primer lugar el 99,9% de sus visitantes abandonarían la página nada más acceder a la home y percatarse de que la suya no es la web que estaban buscando. * Su servidor web se vería incapaz de manejar tal carga de tráfico y se caería de manera irremediable una y otra vez hasta que su proveedor de hosting le obligara a pagar una millonada por el ancho de banda que requiere su tráfico diario. * Si tuviera la tentación de maquillar su home para que se pareciera a la oficial de Google, posiblemente se ganará una demanda millonaria y un gran quebradero de cabeza. El tráfico de una web debe ser canalizado hacia el objetivo u objetivos para los que fue concebida una web. El ratio de conversión mide el porcentaje de visitantes que cumplieron un objetivo, por ejemplo comprar un artículo o registrarse en un formulario. Es por tanto responsabilidad del webmaster ofrecer una web atractiva, estable e intuitiva que facilite el trabajo de sus visitantes y no les desanime en su propósito. Por todo esto deberíamos concluir que el tráfico web no da la felicidad...pero desde luego, ayuda a conseguirla. Fuente: http://www.hellogoogle.com/ Bien este es el final del post, espero que les haya gustado y sobre todo que les sea de utilidad, recuerden que comentar es agradecer y si agregan a Favoritos, no cuesta nada comentar , desde ya un saludo a toda la comunidad.

0
0
E
Engañar a Google
InfoporAnónimo10/9/2008

Estas son las armas más utilizadas para engañar a google. Estas técnicas fraudulentas pueden conseguir logros en el posicionamiento, pero también es una tarjeta “roja directa” para ser expulsado por google, o lo que es lo mismo, dejar de existir en Internet. Hay quien aprovecha “la inocencia del cliente” usando alguna de estas tácticas para conseguir un buen posicionamiento, … lo barato puede llegar a ser muy caro. Porque una vez que te pillan… olvídate. Y Google tiene muchas herramientas para tarde o temprano detectar estos fraudes. Estas son algunas de las más conocidas… Cloaking Esta técnica hace que a unos usuarios se les enseñe una página y a otros otra. Al usuario le mostramos la página normal y si es un buscador el que nos está visitando le mostramos otra, llena de palabras y frases clave para un buen posicionamiento. Esta técnica está ya muy detectada y penalizada. Texto Oculto Se trata básicamente en ocultar el texto con el mismo color que el fondo que lo contenga. Igual que en el caso anterior, pondremos palabras y frases clave para el buscador. Muy conocido y penalizado. Granja de Enlaces Éste es quizá de los temas más peligosos, ya que no sólo puedes crearlo tú para favorecerte, sino que pueden incluirte para penalizarte. Una granja de enlaces, como su nombre indica, es una página web en la que hay muchísimos enlaces que se supone que hacen que los buscadores entren y visiten tu sitio web muchas veces. El problema está en que si tu sitio web entra en una página (o redes de páginas) que están penalizadas, pueden llegar a hacerlo con la tuya, por lo que siempre es importante hacer un seguimiento para saber desde dónde nos enlazan. Programas del tipo WebPosition Gold™ están muy penalizados. Páginas Puerta Algo que también está penalizado y que mucha gente no sabe son las páginas puerta… aquellas páginas típicas en las que pone “español” o “inglés”, o pone “entrar aquí”… y que están repletas de un montón de palabras sin ningún orden. Pueden llegar a hacer que un sitio web entero sea penalizado. Contenido Duplicado Otra técnica que no debe utilizarse es la de “tomar prestado” los contenidos de las primeras posiciones (por ejemplo) y hacer cloaking o ponerlos como si fueran nuestros. La duplicidad de contenidos no está bien vista y lógicamente se penaliza a aquellas páginas que utilizan una copia de ellos… Spam y Splog Una de las técnicas que también se llegan a utilizar con bastante frecuencia es la de ofrecer a los webmasters que pongan su sitio web en el del que envía el mensaje. El sistema es muy simple… se hace una búsqueda en un buscador y se crea un mensaje que luego llega por correo electrónico que te dice que ha encontrado tu web en ese buscador por esa frase de búsqueda, y que puedes añadirla gratis en su sitio web. Lógicamente ese sitio web es una trampa, ya que no suele haber opción de enviar la web, y si lo es, es una granja de enlaces totalmente penalizable como ya hemos comentado anteriormente. Otra técnica que ahora está empezando a florecer es la de los comentarios en los weblogs, llamada splog (spam blog), y que se puede dar también creando un blog únicamente con esas palabras clave que se quieren posicionar y que luego envían a nuestro sitio web. Al igual que el resto, los buscadores están poniendo muchos medios y esfuerzos en combatir este tipo de prácticas que al final lo único que hacen es perjudicarnos. Redirección con Javascript Muchas veces queremos que al llegar un usuario a nuestra web realmente se redireccione a otro lugar… y por eso muchos webmasters, creyendo que los robots de búsqueda no saben interpretar Javascript, utilizan técnicas con la función eval(); que permiten, entre otras cosas, hacer redirecciones a otras páginas. Tal vez los robots no sepan interpretar el 100% de las funciones de Javascript o de VBScript, pero las más sencillas están implementadas para detectar este tipo de trampas. NoScript Como muchos piensan que los robots de búsqueda no saben leer JavaScript (cosa que no es cierta), utilizan las zonas de noscript para escribir o indicar hacer ciertas cosas que sólo los robots verán y que los usuarios no, ya que se suelen usar navegadores lo suficientemente modernos para que todos interpreten lenguajes de este estilo. Existen muchos más métodos, pero quizás estos sean los más conocidos. Lo que está claro es que posicionar una web, no es fácil, así que lo mejor es huir de estos métodos, porque es muy seguro que nos manden a casita sin posibilidad alguna de volver a aparecer en un buscador importante. Bueno, espero que les haya gustado y recuerden, "Comentar es Agradecer

0
0
PosteameloArchivo Histórico de Taringa! (2004-2017). Preservando la inteligencia colectiva de la internet hispanohablante.

CONTACTO

18 de Septiembre 455, Casilla 52

Chillán, Región de Ñuble, Chile

Solo correo postal

© 2026 Posteamelo.com. No afiliado con Taringa! ni sus sucesores.

Contenido preservado con fines históricos y culturales.