fedee9
Usuario
" Disco duro , una o varias láminas rígidas de forma circular, recubiertas de un material que posibilita la grabación magnética de datos. Un disco duro normal gira a una velocidad de 3.600 revoluciones por minuto y las cabezas de lectura y escritura se mueven en la superficie del disco sobre una burbuja de aire de una profundidad de 10 a 25 millonésimas de pulgada". **Enciclopedia encarta 2001 El disco duro va sellado para evitar la interrupción de partículas en la mínima distancia que existe entre las cabezas y el disco. Los discos duros proporcionan un acceso más rápido a los datos que los discos flexibles y pueden almacenar mucha más información. Al ser las láminas rígidas, pueden superponerse unas sobre otras, de modo que una unidad de disco duro puede tener acceso a más de una de ellas. La mayoría de los discos duros tienen de dos a ocho láminas. De todos los componentes de una PC, el disco duro es el más sensible y el que más requiere un cuidadoso mantenimiento. La detección precoz de fallas puede evitar a tiempo un desastre con pérdida parcial o total de información. Un disco duro puede presentar diversas anomalías, generalmente corregibles: - Proceso de espacio disponible. - Espacio ocupado por archivos innecesarios. - Clusters o cadenas perdidas. - Direccionamiento cruzado de archivos. - Copias 1 y 2 de la fat no coincidentes. - Sector de arranque alterado o dañado. - Sectores físicamente dañados. - Alto porcentaje de Desfragmentación. Cuando el espacio libre de un disco se acerca peligrosamente a cero, la PC entra en una fase de funcionamiento errático: se torna excesivamente lenta, emite mensajes de error (que en ocasiones no especifican la causa), algunas aplicaciones no se inician, o se cierran después de abiertas, etc. Como factor de seguridad aceptable, el espacio vacío de un disco duro no debe bajar del 10% de su capacidad total, y cuando se llega a este límite deben borrarse archivos innecesarios, o desinstalar aplicaciones que no se usen, o comprimir archivos, o comprar un disco de mayor capacidad. Todas las aplicaciones de Windows generan archivos temporales. Estos archivos se reconocen por la extensión .tmp y generalmente existe uno o varios directorios donde se alojan. En condiciones normales, las aplicaciones que abren archivos temporales deben eliminarlos cuando la aplicación concluye, pero esto a veces no sucede cuando se concluye en condiciones anormales, o Windows se tarda o por una deficiente programación de la aplicación. Windows incluye en la ventana de Propiedades de las unidades de disco duro un utilitario de limpieza. Existen otros utilitarios, como el Norton Utilities o el Norton Works que incluyen esta función. Pero si no se cuenta con ninguna de estas herramientas puede hacer una búsqueda de archivos temporales en todo el disco: Inicio...Buscar...Archivos o carpetas , indicando: *.tmp. En el (los) disco(s) duro(s), seleccionando la casilla: Incluir subcarpetas . Al finalizar la búsqueda indique en la misma ventana: Edición ... Seleccionar todo y pulse la tecla de Borrar . Existen otro tipo de archivos que pueden borrarse, y no son temporales: la papelera de reciclaje, el caché de Internet (windows temporary Internet files) y algunas carpetas que permanecen el disco después que se baja o se instala un programa. El caché de Internet debe borrarse si resulta estrictamente necesario, ya que después de borrado no podrán verse las páginas visitadas sin estar conectado. Debe hacerse mediante la función explícita del navegador, y además ajustarse el tamaño del caché. En el Internet Explorer debe ir a Herramientas; Opciones de Internet; Archivos temporales de Internet, donde podrá borrar los archivos y ajustar el espacio de disco asignado. Un usuario experimentado puede intentar otras posibilidades, como por ejemplo eliminar DLL duplicadas, instaladores, datos de aplicaciones desinstaladas, etc. Debe obrar con mucho cuidado cuando haga esta "limpieza profunda" y si no hay plena seguridad de que un archivo en cuestión puede ser borrado, no debe eliminarlo de la papelera de reciclaje hasta comprobarlo, pudiendo reponerse a su ubicación original si resultara necesario. Otra posibilidad que puede producir notables incrementos del espacio disponible es la compresión de archivos o directorios completos. Si Usted tiene instalada una aplicación voluminosa que utiliza muy ocasionalmente, puede comprimir el directorio completo y descomprimirlo solamente cuando la use. El más popular de los programas de compresión es el Winzip, mediante el cual puede comprimir carpetas completas con todas las subcarpetas y archivos, obteniéndose a veces reducciones de más del 50% del espacio originalmente ocupado. Fuente: http://www.mailxmail.com/curso/informatica/mantenerordenador/capitulo13.htm

Googlebot: el rastreador web de Google Googlebot es el robot de rastreo web de Google. También se denomina “spider” (araña). Recopila documentos de la web para crear un índice en que se puedan realizar búsquedas (Google.com). En este tema veremos las respuestas a las preguntas más frecuentes acerca de cómo funciona este rastreador web. 1. ¿Con qué frecuencia viene Googlebot a mis páginas web? En la mayoría de los sitios, Googlebot no debería acceder a su sitio más de una media estimada de una vez al cabo de unos segundos. Sin embargo, a causa de retrasos en la red, es posible que el porcentaje parezca ligeramente superior en períodos cortos de tiempo 2. ¿Cómo puedo solicitar que Google no rastree mi sitio o una parte de él? robots.txt es un documento estándar que notifica a Googlebot que no debe descargar información total o parcialmente desde su servidor web. El formato del archivo robots.txt está especificado en el Robot Exclusion Standard. Para obtener instrucciones detalladas acerca de cómo evitar que Googlebot realice el rastreo de todo su sitio o de parte de éste, consulte la página Cómo eliminar elementos del índice de Google. Recuerde que los cambios en el archivo robots.txt de su servidor no se reflejarán inmediatamente en Google. Se detectarán y propagarán la próxima ocasión que Googlebot rastree su sitio 3. Googlebot rastrea mi sitio demasiado rápido. ¿Qué puedo hacer? Ante esta situación, se debe enviar un mensaje a Google en el que les indique la URL de su sitio y una descripción pormenorizada del problema. Incluya también una parte del registro web que muestra los accesos a Google. 4. ¿Por qué Googlebot solicita un archivo denominado robots.txt que no se encuentra en mi servidor? robots.txt es un documento estándar que notifica a Googlebot que no debe descargar información total o parcialmente desde su servidor web. Para obtener información acerca de cómo crear un archivo robots.txt, consulte el Robot Exclusion Standard. Si lo único que quiere es evitar que aparezcan en el registro de su servidor web los mensajes de error "no se ha encontrado el archivo", puede crear un archivo vacío que se llame robots.txt. 5. ¿Por qué Googlebot intenta descargar vínculos incorrectos de mi servidor o de un servidor que no existe? Es un hecho que muchos vínculos de la web estarán rotos u obsoletos en un momento concreto. Cuando un usuario publica un vínculo incorrecto hacia su sitio (debido quizá a un error tipográfico o de ortografía) o no actualice sus vínculos para reflejar los cambios en su servidor, Googlebot intentará descargar un vínculo incorrecto desde su sitio. Ésta es la razón por la cual puede obtener resultados en una máquina que no es un servidor web. 6. ¿Por qué Googlebot descarga información de nuestro servidor web "secreto"? Es casi imposible mantener un servidor web "secreto" no publicando vínculos hacia él. Cuando un usuario sigue un vínculo desde su servidor "secreto" a otro servidor web, es probable que su URL "secreta" se incluya en el código de referencia, por lo que podrá ser almacenada y posiblemente publicada por el otro servidor web en su registro de referencia. Por lo tanto, si existe un vínculo a su servidor o página web "secretos" en cualquier lugar de la web, es probable que Googlebot y otros rastreadores web lo encuentren. 7. ¿Por qué Googlebot no obedece a mi archivo robots.txt? Para ahorrar ancho de banda, Googlebot sólo descarga el archivo robots.txt una vez al día o cuando han recogido un número importante de páginas del servidor. Por lo tanto, es posible que a Googlebot le lleve un tiempo ponerse al corriente de los cambios en su archivo robots.txt. Además, Googlebot se encuentra distribuido en varias máquinas, cada una de las cuales mantiene un registro propio de su archivo robots.txt. Siempre sugerimos que se compruebe si la sintaxis es correcta, comparándolo con el estándar en http://www.robotstxt.org/wc/exclusion.html#robotstxt. Una fuente habitual de problemas es que el archivo robots.txt no está ubicado en el directorio principal del servidor (por ejemplo, www.mihost.com/robots.txt); situar el archivo en un subdirectorio no tendrá ningún efecto. Igualmente, existe una pequeña diferencia entre la manera en que Googlebot utiliza el archivo robots.txt y la manera en que se debería utilizar según el estándar robots.txt (sin olvidar la distinción entre "debería" y "debe". El estándar indica que deberíamos utilizar la primera regla aplicable, pero Googlebot obedece a la más larga (es decir, la más específica). Esta práctica que resulta más intuitiva hace coincidir lo que las personas hacen en realidad con lo que esperan que hagamos. Por ejemplo, tenga en cuenta el siguiente archivo robots.txt: User-Agent: * Allow: / Disallow: /cgi-bin Es evidente que la intención del webmaster es permitir que los robots rastreen todo excepto el directorio /cgi-bin. En consecuencia, es lo que en Google hacen. # ¿Por qué se producen resultados desde varias máquinas en Google.com, todas con el agente usuario Googlebot? Googlebot se ha diseñado para distribuirse en varias máquinas para mejorar el rendimiento y adaptarse al crecimiento de la web. Además, para reducir el uso de ancho de banda, ejecutan varios rastreadores en máquinas situadas cerca de los sitios que están indexando en la red. # ¿Pueden facilitarme las direcciones IP desde las que Googlebot realiza los rastreos para que pueda filtrar mis registros? Las direcciones IP utilizadas por Googlebot cambian de vez en cuando. La mejor manera de identificar los accesos de Googlebot es utilizar el agente usuario (Googlebot). # ¿Por qué descarga Googlebot en mi sitio la misma página varias veces? En general, Googlebot deberá descargar únicamente una copia de cada uno de los archivos de su sitio en un rastreo dado. De manera ocasional, el rastreador se detiene y se reinicia, lo que puede provocar que realice el rastreo de páginas que ha recuperado recientemente. # ¿Por qué las páginas de mi sitio que ha rastreado Googlebot no aparecen en su índice? No se preocupe si no puede encontrar inmediatamente documentos que Googlebot ha rastreado en el motor de búsqueda de Google. Los documentos se introducen en nuestro índice poco después de haber sido rastreados. En ocasiones, los documentos obtenidos por Googlebot no se incluyen por diversas razones (por ejemplo, por parecer duplicados de otras páginas de la web). # ¿Qué tipo de vínculos rastrea Googlebot? Googlebot rastrea los vínculos HREF y SRC. # ¿Cómo puedo evitar que Googlebot rastree los vínculos de mis páginas? Para evitar que Googlebot rastree vínculos de sus páginas que enlazan con otras páginas o documentos, deberá insertar el siguiente metacódigo en la cabecera de su documento HTML: <META NAME="Googlebot" CONTENT="nofollow"> Si desea obtener más información acerca de los metacódigos, consulte http://www.robotstxt.org/wc/exclusion.html#meta; también puede leer lo que indican los estándares HTML al respecto. Recuerde que los cambios que aplique en su sitio no se reflejarán inmediatamente en Google, sino que se detectarán y propagarán la próxima ocasión que Googlebot rastree su sitio. # ¿Cómo le especifico a Googlebot que no rastree un vínculo que aparece solo en una página? Los metacódigos pueden excluir todos los vínculos salientes de una página, pero también puede indicar a Googlebot que no rastree los vínculos individuales añadiendo rel="nofollow" a un hipervínculo. Cuando Google detecte el atributo rel="nofollow" en algún hipervínculo, éste se omitirá en la clasificación de sitios web en nuestros resultados de búsqueda. Por ejemplo, el vínculo <a href=http://www.ejemplo.com/>¡Un vínculo excepcional!</a> se podría sustituir por <a href=http://www.ejemplo.com/ rel="nofollow"> No puedo responder por este vínculo</a>.
Para aumentar la velocidad de navegación HTTP, y visualizar así las páginas Webs más rapidamente, sigue estos pasos: Haz clic en el botón Inicio y luego en Ejecutar, escribe Regedit y pulsa el botón Aceptar. Una vez estás en el editor del registro busca la siguiente cadena: HKEY_CURRENT_USERSoftwareMicrosoftWindowsCurrentVersionInternetSetting En la ventana de la derecha, crear o modificar los valores DWORD siguientes: MaxConnectionsPerServer: doble clic sobre ese valor y escribir 4 decimal (para ADSL escribir 20) MaxConnectionsPer1_0Server : doble clic sobre ese valor y escribir 8 en decimal (para ADSL escribir 20) Esos valores corresponden al número de demandas simultáneas de acceso a un servidor de tipo 1 o 1.1. Cerrar Regedit y reiniciar Windows
Registrate y eliminá la publicidad! A aprender link: http://www.videos-star.com/watch.php?video=Gudlri_yMTE link: http://www.videos-star.com/watch.php?video=_hhKSrQKw8g Chicas no se enojen jeje