CRISTOFER95
Usuario (Argentina)
Mucha gente tiene la idea de que las actualizaciones de Windows no sirven para nada y es mejor no descargarlas: ''el técnico o un amigo que me instaló Windows me recomendó no descargarlas para evitar problemas''. Eso es un error. Las actualizaciones de seguridad de Windows solucionan vulnerabilidades del sistema y lo hacen más seguro y estable, por lo tanto son necesarias y descargarlas es recomendado, sobre todo si la PC está expuesta a las amenazas de internet. No lo recomiendo sólo yo, además de ser algo lógico, todos los sitios sobre seguridad en internet lo recomiendan. Microsoft generalmente libera los parches el segundo martes de cada mes y las descargas se encuentran disponibles en Windows Update y por el sistema automático de descargas de Windows. ¿De dónde surge la leyenda de que las actualizaciones son malas? Surge por el Windows Genuine Advantage (WGA), un programa ActiveX que se encarga de comprobar si el sistema operativo es original o no. En el caso de que Windows XP no sea original, aparece un molesto icono y mensaje junto al reloj que engaña a los usuarios diciendo que se encuentran en riesgo, además al iniciar Windows también se muestra el mensaje y se demora algunos segundos el inicio del sistema. La idea del WGA es limitar a los usuarios piratas con algunas descargas desde la web de Microsoft, además de asustar a más de uno para que compre una licencia original. Las descargas críticas y de seguridad no se ven limitadas por tener una copia pirata, es decir, Microsoft permite su descarga e instalación No instales el WGA si tu Windows es pirata... La instalación del WGA se puede evitar y no instalarlo es lo ideal si se tiene una versión pirata, más allá de que existen métodos para eliminar el WGA del sistema o simular que se tiene un Windows original (leer: Actualizar un Windows XP que no es original). Para evitar el problema del WGA, una opción es configurar las actualizaciones de Windows para que se nos notifique de la existencia de los parches pero estos no sean descargados ni tampoco instalados, hasta que nosotros les demos el visto bueno. Esto se logra desde el Centro de Seguridad en el panel de control Con el sistema configurado así, todos los meses el sistema de actualizaciones de Windows nos permitirá descargar los nuevos parches de seguridad. En la ventana de descargas podremos seleccionar qué actualizaciones descargar y cuáles descartar, por supuesto que debemos descartar la del WGA. La advertencia que se observa, aparece automáticamente cuando no seleccionamos una actualización, de esta forma evitaremos que Windows nos recuerde a diario su descarga. fuente:http://spamloco.net/2007/12/es-bueno-actualizar-windows.html
hola amigos les traigo mi velocidad 3g de personal (telecom arg) plan ilimitado realise un test para saver que velocidad tengo por que ellos me prometieron 2 mega y descubri que tengo mas de 2 mega la cuestion mia por que me dan esa velocidad me cobraran mas ___ el test fue realizado del siguien link LINK http://www.speedtest.net este siguiente estaba descargando un juego mientras subia archivo alas 4:28 de la tarde este es para comprobar durante el dia DE DIA aka link pa ver grande :http://s2.subirimagenes.com/fotos/previo/thump_47582743g-de-personal.jpg DESCARGABA A UNA VELOCIDAD DE 125,513 kbps SUBIA A UNA VELOCIDAD DE 12,27 kb/s jueves 8 de julio de 2010 3:15 editado 9 de julio de 2010 16 de julio 2010 weno aki de nuevo ahora miren la velocidad que logre con un truco que encontre en taringa de madruga eso de la 4:00 a 8 am tengo 7 mbps EDITADO 30 de julio 2010 3 agosto 2010 29 agosto 2010 04:12 P.M lunes 25 de octubre 2010 25 de noviembre 2010 con otra pagina de test de velocidad 4 de mayo 2011 QUERES QUE TE ANDE A ESA VELOCIDAD CLIKEA EN EL LINK http://www.taringa.net/posts/ebooks-tutoriales/6829385/tenes-un-modem-3g-te-anda-lento-entra.html
Buscar frase exacta - Si quieres buscar una frase exacta, introdúcela entre comillas ("" )Por ejemplo: "diarios deportivos" Encontrar páginas que incluyan determinadas palabras - Para encontrar páginas que incluyan determinadas palabras, pero no otras, deberemos incluir el signo '-' delante de las que no queremos buscar. Por ejemplo, para descubrir webs que incluyan la palabra 'tienda', pero no la palabra 'online': tienda -online Encontrar páginas que incluyan una determinada palabra u otra - Si pretendemos encontrar una determinada palabra u otra, usaremos 'OR' (o bien el símbolo '|' (AltGr+1). Por ejemplo, para buscar webs de en los que aparazca 'tienda' y 'zapatos', o bien 'tienda' y 'pantalones': tienda (zapatos OR pantalones) tienda (zapatos | pantalones) Forzar palabras para su búsqueda - Hay numerosas palabras (en español: 'a', 'de', ' el ', ...; en inglés: 'to', 'of', 'the',...) que Google no tiene en cuenta en sus búsquedas, a no ser que lo indiquemos. Para ello, escribiremos el signo '+' delante de estas palabras. Por ejemplo, estas dos búsquedas no generan los mismos resultados: el mundo + el mundo Uso de comodines - Se puede hacer uso de comodines. Esto es, el símbolo '*' puede ser usado para sustituir a una palabra, y facilitar algunas búsquedas. Por ejemplo: "los * años" "los * * años" Mayúsculas y minúsculas - No es necesario distinguir las mayúsculas de las minúsculas. Estas dos búsquedas generan los mismos resultados: NoTiCiAs noticias Uso del comando Lista todos los enlaces, que teniendo page rank 4 o más, apuntan a nuestra página. Su uso es sencillo: link:www.direccion.com Uso del comando Allinurl: Muestra todas las páginas indexadas de un dominio indicado, o bien, las páginas que tienen todas las palabras especificadas en su url. Su sintaxis es: allinurl:www.dominio.com Uso del comando Allintitle: Muestra las páginas que tienen todas las palabras especificadas en su título. allintitle: palabra1 palabra2 Devuelve las páginas que tienen palabra1 y palabra2 en su título. Uso del comando Allintext: Páginas que tengan todas las claves especificadas dentro de su body. Uso del comando Allinanchor: Páginas que tengan en el texto que las apuntan las palabras especificadas. Uso del comando Site: Indica un determinado dominio que le indiquemos para realizar la búsqueda. Un ejemplo de su uso sería: site:www.dominio.com palabra Esto busca todas las páginas con alguna ocurrencia 'palabra' dentro del dominio especificado. También lo podemos usar para saber cuántas urls tiene indexadas google de un dominio: Ejemplo: site:taringa.net Buscar Buscar en taringa.net Uso del comando Info: Nos muestra información sobre la página principal de un dominio especificado. info:www.dominio.com Uso del comando Inurl: Busca la palabra que le especifiquemos en la url, pero no pide que todas estén en la url como allinurl. Uso del comando Intitle: Busca la palabra que le especifiquemos en el título, pero no es necesario que todas estén en el título. Por ejemplo intile:clave1 clave2 Busca clave1 en la url. Uso del comando Cache: Nos lleva directamente a la versión que tiene google de una determinada página. cache:www.dominio.com Y directamente a la caché que tiene almacenada google de www.dominio.com. Uso del comando Related: Según google nos muestra sitios relacionados con la dirección que le especifiquemos, a saber que criterio sigue, porque los resultados más que malos, son nulos. No merece la pena usarlo. Uso del comando Stocks: Nos lleva a Yahoo Finance y nos muestra información de tipo financiero relacionada con la marca que le indiquemos. Uso del comando Filetype: Busca un tipo de documento especificado, por ejemplo: filetype:doc clave Busca ficheros '.doc' relacionados con 'clave'. ¿Útil, no?. Uso del comando Define: Para buscar la definición de una palabra debemos utilizar la palabra "define:" seguido de dos puntos, luego de los dos puntos debemos indicar la palabra a buscar. "hacker" "define:hacker" Operadores en google 1. " " : Las comillas son un tipo de operador especial que usaremos para buscar cadenas exactas. "Clave1 y Clave2", busca páginas con esa ocurrencia exacta, clave1 seguido de y , a su vez seguido de clave2. 2. '+' : Es el operador AND, busca esto, y esto otro. 3. '-' : Especifica que no se busque lo que sigue al '-'. Ejemplo: clave1 -clave2, busca páginas relacionadas con 'clave1' pero en las que no aparezca 'clave2'. 4. OR : El operador OR, siempre va en mayúsculas. Busca bien esta cosa, esta otra, o las dos. clave1 OR clave2, busca páginas relacionados con algunas de las dos claves o con las dos. 5. 1850..1900: Búsquedas por rango de números. Utilidades en google 1. www.dominio1.com OR www.dominio2.com : Gracias a esto podemos comparar dos páginas de temáticas completamente diferentes y ver cual de las dos está mejor valorada por google , sin centrarnos en términos particulares. 2. inurl:addurl o inurl:addurl clave.: Y tendremos unas cuantas direcciones para dar nuestra página de alta, si añadimos clave al lado, tendremos más posibilidades de que nos salgan páginas relacionadas con la clave escrita. 3. site:www.dominio.com -cadena: Suponiendo que 'cadena' no sale en ninguna página de www.dominio.com, google nos listará directamente todas las páginas que tenga indexadas de ese dominio. 4. "+www.dominio.+.com": Lista todas las páginas en las que aparece la cadena exacta www.dominio.com. Búsquedas en Google a través del e-mail Hay ocasiones en que no se tiene acceso a navegar por Internet pero sí al e-mail, y un buen modo de adelantar trabajo es poder realizar una búsqueda en Google a través del correo electrónico. Para esto sólo hay que enviar un mensaje a google -DE-capeclear.com, poner en el asunto las palabras clave de tu búsqueda y al poco tiempo recibirás los resultados de la búsqueda en tu buzón de correo electrónico. Enlace directo: Más útil es la siguiente idea: almacena este enlace a Google por e-mail en tu escritorio. ¿Cómo?, haz click derecho sobre el enlace y pulsa en ->Copiar acceso directo, y luego haz click derecho sobre tu escritorio y pulsa en -> Pegar acceso directo. Así tendrás creado un acceso directo a las búsquedas en Google , a tu alcance. Las 100 webs más citadas de la red Un par de datos muy curiosos: ¿Cómo saber cuáles son las webs más citadas de la red según google ? Poned "http" (sin comillas) en la caja de búsqueda y voilà!: - Las 100 webs más citadas en inglés. - Las 100 webs más citadas en castellano. Una calculadora de PageRank - Google PageRank Report - Google PageRank Prediction - Find out your Google PageRank easy! - Estimate your PageRank without the Google toolbar! - Check your Google PageRank using our Google PageRank calculator - Google pagerank analysis tool - Keyword Pagerank Finder - Google 's PageRank - Calculator Una aplicación para vigilar a googlebot Para todos aquellos que necesitáis saber cómo, cuándo, etc., indexa googlebot vuestra web, gracias a Fernando os brindamos esta aplicación tan interesante, googlestats. Otra es RobotStats. Está escrita en php y analiza en forma de estadísticas lo que hace googlebot cuando os visita Posicionamiento web en Google El posicionamiento en buscadores se ha convertido en los últimos tiempos en una de las herramientas más cotizadas por los webmasters. En particular, aparecer en las primeras posiciones en Google es algo indispensable si quieres generar tráfico hacia tu sitio web, ya que Google responde a casi el 60% de las búsquedas de Internet. El tutorial que te proponemos te ayudará a conseguir un buen posicionamiento web, pero no esperes resultados en unos días, ni en unas semanas, ni quizá en meses. Se trata de un trabajo constante -generando contenidos, optimizando páginas web y buscando enlaces- cuyos resultados son a largo plazo. 1.- Buenos contenidos. Este es el punto principal, ya no solo para aparecer en los primeros puestos en Google , sino para que la gente visite tu sitio web. 2.- Tecnología web. Éstate informado de las últimas novedades en cuanto a servidores o lenguajes de programación. Te harán la tarea de gestionar los contenidos mucho más amena, y puedes "gustar más a Google ". 3.- Sencillez. Al robot de Google no le gustan las páginas con excesivas decoraciones y simplemente busca textos legibles y contenidos claros. 4.- Alta en Google . El primer paso para conseguir una buena posición en Google es aparecer en el buscador. Descubre cómo hacerlo. 5.- Conseguir enlaces. Es el pilar fundamental para obtener un PageRank alto. Intenta aparecer en los principales directorios (Yahoo! y DMOZ) y que te enlacen desde otros sitios web. 6.- Evitar penalizaciones. Google sabe que muchas personas le intentan engañar, y está empezando a tomar medidas contra páginas web que realizan prácticas poco éticas para mejorar su posicionamiento. Infórmate de cuáles son y cómo evitarlas. 7.- Conseguir ayuda. El posicionamiento requiere estar informado constantemente. google .dirson.com Historia del buscador Google Historia de Google . Los comienzos - primavera 1995: Sergey Brin (23 años entonces) y Larry Page (24), confundadores de Google y actualmente presidente y CEO, se conocen en un acto que la Universidad de Stanford organiza para los candidatos de su Doctorado en Informática. - otoño 1995: Larry y Sergey comienzan a trabajar en el 'Digital Library Project' de la Universidad de Stanford http://www-diglib.stanford.edu/. Larry Page, con experiencia en diseño web y el título de Ingeniero Eléctrico, y Sergey Brin, un experto en tratamiento de datos y Licenciado en Informática y Ciencias Matemáticas, comienzan a crear un algoritmo para la búsqueda de datos. Esta tecnología se convertirá mas tarde en el corazón que hará funcionar a Google . El nombre que Larry Page da a esta tecnologia fue 'PageRank'. En su pagina web personal de la Universidad de Stanford, colgará en 1997 una presentacion que lo explica: 'PageRank: Bringing Order to the Web' http://hci.stanford.edu/~page/papers/pagerank/. - enero 1996: Comienzan a desarrollar un buscador llamado 'BackRub' http://web.archive.org/web/19971210065425/backrub.stanford.edu/backrub.html. Este nombre se lo dan debido a que la mayor habilidad de este motor de búsqueda es analizar los 'back links' (enlaces que apuntan a una determinada página). Tal y como indican en su descripción http://web.archive.org/web/19971210065425/backrub.stanford.edu/backrub.html, Backrub está escrito en Java y Python (incluso Larry Page postea alguna duda en los 'newsgroups' http://groups. google .com/groups?selm=page-0701962007020001%40qwerty.stanford.edu), y corre sobre varias máquinas Sun Ultra y Intel Pentium con Linux. La Base de Datos está alojada en un ordenador Sun Ultra II con 28GB de disco duro. Si tienes cualquier duda sobre el funcionamiento de este buscador , y no está contestada en sus FAQ http://web.archive.org/web/19971210065437/backrub.stanford.edu/FAQ.html, puedes llamar al (415) 723-3154, y preguntar por Larry. Los primeros usuarios son los alumnos y profesores de Stanford, que disfrutan de la precisión con la que el buscador encuentra datos en la web. - 1997: 'Backrub' se transforma en ' Google ' http://web.archive.org/web/19971210065417/backrub.stanford.edu/. Le otorgan este peculiar nombre por su parecido a la palabra 'googol', que en inglés es el nombre que que se da a la cifra '10 elevado a 100' (un uno seguido de 100 ceros). Ya tienen indexadas 24 millones de páginas. Mucho antes, ya han tenido problemas de capacidad en sus discos duros, y han tenido que idear ingenios basados en Lego, como este http://www-db.stanford.edu/pub/voy/museum/pictures/display/0-4- Google .html. En los comienzos de Google (en el dominio google .stanford.edu http://web.archive.org/web/19980502040303/ google .stanford.edu/), su diseño es aún más austero de lo que será posteriormente. En esta antigua versión se incluyen fotografías de los equipos que utilizan http://web.archive.org/web/19980502040406/ google .stanford.edu/googlehardware.html. Historia de Google . Fundando una empresa - 1997: Larry y Sergey han registrado el dominio ' google .com'. Además, han dado a conocer su tecnología a la 'Office of Technology Licensing' (OTL) http://otl.stanford.edu/ de la Universidad de Stanford, que será la encargada de contactar con diferentes compañías de Internet que puedan estar interesadas en Google . - enero 1998: A Sergey y Larry no les gusta ninguna de las ofertas recibidas, bien por ser económicamente bajas, o porque no van a desarrollar correctamente la tecnología. Por ello, deciden ser ellos los que creen su propia empresa. Es entonces cuando el dormitorio de Larry Page se convierte en el nuevo hogar de Google , llevando todos los equipos informáticos junto a su cama. La habitación de Sergey Brin, situada al lado de la de Larry, se convierte en la oficina financiera. Google sigue indexando paginas rápidamente, y Larry y Sergey necesitan mucha más capacidad en sus discos duros. Tienen que adquirir un terabyte, y finalmente consiguen comprar varios discos duros rebajados, todos por $15,000. A pesar de la 'fiebre de los punto com' de aquellos días, Larry y Sergey no consiguen encontrar un inversor que financie Google , y tienen que conseguir todo el dinero de sus familias y amigos íntimos. Mientras tanto, habían abandonado su Doctorado en Stanford. - verano 1998: En casa de un amigo común, Sergey y Larry conocen a Andy Bechtolsheim (cofundador de Sun Microsystems y vicepresidente de Cisco Systems), y comienzan a charlar sobre Google . Después de treinta minutos, Bechtolsheim les firma un cheque por $100,000, a nombre de ' Google Inc.'. Esta empresa, como tal, no existe, y para poder cobrar el cheque (que está dos semanas sobre la mesa de Larry), tienen que buscar un local, y fundar una nueva compañia: ' Google Inc.'. - septiembre 1998: Google Inc. abre sus puertas en un garaje que un amigo les alquila en Menlo Park, en California. Rápidamente, instalan varias líneas telefónicas, un cable modem, una línea DSL, y una plaza de aparcamiento para su primer empleado, Craig Silverstein (actualmente, Director de Tecnologia de Google ). 25 millones de páginas están indexadas (http://web.archive.org/web/19981111183552/ google .stanford.edu), y Google recibe diez mil consultas por día. La revista 'PC Magazine' lo incluye dentro de su lista 'Top 100 Web Sites' de 1998. - febrero 1999: La plantilla asciende a 8 personas, responde a 500.000 consultas por día, se trasladan a unas nuevas oficinas en Palo Alto, y firma su primer contrato comercial con RedHat, el cual empieza a suministrar el Sistema Operativo Linux de los servidores de Google . Mientras tanto, continúan con su campaña comercial: el boca a boca. google .dirson.com Preguntas directas que tienen respuesta directa en Google - Calculadora: (5 * 8) + 5 = 45 - Radio de la tierra: radius of earth in km - 90 grados fahrenheit en centígrados: 90 fahrenheit in centigrade - Un día en segundos: one day in seconds - 1 hora * 128 kbps en megabytes: 1 hour * 128 kbps in megabytes Servicio de comparación basado en Google En Google Fight puedes comparar cara a cara dos conceptos para conocer cuál de ellos es más popular que el otro. Por ejemplo: Raúl vs Ronaldo Todo sobre Google en Español - Google .dirson.com - Posicionamiento web en Google - Trucos de google Google Bombing ¿Qué es un ' Google Bombing'? Se trata de conseguir que una determinada página web aparezca, en la búsqueda de una o varias palabras concretas, en la primera posición de los resultados de Google . ¿En qué consiste un ' Google Bombing'? Los promotores del 'Googlebombing' piden a los responsables de otros sitios web que inserten enlaces del tipo: <A href=http://url_de_la_pagina>palabra1 palabra2</A> El ' Google Bombing' se basa en el núcleo del funcionamiento de Google : los enlaces. Cuantos más enlaces obtenga una determinada página con una palabra (o palabras) en concreto, más posibilidades tendrá de aparecer en las primeras posiciones. Incluso puede ocurrir que dentro de la página web objetivo del ' Google Bombing' no aparezca ni una sola vez las palabras de la búsqueda. Se trata de la misma técnica que se utiliza en el posicionamiento web, pero enfocada en una reivincidación social o política. ¿Cuál es la finalidad de un ' Google Bombing'? Los promotores pretenden que se identifique al protagonista de la página web víctima del ' Google Bombing' con la palabra buscada. Así, cuando se promovió el 'miserable failure' contra George Bush, se perseguía que los usuarios de Google identificaran al presidente de EEUU con un 'miserable fracaso'. ¿Qué otros ' Google Bombings' han dado resultado? :: Petrolero Prestige :: John Kerry - 'waffles' :: 'jew' ('judío') :: Jacques Chirac - 'magouilleur' :: Jan Peter Balkenende - 'raar kapsel' :: El príncipe holandés Willem-Alexander para la búsqueda slechte tanden ('dientes malos'), debido a su mal cuidada dentadura. :: 'Memorias de un Geek' propuso uno contra la SGAE, con la palabra 'ladrones'. :: "gafe" y sale ZP :: "miserable" y sale Acebes Curiosidades - El día 1 de abril de 2002 (April Fool's day), Google dio a conocer el PigeonRank (TM), el sistema que realmente clasifica las webs: miles de palomas trabajan ordenando todas los sitios web de Internet. - En Pascua de 2001, aparecio un curioso juego (realizado en un applet de Java) sobre un conejito que recogía huevos de Pascua. - En el Zeitgeist de Google vas a poder encontrar un montón de estadísticas: las palabras más buscadas de la semana en diferentes idiomas, los navegadores más utilizados, ... Además, tiene un archivo histórico. - Google tiene varias ofertas de trabajo: técnicos en software o sistemas, ventas, marketing, finanzas, ... Además de entrar en una gran empresa tecnológica, un seguro médico, y un seleccionado menú para comer, te ofrecen alguna que otra fiesta como esta. - La gente de Google tiene registrados las decenas de errores que los usuarios han cometido al intentar buscar uno de los nombres más buscados: el de Britney Spears. - Google tiene registrados algunos dominios que se parecen al verdadero, los cuales difieren en alguna letra, y que -debido a que muchos usuarios escriben mal ' google '- llevan al sitio web correcto: gogle.com, googel.com, ggoogle.com o gogole.com. - Incluso tiene registrado el dominio 466453.com (prueba a escribir ' google ' en tu teléfono móvil). Google tiene varios servicios wireless en desarrollo. - Otro April Fool's Day, pero de 2000, Google lanzó el sistema de búsqueda MentalPlex (TM), que era capaz de leer tu mente, y encontrar los resultados a la búsqueda que estabas pensando. - Google organizó en 2002 un concurso de programación, que ofrecía diez mil dólares y una visita a la sede central de la compañía. - Existe un curioso 'mirror' (servidor 'espejo') de Google : elgooG. - El Googlewhacking es un 'deporte' que consiste en encontrar una pareja de palabras (que estén incluidas dentro del diccionario de inglés) que aparezcan una sola vez juntas en alguna página indexada por Google . Es decir, que buscándolas, obtengamos 'Resultados 1 - 1'. - El comportamiento de Google durante los atentados en USA el 11 de septiembre de 2001 fue elogiado por muchos. Realizó 'cachés' de varios medios de comunicación (que en aquel momento estaban colapsados), y condujo muchas de sus búsquedas hacia noticias de actualidad. - Tras la adquisición del archivo de noticias de Usenet que tenía la empresa Deja News, Google publicó una lista con los 'posts' referentes a los hechos más relevantes de la historia de Internet durante estos últimos años. Hay referencias a acontecimientos como las primeras menciones a Google o Yahoo, el primer post anunciando los ataques a las torres gemelas el 11 de setiembre de 2001, las primeras menciones a Linux o Microsoft, la primera discusión sobre el SIDA, ... - El algoritmo de 'PageRank' está patentado en Estados Unidos con el número de patente '6,285,999', y con el título 'Method for node ranking in a linked database'. - Si miramos el 'Acerca de...' de la ' Google Toolbar', vemos que -además de la versión- aparece la frase en latín 'De parvis grandis acervus erit', que podría traducirse como 'De las cosas pequeñas se hacen las cosas más grandes'. Esta frase fue utilizada en el siglo XVI en un libro de poemas. - Para que nadie piense mal, las páginas de la tienda de Google ( Google Store) tienen PageRank cero. - Chad Lester, un trabajador de Google , recorrió en bicicleta en el año 2001 las más de 3500 millas que separan California de Florida. Répiclas del jersey que llevaba se vendieron en la GoogleStore. Palabras más buscadas ( Google Zeitgeist) Sorpresas, pautas y tendencias de búsqueda según Google http://www. google .es/press/zeitgeist.html Anteriores: http://www. google .es/press/zeitgeist/archive.html Herramienta para palabras clave de AdWords de Google --> https://adwords. google .es/select/KeywordSandbox Buscadores Específicos en Google BSD Gobierno de USA Linux MAC Microsoft Universidades ¿Cómo evito que Google busque en mi sitio? Google utiliza "Robots" de busqueda, para evitar que los robots entren a tu sitio debemos hacer lo siguiente. En la raiz de nuestro sitio, debemos poner un archivo de nombre "robots.txt" Y dentro de este archivo podemos listar a donde no queremos que los robots del Google accedan. Miremos un momento el archivo, robots, alojado en www. google .com (asi es, google evita que su propio buscador acceda al mismo sitio, esto por seguridad.) Con Allow, permiten la busqueda y con Disallow la deniegan.

Esquema de la evolución de la red de redes Finales de los años 50 Para ver la evolución de Internet debemos remontarnos a finales de los años 50 cuando se crea ARPA, la Agencia de Proyectos de Investigación Avanzada, en el seno del Departamento de Defensa de los Estados Unidos. Principios de los años 60 Se comienza a pensar en la idea de una red descentralizada en el Instituto Tecnológico de Massachusetts (MIT) y en la corporacion RAND. Año 1961 Leonard Kleinrock publica en Julio de este año el primer trabajo sobre "conmutación de paquetes". El Pentágono a través de ARPA financión la puesta en marcha de una prueba práctica. Kleinrock covenció a Lawrence G. Roberts de la viabilidad de las comunicaciones basadas en paquetes en lugar de circuitos, lo cual resultó un avance en el camino hacia el trabajo informático en red. Año 1962 En agosto de este año, aparece la primera descripción documentada de las interacciones sociales que podrían ser propiciadad por el trabajo en red en una serie de memorándums escritos por J.C.R. LickLider, del MIT. Paralelamente entre 1962 y 1964 la RAND corporation publica una serie de artículos escritos por Paul Baran sobre "Redes de Comunicación Distribuidas". El objetivo de la propuesta era plantear una red que tuviera la máxiam resistencia ante un ataque enemigo. Año 1964 La RAND corporation propone una red que no disponga de una autoridad central y se sugiere un diseño que desde el principio está preparado para trabajar en un entorno fragmentado. Todos los nodos debreían tener un status parecido y cada uno de ellos tendría autonomia y poder suficientes para generar, vehicular y recibir mensajes que a su vez pudieran ser separados en paquetes y ser enviados por separado Año 1966 A finales de este año Lawrence G. Roberts se trasladó a ARPA para desarrollar el concepto de red de ordenadores y rápidamente confeccionó su plan para ARPANet. En la conferencia en que presentó el documento se exponía también un trabajo sobre el concepto de red de paquetes a cargo de Donald Davies y Roger Scantlebury del NPL. La palabra packet (paquete) fue adoptada a partir del trabajo del NPL y la velocidad de la línea propuesta para ser usada en el diseño de ARPANet fue aumentada desde 2,4 Kbps hasta 50 Kbps Año 1968 En 1968 el Laboratorio Físico Nacional en Inglaterra estableció la primera red de prueba basada en estos principios. Este mismo año, el primer diseño basado en estos principios de envío de paquetes de información, realizado por Lawrence Roberts, fue presentado en la ARPA. Año 1969 Años 70 Durante este periodo, esta red fue de acceso restringido a los investigadores y a las empresas privadas que participaban en proyectos financiados por la administración. Año 1970 Vinton Cerf escribe por primera vez la palabra Internet. La escena tiene lugar a principios de los setenta en un hotel de San Francisco. Vinton, considerado el padre de la red, escribió la palabra Internet en el dorso de un sobre intentando explicar a sus compañeros la idea que había tenido sobre cómo distribuir información a través del a red que entonces se conocía como Internet. Este diseño sería la base del protocolo TCP/IP, que rige aún las comunicaciones por Internet. Kevin MacKenzie se inventa el primer smiley: :-). Año 1971 Crece la popularidad del correo electrónico sobre redes de almacenamiento y envío. En 1971, ARPANet había crecido hasta 15 nodos con 23 ordenadores hosts (centrales). Año 1972 El primer programa específicamente diseñado para el email se atribuye a Ray Tomlinson, de la BBN (Bolton, Beranek and Newman), en 1972. Se remitió el primer mensaje de correo electrónico usándose el conocido símbolo de la arroba, @. El símbolo @ se convirtió en el símbolo del correo electrónico por pura casualidad. Ray Tomlinson necesitaba un signo que separara el nombre del usuario del de la máquina. Se limitó a bajar los ojos hacia el teclado (un teletipo modelo 33 trabajando con un ordenador Tenex) y escogió la arroba porque necesitaba que no fuera una letra que pudiera estar en ningún apellido. La decisión causó una primera batalla de estándares porque ara los usuarios de Multics el signo @ era el que borraba líneas. De manera que no podían usar el correo. Finalmente tuvieron que modificar el sistema. En 1972 Larry Roberts de DARPA decidió que el proyecto necesitaba un empujón. Organizó la presentación de ARPANET en la Conferencia Internacional sobre Comunicaciones por Ordenador. A partir de esta conferencia, se formó un grupo de trabajo internacional para investigar sobre los protocolos de comunicación que permitirían a ordenadores conectados a la red, comunicarse de una manera transparente a través de la transmisión de paquetes de información. Aparece la posibilidad de realizar un Telnet. Año 1973 Durante el mes de setiembre de este año hubo una importante reunión en Brighton (Inglaterra) donde los americanos mostraron por primera vez a los europeos el funcionamiento de ArpaNet. Para que ello fuera posible tuvieron que realizar un enlace vía satélite, provisional durante unos dias, que transportaba los datos a través del Atlántico. Leonard Kleinrock volvió a los Angeles unos días antes que finalizara el congreso y cuando llegó a casa se dio cuenta que se había dejado una máquina de afeitar y descubrió que, efectivamente, en Brighton aún estaba conectado Larry Roberts. Kleinrock le pidió a Roberts que le recuperara su máquina de afeitar y éste lo hizo. La sorpresa fue que días mást arde Kleinrock fue acusado de haber realizado un uso indebido de material militar (que incluía de hecho hasta un satélite). Aparece la posibilidad de realizar un FTP. Año 1974 En 1974 se estableció el Transmission Control Protocol (TCP), creado por Vinton Cerf y Robert Kahn que luego fue desarrollado hasta convenirse en el Transmission Control Protocol/Internet Protocol (TCP/IP). TCP convierte los mensajes en pequeños paquetes de información que viajan por la red de forma separada hasta llegar a su destino donde vuelven a reagruparse. IP maneja el direccionamiento de los envíos de datos, asegurando que los paquetes de información separados se encaminan por vías separadas a través de diversos nodos, e incluso a través de múltiples redes con arquitecturas distintas. Año 1975 En julio de 1975 ARPANET fue transferido por DARPA a la Agencia de Comunicaciones de Defensa. Año 1977 Aparece la primera lista de correo. Se trataba de TheryLink y agrupaba a casi un centenar de científicos. En 1979 nacería Usenet y hoy hay más de 50.000 newsgroups o grupos de noticias en el mundo. El crecimiento tan brutal de las listas obligó en 1987 a crear las jerarquías (las primeras fueron .comp, .news y .misc). Año 1979 Nace Usenet. Creada por tres estudiantes: Tom Truscott, Jim Ellis y Steve Bellovin. Usenet es un servicio de grupos de noticias, las populares "news". Año 1980 Aparecen las primeras aplicaciones TCP/IP. Internet ya tiene 212 servidores Año 1982 ARPANet adopta el protocolo TCP/IP como estándar. Se crea la EuNet (European Unix Network). La "European Unix Network" (EuNet), conectado a ARPANet, se creó en 1982 para proporcionar servicios de correo electrónico y servicios Usenet a diversas organizaciones usuarias en los Países Bajos, Dinamarca, Suecia e Inglaterra Año 1983 ARPANet en sí mismo permaneció estrechamente controlado por el departamento de defensa hasta 1983 cuando su parte estrictamente militar se segmentó convirtiéndose en MILNET. El Pentágono se retira de Arpanet y crea Milnet. Internet ya dispone de 562 servidores. Se creó el sistema de nombres de dominios (.com, .edu, etc., más las siglas de los países), que prácticamente se ha mantenido hasta ahora. En la constitución y crecimiento de esta nueva "red de redes"que pronto contó con nodos en Europa, las agencias federales norteamericanas prestaron mucho apoyo, financiando las infraestructura, por ejemplo Año 1984 Se introduce el DNS (Domain Name Server) En 1984 el número de servidores conectados a la red había ya superado los 1.000. Dado que el software de TCP/IP era de dominio público y la tecnología básica de Internet (como ya se denominaba esta red internacional extendida) era algo anárquica debido a su naturaleza, era difícil evitar que cualquier persona en disposición del necesario hardware (normalmente en universidades o grandes empresas tecnológicas) se conectase a la red desde múltiples sitios. En 1984 William Gibson novelaba el nuevo mundo y acuñaba el término "ciberespacio". Al año siguiente se forjaba Well, la primera comunidad comercial de usuarios Año 1985 La National Science Fundation (NSF) establece en este año cinco centros para superordenadores configurando con ello la principal red que utilizaría la comunidad científica a partir de se momento. Lo que hace es conectar seis centros de supercomputación. Internet tiene ya 1961 servidores. En abril aparecen los primeros dominios con letra (antes eran con números). Los primeros dominios con letras en aparecer fueron: acmu.edu, purdue.edu, rice.edu y ucla.edu, todos en activo aún por supuesto y todos universitarios también por supuesto. El primer dominio comercial en aparecer es algo no aclarado. Para algunos fue simbolics.com (un fabricante de software y hardware para el lenguaje de inteligencia artificial Lisp, esta página ya no funciona) y para otros think.com. En junio del mismo año apareció el primer dominio gubernamental, css.gov y en julio mitre.org. El primer dominio de un país fue en julio de ese mismo año para Gran Bretaña: co.uk Año 1986 La National Science Fundation (NSF) de EE.UU. inició el desarrollo de NSFNET que se diseñó originalmente para conectar cinco superordenadores. Su interconexión con Internet requería unas líneas de altísima velocidad. Esto aceleró el desarrollo tecnológico de Internet y brindó a los usuarios mejores infraestructuras de telecomunicaciones. Otras agencias de la Administración norteamericana entraron en Internet, con sus inmensos recursos informáticas y de comunicaciones: NASA y el Departamento de Energía. Un acontecimiento muy importante era que los proveedores comerciales de telecomunicaciones en EE. UU. y Europa empezaron a ofrecer servicios comerciales de transporte de señales y acceso Año 1987 El número de servidores conectados a Internet superaba ya los 10.000 Año 1988 Internet ya dispone de 56.000 servidores Año 1989 Tim Beners-Lee, investigador en el centro europeo CERN de Suiza, elaboró su propuesta de un sistema de hipertexto compartido: era el primer esbozo de la World Wide Web. Como el ARPANet veinte años atrás, su propósito era poner en comunicación a los científicos. La WWW es una creación europea fruto del trabajo de Tim Beners-Lee y Robert Cailauu que en 1989 trabajan conjuntamente desde el Centro Europeo de Física de Partículas (CERN) en Ginebra. Su objetivo era buscar una herramienta de trabajo para crear y leer textos a través de una red que permitía intercomunicar a los físicos de todo el mundo. La web, basadas en el concepto del hipertexto, ha sido un soporte excelente para la introducción de las denominadas aplicaciones multimedia en las comunicaciones telemáticas. En Internet aun es posible encontrar una captura de pantalla del ordenador personal de Tim Beners-Lee, un Next, en que se ve el primer navegador de todos y como era la web cuando solo tenia un usuario. Beners-Lee creó el HTML, el HTTP y las URL. Beners-Lee es muy crítico con el uso comercial de la web y de hecho renunció a una empresa que había creado al inventar el web, empresa denominada WebSoft. Actualmente trabaja en el MIT en los Estados Unidos y sigue tan despistado como siempre según algunas fuentes. Jarkko Oikarinen, un joven finlandés, decidió modificar el comando talk del Unix para permitir que diversas personas pudieran charlar de forma simultánea. Así nace el chat, el Internet Relay Chat (IRC) que permite que se pueda conversar en la red. Año 1990 Creación de la Electronic Frontier Foundation. Internet ya tiene 313.000 servidores. En 1990 redes de diversos países como España, Argentina, Austria, Brasil, Chile, Irlanda, Suiza y Corea del Sur se conectaron también a NSFNET Año 1991 En febrero de 1991 es la fecha que se cita como la invención del denominado Spam, el envio masivo de correo electrónico no solicitado. Según estas fuentes todo empezó inocentemente: se trataba de enviar mensajes a un niño de 9 años llamado Craig Shergold gravemente enfermo. El muchacho intentaba batir el record mundial de cartas recibidas y lo consiguió. Ello dio ideas a algunas empresas y en abril de 1994 una empresa de abogados, Center&Siegel tuvo el dudoso honor de empezar a usar comercialmente el correo electrónico para envios masivos no solicitados. La venganza que recibieron de la red por lo visto aun les dura. En marzo de 1991 Tim Beners-Lee pone en marcha el primer navegador de la web (que funcionaba aún con linea de comandos de modo que a años luz del lujo actual). Tim, el creador de la web, ya había creado en el año 1980 programas hipertextuales. En el CERN guardan la página original con los primeros servidores que se crearon. Es una página de noviembre de 1992, cuando solo había 26 ordenadores capaces de servir páginas web. La página advierte de que su contenido es una reliquia para la posteridad, para no confundir a despistados… En 1991 se retiraron las restricciones de NFS al uso comercial de Internet. Ese mismo año también se Conectaron más países a la NSFNET incluyendo: Croacia, Hong Kong, República Checa, Sudáfrica, Singapur, Hungría, Polonia, Portugal, Taiwan y Túnez. Año 1993 Aparece el primer visualizador gráfico de páginas web: Mosaic, el antecesor de Netscape.El conocido navegador WWW Mosaic se desarrolló en el National Center for Supercomputing. Con la extensión de los ordenadores personales y el lanzamiento del primer navegador de la WWW popular, Mosaic, en 1993, ya había llegado el momento de "surfear la Web" (la expresión se registró por primera vez ese mismo año). En 1993 el número de servidores Internet sobrepasa los 2.000.000. También NSF patrocina la formación de una nueva organización, ínterNIC, creada para proporcionar servicios de registro en Internet y bases de datos de direcciones Año 1994 En 1994 se abre el primer ciberbanco. Año 1995 En octubre de 1995 Netscape puso en la red el primer navegador. Para celebrarlo sus desarrolladores hicieron una fiesta con pizzas e instalaron un apantalla gigante para ver en la Silicon Graphics como empezaban a descolgarse navegadores. El primer usuario de Netscape fue un japonés y a medianoche los desarrolladores se dieron cuenta que el servidor indicaba qué versión era la que la gente se estaba bajando así que pusieron un sonido diferente para la de Windows, Mac y Unix que se oía cada vez que empezaba un download. Aparece RealAudio, que tranmitirá sonido y voz por la red. En 1995 había más de 5 millones de servidores conectados a Internet. La espina dorsal de NSFNET empezaba a ser sustituido por proveedores comerciales interconectados Año 1997 Ya hay 17 millones de servidores en la red. Año 1999 El tremendo crecimiento de la red, unido a la autonomía de su funcionamiento, hacen que grandes zonas de sus contenidos estén en la penumbra: según datos de 1999 el conjunto de los grandes buscadores de páginas en la Malla Mundial sólo conoce el contenido de menos del 50% e la red. La Última iniciativa, Internet 2, propone crear un espacio aparte y de más calidad de comunicaciones para instituciones de investigación Año 2000 Internet está formada, no solamente de restos de la ARPANet original, sino que también incluye redes como la Academia Australiana de Investigación de redes (AARNET), la NASA Science Internet (NSI), la Red Académica de Investigación Suiza (SWITCH), por no mencionar las miles de redes de mayor o menor tamaño de tipo educativo y de investigación INTERNET Internet es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la familia de protocolos TCP/IP, garantizando que las redes físicas heterogéneas que la componen funcionen como una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, Estados Unidos. Uno de los servicios que más éxito ha tenido en Internet ha sido la World Wide Web (WWW, o "la Web", hasta tal punto que es habitual la confusión entre ambos términos. La WWW es un conjunto de protocolos que permite, de forma sencilla, la consulta remota de archivos de hipertexto. Ésta fue un desarrollo posterior (1990) y utiliza Internet como medio de transmisión. Existen, por tanto, muchos otros servicios y protocolos en Internet, aparte de la Web: el envío de correo electrónico (SMTP), la transmisión de archivos (FTP y P2P), las conversaciones en línea (IRC), la mensajería instantánea y presencia, la transmisión de contenido y comunicación multimedia -telefonía (VoIP), televisión (IPTV)-, los boletines electrónicos (NNTP), el acceso remoto a otros dispositivos (SSH y Telnet) o los juegos en línea. Historia En el mes de julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Lawrence Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí. Para explorar este terreno, en 1965, Roberts conectó una computadora TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de computadoras de área amplia jamás construida. 1969: La primera red interconectada nace el 21 de noviembre de 1969, cuando se crea el primer enlace entre las universidades de UCLA y Stanford por medio de la línea telefónica conmutada, y gracias a los trabajos y estudios anteriores de varios científicos y organizaciones desde 1959 (ver: Arpanet). El mito de que ARPANET, la primera red, se construyó simplemente para sobrevivir a ataques nucleares sigue siendo muy popular. Sin embargo, este no fue el único motivo. Si bien es cierto que ARPANET fue diseñada para sobrevivir a fallos en la red, la verdadera razón para ello era que los nodos de conmutación eran poco fiables, tal y como se atestigua en la siguiente cita: A raíz de un estudio de RAND, se extendió el falso rumor de que ARPANET fue diseñada para resistir un ataque nuclear. Esto nunca fue cierto, solamente un estudio de RAND, no relacionado con ARPANET, consideraba la guerra nuclear en la transmisión segura de comunicaciones de voz. Sin embargo, trabajos posteriores enfatizaron la robustez y capacidad de supervivencia de grandes porciones de las redes subyacentes. (Internet Society, A Brief History of the Internet) 1972: Se realizó la Primera demostración pública de ARPANET, una nueva red de comunicaciones financiada por la DARPA que funcionaba de forma distribuida sobre la red telefónica conmutada. El éxito de ésta nueva arquitectura sirvió para que, en 1973, la DARPA iniciara un programa de investigación sobre posibles técnicas para interconectar redes (orientadas al tráfico de paquetes) de distintas clases. Para este fin, desarrollaron nuevos protocolos de comunicaciones que permitiesen este intercambio de información de forma "transparente" para las computadoras conectadas. De la filosofía del proyecto surgió el nombre de "Internet", que se aplicó al sistema de redes interconectadas mediante los protocolos TCP e IP. 1983: El 1 de enero, ARPANET cambió el protocolo NCP por TCP/IP. Ese mismo año, se creó el IAB con el fin de estandarizar el protocolo TCP/IP y de proporcionar recursos de investigación a Internet. Por otra parte, se centró la función de asignación de identificadores en la IANA que, más tarde, delegó parte de sus funciones en el Internet registry que, a su vez, proporciona servicios a los DNS. 1986: La NSF comenzó el desarrollo de NSFNET que se convirtió en la principal Red en árbol de Internet, complementada después con las redes NSINET y ESNET, todas ellas en Estados Unidos. Paralelamente, otras redes troncales en Europa, tanto públicas como comerciales, junto con las americanas formaban el esqueleto básico ("backbone" de Internet. 1989: Con la integración de los protocolos OSI en la arquitectura de Internet, se inició la tendencia actual de permitir no sólo la interconexión de redes de estructuras dispares, sino también la de facilitar el uso de distintos protocolos de comunicaciones. En el CERN de Ginebra, un grupo de físicos encabezado por Tim Berners-Lee creó el lenguaje HTML, basado en el SGML. En 1990 el mismo equipo construyó el primer cliente Web, llamado WorldWideWeb (WWW), y el primer servidor web. 2006: El 3 de enero, Internet alcanzó los mil cien millones de usuarios. Se prevé que en diez años, la cantidad de navegantes de la Red aumentará a 2.000 millones. Internet y sociedad Internet tiene un impacto profundo en el trabajo, el ocio y el conocimiento a nivel mundial. Gracias a la web, millones de personas tienen acceso fácil e inmediato a una cantidad extensa y diversa de información en línea. Un ejemplo de esto es el desarrollo y la distribución de colaboración del software de Free/Libre/Open-Source (SEDA) por ejemplo GNU, Linux, Mozilla y OpenOffice.org. Comparado a las enciclopedias y a las bibliotecas tradicionales, la web ha permitido una descentralización repentina y extrema de la información y de los datos. Algunas compañías e individuos han adoptado el uso de los weblogs, que se utilizan en gran parte como diarios actualizables. Algunas organizaciones comerciales animan a su personal para incorporar sus áreas de especialización en sus sitios, con la esperanza de que impresionen a los visitantes con conocimiento experto e información libre. Internet ha llegado a gran parte de los hogares y de las empresas de los países ricos. En este aspecto se ha abierto una brecha digital con los países pobres, en los cuales la penetración de Internet y las nuevas tecnologías es muy limitada para las personas. No obstante, en el transcurso del tiempo se ha venido extendiendo el acceso a Internet en casi todas las regiones del mundo, de modo que es relativamente sencillo encontrar por lo menos 2 computadoras conectadas en regiones remotas.[cita requerida] Desde una perspectiva cultural del conocimiento, Internet ha sido una ventaja y una responsabilidad. Para la gente que está interesada en otras culturas, la red de redes proporciona una cantidad significativa de información y de una interactividad que sería inasequible de otra manera.[cita requerida] Internet entró como una herramienta de globalización, poniendo fin al aislamiento de culturas. Debido a su rápida masificación e incorporación en la vida del ser humano, el espacio virtual es actualizado constantemente de información, fidedigna o irrelevante Ocio Muchos utilizan la Internet para descargar música, películas y otros trabajos. Hay fuentes que cobran por su uso y otras gratuitas, usando los servidores centralizados y distribuidos, las tecnologías de P2P. Otros utilizan la red para tener acceso a las noticias y el estado del tiempo. La mensajería instantánea o chat y el correo electrónico son algunos de los servicios de uso más extendido. En muchas ocasiones los proveedores de dichos servicios brindan a sus afiliados servicios adicionales como la creación de espacios y perfiles públicos en donde los internautas tienen la posibilidad de colocar en la red fotografías y comentarios personales. Se especula actualmente si tales sistemas de comunicación fomentan o restringen el contacto de persona a persona entre los seres humanos.[cita requerida] En tiempos más recientes han cobrado auge portales como YouTube o Facebook, en donde los usuarios pueden tener acceso a una gran variedad de videos sobre prácticamente cualquier tema. La pornografía representa buena parte del tráfico en Internet, siendo a menudo un aspecto controvertido de la red por las implicaciones morales que le acompañan. Proporciona a menudo una fuente significativa del rédito de publicidad para otros sitios. Muchos gobiernos han procurado sin éxito poner restricciones en el uso de ambas industrias en Internet. El sistema multijugador constituye también buena parte del ocio en Internet. Internet y su evolución Inicialmente Internet tenía un objetivo claro. Se navegaba en Internet para algo muy concreto: búsquedas de información, generalmente. Ahora quizás también, pero sin duda alguna hoy es más probable perderse en la red, debido al inmenso abanico de posibilidades que brinda. Hoy en día, la sensación que produce Internet es un ruido, una serie de interferencias, una explosión o cúmulo de ideas distintas, de personas diferentes, de pensamientos distintos de tantas y tantas posibilidades que, en ocasiones, puede resultar excesivo. El crecimiento o más bien la incorporación de tantas personas a la red hace que las calles de lo que en principio era una pequeña ciudad llamada Internet se conviertan en todo un planeta extremadamente conectado entre sí entre todos sus miembros. El hecho de que Internet haya aumentado tanto implica una mayor cantidad de relaciones virtuales entre personas. Conociendo este hecho y relacionándolo con la felicidad originada por las relaciones personales, es posible concluir que cuando una persona tenga una necesidad de conocimiento popular o de conocimiento no escrito en libros, puede recurrir a una fuente más acorde a su necesidad. Como ahora esta fuente es posible en Internet, dicha persona preferirá prescindir del obligado protocolo que hay que cumplir a la hora de acercarse a alguien personalmente para obtener dicha información y, por ello, no establecerá, para ese fin, una relación personal sino virtual. Este hecho implica la existencia de un medio capaz de albergar soluciones para diversa índole de problemas. Como toda gran revolución, Internet augura una nueva era de diferentes métodos de resolución de problemas creados a partir de soluciones anteriores. Algunos sienten que Internet produce la sensación que todos han sentido sin duda alguna vez; produce la esperanza que es necesaria cuando se quiere conseguir algo. Es un despertar de intenciones que jamás antes la tecnología había logrado en la población mundial. Para algunos usuarios Internet genera una sensación de cercanía, empatía, comprensión y, a la vez, de confusión, discusión, lucha y conflictos que los mismos usuarios consideran la vida misma. Preponderancia como fuente de información En 2009, un estudio realizado en Estados Unidos indicó que un 56% de los 3.030 adultos estadounidenses entrevistados en una encuesta online manifestó que si tuviera que escoger una sola fuente de información, elegiría Internet, mientras que un 21% preferiría la televisión y tanto los periódicos como la radio sería la opción de un 10% de los encuestados. Dicho estudio posiciona a los medios digitales en una posición privilegiada en cuanto a la búsqueda de información y refleja un aumento de la credibilidad en dichos medios Trabajo Con la aparición de Internet y de las conexiones de alta velocidad disponibles al público, Internet ha alterado de manera significativa la manera de trabajar de algunas personas al poder hacerlo desde sus respectivos hogares. Internet ha permitido a estas personas mayor flexibilidad en términos de horarios y de localización, contrariamente a la jornada laboral tradicional de 9 a 5 en la cual los empleados se desplazan al lugar de trabajo. Un experto contable asentado en un país puede revisar los libros de una compañía en otro país, en un servidor situado en un tercer país que sea mantenido remotamente por los especialistas en un cuarto. Internet y sobre todo los blogs han dado a los trabajadores un foro en el cual expresar sus opiniones sobre sus empleos, jefes y compañeros, creando una cantidad masiva de información y de datos sobre el trabajo que está siendo recogido actualmente por el colegio de abogados de Harvard. Internet ha impulsado el fenómeno de la Globalización y junto con la llamada desmaterialización de la economía ha dado lugar al nacimiento de una Nueva Economía caracterizada por la utilización de la red en todos los procesos de incremento de valor de la empresa Principales buscadores Un buscador se define como el sistema informático que indexa archivos almacenados en servidores web cuando se solicita información sobre algún tema. Por medio de palabras clave, se realiza la exploración y el buscador muestra una lista de direcciones con los temas relacionados. Existen diferentes formas de clasificar los buscadores según el proceso de sondeo que realizan. La clasificación más frecuente los divide en: índices o directorios temáticos, motores de búsqueda y metabuscadores. Índices o directorios temáticos Los índices o buscadores temáticos son sistemas creados con la finalidad de diseñar un catálogo por temas, definiendo las clasificación por lo que se puede considerar que los contenidos ofrecidos en estas páginas tienes ya cierto orden y calidad. La función de este tipo de sistemas es presentar algunos de los datos de las páginas más importantes, desde el punto de vista del tema y no de lo que se contiene. Los resultados de la búsqueda de esta de estos índices pueden ser muy limitados ya que los directorios temáticos, las bases de datos de direcciones son muy pequeñas, además de que puede ser posible que el contenido de las páginas no esté completamente al día. Motores de búsqueda Este tipo de buscadores son los de uso más común, basados en aplicaciones llamadas spiders ("arañas" o robots, que buscan la información con base en las palabras escritas, haciendo una recopilación sobre el contenido de las páginas y mostrando como resultado aquéllas que contengan la palabra o frase en alguna parte del texto. Metabuscadores Los metabuscadores son sistemas que localizan información en los motores de búsqueda más utilizados, realizan un análisis y seleccionan sus propios resultados. No tienen una base de datos, por lo que no almacenan páginas web y realizan una búsqueda automática en las bases de datos de otros buscadores, tomando un determinado rango de registros con los resultados más relevantes. Cantidad de páginas Es difícil establecer el tamaño exacto de Internet, ya que éste crece continuamente y no existe una manera fiable de acceder a todo su contenido y, por consiguiente, de determinar su tamaño. Un estudio del año 2005 usando distintos motores de búsqueda (Google, MSN, Yahoo!, and Ask Jeeves) estimaba que existían 11500 millones de páginas Web. Otro estudio del año 2008 estimaba que la cantidad había ascendido a 6.300 millones de páginas web. Para estimar esta cantidad se usan las webs indexadas por los distintos motores de búsqueda, pero este método no abarca todas las páginas online. Utilizando este criterio Internet se puede dividir en: Internet superficial: Incluye los servicios indexados por los motores de búsqueda. Internet profunda: Incluye el resto de servicios no indexados como páginas en Flash, páginas protegidas por contraseña, inaccesibles para las arañas, etc. Se estima que el tamaño de la Internet profunda es varios órdenes de magnitud mayor que el de Internet superficial. Cantidad de usuarios El número de usuarios aumenta de forma continua. En 2006 se estimaba el número de internautas en 1.100 millones. Para el 2016 se estima que el número ascenderá a 2.000 millones. Acceso a Internet Esquema con las tecnologías relacionadas al Internet actual.Internet incluye aproximadamente 5.000 redes en todo el mundo y más de 100 protocolos distintos basados en TCP/IP, que se configura como el protocolo de la red. Los servicios disponibles en la red mundial de PC, han avanzado mucho gracias a las nuevas tecnologías de transmisión de alta velocidad, como ADSL y Wireless, se ha logrado unir a las personas con videoconferencia, ver imágenes por satélite (ver tu casa desde el cielo), observar el mundo por webcams, hacer llamadas telefónicas gratuitas, o disfrutar de un juego multijugador en 3D, un buen libro PDF, o álbumes y películas para descargar. El método de acceso a Internet vigente hace algunos años, la telefonía básica, ha venido siendo sustituido gradualmente por conexiones más veloces y estables, entre ellas el ADSL, Cable Módems, o el RDSI. También han aparecido formas de acceso a través de la red eléctrica, e incluso por satélite (generalmente, sólo para descarga, aunque existe la posibilidad de doble vía, utilizando el protocolo DVB-RS). Internet también está disponible en muchos lugares públicos tales como bibliotecas, bares, restaurantes, hoteles o cibercafés y hasta en centros comerciales. Una nueva forma de acceder sin necesidad de un puesto fijo son las redes inalámbricas, hoy presentes en aeropuertos, subterráneos, universidades o poblaciones enteras Nombres de dominio La Corporación de Internet para los Nombres y los Números Asignados (ICANN) es la autoridad que coordina la asignación de identificadores únicos en Internet, incluyendo nombres de dominio, direcciones de Protocolos de Internet, números del puerto del protocolo y de parámetros. Un nombre global unificado (es decir, un sistema de nombres exclusivos para sostener cada dominio) es esencial para que Internet funcione. El ICANN tiene su sede en California, supervisado por una Junta Directiva Internacional con comunidades técnicas, comerciales, académicas y ONG. El gobierno de los Estados Unidos continúa teniendo un papel privilegiado en cambios aprobados en el Domain Name System. Como Internet es una red distribuida que abarca muchas redes voluntariamente interconectadas, Internet, como tal, no tiene ningún cuerpo que lo gobierne. y por ultimo este video
Todos sabemos qué es un video juego, es un programa de computadora, que puede estar en una PC, en un celular, una consola de videojuegos que se conecta a la televisión, una consola portátil, entre otros. El objetivo de este software es, básicamente entretener al usuario mediante la interacción del usuario y la pantalla a través de joysticks, palancas o incluso a través de sensores de movimiento. Los hay de todas formas y colores, de 8, 16, 32, 64, 128 bits, de deportes, de lucha, de aventura, controversiales, inocentes, sangrientos, educativos, buenos y malos. Los videojuegos marcan toda una época en el historia de la humanidad, con los nuevos y constantemente superables niveles de tecnología. Los videojuegos como una idea a desarrollar surgieron en 1948 Thomas T. Goldsmith Jr. y Estle Ray Mann desarrollaron y patentaron el primer videojuego llamado Cathode-Ray Tube Amusement Device (dispositivo de entretenimiento de rayos catódicos) que consistía básicamente en una línea que imitaba a un misil que se apuntaba a diferentes objetivos dibujados en la pantalla, ya que no se podían generar gráficos de computadora entonces. La línea se generaba a través de 8 válvulas electrónicas. Este puntapié fue el inicio de los videojuegos. En 1952 se crearía el juego llamado OXO, que en realidad fue creado por por un estudiante de la Universidad de Cambridge, llamado Alexander S. Douglas para sustentar una tesis de interacción entre el hombre y la máquina. El OXO básicamente era un versión computarizada del Ta-te-ti (conocido en otros países como tres en raya, juego del gato, tatetí, triqui, tres en gallo, michi o la vieja) que se jugaba contra la máquina. Sin embargo hay algunos que no lo consideran el primer videojuego por no poseer video animaciones. Otro de los primeros video juegos que se disputan el puesto de ser el “primero” es el llamado Tennis for Two. Este fue desarrollado en 1958 por William Higinbotham un físico estadounidense para que jugaran los visitantes del Laboratorio Nacional Brookhaven en Nueva York. El juego consistía en un juego de Tenis hecho en una computadora analógica, donde se veía una cancha de tenis desde un costado. Este juego es reconocido por ser uno de los precursores del famosísimo Pong de Atari. El tercer juego que se dice que es “el primero” es el Spacewar! Este juego fue desarrollado en 1961 por Steve Russell junto a otros estudiantes del Instituto de Tecnología de Massachusetts (MIT) en una PDP-1, una computadora de ese tiempo. El juego consiste en dos naves que luchan entre sí en el espacio evitando la fuerza de gravedad de una estrella que está en el centro. Desde acá en adelante es donde empiezan a desarrollarse más y mejores videojuegos en las distintas universidades, aunque esto era en forma de hobby. Sin embargo, a partir de la década del 70 es cuando empieza la llamada era dorada de los videojuegos con la creación del primer arcade, el Galaxy Game que funcionaba con las clásicas fichas. Luego le siguieron el Computer Space que era una versión arcade del viejo Spacewar!, creado por Nolan Bushnell and Ted Dabney que fue vendida a Nutting Associates una compañía interesada en comercializar este juego. El juego no tuvo el éxito esperado, pero fue todo un precedente en el mundo. Tiempo después Bushnell and Dabney fundaron Atari, Inc y lanzaron el mencionado Pong que fue todo un éxito de ventas en el mundo (19.000 máquinas vendidas). En esa época también surge la compañía Taito con Space Invaders, que invitó a muchos a insertarse el mercado del videojuego. Atari lanzaría después del éxito del Pong el Asteroids. Finalmente con la llegada del Pac-Man lanzado en conjunto por Namco y Midway, nacen los primeros juegos en color. Con el nacimiento de los arcades por todas partes, los videojuegos empiezan a augurar un crecimiento que parece no tener fin. Con el nacimiento de los videojuegos y con la aparición de los arcades, los videojuegos se convirtieron en todo un fenómeno. Casas dedicadas a los videojuegos, comercios, restaurantes y otros sitios tenían estas máquinas en las que por $0.25 uno podía jugar una partida de Pac-Man, Space Invaders o Pong. Las colas se hacían para esperar jugar a estos grandiosos y populares juegos. Y si bien eran populares, los arcades tenían esa limitación de estar en lugares públicos. Lo que ahora hacemos, tener un juego en la PC, o en una consola era algo totalmente impensado. En 1951, un ingeniero llamado Ralph Baer tuvo una idea mientras trabajaba para Loral, una compañía de TV. La tarea que le había sido dada fue la construcción del mejor equipo de TV del momento. Su idea era además, crear un juego interactivo entre la TV y el usuario. Su jefe finalmente no aceptó la idea y Baer la guardó entre sus cajones. No sería hasta 1966 cuando Baer retomaría su idea de ese juego interactivo. En ese año creó un juego de dos jugadores llamado Chase donde dos puntos en la pantalla se perseguían entre sí. Eso fue lo que Baer le mostró a su jefe quien dio el OK y comenzó a desarrollar su viejo proyecto. El resultado del desarrollo se vio por primera vez en 1968, cuando con la ayuda de Bill Harrison y Bill Rusch crearon el primero prototipo llamado Brown Box. Continuó el desarrollo y finalmente el 24 de mayo de 1972, se mostró al público la llamada Magnavox Odyssey. Esta es la primera consola hogareña de videojuegos y consistía en dos joystick y varios interruptores que cambiaban los diferentes juegos disponibles. Luego se lanzó al mercado una pistola de luz que permitía jugar a nuevos y distintos juegos. En agosto del 72 se lanzó finalmente al mercado. Sin embargo no tuve el éxito necesario, y esto se debió a la poca propaganda de la empresa Magnavox le dio a la consola, llegando al punto de que la gente creía que esa consola sólo funcionaba en televisiones Magnavox. Sin embargo, Magnavox se benefició con la consola, ya que las subsiguientes empresas que lanzaron empresas al mercado debían pagar regalías o sufrían juicios por patentes, como por ejemplo Atari, Coleco, Activision, Mattel o hasta Nintendo. Ralph Baer por su parte junto a Howard J. Morrison creó años después el famosísimo Simon. A pesar de eso la Magnavox Odyssey sentó un gran precedente en el mundo de las consolas hogareñas. En la navidad de 1975, Atari lanzó al mercado la versión hogareña del famoso Pong. Y junto a él, luego salieron distintos clones. Dos años después, también de la mano de Atari surgió la Atari 2600, una de las consolas más famosas de la historia. Si bien muchos le dan el título de ser la primera consola en usar cartuchos, en realidad la primera consola en desarrollar un sistema de cartuchos fue la Fairchild Video Entertaiment System, luego llamada Channel F. Sin embargo la competencia que tuvo la Atari 2600 fue mucha y reñida, su popularidad residió en que los juegos más famosos de la época como el Pac-Man, Space Invaders, Asteroids, Pitfall!, Donkey Kong o Mario Bros eran exclusivos de esta consola. Su presencia fue tan importante que estuvo en el mercado hasta 1992, con varios rediseños en el medio. Sin embargo, la historia de los videojuegos tenía mucho por dar todavía. Si buen durante la época del lanzamiento de la Atari 2600 en el 77, ésta fue una de las predominantes, hubo más consolas que salieron al mercado a competir por el creciente mercado del jueguito electrónico. En los fines de la década del 70 y principio de los 80 hubo otras consolas que salieron al mercado, dando lugar a la llamada 2º era de las consolas y comenzando la primera gran guerra de consolas. Una de ellas fue la sucesora de la primera consola de videojuegos, la Magnavox Odyssey, que se llamó… Magnavox Odyssey 2. La sucesora de la primera de las consolas fue lanzada en 1978 y en Europa se la conoció como la Philips Videopac G7000, en Brasil como la Philips Odyssey y en los Estados Unidos también como la Philips Odyssey 2, esto se debía a que Magnavox era parte de la empresa Philips y se encargaba de comercializarla en todo el mundo. La novedad de esta consola fue que también usó un sistema de cartuchos, que se convertiría en el estándar de las consolas durante mucho tiempo. Otra de las consolas importantes en esta época fue la Intellivision, creada por la empresa Mattel (la empresa de Barbie, sí) quien realmente le supuso una competencia a la reina de las consolas, la Atari 2600. Intellivision fue lanzada al mercado en 1979. Las capacidades superiores de esta consola, la primera de 16-bits, pusieron a Atari en un serio aprieto, ya que muchos anuncios demostraban las diferencias de capacidad de cada consola que dejaron muy mal parada a Atari. Así, Intellivision se convirtió en una consola muy popular para la que se lanzaron casi 200 juegos en cartucho. También otra consola que marcó un hito en la segunda generación fue la ColecoVision (1982), que fue muy popular también, no sólo porque podía correr juegos de la Atari 2600, si por sus sorprendentes capacidades para reproducir fielmente los juegos originales de los arcades, siendo el más popular el famoso Donkey Kong. Y como respuesta de Atari a las consolas de Mattel y Coleco, la compañía lanzó en 1982 la sucesora de la famosísima Atari 2600, la Atari 5200. Sin embargo no tuvo el éxito esperado que había tenido la 2600 y esto se debió a que no había retrocompatibilidad (aunque luego lanzó un adaptador en el 83 para poder jugar a los juegos de la 2600), y que Atari no le dio la atención ni los recursos necesarios. Esto se debía a que la empresa seguía poniendo sus esfuerzos en la vieja 2600 que saturaba el mercado en ese entonces. Otras consolas que surgieron en la época fueron la Sega SG-1000, en Japón en 1983, que significó el ingreso de esta compañía al mercado de las consolas de videojuegos. También la Bally Astrocade, una consola de la sub división Midway de la empresa Bally que se dedicaba a hacer Pinballs, o la Arcadia 2001 desarrollada por la empresa Radio Emerson Corp. Sin embargo, como se puede notar, la industria de los videojuegos estaba en constante crecimiento y nuevos, juegos y consolas salían al mercado desmedidamente. Este crecimiento no se correspondía con la calidad de algunos juegos, como una versión del Pac-Man lanzada para la Atari 2600 que dejaba mucho que desear, aunque este no fue el único fracaso. En 1982, salió al mercado para esta misma consola el juego E.T. the Extra-Terrestrial, basado en la famosa película. Sin embargo el juego fue un fiasco total y un total desastre en ventas. Atari había calculado una cantidad de ventas que no se correspondió con la realidad y se quedó con millones de cartuchos en su poder que no pudo vender. Existe un mito urbano que dice que los cartuchos fueron destruidos y arrojados a un basurero en Nuevo México. En 1979 surge Activision, fundada por ex programadores de Atari que renunciaron porque la compañía se negaba a reconocerlos como desarrolladores en los juegos y tampoco quería pagar comisiones por las ventas de los cartuchos. Entonces se convirtieron en la primera empresa desarrolladora de juegos third-party. Atari demandó a la nueva Activision pero perdió, sentando un precedente y haciendo entonces que muchas compañías nuevas ingresaran al mercado para desarrollar juegos. Sin embargo, estas nuevas compañías no eran tan buenas y los juegos eran de pésima calidad. Además las empresas perdieron la exclusividad de algunos juegos, creando una sobreoferta en el mercado. Enseguida los precios bajaron drásticamente y las jugueterías y tiendas estaban saturadas de juegos, consolas, entre otras cosas. Los dueños de los negocios empezaron a devolver a las compañías los artículos no vendidos y con el tiempo dejaron de vender videojuegos, ya que no daban rédito. Esta fue llamada la gran crisis de los videojuegos norteamericana, que causó el colapso de muchas empresas dedicadas a los videojuegos. Los problemas provocados por la crisis de los videojuegos del 83, hicieron que la palabra videojuego sea una mala palabra en tiendas de juguetes. Los vendedores decidieron que las consolas de videojuegos ya habían pasado de moda, como cualquier juguete que se pudiera vender. Esto no se aplicaba a los arcades, que seguían siendo populares en esas épocas aún y más juegos iban apareciendo. Pero en el tema de las consolas todo se veía oscuro y parecía que ya no había vuelta atrás. Muchas empresas estadounidenses dedicadas a los videojuegos desaparecieron, como Coleco y Magnavox. Y esto provocó que el foco del mercado y desarrollo de los videojuegos se mudaran a otro punto del planeta: Japón. Japón era la cuna de dos grandes de los videojuegos que tomarían el control del mercado de las consolas de los videojuegos durante las siguientes dos décadas: Service Games (SEGA) y Nintendo. Lo curioso es cómo lograron estas dos compañías, especialmente Nintendo, para evitar los problemas que habían llevado a la afamada crisis del 83. Primero fue el uso del secreto industrial, para que las otras empresas no pudieran usar la misma tecnología y por primera vez el uso de licencias. Cuando una empresa third party quería desarrollar un videojuego para una consola tenía que obtener la licencia, y una vez obtenida se ponía un chip especial en los cartuchos para permitir que funcionen en las respectivas consolas. De esta manera lograba mantener exclusivamente los juegos a una sola consola y así evitar una sobreoferta de videojuegos, que fue la principal causa de la crisis del 83. En el 83 entonces Nintendo lanza en Japón la ultra famosa Family Computer, más conocida como Famicom en donde fue un gran éxito. Sin embargo el problema residía en el mercado estadounidense. Los vendedores estadounidenses veían a los videojuegos de la crisis como una moda pasajera, y que ya no tenían vigencia. Por esta razón, la empresa japonesa tuvo que hacer una gran campaña para vender sus consolas de videojuegos sin denotar que eran videojuegos, que casi eran una mala palabra. El 18 de octubre de 1985 sale a la venta la Family Computer en Estados Unidos bajo el nombre de Nintendo Entertainment System o NES como se popularizó en aquel país (en Argentina, por ejemplo, llegó la versión asiática que se terminó popularizando bajo el nombre de “El Family”). El nombre elegido no fue al azar, ya que no era lo mismo vender una consola que un “Sistema de Entretenimiento”. Además de usar términos como “control deck” en lugar de “game pad” o “game pak” en lugar de cartucho de juegos, usando esos “eufemismos” para engañar a los vendedores. Otra maniobra que hizo Nintendo fue la de incluir un periférico llamado Robotic Operating Buddy (R.O.B) como una novedad para aumentar las ventas. Además entre otras medidas anti-crisis, además de las licencias, la venta de cartuchos dejó de ser “a consignación”, si no que el vendedor asumía el riesgo de vender el cartucho o no, sin posibilidad de regresarlo a empresa como sucedía antes. De esta manera Nintendo se convirtió rápidamente en la empresa más importante de videojuegos en el mundo, y especialmente en Estados Unidos y Japón. Sin embargo en otros países como Brasil, Nueva Zelanda e incluso Europa, la SEGA Master System se impuso con mucha más fuerza que la NES. Otra consola que nació en esta época fue la Atari 7800, que incluía retrocompatibilidad con la vieja 2600 Al fin y al cabo, estas dos empresas y las innovaciones que impusieron, las crisis norteamericana de los videojuegos fue superada y la empresa de los videojuegos empezó a resurgir, pero en un nuevo epicentro: Japón y con una rivalidad entre SEGA y Nintendo que duraría muchos años más.

hola amigos de Taringa hoy les hago un post sobre las netbooks espero que le guste Es inútil negarlo: las netbooks invadieron la esfera de la informática nómade y han seducido en pocos meses a muchos usuarios, deseosos de equiparse de una PC más rápida y diseñada para la comunicación. Pero antes de dejarse seducir por un modelo en particular, te damos algunos elementos que se deben tener en cuenta para elegir un buen equipo... Cuáles son mis necesidades? Para qué voy a usarla? La pregunta puede parecer banal pero se trata de una cuestión fundamental, que permite avanzar en gran medida hacia el producto elegido. Que va a hacer con su netbook? Desea un modelo liviano para un acceso práctico a Web, dondequiera que esté? O busca una computadora muy bien equipada? En este caso, no espere encontrar sobre un netbook el mismo equipo que sobre una notebook tradicional. Considere que las realizaciones de una netbook son y serán siempre inferiores a las de una laptop. Basados en el ahorro de energía, varios elementos claves de una netbook -como el procesador- son menos poderosos que los de una PC transportable. Alcanzan para surfear en la Web, efectuar tareas básicas de ofimática o ver vídeos, pero son incapaces de funcionar con vídeo HD, juegos, programas gráficos o cálculos complejos. Qué tamaño de pantalla? Olvídese de las pantallas de 7 pulgadas, como la que tenía la primera versión de la PC Asus Eee. La pantalla, en ese caso, es demasiado pequeña para permitir una utilización confortable. Su definición de 800 x 400 píxeles no permite, por ejemplo, la visualización de un sitio Internet en toda su anchura y obliga, de hecho, a utilizar el cursor para desplazarse en la página visitada. Este inconveniente desaparece cuando la pantalla pasa a una diagonal de 8,9 pulgares -una dimensión adoptada por la inmensa mayoría de los fabricantes de netbooks. Además, el peso de la máquina es casi el mismo. Ciertos modelos enarbolan una pantalla de 10 pulgares. Lógicamente, la comodidad es todavía mayor, pero se trata de un equipo de mayor porte. Hay que elegir, entonces, entre la legibilidad o la compactibilidad. Asegúrese de adquirir una batería de 6 celdas La batería 6 celdas (o 6 células) debería ser un implemento ineludible para toda netbook. Los numerosos fabricantes de estos equipos se contentan con abastecer una batería 3 celdas: la elección es lamentable, ya que la autonomía de la máquina -esencial para un buen uso- se encuentra a partir de allí considerablemente reducida y no sobrepasa a veces las 2 horas. Por el contrario, las seis celdas del acumulador de Acer Aspire One posibilitan más de 5 horas de autonomía. Ídem para Asus Eee PC 901 y 1000. Si varios modelos de la competencia son presentados, por defecto, con 3 o 4 celdas, no dude en pedir una batería suplementaria, de mayor capacidad. Más allá del argumento de la autonomía, una batería de este tipo también contribuirá a realzar la parte trasera de la máquina, lo que dará un tecleo más confortable, cuando la máquina se encuentre sobre una superficie plana. Pruebe el teclado antes de comprar una netbook Fueron muchos los usuarios de la primera versión de Asus Eee PC que se quejaron pestes contra la dificultad te escribir en el teclado de la máquina. Era demasiado pequeño, y uno cometía demasiados errores de tipeo; había realmente que acostumbrar los dedos a escribir sobre ese teclado. Si el tamaño ha cambiado con la aparición de los modelos 900 y los siguientes, usted no experimentará la misma comodidad de utilización sobre dos teclados de dimensiones idénticas: hay que probarlo antes de comprar. Además de la calidad del tacto, que usted experimentará sólo al poner los dedos sobre el teclado, la disposición de las teclas difiere de un modelo al otro. En algunas netbooks, las teclas páginas siguientes / precedentes son sólo accesibles a partir de una combinación de la tecla 'Fn' (función). Y ésta última está dispuesta a veces abajo y a la izquierda del teclado: toma el sitio tradicionalmente concedido a la tecla ' Ctrl ' (control) y ocasiona de hecho de numerosos errores. Sucede lo mismo con otras teclas: en su preocupación de ahorrar espacio, muchos fabricantes hacen desastres con el bloqueo de las mayúsculas y los caracteres numéricos Qué sistema operativo elegir? Dada la potencia de las netbooks, es inútil pretender la instalación, por ejemplo, de Windows Vista. Queda la alternativa entre XP y Linux. Allí todavía, en una preocupación de potencia, el OS libre parece el más adecuado para sacar partido de las netbooks. Ésta es, por otra parte, la elección hecha por la mayoría de los fabricantes, que firmaron acuerdos con varios editores de Open Fuente con el fin de instalar su distribución en todas las máquinas. Es, por ejemplo, el caso de Acer con Linux o de Emtec con Mandriva Mini. Otros, como Asus, BenQ, les proponen a sus clientes optar por Windows XP. Si el HUESO de Microsoft parece, a priori, tranquilizador - permitirá encontrarse en un entorno conocido y conservar sus costumbres, cualquiera que sea la máquina utilizada- nos parece no compatible con la utilización de una netbook. Disco rígido o SSD? Los discos rígidos magnéticos tienen la ventaja de ofrecer un espacio de almacenamiento generoso, hasta 160 Gb según los modelos de netbooks, para un precio razonable. Los SSD ofrecen una robustez que sobrepasa a la de sus antepasados: no conteniendo ningún elemento mecánico, soportan con menos dificultades los choques y las caídas. Son también más rápidos -lo que se sentirá en el arranque de la máquina y en la ejecución de las aplicaciones- y consumen menos energía. Desgraciadamente, su capacidad de almacenamiento es muy limitada. Así, el de Asus, el Eee PC S101, no soporta más de 16 Gb capacidad sobre la que debe contarse el sistema operativo y los datos CONSEJOS 1. Instalar un antivirus y tenerlo actualizado diariamente. Es vital, ya que el uso de estos equipos (constantemente conectados a redes, Internet y compartiendo archivos) los hace altamente vulnerables. Simultáneamente, configurar Windows para actualizar constantemente el sistema operativo es algo que tampoco debes olvidar. 2. Comprar una batería adicional o de larga duración. La mayoría de las netbooks cuentan con una batería de 3 celdas, que da una autonomía de 3 a 4 horas, aproximadamente. Si ello no es suficiente para ti, no debes sentirte limitado ya que puedes adquirir una batería de 6 celdas, que te dará autonomía de aproximadamente 11 horas y con ello, mayor libertad fuera de casa, escuela u oficina. 3. Equipos pequeños y transportables. Muchos de los usuarios usan sus netbooks no solamente para trabajar o estudiar sino también para actividades de entretenimiento como navegar en Internet, escuchar música o chatear con amigos. Esta facilidad hace que los equipos sean llevados en mochilas para meterse y sacarse con mayor facilidad, de un momento a otro, sin la precaución de ponerlos en “suspensión” antes de hacerlo, lo cual puede provocar daños al disco duro. La recomendación para evitarlo es que configures la netbook de tal manera que al cerrarla el disco duro entre en hibernación de una manera fácil y rápida. Tienes con ello la ventaja de que al reiniciar tu computadora el área de trabajo y los archivos estarán en el mismo estatus en que los dejaste al hacer la suspensión; esta acción apaga la pantalla y disco duro utilizando una mínima cantidad de energía, por lo que el reinicio es muy rápido. Puedes hacer esto para volver a usar tu netbook en períodos cortos, por ejemplo, para ir de un salón a otro. Otra de las alternativa es la hibernación, muy similar a la anterior pero que apaga completamente la unidad, dejándola en un estado de reinicio y con los archivos y aplicaciones en el mismo estado que en el momento en el que se le dio la orden, aunque su reinicio es un poco más lento. Puedes utilizar la hibernación para volver a usar el equipo en dos o tres horas. Primera carga y mantenimiento Los usuarios de notebooks encontrarán opiniones diferentes acerca de cómo debe ser la primera carga de la batería de una notebook. Tiempo atrás, se recomendaba que la primera carga debía ser de unas 8 horas, acepción que cambió gracias a que ahora las baterías de litio ion vienen precargadas de fábrica. Otro de los conceptos que cambiaron recientemente se relaciona con si dejar puesta la batería o no mientras se trabaja conectado a la corriente. Es decir, una vez que la pila alcanzó el 100%, ¿ es perjudicial que siga conectada a la corriente mientras se sigue trabajando? Los equipos más modernos están dotados de un corta corriente que impide que la batería siga esforzándose para alcanzar el 100% de carga. Para saber si su notebook posee esta característica sólo debe observar qué sucede cuando la carga llega al límite. Si la luz de la ficha en donde se inserta el cable de energía se apaga, significa que su equipo posee corta corriente