MukenioArg
Usuario (Argentina)
Hardware en un portátil Lo “bueno” de un portátil es que suelen ser configuraciones cerradas que no podemos personalizar a nuestro antojo. Y lo digo entrecomillado, puesto que tiene sus ventajas y desventajas. Lo positivo es que no tendremos que comernos la cabeza a la hora de elegir exactamente todos y cada uno de los componentes. Es mucho más complejo elegir el modelo de portátil, tanto debido a su tamaño como por el diseño y las funcionalidades que nos puede traer. Lo negativo es que no tendremos una personalización tan amplia como la que podemos encontrar en un ordenador de sobremesa, y estaremos limitados por lo que los fabricantes nos quieran ofrecer en sus catálogos. Dejando de lado el tamaño, lo cual trataremos luego, los componentes más importantes que deberemos elegir son los siguientes: * Microprocesador. * Tarjeta gráfica. * Memoria RAM. * Disco duro. Aunque un aspecto fundamental es el tamaño, modelo y fabricante. Elegir un portátil: cuando el tamaño sí es fundamental Portátiles A día de hoy, el tamaño de un portátil es posiblemente lo más importante para elegir un buen dispositivo. Hace unos años todo eran 14 y 15 pulgadas, pero en la actualidad nos encontramos con multitud de tamaños posibles, cada uno de los cuales tiene configuraciones de lo más diversas. Yo dividiría los diferentes tamaños en tres conjuntos: * De 12 a 14 pulgadas: desde mi punto de vista los mejores, más cómodos y más eficientes. Cuentan con procesadores de verdad cuya potencia es más que suficiente para las tareas que podemos realizar en un ordenador. Son pequeños, ligeros y muy cómodos, y además cuentan con autonomías realmente altas. * 15 pulgadas: es el tamaño estándar para un ordenador portátil, del que más modelos hay. Desde mi punto de vista son demasiado grandes para tener un ordenador que queremos mover constantemente, aunque a su favor se puede decir que existen modelos de todo tipo y color, tanto con características buenas como con otras que casi dan vergüenza ajena. Suelen ser también los más asequibles. * De 16 a 18 pulgadas: hablamos de ordenadores que denominamos portátiles porque tienen batería, pero que más bien son transportables debido a su enorme tamaño. En este rango nos encontraremos auténticas bestias en términos de potencia, pero sacrificando la duración de la batería. Aunque suelen ser muy caros, pueden ser una buena opción para el usuario que quiera un ordenador de sobremesa normal y que sólo vaya a moverlo en ocasiones muy puntuales. Antes de empezar… ¿realmente necesitas un portátil? Los portátiles están de moda, y es por ésto por lo que existe una gran confusión en cuanto a la potencia de un portátil en comparación con la de un ordenador de sobremesa. Un portátil es mucho menos potente que un ordenador de sobremesa en todos los aspectos. Si lo que buscas es una máquina potente, para jugar o ejecutar aplicaciones de corte profesional, entonces un ordenador de sobremesa es tu solución. Échale un vistazo a la respectiva guía de compras si finalmente te decantas por esa opción. En general, un portátil es mucho más caro que un sobremesa si hablamos en términos de rendimiento/precio. En otras palabras, podemos comprar dos ordenadores, uno sobremesa y otro portátil por el mismo precio, pero el sobremesa siempre será muchísimo más potente que el portátil. Es decir, que si buscas potencia entonces huye de los portátiles y acude a un sobremesa. También tienen otras ventajas, como la personalización máxima o la posibilidad de ampliación en un futuro, cosa que en los portátiles es algo muy limitado. También hay mucha gente a la que un ordenador portátil le puede venir bien en vez de un ordenador de mesa. Un portátil es mucho más pequeño y compacto, y sobretodo, no tiene tantos cables. Si lo que quieres es un ordenador para navegar por Internet y poco más, un portátil puede ser una magnífica solución, te ocupará un espacio bastante reducido y sin el siempre molesto cableado de un ordenador de sobremesa. El microprocesador del portátil Intel Arrandale Entramos ya con el hardware puro de un ordenador portátil, y empezaremos con la pieza clave de todo ordenador: el microprocesador. A pesar de que existen procesadores para portátil de los dos grandes fabricantes, Intel y AMD, sólo uno de ellos está dominando esta parte del mercado. Intel tiene unos magníficos productos, muy por encima de lo que llegan a alcanzar los de AMD. Además, sus últimos procesadores de la familia Core i están recién estrenados en el mercado, y son de lo más interesante que hay. Intel Core i5 GPU Los Intel Core i3, i5 e i7 son procesadores excelentes, que siguen el proceso de fabricación de 32 nanómetros e integran GPU en el mismo chip en la mayoría de los casos. No obstante, sobre la GPU y las capacidades gráficas hablaremos más adelante. Podemos elegir el microprocesador de nuestro portátil dependiendo de tres categorías: * Intel Core i3 para ordenadores en los que no necesitemos una excesiva potencia. Un Core i3 funciona a la perfección con las tareas más convencionales: navegar por Internet, paquetes de ofimática e incluso determinados videojuegos. Eso sí, no le exijamos mucho porque es una gama de procesadores con la que se pretende mantener un bajo consumo (que equivaldrá a una larga autonomía) a la par que una potencia decente, pero no sobresaliente. * Intel Core i5 o las gamas bajas de los i7 para ordenadores donde queramos tener algo más de potencia, incluyendo la suficiente como para videojuegos, edición de vídeo o incluso aplicaciones profesionales. Son realmente buenos y una interesante opción para usuarios algo más avanzados. * Gamas altas de Intel Core i7 para portátiles cuyos usuarios sean totalmente exigentes con su aparato. En otras palabras, si lo que quieres es el portátil más potente del mercado, entonces su procesador tendrá que ser un Core i7. De todas formas, el mercado y los propios fabricantes sólo ofrecen determinados modelos de procesadores según el tamaño del portátil: * Intel Core i3 para portátiles sobre las 13 pulgadas. * Intel Core i3, i5 o i7 para portátiles sobre las 15 pulgadas. * Intel Core i5 o i7 para portátiles sobre las 17 pulgadas. En otras palabras: no encontrarás un ordenador de 12, 13 o 14 pulgadas con procesador Intel Core i7, ni una máquina de 18.3 pulgadas con un Intel Core i3. Al menos no a día de hoy. En la siguiente tabla encontraréis los principales modelos de microprocesadores de la familia Intel Core que hay en el mercado. Todos ellos pertenecen a la última hornada de presentaciones de Intel en Enero, y faltarían añadir algunos modelos que se presentaron allá por septiembre: Intel Core i7 Mobile Specs AMD Turion Muchos os preguntaréis por qué no hemos hablado de AMD. La razón es muy sencilla: en CPUs de portátil AMD está muy por debajo de Intel en todos los aspectos, aunque a lo largo de 2010 esperamos una nueva familia de micros de AMD para este campo. Sí existen unos cuantos modelos de portátil que utilizan procesadores de AMD, aunque son bastantes pocos en comparación con la enorme mayoría que supone el uso de los modelos de Intel. ¿Sirven para algo los chips de AMD en portátil? Aunque mi recomendación sería ir a por un procesador Intel, uno de AMD puede ser muy válido si lo que buscamos no es una gran potencia. Tarjeta gráfica NVidia GPU En tarjetas gráficas la cosa se complica respecto de los ordenadores de sobremesa. En ellos, la soberanía plena es para ATi, mientras que aquí está mucho más reñido. ATi 5000 Series y NVidia GT300 ya están en el mercado, aunque la opción de ATi es mucho más mayoritaria y se encuentra con mayor facilidad en el mercado. ¿Cuál elegir? Antes de nada tenemos que plantearnos la necesidad de una buena tarjeta gráfica en un portátil. Mi opinión es rotunda y radical: las tarjetas gráficas en portátiles son totalmente prescindibles, y con una integrada tendremos más que suficiente, salvando unas pocas excepciones que dependerán del uso que vaya a darle el usuario. Si quieres un portátil para jugar o para trabajar en el renderizado 3D, entonces sí tendrás que optar por una buena GPU. De lo contrario, si eres un usuario normal que juega con su consola o su sobremesa, o que trabajas en el sobremesa con 3DMax o Autocad y usas el portátil para leer el correo y editar texto, entonces con una gráfica integrada tendrás potencia de sobra. No necesito una gran potencia, quiero una GPU integrada Intel GPU Lo tienes fácil: la GPU de los procesadores Intel Core es excelente. Con ella podrás realizar el 90% de las tareas de una forma eficaz y totalmente fluida, incluyendo la reproducción de contenido en alta definición (sí, 1080p también) e incluso algunos videojuegos bien configurados. Y fin, ya que no hay más opciones. Necesito mucha potencia, quiero una GPU dedicada NVidia ATi Me complicas las cosas. Lo primero, ¿ATi o NVidia?. Hay que reconocer que ambos fabricantes están a la par, ofreciendo funcionalidades y un rendimiento excelente para un ordenador portátil. A favor de NVidia, la compatibilidad nativa con CUDA y PhysX, mientras que ATi tener precios más asequibles. NVidia 360MUn aspecto importante es que la numeración se mantiene dependiendo del nombre del modelo. Entender esto es tan sencillo como decir que la ATi 5870 es más potente que la 5850, la cual a su vez es más eficiente que la 5650, y ésta mejor que la 5450. En NVidia ocurre una cosa similar. Sin embargo, el principal problema viene cuando intentamos enfrentar un producto ATi con uno de NVidia, cosa que rara vez se da en un mismo modelo de portátil (por ejemplo, un Dell Inspiron 15 sólo permite elegir entre gráficas de ATi o de NVidia, pero no entre las dos a la vez). En éste punto la respuesta es muchísimo más compleja de lo que parece, y sería necesario tratar cada caso de forma individual. De forma muy general podrían diferenciarse las siguientes tres gamas. * ATi 5450 y NVidia 310M son gamas bajas, más potentes que una integrada pero que desde mi punto de vista no merecen la pena. * ATi 5650 y NVidia 330M, unas gamas medias más que dignas y que podrán con casi todo lo que las eches. Están realmente bien, y existen portátiles que las usan por precios más o menos asequibles. * ATi 5870 y NVidia 360M, con ellas conseguirás la mayor potencia existente en un ordenador portátil. Si quieres jugar a la mayor calidad, debe ser tu elección. ATi MobilityAunque en realidad cada uno de estos tres puntos engloban a su vez otros muchos modelos, es una generalización válida para entender a de un rápido vistazo cómo es el panorama de las gráficas en los ordenadores portátiles. También es necesario comentar que es complicado encontrar portátiles de 13 pulgadas con gráficas dedicadas, aunque alguno existe si nos vamos a gamas muy altas. En tamaños mayores es mucho más sencillo, aunque también tendremos dificultades en encontrar uno de 15 pulgadas con una 5870 o una 360M, dos gráficas de gama alta que por ejemplo están casi limitadas a su uso en ordenadores de 17 pulgadas o más. Por ésto comentábamos antes que elegir el tamaño es fundamental para luego poder tener un mayor abanico de posibilidades en los distintos componentes. Memoria RAM Kingston HyperX Lo tenemos fácil, pues los ordenadores portátiles suelen incluir de serie los 4 GB de RAM. ¿Necesitamos más? Con los sistemas operativos actuales y las aplicaciones que tenemos, no. De hecho, 2 GB es suficiente para la gran mayoría de tareas. Podríamos ampliar a 6 u 8 GB, pero el precio que los fabricantes piden es excesivamente alto por una cantidad de memoria a la que no le vamos a sacar partido en absoluto. Disco duro WD Scorpio Black En la elección del disco duro ocurre algo similar a lo que hemos visto en la memoria RAM. Salvo unas pocas excepciones los portátiles suelen tener un único disco duro, con lo que la elección del disco duro en u portátil depende de dos únicas variables: * Capacidad: ¿cuánto necesitamos? 500 GB es a día de hoy una cifra bastante habitual de encontrar, aunque algunos modelos ofrecen más y otros algo menos. Piensa en si realmente necesitas una capacidad tan alta. * Velocidad de giro: generalmente nos encontraremos con discos de 4.200 o 5.400 rpm, aunque en algunos casos podremos tener 7.200 rpm. Ten en cuenta que a mayor velocidad obtendremos un mayor rendimiento, pero el consumo energético es mayor y nuestra batería durará menos. Un punto a tener en cuenta son los SSD. Estas unidades están empezando a tener una importancia cada vez mayor, aunque los fabricantes aún no las utilizan ni permiten su configuración más que en unos pocos modelos. Por ahora no entraremos en mayor detalle, pero en un futuro próximo (1-2 años) jugarán un papel fundamental en nuestros ordenadores portátiles. Otros notebook Battery Algunos otros componentes no tan fundamentales pero que sí pueden tenerse parcialmente en cuenta: * Conectividad: generalmente todos los portátiles incluyen WiFi y bluetooth, con lo que no deberemos preocuparnos por estos aspectos. Adicionalmente podemos buscar equipos con eSATA o USB 3.0, que poco a poco ya empiezan a aparecer en el mercado. * Batería: lo más usual es encontrarnos con portátiles cuya batería es de 3 o 6 celdas. Adicionalmente podemos comprar una de 9, más grande pero con una duración mucho mayor. Si necesitas una autonomía máxima es una opción a tener en cuenta, aunque os adelanto que no son nada baratas. * Fabricante: es una elección fundamental. Tenemos que elegir un fabricante con el que nosotros estemos cómodos, y que además sepamos que de buenos resultados, ya se por conocidos o por análisis por la red. Cada uno tenemos nuestros favoritos. * Garantía: prácticamente todas las tiendas ofrecen garantías adicionales y seguros, más allá de los dos años que por ley el fabricante está obligado a dar. Dale una pensada, aunque yo no soy muy partidario de este tipo de sacacuartos y considero que con un poco de cuidado cualquier portátil puede tener una vida mucho más longeva. Consejos para comprar un ordenador: conclusiones Packard Bell dot m Finalizamos ya nuestros consejos y recomendaciones para comprar tu nuevo portátil con algunos detalles generales: * Piensa bien qué tipo de portátil quieres, dependiendo del uso que le vayas a dar: pequeño o grande, esa es la base para luego elegir el resto de componentes. * Los últimos procesadores Intel Core i3, i5 e i7 son excepcionales en comparación con el resto del mercado. Yo la considero la mejor opción. * Coge un portátil bonito y de buen diseño. Si puedes, pruébalo antes para comprobar la comodidad del teclado y cómo se comporta. * Una buena funda o maletín es fundamental. A mi particularmente me encantan las fundas de neopreno. No obstante, cada portátil debe ajustarse a las necesidades de su usuario, igual que ocurre con prácticamente cualquier gadget. Hay que tener muy en cuenta que no existe el portátil perfecto para todo el mundo. Subscribite por RSS Fuente
Si lo decía el propio Guybrush, tenía que ser verdad. Efectivamente, la insuperable segunda aventura del gran Threepwood llegará con gráficos renovados a iPhone, Mac, PC, PlayStation Network y Xbox Live Arcade este mismo verano. Lo ha anunciado LucasArts durante la GDC, reuniendo a Tim Schafer y Ron Gilbert para la ocasión. No sé si es por el cambio de peinado (menos mal…) del protagonista, pero lo cierto es que el aspecto de Monkey Island 2 Special Edition: LeChuck’s Revenge me gusta mucho más que el anterior remake. Nada como la pixelada belleza del original, en todo caso. Podéis ver varias imágenes comparativas en la galería tras el salto, que vuelvo a sacar de All Games Beta. http://www.anaitgames.com/lucasarts-anuncia-y-ensena-el-remake-de-monkey-island-2
Con el pasar de los años aquí en el blog, hemos ido acumulando múltiples artículos sobre el Wi Fi; desde artículos para mejorar la calidad de la señal inalámbrica, pasando por tips para asegurar nuestra red y mostrando también, por supuesto, lo vulnerable que algunos protocolos de seguridad son (asegúrense de no usar WEP, sino WPA2 en sus routers). El día de hoy, pues, veremos una pequeña recopilación con los mejores artículos al respecto, así que no se lo pierdan! Proteger el WiFi. Como asegurar nuestra conexion inalámbrica y evitar que otros se conecten Es sinceramente increíble la cantidad de redes inalámbricas desprotegidas que uno puede encontrar con tan solo subir al auto y hacer paradas al azar (también conocido como War Driving). También resulta alarmante ver cómo la mayoría de las conexiones supuestamente protegidas, sufren de dos problemas: están con el password por defecto (1234, admin, o combinaciones igual de simples), o están con encriptación WEP, que puede ser crackeada en cuestión de minutos con conocimientos básicos y una simple laptop. Lo que veremos en este artículo el día de hoy, es algo bastante sencillo, pero que hará que las oportunidades de que cualquier persona se meta en nuestra red WiFi sin ninguna invitación, sean mínimas. Paso 0: Lo que no sirve Antes de pasar al tutorial, veremos algunas cosas que supuestamente deberían asegurar nuestra red casera, pero que no lo hacen: Ocultar el SSID: El SSID, o en términos simples, el nombre de nuestra red inalámbrica y que pueden cambiar por lo que sea, está ahí sólo para poder identificar una red de otra. Todos los routers ofrecen la posibilidad de ocultar el SSID, pero esto no trae ningún beneficio en cuanto a la seguridad. Claro, no aparecerá en una búsqueda normal, pero basta con utilizar un programa que escuche a la red de modo pasivo (es decir, que monitoree las transmisiones inalámbricas), para poder descubrir, en cuestión de segundos, nuestra Red. Filtrar direcciones MAC: Esto también puede sonar como una buena alternativa, pero no lo es. Lo que esta opción hace, es sólo permitir acceso al WiFi a los dispositivos que hemos registrado manualmente – cada dispositivo tiene una dirección MAC que lo identifica, como una suerte de número de serie, o documento de identidad. Suena genial, no? El problema es que, al igual que en el caso anterior, cualquier programa puede dar un número de serie falso, o siguiendo la analogía, mostrar un documento falso, y así le damos libre acceso a nuestra Red, sin peticiones de passwords, ni nada. Paso 1: Cambiar el password del router Antes de cambiar nuestro router de WEP a WPA 2, no es mala idea, primero, cambiar el password de nuestro router. Lo primero que haremos, es entrar en la configuración de nuestro Router. Esto varía entre diferentes marcas, así que tendrán que consultar el manual de usuario (si han perdido el manuel y quieren una copia digital, no se olviden de buscar en Manuals Online). Pero usualmente, pueden conseguir entrar en el panel, escribiendo: 192.168.1.1 o 192.168.0.1 en cualquier navegador web (como Firefox, o Internet Explorer). El nombre de usuario y contraseña también lo encontrarán en el manual. En caso de que no funcionen, lo mejor que pueden hacer es contactar con la compañía proveedora de internet y pedirle estos datos (pues pueden haberlo modificado) Una vez dentro, tendremos que buscar la opción que nos permite cambiar el Password del panel de control del router: No se olviden de apuntarlo en algún lugar, porque una vez cambiado, si no lo conocemos, no podremos acceder al panel de configuración! (y nos veremos obligados a hacer resetar el router a 0) Paso 2: Cambiar el modo de seguridad / Añadir un password seguro A pesar de haber sido reemplazado hace bastante tiempo por sus problemas de seguridad y vulerabilidad, el protocolo WEP sigue siendo bastante común en la mayoría de redes caseras. Definitivamente es mejor que nada y mantendrá al menos a las personas comunes fuera de nuestra red. Pero es como si simplemente, cerráramos la puerta de nuestra casa, sin llave, anunciando a cualquiera que pase por casa “hey, está cerrado, así que no entren”. Pero cualquier persona con siquiera un ligero interés en entrar simplemente puede acercarse a la puerta, y abrirla sin mucha dificultad. De hecho, pronto veremos un tutorial sobre cómo crackear redes WEP, y se sorprenderán con lo simple (y rápido) que podemos obtener un password / usuario de redes en WEP El otro método de seguridad, WPA / WPA 2, por otro lado, es muchísimo más seguro. No es 100% efectivo, pero sí muchísimo más difícil de crackear que el anterior standard. Así que nuestra primera prioridad, es la de cambiar nuestra seguridad del Wifi de ninguna / WEP a WPA o WPA 2. Esta opción también varía de router a router, pero generalmente lo encontrarán bajo una opción que se llame Wireless, o Wireless Configurations, o similares: http://www.arturogoga.com/wp-content/uploads/2009/08/TPLINK.jpg Dentro de las opciones disponibles del router, encontrarán también algo llamado Security Option, o Encryption Type, 802.1x/WPA o similares. Aquí, tenemos que elegir WPA2-PSK o, de no estar disponible, WPA-PSK. WPA2-PSK Nota: Bajo WPA2, verán la opción de cambiar el tipo de encriptación. Utilizar AES (en lugar de TKIP), es mucho más seguro. Por qué el PSK? Porque el otro modo de WPA, el Enterprise, requiere el uso de un server RADIUS (Remote Authentication Dial In User Service) aparte que, seguramente, no podremos implementar, sobre todo si se trata de una red casera. Por lo tanto, vamos a depender del modo de encriptación más seguro de WPA / WPA 2, además del siguiente paso, un Passkey o password de la red WiFi fuerte. Paso 3: Contraseña de la Red Llegamos al último paso! Para terminar de asegurar nuestra red, además de un buen tipo de encriptación, es necesario un password relativamente fuerte para evitar los ataques de “fuerza bruta”, que intentan adivinar el password probando millones de combinaciones. Esto se consigue, principalmente, mezclando diferentes tipos de caracteres y evitando usar palabras disponibles en diccionarios (o palabras que existen). En el 2006, vimos una interesante manera de cómo generar contraseñas seguras, donde básicamente, se sugiere utilizar al menos uno de cada fila de estos caracteres: 0123456789 abcdefghijklmnopqrstuvwxyz ABCDEFGHIJKLMNOPQRSTUVWXYZ @#$%^&*()-_+= ~`[]{}|:;’<>,.?/ Y combinarlos para crear algo como 0aG8$.?&bd. Con flojera? Prueben SafePasswd, que también puede generar passwords seguros Por supuesto, también tendrán que recordarlos, así que no es mala idea anotarlo en una pequeña tira, y pegarlo debajo del router, además de tenerlo apuntado en un programa como LastPass. Hackear contraseña de WiFi con BackTrack Este muy bien hecho video tutorial (disponible en HD!)demuestra lo simple que es conseguir la contraseña de una red WiFi (que esté utilizando WEP), con el programa Backtrack. link: Los programas necesarios, los encontrarán aquí http://www.backtrack-linux.org http://www.imgburn.com/ Necesitarán también un disco en blanco para poder correr el programa (es un ISO) Mientras que los comandos utilizados, son estos: Startx /etc/init.d/networking start airmon-ng airmon-ng stop [wireless card name] airmon-ng start [wireless card name] airmon-ng airodump-ng [wireless card name] ctrl c airodump-ng w wep c [channel number] bssid [Bssid number] [wireless card name] aireplay-ng -1 0 a [bssid] [wireless card name] aireplay-ng -3 b [bssid][wireless card name] ctrl + c dir aircrack-ng [filename] Cómo conectar 2 Routers en la misma Red Digamos que ya tienen un modem/router (un combo de los dos), y que quieren añadir la capacidad de tener wireless. Pues conectando un Router con WiFi, pueden conseguir esto. Asi que, terminé comprando los dos, para ver qué tan fácil era configurar un router para que cumpliese la misma función que el caro Access Point. Que donde está lo gracioso? Luego de configurar ambos, resulta que el Router que cumple la función de AP, tiene mejor alcance que el mismo AP. Pero antes de pasar al tutorial, vamos a definir lo que es cada uno: Un Access Point es básicamente, un punto de acceso, una extensión de nuestra señal WiFi. Basta con conectarle un típico cable de red, correr el Wizard del mismo, y en pocos segundos, tendremos nuestra red inalámbrica ampliada. El Router, por otro lado, tiene una función más compleja. En primer lugar, toma la señal de un modem ADSL / Cable, y luego "rutea" la señal a diferentes PCs (1-4 dependiendo del modelo del router). Además, funciona también como firewall, cerrando puertos y previniendo conexiones no deseadas. En resumen, se encarga de dirigir el tráfico de / hacia diferentes PCs, y la Web. Pero por qué el router terminó costando mucho más barato que el típico access point? La verdad, no tengo la menor idea. Pero hey, por qué no aprovecharse de esto, y hacernos un access point del router, no? Pero bueno, pasemos al tutorial, entonces: Nota: En ningún momento, durante el tutorial, tendrán que manipular las opciones del router principal. Así que todas las instrucciones, van dirigidas hacia el "Router #2) Una vez que han comprado el router que usarán como Access Point, deben sacar una conexión de cualquiera de los otros puertos del router (los puertos LAN del router #1), hacia otro puerto LAN del router #2. Es decir, no utilizar el puerto denominado "WAN". Podemos, por ejemplo, conectar un cable de Red desde el puerto 4 del router #1 (el principal), al puerto 1 del router #2 (nada de WAN, no lo olviden). El cable puede ser el "cruzado", o uno normal. En mis pruebas, los dos funcionaron bien. Básicamente, estamos hablando de algo como esto: Ahora, le ponemos un cable de red al router #2 y conectamos una PC. Para qué? Porque vamos a tener que cambiar dos cosas en el Router #2: El IP, y configurar el Wireless. Una vez que hemos conectado la PC a este otro router (el #2, no el principal), nos metemos al panel de adminstrados. Usualmente, es 192.168.1.1, con el usuario: admin, y el password: admin (o 1234). Una vez que entramos, tenemos que ubicar la opción, de acuerdo a nuestro router, para modificar la IP del mismo. Para esto, buscamos en algún lugar donde nos diga "Network Setup", LAN Settings, etc. Lo que buscamos, es cambiar el IP Address local. Aquí una imagen del router que compré para este uso: El router venía, por defecto, con 192.168.1.1 (por eso usamos ese número para entrar al panel de administrador). Pero ahora, lo cambiamos a 192.168.1.2 para poder ingresar desde cualquier PC. Recuerden que el cable de red que viene del router principal, está conectado a un puerto LAN, no WAN. Una vez hecho esto, tenemos que buscar entre las otras opciones, algún lugar donde nos dejen deshabilitar el DHCP (le da IPs, o direcciones, a cada máquina), pues de esto se encargará el router principal. Por último, buscaremos, entre las opciones del Router, todo lo relacionado a Internet Inalámbrico. Búsquenlo bajo Wireless Settings, Wifi, o similares. Aquí, configuramos la red inalámbrica como siempre lo hacemos (dandole un nombre, un password, etc). Y lo salvamos. Ahora? Basta con desconectar nuestra PC cableada, probar una laptop o cualquier otro dispositivo que soporte WiFi, y buscar nuestra nueva red inalámbrica. Debido a que está dentro de la red principal, no tenemos que configurar nada más para poder usar internet desde aquí. Y como está dentro del mismo subnet (ya que tiene el IP 192.168.1.2), podremos ver las otras PCs que están en la red principal. Un poco laborioso, y aqui como que estamos perdiendo toda la funcionalidad del router, pero hey, ahora ya tienen un Wireless Access Point, más barato que los típicos Access Points. Trucos para Mejorar la señal de la red inalámbrica Tener una conexión WiFi es muy práctico, pues nos permite, si tenemos una laptop, o algún gadget capaz de utilizarla, conectarnos sin tener que estar cargando o buscando un cable de Red. Ejemplo? Ahorita estoy escribiendo este post desde la cocina, mientras veo un poco de tele (aunque… hmmm, la batería está que muere, así que mejor me apuro) En fin, los tips están bastante buenos: 1. Mejora la cobertura, con una mejor colocación. A pesar de que hay varios hacks de software y hardware para mejorar la señal de Wi-Fi, también existen simples ajusten que podemos realizar para obtener una mejor cobertura. Según el NY Times: Poner la estación base (o sea, el router) en un lugar central en un piso superior, o encima de muebles (si el hogar es de un piso), porque las ondas de radio se expanden mejor lateralmente, y hacia abajo La recepción será mejor si la señal no tiene que viajar en ángulos muy pronunciados y si no tiene que pasar por paredes gruesas, espejos, peceras o cualquier cosa de metal Usar access points como impulsadores de señal en todo el hogar para retransmitir la señal WiFi en lugares con problemas. Poner los componentes de redes inalámbricas lejos de otros objetos en el hogar que pueden causar interferencia, como teléfonos inalámbricos, hornos microondas, radios de bebés, o lámparas halógenas. Cambiar el canal por defecto de la señal (usualmente 6) para evitar la interferencia con los aparatos del vecino 2. Habilitar la encriptación WPA La seguridad del WiFi no es tan segura, pero si nuestro router es más seguro que los circundantes, los crackers quizás lo dejen en paz. La mayoría de routers utilizan una encriptación WEP para ponerles un password al a conexión, pero WPA (funciona con la mayoría de routers y tarjetas inalámbricas modernas) son más dificiles de crackear. Para cambiarnos a WPA, en la página de administración del router, cambiar el nivel de seguridad y poner la frase del WPA a algo dificil y largo. 3. No transmitir el nombre de nuestra Red No quieren mostrar la red para cualquiera que se encuentre cerca? Hay que apagar el SSID, que prevendrá a otros dispositivos que encuentren la red como una de las opciones detectadas. PAra hacer eso, en la página de administración del router, quitarle el check a “Enable SSID Broadcast”. Como las otras medidas de seguridad mencionadas arriba, tan solo porque desactivamos el SSID broadcasting no significa que prevendrá a usuarios con el software adecuado, en ver el access point – solo a usuarios con la detección por defecto en sus PCs. Hablando del software adecuado…. 4. Detectar redes con netstumbler El excelente programa NetStumbler para Windows detectará todas las redes inalámbricas en nuestra área, ya sea que tengan el SSID activado o no, o si tienen password o no, y qué tan fuerte resulta la señal. Para Macs, denle un vistazo a MacStumbler Mejorar la señal del WiFi – construye tu propia Antena! Dada la popularidad del WiFi (gracias a lo práctico que es), a veces nos encontramos luchando para ubicar, de la mejor manera posible, nuestra laptop, o el mismo router, y que éste logre cubrir el área más grande posible de nuestra casa. El problema, es que siempre quedarán sitios sin mucha cobertura, donde la señal llega débilmente, y nos obliga a trabajar con una velocidad menor (o peor aún, se desconecta periódicamente). La solución ideal, es añadir puntos de acceso. Esto lo vimos hace algún tiempo, utilizando routers baratos en lugar de los propios Access Points (que usualmente están más caros), y cambiándolos de propósito para servir como puntos de acceso. Pero otra opción bastante buena, es crear nuestra propia antena portátil. La ventaja de esto, es que tendremos una solución portátil que mejorará bastante la recepción y también resulta perfecto para poder entrar de “invitados” en algunas redes que estén abiertas. Como siempre, Instructables tiene una enorme gama de antenas creadas por sus usuarios que son bastante ingeniosas. Como siempre, estos trabajos, al ser del tipo “Hazlo Tu Mismo”, son mejor dejados para proyectos de fin de semana, ya que no es algo que lograrán terminar en pocos minutos. Antena Uni-Direccional La de la foto inicial, fue creada con estos instrumentos: Básicamente, un cable de extensión USB, un adaptador Wifi, pegamento, y una coladera de metal (la cual podemos reemplazar por algún otro instrumento similar) La Cantenna El hack más común que hemos visto. Utilizando una lata metálica (como la de Pringles, por ejemplo, podemos extender el rango de nuestro adaptador WiFi USB. Es una antena uni-direccional, así que tendrán que “apuntarla” para poder conseguir una señal. La ConeTenna Una interesante variación de las antenas que hace uso de un cono para mejor la señal. Se ve imponente y, según los resultados de su creados, consigue una genial señal. Modificando la Antena Si tienen un Adaptador Wifi con antena, este tutorial nos demostrará cómo modificar la antena que viene por defecto por una mucho más potente link: Bonus: Conviertete en Proveedor de Wifi Tienen una genial conexión que les gustaría compartir con el mundo? Este tutorial ve algo que es totalmente opuesto al resto. En lugar de mejorar nuestra recepción y así captar más access points, veremos cómo mejorar nuestra señal para compartirla con el resto. Y todo con materiales “más o menos” caseros! Mejorar la calidad del WiFi, con InSSIDer inSSIDer no es un programa que automágicamente mejorará la calidad de nuestra señal, por supuesto. Al contrario, es un programa de diagnóstico, perfecto para instalar en una laptop y pasearnos por nuestra casa. Verán, las señales de WiFi son fácilmente interrumpidas por otros aparatos como hornos micro-onda, teléfonos inalámbricos, y similares. Con inSSIDer podemos obtener información detallada sobre la fuerza de la señal en el hogar, así que resulta perfecto para reacomodar el router. Otro punto interesante de inSSIDer, es que también nos mostrará qué canales están usando el resto de señales ubicadas. Si viven en una zona poblada de diversas señales de vecinos, quizás la congestión / lentitud se debe a que todo el mundo está usando el mismo canal de WiFi. Con inSSIDer, podremos encontrar los canales más populares, para evitarlos (usualmente es 6 u 11). Los gráficos que inSSIDER muestra son también bastante útiles, mostrándonos la intensidad de las diversas redes que se ubican en el hogar, muy útil para encontrar los puntos débiles y recolocar nuestro router de acuerdo a los datos. Perfecto para pasearse por un área con la laptop, ubicando los “puntos ciegos”. Descargar inSSIDer Si todavía tienen problemas de señal, quizás sea hora de instalar un access point, o de utilizar un segundo router como access point. Otra buena solución? Hace un tiempo, he visto que tanto antenas como adaptadores wifi USB están por todos lados. Si tienen un router con antenas desmontables, pueden reemplazar las que vienen originalmente (usualmente 5dB), por unas de mayor potencia (7-10-15 dB). Asimismo, si el router no puede cambiar antenas, utilicen un adaptador de WiFi USB con mayor potencia. He visto varias marcas chinas, y los resultados han sido bastante buenos. http://www.arturogoga.com/2010/03/16/todo-lo-que-necesitas-saber-sobre-wi-fi-protegerla-crackearla-mejorar-la-seal/ http://www.arturogoga.com/2009/10/11/mejorar-la-calidad-del-wifi-con-inssider/ http://www.arturogoga.com/2009/03/26/mejorar-la-seal-del-wifi-construye-tu-propia-antena/ http://www.arturogoga.com/2007/10/04/mejorar-la-seal-de-la-red-inalmbrica-wi-fi-y-otros-trucos/ http://www.arturogoga.com/2008/02/18/como-conectar-2-routers-en-la-misma-red-y-utilizar-uno-como-access-point/ http://www.arturogoga.com/2010/01/30/hackear-contrasea-de-wifi-con-backtrack-4/ http://www.arturogoga.com/2009/08/13/proteger-el-wifi-como-asegurar-nuestra-conexion-inalmbrica-y-evitar-que-otros-se-conecten/
El plato de aluminio se levanta y empieza a girar hasta alcanzar 7.200 revoluciones por minuto. Un diminuto cabezal sobrevuela entonces la superficie impoluta, modificando el campo magnético correspondiente a millones de bits; la distancia que le separa del plato, ese disco que está rotando a altísima velocidad, es de tan sólo tres nanómetros. Acabamos de describir un instante cualquiera en la vida de un disco duro, un aparato muy delicado y complejo. Desde que aparecieran a mediados de los años cincuenta del siglo pasado, los discos duros se han convertido en un componente imprescindible. Cada vez más pequeños, estos prodigios de la electromecánica pasan por rigurosos controles de calidad para asegurar una vida útil de más de cinco años. Pero ¿qué hacer si un disco empieza a fallar? No estamos indefensos: existen herramientas que ayudan a detectar -y, a veces, corregir- problemas de muy diversa índole que afectan a los discos duros. Incluso cuando no queda más remedio que llevar el disco a una empresa especializada, saber qué pasó evitará pérdidas de tiempo. Cuándo y por qué puede fallar un disco duro Tan frágiles como son, no es de extrañar que los discos duros sean tan proclives a fallar. El Tiempo Medio Entre Fallos (MTBF), un dato que aparece en la carcasa de todo disco, indica el promedio de horas que transcurren entre errores aleatorios: cuantas más horas transcurren entre fallos, más fiable es la unidad. No hay que confundirlo con la Vida Útil, periodo que rara vez supera los cinco años. Head crash, uno de los fallos más catastróficos: el cabezal toca el plato y… adiós datos (imagen de DataClinic) Las causas por las cuales un disco duro fallará son muchísimas: desde vibraciones y movimientos mal absorbidos hasta filtraciones de motas de polvo, pasando por problemas en los controladores, anomalías magnéticas, fallos en la alimentación y un largo etcétera. Hay discos que nacen bajo una buena estrella, por así decirlo, y aguantan lo que les echen durante diez años; otros, por el contrario, salen de la fábrica con errores que impiden su uso a medio plazo. El chipset de este disco duro se quemó por una temperatura demasiado alta (imagen de J. Caissie) ¿Cuándo fallará un disco? En la práctica, nadie es capaz de predecirlo. El MBTF, la vida útil y otros indicadores son meramente orientativos. Un estudio publicado en 2007 por Google concluye que no hay una correlación sólida entre temperatura o intensidad de uso y la tasa de errores. Cada disco duro, en suma, es un caso aparte. Los síntomas: sonidos, latencias, errores… Casi nunca un disco falla de la noche a la mañana (a menos que lo lances al suelo o lo destroces con esmero). Los síntomas pueden presentarse juntos o por separado. Para mayor desconcierto, algunos errores desaparecen tal y como habían venido: en silencio y sin causa aparente. Errores en el sector de arranque impiden la ejecución del sistema operativo desde el disco duro ¿Cómo saber si un error está relacionado con el disco duro y no con el sistema operativo o un programa? Bueno, no es tan difícil de descubrir: toda anomalía que esté relacionada con el uso intensivo del disco duro y se repita con regularidad es una pista clara. * Fallos a la hora de copiar, mover, borrar o crear ficheros * Discrepancias en el tamaño total de las unidades * La unidad aparece y desaparece sin motivo * Cuelgues al acceder a grandes ficheros o navegar por carpetas * Errores al arrancar equipo, pantallazos azules, ficheros corruptos * Documentos que han desaparecido sin dejar rastro El sonido es otro de los criterios útiles para saber qué le pasa al disco duro. Acerca el oído a la caja del ordenador, notarás que cada operación corresponde a una serie de ruidos discretos. Si el disco sonase como si estuviera atascado o encasquillado, con golpeteos repetitivos, rascadas metálicas o arranques estilo motosierra… algo va mal. He aquí, por ejemplo, el “Clac de la Muerte”: link: http://www.videos-star.com/watch.php?video=ma2zAqXuDPU Consulta este archivo de ruidos de discos duros dañados para saber cómo suena un desastre inminente. Identificar correctamente el tipo de ruido y grabarlo en un fichero WAV o MP3 te será de gran ayuda cuando contactes con el servicio de asistencia técnica del fabricante. La hora del diagnóstico Por fin, después de aguantar durante días una caterva de errores y ruidos, decides tomar cartas en el asunto. Para ello, nada mejor que unas cuantas utilidades gratuitas. La primera que te recomendamos es CrystalDiskInfo, una herramienta que aprovecha la tecnología S.M.A.R.T. para determinar el estado de salud del disco duro. CrystalDiskInfo destaca por su aspecto agradable y la cantidad de información mostrada Además de la temperatura, los datos S.M.A.R.T. son tus mejores aliados: valores como la tasa de errores, el número de horas de encendido o la velocidad de lectura ayudan a averiguar si un disco duro está próximo a pasar a mejor vida o no. Otra herramienta similar, pero más técnica, es la excelente HD Tune. HD Tune tiene más opciones y gráficas de rendimiento Los fabricantes no se han quedado de brazos cruzados, sino que ofrecen sus propias utilidades (limitadas, eso sí, a los discos de su marca). En esta página encontrarás la mayoría de ellas, como Maxtor PowerMax, SeaTools o HUtil. En cuanto al sistema operativo, el comando chkdisk se limita a detectar y corregir errores en el sistema de ficheros, sin indagar su origen. FloatLED muestra LED virtuales de tus discos duros en el Escritorio Otros programas auxiliares son FloatLED, que lleva las luces de actividad del disco duro a tu Escritorio, y HDD Temperature o SpeedFan, muy útiles para llevar un seguimiento de la temperatura de las unidades de almacenamiento. En caso de que no pudieras cargar al sistema operativo, crea un disco de arranque con Bart PE Builder o WinBuilder. Ultimate Boot CD contiene todo lo necesario para diagnosticar y reparar errores del disco duro Si el riesgo es lo tuyo, descarga y graba las imágenes ISO de UBCD o SystemRescueCD. Contienen docenas de aplicaciones de diagnóstico y rescate, pero su uso requiere una experiencia considerable; pifiarla y empeorar la situación es muy frecuente cuando no se sabe qué hace cada programa. Ya sé qué le pasa. ¿Y ahora? Depende de la situación. Si el sistema operativo instalado ya no arranca, pero puedes leer gran parte del disco desde un Live CD, conecta una unidad externa cual Arca de Noé y copia todos los ficheros que puedas. Este completísimo tutorial te guía paso a paso para rescatar los datos usando Knoppix, una distribución Linux perfecta para esta misión. La distribución Knoppix lleva salvándonos de apuros desde el año 2000 ¿Windows logra cargarse y funcionar? ¡Bien! La copia de seguridad será más fácil. No te demores, cada día que pasa aumenta el riesgo de fallo irrecuperable. Evita desfragmentar el disco, borrar muchos ficheros o incluso pasar herramientas de chequeo: cuanto más trabajo le des al disco, peor; copiar los datos será tu prioridad máxima. Una combinación de SuperCopier, un programa de grabación de CD/DVD y otro de backup es ideal. La reparación de un disco duro exige trabajar en ambientes sin polvo Finalmente, está el peor escenario de todos: disco ilegible o datos que no se recuperan ni con DiskDigger. ¡No abras el disco por ningún motivo! Contacta una empresa de recuperación de datos para que te asesoren y compilen un presupuesto. No envíes el disco duro por mensajería ni tampoco abones importes por anticipado hasta que no tengas clara la reputación de la empresa. ¿Has tenido alguna experiencia con discos duros dañados? ¿Cómo averiguaste el fallo? ¿Qué hiciste para salvar los datos? Subscribite por RSS Fuente

Las altas temperaturas registradas en los últimos días, sumadas a la elevada sensación térmica, hicieron que el Servicio Meteorológico Nacional (SMN) lanzara una alerta naranja, prevista para este fin de semana en la ciudad de Buenos Aires (Argentina), que no sólo puede afectar a los seres humanos, sino también a distintos dispositivos tecnológicos, principalmente a las computadoras. Si a estos altos registros térmicos se le suman cambios en la tensión eléctrica y cortes de energía, motivados por el aumento en el consumo, el cuadro se convierte en preocupante para las PCs y otros equipos electrónicos, como faxes, módems, teléfonos y líneas ADSL. De acuerdo al portal iProfesional, en este escenario se aconseja mantener las computadoras y equipos electrónicos sensibles a una temperatura media de entre los 20 y 25°, dado que si el ambiente supera los 30º, aumentan los riesgos de colapso del sistema. Si no se puede airear la habitación, los días cercanos a los 40 grados conviene directamente apagarla o usarla lo menos posible. Si la máquina está bien configurada, se apagará sola en cuanto ingrese a la zona de peligro. Sino, puede interrumpir su actividad al cometer un error. Incluso, alguno de sus componentes podrían quemarse. Además, el excesivo calentamiento de algunos de los componentes de una PC puede provocar que la unidad empiece a funcionar mal o que se cuelgue. El microprocesador, la fuente de alimentación y los discos son los elementos que más calor generan, y aunque los dos primeros tienen sus propios ventiladores, éstos no siempre son suficientes ante un fuerte golpe de calor. Otra de las recomendaciones, aunque puede sonar un poco obvia, es guardar en forma periódica los archivos que se estén utilizando, así en caso de apagón o de caída de tensión, la computadora se reiniciará, pero no perderá toda la información con la que se está trabajando, y configurar la herramienta de autorecuperación cada uno a cinco minutos, y no cada 10 minutos, como viene de fábrica. Asimismo, hay que tener en cuenta que trabajar da calor (si fuera eso lo único que provoca!). A mayor uso, mayor temperatura. Operar asiduamente con la PC en un lugar sin aire acondicionado y abriendo varios programas al mismo tiempo es una combinación que puede resultar fatal. Por eso, si no se cuenta con aire acondicionado, hay que evitar tareas muy exigentes para el hardware, como los juegos 3D, hasta que la temperatura en el ambiente baje a niveles normales. En cambio, se puede escribir, usar el e-mail, navegar por la web, o trabajar con planillas de cálculo, sin mayores inconvenientes. Fuente
Bueno hay gente para cada tipo de ocio, pero hoy destacaremos uno bastante peculiar, que es el dibujar, crear o manifestarse artísticamente en Microsoft Excel. Ya, pero haciéndolo un poquito más técnico y específico el asunto, todo esto se logra a través de una aplicación de Boydevlin Software llamado ExcelArt (Freeware). Programa ideal para pasar por ejemplo el logo de la empresa a la plantilla excel o digitalizar una fotografía. El programa además es capaz de digitalizar en caracteres transformando las imágenes a blanco y negro o sepia. Funciona con todas las versiones de Microsoft Excel. ¿Queres probar? ¿Ejemplos? http://www.ohmygeek.net/2010/03/15/%C2%BFsabia-usted-que-hay-mucha-gente-con-tiempo-libre-para-dibujar-en-excel/
Normalmente, recuperar o regenerar la clave de un usuario sin privilegios de Windows no es problema, ya que accedemos como Administrador y podemos modificar la clave de acceso de cualquier usuario. El problema suele venir cuando se pierde la clave de Administrador/Administrator y no se dispone de otra cuenta con privilegios para acceder. Voy a nombrar unas cuantas herramientas que yo he utilizado alguna vez y con las que es posible recuperar la clave de los usuarios de Windows (normalmente funcionan tanto en XP como 2003, 2008, Vista…) Ophcrack (gratuito) Ophcrack es un LiveCD (distribución Linux), básicamente lo que hace es crackear las passwords de los usuarios de Windows. En primera instancia intenta sacar las claves por fuerza bruta, y después utiliza la potencia del procesador del equipo y la RAM para intentar descifrar los Hash. Para usarlo, simplemente tienes que arrancar con el CD y esperar a que haga el trabajo correspondiente. He de decir que en mis pruebas, crackeo sin problemas claves con 10 o más carácteres que incluían mayúsculas, minúsculas y números, pero en cuanto añadía símbolos a las claves, la cosa se complicaba un poco… (@ ! # $ + – * / = % ( ) [ ]). Nota: En discos SAS con controladoras RAID no lo conseguí hacer funcionar, en discos SATA, IDE, etc sin RAID por Hardware funcionó sin problemas. Descarga OphCrack (guía de uso también disponible) Windows Password Reset (de pago, $19.95) Windows Password Reset, a diferencia de OphCrack, lo que hace es eliminar la clave del usuario que seleccionemos, de este modo al acceder al sistema tras realizarlo podemos entrar sin clave y generar una nueva. Este software es de pago, tiene una demo (CD de arranque) que permite arrancar con el CD y ver si los usuarios de Windows son detectados, pero no deja resetear la clave. He de decir que este software detecta las particiones montadas en discos SAS/SATA con controladoras RAID Hardware sin problemas (comprobado en servidores HP Proliant DLXXX). Su uso es muy sencillo, arrancas con el CD, seleccionas la instalación de Windows de la cual quieres borrar la clave de un usuario, te lista los usuarios y seleccionas el que quieras, en la siguiente imagen podéis ver todo el proceso: Web de Windows Password Reset Offline NT Password & Registry Editor (gratuito) Offline NT Password & Registry Editor hace lo mismo que Windows Password Reset pero es gratuito, el modo de operar es el mismo, arrancas con un CD y puedes resetear la clave de un usuario de tu sistema Windows. Personalmente no lo he probado. Web Offline NT Password & Registry Editor Les dejo enlaces a otras herramientas por si estas no les han sido de utilidad: John the Ripper password cracker John the Ripper es un programa de criptografía que aplica fuerza bruta para descifrar contraseñas. Es capaz de romper varios algoritmos de cifrado o hash, como DES, SHA-1 y otros. Es una herramienta de seguridad muy popular, ya que permite a los administradores de sistemas comprobar que las contraseñas de los usuarios son suficientemente buenas. PC Login Now (de pago) Funciona como Offline NT Password & Registry Editor pero es de pago, ya que es más sencillo de utilizar. kon boot Permite acceder al sistema operativo saltándose la solicitud de usuario y clave, funciona tanto en Windows como Linux. Sitio web: Kon Boot Fuente
Como todos sabemos el estándar de W3C HTML5 está en fase de pruebas y preparación para su esperada llegada al mercado en 2012 , de hecho la mayoría de sus características ya están , o han sido implantadas en la red y son compatibles con gran parte de los navegadores. De todas formas siempre surge la típica y más común pregunta que se realizan muchas personas y es: ¿Como son de compatibles los navegadores a HTML5 hoy en día? La web HTML5test ha puesto en disposición a los usuarios unas pruebas de HTML5 , Canvas , etiquetas de vídeo y demás que al final nos devolverá una puntuación de 0 a 160. Yo en lo personal solo he probado con Firefox y Chrome que me han dado los valores de 137 y 101 , el más alto para Chrome y siguiendole Firefox , más abajo os dejo una gráfica con las pruebas de esta web donde se pueden observar navegadores como Chrome , Safari , Opera , Firefox , Internet Explorer 8 y demás con sus respectivas puntuaciones , un saludo y espero que os haya servido de ayuda o entretenimiento ya que el artículo no tienen ningún gran misterio pero es interesante saber cosas como estas. Si queres probar tu navegador con el test hace clic aca Fuente

Formato es una de esas palabras históricamente arraigadas al mundo del video. Saber cómo funcionan es interesante porque nos permitirá conocer mejor nuestra cámara por dentro, pero elegir un buen formato de grabación puede ser clave a la hora de comprar una cámara. Recordemos una vez más que formato no es lo mismo que soporte de grabación. En un soporte podemos almacenar distintas informaciones de video en uno o varios formatos. ¿Qué significa SD y HD? ¿Qué diferencia hay entre estas siglas? ¿Se puede grabar video HD en una cinta MiniDV? ¿Cómo funcionan los métodos de compresión? Conocer los formatos de video es un factor clave a la hora de introducirse en este pequeño mundo, aunque lo hagas de forma amateur. SD/HD Son las dos siglas que utilizamos en video para definir la calidad de la imagen. SD significa Standard Definition y nos indica que la imagen no podrá superar las 625 o 525 líneas de información de señal de video, es decir, los sistemas antiguos como PAL o NTSC. La calidad de la imagen no es mala, es la imagen tradicional que hemos visto siempre en nuestras pantallas y videos, pero se nos queda anticuada. HD, como todos sabréis, corresponde a High Definition y las líneas de información de video van desde 720 hasta 1080, con lo que la calidad de la imagen se aumenta mucho más y podemos percibir hasta el más mínimo detalle. Es importante que compres una cámara HD, puesto que el sistema SD está en vías de extinción y es muy probable que en unos cinco años su uso sea realmente minoritario y obsoleto. ¿Cómo funcionan? MPEG, el ejemplo que todos siguen Los formatos de video basan su eficacia en los codecs, unos algoritmos matemáticos que comprimen y descomprimen la señal de video digital. A diferencia de otras técnicas visuales como la fotografía, el video tiene el reto de transmitir, como mínimo, 25 imágenes en un segundo y por un caudal determinado (canal de transmisión). Este canal puede tener unas características y limitaciones concretas, por lo que la señal de video deberá adecuarse para poder “pasar” por ese canal y llegar a su destino. Lo que llamamos “canal” puede ser un cable, una frecuencia Wi-Fi, una frecuencia UHF o cualquier otro instrumento que sirva para transmitir datos de un lugar a otro. Tras esta explicación, entenderás que la señal de video ocupa muchísimo volumen, y por tanto tenemos que recurrir a un mecanismo que nos optimice todo ese volumen de información y nos lo encapsule en un formato con el que podamos manipular y transmitir todo eso. Esa sería la explicación simplificada y no-técnica de lo que es un formato de video, qué contiene en su interior y para qué sirve. Ese mecanismo al que nos referimos es la compresión de información. Todo en video se comprime, excepto en casos muy concretos y muy avanzados, y uno de los estándares más utilizados tradicionalmente por la industria es el MPEG. En él se basan codecs y formatos tan conocidos como el DivX, H.264, la TDT, la tv por satélite, cable e IPTV, los DVD’s... Las primeras técnicas de compresión que se utilizaron partían de la fórmula “6xVerde” (ejemplo): si en un archivo de video había que escribir la información de seis píxeles como: Verde-Verde-Verde-Verde-Verde-Verde, resultaba mucho más útil escribir 6xVerde, ya que se ahorra un considerable volumen de información. Optimizamos. De una forma sencilla, MPEG es un algoritmo de codificación y descodificación que elimina la información redundante, no perceptible por el ojo humano hasta cierto límite, en favor de una reducción del espacio que ocupa esa información de video, lo que nos permite manipularla y transmitirla. MPEG utiliza tres técnicas para eliminar información redundante: La redundancia temporal, que actúa sobre un píxel o número de píxeles que se repiten constantemente en una secuencia de imágenes, fotograma a fotograma. Reduce esa información al mínimo. La redundancia espacial, que actúa sobre la similitud entre un píxel y sus vecinos adyacentes. Si son muy parecidos a la percepción que pueda tener el ojo humano, se reducen a una información común. Por ejemplo, el gris claro, y el gris un poco más claro se reducirían ambos a “gris claro simple”. La redundancia estadística, no tiene pérdidas (a diferencia de las dos anteriores), y basa su acción en que en una transmisión de video existen palabras (agrupaciones de bits) que se repiten constantemente. Por tanto, sólo se envía una de las palabras que se repiten. Es una fórmula parecida a la que explicábamos antes: 6xVerde, en este caso, 0110×010010101001100, donde 0110 correspondería al número 6 en sistema decimal, por ejemplo. Todo este caudal de información codificada la recoge un receptor, y en base a un codec, aplica el algoritmo de descompresión de la señal de video en base a técnicas predictivas muy avanzadas y obtenemos el resultado inicial, con pérdidas mínimas que apenas puede apreciar nuestro ojo humano. Todos los sistemas de compresión y descompresión actuales basan su acción en MPEG, por lo tanto, se hace necesario saber cómo funciona este sistema primario para comprender las técnicas actuales. Formatos y codecs comunes Aquí algunos de los formatos más comunes en los que graban las cámaras que hemos comentado en este especial: HDV: Es uno de los formatos más utilizados, incluso en el mercado semiprofesional y profesional. Su codec de video está basado en MPEG-2 y la principal ventaja que tiene es conseguir una gran calidad de imagen en muy poco tamaño de archivo. Otro punto a favor es que permite grabar Alta Definición hasta 1080p en soporte de cinta MiniDV tradicional. La gran desventaja es que en determinadas ocasiones puede comprimir mucho y producir drops (fallos en la lectura de determinados frames de video de la cinta). AVCHD: Abreviatura de Advanced Video Codec High Definition. Es la versión “doméstica” de HDV y es uno de los formatos más usados. Utiliza como códec de video H.264 (un algoritmo muy bueno basado en MPEG-4) y da resultados bastante buenos. Su soporte de grabación más tradicional es la tarjeta y es un formato respaldado e inventado por Sony y Panasonic conjuntamente, dos de las marcas más grandes en la industria del video. M-JPEG: Podríamos decir que es casi un falso formato, puesto que encapsula una secuencia de fotogramas en JPEG bajo un archivo de video. La calidad del video depende de la calidad de estos JPEGs (suele ser bastante buena) y también los archivos de video en M-JPEG suelen ser bastante pesados respecto a tamaño. Hoy en día es importante que si buscas editar un video en tu ordenador, compruebes que el programa de edición elegido sea compatible con estos formatos, aunque a fecha de hoy, la mayoría de editores de video lo son. Evidentemente, estos tres no son todos los que hay ni están todos los que son, pero sí son los tres formatos HD principales en video doméstico y semiprofesional. 1080p y 1080i, ¿qué significan esas siglas? Esas siglas no hacen referencia directa a ningún formato de video, sino a la calidad de la imagen medida en resolución de líneas horizontales. La P significa progresivo y la I, entrelazado (interlaced, en inglés). Indican que la imagen se transmite en una resolución de 1080 líneas, si es en… Progresivo: mayor caudal de datos, mayor calidad, look cinematográfico y disminución en el cansancio de la vista. Entrelazado: menor caudal de datos, lo que hace posible transmitir HD por vías con límites más bajos, aspecto “más fluido” en la imagen y pérdida de ese tono de cine. Fuente

Si Microsoft hubiera inventado…. Me dieron ganas de poner algo de humor que no pongo hace mucho, esta vez toca pensar “que pasaria si microsoft hubiera inventado…” Los autos inteligentes? Si hubiera inventado google? Un asistente para el baño? Si se vendiera en el supermecado como un comestible? Si microsoft hiciera los albunes de boda? Si hubiera inventado el monopoly? Si microsoft hubiera hecho las herramientas y el lienzo de Leonardo Da Vinci? Si hubiera inventado los paracaidas? Y si hubiera inventado Linux? Y por ultimo un video de que hubiera pasado si microsoft hubiera inventado el iphone… Fuente