Esteban_Intel
Usuario (Argentina)
Algunas personas (Yo, por ejemplo) abandonaron el hábito de ver televisión y pasan la mayor parte de su tiempo frente a una computadora. Los tiempos de la tele se tornan insoportables, con mucha publicidad tanto en cable como en TV abierta, lo que hace que muchos opten por las descargas de películas, series y demás. Lo malo es que la PC está focalizada en una experiencia activa, donde tomamos decisiones constantemente y estamos alerta, lo que no la hace ideal para momentos en los que simplemente deseamos ponernos cómodos y ver unos episodios de House o, por qué no, Glee. Es para cubrir esta necesidad que se lanzó la plataforma Smart TV, donde se incluye un sistema operativo, un procesador Intel Atom y varias aplicaciones, como Adobe Flash, para agregarle más interactividad al televisor. De momento, la mayoría de los aparatos incluyen un Atom CE4100, que es un SoC (System on a Chip) con características como decodificación MPEG4 de hasta 1080p por hardware. Varias empresas se están volcando a esta plataforma entre las que se incluye a Google, con Google TV lanzado en octubre de 2010, y otras como Panasonic, Sony, LG, Samsung y Toshiba. También es posible acceder a los servicios de Smart TV sin comprar un nuevo televisor, mediante un reproductor Blu-ray o set-top box que incluya la tecnología. Creo que, como toda tecnología naciente, hay algunos aspectos por mejorar, pero es un muy buen primer paso para llegar a un sistema de distribución de video por Internet. De todas maneras, mi principal inquietud pasa por cuanta publicidad estaremos "obligados" a ver, algo que escapa a la plataforma misma. Creen que la TV conectada pasa por este lado o por algún otro? Triunfará este u otro sistema/plataforma? http://www.pixelydixel.com/2011/03/samsung-smart-tv-nunca-volveras-a-llamarle-caja-tonta.html (Inglés) http://en.wikipedia.org/wiki/Smart_TV (Inglés)http://www.intel.com/consumer/products/smarttv/index.htm

Ventajas y desventajas entre los discos rígidos (HDD) y las unidades de estado sólido (SSD) A la hora de armar una PC, pocas veces uno se cuestiona que sistema de almacenamiento persistente y masivo utilizar, y es que desde los comienzos de la PC la única opción era un disco rígido, también conocido como HDD (Hard Disk Drive). Sin embargo, en los últimos años vimos crecer exponencialmente una tecnología alternativa: la memoria flash, que es la base de las unidades de estado sólido (SSD). Este tipo de almacenamiento también es persistente (no requiere electricidad para mantener la información) y posee la gran ventaja de no incluir partes móviles, con el consiguiente aumento en la vida útil del dispositivo y en su robustez. Sin embargo, no todas son rosas, y hasta el día de hoy, cada tecnología tiene su lugar. Veamos primero las ventajas de cada uno: Discos rígidos (HDD) La principal ventaja que poseen estas unidades es que permiten almacenar muchísima información a un bajo costo por gigabyte. Hoy en día es muy común encontrar discos rígidos de 2 TB, los de 3 TB ya están en el mercado y la capacidad total de los discos sigue creciendo. Si bien tienen una tasa de fallos mayor a la de los SSD, existen muchos centros especializados que nos permiten recuperar la información contenida en caso de fallos. Por otro lado, la vida útil de un disco rígido es "infinita", es decir, mientras los componentes no fallen, el disco rígido va a seguir funcionando a la perfección. En resumen, estas serían las ventajas: *Bajo costo por GB *Tecnología estudiada y establecida *La vida útil no está predefinida Unidades de estado sólido (SSD) Estas unidades poseen una gran velocidad de acceso a datos, tanto de forma secuencial como en transferencia aleatoria. Es mucha la diferencia con respecto a un HDD y esto se debe a que no existe un disco que gira ni un brazo actuador moviendose para recuperar los datos. Esta diferencia también marca el incremento en fiabilidad, ya que al no haber partes móviles, las probabilidades de daño bajan, sobre todo en entornos móviles (como notebooks, iPods y tablets). Otra ventaja es que consumen poca electricidad, algo que en dispositivos con batería marca la diferencia. Tampoco generan ruido ni calor. En forma de lista, las ventajas serían: *Menor consumo de electricidad *Alta velocidad *Sin ruidos y bajísima generación de calor *Mayor confiabilidad *Livianos *No se fragmentan Desventajas frente a frente Veamos algunos puntos en los que existen desventajas al usar un sistema u otro: *Sistemas de archivos: la inmensa mayoría de los sistemas de archivo y sistemas operativos están optimizados para ser usados con discos rígidos tradicionales. Sólo Windows 7/2008 y las últimas versiones de Linux soportan el comando TRIM, que permite acelerar la escritura de datos. Apple no anunció en que momento incluirá soporte TRIM para Mac OS X. *Recuperación de datos: si bien los SSD son más confiables, en caso de falla es más difícil recuperar la información, principalmente debido a que la mayoría de los centros de recuperación de datos no tienen tanta experiencia con este sistema. *Vida útil: los SSD tienen una vida útil limitada, que varía según la calidad de la unidad. Pasado este valor (por ejemplo, 100000 sobre escrituras), no se podrá sobreescribir la información, sólo leerla. Por suerte, este valor implica una vida útil de muchísimos años para usuarios finales. *Robustez: si bien existen sistemas, como el "parkeo" del cabezal en caso de caída libre, los HDD son mucho más frágiles frente al abuso, las caídas y los golpes. Los SSD son mucho más resistentes a la hora del maltrato o los accidentes. Además, el magnetismo no los daña. *Velocidad de búsqueda (seek time): Si tenemos que transferir muchos archivos pequeños, el HDD debe cambiar el cabezal lector al sector necesario para recuperar el archivo solicitado. Para hacer esto, debe esperar a que el plato gire hasta encontrarse en la posición correcta. Al no tener partes móviles, los SSD realizan estas operaciones mucho más rápidamente. Lo que yo haría si mi presupuesto lo permite es usar un SSD para Windows y los programas que más uso y un HDD para guardar videos, música y cosas que no necesiten de una gran velocidad. Hay varios aspectos que dejé afuera pero se los dejo para que los agreguen ustedes Dejo links con info sobre el tema: http://es.wikipedia.org/wiki/Unidad_de_estado_sólido http://www.intel.com/design/flash/nand/index.htm http://es.wikipedia.org/wiki/Disco_duro

La tecnología Hyper-threading en los procesadores Intel Esta tecnología apareció originalmente en el año 2002, incorporandose así al Xeon y al Pentium 4 hasta el día de hoy, haciendo una pausa con los procesadores de la arquitectura Core y volviendo con los Core i. Básicamente, este sistema consiste en crear dos núcleos virtuales a partir de un núcleo real. Por poner un ejemplo, si nuestro sistema cuenta con Hyper-threading habilitado, al abrir el Administrador de Tareas (en la solapa "Rendimiento" ) veríamos el doble de núcleos de los que realmente contamos en el procesador. Este sistema existe para asegurarnos que los núcleos del procesador estén siempre ejecutando instrucciones, es decir, para evitar que estén en reposo (idle) si es que hay instrucciones que deben ser ejecutadas. Un núcleo puede quedar idle si se dan ciertas condiciones desfavorables, como podría ser una dependencia de datos, un fallo en el predictor de saltos o una falta de datos/instrucciones en la caché. Para que Hyper-threading funcione en forma óptima, todos los núcleos (virtuales) necesitan estar bajo carga. El problema principal se da con aplicaciones antiguas o poco optimizadas para dividir el procesamiento en diferentes hilos o threads, que son los componentes con los que el sistema operativo se comunica con los programas. Lo bueno de esta tecnología es que, con un sistema operativo moderno (Que diferencie entre núcleos virtuales y reales), una aplicación que no es "multi-threaded" no estaría obteniendo una performance significativamente negativa. En otras palabras, la presencia de Hyper-Threading afecta en forma positiva o neutral al sistema, salvo casos específicos. Impacto de Hyper-threading en la performance Un buen benchmark sobre Sandy Bridge y el impacto de Hyper-threading lo pueden encontrar en esta review: http://www.anandtech.com/show/3871/the-sandy-bridge-preview-three-wins-in-a-row/9 Al ver los números, queda claro que Hyper-threading no se trata de un reemplazo para más núcelos, ya que los núcleos virtuales jamás podrían otorgar la misma performance que los núcleos reales, pero en general otorga una mayor performance con un mínimo costo adicional. Definitivamente, un costo mucho menor al de incorporar más núcleos al die del procesador. En conclusión, en líneas generales, Hyper-threading ofrece un porcentaje bastante variable de incremento en la velocidad final de la computadora. En casi todas las circunstancias va a ser conveniente que esté en nuestro sistema. Es un tema que puede resultar complicado de entender al 100%, pero no duden en dejarme sus preguntas en los comentarios!
En el sitio Ars Technica publicaron un artículo en donde explican por qué hay diferencia de rendimiento a la hora de comparar dos procesadores que tienen igual frecuencia de reloj (Los famosos "GHz" ). Este post está basado en ese artículo. Hay que tener en cuenta que es posible usar los gigahertz como forma de comparación entre uno y otro procesador solamente cuando se tratan de procesadores de la misma arquitectura (familia). Por ejemplo, podemos decir que el procesador Intel Core i5 760 (De 2,8 GHz.) es más veloz que el Core i5 750 (2,66 GHz.) ya que poseen características idénticas, con la salvedad de la frecuencia, que en el Core i5 760 es mayor. Pero que pasa si comparamos, por ejemplo, un Pentium 4 550, cuya frecuencia es de 3,4 GHz., con un Core i7 2600, que posee la misma frecuencia? En principio hay que tener en cuenta que el Corel i7 2600 posee 4 núcleos, mientras que el Pentium 4 posee tan solo uno. Cada núcleo funciona en forma independiente y, al combinar los 4, obtenemos una performance muy superior en las diferentes aplicaciones y el sistema en general. Pero hay otra diferencia: las arquitecturas de los procesadores son muy diferentes. La arquitectura de un procesador es, en pocas palabras, la forma en que trabaja internamente el procesador. Desde ya, la arquitectura del Core i7 2600, que fue lanzado este año, es muy superior a la del Pentium 4, que salió a la venta en 2004. Tres procesadores que partenecen a arquitecturas diferentes La arquitectura del Pentium 4 tiene 21 etapas de segmentación (pipelines). Eso significa que, desde el momento en que el procesador toma una instrucción hasta que la ejecuta y devuelve el resultado, hay 21 etapas. La segunda generación de procesadores Core, al tener menos etapas de segmentación, permiten obtener resultados más rápidamente con los mismos GHz. Esto se debe a optimizaciones en la forma de procesar las instrucciones, que exceden el alcance del post. En pocas palabras, siempre hay que ver el rendimiento de los procesadores en forma concreta y no simplemente dejarse llevar por la cantidad de núcleos o la frecuencia. Y llegado el caso, si vamos a guiarnos con esos datos, que sea comparando procesadores de la misma familia. De otra forma, podemos llegar a conclusiones erroneas, como que un procesador de 6 núcleos siempre es más rápido que uno de 4.