b

bluesandrnr

Usuario (Argentina)

Primer post: 22 jun 2010Último post: 15 feb 2012
16
Posts
35
Puntos totales
53
Comentarios
L
Las llaves de Internet están en las manos de 7 personas
InfoporAnónimo7/29/2010

Se ha creado una nueva orden. Un grupo de siete guerreros sabios, encargados de resguardar el futuro del mágico y misterioso mundo de la Internet. O algo así. La Internet corporation for assigned names and numbers (ICANN) creó un nuevo programa de seguridad de internet que sería puesto en marcha en caso de un ataque cibernético que dañe la seguridad del Domain Name System Security Extensions, o DNSSEC. El programa consiste en un código que puede “reiniciar” la internet. El código fue repartido entre 7 personas de: Estados Unidos, Inglaterra, Burkina Faso, Trinidad y Tobago, Canadá, China y la República Checa. Cada una de estas personas tiene una parte del código, y en caso de un ataque de consecuencias catastróficas para el funcionamiento de internet (como Skynet, por ejemplo), ellos serán los encargados de reiniciar la red. Para que el código funcione, se necesitan al menos 5 de las 7 personas, ya que cada uno de ellos tiene sólo una parte del código. Así se asegura que ninguno de estos 7 individuos tiene el poder absoluto, sino que todos deben trabajar juntos. En caso de una catástrofe, los portadores del código serán llevados a una base en Estados Unidos donde deberán juntar el código y volver a conectar todo. Y una vez hecho eso, todo será normal de nuevo. O por lo menos vamos a tener internet. Fuente

0
0
Estructura HTML 5
Estructura HTML 5
InfoporAnónimo6/22/2010

Con la llegada de HTML 5 a la movida de Internet son muchos los cambios que se estarán dando. Algunos bloggers y webmasters han comenzado ya la maquetación de su sitio basándose en estos estándares para estar a la par de los cambios que se vienen. Otros comienzan a tener dudas en torno al enfoque SEO que se le dará a todo esto. Sin duda los cambios que se vienen son significativos. Se han añadido elementos básicos estructurales, aunque lo que suele cambiar más es la estructura de los documentos, sobre todo si supone la transición de una versión de nivel superior a otra, como lo supondrá el cambio de HTML 4 a HTML 5. Por otro lado, algunos de ustedes recordarán la web anterior, con estándares HTML 3. Debo confesar que he llegado a maquetar, incluso estando en HTML 4, usando estructuras de programación tipo tablas, sobre todo anidadas (con los inolvidables colspan y rowspan). Hoy la estructura de HTML 5 supone nuevamente un reto y la podemos revisar a continuación gracias a unas imágenes que nos llegan vía el blog de Javier Casares: Estructura básica con HTML 3: Estructura básica con HTML 4 Estructura básica con HTML 5 Fuente

0
0
Google recomienda cambiar tu nombre en la red
Google recomienda cambiar tu nombre en la red
InfoporAnónimo8/23/2010

La sociedad como la conocemos hoy en día, consta de dos partes al menos para mí la física (ya saben, el mundo real, lo que vemos y sentimos con personas de carne y hueso y todo eso) y la digital que incluye el facebook, el twitter, el tuenti y todos esos complementos “sociales”. Muchos adultos son partícipes de esta tecnología, y de entre los jóvenes, se diría que casi todos: las generaciones más jóvenes están en las redes sociales prácticamente desde que nacen. En base a esto Eric Schmidt -CEO de Google- menciona que es recomendable cambiar nuestro nombre en la red para controlar un poco más nuestra propia privacidad, ya que si participas en redes sociales desde que tienes 10 años prácticamente toda tu vida está plasmada en internet y siempre todo está siendo visto y guardado por todos. En declaraciones al Wall Street Journal dijo: Sabemos más o menos quién eres, más o menos lo que te importa, más o menos quiénes son tus amigos. Toda persona joven algún día tendrá el derecho de cambiar automáticamente su nombre cuando alcance la adultez para desligarse de información de su juventud almacenada en las redes sociales de sus amigos Con estas palabras el CEO de Google nos deja en claro el alcance que tiene el internet en la vida de las personas y no solamente la influencia si no toda la información recopilada que hay de cientos y miles de millones de personas alrededor del mundo. No es un secreto para nadie, pero cuando el mismo Schmidt empieza una declaración diciendo “Sabemos quién eres” el tema se vuelve sumamente escalofriante. En otro tono Eric Schmidt habla de lo que la gente espera de Google, y según sus propias palabras la gente no solo espera que el buscador responda sus preguntas sino que le diga que hacer: Por ejemplo, si necesitas leche y existe una tienda cerca donde comprar leche, Google te recordará comprar la leche. Te dirá que una tienda más adelante cuenta con una colección de afiches de carreras de caballos y que un asesinato del siglo XIX, sobre el que has estado leyendo recientemente, se produjo en la otra manzana A veces no nos damos cuenta de la cantidad de información que subimos a internet en redes sociales, blogs, paginas y cualquier otra cosa, pero siempre estamos buscando cualquier App para el móvil que nos facilite nuestro día a día y cada una de ellas para “ayudarte” te pide un poquito de información y con todo lo que le metemos a la web estoy seguro que hay para formal un perfil psicológico-histórico de cada uno de nosotros. Fuente

0
0
C
Cuando llegó el puerto AGP al mundo
InfoporAnónimo9/17/2010

Había una vez, un puerto PCI Durante los años 90, cualquier tarjeta que querías conectar al equipo sólo tenía sólo dos destinos: los puertos ISA que estaban en decadencia y los PCI, su natural reemplazo. Desde unas gráficas nuevas, pasando por las tarjetas de red, módems, y otras más, era posible conectar a los universales PCI de 32bit. Y nadie alegaba nada – tampoco había porqué hacerlo, no había una razón para pensar en otro estándar. ¿Acaso esa tarjeta de red iba a transferir 100GB de un soplón? Todo seguía su curso normal, el sol salía por el lado contrario donde se escondía, el módem no superaba los 56Kbps, todos tenían televisión a color y las tarjetas de sonido con suerte tenían una salida estéreo y dos entradas. En cambio, las tarjetas gráficas empezaron a tener algunos cambios arquitectónicos y tener hambre de polígonos. Sólo en 1996 el mercado empezó a migrar al puerto AGP, que sería la solución a todos los problemas que PCI traía en ese aspecto. Tal como en Chile hubo un revuelo nacional al aumentar la velocidad máxima para andar por carretera a razón de los autos más rápidos y más seguros, el problema no se aleja de algo semejante por el lado de la informática. Dedicación El puerto PCI tiene un ancho de banda máximo de 133MB por segundo para transferir datos, lo que podríamos compararlo con rellenar un CD en unos 6 segundos más o menos, sin contar con el resto de limitaciones naturales. Suena rápido, pero lo que es malo de esta tecnología es que todos los puertos PCI comparten una misma línea y un mismo bus, y para un mercado de chips gráficos que ya estaban apunto de sobrepasar lo que permitía el mismo, que querían más ancho de banda para comunicarse con el sistema, y querían relacionarse más directamente con la CPU y RAM, no había cabida; eventualmente empezarían a topar con el ancho de banda de otros dispositivos. Para rematar, la memoria de video era cara de implementar en el PCB y tendía a bastar sólo para la información 2D. 8MB de memoria en una tarjeta de video era bastante pero no lo suficiente para afrontar gráficas 3D a todo dar. Entonces nació AGP como la solución a esas demandas. Adiós cuello de botella, por ahora Intel decidió crear en sus laboratorios el puerto AGP en 1996, que debutó en el antiquísimo Socket 7, el encargado de ser el pilar base de los Pentium II. Para hacer al AGP más que un puerto con un bus dedicado, en términos técnicos, existían 6 ventajas netas sobre el PCI: Pipelining (Paralización): El bus PCI sólo permitía una instrucción para enviar, dejando a las otras esperando para ser enviadas o recibidas, lo que significaba muchos tiempos muertos y rendimiento mermado. El puerto AGP podía agrupar estas instrucciones y llevar a cabo varias al mismo tiempo. En peras y manzanas, mientras al bus PCI llegaba la instrucción “3 x 9 + 5 – 8″, el puerto AGP recibía “(3 x 9)”, “(5-8)” y “Suma el resultado de ambas”. DIME: No, no te lo digo. Jojojo, qué bromista soy. DIME es el corto de “Direct Memory Execute”, y fue una gran característica que el bus PCI no podía igualar. Esto permitía que la tarjeta de video pudiese ocupar parte de la RAM del equipo – determinada por la opción “AGP Aperture Size” – para manejar texturas mientras el CPU también podía interactuar en esa zona. Con ello también llegó el GART, Graphics Address Remapping Table, que se encargaba de hacer una especie de mapa para que la tarjeta AGP no se perdiera entre tanta memoria. Sideband Addressing: El bus AGP, en conjunto con el controlador del chip gráfico, tenía la capacidad de separar 8 líneas para manejar sólo las direcciones de memoria, dejando al resto del bus manejando los datos, asincrónicamente. El ejemplo clásico es del aprendiz de cocina: con una mano sostienes la hoja con los ingredientes y la preparación, mientras que con la otra mano revuelves la comida de una olla. Práctico ¿no? Más ancho de banda: La guinda de la torta. Gracias a tener un bus dedicado, y trabajar a 66MHz, el doble de lo que permitía el bus PCI, AGP podía llegar a transferir 266MB por segundo a 32 bits, mientras que PCI sólo llegaba a 133MB en el mejor de los momentos, con los planetas alineados y un doble arco iris en tu patio. La industria con el pulgar arriba El apoyo se hizo unánime, especialmente por los fabricantes de tarjetas gráficas. Aún cuando Intel era el creador, los primeros chipset encargados de llevar el puerto AGP encima eran VIA Apollo VP3, SiS 5591/5592, y ALI Aladdin V, que salieron primero de la mano de fabricantes como FIC – que ya nadie escucha – y EPoX – que tampoco nadie escucha. Por lo menos eso es lo que está documentado, en mi caso personal nunca vi una tarjeta AGP hasta entrado el 1999 en el mercado chileno, caracterizado por siempre estar a la vanguardia de la tecnología cuando: las cosas están apunto de morir, ya pasaron de moda, están baratas o se pueden vender al doble de lo que cuestan sin que nadie alegue. Signo de ésto fue cuando empezamos a ver este tipo de productos en multitiendas (donde también compras ropa) y servicios técnicos truchos que mostraban orgullosamente en la ventana esa tarjeta de sonido 5.1 marca chancho. Ahí tienen un Momento Bicentenario. Por otra parte, los fabricantes de tarjetas gráficas de ese entonces tenían dos opciones si querían subir al barco: o tomaban un chip gráfico ya hecho para PCI y sólo modificaban su compatibilidad con el bus a 66MHz – lo que era mucho más barato y rápido pero no aseguraba un gran rendimiento – o simplemente se daban el trabajo de crear un chip que aprovechara todas las ventajas del puerto AGP. Aquellas tarjetas que sólo se cambiaron de camiseta fueron la 3dfx Voodoo Banshee, Matrox Millenium II y la S3 ViRGE GX/2, mientras que NVIDIA ponía sobre el tapete RIVA 128 y ATI hacía lo suyo con la 3D Rage Pro, ambas aprovechando lo que AGP prometía. Para el caso del omnipotente Windows 95, sólo la versión OSR2.1 llegó para permitir la compatibilidad con AGP y USB, al mismo tiempo que se emitía un parche para la versión OSR2.0, todo a mediados de 1997. Perfecto timing para disfrutar el juego de FIFA Francia ‘98 a buena calidad en tu computadora con AGP más cercana. Más que PCI Los benchmarks no se hicieron esperar para demostrar que AGP había llegado para quedarse. Pero no muchos tendrían la dicha de un mejor rendimiento por el sólo hecho de cambiar a una plataforma con un puerto AGP, porque dependiendo de algunos factores, el poder del nuevo puerto era sólo apreciable a grandes resoluciones y con grandes cantidades de datos. Veamos el lado extremista de la vida. Intel hizo una prueba entre entre ambos estándares, dejando claro que PCI ya no era viable. Pero lo que ustedes no saben, es que para esa prueba usaron una escena donde las texturas que se movían llegaban a los 6MB. La ventaja del AGP, para leer directamente desde la memoria del sistema, es algo que el PCI no puede replicar y con justa razón rendía tan poco. El cambio era relativamente inapreciable ante una pantalla pequeña, pero con resoluciones mayores, y con más datos andando en el bus, el cambio de PCI a AGP se percibió mucho mejor. ¿O acaso alguien conecta su Atari 2600 a su televisión FullHD en estos tiempos? Cambiar de estándar es un dolor en el trasero – especialmente al principio – pero tarde o temprano habrá que hacerlo. Menos mal, el mareo de un nuevo estándar, con productos que podrían ser mejor pero técnicamente están “por ahí”, se olvidan después que la tecnología madura. ¡AGP está evolucionando! La transferencia de datos que demandaban las tarjetas gráficas empezaron a crecer, por lo que el AGP 1.0 empezó lentamente a ceder hasta que una nueva versión apareció para mejorar el eventual cuello de botella. La filosofía de esta actualización era mantener en cierto grado la retrocompatibilidad con los modelos antiguos: a nadie le gusta tener que comprar placa madre nueva, procesador nuevo, y tarjeta de video nueva por unos míseros megahertzios más al menos que tu patio sea una refinería de petróleo y tengas 7 esposas por cada dedo. En tan solo 8 años el puerto AGP había pasado de los 266MB a los 2.133MB por segundo, 8 veces más que en un comienzo: * AGP 2X pasó a los 133MHz y 512MBps, y mantenía los 3.3V de funcionamiento. * AGP 4X pasó a los 266MHz y 1066MBps, con un voltaje de 1.5v. * AGP 8X pasó a los 266MHz y 2133MBps, con un voltaje de 0.8v. El problema que trajo los voltajes se tradujo en zócalos diferentes. Forzar (literalmente) una tarjeta de video AGP de 1.5v en un slot de 3.3v o viceversa era lo más cercano a un suicidio, pero menos mal, habían puertos “AGP Universales” que aceptaban ambas sin problemas. Pero AGP no siempre fue AGP como tal lo conocimos. El puerto tuvo un par de extensiones oficiales como AGP Pro para tarjetas que requerían más electricidad para funcionar como algunos modelos para workstations (guorquesteichons en espanglish), donde las tarjetas eran más grandes, más caras, y hacían más cálculos. Otra extensión oficial fue AGP 64-bit, que duplicaba el actual canal de 32 a 64-bit, pero nunca llegó al AGP 3.0, y se fue directo al tacho de la basura. NPI porqué, pero al parecer era un parto duplicar el ancho de banda en el PCB y al final la ganancia iba a ser mínima. Para sobrepasar algunas limitaciones del AGP, algunos fabricantes decidieron aventurarse con sus propias variaciones, como Ultra-AGP de SiS, que permitía andar a AGP8X hasta 3.2GBps. De hecho yo la tuve en mi placa madre con chipset SiS 730 antes que se quemara por intentar overclockear cambiando los MHz de trabajo (craso error), y la ganancia era nula: no por aumentar el límite de velocidad en la carretera ese Lada Samara iba a correr como un Ferrari. Por otra parte ¿Para qué un fabricante se arriesgaría lanzando una tarjeta de video consumiendo 3.2GBps de ancho de banda si la gran mayoría de la industria estaba a 2133MBps como límite? No sólo existieron variaciones mejorando el AGP, sino también otras “para atrás”. A ver si les suena una de éstas: AGI de ASrock, AGX de EpoX y XGP de Biostar, todas ellas se transformaron en una especie de paso medio de PCI a AGP; esencialmente eran puertos PCI disfrazados de AGP para que los chipsets que no poseían la compatibilidad respectiva, lo que a más de alguno le trajo algún problema. Lo más fascinante de todo era la incompatibilidad con varias tarjetas, algo así como con 3/4 del mercado de modelos AGP; sólo una limitada lista podía funcionar sin problemas, mientras otro poco funcionaba cojeando. Otros fabricantes tuvieron más de algún problema implementando el susodicho en otros chipsets, especialmente los baratos, y ya era de común saber que algunas placas madres “a precio de huevo” con una sospechosa lista de “Compatibilidad AGP”. Si la tarjeta no estaba en ese papel, era seguro que presentaría algunos problemas de velocidad y compatibilidad. ¿Alguien dijo “PCChips”? Si te veo, no te conozco AGP no duraría mucho, pero se las ingenió – como tecnología basada en el bus PCI – para mantenerse a flote hasta el 2004~5, años donde PCI Express aparecía como el próximo reemplazo natural. NVIDIA y ATI no podían hacerse los sordos con una tecnología que tenía los días contados, porque ningún cambio es inmediato y muchos usuarios aún conservarían su placa madre funcionando por varios meses más, y en esos momentos lanzaron variaciones de sus nuevas tarjetas con el chip “Rialto” que actuaba de puente entre la información que salía desde el chip gráfico en idioma PCI Express en AGP y viceversa. Nada de malo por para quienes eran usuarios normales, pero al menor signo de overclock, el puente tendía a limitar los datos que entraban y salían gracias a que su frecuencia daba “justo” para el desempeño de fábrica. Varios eran los casos de tarjetas PCI Express bridgeadas a AGP con buen overclock pero nula ganancia, y no había nada que hacer. Otros casos fueron al revés. Recuerdo a Albatron lanzando un puente para esas tarjetas AGP que querían pasar a PCI Express pero no podían porque… bueno… porque no cabían. Pero era una solución que sólo era compatible con una lista pequeña y que sólo se comercializó en Japón (lo digo porque nunca la ví en América o Europa). Otros se pasaron de listos y decidieron poner un puerto AGP en calidad de renegado en una placa madre PCI Express, pero era otra integración malandra que no gozaba de mucha aprobación, y que a sólo afortunados usuarios – esos que se ganaban la lotería 3 veces seguidas y efectivamente salen en algún comercial – eran quienes elegían estas placas porque mágicamente su tarjeta de video estaba dentro de la lista. En todo caso, lo que sucedía era evidente: mejor pasarse rápido y con todo, y así el AGP dejó lentamente de vivir, total el mercado de tarjetas gráficas y fabricantes de placas madres eran los únicos afectados, no todo el mercado de la informática. Mientras alguno OEMs siguieron (y siguen) apoyando la tecnología AGP, ya sea por cualquier razón, ya llevamos unos 5 años aproximadamente sin placas madres a la vista con este singular puerto. Si alguien me pregunta por AGP, le preguntaré de vuelta si se refiere a alguna asociación en protesta o algún celular nuevo. Tecnología muerta no se extraña, como James Bond hace con todas las féminas que se ha repasado. Fuente

0
1
5
5 Criterios para crear contraseñas seguras
InfoporAnónimo8/10/2010

Cuando se crean cuentas en internet siempre hay que protegerlas con una clave de acceso. De hecho no solamente con cuentas web, sino en tu misma PC. Toda clave significa una limitante, una barrera adicional, para que delincuentes informáticos o terceros no accedan fácilmente a controlar nuestros datos o cuentas. Hay criterios que debemos seguir para que justamente éstas barreras sean seguras. Hoy he preparado un pequeño artículo que los pueda ayudar a tener algunos conceptos y criterios asociados a la creación de su clave, a fin de que, justamente, se asegure el que no sean fácilmente adivinables. Secuencias ¿De qué nos sirve una clave si es fácil de adivinar? Un criterio para que nuestras claves sean recordables es que no sean muy complicadas pero no debemos caer en errores tan básicos como crear contraseñas del tipo 123456, abcdef, a1b2c3, etc. Las secuencias de números o series en general son muy fáciles deadivinar, y son muy comunes de ver en usuarios primerizos en internet. Diccionarios Muchas de las secuencias forman parte de lo que conocemos como diccionarios o palabras de diccionario. ¿Qué son? Son aquellas palabras, series o secuencias tan ampliamente usadas como contraseñas que ya se ha formado una base de datos con ellas. Por ejemplo, qwerty, miclave, (minombre), etc. Recomiendo revisar el artículo de claves más usadas. Datos personales ¿Fáciles de recordar? Probablemente, cada uno conoce un poco de lo que posee. Un teléfono, tu nombre, tu mascota, etc. Tal vez otros se ponen más creativos con el nombre del enamorado o enamorada y una serie de números, pero siempre hay algo relacionado. Hay que tener cuidado con claves como tu número de teléfono, fechas de cumpleaños, etc. Alguien más las sabe siempre. Heterogeneidad Claves homogéneas son fáciles de adivinar. A veces se usa fuerza bruta para probar todas las combinaciones posibles, a veces solo diccionarios pero siempre se termina adivinando laclave. La cuestión es el tiempo que tome. Si una clave toma varias horas, días, etc., descubrir una clave no será algo que valga la pena si no se tiene realmente información deseada. La heterogeneidad de una clave busca que ésta no sea homogénea, que se incluyan letras mayúsculas, minúsculas, símbolos (@*/”;.), etc. Si solo tienes claves con letras o solo números es más probable que sea obtenida sin mucho esfuerzo. Otros recomiendan el empleo de acrónimos de frases que recordemos como: tqm, etc. Temporalidad Siempre cambien de clave. Ya sea de manera mensual, semanal o diaria. El nivel de seguridad que le quieran dar a sus datos es directamente proporcional a la cantidad de cambios que hagan en sus claves. Eso sí… cuidado con hacer cambios del tiempo: (contraseña)1, (contraseña)2, etc. Es decir, solamente cambiar el último o primer caracter. La idea es cambiar su contraseña por completo (y ni hablar de usar una contraseña maestra para todas sus cuentas, es decir, la misma contraseña para todos lados). Como recomendación bonus les recomiendo usar programas gestores de contraseñas para generar unas más seguras o usar generadores online. Lo que me queda como reflexión luego de escribir esto es: Adivinar las contraseñas de hoygans debe ser bastante más difícil… Fuente.-

0
0
E
El motor de una microrevolución: MOS 6502
InfoporAnónimo9/24/2010

A principios de los ‘70 un grupo de ingenieros de Motorola estaba convencido de que era posible obtener un microprocesador barato si se planteaba un diseño simple y un proceso de fabricación mejorado respecto a los estándares de la época. Sin contar con el apoyo de la compañía, este grupo crearía una de las familias de chips que sería el catalizador de la revolución de la computación hogareña, se trata del 6502 y sus sucesores, principal motor de las primeras máquinas de Atari y Apple, entre otros. Chuck Peddle era uno de los ingenieros líderes en el desarrollo del procesador 6800 de Motorola, en sus reuniones con importantes clientes industriales, se dio cuenta de que la tecnología era apreciada, pero demasiado cara para ser usada en forma masiva. En conversaciones con sus clientes llegó a la conclusión de que el costo del procesador tenía que bajar de los USD$300 que costaba el 6800 a sólo USD$25 de la época, conclusión que no alegró para nada a los directivos de Motorola que no tenían ninguna motivación para buscar reducir el precio de una tecnología que ya tenía buenas ventas. Para Chuck y otros ingenieros, se trataba de un interesante desafío técnico y sin contar con el apoyo de Motorola comenzaron a trabajar en los cambios necesarios para mejorar su procesador. Por una parte el equipo estaba descontento por el escaso apoyo de Motorola, y por otra parte la compañía estaba molesta por la porfía de Chuck y su equipo, finalmente la gota que rebalsó el vaso fue la petición formal de Motorola para detener el proyecto, lo que hizo que Chuck y su equipo decidieran abandonar la compañía, para seguir trabajando en su microprocesador por su propia cuenta. El grupo se integró a una compañía de bajo perfil llamada MOS, en donde llegaron a un acuerdo para participar en las ganancias que podrían obtener con el nuevo microprocesador, un acuerdo que desde el punto de vista de MOS era conveniente por la baja rentabilidad que significaba en ese tiempo la producción de estos chips. Este acuerdo, junto a la renuncia en masa de Motorola era una demostración de la confianza que tenía el equipo de ingenieros en el producto que estaban desarrollando. El 6501 demuestra a Motorola que estaban equivocados El primer procesador de la serie 6500 fue el 6501. Un hecho inédito que rodeó el desarrollo de este chip fue que Chuck lo diseñó completamente a mano y funcionó en el primer intento, cuando lo normal en esos años era pasar por un proceso de más de 10 intentos fallidos. Este procesador fue bastante escaso ya que no se hizo con el fin de ser vendido, sino como una forma de demostrar a Motorola lo equivocados que estaban, y que sí se podía construir un microprocesador útil y barato. Uno de los factores que influyeron en la reducción de los costos de producción fue una innovación de estos ingenieros respecto al proceso de fabricación. En esos tiempos, la tasa de fallas en la producción era de un 70%, es decir, sólo 7 de cada diez procesadores fabricados iban directo a la basura. Esto ocurría principalmente debido a que el proceso consistía en crear un gran molde del procesador e ir aplicando reducciones hasta llegar al tamaño real, en estas reducciones siempre ocurrían errores y los ingenieros en MOS encontraron una forma de aplicar correcciones al molde en cada reducción, logrando con este cambio una tasa de éxito de un 70%, es decir, 7 de cada 10 procesadores resultaban perfectos. El 6501 era totalmente compatible con las placas del Motorola 6800 y podía ser usado como un reemplazo directo a nivel de hardware, lo que motivó una demanda de Motorola por supuesta violación de patentes de sus ex-ingenieros. Supuesta porque en realidad lo que estaba en juego era la propiedad intelectual, ya que se estaba aplicando el conocimiento de tecnologías que en realidad no estaban patentadas. Aún así, se llegó a un acuerdo con Motorola y se pagó una suma de unos USD$200.000 para detener el pleito. MOS presenta el 6502 desafiando a Intel y Motorola El problema con Motorola provocó la creación del 6502, se trataba de un 6501 pero incompatible con el hardware diseñado para el Motorola 6800. El 6502 debutó en WestCon 1975 al precio exacto de USD$25 que se habían propuesto. Al principio los asistentes pensaron que se trataba de algún tipo de estafa, ya que no se concebía crear un procesador tan económico, pero en el mismo día Motorola e Intel bajaron el precio de sus procesadores 6800 y 8080 de USD$179 a sólo USD$69, validando al 6502 que se vendió por cientos. En esos años, Commodore que estaba en el negocio de las calculadoras, estaba pasando por aprietos económicos ya que el negocio iba en bajada y la competencia era cada vez más fuerte. Como una estrategia para cambiar el rumbo del negocio, compraron a MOS que también estaba pasando por aprietos pero que contaba con la tecnología que ellos necesitaban. Para Chuck, el negocio de los microprocesadores estaba orientado al mundo industrial, sin embargo mientras visitaba a distintas empresas para tratar de vender el 6502 le dijeron que un par de chicos estaban tratando de usar su procesador para construir un computador personal. El hecho le pareció simpático y accedió a ir a ayudarles a su garage, se trataba nada más y nada menos que de Steve Jobs y Steve Wozniak quienes trabajaban en su primer computador Apple. Chuck pensaba en masificar el 6502 en las industrias y para nada sospechaba que el gran mercado estaba en los computadores personales. Ni en un millón de años! Según sus propias palabras. El legado del 6502 El 6502 es un procesador de 8 bits, esto quiere decir que todas sus operaciones internas maneja números entre 0 y 255, por otra parte posee un bus de direcciones de 16 bits que le permite acceder hasta 64KB de memoria. El 6502 normalmente operaba con un reloj entre 1 y 2 Mhz pero dada una misma frecuencia de reloj era capaz de funcionar mucho más rápido que el 6800 de Motorola, gracias a su astuto diseño que reducía el número de ciclos de reloj necesarios para ejecutar una instrucción. Como pueden ver, ya desde esos años la frecuencia de reloj del procesador se podía prestar para malentendidos. Entre los computadores que se construyeron en torno al 6502 encontramos el Commodore PET, VIC-20, Apple I y II, BBC Micro y toda la linea de computadores Atari de 8 bits (XL, XE, 400, 800, etc), incluso en otro tipo de dispositivos como la unidad de disco 1541 de Commodore. En la pionera consola Atari 2600 se utilizó una versión económica del 6502 conocida como 6507, versión que contaba con menos pines y sólo podía acceder a 8KB de memoria. El Commodore 64 también usó un 6502 modificado, se trataba del 6510 en donde se agregó funcionalidades simples que normalmente se implementaban con circuitería adicional. Super Nintendo Super Nintendo Sin duda una de las variantes más interesantes del 6502 la encontramos en la consola Nintendo Entertainment System (NES), en donde se usaba un 6502 en que funcionalidad no utilizada en la programación de videojuegos fue reemplazada por generación de sonido, manejo de joysticks y sprites, convirtiendo al procesador en un conveniente sistema integrado en un chip (system on a chip). El 6502 fue un microprocesador que continuó su legado en el mundo de los 16 bits. Una versión de 16 bit conocida como 65C816 es el corazón de la consola Super Nintendo. También encontramos una versión especial del 6502 con modificaciones orientadas a videojuegos en la consola TurboGrafx-16/PC-Engine, en donde se podía cambiar la velocidad del procesador hasta llevarlo a unos 7Mhz. Como se puede ver, el 6502 estuvo presente en al menos tres frentes de los inicios de la computación hogareña, desde el lado hi-end en Apple hasta computadores menos ambiciosos pero tremendamente exitosos como los de Commodore y Atari. Lo que impresiona aún mas es ver que el mismo procesador que iniciaba la computación personal fue el que inició el mercado de los videojuegos hogareños con el Atari 2600, y tras la debacle de Atari en 1983 que casi termina con la industria de los videojuegos, vuelve en gloria y majestad en el NES de Nintendo para iniciar un camino sin retorno en este mercado. Fuente

0
0
Cyrix MediaGX: CPU+GPU existió hace 14 años
Cyrix MediaGX: CPU+GPU existió hace 14 años
InfoporAnónimo9/16/2010

Actualmente las 2 grandes empresas fabricantes de microprocesadores x86, Intel y AMD, han encontrado que el integrar el mayor número de componentes en el CPU, reduce los costos de producción, a la vez que incrementa la confiabilidad y el desempeño de sus respectivas plataformas. En los recientes años apreciamos que ambas, paulatinamente, integraron en sus CPU componentes que antes eran externos como la unidad de punto flotante (x87), el controlador integrado de memorias, e incluso recientemente varias partes del propio northbridge. En los actuales microprocesadores Core ix Series vemos que el IGP, si bien no forma parte del microprocesador aún, está presente en el mismo encapsulado. Pero esta situación está a punto de cambiar, pues ambas empresas están terminando sus próximas arquitecturas conocidas como Sandy Bridge (Intel) y Fusion (AMD) las cuales serían los primeros productos de dichas empresas en integrar un IGP/GPU en el propio microprocesador; pero definitivamente no serán los primeros productos x86 que logren esa proeza, pues aunque para muchos resulte un hecho desconocido, dicho hito ya había sido alcanzado hace 14 años por el microprocesador MediaGX de Cyrix. Nace Cyrix MediaGX Corría el año 1996, el Pentium MMX (arquitectura P5) de Intel cumplía 1 año y medio de reinado en el mercado desktop, mientras que el Pentium PRO (arquitectura P6) cumplía un año reinando en la gama profesional, sus competidores más importantes eran el K5 de AMD y el 6×86 de Cyrix (3º empresa en participación del mercado de CPUs x86 en esa época); mientras que los precios de las PC superaban fácilmente los $1000 incluso en sus versiones más económicas; esta situación no era motivo para extrañarse, AMD y Cyrix poseían microprocesadores con un poder de cálculo en enteros de similar e incluso ligeramente superior que los de Intel, pero eran derrotados por el abrumador poder de coma flotante de los Pentium MMX. Y si bien ambos planificaban futuros microprocesadores para revertir dicha situación: K6 (AMD) y 6×86MX, Cyrix también se encontraba desarrollando otro CPU altamente integrado: MediaGX, el cual fue lanzado en noviembre de ese mismo año, y crearía la por ese entonces famosa: fiebre por la PC sub $500, un precio impensable por esas fechas. Cyrix MediaGX fue un microprocesador diseñado para ofrecer un bajo consumo y una alta integración, creando por primera vez el concepto que ahora conocemos como plataforma; esta integración consistió en integrar el mayor número posible de componentes tanto en el propio CPU como en el chipset; unificando northbridge y southbridge, con otros componentes como modem v.34 (por esas fechas era común acceder a internet usando conexiones vía modem comúnmente a 28 o 33kbps), y salidas para el audio integrado en el CPU, componentes integrados a un único chip denominado Cyrix Cx5510; mientras que por parte del CPU, este integró gráficos 2D, un controlador de memoria EDO RAM, y audio en un microprocesador basado en el Cyrix 5×86 (un CPU con una potencia similar a la de los Pentium de gama baja de entre 66 a 75MHz, pero que era compatible con los sockets de las mainboards Intel 486), este chip fue denominado Cyrix MediaGX; CPU sobre el cual entraremos en detalle. Tecnologías El CPU Cyrix MediaGX fue todo un hito en cuanto a la integración: CPU+GPU+Audio+IMC y para gestionar sus componentes integrados se basaba en 4 tecnologías las cuales usaban la arquitectura VSA (Virtual Systems Architecture): XpressGRAPHICS La gráfica al estar integrada al CPU funcionaba a la misma velocidad de reloj (entre 120 a 266MHz), eliminando el cuello de botella que representaba el acceso al bus PCI (en esos tiempos no existían aún AGP ni PCIe), además de ello incorporaba tecnologías de compresión gráfica y de acceso compartido al controlador de memoria, eliminando la necesidad de memoria dedicada. Cabe mencionar que si bien integraba muchas porciones de hardware de un chip gráfico 2D, muchas de las funciones eran “emuladas” por el microprocesador gracias a su arquitectura VSA. XpressRAM Era el controlador de memoria integrado (IMC); el cual al estar integrado al CPU eliminaba la latencia asociada a la memoria EDO-RAM, además permitiendo a Cyrix prescindir del cache L2 (en esas fechas era de entre 128 a 512kb y estaba ubicado en la mainboard). XpressAUDIO Eliminaba la necesidad de un chip de sonido adicional “emulando” un chip de sonido gracias a su arquitectura VSA. XpressROM La base de la arquitectura VSA, proporcionaba las rutinas básicas de compatibilidad a nivel hardware con los componentes integrados en el chip MediaGX y su chip companion Cx5510. Notas finales MediaGX cumplió su cometido y marcó el inicio de las PC ultra-económicas, mercado que se ha mantenido hasta la actualidad con equipos como nettops y netbooks; si bien su performance era similar al de un Pentium 75 a 90MHz en sus modelos iniciales, poco a poco fue escalando en potencia, aunque nunca se mantuvo a la altura de los CPUs más actuales, pocos meses luego del lanzamiento de MediaGX, hizo su aparición el en ese entonces todopoderoso Pentium II, y si bien MediaGX tuvo un relativo éxito entre varios OEM, no tuvo el impacto esperado en el mercado de consumo, pero la idea de un chip integrado con características similares es algo que se mantiene hasta la actualidad, y ya es una realidad. Se podrían hacer muchas analogías entre MediaGX y Atom de Intel (Pineview) u Ontario de AMD, tanto por el relativamente escaso poder de cómputo que ofrecían, como por su grado de integración, y el tipo de equipos a los que estaban dirigidos; pero existió un factor que determinó el fracaso de MediaGX, y el de su creadora Cyrix: simplemente al ser el 3º competidor de esa época, dicho chip fue una apuesta muy arriesgada, pues Cyrix careció del poder de mercado para crear una nueva necesidad en los usuarios y mejorar su oferta para llevarla a equipos de tamaños más reducidos (como nota curiosa: en 1999 la propia Intel intentó desarrollar un chip similar, el que tuvo por nombre código Timna, el cual incluiría un controlador de memoria RDRAM (Rambus) integrado y un núcleo gráfico, pero este chip nunca llegó a salir, siendo cancelado a fines del 2000). MediaGX continuó desarrollándose en su nueva pero menos ambiciosa encarnación conocida como Geode, desarrollada por su nueva dueña National Semiconductor (adquirió a Cyrix en 1997), para posteriormente ser vendida a AMD (2002), la cual tuvo algunos pocos éxitos con ella (OLPC). Ya veremos cuál será el destino de Fusion de AMD, chip al que se podría considerar (sin serlo en realidad) la siguiente evolución del concepto que dejó MediaGX. Fuente

18
2
Cuando PCI Express reemplazó al AGP
Cuando PCI Express reemplazó al AGP
InfoporAnónimo9/16/2010

Lo más doloroso para algún techie es decidir cuándo y cómo actualizarse a la nueva tecnología. Creo que lo vivimos todos, y así como cada cual nace sabe de antemano que se morirá tarde o temprano, el que presiona teclas en la computadora sabe también que algún día llegará ese fatídico momento donde dirá, con énfasis en el adjetivo calificativo y una rabia evidentemente sempiterna durante toda la frase, “Esta basura está más vieja que mi mamá”. Eso fue lo primero que dije cuando noté que algunos videojuegos requerían una tarjeta de video mucho mejor, y gracias a mi mamá, tengo esta cicatriz. Para que Katarn le cortara la cabeza a un Sith tenía primero que entender la letra de una canción Death Metal cualquiera para lograrlo – así de difícil era tratar de jugar mientras mi computadora alegaba hasta en calidad baja y resolución mínima. Para sopesar ello, tenía una opción muy clara: votar esa antigua Radeon 7000 de 64MB que me acompañó por años sin ningún problema, y reemplazarla por algo mucho mejor como una Radeon X700 o GeForce 6600. La sorpresa que me llevé al saber que no había versión AGP, la misma cuando supe que mis zapatillas de planta lisa no servirían para jugar fútbol en el pasto (doh!). El sólo hecho de cambiar la tarjeta gráfica era algo así como un cambio de cancha completo, pero después de investigar algo, mi billetera tenía todas las de perder. PCI a otro nivel Así como AGP era la solución de de los cuellos de botella, PCI Express también era una nueva tecnología para solucionar los problemas del anterior, pero estaba en juego algo más allá de las tarjetas gráficas; era cambio arquitectónico sobre cómo comunicar lo que se conectaba en ese bus con el resto del sistema. PCI sufría de un malestar: todos los dispositivos que se conectaban allí compartirían el mismo bus, por lo que el rendimiento se vería mermado cuando una necesitara más ancho de banda que otro dispositivo. Esta pelea de intereses llevaría, por poner un ejemplo, a que dos controladoras de discos estuviesen rindiendo a la mitad en la transferencia mientras peleaban con los datos que entraban y salían de alguna LAN gracias a la tarjeta de red. Ni hablar de resoluciones HDTV y video en alta resolución, 133MB se escuchaba grande pero en la práctica no es tanto cuando tienes muchas cosas conectadas chupando como reviewer de cumpleaños en botillería sin nadie que atienda. Llegó el momento de las analogías: imaginemos el caso de la carretera 5 Norte que interconecta a todas las ciudades del país del norte de Chile, pero con sólo 1 línea en vez de 4. Todas las ciudades comparten la misma carretera, y todos se entenderán bien mientras no salga de Arica una caravana gigante que termine por crear un interminable taco en los cientos de kilómetros que faltan a la capital, aún cuando alguien desee llegar sólo a Iquique o la ciudad de más adelante. ¿Qué sucedería si cada ciudad tuviese una carretera exclusiva hacia Santiago? Eso es PCI Express, una conexión punto-a-punto, con un “switch” al otro extremo de la línea, encargado de mandar cada auto a su destino correspondiente. Y el cambio arquitectónico no era nada de otro mundo, por lo que aquellos dispositivos hechos para PCI sólo tenían que, en el mejor de los casos, cambiar la conexión a PCI Express. De pasada, como estás solo en esta especie de pista recta, no hay miedo en presionar el acelerador hasta que la aguja se de unas diez vueltas al tacómetro. ¿O acaso vas a chocar con una curva? Hay que tomarse la línea (no esa línea ) La filosofía de PCI Express es la conexión en serie, directa, mientras permitía que la información llegara sin errores, y con el menor esfuerzo posible. La conexión está basada en líneas, cada una de ellas consta de dos pares de “sub-líneas” que transmiten hacia y desde – en total 4 autopistas, dos en sentido contrario a las otras dos. Cada uno de ellos lanza 1 bit al aire por cada ciclo (o hertzio para que no se pierdan), y cada byte está codificado en 10 bits en vez de 8 (luego explico eso). Con esto luego el switch que recibe la información verifica a través de la decodificación del mismo paquete si todo salió bien o mal. La frecuencia de operación de PCI Express 1.0 es de 2.5GHz, o mejor dicho, 100MHz con un multiplicador de x25, lo que se traduce en 250.000 bits por segundo. Resultado: los datos que pueden salir por una línea en un segundo es de 500MB redondeados, sin embargo, dado que los dos bits de codificación ocupan el 20% de lo que se transfiere, estamos hablando de 400MB reales, o 200MB por cada lado. Mientras AGP lograba los 2133MB en el mejor de los casos, con sólo 8 líneas PCI Express se lograban 3200MB asíncronos por segundo y sin despeinarse. Tecnologías comparables, pero no iguales. La gran diferencia entre el AGP, PCI y PCI Express era que este último era administrado por un “switch” que tenía lugar en el Northbridge, aquél chip donde pasa todo incluyendo el bus del sistema, para administrar los datos que pasaban y su destino: el CPU, RAM, o el mismo bus central. También trajo bastantes cambios abajo del capot, como lo hizo AGP en su tiempo: * Prioridad: Antiguamente, si algún “paquete” de datos de algún dispositivo PCI debía llegar rápido y sin demoras a un lugar, tenía que quedarse en la cola de los otros que habían llegado antes. Con PCI Express, el switch se encarga de ordenarlos en caso que uno necesite tener más prioridad que el otro. Por ejemplo, mientras uno le da duro a un videojuego de acción, los paquetes de información gráfica serán los primeros en llegar en vez de aquellos que mande una tarjeta de red inalámbrica. * Punto a Punto: El trabajo del switch también es interconectar cada dispositivo directamente con otro, asegurando el ancho de banda completo a cada uno en vez de dividirlo entre un número determinado de dispositivos conectados. * Full Duplex: Mientras el bus PCI estabas recibiendo o enviando datos, considerando la espera entre cada paquete, en PCI Express se pueden hacer ambas cosas simultáneamente. No más “Cambio y Fuera”. * Ancho de banda ajustable: Todos los puertos PCI por norma eran iguales, pero en PCI Express se puede crear un puerto con menos líneas para otros dispositivos que no demandan tanto, como tarjetas de sonido, de red, controladores de discos, etcétera. De ahí los puertos PCI Express 1X, 2X y 4X. * Menor degradación de la señal: Como la señal ya no es compartida en un mismo bus, la recepción de las señales son mucho más limpias y hay menos errores entre los datos. Cada línea envía una versión “positiva” y otra “negativa/invertida” de la señal al destino, donde se combinan al llegar al switch, limpiando el ruido electromagnético. * Coexistencia con software: PCI Express es una tecnología que no es diferente a como PCI funciona a nivel de software, por lo que los sistemas operativos necesitaron muy pocas maniobras para ser compatibles. * Donde quieras: La versatilidad de PCI Express es suficiente para que una tarjeta de 8X o 4X pueda insertarse en un puerto PCI Express 16x (pero en muchos casos no al revés). Total, lo único diferente eran el menor número de líneas. * Mejor reconocimiento de errores: Nadie es perfecto, y menos las computadoras. Como en el bus PCI Express se codifican los 8bits en 10bits, una pérdida del 20% del ancho de banda es marginal comparado con la posibilidad de recuperar el byte corrupto en el próximo ciclo. * Hot Swap: Así como algunos discos SCSI eran posibles de ser intercambiados mientras funcionaban, en PCI Express también es posible si la tarjeta conectada lo permite. Eso sí, no lo intenten con la tarjeta de video mientras funciona, es pésima idea. Ya lo comprobé y tuve que reiniciar. * Mayor energía: El puerto AGP podía entregar cerca de 40W a la tarjeta de video, pero PCI Express lograba 75W mientras se usaba el puerto con 16 líneas. No más pines de alimentación aparte, no más estragos a la hora de crear un GPU que consumiera menos. Aún con todas esas ventajas, la transición a PCI Express fue bastante dolorosa para algunos, pero en el mercado de tarjetas gráficas el cambio era casi obligado cuando apareció el rumor que algunas de las próximas tarjetas gráficas empezarían a sentir el techo de lo que podía ofrecer AGP y el rendimiento que se perdía al no usar las ventajas del nuevo estándar. Se dieron algunos casos alejados de puertos PCI Express 32x, pero el slot era demasiado largo que era mucho más común verlo en tarjetas madres de servidores con algún engendro chupa-ancho-de-banda montado que en las computadoras de los consumidores finales. De hecho solo las he visto por fotos de Google. ¿Verdad que les dije que les iba a explicar eso de la codificación? Eso de 8b/10b mucha gente no lo entiende, así que aquí les va otra analogía. Imagínense que vamos a comprar huevos, y nos encargan 8 bandejas gigantes para llevar en nuestra mochila. Lo más obvio sería comprar aquellas 8 e ir directamente a entregarlas, pero nadie nos asegura que durante el camino se nos pierda o se suelte el paquete entero con las 8 bandejas. La solución que pone en el tapete PCI Express era llevar 8 piezas y 2 bandejas más vacías, que para esta analogía colocaremos una en cada extremo. Si bien aportan con más espacio, es mucho más seguro que lleguen las 8 a salvo si se nos cae el paquete completo y pega en una de las bandejas vacías. Después de tres vueltas habremos entregado 24 bandejas con huevos en vez de 30, pero hey, no tendremos que hacer un cuarto transporte para reponer aquella que se perdió. Pero no se crean el todo esa analogía. En PCI Express no se ponen un bit al principio y otro al final del byte, sino que se dan vuelta unos bits de posiciones, se intercalan con dos bits, y el resultado es un número decimal que puede resultar en un dato o un caracter. Sí, tampoco lo entiendo yo, pero sí entiendo que no puedo alegar para que me devuelvan esos dos bits demás. Casi todos con el pulgar arriba Recordarán en el episodio anterior de nuestra web-novela, “me cambio de puerto”, también conocido como “Cuando llegó el puerto AGP al mundo”, AGP era un cambio que afectaba específicamente a los fabricantes de tarjetas de video y un poco más a aquellos que hacían chipsets y placas madres. Eso no fue nada comparado con el cambio que impulsó PCI Express, porque este nuevo estándar significaba deshacerse por el AGP y los puertos PCI. Así de simple. O sea, no sólo tenemos en el saco de la actualización a los fabricantes de tarjetas de video, sino a aquellos que hacen placas madres, chipsets, tarjetas de sonido, de red, controladoras de discos, y todo el resto. Por una parte era entendible, pero los cambios que representaban en ellos los nuevos puertos, como también los costos asociados, eran mucho más grandes que la ganancia para el usuario al usar un puerto PCI Express en vez de un PCI. Me explico: una tarjeta de sonido perfectamente podía funcionar en el puerto PCI como una de red. Dicho y hecho, aquellos fabricantes que tenían productos útiles pero poco demandantes no se movieron mucho, lo que terminó por dejar a los fabricantes de placas madres casi-obligados a ofrecer productos con puertos PCI normales para coexistir. Quienes sí se regocijaron mucho fueron aquellos creadores de portátiles. El nuevo estándar permitía menos espacio para conectar tarjetas WiFi u otras en comparación con el puerto PCI, mientras por otra parte le daba paso a la creación del derivado ExpressCard, que mató a la PCCard por el tamaño y la velocidad. También habían otras soluciones locas como la posibilidad de conectar un puerto PCI Express a un cable de hasta 5 metros, pero existió poco apoyo, al parecer, porque PCI-SIG aún no daba con las especificaciones concretas, por lo menos, hasta hace poco. Otra solución más loca, pero genial al fin y al cabo, es wPCIe, una solución para conectar algo sin cables como una controladora de audio o un chip de video. En el caso de los servidores era un poco diferente. Allí se necesitaba la mejor velocidad posible, y PCI Express abría las puertas a más tarjetas de red y más controladoras de disco. Allí se usaban principalmente puertos PCI-X, una variación de los antiguos PCI que en su etapa de oro tenían 64-bits, eran algo más largos y andaban entre los 66MHz y 133MHz, pero aún así sostenían los mismos problemas que el PCI. El nuevo estándar era un respiro para los problemas de ancho de banda, así que el cambio fue casi natural pero no inmediato – recuerden que en este sector los billetes que se mueven son más grandes pero a mediano o largo plazo. De hecho apareció un estándar en paralelo llamado PCI Express ExpressModule, que por lo que sé permitía conectar placas madres en placas madres creando un loop infinito de divisiones por cero. La versatilidad de PCI Express logró algo que también era muy difícil lograr entre AGP y PCI. En los workstations, o “estaciones de trabajo”, para tener una salida a múltiples pantallas usualmente se combinaban tarjetas AGP en conjunto con otras PCI para lograrlo, implementación que era más rara y cara, y nunca llegaron al consumidor final a un precio aterrizado y buen rendimiento. Pero en PCI Express perfectamente se podían conectar una tarjeta de video “A” y otra “B” directamente, permitiendo que tanto NVIDIA como ATI lanzaran soluciones como SLI y Crossfire, respectivamente, donde los chips gráficos se comunicaban directamente. Como les comentaba en el artículo anterior, para los usuarios que no querían actualizar aún la placa madre, sumando el procesador y memorias en algunos casos, hubo algunas soluciones gráficas basadas en PCI Express que tenían un chip “Rialto” que actuaba como intermediador entre el chip gráfico y el bus, transformando la señal PCI Express en algo entendible para el AGP. Pero el puerto tenía una fecha de muerte tan fuertemente impresa que empezó a ser una prioridad secundaria. Las GeForce 8800, que salieron el 2007, no tenían ninguna versión compatible con AGP – por lo menos que yo recuerde – y sobre las nuevas Radeon HD 5000 que salieron el 2009, tampoco había una entre sus filas. Esta historia está lejos de terminar Los tipos de PCI-Sig, las 900 compañías detrás del estándar, lanzaron la especificación PCI Express 2.0 el 2007, y trajo cambios mucho más grandes a diferencia de los anteriores 1.0a y 1.1, siempre manteniendo la retrocompatibilidad. La segunda versión doblaba la frecuencia base, pasando de los 2.5GHz a los 5.0GHz. Sin tomar en cuenta la codificación 8b/10b, en una línea se podían transferir 500MB por segundo en cada lado, y en bruto un puerto PCI Express 16X logra alcanzar 16GB por segundo. Lo que hizo PCI-SIG fue simplemente cambiar el multiplicador de x25 a x50. Además, lograron que duplicar el suministro de energía a la tarjeta de video, de 75W a 150W, por lo que algunas tarjetas de video no necesitaban necesariamente de un enchufe 6-pin extra para funcionar. Las nuevas tarjetas de video que salieron apuntando las nuevas especificaciones fueron las Radeon HD 3000 y GeForce 9000. Eran retrocompatibles con PCI Express 1.1, eso sí algunas pedirían enchufe 6-pin para solucionar el problema de un menor suministro de energía. También hubo algunos casos de tarjetas que se negaban a partir en placas con la versión de PCI Express atrasadas; creo haber visto algunos casos en el foro en su tiempo donde sólo podían cambiar de placa madre para no perder la inversión, o probando con otra fuente de poder más top. Ahora PCI-SIG planea lanzar al aire el más que retrasado PCI Express 3.0, que tenía como objetivo terminar sus especificaciones el año pasado, pero no logró. La nueva versión traerá lo siguiente: * Dejará a PCI Express funcionando a 8GHz, o sea, el bus base de 100MHz multiplicado por 80. * La frecuencia dará como resultado una línea pasando 1GB de información por segundo (500MB en cada dirección) aproximadamente. * Reemplazará la codificación 8b/10b a favor de 128b/130b (si todo les resulta bien). * Logrará suministrar el doble de energía, cerca de 150W. * Usuarios preguntando si su tarjeta PCI Express 3.0 le hace a la 2.0. * Más de alguno cambiando de placa madre por pavo. Pero según lo que reportamos anteriormente, el “cacho” de pagar nuevo hardware recién lo viviremos entrado el 2011. El cálculo es simple: si terminan las especificaciones este año, pasará bastante tiempo para que los desarrolladores y arquitectos que tienen los fabricantes de placas madres y chipsets los adapten a sus próximos productos, y perfectamente principios o mediados del próximo año estarán listos. Según el calendario maya, eso es justamente antes del fin del mundo. Por ahora sólo nos queda mirar cuántos otros fabricantes se están sumando al barco de PCI Express, porque lentamente los puertos PCI están dejando de ser numerosos en las placas madres, y sólo es cosa de darse una vuelta por las vitrinas de tu tienda favorita para notar que estas tarjetas nuevas están empezando a traer uno o dos de esos puertos en vez de sólo traer un par de PCI Express para la tarjeta de video. Menos mal, todos se están cambiando, y recién este año hemos empezado a notar que las tarjetas de sonido, y algunas de red, están usando PCI Express para funcionar. Espero que el cambio de PCI Express 3.0 al próximo estándar sea mucho más fuerte y menos caro, miren que mi vecino recién terminó de pagar las cuotas de esa placa nForce 4 con PCI Express. Fuente

11
0
N
NASA prueba motor de combustible sólido (Video)
Ciencia EducacionporAnónimo9/2/2010

El nuevo plan espacial de Estados Unidos implica que el sector privado pase a hacerse cargo del transporte al espacio, después de que los transbordadores espaciales se jubilen a principios del próximo año. Sin embargo, las naves privadas todavía no están listas para volar, y en el intertanto Estados Unidos dependerá de los cohetes Soyuz de Rusia. Ya que estamos claros con eso, pasemos a lo que está haciendo la NASA ahora. Hasta que la industria privada pueda desarrollar naves completas por sí misma, la NASA colaborará con algunas tecnologías. Una de esas es el DM-2, un cohete para carga pesada que utiliza combustible sólido. La NASA había estado colaborando con la empresa de armamento Lockheed Martin para desarrollar un sucesor de los transbordadores llamado Orion. Ese proyecto fue cancelado, pero el desarrollo ya estaba hecho, y el gobierno decidió que sería conveniente rediseñar Orion para usarlo como un vehículo de emergencia para la Estación Espacial Internacional. Sin embargo, algo tiene que mandar a Orion al espacio – ahí entra el DM-2. El cohete de cinco etapas es algo nunca visto hasta ahora: puede lograr 22 millones de caballos de potencia y generar 1,6 millones de kilos de impulso. Este motor fue probado ayer con éxito, logrando encender los cinco segmentos a máxima potencia, después de haber simulado una temperatura de 4,4ºC, usual en invierno en Cabo Cañaveral, donde sería lanzado. Un lanzamiento no está programado hasta al menos el 2015, así que el funcionamiento está adelantado a la agenda, dando más que suficiente tiempo para nuevos ajustes. link: http://www.youtube.com/watch?v=CkvzYsZnHyA Fuente

0
0
C
Científicos encuentran gen “Homero Simpson”: limita el
Ciencia EducacionporAnónimo9/20/2010

Científicos encuentran gen “Homero Simpson”: limita el aprendizaje y la memoria en ratones Un grupo de científicos de la Universidad de Emory concluyeron que la desactivación de un gen permite que los ratones se vuelvan más “inteligentes”, al tener más capacidad para recordar objetos y poder moverse en laberintos más rápidamente que aquellos ratones con el gen activado. El gen se llama RGS14, aunque el equipo de científicos lo conoce como el gen “Homero Simpson” ya que limita la actividad cerebral de los ratones. El RGS14 se encuentra más activo en la región CA2 del hipocampo, la zona del cerebro encargada del aprendizaje y la memoria. Si bien se conoce la función del hipocampo, no se sabe bien qué hace la región CA2. Cabe mencionar que el RGS14 también se encuentra en humanos. Sin el gen, se vio que en la región CA2 se producían conexiones neuronales más fuertes ante estímulos eléctricos. Esto se tradujo en un mayor reconocimiento de objetos que estaban junto a los ratones y en una visible mejora en la capacidad para navegar dentro de los laberintos. Al parecer, la falta del gen no ha afectado a los ratones, aunque sí es posible que haya generado un efecto que los investigadores no hayan podido notar todavía. La pregunta es por qué habría un gen en el cerebro que limita la capacidad cerebral. Habrá que seguir haciendo pruebas, para ver con certeza los efectos de la inhibición del gen para ver si es posible (y necesario) ver cómo inhibirlo en humanos. Fuente

3
8
PosteameloArchivo Histórico de Taringa! (2004-2017). Preservando la inteligencia colectiva de la internet hispanohablante.

CONTACTO

18 de Septiembre 455, Casilla 52

Chillán, Región de Ñuble, Chile

Solo correo postal

© 2026 Posteamelo.com. No afiliado con Taringa! ni sus sucesores.

Contenido preservado con fines históricos y culturales.