kuruzka
Usuario

Fluid: Amphibious Pavilion For 2012 sorprende al mundo de nuevo Dubai a sido muchas veces el que crea una nueva maravilla tecnologica en lo que arquitectura se refiere. No estamos seguros de que una vez que esta impresionante estructura comience a trabajar con su impresionantes magnitudes flotantes, sea tal como se planeo, ni si las cuestiones medioambientales en Dubai permitan terminar todo en el plazo establecido, o que los océanos serán menos contaminados o menos peligrosas como se dice. Todo lo que podemos decir con seguridad es que sin duda será más observado por todo el mundo los diseñadores pusieron toda la aspiración en este proyecto. Creado por los arquitectos de Peddle Thorpe, "Fluid: Amphibious Pavilion" puede recordar a una de las maravillas arquitectónicas de reciente construcción en Dubai. Esta gran estructura con su forma extraña pero hermosa con rasgos acuáticos puede "esperar" pacientemente en un puerto o despegar y flotar hacia el próximo destino. "Fluid: Amphibious Pavilion" se diseño especialmente para albergar la Expo Mundial de Yeosu, Corea del Sur, evento que tendrá lugar en 2012. FUENTE El tiempo que llevas viendo este post:

La verdad sobre el cuidado de baterías Las baterías de todos los dispositivos sufren un desgaste. Más allá de la descarga provocada por el consumo del aparato, hay un desgaste químico que se produce en la batería, el cual acorta la vida útil de la misma. Así, podemos darnos cuenta que la batería de nuestra notebook dura la mitad de lo que duraba hace un año. En Internet rondan muchísimos mitos sobre el uso que hay que darle a las baterías. Yo no soy un experto pero creo que tengo cierta experiencia respecto a este tema y por eso me gustaría desmitificar muchas falsedades. Seguramente has leído al menos una vez en tu vida la frase "efecto memoria". Nada mas falso que eso. El "efecto memoria" según sus discipulos indica que la batería tiene la capacidad de recordar cual fue su última carga y con el paso del tiempo "olvidar" parte de la misma, asi, una batería que antes duraba una hora, al cargarse hasta el 50% y luego descargarse recordaría esto y luego nunca más podría volver a cargarse al 100%, algo así como que la parte que no se ha cargado y descargado se vuelve inútil. A las modernas baterías de Ion Litio que llevan los portátiles y teléfonos celulares no les afecta no tener ciclos de carga y descarga completos. Podemos cargar la batería desde el 30% hasta el 70, utilizarla, cargarla desde el 50% al 100 y así. Otro mito más que interesante es la famosa "Carga inicial". No es tan vista-oída en el ámbito de las computadoras portátiles pero si en el de los teléfonos celulares. ¿Quién no recibió la instrucción de "Cargale la batería por 24 horas antes de usarlo" al comprar un teléfono nuevo? Esto era cierto.. hace 15 años, cuando usábamos baterías de Niquel Cadmio-Niquel Metal. Las baterías de Ion Litio vienen siempre acompañadas de un cargador automático. Al llegar al 100% de carga, la batería se autodesconecta y la computadora utiliza la energía del cargador únicamente. Lo mismo sucede en los teléfonos. Una vez cargada la batería, supongamos una hora, luego el cargador va a estar conectado inútilmente, ya que no cumpliría ninguna función. Uno de los mitos que mas destruyen baterías es el que indica que los ciclos de carga y descarga de la batería deben ser completos, o sea, del 100% al 0%. Nada más falso y dañino que esto. Las baterías de Ion Litio sufren muchísimo al descargarse al 0% y esto deteriora rápidamente a las celdas de la batería. Lo ideal es conectar el cargador cuando la carga alcanzó un 10 a 15%. "La batería debe aflojarse para dar el mayor rendimiento". Este mito no es muy difundido, hace alusión a que la batería en sus primeros ciclos no rendirá al 100%, por lo tanto deben realizarse algunos ciclos de carga y descargsa hasta que la batería alcance su rendimiento óptimo.. ¿Y sabés que? Si, es falso. Ok, ahora que estamos al tanto de lo que no tenemos que hacer con nuestra batería, pasemos a lo que si nos ayudará a mantenerla en perfectas condiciones. Entonces Nico, contame, ¿Como cuido mejor mi batería? (Las baterías alternativas no son tan malas como se cree) Bueno, para ello debemos entender que una batería libera la energía a partir de reacciones químicas, y por lo tanto se ven afectadas por la temperatura y la humedad. Una batería que trabaje a 25ºC o menos durará por lo menos, el doble que una que esté constantemente trabajando a 40ºC. Si, las baterías son muy sensibles al calor. Tal vez digas "nah, mi notebook no levanta 40ºC ni loco", pero sabelo que si los levanta (y más). Tené en cuenta que la batería está muy cerca de las fuentes de calor (circuito de carga, procesador, placa de video, etc) y 40ºC pueden ser 50, 60 o más sin ningún problema. Los problemas con baterías que se degradan muy rápido se ven muchísimo en notebooks gamers, esas que traen placas de video monstruosas acompañados de tremendos procesadores, y claro, no se puede hacer magia… Mantener ese loco hardware a 30ºC dentro de una caja de plástico es imposible. ¿Y que debemos hacer? Por lógica, si no usamos la batería, no se va a degradar. Cierto, pero no tanto. De vez en cuando, supongamos dos veces por mes, esta bueno utilizar la batería, gastarla, volver a cargarla y almacenarla con un 40 a 70% de carga nunca al 100% y nunca al 0%. ¿Y por qué digo esto de usar la batería? por la humedad. Maldita humedad que hincha puertas, hacen doler los huesos y degradan las baterías. Por mas que queramos, seguramente algo de humedad en 15 o 20 días va a tomar, la usamos, y esa humedad se va a ir. Bueno, no todo es color de rosas. Por mas mantenimiento que le demos, la batería tarde o temprano va a palmar. ¿Cual es la vida útil de una batería? en promedio unos 750 ciclos, hablando de una batería de Ion Litio medianamente buena. Tené en cuenta que tu batería puede durar 500 o 1000 ciclos también, y depende de los factores que hablamos más arriba, temperatura, stress, calidad, etc. Para ir monitoreando el estado de tu batería, podés usar la herramienta HWMonitor, mobilemeter o Everest para Windows y buscar por el nivel de desgaste o Wear Level. En Linux hacemos Linux dijo:$ acpi -V Battery 0: Full, 100% Battery 0: design capacity 4400 mAh, last full capacity 4097 mAh = 93% Esto indica que nuestra batería tiene un 93% de capacidad. OK, la cagué, mi batería está hecha pelota y no dura ni 15 minutos. ¿Que hago? Podés recaer en tres soluciones, La primera es la mas sencilla y rápida, batería nueva. Es la solución mas costosa, elitista y cheta que hay. Lo ideal siempre es comprar la batería original, para asegurarnos de que las celdas son buenas. La segunda solución es mandarlas a "reciclar". El reciclado consiste en cambiarle las celdas. En Argentina acceder a un servicio de estos demanda alrededor de 15 a 20 dólares por celda, haciendo que a veces sea mejor comprar una batería nueva. La tercera opción y mi preferida, es comprar las pilas que lleva, y cambiarlas. Una batería de notebook en el 90% de los casos lleva una serie de pilas grandotas, denominadas "18650". (Una batería de Notebook por dentro) Son de 3,7 volts y vienen de distinto amperaje. Casi siempre de un máximo de 3000mah o 3 amper/hora. En la red podemos encontrar celdas de distintas marcas, las más conocidas son las trustfire, ultrafire, bgt, etc. Por suerte mucha gente hizo reviews de estas celdas y de esa forma sabremos cual es la mejor para comprar. En dealextreme podemos conseguir muchos tipos de baterías 18650 y leer las opiniones de los compradores. Ah, saben que? la mayoría de las empresas que reciclan baterías usan estas mismas celdas :p Para mi Toshiba Satellite 6100, compré 6 pilas 18650 de la marca Ultrafire, por 2800mah, segun reviews las pilas daban 2400mah. Nada mal eh. Mi batería original era de 11,1v y 4000 mah, al ser de 6 celdas, se ponen dos juegos de 3 pilas en serie para dar el voltaje (3,7×3 = 11,1) y se duplica el amperaje por estar esas tres pilas en paralelo con otro juego de 3 (2400 x 2 = 4800mah). Haciendo que el super pentium 4 y la geforce 440 me den unas 2,30 a 3 horas de autonomía. Como experiencia personal, he tenido en manos mas de 20 notebooks, mi viejo tiene dos. una de ellas es una Acer Aspire 5100, conocida por morir de a poco. Esa vino con dos baterías por pedido de mi padre, ambas gozan de una capacidad del 90 y 94%, ¡Y ya están por cumplir 3 años! Por otro lado tengo mi Msi u230 con 11 meses y medio encima y un uso más que exhaustivo de la batería y la misma tiene una capacidad de 93% al día de hoy. Un compañero de la facultad tiene una Dell Vostro 1710, que viene con una nvidia 8600 y un core 2 duo, esa batería a los 4 meses ya tenia un wear level del 40%, Claramente el calor la detonó. Las que mas duran o eso vi hasta ahora son las de las netbooks con procesadores atom, de marca (no Banghó, no Exo, no marca Argentochina). Deduje y seguramente ustedes también, que es por la baja generación de calor, casi no las afecta. Fuente El tiempo que llevas viendo este post:

Un militar quiso vengar a su hija y mató al joven equivocado La chica murió en un accidente de auto. El plan del padre era asesinar al conductor. Lo llamaron a la comisaría de Villa Las Rosas, en Traslasierra, para que firmara una contravención de tránsito. Fue el miércoles y por fin llovía. Luis Oscar Ledesma, ex militar de 55 años, llegó tranquilo y no se resistió, aunque su cara se volvió mármol cuando le dijeron que quedaba detenido por homicidio. Sabía de qué le estaban hablando. De aquella mañana de octubre de 1999 cuando, tras planearlo mucho, le voló la cabeza a un chico de 18 años con una 9 milímetros. Este es, por ahora, el final de una historia terrible que comenzó con una desobediencia: la de una hija de Ledesma. El 28 de marzo de 1999, Elizabeth (20) se escapó a bailar con una prima y dos jóvenes a Carlos Paz. Volvían agotados y felices, cuando en una curva el auto en que viajaban se dio vuelta. Elizabeth murió. Sus tres acompañantes sobrevivieron. Ledesma, estragado por el dolor, juró venganza contra el conductor del auto, Enzo Romero (22). Siete meses después, el 29 de octubre, un Peugeot 504 y otros dos autos interceptaron en las afueras de la ciudad de Córdoba a una Trafic blanca de Arcor, donde trabajaba Enzo. Un hombre armado se asomó a la ventanilla, preguntó a los dos jóvenes aterrados quién de ellos era Romero y, cuando uno asintió, le disparó sin piedad. Lo que sigue parece de ficción pero no lo es: el asesino se equivocó de víctima. El muerto no era Enzo Romero, quien hacía tres meses que ya no trabajaba en la empresa, sino Damián Romero, un pibe de 18, hijo de una empleada de limpieza. Ese día, este muchacho pagó con su vida el extraño designio de tener el mismo apellido de la obsesión de Ledesma y trabajar en la misma empresa. "Suponemos que Ledesma hizo inteligencia, pero mal. Que siguió a la víctima equivocada y que, junto a otros que ahora estamos buscando, porque está claro que no actuó solo, ejecutó al chico a quien acusaba erróneamente por la muerte de su hija", relató el fiscal Pedro Caballero. ¿Y por qué recién ahora logró detenerlo? ¿No había testigos, acaso? Había, pero tenían miedo de declarar. Este es uno de esos casos en que no existe una prueba directa sino una serie de indicios que a veces no alcanzan para detener. Ahora hemos logrado una suma tal, que pudimos arrestarlo y allanar su casa en Villa Las Rosas. El tema del domicilio no fue menor. Desde el asesinato de Damián Romero, Ledesma se mudó desde La Calera, a unos 20 kilómetros de la capital cordobesa, hasta Deán Funes, en el norte; y hace algún tiempo se asentó en Traslasierra. Allí, este suboficial retirado y veterano de la Guerra de Malvinas, se dedicaba a la cría y venta de cerdos. Con su esposa de siempre tuvo otra hija. "En su casa pudimos secuestrar una 9 milímetros que irá a peritaje -siguió Caballero- y una serie de recortes del diario La Voz del Interior en los cuales, desde hace años, se hablaba del caso". Ledesma está acusado de homicidio simple y, según el fiscal, "a esta carátula sólo se le puede sumar la alevosía", ya que lo cometió antes de la Reforma Penal de 2005. Como ha pasado tanto tiempo y puede prescribir, Caballero deberá elevarlo a juicio antes de que transcurran dos años. Pero, en círculos judiciales, descartan que eso ocurrirá mucho antes, "ya que el fiscal ha trabajado tanto que tiene casi todo el expediente listo". Para ver FUENTE de la nota click en la imagen El tiempo que llevas viendo este post:
¿Qué pasa con nuestro email cuando morimos? "¿Qué pasará con mi email cuando muera?" es una pregunta que me hice un par de veces -sin darle demasiada importancia-, y seguramente no fui el único. Aunque hoy me puse a pensar que quien herede mi email también será dueño de este blog, por ejemplo. Así que me puse a investigar y encontré relativamente fácil algunas respuestas, aunque no eran las que yo esperaba. Veamos si tampoco soy el único... [si no te interesan los datos técnicos, salta a la encuesta, pero no olvides que aún si no te importa lo que pase cuando mueras, otros pueden morir mientras estás vivo y dejar al descubierto los emails que les enviaste con tus fotos y confesiones comprometedoras] Para los cibermitaños como yo, el email es un documento de identidad, y no sólo la capacidad de almacenamiento y la calidad del servicio son puntos a tener en cuenta a la hora de elegir un proveedor. Aunque uno no tenga nada que esconder -o luego de morir le interese muy poco esconderlo-, hay que tener en cuenta que quien posea tu correo también: * tendrá acceso a todos los otros servicios asociados a esa casilla, incluyendo tus blogs, redes sociales, cuentas financieras, sitios pornográficos con inclinaciones extrañas, etc. * podría violar la privacidad de terceros, gente que escribió cosas exclusivamente para nuestros ojos y que podría verse comprometida de alguna manera, llegando incluso a desatar la tercera guerra mundial. Debido a que no existe una ley con respecto a esta importante herencia, los tres grandes proveedores de correo electrónico tienen políticas bien diferentes: Hotmail, propiedad de Microsoft, técnicamente sigue siendo dueño de todos tus emails. Por eso, sus condiciones incluyen que todos los correos serán eliminados tras pasar 270 días de inactividad por parte del usuario. Pero, si éste muere, Hotmail le transfiere automáticamente los derechos a sus familiares (por supuesto, deben identificarse como tales y presentar el certificado de defunción correspondiente, pero no podemos hacer nada para evitarlo). Aún así, todos los archivos serán eliminados una vez transcurridos los 270 días, lo cual no ayuda a la privacidad porque en ese lapso pueden haberse copiado o imprimido todos los mensajes (Microsoft sólo vela por el espacio en sus servidores). Casillas de correoGmail, de Google, en cambio, nos regala abiertamente el espacio de almacenamiento de los mensajes, y esto tiene como consecuencia que jamás -mientras Google exista- se eliminará un sólo email de nuestra cuenta. En caso de fallecer el usuario, también sus familiares recibirán el privilegio de husmear en la cuenta en busca de preferencias pornográficas, pero los requisitos son un poco más estrictos: además de identificarse y demostrar legalmente la defunción, deberán presentar la copia de alguna conversación entre ellos y el muerto (cuando estaba vivo) que demuestre cierta afinidad y confianza entre ambos. Yahoo!, finalmente, tiene una política de privacidad mucho más estricta que las otras dos, que me parece también más acertada: opcionalmente, los familiares podrán solicitar que se cierre la cuenta de correo pero nunca podrán saber qué contiene, exceptuando el caso de que el muerto haya dejado explícito lo contrario en un email, cediendo permiso a determinada persona. Además de los correos electrónicos, otros servicios web tienen sus propias ideologías para estos casos. Facebook, por ejemplo, una vez confirmada la muerte del usuario, transforma su perfil en una especie de obituario. Cuando esto sucede, el acceso al perfil es bloqueado y ya nadie puede acceder a él para escribir, pero sí para leerlo. De cualquier manera, Facebook elimina automáticamente cierta información personal, como las actualizaciones de estado, y permite a los familiares elegir cómo se comportarán otras características, por ejemplo: permitir o no que sus "amigos" comenten en él. Blogger, MySpace, Twitter y otros conocidos servicios no poseen reglas predefinidas para aplicar tras la muerte del usuario. Evaluarán cada caso en particular para decidir qué hacer con la información si un familiar lo solicita; si nadie dice nada, las páginas quedarán online como si nada hubiera pasado y quien tenga acceso a la cuenta de email pasará también a ser el dueño de ellas. Para muchos, nada de esto será un problema, pero para otros su casilla de correo es como una caja fuerte virtual; el traspaso automático de titularidad implica que otros no sólo puedan ver dentro de nuestras memorias fallecidas y decidir qué hacer con sus recuerdos, si no que puedan hacer pública alguna información que involucre y perjudique a otros, que incluso podrían desatar conflictos graves para los que siguen vivos. Entonces, ¿qué se puede hacer? Algunas alternativas Una de las alternativas que se me ocurren es que cada uno de estos sitios web nos dé la opción de una autodestrucción programada. Suena extremista, pero la idea es sencilla: por ejemplo, yo programo que Cibermitanios se autodestruya en el año 2020. Uno tiempo prudente antes de eso, recibiría un email alertando de la futura acción, y se me ofrecería la oportunidad de prorrogar la autodestrucción algunos años más, pero para eso debería responder a una pregunta secreta que sólo yo conozco, o quizá también alguien de confianza. De esta manera, sigo teniendo un poco de control aún después de muerto. Para ver FUENTE de la nota click en la imagen El tiempo que llevas viendo este post:
¡ Mucha Mierda ! Como casi todo el mundo sabe, es costumbre entre actores, comediantes y gente de la farándula en general el decir la expresión "Mucha Mierda" para desearse una buena y exitosa función. Lo que no sabe tanta gente es de donde viene esa escatológica forma de desearse suerte. Al parecer sus origenes provienen de la edad media, cuando la gente del espectáculo viajaban de pueblo en pueblo representado sus funciones. Cuando llegaban a un pueblo se fijaban en el sendero de entrada y en en la cantidad de excrementos de animales que había en la calzada. Si había "mucha mierda", eso quería decir que en el pueblo había gran cantidad de gente que habían acudido en sus monturas o carros y si había mucha gente en el pueblo, el "lleno" estaba prácticamente asegurado pues aquellos espectáculos eran muy populares y nadie se los perdía. Por eso, en aquellos tiempos de intinerancia, nada mejor podías desearle a un actor que el que ojalá encontrara mucha mierda en el siguiente pueblo. Así, esta curiosa y creo que poco afortunada expresión, ha perdurado hasta nuestros días. Para ver FUENTE de la nota click en la imagen El tiempo que llevas viendo este post:
Hola T!aringueros, en este post les traigo la explicación sobre las normas de video en el mundo. Cuantas veces nos preguntamos que corno significa PAL/n/b, NTSC, SECAM, MESECAM etc.. Pues bueno es este aporte tratare de dar una detallada información sobre cada norma de video en el mundo. Para empezar veremos que tipo de normas de video existen. Principalmente Son estos tres: PAL (Variables. B / G / I / N / M) NTSC (Variables. M / J / N / 4.43 / film) SECAM (Variables. D / K / L / G) Aquí podemos ver en forma global el uso de cada norma por continentes Aquí veremos normas de video por país PAL NTSC SECAM En esta tabla que arme se puede observar algunas diferencias entre cada norma. YAPA Pero también a veces nos preguntamos que quiere decir: VGA, XGA, HD 720 etc.. Pues en siguiente imagen esta la posta Espero que les haya servido de algo esta información Fuente: digitalfotored.com/normas-de-video.html El tiempo que llevas viendo este post:
Evolución de la interfaz visual de los sistemas operativos La interfaz gráfica de los sistemas operativos modernos es uno de los apartados más cuidados por los desarrolladores, y mucho ha llovido desde los primeros avances en este campo. ¿Cómo han evolucionado estos entornos gráficos? Lo comprobamos en un repaso de 33 versiones distintas de sistemas operativos legendarios como AmigaOS o OS/2, además de las evoluciones de Windows, GNU/Linux y el prodigioso Mac OS. El diseño de la Interfaz Gráfica de Usuario (GUI) ha sido uno de los apartados más cuidados por los desarrolladores de sistemas operativos desde hace casi 3 décadas. El revolucionario descubrimiento de este componente por parte del Xerox Palo Alto Research Center (PARC) fue poco a poco trasladado a sistemas operativos comerciales que comenzaban su andadura en un terreno desconocido, pero que a la vez acercaría como nunca la informática al usuario final. 1. Xerox Alto El primer ordenador personal que utilizó una interfaz gráfica de usuario moderna fue el Xerox Alto, que se desarrolló en 1973. Sin embargo, no era un producto comercial, y estaba destinado únicamente a la investigación en universidades. 2. Xerox 8010 Star (1981) Este fue el primer sistema que combinaba un ordenador de sobremesa con una serie de aplicaciones y una GUI. Se le conoció originalmente como "Xerox Star", aunque luego sufrió dos cambios de nombre, primero a "ViewPoint" y más tarde a "GlobalView". 3. Apple Lisa Office System 1 (1983) También conocido como OS, que en este caso significaba Office System (y no Operating System). Este desarrollo fue producido por Apple con la intención de convertirlo en una estación de trabajo para el procesamiento de todo tipo de documentos. Desafortunadamente este desarrollo fue "canibalizado" por el sistema operativo de los Apple Macintosh, que era más económico. 4. VisiCorpo Visi On (1984) Este desarrollo fue la primera GUI disponible para el IBM PC. La idea era destinarlo a grandes corporaciones, y su precio por entonces era muy alto. Para utilizarlo se usaba un ratón, y además disponía de un instalador y un sistema de ayudas, y no hacía uso de iconos. 5. Mac OS System 1.0 (1984) System 1.0 fue la primera GUI desarrollada para el Macintosh, y disponía de varias de las prestaciones de un sistema operativo moderno, incluidas el uso de ventanas e iconos. Era posible mover ventanas de un lado a otro, y también se introdujo la función de arrastrar y soltar iconos de un origen a un destino. 6. Amiga Workbench 1.0 (1985) El sistema operativo del Amiga y su intefaz gráfica se adelantaron a su tiempo, y ofrecían características imbatibles para la época. Cuatro colores (negro, blanco, azul y naranja), multitarea preemptiva -que no adoptaron muchos otros sistemas hasta casi 10 años después), sonido estéreo e iconos multi-estado (seleccionados y no seleccionados). 7. Windows 1.0x (1985) Ese mismo año Microsoft por fin logró desarrollar su primer entorno gráfico para su sistema operativo MS-DOS, al que llamó Windows 1.0 y que disponía de iconos de 32x32 píxeles y gráficos en color. Una de las características más originales fue el icono animado del reloj, que más tarde desaparecería. 8. GEM (1985) Otro de los desarrollos más importantes de la época fue esta interfaz gráfica de usuario desarrollada por Digital Research Inc. (DRI), que se creó originalmente para el sistema operativo CP/M en los procesadores Intel 8088 y Motorola 68000 y que en realidad se popularizó gracias a su uso en los ordenadores Atari ST, competidores de los Amiga. 9. IRIX 3 (1986) Aunque se presentó en 1984, la interfaz gráfica de usuario del potente sistema Unix de Silicon Graphics no se lanzaría realmente hasta 1986, y daría aún más potencia al sistema operativo de 64 bits IRIX, creado a partir de UNIX. Esta GUI ofrecía soporte para iconos vectoriales, una característica que por ejemplo también haría su aparición muchos años después en Mac OS X. 10. GEOS (1986) El denominado GEOS (Graphic Environment Operating System) fue desarrollado por Berkeley Softworks (más tarde GeoWorks) y se diseñó inicialmente para el Commodore 64 e incluía un procesador gráfico de textos llamado GeoWrite y un programa de dibujo llamado GeoPaint. 11. Windows 2.0x (1987) La segunda versión de Windows mejoró notablemente la gestión de las ventanas, que ahora podían ser superpuestas, redimensionadas, maximizadas y minimizadas, conceptos que se mantuvieron a partir de entonces en las distintas ediciones de Windows. 12. OS/2 1.x (1988) Aunque este sistema operativo fue desarrollado inicialmente por IBM y Microsoft, en 1991 el acuerdo entre ambas empresas se rompió y Microsoft incluyó la tecnología desarrollada en sus propias versiones de Windows, mientras que IBM continuaría el desarrollo de OS/2 por sí misma. La GUI utilizada en OS/2 se denominaba "Presentation manager", y en la primera versión sólo daba soporte a iconos monocromos y con una posición fija. 13. NeXTSTEP / OPENSTEP 1.0 (1989) La marcha de Steve Jobs de Apple le sirvió para crear una nueva empresa y un nuevo sistema operativo que fue concebido para gobernar los ordenadores de investigación de universidades y centros científicos, algo que le llevaría a fundar su compañía NeXT Computer Inc. El primer ordenador de esa empresa se presentó en 1988, pero en 1989 fue cuando se presentó la GUI de NeXTSTEP, que más tarde evolucionaría hacia OPENSTEP. Los iconos de dicha interfaz eran más grandes (48x48) y con más colores, y se convirtió en un verdadero preludio de lo que serían las interfaces gráficas de usuario de los siguientes años. 14. OS/2 1.20 (1989) La siguiente versión de OS/2 fue presentada un año después, pero las mejoras visuales eran notables en muchos apartados, como el de los iconos, más estilizados, y las ventanas, también con mejor aspecto visual. 15. Windows 3.0 (1990) Esta versión demostró el interés que Microsoft tenía en los entornos visuales, y de hecho aprovechó las prestaciones de los procesadores 386, que podían acceder a más de 640 KB y con las que lograron por ejemplo resoluciones de hasta 1024x768 píxeles. La interfaz también cambió de diseño e iconos, con un aspecto notablemente mejor al de las ediciones previas. 16. Amiga Workbench 2.04 (1991) La segunda versión del por entonces popular Amiga OS incluyó cambios muy importantes en su Workbench, su entorno gráfico. Entre otras cosas los iconos y ventanas presentaban un aspecto 3D, y el escritorio podía ser dividido en pantallas de distintas resoluciones y profundidad de color. La resolución por defecto del Workbench era de 640x256, aunque el hardware también daba soporte a resoluciones mayores. 17. Mac OS System 7 (1991) Esta versión de Mac OS incluyó la primera GUI de Apple con soporte para colores, además de que se añadieron distintas tonalidades de gris, azul y amarillo a los iconos del sistema. 18. Windows 3.1 (1992) La versión de Windows fue la primera en incluir tipografías TrueType, que estaban instaladas por defecto y que convirtieron a Windows en una plataforma eficiente para autoedición por primera vez, un tipo de tarea que los Macintosh y Apple llevaban dominando durante años. En Windows 3.1 también se incluyó un nuevo esquema de color denominado Hotdog Stand, que contenía contrastes de rojo, amarillo y negro para darle mayor relieve a los iconos y ventanas. 19. OS/2 2.0 (1992) Esta fue la primera interfaz gráfica de usuario que se sometió a la aceptación internacional, además de realizarse pruebas de usabilidad y accesibilidad. Toda ella fue desarrollada utilizando un diseño orientado a objetos, y cada fichero y carpeta era un objeto que podía ser relacionado con otros ficheros, carpetas y aplicaciones. También se introdujo la función de arrastrar y soltar ficheros. 20. Windows 95 (1995) Este fue el primer sistema operativo de Microsoft que integraba una interfaz gráfica de usuario nativa en el sistema -aunque la base siguiera siendo MS-DOS-, que también se mantuvo en W98 y Me. En Windows 95 se inclueron numerosas mejoras sobre las anteriores versiones de Windows, y entre otras cosas se les dio varios estados a los iconos. El famoso botón de Inicio (Start) apareció por primera vez, pero también lo hicieron otros conceptos que aún hoy se mantienen en Windows Vista o Windows 7 y que simplemente han visto modificado su aspecto visual. 21. OS/2 Warp 4 (1996) El lanzamiento de esta versión de OS/2 Warp supuso una revolución para este desarrollo, que se convirtió para muchos en una referencia en el mercado de sistemas operativos aunque su popularidad se viese ensombrecida por la arrolladora máquina de márketing de Microsoft y sus Windows 95. La interfaz de OS/2 Warp 4 introdujo cambios interesantes como el posicionamiento de iconos en el escritorio, donde también se podían incluir ficheros y carpetas. La papelera de reciclaje no mantenía los ficheros para un posterior borrado definitivo, sino que una vez que los depositábamos allí se borraban para siempre automáticamente. 22. Mac OS System 8 (1997) Los iconos de 256 colores eran ya una característica de serie de Mac OS 8, que además fue uno de los primeros sistemas operativos en adoptar iconos isométricos, también llamados iconos pseudo-3D. El tema gris platino utilizado en aquella versión del SO de Apple se convirtió en una seña de identidad para posteriores lanzamientos. 23. Windows 98 (1998) Aunque el aspecto general era similar al de Windows 95, toda la interfaz gráfica de usuario podía usar más de 256 colores para el renderizado del aspecto visual. Eso sí, se incluyeron cambios notables en el explorador de archivos -que cambió completamente-, y además se introdujo el concepto del "Escritorio Activo". 24. KDE 1.0 (1998) La primera versión de un entorno gráfico para el sistema operativo GNU/Linux marcó un punto de inflexión crucial en las distribuciones Linux, y ofreció características que antes sólo era posible encontrar en otras plataformas o que eran complejas de integrar en los gestores de ventanas que existían previamente para la interfaz gráfica del sistema operativo GNU/Linux. En muchos apartados KDE trataba de emular el comportamiento de menús y ventanas de Windows 95, quizá como medio para tratar de convencer a usuarios de Windows de que migraran a soluciones Open Source. 25. BeOS 4.5 (1999) Otra de las leyendas de la informática moderna que no tuvo final también presentó su propia revolución en el segmento de las GUI en 1999, cuando se lanzó esa versión de un sistema operativo que trataba de acercar lo mejor de los sistemas operativos Unix y acercarlos al gran público. La velocidad del sistema era impresionante, y además ofrecía características como la multitarea preemptiva o un sistema de ficheros journaling de 64-bits llamado BFS. El diseño de la interfaz gráfica de usuario aún se considera uno de los más limpios y potentes de todos los tiempos, y de hecho ese proyecto aún está vivo gracias a la iniciativa Haiku. 26. GNOME 1.0 (1999) La otra gran alternativa en el mercado de los entornos gráficos de escritorio para GNU/Linux también surgió ese año, y aunque aparecería originalmente para la distribución Red Hat Linux pronto se utilizaría en un gran número de distribuciones, que lo tomarían como solución por defecto. Ubuntu, por ejemplo, lo aplicó desde su nacimiento, aunque obviamente también existen versiones como Kubuntu en las que el entorno de escritorio es KDE. 27. Mac OS X (2001) Probablemente el más importante de los sistemas operativos modernos en este apartado, Mac OS X supuso un cambio radical respecto a la evolución que hasta entonces habían marcado los sistemas operativos de Apple. La interfaz visual, conocida como Aqua, introdujo múltiples cambios que hoy en día son imitados por el resto de alternativas en el mercado. Iconos de gran tamaño con anti-aliasing y semitransparencias, la aparición del Dock o el diseño de las ventanas fueron algunas de las novedades, que no tuvieron buena recepción inicial por el gran cambio que supusieron, pero que a posteriori se han convertido en referentes de un sistema operativo y una interfaz que son una referencia absoluta en el mercado actual. 28. Windows XP (2001) El considerado por muchos como el mejor sistema operativo de Microsoft de toda su historia introdujo también cambios visuales importantes que sobre todo se demostraron por la personalización de la interfaz gráfica de usuario, que ahora daba soporte a los temas y que introducía un aspecto totalmente diferente para ventanas e iconos, así como los sistemas de ayuda y notificaciones. 29. KDE 3 (2002) Las mejoras en este entorno de escritorio para GNU/Linux fueron significativas en su apariencia visual, pero también en su estructura interna. La experiencia de usuario se suavizó sensiblemente gracias al rediseño de ventanas e iconos. 30. Windows Vista (2007) Más de 5 años tuvieron que pasar para que Microsoft ofreciera su respuesta a Mac OS X, y aunque la interfaz visual supuso una verdadera revolución respecto a lo que se había visto en ediciones anteriores de Windows, su éxito se vio obstaculizado por el mal comportamiento de varias de sus características. No obstante, las mejoras visuales que han hecho de Vista un producto más atractivo para los usuarios finales se confirmarán con el lanzamiento de Windows 7, que prácticamente no variará esa base. Windows Seven "7" (2009) Si bien Windows 7 sigue recibiendo buenas críticas según van apareciendo nuevas versiones filtradas en la red, muchos le han criticado que su interfaz no representa ninguna novedad comparada con la interfaz de Vista. Pero parece que Microsoft tendría una sorpresa preparada para cuando el RTM de Windows 7 sea lanzado, ya que ahí podríamos apreciar lo que sería la nueva interfaz de Windows 7, que sí se diferenciaría de la actual calcada de Vista. Con lo anterior se mantendría la “tradición” de una nueva interfaz por cada lanzamiento de un nuevo Sistema Operativo de Microsoft, lo que en este caso resultaría ser toda una sorpresa muy bien guardada por parte de la compañía. Con seguridad esta noticia mantendrá las grandes expectativas que ha despertado Windows 7, sobre todo por los excelentes comentarios que ha generado hasta el momento. Aunque no estoy muy seguro de esto, es sólo cuestión de esperar y confirmar. 32. Mac OS X Leopard (2007) La sexta generación del sistema operativo de Apple fue una de las más importantes en cuanto a cambios visuales, con un Dock con aspecto 3D, muchas más animaciones e interactividad y la popularización de métodos de visualización como su famoso CoverFlow en un buen montón de aplicaciones, incluido el Finder. 33. GNOME 2.24 (2008) El proyecto GNOME dio un salto considerable el año pasado cuando se cambió de forma muy importante el aspecto visual de ventanas e iconos, pero además la propia estructura interna del proyecto también se optimizó para competir con más garantías con su proyecto hermano, KDE. 34. KDE 4.x (2008) Aunque las primeras versiones de este entorno de escritorio fueron objeto de muchas críticas por su estado aún demasiado experimental, la versión 4.2 que ha debutado hace pocas semanas ha permitido demostrar que KDE 4 ha madurado de una forma sobresaliente, y hoy en día se considera una solución estable y eficiente en la mayoría de los apartados. Muchos usuarios siguen considerándolo aún un cambio demasiado radical -como Mac OS X lo fue en su día- pero es probable que el paradigma introducido con esta versión sea muy pronto una referencia muy relevante en este mercado. Los cambios visuales e internos -con una arquitectura modular potentísima- hacen de KDE 4 un entorno gráfico con un futuro realmente prometedor. Obviamente puede que falte algún protagonista -por ejemplo, la introducción de Compiz en GNU/Linux ha revolucionado el atractivo visual de KDE/GNOME-, pero desde luego el repaso sirve para comprobar de un vistazo los grandes cambios que han sufrido las interfaces gráficas de usuario desde su aparición. Para ver FUENTE de la nota click en la imagen El tiempo que llevas viendo este post:

Ojotas venenosas! Esta chica fue a comprar unas chancletas y no dudo en comprar las chinas, evidentemente, las mas baratas... Resulta que le comenzaron a salir unas marcas, (como a todo el mundo) y ella pensó que era común, que las chancletas eran nuveas, era cuestión de tiempo... Al tiempo resultó que las heridas empeoraban y se descubrió que estaban hechas con un material, una goma especial que resulta venenosa o corrosiva para la piel. Lo mas crudo de todo esto, es que todavía las siguen vendiendo! No posteo mas imagenes, ya que no son muy agradables si quieren ver mas vayan a la fuente del post Para ver FUENTE de la nota click en la imagen El tiempo que llevas viendo este post:
¿Estas por cambiar tu placa de video? !Informate! Como una actualización de aquel artículo desactualizado es hora de hacer una revisión de todas las placas de video que podemos acceder o que podremos acceder en el corto plazo y los precios de las mismas. Como es normal este documento quedará desactualizado a los pocos meses, pero seguirá siendo referencia a la hora de elegir placa de video. Lo que si he hecho es dirigir el tráfico del artículo anterior a este para poder guíar al público que llega a Tecnogeek por buscadores. Bueno, pasen y vean las recomendaciones de precio-performance a la hora de comprar placa de video para sus PCs. En estos últimos meses el liderazgo de la placa más potente pasó de manos entre nVidia y Ati varias veces quedando, a la hora de escribir este artículo, en manos de AMD-Ati. Pero es obvio que el presupuesto promedio rara vez alcanza para el tope de línea, necesitamos ver todo el espectro y para eso se me ocurrió un gráfico más adecuado para nuestras posibilidades: costo/performance. Hay varios elementos a tener en cuenta para seleccionar que son previos al precio de la placa de video y que hoy en día no podemos dejar pasar de largo. Que verificar primero Un tema que antes no era de preocupación pero ahora sí es la fuente. Hasta hace un tiempo nadie se fijaba en la fuente de alimentación de la PC. Hoy en día es imprescindible, si no verificamos las potencias podemos llegar a quemar el motherboard, la fuente o hasta la placa de video. Cualquiera que quiera una placa de video (más allá de las que vienen "onboard" tiene que hacer algunas cuentas, la más básica es la de potencia. Un procesador de rango medio-alto más el motherboard y las memorias puede consumir picos de 300Watts, una placa de video potente puede rondar picos de 200 Watts, si sumamos todo estamos en 500W es obvio que una vieja fuente de 300 o 450 no alcanza, hay que mirar fuentes de 600W a 850W y son muy caras, pero es inevitable. Así que a la hora de armar una PC es indispensable que le pidan al ensamblador este nada pequeño detalle, si es que la van a usar para jugar, claro. Otro detalle tan importante como la fuente es la cantidad de conectores de energía que esta traiga para placas de video. Acaso no toma todo del conector principal? no, los requerimientos de potencia son tan altos que necesita conectores extra para poder obtener la potencia necesaria, sin esta fuente extra de energía la placa de video no funciona. Las más baratas no requieren esto, pero cualquier placa de 150u$s en adelante sí y en los casos extremos necesitan dos conectores de 8pins que casi ni existen fuentes para ellos. El tercer punto, si es que son extremos y quieren lo mejor de lo mejor, está el gabinete de su PC. Hay placas tan grandes que no entran en el 90% de los gabinetes del mercado, y si entran casi ni pasa el aire por el mismo así que se corre el riesgo de sobrecalentamiento y, por ende, quemar todo. Una vez verificado que disponemos de potencia suficiente e invertido un presupuesto en esto, podemos pensar en una placa potente. Uso de las placas de video Hay distintos usos posibles. En el rango bajo hay muy buenas placas para armar equipos que permitan reproducir HD sin problemas, algunas con salida HDMI inclusive que sirve perfectamente para conectar a un televisor LCD. Para casi la totalidad de los juegos se puede disfrutar muchísimo con el rango medio, no es necesario pagar lo más caro, con un presupuesto super moderado podemos tener una calidad excelente, todos los efectos y olvidarnos de gastar un dineral en fuente, gabinete y la placa. Para los gamers extremos hay muchas opciones, desde placas únicas a duales, algo no tan común en nuestros pagos porque implica gastar el doble tanto en placas como en fuente. Elijan muy bien lo que quieren hacer antes de invertir su dinero, si no son de jugar el límite máximo son los u$s 150 y ya con una de ese precio se puede jugar a todo. De que no habla este artículo Hay varios detalles que voy a asumir antes de comenzar: no es una nota para entusiastas. Es decir, si son hardcore gamers ya saben que placa elegir. No voy a ponerme a discutir ni sobre drivers ni sobre overclocking o SLI/Crossfire ni nada de eso. El que necesita saber que placa elegir es porque no tiene idea y necesita una guía para tomar una decisión correcta en base a su presupuesto. Todas esas opciones son para el que dispone de más de 500u$s por placa, así que no tiene sentido dedicarle mucho trabajo, si disponen de ese dinero... compren lo que quieran Tampoco voy a hablar de placas de video on board que pueden encontrar en notebooks porque en ese caso el resumen es muy sencillo: Intel una porquería para jugar, Ati y nVidia lo único que sobrevive, las que realmente funcionan bien son carísimas. Con eso tenés toda la guía necesaria para el video on board en notebooks El resumen Sólo dos marcas sobreviven en este mercado, AMD-Ati y nVidia. Para el 2010-2011 Intel participará de este mercado de potencia de video con el nuevo Larrabee, pero mientras tanto estan solo las dos tradicionales. Elijo las que se pueden conseguir en nuestro país con sus respectivos precios al día de escribir este post. Este gráfico varía mucho con los cambios de precios e intentaré mantenerlo actualizado. También varía mucho con los precios internacionales porque dependen del mercado argentino que es muy parecido al de toda latinoamérica: mucho más caro que EEUU y distorsionado. Detalles a tener en cuenta en el gráfico: 1.-De la línea de media se ven algunos casos que se alejan mucho en precio, esto se debe a que muchos importadores traen un producto caro, no logran venderlo pero mantienen el precio, entonces todo lo que se aleje demasiado de la media (línea gris) hacia arriba está "caro" y no lo recomiendo. 2.- Se ven algunos casos muy por debajo de la línea media pero con buena performance, esos son los casos a tener en cuenta. Se identifican tres grandes grupos: 1.- el más alejado y extremo con pocos modelos pero todos a un precio salvaje, en nuestro mercado llegan hasta los u$s 900 por una Ati HD5970 , es razonable, se traen a pedido, no hay muchas, y en EEUU cuestan unos u$s 500 así que es raro verlas por aquí. 2.- El medio, con un rango entre u$s 200 y 400 son las que un gamer puede pagar y donde hay dos para destacar: la Ati HD5770 y la nVidia GTX275, ambas son mi elección en este rango ya que la línea 48xx de Ati no soporta DirectX 11 como la más moderna y la GTX260 ofrece menos rendimiento al mismo precio de la 275, no tiene mucho sentido. 3.- El rango bajo de menos de u$s 200 presenta una gran variedad. Me sorprendió notar que los precios de las Ati estan un poco arriba con respecto a las nVidia. Esto puede estar mostrando una clara preferencia del mercado y un sobreabastecimiento de nVidia y un faltante de Ati. Pero hay algo más que no se ve en este grupo, la línea 9xxx de nVidia es un año más antigua que la 4xxx de Ati y en segundo término las Ati consumen mucho menos que las nVidia de este rango, son placas de bajo consumo vs. unas no tan ecológicas Se destaca la nVidia GTS250 que si es moderna, es barata y ofrece la mayor performance del grupo. Como verán está bien definido el rango de precios que pueden elegir y la performance disponible. Tengan en cuenta que para hacer este diagrama tomé valores de distintos proveedores nacionales, los precios pueden variar porque muchos de estos modelos entran por importador ocasional o por retailers oficiales, sufren cambios en sus precios constantemente. Lo que si sucede es que muchas mantienen el precio aun habiendo sido superadas en performance por modelos más modernos. El caso de la HD3850, la 9800GX2 son ejemplos claros, el mercado no llegó a venderlas a tiempo y ahora son obsoletas para ese precio, algún comprador que ignore esto podrá caer en la cuenta demasiado tarde: compró algo caro y no de última línea. La numeración es una de las cosas que más compromete esta decisión, confunde. La nueva línea de nVidia, por ejemplo, pasó del 9800 al 250 en adelante, hay que estar atentos a esto. En el caso de Ati es complejo, porque un 3-4-5 adelante es la generación, el dígito siguiente el segmento, 5-6-7-8-9 el más alto el más exigente, pero el número final indica que rango de performance tiene en ese segmento, así las 30-50-70-90 te van marcando algo. Por eso una 5770 es tan potente como una 4870, aun siendo el 870 indicador mayor a 770, el 5 adelante te muestra que es una placa más moderna. Pero esto si miramos la 4850 está casi a la par de una 4770, algo que sucede a menudo con tanta segmentación. Conclusión Si bien son más de tres los "grupos" reales que maneja cada compañía en nuestro caso por una cuestión impositiva la principal variable es el dinero. Por ende el costo de las placas nos dirá que podemos hacer y no tanto las funcionalidades de la misma. En el caso de los rangos económicos tal vez no nos den mucho margen para jugar a lo último de lo último en su máxima expresión, pero nos permitirá, al menos, jugar en resoluciones viejas pero aceptables. El rango medio ya nos permite de todo y hace absurdo al rango más alto. La diferencia de performance no justifica el costo tan elevado del top, pero el rango medio es donde, en mi opinión, deberíamos invertir en video. Siempre podremos cambiar la placa de video por una mejor ya que ahora lo único que se usa es PCI-X como interfaz a la PC. El único inconveniente que sigue apareciendo es el de la potencia así que las fuentes son el otro dilema del gamer actual. Con eso resuelto la misma fuente, el mismo gabinete y podrán pasar de tres generaciones de placas de video sin problemas. Para ver FUENTE de la nota click en la imagen El tiempo que llevas viendo este post:
Hola [email protected]!! Nos es ninguna novedad que Tinypic decidió bloquear el acceso desde las IPs argentinas y nos dejó a varios con la pi.... adentro Bueno, me puse a investigar cual fue el motivo de porque nos han bloqueado para ver si obtenia por lo menos una respuesta. Muchos decían que fue por la culpa de Taringa que les consumimos mucho trafico de datos otros decían que los argentinos no son de pagar por una cuenta premium y prefieren usar todo libre, otros decían que desde Argentina se subían mucho material inservible etc... etc... etc... Bueno. Mas allá de cualquiera sea el motivo de tomar la decisión de bloquearnos veamos como le fue a Tinypic antes y después de habernos bloqueado Como todos saben que el éxito y valor de una página WEB depende de la cantidad de visitas, cantidad de clicks, cantidad de registrados y muchos otros factores más. Les dejo unas capturas de estadísticas sacadas de http://alexa.com para que vean el pasado y el presente de Tinypic Antes que nada quiero que sepan que no se puede postear más las imágenes de Tinypic en Taringa. Se peguntarán: ¿Pero porque? Es simple, todos los links de Tinypic no se ven mas en las computadoras del territorio argentino. Pero si desde otros países. Gracias a RodolfoGS por bloquear los links de Tinypic Bueno, veamos unos graficos Acá podemos ver como a partir de los últimos días de Junio el ranking empezó a bajar notablemente. Mucho mas se nota en ese gráfico mas detallado donde el Julio fue la peor caída de los últimos seis meses. Ademas observen que en los últimos 3 meses pasó del puesto 154 al puesto 208 perdiendo 54 puestos. Hubo otra caída importante al final de primer bimestre del 2009, pero la caída de Julio 2010 es mucho mas severa que la del 2009 Acá podemos ver que Argentina no era el mayor consumidor de Tinypic sino es Turquía, pero Turquía no fue bloqueada. (Según un taringuero que vive allá) Puse la fecha en esa captura para agregar una captura comparativa de acá en un par de meses Como también verán que las búsquedas disminuyeron notablemente También cayeron las visitas a los links de su hosting solo en un mes 18.5% También cayó el porcentaje de visitas por usuario Esos son sus subdominios en % y también puse la fecha para agregar una captura comparativa en unos meses Siendo un usuario registrado de Tinypic quise obtener la respuesta mandando un mensaje desde la página. (10 días ni una respuesta) Y como esto si fuera poco les mandé unos cuantos mails solicitando la respuesta sobre lo ocurrido. Jamas fueron respondidos. FUENTE: http://www.alexa.com/siteinfo/tinypic.co# Sin mas que decir este post llega a su fin.............. Kuruzka