Gera_82
Usuario (Argentina)
Nace la “rectena” óptica, fusión de antena y rectificador, para convertir luz en corriente eléctrica continua Usando componentes de tamaño nanométrico, unos investigadores han demostrado el funcionamiento de la primera rectena óptica, un dispositivo que combina las funciones de una antena y un rectificador para convertir luz directamente en corriente continua. Basadas en nanotubos de carbono de paredes múltiples y en diminutos rectificadores fabricados sobre ellos, las rectenas ópticas podrían proporcionar una nueva tecnología para fotodetectores que operarían sin la necesidad de refrigeración, recolectores de energía que convertirían el calor residual en electricidad, e incluso una nueva clase de dispositivos para capturar energía solar de forma eficiente. En los nuevos aparatos, desarrollados por el equipo de Baratunde Cola, del Instituto Tecnológico de Georgia (Georgia Tech) en Estados Unidos, los nanotubos de carbono actúan como antenas para capturar luz emitida desde el Sol u otras fuentes. A medida que las ondas de luz llegan a las antenas de nanotubos, crean una carga oscilante que se mueve a través de los rectificadores. Estos conmutan con velocidades récord, del orden de los petahercios, creando una pequeña corriente continua.

¿Por qué reiniciar la computadora es la solución más simple para solventar problemas? En el mundo de los dispositivos electrónicos, un reinicio o reset del sistema se encarga de limpiar cualquier error pendiente y de regresar todo a la normalidad o a su estado inicial, de una manera controlada. Y, es una de las actividades que más practicamos durante la vida de nuestros aparatos. Cuando una actividad falla, el programa activa mecanismos para tratar de recuperarse. Si pasa mucho tiempo, es decir hay un time out y no es posible reintentar el inicio o abortar la petición por completo, en respuesta al error el programa se detiene por completo y se reinicia. Esa descripción es más o menos lo que muchos usuarios de Windows experimentan incontables veces en su vida. Los "pantallazos azules de Windows", suceden cuando el sistema encuentra un problema que puede estar relacionado con software, hardware o brujería; y deja de funcionar por completo. Windows, entonces se detiene, porque no le es posible continuar funcionando y, al reiniciarse, el código puede ejecutarse desde cero con la esperanza de no encontrar el mismo error nuevamente. La pantalla azul no es siempre de la muerte En el mundo de los dispositivos electrónicos, un reinicio o reset del sistema se encarga de limpiar cualquier error pendiente y de regresar todo a la normalidad o a su estado inicial, de una manera controlada. Y, es una de las actividades que más practicamos durante la vida de nuestros aparatos. Cuando una actividad falla, el programa activa mecanismos para tratar de recuperarse. Si pasa mucho tiempo, es decir hay un time out y no es posible reintentar el inicio o abortar la petición por completo, en respuesta al error el programa se detiene por completo y se reinicia. Esa descripción es más o menos lo que muchos usuarios de Windows experimentan incontables veces en su vida. Los "pantallazos azules de Windows", suceden cuando el sistema encuentra un problema que puede estar relacionado con software, hardware o brujería; y deja de funcionar por completo. Windows, entonces se detiene, porque no le es posible continuar funcionando y, al reiniciarse, el código puede ejecutarse desde cero con la esperanza de no encontrar el mismo error nuevamente. La pantalla azul no es siempre de la muerte Esto pasa mucho, a pesar de todo el drama que muchos usuarios arman cuando las ven, las pantallas azules no representan problemas recurrentes la mayoría de las veces. La pantalla azul viene y luego se va. En muchos casos ni siquiera la vuelves a ver. A menos que el problema esté relacionado con alguna pieza del hardware, la pantalla azul no es de la muerte. Una tarjeta madre quemada, eso es la muerte. Muchos ordenadores de escritorio incluyen un botón de reset precisamente para lidiar con estos errores, ya que reiniciar el sistema es mucho menos estresante para el hardware que el apagado, porque la inyección de energía no se detiene; además de que este tipo de reinicio mediante el botón no puede ser prevenido por el sistema operativo. Con el tiempo la mayoría de los ordenadores han eliminado este botón. Pero, por otro lado los sistemas operativos se han vuelto más eficientes a la hora de permitirnos reiniciar cuando un problema se presenta. Siendo un poco más justos, Windows no es el único sistema que se beneficia del botón de reset; ni los ordenadores son los únicos dispositivos que sufren de estos errores. Lo mismo pasa con los smartphones, los modems, los routers, etc. ¿Cuantas veces no hemos reiniciado el router o el modem por tener problemas con nuestra conexión a Internet, y todo se soluciona apretando ese botoncito?. ¡Reiniciarlos a todos! Los dispositivos móviles modernos a pesar de tener muy pocos botones, cuentan con una combinación de teclas que nos permite reiniciar el sistema cuando ocurre un problema del cual no pueden recuperarse. Por ejemplo, en un iPhone o iPad en caso de que la pantalla no responda, podemos presionar por varios segundos el botón principal y el de encendido para reiniciar el dispositivo. Las consolas de videojuegos, salvo las generaciones más recientes, todas incluían un botón de reset para esos casos en los que el juego se "colgaba". Presionar ese botón nos dejaba seguir jugando, y sin importar cuantas veces lo hiciésemos la consola seguía funcionando. Cualquier programa puede sufrir este tipo de errores, y detenerse. Por tanto necesitan cerrarse para volver a su estado original libre de errores, en el próximo inicio. Por ejemplo, en el caso de Goolge Chrome, un navegador que consume enormes cantidades de memoria RAM, y que genera procesos individuales para cada pestaña, cada extensión, cada plugin, etc. Y que a pesar de que cerremos casi todas las pestañas sigue "extrañamente" consumiendo más y más, termina por ponerse lento y llevarse el resto del sistema por el mismo camino. Reiniciarlo lo regresa a un estado limpio y resuelve la excesiva fuga de memoria. Lo mismo aplica para todo el software, y aunque algunos sistemas son más eficientes que otros resolviendo errores, y recuperándose de ellos, no son inmunes, ni infalibles. Es un paliativo, no una cura. Aunque lo ideal sería averiguar cual es la causa de un problema y resolverlo, reiniciar puede solucionar en muchos casos una gran cantidad de errores, y por supuesto resulta mucho más fácil y consume mucho menos tiempo. Si el error se soluciona con un simple reset podemos continuar nuestra vida felices, ya que es realmente una solución valida. Con esto no queremos decir, que reiniciando siempre vamos a solucionar todos los problemas, ni mucho menos. Cuando los errores persisten y son recurrentes, sabemos que algo está fallando y atacar el problema de raíz es la solución permanente. Entrar en un bucle infinito de reinicio, no es precisamente la forma más práctica de vivir, ni tampoco un incentivo a nuestra productividad. Si los reinicios son cosa de varias veces al día, entonces definitivamente hay algo mal con tu ordenador y necesitas hacerle mantenimiento, repararlo o cambiarlo por uno nuevo.

La NASA realizó una exitosa prueba de comunicación entre la Luna y la Tierra vía láser, logrando una velocidad de transferencia de datos de 622 megabits por segundo (Mbps). Esta primera prueba da inicio al desarrollo de un nuevo sistema de comunicaciones espaciales que tiene planificado la NASA. Hasta ahora, las misiones espaciales han utilizado comunicaciones por radiofrecuencia. Pero este método se está quedando corto debido a la creciente cantidad de datos que se transmiten durante las actuales misiones. Es por eso que nace la necesidad de buscar un medio más eficaz. Las comunicaciones basadas en láser permitirían transmitir imágenes de mayor resolución o incluso videos en 3D desde el espacio, por ejemplo. A esta primera prueba la han llamado Lunar Laser Communication Demonstration o LLCD y consistió en transmitir información digital desde un emisor láser ubicado en una sonda lunar (llamada LADEE) hasta receptores en la Tierra. También realizaron la operación a la inversa (desde la Tierra hacia la Luna), aunque en este caso la velocidad de transferencia de datos ha sido de 20 Mbps. La meta de la NASA es crear un sistema de comunicación basado en esta tecnología, y mejorar los resultados obtenidos, lo que permitiría una comunicación y transmisión de datos mucho más eficiente en futuras misiones.

Se filtran documentos oficiales sobre el próximo Fallout Se ambientaría en Boston, tal como apuntaban los primeros rumores. Nuestro personaje se despertaría en una cámara criogénica. El proyecto tendría el nombre en clave "Institute". Durante los recientes VGX se esperaba que Bethesda anunciará oficialmente Fallout 4, algo que no sólo no sucedió, sino que al mismo tiempo se confirmó que la página web que preparaba este anuncio era totalmente falsa. Durante los últimos días los seguidores de la serie han mostrado su descontento ante los encargados de crear aquella web falsa, y al mismo tiempo se han sentido deprimidos por no tener nueva información sobre este esperado videojuego. Pero no todo está perdido. En las últimas horas se han filtrado documentos reales sobre el proceso de casting del próximo Fallout. Parece ser que incluso la filtración podría haber sido intencionada para contentar a los decepcionados jugadores, y el medio norteamericano Kotaku ha conseguido varios documentos reales sobre parte del guión, algunas descripciones de personajes y otros detalles de un proyecto llamado Institute. Si bien en ninguno de los documentos se nombra concretamente a Fallout, sí que hay distintas referencias que aseguran que este proyecto es realmente un hipotético Fallout 4. Para empezar, el director de casting de este proyecto es el mismo que se encargó de elegir a los personajes en juegos como Dishonored o The Elder Scrolls V: Skyrim. Adicionalmente, en distintas líneas del guión se nombran localizaciones que han aparecido en anteriores entregas de Fallout. Aunque lo que no deja lugar a dudas es que en alguna línea de guión aparece la famosa frase "War. War Never Changes", que ya ha sido utilizada en las primeras tres entregas de la franquicia. Hablando de personajes, aparecen nombrados tres de ellos. Uno es Preston Garvey, un misterioso hombre que envía al jugador a salvar un núcleo de fusión de un museo en la Commonwealth. Otro personaje es un DJ llamado Travis Miles y finalmente aparece un tal Sturges, un ingeniero descrito como una mezcla de Buddy Holly y Vin Diesel. Como vienen apuntando varias filtraciones desde el año pasado, el videojuego se ambientaría en Boston, concretamente en el estado de Massachusetts. En esta ocasión, el personaje principal empezaría su andadura desde el interior de una cámara criogénica. Los datos anteriormente expuestos son totalmente oficiales, pero podrían sufrir distintas variaciones hasta la puesta a la venta del producto final.

"La pastilla para la diabetes, mas cerca que nunca" La diabetes sigue siendo uno de los trastornos sufridos por mayor número de gente en todo el planeta; en la actualidad hay en torno de 350 millones de personas afectadas, superando todas las expectativas que situaban en 370 millones los afectados en 2030 (ahora se espera que sean 500 millones). Pese a lo conocido que es, aún una gran cantidad de personas muere en todo el mundo debido al exceso de azúcar en la sangre, unos 3.4 millones de personas en 2004 según la OMS, la misma organización que advierte que en los próximos veinte años esa cifra puede ser el doble. Si algo asociamos con los diabéticos es la necesidad de “pincharse”, es decir, de inyectarse la insulina que su cuerpo no puede producir que a su vez se encarga de ordenar el metabolismo de glucosa. El difícil camino hasta la pastilla de insulina Durante mucho tiempo se ha investigado la posibilidad de sustituir esas inyecciones de la hormona por otros métodos menos molestos, pero las pesquisas apenas han conseguido resultados. Ahora un grupo de investigación del Instituto Nacional de Educación Farmacéutica en India asegura que ha dado con la clave para poder tomar insulina en pastillas, y no en inyecciones. En realidad, este estudio es consecuencia directa de uno anterior publicado en el 2012 en el que ya consiguieron crear pastillas adecuadas, pero tenían el gran problema de un coste demasiado elevado. El camino hasta entonces fue duro y complicado. Y es que no bastaba con encapsular la insulina en una pastilla y entregarla a los pacientes, por las propias características del principio. Al ser una proteína, la insulina se destruye en cuanto toca las encimas del estómago; no solo eso, sino que en el improbable caso de que pudiese sobrevivir se trata de una molécula demasiado grande como para pasar al flujo sanguíneo. Protección de grasa y vitamina B9 como llave Ahora el mismo grupo publica una nueva solución al problema de la insulina vía oral, y lo mejor de todo es que es barata. La clave está en empaquetar la insulina en pequeños cúmulos de lípidos que se encargan de proteger la proteína hasta que llega al intestino delgado. Además, para favorecer la absorción y el traspaso al flujo sanguíneo se une a ácido fólico, también conocido como vitamina B9; este ácido se une a las células del intestino y activa un mecanismo para dejar pasar moléculas grandes a la sangre. Diferente a las inyecciones, pero no peor Los ensayos en animales han supuesto buenas noticias para el proyecto, ya que su eficiencia ha resultado ser tan buena como la de la insulina inyectada, pese a que la cantidad que finalmente llega a la sangre varía. A cambio, el efecto dura mucho mas; mientras que el efecto de una inyección dura entre 6 y 8 horas, las pastillas duran mas de 18 horas. Ahora toca otra parte muy difícil en cualquier proyecto, probar la fórmula con seres humanos, un paso vital porque los éxitos con una especie no siempre pasan a la otra, pero eso, como avisan los propios responsables del estudio, dependerá de si consiguen el dinero necesario para continuar la investigación.

"Anomo, una red social para tímidos en busca de amigos" Si no has escuchado hablar de una nueva red social para adolescentes cuyo número de usuarios crece a un ritmo del 500% diario, es, precisamente, porque se trata de una plataforma para tímidos. Anomo fue lanzada en febrero en forma de aplicación para Android y para iPhone, y, aunque solo posee alrededor de 4.500 usuarios activos al día -la mayoría, adolescentes- éstos están más volcados en ella que en otras plataformas como Facebook, según explicó su creador, James Sun, en una entrevista con Mashable. Anomo nació, en principio, como otra de esas aplicaciones que se valen de la geolocalización para encontrar a contactos para posibles citas, a raíz de las propias necesidades afectivas que sus creadores, que se definen como technology kids. Desde sus inicios, la aplicación rompe el hielo entre sus usuarios para que éstos busquen afinidad entre ellos mediante encuestas que se realizan a grupos aleatorios de personas de ambos sexos, para poner en contacto a las que ofrezcan respuestas similares. Sin embargo, cuando los creadores de Anomo le pidieron a un grupo de psicólogos que analizaran los dos primeros millones de respuestas que habían recibido de su comunidad, se encontraron con un dato: los especialistas afirmaban que casi el 85% de sus usuarios eran tímidos o introvertidos. Es decir, que no solo les bastaba con un método rápido para mantener citas con otras personas y calmar así su “ansiedad social”, sino que necesitaban, además, un nuevo concepto de relación a través de las redes sociales. Por eso, Anomo está diseñada no para que sus usuarios vivan en el anonimato, como otras plataformas, ni se limiten a contactar de forma rápida con otras personas, sino para permitirles que, en su descubrimiento del otro, se protejan con una máscara. Como dice Sun, se trata de que las personas introvertidas gocen de un espacio propio en Internet, excluido de Facebook y de sus contactos allí, para relacionarse con nuevas personas. No incluye fotos de perfil, sino avatares, ni tampoco permite que se indique la edad exacta, sino que insta a sus usuarios a que se incluyan a sí mismos en un rango de años que la aplicación verificará a través de los datos de éstos en Facebook. En su propia web, Anomo se define como una plataforma donde las primeras impresiones van mucho más allá de una simple foto. En cuanto a Facebook, Sun defiende que los usuarios de Anomo consultan esta aplicación una media de 18 veces al día, en contraste con las 14 que abren la red social de Zuckerberg. El creador de la aplicación también asegura que el porcentaje de denuncias por trolls o comportamientos ofensivos que ha recibido ha sido ínfimo, y que otras experiencias, como la avalancha de comentarios de ánimo que desataron las reflexiones de un chico que expresó que se planteaba suicidarse (que finalmente lo descartó, ante el apoyo recibido) le inspiran cada vez más confianza en el funcionamiento de Anomo.

¿Cómo valorar el uso del casco en la bicicleta? Me da la impresión de que el debate de casco sí o casco no en bicicleta ha bajado de temperatura en las últimas semanas. Desde que hablamos la última vez sobre si llevarlo siempre, o no y de si nos plegamos o no a la obligatoriedad de uso ha llovido bastante. Que haya llovido no significa que el tema haya pasado de moda, y por eso volvemos a la carga para saber cómo podemos valorar si llevar casco o no influye en nuestro bienestar. La FUNDACIÓN MAPFRE ha publicado un estudio que, a partir del análisis de las lesiones y secuelas de 2.345 ciclistas accidentados en España entre los años 2010 y 2012, concluye con la importancia del uso del casco, recomendándolo tanto para ciudad como para carretera. El casco en la bicicleta tiene una equivalencia clara con el cinturón de seguridad en el coche. Soy el primero que se opone a las imposiciones “porque sí”, eso que vaya por delante. Creo que cada uno es libre de hacer lo que le parezca, siempre que no infrinja la ley o ponga en peligro a los demás, o sus libertades. En el caso del casco creo que no es la protección total, ni nos protege de colisiones o malos comportamientos, pero también creo que en caso de golpearnos la cabeza sí que nos protege. La imposición siempre saca a relucir la resistencia Recuerdo (Sicilia, 1922…) cuando el cinturón de seguridad empezó a ser obligatorio en nuestro país. Se escuchaban argumentos como que era incómodo, arrugaba la ropa, no permitía evacuar rápidamente el coche (!) y muchas otras excusas para no llevarlo abrochado. Se producía la picaresca de llevarlo medio suelto, con pinzas para que no apretase y mil cosas más que servían solo para evitar la multa. Hoy no creo que haya una cantidad importante de conductores que piensen lo mismo, a pesar de que lamentablemente los hay, y no pocos, que no se ponen el cinturón. Con el casco de la bicicleta creo que va a pasar algo similar. Insisto en que el debate sobre si existen mil otras formas de asegurar la integridad de los ciclistas que son mejores que el casco (casi todas son preventivas) no me interesa. Es verdad, hay mil otras cosas que mejorar, entre otras la convivencia entre conductores “a motor” y ciclistas. Siguiendo con el paralelismo cinturón-casco, también en aquélla época había muchas otras cosas que atender para disminuir los accidentes de tráfico, imaginaos cuánto camino quedaba todavía por delante entonces. Eso no quitaba que el cinturón fuese, de forma objetiva, esencial para mejorar la seguridad vial. Hoy lo sabemos todos menos quienes siguen negando la mayor. En el caso del casco, creo que es esencial para reducir las lesiones en la cabeza, siemrpe que el casco sea el indicado y esté bien abrochado, por eso se le llama elemento de seguridad pasiva. Creo que en el debate pro-casco/anti-casco se ha enfocado mal el tema, pensando que el casco iba a solucionar todos los problemas cuando solo sirve para proteger la cabeza. Con todo, es de recibo poner en relieve algunos datos que se muestran en el informe, por ejemplo que “a principios del año 2013, alrededor del 45% de los ciclistas usaba el casco de protección en el eje Castellana-Recoletos de Madrid. Por otra parte, en junio de 2013, menos del 20% de los ciclistas que NO usaban casco en Madrid indicaban que dejarían probablemente de usar la bicicleta si el uso del casco se hiciera obligatorio”. Según el mismo, de ese 20% de ciclistas que dejarían la bici, ua aplia mayoría no veía el casco como un elemento necesario. Seguramente la información conseguirá mostrar las ventajas del casco en el momento de sufrir un golpe en el cráneo. La obligatoriedad de llevar el casco es contraproducente porque se produce un efecto rebote, o mejor dicho un efecto desobediencia, y por eso siempre estamos insistiendo en que es mejor informar y hablar en positivo que cerrarse en banda y prohibir, u obligar como es el caso. El debate queda, de nuevo, abierto en los comentarios.
La Tierra no morirá tan pronto como creíamos Así es, parece que nuestro planeta es mucho más fuerte de lo que se pensaba y, gracias a la tecnología, los científicos han logrado demostrar que estaban equivocados, que a la Tierra le quedan todavía unos cuantos mil millones de años más de vida. Nuevos estudios de modelización Estos nuevos estudios se basan en dos nuevos modelos de modelización que concluyen que el Sol, a pesar de ser cierto que se encarga de evaporar el agua de mares y océanos de la Tierra, no lo hace a la gran velocidad que se pensaba. Esto permitió realizar una estimación que plantea que el planeta se quedará literalmente seco dentro de más de 1.5 mil millones de años, algo que nos queda bastante lejos. Pero lo interesante de estos resultados es que son aplicables a planetas de aspecto similar al de la Tierra, siendo la búsqueda de vida en estos más “sencilla”. Pese a ello, hay una verdad innegable Aunque los planes de jubilación de nuestro planeta se hayan retrasado, no podemos descartar la idea de que el cambio climático influye de manera muy negativa a nuestro ecosistema debido a los gases de efecto invernadero. Esto acelera un proceso más lento pero altamente peligroso, haciendo parecer que no pasa nada pero poco a poco va haciendo acto de presencia. Esto contribuye a que el proceso de vaporización sea más rápido ayudado por el Sol. Se trata de un proceso lento cuyos efectos no se producen al instante de enviar los gases nocivos a la atmósfera, pero que el momento en el que decida estallar, tendrá unas consecuencias catastróficas. En base a esto, el científico Ravi Kopparapu de la Universidad de Pennsylvania y otros científicos de la University Park, entre otros, han desarrollado un programa por ordenador capaz de simular la evolución del estado de la Tierra en base al nivel de radiación del Sol y la cantidad de gases nocivos que expulsamos a la atmósfera. Los resultados revelaron que la Tierra sufriría el efecto devastador del efecto invernadero dentro de 100-150 millones de años. Para entonces, la vida en la Tierra para los microorganismos y resto de seres vivos (animales y humanos, si es que quedan) sería prácticamente imposible debido a las altas temperaturas y a un desajuste total en el ecosistema terrestre.

Isla volcánica de Japón sigue creciendo. Ya supera 30 veces su tamaño desde noviembre La formación, generada por una actividad volcánica, crece sin pausa desde que emergió sobre el mar en noviembre pasado. En tal sentido, BBC Mundo reseña: ¿Qué es mejor que tener una nueva porción de territorio? Que ésta crezca tanto que obligue a cambiar los límites de la zona económica marítima del país que es su dueño. Esto es lo que está a punto de pasarle a Japón: en noviembre pasado, el territorio nipón se agrandó de manera inesperada con el surgimiento de una isla en aguas del océano Pacífico, después una poderosa explosión subacuática. Ahora, el flamante islote está creciendo a una velocidad tal que haría necesario expandir la zona económica marítima exclusiva de Japón. La formación, generada por la lava acumulada de un volcán submarino y ubicada a unos 1.000 kilómetros al sur de Tokio, es más de 30 veces más grande que cuando emergió a la superficie, en noviembre pasado. Y las mediciones han generado entusiasmo en Japón, donde se pronostica que la expansión de la zona marítima tendrá efectos positivos en la economía.
La computadora que lo cambió todo Revisamos, a través de 30 años de historia, los 10 ordenadores de Apple que han moldeado la industria de la tecnología de consumo. The computer that changed everything. Con esa frase, Apple define a la primera Macintosh, computadora que cumplió 30 años de su lanzamiento este 24 de enero. Si se es sincero -sea uno fanático o detractor de la marca-, la oración resulta muy certera. Estamos hablando de un ordenador que introdujo el entorno gráfico a la mayoría de los usuarios en una época en la que saber código era prácticamente indispensable para la informática. Apple enumera en su sitio temático muchas de las virtudes de la primera Macintosh: la introducción del ratón como elemento de la computadora -que a la postre, se volvería indispensable-; una interfaz amigable que se valía de metáforas visuales (la carpeta, el cesto de basura) para hacerse entender; un bajo coste ($2.495 USD de la época, contra $10.000 del precio de un ordenador de la época). Quizá la Macintosh no fue la pionera en muchas características técnicas, pero sí en su visión de mercado como una computadora de uso para un público generalizado. Es un reto escribir un texto halagüeño sobre Apple sin arriesgarse a ser tildado de poco objetivo, mucho menos cuando se habla del peso histórico de una marca dentro de la historia de la computación de consumo (y hago la acotación sobre consumo porque el aspecto de innovación técnica es otro cantar). Empero, tomaré esta ocasión el riesgo para contar 10 casos en los que, pese a quien pese, la Mac sí lo cambió todo. 1. Macintosh Plus y la industria de periféricos La Macintosh Plus salió al mercado en 1986, apenas dos años después de la Macintosh original. Entre sus características, estuvo su apuesta fuerte por el uso de periféricos. Con la introducción del puerto SCSI (Interfaz de Sistema para Pequeñas Computadoras), hizo posible la conexión con otros aparatos como los escáners, las impresoras o los discos duros. En pocas palabras, el SCSI permitió que Apple y otras empresas tuvieran un estándar para conectar dispositivos periféricos en las computadoras personales, lo que detonó a varias industrias. Al día de hoy, el SCSI no ha perdido vigencia, pues es utilizado en servidores. 2. Macintosh II y la calidad del monitor Una de las innovaciones que presentó la Macintosh II en 1987 fue el uso de una tarjeta de vídeo para desplegar 256 colores en pantalla. Además, se convirtió en el primer Macintosh que utilizaba el monitor de forma modular -es decir, no integrado con el resto de la máquina-. No obstante, el monitor de Apple no era compatible con el puerto de un estándar VGA y pasó algo de tiempo hasta que la Macintosh Power G3 (1997) fuera compatible. Si bien Apple no fue la primera computadora con monitor a color (honor que corresponde a IBM y su adaptador de gráficos de color en 1981), la mayoría de los usuarios optaba por el monitor monocromático por su precio menor. Desde el inicio, Apple puso mucha importancia en el despliegue de color en pantalla -tanta, que las máquinas se alentaban por el proceso-, algo que con el tiempo convirtió en una de sus obsesiones y fortalezas. Si no me creen, miren hoy en día a la MacBook Pro con Retina Display. 3. Macintosh IIx y el diskette El almacenamiento de las primeras computadoras fue uno de los grandes problemas de los fabricantes. Con la Macintosh IIx, Apple tomó la decisión de incorporar el diskette (floppy de 1.44 MB) como su estándar, ayudando a masificar su uso. Hablamos de una época en la que el otro estándar de almacenamiento portátil era el disco de 5 1/4'' con capacidad de 360 KB. 4. PowerBook 540c y el trackpad Hoy en día, el trackpad es visto como algo normal en una computadora portátil. En 1994, era una innovación técnica de la PowerBook 540c. Este panel sustituía al trackball (también presente en otros modelos de Macintosh, como la PowerBook 170), al pointer (incluido al centro del teclado en algunos modelos de IBM) o el ratón convencional. Huelga decir que se convirtió en un estándar para el resto de los fabricantes. 5. PowerBook 1400 y el CD-ROM Apple siempre se ha distinguido por empujar a diferentes formatos de almacenamiento. Desde el inicio adoptó al floppy de 1.44 MB como su estándar. Con la PowerBook 1400, introdujo el disco compacto (CD) dentro de una computadora portátil. Mientras que Apple había dado pasos firmes en la edición de vídeo y audio con modelos anteriores en computadoras de escritorio -como la Power Macintosh 9500 en 1995-, la llegada del CD a las portátiles de nuevo cimbró a los fabricantes. Si a eso sumamos los avances anteriores en audio (por ejemplo, la PowerBook 540c fue la primera con bocinas integradas y audio estéreo de 16 bits), podríamos decir que la 1400 fue el primer referente en portátiles que apostaban por la multimedia. 6. iMac G3: una adelantada a su tiempo Pocas máquinas han sido tan adelantadas a su época como la primera iMac. Dejemos de lado su estética innovadora: hablamos de una máquina que replanteó muchas cosas para la industria. En primer lugar, apostó por la popularización del USB. Teclado y ratón se conectaban a través de este puerto, impulsando una estandarización para conectar los periféricos que perdura hasta nuestros días (y en la que, casualmente, Apple se mueve en el sentido contrario algunas veces). La iMac G3 también demostró una de las características de personalidad más fuertes de la marca: su renuencia a extender la vida de productos que considera superados. Tal fue el caso del floppy: poco importó que la Macintosh fuese uno de sus principales impulsores en el pasado. En 1998 decidió que el futuro (o presente) era el disco compacto y se cargó a la disquetera. 7. iBook G3 y la conectividad WiFi integrada En 2000, Internet aún se estaba haciendo un hueco en nuestras vidas. Desde un par de años atrás, Apple se había percatado del potencial de la conectividad a la red (no en balde, la i de la marca es por Internet) y lo demostró convirtiendo a la iBook en la primera portátil con capacidad de conexión a redes inalámbricas integrada. Para quienes no recuerden esa época, las computadoras (de escritorio o portátiles) requerían de un módem inalámbrico por USB para poder acceder al WiFi. Como define Apple en su sitio temático por los 30 años: "[la iBook] pavimentó el camino de la revolución móvil." 8. PowerBook G4 y Mac OS X Hay un antes y después de Mac OS X. Por supuesto, no es el sistema operativo más popular del planeta -ése es Windows en sus diferentes versiones, pese a quien pese-, pero sí se convirtió en el referente en cuestión de diseño, usabilidad y experiencia de usuario. La introducción de Mac OS/X replanteó la relación entre interfaz y usuario; y fiel a la costumbre de Apple, dio la importancia debida a la estética como complemento de la funcionalidad. 9. iBook G4 y la Mac como símbolo Muchas cosas cambiaron en la primera mitad del siglo XXI gracias a Apple. El surgimiento del iPod (2001) le había dado una frescura nueva a la marca. En imagen y personalidad, esto se vio reflejado en los diseños de la iBook G4. Si bien Apple se distinguió siempre por ser una marca vinculada a la creación artística, estos modelos se volvieron una declaración de principios. La fuerza actual de Apple, no sólo en ventas y en innovación, sino como un símbolo cultural, puede entenderse perfectamente a raíz de estos lanzamientos. 10. MacBook Air y la era de lo esencial Quizá la última gran apuesta de las computadoras Macintosh vino con la MacBook Air. En un movimiento arriesgado, la marca decidió prescindir de características como el puerto Ethernet o un lector de discos compactos. ¿La razón? Ya no son esenciales en una época en la que el contenido se consume de manera digital e Internet es accesible a través de WiFi en casi cualquier parte. Para muchos, es la movida más crítica que ha hecho Apple en sus ordenadores en los últimos años. A 5 años de esta ejecución, aún hay quienes especulan si fue un éxito o una metedura de pata. ¿Mi percepción? La primera. Si no me creen, basta con ver la reacción del mercado y la tendencia: a la MacBook Air le siguió una muy popular generación de ultrabooks de distintos fabricantes.