cosmonauta_83
Usuario (Argentina)
Las "conejitas" del Apolo 12 El próximo día 13 de enero se subastará un calendario de Playboy en el que aparece la sugerente Miss Agosto de 1967. El precio de salida, mil dólares. ¿Cómo es posible que alguien pague este dinero por un simple póster erótico? Pues porque es el único calendario de este tipo que ha viajado a la Luna. Calendario de Playboy con la modelo DeDe Lind que viajó a la Luna a bordo del Apolo 12 En noviembre de 1969, la tripulación del Apolo 12 -Charles 'Pete' Conrad, Richard Conrad y Alan Bean- llevó este calendario a bordo del módulo de mando Yankee Clipper. La segunda misión de alunizaje de la historia fue toda una antítesis de la solemnidad y seriedad que habían rodeado a la hazaña del Apolo 11. La tripulación del Apolo 12: Charles Conrad, Richard Gordon y Alan Bean Los astronautas del Apolo 12 fueron quizás la tripulación más divertida de todo el programa, tanto por sus famosas correrías como por su complicidad personal. Una de las conejitas de la lista de actividades de Conrad y Bean Pero Miss Agosto no sería la único modelo que viajaría hasta la Luna. La tripulación de tierra decidió gastarles una broma a Conrad y Bean insertando cuatro conejitas de Playboy en la lista de actividades (checklist) a realizar sobre la superficie lunar que llevaban pegada en la manga izquierda del traje espacial A7L. Conrad y Bean llevaban la lista en su brazo izquierdo Los dos astronautas se dieron cuenta de la broma cuando ya llevaban más de dos horas explorando el cráter Surveyor durante su primera actividad extravehicular. Durante años, la existencia de estas "travesuras" se mantuvo en secreto. Ahora también hemos podido ver el menos conocido póster erótico-festivo que también viajó a la Luna -aunque no a su superficie-, éste sí por iniciativa de la tripulación El Apolo 12 nos dejó otras imágenes "espectaculares", como por ejemplo, ésta de la Tierra con la S-IVB en primer plano Fuente Los sobrevientes de la batalla de Termópilas Dudar o no dudar? He aquí la duda La Maquina del Juicio Final Esta es tu Dirección.....en el Universo El neurólogo que se cortó los nervios El HAARP y la "bomba del Arco Iris" A Tesla le Robaron! Así ataca un Misil Balístico Intercontinental Nunca juegues con Mercurio Historia de la nave Soyuz

Manuscrito Voynich: El libro que nadie puede leer El Manuscrito Voynich es un antiguo texto que posee escrituras que no pueden ser interpretadas, ilustraciones que desafían la inteligencia de los científicos, incluyendo a muchos aficionados, quienes intentan descubrir desde hace casi un siglo, el mensaje conceptual de esta obra. Lo único que se ha podido determinar, hace pocos días por científicos de la Universidad de Arizona, es su antigüedad. Este trabajo habría sido realizado en el siglo XV. La historia cuenta que en 1912, el anticuario norteamericano, Wilfrid Voynich adquirió el manuscrito en Italia e hizo circular copias de este con la esperanza de encontrar un traductor. Un siglo después, continúa desafiando a los decodificadores. ¿Te interesan los desafíos? Aquí tienes uno: el Manuscrito Voynich. Algunos analistas afirman que se trataría de un trabajo de botánica Investigadores de la Universidad de Arizona han descifrado uno de los infinitos enigmas que rodean lo que se ha llamado el "manuscrito más misterioso del mundo": el Manuscrito Voynich, un libro lleno de dibujos y textos que nadie ha sido capaz de dar sentido hasta el día de hoy. Un equipo dirigido por Greg Hodgins, en el departamento de Física de la Universidad de Arizona y mediante el uso de la técnica de datación por radioisótopos de carbono, ha encontrado que las páginas del manuscrito datan del siglo XV, por lo que el libro sería un siglo más antiguo de lo que los estudiosos se habían imaginado anteriormente. Las filas de texto garabateado sobre un pergamino notoriamente envejecido, que fluyen alrededor de ilustraciones que representan intrincados y muy elaborados conjuntos de plantas, mapas astronómicos y figuras humanas en situaciones que recrean baños de inmersión (en lo que se supone podría ser la fuente de la juventud). A primera vista, el Manuscrito Voynich no parece ser diferente a cualquier otro trabajo antiguo donde se incluyen escrituras y dibujos. Pero una segunda mirada, más cercana y analítica, revela que aquí nada es lo que parece. Algunas frases se asemejan a las utilizadas en latín, a diferencia de otras que no se utilizan en ningún idioma conocido, y se organizan en lo que parecen ser las palabras y/o frases, con la singularidad de que no se asemejan a cualquier cosa escrita por los seres humanos. Hodgins, un científico, investigador, asistente y profesor en el departamento de Física de la Universidad de Arizona (con un nombramiento conjunto en la Escuela de la UA de Antropología), está fascinado con el manuscrito. "¿Es un código? ¿Es un sistema de cifrado? Hay mucha gente que está haciendo el análisis estadístico del uso de los diagramas y el uso de las palabras y poseen las mejores herramientas para descifrar el significado de este trabajo, pero aun nadie ha logrado determinar si es un texto cifrado por algún científico de aquella época, si es un conjunto de textos y dibujos sin sentido alguno. Hasta hay personas que especulan con la posibilidad de que se trate de un trabajo extraterrestre. Por supuesto, nada de esto ha podido ser demostrado aún”. Otros analistas consideran que se trata de un trabajo relacionado a la astronomía Mediante el uso de un Espectrómetro Acelerador de Masas, Hodgins y su equipo analizaron muestras, que el mismo científico fue a buscar a la Universidad de Yale, donde se encuentra el manuscrito, de apenas 1 a 6 milímetros de longitud. Luego de un importante trabajo de análisis se pudo determinar que el origen del trabajo es 100 años más antiguo de lo que se estimaba. "Sería fantástico si pudiéramos determinar con la ayuda del radiocarbono la antigüedad de de las tintas, pero en realidad este es un trabajo muy difícil de hacer. En primer lugar, se encuentran en la superficie sólo en pequeñas cantidades", dijo Hodgins. "por lo que el contenido de carbono es muy bajo. Además, ese tipo de trabajos está más allá de nuestras capacidades técnicas. Por último, algunas tintas no son a base de carbono, porque se derivan de los minerales del suelo. Estos son inorgánicos y en consecuencia no contienen carbono útil". "Se encontró que los colores son consistentes con la paleta utilizada en la época del Renacimiento, es decir, los colores que estaban disponibles en el momento, pero en realidad esto es un dato de poca ayuda donde no hay nada sospechoso o interesante para investigar. Por otro lado, el texto muestra características extrañas como el uso reiterado de una misma palabra o el intercambio de letras en una secuencia", afirma Hodgins. "Rarezas que hacen muy difícil de entender el significado del trabajo." ¿Cuerpos humanos en la fuente de la juventud?¿De que habla el Manuscrito Voynich? Por último, Hodgins agrega que lo que el trabajo parece albergar es información relacionada con la alquimia, a la que siempre se la ha asociado con misterios, secretos y la conservación de conocimientos en forma codificada. Sin ir muy lejos, basta con recordar la manera de trabajar que tenía el propio Leonardo Da Vinci (a quien algunos le atribuyeron este manuscrito). Lo cierto es que nadie sabe aún de que se trata. Botánica, organismos marinos, símbolos astrológicos, figuras humanas y muchas cosas más (incomprensibles, por supuesto) acompañan un texto tan fascinante y fantástico como imposible de comprender. Sin duda alguna estamos ante una mente muy interesante. ¿De qué se trata el Manuscrito Voynich? Galeria de imagenes del Manuscrito Voynich Fuente
Retroinformática: Apple II (1977) Luego del éxito obtenido por su primer producto -el Apple I- los “Steves” querían conquistar el mundo. Pero para ello necesitaban una computadora más potente, con un mejor aspecto y que fuese fácil de utilizar por la mayor cantidad posible de personas. Nuevamente le tocó a Wozniak sentarse en la mesa de diseño, y otra vez el resultado fue espectacular: impulsado por un MOS 6502 de 8 bits y con una carcasa plástica de color beige que ocultaba hasta 48KB de memoria RAM, nacía el primer integrante de la familia Apple II, cuyos miembros serían comercializados entre 1977 y 1993. El Apple I se había convertido en un “éxito de ventas”, a pesar de lo modesto que pueda parecer hoy (que se venden cientos de miles de iPads en las primeras horas de su lanzamiento) vender unas doscientas unidades de un producto a lo largo de toda su vida comercial. Lo que ocurre es que en esa época las computadoras personales eran prácticamente desconocidos, su precio sumamente elevado, y la gente aún no terminaba de enterarse de que podía tener uno en casa. Cuando en la recién nacida Apple se dieron cuenta que diseñar y fabricar computadoras podía convertirse en una verdadera mina de oro, se pusieron a trabajar en un nuevo ordenador destinado a reemplazar al Apple I. Esta vez sería un producto diseñado desde cero para ser comercializado, y dispondría de todo lo que un usuario hogareño podría necesitar. Steve Wozniack se encargó del diseño del nuevo ordenador, y puso en el todo lo que no había podido incluir en su primera maquina. El Apple I era una máquina construida a mano destinada básicamente a los aficionados que ya habían tenido algún contacto con los ordenadores. El Apple II, en cambio, fue un verdadero producto de producción masiva. Se convirtió en una computadora extremadamente popular entre los usuarios hogareños pero -sobre todo a partir del lanzamiento de la hoja de cálculo VisiCalc- también se vendió muy bien entre los los hombres de negocios. Para lograr semejante revolución, Apple utilizó magistralmente las técnicas de marketing. Woz y Jobs se complementaban perfectamente. Era muy fácil acceder al interior del Apple II El excelente diseño del primero no hubiese sido más que una curiosidad si no hubiese contado con el empuje de Jobs, que junto a la agencia de publicidad Regis McKenna, que había diseñado para Apple el logotipo de la manzana mordida original (de color verde), se encargó de detalles completamente ajenos a la tecnología que había hecho posible el ordenador pero que impactaban visualmente en sus clientes. Así fue como insistió en resaltar la capacidad de mostrar colores del Apple II, colocándolo en un caja blanca en la que se destacaba una nueva versión de la manzanita, esta vez con los colores del arcoiris. Apple prestaría siempre mucha atención a estos detalles, algo que puede verse también en las primeras publicidades del Apple II aparecidas en las ediciones de 1977 de la revista Byte. Apple II Plus ¿Que hacia tan especial al Apple II? En primer lugar, ya no hacia falta que el usuario se procurase una carcasa y una fuente de alimentación para la computadora. El Apple II era del tipo de “enchufar y usar”. Aún seguía siendo fácil retirar su tapa y acceder a su interior, pero no era un cacharro que desentonase en un hogar u oficina. Y en segundo lugar, su potencia -haciendo la comparación con otros ordenadores de la época- no era precisamente despreciable. Su placa base, en la que se encontraba el microprocesador MOS 6502 corriendo a 1 MHz, contaba con ocho ranuras de expansión y hasta 48 KB de memoria RAM. Pero lo que lo convertía en un verdadero objeto del deseo era su capacidad para desplegar colores y gráficos de alta resolución, su generador de sonidos y el lenguaje de programación BASIC (Integer BASIC) incluido. A diferencia de ordenadores como el Altair 8800, que estaban principalmente dirigidos a ingenieros y aficionados, el Apple II era un producto destinado a las masas. A lo largo de unos 15 años de historia, Apple comercializó una gran cantidad de modelos diferentes de su “Apple II”. El original, puesto a la venta el 5 de junio de 1977, utilizaba el mencionado microprocesador 6502 de MOS Technology a 1 MHz, disponía de 4 Kilobytes de RAM, el lenguaje de programación Integer BASIC en sus 12 KB de ROM y un conector para utilizar un grabador de casetes de audio como dispositivo de almacenamiento de datos. En cuanto al vídeo, una de las características más sobresalientes de este ordenador, era capaz de mostrar 24 líneas de 40 columnas de texto en mayúsculas sobre un monitor o aparato de TV, gracias a un modulador de RF. El precio de lanzamiento para este modelo fue de 1.298 dólares, y la versión con 48KB de RAM podía conseguirse por 2.638 dólares, monto que sirve para darse una idea de lo que costaba la memoria por aquellos años. El éxito del Apple II atrajo como moscas a muchos fabricantes, que comenzaron a diseñar placas de expansión o software para mejorar aun más las características del ordenador. Así fue como aparecieron tarjetas para mostrar texto en 80 columnas, otros lenguajes de programación, juegos y aplicaciones. Apple también desarrolló muchos periféricos, como el Disk II -una unidad de disco flexible de 5¼ pulgadas externa más una tarjeta controladora- que evitaba la agonía de las esperas interminables que tenían lugar cuando se intentaba cargar un programa extenso desde un casete de audio. Diseñada también por Woz, la interfaz del Disk II es considerada una de los más interesantes diseños electrónicos de la historia. VisiCalc, corriendo en un Apple II Tal como ocurriría años más tarde con el IBM PC, el diseño abierto y la inclusión de conectores de expansión hicieron posible la aparición de cientos de dispositivos que ayudaron a popularizar el Apple II. Si uno se pone a ojear una revista informática de fines de la década de 1970, verá una gran cantidad de anuncios destacando las bondades de productos para este ordenador, como controladoras de comunicaciones seriales, primitivas tarjetas de red y, un poco más tarde, hasta unidades de disco duro. Algunos llegaron a construir tarjetas de expansión dotadas de un microprocesador Z80, lo que brindó al Apple II la posibilidad de ejecutar programas desarrollados para el -entonces- muy popular sistema operativo CP/M. Así fue como los usuarios de este ordenador accedieron a gestores de base de datos como el dBase II o el procesador de texto WordStar. A medida que fueron pasando los meses, el costo de los componentes utilizados en la construcción del Apple II fueron bajando de precio, a la vez que la competencia comenzaba a desarrollar productos que podrían desplazarlo del mercado. Esto hizo que Apple creara nuevas versiones de su ordenador, lo que originó una numerosa familia cuyo linaje se extendió hasta más o menos los primeros años de la década de 1990. Apple IIc, el “portátil” de la familia La primer revisión del Apple II tuvo lugar en 1979. Denominado “Apple II Plus”, incluía de serie el Applesoft BASIC -escrito por Microsoft- que hasta entonces solo se ofrecía como una mejora y que permitía entre otras cosas operar con números de coma flotante. La memoria RAM inicial era de 16KB (o 48KB, si estabas dispuesto a gastar un poco más) y podía ampliarse a 64KB. Este hardware hizo posible que la máquina de Apple pudiese correr los compiladores UCSD Pascal y FORTRAN 77, muy populares en aquella época. Durante tres años el “Plus” mantuvo a Apple entre los primeros puestos de ventas. Cuando su popularidad comenzó a declinar ligeramente se decidió bajar su precio, así fue como en 1982 se lanzó el modelo “IIe”, una versión que aprovechaba los nuevos chips disponibles en el mercado para reducir su número, el tamaño de la placa principal y -por supuesto- el costo final del ordenador. Este modelo, además de ser más barato, podía mostrar en la pantalla letras mayúsculas y minúsculas y disponía de 64 KB de RAM ampliables a 128 KB. El Apple IIe (“Enhanced A pple II”) fue el modelo más popular de la familia y es uno de los que más fácil se puede conseguir en la actualidad. Apple IIGS En mayo de 1984 se puso a la venta el primer modelo portátil de la familia, el Apple IIc. Su corazón era el microprocesador 65C02, una versión mejorada en tecnología CMOS del “viejo” MOS 6502 utilizado en los modelos anteriores. Las mejoras no terminaban allí: el IIc, denominado “Lolly” durante su desarrollo, era capaz de mostrar 80 columnas de texto sin la ayuda de placas extras, conectarse con otros ordenadores mediante una la linea telefónica gracias a su modem interno, acceder a unidades de disquetes desde su controladora integrada y mucho más. Su diseño, más compacto que el de sus hermanos, limitaba bastante su expansión. En 1986 se presentó el que sería el miembro más poderoso de la familia Apple II. A pesar de que en 1894 la empresa había comenzado a comercializar el Macintosh -mucho más potente y dotado de una GUI- el éxito el Apple II no se había acabado. El Apple IIGS representó un cambio importante en la “familia”, ya que su microprocesador 65C816 contaba con registros de 16 bits y un bus de direcciones de de 24 bits. Corría a 2.8 MHz, tenía más memoria (256KB o 1024KB, expandibles a 8 MB), y una interfaz gráfica de usuario inspirada en la del Macintosh. Apple IIc Plus , de 1988 La ultima “encarnación” del Apple II fue el Apple IIc Plus de 1988. No era demasiado diferente al IIc, pero contaba con una novedosa unidad de discos de 3.5 pulgadas, incluía una fuente de alimentación interna y su microprocesador 65C02 marchaba a 4 Mhz. Era, tal como venia de fábrica, el modelo más veloz. Sin embargo, algunas tarjetas de ampliación como la RocketChip o la ZipGS permitieron a diferentes modelos del Apple II correr a 10 o 12 MHz. Apple aún fabricaría y ofrecería soporte para esta familia hasta más o menos 1993. Sin embargo, los tiempos habían cambiado y un ordenador que tenia sus raíces profundamente enterradas en los 8 bits reinantes a fines de la década de 1970 no tenia mucho futuro frente a “monstruos” como el IBM PC, el Macintosh o los Amiga. Poco a poco los Apple II fueron desapareciendo de la escena, y a pesar de que se vendieron millones y que muchas empresas incluso fabricaron clones de ellos, hoy hay mucha gente que jamás oyó hablar de estas computadorass. Sin embargo, fueron una parte muy importante de la historia de los ordenadores personales. ¡Hasta la próxima semana! Fuente Escala Internacional de Accidentes Nucleares Así funciona una Planta Nuclear Los sobrevientes de la batalla de Termópilas Dudar o no dudar? He aquí la duda La Maquina del Juicio Final Esta es tu Dirección.....en el Universo El neurólogo que se cortó los nervios El HAARP y la "bomba del Arco Iris" A Tesla le Robaron! Así ataca un Misil Balístico Intercontinental Nunca juegues con Mercurio Historia de la nave Soyuz
El ajedrez, un juego de reyes El ajedrez, ese juego que muchas veces se califica de deporte, aunque en realidad ‘sólo’ se trata de un juego de mesa. Otros juegos de mesa como las cartas o los dados se asocian históricamente al exceso de bebida, las apuestas de grandes cantidades de dinero y las consecuentes peleas de bar. Pero el ajedrez es distinto. No es un juego que históricamente se haya encontrado en las tabernas, sino que ha sido el juego con el que la nobleza soñaba desde sus grandes habitaciones de palacios con el dominio de todas las clases sociales de la ciudad. Durante la Baja Edad Media, gracias a la influencia árabe, el ajedrez pasa a formar parte de la vida de la aristocracia de toda Europa. El juego comienza a aparecer representado en multitud de objetos valiosos de reyes, condes, marqueses y demás miembros de la aristocracia. La asociación entre ajedrez y nobleza es tal que algunos ricos comerciantes intentan acercarse a la nobleza pintando en su cámara nupcial un tablero de ajedrez, tal y como se cuenta en el cuento medieval francés La Ch"telaine de Vergy. El tablero de ajedrez ilustrado en Ludus scacchórum Ya a comienzos del siglo XIV, el monje dominico Jacobo de Cessolis publicó De ludo scachorum or Libellus de moribus hominum et officiis nobilium ac popularium super ludo scachorum. En este escrito, comúnmente conocido como Ludus scacchórum hablaba de la invención del ajedrez, su historia, e incluso fue un poco más allá, realizando un gran símil entre el juego y la sociedad medieval. Para Jacobo de Cessolis, el tablero de ajedrez representaba una ciudad medieval cualquiera, donde cada ficha se corresponde con una clase social, siendo sus movimientos una representación de sus vicios y virtudes. La historia que contenía el tratado, más que historia contrastada consistía en una mitología creada por Jacobo de Cessolis en torno al juego del ajedrez. En él cuenta cómo el ajedrez fue inventado por un astuto filósofo sumerio como forma didáctica de corregir cruel hijo de Nabucodonosor, Evilmerodach, sin mostrar directamente sus intenciones y hacer peligrar su propia vida. Siguiendo lo escrito por él mismo en su libro, Jacobo de Cessolis utilizó el ajedrez en sus sermones para enseñar moralidad y ética. El rey y la reina ilustrados en Ludus scacchórum El origen real del ajedrez, tal y como se conoce a día de hoy, tiene su origen en la India en torno al siglo VI. De ahí, a través de Persia se difundió hacia occidente. En ese viaje, el ajedrez sufrió muchas modificaciones sustanciales en su forma, adaptándose a las costumbres y cultura de cada uno de los países. Algunas piezas consiguieron mantener su forma original, como es el caso del Rey, el Caballo y los Peones, aunque otros sufrieron transformaciones sustanciales. El árabe Ualfil, que originalmente representaba al elefante, se adaptó a la sociedad europea como el Alfil, representando al obispo, e incluso tomando su nombre en algunos países como Inglaterra (Bishop). Por su parte, el árabe Fers, que solía representar al visir, el comandante del rey, cambió de sexo a su llegada a Europa, convirtiéndose en la Reina. Tanto la Reina como el Alfil, representan personajes clave de la sociedad europea de la edad media, aunque si introducción no fue inmediata. En el ajedrez de Carlomagno, considerado uno de los más hermosos conjuntos de piezas de la edad media y destruido durante la Revolución Francesa, aparece representada la reina, pero en el lugar del alfil aún aparece el elefante. Esto se cree que es a causa de que este juego de piezas fue elaborado en el sur de Italia, una de las zonas de Europa de mayor influencia árabe. El peón posadero ilustrado en Ludus scacchórum Pero no todos los cambios que se intentaron introducir a su llegada a Europa, tuvieron tanto éxito como en el caso de la Reina y el Alfil. Tal y como se muestra en Ludus scacchórum, los peones, que originalmente representaban a soldados de infantería en las batallas, intentaron cambiarse en los monasterios por los ciudadanos típicos de cualquier urbe de la edad media. De este modo, representarían un agricultor, un herrero, un tejedor, un comerciante, un doctor, un posadero, un guardián y un mensajero. Además también se intentó introducir el movimiento lateral para dar más jugabilidad al ajedrez, aunque todos estos cambios cayeron en el olvido. La popularización del ajedrez más allá del clero y la realeza fue progresiva, desde el siglo XVI hasta el siglo XVIII. Grandes hombres de ciencia dedicaron parte de su tiempo a este apasionante juego, como Isaac Newton o Benjamin Franklin. A finales del siglo XVIII, en tiempos de la revolución francesa, podemos encontrar documentos históricos que narran cómo Robespierre y Voltarie jugaban al ajedrez en el Café de la Regencé junto a otros muchos revolucionarios. Con la llegada del siglo XIX, los grandes intelectuales se convirtieron en los grandes jugadores de ajedrez, relegando en a la realeza y al clero a ser unos de muchos jugadores de todas las clases sociales. Fuente

El ejercicio militar que casi provoca una guerra nuclear, en 1983 Antes de realizar un experimento o maniobra militar por parte de cualquier país, los protocolos de notificación tienen como fin emitir un comunicado a decenas de países que podrían sentirse agredidos erróneamente. Y aún, en caso de notificar correctamente, puede suceder el caso de que una falla de comunicación dentro de un país, lleve a un malentendido capaz de disparar una situación que deje al mundo a diez minutos de un desastre nuclear. Misiles MGM-31 Pershing, desplegados durante el ejercicio Able Archer 83 Estaríamos contando una historia diferente de no mediar la sensatez para tomar decisiones acertadas en momentos críticos. Al menos, así habría que interpretar el incidente del 25 de enero de 1995. Por entonces, un equipo de científicos noruegos y estadounidenses protagonizaron el incidente del cohete noruego (post Guerra Fría) en el que un simple lanzamiento para estudiar la aurora boreal fue interpretado por el sistema de radares de Rusia como una amenaza o ataque por sorpresa. La alarma, pudo llegar hasta el presidente Boris Yeltsin, que según las filtraciones informativas, tuvo se primer experiencia activando las claves que dispararon los sistemas de defensa nuclear. Afortunadamente, y con la información disponible durante los pocos minutos transcurridos sobre la trayectoria del cohete, el gobierno ruso determina que el lanzamiento no suponía una amenaza para el país, llegando a desactivar el sistema de alerta. La situación del incidente del misil noruego, no pasa de lo anecdótico comparada con otra desinteligencia, que a partir del 2 de noviembre del año 1983, puso al mundo en la segunda situación más dramática al borde de una guerra nuclear, después de la famosa crisis de los misiles en Cuba. El incidente, sucedió durante el ejercicio militar de la OTAN conocido como Able Archer 83, realizados en la zona de Europa Occidental, al norte de la ciudad de Mons, en Bélgica. Si en el incidente noruego, la alarma la dispara un lanzamiento de cohete, en la operación Able Archer 83, se intentaba nada menos que simular la reacción coordinada de los países de la OTAN ante un estado de emergencia en el que se activarían los mecanismos de defensa. En la práctica, significaba realizar un despliegue defensivo “teatral” tan realista, que a los ojos rusos, fue interpretado como una situación de amenaza disparando todos los sistemas de alerta nuclear. Si analizábamos el cuadro de situación previo, en un pico de paranoia nuclear en donde los soviéticos no esperaban otra situación que un ataque nuclear secreto sobre la URSS, el ejercicio Able Archer 83, debería haberse planeado considerando esos riesgos. Varios meses antes, numerosos ejercicios militares desplegados por los Estados Unidos en el Pacífico norte, habían cimentado un clima de tensión inminente. Incluso, algunas de las operaciones, habían llegado a dirigir la flota de ejercicio más grande hasta entonces desplegada, llegando al extremo de orientar un escuadrón de vuelo en línea recta hacia el espacio aéreo soviético, desviados en el último minuto antes de entrar en territorio enemigo. Apenas dos meses antes del incidente, se había desatado el desastre del vuelo KAL 007, el avión más buscado de la Guerra Fría. Aún con el confuso episodio del avión siniestrado irresuelto, unos días después, el sistema de alerta de misiles soviético informaba sobre erróneos lanzamiento desde Estados Unidos, que fueron finalmente desestimados por interpretarse como fallos del sistema. Ante la serie de hechos previos y la psicosis reinante, la dimensión del ejercicio Able Archer 83 parecía justificar que todas las fuerzas nucleares y las unidades de aire soviéticas en Alemania y Polonia fueron puestas en alerta, tal como sucedió. En momentos en que los servicios de inteligencia soviéticos estaban a la espera de los primeros signos de un ataque nuclear, la OTAN comenzaba a simular uno. Para ello, se llegó a utilizar un nuevo sistema de cifrado en las comunicaciones, que fue detectado por los soviéticos con un aumento explosivo en las comunicaciones. Todas las señales inducían a pensar en un ataque nuclear inminente, alimentados por una serie de procedimientos militares inéditos por parte de la OTAN. Ante la amenaza, los responsables militares de la Unión Soviética creyeron que la única oportunidad de sobrevivir a un ataque de la OTAN era adelantarse, disparando los mecanismo defensivos de alerta. El ejercicio, realizado a lo largo de diez días fue subiendo el nivel de alerta soviético a un punto dramático, hasta su finalización el 11 de noviembre, que termina de forma abrupta con la amenaza de una guerra nuclear y dispone el fin del alerta. El 8 de noviembre, por su parte, es calificado como uno de los momentos más peligrosos de la historia, cuando altos cargos de la Unión Soviética se convencieron de que estaban a punto de entrar en un ataque nuclear por parte de Occidente. Todo el arsenal nuclear fue puesto por entonces en alerta máxima, a punto para lanzar un ataque completo a modo de represalia en Europa Occidental y Estados Unidos. Aunque aún hoy, la información sobre el ejercicio y las reacciones soviéticas permanecen como parte de la información clasificada por parte de Estados Unidos, diversos historiadores registraron declaraciones de funcionarios norteamericanos mostrándose sorprendidos por el nivel de reacción soviética ante el ejercicio. Por el otro bando,una única fuente soviética (el agente Oleg Gordiesky) fue la responsable de hacer público detalles sobre el incidente Able Archer 83 y las reacciones. Fuente
Por que triunfó la tinta azul sobre la negra en las biromes? No hay una causa concreta por la que las biromes sean azules. Hay un cúmulo de circunstancias que combinadas han desembocado en la situación actual. El inventor de la birome, Laszlo Biro, trabajaba en un pequeño periódico. Biro estaba frustrado con la cantidad de tiempo que perdía rellenando las plumas estilográficas y limpiando las manchas de tinta. En 1938 comenzó en su país natal, Hungría, el desarrollo del que sería el moderno bolígrafo. Laszlo Biro En 1944 se trasladó a Argentina, donde comenzó a fabricar su invento. En Octubre de 1944 se vendieron las primeras biromes en Nueva York. Un aspecto fundamental de la cuestión es que la tinta de los bolígrafos azules y la de los bolígrafos negros es completamente distinta. En la actualidad nos resulta rutinario pensar que cualquier producto se puede realizar del color que se desee, sin mayores problemas. Pero no siempre es así. En el caso de las biromes, ambas tintas tienen origenes completamente diferentes. En particular, la tinta negra contiene carbono, lo que la hace más difícil de fluir. No fue trivial inventar la birome; una patente relativa a un invento similar al de Laszlo Biro data de 1888 y expiró porque no se comercializó ningún producto. En realidad, el mismo Biro había sido incapaz de fabricar los mejores bolígrafos. Muchos otros sin embargo reconocieron el mérito de su invento y pagaron los cánones necesarios para poder fabricar sus propios bolígrafos. Parte de los problemas estaba en la tinta a emplear. Simplemente tenía que ser un tipo de tinta muy especial; una viscosidad inadecuada y se podría secar dentro del bolígrafo. Tenía que fluir con una consistencia concreta, muy difícil de reproducir. El éxito del azul sobre el negro, sin embargo, proviene de antes de que se inventara la birome. Aunque ahora cualquier escolar utilice una birome, a comienzos del siglo XX el uso de estilográficas se limitaba a los trabajos administrativos de cierta importancia. La principal causa por la que se usaba el azul entonces era porque resultaba más sencillo distinguir un original de una copia. ¿Copias en 1920? Antes de que proliferaran las fotocopiadoras y hasta hace no mucho tiempo, el papel carbón. Es una hoja de papel que se interpone entre el texto que se va a escribir y una hoja en blanco que queda detrás. Gracias a él se pueden escribir múltiples copias de un mismo documento. Con el papel carbón, era importante distinguir originales de copias y el azul resultaba un color muy adecuado para ello. Otra de las ventajas del azul es que resultaba más fácil de limpiar. Las manchas de tinta son bastante severas y en una época en que había que recargar manualmente los cartuchos de tinta, el riesgo de mancharse estaba a la orden del día. Así, antes de que se inventase la birome, el azul ya reinaba sobre la Tierra. Sin embargo, justo al tiempo que nacía la birome, el negro tendría su gran oportunidad. Laszlo Biro se marchaba de su país al comienzo de la II Guerra Mundial. En esta guerra, el Ejército de los Estados Unidos había creado un sistema de correo realmente ingenioso: El V-Mail. Sabiendo que la II Guerra Mundial podía durar muchos años, el ejército norteamericano necesitaba disponer de un sistema de correo entre los soldados que estaban luchando en el viejo continente y sus familiares en América. Dado el volumen del contingente estadounidense, tener que enviar cientos de miles de cartas cada semana suponía un trabajo demasiado costoso por el peso de las cartas. Así, que adaptando tecnologías ya existentes, decidieron hacer una especie de Winzip del correo, llamado V-Mail. Fotografiaban todas las cartas - que no podían tener una extensión superior a una página - y enviaban por correo los negativos de estas fotografías, que ocupaban mucho menos espacio. En Estados Unidos recibían los negativos y un equipo se encargaba de descomprimir estas fotografías, pasándolas de nuevo a papel. La diferencia de peso era sorprendente. De unos 1.700 kilos de correo se pasaba a tan solo 45. Para hacer las fotografías, sin embargo, era preferible que las cartas estuvieran escritas en tinta negra. De lo contrario el proceso de descompresión podía hacer que la carta no se viera bien. Durante la II Guerra Mundial se vendieron muchos miles de cartuchos de tinta negra. Aún así, el azul siguió venciendo por mayoría. En los años 50 se vendían por lo menos cuatro veces más biromes azules que negras. El azul se había establecido cómodamente y la técnica no ayudaba. Aún hoy en día, los bolígrafos azules son más confiables que los negros. El invento de la fotocopiadora daría una última oportunidad de imponerse a la tinta negra. Si las fotocopiadoras actuales se atascan y fallan, imaginemos cómo eran los primeros modelos. En particular, había problemas con la calidad de las copias. Y de nuevo, como en el caso del V-Mail, si el original era en azul, las copias que se obtenían no eran muy claras. Así, el negro tenía su nueva opción para recuperar el mercado perdido. Sin embargo, para entonces la birome era un instrumento común que se usaba también fuera de las oficinas. Gran parte del éxito se debe a la empresa BIC que consiguió comercializar un modelo de birome barato. Estaba claro que el futuro de la tinta no podían dictarlo ya tan sólo los oficinistas, cuando se usaba en el hogar, en los colegios y en definitiva, en todas partes. Además, el tiempo no operaba a favor de los bolígrafos negros. Los avances en las fotocopiadoras fueron sorprendentes. En poco tiempo se hacían copias casi idénticas. Ya no importaba si el original era azul, es más, se necesitaba de nuevo que fuera así, para poder distinguirlo de las copias. En el éxito del azul sobre el negro cuentan muchos factores: la falta de buenas lavadoras a comienzos del siglo XX, que la birome tardara tanto en inventarse, o que la fotocopiadora no se inventase antes. Pero por encima de todos esos puntos, la causa por la que las biromes azules sean tan populares es que la tinta negra es mucho peor que la azul. Fuente
Breve historia de los dominios .tk A medida que el tiempo pasa, uno comienza a buscar su propia independencia. Quizás sea una mezcla de injustificados mandamientos modernos sobre la adultez, o quizás sea para que uno no se transforme en un verdadero parásito. Lo cierto es que en Internet sucede algo parecido. Encontrar un espacio en el que uno pueda desarrollarse a veces suele ser complicado. Muchas veces la dirección que queremos para un sitio web personal ya está registrado. Pero desde que el archipiélago neozelandés de Tokelau decidió regalar sus dominios, todo aquel que se digne a mudarse (digitalmente) a Oceanía podrá contar con su lugar propio: un dominio .tk. La paradisiaca Tokelau Si uno navega por las frías aguas del océano Pacífico Sur se encuentra con Tokelau, un archipiélago de pescadores y artesanos de doce kilómetros cuadrados y 1500 habitantes, dependiente de Nueva Zelanda desde 1925, que está a 37 horas de viaje en barco desde Apia, Samoa de Oeste y que busca su independencia junto a sus tres atolones llamados Atafu, Nukunonu y Fakaofo y unos 125 islotes. Los tokelauanos, desde hace varios años están buscando su independencia del país de los All Blacks, por lo cual, con el paso del tiempo fueron tomando medidas como la redacción de una Constitución propia, el desarrollo de instituciones de gobierno autónomas y la asignación de un propio Dominio de nivel superior geográfico (o ccTLD, por las siglas en inglés de “Country Code Top-Level Domain”), que no es otra cosa que aquel dominio de Internet, que tiene una longitud de dos letras, que sirve para identificar a qué país o territorio independiente corresponde una página (por ejemplo .ar para Argentina, .es para España, .mx para México, etc.). Es allí, entonces, cuando nace el famoso .tk. Lo llamativo de esta historia es que Tokelau comenzó a ofrecer su dominio .tk de manera gratuita para todo el mundo, brindando servicio de redireccionamiento web y correo electrónico sin valor alguno. Sus servidores son administrados por la compañía de comunicación del país Teletok y una compañía privada llamada BV Dot TK, que el Gobierno de Tokelau ha designado como “entidad exclusiva de inscripción” la cual pretende generarle ingresos a la isla por el pago de los nombres de dominios vendidos y renovados a través de Dot TK Registry. Así fue como desde el año 2001 millones de personas han registrado sus dominios en el sitio www.dot.tk, manteniéndose en contacto con otros usuarios a través de Tikinet, la red que enlaza a todos los sitios .tk que tengan una misma temática y que ayuda al aumento de tráfico entre las páginas. Un país en el que siempre serás bienvenido: Tokelau Es increíble la variedad de dominios que uno puede encontrarse y que nada tienen que ver con Tokelau. Mucha gente ha registrado direcciones del estilo www.elnombredetubandafavorita.tk, www.lasfotosdemicasamiento.tk, o incluso www.vendounabicicleta.tk. Es decir que abarcan cualquier temática, en cualquier idioma y con cualquier diseño que decida el webmaster de turno. Pero Dot TK no sólo permite al usuario enlazar cualquier sitio, blog, galería o perfil en línea, con una extensión de hasta 255 caracteres, sin pagar un centavo (aunque con ciertas restricciones de contenido y un uso mínimo así no usurpas un nombre interesante sin hacer nada), también ofrece dominios pagos, con la posibilidad de modificar los DNS del sitio, en los que se obtienen todos los derechos legales (y responsabilidades) a un valor de US$6.95 por año. ¡Incluso hay sitios especiales para las grandes marcas! Según puede leerse en el sitio “La meta principal, tanto para Teletok como para Dot TK Registry es la de aumentar la presencia de Tokelau en el mundo, estableciendo relaciones con grandes corporaciones que puedan proporcionar comunicación, educación y recursos sanitarios a la región y dotar directamente a la isla de Tokelau con fondos económicos conseguidos a través de los pagos de los nombres de dominios vendidos. De esta manera el Gobierno de Tokelau puede crecer y llegar a una situación de independencia financiera”. ¿Será posible el sueño de este curioso archipiélago neozelandés que ha generado tanto impacto en Internet? No lo sé, pero… ¡A dominio regalado no se le mira el ccTLD! Fuente

Retroinformática: MOS KIM-1 (1976) MOS Technology Inc, obligada por una demanda legal impuesta por Motorola, debió modificar la distribución de pines de su producto estrella, convirtiéndolo en un trozo de plástico, metal y silicio incompatible con los ordenadores que utilizaban el Motorola 6800. Así fue como nació el “Keyboard Input Monitor” o KIM-1, un pequeño ordenador de una sola placa destinado a servir como entrenador a los diseñadores de hardware. Inesperadamente, KIM-1 fue muy bien acogido por los entusiastas y se convirtió en un éxito. Hoy te contamos la historia del bisabuelo del Commodore 64. KIM-1, creado en 1975 y presentado en las tiendas en 1976 KIM-1 es una clase de microcomputador que tecnológicamente puede situarse entre los tipos de computadoras como el Altair 8800 o el IMSAI 8080 y los que siguieron al Apple I. Pensados como “kits de desarrollo”, estos pequeños sistemas eran muchas veces producidos por los mismos fabricantes de chips, como una herramienta para que los ingenieros pudiesen evaluar y probar sus productos. Pero la sed de conocimientos y el entusiasmo de los usuarios de la época convirtieron a muchos de esos kits en verdaderos éxitos comerciales. El caso más emblemático es el del MOS KIM-1. Tarjeta de ampliación del KIM-1 En los primeros años de la década de 1970, la empresa MOS Technology recibió con agrado la incorporación a su plantilla de personal de un grupo de ingenieros que había abandonado a su competidor Motorola. Este grupo de especialistas, encabezados por Chuck Peddle, habían sido los responsables de crear el famoso microprocesador Motorola 6800. Una vez instalados en MOS, pusieron manos a la obra y en pocos meses repitieron el trabajo creando un clon del 6800 llamado MOS 6801. El chip era indistinguible del fabricado por Motorola -al fin y al cabo, habia sido creado prácticamente por el mismo equipo de trabajo- y era 100% compatible con aquel, pero un poco más barato. Esto le permitió a MOS ganar buena parte del mercado, ya que su producto podía ser directamente enchufado en una placa madre diseñada para el chip de Motorola. Obviamente, esta situación le gustó muy poco a los abogados de la creadora del 6800, que empapeló a MOS Technology con una serie de demandas legales. El usuario disponía de un teclado compuesto por 24 teclas Como suele ocurrir en estos casos, la justicia tuvo un comportamientos más bien extraño, y permitió a MOS salir del embrollo en que se había metido simplemente modificando la distribución de los pines de su chip. El nuevo modelo, llamado MOS 6502, seguía siendo un “6800”, pero las patitas metálicas del microprocesador se ordenaban de una forma diferente. Esto provocó que ya no fuese posible el reemplazo directo entre chips, y las ventas de MOS comenzaron a resentirse. Era necesario convencer a los desarrolladores de que el MOS 6502 era un micro útil, y para ello hacia falta proporcionarles una plataforma económica y flexible con la que pudiesen “jugar” hasta familiarizarse con el producto. Así fue como el mismo Chuck Peddle tuvo a su cargo el desarrollo de un kit destinado a suplir esta demanda. El resultado fue el “Keyboard Input Monitor” o KIM-1, creado en 1975 y presentado en las tiendas en 1976. El KIM-1 era un pequeño microcomputador cuyos componentes se alojaban en una sola tarjeta de circuito impreso. Resultaba muy fácil de montar, ya que a diferencia de otros kits anteriores solo empleaba unos pocos chips. El usuario disponía de un teclado compuesto por 24 teclas -10 dígitos, letras de “A” a “F” y algunas teclas de control- y una “pantalla” formada por 6 digitos LED de 7 segmentos. A pesar de lo rudimentario que esto pueda parecer, era infinitamente mejor que el sistema de llaves y LEDs utilizados por MITS o IMSAI. Pero lo que más gustó a los interesados en las computadoras en forma de KIT fue su precio: 245 dólares. Por ese dinero, el comprador se llevaba a su casa un computador funcional (o al menos, “funcional” luego de haberlo ensamblado) con 1KB de RAM completo. Para tener una idea del valor que tenia para un programador esa “enorme cantidad” de memoria, basta con recordar que para llegar a ese monto, MOS empleó 8 chips MOS 6102, cada uno con 1024 bits. No era muy difícil copiar este PCB Una de las características más interesantes del KIM-1 era su posibilidad de expansión. Peddle había utilizado dos chips MCS6530 “Peripheral Interface/Memory Device”, capaces de gestionar más memoria o periféricos. Dos conectores situados en el borde izquierdo de la placa permitían agregar dispositivos al sistema, y rápidamente la comunidad comenzó a desarrollar interfaces para grabadores de cassettes, terminales de vídeo, ampliaciones de memoria y mucho más. El mercado rápidamente se inundó de libros dedicados al KIM-1. En ellos se podia encontrar información indispensable sobre su hardware, pequeños ejemplos de software, y guías para escribir programas utilizando el lenguaje ensamblador del 6502. Entre los agregados más comunes se encontraba uno con un pequeño altavoz, que gracias a un programa permitía al KIM-1 generar sonidos y melodías. Una versión de BASIC, el Tiny BASIC, también fue adoptada por muchos usuarios, a pesar de que requería de 4BK de RAM adicionales. Dato anecdótico: Leer esos 4KB desde una cinta de cassette demoraba aproximadamente 15 minutos. Compleja tarjeta de expansión, de 1979 Cuando el KIM-1 ganó cierta popularidad, ocurrió lo inevitable: surgieron los clones. Irónicamente, la empresa que había sido obligada a rediseñar su producto por ser la copia de otro, comenzó a ser copiada más o menos descaradamente. La sencillez del KIM-1 permitía que prácticamente cualquier aficionado realizase un proceso de “ingeniería inversa” sobre la placa de circuito impreso de dos caras, obtuviese un volcado de la ROM y -en pocos días- tuviese una nueva computadora. Muchos lo hicieron, y algunos -como el KIN-1, de KIN Computers- fueron utilizados como “computadoras de vestir”, disimulados bajo la ropa y utilizados en los casinos para “contar naipes” en las mesas de juego. Pero la competencia más fuerte surgiría de Rockwell International y Synertek. Rockwel AIM 65, algo más completo que el original Rockwell International, un fabricante de semiconductores, disponía de una licencia para comercializar su propia versión del microprocesador 6502, y sus responsables viendo el éxito que estaba teniendo el KIM-1, no dudaron en crear su propia “tarjeta de evaluación”. Así fue como en 1976 nació el Rockwel AIM 65, un microcomputador dotado de un teclado ASCII completo, una pantalla compuesta por 20 caracteres LED alfanuméricos de 14 segmentos y una pequeña impresora. Era mucho más atractivo que el KIM-1, y los chips opcionales de ROM conteniendo un programa ensamblador o un intérprete BASIC de Microsoft ofrecidos por Rockwel lo convirtieron en el favorito de muchos usuarios. Synertek apostó por su SYM-1 Synertek tampoco quería quedar fuera del negocio, por lo que puso a sus ingenieros a trabajar contra reloj, y pocas semanas despues presentó el SYM-1, un sistema algo mejor que el KIM-1 pero no tan completo como el AIM 65. Disponía de una pantalla como la del primero, pero un teclado -de membrana- con 29 teclas bastante más completo que el original de MOS. Sus desarrolladores lo dotaron de los mismos conectores de expansión que el original, por lo que las placas diseñadas para el KIM-1 podían utilizarse sin cambios en el producto de Synertek. En la placa madre también había una interfase RS-232 “de verdad” (es decir, con los voltajes exactos requeridos por la norma), lo que decidió a muchos usuarios a elegir este modelo y no otro. Pero la historia del KIM-1 estaba lejos de terminar. El “KIM-2” se convirtió en el “Commodore PET 2001” MOS Technology fue comprada por la ascendente Commodore International, una empresa propiedad de Jack Tramiel que comenzó fabricando máquinas de escribir, más tarde había incursionado (con mucho éxito) en el mercado de las calculadoras electrónicas y que había decidido probar suerte con la venta de ordenadores personales. Commodore comercializó durante algún tiempo el KIM-1 con su marca, pero puso a Chuck Peddle a trabajar en una versión ampliada del sistema. El nuevo KIM debía contar con un teclado QWERTY completo (como el que tenían las máquinas de escribir), un grabador de cassette, un BASIC en ROM listo para utilizarse ni bien se encendiese el ordenador, y una pantalla de vídeo. Para entrar con fuerza en el mercado de los ordenadores, Commodore necesitaba algo de la talla del Apple I, y Peddle era el indicado para proporcionárselo. Cuando el producto estuvo listo, en 1977, fue comercializado como “Commodore PET 2001”, antecesor del Commodore VIC20 y -por lo tanto- “abuelo” del Commodore 64. Fuente Los sobrevientes de la batalla de Termópilas Dudar o no dudar? He aquí la duda La Maquina del Juicio Final Esta es tu Dirección.....en el Universo El neurólogo que se cortó los nervios El HAARP y la "bomba del Arco Iris" A Tesla le Robaron! Así ataca un Misil Balístico Intercontinental Nunca juegues con Mercurio Historia de la nave Soyuz

Si en el mundo hubiera sólo 100 países con una superficie similar ¿Y si en todo el mundo, en vez de existir como doscientos países, con extensiones que van desde el tamaño de una plaza al de un continente, hubiera sólo cien y todos de una extensión semejante? Esa es la premisa desde la que se ha elaborado este mapa, en el que los “países” se forman a partir de las divisiones subnacionales ya existentes. El mapa de los cien países de una extensión similar Las tierras emergidas suman un total de 148.939.063 kilómetros cuadrados; descontando los catorce millones de la Antártida nos quedan unos 135 millones, por lo que los cien hipotéticos países de este mundo repartido equitativamente deberían tener aproximadamente 1.350.000 km², hectárea arriba o abajo. No son demasiados los países cuya superficie real sea parecida, pero alguno hay. Así pues, encontramos que en el mapa hay un total de cinco países que se quedan como están: Mongolia e Irán en Asia y Libia, el Chad y Níger en África, todos ellos con una extensión entre el millón doscientos y el millón setecientos mil kilómetros cuadrados. Angola permanece casi idéntica, únicamente pierde el pequeño enclave de Cabinda, en favor de la insólita Federación entre el norte del Zaire, el Congo y Gabón El mapa de los cien países, con las fronteras nacionales y las divisiones subnacionales visibles En el resto del planeta el desguaze es descomunal. Rusia queda partida en quince países diferentes, China en diez (algunos de ellos compartidos con Rusia), Canadá en siete, al igual que EE.UU., y así. Por otro lado, surgen federaciones imposibles. España quedaría unida a Portugal, Gibraltar, Francia, Andorra y Mónaco, y perdería las Islas Canarias, Ceuta y Melilla en favor de la unión de Marruecos y el oeste de Argelia ; Egipto absorbería a Israel, Palestina y Jordania, lo que garantizaría sesiones parlamentarias entretenidísimas, aunque no menos que las que tendrían en la unión de Turquía, Irak, Armenia, Georgia, Azerbayán y Siria. Nuevo mapa político del extremo oriente, con una Corea unificada… con Japón y partes de Rusia y China. El sueño imperial de Japón, que recupera las Kuriles y de paso se queda Sajalín. Donde más se producen estos desaguisados es en Europa, donde sólo quedarían media docena de países. El Reino Unido sería más unido todavía, al tener como nuevos países constituyentes a Irlanda , Islandia y el sur de Groenlandia. La antigua Yugoslavia estaría unida otra vez, sólo que también compartiría estado con Italia, Suiza, Lietchenstein, Austria, Alemania, Rep. Checa y el Benelux; Dinamarca se uniría a los tres países escandinavos (que además se quedarían un trozo de Rusia), una imaginaria Federación del Mar Negro englobaría a Grecia, Macedonia, Bulgaria, Rumanía, Moldavia, Ucrania y la parte europea de Estambul. Finalmente, los países Bálticos quedarían encuadrados en un país en el que también tendrían su sitio Polonia, Eslovaquia, Hungría, Bielorrusia, Kaliningrado y algún pedazo más de Rusia. Europa con sólo media docena de países, más alguno ruso reción inventado En América la cosa también queda interesante. Estados Unidos quedaría dividido en ocho pedazos; Alaska sería el más grande de ellos. Texas se uniría a cuatro estados del Norte de México, el Cinturón Bíblico, de Oklahoma a Florida, también tendría su propio país, y se podría fundar la República de las Cuatro Esquinas en el país resultante de unir Arizona, Colorado, Utah y Nuevo México. Hablando de México, el país perdería el norte, pero se anexionaría Guatemala y Belice. Centroamérica reeditaría la Unión Centroamericana, quedándose con Cuba, Puerto Rico y demás, Colombia absorbería Ecuador y Venezuela absorbería la isla de La Española y otras Antillas. Perú permanecería casi idéntico, únicamente disfrutaría de la adición del estado brasileño de Acre; Chile y Argentina se verían partidos en dos y unidos en sus partes Norte y Sur, Uruguay se vería unido a media docena de provincias argentinas y a otra brasileña, y Paraguay pasaría a ser parte de la subdivisión formada en el sur de Brasil. América del Sur, ligeramente modificada Decía al principio que el mapa se ha elaborado a partir de la adición de las distintas entidades subnacionales existentes, pero hay algunos casos en los que también se han tenido que partir por las bravas algunas de ellas, por ser demasiado grandes. El Krai de Krasnoyarsk (Rusia) y el estado de Australia Occidental se parten en dos, y la República de Sajá (Rusia, también), en tres. La región canadiense de Nunavut también se ve dividida, y parte de ella se une a los Territorios del Noroeste (que también se ven divididos, aunque en este caso sin necesidad). América del Norte, dividida un poquito. En total, en vez de tres países hay quince El mapa tiene algunas incoherencias. Supuestamente todos los países deberían rondar el millón trescientos mil kilómetros cuadrados, pero hay algunos en los que la diferencia es del 25% arriba o abajo. Por ejemplo, dentro de EE.UU. encontramos la unión de Nuevo México, Arizona, Colorado y Utah, que suma un total de millón cien mil kilómetros cuadrados, y por otro lado Alaska, que tiene seiscientos y pico mil más (aunque doscientos mil son de lagos, ríos y aguas internas en general). Así que, si alguien se anima a mejorarlo y tiene toneladas de tiempo libre, Pinchando aquise puede descargar el mapa original de las divisiones subnacionales. Fuente Los sobrevientes de la batalla de Termópilas Dudar o no dudar? He aquí la duda La Maquina del Juicio Final Esta es tu Dirección.....en el Universo El neurólogo que se cortó los nervios El HAARP y la "bomba del Arco Iris" A Tesla le Robaron! Así ataca un Misil Balístico Intercontinental Nunca juegues con Mercurio Historia de la nave Soyuz

DARPA, el “brazo loco de la ley” del Departamenteo de Defensa de los Estados Unidos, ha empleado cinco años y 21 millones dólares para desarrollar un nuevo juguete. Se trata de una clase de rayo láser, sustancialmente diferente a los desarrollados hasta el momento, al que han bautizado High Energy Liquid Laser Area Defense System (HELLADS). El dispositivo combina tecnologías de láeres sólidos y líquidos, y puede ser montado en aviones para -entre otras cosas- derribar misiles. Hace más de 40 años que DARPA investiga y desarrolla proyectos relacionados con la tecnología láser. Sus científicos han puesto a punto aplicaciones que aprovechan sus características únicas para crear herramientas de comunicaciones, incluso entre submarinos. También forman parte de los sistemas de guiado de misiles. Y -por supuesto- también los han utilizado para volatilizar cosas. Dentro de este ultimo grupo se encuentra el High Energy Liquid Laser Area Defense System (HELLADS, Sistema de Defensa Área de Láser Líquido de Alta Energía). HELLADS es, básicamente, un sistema de rayos láser de alta energía que el ejército estadounidense podrá usar para destruir objetivos enemigos con gran precisión. El dispositivo comenzó a desarrollarse hace unos cuatro años, y ha costado -al menos oficialmente- 21 millones de dólares. Como ocurre a menudo, DARPA ha contratado a otras empresas para que creen el aparato. En este caso, la responsabilidad de poner en marcha HELLADS ha sido el contratista Weaponeer Textron. Entre las características más sobresalientes de este láser se destacan su gran potencia -unos 150 kilowatt (kW)- y su pequeño tamaño. En efecto, el dispositivo no es más grande que el refrigerador de tu casa, lo que permite montarlo prácticamente sobre cualquier vehículo. De hecho, DARPA piensa usarlo a bordo de aviones. Si todo sale como creen en la Agencia de Proyectos de Investigación de Defensa Avanzada del Pentágono, los combates aéreos del futuro se parecerán a algunas escenas de batallas que hemos visto en las películas de la saga Star Wars. HELLADS: un láser de 150 kilowatt de potencia. Su pequeño tamaño le permite ser montado a bordo de un jet militar, desde donde podrá dispararse contra otros aviones, blancos en tierra o utilizarse para derribar misiles enemigos que se aproximen con malas intenciones. El equipo completo pesa unos 750 kilogramos. Puede parecer mucho, pero es bastante menos de lo que pesan otros láseres similares. Esta reducción significativa en su peso se debe a que los ingenieros de Weaponeer Textron combinaron en HELLADS un láser de estado sólido con uno de estado líquido. En general, los láseres de estado sólido son pequeños pero deben ser disparados con intervalos para evitar su sobrecalentamiento. En cambio, los que basan su funcionamiento en un líquido pueden disparar de forma continua, pero requieren de grandes y complejos equipos de refrigeración para no derretirse -literalmente- mientras disparan. En DARPA aseguran que HELLADS posee lo mejor de ambos mundos, y pesa “un orden de magnitud menos” de lo que pesaría un láser de estado sólido equivalente. El director del proyecto, Don Woodbury, dice que el secreto del éxito de HALLADS se debe a una inteligente “combinación de la alta energía de un láser de estado sólido con el manejo térmico propio de los láser de estado líquido”. El desarrollo del láser, cuyo acrónimo en ingles significa algo así como “el arma infernal”, comenzó en 2004 con un prototipo de una potencia de 1 kW. En 2006 se construyó una segunda versión más poderosa, de 15 kW. La ultima versión del juguete puede emitir rayos de luz coherente con una potencia de 150 kW. Los analistas militares aseguran que es lo suficientemente potente como para confiarle la delicada tarea de derribar misiles enemigos. DARPA piensa usarlo a bordo de aviones. Otros, sin embargo, se permiten ser un poco menos optimistas. Phil Coyle, del Center for Defense Information, no está demasiado convencido sobre la efectividad de este tipo de armas. No es que un láser de semejante potencia no sea un logro impresionante o que no tenga la capacidad de derretir un misil. Pero “una cosa es disparar a un blanco fijo, en un campo de pruebas, y otra muy diferente es lograr enfocar un punto determinado sobre un misil que se mueve a gran velocidad. Esto último es equivalente a tratar de encender leña húmeda con un fósforo”, dice. Puede que Coyle tenga razón. HELLADS es impresionante, pero quizás a la hora de utilizarlo en el campo de batalla resulte un fracaso. ¿Que pasaría si, sabiendo que EE.UU. posee un láser como esta, el enemigo cubre sus misiles con una pintura reflectante? Como ocurre a menudo, las cosas “en el mundo real” pueden ser bastante diferentes a lo que parecen en el tablero de dibujo de un ingeniero. Se requiere una gran dosis de “magia informática” para mantener enfocado un láser que se mueve a Match 2 o 3 sobre un pequeño y escurridizo blanco que se acerca zigzagueando a una velocidad similar. Sin embargo, en DARPA están felices con HELLADS. El tiempo dirá si se trata solamente de otro artilugio loco creado por la agencia, o se convierte en un instrumento de destrucción más de la caja de Pandora que atesora el ejército. Fuente