Thron1
Usuario (Argentina)
Evolución Informática Desde tiempos inmemorables, la humanidad ha desarrollado y usado por su conveniencia o por necesidad, accesorios que le facilitan y abrevian la práctica del cálculo. Ejemplos de estos, han sido los guijarros y los ábacos de civilizaciones antiguas. Ábaco chino Cabe mencionar las tablas de cálculo de amplio uso en la Edad Media y la regla de cálculo. La primera versión de la regla de cálculo aparece en el año de 1620, en Inglaterra a cargo de Edmundo Gunter y William Ougntred; es hasta el año de 1750 cuando Leadbetter le incorpora la regleta imprimiéndole el aspecto actual. Tabla de Cálculo La utilización de accesorios mecánicos ocurre hasta el siglo XVII. Casi simultáneamente, Schickard (1624) y Blaise Pascal (1645), conciben y realizan mecanismos capaces de sumar y construidos con engranajes de 10 dientes, cada diente representaba a uno de los dígitos del 0 al 9. En ambos casos, el mecanismo incorporaba el manejo de los acarreos. En época reciente, se encontró entre los restos del naufragio de una embarcación griega un mecanismo que, en opinión de algunos especialistas, se construyó para facilitar operaciones elementales. Mecanismo Antiguo En el año de 1675 Gottfried Wilhelm von Leibnitz construye, a partir de los mismos principios y con un mayor perfeccionamiento, una máquina que además de realizar las cuatro operaciones elementales, también permitía el cálculo de raíces. Más tarde, al iniciarse el siglo XVIII, Falcón introduce en algunas maquinarias de la época el control automático con el empleo de rollos de papel perforado, recurso que se empleaba en los campanarios y las pianolas para la repetición de ciclos melódicos. Por su parte, el francés Joseph Marie Jacquard introduce en el año de 1811 el control automático en los telares con el uso de tarjetas perforadas. Tarjeta Perforada En 1811 Charles Babbage, un ingeniero inglés, concibe un dispositivo mecánico que denomina ``máquina diferencial'', sin llegar a construirla. Su diseño aprovecha el principio de diferencias finitas para realizar los cálculos. Máquina Diferencial Posteriormente, en el año de 1822, somete a la consideración de la Royal Society, una nueva versión mejorada de su diseño, la ``máquina analítica'', que se empieza a construir en el año de 1840 sin llegar a concluirla, aunque el intento impulsó el desarrollo del instrumental mecánico. En opinión de la mayoría de los especialistas contemporáneos, la máquina analítica de Babbage representa un diseño completo de una computadora que quizá por problemas de tipo financiero, por la falta de tecnología necesaria para realizarlo y también de un ambiente propicio, no se completó en su época. Es opinión unánime que lo ambicioso del proyecto de Babbage, sólo podía realizarse con el concurso de la tecnología electrónica y no con los elementos mecánicos disponibles en su época. Máquina Analítica Posteriormente, Vannevar Bush construye en el período 1925-1931, un calculador analógico. Este enfoque diferente ha sido útil, pero limitado por la poca exactitud en los resultados y la complejidad del modelo. Lo anterior aunado al bajo costo de los circuitos digitales, ha orientado la preferencia en la actualidad hacia los modelos digitales. Cálculo Analógico A partir del año de 1930, Howard Aiken y George R. Stibitz inician el desarrollo de calculadores automáticos a partir de componentes mecánicos y eléctricos. Como resultado de su actividad, se producen 4 calculadores que se designaron con los nombres de MARK-1, MARK-2, MARK-3 y MARK-4, este último, construido en el año de 1945, incorporaba algunos componentes electrónicos (válvulas electrónicas), pero en su mayor parte estaba construido a partir de elementos eléctricos (relevadores) y mecánicos. MARK-1 Estrictamente hablando, el término computadora, que se emplea para designar a los equipos de propósito general que son capaces de realizar cálculos arbitrarios, fue acuñado por el inglés Alan Mathinson Turing con su histórico trabajo ``Computable Numbers'', publicado en 1937, en el cual desarrolla la teoría de las máquinas de Turing, establece la imposibilidad de resolver cierto tipo de problemas, entre otros, el problema de parar un proceso o completar un procedimiento. DÉCADA DE 1950 Los equipos característicos de la déacada del '50, son el UNIVAC I y la IBM 650. La capacidad de la memoria principal se reducía a algunos miles de localidades y era de tipo electrostático. Contaban con tambores magnéticos para almacenamiento y tenían ciclos de operación del orden 1,000 a 10,000 operaciones por segundo. El equipo periférico se limitaba a lectoras y perforadoras de tarjetas y cinta de papel. Empleaban el lenguaje ensamblador como un recurso para depositar el programa en la memoria. El precio ascendía al millón de dólares. UNIVAC I IBM 650 DÉCADA DE 1960 En la década del '60, los equipos característicos son la IBM 704, la IBM 7090, CDC 3600. Utilizaban tubos de vacío miniaturizados y un incipiente empleo de la tecnología de transistor. La capacidad de las memorias se elevó a decenas de miles de localidades y eran de material magnético, el ciclo de operación se incremento un orden de magnitud con respecto a la anterior. CDC 3600 Tubo de Vacío Transitor Hacen su aparición los primeros lenguajes de programación, tanto los orientados al cálculo numérico (FORTRAN), como los orientados a problemas de tipo lógico (no numéricos como LISP, COMIT y IPL V). El equipo periférico se empieza diversificar. Hacen su aparición los primeros sistemas operativos rudimentarios. Los costos no se modificaron sustancialmente, con lo que se obtuvo mayor capacidad de procesamiento por el mismo precio. Los equipos característicos de fines de la década del '60 son la IBM 360, Burroughs 6700, PDP-10, Univac 1100 y CYBER 170. Se afirma el empleo del circuito impreso y se inicia la utilización de memorias de semiconductor. La capacidad de las memorias se elevó a varios cientos de miles de localidades, usualmente de tecnología semiconductor, el ciclo de operación se redujo en uno y hasta dos órdenes de magnitud. Se inicia la diversificación de los lenguajes: COBOL, ALGOL, BASIC, PL/1 y otros entre los de tipo númerico, y SNOBOL, COMIT, PROLOG entre los no numéricos. Se establecen los sistemas operativos y surgen las modalidades de operación en un tiempo compartido y multiprogramación. Se incrementa notablemente la capacidad de los almacenamientos secundarios como consecuencia de los nuevos usos de las computadoras, aplicaciones con elevados volúmenes de información. Hacen su aparición las minicomputadoras y se inicia el uso de las telecomunicaciones. Los costos experimentan desplazamientos en ambas direcciones, entre los diez mil y diez millones de dólares. Burroughs 6700 CYBER 170 DÉCADA DE 1970 Los equipos representativos en la década del '70 son los de las series 43 y 33 de IBM, Burroughs 7900, VAX 11/780 y CRAY. En esta generación no se percibe un cambio sustancial en el panorama, se registra un incremento similar en las capacidades y velocidades de los equipos generalmente en un orden de magnitud en los dos casos. Fundamentalmente las diferencias con relación a los equipos de la generación anterior se registran en la tecnología de construcción. Los costos de los equipos se mantienen. Hacen su aparición los sistemas de bases de datos y se acentúa la participación de las telecomunicaciones. También surge en este período la industria de las microcomputadoras. VAX 11/780 Primeras Microcomputadoras IBM despacha su primer sistema System 370, computadora de cuarta generación. En 1971 se presentan los modelos 370/135 hasta el modelo 370/195. Ese mismo año IBM desarrolla e introduce los floppy disks, que son introducidos para cargar el microcódigo de la IBM 370. Ésta década es considerada la más importante en la evolución informática ya que Intel Corporation presenta el primer microprocesador, el 4004. El procesador sería el componente fundamental en todas las computadoras desde ese momento hasta nuestro presente. IBM - System 370 Floppy Disk Procesador IBM 4004 DÉCADA DE 1980 En la década del '80 suceden hechos considerablemente importantes para la historia del avance informático.La empresa Mycron lanza la primera microcomputadora de 16 bits, llamada Mycron 2000. Se desarrolla el primer microprocesador de 32-bit en un solo chip en Laboratorios Bell, llamado Bellmac-32. Se lanza al mercado el IBM PC, que se convertiría en un éxito comercial, marcaría una revolución en el campo de la computación personal y definiría nuevos estándares. IBM PC Apple presenta el primer computador personal que se vende a gran escala, el Apple II. Apple II Sony crea los disquetes de 3 1/2 pulgadas. Microsoft ofrece la versión 1.0 del procesador de textos Word para DOS. Microsoft WORD 1.0 ARPANET se separa de la red militar que la originó, de modo que, ya sin fines militares, se puede considerar esta fecha como el nacimiento de Internet. ARPANET Aparece el lenguaje de programación C++ diseñado por Bjarne Stroustrup. IBM presenta el PC-AT, con procesador Intel 80286, bus de expansión de 16 bits y 6 Mhz de velocidad. Tenía hasta 512 KB de memoria RAM, un disco duro de 20 MB y un monitor monocromático. Su precio en ese momento era de 5.795 dólares. PC-AT Apple Computer presenta su Macintosh 128K con el sistema operativo Mac OS, el cual introduce la interfaz gráfica ideada en Xerox. Macintosh 128k Uno de los avances más importantes en almacenamiento de información: las compañías Philips y Sony crean los CD-Roms para computadores. CD-ROM Microsoft presenta el sistema operativo Windows 1.0, que luego evolucionaría al sistema operativo más usado en el mundo. Windows 1.0 Se registra la primera patente base de codificación de lo que hoy conocemos como MP3. Compaq pone en venta la PC Compaq Portable II, usaba microprocesador de 8 MHz y 10MB de disco duro, y fue 30% más barata que la IBM PC/AT con disco rígido. Compaq Portable II Creative Labs presenta la reconocida tarjeta de sonido Sound Blaster. DÉCADA DE 1990 En la década del '90 ocurrió la expansión de internet, que dió comienzo a lo que hoy conocemos como "la web". Tim Berners-Lee ideó el hipertexto para crear el World Wide Web (www) una nueva manera de interactuar con Internet. También creó las bases del protocolo de transmisión HTTP, el lenguaje de documentos HTML y el concepto de los URL. World Wide Web Linus Torvalds decidió escribir su propio núcleo de sistema operativo compatible con Unix, y lo llamó Linux. Éste sistema operativo sería la principal competencia de Windows en los años venideros. Linux Surge la primera versión del estándar Unicode. Microsoft lanza Windows 3.1. Windows 3.1 Microsoft lanza al mercado la primera versión del sistema operativo multiusuario de 32 bits (cliente-servidor) Windows NT. En 1995 cambia la historia de los sistemas operativos, Microsoft lanza al mercado (con abundantes fallos pero igualmente impresionante por su avance) Windows 95, que sería la base para todos los sistemas operativos de Microsoft siguientes hasta aparentemente, el Windows 7. Windows 95 En el mismo año se lanza uno de los procesadores claves de Intel, el Pentium Pro . También AMD se inicia en el mercado lanzando su primer microprocesador, el K5. Pentium Pro AMD K5 Aparece la primera versión de MySQL. Inicia el desarrollo del servidor Apache. La implementación original y de referencia del compilador, la máquina virtual y las librerías de clases de Java fueron desarrollados por Sun Microsystems. Se crea y se especifica la versión 1.5 del DVD, base actual del DVD. Se crea Internet2, más veloz que la Internet original. Se publica la primera versión del navegador web Opera. Sabeer Bhatia y Jack Smith fundan HotMail. Internet2 HotMail Luego de Windows 95, es lanzado al mercado el sistema Windows 98 por parte de Microsoft. Windows 98 En 1998 también nace el multitudinario buscador universal, Google, fundado por Larry Page y Sergey Brin. Google BETA Se publica la primera versión de MSN Messenger. Surge Mac OS 9. MSN Messenger MAC OS 9 SIGLO XXI El año 2000 llegó para revolucionar nuevamente a la informática. Primero por el hecho del miedo a la supuesta "crisis informática del 2000", que predicaba que todos los sistemas informáticos colapsarían a causa un problema de programación que al pasar del año 1999 al 2000, retrocederían al año 1900 ya que para ahorrar espacio solo se utilizaban dos caracteres para nombrar al año (por el ejemplo al año 1999 se lo escribía como 99). Por otro lado Microsoft lanza al mercado en éste período los sistemas operativos que usamos en este momento. En el 200 se lanzó el Windows 2000 y luego el Windows Me, que sería un fracaso comercial. Mac no se quedaría atras y lanzaría el sistema operativo Mac OS X. Windows 2000 Windows ME Intel lanza al mercado uno de los procesadores más populares luego del Pentium Pro, el Pentium IV, trabajaba a 1,4 y 1,5 GHz. Pentium IV En el 2001 Microsoft desarrolla como parte de su plataforma .NET el lenguaje de programación C#, que después fue aprobado como un estándar por la ECMA e ISO. En el mismo año se lanza al mercado el mayor éxito de Microsoft hasta el momento, el sistema operativo Windows XP, que por su rapidez y confiabilidad todavía se encuentra en el mercado. Windows XP En el 2002 se lanza al mercado el navegador web mas seguro y más usado del momento, el Mozilla Firefox. Se crea la versión BETA de MediaWiki. Microsoft sigue con lo suyo y lanza el Windows Server 2003 Firefox 1.0 Windows Server 2003 En el 2004nace oficialmente la principal competencia del Windows XP, Ubuntu Linux. En el mismo se construye la que sería la computadora más potente de los siguientes 3 años: la Blue Gene/L construída por IBM, con una tasa de operación de 478,2 billones de operaciones por segundo. Blue Gene/L Ubuntu Linux En el 2005 los usuarios de Internet mediante Banda Ancha superan en número a los usuarios de Internet con Módem. En el mismo año es lanzado el programa Google Earth. AMD lanza el primer procesador oficialmente de Doble Núcleo, el Athlon 64 X2. Hitachi lanza el primer disco duro de 1 Terabyte de capacidad. Athlon 64 X2 Google Earth Disco Duro 1TB El 2006 es un año importantísimo: Se crea Taringa!, una red que ya tiene millones de usuarios en todo el mundo. En el mismo año se lanza al mercado Windows Vista, que aún es criticado por muchos. También Intel lanza su Procesador Doble Núcleo E2-140 Dual-Core Intel E2-140 Taringa! Windows Vista En el 2007Apple lanza al mercado la nueva versión del Mac OS X Leopard 10.5 Se construye la Blue Gene/P, LA COMPUTADORA MÁS POTENTE HASTA EL PRESENTE, con una tasa de operación de 1000 billones de operaciones por segundo, que es lo que podría hacer un hombre en... 177000 años!!! Blue Gene/P Mac OS X Leopard 10.5 En el 2008, Apple lanza al mercado la MacBook Air la cual al parecer es la laptop más delgada del mundo. MacBook Air En el 2009 se expande comercialmente el procesador de computadora de escritorio más eficiente y rápido del mundo: el Intel Core i7 Intel Core i7 BUE AL FIN TERMINÉ DE RECOPILAR LA INFO, ESPERO QUE LES GUSTE Y QUE LES SIRVA... SALUDOSS FUENTE 1 FUENTE 2 FUENTE 3

El Disco del Príncipe Sabu Disco Trilobulado de Sakkara El objeto tiene forma de plato o volante cóncavo, con tres palas curvadas hacia el interior que recuerdan a una hélice de barco, con un orificio en el centro que se asemeja al de las poleas de o las ruedas, y que se puede presuponer como receptor de algún eje. El Príncipe Sabu fue hijo del Faraón Adjuib, correspondiente a la I Dinastía que reinó en Egipto aproximadamente sobre el 3000 A.C. y que junto al enigmático disco del que hablamos, también fueron encontradas varias piezas de cobre en su ajuar fúnebre, lo que indican el gusto refinado y exigente del príncipe ya que el cobre hacía varios siglos que se trataba en Egipto, pero su uso todavía estaba restringido a los personajes más poderosos. La cuestión es que, haciendo mención al disco, “…no se ha conseguido ninguna explicación satisfactoria sobre el curioso diseño de este objeto”. Está fabricado con un material corriente en la época y, pese a su curiosa forma, su desarrollo no requiere de una tecnología futurista ni tiene una perfección que vaya más allá de la de las habilidosas manos que lo tallaron, de modo que su extrañeza para catalogarlo como un “objeto fuera de su tiempo” se basa simplemente en su forma y en nuestra incapacidad para encajarlo dentro de un uso lógico o conocido en la época en que fue construido. El "Sputnick" de Montalcino El satélite de Salimbeni Tras este título tan sugerente se esconde uno de los enigmas pictóricos más controvertidos de los últimos tiempos. En un retablo del siglo XVI aparece un extraño objeto que guarda una tremenda similitud con los primeros satélites artificiales que fueron enviados al espacio. ¿Cómo fue a parar a esta pintura un objeto tecnológicamente imposible hace cuatro siglos? ¿O quizás este objeto no tenga nada que ver con satélites ni tecnologías modernas? Conozcamos algo más sobre el famoso “Sputnik” de Montalcino. Para poder ver este retablo tenemos que viajar hasta la ciudad de Montalcino, a unos cuarenta kilómetros de Siena, en Italia. La pintura se encuentra en la iglesia de San Pedro y fue pintada, junto a otros retablos de la misma iglesia, por el pintor Sienes Ventura Salimbeni, especialista en este tipo de representaciones religiosas. El cuadro se conoce como “La glorificación de la Eucaristía” y fue ejecutado entre 1598 y 1614, junto con el resto de la decoración pictórica de la iglesia que fue renovada en esas fechas. Rodeando a la radiante representación de la hostia eucarística se encuentran los doctores de la iglesia. Curiosamente solo uno de ellos, supuestamente el Papa Clemente VIII, mira hacia arriba y justo ante sus ojos se representa de nuevo una paloma. Pero esta paloma tiene cierto aspecto inmaterial, con transparencias que dejan ver los perfiles del fondo, y justamente se encuentra en la línea que se podría trazar entre los ojos del Papa y el supuesto objetivo de la esfera. ¿Está dibujada esta paloma como una representación holográfica del Espíritu Santo y recreada por la esfera? ¿Se podría interpretar la esfera como un transmisor de conocimientos desde los planos inmateriales a los físicos? Desde que Roberto Cappelli, profesor de Montalcino, se fijó y comenzó a estudiar esta pintura y, en 1972, firmó el primer artículo en la revista Clípeo titulado “¿Un satélite en el paraíso?”, ríos de tinta han corrido sobre este tema. Como suele ocurrir en estos casos, las opiniones de unos y otros suelen ser distantes y confrontadas. Muchos ufólogos defienden la pintura de Salimbeni como la muestra más clara que se puede encontrar de intromisión temporal y tecnológica del futuro en el pasado, o lo que es lo mismo, la muestra de que los viajes en el tiempo serán posibles en un futuro indefinido. El Martillo de Londres El artefacto apareció incrustado en el interior de una roca. La madera se encontraba petrificada y su cabeza de hierro fundida con la piedra que lo alojaba. Ante la escalofriante idea de que el martillo, para terminar en el interior de la roca, debía haberse construido antes de que esta se formase (unos millones de años atrás), los científicos decidieron olvidarla en el Museo Somerwell, de Texas. Posteriormente, análisis realizados sobre el martillo demostraron que el interior del mango estaba carbonizado y que la cabeza (perfectamente formada) había sido construida en hierro con un grado de pureza, solo alcanzable con tecnología moderna. El mango del martillo muestra no haber estado exento en el proceso de “petrificación” que evidencian los árboles de los bosques texanos. El lento proceso de petrificación prehistórica ocurrida en dicha zona, según los geólogos, data de hace 140 millones de años. La cabeza, según estudios del Instituto Metalúrgico de Columbia, está conformada prácticamente en un 97 de hierro puro, un 2 por ciento de cloro y un 1 por ciento de azufre. Asombrosamente también se comprobó que el hierro había sufrido un proceso de purificación y endurecimiento, propios de una metalurgia del siglo XX. Los Discos Dropa Año 1938, Chi Pu Tei comanda una expedición arqueológica por las heladas montañas Baian-Kara-Ula, frontera entre China y el Tíbet. La expedición se adentra en unas cuevas que al punto se muestran no naturales. Un laberinto de túneles y despensas perfectamente tallados y con la peculiaridad de que las paredes están muy bien cuadradas y cristalizadas, como si en la perforación se hubiesen usado fuentes de calor extremo capaces de fundir la roca. En algunas paredes encuentran antiquísimos pictogramas de la cúpula celeste, el sol, la luna y varias estrellas unidas por líneas, como un mapa de carreteras estelar. Profundizando en las cuevas hayan una serie de enterramientos pulcros y cuidados, en ellos descubren los restos de esqueletos que al primer vistazo se asemejan más a primates que a humanos. Cuerpos menudos y de huesos finos, de apenas 130 centímetros de altura y cabezas desproporcionadamente grandes. Claro está, ante la pulcritud de los enterramientos se descarta que sean primates y piensan que deben ser alguna clase de hombres prehistóricos todavía desconocidos. Continuando con la exploración, entre el viejo polvo del suelo, encuentran un extraño disco de unos treinta centímetros de diámetro con un orificio central de unos dos centímetros. Los discos son de una perfección geométrica total y están grabados con un surco en espiral que comienza en el centro para acabar en la parte exterior. A simple vista, son muy parecidos a los antiguos discos de vinilo, pero más toscos y pesados. Estos discos y otros objetos de la expedición quedan catalogados y olvidados en el almacén de la universidad de Beijing, hasta que en 1962, Tsum Um Nui, otro arqueólogo de la universidad los rescata y comienza de nuevo la investigación que le llevará, tiempo atrás, a desencriptar con éxito los jeroglíficos. Los discos contaban estaban escritos por un pueblo que se autodenominaba “Los Dropa” (de ahí el nombre por el que se los conoce ahora), que había llegado de un lejano planeta y que por una avería en su medio de transporte habían acabado en aquel lugar de las montañas, donde los Ham, antigua tribu que moraba en aquel lugar, los atacaron y mataron a muchos de ellos hasta que consiguieron comunicarse con signos y los dejaron en paz. Los Dropa no consiguieron reparar su nave para regresar a su lugar de origen y se quedaron a vivir en la tierra. Quizás por lo espectacular o la rotundidad de lo que se había descubierto, la comunidad científica de todo el mundo se rió literalmente de las conclusiones y traducción de los discos por el Dr. Tsum Um, ridiculizando sus teorías. Y lo más increíble de todo… En las montañas de Baian-Kara-Ula, en nuestros días, viven dos tribus aisladas de pastores nómadas que se auto denominan los Dropa y los Han y que los antropólogos no han logrado emparentar con ninguna morfología de la zona. No son chinos ni tibetanos, los adultos más altos no suelen superar el metro y medio de altura y son de complexión débil y delgada, sus cabezas son grandes, desproporcionadas a sus cuerpos y tienen el pelo ralo, y lo más llamativo sin duda son sus ojos, que no grandes y en la mayoría, de color azul claro. La Esfera negra de Ucrania ¿Antimateria? La esfera ovoide, fue hallada por un trabajador en una cantera de arcilla al oeste de Ucrania, a unos 8 metros de profundidad y en unos estratos datados de hace unos 10 millones de años. El hombre le dio un golpe para partirla y ver su interior, pero tan solo resquebrajó un poco la superficie. El interior parecía estar compuesto de una especie de cristal oscuro. Sin darle demasiada importancia al hallazgo, se lo regaló a su hijo a modo de juguete. El niño, tiempo después y perdido también el interés, lo dejó olvidado en el colegio donde un profesor lo encontró y lo llevó al museo de la localidad, donde se olvidó durante varios años, hasta que el profesor Boris Nikolayevich Naumenko, miembro del Instituto de Física de la Tierra de la Academia Rusa de las Ciencias, reparó en él e intuyó que aquella piedra era algo fuera de lo común. Los estudios geológicos de antigüedad y el estudio de los estratos donde fue encontrada, dataron la piedra en una época cercana a los 10 millones de años de antigüedad. El doctor Formenko llevó a cabo, con una unidad industrial de rayos X RUP 150/300, una radiografía de la esfera, comprobando que el núcleo, semejante a medio huevo, poseía una densidad menor que cero, es decir, se trataba de una masa negativa. ¿Estaban ante la primera muestra de antimateria de la historia? Durante muchos años, decenas científicos han intentado crear de forma artificial núcleos de antimateria en laboratorios, pero nadie lo ha conseguido hasta el momento. Los datos antes expuestos, unidos a que su supuesta antigüedad, están muy lejos del alcance de cualquier actividad humana, deja abierta la posibilidad de que fuera construida por una civilización desconocida hasta la fecha. Obviamente, si se especula con la probabilidad de que la masa del núcleo sea negativa, los doctores rusos han llegado a plantear la hipótesis de que se trate de un depósito de antimateria, empleado –siempre hipotéticamente– como una fuente de energía. La Pila de Bagdad ¿Electrolisis de hace más de 2000 años? Batería de Bagdad es el nombre dado a diversos jarrones fabricados durante el periodo parto (antes del año 226 a. C.), que algunos suponen que funcionaban como una pila eléctrica. En 1936, durante unas excavaciones en una colina de Kujut Rabua, una aldea al sureste de Bagdad (Iraq), los trabajadores del Departamento Estatal Iraquí del Ferrocarril descubrieron una vieja tumba cubierta con una losa de piedra. Durante dos meses, el Departamento Iraquí de Antigüedades extrajo de allí un total de 613 abalorios, figurillas de arcilla, ladrillos cincelados y otras piezas. Fueron fechados en el período de los partos (casi quinientos años entre 248 a. C. y 226 d. C.). También hallaron unos recipientes muy singulares de arcilla, con forma de jarrón y de color amarillo claro. En su interior había un cilindro de cobre, fijado con asfalto a la embocadura del cuello. Dentro del cilindro había una vara de hierro. El recipiente medía 13 cm de alto por 4 cm de diámetro, mientras que el cilindro de cobre medía 9 cm de alto por 2,6 cm de diámetro. La vara de hierro sobresalía 1 centímetro y daba la impresión de haber estado revestida de una fina capa de plomo. Después de la Segunda Guerra Mundial, Willard Gray, ingeniero en electrónica del Laboratorio de Alto Voltaje, de la General Electric Company, de Pittsfield (Massachussets, EE. UU.), fabricó un duplicado de estas baterías y las llenó con sulfato de cobre (aunque declaró que se podría haber usado otro líquido electrolito al alcance de los habitantes de Iraq de la época: zumo de uva corriente). La pila funcionó y generó entre uno y dos voltios. Gray dijo que introdujo además una estatuilla de plata, que en dos horas se volvió dorada. Según él, había demostrado que la batería funcionaba, y que su probable uso era de restaurar objetos de plata. La Máquina de Antiquitera Tecnología perfecta Una tormenta desvió de su ruta un barco griego de pescadores de esponjas poco antes de la Pascua de 1900. Llegaron a la pequeña isla de Antiquitera -a medio camino entre el Peloponeso y Creta- y, cuando se sumergieron, encontraron a 61 metros de profundidad los restos de un barco romano que había naufragado hacia 65 antes de Cristo (aC). Durante año y medio, pioneros de la arqueología submarina sacaron del pecio esculturas de mármol y bronce, ánforas y multitud de pequeños objetos. Cuando examinaba los restos en 1902, Valerios Stais, director del Museo Arqueológico Nacional de Atenas, descubrió una masa de madera y bronce que parecía un artefacto de engranajes. Era una pieza de la máquina de Antiquitera. El aparato es un mecanismo de bronce y madera del tamaño de una caja de zapatos: 31,5 centímetros de longitud, 19 de anchura y 10 de grosor. Originalmente, el sistema de ruedas dentadas estaba protegido por una caja de madera, hoy casi totalmente perdida. Esa caja tenía una puerta frontal y otra trasera, “con inscripciones astronómicas que cubrían la mayor parte del exterior del mecanismo”, explican Michael Edmunds, astrofísico de la Universidad de Cardiff, y sus colaboradores en Nature. Hasta nosotros han llegado 82 fragmentos del aparato, cinco de los cuales incluyen parte de las tapas con las instrucciones. La tecnología del siglo XXI ha permitido ver mejor el estilo de letra de las inscripciones, común entre 150 y 100 aC. Además, ahora es legible el doble de texto que en la época de De Solla Price y eso, junto con el número de dientes de las ruedas, ha ayudado a determinar para qué servía la máquina. El dial frontal se utilizaba para conocer “la posición del Sol y la Luna en el Zodíaco, y un calendario correspondiente de 365 días que podía ajustarse para los años bisiestos”. Los dos diales traseros indicaban el tiempo según dos ciclos astronómicos: el de Calipo -de 76 años y 940 lunaciones- y el de Saros -de 18 años y 223 lunaciones-, usado para predecir eclipses solares y lunares. Además, los autores creen, por las inscripciones, que pudo haber engranajes -hoy perdidos- para vaticinar el movimiento de los planetas. El supuesto constructor griego de la máquina, Hiparco, fue uno de los grandes genios de la Antigüedad. Sucedió a Eratóstenes en la dirección de la Biblioteca de Alejandría y sus hallazgos revolucionaron la astronomía. Elaboró un catálogo de 850 estrellas, clasificadas según su brillo aparente, tal como se hace en la actualidad; midió el año con un error de 6,5 minutos; descubrió la precesión de los equinoccios; calculó la distancia de la Tierra a la Luna con mucha precisión; y -lo más importante en el caso de la máquina de Antiquitera- desarrolló una teoría que explicaba las irregularidades del movimiento de la Luna por el cielo debidas a su órbita elíptica. “Encontramos una plasmación mecánica de esta teoría (sobre el movimiento de la Luna) en el engranaje del mecanismo, lo que revela un grado inesperado de sofisticación técnica para esa época”, indican los autores. La máquina podría ser, según ellos, la plasmación física de algunos de los hallazgos de Hiparco de Nicea, ciudad a la que apuntan como puerto de salida las ánforas y monedas recuperadas del pecio de Antiquitera. Huellas que no deberían existir El coleccionista de fósiles William Meister no podía dar crédito a sus ojos, cuando una mañana de 1968, en compañía de su mujer e hijas, estas le mostraron un sorprendente hallazgo. Se hallaban de excursión en la comarca de Antelope Springs (Utah), recogiendo diversas muestras de trilobites (crustáceos prehistóricos), y al parecer una de sus hijas había hallado en una roca, las huellas petrificadas de dos pisadas de calzado humano. Las marcas perfectamente definidas pertenecían a un tipo de botas puntiagudas y al metro arrojaron las siguientes medidas; 32 cm de largo, 11,25cm de ancho y 7,5 cm de profundidad en su talón. Lo más curioso de la historia, detalle que dejo perplejo y desconcertado al Sr. Meister, es que el tacón del zapato izquierdo había aplastado precisamente un trilobites, y la huella al menos tuvo que ser impresa hace unos 440 millones de año (!). Hecho inconcebible según los expertos, pues la ciencia oficial cifra la aparición de la especie humana hace unos tres millones de años, y tan solo en unos 25000 años en la utilización de un primitivo tipo calzado. En la zona de Glen Rose (Texas), se han hallado huellas de botas y de pies desnudos junto a huellas de dinosaurios (¡), las marcas estaban impresas sobre un estrato geológico de 60 millones de años. Pero estos vestigios no son los únicos que parecen indicar que alguien se paseaba por nuestro planeta en épocas pretéritas desafiando la antigüedad de nuestra especie humana. En el caso de estas huellas existe la posibilidad de que sean una falsificación realizada a principios del siglo XX. Sorprendente fué el hallazgo efectuado por Mary Leakey, esposa del prestigioso antropólogo Louis Leakey. Sucedió en Tanzania en 1979, y sobre las ceniza volcánica del Sadiman, en Laetoli, la intrépida aventurera halló unas pisadas de al menos 3,6 millones de años de antigüedad. Se trataba de un espectacular grupo de huellas de tres individuos que andaban en hilera, y cuyas medidas oscilan entre 21 y 18 centímetros. Pese a que los pies que dejaron aquella impronta, se parecían sobremanera a los nuestros, los expertos determinaron que se trataba de las huellas de un homínido, posiblemente el Australopithecus. La teoría mas extendida y aceptada En el mismo área de Nevada, mas concretamente en Lamos Cave, el profesor Luther S. Cressman, en 1938, encontró 200 pares de sandalias perfectamente tejidas y manufacturadas, que al aplicarseles el método del carbono-14 arrojaron la friolera cifra de 9.000 años de antigüedad. Reloj Suizo de la Dinastía Ming Unos arqueólogos chinos, mientras excavaban en unas tumbas de la dinastía Ming, encontraron un anillo metálico muy similar a los anillos-reloj que se usan hoy en día. Sorprendentemente, en la parte trasera del anillo está grabada la palabra Suiza. Según los arqueólogos, esta tumba estaba completamente sellada desde hace cuatro siglos. Las ahujas del reloj marcan las 10:06. El reloj anillo fue descubierto cuando dos arqueólogos estaban haciendo un documental con dos periodistas de la ciudad de Shangsi. “Cuando tratamos de quitar la tierra alrededor del ataúd, un pedazo de roca de repente cayó y cuando choco con el suelo hizo un sonido metálico,? Dijo Jiang Yanyu, ex curador de la Región Autónoma del museo de Guangxi. “Recogimos el objeto, y encontramos un anillo. Después de la eliminación de la cobertura del suelo y examinar más a fondo, nos quedamos conmocionados de ver que era un reloj”. La excavación se ha suspendido hasta que se resuelva este misterioso hallazgo. ¿Se trata de un nuevo Oopart? ¿Un olvido de algún temponauta? O quizás, la tumba, al contrario de lo que aseguran los arqueólogos, no estuvo sellada durante los cuatro últimos siglos y los saqueadores se pasearon por allí hace un siglo. Nanotecnología de hace 20000 años Desde 1991, prospectores de oro, luego expediciones científicas (comisionadas por el instituto central de investigación científica de geología y de prospección de metales preciosos y no ferrosos de Moscú), descubrieron objetos, metálicos, muchos en forma de espiral, cuyo tamaño varía desde 3 centímetros para los mayores hasta ¡¡¡ 3/1000° de milímetro!!! Millares de esos artefactos han sido encontrados en muchos emplazamientos en la parte oriental de los montes de Ural, en las orillas de varios ríos en unas capas sedimentarias datando del pleistoceno superior, en varias profundidades desde 3 hasta 12 metros. Estos objetos han sido estudiados por la Academia de Ciencias rusa de Syktyvka, Moscú y San Petersburgo, así como por un instituto científico de Helsinki en Finlandia : Los objetos mayores son de cobre, mientras que los pequeños son de tungsteno ( punto de fusión 3410° c. ) o de molibdeno ( punto de fusión 2650° c. ) Según el sitio y la profundidad en donde se encontraron, la antigüedad de estos objetos se estima entre ¡¡¡ 20 000 y 318 000 años !!! El Instituto de Moscú publicó un informe pericial n° 18/485 del 29/11/96 que concluye : ” Los datos obtenidos permiten pensar en la posibilidad de una tecnología de origen extraterrestre. “ Las Piedras de Ica En un lugar de Perú, en un desierto blando y pedregoso del Departamento de Ica, un médico peruano descubrió la más estremecedora, rotunda y completa prueba de la existencia de otra civilización que pobló el planeta no hace miles, sino millones de años. Esta vez y para asombro de muchos se traba de pruebas materiales, miles de pruebas. Corría el mes de Mayo del año 1.966. Al consultorio del doctor Javier Cabrera, situado en la Plaza de Armas del pueblo de Ica, llegó su amigo Félix Llosa Romero, llevándole un regalo. Se trataba de una piedra ovalada, de color negruzco y aristas redondeadas; tenía grabada en una de sus caras la imagen de un extraño pez y su peso era mayor del que, a primera vista, correspondía a su tamaño. Quedará muy bien como pisapapeles en tu escritorio, dijo Llosa, también le dijo que su hermano poseía una gran colección, proveniente del caserío de Ocucaje, donde un huaquero (Campesino que realiza excavaciones arqueológicas clandestinas) las extraía por docenas. En su enorme colección, el doctor Cabrera ha clasificado las piedras en diversos grupos, según los símbolos que presentan. Hay series que tratan de temas técnicos, otras de temas médicos, geográficos, antropológicos, zoológicos, etc. Hay series de piedras que describen con todo detalle la evolución de los dinosaurios, desde el huevo hasta la completa madurez; otras que relatan las incidencias de complejas intervenciones, y otras que explican con todo detalle cómo era el planeta Tierra antes de las grandes convulsiones geológicas que le imprimieron su conformación actual. A partir de sus interpretaciones de los dibujos grabados en las piedras, afirma que esa humanidad gliptolítica fue creada por una raza superior que llegó a la Tierra desde algún lugar del cosmos. Al llegar a nuestro planeta, esa raza no halló vida inteligente, y decidió crearla a partir de un primate emparentado con el Lemur, llamado Notharcus, que se extinguió hace 50 millones de años. Uno de los elementos que confirman la creencia del doctor Cabrera, es una piedra donde está labrado un mapa del mundo tal como era en el período terciario (esta piedra está representada en la portada de su libro, reproducida en página 461). Allí, la forma y la disposición de los continentes es completamente diferente de la actual, y considerando que la geología no supo hasta fines del siglo XIX y principios del XX que los grandes cataclismos de fines del terciario habían provocado cambios espectaculares en la forma y disposición de los continentes, el doctor Cabrera sostiene, que esa piedra sólo pudo ser labrada por hombres que vivieron en un planeta con esa configuración y que, además, poseían los medios técnicos necesarios para recorrerlo y observarlo desde grandes alturas. FUENTE
En este post voy a enumerar lo que sería el futuro de la propulsión interestelar, lo que nos daría la capacidad para poder conocer lo que el ser humano busco desde siempre: viajar hacia otros sistemas estelares. Un poco de historia primero... El primer viaje interestelar no tripulado se inició en 1983 cuando la sonda Pioneer-10 abandonó el sistema solar. El tránsito que la llevó hasta los confines del sistema solar había durado once años. Pioneer 10 Entre las naves con trayectoria interestelar, también se hallan las Voyager 1 y 2. Estas naves transportan mensajes e información sobre la Tierra y la civilización humana, destinados a eventuales entidades inteligentes extraterrestres. Pero el tiempo que tardarán en alcanzar las "inmediaciones" de una estrella, supera la edad de nuestra civilización. La propulsión química está claramente obsoleta para un viaje interestelar, incluso con la ayuda de la aceleración obtenida por la atracción gravitatoria de los planetas. Se plantea la necesidad de nuevos métodos de propulsión para efectuar viajes interestelares viables. Voyager 2 PROPULSION IONICA Funciona a base de la repulsión entre átomos ionizados. El empuje que suministra es minúsculo, pero lo hace durante un larguísimo período de tiempo. Es decir que, aunque incapaz de despegar o aterrizar, permite acelerar la nave poco a poco en el espacio. Su perfil de respuesta la hace ideal para largos viajes. Sin embargo, aunque óptima para propulsar pequeñas cargas, se muestra poco prometedora para vehículos de gran masa. VELA SOLAR El viento solar es el flujo de partículas proyectadas por la magnetosfera del Sol. Una amplia estructura de membranas ultraligeras permite recoger el choque de esas partículas de manera suficientemente válida como para impulsar la nave. El perfil de respuesta es semejante al de la propulsión iónica; es decir, un débil empuje durante un largo período de tiempo. A mayor lejanía del Sol, sería cada vez más ineficaz, y el resto del viaje debería completarse por inercia una vez obtenida la velocidad de escape solar. Se pueden alcanzar velocidades hasta 2/3 la de la luz. Una variante de este sistema es la Vela Láser: Desde el Sistema Tierra-Luna, un descomunal generador alimentado por paneles solares, proyectaría permanentemente un haz láser en dirección a la nave en tránsito interestelar. La presión de la luz aceleraría el vehículo hasta la velocidad requerida. PROPULSION NUCLEAR TERMICA Con un reactor de fisión similar en concepto al de las centrales nucleares, es posible calentar gases a temperaturas elevadísimas, los cuales salen a chorro por la tobera. El perfil de respuesta es semejante al de la propulsión química, pero con mayor empuje. Permite despegar desde la Tierra y acelerar rápidamente en el espacio. RAMJET COSMICO El aprovechamiento de los átomos libres en el espacio como combustible para una cosmonave, resulta muy atractivo, porque de este modo podría prescindirse de transportarlo a bordo, y además la cantidad disponible sería ilimitada. Tengamos en cuenta que la configuración típica de una nave interestelar autopropulsada es en su mayor parte depósitos de combustible, y una pequeñísima carga útil. Una nave que utilizara este sistema funcionaría como un gigantesco embudo, que merced a un descomunal campo electromagnético atraería las partículas del espacio circundante hacia el interior del colector que desembocaría en el reactor nuclear. Este tendría así asegurado su combustible y podría continuar propulsando la nave y generando el campo electromagnético. El principal problema que se plantea es la enormidad del área necesaria para capturar materia en el "vacío", que para un vehículo de mil toneladas debería tener un radio de unos dos mil kilómetros. Semejantes campos magnéticos y estructuras entran en conflicto con las posibilidades actuales de la ingeniería. EL PROYECTO DEDALO El más factible es el proyecto Dédalo, del que ya existen estudios técnicos teóricos, que demuestran, al menos en apariencia, la viabilidad de una cosmonave así con tecnología de finales del siglo 21. Su peso de cien mil toneladas nos puede asustar si tenemos en cuenta que ninguna astronave ha llegado ni siquiera a las mil, incluídos el complejo orbital MIR y la grandiosa estación Skylab. Pero sin embargo, es lo que pesa un transatlántico, un portaaviones, o un buque petrolero. Por tanto, Dédalo entra en las posibilidades de la ingeniería. Utilizando un reactor nuclear de fusión, obtendrá la energía fusionando Hidrógeno-2 y Helio-3 en Helio-4. La escasez de Helio-3 en la Tierra y su abundancia en Júpiter, aconsejan llenar los tanques en órbita del planeta gigante. Dédalo será montada allí. Una vez puesta a punto, abandonará la órbita de aparcamiento y se zambullirá en el océano interestelar. Después de un tiempo de impulso de 46 meses, se hallará a 77 días-luz de nuestro sistema solar, y habrá logrado una velocidad de un octavo de la de la luz. Con esta velocidad le será posible completar el resto del trayecto por inercia. Su objetivo será la estrella Barnard, a casi 6 años-luz de distancia, que alcanzará después de un tránsito de 52 años. Cruzará este sistema solar obteniendo datos de la estrella y los planetas. La información será retransmitida hacia la Tierra, donde se captará 6 años después mediante una red de radiotelescopios en superficie o en el espacio. La sonda Dédalo deberá estar controlada por una computadora capaz de prescindir de las instrucciones humanas y con una vida superior al medio siglo de funcionamiento. Se escogió la estrella Barnard como objetivo debido a los planetas supuestamente detectados a su alrededor, y también por tratarse de una estrella muchísimo más antigua que el Sol y el grupo local. LAS FUENTES DE ENERGIA La fusión nuclear es la energía que hace funcionar a las estrellas. Un reactor de fusión no es ni más ni menos que un sol artificial. Pero sin embargo, tan colosal energía se queda corta ante las necesidades energéticas que precisan proyectos más ambiciosos de viaje, o el alcanzar velocidades muy próximas a la de la luz. La demanda energética del Hombre va más allá de las energías que operan en el universo, y le llevan a explorar métodos de producción de energía aún más poderosos que la fusión nuclear, de entre los que destaca el más titánico de todos: La interacción entre Materia y Antimateria. Hasta donde sabemos, no existe antimateria de modo natural y estable en nuestro universo. Se cree que la hubo durante el Big Bang y los primeros momentos de existencia del universo. Su poder energético al reaccionar con la materia es descomunal, mucho más allá que cualquier reacción nuclear. Un accidente con antimateria a bordo de un vehículo en órbita a la Tierra, podría devastar nuestro mundo. OTROS CONCEPTOS DE VIAJE Hasta ahora, todos los métodos de propulsión que hemos visto adolecen de la misma limitación: el viaje se realiza a velocidad no mayor que la de la luz. Con esa velocidad no parece viable realizar más que pequeñas excursiones locales en un radio de unos 50-100 años-luz, quedando casi descartadas las expediciones cósmicas tripuladas, y por supuesto los viajes extragalácticos. Para afrontar estas metas tan ambiciosas, hay que abordar nuevos y revolucionarios conceptos de viaje, cuya aparente demanda energética hace incluso que la reacción materia-antimateria resulte bastante pobre. CONVERSION DE MATERIA A TAQUIONES: EL VIAJE A MAYOR VELOCIDAD QUE LA DE LA LUZ Las partículas que forman la materia no pueden moverse a velocidad mayor que la de la luz, debido a que tienen masa. Los fotones poseen lo que se llama "masa en reposo cero", y no pueden moverse, en el vacío, ni por encima ni por debajo de esa velocidad. Una partícula teórica, el taquión, tendría unas características más allá de las de la "masa en reposo cero", es decir que sólo podría moverse por encima de la velocidad de la luz. Además, la repercusión de su energía sobre su velocidad respondería a un modelo inverso al de nuestras partículas. A menor energía, mayor velocidad. En teoría, si su energía fuese cero, su velocidad se dispararía hasta el infinito, y desaparecería en la nada (al salir del universo). Cuanto mayor fuese su energía, menor sería su velocidad. Con una energía virtualmente ilimitada, lograría ralentizarse hasta alcanzar la frontera de la velocidad de la luz. La conversión de partículas materiales en taquiones, y la posterior reconversión de taquiones en partículas materiales, podría permitir a una cosmonave viajar por encima de la velocidad de la luz, convertida temporalmente en una estructura inmaterial, en un "fantasma" avanzando por un universo distinto del normal. DISTORSION GRAVITATORIA DEL ESPACIO-TIEMPO: VIAJAR SIN MOVERSE Para alcanzar distancias realmente lejanas, deberíamos abandonar el concepto que tenemos de viaje, que implica el movimiento a través del espacio. Sería posible viajar sin moverse, si modificásemos a nuestro antojo el espacio-tiempo. Esto nos permitiría tender puentes relativistas, conectar dos puntos distantes del universo para pasar de uno a otro como se cruza un umbral. Imaginemos que el universo tiene sólo dos dimensiones y es un mantel cuadriculado en letras y números. Estamos en la fila A y queremos viajar hasta la Z. El viaje convencional consistiría en movernos a través de B, de C, de D, hasta al cabo de muchos millones de años llegar por fin a Z. Pero ¿qué ocurriría si levantásemos el mantel y lo doblásemos hasta unir las filas A y Z?. Bien, en ese caso, A y Z pasarían a ser correlativas, al menos mientras mantuviéramos el mantel en esas peculiares condiciones, con lo cual cruzaríamos directamente de A a Z, sin habernos movido a través del espacio intermedio. Hasta ahora, la única fuerza que conocemos capaz de deformar el espacio-tiempo, es la gravedad. La naturaleza de la gravedad es hoy por hoy desconocida. Un sector de la comunidad científica la considera como un flujo de partículas a las que se llama gravitones. Si pudiésemos alterar a nuestro antojo la densidad de un cuerpo de gran masa, tendríamos un agujero negro artificial, cuya gravedad quizá podríamos enfocar, mediante métodos adecuados, hacia el punto a donde quisiéramos viajar. Volviendo al ejemplo del mantel, en A se establecería durante unos "instantes" un agujero negro, y en Z un agujero blanco. Bueno espero que les haya gustado, a mi me parecio bastante interesante asi que seguro a ustedes tambien... Adioss Fuente: http://www.inteligenciaartificial.cl/ciencia/interestelar/astronautica.htm
En este post voy a enumerar lo que sería el futuro de la propulsión interestelar, lo que nos daría la capacidad para poder conocer lo que el ser humano busco desde siempre: viajar hacia otros sistemas estelares. Un poco de historia primero... El primer viaje interestelar no tripulado se inició en 1983 cuando la sonda Pioneer-10 abandonó el sistema solar. El tránsito que la llevó hasta los confines del sistema solar había durado once años. Pioneer 10 Entre las naves con trayectoria interestelar, también se hallan las Voyager 1 y 2. Estas naves transportan mensajes e información sobre la Tierra y la civilización humana, destinados a eventuales entidades inteligentes extraterrestres. Pero el tiempo que tardarán en alcanzar las "inmediaciones" de una estrella, supera la edad de nuestra civilización. La propulsión química está claramente obsoleta para un viaje interestelar, incluso con la ayuda de la aceleración obtenida por la atracción gravitatoria de los planetas. Se plantea la necesidad de nuevos métodos de propulsión para efectuar viajes interestelares viables. Voyager 2 PROPULSION IONICA Funciona a base de la repulsión entre átomos ionizados. El empuje que suministra es minúsculo, pero lo hace durante un larguísimo período de tiempo. Es decir que, aunque incapaz de despegar o aterrizar, permite acelerar la nave poco a poco en el espacio. Su perfil de respuesta la hace ideal para largos viajes. Sin embargo, aunque óptima para propulsar pequeñas cargas, se muestra poco prometedora para vehículos de gran masa. VELA SOLAR El viento solar es el flujo de partículas proyectadas por la magnetosfera del Sol. Una amplia estructura de membranas ultraligeras permite recoger el choque de esas partículas de manera suficientemente válida como para impulsar la nave. El perfil de respuesta es semejante al de la propulsión iónica; es decir, un débil empuje durante un largo período de tiempo. A mayor lejanía del Sol, sería cada vez más ineficaz, y el resto del viaje debería completarse por inercia una vez obtenida la velocidad de escape solar. Se pueden alcanzar velocidades hasta 2/3 la de la luz. Una variante de este sistema es la Vela Láser: Desde el Sistema Tierra-Luna, un descomunal generador alimentado por paneles solares, proyectaría permanentemente un haz láser en dirección a la nave en tránsito interestelar. La presión de la luz aceleraría el vehículo hasta la velocidad requerida. PROPULSION NUCLEAR TERMICA Con un reactor de fisión similar en concepto al de las centrales nucleares, es posible calentar gases a temperaturas elevadísimas, los cuales salen a chorro por la tobera. El perfil de respuesta es semejante al de la propulsión química, pero con mayor empuje. Permite despegar desde la Tierra y acelerar rápidamente en el espacio. RAMJET COSMICO El aprovechamiento de los átomos libres en el espacio como combustible para una cosmonave, resulta muy atractivo, porque de este modo podría prescindirse de transportarlo a bordo, y además la cantidad disponible sería ilimitada. Tengamos en cuenta que la configuración típica de una nave interestelar autopropulsada es en su mayor parte depósitos de combustible, y una pequeñísima carga útil. Una nave que utilizara este sistema funcionaría como un gigantesco embudo, que merced a un descomunal campo electromagnético atraería las partículas del espacio circundante hacia el interior del colector que desembocaría en el reactor nuclear. Este tendría así asegurado su combustible y podría continuar propulsando la nave y generando el campo electromagnético. El principal problema que se plantea es la enormidad del área necesaria para capturar materia en el "vacío", que para un vehículo de mil toneladas debería tener un radio de unos dos mil kilómetros. Semejantes campos magnéticos y estructuras entran en conflicto con las posibilidades actuales de la ingeniería. EL PROYECTO DEDALO El más factible es el proyecto Dédalo, del que ya existen estudios técnicos teóricos, que demuestran, al menos en apariencia, la viabilidad de una cosmonave así con tecnología de finales del siglo 21. Su peso de cien mil toneladas nos puede asustar si tenemos en cuenta que ninguna astronave ha llegado ni siquiera a las mil, incluídos el complejo orbital MIR y la grandiosa estación Skylab. Pero sin embargo, es lo que pesa un transatlántico, un portaaviones, o un buque petrolero. Por tanto, Dédalo entra en las posibilidades de la ingeniería. Utilizando un reactor nuclear de fusión, obtendrá la energía fusionando Hidrógeno-2 y Helio-3 en Helio-4. La escasez de Helio-3 en la Tierra y su abundancia en Júpiter, aconsejan llenar los tanques en órbita del planeta gigante. Dédalo será montada allí. Una vez puesta a punto, abandonará la órbita de aparcamiento y se zambullirá en el océano interestelar. Después de un tiempo de impulso de 46 meses, se hallará a 77 días-luz de nuestro sistema solar, y habrá logrado una velocidad de un octavo de la de la luz. Con esta velocidad le será posible completar el resto del trayecto por inercia. Su objetivo será la estrella Barnard, a casi 6 años-luz de distancia, que alcanzará después de un tránsito de 52 años. Cruzará este sistema solar obteniendo datos de la estrella y los planetas. La información será retransmitida hacia la Tierra, donde se captará 6 años después mediante una red de radiotelescopios en superficie o en el espacio. La sonda Dédalo deberá estar controlada por una computadora capaz de prescindir de las instrucciones humanas y con una vida superior al medio siglo de funcionamiento. Se escogió la estrella Barnard como objetivo debido a los planetas supuestamente detectados a su alrededor, y también por tratarse de una estrella muchísimo más antigua que el Sol y el grupo local. LAS FUENTES DE ENERGIA La fusión nuclear es la energía que hace funcionar a las estrellas. Un reactor de fusión no es ni más ni menos que un sol artificial. Pero sin embargo, tan colosal energía se queda corta ante las necesidades energéticas que precisan proyectos más ambiciosos de viaje, o el alcanzar velocidades muy próximas a la de la luz. La demanda energética del Hombre va más allá de las energías que operan en el universo, y le llevan a explorar métodos de producción de energía aún más poderosos que la fusión nuclear, de entre los que destaca el más titánico de todos: La interacción entre Materia y Antimateria. Hasta donde sabemos, no existe antimateria de modo natural y estable en nuestro universo. Se cree que la hubo durante el Big Bang y los primeros momentos de existencia del universo. Su poder energético al reaccionar con la materia es descomunal, mucho más allá que cualquier reacción nuclear. Un accidente con antimateria a bordo de un vehículo en órbita a la Tierra, podría devastar nuestro mundo. OTROS CONCEPTOS DE VIAJE Hasta ahora, todos los métodos de propulsión que hemos visto adolecen de la misma limitación: el viaje se realiza a velocidad no mayor que la de la luz. Con esa velocidad no parece viable realizar más que pequeñas excursiones locales en un radio de unos 50-100 años-luz, quedando casi descartadas las expediciones cósmicas tripuladas, y por supuesto los viajes extragalácticos. Para afrontar estas metas tan ambiciosas, hay que abordar nuevos y revolucionarios conceptos de viaje, cuya aparente demanda energética hace incluso que la reacción materia-antimateria resulte bastante pobre. CONVERSION DE MATERIA A TAQUIONES: EL VIAJE A MAYOR VELOCIDAD QUE LA DE LA LUZ Las partículas que forman la materia no pueden moverse a velocidad mayor que la de la luz, debido a que tienen masa. Los fotones poseen lo que se llama "masa en reposo cero", y no pueden moverse, en el vacío, ni por encima ni por debajo de esa velocidad. Una partícula teórica, el taquión, tendría unas características más allá de las de la "masa en reposo cero", es decir que sólo podría moverse por encima de la velocidad de la luz. Además, la repercusión de su energía sobre su velocidad respondería a un modelo inverso al de nuestras partículas. A menor energía, mayor velocidad. En teoría, si su energía fuese cero, su velocidad se dispararía hasta el infinito, y desaparecería en la nada (al salir del universo). Cuanto mayor fuese su energía, menor sería su velocidad. Con una energía virtualmente ilimitada, lograría ralentizarse hasta alcanzar la frontera de la velocidad de la luz. La conversión de partículas materiales en taquiones, y la posterior reconversión de taquiones en partículas materiales, podría permitir a una cosmonave viajar por encima de la velocidad de la luz, convertida temporalmente en una estructura inmaterial, en un "fantasma" avanzando por un universo distinto del normal. DISTORSION GRAVITATORIA DEL ESPACIO-TIEMPO: VIAJAR SIN MOVERSE Para alcanzar distancias realmente lejanas, deberíamos abandonar el concepto que tenemos de viaje, que implica el movimiento a través del espacio. Sería posible viajar sin moverse, si modificásemos a nuestro antojo el espacio-tiempo. Esto nos permitiría tender puentes relativistas, conectar dos puntos distantes del universo para pasar de uno a otro como se cruza un umbral. Imaginemos que el universo tiene sólo dos dimensiones y es un mantel cuadriculado en letras y números. Estamos en la fila A y queremos viajar hasta la Z. El viaje convencional consistiría en movernos a través de B, de C, de D, hasta al cabo de muchos millones de años llegar por fin a Z. Pero ¿qué ocurriría si levantásemos el mantel y lo doblásemos hasta unir las filas A y Z?. Bien, en ese caso, A y Z pasarían a ser correlativas, al menos mientras mantuviéramos el mantel en esas peculiares condiciones, con lo cual cruzaríamos directamente de A a Z, sin habernos movido a través del espacio intermedio. Hasta ahora, la única fuerza que conocemos capaz de deformar el espacio-tiempo, es la gravedad. La naturaleza de la gravedad es hoy por hoy desconocida. Un sector de la comunidad científica la considera como un flujo de partículas a las que se llama gravitones. Si pudiésemos alterar a nuestro antojo la densidad de un cuerpo de gran masa, tendríamos un agujero negro artificial, cuya gravedad quizá podríamos enfocar, mediante métodos adecuados, hacia el punto a donde quisiéramos viajar. Volviendo al ejemplo del mantel, en A se establecería durante unos "instantes" un agujero negro, y en Z un agujero blanco. Bueno espero que les haya gustado, a mi me parecio bastante interesante asi que seguro a ustedes tambien... Adioss Fuente: http://www.inteligenciaartificial.cl/ciencia/interestelar/astronautica.htm
Evolución Informática Desde tiempos inmemorables, la humanidad ha desarrollado y usado por su conveniencia o por necesidad, accesorios que le facilitan y abrevian la práctica del cálculo. Ejemplos de estos, han sido los guijarros y los ábacos de civilizaciones antiguas. Ábaco chino Cabe mencionar las tablas de cálculo de amplio uso en la Edad Media y la regla de cálculo. La primera versión de la regla de cálculo aparece en el año de 1620, en Inglaterra a cargo de Edmundo Gunter y William Ougntred; es hasta el año de 1750 cuando Leadbetter le incorpora la regleta imprimiéndole el aspecto actual. Tabla de Cálculo La utilización de accesorios mecánicos ocurre hasta el siglo XVII. Casi simultáneamente, Schickard (1624) y Blaise Pascal (1645), conciben y realizan mecanismos capaces de sumar y construidos con engranajes de 10 dientes, cada diente representaba a uno de los dígitos del 0 al 9. En ambos casos, el mecanismo incorporaba el manejo de los acarreos. En época reciente, se encontró entre los restos del naufragio de una embarcación griega un mecanismo que, en opinión de algunos especialistas, se construyó para facilitar operaciones elementales. Mecanismo Antiguo En el año de 1675 Gottfried Wilhelm von Leibnitz construye, a partir de los mismos principios y con un mayor perfeccionamiento, una máquina que además de realizar las cuatro operaciones elementales, también permitía el cálculo de raíces. Más tarde, al iniciarse el siglo XVIII, Falcón introduce en algunas maquinarias de la época el control automático con el empleo de rollos de papel perforado, recurso que se empleaba en los campanarios y las pianolas para la repetición de ciclos melódicos. Por su parte, el francés Joseph Marie Jacquard introduce en el año de 1811 el control automático en los telares con el uso de tarjetas perforadas. Tarjeta Perforada En 1811 Charles Babbage, un ingeniero inglés, concibe un dispositivo mecánico que denomina ``máquina diferencial'', sin llegar a construirla. Su diseño aprovecha el principio de diferencias finitas para realizar los cálculos. Máquina Diferencial Posteriormente, en el año de 1822, somete a la consideración de la Royal Society, una nueva versión mejorada de su diseño, la ``máquina analítica'', que se empieza a construir en el año de 1840 sin llegar a concluirla, aunque el intento impulsó el desarrollo del instrumental mecánico. En opinión de la mayoría de los especialistas contemporáneos, la máquina analítica de Babbage representa un diseño completo de una computadora que quizá por problemas de tipo financiero, por la falta de tecnología necesaria para realizarlo y también de un ambiente propicio, no se completó en su época. Es opinión unánime que lo ambicioso del proyecto de Babbage, sólo podía realizarse con el concurso de la tecnología electrónica y no con los elementos mecánicos disponibles en su época. Máquina Analítica Posteriormente, Vannevar Bush construye en el período 1925-1931, un calculador analógico. Este enfoque diferente ha sido útil, pero limitado por la poca exactitud en los resultados y la complejidad del modelo. Lo anterior aunado al bajo costo de los circuitos digitales, ha orientado la preferencia en la actualidad hacia los modelos digitales. Cálculo Analógico A partir del año de 1930, Howard Aiken y George R. Stibitz inician el desarrollo de calculadores automáticos a partir de componentes mecánicos y eléctricos. Como resultado de su actividad, se producen 4 calculadores que se designaron con los nombres de MARK-1, MARK-2, MARK-3 y MARK-4, este último, construido en el año de 1945, incorporaba algunos componentes electrónicos (válvulas electrónicas), pero en su mayor parte estaba construido a partir de elementos eléctricos (relevadores) y mecánicos. MARK-1 Estrictamente hablando, el término computadora, que se emplea para designar a los equipos de propósito general que son capaces de realizar cálculos arbitrarios, fue acuñado por el inglés Alan Mathinson Turing con su histórico trabajo ``Computable Numbers'', publicado en 1937, en el cual desarrolla la teoría de las máquinas de Turing, establece la imposibilidad de resolver cierto tipo de problemas, entre otros, el problema de parar un proceso o completar un procedimiento. DÉCADA DE 1950 Los equipos característicos de la déacada del '50, son el UNIVAC I y la IBM 650. La capacidad de la memoria principal se reducía a algunos miles de localidades y era de tipo electrostático. Contaban con tambores magnéticos para almacenamiento y tenían ciclos de operación del orden 1,000 a 10,000 operaciones por segundo. El equipo periférico se limitaba a lectoras y perforadoras de tarjetas y cinta de papel. Empleaban el lenguaje ensamblador como un recurso para depositar el programa en la memoria. El precio ascendía al millón de dólares. UNIVAC I IBM 650 DÉCADA DE 1960 En la década del '60, los equipos característicos son la IBM 704, la IBM 7090, CDC 3600. Utilizaban tubos de vacío miniaturizados y un incipiente empleo de la tecnología de transistor. La capacidad de las memorias se elevó a decenas de miles de localidades y eran de material magnético, el ciclo de operación se incremento un orden de magnitud con respecto a la anterior. CDC 3600 Tubo de Vacío Transitor Hacen su aparición los primeros lenguajes de programación, tanto los orientados al cálculo numérico (FORTRAN), como los orientados a problemas de tipo lógico (no numéricos como LISP, COMIT y IPL V). El equipo periférico se empieza diversificar. Hacen su aparición los primeros sistemas operativos rudimentarios. Los costos no se modificaron sustancialmente, con lo que se obtuvo mayor capacidad de procesamiento por el mismo precio. Los equipos característicos de fines de la década del '60 son la IBM 360, Burroughs 6700, PDP-10, Univac 1100 y CYBER 170. Se afirma el empleo del circuito impreso y se inicia la utilización de memorias de semiconductor. La capacidad de las memorias se elevó a varios cientos de miles de localidades, usualmente de tecnología semiconductor, el ciclo de operación se redujo en uno y hasta dos órdenes de magnitud. Se inicia la diversificación de los lenguajes: COBOL, ALGOL, BASIC, PL/1 y otros entre los de tipo númerico, y SNOBOL, COMIT, PROLOG entre los no numéricos. Se establecen los sistemas operativos y surgen las modalidades de operación en un tiempo compartido y multiprogramación. Se incrementa notablemente la capacidad de los almacenamientos secundarios como consecuencia de los nuevos usos de las computadoras, aplicaciones con elevados volúmenes de información. Hacen su aparición las minicomputadoras y se inicia el uso de las telecomunicaciones. Los costos experimentan desplazamientos en ambas direcciones, entre los diez mil y diez millones de dólares. Burroughs 6700 CYBER 170 DÉCADA DE 1970 Los equipos representativos en la década del '70 son los de las series 43 y 33 de IBM, Burroughs 7900, VAX 11/780 y CRAY. En esta generación no se percibe un cambio sustancial en el panorama, se registra un incremento similar en las capacidades y velocidades de los equipos generalmente en un orden de magnitud en los dos casos. Fundamentalmente las diferencias con relación a los equipos de la generación anterior se registran en la tecnología de construcción. Los costos de los equipos se mantienen. Hacen su aparición los sistemas de bases de datos y se acentúa la participación de las telecomunicaciones. También surge en este período la industria de las microcomputadoras. VAX 11/780 Primeras Microcomputadoras IBM despacha su primer sistema System 370, computadora de cuarta generación. En 1971 se presentan los modelos 370/135 hasta el modelo 370/195. Ese mismo año IBM desarrolla e introduce los floppy disks, que son introducidos para cargar el microcódigo de la IBM 370. Ésta década es considerada la más importante en la evolución informática ya que Intel Corporation presenta el primer microprocesador, el 4004. El procesador sería el componente fundamental en todas las computadoras desde ese momento hasta nuestro presente. IBM - System 370 Floppy Disk Procesador IBM 4004 DÉCADA DE 1980 En la década del '80 suceden hechos considerablemente importantes para la historia del avance informático.La empresa Mycron lanza la primera microcomputadora de 16 bits, llamada Mycron 2000. Se desarrolla el primer microprocesador de 32-bit en un solo chip en Laboratorios Bell, llamado Bellmac-32. Se lanza al mercado el IBM PC, que se convertiría en un éxito comercial, marcaría una revolución en el campo de la computación personal y definiría nuevos estándares. IBM PC Apple presenta el primer computador personal que se vende a gran escala, el Apple II. Apple II Sony crea los disquetes de 3 1/2 pulgadas. Microsoft ofrece la versión 1.0 del procesador de textos Word para DOS. Microsoft WORD 1.0 ARPANET se separa de la red militar que la originó, de modo que, ya sin fines militares, se puede considerar esta fecha como el nacimiento de Internet. ARPANET Aparece el lenguaje de programación C++ diseñado por Bjarne Stroustrup. IBM presenta el PC-AT, con procesador Intel 80286, bus de expansión de 16 bits y 6 Mhz de velocidad. Tenía hasta 512 KB de memoria RAM, un disco duro de 20 MB y un monitor monocromático. Su precio en ese momento era de 5.795 dólares. PC-AT Apple Computer presenta su Macintosh 128K con el sistema operativo Mac OS, el cual introduce la interfaz gráfica ideada en Xerox. Macintosh 128k Uno de los avances más importantes en almacenamiento de información: las compañías Philips y Sony crean los CD-Roms para computadores. CD-ROM Microsoft presenta el sistema operativo Windows 1.0, que luego evolucionaría al sistema operativo más usado en el mundo. Windows 1.0 Se registra la primera patente base de codificación de lo que hoy conocemos como MP3. Compaq pone en venta la PC Compaq Portable II, usaba microprocesador de 8 MHz y 10MB de disco duro, y fue 30% más barata que la IBM PC/AT con disco rígido. Compaq Portable II Creative Labs presenta la reconocida tarjeta de sonido Sound Blaster. DÉCADA DE 1990 En la década del '90 ocurrió la expansión de internet, que dió comienzo a lo que hoy conocemos como "la web". Tim Berners-Lee ideó el hipertexto para crear el World Wide Web (www) una nueva manera de interactuar con Internet. También creó las bases del protocolo de transmisión HTTP, el lenguaje de documentos HTML y el concepto de los URL. World Wide Web Linus Torvalds decidió escribir su propio núcleo de sistema operativo compatible con Unix, y lo llamó Linux. Éste sistema operativo sería la principal competencia de Windows en los años venideros. Linux Surge la primera versión del estándar Unicode. Microsoft lanza Windows 3.1. Windows 3.1 Microsoft lanza al mercado la primera versión del sistema operativo multiusuario de 32 bits (cliente-servidor) Windows NT. En 1995 cambia la historia de los sistemas operativos, Microsoft lanza al mercado (con abundantes fallos pero igualmente impresionante por su avance) Windows 95, que sería la base para todos los sistemas operativos de Microsoft siguientes hasta aparentemente, el Windows 7. Windows 95 En el mismo año se lanza uno de los procesadores claves de Intel, el Pentium Pro . También AMD se inicia en el mercado lanzando su primer microprocesador, el K5. Pentium Pro AMD K5 Aparece la primera versión de MySQL. Inicia el desarrollo del servidor Apache. La implementación original y de referencia del compilador, la máquina virtual y las librerías de clases de Java fueron desarrollados por Sun Microsystems. Se crea y se especifica la versión 1.5 del DVD, base actual del DVD. Se crea Internet2, más veloz que la Internet original. Se publica la primera versión del navegador web Opera. Sabeer Bhatia y Jack Smith fundan HotMail. Internet2 HotMail Luego de Windows 95, es lanzado al mercado el sistema Windows 98 por parte de Microsoft. Windows 98 En 1998 también nace el multitudinario buscador universal, Google, fundado por Larry Page y Sergey Brin. Google BETA Se publica la primera versión de MSN Messenger. Surge Mac OS 9. MSN Messenger MAC OS 9 SIGLO XXI El año 2000 llegó para revolucionar nuevamente a la informática. Primero por el hecho del miedo a la supuesta "crisis informática del 2000", que predicaba que todos los sistemas informáticos colapsarían a causa un problema de programación que al pasar del año 1999 al 2000, retrocederían al año 1900 ya que para ahorrar espacio solo se utilizaban dos caracteres para nombrar al año (por el ejemplo al año 1999 se lo escribía como 99). Por otro lado Microsoft lanza al mercado en éste período los sistemas operativos que usamos en este momento. En el 200 se lanzó el Windows 2000 y luego el Windows Me, que sería un fracaso comercial. Mac no se quedaría atras y lanzaría el sistema operativo Mac OS X. Windows 2000 Windows ME Intel lanza al mercado uno de los procesadores más populares luego del Pentium Pro, el Pentium IV, trabajaba a 1,4 y 1,5 GHz. Pentium IV En el 2001 Microsoft desarrolla como parte de su plataforma .NET el lenguaje de programación C#, que después fue aprobado como un estándar por la ECMA e ISO. En el mismo año se lanza al mercado el mayor éxito de Microsoft hasta el momento, el sistema operativo Windows XP, que por su rapidez y confiabilidad todavía se encuentra en el mercado. Windows XP En el 2002 se lanza al mercado el navegador web mas seguro y más usado del momento, el Mozilla Firefox. Se crea la versión BETA de MediaWiki. Microsoft sigue con lo suyo y lanza el Windows Server 2003 Firefox 1.0 Windows Server 2003 En el 2004nace oficialmente la principal competencia del Windows XP, Ubuntu Linux. En el mismo se construye la que sería la computadora más potente de los siguientes 3 años: la Blue Gene/L construída por IBM, con una tasa de operación de 478,2 billones de operaciones por segundo. Blue Gene/L Ubuntu Linux En el 2005 los usuarios de Internet mediante Banda Ancha superan en número a los usuarios de Internet con Módem. En el mismo año es lanzado el programa Google Earth. AMD lanza el primer procesador oficialmente de Doble Núcleo, el Athlon 64 X2. Hitachi lanza el primer disco duro de 1 Terabyte de capacidad. Athlon 64 X2 Google Earth Disco Duro 1TB El 2006 es un año importantísimo: Se crea Taringa!, una red que ya tiene millones de usuarios en todo el mundo. En el mismo año se lanza al mercado Windows Vista, que aún es criticado por muchos. También Intel lanza su Procesador Doble Núcleo E2-140 Dual-Core Intel E2-140 Taringa! Windows Vista En el 2007Apple lanza al mercado la nueva versión del Mac OS X Leopard 10.5 Se construye la Blue Gene/P, LA COMPUTADORA MÁS POTENTE HASTA EL PRESENTE, con una tasa de operación de 1000 billones de operaciones por segundo, que es lo que podría hacer un hombre en... 177000 años!!! Blue Gene/P Mac OS X Leopard 10.5 En el 2008, Apple lanza al mercado la MacBook Air la cual al parecer es la laptop más delgada del mundo. MacBook Air En el 2009 se expande comercialmente el procesador de computadora de escritorio más eficiente y rápido del mundo: el Intel Core i7 Intel Core i7 BUE AL FIN TERMINÉ DE RECOPILAR LA INFO, ESPERO QUE LES GUSTE Y QUE LES SIRVA... SALUDOSS FUENTE 1 FUENTE 2 FUENTE 3
Movil Perpetuo El móvil perpetuo (en latín, perpetuum mobile) es una máquina hipotética que sería capaz de continuar funcionando eternamente, después de un impulso inicial, sin necesidad de energía externa adicional. Su existencia violaría teóricamente la primera ley de la termodinámica, por lo que se considera un objeto imposible. Dado que los principios de la termodinámica son algunos de los más comprobados y estables a lo largo de siglos de la física, las propuestas de movimiento perpetuo serias son siempre desdeñadas. Con frecuencia, este tipo de máquinas son utilizadas por los físicos como una forma de poner a prueba sus conocimientos, demostrando, sin utilizar la termodinámica, que no puede funcionar. Además, es frecuente la aparición de "paradojas", al imaginarse experimentos mentales que parecen mostrar móviles perpetuos; invariablemente se trata de errores de comprensión de las leyes de la física, por lo que resultan muy instructivas. Móvil perpetuo de primera especie Los móviles perpetuos de primera especie violan la primera ley de la termodinámica, que es la que afirma la conservación de la energía. Así, producen más energía de la que consumen, pudiendo funcionar eternamente una vez encendidos. Muchos de estos diseños utilizan imanes como fuente de energía libre, y asumen que no hay rozamiento. Así, aunque estos inventos no puedan funcionar eternamente, son a veces capaces de funcionar por sí mismos por largos períodos, siempre que no se les obligue a realizar ningún trabajo sobre su entorno. Móvil perpetuo de segunda especie El móvil perpetuo de segunda especie es aquel que desarrolla un trabajo de forma cíclica (indefinida) intercambiando calor sólo con una fuente térmica. También es llamado móvil de Planck, y es imposible de construir bajo la Segunda ley de la termodinámica. Otro tipo de móvil perpetuo Es un móvil que recibe una fuerza inicial para moverse. Esa energía la mantiene (conserva) indefinidamente pero no puede "crear" más movimiento, tampoco puede detenerse, ni ir más despacio, ni deacelerar. Todas las fuerzas de rozamiento (con el piso, con el aire, rozamiento interno del aparato) son anuladas ya que el móvil se encuentra en un vacio, y libre de interración con fuerzas que lo detengan. Un ejemplo sería una plomada atada a un resorte que se mueve en un vacio ayudada por la fuerza de gravedad. Para el que le intereso le dejo un par (muchos) videos de estas supuestas maquinas: Espero que les haya interesado, nos vemoss... FUENTE

-En el post que van a ver recopilé una pequeña parte de la historia de los procesadores y la competencia eterna por la rapidez y la potencia. Espero que les guste y que les sirva... -Antes que nada veamos una síntesis de lo que és en escencia un Procesador... El Procesador El microprocesador es un circuito integrado que contiene algunos o todos los elementos hardware, y el de CPU, que es un concepto lógico. Una CPU puede estar soportada por uno o varios microprocesadores, y un microprocesador puede soportar una o varias CPU. Un núcleo suele referirse a una porción del procesador que realiza todas las actividades de una CPU real. Empaque de un procesador Intel en cerámica La tendencia de los últimos años ha sido la de integrar más núcleos dentro de un mismo empaque, además de componentes como memorias Cache y controladores de memoria, elementos que antes estaban montados sobre la placa base como dispositivos individuales. -Ahora sí, la cronología de aparición de los Procesadores más importantes... 1971 El Intel 4004 (i4004), un CPU de 4bits, fue el primer microprocesador en un simple chip, así como el primero disponible comercialmente. Aproximadamente al mismo tiempo, algunos otros diseños de CPU en circuito integrado, tales como el militar F14 CADC de 1970, fueron implementados como chipsets, es decir constelaciones de múltiples chips. Originalmente diseñado para la compañía japonesa Busicom para ser usado en su línea de calculadoras, el 4004 también fue proporcionado con una familia de chips de soporte especialmente diseñados para él. Por ejemplo, cada "ROM de programa" internamente guardaba para su propio uso los 12 bit de dirección de programa del 4004, lo que permitía, si las 16 ROM fueron instaladas, acceso de 4 KB de memoria desde el bus de direcciones de 4 bits. El circuito 4004 fue construido con 2.300 transistores, y fue seguido el año siguiente por el primer microprocesador de 8 bits, el 8008, que contenía 3.300 transistores, y el 4040, que era una versión revisada del 4004. Intel 4004 1974 El Intel 4040 fue el sucesor del Intel 4004. Diseñado por Federico Faggin (quien propuso la arquitectura y condujo el proyecto) y Tom Innes. El 4040 fue usado primariamente en juegos, pruebas, desarrollo, y equipos del control. El paquete del 4040 era más de dos veces el ancho del 4004 y tenía 24 pines en lugar de los 16 del 4004. El 4040 agregó 14 instrucciones, un espacio más grande para el stack (7 niveles en vez de 3), un espacio para programas de 8KB, 8 registros adicionales, y habilidades de interrupción (incluyendo sombras (shadows) de los primeros 8 registros). Intel 4040 1975 El MOS 6502 o MOS Technology 6502 es un microprocesador de 8 bits diseñado por MOS Technology. Cuando fue introducido fue, con bastante diferencia, la CPU mas barata con características completas de mercado, con alrededor de un sexto del precio o menos que las CPU con las que competía de compañías más grandes como Motorola e Intel. Era sin embargo más rápido que la mayoría de ellos, y, junto con el Zilog Z80, fueron la chispa de una serie de proyectos de computadores que finalmente darían lugar a la revolución del ordenador personal de finales de los 1970 y principios de los años 1980. Además de MOS Technology, el diseño del 6502 tuvo originalmente como segunda fuente a Rockwell y Synertek y fue licenciado más adelante a un número de compañías. Todavía se hace para sistemas integrados (embedded systems). En realidad, consiste en una familia de CPU's que comparten el chip, pero están encapsuladas con diferentes números de patillas, abaratando costes y sacrificando algunas prestaciones. MOS 6502 El microprocesador Western Design Center WDC 65C02 (también llamado 65C02 y W65C02) es una versión mejorada en tecnología CMOS del microprocesador de 8 bits MOS 6502 (NMOS) realizada por William D. Mensch, Jr del Western Design Center (WDC) WDC 65C02 Los AVR son una familia de microcontroladores RISC de Atmel. La arquitectura de los AVR fue concebida por dos estudiantes en el Norwegian Institute of Technology, y posteriormente refinada y desarrollada en Atmel Norway, la empresa subsidiaria de Atmel, fundada por los dos arquitectos del chip. El AVR es una CPU de arquitectura Harvard. Tiene 32 registros de 8 bits. Algunas instrucciones sólo operan en un subconjunto de estos registros. La concatenación de los 32 registros, los registros de entrada/salida y la memoria de datos conforman un espacio de direcciones unificado, al cual se accede a través de operaciones de carga/almacenamiento. A diferencia de los microcontroladores PIC, el stack se ubica en este espacio de memoria unificado, y no está limitado a un tamaño fijo. AVR El Intel 8085 es un procesador de 8 bits fabricado por Intel. Era binariamente compatible con el anterior Intel 8080 pero exigía menos soporte de hardware, así permitía unos sistemas de microordenadores más simples y más baratos de hacer. El número 5 de la numeración del procesador proviene del hecho que solamente requería una alimentación de 5 voltios, no como el 8080 que necesitaba unas alimentaciones de 5 y 12 voltios. Ambos procesadores fueron usados alguna vez en ordenadores corriendo el sistema operativo CP/M, y el procesador 8085 fue usado como un microcontrolador. Ambos diseños fueron sobrepasados por el Z80 que era más compatible y mejor, que se llevó todo el mercado de los ordenadores CP/M, al mismo tiempo que participaba en la prosperidad del mercado de los ordenadores personales en mediados de los 80. Intel 8085 1978 Los Intel 8086 e Intel 8088 (i8086, llamado oficialmente iAPX 86, e i8088) son dos microprocesadores de 16 bits diseñados por Intel en 1978, iniciadores de la arquitectura x86. La diferencia entre el i8086 y el i8088 es que este último utiliza un bus externo de 8 bits, para poder emplear circuitos de soporte al microprocesador más económicos, en contraposición al bus de 16 bits del i8086. Intel 8088 1979 El 6809 es un microprocesador de 8 bits fabricado por Motorola. El 6809 fue un avance mayor sobre sus dos predecesores, el Motorola 6800 y el MOS Technology 6502. Es considerado como el precursor moral de la familia de procesadores Motorola 68000 , aunque el diseño del 68K actualmente se sobrepasa al proyecto 6809. Entre las mejoras más significativas que el 6809 introdujo sobre sus predecesores fue el empleo de dos acumuladores de 8 bits, mejor que uno en el 6502, el cual puede ser combinado en un único registro de 16 bits. También tenía dos registros índice de 16 bits (frente a los 8 bits del 6502) y dos punteros de pila (frente a uno en el 6502), permitiendo modos de direccionamiento bastante avanzados. El 6809 es compatible a nivel de código fuente con el 6800, aunque el 6800 tenía 78 instrucciones y el 6809 solo 59. Algunas instrucciones fueron reemplazadas por otras más generales que el ensamblador podía traducir, y algunas donde reemplazadas por modos de direccionamiento. El conjunto de instrucciones y complemento de registro fue altamente ortogonal, haciendo la programación en lenguaje ensamblador bastante agradable, y no la pesadilla de la mayoría de otros CPUs de microcomputadoras de la época. Motorola 6809 1982 Los Intel 80186 y 80188 (i80186 e i81088) son dos microprocesadores que fueron desarrollados por Intel alrededor de 1982. Los i80186 e i80188 son una mejora del Intel 8086 y del Intel 8088 respectivamente. Al igual que el i8086, el i80186 tiene un bus externo de 16 bits, mientras que el i80188 lo tiene de 8 bits como el i8088, para hacerlo más económico. La velocidad de reloj del i80186 e i80188 es de 6 MHz. Ambos microprocesadores no fueron muy usados en ordenadores personales, sino que su uso principal fue como procesadores empotrados. De todos modos hubo excepciones, como el Mindset, un ordenador muy avanzado para la época, y el Gateway Handbook, un pequeño subnotebook. Otro más fue el Compis, un ordenador escolar sueco. Una característica principal del i80186 e i80188 es que utilizándolos es posible reducir el número de circuitos integrados auxiliares necesarios, al integrar características como un controlador de acceso directo a memoria (DMA), un controlador de interrupciones, temporizadores y lógica de selección de circuito integrado. Intel 80188 1983 La arquitectura del ARM2 posee un bus de datos de 32 bits y ofrece un espacio de direcciones de 26 bits, junto con 16 registros de 32 bits. Uno de estos registros se utiliza como contador de programa, aprovechándose sus 4 bits superiores y los 2 inferiores para contener los flags de estado del procesador. El ARM2 es probablemente el procesador de 32 bits útil más simple del mundo, ya que posee sólo 30 000 transistores. Su simplicidad se debe a que no está basado en microcódigo (sistema que suele ocupar en torno a la cuarta parte de la cantidad total de transistores usados en un procesador) y a que, como era común en aquella época, no incluye caché. Gracias a esto, su consumo en energía es bastante bajo, a la vez que ofrece un mejor rendimiento que un 286. Su sucesor, el ARM3, incluye una pequeña memoria caché de 4 KB, lo que mejora los accesos a memoria repetitivos. ARM2 1985 SPARC (del inglés Scalable Processor ARChitecture) es una arquitectura RISC big-endian. Es decir, una arquitectura con un conjunto reducido de instrucciones. Fue originalmente diseñada por Sun Microsystems y dirigido por el ingeniero Kaa en 1985, se basa en los diseños RISC I y II de la Universidad de California en Berkeley. La empresa Sun Microsystems diseñó esta arquitectura y la licenció a otros fabricantes como Texas Instruments, Cypress Semiconductor, Fujitsu, LSI Logic entre otros. SPARC es la primera arquitectura RISC abierta y como tal, las especificaciones de diseño están publicadas, así otros fabricantes de microprocesadores pueden desarrollar su propio diseño. Una de las ideas innovadoras de esta arquitectura es la ventana de registros que permite hacer fácilmente compiladores de alto rendimiento y una significativa reducción de memoria en las instrucciones load/store en relación con otras arquitecturas RISC. Las ventajas se aprecian sobre todo en programas grandes. La cpu SPARC esta compuesta de una unidad entera, UI (Integer Unit) que procesa la ejecución básica y una FPU (Floating-Point Unit) que ejecuta las operaciones y cálculos de reales. La IU y la FPU pueden o no estar integradas en el mismo chip. Aunque no es una parte formal de la arquitectura, las computadoras basadas en sistemas SPARC de Sun Microsystems tienen una unidad de manejo de memoria (MMU) y un gran caché de direcciones virtuales (para instrucciones y datos) que están dispuestos periféricamente sobre un bus de datos y direcciones de 32 bits. SUN Ultra Sparc II 1989 El Intel i860 (también conocido como el 80860, y nombre código N10) era un microprocesador RISC de Intel, lanzado en 1989. El i860 fue, junto con el i960, uno de los primeros intentos de una Arquitectura de Conjunto de Instrucciones (Instruction Set Architecture, ISA) completamente nueva y de alto nivel desde el fallido Intel i432 de los años 1980. Fue lanzado con considerable fanfarria, y oscureció el lanzamiento del Intel i960 que muchos consideraban era un mejor diseño. El i860 nunca alcanzó éxito comercial y el proyecto fue terminado a mediados de los años 1990. El chip fue usado en subsistemas gráficos de alto nivel como la tarjeta de expansión "NeXT Dimension" para el NeXT Cube. El i860 combinó un número de características que eran únicas en ese tiempo, lo más notablemente fue su arquitectura VLIW (Very Long Instruction Word) y un buen soporte para operaciones de alta velocidad de coma flotante. El diseño montó una ALU de 32 bits junto con una FPU de 64 bits que en sí misma fue hecha en tres partes, un procesador sumador, uno multiplicador, y uno gráfico. El sistema tenía pipelines separados para el ALU, el sumador y el multiplicador, y podía manejar hasta tres instrucciones por ciclo de reloj. Intel i860 A finales de los 80, HP comenzó a construir dos series de computadores, ambas basadas en CISC. Una de ellas es la serie HP 9000 de estaciones de trabajo Unix, basadas en el microprocesador Motorola 68000. La otra serie era la serie HP 3000 de minicomputadoras, basadas en un diseño de CPU de HP de 16 bits. Los primeros PA-RISC fueron dispositivos de 32 bits. Se usaron por primera vez en las últimas series de HP 3000, la 930 y la 950, comúnmente conocidos como sistemas Spectrum (nombre que le pusieron en los laboratorios de HP). Estas máquinas corrían sobre MPE/iX. La serie HP 9000 se actualizó también a la arquitectura PA-RISC recién creada, pero en esta serie se trabajaba sobre HP-UX. Otros sistemas operativos que se pueden usar sobre arquitecturas PA-RISC son Mach kernel, Linux, OpenBSD, NetBSD y FreeBSD entre otros. Una característica interesante de PA-RISC es que la mayoría de sus microprocesadores no tiene caché L2. En su lugar se implementaba una caché L1 mayor, formada por chips separados conectados al microprocesador a través de un bus (actualmente esta integrada en el propio chip). Sólo el modelo PA-7300LC tiene caché L2. Otra innovación de esta arquitectura fue la adición de un repertorio de instrucción multimedia (SIMD) conocido como MAX e introducido por primera vez en el 7100LC. PA-RISC 7300LC 1992 DEC Alpha es una arquitectura diseñada por DEC e introducida bajo el nombre AXP, como reemplazo a la serie VAX. Cuenta con un set de instrucciones RISC de 64 bits especialmente orientada a cálculo de punto flotante. Una de las arquitecturas de computadoras existentes. La arquitectura Alpha se caracteriza por seguir la filosofía RISC (Conjunto reducido de instrucciones). El primer procesador que hizo gala de la tecnología Alpha fue el 21064. La organización de sus registros es de uso general con una arquitectura que se puede encuadrar como de registro-registro. Esto hace que la mayoría de sus instrucciones operen sobre los registros, haciendo uso de la memoria RAM sólo para instrucciones de carga y almacenamiento. La razón es que se intenta minimizar los accesos a memoria, puesto que suponen el cuello de botella para los procesadores actuales. La longitud de palabra de los registros es de 64 bits, ya sea desde el PC (contador de programa), pasando por los registros de enteros, punto flotante, etc. Está preparado para manejar datos de 64 bits , pero también puede manejar datos de 32 , 16 bits y por último de 8 bits. DEC Alpha 1993 PowerPC (usualmente abreviada PPC) es el nombre original de la arquitectura de computadoras de tipo RISC, fue desarrollada por IBM, Motorola y Apple. Los procesadores de esta familia son producidos por IBM y Freescale Semiconductor que es la división de semiconductores y microprocesadores de Motorola, siendo utilizados principalmente en ordenadores o computadores Macintosh de Apple Computer hasta el año 2006. En 1993, aparece la primera generación PowerPC con el nombre clave PowerPC 601, fue desarrollada por la alianza Apple, IBM y Motorola. En Austin, fue el lugar donde desarrollaron el procesador, en el diseño utilizaron la interfaz de bus del Motorola 88110. El PowerPC 601 tuvo bastante éxito. PowerPC 601 Se lanza el primer Pentium de Intel al mercado, con velocidades iniciales de 60 y 66 MHz, 3.100.000 transistores, cache interno de 8 KB para datos y 8 KB para instrucciones; sucediendo al procesador Intel 80486. Intel no lo llamó 586 debido a que no es posible registrar una marca compuesta solamente de números. Pentium también fue conocido por su nombre clave P54C. Se comercializó en velocidades entre 60 y 200 MHz, con velocidad de bus de 50, 60 y 66 MHz. Las versiones que incluían instrucciones MMX no solo brindaban al usuario un mejor manejo de aplicaciones multimedia, como por ejemplo, la lectura de películas en DVD si no que se ofrecían en velocidades de hasta 233 MHz, incluyendo una versión de 200 MHz y la más básica proporcionaba unos 166 MHz de reloj. Pentium 1995 El Pentium Pro es la sexta generación de arquitectura x86 de los microprocesadores de Intel, cuya meta era remplazar al Intel Pentium en toda la gama de aplicaciones, pero luego se centró como chip en el mundo de los servidores y equipos de sobremesa de gama alta. Posteriormente Intel lo dejó de lado a favor de su gama de procesadores de altas prestaciones llamada Xeon. A pesar del nombre, el Pentium Pro es realmente diferente de su procesador antecesor, el Intel Pentium, ya que estaba basado en el entonces nuevo núcleo P6 (que se vería modificado para luego ser usado en el Intel Pentium II, Intel Pentium III e Intel Pentium M). Además utilizaba el Socket 8, en lugar del Socket 5 o 7 de los Pentium de la época. Las características del núcleo del P6 era la ejecución desordenada, ejecución especulativa y una tubería adicional para instrucciones sencillas. La ejecución especulativa (era la ejecución provisional de código después de un salto que no se sabía si iba a ser realizado), incrementaba considerablemente el fallo de despreciar un salto, y el Pentium Pro en aquel entonces usaba un algoritmo de predicción de saltos más sofisticado que el Pentium. Por la misma razón el Pentium Pro también introducía una instrucción de movimiento condicional (llamado cmov) que en alguno de los casos también podía ser usada para evitar la necesidad de una instrucción de salto. Pentium Pro El microprocesador AMD 5x86 es un procesador compatible x86 por Advanced Micro Devices destinado a ser utilizado en ordenadores basados en un 486. El AMD 5x86 (conocido también con el nombre de 5x86-133, Am5x86 o X5-133) es un procesador 486estándar con un multiplicador interno a 4x, permitiéndole funcionar a 133 MHz en sistemas para procesadores 486 DX2 o DX4 sin multiplicador. El 5x86 tenía una memoria caché L1 de tipo write-back de 16 kB, siendo los demás de 8 kB. Algunos modelos salieron a 150 MHz producidos por AMD. AMD 5x86 1997 El Pentium II es un microprocesador con arquitectura x86 diseñado por Intel. Está basado en una versión modificada del núcleo P6, usado por primera vez en el Intel Pentium Pro. Los cambios fundamentales respecto a éste último fueron mejorar el rendimiento en la ejecución de código de 16 bits, añadir el conjunto de instrucciones MMX y eliminar la memoria caché de segundo nivel del núcleo del procesador, colocándola en una tarjeta de circuito impreso junto a éste. El Pentium II se comercializó en versiones que funcionaban a una frecuencia de reloj de entre 166 y 450 MHz. La velocidad de bus era originalmente de 66 MHz, pero en las versiones a partir de los 333 MHz se aumentó a 100 MHz. Poseía 32 KB de memoria caché de primer nivel repartida en 16 KB para datos y otros 16 KB para instrucciones. La caché de segundo nivel era de 512 KB y trabajaba a la mitad de la frecuencia del procesador, al contrario que en el Pentium Pro, que funcionaba a la misma frecuencia. Pentium II AMD lanza al mercado el procesador AMD K6. Éste procesador estaba diseñado para funcionar en placas base Pentium. La principal ventaja del AMD con respecto al Pentium era su precio, bastante más barato con las mismas prestaciones. El K6 tuvo una gran aceptación en el mercado presentándose como un rival fuerte para Intel. Su sucesor fue el microprocesador K6-2. Con el K6, AMD no sólo consiguió hacerle la competencia a Intel en el terreno de los Pentium MMX, sino que además amargó lo que de otra forma hubiese sido un plácido dominio del mercado, ofreciendo un procesador que casi se pone a la altura del mismísimo Pentium II. En cuanto a potencia bruta, si comparamos sus prestaciones en la ejecución de software de 16 bits, vemos que la diferencia es escasa entre todos los procesadores, quedando como único rezagado el Pentium Pro. Si pasamos a los programas de 32 bits, aquí es al revés, y el que se lleva la palma es el Pentium Pro (El Pentium II puede vencerle sólo si lo comparamos con versiones a mayor velocidad), quedando el K6 algo por debajo del Pentium II, pero muy por encima del Pentium MMX. En cálculos en coma flotante, el K6 también queda por debajo del Pentium II, pero por encima del Pentium MMX y del Pro. El K6 cuenta con una gama que va desde los 166 hasta los 300 Mhz y con el juego de instrucciones MMX, que ya se han convertido en estándar. AMD K6 1999 Con el nombre de MIPS (siglas de Microprocessor without Interlocked Pipeline Stages) se conoce a toda una familia de microprocesadores de arquitectura RISC desarrollados por MIPS Technologies. Cifras de 1999 estiman que uno de cada tres procesadores RISC fabricados en el mundo están basados en el MIPS[cita requerida]. Los diseños del MIPS son utilizados en la línea de productos informáticos de SGI; en muchos sistemas integrados; en dispositivos para Windows CE; routers Cisco; y videoconsolas como la Nintendo 64 o las Sony PlayStation, PlayStation 2 y PlayStation Portable. Las primeras arquitecturas MIPS fueron implementadas en 32 bits (generalmente rutas de datos y registros de 32 bits de ancho), si bien versiones posteriores fueron implementadas en 64 bits. Existen cinco revisiones compatibles hacia atrás del conjunto de instrucciones del MIPS, llamadas MIPS I, MIPS II, MIPS III, MIPS IV y MIPS 32/64. En la última de ellas, la MIPS 32/64 Release 2, se define a mayores un conjunto de control de registros. Asimismo están disponibles varias "extensiones", tales como la MIPS-3D consistente en un simple conjunto de instrucciones SIMD en coma flotante dedicadas a tareas 3D comunes, la MDMMaDMaX) compuesta por un conjunto más extenso de instrucciones SIMD enteras que utilizan los registros de coma flotante de 64 bits, la MIPS16 que añade compresión al flujo de instrucciones para hacer que los programas ocupen menos espacio (presuntamente como respuesta a la tecnología de compresión Thumb de la arquitectura ARM) o la reciente MIPS MT que añade funcionalidades multithreading similares a la tecnología HyperThreading de los procesadores Intel Pentium 4. MIPS R4400 El Pentium III es un microprocesador de arquitectura i686 fabricado por Intel; el cual es una modificación del Pentium Pro. Las primeras versiones eran muy similares al Pentium II, siendo la diferencia más importante la introducción de las instrucciones SSE. Al igual que con el Pentium II, existía una versión Celeron de bajo presupuesto y una versión Xeon para quienes necesitaban de gran poder de cómputo. Esta línea ha sido eventualmente reemplazada por el Pentium 4, aunque la línea Pentium M, para equipos portátiles, esta basada en el Pentium III. La primera versión era muy similar al Pentium II (usaba un proceso de fabricación de 250 nanómetros), con la introducción de SSE como principal diferencia. Además, se había mejorado el controlador del caché L1, lo cual aumentaba ligeramente el desempeño. Los primeros modelos tenían velocidades de 450 y 500 MHz. El 17 de mayo de 1999 se introdujo el modelo de 550 MHz y el 2 de agosto del mismo año el de 600 MHz. Posteriormente (antes de la salida del Coppermine), salieron versiones de 133Mhz de Bus. Pentium III El procesador Athlon se lanzó al mercado el 21 de agosto de 1999 por AMD. El primer núcleo del Athlon, conocido en clave como "K7" (en homenaje a su predecesor, el K6), estuvo disponible inicialmente en versiones de 500 a 650 MHz, pero después alcanzó velocidades de hasta 1 GHz. El procesador es compatible con la arquitectura x86 y debe ser conectado en placas base con Slot A, que son compatibles mecánicamente, pero no eléctricamente, con el Slot 1 de Intel. Internamente el Athlon es un rediseño de su antecesor, al que se le mejoró substancialmente el sistema de coma flotante (ahora son 3 unidades de punto flotante que pueden trabajar simultáneamente) y se le aumentó la memoria caché de primer nivel (L1) a 128 KB (64 KB para datos y 64 KB para instrucciones). Además incluye 512 KB de caché de segundo nivel (L2) externa al circuito integrado del procesador y funcionando, por lo general, a la mitad de velocidad del mismo (En los modelos de mayor frecuencia la caché funcionaba a 2/5 [En los 750, 800 y 850 MHz] ó 1/3 [En los 900, 950 y 1.000 MHz] de la frecuencia del procesador). El bus de comunicación es compatible con el protocolo EV6 usado en los procesadores DEC 21264 de Alpha, funcionando a una frecuencia de 100 MHz DDR (Dual Data Rate, 200 MHz efectivos). AMD Athlon 2000 El Pentium 4 es un microprocesador de séptima generación basado en la arquitectura x86 y fabricado por Intel. Es el primer microprocesador con un diseño completamente nuevo desde el Pentium Pro de 1995. El Pentium 4 original, denominado Willamette, trabajaba a 1,4 y 1,5 GHz. El 8 de agosto de 2008 se realiza el último envío de Pentium 4, siendo sustituido por los Intel Core Duo Para la sorpresa de la industria informática, la nueva microarquitectura NetBurst del Pentium 4 no mejoró el viejo diseño de la microarquitectura Intel P6 según las dos tradicionales formas para medir el rendimiento: velocidad en el proceso de enteros u operaciones de coma flotante. La estrategia de Intel fue sacrificar el rendimiento de cada ciclo para obtener a cambio mayor cantidad de ciclos por segundo y una mejora en las instrucciones SSE. En 2004, se añade al conjunto de instrucciones x86 de 32 bits, el x86-64 de 64 bits. Al igual que los Pentium II y Pentium III, el Pentium 4 se comercializa en una versión para equipos de bajo presupuesto (Celeron), y una orientada a servidores de gama alta (Xeon). Las distintas versiones son: Willamette, Northwood, Gallatin (Extreme Edition), Prescott y Cedar Mill. Pentium IV 2001 El Itanium, también conocido por su nombre en código Merced, fue el primer microprocesador de la arquitectura Intel Itanium (antes llamada IA64, creada por Hewlett-Packard y desarrollada conjuntamente por HP e Intel) que Intel lanzó al mercado. Aunque su lanzamiento inicialmente se planeó para 1998, no se produjo hasta mayo de 2001. Este procesador se fabricaba utilizando un proceso de 180 nm y disponía de 32 KB de memoria caché de primer nivel (16 para datos y 16 para instrucciones), 96 KB de caché de segundo nivel integrada en el núcleo y 2 ó 4 MB de caché de tercer nivel exterior al núcleo. Estaba disponible en versiones a 733 u 800 MHz. La arquitectura del Itanium se diferencia drásticamente de las arquitecturas x86 y x86-64 usadas en otros procesadores de Intel. La arquitectura se basa en un explícito paralelismo a nivel de instrucción, con el compilador tomando decisiones sobre qué instrucciones deben ejecutarse en paralelo. Este acercamiento permite que el procesador ejecute hasta seis instrucciones por ciclo de reloj. A diferencia de otras arquitecturas superescalares, Itanium no precisa de hardware elaborado para seguir la pista de las dependencias de las instrucciones durante la ejecución paralela. Intel Itanium 2002 El PowerPC G5 (nombre común del PowerPC 970 y del PowerPC 970FX) es un microprocesador de alto rendimiento con arquitectura RISC de 64 bits, pertenece a la familia PowerPC; diseñado y fabricado por IBM. El PowerPC 970 está construido usando tecnología de 130nm, y el 970FX, de 90 nm. Contienen más de 58 millones de transistores. Están basados en el desarrollo de los Power4 de IBM, e incluyen dos de los motores vectoriales VMX de IBM, en lugar de la unidad AltiVec usada en los G4 (PowerPC 74xx). Adicionalmente, son capaces de procesar instrucciones de 32-bit en modo nativo. Tiene un rendimiento excepcional en comparación con otros procesadores y con una capacidad de direccionamiento de memoria hasta 8 GB. Para mantener las convenciones de nombre adoptadas por Apple en su gama de ordenadores, denominó a éste procesador G5 en junio de 2003. El término G5 en éste contexto se identifica con la quinta generación de procesadores PowerPC utilizados por Apple, en su gama Power Mac G5. Desde entonces, el PowerPC 970FX ha reemplazado al PowerPC 970 en los ordenadores de Apple. PowerPC G5 2003 El Pentium M es un microprocesador con arquitectura x86 (i686) diseñado y fabricado por Intel. El procesador fue originalmente diseñado para su uso en computadoras portátiles. Su nombre en clave antes de su introducción era "Banias". Todos los nombres clave del Pentium M son lugares de Israel, la ubicación del equipo de diseño del Pentium M. El Pentium M representa un cambio radical para Intel, ya que no es una versión de bajo consumo del Pentium 4, sino una versión fuertemente modificada del diseño del Pentium III (que a su vez es una modificación del Pentium Pro). Está optimizado para un consumo de potencia eficiente, una característica vital para ampliar la duración de la batería de las computadoras portátiles. Funciona con un consumo medio muy bajo y desprende mucho menos calor que los procesadores de ordenadores de sobremesa, el Pentium M funciona a una frecuencia de reloj más baja que los procesadores Pentium 4 normales, pero con un rendimiento similar (por ejemplo un Pentium M con velocidad de reloj de 1,73 GHz normalmente puede igualar el rendimiento de un Pentium 4 a 3,2 GHz. Los procesadores Intel Pentium M forman parte integral de la plataforma Intel Centrino. Pentium M 730 2005 Los procesadores Pentium D fueron introducidos por Intel en el Spring 2005 Intel Developer Forum. Un chip Pentium D consiste básicamente en 2 procesadores Pentium 4 metidos en un solo encapsulado (2 nucleos Prescott para el core Smithfield y 2 nucleos Cedar Mill para el core Presler) y comunicados a través del FSB. Su proceso de fabricación fue inicialmente de 90 nm y en su segunda generación de 65 nm. El nombre en clave del Pentium D antes de su lanzamiento era "Smithfield". Hubo un rumor que decía que estos chips incluían una tecnología DRM (Digital Rights Management) para hacer posible un sistema de protección anticopia de la mano de Microsoft, lo cual Intel desmintió, si bien aclarando que algunos de sus chipsets sí tenían dicha tecnología, pero no en la dimensión que se había planteado. Pentium D 2006 El procesador Pentium Dual-Core es parte de la familia de microprocesadores creados por la empresa Intel que utilizan la tecnología de doble núcleo. En principio fue lanzado después de la serie de procesadores Pentium D y de las primeras series del Core 2 Duo. Fue diseñado para trabajar en equipos portátiles (Laptops) y en equipos de escritorio (Desktops), permitiendo la ejecución de aplicaciones múltiples a un bajo costo, con un bajo consumo energético y sin sacrificar el desempeño. Este procesador es en realidad un Core 2 Duo, pero en su lanzamiento fue llamado Pentium Dual-Core, a manera de aprovechar la fama de la marca Pentium y de algún modo también para reivindicarla. La versión para portátiles posee una memoria caché L2 de 1 MB y trabaja con un bus frontal de 533 MHz, 667 MHz y 800 MHz (dependiendo del modelo), mientras que las versiones para escritorio cuentan con 1 MB ó 2 MB de caché L2 y trabajan con un bus frontal de 800 MHz ó 1066 MHz (dependiendo del modelo). Todos los Pentium Dual-Core son compatibles con EM64T lo que les permite trabajar a 64 bits, además en nuevos modelos se da soporte a la tecnología de virtualización Intel VT. Pentium Dual-Core El Kentsfield, lanzado el 2 de Noviembre de 2006, fue el primer procesador de cuatro núcleos de Intel para sobremesas, denominado Core 2 (y Xeon, para servidores y estaciones de trabajo). El tope de gama Kentsfield era un Core 2 Extreme numerado QX6xx0. Todos ellos incorporaban dos cachés de 4 MB L2. El buque insignia, en Core 2 Quad Q6600, que corre a 2,4 GHz, fue lanzado el 8 de Enero de 2007 al precio de US$ 851 (reducidos a 530 el 7 de abril de 2007). El 22 de Julio de 2007 fue la fecha elegida para el lanzamiento del Q6700 junto con el Extreme QX6850, ambos del tipo Kentsfield, al precio de US$ 530 y 999 respectivamente, y conjuntamente a una bajada de precio del Q6600 hasta los 266 dólares. Intel Kentsfield 2008 Intel Core i7 es una familia de tres procesadores de la arquitectura Intel x86-64. Los Intel Core i7 son los primeros procesadores que usan la microarquitectura Nehalem de Intel y es el sucesor de la familia Intel Core 2. Los tres modelos son procesadores de cuatro núcleos.El identificador Core i7 aplica a la familia inicial de procesadores nombre código Bloomfield. El pseudónimo Core i7 no tiene un significado concreto, pero continúa utilizando la satisfactoria etiqueta Core. Está en proceso de pasar a la siguiente generación de procesado de 32 nm. aunque la tecnología del procesador ya es de 45nm. Posee 731 millones de transistores y utiliza una sofisticada administración de energía: puede colocar el microprocesador en modo zero-power en caso de no utilizarse. La pacidad para el Overclocking muy elevada (Se puede Overclocear sin problemas hasta 4.1 GHz) Intel Core i7 2009 El AMD Athlon 2 X4 620 no es un procesador de velocidad punta, no es el motor de un deportivo, es el motor de una berlina diseñada para ofrecer el confort de trabajo que exigimos en estos nuevos tiempos al precio que se exige en los tiempos que corren. Su núcleo, de nombre en código Propus, es una reducción del núcleo Deneb del Phenom 2, donde se han reducido costes eliminando la cache de tercer nivel que es posiblemente la pieza más cara de todo el procesador Phenom 2. De este modo se mantiene una arquitectura eficiente donde cada núcleo tiene su cache de segundo nivel, que suele ser suficiente, perdiendo solo alguna punta de rendimiento que no es obstáculo para disfrutar de un funcionamiento excelente en todo tipo de tareas. Este procesador trabaja con una frecuencia de 2.6GHz y por supuesto podemos hacer un overclocking del 10-15% sin demasiados problemas y sin aumentar los consumos de forma notable. Aun así a 2.6GHz tendremos potencia suficiente para cualquier tarea si nuestros requisitos son lógicos y ajustados a la inversión que estamos realizando. Es evidente que no podremos superar los rendimientos de procesadores mucho más caros, ni esa es la gracia de este procesador. Athlon 2 X4 620 Bien, la serie Phenom II de AMD fue presentada para socket AM2+ revelando gran superioridad con la generación anterior manteniendo compatibilidad con socket AM2 aunque se anulaban algunas funciones (como el Hyper Transport 3.0). Estos modelos pertenecen al socket de 938 pines (AM3) con controlador de memoria integrado tanto para DDR2 como para DDR3, 1066 MHz y 1333 MHz respectivamente (Modo Dual). Cada uno contiene características similares con algunas diferencias principalmente en la cantidad de memoria Cache y frecuencia de operación. Phenom II X3 y X4 LO QUE SE VIENE Procesadores con 8 Y 12 núcleos en 2010 (AMD) Un paso incluso más allá de los actuales procesadores quad-core, y podría darlo AMD: procesadores de 8 y 12 núcleos que podrían estar preparados para lanzarse al mercado en el año 2010. Los nombres en clave de estos desarrollos son Sao Paolo y Magny-Cours, para los procesadores de 8 y 12 núcleos respectivamente. Según la información oficial, ambas CPUs utilizarían una arquitectura de 45 nanómetros con un nuevo socket, el G34, que vendría a ser una actualización del actual Socket F utilizado en los microprocesadores Opteron destinados a estaciones de trabajo profesionales y servidores. En el caso de los micros Sao Paolo, que serían los que llegarían antes, estarían formados por dos núcleos quad-core de tipo Barcelona, los cuales ya calificamos como la tercera generación de Opteron, y vendrían con la tecnología HyperTransport 3, 12 MB de caché L3 y 512KB de caché L2 entre núcleos. Procesadores con 32 núcleos en 2010 (Intel) Los actuales dual-core se quedarán en agua de borrajas si se cumplen las previsiones de Intel que en menos de cuatro planea tener disponible un microprocesador con 32 núcleos trabajando conjuntamente. Ni Rappel podría adivinarlo. Tal y como indican en TG Daily, Intel anunció hace cinco años que querían lograr disponer de un microprocesador a 20 GHz en la segunda mitad de esta década. Nada menos que mil millones de transistores (no parece mucho teniendo en cuenta los súper núcleos actuales de Intel, AMD, NVIDIA o ATI) tendría ese monstruito, pero las cosas han cambiado sensiblemente. De hecho, la carrera por el procesador más rápido ha sido sustituida por la carrera por el procesador con más núcleos. Los procesadores con doble núcleo actuales son solo un pequeño paso en una transición que reducirá la frecuencia de reloj sensiblemente, pero que gracias al uso de la potencia combinada de varios núcleos permitirá obtener rendmientos asombrosos en pocos años. No hay un número específico de núcleos programado para esos procesadores que Intel ha denominado “many cores” (multinúcleo), pero el primero de ellos parece responder al nombre de Gulftown, englobado en el proyecto Keifer, y que integraría 32 núcleos. la tecnología de fabricación utilizada sería de 32 nm, y constaría de ocho nodos de procesamiento con 4 núcleos cada uno, y que en total podrían acceder a una caché de 24 Mbytes de lo que se denomina “Last Level”, o último nivel. Parte de esa estrategia se basa en la potencia que según estudios de la propia Intel tendrá un rival que inicialmente muchos no considerarían: Sun y su arquitectura Niagara prometen soluciones con una potencia similar, pero más tempranas en aparición con procesadores como el actual Ultra Sparc T1, una bestia con 8 núcleos a 1,2 GHz cada uno y capaz de manejar 32 hilos de ejecución simultáneamente. Desde luego, la cosa promete. COMENTEEEN FUENTE 1 FUENTE 2 FUENTE 3
Hola como estan?? Bue en este post les voy a mostrar como poder escuchar cualquier radio desde el reproductor predeterminado sin tener que abrir el navegador y dejarlo abierto para escuchar tu radio favorita.... Voy a mostrar el procedimiento usando de ejemplo la Rock & Pop de Argentina... 1)Primero hacemos click en la página oficial de la radio elegida donde aparece "ESCUCHAR ONLINE" 2) Luego se nos va a abrir en una página aparte un complemento del reproductor de Windows Media Player para poder escuchar la sintonizacion online... 3) Hacemos click derecho sobre el reproductor y vamos hacia PROPIEDADES... 4) Nos dirigimos a UBICACION y copiamos el link que muestra... 5) Abrimos el Windows Media Player (cualquier versión) y apretamos " Ctrl + U " y se nos abre una ventanita que dice "ABRIR DIRECCION URL" y en la barra vacía copiamos el link del punto anterior 6) En la barra derecha de la solapa "REPRODUCCION EN CURSO" nos va a aparecer el nombre de la radio como si fuera el nomre de cualquier tema y empezamos a escuchar la radio al instante si estamos conectados a internet 7) Para que la direccion URL de la radio favorita quede grabada, solo tenemos que crear una lista de reproduccion con el nombre de la radio y listo Bue espero que les sirva loco Y a escuchar las excelentes radios Argentinas

Les comparto este texto escrito por Hernan Casciari, escritor argentino actual residente en españa. Muestra su clara indignacion por la retencion de los libros en nuestra aduana, sentimiento que comparto y que me imagino que la gran mayoria de la Inteligencia Colectiva tambien lo hace. HERNÁN CASCIARI | 26 DE MARZO, 2012 Vivo en España desde hace doce años. Y como a veces escribo en la prensa española, y saben que soy de Buenos Aires, cada vez que pasa algo más o menos dramático en Argentina me llaman por teléfono de una radio, o de un diario, y me pide que lo explique. —¿Por qué la gente no puede sacar su dinero del banco? ¿Por qué tal o cual político, después de haber robado tanto, es otra vez candidato? ¿Por qué teniendo tan buenos jugadores les va tan mal en este o en el otro mundial? A los españoles les encanta cuando nos pasa algo choto. Por eso preguntan, quieren ver si un día nos quedamos sin respuestas. —¿Por qué si antes teníais una red ferroviaria tan así, ahora vuestros trenes son tan asá? ¿Por qué si sois un país tan rico os ocurre tal o cual desgracia? Y así siempre. A mí me gustaría mandarlos a cagar cada vez que preguntan, pero prefiero defenderme atacando. Lo que hago es llevar el tema a donde más les duele, les hablo de la cultura. Les cuento que a pesar de nuestras desgracias enquistadas, en la ciudad de Córdoba hay más estudiantes de cine que en toda Europa. Yo sé que es chovinismo, pero me da bronca y me sale así. Les digo que en Buenos Aires la oferta teatral multiplica por veintitrés a la oferta teatral de Madrid y Barcelona juntas. Les digo que la educación universitaria es libre, gratuita y de enorme calidad; que escupimos científicos como España escupe toreros. Les digo que tenemos librerías abiertas hasta tarde, donde no está el último bestseller en la vidriera, sino que hay libros de Camus, de Sartre, de Camilo Cela, de González Tuñón. Les digo que vemos las películas en versión original subtitulada, y que después nos vamos a comer pizza y a discutir de cine. Les cuento que El Ateneo es una de las librerías más hermosas del mundo, y les muestro fotos, y se caen de culo. A cada pregunta de mierda sobre coyuntura, sobre inseguridad, sobre ausencia de reglas de juego, les digo Quino, les contesto Milstein, les retruco Bioy Casares, que es mi forma de decirles calláte gallego, ¿por qué me llamás solamente cuando mis papas queman, si a vos también te están incendiando el rancho? Hace doce años que le agradezco a la cultura argentina no quedarme mudo cuando me preguntan sobre el lugar donde nací. Hoy lunes, muy temprano, me llamaron de una radio de Barcelona. Querían saber por qué, desde hoy, los argentinos no podemos recibir publicaciones literarias extranjeras, ni revistas científicas, ni novelas, ni ensayos, ni cualquier tipo de libro, en nuestros domicilios particulares, ni en nuestras universidades, ni en nuestros laboratorios. Me preguntaron, esta mañana del siglo ventiuno, por qué los paquetes de DHL o de Fedex que adentro tienen libros o tienen publicaciones van a quedar confiscados en un aeropuerto. Por qué un porteño va a tener que viajar treinta y cinco kilómetros para retirar ese paquete, pagando una especie de fianza de cincuenta euros adicionales. Miento: la pregunta fue todavía más hija de puta. Me preguntaron por qué un científico tucumano que está suscrito a la revista Nature tendrá que viajar, cada mes, mil doscientos kilómetros para retirar su ejemplar de Ezeiza. Me preguntaron cómo voy a hacer yo para mandarle un ejemplar de la última edición española de mis libros a mi mamá, que vive en Luján. Me preguntaron cómo puede ser que nos esté pasando esto, si somos tan cultos. Y así fue como hoy, después de muchos años de tener una respuesta para todo, me cerraron el orto.
