Carsick1828
Usuario (México)
Hola amigos de T! este post va deidcado a todos aquellos amantes de la internet!! espero y les guste.. aqui empiezaa!! La Historia de La Internet La historia de Internet se remonta en 1989redes de comunicación. La idea de una red de computadoras diseñada para permitir la comunicación general entre usuarios de varias computadoras sea tanto desarrollos tecnológicos como la fusión de la infraestructura de la red ya existente y los sistemas de telecomunicaciones. Las más antiguas versiones de estas ideas aparecieron a finales de los años cincuenta. Implementaciones prácticas de estos conceptos empezaron a finales de los ochenta y a lo largo de los noventa. En la década de 1980, tecnologías que reconoceríamos como las bases de la moderna Internet, empezaron a expandirse por todo el mundo. En los noventa se introdujo la World Wide Web(WWW), que se hizo común. La infraestructura de Internet se esparció por el mundo, para crear la moderna red mundial de computadoras que hoy conocemos. Atravesó los países occidentales e intentó una penetración en los países en desarrollo, creando un acceso mundial a información y comunicación sin precedentes, pero también una brecha digital en el acceso a esta nueva infraestructura. Internet también alteró la economía del mundo entero, incluyendo las implicaciones económicas de la burbuja de las .com. Un método de conectar computadoras, prevalente sobre los demás, se basaba en el método de la computadora central o unidad principal, que simplemente consistía en permitir a sus terminales conectarse a través de largas líneas alquiladas. Este método se usaba en los años cincuenta por el Proyecto RAND para apoyar a investigadores como Herbert Simon, en Pittsburgh (Pensilvania), cuando colaboraba a través de todo el continente con otros investigadores de Santa Mónica (California) trabajando en demostración automática de teoremas e inteligencia artificial. Un pionero fundamental en lo que se refiere a una red mundial, J.C.R. Licklider, comprendió la necesidad de una red mundial, según consta en su documento de enero, 1960, Man-Computer Symbiosis (Simbiosis Hombre-Computadora). "una red de muchos , conectados mediante líneas de comunicación de banda ancha" las cuales proporcionan "las funciones hoy existentes de las bibliotecas junto con anticipados avances en el guardado y adquisición de información y funciones simbióticas" J.C.R Licklider En octubre de 1962, Licklider fue nombrado jefe de la oficina de procesado de información DARPA, y empezó a formar un grupo informal dentro del DARPA del Departamento de Defensa de los Estados Unidos para investigaciones sobre ordenadores más avanzadas. Como parte del papel de la oficina de procesado de información, se instalaron tres terminales de redes: una para la System Development Corporation en Santa Monica, otra para el Proyecto Genie en la Universidad de California (Berkeley) y otra para el proyecto Multics en el Instituto Tecnológico de Massachusetts. La necesidad de Licklider de redes se haría evidente por los problemas que esto causó. "Para cada una de estas tres terminales, tenía tres diferentes juegos de comandos de usuario. Por tanto, si estaba hablando en red con alguien en la S.D.C. y quería hablar con alguien que conocía en Berkeley o en el M.I.T. sobre esto, tenía que irme de la terminal de la S.C.D., pasar y registrarme en la otra terminal para contactar con él. Dije, es obvio lo que hay que hacer: si tienes esas tres terminales, debería haber una terminal que fuese a donde sea que quisieras ir y en donde tengas interactividad. Esa idea es el ARPANet." Robert W. Taylor, co-escritor, junto con Licklider, de "The Computer as a Communications Device" (El Ordenador como un Dispositivo de Comunicación), en una entrevista con el New York Times2 Como principal problema en lo que se refiere a las interconexiones está el conectar diferentes redes físicas para formar una sola red lógica. Durante los años 60, varios grupos trabajaron en el concepto de la conmutación de paquetes. Normalmente se considera que Donald Davies (National Physical Laboratory), Paul Baran (Rand Corporation) y Leonard Kleinrock (MIT) lo han inventado simultáneamente. Creador de la Internet (Tim Burners-Lee): La conmutación es una técnica que nos sirve para hacer un uso eficiente de los enlaces físicos en una red de computadoras. Un Paquete es un grupo de información que consta de dos partes: los datos propiamente dichos y la información de control, en la que está especificado la ruta a seguir a lo largo de la red hasta el destino del paquete. Mil octetos es el límite de longitud superior de los paquetes, y si la longitud es mayor el mensaje se fragmenta en otros paquetes. En 1984 América empezó a avanzar hacia un uso más general del TCP/IP, y se convenció al CERNET para que hiciera lo mismo. El CERNET, ya convertido, permaneció aislado del resto de Internet, formando una pequeña Internet interna En 1988 Daniel Karrenberg, del Instituto Nacional de Investigación sobre Matemáticas e Informática de Ámsterdam, visitó a Ben Senegal, coordinador TCP/IP dentro del CERN; buscando consejo sobre la transición del lado europeo de la UUCP Usenet network (de la cual la mayor parte funcionaba sobre enlaces X.25) a TCP/IP. En 1987, Ben Segal había hablado con Len Bosack, de la entonces pequeña compañía Cisco sobre routers TCP/IP, y pudo darle un consejo a Karrenberg y reexpedir una carta a Cisco para el hardware apropiado. Esto expandió la porción asiática de Internet sobre las redes UUCP existentes, y en 1989 CERN abrió su primera conexión TCP/IP externa.4 Esto coincidió con la creación de Réseaux IP Européens (RIPE), inicialmente un grupo de administradores de redes IP que se veían regularmente para llevar a cabo un trabajo coordinado. Más tarde, en 1992, RIPE estaba formalmente registrada como una cooperativa en Ámsterdam. Al mismo tiempo que se producía el ascenso de la interconexión en Europa, se formaron conexiones hacia el ARPA y universidades australianas entre sí, basadas en varias tecnologías como X.25 y UUCPNet. Éstas estaban limitadas en sus conexiones a las redes globales, debido al coste de hacer conexiones de marcaje telefónico UUCP o X.25 individuales e internacionales. En 1990, las universidades australianas se unieron al empujón hacia los protocolos IP para unificar sus infraestructuras de redes. AARNet se formó en 1989 por el Comité del Vice-Canciller Australiano y proveyó una red basada en el protocolo IP dedicada a Australia. En Europa, habiendo construido la JUNET (Red Universitaria canadesa) una red basada en UUCP en 1984 Japón continuó conectándose a NSFNet en 1989 e hizo de anfitrión en la reunión anual de The Internet Society, INET'92, en Kōbe. Singapur desarrolló TECHNET en 1990, y Thailandia consiguió una conexión a Internet global entre la Universidad de Chulalongkorn y UUNET en 1992.5 Los inicio de Internet nos remontan a los años 60. En plena guerra fría, Estados Unidos crea una red exclusivamente militar, con el objetivo de que, en el hipotético caso de un ataque ruso, se pudiera tener acceso a la información militar desde cualquier punto del país. Este red se creó en 1969 y se llamó ARPANET. En principio, la red contaba con 4 ordenadores distribuidos entre distintas universidades del país. Dos años después, ya contaba con unos 40 ordenadores conectados. Tanto fue el crecimiento de la red que su sistema de comunicación se quedó obsoleto. Entonces dos investigadores crearon el Protocolo TCP/IP, que se convirtió en el estándar de comunicaciones dentro de las redes informáticas (actualmente seguimos utilizando dicho protocolo). ARPANET siguió creciendo y abriéndose al mundo, y cualquier persona con fines académicos o de investigación podía tener acceso a la red. Las funciones militares se desligaron de ARPANET y fueron a parar a MILNET, una nueva red creada por los Estados Unidos. La NSF (National Science Fundation) crea su propia red informática llamada NSFNET, que más tarde absorbe a ARPANET, creando así una gran red con propósitos científicos y académicos. El desarrollo de las redes fue abismal, y se crean nuevas redes de libre acceso que más tarde se unen a NSFNET, formando el embrión de lo que hoy conocemos como INTERNET. En 1985 la Internet ya era una tecnología establecida, aunque conocida por unos pocos. El autor William Gibson hizo una revelación: el término "ciberespacio". En ese tiempo la red era basicamente textual, así que el autor se baso en los videojuegos. Con el tiempo la palabra "ciberespacio" terminó por ser sinonimo de Internet. El desarrollo de NSFNET fue tal que hacia el año 1990 ya contaba con alrededor de 100.000 servidores. En el Centro Europeo de Investigaciones Nucleares (CERN), Tim Berners Lee dirigía la búsqueda de un sistema de almacenamiento y recuperación de datos. Berners Lee retomó la idea de Ted Nelson (un proyecto llamado "Xanadú" ) de usar hipervínculos. Robert Caillau quien cooperó con el proyecto, cuanta que en 1990 deciden ponerle un nombre al sistema y lo llamarón World Wide Web (WWW) o telaraña mundial. La nueva formula permitía vincular información en forma lógica y através de las redes. El contenido se programaba en un lenguaje de hipertexto con "etíquetas" que asignaban una función a cada parte del contenido. Luego, un programa de computación, un intérprete, eran capaz de leer esas etiquetas para despeglar la información. Ese interprete sería conocido como "navegador" o "browser". En 1993 Marc Andreesen produjo la primera versión del navegador "Mosaic", que permitió acceder con mayor naturalidad a la WWW. La interfaz gráfica iba más allá de lo previsto y la facilidad con la que podía manejarse el programa abría la red a los legos. Poco después Andreesen encabezó la creación del programa Netscape. Apartir de entonces Internet comenzó a crecer más rápido que otro medio de comunicación, convirtiendose en lo que hoy todos conocemos. Algunos de los servicios disponibles en Internet aparte de la WEB son el acceso remoto a otras máquinas (SSH y telnet), transferencia de archivos (FTP), correo electrónico (SMTP), conversaciones en línea (IMSN MESSENGER, ICQ, YIM, AOL, jabber), transmisión de archivos (P2P, P2M, descarga directa), etc. Podemos definir a Internet como una "red de redes", es decir, una red que no sólo interconecta computadoras, sino que interconecta redes de computadoras entre sí. Una red de computadoras es un conjunto de máquinas que se comunican a través de algún medio (cable coaxial, fibra óptica, radiofrecuencia, líneas telefónicas, etc.) con el objeto de compartir recursos. De esta manera, Internet sirve de enlace entre redes más pequeñas y permite ampliar su cobertura al hacerlas parte de una "red global". Esta red global tiene la característica de que utiliza un lenguaje común que garantiza la intercomunicación de los diferentes participantes; este lenguaje común o protocolo (un protocolo es el lenguaje que utilizan las computadoras al compartir recursos) se conoce como TCP/IP. Así pues, Internet es la "red de redes" que utiliza TCP/IP como su protocolo de comunicación. Internet es un acrónimo de INTERconected NETworks (Redes interconectadas). Para otros, Internet es un acrónimo del inglés INTERnational NET, que traducido al español sería Red Mundial Aunque el uso comercial estaba prohibido, su definición exacta era subjetiva y no muy clara. Todo el mundo estaba de acuerdo en que una compañía enviando una factura a otra compañía era claramente uso comercial, pero cualquier otro asunto podía ser debatido. UUCPNet y la IPSS X.25 no tenían esas restricciones, que eventualmente verían la excepción oficial del uso de UUCPNet en conexiones ARPANET y NSFNet. A pesar de ello, algunas conexiones UUCP seguían conectándose a esas redes, puesto que los administradores hacían la vista gorda ante su funcionamientoDurante los finales de los años ochenta se formaron las primeras compañías Internet Service Provider (ISP). Compañías como PSINet, UUNET, Netcom, y Portal Software se formaron para ofrecer servicios a las redes de investigación regional y dar un acceso alternativo a la red, e-mail basado en UUCP y Noticias Usenet al público. El primer ISP de marcaje telefónico, world.std.com, se inauguró en 1989. Esto causó controversia entre los usuarios conectados a través de una universidad, que no aceptaban la idea del uso no educativo de sus redes. Los ISP comerciales fueron los que eventualmente bajaron los precios lo suficiente como para que los estudiantes y otras escuelas pudieran participar en los nuevos campos de educación e investigación. Para el año 1990, ARPANET había sido superado y reemplazado por nuevas tecnologías de red, y el proyecto se clausuró. Tras la clausura de ARPANET, en 1994, NSFNet, actualmente ANSNET (Advanced Networks and Services, Redes y Servicios Avanzados) y tras permitir el acceso de organizaciones sin ánimo de lucro, perdió su posición como base fundamental de Internet. Ambos, el gobierno y los proveedores comerciales crearon sus propias infraestructuras e interconexiones. Los NAPs regionales se convirtieron en las interconexiones primarias entre la multitud de redes y al final terminaron las restricciones comerciales.Internet desarrolló una subcultura bastante significativa, dedicada a la idea de que Internet no está poseída ni controlada por una sola persona, compañía, grupo u organización. Aun así, se necesita algo de estandarización y control para el correcto funcionamiento de algo. El procedimiento de la publicación del RFC liberal provocó la confusión en el proceso de estandarización de Internet, lo que condujo a una mayor formalización de los estándares oficialmente aceptados. El IETF empezó en enero de 1986 como una reunión trimestral de los muchos investigadores del gobierno de los Estados Unidos. En la cuarta reunión del IETF (octubre de 1986) se pidió a los representantes de vendedores no gubernamentales que empezaran a participar en esas reuniones. La aceptación de un RFC por el Editor RFC para su publicación no lo estandariza automáticamente. Debe ser reconocido como tal por la IETF sólo después de su experimentación, uso, y su aceptación como recurso útil para su propósito. Los estándares oficiales se numeran con un prefijo "STD" y un número, similar al estilo de nombramiento de RFCs. Aun así, incluso después de estandarizarse, normalmente la mayoría es referida por su número RFC. En 1992, se formó una sociedad profesional, la Internet Society (Sociedad de Internet), y la IETF se transfirió a una división de la primera, como un cuerpo de estándares internacionales independiente.La primera autoridad central en coordinar la operación de la red fue la NIC (Network Information Centre) en el Stanford Research Institute (también llamado SRI International, en Menlo Park, California). En 1972, el manejo de estos problemas se transfirió a la reciente Agencia de Asignación de Números de Internet (Internet Assigned Numbers Authority, o IANA). En adición a su papel como editor RFC, Jon Postel trabajó como director de la IANA hasta su muerte en 1998. Así como crecía la temprana ARPANet, se establecieron nombres como referencias a los hosts, y se distribuyó un archivo HOSTS.TXT desde SRI International a cada host en la red. Pero a medida que la red crecía, este sistema era menos práctico. Una solución técnica fue el Domain Name System, creado por Paul Mockapetris. La Defense Data Network - Network Information Center (DDN-NIC) en el SRI manejó todos los servicios de registro, incluyendo los dominios de nivel superior .mil, .gov, .edu, .org, .net, .com y .us, la administración del servidor raíz y la asignación de los números de Internet, bajo un contrato del Departamento de Defensa de los Estados Unidos.6 En 1991, la Agencia de Sistemas de Información de Defensa (Defense Information Systems Agency o DISA) transfirió la administración y mantenimiento de DDN-NIC (hasta ese momento manejado por SRI) a Government Systems, Inc., que lo subcontrató al pequeño sector privado Network Solutions, Inc.7 Como a este punto en la historia la mayor parte del crecimiento de Internet venía de fuentes no militares, se decidió que el Departamento de Defensa ya no fundaría servicios de registro fuera del domino de nivel superior .mil. En 1993 la National Science Foundation de los E.E.U.U., después de un competitivo proceso de puja en 1992, creó la InterNIC para tratar las localizaciones de las direcciones y el manejo de las bases de datos, y pasó el contrato a tres organizaciones. Los servicios de Registro los daría Network Solutions; los servicios de Directorios y Bases de Datos, AT&T; y los de Información, General Atomics.8 En 1998 tanto IANA como InterNIC se reorganizaron bajo el control de ICANN, una corporación de California sin ánimo de lucro, contratada por el US Department of Commerce para manejar ciertas tareas relacionadas con Internet. El papel de operar el sistema DNS fue privatizado, y abierto a competición, mientras la gestión central de la asignación de nombres sería otorgada a través de contratos.Se suele considerar el correo electrónico como la aplicación asesina de Internet; aunque realmente, el e-mail ya existía antes de Internet y fue una herramienta crucial en su creación. Empezó en 1965 como una aplicación de ordenadores centrales a tiempo compartido para que múltiples usuarios pudieran comunicarse. Aunque la historia no es clara, entre los primeros sistemas en tener una facilidad así se encuentran Q32, de SDC's, y CTSS del MIT.9 La red de computadoras de ARPANET hizo una gran contribución en la evolución del correo electrónico. Existe un informe10 que indica transferencias de e-mail entre sistemas experimentales poco después de su creación. Ray Tomlinson inició el uso del signo @ para separar los nombres del usuario y su máquina, en 1971. Se desarrollaron protocolos para transmitir el correo electrónico entre grupos de ordenadores centrales a tiempo compartido sobre otros sistemas de transmisión, como UUCP y el sistema de e-mail VNET, de IBM. El correo electrónico podía pasarse así entre un gran número de redes, incluyendo ARPANET, BITNET y NSFNET, así como a hosts conectados directamente a otros sitios vía UUCP. Además, UUCPnet trajo una manera de publicar archivos de texto que se pudieran leer por varios otros. El software News, desarrollado por Steve Daniels y Tom Truscott en 1979 se usarían para distribuir noticias mensajes como tablones de anuncios. Esto evolucionó rápidamente a los grupos de discusión con un gran rango de contenidos. En ARPANET y NSFNET, concretamente en en la lista de correo de sflovers se crearon grupos de discusión similares por medio de listas de correo, que discutían asuntos técnicos y otros temas, como la ciencia ficción.A medida que Internet creció durante los años 1980 y principios de los años 1990, mucha gente se dio cuenta de la creciente necesidad de poder encontrar y organizar ficheros e información. Los proyectos como Gopher, WAIS, y la FTP Archive list intentaron crear maneras de organizar datos distribuidos. Desafortunadamente, estos proyectos se quedaron cortos en poder alojar todos los tipos de datos existentes y en poder crecer sin cuellos de botella. Uno de los paradigmas de interfaz de usuario más prometedores durante este periodo fue el hipertexto. La tecnología había sido inspirada por el "Memex" de Vannevar Bush12 y desarrollado a través de la investigación de Ted Nelson en el Proyecto Xanadu y la investigación de Douglas Engelbart en el NLS.13 Muchos pequeños sistemas de hipertexto propios se habían creado anteriormente, como el HyperCard de Apple Computer. En 1991, Tim Berners-Lee fue el primero en desarrollar un implementación basada en red de concepto de hipertexto. Esto fue después de que Berners-Lee hubiera propuesto repetidamente su idea a las comunidades de hipertexto e Internet en varias conferencias sin acogerse—nadie lo implementaría por él. Trabajando en el CERN, Berners-Lee quería una manera de compartir información sobre su investigación. Liberando su implementación para el uso público, se aseguró que la tecnología se extendería.14 Posteriormente, Gopher se convirtió en la primera interfaz de hipertexto comúnmente utilizada en Internet. Aunque las opciones del menú Gopher eran ejemplos de hipertexto, éstas no fueron comúnmente percibidas de esta manera. Unos de los primeros populares navegadores web, modelado después de HyperCard, fue ViolaWWW. Los expertos generalmente están de acuerdo, sin embargo, que el punto decisivo para la World Wide Web comenzó con la introducción15 de Mosaic16 en 1993, un navegador web con interfaz gráfica desarrollado por un equipo en el National Center for Supercomputing Applications en la Universidad de Illinois en Urbana-Champaign (NCSA-UIUC), liderado por Marc Andreessen. Los fondos para Mosaic vinieron desde la High-Performance Computing and Communications Initiative, el programa de ayudas High Performance Computing and Communication Act of 1991 iniciado por el entonces senador Al Gore.17 De hecho, la interfaz gráfica de Mosaic pronto se hizo más popular que Gopher, que en ese momento estaba principalmente basado en texto, y la WWW se convirtió en la interfaz preferida para acceder a Internet. Mosaic fue finalmente suplantado en 1994 por Netscape Navigator de Andreessen, que reemplazó a Mosaic como el navegador web más popular en el mundo. La competencia de Internet Explorer y una variedad de otros navegadores casi lo ha sustituido completamente. Otro acontecimiento importante celebrado el 11 de enero de 1994, fue The Superhighway Summit en la Sala Royce de la UCLA. Esta fue la "primera conferencia pública que agrupó a todos los principales líderes de la industria, el gobierno y académicos en el campo también comenzó el diálogo nacional sobre la Autopista de la información y sus implicaciones.Incluso antes de la World Wide Web, hubo buscadores que intentaron organizar Internet. El primero de estos fue Archie de la Universidad McGill en 1990, seguido en 1991 por WAIS y Gopher. Los tres sistemas fueron anteriores a la invención de la World Wide Web pero todos continuaron indexando la Web y el resto de Internet durante varios años después de que apareciera la Web. A 2006, aún hay servidores Gopher, aunque hay muchos más servidores web. A medida que la Web creció, se crearon los buscadores y los directorios web para localizar las páginas en la Web y permitir a las personas encontrar cosas. El primer buscador web completamente de texto fue WebCrawler en 1994. Antes de WebCrawler, sólo se podían buscar títulos de páginas web. Otro de los primeros buscadores, Lycos, fue creado en 1993 como un proyecto universitario, y fue el primero en conseguir éxito comercial. Durantes los últimos años de 1990, tanto los directorios web como los buscadores web eran populares—Yahoo! (fundado en 1995) y AltaVista (fundado en 1995) fueron los respectivos líderes de la industria. Por agosto de 2001, el modelo de directorios había comenzado a ceder ante el de buscadores, mostrando el surgimiento de Google (fundado en 1998), que había desarrollado nuevos enfoques para el ordenamiento por relevancia. El modelo de directorios, aunque aún está disponible comúnmente, es menos utilizado que los buscadores. El tamaño de las bases de datos, que había sido sido una característica de marketing significativa durante los primeros años de la década de 2000, fue igualmente sustituido por el énfasis en el ordenamiento por relevancia, los métodos con los cuales los buscadores intentan colocar los mejores resultados primero. El ordenamiento por relevancia se convirtió por primera vez en una cuestión importante alrededor de 1996, cuando se hizo evidente que no era práctico revisar listas completas de resultados. Por consiguiente, los algoritmos para el ordenamiento por relevancia se han ido mejorando continuamente. El método PageRank de Google para ordenar los resultados ha recibido la mayoría de la prensa, pero todos los principales buscadores refinan continuamente sus metodologías de ordenamiento con el objetivo de mejorar el orden de los resultados. En 2006, la posición en los buscadores es más importante que nunca, tanto que la industria ha desarrollado ("posicionadores en buscadores" para ayudar a los desarrolladores web a mejorar su posición en el buscador, y se ha desarrollado un cuerpo entero de jurisprudencia alrededor de cuestiones que afectan al posicionamiento en los buscadores, como el uso de marcas registradas en metatags. La venta de posiciones en buscadores por algunos buscadores ha creado también controversia entre bibliotecarios y defensores de los consumidores. Bueno amigos eso fue todo de este post espero les haya gustado y/o Servido.. muchas gracias por verlo..
Los secretos de la Nasa en 10 fotos inéditas La Agencia estadounidense para la Administración del Espacio y la Aeronáutica ha publicado en internet tres galerías de imágenes representativas de sus más grandes logros Lanzamientos de cohetes, construcciones de hangares y ceremonias históricas han quedado documentados en imágenes sobre la NASA. Recientemente puestas a disposición del público en general vía Flickr. De10.mx te presenta una selección de las fotografías más emblemáticas de esta importante agencia espacial. Las imágenes publicadas por la NASA están divididas en tres enormes álbumes: "Lanzamientos y despegues" ("Launch and Takeoff", "Construyendo la NASA" ("Building NASA" y "Personajes de la NASA" ("Center Namesakes". Así lo establecen las traducciones del sitio electrónico especializado en ciencia Neoteo.com Entre 1931 y 1934 se construyó el Hangar Uno en Sunnyvale, California. Estas instalaciones fueron el primer hogar de los proyectos espaciales en Estados Unidos. La siguiente fotografía documenta el avance de la construcción de la estación naval aérea de Sunnyvale (Naval Air Station Sunnyvale), en 1935. En la próxima imagen se observa a los fundadores del Laboratorio de Propulsión a Chorro (JPL, por sus siglas en inglés) ubicado en La Cañada Flintridge, California. Ellos son, de izquierda a derecha: William H. Pickering, director del Laboratorio, Theodore von Karman, co-fundador, y Frank J. Malina, co-fundador y primer director del Laboratorio. En enero de 1961 se lanzó desde Cabo Cañaveral, Florida, el cohete Mercury-Redstone 2, que llevaba como pasajero al chimpancé Ham. El objetivo de la misión era probar que las condiciones al interior del cohete fueran las adecuadas para propiciar la supervivencia de sus pasajeros. En febrero de 1962, el astronauta estadounidense John Glenn se convirtió en el primer hombre de aquel país en orbitar alrededor de la Tierra. A su regreso al planeta inició una carrera política que lo llevó a ganar una senaduría. En agosto de 1963 fue lanzado el cohete Little Joe II como parte de las pruebas que la NASA realizó con miras a enviar una expedición tripulada a la luna. Entonces se midieron los sistemas de propulsión del cohete y demás detalles técnicos. La siguiente imagen documenta el avance en la construcción del Centro de Ensamblaje de Vehículos (originalmente Ensamblaje Vertical) a mayo de 1965. Este inmueble fue indispensable para montar el cohete Apollo 11. Se trata de la cuarta construcción más grande del mundo en cuanto a su volumen El 16 de julio de 1969 fue lanzado de Cabo Cañaveral, Florida, el cohete Apollo 11, primero en la historia de la humanidad en alcanzar territorio lunar En la próxima fotografía se registró el despegue de la sonda Lunar Prospector, ocurrido el primero de junio de 1998 y dirigido a estudiar la superficie de la luna El 15 de julio de 2009, a 40 años del lanzamiento de la misión Apollo 11, fue despedido al espacio el Transbordador espacial Endeavour rumbo a una misión que instalaría el módulo japonés de la Estación Espacial Internacional, de nombre Kibo. Bueno amigos esto fue todo de este post espero y les haya gustado y/o servido de algo.. Muchas gracias por leerlo..
Envíos De Dinero a México Envía dinero por Internet a México de manera rápida por tan solo $4.99 www.xoom.com #customAd a.imagen-ad {float: left;margin: 0 15px 0 0;} #customAd a { color:#2200C1;display:block; font-size:14px} #customAd p {margin:0} #customAd p a {margin:0;color:#0E774A;font-size:12px} #customAd {clear: both; margin-bottom: 5px;padding:10px;border: #CCC solid 1px;background: #FFF;text-align:left;font-family:'Lucida Grande',Tahoma,Arial,Verdana,Sans-Serif;-moz-border-radius: 10px;} Bueno Amigos Taringueros Despues de poco mas de un año de ausencia REGRESO!! y como siempre para darles un agradable momento.. ya sea informativo o de risa.. asi que como siempre! espero que les Guste este post! Joaquín Guzmán Loera Joaquín Archivaldo Guzmán Loera, mejor conocido como el "Chapo" Guzmán (4 de abril de 1957), es el líder de una organización internacional de droga llamada la 'Alianza de Sangre', también conocido como el Cártel de Sinaloa. Después del arresto de Osiel Cárdenas del Cártel del Golfo, Joaquín Guzmán se convirtió en el principal traficante de drogas de México, y probablemente del mundo. Desde su fuga en enero del 2001, se convirtió en el segundo más buscado por el FBI e Interpol después de Osama Bin Laden (actualmente muerto). Posteriormente a la muerte de este en 2011 en el ranking titulado "Los nuevos 10 más buscados", que se elaboró a partir de una lista realizada por la revista Forbes, colocó en primer lugar a Guzmán Loera, a quien calificó como un hombre "implacable y determinado". Esta misma revista calcula su fortuna en mil millones de dólares, y en el año 2009 lo colocó en el lugar 41 entre las personas más poderosas del mundo,bajando en el año 2010 al puesto 60 de la misma lista, subiendo al puesto 55 en el año 2011.[/b Sus inicios Durante 1980 Guzmán se asoció con Miguel Ángel Félix Gallardo (también conocido como El Padrino), el principal narcotraficante en México durante esa época. En 1989 Félix Gallardo fue detenido y procesado, él era líder del entonces Cártel de Guadalajara, junto con los hermanos Arellano Félix, lo que causó que el Cártel de Guadalajara se dividiera y Joaquín Guzmán se trasladara a Culiacán y fundara el Cártel de Sinaloa, consolidándose como el líder del narcotráfico en México. Los hermanos Arellano Félix se infiltraron en Baja California y crearon el Cártel de Tijuana. Con los años, ambos cárteles desarrollaron una profunda rivalidad, la cual alcanzó uno de sus puntos más violentos el 24 de mayo de 1993, cuando ambos cárteles protagonizaron una mortal balacera en el Aeropuerto Internacional de Guadalajara donde una de las siete víctimas fue el cardenal Juan Jesús Posadas Ocampo. El 11 de agosto de 2009 la Policía Federal Preventiva encontró un escondite del Chapo Guzmán en Durango, en el que ocultaba arsenal, marihuana y dinero, entre otras cosas. La familia de Joaquín Guzmán ha sufrido ocho bajas, cuatro han sido ejecutados y otros cuatro detenidos. Uno de sus hijos, Édgar Guzmán López, de 22 años, fue ejecutado el 8 de mayo del 2008 en un centro comercial de Culiacán. Ahí murieron dos familiares más: Ernesto Ábrego Cárdenas del Cártel de los Ábrego de la Muerte, nacidos en Morelia, Michoacán, debido a dicho suceso los descendientes de los Ábrego se dispersaron por Baja California, dejando a la DEA (La agencia antinarcóticos estadounidense) en busca de Édgar Ábrego Villalobos, nacido el 1 de junio de 1990, heredando grandes plazas y cantidades de droga un tío y un primo de Édgar. El 5 de febrero de 2008, jueces federales sentenciaron a 13 años de prisión a Miguel Ángel Guzmán Loera, hermano de Joaquín, por lavado de dinero y portación de armas de fuego de uso exclusivo del Ejército, Armada y Fuerza Aérea.9 10 En junio de 2005, en Zapopan, Jalisco, fue detenido otro de sus hijos: Iván Archivaldo Guzmán Salazar, tras un accidente de tránsito. Se le sentenció a cinco años de prisión por lavado de dinero, aunque en abril del 2008 fue absuelto por un juez federal por falta de pruebas.11 El 31 de diciembre de 2004 asesinaron en el Penal de La Palma (hoy CEFERESO, CEntro FEderal de REadaptación SOcial, N°. 1 Altiplano), a su hermano Arturo Guzmán Loera, quien estaba recluido desde septiembre de 2001 por ser uno de los principales operadores del cártel de Sinaloa. Su primo, Alfonso Gutiérrez Loera, fue arrestado en mayo del 2008 en una casa de seguridad de Culiacán, donde resguardaba armas largas y granadas; y en la misma ciudad, el 20 de junio, militares y agentes policíacos detuvieron a otro de sus primos: Isaí Martínez Zepeda, José Luis Farías Zanca quien transportaba armas en una camioneta .. Enfrentamientos en Chihuahua En Chihuahua, estado fronterizo con Estados Unidos, se registraron en 2008 más de 2000 de los 5600 asesinatos relacionados con el crimen organizado ocurridos en el país,ahora en 2011 ya se han registrado más de 50,000 ejecuciones en México, de los cuales 12,000 ocurrieron en las ciudades de Chihuahua y Ciudad Juárez, esta última considerada como la más violenta de México, solo adelante de Tijuana. La región es el centro neurálgico de la disputa entre los carteles de Juárez, dirigido por Vicente Carrillo Fuentes, aliado del cartel del Golfo, y el de Sinaloa, que lidera Joaquín 'El Chapo' Guzmán. Se atribuye a Guzmán Loera haber desatado el enfrentamiento, al negarse a seguir pagando "derecho de piso" al Cártel de Juárez por el trasiego de droga a Estados Unidos, y decidir en cambio arrebatar la plaza a Vicente Carrillo Fuentes alias "El Viceroy" (hermano del ya fallecido Amado Carrillo Fuentes "El señor de los cielos". Para este enfrentamiento el Cártel de Juárez ha recurrido como brazo ejecutor al grupo de sicarios llamado "La Línea",en tanto Guzmán Loera ha utilizado los servicios de grupo llamado "Gente Nueva",uno y otro bando han recurrido también al reclutamiento de pandillas de méxico-americanos, como son "los Aztecas". Los enfrentamientos entre estos grupos de sicarios han derivado en varios multihomicidios en colonias populares de Ciudad Juárez (como ocurrió en Villas de Salvárcar).Otro grupo llamado "Los Antrax" ha sido utilizado como escolta de los capos del Cártel de Sinaloa (Ismael Zambada García,Joaquín Guzmán Loera) y también como brazo armado del cartel. También es reconocido un hombre llamado Gonzalo Inzunza Inzunza y socio Manuel Torres Félix Alias el "Ondeado", ambos eran considerados sicarios de esta organización hasta que el presidente de los Estados Unidos,Barack Obama los considero dentro de los más buscados esto a principios de 2011, es bien sabido entre la población en general que estos dos hombres tienen un gran poder dentro del Cártel de Sinaloa incluso se considera que son líderes dentro de este cártel. Recompensas Por ser uno de los más buscados, el gobierno de México mediante la Procuraduría General de la República (PGR) ofrece una recompensa de 30 millones, y el gobierno estadounidense 50 millones de dólares, por proporcionar información valiosa para la ubicación y detención de Joaquín Guzmán Loera, Juan José Esparragoza Moreno, Ismael Zambada García y Héctor Beltrán Leyva. Bueno Amigos Taringueros hasta aqui el post de hoy! espero les haya gustado ;D y recuerden! comentar es agradecer! y claro dar puntos lo es mas!!

La famosa revista Forbes, publicó un listado de los 10 carros más caros del mundo que estarán en venta en este 2011, es un completa lista con los mejores autos del momento. Caben destacar muchas curiosidades sobre los autos, en el raking tenemos el mejor carro de cada marca y serán bellezas que solo multimillonarios y dueños de algún banco pueden tener. 10. Rolls-Royce Phantom Drophead Coupe El modelo más económico de la lista es este convertible de cuatro asientos y 2 puertas, que por US$447.000 te entrega un motor V12 6.7 litros, y potencia y lujo a destajo. 9. Lamborghini Murcielago LP670-4 SuperVeloce La mejor versión especial del Murciélago, con 670 hp, transmisión de 6 velocidades manual y doble tracción, se puede llevar por US$455.400. Una ganga. 8. Ferrari SA Aperta Fue presentado en el salón de París del año pasado, como una manera de conmemorar los 80 años de Pininfarina. Basado en el 599 GTO, tiene un techo removible y el mismo V12 de 670 hp. El precio estimado es de US$520.000 por cada uno de los 80 que se fabricaran. 7. LeBlanc Mirabeau Este desconocido es un deportivo suizo, que aunque no lo parece, es auto de calle. Como todo purasangre, su principal objetivo es la velocidad, que la consigue gracias al V8 sobrecargado, que le entrega 700 hp y 800 Nm de torque. Te lo puedes llevar por US$728.000 6. SSC Ultimate Aero Uno de los que peleó duramente por el título del auto más rápido de producción (hasta que apareció el Veyron) con una velocidad tope de 439 km/h, gracias al poder del V8 que entrega 1.287 hp. Y así como es de dificil alcanzarlo en velocidad, también es para comprarlo, ya que su valor es de US$750.000 5. Ferrari F70 (si es un prototipo) Forbes se aventura a colocar en la lista a un auto que no se ha visto en dibujos ni en spyshots, siendo bastante extraño ya que estamos hablando de nada más que el sucesor del Ferrari Enzo. Según la revista, saldrá a la venta a un valor de US$870.000(ese es su precio estimado) Ferrari F70 es un nombre dado por la prensa del motor de un superdeportivo prevé que será construido por Ferrari. Se espera que se basará en los resultados de las pruebas del Ferrari FXX y en la investigación que lleva adelante el Proyecto Millechili en la Universidad de Módena. Asociación con el Proyecto Millechili ha dado lugar a especulaciones de que el próximo superdeportivo de Ferrari tendrá un peso de 1.000 kg (2.205 libras) o menos. 4. Pagani C9 Huayra Ya se han visto varias unidades del sucesor del Zonda siendo probadas alrededor del mundo. El deportivo de 700 hp se espera que tenga un valor estimado de US$1.300.000 Seguirá siendo Mercedes-Benz y AMG quienes potencien al italiano, y será con un V12 de 6 litros y nada más y nada menos que 700 caballos. ¿Suficiente? 50 caballos menos que el súmmum del actual Zonda, el R. ¿Qué te parece? Con más de 3.770 partes nuevas, básicamente estaremos ante mucho más que una evolución, un modelo totalmente nuevo. Suspensiones, frenos, dirección… todo cambiará radicalmente. Y es que el objetivo de Pagani es directo: ser el mejor superdeportivo. La meta no es en sí superarse a sí mismo, porque sería establecer el listón muy bajo. El auténtico objetivo será dejar a los futuros deportivos de Ferrari, Lamborghini y McLaren -entre otros- en la estacada, ya que aún por venir el sucesor del Enzo, el del Murciélago -denominado Jota- y también el nuevo sucesor del todopoderoso McLaren F1… quieren asegurarse. ¿Y cómo asegurarse? Rozando la perfección. 3. Maybach Landaulet La limusina de lujo de Maybach llega al Top 3 de la lista. El detalle más llamativo es el techo descapotable de la cabina trasera, que al abrirlo entrega esa sensación de espacio y a la vez privacidad (al mantener los vidrios arriba) El precio se dispara hasta los US$1.405.000, gracias a todos los detalles de lujo de esa casi suite con ruedas, que entre todo, incluye hasta dos copas de champagne, hechas de plata y pulidas a mano 2. Koenigsegg Agera El supe deportivo sueco de millón y medio de dólares excusa su precio gracias a su ingeniería y diseño hecho con tecnología de punta, con múltiples aplicaciones y piezas hechas de fibra de carbono. Su motor de 900 hp dispara al auto de 0-100 km/h justo bajo los 3 segundos, y promete hacerle la competencia firme al hasta ahora rey de los deportivos, el Bugatti Veyron. 1. Bugatti Veyron Súper Sport Y el número uno no podía ser otro más que el número uno de los supe deportivos. Con un precio de US$2.600.000, tiene el record de ser el auto más rápido, con una velocidad tope de 440km/h en tunel de viento aceleracion (aunque los vendidos estén limitados a 415 km/h) Aunque las ediciones previas tengan una velocidad de tope sólo 8 km/h menor, el prestigio de tener el auto más caro del mundo (y también el más rápido) es algo que pocos están dispuestos (y pueden) pagar. Bueno amigos ya que me han comentado sobre un auto que es mas caro que el bugatti me he puesto a investigar y esto es lo que encontré: Maybach Exelero: Hoy les presentamos una nueva versión de un auto que les mostramos hace un par de años, el Maybach Exelero, una ultra-lujoso auto (¿mencionamos ya que es super-lojoso?) con un precio de US$8,000,000 (sí, ocho Millones de dólares). ¿Qué obtienes por tu dinero? Un auto de 19 pies de largo (5.8 metros), 6,000 libras de peso (2,721 Kg), y un rendimiento de 2.5mpg (lo que hace ver al Hummer como un vehículo sumamente económico). Aun con este peso sin embargo, logra alcanzar las 218 mph (351 kph). Sin embargo, este vehículo no es nada para alardear sobre tecnisismos, sino sobre confort, elegancia, exuberancia y opulencia, lo cual entrega al 100% en su interior el cual puede ser 100% modificado de fábrica según las especificaciones, mañas y gustos del orgulloso (y super millonario) propietario. Bueno amigos taringueros aqui les dejo mi primer post espero les aya gustado!! por cierto greacias a pakouop por dejarme republicar su creacion.. comenten y den puntos valee? gracias!

Bueno amigos Taringueros. aqui les dejo este post.. espero sea de su agrado.. La arena de lucha en el mundo digital se reduce a dos nombres: Intel y AMD. Hace más de 30 años, ambas compañías se disputan la cuota del mercado de microprocesadores para ordenadores de todo tipo. Si bien hace casi una década, los expertos en tecnología, destacaron la capacidad de innovación de los productos de AMD, en las ventas no se vislumbran aumentos para la empresa, ya que Intel sigue a la cabeza con un poco más del 80% de la cuota de mercado, mientras que AMD llega apenas al 16% del total. En la última década, Intel parece haberse quedado con mínimas innovaciones en sus versiones de Pentium 4, pero el ardid que la mantiene como la líder del mercado está en su agresiva campaña de ventas y mercadotecnia. Para este nuevo año, Intel lanzará nuevos descuentos en Pentium D 900 (entre el 10% y el 20%), y Pentium 4 (entre el 10% y el 70%) y Core 2 Duo. Además se prevé una demanda por parte AMD, acusándola de prácticas monopólicas, ya que según dicen, Intel aprovecha su posición dominante en el mercado mundial de microprocesadores para castigar a aquellos fabricantes de ordenadores que llegan a utilizar más de un 20% de chips de AMD en sus productos. Lo cierto es que la guerra aún no se ha definido y bien vale un tanto de historia de ambas empresas para conocer qué nos espera en materia de microprocesadores y computadoras en este nuevo milenio. El poder de Intel Inside Desde la década del 90, la gran mayoría de los ordenadores personales tiene en su gabinete un sticker con la leyenda “Intel Inside”, el famoso spot de la empresa que nos anuncia su liderazgo en el mercado de procesadores. Lo cierto es que Intel Corporation es una empresa multinacional que fabrica microprocesadores y circuitos integrados especializados, como circuitos integrados auxiliares para placas base de ordenador y otros dispositivos electrónicos. Nació en 1968, bajo el mando de Gordon E. Moore y Robert Noyce y un grupo de 12 trabajadores. En 1971, llegó el primer microprocesador de Intel, el Intel 4004, que fue creado para facilitar el diseño de la calculadora programable de una empresa japonesa, llamada Busicom. El ingeniero Ted Hoff, uno de los doce científicos de Intel, diseñó un chip con una memoria que podía hacer varias acciones, padre del microprocesador. Este primer empuje tecnológico, los llevó al microprocesador 4004, que estaba compuesto por cuatro de estos chips y otros dos chips de memoria. Este conjunto de 2.300 transistores, que ejecutaba 60.000 operaciones por segundo, se puso a la venta por 200 dólares. Más que rápido, Intel puso a la venta el 8008, capaz de procesar el doble de datos, inundando los aparatos de aeropuertos, restaurantes, salones recreativos, hospitales, gasolineras. Para mediados de la década del 70, a Intel le propusieron incluir un teclado y monitor al chip 8008, permitiéndoles incursionar en el mundo de las computadoras personales, pero los directivos rechazaron la propuesta, marcando así su destino de productores de microprocesadores. Para principios del ´80 vino la primera Personal Computer de mano de IBM, con procesador 8088, con un chip de 8 bits trabajando a 4,77 MHz. Del 8088 salieron, en los años siguientes, el 80286 y el 80386, que luego serían conocidos como los “286” y “386”. Recuerdo cuando mi padre, allá por 1987, vino a casa con su nuevo juguete: una XT 286, con monitor monocromo y que corría DOS, todo un lujo para época en Latinoamérica. A partir de estos dos microprocesadores de 32 bits, el camino de innovaciones de la casa Intel fue vertiginoso, hasta que en la década del 90 llegaron a la flamante línea de Pentium. Como decíamos antes, Intel lidera el mercado de ventas y ofrece a los consumidores los siguientes productos: Procesador Intel® Core™2 Quad Q6600 Procesador Intel® Core™2 Extreme Procesador Intel® Core™2 Quad Procesador Intel® Pentium® Extreme Edition Procesador Intel® Pentium® D Procesador Intel® Pentium® 4 Extreme Edition compatible con la tecnología Hyper-Threading Procesador Intel® Celeron® D Procesador Intel® Core™2 Duo para equipos portátiles Procesador Celeron® M 450 Procesador Intel® Celeron® M Procesador Intel® Pentium® M 780 Procesador Intel® Pentium® M Procesador Intel® Pentium® 4 para equipos portátiles compatible con la tecnología Hyper-Threading Además, a lo largo de estos 30 años, ha sido el principal proveedor de procesadores para Compaq y Dell. En junio de 2005 Intel firmó un acuerdo con Apple Computer, por el cual proveerá procesadores para los ordenadores Apple. Fue así como para el 2006, los nuevos modelos de Apple, tanto para escritorio como portátiles, llevan un cerebro de Intel Core Duo. La sombra de AMD De alguna forma, Advanced Micro Devices, Inc, más conocida como AMD, se mantuvo a la sombra de los microprocesadores de Intel. La compañía nació un año después que Intel, en 1969, lo que la convierte en la segunda compañía mundial productora de microprocesadores x86-compatibles y uno de los más importantes fabricantes de gpu’s, chipsets y otros dispositivos semiconductores. Actualmente la empresa atraviesa el proceso de reestructuración, iniciado en el 2006, y lanzó al mercado el primer procesador de 64 bits, ganando en tecnología a Intel. AMD es un empresa con un perfil mucho más bajo que Intel, que si bien no ha invertido millones en mercadotecnia y publicidad, se destaca por “adoptar un compromiso hacia una innovación auténticamente útil para los clientes, anteponiendo las verdaderas necesidades de las personas a la elaboración técnica”, según palabras de Jerry Sanders, fundador de AMD. Durante mucho tiempo AMD trabajó en la fabricación de sus procesadores un tanto a la sombra de la creación de Intel, ya que copiaba el microcódigo de los 8088 y 8086. Desde 1986 el acuerdo para fabricación y compartimiento de información sobre los microprocesadores de tecnología Intel se rompió, dando paso a una serie de demandas en la que AMD exigía a Intel cumplir con el trato. Recién en 1999, AMD lanza al mercado su primer microprocesador, el K5, en una clara alusión a la Kryptonite, el único material posible de vencer al Superman de Intel. Pero deberían pasar muchos años y la compra de tecnología de empresas como Geode, ATI y NexGen, para igualar la compatibilidad y los buenos precios de los procesadores de Intel. En la historia de AMD hubo muchas innovaciones y cambios para ese primer procesador K5, se puede decir que fue una de las empresas que más invirtió en investigaciones y desarrollo de la industria del microprocesador. Hoy ofrece un abanico de soluciones en todos los ramos de microprocesadores, tarjetas de video y chipsets. Además es el mayor productor mundial de chips para TV, consolas y celulares en el mundo. Mejorada la arquitectura del K7, el nuevo procesador Athlon 64 FX, el primero del mundo de 64 bits para PC compatible con Windows, ofrece las mayores prestaciones en 32 bits para las aplicaciones de hoy en día y la potencia de 64 bits para la siguiente generación de software; este chip sin duda incrementará la competencia con Intel. Cuentan los que saben, que AMD se viene con varios proyectos en este nuevo milenio, uno de ellos se llama Fusión, que consiste en implantar las capacidades de las gpu’s en el mismo chip de silicio que los microprocesadores y así dotarlos de poder extra en aplicaciones de gráficos. Otra de las grandes apuestas de la compañía se verá en lo que llaman la Iniciativa 50X15, una cruzada para que la mitad de la población cuente con la capacidad de conectarse a Internet para el 2015; esto se lograría a través de concursos entre universidades de varios países donde se desarrollan las mejores soluciones para cada región del planeta basadas en la tecnología de AMD. Entre los productos que hoy ofrece ADM se encuentran: Procesador AMD Athlon™ 64 FX Procesador AMD Athlon™ 64 X2 de doble núcleo para ordenadores de escritorio Procesador AMD Athlon™ 64 para equipos de sobremesa Tecnología Mobile AMD Turion™ 64 Tecnología Mobile AMD Turion™ 64 X2 de doble núcleo AMD64 Dual-Core Luego de un franco liderazgo de Intel, las proyecciones para el 2007, dicen que por fin este año será el de AMD con los microprocesadores Rev G, de 65 nanómetros frente a los de 45 de Intel. Las sorpresas para el mundo de los microprocesadores están a la vista del cliente, y la lucha por el mercado, es una agonal imparable entre ambas empresas. Quedará en manos de los gurú de los videojuegos la prueba de rendimiento de los procesadores de AMD e Intel, así como la poderosa cuota de confianza que el mercado depare para cada compañía. Bueno amigos.. hasta aqui el post de hoy.. espero les haya ustado.. y espero sus Comentarios.. y claro tambien sus puntos

En navidades de 2007, el especialista Reinaldo Ríos emitió una propuesta ante el Vaticano para que se considerara la estrella de Belén como el ovni de Belén, basado en datos astronómicos y lógicos. Recientemente el astrónomo jefe del Vaticano, José Gabriel Funes en sus declaraciones expresa que la vida extraterrestre es posible y de ser así sería seres avanzados. El Vaticano defiende la posible existencia de vida inteligente en otros planetas. Esta ha sido una de sus tesis en la cual manifiesta que no se puede limitar el poder creador de Dios. A unos 5 meses del profesor Ríos haber emitido públicamente su propuesta la cual incluía entre otras cosas, el pedir que el Vaticano aceptara la vida extraterrestre, ahora el próximo paso del especialista es que la iglesia incluye en sus creencias y dogmas el vínculo extraterrestre con Dios, la vida de Jesús y hasta la descendencia de la cual somos parte. Mientras tanto, esto demuestra que aunque muchos criticaron al profesor cuando hizo sus expresiones sobre esta medida, ahora el mismo tiempo recompensa su lucha en beneficio de la verdad. "Hay mucho más que el Vaticano debe admitir, ellos inclusive saben esto de años, milenios y han callado por no alterar el orden mundial", expresó Ríos a Agencia NOVA. Según narra en sus propias palabras Ríos, una de sus intenciones era ser sacerdote y en una visión que tuvo como contacto ovnis que es y siempre ha sostenido, pudo ver cómo en una mesa de líderes eclesiásticos defendía la vida extraterrestre lo que entendió no era su misión por que dentro de la iglesia no lo lograría. Tuvo que convertirse de contactado y abducido ovnis en investigador y comunicador para ser libre en llevar este mensaje y ejecutar sus proyectos. "No descarto visitar la Santa Sede y personalmente querer ver al Papa de cerca y mirarle a los ojos y preguntarle: Si Dios es perfecto por que entonces permitió que el único planeta creado cayera en pecado?. Esto en cuestión de reflexión de que Dios perfecto y creador no podía solamente crear esta raza sumergida en pecado”, aseguró Ríos a este medio desde Puerto Rico. Como comenta el astrónomo del Vaticano: "Quizás nosotros seamos la oveja perdida del paraíso" . Lo que traducido significa de que no somos los únicos en el universo y de que existen civilizaciones superiores tecnológicamente y espiritualmente hablando. (Agencia NOVA)