c

criserra6

Usuario (Argentina)

Primer post: 4 jul 2010Último post: 1 ago 2017
8
Posts
89
Puntos totales
226
Comentarios
el continente perdido del mu
el continente perdido del mu
InfoporAnónimo7/4/2010

En 1868, el coronel James Churchward, quien era un oficial de la armada británica en la India, se hizo amigo del sumo sacerdote de un templo Hindú, quien le enseñó varios sets de antiguas tabletas de barro que estuvieron escondidas en las bóvedas del templo por varios siglos, abandonadas por los sacerdotes del templo a través de los años. Con la ayuda de su nuevo amigo, Churchward aprendió como descifrar las inscripciones de las antiguas tabletas. Mientras las traducía, se dio cuenta que se había tropezado con la increíble historia de un gran continente perdido, que fue la primera gran civilización sobre la tierra. Hablaban de una gran civilización que se había alzado, florecido y decaído mucho tiempo antes que todas las conocidas por los estudiosos. Era el gran continente de Mu, la madre patria de todas las razas de la tierra. Por largos años, Churchward siguió los pasos de esta nueva civilización misteriosa por los confines de la tierra, poniendo juntas todas las piezas de un gran rompecabezas. Después fue adquiriendo más y más información y una maravillosa imagen se empezó a formar. La impresionante figura de un vasto continente del océano pacífico y sus habitantes se juntaron. El resultado final de la inmensa labor de Churchward fue su sorprendente libro “El continente perdido de Mu” Tristemente, después de su primera aparición en 1926, fue objeto de burla y críticas por los arqueólogos de esos días, y muy pocos tomaron sus descubrimientos y teorías de una manera seria. Fue clasificado más como ciencia ficción que como un estudio científico serio. Pero ahora afortunadamente, vivimos en una sociedad con la mente menos estrecha y se están tomando en cuenta varios trabajos monumentales como el de Churchward. Claro, no estoy tratando de decir que tenemos que estar completamente de acuerdo con su idea de que Mu era un gran continente a la mitad del pacífico, como la idea de que la Atlántida era un gran continente a la mitad del atlántico--- nota mía... algunas personas llamaban a Mu pacífica =D -, pues no puede estar apoyada por los descubrimientos de la exploración con submarinos modernos y las investigaciones geológicas. Sin embargo, de los estudios de los mapas batimetricos y las cartas geográficas del fondo del océano pacífico hechos por Gerry Foster aprendemos que hay un apoyo geológico razonable para la existencia de un gran número de islas grandes y extensas que formaron una serie de cerros a través del pacifico, que pudieron ser sumergidas por la actividad de las placas tectónicas hasta el fondo del océano. Es sabido que existe una región altamente inestable, rodeada por el llamado “anillo de fuego” de volcanes, y regiones propensas a terremotos, donde las placas tectónicas chocan entre si, además de que existen cadenas de montañas en el fondo del mar, de las que casi la mayoría son volcánicas, también hay profundos abismos conocidos como las “fosas”. También, el concepto de Churchward de cámaras de gas bajo tierra que se colapsaron después de perder su presión de gas interna suena enteramente creíble. Es razonable poner credibilidad en la teoría de Churchward de que ha habido una gran cantidad de elevaciones y hundimientos en tan inestable océano, y que, en el reciente pasado geológico, muchas de las cadenas de islas pudieron estar en un nivel más alto sobre el nivel del mar, para formar cadenas montañosas continuas alargándose a través de una gran parte de la mitad oeste, talvez tres terceras partes, del pacífico. Si se estudian las últimas descripciones del fondo del océano pacífico como si estuviera sin agua, se encontraría que es plausible que las cadenas de islas pudieron ser continuas sobre el nivel del mar extendiéndose entre mil y dos mil millas de longitud. El grupo de islas Midway y Hawai en el pacífico norte, que forman la cadena montañosa submarina de Hawai, es un típico ejemplo de lo que quiero decir. Ellas pudieron formar una conexión entre las cadenas de la isla Line por la cadena centro-pacífica y más abajo con las cadenas de islas contiguas en el pacífico sur. Siguiendo esta línea de pensamiento, uno puede ver fácilmente como pudo haber un grupo interconectado o de fácil acceso de montañas terrestres extendiéndose desde Japón y la India del este, cruzando por la isla Pitcairn, o la Isla Easter, in el sur, las marquesas cercanas al ecuador, y Hawai en el norte. No debemos ignorar la placa del sureste del pacífico sumergida en esta consideración, que corre por el nornordeste, hacia la costa oeste de centro América, en el medio de la cual encontramos a la isla Easter: de aquí es solo una distancia menor a dos mil millas para la costa de Perú. Esta pudo ser una navegación muy cómoda para un imperio de marineros como la gente de Mu debió haber sido seguramente, de acuerdo con la teoría de Churchward. A parte de la inclinación de Churchward hacia la necesidad de un gran supercontinente que ocupase la mitad del océano pacífico, personalmente encuentro la base de su teoría muy intrigante, especialmente porque encaja muy bien con otras anomalías a las que se le atribuye el origen y los movimientos de varios pueblos antiguos. Incluyendo a los atlantes y los naacales, que junto con los lemurianos forman las tres principales razas de la humanidad.. Talvez si Churchward hubiera tenido acceso al conocimiento de geología y topografía del fondo del océano con el que contamos ahora, la proporción de su continente, puedo haber sido modificado y pudo haber tenido una mejor aceptación que la que tuvo por los estudiosos de sus días. En su libro, Churchward se propone probar la existencia de Mu. En primer lugar por medio de las tabletas de Naacal, después menciona registros escritos en Maya –--- Nota mía: como lo es el manuscrito Troano al que se refirió Mu de Aries---, Egipto y la India, que cuentan la destrucción de Mu: cuando la corteza terrestre se quebró por terremotos y después se hundió en un abismo. Después las aguas del Pacífico la cubrieron, dejando solamente agua donde una civilización poderosa existió. En segundo lugar, el menciona que hay una confirmación amplia de Mu en otros manuscritos antiguos, como el Ramayana hindú mencionado anteriormente, como dijo Narrat, el sumo sacerdote del templo de Rishi en Ayhodya. En un punto, se menciona a los Naacals viniendo a Burma----Nota mía: También se le conoce como Myanmar--- “de la tierra de su nacimiento en el este” que es la dirección del pacífico: También se menciona a Mu en el manuscrito Troano, un libro Maya antiguo, escrito en Yucatán, y que ahora se encuentra en el museo británico. Éste se refiere a Mu usando los mismos símbolos que fueron encontrados en Egipto, India y Burma. También otro libro Maya tan viejo como el manuscrito troano- El código cortesano- lo menciona, además de un libro tibetano en Lhasa, y hace anotaciones de otros registros de Egipto, Grecia, Centroamérica, México y hasta las inscripciones Anasazi en el sur de USA. En tercer lugar, existen muchas ruinas en las Islas del Mar del Sur, como la isla Easter, Mangiagia, Tonga, Ponape y las islas marianas, que parecen recordar los tiempos de Mu. En Uxmal, Yucatán, hay una inscripción en un templo en ruinas que conmemora a “Las Tierras del Oeste, de donde venimos” y una pirámide fue construida en el suroeste de la Ciudad de México, de acuerdo con sus inscripciones, en memoria de la destrucción de “Las Tierras del Oeste” --–Nota mía: creo que se refiere a Xochicalco— -- En cuarto lugar, Churchward encontró que había universalidad de ciertos símbolos y costumbres antiguas, que fueron encontradas en varias ciudades antiguas como Egipto, India, Burma, Japón, China, las Islas del Mar del Sur, Centroamérica y Sudamérica y entre las tribus aborígenes de Norteamérica. Eran tan idénticos que pareciera que todas vienen de una misma fuente. En su tiempo, Churchward no podía haber sabido de ruinas submarinas encontradas por los arqueólogos modernos. En la costa de la isla japonesa de Yonaguni, el arqueólogo británico Graham Hancock exploró las estructuras hechas por la mano del hombre talladas en roca, con terrazas y escaleras que parecen de pirámide, con una longitud de 200 metros, precisamente en el eje norte-sur. En otros lugares del pacífico, cerca de las islas de Tahití, Tongo, Ponape, Kosrae, Guam, Rota y Tiñan, hay construcciones similares que aguardan una investigación más cercana. Todavía falta más pero es muy extensa, trataré de mandarles otro post a lo posible, espero les guste. La Destrucción de Mu La destrucción final de Mu arribo como un desastroso imprevisto. Aunque hubieron conglomeraciones de señales de peligro un par de siglos atrás, en la región del sur, cuando un gran terremoto azoto sin advertencia, acompañado de arrebatos volcánicos (¿explosiones de yacimientos de gas subterraneo?) y enormes marejadas. La gente eventualmente se recupero del choque y reconstruyeron las ciudades en ruinas y reanudaron su comercio. En este tiempo aconteció el suceso real. De acuerdo al antiguo manuscrito troano, el continente entero (o todos los tres sectores del el) fueron repentinamente sacudidos por asombrosos terremotos, y se balancearon y subieron como olas del océano. La tierra tembló y se agito como las hojas de un árbol en la tormenta. Templos y palacios cayeron destrozados a la tierra y monumentos y estatuas fueron volcados. Las ciudades se convirtieron en montones de escombros. Aquello entonces paso a ser el relato de cómo la tierra se levanto y cayó, se estremeció y se agito, y de cómo las "llamas de las profundidades" se arrebataron desde entonces, cortando las nubes en flamas rugientes y furiosas, a tres millas alrededor. Continuando después con una descripción general del verdadero infierno viviente en que Mu se convirtió, debajo de una espesa nata de humo negro, con enormes marejadas cruzando a través de las planicies, destruyendo todo ante ellas. Los llantos agonizantes de la gente llenaron el aire así como el sol rojo se hundía furiosamente por debajo del negro horizonte. Durante la horrenda noche que fue ocupada por enormes rayos deslumbrantes y truenos ensordecedores, la tierra maldita se hundió en un gran abismo de fuego. "Las flamas fueron disparadas alrededor y la envolvieron" Mu y 64 millones de personas fueron sacrificadas. "Mientras Mu se hundía en un abismo de fuego", dice Churchward, "otra fuerza la reclamaba" 55 millones de millas cuadradas de agua. De todos lados enormes olas o muros de agua vinieron avanzando sobre ella. Se unieron donde una vez fue el centro de la tierra (¿o tierras?). Aquí se enfurecieron e hirvieron. De esta forma fue el continente de Mu destruido. Por cerca de 13000 años, la destrucción de esta gran civilización trajo una densa nube de oscuridad sobre la parte mas grande de la Tierra. Después Churchward comienza a explicar como después del cataclismo, riscos y cimas de tierra aquí y allá, quedaron protruyendo fuera del agua y como estos se convirtieron en islas, las cuales fueron muy fracturadas y agrietadas por la severa actividad volcánica sobre ellas. Todas ellas fueron pobladas por tanta gente como pudieron escapar del hundimiento de Mu, la cual se encontraba ahora rodeada de una ardiente y vaporosa cama de agua lodosa. El agua gradualmente se detuvo, se calmo y descanso como si estuviera satisfecha por su ardua labor destructiva, y esta es el Océano Pacifico. ¡Nunca hubo un nombre mas irónicamente aplicado a cosa alguna sobre la Tierra! -------------------------------------------------------------------------------- Descendientes en el salvajismo Posteriormente sigue una penosa descripción de la lamentable situación de estos sobrevivientes, los cuales fueron despojados de su refugio, ropa, herramientas y sobre todo lo demás los alimentos. Y fue en medio de esta espantosa escena de aguas vaporosas y nubes repletas de ceniza y humo, que la mayoría de ellos perecieron, y aquellos pocos que quedaron dieron su primer paso retrocediendo en los obscuros senderos del salvajismo, encontrándose a ellos mismos teniendo que recurrir al canibalismo para poder asegurar su supervivencia. Esto fue el principio de una profunda descendencia en lo mas bajo de la condición humana, lo cual dejaría una forma de vida tradicional de la región del pacifico por miles de años posteriores. El canibalismo siguió vigente en muchas islas del pacifico, inclusive durante los inicios a mitad del siglo XX

0
0
H
historia de la computadora+la historia de internet.
InfoporAnónimo7/31/2010

La computadora es un invento reciente, que no ha cumplido ni los cien años de existencia desde su primera generación. Sin embargo es un invento que ha venido a revolucionar la forma en la que trabajamos, nos entretenemos y se ha convertido en un aparato esencial en nuestra vida diaria. El museo de la historia de la computación Antes de continuar, revisa este vídeo sobre el Museo de la historia de la computadora que se encuentra en Silicon Valley: link: http://www.youtube.com/watch?v=XoNQsbdZR6E Y ahora sí, continuando, con la historia de la Computadora: Primera Generación (1951 a 1958) Las computadoras de la primera Generación emplearon bulbos para procesar información. Los operadores ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran mucho más grandes y generaban más calor que los modelos contemporáneos. Eckert y Mauchly contribuyeron al desarrollo de computadoras de la Primera Generación formando una compañía privada y construyendo UNIVAC I, que el Comité del censo utilizó para evaluar el censo de 1950. La IBM tenía el monopolio de los equipos de procesamiento de datos a base de tarjetas perforadas y estaba teniendo un gran auge en productos como rebanadores de carne, básculas para comestibles, relojes y otros artículos; sin embargo no había logrado el contrato para el Censo de 1950. Comenzó entonces a construir computadoras electrónicas y su primera entrada fue con la IBM 701 en 1953. Después de un lento pero excitante comienzo la IBM 701 se convirtió en un producto comercialmente viable. Sin embargo en 1954 fue introducido el modelo IBM 650, el cual es la razón por la que IBM disfruta hoy de una gran parte del mercado de las computadoras. La administración de la IBM asumió un gran riesgo y estimó una venta de 50 computadoras. Este número era mayor que la cantidad de computadoras instaladas en esa época en E.U. De hecho la IBM instaló 1000 computadoras. El resto es historia. Aunque caras y de uso limitado las computadoras fueron aceptadas rápidamente por las Compañías privadas y de Gobierno. A la mitad de los años 50 IBM y Remington Rand se consolidaban como líderes en la fabricación de computadoras. Segunda Generación (1959-1964) Transistor Compatibilidad Limitada: El invento del transistor hizo posible una nueva Generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. Sin embargo el costo seguía siendo una porción significativa del presupuesto de una Compañía. Las computadoras de la segunda generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones. Los programas de computadoras también mejoraron. El COBOL desarrollado durante la 1era generación estaba ya disponible comercialmente. Los programas escritos para una computadora podían transferirse a otra con un mínimo esfuerzo. El escribir un programa ya no requería entender plenamente el hardware de la computación. Las computadoras de la 2da Generación eran sustancialmente más pequeñas y rápidas que las de bulbos, y se usaban para nuevas aplicaciones, como en los sistemas para reservación en líneas aéreas, control de tráfico aéreo y simulaciones para uso general. Las empresas comenzaron a aplicar las computadoras a tareas de almacenamiento de registros, como manejo de inventarios, nómina y contabilidad. La marina de E.U. utilizó las computadoras de la Segunda Generación para crear el primer simulador de vuelo. (Whirlwind I). HoneyWell se colocó como el primer competidor durante la segunda generación de computadoras. Burroughs, Univac, NCR, CDC, HoneyWell, los más grandes competidores de IBM durante los 60s se conocieron como el grupo BUNCH. Tercera Generación (1964-1971) Circuitos Integrados, Compatibilidad con Equipo Mayor, Multiprogramación, Minicomputadora: Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de silicio) en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes. Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos. La IBM 360 una de las primeras computadoras comerciales que usó circuitos integrados, podía realizar tanto análisis numéricos como administración ó procesamiento de archivos. Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor tamaño y podían todavía correr sus programas actuales. Las computadoras trabajaban a tal velocidad que proporcionaban la capacidad de correr más de un programa de manera simultánea (multiprogramación). Por ejemplo la computadora podía estar calculando la nomina y aceptando pedidos al mismo tiempo. Minicomputadoras, Con la introducción del modelo 360 IBM acaparó el 70% del mercado, para evitar competir directamente con IBM la empresa Digital Equipment Corporation DEC redirigió sus esfuerzos hacia computadoras pequeñas. Mucho menos costosas de comprar y de operar que las computadoras grandes, las mini computadoras se desarrollaron durante la segunda generación pero alcanzaron su mayor auge entre 1960 y 1970. Cuarta Generación (1971 a la fecha) Microprocesador, Chips de memoria, Microminiaturización: Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de Muchos más componentes en un Chip: producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador y de chips hizo posible la creación de las computadoras personales (PC Personal Computer). Hoy en día las tecnologías LSI (Integración a gran escala) y VLSI (integración a muy gran escala) permiten que cientos de miles de componentes electrónicos se almacenen en un chip. Usando VLSI, un fabricante puede hacer que una computadora pequeña rivalice con una computadora de la primera generación que ocupaba un cuarto completo. ahora la historia del internet Internet surgió de un proyecto desarrollado en Estados Unidos para apoyar a sus fuerzas militares. Luego de su creación fue utilizado por el gobierno, universidades y otros centros académicos. Internet ha supuesto una revolución sin precedentes en el mundo de la informática y de las comunicaciones. Los inventos del telégrafo, teléfono, radio y ordenador sentaron las bases para esta integración de capacidades nunca antes vivida. Internet es a la vez una oportunidad de difusión mundial, un mecanismo de propagación de la información y un medio de colaboración e interacción entre los individuos y sus ordenadores independientemente de su localización geográfica. Orígenes de Internet La primera descripción documentada acerca de las interacciones sociales que podrían ser propiciadas a través del networking (trabajo en red) está contenida en una serie de memorándums escritos por J.C.R. Licklider, del Massachusetts Institute of Technology, en Agosto de 1962, en los cuales Licklider discute sobre su concepto de Galactic Network (Red Galáctica). El concibió una red interconectada globalmente a través de la que cada uno pudiera acceder desde cualquier lugar a datos y programas. En esencia, el concepto era muy parecido a la Internet actual. Licklider fue el principal responsable del programa de investigación en ordenadores de la DARPA desde Octubre de 1962. Mientras trabajó en DARPA convenció a sus sucesores Ivan Sutherland, Bob Taylor, y el investigador del MIT Lawrence G. Roberts de la importancia del concepto de trabajo en red. En Julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí. Para explorar este terreno, en 1965, Roberts conectó un ordenador TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de ordenadores de área amplia jamás construida. El resultado del experimento fue la constatación de que los ordenadores de tiempo compartido podían trabajar juntos correctamente, ejecutando programas y recuperando datos a discreción en la máquina remota, pero que el sistema telefónico de conmutación de circuitos era totalmente inadecuado para esta labor. La convicción de Kleinrock acerca de la necesidad de la conmutación de paquetes quedó pues confirmada. A finales de 1966 Roberts se trasladó a la DARPA a desarrollar el concepto de red de ordenadores y rápidamente confeccionó su plan para ARPANET, publicándolo en 1967. En la conferencia en la que presentó el documento se exponía también un trabajo sobre el concepto de red de paquetes a cargo de Donald Davies y Roger Scantlebury del NPL. Scantlebury le habló a Roberts sobre su trabajo en el NPL así como sobre el de Paul Baran y otros en RAND. El grupo RAND había escrito un documento sobre redes de conmutación de paquetes para comunicación vocal segura en el ámbito militar, en 1964. Ocurrió que los trabajos del MIT (1961-67), RAND (1962-65) y NPL (1964-67) habían discurrido en paralelo sin que los investigadores hubieran conocido el trabajo de los demás. La palabra packet (paquete) fue adoptada a partir del trabajo del NPL y la velocidad de la línea propuesta para ser usada en el diseño de ARPANET fue aumentada desde 2,4 Kbps hasta 50 Kbps (5). En Agosto de 1968, después de que Roberts y la comunidad de la DARPA hubieran refinado la estructura global y las especificaciones de ARPANET, DARPA lanzó un RFQ para el desarrollo de uno de sus componentes clave: los conmutadores de paquetes llamados interface message processors (IMPs, procesadores de mensajes de interfaz). El RFQ fue ganado en Diciembre de 1968 por un grupo encabezado por Frank Heart, de Bolt Beranek y Newman (BBN). Así como el equipo de BBN trabajó en IMPs con Bob Kahn tomando un papel principal en el diseño de la arquitectura de la ARPANET global, la topología de red y el aspecto económico fueron diseñados y optimizados por Roberts trabajando con Howard Frank y su equipo en la Network Analysis Corporation, y el sistema de medida de la red fue preparado por el equipo de Kleinrock de la Universidad de California, en Los Angeles (6). A causa del temprano desarrollo de la teoría de conmutación de paquetes de Kleinrock y su énfasis en el análisis, diseño y medición, su Network Measurement Center (Centro de Medidas de Red) en la UCLA fue seleccionado para ser el primer nodo de ARPANET. Todo ello ocurrió en Septiembre de 1969, cuando BBN instaló el primer IMP en la UCLA y quedó conectado el primer ordenador host . El proyecto de Doug Engelbart denominado Augmentation of Human Intelect (Aumento del Intelecto Humano) que incluía NLS, un primitivo sistema hipertexto en el Instituto de Investigación de Standford (SRI) proporcionó un segundo nodo. El SRI patrocinó el Network Information Center , liderado por Elizabeth (Jake) Feinler, que desarrolló funciones tales como mantener tablas de nombres de host para la traducción de direcciones así como un directorio de RFCs ( Request For Comments ). Un mes más tarde, cuando el SRI fue conectado a ARPANET, el primer mensaje de host a host fue enviado desde el laboratorio de Leinrock al SRI. Se añadieron dos nodos en la Universidad de California, Santa Bárbara, y en la Universidad de Utah. Estos dos últimos nodos incorporaron proyectos de visualización de aplicaciones, con Glen Culler y Burton Fried en la UCSB investigando métodos para mostrar funciones matemáticas mediante el uso de "storage displays" ( N. del T. : mecanismos que incorporan buffers de monitorización distribuidos en red para facilitar el refresco de la visualización) para tratar con el problema de refrescar sobre la red, y Robert Taylor y Ivan Sutherland en Utah investigando métodos de representación en 3-D a través de la red. Así, a finales de 1969, cuatro ordenadores host fueron conectados cojuntamente a la ARPANET inicial y se hizo realidad una embrionaria Internet. Incluso en esta primitiva etapa, hay que reseñar que la investigación incorporó tanto el trabajo mediante la red ya existente como la mejora de la utilización de dicha red. Esta tradición continúa hasta el día de hoy. Se siguieron conectando ordenadores rápidamente a la ARPANET durante los años siguientes y el trabajo continuó para completar un protocolo host a host funcionalmente completo, así como software adicional de red. En Diciembre de 1970, el Network Working Group (NWG) liderado por S.Crocker acabó el protocolo host a host inicial para ARPANET, llamado Network Control Protocol (NCP, protocolo de control de red). Cuando en los nodos de ARPANET se completó la implementación del NCP durante el periodo 1971-72, los usuarios de la red pudieron finalmente comenzar a desarrollar aplicaciones. En Octubre de 1972, Kahn organizó una gran y muy exitosa demostración de ARPANET en la International Computer Communication Conference . Esta fue la primera demostración pública de la nueva tecnología de red. Fue también en 1972 cuando se introdujo la primera aplicación "estrella": el correo electrónico. En Marzo, Ray Tomlinson, de BBN, escribió el software básico de envío-recepción de mensajes de correo electrónico, impulsado por la necesidad que tenían los desarrolladores de ARPANET de un mecanismo sencillo de coordinación. En Julio, Roberts expandió su valor añadido escribiendo el primer programa de utilidad de correo electrónico para relacionar, leer selectivamente, almacenar, reenviar y responder a mensajes. Desde entonces, la aplicación de correo electrónico se convirtió en la mayor de la red durante más de una década. Fue precursora del tipo de actividad que observamos hoy día en la World Wide Web , es decir, del enorme crecimiento de todas las formas de tráfico persona a persona. Conceptos iniciales sobre Internetting La ARPANET original evolucionó hacia Internet. Internet se basó en la idea de que habría múltiples redes independientes, de diseño casi arbitrario, empezando por ARPANET como la red pionera de conmutación de paquetes, pero que pronto incluiría redes de paquetes por satélite, redes de paquetes por radio y otros tipos de red. Internet como ahora la conocemos encierra una idea técnica clave, la de arquitectura abierta de trabajo en red. Bajo este enfoque, la elección de cualquier tecnología de red individual no respondería a una arquitectura específica de red sino que podría ser seleccionada libremente por un proveedor e interactuar con las otras redes a través del metanivel de la arquitectura de Internetworking (trabajo entre redes). Hasta ese momento, había un sólo método para "federar" redes. Era el tradicional método de conmutación de circuitos, por el cual las redes se interconectaban a nivel de circuito pasándose bits individuales síncronamente a lo largo de una porción de circuito que unía un par de sedes finales. Cabe recordar que Kleinrock había mostrado en 1961 que la conmutación de paquetes era el método de conmutación más eficiente. Juntamente con la conmutación de paquetes, las interconexiones de propósito especial entre redes constituían otra posibilidad. Y aunque había otros métodos limitados de interconexión de redes distintas, éstos requerían que una de ellas fuera usada como componente de la otra en lugar de actuar simplemente como un extremo de la comunicación para ofrecer servicio end-to-end (extremo a extremo). En una red de arquitectura abierta, las redes individuales pueden ser diseñadas y desarrolladas separadamente y cada una puede tener su propia y única interfaz, que puede ofrecer a los usuarios y/u otros proveedores, incluyendo otros proveedores de Internet. Cada red puede ser diseñada de acuerdo con su entorno específico y los requerimientos de los usuarios de aquella red. No existen generalmente restricciones en los tipos de red que pueden ser incorporadas ni tampoco en su ámbito geográfico, aunque ciertas consideraciones pragmáticas determinan qué posibilidades tienen sentido. La idea de arquitectura de red abierta fue introducida primeramente por Kahn un poco antes de su llegada a la DARPA en 1972. Este trabajo fue originalmente parte de su programa de paquetería por radio, pero más tarde se convirtió por derecho propio en un programa separado. Entonces, el programa fue llamado Internetting . La clave para realizar el trabajo del sistema de paquetería por radio fue un protocolo extremo a extremo seguro que pudiera mantener la comunicación efectiva frente a los cortes e interferencias de radio y que pudiera manejar las pérdidas intermitentes como las causadas por el paso a través de un túnel o el bloqueo a nivel local. Kahn pensó primero en desarrollar un protocolo local sólo para la red de paquetería por radio porque ello le hubiera evitado tratar con la multitud de sistemas operativos distintos y continuar usando NCP. Sin embargo, NCP no tenía capacidad para direccionar redes y máquinas más allá de un destino IMP en ARPANET y de esta manera se requerían ciertos cambios en el NCP. La premisa era que ARPANET no podía ser cambiado en este aspecto. El NCP se basaba en ARPANET para proporcionar seguridad extremo a extremo. Si alguno de los paquetes se perdía, el protocolo y presumiblemente cualquier aplicación soportada sufriría una grave interrupción. En este modelo, el NCP no tenía control de errores en el host porque ARPANET había de ser la única red existente y era tan fiable que no requería ningún control de errores en la parte de los host s. Así, Kahn decidió desarrollar una nueva versión del protocolo que pudiera satisfacer las necesidades de un entorno de red de arquitectura abierta. El protocolo podría eventualmente ser denominado "Transmisson-Control Protocol/Internet Protocol" (TCP/IP, protocolo de control de transmisión /protocolo de Internet). Así como el NCP tendía a actuar como un driver (manejador) de dispositivo, el nuevo protocolo sería más bien un protocolo de comunicaciones. Ideas a prueba DARPA formalizó tres contratos con Stanford (Cerf), BBN (Ray Tomlinson) y UCLA (Peter Kirstein) para implementar TCP/IP (en el documento original de Cerf y Kahn se llamaba simplemente TCP pero contenía ambos componentes). El equipo de Stanford, dirigido por Cerf, produjo las especificaciones detalladas y al cabo de un año hubo tres implementaciones independientes de TCP que podían interoperar. Este fue el principio de un largo periodo de experimentación y desarrollo para evolucionar y madurar el concepto y tecnología de Internet. Partiendo de las tres primeras redes ARPANET, radio y satélite y de sus comunidades de investigación iniciales, el entorno experimental creció hasta incorporar esencialmente cualquier forma de red y una amplia comunidad de investigación y desarrollo . Cada expansión afrontó nuevos desafíos. Las primeras implementaciones de TCP se hicieron para grandes sistemas en tiempo compartido como Tenex y TOPS 20. Cuando aparecieron los ordenadores de sobremesa ( desktop ), TCP era demasiado grande y complejo como para funcionar en ordenadores personales. David Clark y su equipo de investigación del MIT empezaron a buscar la implementación de TCP más sencilla y compacta posible. La desarrollaron, primero para el Alto de Xerox (la primera estación de trabajo personal desarrollada en el PARC de Xerox), y luego para el PC de IBM. Esta implementación operaba con otras de TCP, pero estaba adaptada al conjunto de aplicaciones y a las prestaciones de un ordenador personal, y demostraba que las estaciones de trabajo, al igual que los grandes sistemas, podían ser parte de Internet. En los años 80, el desarrollo de LAN, PC y estaciones de trabajo permitió que la naciente Internet floreciera. La tecnología Ethernet, desarrollada por Bob Metcalfe en el PARC de Xerox en 1973, es la dominante en Internet, y los PCs y las estaciones de trabajo los modelos de ordenador dominantes. El cambio que supone pasar de una pocas redes con un modesto número de hosts (el modelo original de ARPANET) a tener muchas redes dio lugar a nuevos conceptos y a cambios en la tecnología. En primer lugar, hubo que definir tres clases de redes (A, B y C) para acomodar todas las existentes. La clase A representa a las redes grandes, a escala nacional (pocas redes con muchos ordenadores); la clase B representa redes regionales; por último, la clase C representa redes de área local (muchas redes con relativamente pocos ordenadores). Como resultado del crecimiento de Internet, se produjo un cambio de gran importancia para la red y su gestión. Para facilitar el uso de Internet por sus usuarios se asignaron nombres a los host s de forma que resultara innecesario recordar sus direcciones numéricas. Originalmente había un número muy limitado de máquinas, por lo que bastaba con una simple tabla con todos los ordenadores y sus direcciones asociadas. El cambio hacia un gran número de redes gestionadas independientemente (por ejemplo, las LAN) significó que no resultara ya fiable tener una pequeña tabla con todos los host s. Esto llevó a la invención del DNS ( Domain Name System , sistema de nombres de dominio) por Paul Mockapetris de USC/ISI. El DNS permitía un mecanismo escalable y distribuido para resolver jerárquicamente los nombres de los host s (por ejemplo, www.acm.org o www.ati.es ) en direcciones de Internet. El incremento del tamaño de Internet resultó también un desafío para los routers . Originalmente había un sencillo algoritmo de enrutamiento que estaba implementado uniformemente en todos los routers de Internet. A medida que el número de redes en Internet se multiplicaba, el diseño inicial no era ya capaz de expandirse, por lo que fue sustituido por un modelo jerárquico de enrutamiento con un protocolo IGP ( Interior Gateway Protocol , protocolo interno de pasarela) usado dentro de cada región de Internet y un protocolo EGP ( Exterior Gateway Protocol , protocolo externo de pasarela) usado para mantener unidas las regiones. El diseño permitía que distintas regiones utilizaran IGP distintos, por lo que los requisitos de coste, velocidad de configuración, robustez y escalabilidad, podían ajustarse a cada situación. Los algoritmos de enrutamiento no eran los únicos en poner en dificultades la capacidad de los routers , también lo hacía el tamaño de la tablas de direccionamiento. Se presentaron nuevas aproximaciones a la agregación de direcciones (en particular CIDR, Classless Interdomain Routing , enrutamiento entre dominios sin clase) para controlar el tamaño de las tablas de enrutamiento. A medida que evolucionaba Internet, la propagación de los cambios en el software, especialmente el de los host s, se fue convirtiendo en uno de sus mayores desafíos. DARPA financió a la Universidad de California en Berkeley en una investigación sobre modificaciones en el sistema operativo Unix, incorporando el TCP/IP desarrollado en BBN. Aunque posteriormente Berkeley modificó esta implementación del BBN para que operara de forma más eficiente con el sistema y el kernel de Unix, la incorporación de TCP/IP en el sistema Unix BSD demostró ser un elemento crítico en la difusión de los protocolos entre la comunidad investigadora. BSD empezó a ser utilizado en sus operaciones diarias por buena parte de la comunidad investigadora en temas relacionados con informática. Visto en perspectiva, la estrategia de incorporar los protocolos de Internet en un sistema operativo utilizado por la comunidad investigadora fue uno de los elementos clave en la exitosa y amplia aceptación de Internet. Uno de los desafíos más interesantes fue la transición del protocolo para host s de ARPANET desde NCP a TCP/IP el 1 de enero de 1983. Se trataba de una ocasión muy importante que exigía que todos los host s se convirtieran simultáneamente o que permanecieran comunicados mediante mecanismos desarrollados para la ocasión. La transición fue cuidadosamente planificada dentro de la comunidad con varios años de antelación a la fecha, pero fue sorprendentemente sobre ruedas (a pesar de dar la lugar a la distribución de insignias con la inscripción "Yo sobreviví a la transición a TCP/IP". TCP/IP había sido adoptado como un estándar por el ejército norteamericano tres años antes, en 1980. Esto permitió al ejército empezar a compartir la tecnología DARPA basada en Internet y llevó a la separación final entre las comunidades militares y no militares. En 1983 ARPANET estaba siendo usada por un número significativo de organizaciones operativas y de investigación y desarrollo en el área de la defensa. La transición desde NCP a TCP/IP en ARPANET permitió la división en una MILNET para dar soporte a requisitos operativos y una ARPANET para las necesidades de investigación. Así, en 1985, Internet estaba firmemente establecida como una tecnología que ayudaba a una amplia comunidad de investigadores y desarrolladores, y empezaba a ser empleada por otros grupos en sus comunicaciones diarias entre ordenadores. El correo electrónico se empleaba ampliamente entre varias comunidades, a menudo entre distintos sistemas. La interconexión entre los diversos sistemas de correo demostraba la utilidad de las comunicaciones electrónicas entre personas. La transición hacia una infraestructura global Al mismo tiempo que la tecnología Internet estaba siendo validada experimentalmente y usada ampliamente entre un grupo de investigadores de informática se estaban desarrollando otras redes y tecnologías. La utilidad de las redes de ordenadores (especialmente el correo electrónico utilizado por los contratistas de DARPA y el Departamento de Defensa en ARPANET) siguió siendo evidente para otras comunidades y disciplinas de forma que a mediados de los años 70 las redes de ordenadores comenzaron a difundirse allá donde se podía encontrar financiación para las mismas. El Departamento norteamericano de Energía (DoE, Deparment of Energy ) estableció MFENet para sus investigadores que trabajaban sobre energía de fusión, mientras que los físicos de altas energías fueron los encargados de construir HEPNet. Los físicos de la NASA continuaron con SPAN y Rick Adrion, David Farber y Larry Landweber fundaron CSNET para la comunidad informática académica y de la industria con la financiación inicial de la NFS ( National Science Foundation , Fundación Nacional de la Ciencia) de Estados Unidos. La libre diseminación del sistema operativo Unix de ATT dio lugar a USENET, basada en los protocolos de comunicación UUCP de Unix, y en 1981 Greydon Freeman e Ira Fuchs diseñaron BITNET, que unía los ordenadores centrales del mundo académico siguiendo el paradigma de correo electrónico como "postales". Con la excepción de BITNET y USENET, todas las primeras redes (como ARPANET) se construyeron para un propósito determinado. Es decir, estaban dedicadas (y restringidas) a comunidades cerradas de estudiosos; de ahí las escasas presiones por hacer estas redes compatibles y, en consecuencia, el hecho de que durante mucho tiempo no lo fueran. Además, estaban empezando a proponerse tecnologías alternativas en el sector comercial, como XNS de Xerox, DECNet, y la SNA de IBM (8). Sólo restaba que los programas ingleses JANET (1984) y norteamericano NSFNET (1985) anunciaran explícitamente que su propósito era servir a toda la comunidad de la enseñanza superior sin importar su disciplina. De hecho, una de las condiciones para que una universidad norteamericana recibiera financiación de la NSF para conectarse a Internet era que "la conexión estuviera disponible para todos los usuarios cualificados del campus". En 1985 Dennins Jenning acudió desde Irlanda para pasar un año en NFS dirigiendo el programa NSFNET. Trabajó con el resto de la comunidad para ayudar a la NSF a tomar una decisión crítica: si TCP/IP debería ser obligatorio en el programa NSFNET. Cuando Steve Wolff llegó al programa NFSNET en 1986 reconoció la necesidad de una infraestructura de red amplia que pudiera ser de ayuda a la comunidad investigadora y a la académica en general, junto a la necesidad de desarrollar una estrategia para establecer esta infraestructura sobre bases independientes de la financiación pública directa. Se adoptaron varias políticas y estrategias para alcanzar estos fines. La NSF optó también por mantener la infraestructura organizativa de Internet existente (DARPA) dispuesta jerárquicamente bajo el IAB ( Internet Activities Board , Comité de Actividades de Internet). La declaración pública de esta decisión firmada por todos sus autores (por los grupos de Arquitectura e Ingeniería de la IAB, y por el NTAG de la NSF) apareció como la RFC 985 ("Requisitos para pasarelas de Internet" que formalmente aseguraba la interoperatividad entre las partes de Internet dependientes de DARPA y de NSF. El backbone había hecho la transición desde una red construida con routers de la comunidad investigadora (los routers Fuzzball de David Mills) a equipos comerciales. En su vida de ocho años y medio, el backbone había crecido desde seis nodos con enlaces de 56Kb a 21 nodos con enlaces múltiples de 45Mb.Había visto crecer Internet hasta alcanzar más de 50.000 redes en los cinco continentes y en el espacio exterior, con aproximadamente 29.000 redes en los Estados Unidos. El efecto del ecumenismo del programa NSFNET y su financiación (200 millones de dólares entre 1986 y 1995) y de la calidad de los protocolos fue tal que en 1990, cuando la propia ARPANET se disolvió, TCP/IP había sustituido o marginado a la mayor parte de los restantes protocolos de grandes redes de ordenadores e IP estaba en camino de convertirse en el servicio portador de la llamada Infraestructura Global de Información. El papel de la documentación Un aspecto clave del rápido crecimiento de Internet ha sido el acceso libre y abierto a los documentos básicos, especialmente a las especificaciones de los protocolos. Los comienzos de Arpanet y de Internet en la comunidad de investigación universitaria estimularon la tradición académica de la publicación abierta de ideas y resultados. Sin embargo, el ciclo normal de la publicación académica tradicional era demasiado formal y lento para el intercambio dinámico de ideas, esencial para crear redes. En 1969 S.Crocker, entonces en UCLA, dio un paso clave al establecer la serie de notas RFC ( Request For Comments , petición de comentarios). Estos memorándums pretendieron ser una vía informal y de distribución rápida para compartir ideas con otros investigadores en redes. Al principio, las RFC fueron impresas en papel y distribuidas vía correo "lento". Pero cuando el FTP ( File Transfer Protocol , protocolo de transferencia de ficheros) empezó a usarse, las RFC se convirtieron en ficheros difundidos online a los que se accedía vía FTP. Hoy en día, desde luego, están disponibles en el World Wide Web en decenas de emplazamientos en todo el mundo. SRI, en su papel como Centro de Información en la Red, mantenía los directorios online . Jon Postel actuaba como editor de RFC y como gestor de la administración centralizada de la asignación de los números de protocolo requeridos, tareas en las que continúa hoy en día. El efecto de las RFC era crear un bucle positivo de realimentación, con ideas o propuestas presentadas a base de que una RFC impulsara otra RFC con ideas adicionales y así sucesivamente. Una vez se hubiera obtenido un consenso se prepararía un documento de especificación. Tal especificación seria entonces usada como la base para las implementaciones por parte de los equipos de investigación. Con el paso del tiempo, las RFC se han enfocado a estándares de protocolo –las especificaciones oficiales- aunque hay todavía RFC informativas que describen enfoques alternativos o proporcionan información de soporte en temas de protocolos e ingeniería. Las RFC son vistas ahora como los documentos de registro dentro de la comunidad de estándares y de ingeniería en Internet. El acceso abierto a las RFC –libre si se dispone de cualquier clase de conexión a Internet- promueve el crecimiento de Internet porque permite que las especificaciones sean usadas a modo de ejemplo en las aulas universitarias o por emprendedores al desarrollar nuevos sistemas. El e-mail o correo electrónico ha supuesto un factor determinante en todas las áreas de Internet, lo que es particularmente cierto en el desarrollo de las especificaciones de protocolos, estándares técnicos e ingeniería en Internet. Las primitivas RFC a menudo presentaban al resto de la comunidad un conjunto de ideas desarrolladas por investigadores de un solo lugar. Después de empezar a usarse el correo electrónico, el modelo de autoría cambió: las RFC pasaron a ser presentadas por coautores con visiones en común, independientemente de su localización. Las listas de correo especializadas ha sido usadas ampliamente en el desarrollo de la especificación de protocolos, y continúan siendo una herramienta importante. El IETF tiene ahora más de 75 grupos de trabajo, cada uno dedicado a un aspecto distinto de la ingeniería en Internet. Cada uno de estos grupos de trabajo dispone de una lista de correo para discutir uno o más borradores bajo desarrollo. Cuando se alcanza el consenso en el documento, éste puede ser distribuido como una RFC. Debido a que la rápida expansión actual de Internet se alimenta por el aprovechamiento de su capacidad de promover la compartición de información, deberíamos entender que el primer papel en esta tarea consistió en compartir la información acerca de su propio diseño y operación a través de los documentos RFC. Este método único de producir nuevas capacidades en la red continuará siendo crítico para la futura evolución de Internet. El futuro: Internet 2 Internet2 es el futuro de la red de redes y está formado actualmente por un consorcio dirigido por 206 universidades que junto a la industria de comunicaciones y el gobierno están desarrollando nuevas técnicas de conexión que acelerarán la capacidad de transferencia entre servidores. Sus objetivos están enfocados a la educación y la investigación académica. Además buscan aprovechar aplicaciones de audio y video que demandan más capacidad de transferencia de ancho de banda. fuente: por favor,comenten!,ya eh visto en otros post's mios, y de otros novatos que no comentan!!,y saben porque,porque somos novatos,si pasan por un post,comenten,no se queden a mirarlo,comentar es facil,por lo menos di:

0
0
P
porque venimos al mundo
InfoporAnónimo7/22/2010

¿Alguna vez te has preguntado esto?, creo que en mi caso es una pregunta que se ha venido repitiendo hace algunos días. Creo que en principio venimos a ser felices, aunque algunos nos hayamos extraviado en el camino, y es que hace bastante que me pregunto también en qué consiste la felicidad, si es un estado permanente o pasajero, si hacer lo que hacemos nos hace ser felices, por ejemplo, trabajar, estudiar... Creo que en mi caso, estudiar, sí, me hace feliz, si no fuera así, creo que no habría emprendido la aventura de una nueva carrera. Trabajar... no lo sé, creo que hace un tiempo que le perdí la felicidad a lo que estoy haciendo, y eso me tiene francamente preocupado, porque para mi el trabajo siempre ha sido una diversión, o al menos trato de divertirme haciendo mi trabajo, pero últimamente, no sé si se deba a las presiones propias de la oficina, al entorno, al ambiente... pero no me he sentido feliz haciendo lo que hago. El amor es otra de las cosas que otorgan felicidad en mi vida, pero caray, hace tanto que no estoy enamorado... y mucho más, que no me siento amado... así es que por ese lado, no, no soy feliz, falta alguien en mi vida, hace poco una amiga me preguntaba que si no me quería casar, que si no pensaba que el casarme constituía uno de los cúmulos de mi felicidad, y no, creo que no, creo que me quisiera casar el día en que encuentre a una persona con la cual compartir todo, con la que fuera imposible pasar unos cuantos minutos siquiera, sin su compañía, y no, no ha llegado. Los amigos, si, ellos si me otorgan felicidad, pero creo que los he descuidado un poco, si, por el trabajo, así es que si quiero volver a ser feliz, deberé volver a frecuentarlos como antes lo hacía. Mi familia, si, me otorga felicidad, el poder contar con mis padres aún, el contar con una hermana maravillosa, eso si que me otorga felicidad, creo que de las más grandes, si no es la que más en mi vida. Y claro, las distracciones, los hobbies, los gustos de vez en cuando, esos también me hacen feliz... ¿ y a ustedes, que les hace felices, a qué creen que venimos al mundo?

1
2
B
Big Bang
InfoporAnónimo7/7/2010

''big bang'' En cosmología física, la teoría del Big Bang o teoría de la gran explosión es un modelo científico que trata de explicar el origen del Universo y su desarrollo posterior a partir de una singularidad espaciotemporal. Técnicamente, este modelo se basa en una colección de soluciones de las ecuaciones de la relatividad general, llamados modelos de Friedmann- Lemaître - Robertson - Walker. El término "Big Bang" se utiliza tanto para referirse específicamente al momento en el que se inició la expansión observable del Universo (cuantificada en la ley de Hubble), como en un sentido más general para referirse al paradigma cosmológico que explica el origen y la evolución del mismo. Curiosamente, fue el astrofísico inglés Fred Hoyle, uno de los detractores de esta teoría y, a su vez, uno de los principales defensores de la teoría del estado estacionario, quien dijo para mofarse que el modelo descrito era sólo un big bang (gran explosión) durante una discusión de la BBC en 1949. No obstante, hay que tener en cuenta que en el inicio del Universo ni hubo explosión ni fue grande, pues en rigor surgió de una «singularidad» infinitamente pequeña, seguida de la expansión del propio espacio. La idea central del Big Bang es que la teoría de la relatividad general puede combinarse con las observaciones de isotropía y homogeneidad a gran escala de la distribución de galaxias y los cambios de posición entre ellas, permitiendo extrapolar las condiciones del Universo antes o después en el tiempo. Una consecuencia de todos los modelos de Big Bang es que, en el pasado, el Universo tenía una temperatura más alta y mayor densidad y, por tanto, las condiciones del Universo actual son muy diferentes de las condiciones del Universo pasado. A partir de este modelo, George Gamow en 1948 pudo predecir que debería de haber evidencias de un fenómeno que más tarde sería bautizado como radiación de fondo de microondas Para llegar al modelo del Big Bang, muchos científicos, con diversos estudios, han ido construyendo el camino que lleva a la génesis de esta explicación. Los trabajos de Alexander Friedman, del año 1922, y de Georges Lemaître, de 1927, utilizaron la teoría de la relatividad para demostrar que el universo estaba en movimiento constante. Poco después, en 1929, el astrónomo estadounidense Edwin Hubble (1889-1953) descubrió galaxias más allá de la Vía Láctea que se alejaban de nosotros, como si el Universo se expandiera constantemente. En 1948, el físico ruso nacionalizado estadounidense, George Gamow (1904-1968), planteó que el universo se creó a partir de una gran explosión (Big Bang). Recientemente, ingenios espaciales puestos en órbita (COBE) han conseguido "oír" los vestigios de esta gigantesca explosión primigenia. Dependiendo de la cantidad de materia en el Universo, éste puede expandirse indefinidamente o frenar su expansión lentamente, hasta producirse una contracción universal. El fin de esa contracción se conoce con un término contrario al Big Bang: el Big Crunch o Gran Colapso. Si el Universo se encuentra en un punto crítico, puede mantenerse estable ad eternum. La teoría del Big Bang se desarrolló a partir de observaciones y avances teóricos. Por medio de observaciones, en la década de 1910, el astrónomo estadounidense Vesto Slipher y, después de él, Carl Wilhelm Wirtz, de Estrasburgo, determinaron que la mayor parte de las nebulosas espirales se alejan de la Tierra; pero no llegaron a darse cuenta de las implicaciones cosmológicas de esta observación, ni tampoco del hecho de que las supuestas nebulosas eran en realidad galaxias exteriores a nuestra Vía Láctea. Además, la teoría de Albert Einstein sobre la relatividad general (segunda década del siglo XX) no admite soluciones estáticas (es decir, el Universo debe estar en expansión o en contracción), resultado que él mismo consideró equivocado, y trató de corregirlo agregando la constante cosmológica. El primero en aplicar formalmente la relatividad a la cosmología, sin considerar la constante cosmológica, fue Alexander Friedman, cuyas ecuaciones describen el Universo Friedman-Lemaître-Robertson-Walker, que puede expandirse o contraerse. Entre 1927 y 1930, el padre jesuita belga Georges Lemaître obtuvo independientemente las ecuaciones Friedman-Lemaître-Robertson-Walker y propuso, sobre la base de la recesión de las nebulosas espirales, que el Universo se inició con la explosión de un átomo primigenio, lo que más tarde se denominó "Big Bang". En 1929, Edwin Hubble realizó observaciones que sirvieron de fundamento para comprobar la teoría de Lemaître. Hubble probó que las nebulosas espirales son galaxias y midió sus distancias observando las estrellas variables cefeidas en galaxias distantes. Descubrió que las galaxias se alejan unas de otras a velocidades (relativas a la Tierra) directamente proporcionales a su distancia. Este hecho se conoce ahora como la ley de Hubble (véase Edwin Hubble: Marinero de las nebulosas, texto escrito por Edward Christianson). Según el principio cosmológico, el alejamiento de las galaxias sugería que el Universo está en expansión. Esta idea originó dos hipótesis opuestas. La primera era la teoría Big Bang de Lemaître, apoyada y desarrollada por George Gamow. La segunda posibilidad era el modelo de la teoría del estado estacionario de Fred Hoyle, según la cual se genera nueva materia mientras las galaxias se alejan entre sí. En este modelo, el Universo es básicamente el mismo en un momento dado en el tiempo. Durante muchos años hubo un número de adeptos similar para cada teoría. Con el pasar de los años, las evidencias observacionales apoyaron la idea de que el Universo evolucionó a partir de un estado denso y caliente. Desde el descubrimiento de la radiación de fondo de microondas, en 1965, ésta ha sido considerada la mejor teoría para explicar el origen y evolución del cosmos. Antes de finales de los años sesenta, muchos cosmólogos pensaban que la singularidad infinitamente densa del tiempo inicial en el modelo cosmológico de Friedman era una sobreidealización, y que el Universo se contraería antes de empezar a expandirse nuevamente. Ésta es la teoría de Richard Tolman de un Universo oscilante. En los años 1960, Stephen Hawking y otros demostraron que esta idea no era factible, y que la singularidad es un componente esencial de la gravedad de Einstein. Esto llevó a la mayoría de los cosmólogos a aceptar la teoría del Big Bang, según la cual el Universo que observamos se inició hace un tiempo finito. Prácticamente todos los trabajos teóricos actuales en cosmología tratan de ampliar o concretar aspectos de la teoría del Big Bang. Gran parte del trabajo actual en cosmología trata de entender cómo se formaron las galaxias en el contexto del Big Bang, comprender lo que allí ocurrió y cotejar nuevas observaciones con la teoría fundamental. A finales de los años 1990 y principios del siglo XXI, se lograron grandes avances en la cosmología del Big Bang como resultado de importantes adelantos en telescopía, en combinación con grandes cantidades de datos satelitales de COBE, el telescopio espacial Hubble y WMAP. Estos datos han permitido a los cosmólogos calcular muchos de los parámetros del Big Bang hasta un nuevo nivel de precisión, y han conducido al descubrimiento inesperado de que el Universo está en aceleración. Michio Kaku ha señalado cierta paradoja en la denominación big bang (gran explosión): en cierto modo no puede haber sido grande ya que se produjo exactamente antes del surgimiento del espacio-tiempo, habría sido el mismo big bang lo que habría generado las dimensiones desde una singularidad; tampoco es exactamente una explosión en el sentido propio del término ya que no se propagó fuera de sí mismo. Basándose en medidas de la expansión del Universo utilizando observaciones de las supernovas tipo 1a, en función de la variación de la temperatura en diferentes escalas en la radiación de fondo de microondas y en función de la correlación de las galaxias, la edad del Universo es de aproximadamente 13,7 ± 0,2 miles de millones de años. Es notable el hecho de que tres mediciones independientes sean consistentes, por lo que se consideran una fuerte evidencia del llamado modelo de concordancia que describe la naturaleza detallada del Universo. El universo en sus primeros momentos estaba lleno homogénea e isótropamente de una energía muy densa y tenía una temperatura y presión concomitantes. Se expandió y se enfrió, experimentando cambios de fase análogos a la condensación del vapor o a la congelación del agua, pero relacionados con las partículas elementales. Aproximadamente 10-35 segundos después del tiempo de Planck un cambio de fase causó que el Universo se expandiese de forma exponencial durante un período llamado inflación cósmica. Al terminar la inflación, los componentes materiales del Universo quedaron en la forma de un plasma de quarks-gluones, en donde todas las partes que lo formaban estaban en movimiento en forma relativista. Con el crecimiento en tamaño del Universo, la temperatura descendió, y debido a un cambio aún desconocido denominado bariogénesis, los quarks y los gluones se combinaron en bariones tales como el protón y el neutrón, produciendo de alguna manera la asimetría observada actualmente entre la materia y la antimateria. Las temperaturas aún más bajas condujeron a nuevos cambios de fase, que rompieron la simetría, así que les dieron su forma actual a las fuerzas fundamentales de la física y a las partículas elementales. Más tarde, protones y neutrones se combinaron para formar los núcleos de deuterio y de helio, en un proceso llamado nucleosíntesis primordial. Al enfriarse el Universo, la materia gradualmente dejó de moverse de forma relativista y su densidad de energía comenzó a dominar gravitacionalmente sobre la radiación. Pasados 300.000 años, los electrones y los núcleos se combinaron para formar los átomos (mayoritariamente de hidrógeno). Por eso, la radiación se desacopló de los átomos y continuó por el espacio prácticamente sin obstáculos. Ésta es la radiación de fondo de microondas. Al pasar el tiempo, algunas regiones ligeramente más densas de la materia casi uniformemente distribuida crecieron gravitacionalmente, haciéndose más densas, formando nubes, estrellas, galaxias y el resto de las estructuras astronómicas que actualmente se observan. Los detalles de este proceso dependen de la cantidad y tipo de materia que hay en el Universo. Los tres tipos posibles se denominan materia oscura fría, materia oscura caliente y materia bariónica. Las mejores medidas disponibles (provenientes del WMAP) muestran que la forma más común de materia en el universo es la materia oscura fría. Los otros dos tipos de materia sólo representarían el 20 por ciento de la materia del Universo. El Universo actual parece estar dominado por una forma misteriosa de energía conocida como energía oscura. Aproximadamente el 70 por ciento de la densidad de energía del universo actual está en esa forma. Una de las propiedades características de este componente del universo es el hecho de que provoca que la expansión del universo varíe de una relación lineal entre velocidad y distancia, haciendo que el espacio-tiempo se expanda más rápidamente que lo esperado a grandes distancias. La energía oscura toma la forma de una constante cosmológica en las ecuaciones de campo de Einstein de la relatividad general, pero los detalles de esta ecuación de estado y su relación con el modelo estándar de la física de partículas continúan siendo investigados tanto en el ámbito de la física teórica como por medio de observaciones. Más misterios aparecen cuando se investiga más cerca del principio, cuando las energías de las partículas eran más altas de lo que ahora se puede estudiar mediante experimentos. No hay ningún modelo físico convincente para el primer 10-33 segundo del universo, antes del cambio de fase que forma parte de la teoría de la gran unificación. En el "primer instante", la teoría gravitacional de Einstein predice una singularidad gravitacional en donde las densidades son infinitas. Para resolver esta paradoja física, hace falta una teoría de la gravedad cuántica. La comprensión de este período de la historia del universo figura entre los mayores problemas no resueltos de la física. En su forma actual, la teoría del Big Bang depende de tres suposiciones: 1.La universalidad de las leyes de la física, en particular de la teoría de la relatividad general 2.El principio cosmológico 3.El principio de Copérnico Inicialmente, estas tres ideas fueron tomadas como postulados, pero actualmente se intenta verificar cada una de ellas. La universalidad de las leyes de la física ha sido verificada al nivel de las más grandes constantes físicas, llevando su margen de error hasta el orden de 10-5. La isotropía del universo que define el principio cosmológico ha sido verificada hasta un orden de 10-5. Actualmente se intenta verificar el principio de Copérnico observando la interacción entre grupos de galaxias y el CMB por medio del efecto Sunyaev-Zeldovich con un nivel de exactitud del 1 por ciento. La teoría del Big Bang utiliza el postulado de Weyl para medir sin ambigüedad el tiempo en cualquier momento en el pasado a partir del la época de Planck. Las medidas en este sistema dependen de coordenadas conformales, en las cuales las llamadas distancias codesplazantes y los tiempos conformales permiten no considerar la expansión del universo para las medidas de espacio-tiempo. En ese sistema de coordenadas, los objetos que se mueven con el flujo cosmológico mantienen siempre la misma distancia codesplazante, y el horizonte o límite del universo se fija por el tiempo codesplazante. Visto así, el Big Bang no es una explosión de materia que se aleja para llenar un universo vacío; es el espacio-tiempo el que se extiende.Y es su expansión la que causa el incremento de la distancia física entre dos puntos fijos en nuestro universo.Cuando los objetos están ligados entre ellos (por ejemplo, por una galaxia), no se alejan con la expansión del espacio-tiempo, debido a que se asume que las leyes de la física que los gobiernan son uniformes e independientes del espacio métrico. Más aún, la expansión del universo en las escalas actuales locales es tan pequeña que cualquier dependencia de las leyes de la física en la expansión no sería medible con las técnicas actuales. En general, se consideran tres las evidencias empíricas que apoyan la teoría cosmológica del Big Bang. Éstas son: la expansión del universo que se expresa en la Ley de Hubble y que se puede apreciar en el corrimiento hacia el rojo de las galaxias, las medidas detalladas del fondo cósmico de microondas, y la abundancia de elementos ligeros. Además, la función de correlación de la estructura a gran escala del Universo encaja con la teoría del Big Bang. De la observación de galaxias y quasares lejanos se desprende la idea de que estos objetos experimentan un corrimiento hacia el rojo, lo que quiere decir que la luz que emiten se ha desplazado proporcionalmente hacia longitudes de onda más largas. Esto se comprueba tomando el espectro de los objetos y comparando, después, el patrón espectroscópico de las líneas de emisión o absorción correspondientes a átomos de los elementos que interactúan con la radiación. En este análisis se puede apreciar cierto corrimiento hacia el rojo, lo que se explica por una velocidad recesional correspondiente al efecto Doppler en la radiación. Una de las predicciones de la teoría del Big Bang es la existencia de la radiación cósmica de fondo, radiación de fondo de microondas o CMB (Cosmic microwave background). El universo temprano, debido a su alta temperatura, se habría llenado de luz emitida por sus otros componentes. Mientras el universo se enfriaba debido a la expansión, su temperatura habría caído por debajo de 3.000 K. Por encima de esta temperatura, los electrones y protones están separados, haciendo el universo opaco a la luz. Por debajo de los 3.000 K se forman los átomos, permitiendo el paso de la luz a través del gas del universo. Esto es lo que se conoce como disociación de fotones. La radiación en este momento habría tenido el espectro del cuerpo negro y habría viajado libremente durante el resto de vida del universo, sufriendo un corrimiento hacia el rojo como consecuencia de la expansión de Hubble. Esto hace variar el espectro del cuerpo negro de 3.345 K a un espectro del cuerpo negro con una temperatura mucho menor. La radiación, vista desde cualquier punto del universo, parecerá provenir de todas las direcciones en el espacio. En 1965, Arno Penzias y Robert Wilson, mientras desarrollaban una serie de observaciones de diagnóstico con un receptor de microondas propiedad de los Laboratorios Bell, descubrieron la radiación cósmica de fondo. Ello proporcionó una confirmación sustancial de las predicciones generales respecto al CMB —la radiación resultó ser isótropa y constante, con un espectro del cuerpo negro de cerca de 3 K— e inclinó la balanza hacia la hipótesis del Big Bang. Penzias y Wilson recibieron el Premio Nobel por su descubrimiento. En 1989, la NASA lanzó el COBE (Cosmic background Explorer) y los resultados iniciales, proporcionados en 1990, fueron consistentes con las predicciones generales de la teoría del Big Bang acerca de la CMB. El COBE halló una temperatura residual de 2.726 K, y determinó que el CMB era isótropo en torno a una de cada 105 partes. Durante la década de los 90 se investigó más extensamente la anisotropía en el CMB mediante un gran número de experimentos en tierra y, midiendo la distancia angular media (la distancia en el cielo) de las anisotropías, se vio que el universo era geométricamente plano. A principios de 2003 se dieron a conocer los resultados de la Sonda Wilkinson de Anisotropías del fondo de Microondas (en inglés Wilkinson Microwave Anisotropy Probe o WMAP), mejorando los que hasta entonces eran los valores más precisos de algunos parámetros cosmológicos. (Véase también experimentos sobre el fondo cósmico de microondas). Este satélite también refutó varios modelos inflacionistas específicos, pero los resultados eran constantes con la teoría de la inflación en general Se puede calcular, usando la teoría del Big Bang, la concentración de helio-4, helio-3, deuterio y litio-7.1 en el universo como proporciones con respecto a la cantidad de hidrógeno normal, H. Todas las abundancias dependen de un solo parámetro: la razón entre fotones y bariones, que por su parte puede calcularse independientemente a partir de la estructura detallada de la radiación cósmica de fondo. Las proporciones predichas (en masa, no volumen) son de cerca de 0,25 para la razón 4He/H, alrededor de 10-3 para 2He/H, y alrededor de 10-4 para 3He/H. Estas abundancias medidas concuerdan, al menos aproximadamente, con las predichas a partir de un valor determinado de la razón de bariones a fotones, y se considera una prueba sólida en favor del Big Bang, ya que esta teoría es la única explicación conocida para la abundancia relativa de elementos ligeros. De hecho no hay, fuera de la teoría del Big Bang, ninguna otra razón obvia por la que el universo debiera, por ejemplo, tener más o menos helio en proporción al hidrógeno. Las observaciones detalladas de la morfología y estructura de las galaxias y cuásares proporcionan una fuerte evidencia del Big Bang. La combinación de las observaciones con la teoría sugiere que los primeros cuásares y galaxias se formaron hace alrededor de mil millones de años después del Big Bang, y desde ese momento se han estado formando estructuras más grandes, como los cúmulos de galaxias y los supercúmulos. Las poblaciones de estrellas han ido envejeciendo y evolucionando, de modo que las galaxias lejanas (que se observan tal y como eran en el principio del universo) son muy diferentes a las galaxias cercanas (que se observan en un estado más reciente). Por otro lado, las galaxias formadas hace relativamente poco son muy diferentes a las galaxias que se formaron a distancias similares pero poco después del Big Bang. Estas observaciones son argumentos sólidos en contra de la teoría del estado estacionario. Las observaciones de la formación estelar, la distribución de cuásares y galaxias, y las estructuras más grandes concuerdan con las simulaciones obtenidas sobre la formación de la estructura en el universo a partir del Big Bang, y están ayudando a completar detalles de la teoría. Históricamente, han surgido varios problemas dentro de la teoría del Big Bang. Algunos de ellos sólo tienen interés histórico y han sido evitados, ya sea por medio de modificaciones a la teoría o como resultado de observaciones más precisas. Otros aspectos, como el problema de la penumbra en cúspide y el problema de la galaxia enana de materia oscura fría, no se consideran graves, dado que pueden resolverse a través de un perfeccionamiento de la teoría. Existe un pequeño número de proponentes de cosmologías no estándar que piensan que no hubo Big Bang. Afirman que las soluciones a los problemas conocidos del Big Bang contienen modificaciones ad hoc y agregados a la teoría. Las partes más atacadas de la teoría incluyen lo concerniente a la materia oscura, la energía oscura y la inflación cósmica. Cada una de estas características del universo ha sido sugerida mediante observaciones de la radiación de fondo de microondas, la estructura a gran escala del cosmos y las supernovas de tipo IA, pero se encuentran en la frontera de la física moderna (ver problemas no resueltos de la física). Si bien los efectos gravitacionales de materia y energía oscuras son bien conocidos de forma observacional y teórica, todavía no han sido incorporados al modelo estándar de la física de partículas de forma aceptable. Estos aspectos de la cosmología estándar siguen sin tener una explicación adecuada, pero la mayoría de los astrónomos y los físicos aceptan que la concordancia entre la teoría del Big Bang y la evidencia observacional es tan cercana que permite establecer con cierta seguridad casi todos los aspectos básicos de la teoría. Los siguientes son algunos de los problemas y enigmas comunes del Big Bang. El problema del segundo principio de la termodinámica resulta del hecho de que de este principio se deduce que la entropía, el desorden, aumenta si se deja al sistema (el universo) seguir su propio rumbo. Una de las consecuencias de la entropía es el aumento en la proporción entre radiación y materia por lo tanto el universo debería terminar en una muerte térmica, una vez que la mayor parte de la materia se convierta en fotones y estos se diluyan en la inmensidad del universo. Por otro lado en la teoría standard el estado entrópico anormalmente bajo, se considera que es producto de una "gran casualidad" justificada en base al principio antrópico. Postura que Penrose y otros consideran filosóficamente insatisfactoria. El problema del horizonte, también llamado problema de la causalidad, resulta del hecho de que la información no puede viajar más rápido que la luz, de manera que dos regiones en el espacio separadas por una distancia mayor que la velocidad de la luz multiplicada por la edad del universo no pueden estar causalmente conectadas. En este sentido, la isotropía observada de la radiación de fondo de microondas (CMB) resulta problemática, debido a que el tamaño del horizonte de partículas en ese tiempo corresponde a un tamaño de cerca de dos grados en el cielo. Si el universo hubiera tenido la misma historia de expansión desde la época de Planck, no habría mecanismo que pudiera hacer que estas regiones tuvieran la misma temperatura. Esta aparente inconsistencia se resuelve con la teoría inflacionista, según la cual un campo de energía escalar isótropo domina el universo al transcurrir un tiempo de Planck luego de la época de Planck. Durante la inflación, el universo sufre una expansión exponencial, y regiones que se afectan mutuamente se expanden más allá de sus respectivos horizontes. El principio de incertidumbre de Heisenberg predice que durante la fase inflacionista habrá fluctuaciones primordiales, que se simplificarán hasta la escala cósmica. Estas fluctuaciones sirven de semilla para toda la estructura actual del universo. Al pasar la inflación, el universo se expande siguiendo la ley de Hubble, y las regiones que estaban demasiado lejos para afectarse mutuamente vuelven al horizonte. Esto explica la isotropía observada de la CMB. La inflación predice que las fluctuaciones primordiales son casi invariantes según la escala y que tienen una distribución normal o gaussiana, lo cual ha sido confirmado con precisión por medidas de la CMB. En 2003 apareció otra teoría para resolver este problema, la velocidad variante de la luz de João Magueijo, que aunque a la larga contradice la relatividad de Einstein usa su ecuación incluyendo la constante cosmológica para resolver el problema de una forma muy eficaz que también ayuda a solucionar el problema de la planitud El problema de la planitud (flatness en inglés) es un problema observacional que resulta de las consecuencias que la métrica de Friedmann-Lemaître-Robertson-Walker tiene para con la geometría del universo. En general, se considera que existen tres tipos de geometrías posibles para nuestro universo según su curvatura: geometría hiperbólica, geometría euclidiana o plana y geometría elíptica. Dicha geometría viene determinada por la cantidad total de densidad de energía del universo (medida mediante el tensor de tensión-energía). Siendo ρ la densidad de energía medida observacionalmente y ρc la densidad crítica se tiene que para las diferentes geometrías las relaciones entre ambos parámetros han de ser las que siguen: Hiperbólico --> ρ < ρc||Plano --> ρ=ρc||Elíptico --> ρ > ρc Se ha medido que en los primeros momentos del universo su densidad tuvo que ser 10-15 veces (una milbillonésima parte) la densidad crítica. Cualquier desviación mayor hubiese conducido a una muerte térmica o un Big Crunch y el universo no sería como ahora. La solución a este problema viene de nuevo de la teoría inflacionaria. Durante el periodo inflacionario el espaciotiempo se expandió tan rápido que provocó una especie de estiramiento del universo acabando con cualquier curvatura residual que pudiese haber. Así la inflación pudo hacer al universo plano, de ahí el nombre planitud. A mediados de los años 90, las observaciones realizadas de los cúmulos globulares parecían no concondar con la Teoría del Big Bang. Las simulaciones realizadas por ordenador de acuerdo con las observaciones de las poblaciones estelares de cúmulos de galaxias sugirieron una edad de cerca de 15.000 millones de años, lo que entraba en conflicto con la edad del universo, estimada en 13.700 millones de años. El problema quedó resuelto a finales de esa década, cuando las nuevas simulaciones realizadas, que incluían los efectos de la pérdida de masa debida a los vientos estelares, indicaron que los cúmulos globulares eran mucho más jóvenes. Quedan aún en el aire algunas preguntas en cuanto a con qué exactitud se miden las edades de los cúmulos, pero está claro que éstos son algunos de los objetos más antiguos del universo. La objeción de los monopolos magnéticos fue propuesta a finales de la década de 1970. Las teorías de la gran unificación predicen defectos topológicos en el espacio que se manifestarían como monopolos magnéticos encontrándose en el espacio con una densidad mucho mayor a la observada. De hecho, hasta ahora, no se ha dado con ningún monopolo. Este problema también queda resuelto mediante la inflación cósmica, dado que ésta elimina todos los puntos defectuosos del universo observable de la misma forma que conduce la geometría hacia su forma plana. Es posible que aun así pueda haber monopolos pero se ha calculado que apenas si habría uno por cada universo visible, una cantidad ínfima y no observable en todo caso. En las diversas observaciones realizadas durante las décadas de los 70 y 80 (sobre todo las de las curvas de rotación de las galaxias) se mostró que no había suficiente materia visible en el universo para explicar la intensidad aparente de las fuerzas gravitacionales que se dan en y entre las galaxias. Esto condujo a la idea de que hasta un 90% de la materia en el universo no es materia común o bariónica sino materia oscura. Además, la asunción de que el universo estuviera compuesto en su mayor parte por materia común llevó a predicciones que eran fuertemente inconsistentes con las observaciones. En particular, el universo es mucho menos "inhomogéneo" y contiene mucho menos deuterio de lo que se puede considerar sin la presencia de materia oscura. Mientras que la existencia de la materia oscura era inicialmente polémica, ahora es una parte aceptada de la cosmología estándar, debido a las observaciones de las anisotropías en el CMB, dispersión de velocidades de los cúmulos de galaxias, y en las estructuras a gran escala, estudios de las lentes gravitacionales y medidas por medio de rayos x de los cúmulos de galaxias. La materia oscura se ha detectado únicamente a través de su huella gravitacional; no se ha observado en el laboratorio ninguna partícula que se le pueda corresponder. Sin embargo, hay muchos candidatos a materia oscura en física de partículas (como, por ejemplo, las partículas pesadas y neutras de interacción débil o WIMP (Weak Interactive Massive Particles), y se están llevando a cabo diversos proyectos para detectarla. En los años 90, medidas detalladas de la densidad de masa del universo revelaron que ésta sumaba en torno al 30% de la densidad crítica. Puesto que el universo es plano, como indican las medidas del fondo cósmico de microondas, quedaba un 70% de densidad de energía sin contar. Este misterio aparece ahora conectado con otro: las mediciones independientes de las supernovas de tipo Ia han revelado que la expansión del universo experimenta una aceleración de tipo no lineal, en vez de seguir estrictamente la Ley de Hubble. Para explicar esta aceleración, la relatividad general necesita que gran parte del universo consista en un componente energético con gran presión negativa. Se cree que esta energía oscura constituye ese 70% restante. Su naturaleza sigue siendo uno de los grandes misterios del Big Bang. Los candidatos posibles incluyen una constante cosmológica escalar y una quintaesencia. Actualmente se están realizando observaciones que podrían ayudar a aclarar este punto. Antes de las observaciones de la energía oscura, los cosmólogos consideraron dos posibles escenarios para el futuro del universo. Si la densidad de masa del Universo se encuentra sobre la densidad crítica, entonces el Universo alcanzaría un tamaño máximo y luego comenzaría a colapsarse. Éste se haría más denso y más caliente nuevamente, terminando en un estado similar al estado en el cual empezó en un proceso llamado Big Crunch. Por otro lado, si la densidad en el Universo es igual o menor a la densidad crítica, la expansión disminuiría su velocidad, pero nunca se detendría. La formación de estrellas cesaría mientras el Universo en crecimiento se haría menos denso cada vez. El promedio de la temperatura del universo podría acercarse asintóticamente al cero absoluto (0 K ó -273,15 °C). Los agujeros negros se evaporarían por efecto de la radiación de Hawking. La entropía del universo se incrementaría hasta el punto en que ninguna forma de energía podría ser extraída de él, un escenario conocido como muerte térmica. Más aún, si existe la descomposición del protón, proceso por el cual un protón decaería a partículas menos masivas emitiendo radiación en el proceso, entonces todo el hidrógeno, la forma predominante del materia bariónica en el universo actual, desaparecería a muy largo plazo, dejando solo radiación. Las observaciones modernas de la expansión acelerada implican que cada vez una mayor parte del universo visible en la actualidad quedará más allá de nuestro horizonte de sucesos y fuera de contacto. Se desconoce cuál sería el resultado de este evento. El modelo Lambda-CMD del universo contiene energía oscura en la forma de una constante cosmológica (de alguna manera similar a la que había incluido Einstein en su primera versión de las ecuaciones de campo). Esta teoría sugiere que sólo los sistemas mantenidos gravitacionalmente, como las galaxias, se mantendrían juntos, y ellos también estarían sujetos a la muerte térmica a medida que el universo se enfriase y expandiese. Otras explicaciones de la energía oscura-llamadas teorías de la energía fantasma sugieren que los cúmulos de galaxias y finalmente las galaxias mismas se desgarrarán por la eterna expansión del universo, en el llamado Big Rip. A pesar de que el modelo del Big Bang se encuentra bien establecido en la cosmología, es probable que se redefina en el futuro. Se tiene muy poco conocimiento sobre el universo más temprano, durante el cual se postula que ocurrió la inflación. También es posible que en esta teoría existan porciones del Universo mucho más allá de lo que es observable en principio. En la teoría de la inflación, esto es un requisito: La expansión exponencial ha empujado grandes regiones del espacio más allá de nuestro horizonte observable. Puede ser posible deducir qué ocurrió cuando tengamos un mejor entendimiento de la física a altas energías. Las especulaciones hechas al respecto, por lo general involucran teorías de gravedad cuántica. Algunas propuestas son: inflación caótica cosmología de branas incluyendo el modelo ekpirótico en el cual el Big Bang es el resultado de una colisión entre membranas. un universo oscilante en el cual el estado primitivo denso y caliente del universo temprano deriva del Big Crunch de un universo similar al nuestro. El universo pudo haber atravesado un número infinito de big bangs y big crunchs. El cíclico, una extensión del modelo ekpirótico, es una variación moderna de esa posibilidad. modelos que incluyen la condición de contorno de Hartle-Hawking en la cual totalidad del espacio-tiempo es finito. Algunas posibilidades son compatibles cualitativamente unas con otras. En cada una se encuentran involucradas hipótesis aún no testeadas. Existe un gran número de interpretaciones sobre la teoría del Big Bang que son completamente especulativas o extra-científicas. Algunas de estas ideas tratan de explicar la causa misma del Big Bang (primera causa), y fueron criticadas por algunos filósofos naturalistas por ser solamente nuevas versiones de la creación. Algunas personas creen que la teoría del Big Bang brinda soporte a antiguos enfoques de la creación, como por ejemplo el que se encuentra en el Génesis (ver creacionismo), mientras otros creen que todas las teorías del Big Bang son inconsistentes con las mismas. El Big Bang como teoría científica no se encuentra asociado con ninguna religión. Mientras algunas interpretaciones fundamentalistas de las religiones entran en conflicto con la historia del universo postulada por la teoría del Big Bang, la mayoría de las interpretaciones son liberales. A continuación sigue una lista de varias interpretaciones religiosas de la teoría del Big Bang (que son hasta cierto punto incompatibles con la propia descripción científica del mismo): En la Biblia cristiana aparecen dos versículos que hablarían del big bang y el big crunch: «Él está sentado sobre el círculo de la tierra, cuyos moradores son como langostas; él extiende los cielos como una cortina, los despliega como una tienda para morar» (Isaías 40.22). «Y todo el ejército de los cielos se disolverá, y se enrollarán los cielos como un libro; y caerá todo su ejército como se cae la hoja de la parra, y como se cae la de la higuera» (Isaías 34.4)[3] La Iglesia Católica Romana ha aceptado el Big Bang como una descripción del origen del Universo. Se ha sugerido que la teoría del Big Bang es compatible con las vías de santo Tomás de Aquino, en especial con la primera de ellas sobre el movimiento, así como con la quinta. Algunos estudiantes del Kabbalah, el deísmo y otras fes no antropomórficas, concuerdan con la teoría del Big Bang, conectándola por ejemplo con la teoría de la "retracción divina" (tzimtzum) como es explicado por el judío Moisés Maimónides. Algunos musulmanes modernos creen que el Corán hace un paralelo con el Big Bang en su relato sobre la creación: «¿No ven los no creyentes que los cielos y la Tierra fueron unidos en una sola unidad de creación, antes de que nosotros los separásemos a la fuerza? Hemos creado todos los seres vivientes a partir del agua» (capítulo 21, versículo 30). El Corán también parece describir un universo en expansión: «Hemos construido el cielo con poder, y lo estamos expandiendo» (52.47). Algunas ramas teístas del hinduismo, tales como las tradiciones vishnuistas, conciben una teoría de la creación con ejemplos narrados en el tercer canto del Bhagavata Purana (principalmente, en los capítulos 10 y 26), donde se describe un estado primordial se expande mientras el Gran Vishnú observa, transformándose en el estado activo de la suma total de la materia (prakriti). El budismo posee una concepción del universo en el cual no hay un evento de creación. Sin embargo, no parece ser que la teoría del Big Bang entrara en conflicto con la misma, ya que existen formas de obtener un universo eterno según el paradigma. Cierto número de populares filósofos Zen estuvieron muy interesados, en particular, por el concepto del universo oscilante. http://es.wikipedia.org/

0
2
videos graciosos
videos graciosos
HumorporAnónimo7/4/2010

hoy les quiero mostrar una coleccion de videos graciosos,de todo tipo,espero que los disfruten: caidas de borrachos link: http://www.youtube.com/watch?v=oZ8mPPwhax4 boracho vs hombre invisible link: http://www.youtube.com/watch?v=SIkhK6gPLSI animales graciosos link: http://www.youtube.com/watch?v=XiBcdB7fygM link: http://www.youtube.com/watch?v=MERXPzr1Ipk susto panda link: http://www.youtube.com/watch?v=6_eGwJmJEAc pobrecito el nene link: http://www.youtube.com/watch?v=GDzCI4Do2sA marido y mujer,jajaja link: http://www.youtube.com/watch?v=zn6rDIW-N1I y lo mejor para el final link: http://www.youtube.com/watch?v=IVCJltdWhOQ

0
2
7
77 maneras de aprender más rápido, más a fondo, y mejor!
Apuntes Y MonografiasporAnónimo9/2/2010

El conocimiento en nuestros tiempos, por lo general requiere técnicas avanzadas de aprendizaje. De hecho, se ha dicho que el adulto promedio sólo usa el 10% de su cerebro. Imagina de que podríamos ser capaces con técnicas más avanzadas de aprendizaje. Aqui hay 77 consejos relacionados con el conocimiento y el aprendizaje, para ayudarte en tu búsqueda. Algunos son específicamente para estudiantes en instituciones de enseñanza tradicional; el resto para principiantes, o aquellos que están aprendiendo por su cuenta. Feliz Aprendizaje! estos 5 primeros son los mas importantes: Salud 1. Mueve una pierna. La falta de sangre es una razón muy común de falta de concentración. Si has estado sentado en un sólo lugar por algún tiempo, mueve una de tus piernas durante un minuto o dos. Eso hará que fluya de manera mejor tu sangre, y se agudizarán tu concentración y retención. 2. Comida para la mente: Desayuna. Mucha gente no desayuna, pero frecuentemente nuestra creatividad se encuentra al máximo en la mañana y nos ayudaría mucho tener algunas proteínas con las cuales alimentar a nuestro cerebro. La falta de vitaminas puede causarnos dolores de cabeza. 3. Comida para la mente, parte 2: Come un lunch ligero. El ingerir demasiados alimentos en el lunch podría causarte sueño. Pero podrías tomar ventaja de esto tomando una “siesta para pensar” (ver #23), mucha gente aun no sabe como hacerlo. 4. Potenciadores cognoscitivos: Ginkgo biloba. Ginkgo biloba es un suplemento natural que ha sido usado en China y en otros países por siglos, y se ha hecho famoso por revertir la pérdida de memoria en ratas. También es recomendado por naturistas y otros practicantes de la salud como potenciador para la mente. 5. Reduce estrés + depresión. El estrés y la depresión pueden reducir la capacidad para retener información y así coartar o inhibir nuestro aprendizaje. Algunas veces todo lo que necesitas es más luz blanca y comida saludable. balance 6. Duerme pensando en ello. ***well Maltz escribió acerca de esto en su libro: Psycho-Cybernetics ahi mismo narra el caso de un hombre que ganaba mucho dinero por dar ideas. El se encerraba en su oficina, cerraba ventanas y apagaba las luces. Se concentraba fuertemente en el problema, luego, tomaba una pequeña siesta. Cuando despertaba, la mayoría de las ocasiones tenía el problema resuelto. 7. Toma un descanso. Cambia de perspectiva mental o física para disminuir el estrés imperceptible que a veces puedes presentarse cuando llevas mucho tiempo sentado en un mismo lugar, concentrado en aprender o memorizar algo. Tomar un descanso de 5 a 15 minutos por cada hora de estudio es más beneficioso que estudiar sin descanso. El descanso le da a tu mente tiempo de relajarse y absorber información de manera más eficiente. Si quieres tomarte muy en serio esto de los descansos, puedes intentar un descanso ultradiano de 20 minutos (inglés) por cada ciclo de 90 minutos. Éste incluye una siesta de descanso, la cual es para un propósito diferente que el #23 8. Una pequeña caminata. Cambiar tu perspectiva a menudo ayuda a liberar la tensión, y a la vez se despierta tu mente creativa. Hacer una ligera caminata por el vecindario puede ayudarte. 9. Cambia tu enfoque. A vece simplemente no hay suficiente tiempo para tomar un descanso prolongado. Si este es tu caso, cambia el tema en el cual te concentras. Alterna entre temás técnicos y no técnicos (una lectura de una novela o cuento puede ayudar). Perspectiva y concentración 10. Cambia tu enfoque parte 2. Hay 3 principales formas de aprender: visual, cinestésica, y auditiva. Si alguna no está funcionando para ti, prueba con otra. 11. Realiza una caminata para meditar. Si estás tomando una pequeña caminata (#8), ve un paso más adelante y practica la caminata para meditar, como una forma de fortalecer tu habilidad para concentrarte. Sólo asegúrate de no caminar accidentalmente por el tráfico 12. Concéntrate y no te distraigas. Concéntrate en lo que sea que estés estudiando. No trates de ver la televisión al mismo tiempo o preocuparte por otras cosas, que nada tengan que ver con tu estudio. La ansiedad coartará tu capacidad de absorción de ideas e información. 13. Apaga las luces. Esta es una forma de concentrarse (si no estás practicando la meditación). Siéntate en la oscuridad y aleja todo lo que pueda distraerte. Esta es una forma ideal de aprender de manera cinestésica, por ejemplo, aprender los acordes de una guitarra. 14. Toma un baño o una ducha. Ambas actividades te relajan, haciendo tu mente más receptiva a las grandes ideas. técnicas de memorización 15. Escuchar música. Los investigadores han demostrado durante largo tiempo que cierto tipo de música es ‘la clave’ para mejorar la memorización y el retenimiento. La información aprendida mientras se escuchaba una canción en particular, puede ser recordada de manera sencilla, con tal solo ‘reproducir’ la canción mentalmente. 16. Lectura rápida. Algunas personas creen que el leer de manera rápida, provocará que pierdas información vital. El hecho es que, una eficiente lectura rápida tendrá como resultado filtrar información irrelevante. Si es necesario, siempre podrás leer y re-leer a menor velocidad. Sin embargo leer de manera lenta obstaculiza nuestra habilidad de captar las ideas principales. (Anque claro está que algunas lecturas técnicas, requerirán una lectura lenta.) Si estás leyendo en internet, puedes probar Spreeder, que te ayudará a realizar una lectura rápida eficiente. 17. Usa siglas y otros recursos mnemónicos. Los mnemónicos son trucos esenciales para recordar información. Algunos trucos son tan efectivos, que con una aplicación adecuada podrás recordar mucha información incluso después de algunos años de haberla aprendido. Recursos Visuales 18. Cada imagen cuenta una historia. Dibuja o haz un boceto de lo que sea que estés tratando de memorizar. Teniendo una idea concreta de lo que quieres aprender, es más fácil lograrlo. 19. Mapas mentales. Necesitas planear algo? Los mapeos del cerebro, o mapas mentales ofrecen una manera sencilla de obtener un vistazo general de nuestro proyecto y a la vez nos da la capacidad de agregar detalles de forma sencilla. Con los mapeos mentales, podrás ver o encontrar de manera sencilla relaciones entre ideas diferentes, y también pueden servir de receptáculo para una sesión de lluvia de ideas(Brainstorm)! 20. Aprende simbolismo y semiótica. La semiótica es el estudio de los signos y símbolos. Teniendo conocimiento sobre el siginificado de los símbolos en una disciplina en específico, ayuda al aprendizaje y te permite recordar o almacenar información de manera más eficaz y sencilla. 21. Usa un diseño de información. Cuando registras informacion la cual tiene una estructura inherente, aplicar diseños de información facilita su comprensión y transporte. Una gran fuente es Information Aesthetics, la cual brinda excelentes ejemplos de diseños de información, así como links a sus recursos. 22. Usa técnicas visuales de aprendizaje. Intenta con gliffy para diagramas estructurados. También echale un vistazo a Inspiration.com para explicaciones sobre mapas de concepto, mapas de ideas, diagramas, etc. 23. Mapea tu flujo de tareas. El aprendizaje a menudo requiere adquirir conocimiento en un orden específico. Organizar tus pensamientos e ideas en base a lo que necesitas aprender es un método muy poderoso de prepararte para completar tareas o aprender nuevos temas. Técnicas verbales y auditivas 24. Estimular las ideas. Practica juegos de rimas, completa palabras sin sentido. Estas actividades te relajan, haciéndote más receptivo al aprendizaje. 25. Lluvia de ideas (brainstorm). Esta es una técnica consagrada y altamente recomendada que combina actividad verbal, escritura, y colaboración. (Una persona puede hacer lluvia de ideas, pero es aún más efectiva en grupo.) La lluvia de ideas dará mejores resultados si recuerdas estas reglas: Primea, no descartes ni ‘calles’ la o las ideas de alguien. Segunda, no ‘edites’ ni clasifiques nada mientras dure la lluvia de ideas; sólo registra todas las ideas primero, descártalas después. El participar en lluvias de ideas te ayuda determinar lo que previamente ya sabías acerca de algo, y lo que no sabías. 26. Aprende por osmosis. Tienes un ipod? Realiza tus propias grabaciones, súbelas al iPod (o cualquier reproductor de mp3) y duérmete sobre ellas. Literalmente. Pon el iPod bajo tu almohada y reproduce tus lecciones de lenguaje o cualquier cosa que estés aprendiendo 27. Reforzadores cognoscitivos: beats binaurales. Los beats binaurales consiste en tocar 2 frecuencias cercanas al mismo tiempo para producir ondas alfa, beta, delta y teta, las cuales pueden producir cualquiera de estos efectos descanso, sueño, relajación, capacidad para meditar, perceptividad, o concentración. Los beats binaurales son usados en conjunto con otros ejercicios para desarrollar un tipo del llamado super-aprendizaje. 28. Ríe. Reírse relaja el cuerpo. Un cuerpo relajado es más perceptivo a nuevas ideas. Técnicas Cinestésicas 29. Escribe no teclees. Mientras que escribir tus notas en la computadora es genial para la posteridad, escribir a mano estimula las ideas. El simple acto de sostener una pluma o lápiz al escribir masajea puntos de acupuntura en la mano, los cuales estimulan las ideas. 30. Lleva contigo un cuaderno de notas todo el tiempo. Samuel Taylor Coleridge soñó las palabras del poema “In Xanadu (did Kubla Khan)…”. Cuando despertó, escribió todo lo que pudo recordar, pero se distrajo por un visitante y olvidó el resto del poema. Para siempre. Si has practicado la ‘caminata de meditación’ o cualquier clase de siesta productiva, las ideas probablemente lleguen de manera espontánea. Escríbelas inmediatamente. 31. Mantén un diario. Esto no es exactamente lo mismo que el cuaderno de notas. Llevar un diario es más bien mantener un registro de tus experiencias diarias. Si además le agregas detalles visuales, esquemas, mapas mentales, etc., tienes una manera más creativa de almacenar tus experiencias acerca de lo que estás aprendiendo. 32. Organízate. Usa pestañas de colores para dividir tu cuaderno de notas o tu diario. Ambas son excelentes maneras de dividir las ideas para hacer una futura referencia de maner más sencilla. 33. Usa Post-it. Los Post-it son de gran ayuda a la hora de registrar nuestros pensamientos y opiniones acerca de algún libro, de esta forma no maltratamos el libro poniendole marcas o subrayándolo. Técnicas de Auto-motivación 34. Date crédito. Las ideas realmente están ‘de a peso por docena’. Si aprendes a concentrar tu mente únicamente en aquellos resultados que deseas alcanzar, serás capaz de reconocer las buenas ideas. Tu mente pronto se convertirá en un filtro de buenas ideas, lo cual te motivará a aprender más. 35. Motívate a ti mismo. Por qué quieres aprender algo? Cuál es la meta que deseas alcanzar mediante el aprendizaje? Si no sabes para qué quieres aprender, las distracciones aparecerán con más facilidad. 36. Plantéate una meta. W. Clement Stone una vez dijo “Todo lo que la mente humana pueda imaginar, lo puede alcanzar.” Es un fenómeno increíble en cuanto al logro de las metas. Prepárate por los medios que sean necesarios, y los obstáculos no parecerán difíciles de conquistar. Cualquiera que haya experimentado este fenómeno puede rectificar su validez. 37. Piensa positivamente. No sirve de nada proponerte metas de aprendizaje si no tienes fé en tu habilidad para aprender. 38. Organízate, parte 2. El aprendizaje es solo una parte de la vida del adulto promedio. Debes organizar tu tiempo y tus actividades, de lo contrario te será dificil contar con tiempo libre para el aprendizaje. Intenta con Neptune una página que te ayudará a organizarte mejor para que las cosas se hagan. 39. Todas las habilidades se aprenden. Con excepción de las funciones corporales, todas las habilidades en esta vida son aprendidas. Hablando de manera general, si una persona puede aprender algo, tu también puedes. Tal vez tendrás que esforzarte un poco más, pero si te has planteado una meta viable, es sin duda una meta realizable. 40. Prepárate para aprender. Pensar positivamente no es suficiente para alcanzar las metas efectivamente. Esto es especialmente importante cuando eres un adulto, pues probablemente tendrás muchas distracciones alrededor de tu vida diaria. Implementa formas de reducir las distracciones, al menos por unas cuantas horas al día, o aprender se volverá una experiencia frustrante. 41. Prepárate, parte 2. La naturaleza humana es tal que no todos en tu vida te desearán el bien en tu auto-mejoramiento y tus planes de aprendizaje. Intencionalmente o Subconscientemente te pueden distraer de tu meta. Si tienes que ir a clases después del trabajo, asegúrate que tus colegas de trabajo lo sepan, que no puedes quedarte hasta tarde. La diplomacia funciona mejor si tu jefe intencionalmente te deja trabajos en los días en que sabe que tienes que irte. Reprograma tus lecturas para otra hora si es necesario/posible. 42. Oblígate. La mayoría de la gente necesita estructurar sus vidas. La libertad a veces da miedo. Es como el caos. Pero incluso el caos tiene un orden dentro de sí. Obligándote a ti mismo (como por ejemplo, ponerte fechas límite, limitando tu tiempo, ideas o herramientas), puedes frecuentemente lograr más en menos tiempo. técnicas suplamentarias 43. Lee lo más que puedas. ¿Puede ser más claro? Usa Spreeder (#33) si es necesario. Abarca tantos temas como puedas, lo más profundo que puedas. 44. “Cruza” tus intereses. Las neuronas que conectan con neuronas existentes te dan nuevas perspectivas y habilidades para utilizar los conocimientos adicionales en maneras novedosas. 45. Aprende otro idioma. Las nuevas perspectivas te dan la habilidad de “cruzar” conceptos culturales y llegar a nuevas ideas. También, a veces leer un libro en su idioma original te otorga beneficios perdidos en la traducción. 46. Aprende a aprender. Management Help tiene una página de recursos, así como el campus virtual de SIAST, que enlazan a artículos sobre técnicas de aprendizaje. Se enfocan al aprendizaje en línea, pero sin duda obtendrás algo de ellos de cualquier forma de aprendizaje. Si quieres profundizar en el óptimo aprendizaje, lee la “Guía Rápida de la Teoría del Aprendizaje” de Headrush. 47. Conoce qué sabes y qué no. Muchas personas dicen “Soy tonto” o “No sé nada de eso”. El hecho es que mucha gente no se da cuenta de lo que realmente sabe sobre un tema. Si quieres aprender sobre un tema, es necesario que sepas qué es lo que ya sabes al respecto, descubre qué es lo que no sabes, y entonces apréndelo. 48. Haz multi-tareas para procesos de fondo. Hacer multi-tareas de forma efectiva te permite aprovechar un tiempo limitado para cumplir algunas tareas. El aprendizaje también puede ser aprovechado mediante multi-tareas. Al decir multi-tareas efectivo no me refiero a hacer dos o más cosas al mismo tiempo. No es posible. Sin embargo, Puedes lograr desarrollar efectivamente multi-tareas con un acercamiento correcto y preparando la mente para eso. Por ejemplo, un escritor independiente de éxito aprende a manejar varios artículos a la vez. Investiga sobre el primer ensayo y permite a los procesos de fondo del cerebro actuar. Concientemente, continúa con el segundo ensayo. Al investigar sobre el segundo ensayo, el primero “se escribirá solo”. Asegúrate de registrarlo cuando “llegue a tí”. 49. Piensa holísticamente. El pensamiento holístico puede ser la técnica simple más avanzada de aprendizaje que pueda ayudar a un estudiante. Pero es una forma de pensar más que una técnica simple. 50. Usa el tipo correcto de repeticion. Los conceptos complejos a menudo necesitan una revisión en orden para ser completamente captados. A veces, para ciertas personas, puede tomar meses, o años. La repetición de conceptos y teorías con varios ejemplos concretos mejora la absorción y acelera el aprendizaje. 51. Usa el modelo de Aprendizaje Cuántico (AC). El modelo de Aprendizaje Cuántico se aplica en algunas escuelas de los Estados Unidos y va más allá que los tipos de enseñanza típicos para atraer a los estudiantes. 52. Obtén las herramientas necesarias. Obviamente, hay toda clase de herramientas para el aprendizaje. Si estás aprendiendo en línea, como un creciente grupo de personas actualmente, entonces considera tus herramientas en línea. Una de las mejores herramientas de investigación en línea es el Navegador Web Firefox, que tiene bastantes extensiones (add-ons) con toda clase de características útiles. Una es Googlepedia, que muestra de manera simultánea listados de la herramienta de búsqueda Google cuando buscas por un término, con entradas similares de la Wikipedia. 53. Obtén herramientas necesarias, parte 2. Este es un tip muy de sitio, pero si quieres aprender métodos veloces de construcción de software, lee “Getting Real“, de 37 Signals. La versión Web es gratis. Las técnicas en ese libro han sido usadas para crear aplicaciones web Basecamp, Campfire y Backpack en un periodo corto de tiempo. Cada una de esas aplicaciones apoya la colaboración y la organización. 54. Aprende pensamiento crítico. Como diría el personaje de MadTV Keegan-Michael Key, el pensamiento crítico lleva el análisis a “un nuevo nivel”. Lee el discurso de Wikipedia sobre pensamiento crítico como punto de comienzo. Incluye buenas habilidades analíticas como ayuda a la habilidad de aprender selectivamente. 55. Aprende a resolver problemas complejos. Para la mayoría de las personas, la vida es una serie de problemas por resolver. Aprender es parte del proceso. Si tienes un problema complejo, necesitas aprender el arte de resolver problemas complejos (esta página contiene increíble información visual) Para Maestros, Tutores y Padres 56. Sé desafiante. Las enseñanzas son parciales y frecuentemente contraproducentes. La información solamente escuchada o leída (de un pizarrón, por ejemplo) es a menudo olvidada. La enseñanza no es solamente hablar. Hablar no es suficiente. Pregúntale cosas a los estudiantes, presenta escenarios, enfréntalos. 57. Usa pirámides de información. El aprendizaje se da en etapas. Construye bases de conocimiento sobre las cuales podrás añadir conceptos avanzados. 58. Usa videojuegos. Los videojuegos tienen una mala reputación por ciertos juegos violentos, pero los videojuegos en general pueden ser una ayuda efectiva al aprendizaje. 59. Interpreta un rol. La gente joven a menudo aprende mejor siendo parte de una experiencia de aprendizaje. Por ejemplo, la historia se absorbe más fácilmente al reactuarla. 60. Aplica la regla 80/20. Esta regla a menudo se interpreta de maneras distintas. En este caso, la regla 80/20 significa que algunos conceptos, digamos cerca del 20% de un currículum, requiere más tiempo y esfuerzo, digamos el 80%, que los demás. Así que prepárate para ahondar en temas complejos. 61. Cuenta historias. Venus Atrapamoscas, un personaje de la comedia WKPR en Cincinati, una vez le enseñó a un estudiante pandillero acerca de los átomos, protones y electrones diciéndole que un átomo era un gran vecindario y que los protones y neutrones tenían su propio pequeño vecindario y nunca se mezclaban. Como pandillas rivales. La historia funcionó, y el entendimiento se notó en los ojos del estudiante. 62. Ve más allá de la currícula de escuela pública. El sistema de educación pública lamentablemente carece de la enseñanza de aprendizaje avanzado y métodos de lluvia de ideas. No es que los métodos no se puedan enseñar, pero no lo son. Para aprender más, tienes que poner un tiempo y esfuerzo adicionales, y a veces dinero para herramientas de aprendizaje comercialmente disponibles. No hay nada malo en esto, pero lo que se enseña en las escuelas necesita ser ampliado. El autor de este artículo ha probado que una persona de nueve años puede aprender algunas matemáticas de nivel universitario, si se da el acercamiento adecuado. 63. Emplea el aprendizaje aplicado. Si un estudiante de preparatoria tuviera problemas de matemáticas, digamos con las fracciones, un ejemplo de aprendizaje aplicado puede ser la cocina, la medición de los ingredientes. Ajusta el aprendizaje a los intereses de los estudiantes. Para Estudiantes y Autodidactas. 64. Desafíate. Sorpresa. A veces los estudiantes se aburren porque saben más de lo que se enseña, a veces más que un maestro (Con suerte los maestros evaluaran lo que cada estudiante ya sabe). Los estudiantes deberían discutir con un maestro si sienten que el material que se cubre no es desafiante. Además deberían considerar el pedir material adicional. 65. Enséñate a tí mismo. No siempre los maestros pueden cambiar el programa. Si no estás siendo desafiado, desafíate a tí mismo. Algunos países aún aplican exámenes nacionales para todos los estudiantes. Si tu tutor no cubrió un tema, deberías aprenderlo por tu cuenta. No esperes que alguien más te lo enseñe. Las lecciones son más efectivas cuando ya tienes una introducción previa de los conceptos. 66. Colabora. Si estudiar solo no funciona, tal vez un grupo de estudio ayudará. 67. Hazlo con los demás; enseña algo. La mejor manera de aprender mejor algo es enseñarselo a alguien más. Te fuerza a aprender, si estás suficientemente motivado para compartir tu conocimiento. 68. Escribe acerca de ello. Una manera efectiva de “enseñar” algo es crear un FAQ o un wiki que contenga todo lo que sabes sobre un tema. O un blog acerca del mismo. Hacer esto te ayuda a darte cuenta de lo que sabes y más importante aún, lo que no sabes. Ni siquiera necesitas gastar dinero si usas una cuenta gratis como Typepad, Wordpress o Blogger. 69. Aprende por experiencia. Bastante obvio, ¿cierto? Significa invertir el tiempo necesario. Un experto es a menudo definido como alguien que ha puesto 10 000 horas en alguna experiencia. Eso son aproximadamente 5 años de 40 horas semanales, cada semana. ¿Eres un experto sin darte cuenta? Si no, ¿Tienes la dedicación para ser uno? 70. Interrógate. Probar qué tanto has aprendido reforzará la información. Las tarjetas con preguntas son una de las mejores maneras, y no son sólo para niños. 71. Aprende las cosas correctas primero. Aprende las bases. Como ejemplo: Una manera frustrante de aprender un nuevo idioma es aprender la gramática y deletreo y construcción de oraciones primero. No es así como los bebés aprenden a hablar, y no hay razón para que un adulto o joven tenga que comenzar de forma distinta, a pesar de las opiniones “expertas”. Inténtalo por tí mismo y ve la diferencia. 72. Planea tu aprendizaje. Si tienes un plan a largo plazo para aprender algo, entonces, en palabras de Led Zeppelin, “Hay dos caminos por los que puedes llegar”: Puedes tomar una vía casual de acercamiento al aprendizaje, o puedes poner un poco de planeacion para hallar un camino óptimo. Planea tu tiempo y balancea tu aprendizaje y tu vida. Consejos de despedida: 73. Insiste. No te rindas en el aprendizaje al ver tareas intimidatorias. Cualquier cosa que un ser humano puede aprender, los demás también pueden. ¿No fue Einstein quien dijo “El genio es 1% inspiración y 99% transpiración”? Edison también lo dijo. 74. Desafía a los expertos. La dislexia, en breve, es la enfermedad de traslapar letras y dígitos, causando dificultades en la lectura, escritura y, por ende, aprendizaje. Algunas palabras o numeros dictados igualmente se confunden. En el pasado, los “expertos” declararon estúpidos a los niños disléxicos. Mas adelante, se dijo que eran incapaces de aprender. El autor ha interactuado y enseñado a adolescentes disléxicos. Es posible. Helen Keller no podía ver, escuchar o hablar, y sin embargo, aprendió. Conclusión: Hay más de una manera de aprender; nunca creas que no puedes. 75. Rétate a tí mismo. La gente es frecuentemente más lista de lo que se da cuenta. En un mundo que categoriza por todos lados, no todos están seguros de dónde encajan. Y los genios se pueden hallar en muchas aceras de la vida. Si honestamente sospechas que hay más para tí de lo que se te ha permitido demostrar, haz un test de CI como el ofrecido por MENSA. No es como el resto de pruebas estandarizadas que se realizan en las escuelas. Ya sabes, aquellos que traumatizan a muchos niños haciendoles pensar que son estúpidos, simplemente porque las pruebas realmente no evaluan el conocimiento y habilidad de aprendizaje de todos los estudiantes. Y la habilidad de aprendizaje es más importante que lo que ya sabes. 76. Festeja antes de un examen. Bueno, no vayas tan lejos. La clave está en relajarse. Lo peor que puedes hacer la noche antes del examen es estudiar. Si no sabes para entonces un tema, estudiar no te va a ayudar. Si has estudiado, simplemente repasa el tema, y entonces haz algo agradable (no más estudio). Hacer esto le dice a tu cerebro que estás preparado y que podrás recordar todo lo ya aprendido. Por otro lado, si no pasaste el semestre aprendiendo las ideas necesarias, igualmente puedes ir a celebrar porque estudiar no servirá de mucho a esas alturas. 77. No te preocupes; aprende feliz. ¿Tienes una verdadera pasión por el aprendizaje y ganas de compartirlo? Únete a algún grupo como la comunidad de aprendizaje jubiloso. fuentes para este articulo: Esta es solo una pequeña lista de fuentes, sólo enfocada a sitios web. Muchas de las ideas presentadas arriba vienen de largos años de experiencia, con información obtenida en docenas de libros y otros materiales de aprendizaje, y más recientemente, en páginas web. Los sitios web listados a continuación también presentan artículos originales relacionados con las ideas de arriba, o resúmenes de ideas con links a otros sitios. headrush.typepad.com lifehack.org 43folders.com calstatela.edu/dept/chem/chem2/Active stevepavlina.com espero pongan animo al estudio.

9
4
N
No soy virgo, pero sí un fracasado...
Apuntes Y MonografiasporAnónimo8/1/2017

Bueno gente, viendo que todos ponen sus historias quería contar la mia, siempre fui lento con las minas, pero muuuy lento Ya en la secundaria la más linda del salón me tiraba onda (en ese tiempo no tenia ni idea) Venía y se me sentaba encima, y yo como un boludo seguia escribiendo y haciendo las cosas, hasta que un dia me mando a la mierda y me dijo virgen en frente de todo el salón, imaginense como me senti yo Había quedado para el cachetazo, pero no le di importancia y segui. al año siguiente empece natacion, habia una turra que siempre me miraba (no era linda, pero tenia un culo) Un día saliendo de natacion (era verano y usaba gorra) viene la turra y me la saca, estuve cuadras siguiendola pidiendole amablemente mi protector craneal, pero ella insistia que queria algo a cambio, y yo como buen virgo en vez de meterle la lengua hasta la campanilla, le di mi numero, pero al menos sirvio y me dio mi sombrero. charla va charla viene, me dijo que la proxima clase me iba a esperar afuera para tomar algo. ni me imagine que iba a pasar asi que no le di bola, a la otra clase salgo afuera y me estaba esperando, "que queres" le dije, y me encajo tremendo chape (mi primer beso lo habia dado, pero nunca habia tranzado) imaginate como estaba, con el amigo bien duro y al palo, mandando lengua de aca para alla sin saber que hacia, pero al parecer le gustó. Y ese dia paso lo peor, algo que yo no sabia, ella tenia novio y aparecio frente a mi, y peor aun, yo lo conocia, era el hijo de mi peluquero de toda la vida, aparte de la paliza que me comi nunca mas fui a cortarme el pelo ahi Pasaron los días (ya me habia cambiado de horario en natacion) y aparece una chica nueva, era hermosisima, todos los linces la querian buitrear, pero me armé de valor y la primerié, le hablaba de boludeces que ni yo entendía, y le cai bien linces, le cai bien Al final de la clase le pedi el numero y me lo dio, jamas habia encarado a una mina y menos en un lugar como natacion. Paso el tiempo, saliamos a bares me invitaba a su casa, fiestas de amigos etc, un dia le pedi que fuera mi novia y me dijo que si, no lo podía creer mi primer novia, hasta nos deciamos te amo y todas las boludeces de cuando sos pibe, hasta que llego el dia, el peor dia. Ella se fue de vacaciones, y a mi casa venia mi prima de corrientes, era tremenda atrevida, con ella moje la vainillita (me arrepiento porque fue mi primera vez y no me gusto para nada) y ya se creia dueña de mi vida, le mando mensajes a mi novia haciendose pasar por mi, le dijo de todo, obviamente la otra creyo que era yo y me mando a la mierda. Todo deprimido no sabia que hacer, justo cuando pensaba tirarme abajo del sarmiento me llego una solicitud al facebook de una piba, no tenia fotos ni nada asi que dije "Alto roberto papu" y la acepte igual. Charla va charla viene quedamos para vernos en los corsos (fiestas que se hacen en febrero). No lo podia creer linces, era hermosa, pero a un punto que parecia inalcanzable para mi, ya me sentia descepcionado de que me viera todo feo como soy, pero no!! pegamos onda enseguida y ese mismo dia me la trance y a la semana ya eramos novios!! pero para que... justo la otra me mando que volvio de vacaciones (con el culo mas abierto que farmacia de turno seguro) y queria verme, hablar sobre volver y demas mierdas, le conte que ya estaba de novio y ahi me mando a la mierda definitivamente Bueno, pasaron las semanas con mi nueva novia, todo lindo todo muy bello hasta que una vieja amiga (esta mas buena que comer pollo con la mano) me invito a su cumple de 15 (obvio ni le conte a mi chica sino se armaba la catombe) fui re bien producido con la excusa de que iba a una reunion del colegio, seguro ni se la creyo pero bue, ahi estaba yo, en un 15 en el que no conocia a nadie, gracias a los dioses mi amiga me acompaño toda la noche, llegando a un punto que estabamos en pedo mal y me dice "vamos afuera, a lo oscuro" y si linces, me hizo de todo menos la tarea, lo unico que yo queria era mandarle la garlopa, a lo que ella accedio, pero justo cuando estabamos en el acto me acorde de mi novia, y no se me paraba, al fin me iba a coger un jamoncito y el indio no se despertaba, de más está decir que me mando a la mierda y me hizo echar de la fiesta Gracias a Obelisk, Rá y Slifer mi novia no se entero de nada asi que seguimos, unos 4 o 5 meses después me dejo salir al boliche con mis amigos (alto dominado papu) uno de ellos se queria comer a una morochita linda, pero estaba con la hermana gorda y fea, adivinen a quien le encajaron la gorda para que se pueda comer al jamoncito Ya estaba en pedo y no sabia lo que hacia, la gorda me comio la boca y yo le segui el juego, sin saber que las amigas de mi novia me veian como bailaba con la gorda arriba de los bafles, como ya sabran, me quede sin novia al otro dia pero tenia una gorda dispuesta a todo, a las dos semanas ya andaba de novio con la mina mas fea de mi ciudad, pero era gauchita y entregaba todos los días, asi que me sentía el mas cogedor del barrio La gorda estaba re enamorada, pero yo me sentia mal, perdi a una mina hermosa que me queria y cada tanto me entregaba, por una gorda fea, enana y negra (pero con unas re gomas) No duro mucho porque al final me canso, le dije puta y se me puso a llorar enfrente de todos, le dije "sali bolita quien te juna" y se fue corriendo para su rancho Bueno linces, si les gustó hago la segunda parte porque no me va a entrar todo, sepan que ser virgo no es malo, peor es ser un fracasado, salu2

30
22
¿Dónde acaba el plástico que tiramos? Para tomar conciencia.
¿Dónde acaba el plástico que tiramos? Para tomar conciencia.
EcologiaporAnónimo9/19/2014

El ser humano ha producido más kilogramos de plástico en los últimos diez años que en todo el siglo XX. El 50% de los productos y envases de plástico que utilizamos sólo se utilizan una vez antes de tirarlos a la basura y solamente un pequeño porcentaje de los productos de plástico se reutilizan o reciclan. Excepto por el pequeño porcentaje que se incinera (contaminando el aire), podríamos decir que cada pieza de plástico que se ha fabricado en la historia todavía existe, de una forma u otra. Se calcula que solo reciclamos el 10% del plástico que tiramos a la basura. En la imagen se puede observar el plástico recogido por una planta de reciclaje de Japón en un mes. Si sólo reciclamos el 10% imaginen el volumen que ocupa el 90% restante. El estadounidense promedio tira a la basura una media de 85Kg de plásticos al año. Trabajadores Chinos frente a montañas de botellas de plástico en una planta de reciclaje en Zhengzhou, 2010. Gran parte del desperdicio que tiramos son bolsas de plástico. “Monstruo de Plástico” Instalación del artista esloveno Miha Artnalk para concienciar del efecto pernicioso del plástico. El mundo consume más de un millón de bolsas por minuto. El monstruo está hecho de 40.000 bolsas de plástico y 7.500 vasos de plástico usados. Sus tentáculos de plástico se extendían por toda la capital Ljubljana. La mayor parte de las bolsas de plástico sólo se utilizan una vez antes de acabar en la basura. Se calcula que un ciudadano promedio consume unas 500 bolsas de plástico al año. Hombre vestido con 500 bolsas de plástico. Las bolsas de plástico son sólo parte del problema. El Laberinto del Reciclaje, instalación de arte realizada con 8000 botellas de plástico colocadas cerca del edificio de la ONU en Ginebra, 2011. También tiramos a la basura 35 mil millones de botellas de plástico al año. Alrededor de 1.500 botellas de plástico por segundo. El año pasado en la Isla del Gobernador de Nueva York se colgaron 1.500 botellas de agua para visualizar cuanto plástico se consume por segundo en Estados Unidos. Si crees que el 90% del plástico no reciclado acaba en el vertedero es que estas equivocado. Retirada de residuos plásticos en la desembocadura del río de la ciudad de los Angeles. El plástico constituye aproximadamente el 90 por ciento de toda la basura que flota en el océano Se calcula que unas 46.000 piezas de plástico flotan por kilómetro cuadrado. Suficiente para cubrir el 40 % de la superficie de los océanos. Nariman Point, Mumbai (2007). Poco a poco el plástico de una botella se descompone en pequeñas piezas. Las corrientes pueden diseminarlos en cientos de kilómetros. Existen playas en Hawaii donde en los primeros centímetros de tierra hay más trocitos de plástico que granos de arena. Los plásticos se funden y se unen con otros desechos arrojados al mar. Esta roca es una mezcla de basura, plástico derretido, fragmentos de lava basáltica y restos orgánicos, como cáscaras de frutos y cocos. En el futuro cuando analicen los sedimentos en las rocas nos recordaran por la Edad del plástico. Todo este plástico es desagradable y molesto para los humanos, pero es mortal para miles de animales. Fotografía del río Yamuna en Nueva Delhi. Un millón de aves y 100.000 mamíferos marinos mueren cada año por culpa del plástico que flota en nuestros Océanos. Un tiburón Blanco aparece muerto en Kamilo Beach, Hawaii. Se ha documentado que el 44% de las Aves Marinas y el 22% de los cetáceos hallados muertos en las playas presentan trozos de plástico en sus aparatos digestivos. Este hecho también afecta a todas las especies de tortugas marinas y a algunos peces. Cadáver del pájaro hallado en el atolón de Midway. Bowerbird australiano salvaje con un anillo de botella encajado en boca. Foca atrapada en redes de pesca y otros materiales que flotaban a la deriva. Albatros Laysan con el cuello atrapado en una percha de plástico. Cangrejo ermitaño común utiliza un tapón de plástico como concha. Ave marina atrapada dentro de una bolsa de plástico. La única manera de poner fin a esta locura es buscar alternativas a los artículos que se venden en envases de plástico. Botellas gigantes rellenas de las botellas de plástico que han sido encontradas en esta playa durante el transcurso de un año. Cuando sea absolutamente necesario o inevitable utilizar envases de plástico, escoja # 1 (PET) o # 2 (HDPE). Son los más fáciles de reciclar. Mira a tu alrededor. ¿Cuántos residuos de plástico puedes encontrar?. Sino hacemos algo la contaminación plástica será un grave desastre ecológico en los próximos años. Cada día utilizamos más plásticos y no estamos sabiendo gestionar los desperdicios de forma adecuada. ¿Qué podes hacer? En primer lugar utiliza menos plástico. Elige el cristal o tetrabrick como envase y reciclalos igualmente. Reutilíza las bolsas de plástico o compra una bolsa de tela para cargar tu compra. No compres bolsas de alimentos que vienen envasados individualmente. Eso es envasar dos veces, genera el doble de desperdicio y de contaminación. No toda la gente es cívica ni piensa en el legado que vamos a dejar si andamos tirando basura por ahí. Por ello te pedimos un esfuerzo extra, si encuentras basura por las calles o por las playas recogedla incluso si no es tuya. Sabemos que es injusto pero este pequeño gesto tiene gran valor. Recoger la basura de otros de forma desinteresada marca la diferencia y poco a poco entre todos haremos un planeta mejor. Mirá lo que hace esta motorista con los que tiran basura al suelo Ésta heroína rusa de carne y hueso hace más por mantener nuestras calles limpias en unos minutos que muchos intendentes en toda su vida. Sus métodos no son los más apropiados, pero no nos vamos a engañar, a más de uno nos hubiera gustado tener su valentía en algún momento para hacer lo que hace. Aun a día de hoy, muchas personas están acostumbradas a usar la calle como su papelera privada particular. La basura en la ciudad produce varios problemas: contaminación, olor, suciedad y… todos queremos que con nuestros impuestos se hagan cosas buenas, no que se tengan que utilizar para limpiar los deshechos de otros indeseables. Y si vos no sos uno de estos indeseables, ten cuidado, puede que en tu ciudad no “trabaje” esta heroína, pero quizá si alguno de sus compañeros… link: http://www.youtube.com/watch?v=Xbs6eMxa5ds

49
1
PosteameloArchivo Histórico de Taringa! (2004-2017). Preservando la inteligencia colectiva de la internet hispanohablante.

CONTACTO

18 de Septiembre 455, Casilla 52

Chillán, Región de Ñuble, Chile

Solo correo postal

© 2026 Posteamelo.com. No afiliado con Taringa! ni sus sucesores.

Contenido preservado con fines históricos y culturales.