DARO51
Usuario
El uranio es un elemento químico de número atómico 92 (es decir, con 92 protones en el núcleo). Su símbolo es U. Tiene diversos isótopos, incluidos radiactivos empleados para la fabricación de armas nucleares y la producción energética en centrales nucleares. Es una sustancia radiactiva que se presenta de forma natural. Forma parte de las rocas, tierra, aire y el agua y se halla en la naturaleza en forma de minerales, pero nunca como metal. El uranio metálico es de color plateado con superficie gris y es casi tan resistente como el acero; es el elemento químico más pesado de origen natural que se encuentra sobre la Tierra. Fue descubierto en 1789 por M. H. Klaproth que lo llamó así en el honor del planeta Urano que acababa de ser descubierto en 1781. El uranio natural está formado por tres tipos de isótopos: uranio-238 (238U), uranio-235 (235U) y uranio-234 (234U). De cada gramo de uranio natural el 99,28 % de la masa es uranio-238, el 0,71% uranio-235 y 0,005% uranio-234. La relación Uranio-238/Uranio-235 es constante en toda la Tierra y el resto de de los planetas del Sistema Solar. En el suelo se encuentra en concentraciones típicas de unas pocas partes por millón (ppm). Ciertas rocas contienen concentraciones de uranio suficientemente altas para ser minadas. Las rocas se llevan a una planta química donde se separa el uranio y se convierte en productos químicos de uranio o en metal. El residuo que queda se llama relave de molino. Los relaves contienen grandes cantidades de productos químicos y sustancias radiactivas que no fueron separadas, tales como radio y torio. Una de las propiedades radiactivas del uranio es el periodo de semidesintegración, el tiempo que tarda la mitad del isótopo en emitir su radiación y transformarse a otra sustancia. Los periodos de semidesintegración son muy largas (cerca de 200,000 años para el 234U, 700 millones de años para el 235U, y 5.000 millones de años para el 238U). El isótopo 235U es útil como combustible en plantas de energía y en armamentos. Para producir combustible, el uranio natural es separado en dos porciones. La porción combustible tiene más 235U que lo normal y se llama uranio enriquecido. La porción sobrante con menos 235U que lo normal se llama uranio empobrecido. El uranio natural, enriquecido o empobrecido es químicamente idéntico. El uranio empobrecido es el menos radiactivo, el uranio enriquecido es el más radiactivo. Uso El principal uso del uranio en la actualidad es la obtención de combustible para los reactores nucleares que producen el 17% de la electricidad obtenida en el mundo. El principal uso del uranio es en el sector civil para la suministración de combustible para los reactores nucleares, donde es enriquecido generalmente en 235U al 2-3%. El uranio empobrecido es usado en la producción de municiones perforantes y blindajes de alta resistencia. Otros usos incluyen; * Estabilizadores de uranio empobrecido para aviones, satélites artificiales y veleros. * Adición de uranio para la creación de cristales verdes ó fosforecentes en amarillo * El largo periodo de semidesintegración del isótopo 238U (4.51 × 109 años) es bastante adecuado para estimar la edad de las rocas ígneas y para otros tipos de datación radiométrica. * 238U es convertido en plutonio en los reactores reproductores. El plutonio puede ser usado en reactores, o en armas nucleares. * Algunos accesorios luminosos utilizan uranio, del mismo modo que lo hacen algunos químicos fotográficos (nitrato de uranio) * El uranio en estado metálico es usado para los blancos de rayos X para hacer rayos X de alta energía * Su alto peso atómico hace al U-238 eficaz para la protección contra la radiación * Fertilizantes de fosfato a menudo contienen altos contenidos de uranio natural, debido a que el mineral del cual son hechos es típicamente alto en uranio. Efectos nocivos para la salud Todas las mezclas de uranio (natural, enriquecido y empobrecido) tienen los mismos efectos químicos en el cuerpo. Se trata de un material muy tóxico que afecta los sistemas óseo, renal y otros órganos del cuerpo humano. Por ser radioactivo además, es cancerígeno, sobre todo cuando se lo inhala junto al radón-222. Por ese motivo, la enfermedad más frecuente entre los trabajadores de las minas de uranio es el cáncer de pulmón. Enriquecimiento de uranio El uranio enriquecido es uranio cuyo contenido en uranio-235 ha sido incrementado a través de un proceso de separación de isótopos. El uranio natural se compone principalmente del isótopo U238, con una proporción en peso de alrededor del 0,7 % de U-235, el único isotopo en cantidad apreciable existente en la naturaleza que es fisionable mediante neutrones termales. La capacidad para enriquecer uranio es uno de los factores claves en la proliferación de armas nucleares. En el Proyecto Manhattan al uranio enriquecido se le denominó en código oralloy, abreviatura de Oak Ridge alloy (aleación), por la planta en la que el uranio era enriquecido. El término oralloy todavía se usa en ocasiones para referirse al uranio enriquecido. El U-238 que permanece tras el enriquecimiento es conocido como uranio empobrecido (DU=depleted uranium, en inglés), y es considerablemente menos radioactivo que incluso el uranio natural, a pesar de que es extremadamente denso y útil para vehículos blindados y armas para atravesar blindajes y otras aplicaciones en las que se requiera una alta densidad. Grados Uranio altamente enriquecido (Highly enriched uranium (HEU)) l uranio altamente enriquecido tiene una concentración superior al 20% de U-235. El uranio fisible en las armas nucleares normalmente contiene 85% o más de U-235 conocido como "nivel para armas" (weapons-grade), a pesar de que para un arma muy poco eficiente el 20% sería suficiente (lo que se denomina "utilizable para armas"; incluso se defiende que aún con menos porcentaje sería suficiente, pero entonces la masa nuclear crítica que se requeriría crecería rápidamente. La presencia de demasiada concentración del isotopo U-238 inhibe la descontrolada reacción nuclear en cadena que es la responsable de la potencia del arma. El uranio altamente enriquecido también se utiliza en la propulsión nuclear marina, donde su concentración es como mínimo del 50%, pero normalmente excede del 90%. Uranio de bajo enriquecimiento (Low-enriched uranium (LEU)) El uranio de bajo enriquecimiento tiene una concentración inferior al 20% de U-235. Para uso en los reactores de agua ligera comerciales (LWR=Light water reactor), los más extendidos mundialmente, el uranio está enriquecido del 3 al 5% con U-235. No hay un riesgo directo de explosión. el LEU utilizado en reactores para investigación está enriquecido del 12% al 19,75% con U-235, siendo la concentración más alta para sustituir a los combustibles de alto enriquecimiento por los de bajo enriquecimiento. Uranio ligeramente enriquecido (Slightly enriched uranium (SEU)) El uranio ligeramente enriquecido tiene una concentración de U-235 entre 0,9 % y 2%. Este nuevo nivel está siendo utilizado para sustituir el combustible de uranio natural en algunos reactores de agua pesada tales como el CANDU. Los costes se rebajan porque requieren menos uranio y con menos haces se alimenta el reactor, lo que a su vez reduce la cantidad de combustible gastado y los consiguientes costes de gestión de residuos. El Uranio recuperado (Recovered uranium (RU)) es una variación del SEU. Está basado en el ciclo de combustible implicado en los reactores de agua ligera. Métodos La separación de isotopos es una actividad difícil y que requiere intensa energía. Enriquecer uranio es difícil porque los dos isotopos son muy similares en peso: el U-235 es sólo un 1,26% menos pesado que el U-238. Se han utilizado varias técnicas para el enriquecimiento, y otras más están en fase de investigación. En general, estos métodos explotan las ligeras diferencias en el peso atómico de los varios isotopos. Se han realizado trabajos que usarían la resonancia magnética nuclear, aunque no se conoce si estos procesos han sido puestos en producción comercial. Una característica común a todos los esquemas de enriquecimiento a larga escala es el empleo de un número idéntico de pasos para producir sucesivamente mayores concentraciones de U-235. Cada fase concentra el producto hasta el nivel establecido para la siguiente fase, antes de iniciarse el paso hacia otra nueva fase superior. De forma parecida, la parte del material que no alcanza el nivel de enriquecimiento requerido es devuelto a la fase anterior para su posterior reprocesado. Este sistema de enriquecimiento secuencial es denominado ingeniería química en cascada. Difusión térmica La difusión térmica utilza el intercambio de calor a través de una delgada capa de líquido o gas para conseguir la separación de isotopos. El proceso se beneficia del hecho de que las más ligeras moléculas de gas del U-235, se difundirán hacia la superficie caliente, mientras que las más pesadas del U-238, lo harán hacia la superficie más fría. Durante la Segunda Guerra Mundial se utilizó la planta de Oak Ridge para preparar el material requerido para el proceso EMIS (ver más abajo: Separación electromagnética de isotopos). El proceso fue abandonado en favor del uso de la difusión gaseosa. Difusión gaseosa La difusión gaseosa es una tecnología utilizada para producir uranio enriquecido que consiste en forzar al gas de hexafluoruro de uranio a través de una membrana semi-permeable, lo que produce una ligera separación entre las moléculas que contienen U-235 y las que contienen U-238. A lo largo de la Guerra fría, la difusión gaseosa jugó un papel importante en la técnica del enriquecimiento de uranio, a pesar de lo cual actualmente ha sido casi por completo sustituida por nuevos métodos. Gas centrifugado El proceso de gas centrifugado utiliza un gran número de cilindros rotativos en formaciones en paralelo y en serie. Esta rotación crea una fuerza centrífuga muy fuerte, de modo que las moléculas más pesadas que contienen U-238, se desplazan hacia la parte exterior del cilindro, mientras que las más ligeras del U-235 se recogen más cercanas al centro. Este proceso requiere mucha menos energía que el viejo de difusión gaseosa, para conseguir la misma separación, por lo que lo ha prácticamente remplazado totalmente. El centrifugado rápido (Zippe) El centrifugado Zippe es una mejora sobre el centrifugado de gas convencional, siendo la principal diferencia el uso del calor. Se calienta el fondo de los cilindros rotativos, provocando corrientes que mueven hacia la zona superior el U-235, donde puede ser recogido mediante paletas. Este diseño de centrifugado mejorado es utilizado por la compañía comercial Urenco para producir combustible nuclear. También, este proceso fue utilizado por Pakistán en su programa de armas nucleares y el gobierno pakistaní, vendió la tecnología Zippe a Corea del Norte e Irán, permitiendo a ambos países el desarrollo de su propia industria nuclear. Procesos areodinámicos Los procesos de enriquecimiento aerodinámicos incluyen las técnicas "Becker Jet Nozzle" desarrolladas por EW Becher y asociados, y el proceso de separación en el tubo vórtex. Este proceso de separación aerodinámica, se basan en la difusión provocada por gradientes de presión, tal como en el proceso del gas centrifugado, y de hecho, el proceso aerodinámico puede ser considerado un centrifugado no rotativo. La obtención de las fuerzas centrífugas se consigue por una dilución de UF6, con hidrógeno o helio como gas de transporte que alcanza una mayor velocidad de flujo de la que se obtendría si se utilizara hexafluoruro de uranio puro. La Uranium Enrichment Corporation of South Africa (UCOR) desarrolló el proceso de separación Helikon vórtes, basado en el tubo vórtex y en Brazil, NUCLEI, un consorcio dirigido por Industrias Nucleares do Brasil, construyó una planta de experimentación. Como ambos procesos implicaban un alto consumo de energía y requisitos notables para la retirada de los residuos del calor, actualmente no están en uso. Separación Electromagnética de Isotopos onocido por la abreviatura de su denominación inglesa (Electromagnetic Isotope Separation como EMIS. El uranio metálico, previamente es vaporizado, es ionizado con iones cargados positivamente. Entonces, son acelerados y subsiguientemente deflectados por campos magnéticos hacia sus respectivos puntos de recogida. Un espectómetro de masas a nivel de producción, llamado Calutron, desarrollado durante la segunda guerra mundial y que proporcionó la mayoría del U-235 utilizado en la bomba nuclear Little Boy que se lanzó sobre Hiroshima en 1945. Exactamente, el término 'Calutron' hace referencia a un aparato de varios componentes situado en un gran óvalo alrededor de un potente electromagneto. La separación magnética se ha prácticamente abandonado en favor de métodos más efectivos; no obstante, los inspectores internacionales encontraron que Iraq había construido en secreto docenas de calutrones, supuestamente para el desarrollo de una bomba nuclear. Procesos Láser Los procesos Láser constituyen posiblemente una tercera generación tecnológica que promete menos requerimientos de aportación de energía, más bajos costes de capital, y reducción de pruebas, todo lo cual suponen ventajas económicas significativas. AVLIS (del inglés Atomic Vapor Laser Isotope Separation) es un método en el que se utilizan lásers especialmente afinados para separar isotopos de uranio, mediante la selectiva ionización en transiciones hiperfinas. La técnica utiliza lásers que están ajustados a frecuencias que ionizan los átomos de U-235 pero no otros. El U-235 con carga de iones positivos son entonces atraídos a una bandeja cargada negativamente y recogido. Un segundo método de separación por láser se conoce como Separación molecular de isotopos por láser: MLIS, ( del inglés Molecular Laser Isotope Separation). En este método, un láser de infrarrojos es dirigido al gas de hexafluoruro de uranio, excitando las moléculas que contienen un átomo U-235. Un segundo láser libera un átomo de fluorina, extrayendo el pentafluoruro de uranio que precipita desde el gas. Un desarrollo australiano llamado SILEX que es molecular y utiliza UF-6, en apariencia es "básicamente diferente totalmente a lo que se ha probado hasta ahora" de acuerdo con lo que declara su desarrollador Silex Systems Ltd. Los detalles del proceso actualmente no están disponibles. En 1996 la USEC obtuvo los derechos pàra valorar y desarrollar SILEx para uranio (ya que la técnica es utilizable también para siliconas y otros elementos pero renunció a ellos en 2003. Ninguno de estos procesos se encuentra disponible para su utilización comercial, a pesar de que el de SILEX se encuentra muy avanzado. Métodos químicos Se han realizado demostraciones para una planta piloto de un procedimiento químico, pero no ha sido utilizado. El proceso francés CHEMEX explotó una muy ligera diferencia en la propensión de los dos isotopos a cambiar de valencia en la oxidación/reducción, utilizando fases acuosas inmiscibles y orgánicas. Se desarrolló un procedimiento de intercambio iónico por parte de la Asahi Chemical Compamy en Japón que utiliza una química similar pero que realiza la separación bajo el intercambio iónico de las propiedades de una columna de resina. Separación de plasma l proceso de Separación de plasma (PSP) describe una técnica potencialmente más eficiente para el enriquecimiento de uranio que utiliza el magnetismo de superconductores y la física de plasma. En este proceso, se utiliza el principio del ciclotrón para, selectivamente, potenciar el isotopo U-235 en un plasma que contiene una mezcla de iones. Los franceses han desarrollado su propia versión del PSP, a la cual denominan RCI. La dotación de fondos para el RCI se redujo drásticamente en 1986, y el programa se suspendió hacia 1990, a pesar de que todavía se usa el RCI para la separación estable de isotopos. La unidad de trabajo de separación: SWU (separative work unit) La Separative Work Unit (SWU) es una unidad de medida compleja que está en función del volumen de uranio procesado y el grado al cual va a ser enriquecido, es decir, el alcance del incremento en la concentración del isotopo U-235, con relación al resto. El trabajo de separación se expresa en SWUs, kg SW, o kg UTA (del alemán Urantrennarbeit ) * 1 SWU = 1 kg SW = 1 kg UTA * 1 kSWU = 1 tSW = 1 t UTA * 1 MSWU = 1 ktSW = 1 kt UTA La unidad, estrictamente, es: Kilogramo de Separative Work Unit y mide la cantidad de trabajo de separación (indicativa de la energía usada en el enriquecimiento) en el que la materia prima, los residuos y la cantidad de producto están expresados en kg. El esfuerzo gastado en separar una masa F de la materia prima tratada xf en una masa P de producto elaborado xp (producto enriquecido) y los residuos (colas) de masa T y producto xt, se expresa en términos del número de unidades de trabajo separativo necesitadas, dada por la expresión: SWU = PV(xp) + TV(xt) - FV(xf), en la que V(x) es la "función valor", definida como V(x) = (1 - 2x) ln((1 - x)/x). El ratio entre materia prima y producto se obtiene de la fórmula: F/P = (xp - xt)/(xf - xt). El ratio de residuos (colas) con el producto es dada por la fórmula: T/P = (xp - xf)/(xf - xt). Si, por ejemplo, se empieza con 100 kg de uranio natural (NU), se requieren alrededor de 60 SWU para producir 10 kg de uranio de bajo enriquecimiento (LEU) con un contenido en U-235 del 4,5%, en unas colas de ensayo de 0,3 %. El número de Unidades de trabajo separativo proporcionado por un equipo de enriquecimiento es directamente proporcional a la cantidad de energía que el equipo consume. Las plantas modernas de difusión gaseosa normalmente requieren de 2.400 a 2.500 kWh de electricidad por SWU, mientras que las plantas de gas centrifugado solo precisan de 50 a 60 kWh por SWU. Ejemplo Una gran planta de energía nuclear con una capacidad de generación eléctrica neta de 1.300 MW requiere anualmente cerca de 25 t de LEU con una concentración de U-235 de 3,75%. Esta cantidad se produce a partir de 210 t de NU (uranio natural) y utilizando alrededor de 120.000 SWU. Por tanto, una planta de enriquecimiento con una capacidad de 1.000 kSWU/año, es capaz de enriquecer el uranio necesario para alimentar ocho grandes centrales nucleares. Temas de Costes Además de las Unidades de Trabajo de Separación proporcionadas por una instalación de enriquecimiento, el otro parámetro importante que debe tomarse en cuenta es la masa de uranio natural (NU) que es necesaria a fin de obtener la masa deseada de uranio enriquecido. Al igual que en el caso de las SWUs, el volumen de materia prima necesaria también dependerá del nivel de enriquecimiento que se desee y del U-235 presente en el uranio agotado. Sin embargo, a diferencia del número de SWUs requeridos durante el proceso de enriquecimiento que se incrementan ante niveles menores de U-235 en la corriente de tratamiento, el volumen de NU necesario disminuirá al disminuir los niveles de U-235 al fin del proceso de uranio agotado. Por ejemplo, en el enriquecimiento de uranio de bajo enriquecimiento (LEU) de utilización en un reactor de agua ligera es normal que la corriente enriquecida contenga el 3,6 % de U-235 (contra el 0,7% en el uranio natural) mientras que las corrientes agotadas contienen del 0,2% al 0,3% de U-235. A fin de producir un kg de este LEU serían necesarios aproximadamente 8 kg de NU y 4,5 SWUs, en el caso de que la corriente de uranio agotado (DU) hubiera de tener 0,3% de U-235. Por otra parte, si la corriente agotada tuviera sólo 0,2 % de U-235, entonces sólo se requerirían 6,7 kg de NU, pero cerca de 5,7 SWU de enriquecimiento. Puesto que el volumen necesario de NU y el número de SWUs requeridas durante el enriquecimiento tienen direcciones opuestas, si el NU es barato y los servicios de enriquecimiento son relativamente más caros, en este caso, los operadores normalmente elegirán que se deje más porcentaje de U-235 en las corrientes de DU, mientras que, en el caso de que el NU sea relativamente más caro, elegirán lo opuesto. Rebajar la mezcla Lo opuesto a enriquecer es rebajar la mezcla (downblending); el uranio de alto enriquecimiento (HEU), cuando lo es excesivamente, puede ser rebajado a LEU a fin de hacerlo adecuado para el uso como combustible nuclear comercial. El producto inicial HEU, puede contener isotopos de uranio no deseados: U-234, es un isotopo menor contenido en el uranio natural; durante el proceso de enriquecimiento, su concentracíón se incrementa incluso más que la de U-235. Altas concentraciones de U-234 pueden causar excesivas exposiciones a la radiación de los trabajadores durante la elaboración del combustible; U-236 es un subproducto de la irradiación en un reactor y puede estar contenido en el HEU, dependiendo de su historial de fabricación. El HEU reprocesado de la producción de material armamentístico nuclear (con una composicón de un 50% de U-235) puede contener concentraciones de U-236 tan altas como un 25%, produciendo concentraciones de aproximadamente el 1,5 % en el producto LEU mezclado. U-236 es un neutrón venenoso; por ello, la concentración de U-235 en el producto LEU debe ser elevado en consonancia para compensar la presencia de U-236. El producto para la mezcla puede ser NU, o DU, no obstante, dependiendo de la calidad del producto a mezclar, el SEU con normalmente un 1,5% en peso de U-235 puede ser utlizado como materia para la mezcla para diluir los subproductos indeseados que pudiera contener el HEU. La concentración de estos isotopos en el producto LEU en algunos casos puede exceder las especificaciones de la ASTM para el combustible nuclear, si se utilizasen el NU, o el DU. Por ello, la rebaja de la mezcla del HEU generalmente no contribuye a gestionar el problema de tratamiento de residuos planteado por la existencia de grandes cantidades de uranio agotado. También, un análisis económico detallado de downblending realizado en Rusia sugiere que el eniquecimiento de mezcla consume incluso el 20% más de SWUs de las que pueden recuperarse. Esto significa que no se lleva a cabo ninguna recuperación en absoluto, y que todo el proceso es un despilfarro de SWU. bala de uranio empobrecido El uranio empobrecido y la salud humana Los efectos del uranio empobrecido sobre la salud humana son complejos, debido a la forma química en que entra en el organismo, y pueden estar causados por mecanismos químicos y radiológicos. No se dispone de mucha información sobre los efectos del uranio sobre la salud y el medio ambiente. No obstante, dado que el uranio y el uranio empobrecido son esencialmente el mismo elemento, excepto por su contenido en isótopos radiactivos, los estudios científicos sobre el uranio natural son aplicables al uranio empobrecido. En cuanto a los efectos radiológicos del uranio empobrecido, el cuadro se complica aún más, ya que la mayoría de los datos existentes se refieren a los efectos sobre la salud del uranio natural y el uranio enriquecido. Los efectos sobre la salud dependen de la modalidad y la magnitud de la exposición (ingestión, inhalación, contacto o lesiones) y de las características del uranio empobrecido (tamaño y solubilidad de las partículas). La probabilidad de detectar posibles efectos podría depender del marco (militar, civil, laboral). Tipos de exposición El organismo humano contiene como promedio 90 µg de uranio, proveniente de la absorción normal de alimentos, aire y agua; se encuentra aproximadamente un 66% en el esqueleto, 16% en el hígado, 8% en los riñones y 10% en otros tejidos. Se produce exposición externa debido a la proximidad al uranio empobrecido en su forma metálica (por ejemplo, en un depósito de municiones o en un vehículo con municiones de uranio empobrecido o blindaje de uranio empobrecido) o por contacto con el polvo o los fragmentos creados tras una explosión o impacto. Los efectos debidos únicamente a la exposición externa (y no a la ingestión, inhalación o absorción cutánea) se limitarían a los efectos radiológicos. Se produce exposición interna por ingestión e inhalación. En el entorno militar, las heridas representan otra vía de exposición si han sido causadas por el impacto de proyectiles o blindaje con uranio empobrecido. Absorción del uranio en el organismo La mayor parte (>95%) del uranio que entra en el organismo no se absorbe, sino que se elimina por las heces. En cuanto al uranio que pasa a la sangre, aproximadamente el 67% es filtrado por los riñones y excretado en la orina en 24 horas. El uranio se distribuye por los riñones, los huesos y el hígado. El tiempo necesario para excretar en la orina la mitad de la cantidad total de uranio absorbido se ha estimado en 180 a 360 días. Riesgos para la salud Toxicidad química: El uranio causa lesiones renales en animales de laboratorio y algunos estudios indican que la exposición a largo plazo puede producir daños en la función renal de los seres humanos. Se han observado alteraciones nodulares en la superficie de los riñones, lesiones del epitelio tubular y un aumento de los niveles de glucosa y proteínas en la orina. Toxicidad radiológica: La desintegración del uranio empobrecido se produce principalmente por emisión de partículas alfa que no van más allá de las capas cutáneas externas, pero que podrían afectar a las células internas (que son más sensibles a los efectos ionizantes de la radiación alfa) cuando se ingiere o inhala uranio empobrecido. Por consiguiente, la exposición a las radiaciones alfa y beta debido a la inhalación de partículas insolubles de uranio empobrecido puede producir lesiones en el tejido pulmonar y aumentar la probabilidad de contraer cáncer de pulmón. Igualmente, se estima que la absorción en la sangre y la retención en otros órganos, en especial el esqueleto, conlleva un riesgo adicional de cáncer en esos órganos, según el nivel de exposición a las radiaciones. Sin embargo, se considera que con niveles de exposición bajos el riesgo de cáncer es muy escaso. Hasta la fecha, no se han demostrado efectos adversos para la salud en los limitados estudios epidemiológicos realizados sobre la exposición interna a la radiación debido a la ingestión e inhalación de partículas de uranio empobrecido o a lesiones cutáneas y heridas contaminadas con uranio empobrecido, ni en los estudios realizados con trabajadores expuestos al uranio natural o enriquecido. Uranio empobrecido en el medio ambiente En las regiones áridas, la mayor parte del uranio empobrecido permanece en la superficie en forma de polvo. Se dispersa en el suelo con más facilidad en zonas con precipitaciones pluviales mayores. El cultivo de tierras contaminadas y el uso de agua y alimentos contaminados pueden plantear riesgos para la salud, pero se estima que son limitados. Cabría esperar que la toxicidad química fuera la principal preocupación, en lugar de la exposición a las radiaciones. Los niños pequeños podrían correr más peligro de exposición al uranio empobrecido que los adultos al volver a sus actividades normales en una zona de guerra, debido a la contaminación de los alimentos y el agua, ya que su curiosidad natural les impulsa a llevarse todo a la boca, lo que podría causar una elevada ingestión de uranio empobrecido procedente del suelo contaminado. Normas La OMS tiene directrices sobre el uranio que también podrían aplicarse al uranio empobrecido. En la actualidad son las siguientes: Directriz para la calidad del agua potable (2 µg/litro); se considera que este valor garantiza protección contra los efectos subclínicos en los riñones comunicados en estudios epidemiológicos (OMS, 1998). La dosis diaria admisible para la exposición oral al uranio es de 0,6 µg/kg de peso corporal/día (OMS, 1998). Los límites de la exposición a radiaciones ionizantes son de 1 mSv/año para la población general y 20 mSv/año como promedio de cinco años para los profesionales (Normas básicas de seguridad, 1996). Actividades de la OMS La OMS ha realizado un amplio examen de la literatura para determinar las consecuencias generales para la salud de la exposición al uranio y al uranio empobrecido. Próximamente la OMS publicará una monografía en la que se resumirán los resultados del examen. Uno de los objetivos del examen científico de la OMS fue determinar las lagunas en los conocimientos que hacían necesario realizar investigaciones adicionales, a fin de evaluar mejor los riesgos para la salud humana o de la exposición al uranio empobrecido. La OMS reunirá a un grupo de expertos científicos de alto nivel para que examinen esas necesidades y formulen propuestas de investigaciones detalladas. La OMS continúa asesorando al equipo especial de las Naciones Unidas en los Balcanes (Programa de las Naciones Unidas para el Medio Ambiente (PNUMA)) y sobre las posibles consecuencias para la salud y el medio ambiente de la guerra del Golfo. La OMS, por conducto de su Centro Internacional de Investigaciones sobre el Cáncer (CIIC), continúa estudiando los efectos de la exposición a bajos niveles de radiaciones ionizantes a fin de mejorar las bases científicas de la protección contra las radiaciones. En particular, el CIIC tiene previsto hacer un estudio para evaluar si se ha producido un aumento en la incidencia de cáncer entre el personal militar que prestó servicios en la guerra del Golfo o en los Balcanes, así como entre las poblaciones expuestas (y, si procede, evaluar el posible papel del uranio empobrecido en ese aumento). Necesidades en materia de investigación Hasta el momento, entre las necesidades determinadas por el examen de la OMS figuran las siguientes: * Comprender mejor las lesiones renales asociadas con alteraciones de la función renal (y si son reversibles) en poblaciones sometidas a diferentes niveles de exposición al uranio. * Investigar la forma química y física, el comportamiento fisiológico, la lixiviación y el ciclo medioambiental subsiguiente de las diversas formas de uranio procedentes de diversas fuentes industriales y militares. Esos datos deben relacionarse con la amplia base de datos sobre el comportamiento medioambiental y fisiológico de los compuestos de uranio. * Mejorar nuestra comprensión, por medio de estudios científicos válidos, de las repercusiones sobre el sistema reproductivo y los efectos mutagénicos y carcinogénicos del uranio y, por deducción, del uranio empobrecido. Recomendaciones Nuestros conocimientos sobre el uranio empobrecido son incompletos y es necesario hacer más investigaciones. Es preciso un esfuerzo coordinado para obtener información válida mediante investigaciones de alta calidad a fin de poder evaluar mejor los riesgos para la salud y hacer recomendaciones más precisas sobre la necesidad de descontaminar después de los conflictos. Habida cuenta de las incertidumbres que persisten sobre los efectos del uranio empobrecido, parece razonable iniciar operaciones de descontaminación en las zonas de impacto en las que exista un gran número de partículas radiactivas. Si existen concentraciones muy elevadas de uranio empobrecido, podría ser necesario acordonar las zonas hasta que se eliminen las partículas. Esto es especialmente importante si es probable que haya niños en esas zonas. fuente fuente 2 fuente 3

Zeta Reticuli Zeta Reticuli (ζ Ret / ζ Reticuli) es un sistema binario de estrellas localizado a unos 39 años luz de la Tierra. Está situado en la constelación Reticulum, y se puede observar a simple vista en las noches más oscuras. Debido a la localización del sistema, en el hemisferio sur, no es posible verlo al norte de la zona tropical. Reticulum Reticulum del (Latin: reticulo), es uno de las menores constelaciones australes. Fue presentada por Nicolas Louis de Lacaille para conmemorar la reticula, que fue un instrumento científico usado para medir la posición de las estrellas. Objetos notables ζ Reticuli es una estrella binaria que puede ser percibida como una estrella doble a simple vista. Esta estrella binaria es la más famosa por ser el presunto hogar de extraterrestres que Betty y Barney Hill alegan (2 personas abducidas en los estados unidos enla decda del ´60) podriamos llegar a ser visitados por habitantes de zeta reticuli? Para los que creen que somos visitados por seres extraterrestres no es difícil imaginar a éstos viajando por las estrellas, pasando por multitud de planetas y conociendo muchas otras civilizaciones presentes en los innumerables sistemas solares de nuestra galaxia y otras. Sin embargo, llevar a la práctica este tipo de viajes espaciales presenta importantes problemas que no lo son sólo para nuestra “primitiva” ciencia, sino que lo será para cualquier otra civilización o supercivilización del cosmos. Hasta el hartazgo podemos leer la sentencia: “el problema es la energía”. Pongámonos en el papel de una civilización muy avanzada que contase con una tecnología muy superior a la nuestra. Viajan dentro de su sistema solar, visitando el resto de planetas y, por qué no, terraformándolos y explotando sus recursos. Un buen día localizan nuestro mundo con su programa de detección de planetas extrapolares y deciden venir a estudiarnos. Su bandera no incluye barras y estrellas de modo que la invasión y conquista ni siquiera pasan por sus desarrolladas mentes. Además, el hidrógeno para fusión es omnipresente en el universo que conocen y tampoco creen que haya depósitos de antimateria en nuestro subsuelo, con lo que sus necesidades energéticas no necesitan de incursiones agresivas en nuestro sistema solar. Su viaje es, por tanto, exclusivamente científico. Su estrella de procedencia es Zeta 1 Retículo, omnipresente en los relatos sobre abducciones, que es de tipo G2V al igual que el sol, y tiene una luminosidad del 75% de éste. Está situada a 40 años luz aproximadamente. Parece fácil su viaje, pero en realidad presenta varios y muy graves inconvenientes. El primero de ellos es la distancia que, aunque por su número parece escasa, es abrumadoramente grande. Imaginemos una canica de 1 cm de diámetro situada en el centro de Madrid. Si ésta fuese nuestro sol, cada año luz equivaldría a 63 kilómetros. Zeta 1 Retículo estaría situada a 2.520 kilómetros de él y con nuestra tecnología actual tardaríamos casi 800.000 años en alcanzarla. Una cifra nada despreciable. Pero dado que a estos seres de Zeta Retículi los presumimos mucho más avanzados, supongamos que han desarrollado la tecnología de fusión de hidrógeno y han salvado los muchos problemas que plantea. Tienen máquinas que funcionan con la misma energía que las estrellas… lo que suena fantástico pero tampoco resulta significativo. De hecho, la fusión de hidrógeno tiene grandes limitaciones y lo vamos a comprobar con unos sencillos cálculos. A grandes rasgos y sin entrar en detalles, la fusión consiste en unir átomos de hidrógeno para que formen otros de helio. Dado que un átomo de helio pesa menos que los dos de hidrógeno necesarios para producirlo, se pierde una cantidad x de energía. Y esa energía asciende a 600 millones de julios por cada gramo de hidrógeno, que se presupone servirían para impulsar el helio resultante a través de una tobera a modo de cohete. De hecho, no conocemos otra forma de desplazarnos por el universo a altas velocidades, que no fuese expulsando una determinada cantidad de masa con una dirección contraria a la del movimiento deseado. Así, la velocidad de la materia expulsada condiciona la máxima que podría alcanzar nuestro aparato. Igualmente, la cantidad de masa (la rapidez con la que “quemamos” el combustible) determina la aceleración conseguida y ésta es el primer problema. Dado que no existe gravedad en el espacio exterior (tal y como la conocemos en la tierra), cualquier aceleración produce un estado gravitatorio. Así, si imprimimos a la nave espacial una aceleración de 9,8 m/s2 los tripulantes creerán estar en un entorno similar al de la Tierra. El problema es que nuestro organismo no soportaría un exceso de gravedad por un período prolongado de tiempo. Así, lo aconsejable sería adoptar 1g (9,8 m/s2) de aceleración hasta alcanzar la velocidad máxima posible en nuestro aparato. Eso puede llevarnos tiempo, pero para saber cuánto, tenemos que conocer cuánto vale esa velocidad. EL COMBUSTIBLE Supongamos que el navío de los alienígenas es un disco de pocos metros de diámetro, apto para tres tripulantes científicos que componen una avanzadilla para un primer contacto. Su masa es de 100 toneladas, una cifra extremadamente optimista. Tengamos en cuenta que 1 metro cúbico de un metal ligero, como el aluminio, pesa 2.700 kilogramos. Y un metro cúbico no da para mucho fuselaje… El combustible es hidrógeno, y éste tiene una densidad de 0,071 gr/cm3. Es decir, que en un depósito de 1 m3 hay capacidad para 71 kg, al contrario de lo que sucedería si se llenase de agua de la cual cabrían aproximadamente 1.000 kgs. El depósito ocupa 50 m3, que es más o menos el volumen total de un salón de una vivienda mediana. Por lo tanto, la capacidad del mismo es de 3.550 kg de hidrógeno. Supongamos también que esta cantidad es tan sólo para el viaje de ida hacia la tierra, y que una vez aquí se aprovisionarían de idéntica cantidad en el momento de su partida. En el espacio exterior es necesaria una energía x para acelerar hasta una velocidad determinada, pero luego hay que frenar que no es más que una aceleración negativa y por lo tanto la energía requerida es similar. Descontaremos el detalle de que cuanto más combustible se gaste menos pesa la nave y menor es la energía necesaria, ya que con un peso de más de 100 toneladas la diferencia es insignificante. Por lo tanto, los ingeniosos alienígenas disponen de 3.550 kgs para alcanzar una velocidad máxima que vamos a calcular. Pero la mitad de esta cantidad se reserva para la aceleración y otro tanto en la deceleración. Como cada kg de hidrógeno fusionado aporta 600.000 millones de julios, echamos mano de la física clásica para calcular cuál sería la velocidad máxima del aparato: E = ½ · m · v2 1.065.000.000.000.000 julios = 50.000 kg · v2 v2 = 1.065.000.000.000.000 julios / 50.000 kg v = raíz cuadrada (21.300.000.000) v = 145.945,2 m/s v= 146 km/s aproximadamente Teniendo en cuenta una aceleración de 1g para simular gravedad terrestre, el período previo a un viaje a velocidad constante y bajo los efectos de la ingravidez sería: v = a · t 145.945,2 m/s = 9,8 · t t = 145.945,2 / 9,8 t = 14.892,37 segundos Es decir, poco más de 4 horas. En todo ese tiempo, la nave espacial recorrería: E = ½ · a · t2 E = 4,9 · 221.782.684,2169 E = 1.086.735.152,66281 m E = 1.086.735,15 km Es de suponer que esta misma distancia (aproximadamente) la necesitarían para cubrir en el período de deceleración, por lo que como 40 años luz equivalen a 378,17 ¡¡billones!! de kilómetros, le restamos los algo más de 2,17 millones empleados entre aceleración y deceleración y el resultado es la distancia que habría que recorrer a una velocidad constante de 146 km/s. El tiempo de viaje es, al final, de…¡¡¡más de 82.000 años!!!. Nuestros vecinos de Zeta 1 Retículo, por lo tanto, lo tendrían más que difícil con esta tecnología. EL MÁXIMO TEÓRICO Debido a que la energía extraída en el proceso de fusión ha de usarse para acelerar el gas helio generado, la máxima velocidad que puede alcanzarse con un “motor” de hidrógeno sobrepasa por poco los 36.000 km/s. Podríamos pensar que en las características de la nave anterior hemos empleado unos cálculos muy conservadores y que, usando un máximo teórico, todo lo que el hidrógeno podría dar de sí, es posible calcular cuánto combustible debería llevar la nave alienígena para alcanzar tal velocidad y conseguiese ponerse en la órbita de nuestro planeta, en un plazo de ¡100 años!. No deja de ser una cifra considerable… Pero, ¿es posible?. Es menos que probable. En un hipotético ingenio perfecto, de las 100 toneladas de masa que establecimos: E = ½ m v2 E = 50.000 · 1.296.000.000.000.000 E = 64.800.000.000.000.000.000 julios Y dado que un kg de hidrógeno puede producir 600.000 millones de julios, necesitaríamos: E = 64.800.000.000.000.000.000 julios / 600.000.000.000 = 108.000.000 kg, unos 1.180 kg más si aplicamos los cálculos relativistas, en realidad. Lo que supone ¡casi 1.100 veces más de lo que pesa la propia nave espacial!. Para almacenar tal cantidad de hidrógeno, asimismo, y teniendo en cuenta que caben 0,071 kg por m3, se necesitaría un volumen de: Volumen = 108.000.000 kg / 0,071 = 1.521.126.760 m3 Que viene a ser como ¡¡3500!! estadios de fútbol llenos a rebosar de hidrógeno. Y luego, añadamos el peso necesario para un envase donde almacenarlo… que aunque estuviese hecho de plástico sería monumental. Y peor aún: estas necesidades no cubren el proceso de deceleración: nuestros alienígenas no tendrían manera de frenar. En cualquier caso y configuración, aún con un peso de la nave muy inferior, el depósito nunca sería menos de 3 veces mayor que el propio aparato, lo que hace al hidrógeno un combustible ideal para desplazarse dentro de un sistema solar, pero inservible para distancias interestelares. Un trayecto similar al existente entre la Tierra y Marte, de unos 120 millones de km por poner un número, necesitaría apenas 10 días. Pero nadie tiene tanto tiempo como para acometer uno hasta otras estrellas. LA ANTIMATERIA Si un gramo de hidrógeno fusionado aporta 600 millones de julios, el proceso de aniquilación mutua de materia y antimateria aporta casi 150.000 veces más. Con tal cantidad de energía, las velocidades pueden ser increíblemente elevadas. No hay forma de conseguir más energía en todo el universo. Muchos hablan de que es posible acercarse todo lo que se quiera a la velocidad de la luz, pero esto es sólo en la teoría si tenemos en cuenta la masa a acelerar. Lanzar a un electrón a velocidades cuasiluz requiere ínfima energía (teóricamente, y al 100% de eficiencia caso que no se da). Pero hablamos de una nave espacial de decenas de toneladas. Al aumentar la velocidad lo hace también la masa según lo descrito en la teoría de la relatividad, y por lo tanto, los requerimientos energéticos. Como la masa tiende a infinito, la energía también, de modo que se da por cierto que podemos acercarnos todo lo que queramos pero eso… es imposible materialmente hablando, ya que tarde o temprano tendríamos el mismo problema que con el hidrógeno, esto es que la cantidad a almacenar sería tan grande como miles y millones de campos de fútbol de volumen. Para la nave anteriormente propuesta, con un peso de 100 toneladas, supongamos dos “depósitos” de materia y antimateria de 10.000 kg cada uno. En total, 20.000 kg a aniquilar. Ello nos permitiría alcanzar (usando las ecuaciones relativistas), poco más de 165.000 km/s, es decir unos 73 años de viaje, unos 61 para los viajeros si tenemos en cuenta la alteración relativista del tiempo. Y otro tanto para la vuelta. Esto limita seriamente el radio de hipotéticos visitantes. Imaginemos una civilización al otro lado de la galaxia. Estos últimos tardarían casi 100.000 años en alcanzarnos. Y venir de otra galaxia como por ejemplo la de Andrómeda, requeriría unos 4 millones de años de la tierra, 3,3 millones para los viajeros. Se da por supuesto que para cualquier viaje interestelar, que duraría años, los alienígenas tendrían que recurrir a la criogenización o cualquier otro sistema similar, ya que de lo contrario el almacenaje de víveres dispararía las necesidades de espacio y, por ende, de masa y energía. Y tampoco hemos hablado de la energía necesaria, que saldría también del combustible empleado, para mantener todos los sistemas de la nave. No servirían paneles solares a medio camino entre dos estrellas. Además, para evitar que una mota de polvo perforase el aparato de cabo a rabo, habría que disponerse un campo magnético lo suficientemente potente como para repeler cualquier posible partícula o cuerpo estelar. Alcanzar velocidades lo suficientemente elevadas como para permitir un viaje en el cual el tiempo relativista jugase a favor del viajero (su tiempo de viaje de redujese drásticamente), como podrían ser 290.000 km/s, necesitaría de 300 toneladas de combustible, 3 veces más que la propia nave espacial. A esas velocidades, el tiempo del viajero se reduciría ¼, con lo que recorrer la distancia entre Zeta 1 Retículo y nuestro sol ocuparía unos 12 años. Sin embargo, las necesidades energéticas son brutales para una nave espacial, imposibles de subsanar por cuestiones principalmente de espacio y peso. AISLADOS EN EL COSMOS En definitiva, es posible que estemos aislados en un cosmos inmenso cuyas distancias son inaccesibles no solo para los medios materiales sino también, incluso para la imaginación. Pensemos por un momento que nuestra galaxia tiene un diámetro de 100.000 años luz, y que las galaxias cercanas lo están a varios millones. A su vez, se cree que existen al menos ¡¡50.000 millones!! de galaxias… y cada una podría contener más de 100.000 millones de estrellas de media. Las posibilidades de que exista vida más allá son inmensas, tan abrumadoras que negarlas podría considerarse casi una blasfemia científica. Pero hablamos de probabilidades de vida, no de encontrarla. Considero que no merece la pena ampliar los cálculos anteriores, ya que hablan por sí mismos y nos sumergen en una triste realidad. Quizá algún día seamos visitados de forma puntual, nada se opone a esta idea. Pero ninguna civilización extraterrestre podría poner en marcha un plan logístico para operar aquí en nuestro planeta. Espacio-tiempo El espacio-tiempo es la entidad geométrica en la cual se desarrollan todos eventos físicos del Universo, de acuerdo con la teoría de la relatividad y otras teorías físicas. El nombre alude a la necesidad de considerar unificadamente la localización geométrica en el tiempo y el espacio, ya que la diferencia entre componentes espaciales y temporales es relativa según el estado de movimiento del observador. Debido a que el universo tiene tres dimensiones espaciales observables, es usual referirse al tiempo como la "cuarta dimensión" y al espacio-tiempo como "espacio de cuatro dimensiones" para enfatizar la inevitabilidad de considerar el tiempo como una dimensión geométrica más. La expresión espacio-tiempo ha devenido de uso corriente a partir de la Teoría de la Relatividad especial formulada por Einstein en 1905. Introducción En general, un evento cualquiera puede ser descrito por una o más coordenadas espaciales, y una temporal. Por ejemplo, para identificar de manera única un accidente automovilístico, se pueden dar la longitud y latitud del punto donde ocurrió (dos coordenadas espaciales), y cuándo ocurrió (una coordenada temporal). En el espacio tridimensional, se requieren tres coordenadas espaciales. Sin embargo, la visión tradicional en la cual se basa la mecánica Clásica, cuyos principios fundamentales fueron establecidos por Newton, es que el tiempo es una coordenada independiente de las coordenadas espaciales y es una magnitud idéntica para cualquier observador. Esta visión concuerda con la experiencia: si un evento ocurre a 10 metros, es natural preguntar a 10 metros de qué, pero si nos informan que ocurrió un accidente a las 10 de la mañana en nuestro país, ese tiempo tiene carácter absoluto. Sin embargo, resultados como el experimento de Michelson-Morley, y las ecuaciones de Maxwell para la electrodinámica, sugerían, a principios del siglo XX, que la velocidad de la luz es constante, independiente de la velocidad del emisor u observador, en contradicción con lo postulado por la mecánica clásica. Einstein propuso como solución a éste y otros problemas de la mecánica clásica considerar como postulado la constancia de la velocidad de la luz, y prescindir de la noción del tiempo como una coordenada independiente. En la Teoría de la Relatividad, espacio y tiempo tienen carácter relativo o convencional, dependiendo del estado de movimiento del observador. Eso se refleja por ejemplo en que las transformaciones de coordenadas entre observadores inerciales (las Transformaciones de Lorentz), involucran una combinación de las coordenadas espaciales y temporal. El mismo hecho se refleja en la medición de un campo electromagnético, que está formado por una parte eléctrica y otra parte magnética, pues dependiendo del estado de movimiento del observador el campo electromagnético es visto de diferente manera entre su parte magnética y eléctrica por diferentes observadores en movimiento relativo. La expresión espacio-tiempo recoge entonces la noción de que el espacio y el tiempo ya no pueden ser consideradas entidades independientes o absolutas. Las consecuencias de esta relatividad del tiempo han tenido diversas comprobaciones experimentales. Una de ellas se realizó utilizando dos relojes atómicos de elevada precisión, inicialmente sincronizados, uno de los cuales se mantuvo fijo mientras que el otro fue transportado en un avión. Al regresar del viaje se constató que mostraban horas levemente distintas, habiendo transcurrido "el tiempo" más lentamente para el reloj en movimiento.. Propiedades geométrico-matemáticas del espacio-tiempo Métrica En teoría de la relatividad general el espacio-tiempo se modeliza como un par (M, g) donde M es una variedad diferenciable semiriemanniana también conocida banda lorentziana y g es un tensor métrico de signatura (3,1). Fijado un sistema de coordenadas (x0, x1, x2, x3, ) para una región del espacio-tiempo el tensor métrico se puede expresar como: Y para todo punto del espacio-tiempo existe un observador galileano tal que en ese punto el tensor métrico tiene las siguientes componentes: Contenido material del espacio-tiempo El contenido material de dicho universo viene dado por el tensor energía-impulso que puede ser calculado directamente a partir de magnitudes geométricas derivadas del tensor métrico. Las ecuaciones de escritas componentes a componentes relacionan el tensor energía impulso con el tensor de curvatura de Ricci y las componentes del propio tensor métrico: La ecuación anterior expresa que el contenido material determina la curvatura del espacio-tiempo. Movimiento de las partículas Una partícula puntual que se mueve a través del espacio-tiempo seguirá una línea geodésica que son la generalización de las curvas de mínima longitud en un espacio curvado. Estas líneas vienen dadas por la ecuación: Donde los símbolos de Christoffel Γ se calculan a partir de las derivadas del tensor métrico g y el tensor inverso del tensor métrico: Si además existiese alguna fuerza debida a la acción del campo electromagnético, la trayectoria de la partícula vendría dada por: Homogeneidad, isotropía y grupos de simetrías Ciertos espacios-tiempo admiten grupos isometría no triviales. Por ejemplo el espacio-tiempo de Minkowski, usado en la relatividad especial, tiene un grupo de isometría llamado grupo de Poincaré que es un grupo de Lie de dimensión diez. Normalmente los espacios-tiempo tienen grupos de isometría mucho menores, es decir, de dimensionalidad menor. Una propiedad interesante es que si un espacio-tiempo admite un grupo de isometrías continuo, formado por un grupo de Lie de dimensión n entonces existen n campos vectoriales, llamados campo vectorial de Killing X que satisfacen las siguientes propiedades: Donde representa la derivada covariante y la derivada de Lie según uno de esos vectores de Killing. Relacionado con lo anterior están las relaciones de isotropía y homogeneidad. Un espacio tiempo presenta isotropía general en alguno de sus puntos si existe un subgrupo de su grupo de isometría, que es homeomorfo a SO(3) y deja invariante dicho punto. Otra propiedad interesante es cuando el grupo de simetría incluye un subgrupo homeomorfo a \R^3 que afecta a las coordenadas espaciales, en ese caso el espacio-tiempo resulta ser homogéneo. Curvatura del espacio-tiempo La curvatura del espacio-tiempo es una de las principales consecuencias de la teoría de la relatividad general de acuerdo con la cual la gravedad es el efecto manifestación local de la geometría curva del espacio-tiempo. Los cuerpos dentro de un campo gravitatorio siguen una trayectoria espacial curva, aun cuando en realidad pueden estar moviéndose según líneas de universo lo más "rectas" posibles a través un espacio-tiempo curvado. Las líneas más "rectas" posibles de un espacio-tiempo se llaman líneas geodésicas y son líneas de curvatura mínima. Midiendo el espacio-tiempo curvo Gauss había mostrado que pueden existir otras geometrías no-euclídeas, lo cual sugería que geometría real del espacio no tenía por qué ser euclídea. Si la geometría del espacio no fuera euclídea habría ciertas consecuencias medibles, por ejemplo, si un físico pone una marca, y un cartógrafo permanece a una cierta distancia y se mide su longitud por triangulación basada en la geometría euclídea, entonces no está garantizado que sea dada la misma respuesta si el físico porta la marca consigo y mide su longitud directamente. Por supuesto, para una marca no podría medirse en la práctica la diferencia entre las dos medidas, pero existen medidas equivalentes que deben detectar la geometría no euclidiana del espacio-tiempo directamente, por ejemplo el experimento de Pound-Rebka (1959) detectó el cambio en la longitud de onda de la luz de una fuente de cobalto surgiendo por 22.5 metros contra la gravedad en un local del Laboratorio de Física Jefferson en la Universidad de Harvard, y la cadencia de un reloj atómico en un satélite GPS alrededor de la tierra tiene que ser corregida por efecto de la gravedad. se que ews largo pero me gusto porque esta muy bien detallado y casi entendible fuente 1 fuente 2 fuente 3 fuente 4

La música barroca es el estilo musical relacionado con una época cultural europea, que abarca desde el nacimiento de la ópera en el siglo XVII (aproximadamente en 1600) hasta la mitad del siglo XVIII (aproximadamente hasta la muerte de Johann Sebastian Bach, en 1750). Se trata de una de las épocas musicales más largas, fecundas, revolucionarias e importantes de la música occidental, y la más influyente, probablemente su característica más notoria sea el uso del bajo continuo y el monumental desarrollo de la armonía tonal, que la diferencia profundamente de los anteriores estilos modales. Origen del término l término barroco (voz portuguesa que denota una perla de forma irregular) se tomó de la arquitectura (donde significa algo «retorcido», una construcción «pesada, elaborada, envuelta» aunque también es barroco algo recargado de ornamentos). En el siglo XVIII se usó peyorativamente para describir las características del estilo musical del siglo anterior, que se consideraba «tosco, extraño, áspero y anticuado». Características El estilo hoy llamado "barroco" se caracteriza estéticamente por la preeminencia de lo emocional sobre lo racional, por el estilo vocal recitativo, en el cual el ritmo de la palabra determina el discurso melódico - donde "la música ha de ser sirviente de la poesía" - y por un auge de la música instrumental pura, es decir, sin relación con consideraciones ideológicas que se deriven de un texto, o funcionales como en el caso de la música de danza. En esta época se desarrollan la sonata, el concerto grosso y el ballet francés. A diferencia de épocas anteriores, la música sacra y la música profana conviven armoniosamente, formando parte de la profesión musical. La mayor permisividad estética lleva a que la interpretación musical tienda a enriquecer las partes mediante una profusión de ornamentos y recursos expresivos. Tienen gran importancia la teoría de los afectos, que considera a la música como creadora de emociones, y la retórica, que transfiere conceptos de la oratoria tradicional a la composición del discurso musical del barroco. Las etapas del Barroco musical ==1600-1630 ==1630-1680 ==1680-1750 El barroco temprano o primitivo (1600 - 1650) Este período es conocido como el seicento: alrededor del año 1600 se destaca en la historia de la música un compositor de inusual talento, Claudio Monteverdi. Fue un maestro de los dos estilos entonces preponderantes: la prima prattica o estilo polifónico del madrigal y la seconda prattica o estilo recitativo de música vocal solista. Compuso una de sus obras más famosas, el "Lamento d'Arianna", tanto en versión polifónica como en versión para solista y bajo continuo. Monteverdi fue posteriormente, junto con Antonio Vivaldi, uno de los dos compositores más asiduamente estudiados por Johann Sebastian Bach. La seconda prattica, un estilo de monodia acompañada, esto es, una o varias voces solistas y bajo continuo, caracteriza el nuevo estilo musical de este período. El barroco medio (1650-1700) El barroco medio comprendido entre el 1650 al 1700. Sobresalen en este período el compositor inglés Henry Purcell (1659 - 1695) y su contemporáneo alemán Johann Pachelbel (1653 - 1706). El barroco tardío (1700-1750) El Barroco Tardío está comprendido entre 1680 y 1730. Los compositores característicos de este período son Domenico Scarlatti en Italia, Georg Friedrich Haendel en Inglaterra, en Alemania Johann Sebastian Bach y en Francia Jean Philippe Rameau. La transición al clasicismo (1740-1770) Son varias las tendencias estéticas a finales del barroco: el estilo galante francés desde 1730, el desarrollo en Italia de la ópera buffa, la sonata y la sinfonía y el estilo rococó conforman entre 1740 y 1770 una suerte de preclasicismo. Carl Phillip Emmanuel Bach(1714-1788), uno de los hijos de Johann Sebastian, es considerado el padre de la sonata clásica. El auge de la música instrumental La música instrumental, que en la época anterior dio el primer asomo en la música académica, en los siglos XVII-XVIII verá un gran auge sin precedentes. En esta época la música vocal e instrumental están en plena igualdad por primera vez en la historia de la música, donde la instrumental cobra su primera madurez, un gran florecimiento y época dorada precedentes en géneros, técnicos, intérpretes y compositores que rozan un profundo conocimiento de los instrumentos. El cultivo de la música puramente instrumental lleva a un importante desarrollo de la técnica, al servicio de una fuerte expresión emocional. Se destaca el caso del violinista Arcangelo Corelli, quien según el testimonio de François Raguenet, cuando tocaba en publico "perdía el dominio de sí mismo", tenía los ojos enrojecidos y, no obstante todo esto, lograba expresarse a la perfección. Sonata, Cantata, Toccata La sonata barroca - que no debe ser confundida con la sonata clásica de forma sonata - denota una composición para uno o dos instrumentos de cuerda o viento y bajo continuo, dividida en tres o cuatro movimientos de carácter contrastante, típicamente allegro - adagio - allegro (sonata da camera) o adagio - allegro - adagio - allegro (sonata da chiesa). La alternativa contrastante de movimientos sucesivos es herencia de la suite o serie de movimientos de danza, que típicamente alternaban una danza baja o de paso, más lenta - como la pavana - con otra alta o de salto, más rápida - como la gallarda. De un modo equivalente a la sonata, la cantata es una composición para canto solista y bajo continuo, cuya estructura típica es recitativo - aria da capo. El equivalente en la música para instrumentos de teclado es la toccata. El barroco fue una época de esplendor de muchos instrumentos como el violín, el clavecín y el órgano, cultivándose intensamente la música de cámara para grupos instrumentales con acompañamiento de bajo continuo. Además, aparecen intérpretes virtuosos que explotan al máximo el instrumento por su gran destreza técnica, como Johann Sebastian Bach y Dietrich Buxtehude en el caso del órgano; Domenico Scarlatti, Jean Philipe Rameau y François Couperin al clavecín; Gottfried Reiche (1660-1734) a la trompeta; y Antonio Vivaldi, Arcángelo Corelli y Giuseppe Torelli en el violín. La Triosonata La heredera del estilo polifónico renacentista y la principal forma de cámara del barroco, es una sonata para dos partes instrumentales - tradicionalmente violines - y continuo. Se destacan las obras de Corelli, Pergolesi, Sammartini, Händel, Buxtehude y Bach. El concerto grosso A mediados del seicento, se convierte en el género instrumental más típico de la época. A diferencia de la música de cámara, cada parte es ejecutada por más de un instrumento, como ocurre típicamente en la orquesta. La ejecución a tutti alterna con pasajes a soli a la manera de la triosonata. Importantes centros del estilo instrumental concertante son Módena, Bologna y Venecia. La época dorada del clavecín, la viola da gamba y el órgano En esta época el clavecín, el órgano, la viola da gamba y el laúd vivirán su gran época dorada a nivel técnico, interpretativo y compositivo. La etapa final del barroco (1700-1750) será el cenit y el ocaso del clavecín, y la viola da gamba para, después, en la segunda mitad del s. XVIII caigan en el olvido y queden totalmente relegados por sus descendientes, el violín, el violoncello y el forte-piano, ya en la época clásica. El laúd, el instrumento renacentista por excelencia, caerá en el olvido antes, por 1690-1700, viéndose desplazado por la guitarra y el clavecín. El órgano, no caerá en el olvido como los otros instrumentos, pero ya no se conocerá un gran auge como en esta época. El órgano El órgano inicialmente tiene ilustres exponentes en toda Europa en el principio del período, donde su música empieza a conocer su edad dorada por su destacable calidad. En la primera mitad del siglo XVII los compositores más destacados son Jan Pieterszoon Sweelinck (en Holanda); Girolamo Frescobaldi (en Italia); Samuel Schein H. Schiedermann (en Alemania); Correa de Arauxo (en España), y Jean Titelouze (1563-1633, en Francia). Hacia 1650, el órgano entra en decadencia en Italia y en Países Bajos, donde el instrumento no conocerá más compositores de talla internacional. En la segunda mitad del siglo XVII los compositores más destacados son Dietrich Buxtehude (1632-1707), que es el más notable en esta generación, Johann Pachelbel (1653-1705), Georg Bohm (1661-1733) Johann Caspar Ferdinand Fischer (c.1665-1746) y J. A. Reincken (1623-1722) en Alemania; François Couperin (1668-1733) en Francia; Henry Purcell (1659-1695), en Inglaterra, y Juan Cabanilles (1640-1712) en España. A partir de 1710-1720 el órgano entra en decadencia en Francia, por lo que en la última etapa del barroco no habrá ningún compositor nacional notable. En la primera mitad del siglo XVIII, la última etapa del barroco, en Alemania el órgano vivirá su máximo esplendor para después iniciar una decadencia a partir de 1750 a nivel general. En Alemania J. S. Bach (1685-1750), representa el máximo apogeo del órgano barroco, donde la Toccata y fuga en re menor BWV 565 (1708) es la más famosa y conocida obra para este instrumento. En España es notable Antonio Soler (1728-1783) y en inglaterra, desde 1712 G.F.Händel (1685-1759), William Boyce y Cristan Arne, los tres por el concierto para órgano solista y cuerda. El clavecín Rameau, Couperin, Johann Sebastian Bach, Handel y Scarlatti son los más destacables en el ámbito del clavecín de la primera mitad del siglo XVIII, donde representan el máximo apogeo de la música clavecinística barroca. Rameau y Couperin son los máximos exponentes de la escuela francesa. Cabe mencionar los 4 libros de órdenes (1713, 1717, 1722 y 1730) de Couperin y los libros de suites (1706, 1724 y 1728) de Rameau, que es la cumbre de la música barroca francesa para teclado. Domenico Scarlatti es el máximo exponente de la música italiana para teclado. Lo más destacado son sus 555 sonatas, donde con ellas innova y se anticipa en la música de teclado de finales del siglo XVIII de Haydn y Mozart. Tiene también una gran selección de preludios y fugas los cuales son una gran opción para ejercitar la técnica del teclado. Haendel es el máximo exponente del barroco inglés para teclado. Destacan entre su obra las 8 grandes Suites(1720), una de las cumbres de la suite para teclado. J. S. Bach es quizá el compositor más destacable de todo el período, donde sus obras El clavecín bien temperado (BWV 846-893), las Variaciones Goldberg BWV 988 y El arte de la fuga son un antes y un después de la música de teclado en general y la cima de la literatura clavecinística barroca. Bach, aunque vivió en las acaballas del Barroco y en su época no fue muy reconocido, dejó tras de sí un gran repertorio de preludios con fugas que aun ahora son de las obras más selectas que hay. Un hecho curioso es que la Pasión según San Mateo sólo se tocó el día en que se celebraba ese motivo religioso. Pasaron casi dos siglos hasta que Felix Mendelssohn (compositor romántico) no la descubrió, no se volvió a tocar nunca más en ese período. Es una mera casualidad que Mendelssohn la encontrara ya que si no fuera por él, probablemente ahora no tendríamos esta gran obra. Los Géneros vocales La Ópera Las corrientes humanistas buscaban una renovación del antiguo teatro griego, en particular el grupo conocido como camerata florentina, basándose al mismo tiempo en formas musicales recientes como el drama litúrgico, el drama pastoral, las comedias madrigalescas con figuras de la commedia dell'arte y los intermezzi teatrales. Les interesaba sobre todo la antigua monodia helénica con acompañamiento de kithara. Vincenzo Galilei, padre de Galileo el astrónomo, escribió en 1581 un tratado contra el género musical polifónico del estilo neerlandés bajo el título Dialogo della Musica Antica e della Moderna. Los estilos musicales recitativo, espressivo y rappresentativo llevan a nuevas libertades en los medios sonoros empleados en las composiciones - disonancias y modulaciones. Entre las primeras óperas conservadas se cuentan Dafne de Jacopo Peri, cuyo tema fue tomado de las Metamorfosis de Ovidio, Euridice de Giulio Caccini y Orfeo de Claudio Monteverdi. Italia: la ópera en Venecia, Roma y Nápoles Francia: Tragédie Lyrique, Opéra-Ballet, Opéra-Comique Inglaterra: Masque, Ballad Opera, Royal Academy of Music Alemania: el Hoftheater y la ópera de Hamburgo La cantata El oratorio La misa El motete Los Compositores Italia Giovanni Gabrieli (1555-1612) es el principal exponente del temprano barroco. su música contiene ya los elementos estilísticos esenciales de la nueva época estética. Claudio Monteverdi(1567-1641) es el primer gran compositor del barroco que inauguró el nuevo estilo en italia y europa. Girolamo Frescobaldi (1578-1643) tuvo gran importancia en el desarrollo de la música para teclado, en particular por sus Toccatas para clavecín. A mediados de siglo, sobresale Giovanni Legrenzi(1626-1690). Arcangelo Corelli(1658-1711), Giuseppe Torelli, y Alessandro Scarlatti(1660-1725) son los que dominan la escena nacional de la segunda mitad del siglo XVII hasta principios del siglo XVIII. Ya en la primera mitad del siglo XVIII Antonio Vivaldi(1675-1741) y Doménico Scarlatti(1685-1757) son los que más sobresalen, siendo ambos la cumbre y ocaso barroca de su país. Alemania El barroco alemán empezó con la figura de Heinrich Schütz (1585-1672), llamado el padre de la música alemana, es el más notable en la primera mitad del siglo XVII alemán. Johann Hermann Schein (1586-1630), Samuel Scheidt (1587-1654) y Michael Praetorius (1571-1621), contemporáneos de Heinrich Schütz, también son bastante notables en esta época. En la segunda mitad del Siglo XVII, Dietrich Buxtehude (1637-1707) es el más sobresaliente, siendo en 1705 visitado por un joven Bach. Johann Pachelbel (1653-1706), Johann Jakob Froberger (1616-1667) y Georg Muffat (1653-1704) también son notables. A caballo entre el siglo XVII y el XVIII, Johann Kuhnau (1660-1722), Johann Joseph Fux (1660-1741), Johann Caspar Ferdinand Fischer (c.1665-1746) y Georg Böhm (1661-1733) son los más destacables. El barroco alemán, y en general, culminó y dio su máxima madurez, esplendor y cenit en la primera mitad del siglo XVIII con uno de los compositores más importantes de la música universal, Johann Sebastian Bach (1685-1750), que agotó todas las posibilidades de la música barroca. Su obra es la cumbre y ocaso de la música barroca, y marca el fin del periodo en Alemania y en Europa. Reinhard Keiser (1674-1739), Johann Mattheson (1681-1764), Johann Adolph Hasse(1699-1783) y Carl Heinrich Graun (1703-1759) junto con un joven Händel (1685-1759) hasta que en 1712 se fue a Inglaterra, son los más destacables junto con Bach. Georg Philipp Telemann (1681-1767), junto con Bach, es el músico más importante del barroco tardío alemán, y también marca el inicio de la transición de la música barroca hacia la música clásica de la segunda mitad del Siglo XVIII en su país Inglaterra En Inglaterra el barroco tarda en implementarse hasta la restauración de 1660,siendo John Blow(1649-1708) y su alumno Henry Purcell (1659-1695) los más destacados e influyentes en la segunda mitad del siglo XVII. En la primera mitad del siglo XVIII,Georg Friedrich Händel(1685-1759), desde su llegada en 1712 al país, es el más importante, destacable y influyente, siendo la cumbre del barroco inglés y junto con Bach el más importante del ultimo barroco. Después de Handel, y ya siendo el ocaso nacional, a mediados del siglo XVIII destacan Thomas Augustine Arne(1710-1778)y William Boyce(1711-1779)poniendo el punto final al barroco inglés. Francia El estilo se consolida con Jean-Baptiste Lully(1632-1687), un italiano de nacimiento, que introduce la ópera en ,siendo el más importante compositor nacional del Siglo XVII en ese país. También en el mismo siglo Marc Antoine Charpentier(1640-1703) sobresale, siendo el máximo rival de Lully. A caballo del Siglo XVII y XVIII,François Couperin(1668-1733)es el más importante, siendo una de las cumbres del barroco francés.Louis Marchand](1669-1732)también destaca, teniendo en 1717 un duelo musical con Bach. Jean-Philippe Rameau(1683-1764) es, junto con Couperin, la cumbre barroca nacional y el cenit del estilo francés barroco en la primera mitad del siglo XVIII,siendo en los últimos años testigo del cambio del barroco al clásico en su país. España En España sobresalieron Gaspar Sanz, Juan Cabanilles, Antonio Literes, Juan Hidalgo, Sebastián Durón, José Marín, Luys de Milán, José de Nebra, Francisco Corselli, José de Torres, Jaime Facco y Joaquín García-(Anna 1710 - Gran Canaria 1779) Los géneros y las formas Los géneros en el barroco ya se percata una clara división en géneros instrumentales y géneros vocales. En el barroco, gracias al auge de a música instrumental, los géneros instrumentales alcanzan su madurez y se crean los primeros grandes géneros instrumentales:La sonata, el concierto y la suite. En el ámbito de los géneros vocales, junto con los géneros antiguos del motete y la misa, se crean tres importantes géneros que dará una época dorada a los géneros vocales:La cantata, la opera y el oratorio, siendo, la opera, el género vocal nuevo más importante del barroco y uno de los de la música académica. El Concierto y Concerto grosso La Sonata Preludios, toccatas, fantasias y fugas Por regla general, si hay preludio, detrás va una fuga. Los preludios son piezas de dos o tres páginas con una dosis de técnica. Son piezas expresivas, cargadas y con libre interpretación ya que los trinos y los ornamentos son libres (los crea el propio ejecutante, sin que estén escritos). Las fugas suelen ser a 2, 3, 4 ó 6). Una fuga a dos voces significa que hay una voz que una célula (uno o dos compases) que crea un motivo (una melodía) y al cabo de un tiempo la otra voz lo imita. Una vez imitado, transpone (cambia de tonalidad), hace alguna variación o crea unas falsas repeticiones conocidas como puentes o colas (repetición de la célula sin hacer el motivo completo sino que simplemente se repite la célula para cambiar, en la mayoría de los casos, de tonalidad). Si una fuga es a tres voces, pasa lo mismo pero el motivo debe de repetirse tres veces (en voces distintas) y así sucesivamente (si es a cuatro voces, cuatro veces se verá el motivo...) La suite Una suite es un conjunto de movimientos o piezas agrupados. La Suite habitualmente tenía seis partes: * Allemande: pieza cortesana . * Courante: movimiento que generalmente es un poco más rápido que el anterior. * Zarabanda: movimiento lleno de energía pero pausado. * Giga: movimiento mucho más rápido y enérgico. * Minué: obra parecida a un vals. La suite puede contener un par de minués. * Rondó: pequeña obra basada en la repetición de un tema (A), con intrusiones de (B, C, D, etc.). Dentro de la suite, la música es digna, aristocrática, vigorosamente rítmica y melódicamente rica, con es reunión de variedad y decoro de encanto italiano y gravedad teutónica, tan característica de esta época en Alemania. Los instrumentos Teclado Organo Clave Clave-Laud Clavecin Cuerda frotada Violin Viola Viola da gamba Violoncello Contrabajo Cuerda pulsada Laud Tiorba Mandolina Guitarra Viento metal Trompa Trompeta Trombón Viento madera Flauta travesera En este período la Flauta Traversa o Travesera era completamente de madera, observándose en algunos modelos una pequeña llave de metal en el extremo derecho. Estas flautas poseían un sonido opaco y ténue, y su afinación no pertenecía al sistema temperado. A diferencia de las Flautas Traversas Modernas (construídas las primeras por Theobald Boehm), estas flautas tiene como nota más grave el "re" y no el "do" o el "si", como sucede actualmente. Flauta dulce Clarinete Oboe Instrumento musical compuesto por 16 llaves, 6 agujeros 4 anillas. Boquilla, barrilete, cuerpo 1, cuerpo 2 y campana. Cabe decir que en el periodo Barroco este instrumento solia ser completamente de madera. Fagot Contrafagot Percusión Timbal fuente

La fusión fría es el nombre genérico dado a cualquier reacción nuclear de fusión producida a temperaturas muy inferiores a las necesarias para la producción de reacciones termonucleares (millones de grados Celsius). De manera común el nombre se asocia a experimentos realizados a finales de los 80 en células electrolíticas en los que se sugería que se podía producir la fusión de deuterio en átomos de helio produciendo grandes cantidades de energía. Estos experimentos fueron publicados en la revista científica Nature pero la fusión fría como tal fue descartada al poco tiempo por otros equipos constituyendo el artículo de Nature uno de los escándalos más sonados de la ciencia en los tiempos modernos. El experimento de Pons y Fleischmann El 23 de marzo de 1989 los químicos Stanley Pons y Martin Fleischmann de la Universidad de Utah realizaron una conferencia de prensa en la que anunciaron la producción de fusión fría con la consiguiente liberación de energía. El anuncio fue considerado sorprendente al tenerse en cuenta el sencillo equipamiento necesario para producir tal reacción: un par de electrodos conectados a una batería y sumergidos en un recipiente de agua pesada rica en deuterio. El anuncio fue reflejado a nivel internacional constituyendo portadas en la mayoría de los periódicos. Pons y Fleischmann habían trabajado en su experimento desde el año 1984, en el año 1988 consiguieron fondos del Departamento de Energía de los Estados Unidos para una larga serie de experimentos. El término de fusión fría había sido acuñado por el Dr. Paul Palmer de la Universidad Brigham Young en 1986 en investigaciones sobre la posibilidad de la producción de reacciones de fusión atómica en el interior de un núcleo planetario. El término fue entonces aplicado al experimento de Fleischmann y Pons en 1989. En tan solo unos días científicos de todo el mundo comenzaron a intentar duplicar los resultados de los experimentos. Durante unas seis semanas se produjeron anuncios de verificación, retractación y explicaciones alternativas que mantuvieron el interés de los periódicos sobre el tema, sin demasiados resultados definitivos. Poco después el escepticismo sobre la fusión fría fue aumentando a medida que diferentes experimentadores eran incapaces de reproducir los resultados del experimento de Pons y Fleishchmann. A finales de Mayo el Departamento de Energía de los Estados Unidos formó un panel especial de investigadores para determinar la veracidad o no de la fusión fría. El comité de expertos trabajó durante cinco meses en un estudio en el que se afirmaba que no existía evidencia alguna de fusión fría y que tales efectos contradirían todo el conocimiento adquirido sobre las reacciones nucleares durante la última media década. El comité recomendaba específicamente no financiar investigaciones costosas sobre este tema Investigaciones actuales en fusión fría Hoy en día se siguen realizando esfuerzos en la búsqueda de reacciones nucleares del tipo de la fusión fría, esto a pesar que el engaño de los años 80 quedo marcado en la comunidad científica. Estos esfuerzos son realizados por una parte minoritaria aunque significativa de la comunidad científica. Una de las vías que más dan que hablar en la actualidad se basa en experimentos sobre la Sonoluminiscencia. Éste fenómeno fue descubierto por D.F. Gaitan y otros a principios de los 90 en la universidad de Missisipi y se basa en la emisión de luz (entre otros tipos de radiación) del interior de burbujas que son sometidas a excitaciones acústicas. El fenómeno ha sido intensamente estudiado por la comunidad y siguen encontrándose publicaciones al respecto[2]. Recientemente, en el año 2002, el profesor Rusi P. Taleyarkhan junto a otros miembros del Oak Ridge National Laboratory publicaron en la revista Science un artículo llamado: "Evidence for nuclear emissions during acoustic cavitation” afirmando que observan emisiones de neutrones de alta energía en este tipo de experimentos. Sin embargo, este artículo ha levantado las voces de numerosos escépticos que no reproducen sus resultados, recordándonos a los tristes acontecimientos de Pons y Fleischmann. En el 2006, el profesor Taleyarkhan ha vuelto a publicar nuevas pruebas para ratificar sus interpretación de los experimentos , con nuevas reacciones desde la misma revista Nature. Ciertamente, la comunidad científica, escarmentada tras tantos años, se encuentra poco receptiva a nuevos avances a este respecto. fuente

Las pirámides de Egipto construidas hace mas de 4 000 años, son la maravilla más antigua y la única que se conserva. Sirvieron como tumba a los faraones egipcios, cuyos cuerpos momificados se rodeaban de tesoros y objetos personales. Erguidas sobre la arena del desierto, las pirámides de Egipto, esbeltas majestuosas, son algo más que un templo y una tumba. Ante ellas, y especialmente a la Gran Pirámide, se tiene la impresión de hallarse en presencia de un monumento que guarda en sus entrañas secretos trascendentales muy estrechamente relacionados con su estructura. Como en Babilonia y en América, en Egipto las pirámides eran templos erigidos a la gloria de un dios, templos para complejos rituales de muerte y de nacimiento, y al tiempo monumentos al conocimiento de un pueblo mucho menos ignorantes de lo que los historiadores creían. Hasta los arqueólogos más irracionalmente racionalistas se han rendido a la evidencia : en sus medidas esta reflejado el conocimiento matemático y astronómico de una ciencia incomprensible hace seis o siete mil años atrás. Estamos, pues, frente a algo más que una tumba. En esa montaña formada por dos millones seiscientos mil bloques de piedra, acarreados y ensamblados quien sabe como, con un volumen total de más de dos millones y medio de metros cúbicos y un peso superior a los siete millones de toneladas, la Gran Pirámide es un templo religioso y científico y tal vez, sea también una tumba Arte en las Pirámides de Egipto Cuando Napoleón, viajó a Egipto, llegó a Gizeh, a las tres grandes pirámides de Keops, Kefrén y Mikerinos, que adornan la llanura, impresionó mucho al viajero, que era admirador de todas las manifestaciones de poder de los antiguos reyes. Napoleón entregó a una serie de cálculos matemáticos sobre la cantidad de piedra empleada en aquellos edificios. Según él la piedra usada bastaría para cercar a Francia con un muro de tres metros de altura y unos 40 centímetros de grosor. El matemático Monje, que acompañaba a Napoleón, confirmó estos cálculos. Hoy se piensa que sólo la gran pirámide de Keops está formada por unos 2.300.000 bloques de piedra, que pesarán una media de dos toneladas y media cada uno. Claro que ésta es la mayor de las pirámides con 146,59 metros de altura, y en cierto modo marca el máximo desarrollo en la construcción de este tipo de tumbas, tanto por su tamaño como por la envergadura de los medios empleados en su erección. Razón de sus construcciones La pirámide fue pensada para tumba inviolable del soberano, destinada a la eterna preservación de su cuerpo, incorrupto por embalsamamiento, y de su ajuar funerario. Sólo de este modo se posibilitaba la residencia del alma en el cuerpo y su supervivencia en el mundo del más allá. Para proteger el cuerpo y el ajuar de eventuales saqueadores se multiplicaban las dificultades de acceso a la cámara, interponiendo toneladas de piedra, disponiendo puertas falsas, corredores ciegos, cámaras dobles, etc. Todo ello fue inútil: los saqueadores siempre consiguieron su objetivo y ya en la antigüedad las pirámides fueron violadas y robadas y pasaron a ser lo que son hoy, el símbolo de Egipto de su arte teocrático y de su sistema político. A pesar de los grandes progresos que ha experimentado la egiptología, particularmente en lo que va de siglo, es todavía mucho lo que se ignora acerca de cómo era construida una pirámide. Para asegurar la vida en el más allá, el cuerpo del difunto debía ser conservado y habían de ser satisfechas las necesidades materiales que tuvo cuando vivía. Esta idea fue dominante y condicionó de modo decisivo la vida en todos los períodos del antiguo Egipto. Ya en la época predinástica se hacía lo posible por preservar adecuadamente el cadáver. Entonces se enterraba en hoyos rectangulares excavados en la arena, en los que a veces se disponían unas paredes de madera o de barro prensado. Junto al cadáver se disponían utensilios, armas y alimentos. Cerrada la tumba, ésta se cubría con un túmulo de arena y relleno. Con el tiempo solía ocurrir que la arena era desplazada por el viento, desaparecía el túmulo y finalmente el cadáver quedaba expuesto a los elementos y se perdía. Para evitar este peligro, ya en la era dinástica las personas de elevada posición y los reyes se hacían construir encima del túmulo de arena, una estructura de adobe y ladrillo. La "mastaba", que debía imitar en su aspecto a las viviendas que el difunto habitó cuando vivía. Los reyes de la III Dinastía empezaron a usar la piedra para sus monumentos funerarios, pero su empleo no se generalizó en las tumbas de nobles y dignatarios hasta la IV Dinastía. Tipos de Pirámides La pirámide escalonada La primera tumba de piedra jamás construida se atribuye a Imhotep, el arquitecto de Zóser. El nombre de este arquitecto se encontró al pie de una estatua del faraón, cerca de la tumba. Los logros de Imhotep eran legendarios ya en la antigüedad. No se construyó aisladamente, sino formando parte de un conjunto de edificios y patios de piedra relacionados con diversas ceremonias funerarias dedicadas al faraón. El núcleo del monumento consiste en una estructura sólida a modo de caja alargada cuyo interior está formado por bloques de piedra traída de las proximidades y el exterior de caliza fina procedente de las canteras de Tura, más lejanas. En la parte norte se había empezado a construir un templo funerario, pero antes de que se concluyera se decidió extender la pirámide por sus fachadas norte y oeste. Finalmente una última ampliación de la pirámide afectó a sus cuatro lados. Se completaron los seis peldaños y el conjunto se revistió con piedra caliza de Tura. La parte subterránea de este conjunto consistía en un pozo profundo que daba acceso a un complicado laberinto de corredores y cámaras de diversos tamaños. Las pirámides clásicas Está claro que la pirámide tal como hoy la entendemos, monumento de base cuadrada y lados en rampa hacia la cumbre, deriva de la pirámide escalonada. Afortunadamente se puede conocer esa transición gracias al estudio de los restos de una pirámide parcialmente destruida en Meidum. Esta pirámide estaba formada por un núcleo compuesto de varias capas de mampostería que disminuían en altura desde el centro hacia los lados y se apoyaban sobre un cuerpo central formando un ángulo de 75 grados. Parece ser que este mismo método fue empleado por los constructores de las pirámides de la V dinastía. No es absolutamente seguro, sin embargo, que las tres pirámides de Gizeh se construyeran siguiendo este sistema. Como norma general, la tumba real debía estar situada al oeste del Nilo, lugar de la puesta del sol, y por encima del nivel del río, para evitar que las inundaciones periódicas afectaran al monumento. Por otra parte no podía construirse muy lejos del río, ya que las piedras se transportaban desde las canteras por vía fluvial. Lo ideal era que además no se encontrara demasiado retirada de algún núcleo urbano. Una vez elegido el lugar, había que preparar el terreno limpiándolo de toda la arena superficial hasta dar con la roca viva, donde debían afirmarse los cimientos. Esta roca se nivelaba por medio de un complejo procedimiento. A veces, sin embargo, se dejaba una prominencia en el centro y se aprovechaba en la construcción de la futura pirámide. Por último se aseguraban de que los cuatro lados del monumento estuviesen orientados hacia las cuatro puntos cardinales. La orientación de la pirámide debió hacerse con ayuda de varios cuerpos celestes, puesto que los egipcios desconocían la brújula. El faraón marcaba la línea de los cuatro lados una vez observada la posición de las estrellas. En esta observación le ayudaba un sacerdote en representación del dios Thoth. La pirámide en construcción. La piedra para el revestimiento exterior de la pirámide se obtiene de las canteras de Tura en la orilla este del Nilo, cerca de las colinas de Mugattan. Las herramientas usadas para este trabajo consistían en excelentes útiles de cobre, entre ellos sierras capaces de cortar cualquier tipo de piedra caliza. Más problemático es pensar como podrían extraer piedras duras como el granito. Algunos opinan que la utilización de granitos fue tardía y que, al principio, los egipcios se contentaron con aprovechar los bloques sueltos de superficie. El número de trabajadores necesarios para construir una pirámide debió ser necesariamente enorme. Herodoto afirma que en la pirámide de Keops trabajaron sin descanso cien mil hombres en turnos de tres meses durante veinte años. Cuando los bloques salían de la cantera había que transportarlos al lugar de la construcción. A pesar de que algunos alcanzaban las doscientas toneladas, el transporte fluvial no presentaría demasiados problemas. Aprovecharían la época de las inundaciones para, en pesadas balsas, arrastrar estos materiales hasta la orilla más próxima al monumento en construcción. Después se transportarían por tierra a base de trineos sobre los que el bloque se afirmaría con ayuda de cuerdas. Los trineos se deslizarían sobre pistas preparadas al efecto en las que iban colocándose rodillos. La construcción del exterior de la pirámide es algo que aún pertenece al dominio de lo especulativo. Una explicación plausible sería la de la construcción de sólo una rampa de abastecimiento que cubriría un lado de la pirámide. Los otros tres estarían tapados por terraplenes de pendiente más pronunciada. A medida que la pirámide ganaba altura, la rampa crecía igualmente y se alargaba para corresponder al estrechamiento de la pirámide de modo que se evitase todo riesgo de desmoronamiento. Los tres lados de la pirámide que no tenían rampa estaban provistos de terraplenes con la anchura suficiente en la cumbre como para permitir el paso de hombres y materiales. Pero como estos terraplenes no se usaban para elevar piedras, que era la función de la rampa, su gradiente en la superficie externa tendría la máxima inclinación compatible con la firmeza. Vigas de madera, algunas de las cuales han sido encontradas por los arqueólogos, se colocaban sobre la superficie de la rampa y de los terraplenes para ofrecer una base firme a los trineos de transporte. La pirámide iría creciendo laboriosamente y estrechándose progresivamente hasta que ya sólo hiciese falta un único bloque, con forma precisamente de pirámide para completarla en su cúspide, esta última piedra se tallaba en granito. Cámaras y pasadizos Queda por tratar el problema de cómo se incorporarían a la obra los corredores y habitaciones que se encuentran en el interior de las pirámides. Parece ser que, como éstos ocupan una parte mínima del edificio, se construirían con independencia de éstos. Posiblemente, rampas subsidiarias se elevarían y desmantelarían rápidamente según las necesidades, de modo que los bloques prefabricados correspondientes a pasadizos y cámaras pudiesen elevarse al nivel requerido, más alto que el resto de la construcción de relleno. De ese modo, los obreros empeñados en esta obra habrían tenido tiempo de acabarla antes de que los estratos de mampostería de la pirámide alcanzasen su nivel. Terminada la pirámide vendría el trabajo de labrar las caras exteriores que habían quedado ocultas por rampa y terraplenes. Todavía quedarían algunos trabajos menores que realizar en los alrededores de la pirámide donde se disponían un templo mortuorio, el corredor de la avenida y otras obras adyacentes. Método de construcción Construcción en Gizeh. Las pirámides, monumento de la fuerza y la inteligencia humana, han motivado en todo tiempo la admiración y curiosidad de los hombres. Erigida en la meseta de Gizeh, durante el antiguo imperio egipcio, la pirámide del faraón Keops o Gran Pirámide como se la denomina representa la obra maestra de los constructores. Es sumamente vasta la problemática que comprende los métodos constructivos utilizados para la realización de esta obra, y la explicación de los motivos que determinan su distribución interior tan característica. Me referiré en este artículo a dos temas que han concitado la atención de los arqueólogos, desde Bourchardt hasta nuestros días, a saber : a) Método utilizado para la elevación de bloques. b) Finalidad con que fue construida la Gran Galería. Tradicionalmente, ambas temáticas han sido analizadas en forma separada, llegándose al agotamiento de los elementos de juicio existentes en ambas áreas. Realizaré una breve descripción a título informativo de las opiniones científicas existentes para luego formular un enfoque diferente de la temática cuya originalidad radica en considerar que ambos temas están relacionados. Finalidad de la Gran Galería * Flinders Petrie, fue el primer arqueólogo en emitir la opinión de que la Gran Galería estaba destinada a almacenar los tres bloques de granito, que en una longitud de 4,5 metros, obstruye el corredor luego del funeral del faraón Bourchardt comparte esta idea, sin embargo, remarca que ella no permite explicar las ranuras talladas en la parte inferior de la tercera hilada de piedras de las paredes laterales de la galería, y los bloques engastados existentes en estas paredes sobre cada uno de los veintiocho agujeros excavados en las banquetas a intervalos regulares. Considera además, que los bloques colocados en el piso de la galería, habrían obstaculizado el cortejo fúnebre en su pasaje hacia la cámara funeraria, y sugiere que esos bloques fueron depositados sobre una plataforma de madera instaladas en las ranuras existentes en las paredes laterales, la cual era soportada por maderos encastrados en los agujeros existentes en las banquetas. Complementa su propuesta con la teoría de los estados sucesivos de la edificación, que consiste en suponer que existieron tres cambios de planes durante la construcción , lo cual explicaría la existencia de tres cámaras en el edificio. Según Lauer, durante el segundo plan, la cámara intermedia era la destinada a cumplir la función de cámara funeraria y la galería estaba construida como un corredor sin salida, en el cual se almacenaban los bloques de granito que obstruían todo el corredor ascendente. Finalmente los constructores habrían desechado esta idea, construyendo la cámara superior y la antecámara con su sistema de bloqueado. Este sistema de bloqueado, le ofrecía suficiente seguridad a la cámara superior como para que los constructores entendieran innecesario el bloqueado de todo el corredor ascendente, reduciéndolo a tres bloques. El resto de los bloques de granito fueron utilizados en la construcción de la cámara superior, y para trasladarlos de la galería a esta cámara, construyeron un andamiaje semejante al formulado por Bourchardt, que permite explicar los distintos detalles existentes en la galería. Técnicas de elevación de bloques Los bloques que componen la pirámide del faraón Keops, tienen un peso promedio de 2500 kg. a excepción de las enormes losas que conforman el techo de la cámara de granito y sus cámaras de descarga, las cuales están ubicadas próximas al centro del edificio hasta una altitud estimada en 68 metros. Solo un medio estaba al alcance de los antiguos egipcios para elevar estas grandes losas, la rampa construida en ladrillo y tierra. Vestigios de rampas encontradas en exploraciones arqueológicas, hacen que la teoría de las rampas rectas formulada por Bourchardt y perfeccionada por Lauer fueran aceptadas unánimemente en su momento. Sin embargo la utilización de rampas rectas, se torna sumamente trabajosa, cuando se consideran alturas como las alcanzadas en esta pirámide, al ser necesario acumular un volumen de material en la rampa, que solo puede ser comparado con el de la propia pirámide. La rampa en forma de espiral, permite subsanar esta deficiencia y ha tenido buena aceptación en los medios científicos, si bien no se han encontrado evidencias arqueológicas que confirmen su utilización. Uno de los arqueólogos que más aportes ha realizado al esclarecimiento de este tema , J. F. Lauer, sugirió una variante a su modelo de rampa recta. El considera la superposición de rampas con pendientes progresivamente más acentuadas, que tienen en cuenta la disminución de altura media de las hiladas de piedra a medida que nos acercamos a la cúspide y el hecho de que las enormes losas no se encuentran más en ésta pirámide por encima de los 68 metros de altitud, esas superposiciones de rampas permiten, además, limitar su longitud desde el pie e la pirámide a 300 metros. Este sistema ofrece la enorme ventaja de presentar un gran ancho de vía de la rampa en los niveles inferiores de la pirámide que ofrecen muy vastas superficies para construir. Método Propuesto. Uno de los objetivos claramente perseguidos por los constructores de pirámides, es la búsqueda de mayor altitud en sus edificaciones. En la pirámide de Keops, se alcanzó la altura máxima lograda de aproximadamente 147 metros, superando ampliamente a las pirámides del Grupo Dahchurt que las precedieron (Pirámide del Sur y del Norte, con 103 y 92 metros de altura ). Para obtener este importante incremento de la altura, los constructores debieron resolver deficiencias estructurales, evidenciadas en Meidun y la Pirámide del Sur y dificultades crecientes para elevar los bloques a alturas significativamente mayores. Probablemente la evolución constructiva experimentada, fuera acompañada por modificaciones en las técnicas utilizadas para elevar los bloques, superando así las dificultades que los métodos empleados en las construcciones anteriores les presentaban. Coincidiendo con ese incremento de la altitud obtenida, la pirámide de Keops, presenta en su distribución interior, una construcción que no tiene precedentes, "la Gran Galería". Consideremos que ambos fenómenos estén relacionados, es decir, el incremento sensible de la altitud se obtiene a partir de la aplicación de un método para elevar los bloques, que requiere la existencia de una rampa interior con las características de la Gran Galería. Para instrumentar prácticamente esta idea, adoptaremos como hipótesis que la galería fue utilizada como rampa interior sobre la cual se deslizará un contrapeso. Con el objeto de ilustrar la aplicación práctica del método que se propone, imaginemos que el edificio ha sido construido hasta una altura de 100 metros, la superficie superior del mismo es una plataforma cuadrada pronta a recibir la hilada siguiente de bloques. En el interior del edificio, la galería oficiando como rampa se encuentra dividida por una plataforma construida en madera y montada en las ranuras existentes a la altura de la tercera disminución de los muros laterales, debajo de la cual un contrapeso cargado con pequeñas piedras se desliza sobre guías de madera fijas a las banquetas. Los agujeros existentes a intervalos regulares permiten la fijación de las guías a las banquetas, mediante tarugos de madera, y los bloques engastados en las paredes, actuando como topes, cumplen la función de detener el contrapeso en posiciones intermedias. Un conducto vertical, conecta la pared sur de la galería con la superficie superior del edificio, a través del cual es trasmitido mediante cuerdas y apoyos fijos lubricados, el esfuerzo generado durante el deslizamiento del contrapeso, el cual será utilizado para elevar los bloques en el exterior. Elevado el bloque, el contrapeso se encuentra en el final de su recorrido donde es descargado. Un equipo de hombres, desde la plataforma construida en la galería, realiza por medio de cuerdas el esfuerzo de subir el contrapeso descargado, a su posición inicial, en la parte alta de la galería. Una vez cargado nuevamente el contrapeso, se está en condiciones de elevar un nuevo bloque. Como puede apreciarse, los distintos detalles y características que presenta la galería, de dificultosa interpretación , aparecen explicados con la función que le hemos adjudicado. Esta nueva forma de visualizar la problemática, tiene como principal virtud, su demostración. En efecto, en la descripción del método propuesto para elevar los bloques, asumí la existencia de un conducto vertical que conectando la pared sur de la galería con la plataforma en construcción, permitía trasmitir al exterior el esfuerzo generado durante el deslizamiento del contrapeso. Imaginemos ahora que la construcción del edificio ha sido finalizada incluida la colocación del revestimiento, se presenta entonces la tarea de obstruir el conducto vertical. Si adoptamos como hipótesis que dicho conducto existió y fue obstruido con pequeños bloques, necesariamente deben existir evidencias de la obstrucción en la traba superior del edificio. Puede observarse la presencia de tres bloques pequeños y alineados a la cara este del edificio, ubicados próximos al centro de la plataforma (ver flecha). Dos aspectos merecen ser resaltados, que hacen factible la existencia de la obstrucción a la que hicimos referencia anteriormente, la diferencia de tamaño de éstos bloques respectos al resto que componen la plataforma, y el hecho de que los bloques que aun subsisten de la hilada anterior se encuentran en el borde de esos pequeños bloques y no formando la traba como correspondería. Este detalle a ser investigado, permite que las variantes que hemos formulado en la problemática tratada, sea demostrado en uno u otro sentido. Herodoto, que representa la tradición corriente de Egipto en su época, declara en lo referente a la construcción del monumento de Keops: "Esta pirámide fue construida de la siguiente manera: se colocaron al principio una serie de gradas que algunos llaman crossai y otros bomides. Después de haberle dado para empezar, esta primer forma, se procedió a subir las piedras restantes, por medio de máquinas construidas de trozos cortos de madera; desde el suelo las subían a la primera plataforma; cuando la piedra había llegado allí, era colocada en otra máquina instalada sobre esta primera plataforma; y pasaba a otra grúa , pues había tantas máquinas como plataformas. O quizás solo había una máquina, fácil de transportar, que trasladaban de un piso a otro, después de haber retirado la piedra, indicamos los dos procedimientos, según las dos versiones que hemos oído. Lo primero que hicieron fue llegar al vértice de la pirámide, después pasaron a las partes que quedaban inmediatamente debajo, y por fin, dieron el último toque a los pisos próximos al suelo y al pie mismo del edificio." Hasta el presente no se han aportado pruebas en apoyo a las declaraciones de Herodoto en su conjunto. La pirámide de Kefren es posterior a la pirámide de Keops y presenta una altura ligeramente inferior, resulta lógico pensar que fue construida en forma análoga, de lo cual se deduce que dicha pirámide debería presentar una distribución similar a la estudiada, como ha sido sugerido por distintos arqueólogos. En lo referente a los bloques tapón, se admite como válido que se encontraban depositados en la Gran Galería desde la cual fueron deslizados para colocarlos como un tapón en el corredor ascendente. Aún aceptando que fuera posible deslizar estos bloques en un corredor de 39 metros de largo con la misma sección, el deslizamiento de estos bloques , que presentan una superficie irregular sobre una piedra mas blanda como la que se utilizó para construir este corredor, debería haber dejado evidencias notorias de su paso por el mismo. Si suponemos que el corredor ascendente tenía antes del bloqueado una sección mayor que la actual, todo parece tener mas sentido, y podemos concluir en que primero se colocaron los bloques de granito y luego se redujo la sección del corredor. Si el corredor ascendente presentaba antes del bloqueado un ancho como el de la Gran Galería, lo cual es probable, si tenemos en cuenta que es una prolongación de la misma, podrían haberse depositado los bloques en el corredor y dejar libre para el paso, el mismo ancho que tiene el corredor actualmente. Una inspección del corredor ascendente y de la pared norte de la galería permitiría determinar si esto fue efectivamente así. Resumiendo, la utilización de un contrapeso interior durante la construcción del edificio, habría facilitado la elevación de los bloques, permitiendo alcanzar las alturas obtenidas. Su empleo es complementario al uso de las rampas y explica sin mayores conjeturas la función que cumplió la Gran Galería y sus particularidades. Cosas tras las Pirámides de Egipto. Una sorpresa en el desierto. Su contemplación sobrecoge el animo. Erguidas sobre la arena del desierto, las pirámides de Egipto, esbeltas majestuosas, son algo más que un templo y una tumba. Ante ellas, y especialmente a la Gran Pirámide, se tiene la impresión de hallarse en presencia de un monumento que guarda en sus entrañas secretos trascendentales muy estrechamente relacionados con su estructura. Esas figuras geométricas perfectas poseen un poder que podemos definir como mágico, pero que en realidad debe ser tan natural como las fuerzas cósmicas que intervinieren en sus efectos. Los constructores de las pirámides lo sabían, y nosotros debemos intentar saberlo también. Un paseo por el luminoso horizonte de Jufu Lo malo de la erosión y los saqueos sufridos a lo largo de los milenios por la Gran Pirámide hacen imposible determinar las medidas exactas, y ni con el más exquisito de los cuidados puede garantizarse un error mínimo de diez centímetros, sobre todo en lo que se refiere a la longitud de los lados de la base y a la altura del monumento, medidas éstas en las que están descansando casi la totalidad de los cálculos piramidológicos. Misterios Egipcios En la década del veinte, la arqueología festejó un éxito: Su gran aporte a las investigaciones egiptológicas producido luego de descubrir en el Valle de los Reyes, la tumba intacta de un ignoto faraón muerto y momificado hacía unos tres mil años. Pero poco duró la algarabía. El hallazgo también sumo otros datos que hicieron virar a los científicos hacía el mundo de lo oculto: quien ingresaba a la cámara sepulcral o estaba de algún modo relacionado con las momias, moría misteriosamente. En los seis años posteriores al descubrimiento, 35 era el número de muertos y hoy, aun con las más sólidas teorías científicas, parece que la maldición de las momias ha ganado la batalla. Cuando el arqueólogo ingles Howard Carter abrió la cámara sepulcral de Tutankamon a las 5 de la tarde del viernes 17 de febrero de 1923, entre los tributos de oro y las vajillas repletas de semillas que rodeaban el sarcófago, la comitiva de científicos descubrió una poco reluciente estela de barro con una sentencia en caracteres jeroglíficos: "La muerte golpeara a quien perturbe al sueño del faraón". La maldición del Rey-Dios Con buen criterio se presume que la mayoría de las tumbas de los reyes dinásticos del antiguo Egipto contenían advertencias de esta naturaleza. Asimismo, se sabe que casi todos los sepulcros se convirtieron en cámaras vacías de momias, estelas, vajillas de semillas y naturalmente, objetos preciosos. Por esa razón fundamental no se sabrá nunca que terribles consecuencias padecieron los que desoyeron las advertencias de los sumos sacerdotes. Todo lo que el siglo XX podía conocer en su primera década se basaba en leyendas, en narraciones de boca en boca que contaban los padecimientos de tal o cual saqueador de tumbas, o en maldiciones que acompañaban a un objeto determinado hallado en una cámara funeraria, al lado de una momia. Efectivamente, las cosas se desarrollaron de esa manera ambigua, hasta esa tarde de viernes en que Carter y su séquito de arqueólogos y funcionarios penetraron en la tumba donde Tutankamon había descansado lejos del mundo de los vivos durante 3.259 años. Unos meses antes cuando Carter descubrió el pasillo en cuyo extremo se encontraba el recinto del faraón, los habitantes del desierto se alarmaron. Por esos días una cobra (animal protector de los sacerdotes egipcios) se había comido al canario de Carter y lo que para el no paso de ser una tristeza, para los herederos de las antiguas civilizaciones del Nilo, era un anuncio de futuras catástrofes. Unas semanas después del ingreso a la cámara mortuoria, cuando el mundo de la arqueología celebraba el triunfo de uno de los suyos, el ambiente del ocultismo se disponía a comenzar una década tan brillante como el oro de la mascarilla del legendario Rey-dios. Lord Carnarvon, dandy ingles, amante de la buena vida y las aventuras, socio capitalista de Carter en sus andanzas egipcias, muere en un hospital de El Cairo. Uno de los primeros en ingresar a la tumba de Tutankamon, fue picado por un mosquito en la cara; se le formo una herida infecciosa; entro en la suerte de coma febril y a los trece días murió para horrorizar a los egipcios que auguraban las maldiciones del faraón. Antes de expirar Caranvon le informo a su hermana que Tutankamon lo había llamado y que iba a reunirse con él. En ese mismo momento, en Inglaterra, el perro del filántropo moría fulminado por un infarto. Nace la leyenda La muerte de Lord Carnarvon desato en el mundo entero una comprensible fiebre por lo oculto: espiritistas de todas las latitudes informaron sobre "comunicaciones " de sacerdotes del antiguo Egipto portadores de mensajes terribles; la maldición del faraón se convirtió en tema central durante muchos años, e incluso la literatura y el cine se apropiaron del asunto para darle un carácter aun mas sensacionalista. Sin embargo, no faltaron motivos para que la leyenda se incrementara. El arqueólogo Arthur Mace, del grupo de Carter, muere inexplicablemente luego de un coma profundo en el mismo hotel en el que Carnarvon (según su ultimo anuncio) fue al encuentro de Tutankamon. Joel Woolf, amigo del filántropo ingles y poseedor de las primeras fotos tomadas en la cámara mortuoria, muere por causas no definidas, lo mismo que Richard Bethell, secretario de Carter. En la larga y aterradora lista de muertos por la presunta maldición de la momia, hay que destacar a la hermana de Lord Carnarvon, Aubrey Herbert, que se suicido en Londres; la esposa del filántropo, Almina, que murió repentinamente luego de visitar la tumba; el doctor Archibald Reid, quien había sido encargado de sacar las radiografías de la momia y falleció fulminado cuando nadie lo esperaba; Lee Stack y George Gould, muertos ambos luego de visitar la cámara mortuoria; y varios directores de museos, médicos, arqueólogos y gente ligada a los primeros hombres que ingresaron a la tumba del Valle de los Reyes. Para ser exactos, a seis años del descubrimiento ya sumaban 35 las personas muertas en forma misteriosa que tenían en común una sola cosa: la momia de Tutankamon. Sin embargo, como ya fue señalado, este faraón fallecido adolescente, que no hubiera merecido una línea en los tratados de historia de no ser porque tuvo la suerte de que su tumba se encontrara intacta, no fue el único en hacer sentir sus maldiciones. En 1879 había sido descubierta la momia del sacerdote Khapah Amon con la siguiente amenaza: "La cobra que esta sobre mi cabeza se vengara con llamas de fuego de quien perturbe mi cuerpo. El intruso será atacado por bestias salvajes, su cuerpo no tendrá tumba y sus huesos serán lavados por la lluvia". Al poco tiempo un ingles (Lord Harring) fue aplastado por un elefante, su cuerpo abandonado y su carne y sus huesos dispersados por intensas lluvias. Se trataba del coleccionista que había comprado la momia de Khapah Amon. Algo similar paso con la leyenda del Titanic, uno de los capítulos mas negros de la historia de la navegación. Se sabe que murieron mas de un millar de personas y se han hecho numerosas especulaciones acerca del motivo por el cual se hundió un transatlántico considerado el mas seguro del mundo. Lo que se conoce poco es que uno de los pasajeros ahogados, Lord Canterville, llevaba en el barco, cerca del puente de mando, la momia de una pitonisa que actuó durante el reinado de Amenofis IV. La misma tenia un brazalete con la siguiente leyenda: "Despierta de tu postración y el rayo de tus ojos aniquilara a todos aquellos que quisieron adueñarse de ti". Posibles Causas Sean del orden mágico o meramente científico, lo cierto es que no son pocas las muertes extrañas vinculadas al descubrimiento de la tumba de Tutankamon y otras momias. Como es natural, el origen de estas muertes fue investigado por quienes no se conforman con la explicación mágica. De esta forma se habló de venenos de contacto cuyas propiedades tóxicas no caducan; de gases tóxicos producidos por la descomposición y el encierro; de hongos tóxicos depositados en las tumbas por sumos sacerdotes ( El British Medical Journal arriesgo la teoría de que Lord Carnarvon murió al tocar en una vajilla un hongo patógeno llamado histoplasma capsulatum ). Para agotar el arsenal científico, hace unos años el científico nuclear Bulgarini opino que los egipcios ya conocían la energía atómica y que en ese marco cabía la posibilidad que hubieran utilizado uranio radiactivo para proteger a los reyes de los profanadores. Hace ya muchos años que no se habla de la maldición de las momias. Los incrédulos, al parecer, habían ganado la batalla ya que cualquier episodio reciente vinculado a objetos "malditos" seguidos de muerte, son rápidamente archivados. Lo real es que las teorías basadas en venenos y gases radioactivos, bien pueden explicar algunas de las muertes, no así los casos de accidentes o suicidios, aunque sean producidos por sugestión. La casualidad, se sabe, no existe; pero una suma de ellas siempre es algo mas que una simple casualidad Mapas de las Pirámides de Egipto Guiza Plano General Conclusiones * Los grandes templos, las tumbas y las extraordinarias pirámides del valle del Nilo han convertido a Egipto en un lugar fascinante, motivo de inspiración para el viajero, desde, aproximadamente, los últimos tres mil años. * Los egipcios ejecutaron obras maestras con instrumentos demasiado rudimentarios. Desarrollaron un arte majestuoso y se muestra en los sepulcros que construyeron, así como las decoraciones y el mobiliario, que son una fuente más fecunda para conocer sus creencias, esperanzas e ideales, y por consiguiente su arte, que los de cualquier otra civilización de la Antigüedad. * Mi trabajo de investigación va orientado hacia la cultura egipcia ya que me parece muy interesante todo lo relacionado con esta forma de ser y vivir. * Más importante que sus viviendas(residencia temporal)eran para los egipcios sus tumbas, donde esperaban pasar toda la eternidad. Las tumbas prehistóricas estaban cubiertas por túmulos de arena o de piedra suelta, pero el viento del desierto barría la arena y los chacales hurgaban entre las piedras. * Los egipcios antiguos creían que después de la muerte el espíritu de los difuntos continuaba viviendo, así que no escatimaban esfuerzos para asegurarse de que disfrutarían la vida ultraterrena. * Durante el Imperio Antiguo solamente los faraones tenían derecho a pasar a la vida futura. Ya llegando al Imperio nuevo(11 siglos después), todos los egipcios podían participar en ella. * A fin de lograrlo, usaban compuestos de sales, especias y resinas que preservaban y secaban el cuerpo convirtiéndolo en una momia arrugada; después lo rellenaban y lo envolvían en finas vendas de lino. * Los obreros trabajaban en cuadrillas de 18 ó 20, subiendo los pesados bloques de piedra por rampas para ponerlos en su lugar. * Para facilitar levantar los bloques, éstos eran arrastrados por rampas: tres para subir y una para bajar. * La grandeza se encuentra en la calidad y en la duración del arte mismo, en este caso, la simetría de masas que se advierte en las pirámides. * En la actualidad, las pirámides de Egipto son motivo de admiración y de interés, la majestuosidad ha perdurado y seguirá perdurando hasta que el tiempo las logre derrumbar. espero sea de su agrado FUENTE
inspirado en el post de supirañiquete (post) Luis XV (Versalles, 16 de febrero de 1710 – 10 de mayo de 1774), conocido en francés como Louis XV dit le Bien-Aimé (Luis XV el Bien-Amado), fue el rey de Francia y de Navarra entre los años 1715 y 1774. Sobrevivió milagrosamente a la muerte de toda su familia y fue amado por los franceses al comienzo de su reinado; sin embargo, con el tiempo, su incapacidad para reformar la monarquía francesa y su política entreguista en el escenario europeo le hicieron perder el apoyo de su gente, acabando sus últimos días como uno de los reyes más impopulares de Francia. Luis XV es el rey con la personalidad más ambivalente en la historia de Francia. Aunque ha sido calumniado por los historiadores, recientes estudios demuestran que en realidad era muy inteligente y dedicado a la tarea de gobernar el reino más extenso de Europa. Pese a todo, su indecisión, estimulada por su conocimiento de la complejidad de los problemas pasados, así como su profunda timidez, escondidos tras una máscara de rey imperioso, explican los pobres resultados obtenidos durante su reinado. En muchos sentidos, Luis XV fue un precursor de los soberanos burgueses del Romanticismo: aunque interpretó obedientemente el papel de rey imperial, legado por su bisabuelo Luis XIV, en realidad no apreciaba más que su vida privada lejos de toda pompa y ceremonia. Habiendo perdido a su madre cuando era solo un niño, siempre anheló una presencia maternal y tranquilizadora, la cual trataba de encontrar en la compañía íntima de mujeres, por las que fue difamado durante y después de su vida. Luis XV de Francia El niño milagro Luis XV nació en el Palacio de Versalles el 15 de febrero de 1710, mientras su bisabuelo, Luis XIV, todavía se encontraba en el trono. Era el hijo de Luís duque de Borgoña y María Adelaida de Saboya. María Adelaida era una mujer muy vivaz y el rey Luis XIV sentía un especial afecto por ella. La joven pareja, profundamente enamorada (algo inusual en la corte real de Versalles), había rejuvenecido la corte del anciano rey y se convirtió en el centro de atención de Versalles. Luis XV tenía un hermano, Luis duque de Bretaña, que era tres años mayor. El duque de Borgoña era el hijo mayor de Luis, el Gran Delfín, que era el hijo único de Luis XIV. El duque de Borgoña tenía dos hermanos más jóvenes: Felipe, duque de Anjou, pronto sería confirmado como Felipe V de España, y Carlos de Borbón duque de Berry. Así, en 1710, a Luis XIV no le faltaban descendientes varones: un hijo, tres nietos y dos bisnietos de su nieto mayor. Sin embargo, sucesos dramáticos alteraron la composición de la familia real. En 1700, el duque de Anjou se convirtió en rey de España bajo el nombre de Felipe V, heredando la corona de su abuela, esposa de Luis XIV y princesa de España. En la Guerra de Sucesión Española que siguió, Felipe V tuvo que renunciar a todos sus derechos al trono francés. Inglaterra estaba poco dispuesta a una posible unión de España y Francia bajo un único rey en un futuro. La renuncia de Felipe V no era un gran problema para Luis XIV, ya que tenía muchos otros descendientes varones. En abril de 1711, el delfín de Francia murió repentinamente, y el duque de Borgoña pasó a ser el heredero al trono. Un año más tarde, la enérgica María Adelaida de Saboya contrajo la viruela, falleciendo el 12 de febrero de 1712 para consternación del rey Luis XIV. El duque de Borgoña, desconsolado por la muerte de su esposa, murió una semana después por la misma causa. Sus hijos habían contraído también la enfermedad: el mayor, duque de Bretaña, fue sangrado repetidas veces por los doctores; acabó muriendo el 8 de marzo de 1712. Su hermano pequeño, Luis XV, fue salvado por su institutriz, Madame de Ventadour, que prohibió rotundamente sangrar al infante y cuidó de él personalmente durante su enfermedad. Finalmente en 1714, el duque de Berry, tercer hijo del delfín de Francia, fallecía. De esta manera, Luis XIV había perdido cuatro descendientes varones en solo tres años, y el destino de la dinastía recaía en la supervivencia de un niño de cuatro años. Si no sobreviviese, la corona pasaría a Felipe de Orleans, el sobrino de Luis XIV, y el primo del anterior delfín de Francia. Sin embargo, parecía bastante probable que Felipe V de España hubiera denunciado el tratado por el que renunció a la corona de Francia, y que una gran guerra en Europa, así como una guerra civil en Francia, hubiera estallado con seguridad. Al joven descendiente se le inculcó la gran responsabilidad que recaía en su persona, y su vida fue cuidadosamente vigilada. Más aún al quedar huérfano, sin hermanos vivos ni tíos (excepto Felipe V que se encontraba en Madrid, y al que no conocería nunca), y sin primos (de nuevo, excepto aquellos en Madrid). En este contexto familiar se forjó buena parte de la personalidad del rey. Luis XV en 1712, vestido de niña, como era costumbre en aquel tiempo para los niños de la aristocracia La regencia del duque de Orleans Hacia finales de agosto de 1715, Luis XIV se estaba muriendo de gangrena. El 26 de agosto llamó a su bisnieto de cinco años, Luis, a su lado, y le dijo estas palabras que pasarían a la historia: «Hijo mío, vas a ser un gran rey. No imites mis gustos por construcciones y guerras. Al contrario, trata de tener paz con tus vecinos. Vuelve a Dios lo que le pertenece; reconócele las obligaciones bajo las que te encuentras; haz que tus súbditos lo honren. Sigue siempre buenos consejos. Trata de solventar el sufrimiento de tu pueblo que me aflige al no poder solucionar. (...)». Seis días después, el hombre que había gobernado Francia durante más de 70 años murió, y Luis XV fue coronado como el nuevo rey. En agosto de 1714, un año antes de que muriera, Luis XIV había expresado su voluntad de conceder un papel prominente en la siguiente regencia a dos hijos que habían nacido de su anterior amante, Madame de Montespan, que había sido desde entonces legitimada; los dos hijos se conocían por Luis, duque de Maine y el conde de Toulouse. Al legitimar sus hijos bastardos, Luis XIV trataba de remediar la muerte de la mayor parte de sus herederos varones en los tres años anteriores, y asegurar el futuro de una maltrecha dinastía. Sus cálculos pasaban por que el joven Luis XV muriera y los hijos bastardos de Luis XIV lo sucedieran en el trono. Esto iba en flagrante contravención de la tradicional regla de sucesión al trono de Francia. Este hecho resultó motivado también por la insistencia de la segunda esposa de Luis XIV, Madame de Maintenon, quien había criado a los dos niños y los tenía en gran estima (otros hijos bastardos del rey, que no fueron criados por Madame de Maintenon, no fueron legitimados). Este deseo buscaba realzar las posiciones de Toulouse, y especialmente las del hijo mayor, Maine, a expensas del hombre que se esperaba, por derecho tradicional, fuera regente y gobernara Francia hasta que Luis XV alcanzara la mayoría de edad, Felipe de Orleans, hijo del hermano menor de Luis XIV. La voluntad del rey estipulaba que hasta que el nuevo rey alcanzase la adultez, la nación sería conducida por un consejo real formado por 14 miembros. Felipe de Orleans fue nombrado presidente del consejo, pero todas las decisiones fueron tomadas por mayoría de votos; la composición del consejo, que incluía Maine, Toulouse y varios miembros de la administración de Luis XIV fue tal que Orleans era normalmente rechazado. El contenido de esta voluntad se reveló, y varias facciones comenzaron a alinearse tras Maine, Toulouse y Maintenon por un lado, y por otro Orleans. Esta última tuvo el apoyo de muchos entre la antigua nobleza de espadas (noblesse d'épée), descendiendo de caballeros medievales en oposición a los noblesse de robe, la nueva aristocracia de nobles recién nombrados, abogados y funcionarios. Luis XIV había excluido habitualmente la noblesse d'épée del gobierno en favor de los plebeyos de la burguesía, que solían entrar en la noblesse de robe y a los que podía controlar más fácilmente. Así, en la noblesse d'épée anhelaban un cambio en la política que les favoreciese y estaban disgustados con la legitimación de los "bastardos reales" Maine y Toulouse, los cuales eran considerados como una afronta a las reglas de herencia tradicionales. El regente, Philippe d'Orléans Matrimonio e hijos * El 4 de septiembre de 1725 contrajo matrimonio con María Leszczynska, Princesa de Polonia (1703-1768). Tuvieron diez hijos: o Luisa Isabel (14 de agosto de 1727 - 6 de diciembre de 1759). o Enriqueta Ana (14 de agosto de 1727 - 10 de febrero de 1752). o María Luisa (28 de julio de 1728 - 19 de febrero de 1733). o Luis, Delfín de Francia (4 de septiembre de 1729 - 20 de diciembre de 1765). o Felipe (30 de agosto de 1730 - 17 de abril de 1733). o Adelaida (23 de marzo de 1732 - 27 de febrero de 1800). o Victoria Luisa (11 de mayo de 1733 - 7 de junio de 1799). o Sofía Filipina (17 de julio de 1734 - 3 de marzo de 1782). o Teresa Felicidad (16 de mayo de 1736 - 28 de septiembre de 1744). o Luisa María (5 de julio de 1737 - 23 de diciembre de 1787). * Con Madame de Pompadour, puede que tuviera una hija ilegítima: o Alexandrine-Jeanne d'Etiolles (10 de agosto de 1744 - 14 de junio de 1754). María Catalina Sofía Felicita Leszczynska de Wieniawa arbol genealogico Palacio de Versalles Luis XV cuando era niño espero sea de su agrado, fuente
quien no uso un tornillo alguna ves en la vida, y nunca se preguntaron quien fue el sabio que realizo este util invento, bueno aca esta la historia. Casi todo lo que usamos o vemos, o tenemos, está constituido por un tornillo, o fue contruido por algo que tenia un tornillo. Todos, por más oficinista, que sea a usado el poder del tornillo. Un notasble ingenio que permitió unir cosas de manera rápida, poco esforzada y confiable. El tornillo desplazó a los clavos y remaches en todos los ámbitos, a tal punto que estos son solo usados como uniones rápidas. Todos los días de mi vida trabajo con estas sencillas herramientas que me permiten unir cosas de forma muy precisa y confiable. El inventor del tornillo fue el griego Arquitas de Tarento (430-360 a.C.), al el se debe también el invento de la polea. Arquímedes (287-212 a.C.) perfeccionó el tornillo y lo llego a utilizar para elevar agua. También fue Arquímedes el que invento el tornillo sin fin, comunmente llamado sin fin dado que no tiene fin, da vueltas y vueltas, se lo utiliza en tolvas y sin fines (tubos con uno adentro) para levar granos y afines. Pero no fue hasta la revolución industrial un elemento muy usado, principlamente porque debian ser producidos artesanalmente y nunca dos eran iguales, mucho menos la cavidad, agujero o tuerca en la que debia enroscar. Llegado el despertar de las máquinas este problema fue solucionado con la producción masiva con lso mismos patrones. Igualmente habia un problema, los fabricantes producian medidas diferentes y era un caos el conseguir las mismas. Por ello en 1841 el ingles Joseph Whitworth (1803-1887) sugirió un paso de rosca universal para todos los tornillos fabricados en cualquier parte. Esta idea properó y hoy existe la rosca universal, pero no hay una solo rosca, tenemos la común de 9 o 12 hilos (vueltas que da la rosca), la milimétrica, la rosca fina, la rosca gruesa, la rosca izquierda (se enrosca al revés). A partir de entonces el armado de máquinas, barcos y practicamente cualquier cosa podia de ser de manera rápida y confiable, el tornillo permite unir las partes muy bien sin dejar espacios sin apretar como los remaches, y no se sale como los clavos. Por ejemplo los trenes tenian el problema que los remaches dejaban espacios en la caldera por donde se permida presión, o simplemente saltaban, el problema fue solucionado con el tornillo que apretaba las partes de manera eficiente. Ahora, para aquellos que no sepan, el tornillo es un perno o bulón, como quieran llamarle, en el cual el cuerpo cilindrico es recorrido por un pequeño hilo continuo y envolvente que da vueltas descendentemente por él. Posee una cabeza con la cual se puede tenerlo con una herramienta (llave pulsiana, pinza) para enroscarlo. Roscas Tipos Rosca en V Aguda Se aplica en donde es importante la sujeción por fricción o el ajuste, como en instrumentos de precisión, aunque su utilización actualmente es rara. Rosca Redondeada Se utiliza en tapones para botellas y bombillos, donde no se requiere mucha fuerza, es bastante adecuada cuando las roscas han de ser moldeadas o laminadas en chapa metálica. Rosca Nacional Americana Unificada Esta la forma es la base del estándar de las roscas en Estados Unidos, Canadá y Gran Bretaña. Rosca Cuadrada Esta rosca puede transmitir todas las fuerzas en dirección casi paralela al eje, a veces se modifica la forma de filete cuadrado dándole una conicidad o inclinación de 5° a los lados. Rosca Acme Ha reemplazado generalmente a la rosca de filete truncado. Es más resistente, más fácil de tallar y permite el empleo de una tuerca partida o de desembrague que no puede ser utilizada con una rosca de filete cuadrado. Rosca Acme de Filete Truncado La rosca Acme de filete truncado es resistente y adecuada para las aplicaciones de transmisión de fuerza en que las limitaciones de espacio la hacen conveniente. Rosca Whitworth Utilizada en Gran Bretaña para uso general siendo su equivalente la rosca Nacional Americana. Rosca Sin Fin Se utiliza sobre ejes para transmitir fuerza a los engranajes sinfín. Rosca Trapezoidal Este tipo de rosca se utiliza para dirigir la fuerza en una dirección. Se emplea en gatos y cerrojos de cañones. Tornillo en la dirección del auto espero sea de su agradofuente

La paleontología es una disciplina geológica que estudia e interpreta el pasado geológico de la Tierra. A su vez, se puede dividir en varios campos de estudio: * la Paleozoología. Es la más conocida y extendida, y a la que se le atribuye generalmente el nombre de Paleontología. Tiene un marco biológico fuerte, tanto que se puede abordar desde la Biología o desde la Geología. Se encarga del estudio de los animales extintos, a partir de sus restos fósiles, y de su taxonomía. Aquí se incluyen disciplinas como la Paleoentomología o la Dinosaurología * la Paleobotánica. Se encarga del estudio de seres vegetales o fúngicos extintos y su taxonomía. Es una disciplina menos extendida que la anterior. * la Paleoclimática. Se sale del marco biológico para adentrarse en la Meteorología. Emula el clima, las condiciones atmosféricas, las franas climáticas del pasado geológico. * la Paleogeografía. Se aborda desde la geografía física, y se basa en el estudio de la topografía y geografía del pasado. Como ciencia, nació en el sigo XVIII, con Cuvier, aunque ya desde los antiguos griegos se habían dado algunas interpretaciones de los fósiles muy semejantes a las actuales. Desde el punto de vista geológico, el hallazgo de determinados fósiles característicos, propios de un período, en capas de terreno discontinuas y alejadas, posibilita la correlación de las edades relativas de los estratos. La Paleontología se halla en la base de la evolución, de la zoología y de la botánica. Se entronca, además, directamente con la genética, con la embriología y con la ontogenia, posibilitando a su vez la taxonomía y la filogenia. La Paleontología puede disponer de una serie de testimonios sobre los efectos de determinadas causas que ilustran la historia de la Tierra, y de sus componentes que la ecología complementa. Ha debido especializarse en multitud de vertientes: Paleobotánica (conocimiento de las flores pretéritas), Paleozoología (estudio de las faunas antecesoras), Paleoclimatología y Paleoecología, que determinan la Paleobiogeografía (estudio de la fauna y la flora con relación al ambiente y su distribución geográfica),y Paleoantropología o historia del Hombre. Las herramientas de la Paleontología La Biología es la ciencia que estudia e interpreta "la vida". Desde la replicación de una molécula de ADN hasta la distribución de los organismos en el planeta, pasando por el funcionamiento de nuestro sistema excretor y la conducta de las aves. Esta ciencia enmarcada dentro de aquellas denominadas "no formales o fácticas" (También llamadas "concretas" se sirve de aquellas ciencias con la misma denominación como la Física, la Química, etc. Todas ellas se pueden enmarcar a su vez en "Ciencias Naturales" las cuales dependen de aquellas " formales" como la Matemática y la lógica. Un complejo diagrama en el mundo de la organización de la ciencia en donde no existe un verdadero acuerdo. Es común confundir la "ciencia biológica" con la "técnica médica". La diferencia radica en que la ciencia "genera conocimiento" mientras la técnica aplica ese conocimiento para un determinado fin, en medicina ese fin puede traducirse en curar enfermedades. Así la física aporta los conocimientos que la ingeniería aplica para que un edificio no se desmorone ante las narices de su constructor al cabo de un año de ser erigido. Esta explicación viene a cuenta de lo siguiente: es muy común que el público ignore o infravalorice el aporte que la ciencia hace a la técnica (incluidos algunos técnicos e ingenieros. Se suele glorificar un logro tecnológico como exclusivo de la disciplina que la forma, ignorando de este modo la historia, en muchas ocasiones tortuosa, que la ciencia formó en la senda que lleva a los conocimientos desde los cuales se logran concebir los procedimientos tecnológicos que hoy día elaboran nuestra vida cultural humana. La vida en el transcurso de la existencia del planeta en la que se creó desarrolló su propia historia. Tiene su propio camino recorrido en el tiempo, un camino sin retroceso posible. Con variaciones estructurales rápidas se fue formando y se estabilizó con pequeños cambios. Soportó y sobrepasó aquellas "piedras en el zapato" en forma de catástrofes e inició, continúa y continuará su largo camino. La vida tiene su evolución y la biología como ciencia se ocupa de ella. ¿Que es la Paleontología? La Paleontología, como rama de la ciencia Biológica, estudia e interpreta la historia evolutiva de la vida sobre el planeta tierra, desde el primer posible indicio de ella en los "polímetros del supuesto caldo primal", pasando por los complejos mecanismos que llevaron a formar a todos los organismos que poblaron y pueblan todos los rincones de la tierra a través de millones de años evolutivos. La corteza terrestre, aquel delgado manto sobre el fuego, conserva los indicios del pasado de la vida en sus rocas. Las rocas encierran a su vez la otra historia, la historia geológica del planeta. Es por ello que la Paleontología está íntimamente relacionada con la Geología. Si bien las dos historias que cada una de éstas ciencias estudia son distintas ambas se interrelacionan funcionalmente: La vida en su larga evolución debió y debe adecuarse constantemente a los cambios que a su vez recorre la historia inorgánica del planeta, incluso la vida como factor componente de éste da su importante aporte a aquella otra historia. Los signos de las pretéritas formas de vida que encierran las rocas son el "caballito de batalla" o mejor dicho la "herramienta" del paleontólogo para fundamentar que aquella historia es un hecho. Se ha dicho ya que la paleontología es una ciencia biológica pero al mismo tiempo es una ciencia que reconstruyen los hechos del pasado, desde la aparición de vida en el planeta intenta reconstruir la sucesión evolutiva primer organismo hasta la biodiversidad actual y como tal se suma a la categoría de ciencias naturales denominadas históricas. Esta característica de retrospección no le permite las predicciones: utiliza las informaciones recopiladas de la naturaleza para reconstruir hechos pasados y no da lugar a formulaciones de leyes generales (procedimiento inductivo) como tampoco, evidentemente, a las verificaciones experimentales. La confusión metodológica y estratigráfica. En la actualidad, en muchos países, la paleontología no es considerada como una ciencia autónoma sino auxiliar tanto de la biología o de la geología. Primero, la paleontología no puede considerarse una disciplina "auxiliar" o "subordinada" al resto de las ciencias biológicas porque simplemente, se diferencia de éstas en la metodología o categorización, o sea, historicismo en paleontología, ahistoria en el resto de las ciencias biológicas. En cuanto a la condición subordinada de la paleontología a la geología, el hecho de que ésta última ha desformado el concepto de "fósil" en función de datar rocas sobre la superficie terrestre o mejor dicho hacer énfasis en la funcionalidad de los fósiles en estratigrafía ha producido graves arcaísmos en las interpretaciones paleontológicas de muchas universidades o institutos científicos. Esta interpretación muy antigua tiene sus raíces en épocas preevolucionistas y se debe sobretodo a la incapacidad de comprender a los fósiles como a una entidad de origen biológico cuyas características vitales son perfectamente paragonables a las vivientes. Fueron muchos los geólogos que dedicándose en sus investigaciones estratigráficas han hecho hincapié sólo en aquellos fósiles útiles a la datación de estratos lo que constituye una grave falta clasificatoria ya que fragmenta la información infravalorizando aquellos restos fósiles que no son útiles para datar frecuencias cronoestratigráficas. Pero quizás la peor falta de los arcaicos geológicos (además de la vagancia intelectual en su error conceptual de no considerar a los fósiles como entidades biológicas) sea ignorar la concepción de especie paleontológica simplemente por no ser inútil a la datación estratigráfica, por lo que la taxonomía paleontológica, en muchos casos tipológica, representa un martirio para quien emprende investigaciones paleontológicas con toda la base conceptual que corresponde. La estratigrafía de antiguas tradiciones geológicas va cediendo el lugar a la concepción actual de fósil y dando forma consistente a la "bioestratigrafía" en donde los fósiles tienen la importancia como entidades biológicas mas allá del hecho de que sean útiles en la datación y correlación estratigráfica, unas de las principales fuentes de trabajo de los paleontólogos. eras geologicas Cenozoico - Cuaternario Empezó hace 2 millones de años - Terciario Empezó hace 65 millones de años Mesozoico - Cretácico Empezó hace 140 millones de años - Jurásico Empezó hace 200 millones de años - Triásico Empezó hace 230 millones de años Paleozoico - Pérmico Empezó hace 280 millones de años - Carbonífero Empezó hace 345 millones de años - Devónico Empezó hace 395 millones de años - Silúrico Empezó hace 435 millones de años - Ordovícico Empezó hace 500 millones de años - Cámbrico Empezó hace 600 millones de años Precámbrico - >4.000 millones de años La teoría conocida con el nombre de Tectónica de Placas se basa en que los fragmentos que forman la corteza continental de la Tierra, encajan unos con otros como si de un rompecabezas se tratara. El encaje no sólo es de forma, sino que las rocas que hay a cada lado de los límites de las piezas son continuación unas de las otras; el encaje es casi perfecto. Las placas, que por una parte se separan, por otra chocan entre ellas uniéndose y dando cadenas montañosas que sacan a la luz las partes más profundas y escondidas. EL MAR PRECÁMBRICO Y PALEOZOICO. Hace unos 600 millones de años ... Es así como se debe comenzar el relato de lo que ha pasado aquí y de lo que se tiene registro. Las rocas más antiguas que se encuentran en la superficie de la Tierra en La Rioja son unas pizarras y areniscas de tonos oscuros que afloran al Sur de Anguiano y en las proximidades de Cilbarrena y que se llaman los Esquistos de Anguiano2. El tono oscuro se lo da el grafito diseminado que contienen. Se conoce el medio originario de las rocas mediante el estudio de su composición mineral, de sus fósiles, o del tipo y la forma de ordenación de sus elementos constituyentes (estructuras sedimentarias). Los Esquistos de Anguiano proceden del depósito de arena y arcilla en el fondo del mar. Por la cantidad de grafito diseminado que contienen se deduce que era un mar de vida rica, aunque en esa época todavía no existiesen los vertebrados. Ahora bien ¿estaban los Esquistos donde los encontramos hoy? La respuesta es no, como se verá más adelante. Sobre los Esquistos de Anguiano siguieron depositándose rocas de origen marino (periodos Cámbrico y Ordovícico) y continental (periodos Carbonífero, Pérmico y Triásico en parte). En estos periodos vivieron y nos quedan restos fósiles de trilobites y sus pistas (crucianas), bibalvos y otros restos marinos. Entre los fósiles se encuentran el trilobitoideo Riojaia perezi3y el trilobites Urbionia felixi descubiertos por primera vez en La Rioja. Del periodo Ordovícico hay varios yacimientos conocidos de crucianas, o pistas dejadas por trilobites sobre el barro del fondo del mar. Del Carbonífero se conservan plantas y otros restos continentales. Si se habla del clima en este intervalo de tiempo, hay que decir que se pasaron varias etapas glaciares, y que parte de estas rocas también estuvieron algún tiempo atravesadas por el Ecuador de aquella Tierra antigua4. Estas variaciones de clima no influyeron sobre los hombres. Estamos hablando de hace más de 450 millones de años, época en la que ni siquiera los mamíferos habían aparecido. La Sierra de la Demanda, dada la naturaleza de los sedimentos que la componen, ha permitido que nacieran en ella la mayor parte de las minas explotadas. El hierro en muchos de los lugares en los que hay calizas de edad cámbrica. El cobre, posiblemente asociado con oro en alguna de las minas, en filones dispersos. El plomo, asociado con plata, en los alrededores de Mansilla y de Viniegra. Muy probablemente algunos de estos metales se obtuvieran del beneficio de los minerales que los contienen, y quizá el hierro desde épocas muy remotas. Es muy posible que la minería del cobre, oro y plata, se desarrollara durante y después de la invasión romana. Además de los que contienen los metales anteriores se han explotado otros (por ejemplo, la baritina) pero, en estos casos, su aprovechamiento ha sido muy reciente. La edad en la que se formaron las menas metalíferas es variable, porque mientras que algunas son del Paleozoico (unos 290 millones de años o más) otras están relacionadas con la Orogenia Alpina, y son mucho más recientes (unos 10-20 millones de años). Las rocas encajantes son siempre más viejas que las venas metalíferas que contienen. LAS PRIMERAS MONTAÑAS. Hubo al menos dos orogenias antiguas que produjeron montañas y plegaron las capas sedimentarias horizontales: la Cadomiense, antes del Cámbrico; y la Hercínica, durante el Carbonífero. Después de la Orogenia Cadomiense (se supone que en el Cámbrico inferior) hubo una primera etapa que arrasó las montañas debida a la acción del agua del mar, y, otra etapa después de la Orogenia Hercínica, pero en este caso debida a erosión fluvial. Durante el Carbonífero – en plena segunda etapa de arrasamiento por la erosión posthercínica - todavía quedaban montañas, y parece que había una línea de costa por la parte Oeste de la Sierra de La Demanda. Quedan restos de deltas y de cantos procedentes de morrenas glaciares de ese último periodo (Carbonífero) en la parte burgalesa de la Sierra5. EL PRIMER CONTINENTE. En las últimas fases de plegamiento de la Orogenia Herciniana, emergió al menos parte de la región; hay elementos sedimentarios que prueban que el Este de la Demanda estaba emergido. Los sedimentos posteriores (pérmicos y triásicos) se extendieron por una gran llanura continental que volvió a cubrir el mar en el Triásico Medio. El Triásico superior, fue de nuevo continental en La Rioja. En resumen, desde el Carbonífero superior hasta la base del Jurásico, aproximadamente unos 100 millones de años, nuestra región permaneció emergida – excepto durante el Triásico medio. El clima, a partir del Carbonífero, debió de ser bastante árido, e incluso muy seco. En el Triásico superior lo fue tanto que se depositaron rocas específicas de estas condiciones. La gran cantidad de yeso y sal (rocas que pertenecen al grupo de las evaporitas) que afloran, es el registro que lo indica. Las materias pétreas utilizadas por el hombre procedentes del Pérmico y Triásico son: “ofitas”, evaporitas (sal y yeso) y areniscas. Aunque se han encontrado utensilios de piedra de rocas similares a las “ofitas” de las Conchas de Haro (incluidas en el Triásico superior), desconozco si se ha empleado la ofita de San Felices en esos menesteres; son abundantes las hachas y martillos de piedra pulimentada que hay de este tipo de rocas en muchos lugares de la Península Ibérica. Las evaporitas del Triásico superior con tienen sal y yeso. Son tan abundantes que de la primera se ha extraído sal gema y el segundo se sigue explotando actualmente en Viguera, Ventas Blancas y Leza. Finalmente, las areniscas pardas y rojas del Triásico inferior, por la facilidad con que se obtienen sillares de ellas, se han usado en construcción, sobre todo en las localidades del interior de La Demanda. EL MAR JURÁSICO. Al inicio del periodo siguiente, el Jurásico, el mar cubrió todo lo que hoy es La Rioja. Este es el periodo de los ammonites, belemnites, rhynchonellas, terebrátulas, ... En general fue un mar poco profundo que a la vez hacía el papel de unión entre el Thethys y un mar boreal. En la Rioja. El mar jurásico fue disminuyendo de profundidad aunque antes de desaparecer totalmente, la unión entre los dos anteriores se realizaba a través de un brazo estrecho que pasaba por Torrecilla en Cameros y que estaba flanqueado por arrecifes de coral. En el fondo de este mar se depositaron calizas que hoy dan barras muy potentes que resaltan en el paisaje, cuya importancia es enorme en lo que se refiere a la vida humana en La Rioja. Son las que dan los relieves más agrestes. Los pasos de los ríos que van a desembocar al Ebro, procedentes del Sistema Ibérico, se construyen sobre ellas. Las cuevas más importantes del Dominio Sur también se abren en las calizas del Jurásico: zona de Ventas del Baño – Grávalos – Villarroya – Turruncún- Muro- Préjano – Arnedillo; zona de Jubera – Santa Engracia – Lagunilla; zona de Pinillos – Nieva – Ortigosa – Brieva – Ventrosa – Mansilla – Villavelayo - Canales; zona de Nestares – Torrecilla – Nieva – Anguiano – Tobía; zona de Ezcaray – Valgañón. También están asociados con ellas las fuentes con mayor caudal e incluso las fuentes termales. La actividad humana y su relación con las rocas de edad Jurásico marino, es más indirecta en cuanto se relaciona no con el empleo de las calizas como rocas, sino con la posibilidad de cuevas que se utilizaron de cobijo y para vivir en ellas, y con la de los manantiales grandes, que en épocas de sequía podrían haber sido los únicos puntos de agua en muchos quilómetros a la redonda. LA EMERSIÓN DEL SUR. Después del mar Jurásico se produjo la última emersión de la región Sur. La costa se alejó hacia el Este y quedó una enorme llanura, por sitios pantanosa, en la que depositaban turbios los ríos procedentes del Sudoeste. Esta “historia” del mar que se relata no era igual en el dominio de la Sierra de Cantabria – Montes Obarenes, porque, entre otras cosas en este dominio, después del Jurásico, durante parte del Cretácico, estuvo ocupado por el mar. La Sierra de la Demanda no existía, ya que sobre ella también se extendía la llanura mencionada. Parece ser que el clima en esta época era árido, aunque La Rioja era una zona muy húmeda, en parte encharcada. En ella se asentaron los dinosaurios que fueron dejando sus huellas. Las estructuras sedimentarias atestiguan que había ríos que discurrían por zonas llanas y que debían proceder de lejos – aquí apenas hay conglomerados asociados a los depósitos fluviales cretácicos – que divagaban por y entre los charcos. Las paredes de los ríos no son muy profundas, y los sedimentos que dejaron en los cauces al abandonarlos o al colmatarlos, son arenas silíceas. Desde los márgenes de los ríos se extendían llanuras de inundación arcillosas, generalmente colonizadas por plantas (raíces) y por animales invertebrados. Dentro de las capas de arcilla se acuñan otras de calizas que corresponden a las zonas encharcadas en las que la cal se produce por precipitación del carbonato cálcico contenido en el agua. En muchas de estas capas calizas se encuentran acumulaciones de fósiles tales como bivalvos (unios) y varios tipos de gasterópodos de enrollamiento turriliforme9. No es difícil encontrar escamas de pez, a veces ensambladas, y dientes de los mismos animales; son del género Lepidotes, muy abundante en estos charcos de agua dulce. La evaporación intensa y, a veces la entrada de agua del mar, producía condiciones de salinidad del agua que sólo permitía la vida de las algas, responsables de las estructuras laminadas muy delgadas, y de una especie de nódulos formados por capas calizas concéntricas, también muy finas, que se conocen con el nombre de oncolitos. Al quedarse secos los charcos se producían grietas de desecación en el barro, de las cuales quedan abundantes ejemplos fósiles. Otras estructuras que también proliferan son las llamadas rizaduras de oleaje, que en este caso están producidas por la corriente del agua al pasar sobre los sedimentos, de la misma manera que el aire forma las dunas en los desiertos arenosos. Finalmente, encontramos también en el techo de los estratos, los huecos dejados por los pies de los dinosaurios al transitar. Son muy conocidas las piritas contenidas en rocas de esta edad. El empleo de estos minerales parece que estaba relacionado con supersticiones (piedras de lobo, piedras de tormenta, ...). Hoy son motivo de explotación porque son elementos codiciados por su belleza. También se han trabajado minerales que contienen cobre, aunque no tengo ningún criterio que indique cuando se comenzó a extraerlos. Quedan por citar las calizas negras, duras, utilizadas en construcción entre Soto e Igea. Hasta el año 1970 se benefició carbón en algunas minas que se encuentran entre Grávalos, Villarroya, Turruncún, Préjano y Arnedillo, pero, como ocurre con otras sustancias, no se empleó el carbón hasta muy avanzada la historia del hombre. LOS DINOSAURIOS. ¿Era La Rioja una zona de paso de dinosaurios?. Decir eso implica afirmar que los dinosaurios eran animales migratorios, y, aunque es posible que muchos lo fueran porque la mayor parte de ellos iban en manadas, no se puede hacer una afirmación tan rotunda. Uno de los tópicos respecto a esta cuestión es que donde hay muchas huellas de dinosaurio casi no hay huesos, y viceversa. Ningún especialista ha deducido de esto que hubiera lugares donde los dinosaurios vivieran o fueran a morir (acumulaciones de huesos fósiles) y lugares por donde los dinosaurios pasaban (acumulaciones de huellas fósiles). Por el número de huellas estudiadas en La Rioja y por el número de estratos que las contienen y que aún se encuentran bajo tierra, en la región geológica de Cameros debieron pisar millones de dinosaurios, de los cuales morirían bastantes incluso suponiendo que estuvieran de paso. Aunque pocos, se han encontrado restos de vertebrados, entre los que se incluyen: un cráneo de cocodrilo, huesos de pterosaurios y de varios dinosaurios. Estos últimos pertenecen a dinosaurios pequeños (Hypsilophodon)11, también hay restos de Baryonyx12en dos localidades (Igea y Enciso) y aún quedan huesos fosilizados de otro dinosaurio de talla mayor que se está estudiando. El que se haya hallado solamente un cráneo de cocodrilo no nos inclina a pensar que también estos animales estuvieran de paso y por eso no hay más huesos. Según las publicaciones científicas consultadas, el número de huellas que se encuentran en lo que en el lenguaje geológico se entiende por la Región de Cameros, es superior a la citada en ninguna otra parte del mundo. Su estudio ha permitido distinguir las pisadas dejadas por manadas grandes de dinosaurios ornitópodos y saurópodos, y las dejadas por grupos de dinosaurios carnívoros (carnosaurios y celurosaurios) en los que, aparentemente, había menos individuos. Se han descrito en revistas científicas dos tipos nuevos de huellas: Hadrosaurichnoides igeensis13 y Theroplantigrada encisensis14. Los trabajos sobre nuevos yacimientos que se encuentran todos los años y las consideraciones estadísticas y de pautas de comportamiento deducidas de las icnitas, se multiplican cada año. La disposición de algunos conjuntos de icnitas permiten suponer que había grupos familiares de pocos individuos. La agrupación de huellas iguales, que coexisten con otras agrupaciones, hacen pensar que, sino todos, la mayor parte de los dinosaurios o iban en grupos o se concentraban en los mismos lugares. El número de pisadas es tan grande que, sin necesidad de recurrir a huellas de otros yacimientos de fuera de La Rioja, se pueden aplicar tratamientos estadísticos y obtener conclusiones del análisis de las nubes de puntos que se concentran en la representación gráfica de los datos disponibles. EL CUATERNARIO. Antes del Plioceno estaban los tres dominios en la posición actual, aunque el relieve no era todavía como lo vemos hoy. Ya estaban levantadas las cordilleras del Norte y del Sur, pero todavía quedaba que cambiara de dirección el agua de los ríos. El Ebro no existía y gran parte del agua de La Rioja iba a una depresión que existía por Miranda. Quedaba también que pasaran las épocas glaciares cuaternarias. Han transcurrido muchos millones de años desde que se formó la primera roca de La Rioja, que en todo este tiempo ha pasado en varias ocasiones desde ser parte del mar a ser parte de una llanura continental o a ser una zona montañosa. Hay referencias de todas estas etapas y formas del relieve. En el Cuaternario, quedan ejemplos con conglomerados de origen fluvial, de una llanura más alta que la terraza actual cuyos restos están en lo alto de Salinillas-Valpierre en Hormilla, del monte Cantabria en Logroño, de La Estrella en Tudelilla, ... algunos a más 300 metros por encima del perfil de equilibrio de los ríos próximos, lo cual quiere decir que el río Ebro y sus afluentes se han encajado y han dejado testigos de su acción erosiva. Al principio se ha recalcado que La Rioja consta de tres zonas fisiográficas diferentes que se distinguen por sus relieves. El Norte y el Sur están ocupados por montañas: al Norte el sistema Sierra de Cantabria Montes Obarenes; al Suroeste el Sistema Ibérico. Por entre ambas y hacia el Este, la Depresión del Ebro. En las montañas de los lados salen rocas más antiguas y resistentes a la erosión. En la zona del centro, de menores cotas topográficas, afloran rocas más modernas y erosionables. Los materiales que dan los relieves más agrestes son las cuarcitas paleozoicas y cretácicas de la Sierra de La Demanda, Sierra de Urbión, Cebollera y Archena (Dominio de la Sierra de La Demanda – Sierra de Cameros), y las calizas mesozoicas que hay a ambos lados, tanto al Norte como al Suroeste. Esta disposición ha creado barreras naturales que favorecen la comunicación a lo largo de la Depresión y hace difíciles los accesos hacia los lados. Hacia el Norte solamente se encuentra el paso de las Conchas de Haro; hacia el Sur, los pasos estrechos de Ezcaray, San Millán, Anguiano, Islallana, Leza, Jubera, Arnedillo y las Ventas del Baño. Esta disposición no ha sido siempre así, ya que al principio del Cuaternario (o finales del Plioceno) el fondo de la Depresión estaba, en relación con las sierras marginales, más de 300 metros por encima de su nivel actual. La erosión, mayor en los sedimentos del Terciario, ha hecho que se instaurara el Ebro y que el nivel del fondo de la Depresión descendiera más que el de las montañas de sus bordes19. No debe ser ajena tampoco, al menos en la parte Sur, a la diferencia de nivel la elevación tectónica reciente del Sistema Ibérico. En las salidas de los ríos por los pasos estrechos citados antes, se encuentran dos hechos que lo registran: 1- el perfil de los ríos cambia de pendiente en estos lugares 2- adosadas a ambos lados de los pasos, suele haber más terrazas relacionadas con los ríos que las que se encuentran a lo largo de sus cauces. Que el perfil de los ríos cambia de pendiente en estos lugares quiere decir que el fondo de los cauces, que va ascendiendo desde su desembocadura de manera continua, se quiebra. Que haya más terrazas quiere decir que la inestabilidad del terreno en los pasos es mayor que en el resto de los valles, ya que no da tiempo a que se establezcan los mismos sistemas de terrazas. Geológicamente esto se explica por que el borde montañoso coincide con fallas (superficies largas y profundas de rotura de las rocas) que en la actualidad son activas. A medida que se avanzó en el tiempo Cuaternario, desde el Plioceno hasta hoy, la diferencia de relieve y la dificultad de acceso del Ebro hacia las sierras se ha hecho mayor como consecuencia del encaja miento de la red fluvial. De esta edad, se han utilizado en construcción los conglomerados, la arcilla, y también algunas tobas calcáreas que se han formado en la salida de los manantiales. En Torrecilla hay ejemplos del empleo de estas últimas. periodo cretaceo en argentina Un aspecto muy importante del Cretácico de América del sur es el proceso de gigantismo registrado en los Sauropodos de Patagonia. Algunos poseen un fémur de 2,5 metros de largo, registrados en la formación Rió Limay y la formación Rió Neuquén, con las mejores condiciones ambientales que permitieron el desarrollo de verdaderos gigantes, en una época muy anterior al Cretácico. El aislamiento geográfico de los supercontinentes Gondwanianos (América del sur, África, Australia, India y Antartida), de los Laurasianos (América del norte, Europa y Asia) esta claramente marcado en los Dinosaurios sudamericanos. La historia evolutiva de los Tetrápodos continentales de Laurasia fue muy distinta a los de Gondwana ya que los componentes básicos de las faunas del Cretácico medio y superior en uno y otro supercontinente acusan diferencias composiciones muy marcadas. Los Dinosaurios Terópodos Gondwanica están mejor representados en América del sur (Argentina) se han hallado ejemplares de distintos tamaños y adaptaciones, que demuestran la biodiversidad. Si bien se han hallado restos de vertebrados Cretácicos en distintas partes del país, la Patagonia Argentina no solo a demostrado estos últimos años que es el sitio de preferencia para los científicos Argentinos, sino que también para el mundo. A principios del Cretácico, Sudamérica comenzó a separarse de África y el agua de los océanos circundantes lleno tal espacio originando un estrecho océano Atlántico. Finalmente en el Cretácico superior se produjo el cierre del mar de Tethys en la región caribeña a causa de la deriva hacia el norte de Sudamérica. Este movimiento genero un arco de islas volcánicas que posteriormente actuarían como vías de dispersión fáusticas entre ambos continentes. Durante este periodo ocurrió un ascenso global en el nivel del mar. La Patagonia austral, en la región occidental quedo cubierta por las aguas, pero las regiones central y oriental permanecieron emergidas. En estas regiones el clima era muy cálido y húmedo. Para esta época el limite entre el clima subtropical y templado se encontraba mucho mas cerca de los polos que en la actualidad, con lo cual en estas regiones las temperaturas eran bastante benignas. Un evento crucial de este periodo y que modifico completamente el paisaje respecto a épocas anteriores fue la aparición de las Angiospermas (plantas con flores). Si bien la separación de Laurasia y Gondwana ocurrió aproximadamente en el Jurasico medio, recién a comienzos del Cretácico se comenzaron los efectos biogeograficos. El largo aislamiento de de Gondwana donde se encontraba la actual Republica Argentina, se desarrollaron comunidades vegetales y animales completamente diferentes a las existentes en otros continentes, los cuales estaban representados por un grupo muy importante de endemismo. En la transición Mesozoico - Cenozoico se produce una marcada caída en la temperatura. América del sur y norte estaban levemente conectadas a través de una cadena de islas ubicadas en la placa del Caribe y que en la actualidad constituyen América central. A través de esta vía pudieron ocurrir intercambios en un sentido entre ambas Américas. espero sea de su agrado fuente 1 fuente 2 fuente 3

El genoma humano es el genoma de Homo sapiens, se localiza en el núcleo celular y está compuesto por 24 cromosomas distintos (22 autosomas + 2 cromosomas sexuales: X, Y) con un tamaño total aproximado de 3200 millones de pares de bases de ADN (3200 Mb) que contienen unos 20.000-25.000 genes[1] . De las 3200 Mb unas 2950 Mb corresponden a eucromatina y unas 250 Mb a heterocromatina. El Proyecto Genoma Humano produjo una secuencia de referencia del genoma humano eucromático, usado en todo el mundo en las ciencias biomédicas. La secuencia de ADN que conforma el genoma humano contiene codificada la información necesaria para la expresión, altamente coordinada y adaptable al ambiente, del proteoma humano, es decir, del conjunto de proteínas del ser humano. Las proteínas, y no el ADN, son las biomoléculas efectoras; poseen funciones estructurales, enzimáticas, metabólicas, reguladoras, señalizadoras... organizándose en enormes redes funcionales de interacciones. En definitiva, el proteoma fundamenta la particular morfología y funcionalidad de cada célula. Asimismo la organización estructural y funcional de las distintas células conforma cada tejido, cada órgano, y finalmente el organismo vivo en su conjunto. Así, el genoma humano contiene la información necesaria para el desarrollo básico de un ser humano completo. El genoma humano presenta una densidad de genes muy inferior a la que inicialmente se había predicho, con sólo en torno al 1,5%[2] de su longitud compuesta por exones codificantes de proteínas. Un 70% está compuesto por ADN extragénico y un 30 % por secuencias relacionadas con genes. Del total de ADN extragénico aproximadamente un 70% corresponde a repeticiones dispersas, de manera que aproximadamente la mitad del genoma humano corresponde a secuencias repetitivas de ADN. Por su parte, del total de ADN relacionado con genes se estima que el 95% corresponde a ADN no codificante: pseudogenes, fragmentos de genes, intrones, secuencias UTR... Componentes Cromosomas El genoma humano (como el de cualquier organismo eucariota) está formado por cromosomas, que son largas secuencias continuas de ADN altamente organizadas espacialmente (con ayuda de proteínas histónicas y no histónicas) para adoptar una forma ultracondensada en metafase. Son observables con microscopía óptica convencional o de fluorescencia mediante técnicas de citogenética y se ordenan formando un cariotipo. El cariotipo humano contiene un total de 24 cromosomas distintos: 22 autosomas más 2 cromosomas sexuales que determinan el sexo del individuo. Los cromosomas 1-22 fueron numerados en orden decreciente de tamaño en base al cariotipo. Sin embargo, posteriormente pudo comprobarse que el cromosoma 22 es en realidad mayor que el 21. Las células somáticas de un organismo poseen un total de 46 cromosomas, una dotación de 22 autosomas procedentes de cada progenitor y un par de cromosomas sexuales, un cromosoma X de la madre y un X o un Y del padre. ADN intragénico Genes Un gen es la unidad básica de la herencia, y porta la información genética necesaria para la síntesis de una proteína (genes codificantes) o de un ARN no codificante (genes de ARN). Está formado por una secuencia promotora, que regula su expresión, y una secuencia que se transcribe, compuesta a su vez por: secuencias UTR (regiones flanqueantes no traducidas), necesarias para la traducción y la estabilidad del ARNm, exones (codificantes) e intrones, que son secuencias de ADN no traducidas situadas entre dos exones que serán eliminadas en el procesamiento del ARNm (ayuste). Actualmente se estima que el genoma humano contiene entre 20.000 y 25.000 genes codificantes de proteínas, estimación muy inferior a las predicciones iniciales que hablaban de unos 100.000 genes o más. Esto implica que el genoma humano tiene menos del doble de genes que organismos eucariotas mucho más simples, como la mosca de la fruta o el nematodo Caenorhabditis elegans. Sin embargo, las células humanas recurren ampliamente al splicing (ayuste) alternativo para producir varias proteínas distintas a partir de un mismo gen, como consecuencia de lo cual el proteoma humano es más amplio que el de otros organismos mucho más simples. En la práctica, el genoma tan sólo porta la información necesaria para una expresión perfectamente coordinada y regulada del conjunto de proteínas que conforman el proteoma, siendo éste el encargado de ejecutar la mayor parte de las funciones celulares. Genes de ARN Además de los genes codificantes de proteínas, el genoma humano contiene varios miles de genes ARN, cuya transcripción produce ARN de transferencia (ARNt), ARN ribosómico (ARNr), microARN (miARN), u otros genes ARN no codificantes. Los ARN ribosomales y de transferencia son esenciales en la constitución de los ribosomas y en la traducción de las proteínas. Por su parte, los microARN tienen gran importancia en la regulación de la expresión génica, estimándose que hasta un 20-30% de los genes del genoma humano puede estar regulado por el mecanismo de interferencia por miARN. Hasta el momento se han identificado más de 300 genes de miARN y se estima que pueden existir unos 500. Distribución de genes A continuación se muestran algunos valores promedio del genoma humano. Cabe advertir, sin embargo, que la enorme heterogeneidad que presentan estas variables hace poco representativos a los valores promedio, aunque tienen valor orientativo. La densidad media de genes es de 1 gen cada 100 kb, con un tamaño medio de 20-30 kb, y un número de exones promedio de 7-8 por cada gen, con un tamaño medio de 150 nucleótidos. El tamaño medio de un ARNm es de 1,8-2,2 kb, incluyendo las regiones UTR (regiones no traducidas flanqueantes), siendo la longitud media de la región codificante de 1,4 kb. El genoma humano se caracteriza por presentar una gran heterogeneidad en su secuencia. En particular, la riqueza en bases de guanina (G) y citosina (C) frente a las de adenina (A) y timina (T) se distribuye heterogéneamente, con regiones muy ricas en G+C flanqueadas por regiones muy pobres, siendo el contenido medio de G+C del 41%, menor al teóricamente esperado (50%). Dicha heterogeneidad esta correlacionada con la riqueza en genes, de manera que los genes tienden a concentrarse en las regiones más ricas en G+C. Este hecho era conocido ya desde hace años gracias a la separación mediante centrifugación en gradiente de densidad de regiones ricas en G+C (que recibieron el nombre de isócoros H; del inglés High) y regiones ricas en A+T (isócoros L; del inglés Low). Secuencias reguladoras El genoma humano tiene diversos sistemas de regulación de la expresión génica, basados en la regulación de la unión de factores de transcripción a las secuencias promotoras, en mecanismos de modificación epigenética (metilación del ADN o metilación-acetilación de histonas) o en el control de la accesibilidad a los promotores determinada por el grado de condensación de la cromatina; todos ellos muy interrelacionados. Además hay otros sistemas de regulación a nivel del procesamiento, estabilidad y traducción del ARNm, entre otros. Por lo tanto, la expresión génica está intensamente regulada, lo cual permite desarrollar los múltiples fenotipos que caracterizan los distintos tipos celulares de un organismo eucariota multicelular, al mismo tiempo que dota a la célula de la plasticidad necesaria para adaptarse a un medio cambiante. No obstante, toda la información necesaria para la regulación de la expresión génica, en función del ambiente celular, está codificada en la secuencia de ADN al igual que lo están los genes. Las secuencias reguladoras son típicamente secuencias cortas presentes en las proximidades o en el interior (frecuentemente en intrones) de los genes. En la actualidad, el conocimiento sistemático de estas secuencias y de cómo actúan en complejas redes de regulación génica, sensibles a señales exógenas, es muy escaso y está comenzando a desarrollarse mediante estudios de genómica comparada, bioinformática y biología de sistemas. La identificación de secuencias reguladoras se basa en parte en la búsqueda de regiones no codificantes evolutivamente conservadas[4]. Por ejemplo, la divergencia evolutiva entre el ratón y el ser humano ocurrió hace 70-90 millones de años.[5]. Mediante estudios de genómica comparada, alineando secuencias de ambos genomas pueden identificarse regiones con alto grado de coincidencia, muchas correspondientes a genes y otras a secuencias no codificantes de proteínas pero de gran importancia funcional, dado que han estado sometidas a presión selectiva. Elementos ultraconservados Reciben este nombre regiones que han mostrado una constancia evolutiva casi total, mayor incluso que las secuencias codificantes de proteínas, mediante estudios de genómica comparada. Estas secuencias generalmente se solapan con intrones de genes implicados en la regulación de la transcripción o en el desarrollo embrionario y con exones de genes relacionados con el procesamiento del ARN. Su función es generalmente poco conocida, pero probablemente de extrema importancia dado su nivel de conservación evolutiva, tal y como se ha expuesto en el punto anterior. En la actualidad se han encontrado unos 500 segmentos de un tamaño mayor a 200 pares de bases totalmente conservados (100% de coincidencia) entre los genomas de humano, ratón y rata, y casi totalmente conservados en perro (99%) y pollo (95%)[6] Pseudogenes En el genoma humano se han encontrado asimismo unos 19.000 pseudogenes, que son versiones completas o parciales de genes que han acumulado diversas mutaciones y que generalmente no se transcriben. Se clasifican en pseudogenes no procesados (~30%) y pseudogenes procesados (~70%)[7] . * Los pseudogenes no procesados son copias de genes generalmente originadas por duplicación, que no se transcriben por carecer de una secuencia promotora y haber acumulado múltiples mutaciones, algunas de las cuales sin sentido (lo que origina codones de parada prematuros). Se caracterizan por poseer tanto exones como intrones. * Los pseudogenes procesados, por el contrario, son copias de ARN mensajero retrotranscritas e insertadas en el genoma. En consecuencia carecen de intrones y de secuencia promotora. ADN intergénico Como se ha dicho, las regiones intergénicas o extragénicas comprenden la mayor parte de la secuencia del genoma humano, y su función es generalmente desconocida. Buena parte de estas regiones está compuesta por elementos repetitivos, clasificables como repeticiones en tándem o repeticiones dispersas, aunque el resto de la secuencia no responde a un patrón definido y clasificable. Gran parte del ADN intergénico puede ser un artefacto evolutivo sin una función determinada en el genoma actual, por lo que tradicionalmente estas regiones han sido denominadas ADN "basura" (Junk DNA), denominación que incluye también las secuencias intrónicas y pseudogenes. No obstante, esta denominación no es la más acertada dado el papel regulador conocido de muchas de estas secuencias. Además el notable grado de conservación evolutiva de algunas de estas secuencias parece indicar que poseen otras funciones esenciales aún desconocidas o poco conocidas. Por lo tanto, algunos prefieren denominarlo "ADN no codificante" (aunque el llamado "ADN basura" incluye también transposones codificantes) o "ADN repetitivo". ADN repetido en tándem Son repeticiones que se ordenan de manera consecutiva, de modo que secuencias idénticas, o casi, se disponen unas detrás de otras. Satélites El conjunto de repeticiones en tándem de tipo satélite comprende un total de 250 Mb del genoma humano. Son secuencias de entre 5 y varios cientos de nucleótidos que se repiten en tándem miles de veces generando regiones repetidas con tamaños que oscilan entre 100 kb (100.000 nucleótidos) hasta varias megabases. Reciben su nombre de las observaciones iniciales de centrifugaciones en gradiente de densidad del ADN genómico fragmentado, que reportaban una banda principal correspondiente a la mayor parte del genoma y tres bandas satélite de menor densidad. Esto se debe a que las secuencias satélite tienen una riqueza en nuclétidos A+T superior a la media del genoma y en consecuencia son menos densas. Hay principalmente 6 tipos de repeticiones de ADN satélite [6]: 1. Satélite 1: secuencia básica de 42 nucleótidos. Situado en los centrómeros de los cromosomas 3 y 4 y el el brazo corto de los cromosomas acrocéntricos (en posición distal respecto al cluster codificante de ARNr). 2. Satélite 2: la secuencia básica es ATTCCATTCG. Presente en las proximidades de los centrómeros de los cromosomas 2 y 10, y en la constricción secundaria de 1 y 16. 3. Satélite 3: la secuencia básica es ATTCC. Presente en la constricción secundaria de los cromosomas 9 e Y, y en posición proximal respecto al cluster de ADNr del brazo corto de los cromosomas acrocéntricos. 4. Satélite alfa: secuencia básica de 171 nucleótidos. Forma parte del ADN de los centrómeros cromosómicos. 5. Satélite beta: secuencia básica de 68 nucleótidos. Aparece en torno al centrómero en los cromosomas acrocéntricos y en la constricción secundaria del cromosoma 1. 6. Satélite gamma: secuencia básica de 220 nucleótidos. Próximo al centrómero de los cromosomas 8 y X. Minisatélites Están compuestas por una unidad básica de secuencia de 6-25[6] nucleótidos que se repite en tándem generando secuencias de entre 100 y 20.000 pares de bases. Se estima que el genoma humano contiene unos 30.000 minisatélites. Diversos estudios han relacionado los minisatélites con procesos de regulación de la expresión génica, como el control del nivel de transcripción, el ayuste (splicing) alternativo o la impronta (imprinting). Asimismo, se han asociado con puntos de fragilidad cromosómica dado que se sitúan próximos a lugares preferentes de rotura cromosómica, translocación genética y recombinación meiótica. Por último, algunos minisatélites humanos (~10%) son hipermutables, presentando una tasa media de mutación entre el 0.5% y el 20% en las células de la línea germinal, siendo así las regiones más inestables del genoma humano conocidas hasta la fecha. En el genoma humano, aproximadamente el 90% de los minisatélites se sitúan en los telómeros de los cromosomas. La secuencia básica de seis nucleótidos TTAGGG se repite miles de veces en tándem, generando regiones de 5-20 kb que conforman los telómeros. Algunos minisatélites por su gran inestabilidad presentan una notable variabilidad entre individuos distintos. Se consideran polimorfismos multialélicos, dado que pueden presentarse en un número de repeticiones muy variable, y se denominan VNTR (acrónimo de Variable number tandem repeat). Son marcadores muy utilizados en genética forense, ya que permiten establecer una huella genética característica de cada individuo, y son identificables mediante Southern blot e hibridación. Microsatélites Están compuestos por secuencias básicas de 2-4 nucleótidos, cuya repetición en tándem origina frecuentemente secuencias de menos de 150 nucleótidos. Algunos ejemplos importantes son el dinucleótido CA y el trinucleótido CAG. Los microsatélites son también polimorfismos multialélicos, denominados STR (acrónimo de Short Tandem Repeats) y pueden identificarse mediante PCR, de modo rápido y sencillo. Se estima que el genoma humano contiene unos 200.000 microsatélites, que se distribuyen más o menos homogéneamente, al contrario que los minisatélites, lo que los hace más informativos como marcadores. ADN repetido disperso Son secuencias de ADN que se repiten de modo disperso por todo el genoma, constituyendo el 45% del genoma humano. Los elementos cuantitativamente más importantes son los LINEs y SINEs, que se distinguen por el tamaño de la unidad repetida. Estas secuencias tienen la potencialidad de autopropagarse al transcribirse a una ARNm intermediario, retrotranscribirse e insertarse en otro punto del genoma. Este fenómeno se produce con una baja frecuencia, estimándose que 1 de cada 100-200 neonatos portan una inserción nueva de un Alu o un L1, que pueden resultar patogénicos por mutagénesis insercional, por desregulación de la expresión de genes próximos (por los propios promotores de los SINE y LINE) o por recombinación ilegítima entre dos copias idénticas de distinta localización cromosómica (recombinación intra o intercromosómica), especialmente entre elementos Alu. SINE Acrónimo del inglés Short Interspersed Nuclear Elements (Elementos nucleares dispersos cortos). Son secuencias cortas, generalmente de unos pocos cientos de bases, que aparecen repetidas miles de veces en el genoma humano. Suponen el 13% del genoma humano[6], un 10% debido exclusivamente a la familia de elementos Alu (característica de primates). Los elementos Alu son secuencias de 250-280 nucleótidos presentes en 1.500.000[6] de copias dispersas por todo el genoma. Estructuralmente son dímeros casí idéticos, excepto que la segunda unidad contiene un inserto de 32 nucleótidos, siendo mayor que la primera. En cuanto a su secuencia, tienen una considerable riqueza en G+C (56%)[6], por lo que predominan en las bandas R, y ambos monómeros presentan una cola poliA (secuencia de adeninas) vestigio de su origen de ARNm. Además poseen un promotor de la ARN polimerasa III para transcribirse. Se consideran retrotransposones no autónomos, ya que dependen para propagarse de la retrotranscripción de su ARNm por una retrotranscriptasa presente en el medio. LINE Acrónimo del inglés Long Interspersed Nuclear Elements (Elementos nucleares dispersos largos). Constituyen en 20% del genoma humano. La familia de mayor importancia cuantitativa es LINE-1 o L1 que es una secuencia de 6 kb repetida unas 800.000 veces de modo disperso por todo el genoma, aunque la gran mayoría de las copias es incompleta al presentar el extremo 5' truncado por una retrotranscripción incompleta. Así, se estima que hay unas 5.000 copias completas de L1, sólo 90 de las cuales son activas[6], estando el resto inhibidas por metilación de su promotor. Su riqueza en G+C es del 42%[6], próxima a la media del genoma (41%) y se localizan preferentemente en las bandas G de los cromosomas. Poseen además un promotor de la ARN polimerasa II. Los elementos LINE completos son codificantes. En concreto LINE-1 codifica dos proteínas: 1. Proteína de unión a ARN (’’RNA-binding protein’’): codificada por el marco de lectura abierto 1 (ORF1, acrónimo del inglés ‘’Open reading Frame 1’’) 2. Enzima con actividad retrotranscriptasa y endonucleasa: codificada por el ORF2. Por lo tanto, se consideran retrotransopsones autónomos, ya que codifican las proteínas que necesitan para propagarse. La ARN polimerasa II presente en el medio transcribe el LINE, y este ARNm se traduce en ambos marcos de lectura produciendo una retrotranscriptasa que actúa sobre el ARNm generando una copia de ADN del LINE, potencialmente capaz de insertarse en el genoma. Asimismo estas proteínas pueden ser utilizadas por pseudogenes procesados o elementos SINE para su propagación. Diversos estudios han mostrado que las secuencias LINE pueden tener importancia en la regulación de la expresión génica, habiéndose comprobado que los genes próximos a LINE presentan un nivel de expresión inferior. Esto es especialmente relevante porque aproximadamente el 80% de los genes del genoma humano contiene algún elemento L1 en sus intrones[6]. HERV Acrónimo de Human endogenous retrovirus (retrovirus endógenos humanos). Los retrovirus son virus cuyo genoma está compuesto por ARN, capaces de retrotranscribirse e integrar su genoma en el de la célula infectada. Así, los HERV son copias parciales del genoma de retrovirus integrados en el genoma humano a lo largo de la evolución de los vertebrados, vestigios de antiguas infecciones retrovirales que afectaron a células de la línea germinal. Algunas estimaciones establecen que hay unas 98.000[8] secuencias HERV, mientras que otras afirman que son más de 400.000[6]. En cualquier caso, se acepta que en torno al 5-8% del genoma humano está constituído por genomas antiguamente virales. El tamaño de un genoma retroviral completo es de en torno a 6-11 kb, pero la mayoría de los HERV son copias incompletas. A lo largo de la evolución estas secuencias sin interés para el genoma hospedador han ido acumulando mutaciones sin sentido y deleciones que los han inactivado. Aunque la mayoría de las HERV tienen millones de años de antigüedad, al menos una familia de retrovirus se integró durante la divergencia evolutiva de humanos y chimpancés, la familia HERV-K(HML2), que supone en torno al 1% de los HERV. Transposones de ADN Bajo la denominación de transposones a veces se incluyen los retrotransposones, tales como los pseudogenes procesados, los SINEs y los LINEs. En tal caso se habla de transposones de clase I para hacer referencia a los retrotransposones, y de clase II para referirse a transposones de ADN, a los que se dedica el presente apartado. Los transposones de ADN completos poseen la potencialidad de autopropagarse sin un intermediario de ARNm seguido de retrotranscripción. Un transposón contiene en gen de una enzima transposasa, flanqueado por repeticiones invertidas. Su mecanismo de transposición se basa en cortar y pegar, moviendo su secuencia a otra localización distinta del genoma. Los distintos tipos de transposasas actúan de modo diferente, habiendo algunas capaces de unirse a cualquier parte del genoma mientras que otras se unen a secuencias diana específicas. La transposasa codificada por el propio transposón lo extrae realizando dos cortes flanqueantes en la hebra de ADN, generando extremos cohesivos, y lo inserta en la secuencia diana en otro punto del genoma. Una ADN polimerasa rellena los huecos generados por los extremos cohesivos y una ADN ligasa reestablece los enlaces fosfodiéster, recuperando la continuidad de la secuencia de ADN. Esto conlleva una duplicación de la secuencia diana en torno al transposón, en su nueva localización. Se estima que el genoma humano contiene unas 300.000 copias[6] de elementos repetidos dispersos originados por transposones de ADN, constituyendo un 3% del genoma. Hay múltiples familias, de las que cabe destacar por su importancia patogénica por la generación de reordenaciones cromosómicas los elementos mariner, así como las familias MER1 y MER2. Variabilidad Si bien dos seres humanos del mismo sexo comparten un porcentaje elevadísimo (en torno al 99,9%)[6] de su secuencia de ADN, lo que nos permite trabajar con una única secuencia de referencia, pequeñas variaciones genómicas fundamentan buena parte de la variabilidad fenotípica interindividual. Una variación en el genoma, por sustitución, deleción o inserción, se denomina polimorfismo o alelo genético. No todo polimorfismo genético provoca una alteración en la secuencia de una proteína o de su nivel de expresión, es decir, muchos son silenciosos y carecen de expresión fenotípica. SNPs La principal fuente de variabilidad en los genomas de dos seres humanos procede de las variaciones en un sólo nucleótido, conocidas como SNPs (Single nucleotide polimorphisms), en las cuales se han centrado la mayor parte de los estudios. Dada su importancia, en la actualidad existe un proyecto internacional (International HapMap Project) para catalogar a gran escala los SNPs del genoma humano. En este contexto, la denominación de SNP frecuentemente se restringe a aquellos polimorfismos de un sólo nucleótido en los que el alelo menos frecuente aparece en al menos el 1% de la población. Los SNP son marcadores tetralélicos, dado que en teoría en una posición puede haber cuatro nucleótidos distintos, cada uno de los cuales identificaría un alelo; sin embargo, en la práctica suelen presentar sólo dos alelos en la población. Se estima que la frecuencia de SNPs en el genoma humano es de un SNP cada 500-100 pares de bases[6], de los que una parte relevante son polimorfismos codificantes, que causan la sustitución de un aminoácido por otro en una proteína. Gracias a su abundancia y a que presentan una distribución aproximadamente uniforme en el genoma, han tenido gran utilidad como marcadores para los mapas de ligamiento, herramienta fundamental del Proyecto Genoma Humano. Además son fácilmente detectables a gran escala mediante el empleo de chips de ADN (comunmente conocidos como microarrays). Variación estructural Recientemente, se ha comenzado a estudiar una nueva forma de variación en el genoma humano: la estructural. Este tipo de variaciones se refiere a duplicaciones, inversiones, inserciones o variantes en el número de copias de segmentos grandes del genoma (por lo general de 1000 nucléotidos o más). Estas variantes implican a una gran proporción del genoma, por lo que se piensa que son, al menos, tan importantes como los SNPs.[9] A pesar de que este campo de estudio es relativamente nuevo (los primeros estudios a gran escala se publicaron en los años 2004 y 2005), ha tenido un gran auge, hasta el punto de que se ha creado un nuevo proyecto para estudiar este tipo de variantes en los mismos individuos en los que se basó el Proyecto HapMap. Aunque aún quedan dudas acerca de las causas de este tipo de variantes, cada vez existe más evidencia a favor de que es un fenómeno recurrente que todavía continua moldeando y creando nuevas variantes del genoma. Este tipo de variaciones han potenciado la idea de que el genoma humano no es una entidad estática, sino que se encuentra en constante cambio y evolución. referencias 1. ↑ International Human Genome Sequencing Consortium (2004). "Finishing the euchromatic sequence of the human genome.". Nature 431 (7011): 931-45. PMID 15496913. [1] 2. ↑ International Human Genome Sequencing Consortium (2001). "Initial sequencing and analysis of the human genome.". Nature 409 (6822): 860-921. PMID 11237011. [2] 3. ↑ Watson, JD, Baker TA, Bell SP, Gann A, Levine M, Losick R. (2004). “Ch9-10”, Molecular Biology of the Gene, 5th ed., Peason Benjamin Cummings; CSHL Press. 4. ↑ Loots G, Locksley R, Blankespoor C, Wang Z, Miller W, Rubin E, Frazer K (2000). "Identification of a coordinate regulator of interleukins 4, 13, and 5 by cross-species sequence comparisons.". Science 288 (5463): 136-40. PMID 10753117. Summary 5. ↑ Nei M, Xu P, Glazko G (2001). "Estimation of divergence times from multiprotein sequences for a few mammalian species and several distantly related organisms.". Proc Natl Acad Sci U S A 98 (5): 2497-502. PMID 11226267. 6. ↑ a b c d e f g h i j k l m n ñ o Novo Villaverde, F.J. (2007), Genética Humana, Madrid: Pearson. ISBN 8483223598. (Recomendado) 7. ↑ Torrents D., Suyama M., Zdobnov E. and Bork p. (2003). "A Genome-Wide Survey of Human Pseudogenes.". Genome Research 13 (12): 2559-2567. PMID 14656963. [3] 8. ↑ Robert Belshaw, (2004). "Long-term reinfection of the human genome by endogenous retroviruses" Proc Natl Acad Sci U S A. 2004 April 6; 101(14): 4894–4899 9. ↑ Feuk L., Carson A. R. y Scherer S. W. (2006). "Structural Variation in the human Genome.". Nature Reviews Genetics 7 (2): 85-97. PMID 16418744.[4] 10. ↑ "Human chromosome 2 resulted from a fusion of two ancestral chromosomes that remained separate in the chimpanzee lineage" The Chimpanzee Sequencing and Analysis Consortium (2005). "Initial sequence of the chimpanzee genome and comparison with the human genome.". Nature 437 (7055): 69-87. PMID 16136131. "Large-scale sequencing of the chimpanzee genome is now imminent."Olson M, Varki A (2003). "Sequencing the chimpanzee genome: insights into human evolution and disease.". Nat Rev Genet 4 (1): 20-8. PMID 12509750. 11. ↑ "Our findings suggest that the deterioration of the olfactory repertoire occurred concomitant with the acquisition of full trichromatic color vision in primates." Gilad Y, Wiebe V, Przeworski M, Lancet D, Pääbo S (2004). "Loss of olfactory receptor genes coincides with the acquisition of full trichromatic vision in primates.". PLoS Biol 2 (1): E5. PMID 14737185. espero sea de su agrado fuente
La Atlántida (también llamada Atlantis debido al mitológico rey Atlante, Άτλας) fue un país mítico, cuya primera referencia se remonta a textos del filósofo griego Platón, ubicado en una isla (o quizá península o delta de un gran río, del griego nēsos,νησος), cuya existencia y localización nunca ha llegado a confirmarse con seguridad. La Atlántida ha servido de inspiración para numerosas obras literarias y cinematográficas, apareciendo así multitud de versiones de la narración, especialmente en historias de fantasía y ciencia-ficción. A pesar del gran número de teorías propuestas, la mayoría de los historiadores actuales opinan que la Atlántida, tal y como la describe Platón, no habría existido, aunque podría haber una parte basada en la realidad. En griego se le llamaba Atlantis Nēsos (Ατλαντίς νησος) y en latín Atlantis Insula. La Atlántida de Platón Las primeras referencias a la Atlántida -bajo este nombre- aparecen en los textos del filósofo griego Platón, el Timeo y el Critias, y según consta en estos diálogos, su isla-acrópolis fue sumergida bajo el mar como consecuencia de varios terremotos y una gran inundación o tsunami en los tiempos en que reinaban los reyes atenienses Cécrope (II), Erecteo, Erisictón o Eresictón y Erictonio, y antes de los tiempos de Teseo, según reza en el Critias (110a-110b). Esta época se corresponde aproximadamente con finales de la Edad del Bronce y principios de la Edad del Hierro Mediterráneo, ya que según las antiguas cronologías recogidas desde la antigüedad clásica, dicho período se ubica entre el 1582 adC (Cécrope I) y el 1506 adC (época de Erecteo I o Erictonio) como podemos constatar en la más antigua cronología griega conservada, conocida entre varios nombres como "Marmora Parium" o "Mármol de Paros", donde el año 1582/1581 adC, época de Cécrope, equivale a unos 1318 años antes de la época en que escribe el autor de esta inscripción, quien termina la relación cronológica en el rey que gobernaba en su época en Atenas, Euctemon, quien había comenzado su reinado unos treinta y cinco años antes, fecha que se corresponde con el año 299/298 adC La época en que Solón visitaría Egipto aparece mencionada en el "Mármol de Paros" con la referencia de Peisistratos como tirano de Atenas, que en la inscripción aparece como el año 297 antes de la época del autor de la inscripción y que equivale al 561/560 adC. Por consiguiente, la Atlántida no desapareció en el 9000 antes de Solón, o 9550 adC, como erróneamente se ha sostenido sino más bien unos 900 años antes. En el Critias de Platón, la guerra se lleva a cabo en la misma época en que reinaban Cécrope I, Erecteo I o Erictonio) y Erisictón, o sea, entre el 1521 y el 1506 adC, que es cuando reinaban estos reyes de Atenas que liderearon la guerra contra los atlantes, según el citado fragmento del Critias (110a-110b) y su cotejo con la antigua cronología griega del "Mármol de Paros". Siendo estos citados héroes los últimos reyes que cita Platón como líderes o protagnistas de la guerra entre Atenas y Atlantis, o lo que es lo mismo, entre Poseidon y Atenea, debería entonces situarse el final de la misma en torno al 1506 adC Según parece esta guerra es la misma lucha que las fuentes mitológicas describen -de manera más simbólica- como lucha, disputa, o contienda entre Poseidon y Atenea por las tierras del Ática y otras islas, como Egina, y que ocurre igualmente en los mismos tiempos, y con los mismos personajes citados por Platón en el Critias como protagonistas. Según Platón, la isla-península Atlántida estaba situada ante los Pilares de Hércules (nombre antiguo del Estrecho de Gibraltar). En sus diálogos del Timeo y el Critias, se expone una historia narrada por Critias, "el Menor" (360 adC), quien describe los orígenes y la forma de la Atlántida a Sócrates y sus invitados. El diálogo del Critias aporta una breve historia de las antiguas civilizaciones, mencionando brevemente la Atlántida y sus relaciones exteriores. A Critias le llega la historia a través del legislador ateniense Solón, quien a su vez recibió el relato de parte de dos sacerdotes egipcios: Sonkhis, de Sais y Psenophis, de Heliópolis, ambas ciudades del antiguo(Egipto), según nos informa Plutarco. Según Critias, los antiguos dioses griegos dividieron la tierra de tal forma que cada dios pudiera tener una parte, eligiendo Poseidón la Atlántida. "Era una isla mayor en extensión que Libia y Asia, y que después del hundimiento por un terremoto, se convirtió una barrera infranqueable de fango, que por lo tanto, impidió que los viajeros navegaran a cualquier parte del océano. (109)". Según los egipcios, se trataba de una isla de unos 3000 por 2000 estadios, que son aproximadamente 600 por 400 km , compuesta principalmente de montañas al norte y en la costa, con una gran llanura de forma oblonga en el sur. A 50 estadios (unidad de medida griega) desde el centro de la costa sur había una montaña no muy alta donde vivía una mujer de la que Poseidón se enamoró, "Él también tuvo y crió cinco pares de niños gemelos masculinos; y dividiendo la isla de Atlántida en diez porciones, (114) le dio al primer nacido del par de mellizos mayores la morada de su madre y le asignó todo lo circundante, que era lo más grande y mejor, y lo hizo rey sobre el resto; a los otros los hizo príncipes, y les dio autoridad sobre muchos hombres, y de un territorio grande. Y él les dio nombre a todos; al mayor, que era el primer rey, lo nombró a Atlas, y en honor a él la isla entera y el océano fueron llamados Atlántico. Su hermano gemelo, quien nació después de él, obtuvo como su porción la extremidad de la isla hacia las columnas de Hércules, de cara a la que ahora se llama región de Gades en aquella parte mundo, su nombre en lenguaje helénico es Eumelo, en lenguaje de su país es Gadeiro, nombrado en honor a él. Del segundo par de gemelos él llamó a uno Amferes, y al otro Eudemón. Al mayor del tercer par de gemelos él dio el nombre conocido de Mneseo, y Autoctón a quién lo siguió. Del cuarto par de gemelos él llamó Elasippo al mayor, y Mestor al más joven. Y del quinto par de mellizos, él dio al mayor el nombre de Azaes, y al más joven de ellos Diaprepes. Todo ellos y sus descendientes por muchas generaciones fueron los habitantes y gobernadores de diversas islas en el mar abierto; y también, como se ha dicho ya, influyeron en nuestra dirección por todo el país dentro de las columnas tan lejos como Egipto y Tirrenia. — Critias" Poseidón horadó la montaña donde vivía su amada hasta convertirla en un palacio, rodeado por tres fosos circulares concéntricos, separados por anillos de tierra. Los atlantes construyeron luego puentes al norte de la montaña, creando un camino para comunicarse con el resto de la isla. Cavaron un gran canal hacia el mar, cavaron túneles en los anillos de roca a lo largo de los puentes para que los barcos pudieran entrar en la ciudad en torno a la montaña, y cavaron sus muelles en las paredes de roca de los fosos. Cada viaje hacia la ciudad era vigilado desde puertas y torres, y cada anillo estaba rodeado por un muro. Los muros estaban hechos de roca roja, blanca y negra sacada de los fosos, y recubiertos de latón, estaño y oricalco. Según se expone en el encabezamiento de la historia -en el diálogo de Critias o Atlántico- habían transcurrido unos 9000 -desde la fundación u origen de Atenas- cuando entonces se inició una guerra entre los que vivían sobre los Pilares de Hércules (Atlántico) y los del interior (el Mediterráneo), hecho que ocurre, según se afirma en el mismo Critias (110a y 110b), en los tiempos de los reyes atenienses Cécrope (II), Erecteo, Erisictón o Eresictón y Erictonio, y antes de los tiempos de Teseo, o sea, aproximadamente entre el 1.582 y el 1.259 adC. Los atlantes habían conquistado el Mediterráneo hasta llegar a Egipto (por la parte de África) y a la Tirrenia o península itálica y Asia o Anatolia (por el lado de Europa). Los atenienses crearon una alianza de resistencia frente al imperio atlante; tras desintegrarse la alianza, continuaron solos, logrando liberar las tierras ocupadas. Tras la victoria griega, unos terremotos de «gran intensidad» y una gran «inundación» —posiblemente un tsunami— hicieron que su ciudad principal o isla-acrópolis desapareciera bajo el mar. En cuanto al final catastrófico de Atlantis, este pudo ocurrir después de finalizada la guerra, pues aunque Platón no precisa la fecha exacta, afirma -a través de Critias- que la guerra aconteció antes de Teseo, es decir, antes del 1259 adC Siendo un poco más precisos, se podría entonces establecer la fecha de la catástrofe sísmico-tsunámica que terminó con el centro neurálgico del poder Atlántico en algún momento entre el 1500 y el 1300 adC En este mismo período se produjeron al menos dos grandes fenómenos sísmico-tsunámicos en el área del estrecho de Gibraltar y Golfo de Cádiz, con una potencia tan destructiva o más que el célebre tsunami de Lisboa de 1755, según se ha conseguido determinar por los más recientes estudios de geología y sismología marina. Respecto a la historia narrada, el mismo Platón usa la expresión griega «Alêthinon Logon», que en aquellos tiempos se usaba para denominar a una «Historia Verdadera», y que como tal es traducida en todas las versiones latinas de dichos diálogos, o sea, "veram historiam", en contraposición al Mithos (mito) o cuento fabulado. Aunque se ha sostendo hasta la fecha que para su discípulo Aristóteles se trataba de una utopía alegórica, en realidad esto no es más que una falacia impuesta por tradición y de manera irresponsable por los escépticos y antiatlantistas, ya que Aristóteles jamás emitió ni un solo comentario sobre la Atlántida como ha sido demostrado recientemente (La Atlántida y Aristóteles. "El que la soñó la hizo desaparecer". Historia de una falacia histórica.). En cualquier caso, aún si llegara a demostrarse algún día que Aristóteles negó la veracidad histórica de la Atlántida, la lista de discípulos directos e indirectos de la Academia fundada por Platón —que duró casi 900 años— que creyó que la historia era justamente verdadera, o sea, una «Alêthinon Logon» y no un «Mithos» o fábula ficticia, alcanza la mayoría. Teorías sobre la Atlántida La mayoría de las teorías que defendían a la Atlántida como el "continente perdido" fueron invalidadas por la comprobación del fenómeno de la deriva continental durante los años 1950. Por ello, algunas de las teorías modernas proponen que algunos de los elementos de la historia de Platón se derivan de mitos anteriores, o se refieren a lugares ya conocidos. En julio de 2005 se celebró en la isla griega de Milos el primer congreso de «Hipótesis sobre la Atlántida», donde la mayoría de los participantes manifestaron su convicción sobre la base histórico-geográfica de la historia de la Atlántida reflejada en los Diálogos de Platón. Se ha convocado un segundo encuentro para 2007. Existen numerosas teorías en cuanto a la posible ubicación de la mítica Atlántida. Estas se pueden dividir en varios grupos: # Según se ha mencionado en algunos libros; es posible que se hallara en la ubicación actual del Mar Mediterráneo. Se habría desarrollado durante la ultima era glaciar y ocuparía desde el estrecho de Gibraltar (que estaría unido por una especie de cordillera con la costa africana) hasta Oriente Próximo. Habría desaparecido debido al deshielo (ya que debido a la fuerza del agua la cordillera de Gibraltar habría caído) y los supervivientes se dispersaron por todos los territorios fronterizos (Europa, África y especialmente Asia). La mayor parte de los supervivientes habría ido a parar a la region de Palestina y habría fundado el reino de Israel; lo que da explicación a los fenómenos "supuestamente religiosos" relacionados con el Arca de la Alianza y otros sucesos.[cita requerida] # Según Ignatius Donnelly (en Atlantis: the Antediluvian World, 1882), el relato de Platón sería realmente cierto, y las demás civilizaciones antiguas descenderían de la atlante. # Según varios estudiosos de mediados y finales del siglo XIX (como Charles Etienne Brasseur de Bourbourg, Edward Herbert Thompson o Augustus Le Plongeon), la Atlántida estaría relacionada con las culturas maya y azteca. Muchos de los partidarios de esta teoría se retractaron posteriormente. # Según la mística Helena Blavatsky, los atlantes serían héroes culturales y serían la cuarta "raza original", a la que sucedería la "raza aria". Así, combinaba la Atlántida con otros mitos de continentes perdidos como Mu y Lemuria. # El psíquico Edgar Cayce dio una ubicación exacta, describiendo la Atlántida como una antigua civilización altamente evolucionada ahora sumergida, dotada de barcos y aviación alimentados por un misterioso tipo de cristal energético. # Heinrich Himmler organizó una expedición al Tíbet en 1938 con el fin de encontrar a los descendientes de los atlantes blancos. # Según Julius Evola (en Revolt Against the Modern World, 1934), los atlantes eran hiperbóreos, superhombres nórdicos originarios del polo norte. # Según Alfred Rosenberg (en The Myth of the Twentieth Century, 1930) habría una raza maestra "nórdico-atlante" o "aria-nórdica". # Aleister Crowley escribió una historia esotérica de la Atlántida, aunque posiblemente se trate de una mera metáfora. # Según algunos nacionalistas británicos, la Atlántida estaría en las Islas Británicas. # Para los primeros socialistas, la Atlántida de Platón sería un primer intento de construir una sociedad socialista; esto hizo que la Atlántida se convirtiera en un símbolo del socialismo. # Según Jacques Cousteau (continuando el trabajo del arqueólogo griego Galanopoulos), la Atlántida sería la civilización minoica (o cretense). Según los geólogos, esta civilización fue destruida tras la erupción de un volcán en Santorini alrededor de 1640 adC, que causó un enorme tsunami que barrió la cercana isla de Creta. # Según el historiador y novelista Robert Graves se habría encontrado en una zona hundida cerca de la antigua Cartago (actual Túnez). # Según el investigador aficionado Georgeos Díaz-Montexano, estaría junto al Estrecho de Gibraltar, siendo un imperio Ibero-Mauretano. En su teoría defiende las afirmaciones vertidas por el propio Platón en sus relatos del Timeo y el Critias sobre la isla o península (en griego Nêsos) Atlántica o de la Atlántida, la cual se hallaba "ante la boca" (en griego pro tou stomatós) de las Columnas de Hércules (Gibraltar), y que tenía una región denominada Gadeira (Gades, Cádiz) y una isla-acrópolis que desapareció bajo el mar en la misma área. # En esta misma línea otros autores afirman que teniendo en cuenta que Herodoto describe a Europa como igual de extensa que Asia y Libia juntas, la Atlántida podría responder a toda la vertiente atlántica del continente europea y alguna civilización del extremo occidente (cultura megalítica, vaso campaniforme, bronce atlántico...) y que su gigantesco tamaño podría corresponder al empleo de ese lugar común establecido por Herodoto y respetado por Platón. # Según propone el alemán Werner Wickboldt y divulga por Rainer W. Kühne, estaría en el Coto de Doñana, cerca del Estrecho de Gibraltar, concretamente en la llamada marisma de Hinojos, también conocida como "marisma gallega". En realidad esta hipótesis de ubicar la capital o acrópolis de la Atlántida en las "Marismas de Hinojos" ya fue planteada y defendida -por primera vez- por dos autores españoles: José Pellicer de Ossau I Tovar en 1673 y Juan Fernández Amador y de los Ríos en 1919; después, por los autores alemanes Adolf Schülten en 1922, y más adelante por Otto Jessen y Richard Hennig en los años de la segunda y tercera década del pasado siglo XX, aunque estos últimos en realidad nunca precisaron un punto tan concreto como el centro de las propias "Marismas de Hinojos". Las imágenes de satélite del área muestran dos posibles estructuras rectangulares y un par de posibles formas circulares concéntricas que han sido interpretadas por Werner Wickboldt como restos del "templo de Poseidón" y el "templo de Cleito y Poseidón". Sin embargo, los estudios arqueológicos y geológicos hechos "en situ", en el campo (hace ya más de dos décadas), han demostrado que no existe ninguna construcción con aquellas características en aquel lugar. No es más que una mera ilusión óptica originada por las sombras y restos de paleocanales naturales de ríos y viejas corrientes, en una foto de satélite demasiado alejada y con poca resolución. Toda el área ha sido solamente tierra desde la Edad Medieval, aproximadamente desde el siglo IX. Esta zona era un Golfo o Bahía que ya existía desde hacía más de 6000 años, hasta que en torno a la época romana tardía comenzó a colmatarse, poco a poco, llenándose de sedimentos gradualmente hasta alcanzar en los últimos 2000 años la naturaleza de marismas que actualmente presenta (ver ilustraciones paleogeográficas Según Jorge María Ribero-Meneses, estaría en el norte de España. Jaime Manuschevich, chileno, plantea en su libro "La Atlántida, el mito descifrado" (2002) que el lugar real de la civilización mítica es el territorio norte del Gran Valle del Rift o la antigua Canaán, que hoy corresponde a Israel y el Sinaí, que fue una isla hasta el 5600 (Ryan y Pitman) antes de Cristo, rodeada por el valle de Jeezrael por el norte, por el Mar Muerto y el Mar Rojo por el este y el Golfo de Suez por el oeste, hasta aquella fecha # Según J. M. Allen, estaría en el Océano Pacífico o en el Altiplano boliviano. * Correspondería a la las ruinas de Tiahuanaco. # En algún lugar del Océano Atlántico: América Central, Cuba, las Azores. # Según Arisio Núñez, estaría en algún lugar del Océano Índico, como Indonesia. # Según Jürgen Spanuth, estaría en algún lugar de los países nórdicos, como Dinamarca. # Según Peter James, estaría en una antigua ciudad de Anatolia. # Podría corresponder a alguna de las islas del mar Mediterráneo: Creta, Santorini, Chipre, Cerdeña, etcétera. # Según Paulino Zamarro, la Atlántida estaría en el mar Egeo en torno a las islas Cícladas y se habría hundido por una supuesta avalancha marina proveniente de la ruptura de un supuesto istmo que pudo existir en el mismo estrecho de Gibraltar hace unos 7.500 años. # En algún lugar de la Polinesia, o de Japón, o de Hungría. # Según Charles Hapgood en obras como "The Earth's Shifting Crust" (prologada por Albert Einstein) o "The Maps of the Ancient Sea Kings" se encontraría en la Antártida. # Según Michael Tsarion, la Atlántida sería la base desde la que una raza extraterrestre dirigió la hibridación terrestre-alienígena de la que desciende la humanidad actual. espero sea de su agrado FUENTE se que ya fue posteado, pero lo que postearon nteriormente no es pura y exclusivamente solo de la atlantida, es por eso que yo le dedique este post solo a ella.