Libe_rt
Usuario (Argentina)

Hola Amigos de T! hoy les traigo un par de videos que dan risa link: http://www.youtube.com/watch?v=ldpG6mABIC8 (En este vídeo podemos ver como un buen rato de risas y carcajadas se puede volver en 1 segundo en una tragedia) link: http://www.youtube.com/watch?v=MdqnV3YJMJo No se que tan FAKE será (debe serlo, no creo que sean tan mala leche los flacos) pero bueno... ya sabés, fijate antes de hacerle una joda a alguien, porque de un momento divertido podes pasar a un momento bastante jodido
Pagina de facebook: http://www.facebook.com/pages/todos-contra-justin-bieber/105157776188556 Últimamente los movimientos de fans independientemente del cantante o grupo que se trate están en pie de guerra. En esta ocasión es de nuevo el ídolo musical Justin Bieber quien está sufriendo las consecuencias de ello y últimamente sus detractores están creciendo como la hierba. En esta ocasión tiene a un grueso muy fuerte en su contra, los heavys y metaleros que han ideado todo un complot contra el joven canadiense en Youtube. Allí es donde últimamente se realizan las ‘guerras’ entre fanáticos. Primeramente los amantes de la música metal, han boicoteado el video de ‘Baby’ ellos aseguran (como otros tantos) que la incursión en el mundo de la música del joven no ha sido muy acertado así como su ejercito de fanáticas que se deben pasar el día viendo el video en la red musical para subir en visitas. Con el lema “Salvemos al mundo de Justin Bieber” desde el día 1 los amantes del metal quieren hacer desaparecer dicho video de Youtube, para ello elaboraron un grito de guerra que dice así: “Copiad y pegad este comentario en todo lo que sea buena música. Desde Metallica hasta Dio, pasando por AC/DC, Led Zeppelin, The Beatles, The Rolling Stones, Iron Maiden, Jimi Hendrix, Guns n’ Roses, etc” (sic). “Recordad darle a “no me gusta”, poner un comentario negativo y flaggearlo como inadecuado”. Dice el mensaje que ha sido enviado a través de la red. Evidentemente la campaña ha sido todo un éxito. Aunque la última hazaña de estos seguidores ha ido más lejos han colgado un nuevo video con el siguiente título: “Es hora de volver a usar la guillotina” o “Le cambiará la voz y entonces fracasará”. Y han subido un video con la versión de Baby al más puro estilo death metal. CHOCA CONTRA UNA PUERTA GIRATORIA DE CRISTAL Justin Bieber ha sufrido un pequeño accidente. El cantante se disponía a salir de su hotel por una puerta giratoria de cristal, y ha chocado de frente contra una de las mamparas. Por suerte, no ha habido mayores consecuencias que un dolor de cabeza, y el propio Justin se ha acercado a los fotógrafos que lo han presenciado para bromear sobre lo ocurrido. El cantante de Baby va a lucir probablemente un chichón sobre su frente durante los próximos días. Al salir por la puerta giratoria de un hotel no se ha dado cuenta de que había un cristal delante de él y se ha dado un sonoro golpe en la cabeza al intentar atravesarlo. Las consecuencias no han ido más allá del susto y el posible chichón, y los que le acompañaban ni siquiera se han inmutado ante sus gestos de dolor. De hecho, a los pocos minutos de lo ocurrido Justin ya estaba haciendo bromas con los fotógrafos sobre su despiste. "No sé si lo habéis visto, pero me acabo de chocar contra esa puerta. Me duele la frente. Pensé que se abriría, pero obviamente no lo hizo y me estampé contra el cristal. Paz", les ha comentado el cantante. Aunque hace escasos días de lo ocurrido, ya hay unos veinte vídeos en Youtube mostrando la escena, y miles de comentarios que buscan ridiculizar a Justin por lo ocurrido. Aparte de insultarle y meterse con él, los internautas se han burlado especialmente de su forma de dirigirse a los fotógrafos, con un "Hey, ¿qué pasa?" más propio del Bronx que de un adolescente de aspecto inocente. link: http://www.youtube.com/watch?v=3kJjeRpPtY0 Y PARA LAS FANS DE JUSTIN SE CONFIESA DE QUE ES GAY link: http://www.youtube.com/watch?v=ToGse9H6TuI

Jejejejee todavia me estoy riendo 1 año de tremendo choque de moto y el clasico del DJ Candela Este es el video en el Hospital R. Eduardo Wilde link: http://www.youtube.com/watch?v=hfGZ4jYWyH0 Comercil Trio Speedy link: http://www.youtube.com/watch?v=QHkkwzp-gRc&feature=related
Hola gente de T! hoy estuve inspirado para hacer un Super post de imágenes graciosas Gracias a dios termine este post, si les gusto agréguenlo a favoritos quiero que sea top

La nanotecnología, es un a nueva ciencia que esta emprendiendo su camino, desde el descubrimiento de los fullerenos, partículas a escalas manométricas conformadas por átomos de carbono, hasta novedosas maquinas que podrán ser la salvación de la humanidad en un futuro no tan lejano. Ya que podrán ser implantadas en nuestro cuerpo sin ninguna dificultad. INTRODUCCIÓN La nanotecnología, nació como ciencia hace muy poco tiempo. Uno de los más importantes descubrimientos para la humanidad, una nueva forma de ver las cosas. Ya que de ello trata, de ver de una distinta manera las cosas que no vemos y que participaran de manera continua en el desarrollo de nuestra vida. La nanotecnología nace con el fin de ayudar a la humanidad para su mejor desarrollo. Es así que este trabajo esta dedicado a una explicación de la nueva ciencia y de que es lo que deberíamos saber sobre ella, para poder afrontar todo una nueva era, la era de la nanotecnología. Para ello también se presentara una breve reseña de cómo nace, para posteriormente tocar los temas que son necesarios desarrollar para nuestro objetivo, saber a que nos enfrentamos y saber como esta nueva ciencia nos va ayudar en nuestra vida. I NANOTECNOLOGÍA 1.1. CONCEPTO La nanotecnología es el estudio, diseño, creación, síntesis, manipulación y aplicación de materiales, aparatos y sistemas funcionales a través del control de la materia a nano escala, y la explotación de fenómenos y propiedades de la materia a nano escala. Cuando se manipula la materia a la escala tan minúscula de átomos y moléculas, demuestra fenómenos y propiedades totalmente nuevas. Por lo tanto, científicos utilizan la nanotecnología para crear materiales, aparatos y sistemas novedosos y poco costosos con propiedades únicas La nanotecnología tiene tres objetivos fundamentales, los cuales son: 1. Colocar cada átomo en el lugar adecuado. 2. Conseguir que casi cualquier estructura sea consistente con las leyes de la física y la química que podemos especificar y describir a nivel atómico. 3. Lograr que los costes de fabricación no excedan, ampliamente, el coste de las materias primeras y la energía empleadas en el proceso. 1.2. HISTORIA Los años 40: Von Neuman estudia la posibilidad de crear sistemas que se auto-reproducen como una forma de reducir costes. 1959: Richard Feynmann habla por primera vez en una conferencia sobre el futuro de la investigación científica: "A mi modo de ver, los principios de la Física no se pronuncian en contra de la posibilidad de maniobrar las cosas átomo por átomo". 1966: Se realiza la película "Viaje alucinante" que cuenta la travesía de unos científicos a través del cuerpo humano. Los científicos reducen su tamaño al de una partícula y se introducen en el interior del cuerpo de un investigador para destrozar el tumor que le está matando. Por primera ve en la historia, se considera esto como una verdadera posibilidad científica. La película es un gran éxito. 1982 Gerd Binning y Heinrich Rohrer, descubrieron el Microscopio de Efecto Túnel (Premio Nobel 1986). 1985: Se descubren los buckminsterfullerenes 1989: Se realiza la película "Cariño he encogido a los niños", una película que cuenta la historia de un científico que inventa una máquina que puede reducir el tamaño de las cosas utilizando láser. 1.3. NANO Una milésima parte de un millón II QUÍMICA DEL CARBONO 2.1 CONCEPTO El carbono está ampliamente distribuido en la naturaleza pese a no ser un elemento especialmente abundante. En la corteza terrestre es el duodécimo elemento en orden de abundancia, siendo la misma la milésima parte de la de oxígeno y sólo vez y media mayor que la del manganeso. Sólo se conocen unas cincuenta mil sustancias en cuya composición no interviene el carbono, y pasan de 2 millones el número de compuestos de carbono conocidos. Al final del siglo XVII, los científicos dividían las sustancias naturales en tres grupos según su origen: sustancias vegetales, sustancias animales y sustancias minerales. Al final del siglo XVIII y gracias a los trabajos de Lavoisier, se llegó a la conclusión de que no existían diferencias en cuanto a la naturaleza de sustancias animales y vegetales. A partir de entonces se clasificaron las sustancias en dos grupos: las producidas por seres vivos u orgánicas, y las que no procedían de seres vivos o inorgánicas. A principios del siglo XIX, Berzelius aún creía en la existencia de una razón básica que fuese responsable de las marcadas diferencias que se encontraban entre los compuestos orgánicos y los inorgánicos. La causa de las diferencias se achacaba a la vis vitalis (fuerza vital), de misteriosa naturaleza y que sólo actuaba en los seres vivos, por lo que los compuestos orgánicos no podrían nunca prepararse artificialmente. La derrota de la teoría de la vis vitalis se atribuye a Friedrich Wöhler, quien en 1828 sintetizó urea (sustancia que se encuentra en la orina de los animales, siendo el principal producto nitrogenado del metabolismo de las proteínas). La síntesis tuvo lugar, sin intervención de organismos vivos, según: SO4(NH4)2 + (CNO)2Pb SO4Pb + 2CNONH4 (H2N)2CO (Urea) La síntesis efectuada por Kolbe en 1845 (síntesis del ácido acético) y la de Berthelot (síntesis del metano), así como otras que les siguieron, corroboraron las conclusiones de Wöhler, determinando el definitivo y total rechazo de la teoría de la fuerza vital. Poco a poco fue diluyéndose en la mente de los científicos la barrera entre Química Orgánica y Química Inorgánica. Sin embargo, se conservaron estos términos debido a que: Todos los compuestos considerados como orgánicos contienen carbono. Los compuestos de carbono son mucho más numerosos que los compuestos conocidos del resto de los elementos. Los compuestos con un esqueleto carbonado no parecen ajustarse a las reglas de valencia a que se ajustan los compuestos minerales. Los compuestos orgánicos presentan propiedades generales muy distintas de las que presentan los compuestos minerales. Así, los compuestos orgánicos se descomponen con facilidad por la acción del calor, son combustibles en su gran mayoría, tienen puntos de fusión y ebullición bajos, de ordinario reaccionan con lentitud, etc. Propiedades atómicas Masa atómica [12,0107 uma] Radio medio† [70 pm] Radio atómico calculado [67 pm] Radio covalente [77 pm] Radio de Van der Waals [170 pm] Configuración electrónica [2s22p2] Estados de oxidación (óxido) [4, 2 (levemente ácido)] Estructura cristalina [Cúbica o hexagonal (diamante); hexagonal o romboédrica (grafito)] 2.2 FORMAS ALOTRÓPICAS Todos los materiales de carbón están compuestos de átomos de carbono. Sin embargo, dependiendo de la organización que presenten estos átomos de carbono, los materiales de carbón pueden ser muy diferentes unos de otros. Las estructuras a las que dan lugar las diversas combinaciones de átomos de carbono pueden llegar a ser muy numerosas. En consecuencia, existen una gran variedad materiales de carbón. Para intentar explicar las diferentes estructuras de los carbones conviene empezar a una escala atómica. Así, los átomos de carbono poseen una estructura electrónica 1s2 2s2 2p2 , lo que permite que los orbitales atómicos de los átomos de carbono puedan presentar hibridaciones del tipo: sp, sp2 y sp3. Cuando se combinan átomos de carbono con hibridación sp dan lugar a cadenas de átomos, en las que cada átomo de carbono está unido a otro átomo de carbono por un enlace tripe y a un segundo átomo de carbono por un enlace sencillo. Cuando se combinan átomos de carbono con hibridación sp2, cada átomo de carbono se une a otros 3 en una estructura plana que da lugar a la forma alotrópica del grafito. Los átomos de carbono forman un sistema de anillos condensados que dan lugar a láminas paralelas entre si. Los enlaces químicos de las láminas son covalentes entre orbitales híbridos sp2, mientras que los enlaces entre las láminas son por fuerzas de Van der Waals. Dependiendo del apilamiento de las láminas existen dos formas alotrópicas diferentes: el grafito hexagonal, que es la forma termodinámicamente estable en la que la secuencia de apilamiento de las láminas es ABAB; y el grafito romboédrico, que es una forma termodinámicamente inestable, y mucho menos abundante, con una secuencia de apilamiento ABCABC. Estructuras del grafito hexagonal (ABAB) y del grafito romboédrico(ABCA) Hibridación sp3, forma alotrópica del diamante. El diamante cúbico es la estructura más habitual de esta forma alotrópica. Sin embargo, bajo ciertas condiciones el carbono cristaliza como diamante hexagonal o lonsdaleita (llamada así en honor a Kathleen Lonsdale), una forma similar al diamante pero hexagonal. Esta forma inusual del diamante se encontró por primera vez en 1967 en forma de cristales microscópicos, asociados al diamante, en restos del meteorito del Cañón del Diablo en Arizona. Con posterioridad también se ha identificado esta forma de diamante en otros meteoritos. Se cree que se forma cuando en el momento del impacto de meteoritos que contienen grafito contra la Tierra, de forma que el calor y energía del impacto transforman el grafito en diamante manteniendo en parte de la estructura hexagonal del grafito. Una forma alotrópica del carbono en la cual los átomos de carbono presentan una hibridación intermedia entre la sp2 y la sp3 es el fullereno. Este tipo de hibridación hace posible que los átomos de carbono puedan combinarse formando hexágonos y pentágonos en estructuras tridimensionales cerradas. El fullereno más común es el C60 (de 60 átomos de carbono) y es similar a un balón de fútbol, aunque también se han descrito otros fullerenos: C76,...C100, etc. Los nanotubos de carbono prestan también estas hibridaciones intermedias y pueden considerarse como láminas de grafito enrolladas en forma de tubos. Los nanotubos pueden ser abiertos o cerrados, en cuyo caso la estructura que cierra el nanotubo es similar a la mitad de un fullereno. Los nanotubos también pueden ser monocapa (de una sola capa) o multicapa (varias capas concéntricas). Diversas estructuras de nanotubos de carbono Carbones y sus diferentes estructuras microscópicas III QUÍMICA DEL SILICIO 3.1 ESTRUCTURA QUÍMICA Es un elemento semimetálico, el segundo elemento más común en la Tierra después del oxígeno. Su número atómico es 14 y pertenece al grupo 14 (o IVA) de la tabla periódica. Fue aislado por primera vez de sus compuestos en 1823 por el químico sueco Jöns Jakob barón de Berzelius. Propiedades y estado natural Se prepara en forma de polvo amorfo amarillo pardo o de cristales negros-grisáceos. Se obtiene calentando sílice, o dióxido de silicio (SiO2), con un agente reductor, como carbono o magnesio, en un horno eléctrico. El silicio cristalino tiene una dureza de 7, suficiente para rayar al vidrio, de dureza de 5 a 7. El silicio tiene un punto de fusión de 1.410 °C, un punto de ebullición de 2.355 °C y una densidad relativa de 2,33. Su masa atómica es 28,086. El silicio se disuelve en ácido fluorhídrico formando el gas tetrafluoruro de silicio, SiF4 (véase Flúor), y es atacado por los ácidos nítrico, clorhídrico y sulfúrico, aunque el dióxido de silicio formado inhibe la reacción. También se disuelve en hidróxido de sodio, formando silicato de sodio y gas hidrógeno. A temperaturas ordinarias el silicio es insensible al aire, pero a temperaturas elevadas reacciona con el oxígeno formando una capa de sílice que ya no reacciona más. A altas temperaturas reacciona también con nitrógeno y cloro formando nitruro de silicio y cloruro de silicio respectivamente. El silicio constituye un 28% de la corteza terrestre. No existe en estado libre elemental, sino que se encuentra en forma de dióxido de silicio y de silicatos complejos. Los minerales que contienen silicio constituyen cerca del 40% de todos los minerales comunes, incluyendo más del 90% de los minerales que forman rocas volcánicas. El mineral cuarzo, las variedades del cuarzo (cornalina, crisoprasa, ónice, pedernal y jaspe) y los minerales cristobalita y tridimita son las formas cristalinas del silicio existentes en la naturaleza. El dióxido de silicio es el componente principal de la arena. Los silicatos (en concreto los de aluminio, calcio y magnesio) son los componentes principales de las arcillas, el suelo y las rocas, en forma de feldespatos, anfiboles, piroxenos, micas y ceolitas, y de piedras semipreciosas como el olivino, granate, zircón, topacio y turmalina 3.2 SILICIO EN LA MEMORIA En 1959, Richard Feynman predijo que todas las palabras escritas en la historia del mundo podrían ser contenidas en un cubo de material cuyo lado fuera una 2/100 parte de una pulgada, siempre y cuando dichas palabras estuviesen escritas con átomos. Poco más de 40 años después, científicos de la University of Wisconsin-Madison han creado una memoria a escala atómica utilizando átomos de silicio en vez de los 1s y 0s empleados por los ordenadores de hoy en día para almacenar datos. Se trata de un paso corto pero crucial hacia una memoria a escala atómica práctica, donde los átomos representarán los bits de información que a su vez forman las palabras, imágenes y códigos leídos por los ordenadores. El trabajo, encabezado por Franz Himpsel, es muy interesante. Aunque la memoria creada por él y sus colegas se encuentra en dos dimensiones, a diferencia del cubo pronosticado por Feynman, proporciona una densidad de almacenamiento un millón de veces mayor que la de un CD-ROM. El átomo representa, de momento, el "muro" infranqueable de la miniaturización tecnológica. Parece un límite natural. Aunque divisible, es una unidad fundamental de la naturaleza. Son las partículas más pequeñas de un elemento químico: un único grano de arena, por ejemplo, puede contener 10 billones de átomos. La nueva memoria fue construida sobre una superficie de silicio que automáticamente forma surcos dentro de los cuales se alinean filas de átomos de silicio, descansando como pelotas de tenis en un canalón. Utilizando un microscopio STM (scanning tunneling microscope), los científicos levantaron átomos individuales de silicio con su punta, creando espacios que representan los 0s del almacenamiento de datos, mientras que los átomos que permanecen en su lugar representan los 1s. Como la memoria convencional, el dispositivo a escala atómica puede ser inicializado, formateado, escrito y leído a temperatura ambiental. Para su fabricación no se empleó litografía sino que se evaporó oro sobre una pastilla de silicio, proporcionando una estructura de pistas (surcos) muy precisa. Evaporando después silicio sobre la oblea tratada, se pueden difundir los átomos a lo largo de la estructura, donde se alinearán y permanecerán dentro de las pistas como los huevos en una huevera. Los átomos de silicio representarán los bits de información. La alineación es tan precisa que permite su manipulación y extracción con el STM sin perturbar a los átomos que no deben tocarse (de lo contrario podrían formarse enlaces indeseados). La tecnología requerirá aún años, sino décadas, para alcanzar el punto de madurez necesario para su uso práctico. Las manipulaciones con el STM en una situación de vacío son impedimentos que deberán resolverse. La densidad de memoria alcanzada es comparable a la elegida por la naturaleza cuando almacena información en las moléculas de ADN. La memoria de silicio a escala atómica usa 20 átomos para almacenar un bit de datos. El ADN utiliza 23 átomos. IV TIPOS DE NANOTECNOLOGÍA 4. 1 Nanotecnología Húmeda Esta tecnología se basa en sistemas biológicos que existen en un entorno acuoso incluyendo material genético, membranas, encimas y otros componentes celulares. También se basan en organismos vivientes cuyas formas, funciones y evolución, son gobernados por las interacciones de estructuras de escalas nanométricas. 4. 2 Nanotecnología Seca Es la tecnología que se dedica a la fabricación de estructuras en carbón, Silicio, materiales inorgánicos, metales y semiconductores. También está presente en la electrónica, magnetismo y dispositivos ópticos. Auto ensamblaje controlado por computadora. Es también confundida con la microminiaturización. 4.2 Nanotecnología Seca y Humeda Las ultimas propuestas tienden a usar una combinación de la nanotecnología húmeda y la nanotecnología seca Una cadena de ADN se programa para forzar moléculas en áreas muy específicas dejando que uniones covalentes se formen sólo en áreas muy específicas. Las formas resultantes se pueden manipulas para permitir el control posicional y la fabricación de nanoestructuras. 4.3 Nanotecnología computacional Con esta rama se puede trabajar en el modelado y simulación de estructuras complejas de escala nanométrica. Se puede manipular átomos utilizando los nanomanipuladores controlados por computadoras. V NANODIAMANTES El diamante, el material natural más duro y resistente, se espera que con el uso de la nanotecnología amplíe y mejore sus aplicaciones. Así los nanodiamantes podrían conducir a la detención de contaminantes bacterianos en agua y alimentos; y a producir nanodispositivos electrónicos, que como en el caso de los nanotubos del carbón que están siendo desarrollandos y estudiados, presenten mayores ventajas que los actuales en silicio. Es decir, será posible hacer diamantes o las películas de diamante en diferentes formas y tamaños, asi como también mejorar su costo. La nanotecnología ha permitido sintetizar películas de nanodiamantes con las características físicas, químicas y biológicas mejoradas para ser aplicado en áreas tecnológicas muy diferentes.9-12 Estos nanodiamantes crecidos en diversos substratos tienen una capacidad particular para el estudio electroquímico ofreciendo alta sensibilidad, buena precisión y alta estabilidad en comparación con otros materiales como el carbón vítreo y el platino. Además de las características naturales del diamante, tales como alta conductividad térmica, alta dureza e inercia química también presenta un amplio intervalo de potencial electroquímico en medios acuosos y no acuosos, capacitancia muy baja y estabilidad electroquímica extrema. Por otra parte, se desarrollan nuevas superficies que permiten el fijar compuestos como proteínas o moléculas más simples que permitirán obtener mayor afinidad a líquidos específicos para su estudio mejorando las propiedades biológicas de dichos materiales. Mientras que todas estas características promueven nuevas aplicaciones en campos como el electroanálisis, otras incluyen el uso de estas películas en la fabricación de los revestimientos duros que poseen coeficiente friccional bajo y características excelentes de desgaste,13 dispositivos emisores de electrones11 y cubiertas resistentes a altos impactos.14, 15 La nanocristalinidad de estas películas es el resultado de un nuevo tipo de crecimiento y mecanismos de nucleación, dando por resultado un nivel de nucleación alrededor de 1,010 cm-2s-1; gracias al uso de diversas técnicas de deposición, por ejemplo, del plasma asistido por microondas, descarga a baja presión, plasma inducido por laser, filamento caliente y otras técnicas.6 Típicamente, la mezcla gaseosa usada para la sintésis del diamante microcristalino o nanocristalinos es formada de hidrógeno y metano.1, 2 Sin embargo, en el logro de nano-películas, se han utilizado otras composiciones formadas de argón, hidrógeno y metano16, 17 o de helio, hidrógeno y metano;9, 10 obteniendo nanodiamantes con características específicas y con nuevas propiedades; como una mayor conductividad eléctrica, conductividad térmica y mayor área superficial potencialmente utilizable. Algunos ejemplos de nanodiamantes pueden ser observados en las figuras 1, 2, 3 y 4; que son fotos Fig. 1. A) Foto de un soporte carbonoso realizada mediante microscopía electrónica de barrido (conocido por sus siglas en inglés, SEM. Fig. 2. B) Foto del soporte de carbono con un depósito de nanodiamantes realizada mediante Microscopía electrónica de barrido. El depósito de nanodiamantes se realizó con un nivel de drogado en boro de 1018 partes por cm-3. Reimpreso de Diamond & Related Materials 14 (2005) 1673 – 1677, con permiso de Elsevier.18 VI NANOTUBOS DE CARBÓN 6.1 Definición Los nanotubos de carbono se consideran una gran promesa debido a sus propiedades mecánicas excepcionalmente fuertes, su habilidad para transportar de modo eficaz altas densidades de corriente eléctrica, y otras propiedades eléctricas y químicas. Los nanotubos, que son aproximadamente 10.000 veces más delgados que un cabello humano, pueden fabricarse casi perfectamente rectos en cámaras especiales de plasma gaseoso. Son las fibras más fuertes que se conocen. Un solo nanotubo perfecto es de 10 a 100 veces más fuerte que el acero por peso de unidad y poseen propiedades eléctricas muy interesantes, conduciendo la corriente eléctrica cientos de veces más eficazmente que los tradicionales cables de cobre El grafito (sustancia utilizada en lápices) es formado por átomos de carbono estructurados en forma de panel. Estas capas tipo-panel se colocan una encima de otra. Una sola capa de grafito es muy estable, fuerte y flexible. Dado que una capa de grafito es tan estable sola, se adhiere de forma débil a las capas al lado, Por esto se utiliza en lápices - porque mientras se escribe, se caen pequeñas escamas de grafito. En fibras de carbono, las capas individuales de grafito son mucho más grandes que en lápices, y forman una estructura larga, ondulada y fina, tipo-espiral. Se pueden pegar estas fibras una a otras y formar así una sustancia muy fuerte, ligera (y cara) utilizada en aviones, raquetas de tenis, bicicletas de carrera etc. Pero existe otra forma de estructurar las capas que produce un material más fuerte todavía, enrollando la estructura tipo-panel para que forme un tubo de grafito. Este tubo es un nanotubo de carbono. Los nanotubos de carbono, además de ser tremendamente resistentes, poseen propiedades eléctricas interesantes. Una capa de grafito es un semi-metal. Esto quiere decir que tiene propiedades intermedias entre semiconductores (como la silicona en microchips de ordenador, cuando los electrones se muevan con restricciones) y metales (como el cobre utilizado en cables cuando los electrones se mueven sin restricción). Cuando se enrolla una capa de grafito en un nanotubo, además de tener que alinearse los átomos de carbono alrededor de la circunferencia del tubo, también las funciones de onda estilo mecánica cuántica de los electrones deben también ajustarse. Este ajuste restringe las clases de función de onda que puedan tener los electrones, lo que a su vez afecta el movimiento de éstos. Dependiendo de la forma exacta en la que se enrolla, el nanotubo pueda ser un semiconductor o un metal. VII NANOMEDICINA En la nanomedicina se han clasificado tres partes principales para poder atender a una persona: el nanodiagnóstico, la liberación controlada de fármacos y la medicina regenerativa. Nanodiagnostico.- El objetivo del nanodiagnostico es de identificar la aparición de una enfermedad en sus primeros estadios a nivel celular o molecular e idealmente al nivel de una sólo célula. Para posteriormente dar un buen tratamiento en base al diagnostico que se le da. Nanomateriales usados: Nanobiosensores de reconocimiento celular o molecular Liberación controlada de fármacos.- El objetivo de la liberación controlada de fármacos como su nombre bien lo describe, es que una vez dada el diagnostico al paciente, se le suministre el medicamento de tal manera que este llegue a su destino y recién ahí empiece a reaccionar con la zona tratada. Para esto se utiliza tecnología para que en el transcurso del medicamento a través del organismo no se desperdicie el fármaco. Esto ayudara al paciente ya que se le suministrara menor cantidad de drogas pero que esto no influya en la eficacia del mismo. Liberándose cuando este en la zona requerida y no antes. Nanomateriales usados: Diferentes nanosistemas empleados para la dosificación controlada de fármacos Medicina regenerativa.- El objetivo principal de esta area es el de regenerar o reemplazar los tejidos u organos afectados, órganos mediante la aplicación de métodos procedentes de terapia génica, terapia celular, dosificación de sustancias bioregenerativas e ingeniería tisular. Nanomateriales usados: Crecimiento de células de fibroblasto sobre un sustrato nanoestructurado, Pero estos no solo son los unicos materiales para una terapia, ya que hay diversos nanomateriales que cada dia se desarrolan, con el objetivo de darle a la humanidad una mejor calidad de vida. 7. 1 Nanotubos en terapia genética Gracias a los últimos avances científicos en la medicina, se han logrado identificar muchos de los genes relacionados con ciertas enfermedades, y actualmente investigaciones utilizan estos nuevos conocimientos para desarrollar nuevos tratamientos para dichas enfermedades. Se cree que se podría reemplazar genes defectuosos o ausentes a través de la implantación en células humanas desde el exterior del mismo tipo de gen. Este proceso no resulta sencillo porque, como el ADN no puede traspasar las membranas células, se requiere la ayuda de un transportador. Ejemplos de este tipo de transportador incluyen un virus, un lisosoma o péptido especial. Un equipo europeo de investigadores ha desarrollado un nuevo método para introducir el ADN en células de mamíferos a través de nanotubos de carbón modificados. Los nanotubos de carbón son estructuras diminutas con forma de aguja y fabricados con átomos de carbón. Para utilizar nanotubos como transportador de genes, era necesario modificarlos. El equipo de investigadores logró enlazar al exterior de los nanotubos de carbón varias cadenas hechas de átomos de carbón y oxígeno cuyo lateral consiste en un grupo de aminos cargados positivamente (– NH3+). Esta pequeña alteración hace que los nanotubos sean solubles. Además, los grupos cargados positivamente atraen a los grupos de fosfatos cargados negativamente en el esqueleto del ADN. Al utilizar estas fuerzas electrostáticas atractivas, los científicos lograron fijar de forma sólida plasmidos al exterior de de los nanotubos. Luego contactaron los híbridos de nanotubo-ADN con su cultivo celular de células de mamífero. El resultado fue que los nanotubos de carbón, junto con su cargamento de ADN, entraron dentro de la célula. Imágenes de microscopio electrónico mostraron la forma en la que los nanotubos penetraron la membrana celular. Los nanotubos no dañan a las células porque, a diferencia de los anteriores sistemas de transporte genética, no desestabilizan la membrana al penetrarla. Una vez dentro de la célula, los genes resultaron ser funcionales. El uso de nanotubos de carbón como transportador no se limitará al transplante de genes. Nuevos avances científicos lograrán que sea posible el transporte de medicamentos y el desarrollo de otras nuevas técnicas médicas. 7. 2 Nanotubos en Medicina Según los resultados de una investigación llevada a cabo por un equipo de científicos de la Universidad de California, la fuerza, flexibilidad y poco peso de nanotubos de carbón hace que podrían servir como andamios capaces de suportar a los huesos y ayudar a víctimas de osteoporosis y huesos rotos. Los científicos describen su descubrimiento en un artículo publicado por la revista Chemistry of Materials de la American Chemical Society. Los resultados podrían suponer mayor flexibilidad y fuerza de huesos artificiales y prótesis, además de avances en el tratamiento de la enfermedad osteoporosis. Según el director de la revista, la investigación es importante porque indica un posible camino para la aplicación de nanotubos de carbón en el tratamiento médico de huesos rotos. Actualmente, las estructuras de hueso artificial se fabrican utilizando una gran variedad de materiales, tales como polímeros o fibras de péptido, pero tienen la desventaja de carecer de fuerza y el riesgo de ser rechazados por el cuerpo humano. Sin embargo, los nanotubos de carbón son excepcionalmente fuertes, y existe menos posibilidad de rechazo por su carácter orgánico. El tejido óseo es un compuesto natural de fibras de colágeno y hidroxiapatita cristalina, un mineral basado en fosfato de calcio. Los investigadores han demostrado que los nanotubos de carbón pueden imitar la función de colágeno y actuar como un andamio para inducir el crecimiento de cristales de hidroxiapatita. Al tratar los nanotubos químicamente, es posible atraer iones de calcio lo que fomenta el proceso de cristalización y mejora la biocompatibilidad de los nanotubos al aumentar su hidrosolubilidad. 7. 3 Nano-robots 7.3;a) Definición Aunque todavía no se han fabricado nanorobots, existen múltiples diseños de éstos, incluso no pueden ser del todo robots es decir pueden hasta ser modificaciones de células normales llamadas también células artificiales. Las características que éstos deben de cumplir, entre las que se pueden mencionar: 7.3;b) Tamaño Como el nombre lo indica, los nanorobots deben de tener un tamaño sumamente pequeño, alrededor de 0.5-3 micras ( 1micra=1*10-6) más pequeños que los hematíes (alrededor de 8 micras. 7.3;c) Componentes El tamaño de los engranes o los componentes que podría tener el nanorobot seria de 1-100 nanómetros (1nm=1*10-9) y los materiales variaría de diamante como cubierta protectora, hasta elementos como nitrógeno, hidrógeno, oxigeno, fluoruro, silicón utilizados quizás para los engranes 7.3;d) Nano-robots inmunológicos El sistema inmune de nuestro cuerpo es el encargado de proporcionar defensas contra agentes extraños o nocivos para nuestro cuerpo, pero como todos los sistemas éste siempre no puede con todo. Entre estas deficiencias se encuentra que muchas veces no responde (como es el caso con el SIDA) u tras veces sobreresponde (en el caso de enfermedades autoinmunitarias). Cabe decir que los nanorobots estarán diseñados para no provocar una respuesta inmune, quizás las medidas que tienen estos bastaran para no ser detectados por el sistema inmune. La solución que ofrece la nanomedicina es proporcionar dosis de nanorobots para una enfermedad especifica y la subsecuente reparación de los tejidos dañados, substituyendo en medida a las propias defensas naturales del organismo. 7.3;e) Nano-robots en la piel Parece que con billones de nanorobots que se implantan en el cuerpo humano y que recopilan información del estado de todo nuestro cuerpo, órganos, músculos, huesos, corazón, etc. para disponer de mucha información y poder hacer un análisis en tiempo real de alto nivel. Como nos citan en Xataka: "Para mostrar el análisis, algunos de estos nanorobots se colocarían sobre la mano o el antebrazo, a unas 200 o 300 micras por debajo de la piel, y alimentándose a partir de la glucosa y el oxígeno de nuestro propio cuerpo (menudos parásitos) formarían un pequeño rectángulo de unos 5×6 centímetros. podrían lucir en diversos colores gracias a una especie de diodos que vendrían integrados con los nanorobots, pero cuando se "apagasen" la piel volvería a lucir su color normal." VII. 3 Tratamiento contra el cáncer El equipo de Nanospectra ha logrado desarrollar nanopartículas de cristal bañadas en oro capaces de invadir un tumor y, cuando se calientan a través de un sistema remoto, capaces de destruirlo. La clave del alto grado de efectividad de este nuevo avance se deriva de las dimensiones de las partículas. Las nanopartículas tienen un diámetro de 150 nanómetros, que según el equipo de Nanoespectra, es el tamaño ideal para que puedan atravesar los vasos sanguíneos agujereados de un tumor. Esto podría permitir que las partículas se acumulasen en el tumor más que en otros tejidos. Cuando se dirigen rayos de luz infrarrojos a la localización del tumor, bien desde el exterior, o bien a través de una sonda, las partículas absorben la luz y se calientan. El resultado es que los tumores se calientan más que los otros tejidos alrededor, y se mueren. En el primer estudio realizado por la empresa, los tumores en ratones injertados con las nanopartículas desaparecieron a los seis días después de aplicarles el tratamiento de los rayos infrarrojos. Aunque la aplicación de rayos infrarrojos de luz ha sido utilizada en el campo de la medicina como una herramienta para mostrar imágenes, este nuevo avance científico supone la primera vez que se aplican rayos infrarrojos para calentar a los tejidos. En teoría, este nuevo avance tecnológico podría ayudar a eliminar aquellos tumores que caracterizan el cáncer de pecho, próstata y pulmón. La nanotecnología se sumaría así a otros tratamientos contra los cánceres más convencionales como la quimioterapia y la radioterapia. Y, según el presidente de Nanospectra Donald Payne, este nuevo método sería una "herramienta mucho menos tóxica para la caja de herramientas de los cirujanos". VII. 4 Análisis o estudio de ADN por "microarrays" Un microarreglo de ADN (del inglés DNA microarrays ) es una superficie sólida a la cual se unen una serie de fragmentos de ADN. Las superficies empleadas para fijar el ADN son muy variables y pueden ser vidrio, plástico e incluso chips de silicio. Los arreglos de ADN son utilizados para averiguar la expresión de genes, monitorizándose los niveles de miles de ellos de forma simultanea. La tecnología del microarreglo es un desarrollo de una técnica muy usada en biología molecular que es Southern Blot . Con esta tecnología podemos observar de forma casi instantánea la expresión de todos los genes del genoma de un organismo. De tal forma que suelen ser utilizados para identificar genes que producen ciertas enfermedades mediante la comparación de los niveles de expresión entre células sanas y células que están desarrollando ciertos tipos de enfermedades. Los microarreglos son fabricados usando una gran variedad de tecnologías. El gran desarrollo de esta técnica ha llegado debido al uso de Robots que son los que realizan el trabajo de alinear cada uno de los genes en puntos que se separan unos de otros por distancias microscópicas. Los microarreglos de ADN se pueden usar para detectar ARN, que pueden o no ser traducidas a proteínas. Los científicos se refieren a esta clase de análisis como "análisis de expresión". En los cuales pueden ser analizados desde diez a miles de genes, pero cada experimento de microarreglo debe llevar adjunto los análisis genéticos en paralelo. Los microarreglos han acelerado de todas formas muchas investigaciones. El uso de microarreglos para estudiar la expresión de diversos genes fue publicado en 1995, en la prestigiosa revista científica Science y el primer organismo eucariota con todo el genoma (Saccharomyces cerevisiae) dispuesto en un microarreglo fue publicado en 1997 en la misma revista. Microarrays de dos canales En este tipo de microarreglos (en inglés Spotted microarrays) las pruebas son oligonucleótidos, ADN copia (ADNc) o pequeños fragmentos de PCR, que corresponden con ARN mensajero(ARNm). En este tipo de microarreglo se hibrida el ADNc de dos condiciones que son marcados, cada uno de esas condiciones con dos fluoróforos diferentes. Las condiciones son mezcladas e hibridadas en el mismo microarreglo. Una vez realizado este primer paso se procede al escaneo del resultado y a la visualización del mismo. De esta forma se pueden observar genes que se activan o se reprimen en distintas condiciones. La contrapartida de estos experimentos es que no se pueden observar niveles absolutos en la expresión. Microarreglos de oligonucleótidos En los Microarreglos de oligonucleótidos o micromarreglos de canal único, las pruebas son designadas a partes de una secuencia conocida o un ARNm predicho. Estos microarreglos dan estimaciones del nivel de expresión, pero distintas condiciones no pueden ser observadas en una misma matriz, por lo que por cada condición se ha de utilizar un chip. Microarreglos para Genotipificación Los microarreglos de ADN pueden ser utilizados para "leer" las secuencias de un genoma particular en determinadas posiciones. Los SNP microarrys con un tipo particular de matrices que son usadas para identificar variaciones individuales y a través de poblaciones. Oligonucleótidos pequeños son capaces de identificar polimorfismos de un solo nucleótido (en inglés SNPs, single nucleótido polymorphisms) que podrían ser los responsables de variaciones genéticas dentro de una población, la fuente de susceptibilidad a distintas enfermedades genéticas e incluso a ciertos tipos de cáncer. En general, la aplicación de estas técnicas de genotipado son usadas con aplicaciones forenses ya que son rápidas en descubrir o medir la predisposición de enfermedades o incluso permitir el uso de ciertos medicamentos para tratar ciertas enfermedades según tu propio ADN. Los microarreglos de SNPs son también utilizadas para identificación de mutaciones somáticas en cáncer, sobre todo la perdida de heterocigosis, la amplificación o la delación de regiones de ADN en el genomio individual de pacientes afectados, es decir la detección de aberraciones cromosómicas. VIII NANOTECNOLOGÍA MOLECULAR Y SENSORES La nanotecnología es la manipulación de materiales a una escala molecular. Muchos científicos utilizan hebras artificiales de ADN para lograrlo. Technology Review publica que investigadores de la Universidad de Dortmund han descubierto la forma de hacer que ADN pegue y separe nanopartículas de oro a medida. Se podría aplicar este método a sensores que detectan sustancias y actividades biológicas en el laboratorio y en el cuerpo humano. También se podría aplicar a materiales programables cuyas propiedades se pueden cambiar al añadir un trozo de ADN. ADN consiste en cuatro bases químicas - adenina, guanina, citosina y timina - unidas a un esqueleto de fosfato- azúcar. Las hebras de ADN se unen cuando las secuencias de bases se aparean - adenina con timina y citosina con guanina. Con el nuevo avance científico desarrollado por el equipo alemán, es posible lograr que hebras artificiales cortas de ADN formen estructuras, y luego se puede manipularlas para que se peguen a otros materiales y a continuación, es posible organizar estos otros materiales dentro de una estructura. En esta investigación, los científicos utilizaron dos secuencias de hebras sencillas de ADN que se pegan a una nanopartícula de oro y una tercera hebra con tres secciones. Las primeras dos secciones de la tercera hebra aparean con cada una de las hebras de nanopartículas, pegándolas para que las nanopartículas de oro que llevan se posicionan cerca. Se puede separar las nanoparticulas utilizando un tercer tipo de hebra ADN que es igual que la hebra pegada de ADN. Esta hebra se adhiere primero a la tercera sección, la que está libre, de la hebra adhesiva de ADN y tira hasta que toda la hebra se despegaue. IX NANOTECNOLOGÍA BASADA EN ADN La nanotecnología comprende básicamente un conjunto de técnicas con aplicaciones potenciales en la mayoría de los sectores industriales existentes en la actualidad, y con el potencial de ayudar a crear nuevas industrias. Estas técnicas comparten el objetivo de hacer cosas cada vez más pequeñas, más pequeñas de hecho que los límites físicos establecidos en los microchips (100 nanometros, o 100 millonésimas de un milímetro) aunque más grandes, naturalmente, que el átomo individual (0,1 nanometros). A menudo se distinguen dos enfoques: la miniaturización de arriba a abajo de microtecnologías y la construcción controlada de abajo a arriba de materiales y dispositivos a partir de átomos y moléculas individuales. La nanotecnología puede utilizarse para investigación en ciencia de los materiales, física, química, biología y medicina. Además, a veces se considera como una opción futura para el desarrollo, o incluso en ciertos casos ya en uso, en I&D en materiales y producción industrial (tecnología de ultra precisión), catálisis, electrónica, productos farmacéuticos (fármacos inteligentes), tecnologías biomédicas, (órganos artificiales), energía (nuevos materiales fotovoltaicos, baterías) y detección ambiental. Algunos productos están ya o van a estar próximamente en el mercado. Estos productos son principalmente nuevos materiales nanoestructurados e instrumentos y técnicas para su fabricación. Los ejemplos incluyen láseres en reproductores de CD, espejos y lentes de alta calidad e incluso lápices de labios Lograr dirigir el movimiento atómico dentro de la molécula de ADN permite generar sistemáticamente cada molécula al menos dos estados, cada uno puede representar, ora 0, ora 1. Esta fue la hipótesis de la que se partió y los éxitos aunque modestos de apariencia han sido rotundos. Esa tesis permitió organizar computadoras que ofrecen reducciones del tamaño de los equipos porque son intrínsecamente pequeños: una milésima del tamaño de los transistores del semiconductor utilizados hoy como puertas cuyo diámetro ronda la micra, o sea, una millonésima de metro. De hecho, un ordenador biomolecular podría ser la quincuagésima parte (cincuenta veces menor) de un ordenador actual de semiconductores que contuviera similar número de elementos lógicos. La reducción del tamaño de las puertas desemboca en dispositivos más veloces; los ordenadores de base proteínica podrán, operar a velocidades mil veces mayores que los ordenadores modernos. Hasta ahora, nadie propone un ordenador puramente molecular. Es mucho más probable, al menos en un futuro cercano, que se utilice una tecnología híbrida, que combine moléculas y semiconductores. Tal proceder debería proporcionar ordenadores cincuenta veces menores que los actuales y centuplicar su velocidad. Las moléculas biológicas confieren así el control necesario para crear puertas que funcionen de acuerdo con los requerimientos de una aplicación. Parece razonable pronosticar que la técnica híbrida, que conjuga microcircuitos semiconductores y moléculas biológicas, pasará bastante pronto del dominio de la fantasía científica a las aplicaciones comerciales. La pantallas de cristal líquido ofrecen un espléndido ejemplo del sistema híbrido que ha triunfado. Casi todos los ordenadores portátiles de nuestros días se basan en pantallas de cristal líquido, que combinan dispositivos semiconductores con moléculas orgánicas para controlar la intensidad de la imagen en la pantalla. Son varias las moléculas biológicas que se podrían utilizar con vistas a su utilización en componentes informáticos, pero de todas ellas, es una proteína bacteriana, la bacteriorrodopsina la que suscita mayor interés. 9. 1 Material de construcción En el año de 1980, nació la idea de utilizar las moléculas de ADN como material de construcción a nanoescala. La idea se basa en utilizar variantes estables de intermediaros bifurcados de la recombinación genética (Cruces de Holliday), como elementos básicos para materiales a nanoescala. Al combinar estas moléculas bifurcadas con extremos cohesivos, se pueden producir redes periódicas que puedan actuar como anfitrionas hacia macromoléculas huéspedes en experientos cristalográficos macromoleculares. La idea básica ha sido expuesta por casi un cuarto de siglo, sin embargo, aún esta en su infancia. 9.1 a) Extremos Cohesivos (Sticky Ends) El origen de los extremos cohesivos se remonta a inicios de los años 70, cuando las técnicas de manipulación genética in vitro fueron realizadas inicialmente apilando moléculas de ADN con estos extremos cohesivos. Un extremo cohesivo es una corta hebra de ADN que existe como una pequeña protuberancia al final de una molécula de doble hélice de ADN. La ventaja de los extremos cohesivos es que dos moléculas de ADN con extremos cohesivos complementarios (es decir, sus. extremos cohesivos poseen el arreglo complementario de bases de nucleótidos adenina, citosina, guanina y tirosina) se unen para formar una molécula de ADN más compleja. Los extremos cohesivos son sin duda el mejor ejemplo de reconocimiento molecular programable: hay significativamente, una gran variedad de extremos cohesivos, y el producto formado debido a la cohesión es siempre la clásica doble hélice del ADN. Además, la conveniencia de la síntesis de ADN basado en soportes sólidos hace n mas facil programar diversas secuencias de extremos cohesivos en las hebras de ADN. Por lo tanto, los extremos cohesivos ofrecen un predecible y controlado asociamiento intermolecular con una geometría impredecible con el punto de cohesión. Posiblemente se puede obtener afinidades similares entre las interacciones antigeno- anticuerpo, pero en contraste con los extremos cohesivos de ADN, la orientación tridimensional de las interacciones Antigeno- anticuerpo no van a ser predecibles entre cada par. Es decir, cada interacción Antigeno- anticuerpo e va a comportar de diferente manera, siendo casi imposible predecir una geometría determinada que englobe dicha interacción. Los ácidos nucleicos parecen ser únicos en estas propiedades, ofreciendo un sistema programable y diverso, con un remarcable control sobre las interacciones intermoleculares. A pesar de que los extremos cohesivos resultaron una gran alternativa para definir por primera vez a la programación molecular, las moléculas de ADN aun carecían de una propiedad importante para ser utilizadas como material de construcción a nanoescala. Y es que formando moléculas de ADN lineales. Pero para producir materiales interesantes a partir de ADN, la síntesis era requerida en múltiples dimensiones, para este puposito moléculas bifurcadas de ADN eran requeridas. 9.1 b) El Cruce Holliday ( Holliday juction) Moléculas bifurcadas de ADN ocurren naturalmente en sistemas vivos, como intermediarios efímeros formados durante el proceso de recombinación celular. Este es un fenómeno que ocurre en todos los organismos, desde bacterias hasta humanos. Hebras alienadas de ADN se rompen y entrecruzan una a otra, formando estructuras llamadas "cruce de Holliday". Este proceso lleva a la diversidad genética en organismos. 9.1c) Formación de un Cruce de Holliday El cruce de holliday contiene cuatro hebras de ADN (cada par de cromosomas homólogos alineados esta compuesto de 2 hebras de ADN) enlazadas entre ellas para formar un brazo de cuatro dobles enlaces. El punto de bifurcación en el cruce de holliday puede reubicarse debido a la simetría de las secuencias. En contraste, complejos sintéticos de ADN pueden diseñarse para formar bifurcaciones que imiten el cruce de holliday sin que este pueda poseer centros de simetría 9.1d) Un Cruce bifurcado de Holliday inmovilizado El cruce d holliday esta compuesto de 4 hebras de ADN, marcados con números árabes. El termino 3 de cada molécula esta indicado por flechas. Cada hebra esta enlazada con otras dos hebras para formar brazos de doble hélice, los brazos están enumerados con números romanos. Lo enlaces de hidrogeno de los pares de bases que forman la doble hélice están indicados por los puntos entre las bases. La secuencia de este cruce ah sido optimizada para minimizar las simetrías y las faltas de pares complementarios. Debido a que no hay simetría C2 flanqueando el centro de bifurcación, este cruce no puede sobrellevar reacciones de isomerización que permitan la migración del punto de bifurcación. La molécula ah sido diseñada para minimizar secuencias simétrica; esto significa que todos los segmentos de secuencias cortos son únicos. En la parte de arriba del brazo 1, dos de los 52 tetrámeros en el complejo están marcados, estos son CGCA y GCAA en la esquina de la hebra 1, la secuencia CGTA esta marcada también. Esta es una de las 12 secuencias en l complejo que forman el cruce. El complemento de cada una de estas 12 secuencias no esta presente en el complejo, lo que no les va a permitir formar doble hélices. Mientras que los otro elementos tetrameritos si poseen sus complementos y forman los brazos de doble hélice. Cruce de Holliday sintetizado La síntesis de este complejo no va a permitir poseer un cruce bifurcado de holliday inmóvil. Esta síntesis es de gran importancia, ya que seria el "bosquejo" de la molécula de ADN que buscamos para que funcione como una unidad estructural de futuros compuestos en escala manométrica. Por lo tanto, la prescripción para usar el ADN como elemento básico para la formación de materiales mas complejos a una escala manométrica es simple: tomar molécula sintéticas de ADN con bifurcaciones y programarlas con extremos cohesivos, para permitirán autoensamblaje a la estructura deseada, el cual puede ser objeto cerrado a un medio cristalino. 9.2 AVANCES DE LA NANOTECNOLOGIA BASADA EN ADN Desde la idea originar de utilizar las moléculas de ADN como base para la formación de elementos mas complejos y de los estudios sobre los extremos cohesivos y el cruce de holliday, se han creado elementos basados en esta técnica, como el cubo hecho de ADN, los arreglos cristalinos bidimensionales de ADN, y el primer dispositivo manométrico. 9.2 a) Un Cubo hecho de ADN El primer gran éxito de la nanotecnologia basad en ADN fue la construcción de una molécula de ADN con los ejes de sus hélices conectados como los lados de una figura cúbica. Este objeto consiste d seis hebras de ADN cíclicas, una para cada cara del poliedro. Cada vértice del cubo consiste de dos vueltas de la doble hélice. 9.2 b) Doble entrecruzamiento del ADN (DX-Double Crossover) La idea que siguió a la formación del cubo basado en ADN, fue la construcción de arreglos periódicos de ADN y aprovechar a los extremos cohesivos para que puedan autoensamblarse. Sin embargo, los cruzamientos de Holliday resultaron algo flexibles y muy inestables al momento de producir arreglos en dos dimensiones, por lo tanto, se busco otro motivo de ADN que tengo menor flexibilidad y mayor dureza. Este nuevo motivo no estuvo muy lejano al ya conocido cruce de holliday, mas bien, fue una estructura similar llamada doble entrecruzamiento de holliday que también es análoga a un intermediario formado durante la meiosis. Este nuevo motivo molecular contiene do dobles hélices conectadas una a otra en dos ocasiones a través de dos puntos de entrecruzamiento. 9.2 c) Arreglo del doble entrecruzamiento del ADN En la parte superior del dibujo mostrado se presentan a las dos moléculas de doble entrecruzamiento A y B, que se muestran esquemáticamente. Arreglos con doble entrecruzamiento del ADN El carácter complementario entre sus extremos cohesivos es representado por una complementariedad geométrica. Las moléculas b contienen orquilla de ADN que se proyectan fuera del plano de las hélices; estas horquillas actúan como marcadores topográficos en el microscopio de fuerza atómica que es el instrumento donde se visualizan. Las dos moléculas son de aproximadamente 4 nm de ancho, 16 nm de largo y 2 nm de espesor. Cuando estas 2 moléculas son mezcladas en solución, forman los arreglos bidimensionales que tienen varios micrones de largo y cientos de nanometros de ancho. La filia que proyectan las orquídeas aparecen como líneas blancas la ser visualidades por AFM. Estas líneas están separadas 32 nm como era de esperarse, al haber una molécula A de 16 nm de largo entre dos moléculas de A de 16 nm de largo entre dos molécula de B. 9.2 d) Triple entrecruzamiento del ADN (Triple Crossover) Además de la molécula de doble cruzamiento de ADN, se sintetizó una molécula entrecruzada con tres dobles hélices. Triple entrecruzamiento de heras de ADN Esta molécula consiste de 4 oligonucleótidos hibridizados para formar tres dobles hélices de ADN que se recuestan en el plano y que permanecen unidas por intercambios de hebras en cuatro puntos inmovibles de entrecruzamiento. 9.2 e) Arreglo del triple entrecruzamiento del ADN (TX) De la misma manera que para las moléculas de doble entrecruzamiento, moléculas TX son también robustas y pueden ser fácilmente usadas para el diseño de arreglos cristalinos en dos dimensiones. Arreglo con triple Entrecruzamiento del ADN Nuevamente, hacemos uso de los extremos cohesivos para programar las uniones entre las moléculas. Una ventaja importante de las moléculas de TX en comparación a otros motivos de ADN, es q poseemos grandes espacios dentro del arreglo cristalino, que nos va poder permitir llenarlas con otros nanodispositivos o incluso permitir la incorporación de componentes altamente estructurados y fuera del plano bidimensional; es decir, un posible acercamiento a los tan esperados arreglos en tres dimensiones. Arreglo en ADN 9.2 f) Primer dispositivo nanomecánico basado en ADN La rigidez de las moléculas antiparelelas de doble entrecruzamiento ha permitido usarlas como componentes de dispositivos nanomecanicos basados en ADN. Este dispositivo trabaja utilizando la transición B-Z de las moléculas de doble hélice del ADN. Lo que se ha logrado, es conectar dos moléculas de doble entrecruzamiento (regiones rojas y azules) con un segmento puente que contiene una región donde B-ADN se puede convertir en Z-ADN. Este segmento convertible se muestra en el dibujo con color amarillo. X POTENCIALES DE LA NANOTECNOLOGÍA Potenciales aplicaciones médicas: Servir como un sistema auto inmune potenciado. Buscar y destruir virus, colesterol, excesos de grasa, células cancerígenas y marcadores genéticos. Eliminar la necesidad de cirugía. Evitar el "sacrificio" de materia viva natural. Borrar los procesos de envejecimiento Potenciales aplicaciones militares: Dispositivos inteligentes demasiado pequeños para ser descubiertos Armas biológicas/químicas computarizadas Escudos de defensa activos Blancos seleccionados sin posibilidad de error C. Potenciales aplicaciones energéticas. Se usa aproximadamente una diezmilésima parte de la energía solar que llega a la Tierra. Se usa combustibles fósiles porque es más conveniente Distribución de energía a través de "canales" de energía. Colectores solares (en órbita alrededor de la Tierra) reemplazarán a los combustibles fósiles. Potenciales aplicaciones espaciales. Máquinas moleculares y computadoras de tamaño subcelular. Bases de lanzamiento de gran altitud (baja gravedad). Vehículos y estaciones espaciales livianas y superresistentes. Naves con velas propulsoras posibilitarán los viajes interestelares (probablemente no para individuos pero sí para generaciones). Potenciales aplicaciones ambientales. Dietas "normales" sin matar animales. Todas las máquinas podrían ser "libres de contaminación ambiental". Materiales con estructura de diamante permitirán reemplazar a los actuales materiales. Nanomáquinas que obtengan su energía de la contaminación ambiental Reducir el uso de fuentes de energía, tradicionales, finitas y polusivas. BIBLIOGRAFÍA TABATA, Y. (2005) "Nanomaterials of drug delivery systems for tissue regeneration" . Methods in Molecular Biology 300, 81. WHITESIDES, G. M. (2003) "The right size in nanobiotechnology" Nature Biotechnology 21, 1161. www.estudiantes.info/ciencias_naturales/quimica/quimica-organica.htm www.euroresidentes.com/Blogs/alimentos-salud/labels/alimentos.html http://www.euroresidentes.com/Blogs/nanotecnologia/2005/07/nanotubos-y-medicina.html www.euroresidentes.com/futuro/nanotecnologia/diccionario/nanobot.htm http://www.fisicanet.com.ar/tecnicos/tecnologia/ar10_nanotecnologia.php http://www.fisicaysociedad.es/view/default.asp?cat=763&id=2319 http://www.fsp.csic.es/index_files/frames/link_frame_data/nanorobots.html http://www.sbf1.sbfisica.org.br/boletim/lemensagem.asp?msgId=17 http://www.iq.usp.br/wwwdocentes/mbertott/linha.htm http://www.invenia.es/farmameeting:conferencias.ibc http://www.nanorobots.net/ http://www.nanotecnologica.com/ http://nextwave.universia.net/salidas-profesionales/nano/nano1.htm http://www.uned.es/cristamine/fichas/grafito/grafito.htm http://www.nanotechproject.org/ http://es.wikipedia.org/wiki/Tabla_peri%C3%B3dica_de_los_elementos Espero que les aya servido Echo por Nicolas Ariel Libert [Libe_rt]
LA FILOSOFIA Y SU VIVENCIA. Para iniciar el estudio de cualquier ciencia es bueno iniciar por su definición, pero para comprender con suficiencia es indispensable vivirlo. "...Sólo tras haber filosofado, y no de cualquier modo, sino de una manera insistente y tenaz, puede llegarse a la posesión de una idea auténtica realmente vivida..." Para conocer la filosofía hay que hacer filosofía, todo hombre es capaz de filosofar, pues todo hombre posee razón. ... "la filosofía responde pues a la actividad más natural del hombre." Hay preguntas que serían clave en el estudio de la filosofía, y serían: ¿Cuál es mi origen?, ¿Qué soy?, ¿Cómo debo vivir?, ¿Cuál es mi destino?. Kant planteó otra serie de preguntas igualmente ineludibles: ¿Qué puedo saber?, ¿Qué debo hacer?, ¿Qué es el hombre? Y ¿Qué puedo esperar?. ORIGEN DE LA FILOSOFÍA. El origen de la filosofía tiene tres explicaciones: La admiración intelectual. Según decía Aristóteles, "todos los hombres desean naturalmente saber". Este deseo de saber se manifiesta en el hombre por la curiosidad inteligente, o el asombro intelectual. Una de las desventajas que tenemos en nuestros días, es que ya nada profundo nos causa admiración, sólo lo raro llama nuestra atención. Hubo varios filósofos que defendieron esta teoría, tales como Platón, Aristóteles, Santo Tomás de Aquino, quienes dicen que el hombre tiene una necesidad natural de saber. Después, desde el inicio de los tiempos modernos, especialmente Descartes, la duda sustituye al asombro esto hace que la filosofía entre en peligro. Según San Agustín el origen de la filosofía es la felicidad, y dice que "comúnmente todos los filósofos en sus estudios, en sus investigaciones, es sus disputas, en su vida toda buscaban la felicidad". Francis Bacon dice que el origen de la filosofía radica en la satisfacción de las necesidades humanas. Augusto Comte dice que el conocimiento está ordenado para hacer la vida más fácil. LAS TRES GRANDES CONCEPCIONES DE LA FILOSOFIA. La Filosofía es la ciencia más importante para el ser humano. No se puede juzgar a la filosofía por los filósofos, pese a que estos son parte fundamental de ella, no quiere decir que si un filósofo tiene un error ya se le juzgue también a la filosofía. Las grandes concepciones de la filosofía son tres: 1. - Concepción Metafísica. Presenta dos periodos: Desde la Antigüedad hasta la Edad Media De la Edad Moderna a la Contemporánea "Hubo un tiempo en que la unidad del conocimiento humano, aunque provista en órganos y establecida como un cierto conjunto de saberes, prevaleció sobre sus divisiones y toda ella era distinguida con un solo vocablo: filosofía" Para la Metafísica, la Filosofía es el saber más pleno, es la auténtica sabiduría humana, es la Ciencia de la verdad. La Filosofía es universal, puesto que abarca todo y ninguna realidad le es ajena. 2) Concepción Crítica. Sus representantes más destacados son Emmanuel Kant, el Empirismo inglés con Humme y las escuelas neo-Kantianas. Para ellos la filosofía es el juicio del saber, para determinar la capacidad de conocimiento del hombre. Entienden a la Filosofía como Teoría del Conocimiento. Antes se creía que el conocimiento dependía de la realidad, pero no, sino que el sujeto con sus conocimientos depende del conocimiento según Kant. Kant niega el conocimiento de lo espiritual por la ciencia, pero tampoco niega su existencia. 3) Concepción Positivista. La sostuvo Francis Bacon, Augusto Comte, y actualmente el Neo-Positivismo y corrientes afines. Es la negación de la Filosofía en su significado de saber superior y distinto de las ciencias experimentales. Cuando las ciencias experimentales se desprenden de la filosofía, y alcanzan su madurez, llega un momento en que la Filosofía empieza a depender de éstas. Dicen que el conocimiento verdadero sólo corresponde a las ciencias experimentales. Hablan acerca de que la filosofía debe ser una fusión de las ciencias experimentales. Varios filósofos hablan de la concepción filosófica, entre ellos John Stuart Mill , Bertrand Russell, Rodolfo Canarp, Charles W. Morris, y Otto Neurath, quien explica que el neopositivismo integra los cuatro fundamentos del moderno "Cientismo". Propone que la filosofía debe ser el resultado de las Ciencias Experimentales. Como conclusiones se puede decir que la Metafísica no rechaza las aportaciones de las otras concepciones. Al igual reconoce el valor de las Ciencias Experimentales, pero las distingue de la Filosofía. Al limitar a la Filosofía a ser simplemente una teoría del conocimiento, la están dejando muy por debajo de lo que es. La Filosofía es Ciencia y sabiduría. Ciencia porque maneja las causas y los principios. Sabiduría porque se ocupa de las causas y principios supremos o últimos que valen para toda la realidad. LA DEFINICIÓN DE LA FILOSOFÍA. Muchas veces al tratar de definir la Filosofía se cae en el error, puesto que se le resta importancia. La Filosofía es un todo análogo. Quien da estructura y unidad a toda la Filosofía es la Metafísica. "No existe una definición de Filosofía en la que todos los filósofos estén de acuerdo..." Definición nominal o etimológica La Historia atribuye por primera vez el término filósofo a Pitágoras, quien pidió que no se le llamara sabio, pues sabio sólo lo era Dios, y se le llamó filósofo, por ser amante de la sabiduría. Filosofía: Sabiduría Humana, el conocimiento de todas las cosas que los hombres saben o pueden saber. Filosofía: Ciencia de la totalidad de las cosas por sus causas últimas, adquirida por la luz de la razón. Filosofía: Término derivado del griego, que significa ‘amor por la sabiduría’ . Esta definición clásica convierte a la filosofía en una tensión que nunca concluye, en una búsqueda sin término del verdadero conocimiento de la realidad. Rasgos de la Filosofía: Es posible, sin embargo, ofrecer una descripción de la filosofía como ‘saber racional totalizante, crítico de segundo grado’. La filosofía es una forma de conocimiento que pretende ofrecer explicaciones de los temas que analiza empleando la razón y los argumentos racionales (a diferencia de la fe o la autoridad. En segundo lugar, la filosofía es un saber de tipo general y totalizante, pues pretende ofrecer respuesta a cuestiones de tipo general y mantiene siempre una perspectiva totalizante sobre las mismas. En tercer lugar, la filosofía es un saber crítico, pues analiza los fundamentos de todo lo que considera y nunca se limita a aceptarlos de forma ingenua. Finalmente, la filosofía es un saber de segundo grado, que emplea los datos y contribuciones de las ciencias, que son siempre un conocimiento de primer grado sobre la realidad. Definición Descriptiva. Definición genética de la Filosofía. La filosofía nace de la admiración, pasa por tres etapas: La Inteligencia capta algún hecho. Continúa con la admiración, pero se ignora su causa, Culmina con el conocimiento de la causa por el intelecto. Finalmente se enseña y se comunica. Definición de la Filosofía por su causa final. El fin del filósofo es gozar en y de la verdad plena. El fin de la filosofía es la felicidad natural, y todo hombre des naturalmente la felicidad. La filosofía tiene por fin a Dios, puesto que Dios es la causa del Universo. Definición de la Filosofía por su causa eficiente. Quien hace la Filosofía s el hombre por su inteligencia. Se investiga a partir de una observación, para llegar a la comprobación plena. Definición esencial de la Filosofía. Es la más perfecta. Consta de materia y forma, la materia corresponde al género y la forma a la diferencia específica. ¿De qué está hecha la filosofía?, de todo pues todas las disciplinas pueden ser llamadas filosofía. Lo único que nos puede traer conflicto es que si la Filosofía abarca todo, entonces en donde quedan las otras ciencias llamadas experimentales?. DIVISIÓN DE LA FILOSOFÍA La división más importante y fundamental: Filosofía primera o Metafísica. Ontología, estudia los principios, la estructura o causas de la entidad. Teología Natural o Teodicea, estudia las causas externas o extrínsecas. Dios no es el punto de partida sino el fin. Teoría del Conocimiento o Gnoseología, parte de la Metafísica, porque es imposible investigar la entidad fuera del conocimiento. Filosofías segundas División de las Filosofías segundas: es una propuesta de Tomás de Aquino quien se apoya en las tesis de Aristóteles. El criterio de la división será el orden. 2.1 Hay un orden que la razón no hace, sino que sólo descubre, a esta se le conoce como Filosofía de la naturaleza. Cuando la razón al pensar, maneja sus propias actividades u operaciones, es la Filosofía racional o Lógica. El orden que la razón indaga cuando considera los actos de la voluntad, lo cual es asunto de la Filosofía Moral o Ética Orden que la razón establece en los actos exteriores del hombre de los que ella es causa, es las artes mecánicas o la Filosofía de la Técnica. Diferencia entre Metafísica y filosofías segundas: La Metafísica estudia al ente, en cuanto ente. Las filosofías segundas se ocupan de cierto o determinado tipo de entes y no de la entidad en general. MÉTODO DE LA FILOSOFÍA. Método es el orden que se adopta en las actividades para llegar a un determinado fin, es el camino que se debe seguir para obtener la verdad de las ciencias. El método tiene dos funciones: el descubrimiento de la verdad y la demostración. En la metodología cabe distinguir Reglas Generales y Particulares. El método depende o debe estar subordinado a su objeto, nunca al revés. Condiciones del método: debe ser muy sencillo, evitar complicaciones inútiles. Reglas: En su discurso Descartes formuló correctamente las cuatro reglas del método en general: 1. Evidencia: No debe aceptarse nada como verdadero sino sólo cuando sea evidente. Análisis: Hay que dividir cada una de las dificultades. Síntesis: Reconstruir o componer un todo complejo desde sus partes ya conocidas, respetando la unidad original. Revisión: Para tener la seguridad de no haber omitido o agregado nada a la integridad del objeto. Demostración: Razonamiento que se funda en principios evidentes y conduce a una conclusión cierta. La demostración se apoya en: los principios formales o primeros, en los principios materiales o característicos de cada ciencia en particular. Los primeros principios son evidentes por sí mismos. FILOSOFÍA Y TEOLOGÍA SAGRADA La Filosofía tiene fronteras con una ciencia superior: La Teología Sagrada o de la Fé; y también tiene fronteras con ciencias inferiores, que en sentido amplio llamaremos Ciencias Experimentales. La Teología filosófica es la parte más noble y elevada de la Metafísica, es un saber estrictamente filosófico. La Teología puede ser llamada teología Sagrada, su más importante principio y criterio de conocimiento es la revelación divina admitida por la fe religiosa. "Aunque la fe produzca o determine sentimientos, no es formalmente un sentimiento más, es por eso que se contrapone, o se llega a enfrentar con la filosofía" Revelación divina: es el conjunto de verdades que Dios ha querido comunicar al hombre. Abarca dos tipos de verdades diferentes Verdades naturales: que los hombres podrían conocer por la razón Verdades propiamente sobrenaturales, los llamados "misterios". La fe humana es muy importante, ya que por ella conocemos y nos relacionamos con nuestros semejantes. A diario vivimos confiando en el prójimo. La fe religiosa es una virtud infusa sobrenatural, un don que Dios concede al hombre. La Teología Sagrada o de la fe, es una ciencia mixta, divina y humana; divina porque es el propio saber de Dios y humana porque es cultivada por el hombre. Relaciones entre Teología Sagrada y Filosofía. La Teología Sagrada es la Ciencia Superior por su objeto: Dios conocido por la fe. Los principios de la Filosofía son independientes de la Teología Sagrada, ya que son las verdades que se imponen naturalmente. La filosofía no tiene necesidad de la Teología para la defensa de sus principios. Ambas coinciden en tener un lugar en el entendimiento. Pero difieren precisamente en la manera como tienen su lugar... LA FILOSOFÍA Y LAS CIENCIAS EXPERIMENTALES. La otra frontera de la Filosofía son las Ciencias Experimentales que también llamaremos particulares, Especiales o Positivas. En la antigua cultura griega había dos clases de saberes: 1) La filosofía como ciencia de toda ciencia y 2) los conocimientos artesanales. En la Edad Media apareció la Teología Sagrada. En el Renacimiento las Ciencias Experimentales ya han crecido buscan independizarse. Rompimiento entre Filosofía y Teología Sagrada. Empezó en la baja Edad Media cuando la decadencia y el cansancio cultural, conflictos políticos, guerras, epidemias, etc. . La separación entre Filosofía y Teología Sagrada culminó violentamente con el protestantismo de Lutero. Separación de las Ciencias Particulares. Cubre un largo periodo que inicia en el renacimiento y llega hasta nuestros días. El renacimiento se interesó mucho por la naturaleza. El pensamiento propiamente nuevo surge en las nuevas visiones de la lógica, el mecanicismo de la naturaleza, el panteísmo la filosofía política, etc.. Durante el siglo XVII la filosofía aristotélica queda desacreditada obre todo en su "física"; aparecen las filosofías maduras de la modernidad que plantean nuevas soluciones, y surge la física matemática que culmina en Newton. En Aristóteles hay errores que provocaron su rechazo en la modernidad: divide al universo en dos partes, el mundo supralunar, perfecto e incorruptible, y el mundo sublunar, imperfecto, corruptible y cambiante. Los astrónomos y físicos modernos comprobaron que no hay "dos mundos". La mayor parte de las tesis del mundo sublunar son verdaderas, geniales, y tienen valor permanente. Estructura de las Ciencias Particulares. Para abordar la Ciencia experimental, hay que tomar en cuenta una triple distinción: Ciencia teórica y ciencia experimental. Ciencia de observación y ciencia experimental. Ciencias de la Naturaleza y ciencias "sociales" Hay Ciencia experimental si sus principios, métodos y conclusiones se fundan en la experiencia, implica cuando menos algo de teoría. , Cuyo objeto se considera pero sin intervención obre la realidad sensible porque es imposible p.ej. la Astronomía. La experiencia antigua era espontánea y natural; la experiencia moderna es más "experimento", deliberada y artificial: Ciencia Experimental y Técnica. La Ciencia se aboca fundamentalmente al saber, y la técnica al hacer; sin embargo, ambas requieren de síntesis de especulación y referencia a la materialidad; Ciencia experimental técnica muchas veces son inseparables. Los métodos de la Ciencia experimental y la técnica en ocasiones se unen, sin que el modo científico experimental sea toda la técnica, sino una técnica más, ni la técnica se agote con aquel; el método científico experimental implica operaciones que no tienen que ver con técnica, como la formulación matemática de los fenómenos. La diferencia esencial entre ciencia experimental y técnica es el fin: la Ciencia experimental abstrae de l9o singular y elabora leyes; la técnica tiene por fin objetos concretos materializados. Tanto el científico experimental como el técnico se alimentan de teoría y práctica. Diferencias entre Ciencias Experimentales y Filosofía. La Metafísica se ocupa de todos los entes. Las ciencias experimentales no estudian todo, sino algún tipo o clase de entes y precisamente por sus causas fenoménicas. Las filosofías segundas están subordinadas inmediatamente a la Metafísica. Las Ciencias Particulares o positivas no se ocupan de la esencia de las cosas sino de sus fenómenos por sus causas próximas o empíricas y experimentables. El dominio de las Ciencias Positivas es el reino de los "hechos" definidos, concretos y particulares y su coordinación por las leyes. Las Ciencias particulares quieren saber cómo suceden los fenómenos. La filosofía busca el qué y el porqué último de todas las cosas. Autonomía y limitación de la Ciencia Experimental. El término causa significa para el científico experimental un "antecedente" que connota un determinado "consecuente". El filósofo llama causa a una realidad que, de modo expreso, produce la estructura esencial o existencial de la otra realidad. Se dice exactamente "limitación" de la ciencia experimental en cuanto al ámbito total del conocimiento. La Ciencia experimental usa términos inteligibles que no explica y que exigen un saber especial distinto que los justifique. Cuando se afirma que la filosofía es un saber que busca dar una respuesta fundamental, se requiere decir que intenta dar una respuesta de tal manera última y definitiva, que ya no sea posible otra interrogación. La ciencia experimental es un saber auténtico y una explicación real, pero no es el saber total o integral. Las ciencias positivas son siempre, un aviso permanente para la filosofía, cuando comienza a perderse esta última. No todo tolera ser abordado con el método experimental, y que no todo está resuelto cuando ha sido explicado por las Ciencias particulares. La Filosofía esa la ciencia natural más elevada, por consiguiente, a ella corresponde juzgar a todas las demás ciencias, en el sentido de descartar por falsa toda posición científica. La Metafísica "dirige" a las demás ciencias. La filosofía es independiente de las ciencias inferiores, por eso Aristóteles la considera como la ciencia libre por excelencia. Cientismo. El cientismo afirma que las ciencias particulares son las únicas que conocen la realidad y los problemas del hombre, convirtiendo a la filosofía en una simple "coordinadora del saber positivo", es conocida como la barbarie cientista. Los intentos de armonía y equilibrio, en la actualidad están en intenso trabajo, sobre todo por el notable incremento de la Filosofía de las Ciencias. LA ACTITUD FILOSÓFICA El hombre puede adoptar diferentes actitudes y maneras de interrogar las cosas. En las cosas pueden distinguirse dos niveles: El fenoménico El nivel sustancial. Fenómeno. Es lo manifiesto concreto o particular, captado por la experiencia, subsiste por la sustancia que los soporta. Substancia es la estructura necesaria. El hombre como cognoscente puede interrogar a la realidad desde diferentes actitudes. El científico positivo busca el nivel fenoménico y no se preocupa del nivel esencial, aunque éste exista verdaderamente. El filósofo busca intencionalmente los dos niveles. La filosofía y la Ciencia experimental, sus conocimientos son válidos y auténticos pero distintos. Cuando la filosofía adoptó los métodos propios de las ciencias particulares siguió un falso camino; filosofía y ciencias positivas quedaron colocadas en el mismo nivel, esto significó para la filosofía una pérdida de su autonomía, un descenso jerárquico y su deformación. Al final la filosofía desembocó en una aguda crisis que llegó a su clímax en las últimas décadas del siglo XIX. "La Filosofía es ciertamente objetividad, pero tiene una subjetividad propia: La verdad universal y objetiva es también mi verdad, la verdad que, buscando y amando hago mía". Las dos grandes actividades humanas. El trabajo y el ocio son las dos grandes actividades del hombre. Ambas necesarias y deben relacionarse armónica y jerárquicamente: el trabajo es medio y el ocio es fin. No es fácil conjugarlas armónicamente, el mundo antiguo tendió a subrayar la importancia del ocio y reducir la dignidad del trabajo, y el mundo moderno se inclina a sobrevalorar el poder del trabajo olvidando la fundamentalidad del ocio. La vida y los destinos humanos dependen del trabajo y del ocio, de donde se impone la necesidad de conocerlos valorarlos. Trabajo. El trabajo es medio, pero también se ha entendido como fin y negador del ocio. Dios puso al hombre en el paraíso"para que le cultivase y guardase", es decir que ya desde el paraíso el hombre debía laborar. Con la caída, el trabajo humano queda unido al esfuerzo, la fatiga y al dolor. Trabajar es ocuparse productivamente para adquirir las cosas necesarias para la vida, sobre todo la propia conservación, tiene dos caracteres esenciales, es personal y necesario, el trabajo es un deber personal impuesto por la naturaleza, al que sigue el derecho de todo sujeto humano a hacer del trabajo el medio apto para proveer la vida personal y familiar. Los trabajos remunerados no son nada deshonrosos. Nuestro Señor Jesucristo fue obrero y dignifico el trabajo. El trabajo considerado como fin. Destaca una parte positiva y una negativa. En su vertiente positiva la técnica alivia y eleva el trabajo a una perfección. La vertiente negativa manifiesta básicamente los peligros morales que se ciernen sobre los trabajadores. El "día séptimo" no es un simple descanso, sino el fin o la meta del trabajo. Para Max Scheler (1875-1928) trabajar significa "aproximarse a las cosas como es preciso, aferrarlas vigorosamente, pero también ser aferrado vigorosamente por ellas, asimilarlas en el esfuerzo a nuestras ideas teológicas, y a la vez fundirse en ellas y volverse semejante a ellas. Primero, porque se trata de aproximarse, el hombre es urgido a abordar el mundo a fin de dominarlo, pero sólo obedeciendo al mundo, es como se logra hacerlo. Segundo. Habla Scheler de agarrar o aferrar con vigor las cosas, pero a la vez de ser aferrado de un modo vigoroso por ellas, denota el elemento del esfuerzo propio del trabajo humano. Tercero. Cuando el hombre aborda al mundo por el trabajo, lo debe poner bajo sus ideas teológicas. Cuarto. "Fundirse" con las cosas, "volverse semejante" a ellas, si el hombre no logra insertar la actividad laboral en un sistema de fines específicamente espirituales, la materia termina por insertar su forma que, es indiferente a la actividad del espíritu. El valor del trabajo se mide en función del ocio que posibilita. El Ocio. Cuando el hombre alcanzó a satisfacer sus necesidades de casa, alimento y vestido, pudo cultivar un conocimiento desinteresado y comenzó a desarrollar las capacidades contemplativas y creadoras de su ser. El ocio implica un vertirse del hombre sobre sí mismo; en este movimiento hacia adentro, el hombre acoge dentro de sí todas las cosas, las "humaniza" y las "contempla". Lo primero que sugiere el ocio es el cese de la actividad laboral, el cuerpo cede en su tensión, se relaja y se pone al servicio del espíritu que contempla el clima del amor. El ocio es la gozosa actividad de la no-actividad, la contemplación silenciosa, lúcida y aceptadora de la realidad y el misterio del mundo, la pausa en el trabajo que, levantándose sobre el mero descanso, levanta al funcionario a la plenitud de su condición de hombre. La Filosofía se origina gracias al ocio, que implica apartarse de los "negocios" temporales, nace como desinteresada contemplación de la verdad y con clara conciencia de su libertad y de ser para sí misma fin y no medio para otra cosa. El ocio es lo más diverso a la pereza, la pereza significa renunciar al valor que tiene como persona; que no quiere ser lo que Dios quiere que sea, sólo puede haber ocio cuando el hombre se encuentra consigo mismo, el ocio es la captación intuitiva y contemplativa del ser y en el ser. Aristóteles, dice del ocio: "Así no puede vivir el hombre en tanto que no es hombre, sino únicamente en cuanto algo divino mora en él" La esencia del ocio es la celebración de la fiesta, en ella se contienen tres elementos: la relajación, la falta de esfuerzo, y el ejercicio mismo del ocio. Fuera del ámbito de la celebración del culto y de su irradiación, ni el ocio ni la fiesta pueden prosperar; separados del culto, el ocio se hace ocioso y el trabajo inhumano. Condiciones morales del filosofar. Scheler dice que la disposición moral necesita del amor, la humildad y el autodominio. Los tres obstáculos que se oponen al recto filosofar: egocentrismo, vitalismo y antropomorfismo. El egocentrismo significa ser vencido por el amor que abre el mundo del ser. El vitalismo es ser vencido en la humildad. El antropomorfismo es ser vencido por el dominio de sí mismo. Filosofar no consiste en separarse de la vida, sino poner la vida al servicio del pensamiento. TAREA DE LA FILOSOFÍA El filósofo es el responsable del pensamiento y la palabra. Inutilidad e inactualidad de la filosofía. La filosofía no puede volverse actual, por la sencilla razón de que es ella la que subordina la actualidad a su medida. La filosofía dice Heidegger, pertenece a esas "cosas raras" cuyo destino consiste en no encontrar una respuesta inmediata en el propio hoy. La Filosofía aparece como un saber no aplicable a la transformación o factura de las cosas. La Filosofía no es útil, pragmática como lo es la técnica. PENSAR LA EPOCA. El Filósofo, hombre comprometido. Comprometido con su época y con la historia. Su misión consiste en aportar al tiempo y a los hombres verdades permanentes y orientadoras. Hegel decía que la Filosofía es "una época puesta en ideas". Actual situación histórica. A partir del Renacimiento se inicia lo que se llama el mundo moderno. Nuestro tiempos se caracteriza por el levantamiento de las barreras o la apertura de los mundos. Horizonte geográfico. Se dilata el horizonte geográfico, con el descubrimiento del Nuevo Mundo, el planeta tierra ha sido verificado. Horizonte Macrofísico. Se dilata el horizonte astronómico. Con la Revolución copernicana y el invento de aparatos que prolongan el ojo humano. Horizonte histórico. La edad de la tierra parecía reducirse a algunos miles de años, necesitada ser contada ahora con millones de años: La historia se ha vuelto verdaderamente universal. Horizonte Microfísico. La prolongación de la mirada humana en el mundo de lo pequeño. Horizonte Demográfico. Ampliación, en Europa en el apogeo del capitalismo liberal, vive un auge de población desconocido hasta la fecha y que, a partir de entonces, aumenta. Horizonte Sociológico. Monstruosas aglomeraciones de las ciudades cosmopolitas. Horizonte Técnico. La cibernética ayuda al cerebro humano resolviéndole problemas de cálculo de enormes complejidades. Verdadera dimensión de las cosas. Estos sucesivos avances logrados en el plano material, jamás tendrán la potencia como para poder dar un paso cualitativo en el "mundo del espíritu". El saber técnico está manifestando ser compatible con un estado de barbarie cuando no viene integrado en un saber metafísico-religioso. Existe una inversión de los valores en el alma del hombre: los medios fueron convertidos n fines. Una alternativa. Obedecer ciegamente a la razón científico técnica, implica someter a la razón filosófica a la servidumbre. Sólo la presencia de la Metafísica podrá impedir la pérdida de la autonomía filosófica. PLATAFORMA FILOSOFICA BÁSICA. Actitud Filosófica. La filosofía tienen la tarea de fundamentar el edificio de una actitud metafísica. Una plataforma filosófica básica debe cimentarse sobre tres criterios fundamentales: una visión integral del hombre, una fundamentación metafísica de todo lo real, y una actitud realista ante las cosas. Doctrina integral del hombre. Sólo la existencia del espíritu humano lo hace capaz de hacer filosofía y lo hace ser Persona Humana. Una visión completa del hombre, supone la existencia de una realidad inmaterial y personal propia de cada individuo por la que éste puede alcanzar su plenitud, unidad, totalidad y autonomía. Pero el hombre no sólo es espíritu, también es corpóreo y en consecuencia, ni el espiritualismo puro, pero tampoco materialismo craso y reduccionista; Sólo la visión completa del hombre corpóreo espiritual será la única base admisible para la solución de todas las necesidades y aspiraciones humanas. Fundamentación Metafísica. Una Filosofía auténtica exige ser fundamentada sobre una metafísica que gira, alrededor del fundamento supremo del universo. Sólo una metafísica del ser es capaz de dar respuesta a las exigencias filosóficas más rigurosas. Actitud realista. En estrecha vinculación con una doctrina antropológica espiritualista y la admisión de una metafísica, se halla la actitud realista. El hombre no es la "luz", es e portador del lumen naturale. OPINIÓN PERSONAL . La Filosofía ante todo, por ser una actividad propia y exclusiva del hombre por su razón debe ser un hecho que le lleve al perfeccionamiento personal y en este caso sí le sea útil, creo que la Filosofía si debe de buscar el pragmatismo y el ser útil en la práctica, ya que esto hará de la filosofía un saber más enriquecedor que trascienda las fronteras de la teoría, sin dejar el mundo del deber ser que como sabemos no siempre se encuentra en la práctica. La búsqueda de la verdad debe de ser un acontecimiento relevante en cada instante en la vida del hombre y obviamente, para buscarla y encontrarla el hombre puede y debe hacer uso de sus potencialidades para llegar a ella, entre estas herramientas está la Filosofía como actividad, de aquí puedo encontrar el sentido de la actividad del filósofo. Todos los seres humanos ya sea en menor o mayor medida debemos de desarrollar esta actividad exclusiva en nosotros con el fin de la verdad. Me gusta ver más a la filosofía como una actividad que como una ciencia, ya que esta alude más a un saber que al hecho mismo del buscar y conocer, esto, creo, con un fin más enriquecedor del conocimiento. El libro me pareció muy bueno y me dio un conocimiento panorámico de lo que es la filosofía, espero saber aplicarlo en los estudios profesionales, hacerlo un saber de enlace y relación y a su vez, poder utilizarlo en la práctica. Fuente: http://www.google.com.ar/ espro que les aya servido, libe_rt
La Atmósfera es la capa gaseosa que rodea al planeta Tierra, se divide teóricamente en varias capas concéntricas sucesivas. Estas son, desde la superficie hacia el espacio exterior: troposfera, tropopausa, estratosfera, estratopausa, mesosfera y termosfera. Esta es uno de los componentes más importantes del clima terrestre. Es el presupuesto energético de ella la que primordialmente determina el estado del clima global, por ello es esencial comprender su composición y estructura (GCCIP, 1997). Los gases que la constituyen están bien mezclados en la atmósfera pero no es físicamente uniforme pues tiene variaciones significativas en temperatura y presión, relacionado con la altura sobre el nivel del mar (GCCIP, La troposfera o baja atmósfera, es la que está en íntimo contacto con la superficie terrestre y se extiende hasta los 11 km. s.n.m. en promedio (Miller, 1991). Tiene un grosor que varía desde 8 km. en los polos hasta 16 km. en el ecuador, principalmente debido a la diferencia de presupuesto energético en esos lugares. Abarca el 75% de la masa de gases totales que componen la atmósfera, el 99% de la masa de la atmósfera se encuentra bajo los 30 km. s.nm. (GCCIP, 1997; Miller, 1991). Consta en particular, en 99% de dos gases, el Nitrógeno (N2, 78%) y Oxígeno (O2, 21%). El 1% que resta consta principalmente de Argón (Ar, @ 1%) y Dióxido de Carbono (CO2, 0,035%). El aire de la troposfera incluye vapor de agua en cantidades variables de acuerdo a condiciones locales, por ejemplo, desde 0,01% en los polos hasta 5% en los trópicos (Miller, 1991). La temperatura disminuye con la altura, en promedio, 6,5° C por kilómetro. La mayoría de los fenómenos que involucran el clima ocurren en esta capa de la atmósfera (Kaufmann, 1968), en parte sustentado por procesos convectivos que son establecidos por calentamiento de gases superficiales, que se expanden y ascienden a niveles más altos de la troposfera donde nuevamente se enfrían (GCCIP, 1997). Esta capa incluye además los fenómenos biológicos. La tropopausa marca el límite superior de la troposfera, sobre la cual la temperatura se mantiene constante antes de comenzar nuevamente a aumentar por sobre los 20 km. s.n.m. Esta condición térmica evita la convección del aire y confina de esta manera el clima a la troposfera (GCCIP, 1997). La capa por sobre la tropopausa en la que la temperatura comienza a ascender se llama estratosfera, una vez que se alcanzan los 50 km. de altura, la temperatura ha llegado a los 0°C . Por lo tanto, se extiende desde los 20 km. hasta 48-50 km. s.n.m. (Miller, 1991; GCCIP, 1997). Contiene pequeñas cantidades de los gases de la troposfera en densidades decrecientes proporcional a la altura. Incluye también cantidades bajísimas de Ozono (O3) que filtran el 99% de los rayos ultravioleta (UV) provenientes de las radiaciones solares (Miller, 1991). Es esta absorción de UV la que hace ascender la temperatura hasta cerca de los 0°C . Este perfil de temperaturas permite que la capa sea muy estable y evita turbulencias, algo que caracteriza a la estratosfera. Esta, a su vez, está cubierta por la estratopausa, otra inversión térmica a los 50 km. (GCCIP, 1997). La mesosfera se extiende por encima de los 50 km., la temperatura desciende hasta -100 °C a los 80 km. su límite superior. Por sobre los 80 km. s.n.m., encima de la mesosfera, se extiende la termosfera, en ella la temperatura asciende continuamente hasta sobre los 1000 °C . Por la baja densidad de los gases a esas altitudes no son condiciones de temperatura comparables a las que existirían en la superficie (GCCIP, 1997). Composición de los gases de la Atmósfera Es una mezcla de varios gases y aerosoles (partículas sólidas y líquidas en suspensión), forma el sistema ambiental integrado con todos sus componentes. Entre sus variadas funciones mantiene condiciones aptas para la vida. Su composición es sorprendentemente homogénea, resultado de procesos de mezcla, el 50% de la masa está concentrado por debajo de los 5 km. s.n.m. Los gases más abundantes son el N2 y O2. A pesar de estar en bajas cantidades, los gases de invernadero cumplen un rol crucial en la dinámica atmosférica. Entre éstos contamos al CO2, el metano, los óxidos nitrosos, ozono, halocarbonos, aerosoles, entre otros. Debido a su importancia y el rol que juegan en el cambio climático global, se analizan a continuación. Diagrama de flujos energéticos atmosféricos (Miller, 1991) Previamente es importante entender que el clima terrestre depende del balance energético entre la radiación solar y la radiación emitida por la Tierra. En esta reirradiación, sumada a la emisión de energía geotectónica, los gases invernadero juegan un rol crucial. Al analizar los gases atmosféricos, incluidos los gases invernadero, es importante identificar las fuentes, reservorios o sinks y el ciclo de vida de cada uno de ellos, datos cruciales para controlar la contaminación atmosférica. Una fuente es el punto o lugar donde un gas, o contaminante, es emitido o sea, donde entran a la atmósfera. Un reservorio o sink, es un punto o lugar en el cual el gas es removido de la atmósfera, o por reacciones químicas o absorción en otros componentes del sistema climático, incluyendo océanos, hielos y tierra. Elciclo de vida denota el periodo promedio que una molécula de contaminante se mantiene en la atmósfera. Esto se determina por las velocidades de emisión y de captación en reservorios o sinks. El aumento de gases invernadero atmosféricos ha incrementado la capacidad que tiene para absorber ondas infrarrojas, aumentando su reforzamiento radiactivo, que aumenta la temperatura superficial. Este fenómeno se mide en watts por metro cuadrado (W/m2 EFECTO INVERNADERO Y CALENTAMIENTO GLOBAL El clima siempre ha variado, el problema del cambio climático es que en el último siglo el ritmo de estas variaciones se ha acelerado de manera anómala, a tal grado que afecta ya la vida planetaria . Al buscar la causa de esta aceleración, algunos científicos encontraron que existe una relación directa entre el calentamiento global o cambio climático y el aumento de las emisiones de gases de efecto invernadero (GEI), provocado principalmente por las sociedades industrializadas. Un fenómeno preocupa al mundo: el calentamiento global y su efecto directo, el cambio climático, que ocupa buena parte de los esfuerzos de la comunidad científica internacional para estudiarlo y controlarlo, porque, afirman, pone en riesgo el futuro de la humanidad. ¿Por qué preocupa tanto? Destacados científicos coinciden en que el incremento de la concentración de gases efecto invernadero en la atmósfera terrestre está provocando alteraciones en el clima. Coinciden también en que las emisiones de gases efecto invernadero (GEI) han sido muy intensas a partir de la Revolución Industrial, momento a partir del cual la acción del hombre sobre la naturaleza se hizo intensa. Originalmente, un fenómeno natural El efecto invernadero es un fenómeno natural que permite la vida en la Tierra. Es causado por una serie de gases que se encuentran en la atmósfera, provocando que parte del calor del sol que nuestro planeta refleja quede atrapado manteniendo la temperatura media global en +15º centígrados, favorable a la vida, en lugar de -18 º centígrados, que resultarían nocivos. Así, durante muchos millones de años, el efecto invernadero natural mantuvo el clima de la Tierra a una temperatura media relativamente estable y permitía que se desarrollase la vida. Los gases invernadero retenían el calor del sol cerca de la superficie de la tierra, ayudando a la evaporación del agua superficial para formar las nubes, las cuales devuelven el agua a la Tierra, en un ciclo vital que se había mantenido en equilibrio. Durante unos 160 mil años, la Tierra tuvo dos periodos en los que las temperaturas medias globales fueron alrededor de 5º centígrados más bajas de las actuales. El cambio fue lento, transcurrieron varios miles de años para salir de la era glacial. Ahora, sin embargo, las concentraciones de gases invernadero en la atmósfera están creciendo rápidamente, como consecuencia de que el mundo quema cantidades cada vez mayores de combustibles fósiles y destruye los bosques y praderas, que de otro modo podrían absorber dióxido de carbono y favorecer el equilibrio de la temperatura. Ante ello, la comunidad científica internacional ha alertado de que si el desarrollo mundial, el crecimiento demográfico y el consumo energético basado en los combustibles fósiles, siguen aumentando al ritmo actual , antes del año 2050 las concentraciones de dióxido de carbono se habrán duplicado con respecto a las que había antes de la Revolución Industrial. Esto podría acarrear consecuencias funestas para la viva planetaria. Entonces se puede decir que el efecto invernadero es uno de los fenómenos naturales más conocidos debido a sus graves secuelas. Es causado por el aumento en la concentración de los gases de invernadero: el dióxido de carbono (CO2), los clorofluorocarbonados (CFC), el metano (CH4), el óxido de nitrógeno (N2O) y el ozono de la tropósfera. En pequeñas concentraciones, los gases de invernadero son necesarios para nuestra subsistencia. La energía solar pasa a través de ellos, llega a la tierra y, parte de ella, se devuelve, en forma de energía infrarroja. Es entonces cuando los gases de invernadero la atrapan y conservan el calor de la radiación infrarroja, al modo en que el calor se mantiene en un invernadero. Pero en mayores cantidades, la consecuencia principal del efecto de invernadero es el calentamiento global de la atmósfera. Eso Porque debido a que los gases contaminantes (o de invernadero), como el dióxido de carbono, provocan que la energía solar quede atrapada en la atmósfera. Y sólo basta una leve modificación de la temperatura para que se rompa el delicado equilibrio de la naturaleza. No deja de ser tremendamente grave, porque en la medida que el planeta se calienta, los cascos polares se derriten. Además, el calor del sol, cuando llega a los polos, es reflejado nuevamente hacia el espacio. Y, al derretirse los casquetes polares, menor es la cantidad de calor que se refleja, lo que hace que la tierra se caliente aún más. Con esto, se evaporará más agua de los océanos, y en otros lados habrá lluvias torrenciales, inundaciones, vientos huracanados, sequías, olas de calor y heladas...entre otros desastres naturales. Gases Invernaderos La atmósfera de la Tierra está compuesta de muchos gases. Los más abundantes son el nitrógeno y el oxígeno (este último es el que necesitamos para respirar). El resto, menos de una centésima parte, son gases llamados "de invernadero". No los podemos ver ni oler, pero están allí. Algunos de ellos son el dióxido de carbono, el metano y el dióxido de nitrógeno. En pequeñas concentraciones, los gases de invernadero son vitales para nuestra supervivencia. Cuando la luz solar llega a la Tierra, un poco de esta energía se refleja en las nubes; el resto atraviesa la atmósfera y llega al suelo. Gracias a esta energía, por ejemplo, las plantas pueden crecer y desarrollarse. Pero no toda la energía del Sol es aprovechada en la Tierra; una parte es "devuelta" al espacio. Como la Tierra es mucho más fría que el Sol, no puede devolver la energía en forma de luz y calor. Por eso la envía de una manera diferente, llamada "infrarroja". Un ejemplo de energía infrarroja es el calor que emana de una estufa eléctrica antes de que las barras comiencen a ponerse rojas. Los gases de invernadero absorben esta energía infrarroja como una esponja, calentando tanto la superficie de la Tierra como el aire que la rodea. Si no existieran los gases de invernadero, el planeta sería ¡cerca de 30 grados más frío de lo que es ahora! En esas condiciones, probablemente la vida nunca hubiera podido desarrollarse. Esto es lo que sucede, por ejemplo, en Marte. El efecto de calentamiento que producen los gases se llama efecto invernadero: la energía del Sol queda atrapada por los gases, del mismo modo en que el calor queda atrapado detrás de los vidrios de un invernadero. En el Sol se producen una serie de reacciones nucleares que tienen como consecuencia la emisión de cantidades enormes de energía. Una parte muy pequeña de esta energía llega a la Tierra, y participa en una serie de procesos físicos y químicos esenciales para la vida. Prácticamente toda la energía que nos llega del Sol está constituida por radiación infrarroja, ultravioleta y luz visible. Mientras que la atmósfera absorbe la radiación infrarroja y ultravioleta, la luz visible llega a la superficie de la Tierra. Una parte muy pequeña de esta energía que nos llega en forma de luz visible es utilizada por las plantas verdes para producir hidratos de carbono, en un proceso químico conocido con el nombre de fotosíntesis. En este proceso, las plantas utilizan anhídrido carbónico y luz para producir hidratos de carbono (nuevos alimentos) y oxígeno. En consecuencia, las plantas verdes juegan un papel fundamental para la vida, ya que no sólo son la base de cualquier cadena alimenticia, al ser generadoras de alimentos sino que, además, constituyen el único aporte de oxígeno a la atmósfera. En la fotosíntesis participa únicamente una cantidad muy pequeña de la energía que nos llega en forma de luz visible. El resto de esta energía es absorbida por la superficie de la Tierra que, a su vez, emite gran parte de ella como radiación infrarroja. Esta radiación infrarroja es absorbida por algunos de los componentes de la atmósfera (los mismos que absorben la radiación infrarroja que proviene del Sol) que, a su vez, la remiten de nuevo hacia la Tierra. El resultado de todo esto es que hay una gran cantidad de energía circulando entre la superficie de la Tierra y la atmósfera, y esto provoca un calentamiento de la misma. Así, se ha estimado que, si no existiera este fenómeno, conocido con el nombre de efecto invernadero, la temperatura de la superficie de la Tierra sería de unos veinte grados bajo cero. Entre los componentes de la atmósfera implicados en este fenómeno, los más importantes son el anhídrido carbónico y el vapor de agua (la humedad), que actúan como un filtro en una dirección, es decir, dejan pasar energía, en forma de luz visible, hacia la Tierra, mientras que no permiten que la Tierra emita energía al espacio exterior en forma de radiación infrarroja. Una gran preocupación De acuerdo a los diferentes estudios científicos, apoyados por la ONU, se calcula que en el año 2100, la temperatura media de la Tierra será entre 1,5 y 6 grados más que la de 1980. Y es que las temperaturas se están elevando a escala global, y los 15 años más calurosos desde que se tiene registro (1867) han ocurrido desde 1980. Esta es la gran preocupación de los científicos, ya que, se podrían producir hambrunas y epidemias, las que serían frecuentes en todos los países. También podrían derretirse témpanos, desaparecer flora y fauna, volverse desérticas las tierras de cultivo, estropearse arrecifes e inundarse las islas del Caribe. De que es serio, es serio. Pero lo peor de todo es que nosotros mismos somos los que estamos "colaborando" con el calentamiento global de nuestro hábitat al utilizar combustibles fósiles (carbon, petróleo y sus derivados como parafina, gas licuado y bencina), permitir la contaminación industrial, entre otras, y la destrucción de bosques y tierras húmedas. Se cree que, de seguir aumentando la temperatura, el calentamiento global se repartirá en forma desigual. Será menor en las zonas costeras donde el mar refresca la tierra, y mayor en las zonas continentales, donde el sol quemará con todas sus fuerzas. Lo anterior tendrá su punto máximo en el norte de América y en el norte y centro de Asia. Es más, se anuncia un violento cambio climático en Estados Unidos y China, dos de las naciones más desarrolladas, pero más contaminantes de nuestro planeta. Pese a lo anterior, el calentamiento global está afectando el Ártico mucho más que el resto del planeta. Algunos lugares de Alaska se han calentado hasta 10 veces más que el promedio mundial, y se espera que la temperatura aumente el doble en el futuro. Pero da la sensación de que las autoridades no creen mucho en este desastre, y más bien lo ven como algo muy lejano, que puede que - si tenemos suerte - no ocurra. Existen 150 países tratando de ponerse de acuerdo sobre cómo frenar el aumento del "efecto invernadero". Uno de los resultados del Efecto Invernadero, es mantener una concentración de vapor de agua en la baja troposfera mucho más alta que la que sería posible en las bajas temperaturas que existirían si no existiese el fenómeno. Se especula que en Venus, el volcanismo elevó las temperaturas hasta el punto que no se pudieron formar los océanos, y el vapor resultante produjo un Efecto Invernadero, exacerbado más aún por la liberación de dióxido de carbono en rocas carbonatadas, terminando en temperaturas superficiales de más de 400 °C (Anderson et al, 1987). Teorías que intentan explicar los cambios de temperatura El clima varía por procesos naturales tanto internos como externos. Entre los primeros destacan las emisiones volcánicas, y otras fuentes de gases de efecto invernadero (como por ejemplo el metano emitido en las granjas animales). Entre los segundos pueden citarse los cambios en la órbita de la Tierra alrededor del Sol (Teoría de Milankovitch) y la propia actividad solar. Los especialistas en climatología aceptan que la Tierra se ha calentado recientemente (El IPCC cita un incremento de 0.6 ± 0.2 °C en el siglo XX). Más controvertida es la posible explicación de lo que puede haber causado este cambio. Tampoco nadie discute que la concentración de gases invernadero ha aumentado y que la causa de este aumento es probablemente la actividad industrial durante los últimos 200 años. También existen diferencias llamativas entre las mediciones realizadas en las estaciones meteorológicas situadas en tierra (con registros en raras ocasiones comenzados desde finales del siglo XIX y en menos ocasiones todavía de una forma continuada) y las medidas de temperaturas realizadas con satélites desde el espacio (todas comenzadas a partir de la segunda mitad del siglo XX). Estas diferencias se han achacado a los modelos utilizados en las predicciones del aumento de temperatura existente en el entorno de las propias estaciones meteorológicas debido al desarrollo urbano (el efecto llamado Isla de calor). Dependiendo del aumento predicho por estos modelos las temperaturas observadas por estas estaciones serán mayores o menores (en muchas ocasiones incluso prediciendo disminuciones de las temperaturas). 1. Teoría de los gases invernadero La hipótesis de que los incrementos o descensos en concentraciones de gases de efecto invernadero pueden dar lugar a una temperatura global mayor o menor fue postulada extensamente por primera vez a finales del s. XIX por Svante Arrhenius, como un intento de explicar las eras glaciales. Sus coetáneos rechazaron radicalmente su teoría. La teoría de que las emisiones de gases de efecto invernadero están contribuyendo al calentamiento de la atmósfera terrestre ha ganado muchos adeptos y algunos oponentes en la comunidad científica durante el último cuarto de siglo. El IPCC, que se fundó para evaluar los riesgos de los cambios climáticos inducidos por los seres humanos, atribuye la mayor parte del calentamiento reciente a las actividades humanas. La Academia Nacional de Ciencias de Estados Unidos (National Academy of Sciences, NAC) también respaldó esa teoría. El físico atmosférico Richard Lindzen y otros escépticos se oponen a aspectos parciales de la teoría. Hay muchos aspectos sutiles en esta cuestión. Los científicos atmosféricos saben que el hecho de añadir dióxido de carbono CO2 a la atmósfera, sin efectuar otros cambios, tenderá a hacer más cálida la superficie del planeta. Pero hay una cantidad importante de vapor de agua (humedad, nubes) en la atmósfera terrestre, y el agua es un gas de efecto invernadero. Si la adición de CO2 a la atmósfera aumenta levemente la temperatura, se espera que más vapor de agua se evapore desde la superficie de los océanos. El vapor de agua así liberado a la atmósfera aumenta a su vez el efecto invernadero (El vapor de agua es un gas de invernadero más eficiente que el CO2. A este proceso se le conoce como la retroalimentación del vapor de agua (water vapor feedback en inglés). Es esta retroalimentación la causante de la mayor parte del calentamiento que los modelos de la atmósfera predicen que ocurrirá durante las próximas décadas. La cantidad de vapor de agua así como su distribución vertical son claves en el cálculo de esta retroalimentación. Los procesos que controlan la cantidad de vapor en la atmósfera son complejos de modelar y aquí radica gran parte de la incertidumbre sobre el calentamiento global. El papel de las nubes es también crítico. Las nubes tienen efectos contradictorios en el clima. Cualquier persona ha notado que la temperatura cae cuando pasa una nube en un día soleado de verano, que de otro modo sería más caluroso. Es decir: las nubes enfrían la superficie reflejando la luz del Sol de nuevo al espacio. Pero también se sabe que las noches claras de invierno tienden a ser más frías que las noches con el cielo cubierto. Esto se debe a que las nubes también devuelven algo de calor a la superficie de la Tierra. Si el CO2 cambia la cantidad y distribución de las nubes podría tener efectos complejos y variados en el clima y una mayor evaporación de los océanos contribuiría también a la formación de una mayor cantidad de nubes. A la vista de esto, no es correcto imaginar que existe un debate entre los que "defienden" y los que "se oponen" a la teoría de que la adición de CO2 a la atmósfera terrestre dará como resultado que las temperaturas terrestres promedio serán más altas. Más bien, el debate se centra sobre lo que serán los efectos netos de la adición de CO2, y en si los cambios en vapor de agua, nubes y demás podrán compensar y anular este efecto de calentamiento. El calentamiento observado en la Tierra durante los últimos 50 años parece estar en oposición con la teoría de los escépticos de que los mecanismos de autorregulación del clima compensarán el calentamiento debido al CO2. Los científicos han estudiado también este tema con modelos computerizados del clima. Estos modelos se aceptan por la comunidad científica como válidos solamente cuando han demostrado poder simular variaciones climáticas conocidas, como la diferencia entre el verano y el invierno, la Oscilación del Atlántico Norte o El Niño. Se ha encontrado universalmente que aquellos modelos climáticos que pasan estas evaluaciones también predicen siempre que el efecto neto de la adición de CO2 será un clima más cálido en el futuro, incluso teniendo en cuenta todos los cambios en el contenido de vapor de agua y en las nubes. Sin embargo, la magnitud de este calentamiento predicho varía según el modelo, lo cual probablemente refleja las diferencias en el modo en que los diferentes modelos representan las nubes y los procesos en que el vapor de agua es redistribuido en la atmósfera. Sin embargo, las predicciones obtenidas con estos modelos no necesariamente tienen que cumplirse en el futuro. Los escépticos en esta materia responden que las predicciones contienen exageradas oscilaciones de más de un 400% entre ellas, que hace que las conclusiones sean inválidas, contradictorias o absurdas. Los ecólogos responden que los escépticos no han sido capaces de producir un modelo de clima que no prediga que las temperaturas se elevarán en el futuro. Los escépticos discuten la validez de los modelos teóricos basados en sistemas de ecuaciones diferenciales, que son sin embargo un recurso común en todas las áreas de la investigación de problemas complejos difíciles de reducir a pocas variables, cuya incertidumbre es alta siempre por la simplificación de la realidad que el modelo implica y por la componente caótica de los fenómenos implicados. Los modelos evolucionan poniendo a prueba su relación con la realidad prediciendo (retrodiciendo) evoluciones ya acaecidas y, gracias a la creciente potencia de los ordenadores, aumentando la resolución espacial y temporal, puesto que trabajan calculando los cambios que afectan a pequeñas parcelas de la atmósfera en intervalos de tiempo discretos. Las industrias que utilizan el carbón como fuente de energía, los tubos de escape de los automóviles, las chimeneas de las fábricas y otros subproductos gaseosos procedentes de la actividad humana contribuyen con cerca de 22.000 millones de toneladas de dióxido de carbono (correspondientes a 6.000 millones de toneladas de carbón puro) y otros gases de efecto invernadero a la atmósfera terrestre cada año. La concentración atmosférica de CO2 se ha incrementado hasta un 31% por encima de los niveles pre-industriales, desde 1750. Esta concentración es considerablemente más alta que en cualquier momento de los últimos 420.000 años, el período del cual han podido obtenerse datos fiables a partir de núcleos de hielo. Se cree, a raíz de una evidencia geológica menos directa, que los valores de CO2 estuvieron a esta altura por última vez hace 40 millones de años. Alrededor de tres cuartos de las emisiones antropogénicas de CO2 a la atmósfera durante los últimos 20 años se deben al uso de combustibles fósiles. El resto es predominantemente debido a usos agropecuarios, en especial deforestación. Los gases de efecto invernadero toman su nombre del hecho de que no dejan salir al espacio la energía que emite la Tierra, en forma de radiación infrarroja, cuando se calienta con la radiación procedente del Sol, que es el mismo efecto que producen los vidrios de un invernadero de jardinería. Aunque éstos se calientan principalmente al evitar el escape de calor por convección. El efecto invernadero natural que suaviza el clima de la Tierra no es cuestión que se incluya en el debate sobre el calentamiento global. Sin este efecto invernadero natural las temperaturas caerían aproximadamente 30 ºC. Los océanos podrían congelarse, y la vida, tal como la conocemos, sería imposible. Para que este efecto se produzca, son necesarios estos gases de efecto invernadero, pero en proporciones adecuadas. Lo que preocupa a los climatólogos es que una elevación de esa proporción producirá un aumento de la temperatura debido al calor atrapado en la baja atmósfera. Los incrementos de CO2 medidos desde 1958 en Mauna Loa muestran una concentración que se incrementa a una tasa de cerca de 1.5 ppm por año. De hecho, resulta evidente que el incremento es más rápido de lo que sería un incremento lineal. El 21 de marzo del 2004 se informó de que la concentración alcanzó 376 ppm (partes por millón). Los registros del Polo Sur muestran un crecimiento similar al ser el CO2 un gas que se mezcla de manera homogénea en la atmósfera. 2. Teoría de la variación solar Se han propuesto varias hipótesis para relacionar las variaciones de la temperatura terrestre con variaciones de la actividad solar, que han sido refutadas por los físicos Terry Sloan y Arnold W. Wolfendale. La comunidad meteorológica ha respondido con escepticismo, en parte, porque las teorías de esta naturaleza han sufrido idas y venidas durante el curso del siglo XX. Sami Solanki, director del Instituto Max Planck para la Investigación del Sistema Solar, en El Sol está en su punto álgido de actividad durante los últimos 60 años, y puede estar ahora afectando a las temperaturas globales. (...) Las dos cosas: el Sol más brillante y unos niveles más elevados de los así llamados "gases de efecto invernadero", han contribuido al cambio de la temperatura de la Tierra, pero es imposible decir cuál de los dos tiene una incidencia mayor. Willie Soon y Sallie Baliunas del Observatorio de Harvard correlacionaron recuentos históricos de manchas solares con variaciones de temperatura. Observaron que cuando ha habido menos manchas solares, la Tierra se ha enfriado y que cuando ha habido más manchas solares, la Tierra se ha calentado, aunque, ya que el número de manchas solares solamente comenzó a estudiarse a partir de 1700, el enlace con el período cálido medieval es, como mucho, una especulación. Las teorías han defendido normalmente uno de los siguientes tipos: Los cambios en la radiación solar afectan directamente al clima. Esto es considerado en general improbable, ya que estas variaciones parecen ser pequeñas. Las variaciones en el componente ultravioleta tienen un efecto. El componente UV varía más que el total. Efectos mediados por cambios en los rayos cósmicos (que son afectados por el viento solar, el cual es afectado por el flujo solar), tales como cambios en la cobertura de nubes. Aunque pueden encontrarse a menudo correlaciones, el mecanismo existente tras esas correlaciones es materia de especulación. Muchas de estas explicaciones especulativas han salido mal paradas del paso del tiempo, y en un artículo "Actividad solar y clima terrestre, un análisis de algunas pretendidas correlaciones" (Journal of Atmospheric and Solar-Terrestrial Physics, 2003 p801-812) Peter Laut demuestra que hay inexactitudes en algunas de las más populares, notablemente en las de Svensmark y Lassen (ver más abajo). En 1991 Knud Lassen, del Instituto Meteorológico de Dinamarca, en Copenhague, y su colega Eigil Friis-Christensen, encontraron una importante correlación entre la duración del ciclo solar y los cambios de temperatura en el Hemisferio Norte. Inicialmente utilizaron mediciones de temperaturas y recuentos de manchas solares desde 1861 hasta 1989, pero posteriormente encontraron que los registros del clima de cuatro siglos atrás apoyaban sus hallazgos. Esta relación aparentemente explicaba, de modo aproximado, el 80% de los cambios en las mediciones de temperatura durante ese período. Sallie Baliuna, un astrónomo del Centro Harvard-Smithsoniano para la astrofísica ( Harvard-Smithsonian Center for Astrophysics), se encuentra entre los que apoyan la teoría de que los cambios en el Sol "pueden ser responsables de los cambios climáticos mayores en la Tierra durante los últimos 300 años, incluyendo parte de la reciente ola de calentamiento global". Sin embargo, el 6 de mayo de 2000 la revista New Scientist informó que Lassen y el astrofísico Peter Thejil habían actualizado la investigación de Lassen de 1991 y habían encontrado que, a pesar de que los ciclos solares son responsables de cerca de la mitad de la elevación de temperatura desde 1900, no logran explicar una elevación de 0,4 ºC desde 1980: Las curvas divergen a partir de 1980 y se trata de una desviación sorprendentemente grande. Algo más está actuando sobre el clima. [...] Tiene las «huellas digitales» del efecto invernadero. Posteriormente, en el mismo año, Peter Stoff y otros investigadores de Centro Hadley, en el Reino Unido, publicaron un artículo en el que dieron a conocer el modelo de simulación hasta la fecha más exhaustivo sobre el clima del Siglo XX. Su estudio prestó atención tanto a los agentes forzadores naturales (variaciones solares y emisiones volcánicas) como al forzamiento antropogénico (gases invernadero y aerosoles de sulfato). Al igual que Lassen y Thejil, encontraron que los factores naturales daban explicación al calentamiento gradual hasta aproximadamente 1960, seguido posteriormente de un retorno a las temperaturas de finales del siglo XIX, lo cual era consistente con los cambios graduales en el forzamiento solar a lo largo del siglo XX y la actividad volcánica durante las últimas décadas. Sin embargo, estos factores no podían explicar por sí solos el calentamiento en las últimas décadas. De forma similar, el forzamiento antropogénico, por sí solo, era insuficiente para explicar el calentamiento entre 1910-1945, pero era necesario para simular el calentamiento desde 1976. El equipo de Stott encontró que combinando todos estos factores se podía obtener una simulación cercana a la realidad de los cambios de temperatura globales a lo largo del siglo XX. Predijeron que las emisiones continuadas de gases invernadero podían causar incrementos de temperatura adicionales en el futuro " a un ritmo similar al observado en las décadas recientes". 3. Otras hipótesis Se han propuesto otras hipótesis en el ámbito científico: El incremento en temperatura actual es predecible a partir de la teoría de las Variaciones orbitales, según la cual, los cambios graduales en la órbita terrestre alrededor del Sol y los cambios en la inclinación axial de la Tierra afectan a la cantidad de energía solar que llega a la Tierra. El calentamiento se encuentra dentro de los límites de variación natural y no necesita otra explicación particular. El calentamiento es una consecuencia del proceso de salida de un periodo frío previo, la Pequeña Edad de Hielo y no requiere otra explicación. En ocasiones se atribuye el aumento en las medidas al sesgo en la lectura de los termómetros de las Estaciones Meteorológicas "inmersas" en las islas de calor que han formado las edificaciones en las ciudades. Algunos escépticos argumentan que la tendencia al calentamiento no está dentro de los márgenes de lo que es posible observar (dificultad de generar un promedio de la temperatura terrestre para todo el globo debido a la ausencia de estaciones meteorológicas, especialmente en el océano, sensibilidad de los instrumentos a cambios de unas pocas decenas de grados Celsius), y que por lo tanto no requiere de una explicación a través del efecto invernadero. Más evidencias del Calentamiento Global - No existe certeza sobre cómo seguirá evolucionando el calentamiento global, existen modelos creados por los científicos que proponen teorías sobre los resultados de un calentamiento global extremo. - Un cuarto de la población China está actualmente en riesgo por la velocidad en la que sus glaciares se están derritiendo. El calentamiento global costará a China dos tercios de sus glaciares para mitad de siglo. - La capa de hielo del planeta tiene suficiente agua como para incrementar el nivel de los mares siete metros, si estos se derritieran. - El bloque de hielo más grande del planeta, el Ward Hunt en la costa norte de Canadá, se partió en dos durante el período 2000 a 2002. - En mayo del 2000 Argentina reportó las peores lluvias en 100 años. - De seis glaciares que tenía Venezuela en los Andes en 1972, sólo quedan dos y los científicos predicen que en 10 años no quedará ninguno. Efectos del Calentamiento Global A medida que el planeta se calienta, los cascos polares se derriten. Además el calor del sol cuando llega a los polos, es reflejado de nuevo hacia el espacio. Al derretirse los casquetes polares, menor será la cantidad de calor que se refleje, lo que hará que la tierra se caliente aún más. El calentamiento global también ocasionará que se evapore más agua de los océanos. El vapor de agua actúa como un gas invernadero. Así pues, habrá un mayor calentamiento. Esto contribuye al llamado "efecto amplificador". El Panel de las Naciones Unidas sobre Cambios Climáticos (IPCC) ha reunido a cientos de científicos. Su primer informe, publicado en 1990, confirma que de duplicarse la cantidad de CO2 en la atmósfera, el efecto amplificador producirá un incremento total en la temperatura del planeta de 2.5 grados Celsius. Un calentamiento de esta naturaleza, tendrá graves efectos sobre el planeta. Mientras se deshielan las capas polares, se elevará el nivel del mar, lo cual hará que se inunden las tierras más bajas, y quizás desaparezcan países completos en el Pacífico y afectaran gravemente otros en Asia. Por otra parte, mientras el ba lance energético de la atmósfera cambia, habrá cambios drásticos en el clima mundial, ocasionando severas fluctuaciones en la temperatura y la pluviosidad, alterando significativamente las estaciones de cultivos agrícolas. Los desiertos tenderán a expandirse, las arenas del norte de África podrán invadir al Mediterráneo, así como podrán retornar las tormentas de polvo en el Medio Oeste norteamericano. ¿Fueron acaso las sequías en 1980 de Etiopia y Sudán víctimas del efecto invernadero? Nadie puede responder a esta pregunta, pero son esos los efectos que los científicos pronostican. Consecuencias Se conoce las consecuencias que se pueden esperar del efecto invernadero para los próximos años en caso de que no vuelva a valores más bajos: · Aumento de la temperatura media del planeta. · Aumento de sequías en unas zonas e inundaciones en otras. · Mayor frecuencia de formación de huracanes. · Progresivo deshielo de los casquetes polares, con la consiguiente subida de los niveles de los océanos. · Incremento de las precipitaciones a nivel planetario pero lloverá menos días y más torrencialmente. · Aumento de la cantidad de días calurosos, traducido en olas de calor. ¿Qué hacen las autoridades al respecto? El informe de IPCC contribuyó para que 150 países firmaran la Convención sobre cambios Climáticos, durante la Cumbre de la Tierra celebrada en Río de Janeiro en 1992. La Convención hace un llamado a los países industrializados para que en el año 2000 retornen las emisiones de gases invernaderos a los niveles de 1990. También busca estabilizar las concentraciones de gases invernaderos en la atmósfera a niveles que prevengan severas intervenciones (inducidas por el hombre) del sistema climático". Sin embargo la Convención deja una serie de preguntas sin respuestas. Desde Río, las conversaciones sobre la convención han estado en mano del Comité negociador intergubernamental (INC). Los países que han ratificado la convención se reunirán por primera vez en Berlín en marzo de 1995. Dicha reunión deberá responder las siguientes preguntas: ¿Qué pasará después del año 2000? ¿Para ser verdaderamente efectivo, hasta que niveles y cuando deberán reducirse los gases invernadero? ¿Podrán los países seguir emitiendo más CO2, si plantan suficientes árboles para absorber los gases del aire? ¿A qué nivel tope deberán reducirse mundialmente dichas emisiones a fin de estabilizar los gases invernaderos en la atmósfera? De acuerdo con el IPCC, si fuésemos a estabilizar las concentraciones de gases a los niveles actuales, deberán reducir, en la actualidad, las emisiones del CO2 en un 60 por ciento. La Convención requiere que todas las naciones midan tanto sus emisiones de gases invernadero así como los llamados "pozos de carbón", tales como los bosques que absorben dichos gases. Y deberán diseñar planes nacionales para ser más eficientes energéticamente, modificar las políticas de transporte y motivar a las personas para que disminuyan su contribución al efecto invernadero. ¿Que pueden hacer los ciudadanos comunes? Reducir el uso de vehículos automotores. De ser posible vivir cerca del colegio u oficina. Hacer sus compras en su vecindario. Usar el transporte público y las bicicletas. Comprar artefactos del hogar, tales como refrigeradores y bombillas, que sean más eficientes en el consumo de energía. Apoyar medidas poco populares, pero que son ambientalmente importantes, tales como impuestos a los combustibles y que lo recaudado sea utilizado para prevenir el calentamiento global. Presionar a sus representantes públicos para que mejoren los servicios de transporte colectivo y promuevan el ahorro de energía. Instar a los gobiernos para que diseñen un plan nacional de reducción de emisiones de gases invernadero. El WWF tiene por objetivo conservar la naturaleza y los procesos ecológicos: Preservando la diversidad genética, de especies y de ecosistemas Garantizando un uso sostenible de los recursos naturales renovables tanto ahora como a largo plazo y Promoviendo acciones destinadas a reducir la contaminación y el despilfarro de los recursos y la energía Protocolo de Kyoto El Protocolo de Kioto sobre el cambio climático[1] es un acuerdo internacional que tiene por objetivo reducir las emisiones de seis gases provocadores del calentamiento global: dióxido de carbono (CO2), gas metano (CH4) y óxido nitroso (N2O), además de tres gases industriales fluorados: Hidrofluorocarbonos (HFC), Perfluorocarbonos (PFC) y Hexafluoruro de azufre (SF6), en un porcentaje aproximado de un 5%, dentro del periodo que va desde el año 2008 al 2012, en comparación a las emisiones al año 1990. Por ejemplo, si la contaminación de estos gases en el año 1990 alcanzaba el 100%, al término del año 2012 deberá ser del 95%. Es preciso señalar que esto no significa que cada país deba reducir sus emisiones de gases regulados en un 5%, sino que este es un porcentaje a nivel global y, por el contrario, cada país obligado por Kioto tiene sus propios porcentajes de emisión que debe disminuir. Este instrumento se encuentra dentro del marco de la Convención Marco de las Naciones Unidas sobre el Cambio Climático (CMNUCC), suscrita en 1992 dentro de lo que se conoció como la Cumbre de la Tierra de Río de Janeiro. El protocolo vino a dar fuerza vinculante a lo que en ese entonces no pudo hacer la CMNUCC. Este instrumento se encuentra dentro del marco de la Convención Marco de las Naciones Unidas sobre el Cambio Climático (CMNUCC), suscrita en 1992 dentro de lo que se conoció como la Cumbre de la Tierra de Río de Janeiro. El protocolo vino a dar fuerza vinculante a lo que en ese entonces no pudo hacer la CMNUCC. Se estableció que el compromiso sería de obligatorio cumplimiento cuando lo ratificasen los países industrializados responsables de, al menos, un 55% de las emisiones de CO2. Con la ratificación de Rusia en noviembre de 2004, después de conseguir que la UE pague la reconversión industrial, así como la modernización de sus instalaciones, en especial las petroleras, el protocolo ha entrado en vigor. Además del cumplimiento que estos países hicieron en cuanto a la emisión de gases de efecto invernadero se promovió también la generación de un desarrollo sostenible, de tal forma que se utilice también energías no convencionales y así disminuya el calentamiento global. El gobierno de Estados Unidos firmó el acuerdo pero no lo ratificó (ni Bill Clinton, ni George W. Bush), por lo que su adhesión sólo fue simbólica hasta el año 2001 en el cual el gobierno de Bush se retiró del protocolo, según su declaración, no porque no compartiese su idea de fondo de reducir las emisiones, sino porque considera que la aplicación del Protocolo es ineficiente e injusta al involucrar sólo a los países industrializados y excluir de las restricciones a algunos de los mayores emisores de gases en vías de desarrollo (China e India en particular), lo cual considera que perjudicaría gravemente la economía estadounidense Autor: Nicolas Ariel Libert
La nanotecnología, es un a nueva ciencia que esta emprendiendo su camino, desde el descubrimiento de los fullerenos, partículas a escalas manométricas conformadas por átomos de carbono, hasta novedosas maquinas que podrán ser la salvación de la humanidad en un futuro no tan lejano. Ya que podrán ser implantadas en nuestro cuerpo sin ninguna dificultad. INTRODUCCIÓN La nanotecnología, nació como ciencia hace muy poco tiempo. Uno de los más importantes descubrimientos para la humanidad, una nueva forma de ver las cosas. Ya que de ello trata, de ver de una distinta manera las cosas que no vemos y que participaran de manera continua en el desarrollo de nuestra vida. La nanotecnología nace con el fin de ayudar a la humanidad para su mejor desarrollo. Es así que este trabajo esta dedicado a una explicación de la nueva ciencia y de que es lo que deberíamos saber sobre ella, para poder afrontar todo una nueva era, la era de la nanotecnología. Para ello también se presentara una breve reseña de cómo nace, para posteriormente tocar los temas que son necesarios desarrollar para nuestro objetivo, saber a que nos enfrentamos y saber como esta nueva ciencia nos va ayudar en nuestra vida. I NANOTECNOLOGÍA 1.1. CONCEPTO La nanotecnología es el estudio, diseño, creación, síntesis, manipulación y aplicación de materiales, aparatos y sistemas funcionales a través del control de la materia a nano escala, y la explotación de fenómenos y propiedades de la materia a nano escala. Cuando se manipula la materia a la escala tan minúscula de átomos y moléculas, demuestra fenómenos y propiedades totalmente nuevas. Por lo tanto, científicos utilizan la nanotecnología para crear materiales, aparatos y sistemas novedosos y poco costosos con propiedades únicas La nanotecnología tiene tres objetivos fundamentales, los cuales son: 1. Colocar cada átomo en el lugar adecuado. 2. Conseguir que casi cualquier estructura sea consistente con las leyes de la física y la química que podemos especificar y describir a nivel atómico. 3. Lograr que los costes de fabricación no excedan, ampliamente, el coste de las materias primeras y la energía empleadas en el proceso. 1.2. HISTORIA Los años 40: Von Neuman estudia la posibilidad de crear sistemas que se auto-reproducen como una forma de reducir costes. 1959: Richard Feynmann habla por primera vez en una conferencia sobre el futuro de la investigación científica: "A mi modo de ver, los principios de la Física no se pronuncian en contra de la posibilidad de maniobrar las cosas átomo por átomo". 1966: Se realiza la película "Viaje alucinante" que cuenta la travesía de unos científicos a través del cuerpo humano. Los científicos reducen su tamaño al de una partícula y se introducen en el interior del cuerpo de un investigador para destrozar el tumor que le está matando. Por primera ve en la historia, se considera esto como una verdadera posibilidad científica. La película es un gran éxito. 1982 Gerd Binning y Heinrich Rohrer, descubrieron el Microscopio de Efecto Túnel (Premio Nobel 1986). 1985: Se descubren los buckminsterfullerenes 1989: Se realiza la película "Cariño he encogido a los niños", una película que cuenta la historia de un científico que inventa una máquina que puede reducir el tamaño de las cosas utilizando láser. 1.3. NANO Una milésima parte de un millón II QUÍMICA DEL CARBONO 2.1 CONCEPTO El carbono está ampliamente distribuido en la naturaleza pese a no ser un elemento especialmente abundante. En la corteza terrestre es el duodécimo elemento en orden de abundancia, siendo la misma la milésima parte de la de oxígeno y sólo vez y media mayor que la del manganeso. Sólo se conocen unas cincuenta mil sustancias en cuya composición no interviene el carbono, y pasan de 2 millones el número de compuestos de carbono conocidos. Al final del siglo XVII, los científicos dividían las sustancias naturales en tres grupos según su origen: sustancias vegetales, sustancias animales y sustancias minerales. Al final del siglo XVIII y gracias a los trabajos de Lavoisier, se llegó a la conclusión de que no existían diferencias en cuanto a la naturaleza de sustancias animales y vegetales. A partir de entonces se clasificaron las sustancias en dos grupos: las producidas por seres vivos u orgánicas, y las que no procedían de seres vivos o inorgánicas. A principios del siglo XIX, Berzelius aún creía en la existencia de una razón básica que fuese responsable de las marcadas diferencias que se encontraban entre los compuestos orgánicos y los inorgánicos. La causa de las diferencias se achacaba a la vis vitalis (fuerza vital), de misteriosa naturaleza y que sólo actuaba en los seres vivos, por lo que los compuestos orgánicos no podrían nunca prepararse artificialmente. La derrota de la teoría de la vis vitalis se atribuye a Friedrich Wöhler, quien en 1828 sintetizó urea (sustancia que se encuentra en la orina de los animales, siendo el principal producto nitrogenado del metabolismo de las proteínas). La síntesis tuvo lugar, sin intervención de organismos vivos, según: SO4(NH4)2 + (CNO)2Pb SO4Pb + 2CNONH4 (H2N)2CO (Urea) La síntesis efectuada por Kolbe en 1845 (síntesis del ácido acético) y la de Berthelot (síntesis del metano), así como otras que les siguieron, corroboraron las conclusiones de Wöhler, determinando el definitivo y total rechazo de la teoría de la fuerza vital. Poco a poco fue diluyéndose en la mente de los científicos la barrera entre Química Orgánica y Química Inorgánica. Sin embargo, se conservaron estos términos debido a que: Todos los compuestos considerados como orgánicos contienen carbono. Los compuestos de carbono son mucho más numerosos que los compuestos conocidos del resto de los elementos. Los compuestos con un esqueleto carbonado no parecen ajustarse a las reglas de valencia a que se ajustan los compuestos minerales. Los compuestos orgánicos presentan propiedades generales muy distintas de las que presentan los compuestos minerales. Así, los compuestos orgánicos se descomponen con facilidad por la acción del calor, son combustibles en su gran mayoría, tienen puntos de fusión y ebullición bajos, de ordinario reaccionan con lentitud, etc. Propiedades atómicas Masa atómica [12,0107 uma] Radio medio† [70 pm] Radio atómico calculado [67 pm] Radio covalente [77 pm] Radio de Van der Waals [170 pm] Configuración electrónica [2s22p2] Estados de oxidación (óxido) [4, 2 (levemente ácido)] Estructura cristalina [Cúbica o hexagonal (diamante); hexagonal o romboédrica (grafito)] 2.2 FORMAS ALOTRÓPICAS Todos los materiales de carbón están compuestos de átomos de carbono. Sin embargo, dependiendo de la organización que presenten estos átomos de carbono, los materiales de carbón pueden ser muy diferentes unos de otros. Las estructuras a las que dan lugar las diversas combinaciones de átomos de carbono pueden llegar a ser muy numerosas. En consecuencia, existen una gran variedad materiales de carbón. Para intentar explicar las diferentes estructuras de los carbones conviene empezar a una escala atómica. Así, los átomos de carbono poseen una estructura electrónica 1s2 2s2 2p2 , lo que permite que los orbitales atómicos de los átomos de carbono puedan presentar hibridaciones del tipo: sp, sp2 y sp3. Cuando se combinan átomos de carbono con hibridación sp dan lugar a cadenas de átomos, en las que cada átomo de carbono está unido a otro átomo de carbono por un enlace tripe y a un segundo átomo de carbono por un enlace sencillo. Cuando se combinan átomos de carbono con hibridación sp2, cada átomo de carbono se une a otros 3 en una estructura plana que da lugar a la forma alotrópica del grafito. Los átomos de carbono forman un sistema de anillos condensados que dan lugar a láminas paralelas entre si. Los enlaces químicos de las láminas son covalentes entre orbitales híbridos sp2, mientras que los enlaces entre las láminas son por fuerzas de Van der Waals. Dependiendo del apilamiento de las láminas existen dos formas alotrópicas diferentes: el grafito hexagonal, que es la forma termodinámicamente estable en la que la secuencia de apilamiento de las láminas es ABAB; y el grafito romboédrico, que es una forma termodinámicamente inestable, y mucho menos abundante, con una secuencia de apilamiento ABCABC. Estructuras del grafito hexagonal (ABAB) y del grafito romboédrico(ABCA) Hibridación sp3, forma alotrópica del diamante. El diamante cúbico es la estructura más habitual de esta forma alotrópica. Sin embargo, bajo ciertas condiciones el carbono cristaliza como diamante hexagonal o lonsdaleita (llamada así en honor a Kathleen Lonsdale), una forma similar al diamante pero hexagonal. Esta forma inusual del diamante se encontró por primera vez en 1967 en forma de cristales microscópicos, asociados al diamante, en restos del meteorito del Cañón del Diablo en Arizona. Con posterioridad también se ha identificado esta forma de diamante en otros meteoritos. Se cree que se forma cuando en el momento del impacto de meteoritos que contienen grafito contra la Tierra, de forma que el calor y energía del impacto transforman el grafito en diamante manteniendo en parte de la estructura hexagonal del grafito. Una forma alotrópica del carbono en la cual los átomos de carbono presentan una hibridación intermedia entre la sp2 y la sp3 es el fullereno. Este tipo de hibridación hace posible que los átomos de carbono puedan combinarse formando hexágonos y pentágonos en estructuras tridimensionales cerradas. El fullereno más común es el C60 (de 60 átomos de carbono) y es similar a un balón de fútbol, aunque también se han descrito otros fullerenos: C76,...C100, etc. Los nanotubos de carbono prestan también estas hibridaciones intermedias y pueden considerarse como láminas de grafito enrolladas en forma de tubos. Los nanotubos pueden ser abiertos o cerrados, en cuyo caso la estructura que cierra el nanotubo es similar a la mitad de un fullereno. Los nanotubos también pueden ser monocapa (de una sola capa) o multicapa (varias capas concéntricas). Diversas estructuras de nanotubos de carbono Carbones y sus diferentes estructuras microscópicas III QUÍMICA DEL SILICIO 3.1 ESTRUCTURA QUÍMICA Es un elemento semimetálico, el segundo elemento más común en la Tierra después del oxígeno. Su número atómico es 14 y pertenece al grupo 14 (o IVA) de la tabla periódica. Fue aislado por primera vez de sus compuestos en 1823 por el químico sueco Jöns Jakob barón de Berzelius. Propiedades y estado natural Se prepara en forma de polvo amorfo amarillo pardo o de cristales negros-grisáceos. Se obtiene calentando sílice, o dióxido de silicio (SiO2), con un agente reductor, como carbono o magnesio, en un horno eléctrico. El silicio cristalino tiene una dureza de 7, suficiente para rayar al vidrio, de dureza de 5 a 7. El silicio tiene un punto de fusión de 1.410 °C, un punto de ebullición de 2.355 °C y una densidad relativa de 2,33. Su masa atómica es 28,086. El silicio se disuelve en ácido fluorhídrico formando el gas tetrafluoruro de silicio, SiF4 (véase Flúor), y es atacado por los ácidos nítrico, clorhídrico y sulfúrico, aunque el dióxido de silicio formado inhibe la reacción. También se disuelve en hidróxido de sodio, formando silicato de sodio y gas hidrógeno. A temperaturas ordinarias el silicio es insensible al aire, pero a temperaturas elevadas reacciona con el oxígeno formando una capa de sílice que ya no reacciona más. A altas temperaturas reacciona también con nitrógeno y cloro formando nitruro de silicio y cloruro de silicio respectivamente. El silicio constituye un 28% de la corteza terrestre. No existe en estado libre elemental, sino que se encuentra en forma de dióxido de silicio y de silicatos complejos. Los minerales que contienen silicio constituyen cerca del 40% de todos los minerales comunes, incluyendo más del 90% de los minerales que forman rocas volcánicas. El mineral cuarzo, las variedades del cuarzo (cornalina, crisoprasa, ónice, pedernal y jaspe) y los minerales cristobalita y tridimita son las formas cristalinas del silicio existentes en la naturaleza. El dióxido de silicio es el componente principal de la arena. Los silicatos (en concreto los de aluminio, calcio y magnesio) son los componentes principales de las arcillas, el suelo y las rocas, en forma de feldespatos, anfiboles, piroxenos, micas y ceolitas, y de piedras semipreciosas como el olivino, granate, zircón, topacio y turmalina 3.2 SILICIO EN LA MEMORIA En 1959, Richard Feynman predijo que todas las palabras escritas en la historia del mundo podrían ser contenidas en un cubo de material cuyo lado fuera una 2/100 parte de una pulgada, siempre y cuando dichas palabras estuviesen escritas con átomos. Poco más de 40 años después, científicos de la University of Wisconsin-Madison han creado una memoria a escala atómica utilizando átomos de silicio en vez de los 1s y 0s empleados por los ordenadores de hoy en día para almacenar datos. Se trata de un paso corto pero crucial hacia una memoria a escala atómica práctica, donde los átomos representarán los bits de información que a su vez forman las palabras, imágenes y códigos leídos por los ordenadores. El trabajo, encabezado por Franz Himpsel, es muy interesante. Aunque la memoria creada por él y sus colegas se encuentra en dos dimensiones, a diferencia del cubo pronosticado por Feynman, proporciona una densidad de almacenamiento un millón de veces mayor que la de un CD-ROM. El átomo representa, de momento, el "muro" infranqueable de la miniaturización tecnológica. Parece un límite natural. Aunque divisible, es una unidad fundamental de la naturaleza. Son las partículas más pequeñas de un elemento químico: un único grano de arena, por ejemplo, puede contener 10 billones de átomos. La nueva memoria fue construida sobre una superficie de silicio que automáticamente forma surcos dentro de los cuales se alinean filas de átomos de silicio, descansando como pelotas de tenis en un canalón. Utilizando un microscopio STM (scanning tunneling microscope), los científicos levantaron átomos individuales de silicio con su punta, creando espacios que representan los 0s del almacenamiento de datos, mientras que los átomos que permanecen en su lugar representan los 1s. Como la memoria convencional, el dispositivo a escala atómica puede ser inicializado, formateado, escrito y leído a temperatura ambiental. Para su fabricación no se empleó litografía sino que se evaporó oro sobre una pastilla de silicio, proporcionando una estructura de pistas (surcos) muy precisa. Evaporando después silicio sobre la oblea tratada, se pueden difundir los átomos a lo largo de la estructura, donde se alinearán y permanecerán dentro de las pistas como los huevos en una huevera. Los átomos de silicio representarán los bits de información. La alineación es tan precisa que permite su manipulación y extracción con el STM sin perturbar a los átomos que no deben tocarse (de lo contrario podrían formarse enlaces indeseados). La tecnología requerirá aún años, sino décadas, para alcanzar el punto de madurez necesario para su uso práctico. Las manipulaciones con el STM en una situación de vacío son impedimentos que deberán resolverse. La densidad de memoria alcanzada es comparable a la elegida por la naturaleza cuando almacena información en las moléculas de ADN. La memoria de silicio a escala atómica usa 20 átomos para almacenar un bit de datos. El ADN utiliza 23 átomos. IV TIPOS DE NANOTECNOLOGÍA 4. 1 Nanotecnología Húmeda Esta tecnología se basa en sistemas biológicos que existen en un entorno acuoso incluyendo material genético, membranas, encimas y otros componentes celulares. También se basan en organismos vivientes cuyas formas, funciones y evolución, son gobernados por las interacciones de estructuras de escalas nanométricas. 4. 2 Nanotecnología Seca Es la tecnología que se dedica a la fabricación de estructuras en carbón, Silicio, materiales inorgánicos, metales y semiconductores. También está presente en la electrónica, magnetismo y dispositivos ópticos. Auto ensamblaje controlado por computadora. Es también confundida con la microminiaturización. 4.2 Nanotecnología Seca y Humeda Las ultimas propuestas tienden a usar una combinación de la nanotecnología húmeda y la nanotecnología seca Una cadena de ADN se programa para forzar moléculas en áreas muy específicas dejando que uniones covalentes se formen sólo en áreas muy específicas. Las formas resultantes se pueden manipulas para permitir el control posicional y la fabricación de nanoestructuras. 4.3 Nanotecnología computacional Con esta rama se puede trabajar en el modelado y simulación de estructuras complejas de escala nanométrica. Se puede manipular átomos utilizando los nanomanipuladores controlados por computadoras. V NANODIAMANTES El diamante, el material natural más duro y resistente, se espera que con el uso de la nanotecnología amplíe y mejore sus aplicaciones. Así los nanodiamantes podrían conducir a la detención de contaminantes bacterianos en agua y alimentos; y a producir nanodispositivos electrónicos, que como en el caso de los nanotubos del carbón que están siendo desarrollandos y estudiados, presenten mayores ventajas que los actuales en silicio. Es decir, será posible hacer diamantes o las películas de diamante en diferentes formas y tamaños, asi como también mejorar su costo. La nanotecnología ha permitido sintetizar películas de nanodiamantes con las características físicas, químicas y biológicas mejoradas para ser aplicado en áreas tecnológicas muy diferentes.9-12 Estos nanodiamantes crecidos en diversos substratos tienen una capacidad particular para el estudio electroquímico ofreciendo alta sensibilidad, buena precisión y alta estabilidad en comparación con otros materiales como el carbón vítreo y el platino. Además de las características naturales del diamante, tales como alta conductividad térmica, alta dureza e inercia química también presenta un amplio intervalo de potencial electroquímico en medios acuosos y no acuosos, capacitancia muy baja y estabilidad electroquímica extrema. Por otra parte, se desarrollan nuevas superficies que permiten el fijar compuestos como proteínas o moléculas más simples que permitirán obtener mayor afinidad a líquidos específicos para su estudio mejorando las propiedades biológicas de dichos materiales. Mientras que todas estas características promueven nuevas aplicaciones en campos como el electroanálisis, otras incluyen el uso de estas películas en la fabricación de los revestimientos duros que poseen coeficiente friccional bajo y características excelentes de desgaste,13 dispositivos emisores de electrones11 y cubiertas resistentes a altos impactos.14, 15 La nanocristalinidad de estas películas es el resultado de un nuevo tipo de crecimiento y mecanismos de nucleación, dando por resultado un nivel de nucleación alrededor de 1,010 cm-2s-1; gracias al uso de diversas técnicas de deposición, por ejemplo, del plasma asistido por microondas, descarga a baja presión, plasma inducido por laser, filamento caliente y otras técnicas.6 Típicamente, la mezcla gaseosa usada para la sintésis del diamante microcristalino o nanocristalinos es formada de hidrógeno y metano.1, 2 Sin embargo, en el logro de nano-películas, se han utilizado otras composiciones formadas de argón, hidrógeno y metano16, 17 o de helio, hidrógeno y metano;9, 10 obteniendo nanodiamantes con características específicas y con nuevas propiedades; como una mayor conductividad eléctrica, conductividad térmica y mayor área superficial potencialmente utilizable. Algunos ejemplos de nanodiamantes pueden ser observados en las figuras 1, 2, 3 y 4; que son fotos Fig. 1. A) Foto de un soporte carbonoso realizada mediante microscopía electrónica de barrido (conocido por sus siglas en inglés, SEM. Fig. 2. B) Foto del soporte de carbono con un depósito de nanodiamantes realizada mediante Microscopía electrónica de barrido. El depósito de nanodiamantes se realizó con un nivel de drogado en boro de 1018 partes por cm-3. Reimpreso de Diamond & Related Materials 14 (2005) 1673 – 1677, con permiso de Elsevier.18 VI NANOTUBOS DE CARBÓN 6.1 Definición Los nanotubos de carbono se consideran una gran promesa debido a sus propiedades mecánicas excepcionalmente fuertes, su habilidad para transportar de modo eficaz altas densidades de corriente eléctrica, y otras propiedades eléctricas y químicas. Los nanotubos, que son aproximadamente 10.000 veces más delgados que un cabello humano, pueden fabricarse casi perfectamente rectos en cámaras especiales de plasma gaseoso. Son las fibras más fuertes que se conocen. Un solo nanotubo perfecto es de 10 a 100 veces más fuerte que el acero por peso de unidad y poseen propiedades eléctricas muy interesantes, conduciendo la corriente eléctrica cientos de veces más eficazmente que los tradicionales cables de cobre El grafito (sustancia utilizada en lápices) es formado por átomos de carbono estructurados en forma de panel. Estas capas tipo-panel se colocan una encima de otra. Una sola capa de grafito es muy estable, fuerte y flexible. Dado que una capa de grafito es tan estable sola, se adhiere de forma débil a las capas al lado, Por esto se utiliza en lápices - porque mientras se escribe, se caen pequeñas escamas de grafito. En fibras de carbono, las capas individuales de grafito son mucho más grandes que en lápices, y forman una estructura larga, ondulada y fina, tipo-espiral. Se pueden pegar estas fibras una a otras y formar así una sustancia muy fuerte, ligera (y cara) utilizada en aviones, raquetas de tenis, bicicletas de carrera etc. Pero existe otra forma de estructurar las capas que produce un material más fuerte todavía, enrollando la estructura tipo-panel para que forme un tubo de grafito. Este tubo es un nanotubo de carbono. Los nanotubos de carbono, además de ser tremendamente resistentes, poseen propiedades eléctricas interesantes. Una capa de grafito es un semi-metal. Esto quiere decir que tiene propiedades intermedias entre semiconductores (como la silicona en microchips de ordenador, cuando los electrones se muevan con restricciones) y metales (como el cobre utilizado en cables cuando los electrones se mueven sin restricción). Cuando se enrolla una capa de grafito en un nanotubo, además de tener que alinearse los átomos de carbono alrededor de la circunferencia del tubo, también las funciones de onda estilo mecánica cuántica de los electrones deben también ajustarse. Este ajuste restringe las clases de función de onda que puedan tener los electrones, lo que a su vez afecta el movimiento de éstos. Dependiendo de la forma exacta en la que se enrolla, el nanotubo pueda ser un semiconductor o un metal. VII NANOMEDICINA En la nanomedicina se han clasificado tres partes principales para poder atender a una persona: el nanodiagnóstico, la liberación controlada de fármacos y la medicina regenerativa. Nanodiagnostico.- El objetivo del nanodiagnostico es de identificar la aparición de una enfermedad en sus primeros estadios a nivel celular o molecular e idealmente al nivel de una sólo célula. Para posteriormente dar un buen tratamiento en base al diagnostico que se le da. Nanomateriales usados: Nanobiosensores de reconocimiento celular o molecular Liberación controlada de fármacos.- El objetivo de la liberación controlada de fármacos como su nombre bien lo describe, es que una vez dada el diagnostico al paciente, se le suministre el medicamento de tal manera que este llegue a su destino y recién ahí empiece a reaccionar con la zona tratada. Para esto se utiliza tecnología para que en el transcurso del medicamento a través del organismo no se desperdicie el fármaco. Esto ayudara al paciente ya que se le suministrara menor cantidad de drogas pero que esto no influya en la eficacia del mismo. Liberándose cuando este en la zona requerida y no antes. Nanomateriales usados: Diferentes nanosistemas empleados para la dosificación controlada de fármacos Medicina regenerativa.- El objetivo principal de esta area es el de regenerar o reemplazar los tejidos u organos afectados, órganos mediante la aplicación de métodos procedentes de terapia génica, terapia celular, dosificación de sustancias bioregenerativas e ingeniería tisular. Nanomateriales usados: Crecimiento de células de fibroblasto sobre un sustrato nanoestructurado, Pero estos no solo son los unicos materiales para una terapia, ya que hay diversos nanomateriales que cada dia se desarrolan, con el objetivo de darle a la humanidad una mejor calidad de vida. 7. 1 Nanotubos en terapia genética Gracias a los últimos avances científicos en la medicina, se han logrado identificar muchos de los genes relacionados con ciertas enfermedades, y actualmente investigaciones utilizan estos nuevos conocimientos para desarrollar nuevos tratamientos para dichas enfermedades. Se cree que se podría reemplazar genes defectuosos o ausentes a través de la implantación en células humanas desde el exterior del mismo tipo de gen. Este proceso no resulta sencillo porque, como el ADN no puede traspasar las membranas células, se requiere la ayuda de un transportador. Ejemplos de este tipo de transportador incluyen un virus, un lisosoma o péptido especial. Un equipo europeo de investigadores ha desarrollado un nuevo método para introducir el ADN en células de mamíferos a través de nanotubos de carbón modificados. Los nanotubos de carbón son estructuras diminutas con forma de aguja y fabricados con átomos de carbón. Para utilizar nanotubos como transportador de genes, era necesario modificarlos. El equipo de investigadores logró enlazar al exterior de los nanotubos de carbón varias cadenas hechas de átomos de carbón y oxígeno cuyo lateral consiste en un grupo de aminos cargados positivamente (– NH3+). Esta pequeña alteración hace que los nanotubos sean solubles. Además, los grupos cargados positivamente atraen a los grupos de fosfatos cargados negativamente en el esqueleto del ADN. Al utilizar estas fuerzas electrostáticas atractivas, los científicos lograron fijar de forma sólida plasmidos al exterior de de los nanotubos. Luego contactaron los híbridos de nanotubo-ADN con su cultivo celular de células de mamífero. El resultado fue que los nanotubos de carbón, junto con su cargamento de ADN, entraron dentro de la célula. Imágenes de microscopio electrónico mostraron la forma en la que los nanotubos penetraron la membrana celular. Los nanotubos no dañan a las células porque, a diferencia de los anteriores sistemas de transporte genética, no desestabilizan la membrana al penetrarla. Una vez dentro de la célula, los genes resultaron ser funcionales. El uso de nanotubos de carbón como transportador no se limitará al transplante de genes. Nuevos avances científicos lograrán que sea posible el transporte de medicamentos y el desarrollo de otras nuevas técnicas médicas. 7. 2 Nanotubos en Medicina Según los resultados de una investigación llevada a cabo por un equipo de científicos de la Universidad de California, la fuerza, flexibilidad y poco peso de nanotubos de carbón hace que podrían servir como andamios capaces de suportar a los huesos y ayudar a víctimas de osteoporosis y huesos rotos. Los científicos describen su descubrimiento en un artículo publicado por la revista Chemistry of Materials de la American Chemical Society. Los resultados podrían suponer mayor flexibilidad y fuerza de huesos artificiales y prótesis, además de avances en el tratamiento de la enfermedad osteoporosis. Según el director de la revista, la investigación es importante porque indica un posible camino para la aplicación de nanotubos de carbón en el tratamiento médico de huesos rotos. Actualmente, las estructuras de hueso artificial se fabrican utilizando una gran variedad de materiales, tales como polímeros o fibras de péptido, pero tienen la desventaja de carecer de fuerza y el riesgo de ser rechazados por el cuerpo humano. Sin embargo, los nanotubos de carbón son excepcionalmente fuertes, y existe menos posibilidad de rechazo por su carácter orgánico. El tejido óseo es un compuesto natural de fibras de colágeno y hidroxiapatita cristalina, un mineral basado en fosfato de calcio. Los investigadores han demostrado que los nanotubos de carbón pueden imitar la función de colágeno y actuar como un andamio para inducir el crecimiento de cristales de hidroxiapatita. Al tratar los nanotubos químicamente, es posible atraer iones de calcio lo que fomenta el proceso de cristalización y mejora la biocompatibilidad de los nanotubos al aumentar su hidrosolubilidad. 7. 3 Nano-robots 7.3;a) Definición Aunque todavía no se han fabricado nanorobots, existen múltiples diseños de éstos, incluso no pueden ser del todo robots es decir pueden hasta ser modificaciones de células normales llamadas también células artificiales. Las características que éstos deben de cumplir, entre las que se pueden mencionar: 7.3;b) Tamaño Como el nombre lo indica, los nanorobots deben de tener un tamaño sumamente pequeño, alrededor de 0.5-3 micras ( 1micra=1*10-6) más pequeños que los hematíes (alrededor de 8 micras. 7.3;c) Componentes El tamaño de los engranes o los componentes que podría tener el nanorobot seria de 1-100 nanómetros (1nm=1*10-9) y los materiales variaría de diamante como cubierta protectora, hasta elementos como nitrógeno, hidrógeno, oxigeno, fluoruro, silicón utilizados quizás para los engranes 7.3;d) Nano-robots inmunológicos El sistema inmune de nuestro cuerpo es el encargado de proporcionar defensas contra agentes extraños o nocivos para nuestro cuerpo, pero como todos los sistemas éste siempre no puede con todo. Entre estas deficiencias se encuentra que muchas veces no responde (como es el caso con el SIDA) u tras veces sobreresponde (en el caso de enfermedades autoinmunitarias). Cabe decir que los nanorobots estarán diseñados para no provocar una respuesta inmune, quizás las medidas que tienen estos bastaran para no ser detectados por el sistema inmune. La solución que ofrece la nanomedicina es proporcionar dosis de nanorobots para una enfermedad especifica y la subsecuente reparación de los tejidos dañados, substituyendo en medida a las propias defensas naturales del organismo. 7.3;e) Nano-robots en la piel Parece que con billones de nanorobots que se implantan en el cuerpo humano y que recopilan información del estado de todo nuestro cuerpo, órganos, músculos, huesos, corazón, etc. para disponer de mucha información y poder hacer un análisis en tiempo real de alto nivel. Como nos citan en Xataka: "Para mostrar el análisis, algunos de estos nanorobots se colocarían sobre la mano o el antebrazo, a unas 200 o 300 micras por debajo de la piel, y alimentándose a partir de la glucosa y el oxígeno de nuestro propio cuerpo (menudos parásitos) formarían un pequeño rectángulo de unos 5×6 centímetros. podrían lucir en diversos colores gracias a una especie de diodos que vendrían integrados con los nanorobots, pero cuando se "apagasen" la piel volvería a lucir su color normal." VII. 3 Tratamiento contra el cáncer El equipo de Nanospectra ha logrado desarrollar nanopartículas de cristal bañadas en oro capaces de invadir un tumor y, cuando se calientan a través de un sistema remoto, capaces de destruirlo. La clave del alto grado de efectividad de este nuevo avance se deriva de las dimensiones de las partículas. Las nanopartículas tienen un diámetro de 150 nanómetros, que según el equipo de Nanoespectra, es el tamaño ideal para que puedan atravesar los vasos sanguíneos agujereados de un tumor. Esto podría permitir que las partículas se acumulasen en el tumor más que en otros tejidos. Cuando se dirigen rayos de luz infrarrojos a la localización del tumor, bien desde el exterior, o bien a través de una sonda, las partículas absorben la luz y se calientan. El resultado es que los tumores se calientan más que los otros tejidos alrededor, y se mueren. En el primer estudio realizado por la empresa, los tumores en ratones injertados con las nanopartículas desaparecieron a los seis días después de aplicarles el tratamiento de los rayos infrarrojos. Aunque la aplicación de rayos infrarrojos de luz ha sido utilizada en el campo de la medicina como una herramienta para mostrar imágenes, este nuevo avance científico supone la primera vez que se aplican rayos infrarrojos para calentar a los tejidos. En teoría, este nuevo avance tecnológico podría ayudar a eliminar aquellos tumores que caracterizan el cáncer de pecho, próstata y pulmón. La nanotecnología se sumaría así a otros tratamientos contra los cánceres más convencionales como la quimioterapia y la radioterapia. Y, según el presidente de Nanospectra Donald Payne, este nuevo método sería una "herramienta mucho menos tóxica para la caja de herramientas de los cirujanos". VII. 4 Análisis o estudio de ADN por "microarrays" Un microarreglo de ADN (del inglés DNA microarrays ) es una superficie sólida a la cual se unen una serie de fragmentos de ADN. Las superficies empleadas para fijar el ADN son muy variables y pueden ser vidrio, plástico e incluso chips de silicio. Los arreglos de ADN son utilizados para averiguar la expresión de genes, monitorizándose los niveles de miles de ellos de forma simultanea. La tecnología del microarreglo es un desarrollo de una técnica muy usada en biología molecular que es Southern Blot . Con esta tecnología podemos observar de forma casi instantánea la expresión de todos los genes del genoma de un organismo. De tal forma que suelen ser utilizados para identificar genes que producen ciertas enfermedades mediante la comparación de los niveles de expresión entre células sanas y células que están desarrollando ciertos tipos de enfermedades. Los microarreglos son fabricados usando una gran variedad de tecnologías. El gran desarrollo de esta técnica ha llegado debido al uso de Robots que son los que realizan el trabajo de alinear cada uno de los genes en puntos que se separan unos de otros por distancias microscópicas. Los microarreglos de ADN se pueden usar para detectar ARN, que pueden o no ser traducidas a proteínas. Los científicos se refieren a esta clase de análisis como "análisis de expresión". En los cuales pueden ser analizados desde diez a miles de genes, pero cada experimento de microarreglo debe llevar adjunto los análisis genéticos en paralelo. Los microarreglos han acelerado de todas formas muchas investigaciones. El uso de microarreglos para estudiar la expresión de diversos genes fue publicado en 1995, en la prestigiosa revista científica Science y el primer organismo eucariota con todo el genoma (Saccharomyces cerevisiae) dispuesto en un microarreglo fue publicado en 1997 en la misma revista. Microarrays de dos canales En este tipo de microarreglos (en inglés Spotted microarrays) las pruebas son oligonucleótidos, ADN copia (ADNc) o pequeños fragmentos de PCR, que corresponden con ARN mensajero(ARNm). En este tipo de microarreglo se hibrida el ADNc de dos condiciones que son marcados, cada uno de esas condiciones con dos fluoróforos diferentes. Las condiciones son mezcladas e hibridadas en el mismo microarreglo. Una vez realizado este primer paso se procede al escaneo del resultado y a la visualización del mismo. De esta forma se pueden observar genes que se activan o se reprimen en distintas condiciones. La contrapartida de estos experimentos es que no se pueden observar niveles absolutos en la expresión. Microarreglos de oligonucleótidos En los Microarreglos de oligonucleótidos o micromarreglos de canal único, las pruebas son designadas a partes de una secuencia conocida o un ARNm predicho. Estos microarreglos dan estimaciones del nivel de expresión, pero distintas condiciones no pueden ser observadas en una misma matriz, por lo que por cada condición se ha de utilizar un chip. Microarreglos para Genotipificación Los microarreglos de ADN pueden ser utilizados para "leer" las secuencias de un genoma particular en determinadas posiciones. Los SNP microarrys con un tipo particular de matrices que son usadas para identificar variaciones individuales y a través de poblaciones. Oligonucleótidos pequeños son capaces de identificar polimorfismos de un solo nucleótido (en inglés SNPs, single nucleótido polymorphisms) que podrían ser los responsables de variaciones genéticas dentro de una población, la fuente de susceptibilidad a distintas enfermedades genéticas e incluso a ciertos tipos de cáncer. En general, la aplicación de estas técnicas de genotipado son usadas con aplicaciones forenses ya que son rápidas en descubrir o medir la predisposición de enfermedades o incluso permitir el uso de ciertos medicamentos para tratar ciertas enfermedades según tu propio ADN. Los microarreglos de SNPs son también utilizadas para identificación de mutaciones somáticas en cáncer, sobre todo la perdida de heterocigosis, la amplificación o la delación de regiones de ADN en el genomio individual de pacientes afectados, es decir la detección de aberraciones cromosómicas. VIII NANOTECNOLOGÍA MOLECULAR Y SENSORES La nanotecnología es la manipulación de materiales a una escala molecular. Muchos científicos utilizan hebras artificiales de ADN para lograrlo. Technology Review publica que investigadores de la Universidad de Dortmund han descubierto la forma de hacer que ADN pegue y separe nanopartículas de oro a medida. Se podría aplicar este método a sensores que detectan sustancias y actividades biológicas en el laboratorio y en el cuerpo humano. También se podría aplicar a materiales programables cuyas propiedades se pueden cambiar al añadir un trozo de ADN. ADN consiste en cuatro bases químicas - adenina, guanina, citosina y timina - unidas a un esqueleto de fosfato- azúcar. Las hebras de ADN se unen cuando las secuencias de bases se aparean - adenina con timina y citosina con guanina. Con el nuevo avance científico desarrollado por el equipo alemán, es posible lograr que hebras artificiales cortas de ADN formen estructuras, y luego se puede manipularlas para que se peguen a otros materiales y a continuación, es posible organizar estos otros materiales dentro de una estructura. En esta investigación, los científicos utilizaron dos secuencias de hebras sencillas de ADN que se pegan a una nanopartícula de oro y una tercera hebra con tres secciones. Las primeras dos secciones de la tercera hebra aparean con cada una de las hebras de nanopartículas, pegándolas para que las nanopartículas de oro que llevan se posicionan cerca. Se puede separar las nanoparticulas utilizando un tercer tipo de hebra ADN que es igual que la hebra pegada de ADN. Esta hebra se adhiere primero a la tercera sección, la que está libre, de la hebra adhesiva de ADN y tira hasta que toda la hebra se despegaue. IX NANOTECNOLOGÍA BASADA EN ADN La nanotecnología comprende básicamente un conjunto de técnicas con aplicaciones potenciales en la mayoría de los sectores industriales existentes en la actualidad, y con el potencial de ayudar a crear nuevas industrias. Estas técnicas comparten el objetivo de hacer cosas cada vez más pequeñas, más pequeñas de hecho que los límites físicos establecidos en los microchips (100 nanometros, o 100 millonésimas de un milímetro) aunque más grandes, naturalmente, que el átomo individual (0,1 nanometros). A menudo se distinguen dos enfoques: la miniaturización de arriba a abajo de microtecnologías y la construcción controlada de abajo a arriba de materiales y dispositivos a partir de átomos y moléculas individuales. La nanotecnología puede utilizarse para investigación en ciencia de los materiales, física, química, biología y medicina. Además, a veces se considera como una opción futura para el desarrollo, o incluso en ciertos casos ya en uso, en I&D en materiales y producción industrial (tecnología de ultra precisión), catálisis, electrónica, productos farmacéuticos (fármacos inteligentes), tecnologías biomédicas, (órganos artificiales), energía (nuevos materiales fotovoltaicos, baterías) y detección ambiental. Algunos productos están ya o van a estar próximamente en el mercado. Estos productos son principalmente nuevos materiales nanoestructurados e instrumentos y técnicas para su fabricación. Los ejemplos incluyen láseres en reproductores de CD, espejos y lentes de alta calidad e incluso lápices de labios Lograr dirigir el movimiento atómico dentro de la molécula de ADN permite generar sistemáticamente cada molécula al menos dos estados, cada uno puede representar, ora 0, ora 1. Esta fue la hipótesis de la que se partió y los éxitos aunque modestos de apariencia han sido rotundos. Esa tesis permitió organizar computadoras que ofrecen reducciones del tamaño de los equipos porque son intrínsecamente pequeños: una milésima del tamaño de los transistores del semiconductor utilizados hoy como puertas cuyo diámetro ronda la micra, o sea, una millonésima de metro. De hecho, un ordenador biomolecular podría ser la quincuagésima parte (cincuenta veces menor) de un ordenador actual de semiconductores que contuviera similar número de elementos lógicos. La reducción del tamaño de las puertas desemboca en dispositivos más veloces; los ordenadores de base proteínica podrán, operar a velocidades mil veces mayores que los ordenadores modernos. Hasta ahora, nadie propone un ordenador puramente molecular. Es mucho más probable, al menos en un futuro cercano, que se utilice una tecnología híbrida, que combine moléculas y semiconductores. Tal proceder debería proporcionar ordenadores cincuenta veces menores que los actuales y centuplicar su velocidad. Las moléculas biológicas confieren así el control necesario para crear puertas que funcionen de acuerdo con los requerimientos de una aplicación. Parece razonable pronosticar que la técnica híbrida, que conjuga microcircuitos semiconductores y moléculas biológicas, pasará bastante pronto del dominio de la fantasía científica a las aplicaciones comerciales. La pantallas de cristal líquido ofrecen un espléndido ejemplo del sistema híbrido que ha triunfado. Casi todos los ordenadores portátiles de nuestros días se basan en pantallas de cristal líquido, que combinan dispositivos semiconductores con moléculas orgánicas para controlar la intensidad de la imagen en la pantalla. Son varias las moléculas biológicas que se podrían utilizar con vistas a su utilización en componentes informáticos, pero de todas ellas, es una proteína bacteriana, la bacteriorrodopsina la que suscita mayor interés. 9. 1 Material de construcción En el año de 1980, nació la idea de utilizar las moléculas de ADN como material de construcción a nanoescala. La idea se basa en utilizar variantes estables de intermediaros bifurcados de la recombinación genética (Cruces de Holliday), como elementos básicos para materiales a nanoescala. Al combinar estas moléculas bifurcadas con extremos cohesivos, se pueden producir redes periódicas que puedan actuar como anfitrionas hacia macromoléculas huéspedes en experientos cristalográficos macromoleculares. La idea básica ha sido expuesta por casi un cuarto de siglo, sin embargo, aún esta en su infancia. 9.1 a) Extremos Cohesivos (Sticky Ends) El origen de los extremos cohesivos se remonta a inicios de los años 70, cuando las técnicas de manipulación genética in vitro fueron realizadas inicialmente apilando moléculas de ADN con estos extremos cohesivos. Un extremo cohesivo es una corta hebra de ADN que existe como una pequeña protuberancia al final de una molécula de doble hélice de ADN. La ventaja de los extremos cohesivos es que dos moléculas de ADN con extremos cohesivos complementarios (es decir, sus. extremos cohesivos poseen el arreglo complementario de bases de nucleótidos adenina, citosina, guanina y tirosina) se unen para formar una molécula de ADN más compleja. Los extremos cohesivos son sin duda el mejor ejemplo de reconocimiento molecular programable: hay significativamente, una gran variedad de extremos cohesivos, y el producto formado debido a la cohesión es siempre la clásica doble hélice del ADN. Además, la conveniencia de la síntesis de ADN basado en soportes sólidos hace n mas facil programar diversas secuencias de extremos cohesivos en las hebras de ADN. Por lo tanto, los extremos cohesivos ofrecen un predecible y controlado asociamiento intermolecular con una geometría impredecible con el punto de cohesión. Posiblemente se puede obtener afinidades similares entre las interacciones antigeno- anticuerpo, pero en contraste con los extremos cohesivos de ADN, la orientación tridimensional de las interacciones Antigeno- anticuerpo no van a ser predecibles entre cada par. Es decir, cada interacción Antigeno- anticuerpo e va a comportar de diferente manera, siendo casi imposible predecir una geometría determinada que englobe dicha interacción. Los ácidos nucleicos parecen ser únicos en estas propiedades, ofreciendo un sistema programable y diverso, con un remarcable control sobre las interacciones intermoleculares. A pesar de que los extremos cohesivos resultaron una gran alternativa para definir por primera vez a la programación molecular, las moléculas de ADN aun carecían de una propiedad importante para ser utilizadas como material de construcción a nanoescala. Y es que formando moléculas de ADN lineales. Pero para producir materiales interesantes a partir de ADN, la síntesis era requerida en múltiples dimensiones, para este puposito moléculas bifurcadas de ADN eran requeridas. 9.1 b) El Cruce Holliday ( Holliday juction) Moléculas bifurcadas de ADN ocurren naturalmente en sistemas vivos, como intermediarios efímeros formados durante el proceso de recombinación celular. Este es un fenómeno que ocurre en todos los organismos, desde bacterias hasta humanos. Hebras alienadas de ADN se rompen y entrecruzan una a otra, formando estructuras llamadas "cruce de Holliday". Este proceso lleva a la diversidad genética en organismos. 9.1c) Formación de un Cruce de Holliday El cruce de holliday contiene cuatro hebras de ADN (cada par de cromosomas homólogos alineados esta compuesto de 2 hebras de ADN) enlazadas entre ellas para formar un brazo de cuatro dobles enlaces. El punto de bifurcación en el cruce de holliday puede reubicarse debido a la simetría de las secuencias. En contraste, complejos sintéticos de ADN pueden diseñarse para formar bifurcaciones que imiten el cruce de holliday sin que este pueda poseer centros de simetría 9.1d) Un Cruce bifurcado de Holliday inmovilizado El cruce d holliday esta compuesto de 4 hebras de ADN, marcados con números árabes. El termino 3 de cada molécula esta indicado por flechas. Cada hebra esta enlazada con otras dos hebras para formar brazos de doble hélice, los brazos están enumerados con números romanos. Lo enlaces de hidrogeno de los pares de bases que forman la doble hélice están indicados por los puntos entre las bases. La secuencia de este cruce ah sido optimizada para minimizar las simetrías y las faltas de pares complementarios. Debido a que no hay simetría C2 flanqueando el centro de bifurcación, este cruce no puede sobrellevar reacciones de isomerización que permitan la migración del punto de bifurcación. La molécula ah sido diseñada para minimizar secuencias simétrica; esto significa que todos los segmentos de secuencias cortos son únicos. En la parte de arriba del brazo 1, dos de los 52 tetrámeros en el complejo están marcados, estos son CGCA y GCAA en la esquina de la hebra 1, la secuencia CGTA esta marcada también. Esta es una de las 12 secuencias en l complejo que forman el cruce. El complemento de cada una de estas 12 secuencias no esta presente en el complejo, lo que no les va a permitir formar doble hélices. Mientras que los otro elementos tetrameritos si poseen sus complementos y forman los brazos de doble hélice. Cruce de Holliday sintetizado La síntesis de este complejo no va a permitir poseer un cruce bifurcado de holliday inmóvil. Esta síntesis es de gran importancia, ya que seria el "bosquejo" de la molécula de ADN que buscamos para que funcione como una unidad estructural de futuros compuestos en escala manométrica. Por lo tanto, la prescripción para usar el ADN como elemento básico para la formación de materiales mas complejos a una escala manométrica es simple: tomar molécula sintéticas de ADN con bifurcaciones y programarlas con extremos cohesivos, para permitirán autoensamblaje a la estructura deseada, el cual puede ser objeto cerrado a un medio cristalino. 9.2 AVANCES DE LA NANOTECNOLOGIA BASADA EN ADN Desde la idea originar de utilizar las moléculas de ADN como base para la formación de elementos mas complejos y de los estudios sobre los extremos cohesivos y el cruce de holliday, se han creado elementos basados en esta técnica, como el cubo hecho de ADN, los arreglos cristalinos bidimensionales de ADN, y el primer dispositivo manométrico. 9.2 a) Un Cubo hecho de ADN El primer gran éxito de la nanotecnologia basad en ADN fue la construcción de una molécula de ADN con los ejes de sus hélices conectados como los lados de una figura cúbica. Este objeto consiste d seis hebras de ADN cíclicas, una para cada cara del poliedro. Cada vértice del cubo consiste de dos vueltas de la doble hélice. 9.2 b) Doble entrecruzamiento del ADN (DX-Double Crossover) La idea que siguió a la formación del cubo basado en ADN, fue la construcción de arreglos periódicos de ADN y aprovechar a los extremos cohesivos para que puedan autoensamblarse. Sin embargo, los cruzamientos de Holliday resultaron algo flexibles y muy inestables al momento de producir arreglos en dos dimensiones, por lo tanto, se busco otro motivo de ADN que tengo menor flexibilidad y mayor dureza. Este nuevo motivo no estuvo muy lejano al ya conocido cruce de holliday, mas bien, fue una estructura similar llamada doble entrecruzamiento de holliday que también es análoga a un intermediario formado durante la meiosis. Este nuevo motivo molecular contiene do dobles hélices conectadas una a otra en dos ocasiones a través de dos puntos de entrecruzamiento. 9.2 c) Arreglo del doble entrecruzamiento del ADN En la parte superior del dibujo mostrado se presentan a las dos moléculas de doble entrecruzamiento A y B, que se muestran esquemáticamente. Arreglos con doble entrecruzamiento del ADN El carácter complementario entre sus extremos cohesivos es representado por una complementariedad geométrica. Las moléculas b contienen orquilla de ADN que se proyectan fuera del plano de las hélices; estas horquillas actúan como marcadores topográficos en el microscopio de fuerza atómica que es el instrumento donde se visualizan. Las dos moléculas son de aproximadamente 4 nm de ancho, 16 nm de largo y 2 nm de espesor. Cuando estas 2 moléculas son mezcladas en solución, forman los arreglos bidimensionales que tienen varios micrones de largo y cientos de nanometros de ancho. La filia que proyectan las orquídeas aparecen como líneas blancas la ser visualidades por AFM. Estas líneas están separadas 32 nm como era de esperarse, al haber una molécula A de 16 nm de largo entre dos moléculas de A de 16 nm de largo entre dos molécula de B. 9.2 d) Triple entrecruzamiento del ADN (Triple Crossover) Además de la molécula de doble cruzamiento de ADN, se sintetizó una molécula entrecruzada con tres dobles hélices. Triple entrecruzamiento de heras de ADN Esta molécula consiste de 4 oligonucleótidos hibridizados para formar tres dobles hélices de ADN que se recuestan en el plano y que permanecen unidas por intercambios de hebras en cuatro puntos inmovibles de entrecruzamiento. 9.2 e) Arreglo del triple entrecruzamiento del ADN (TX) De la misma manera que para las moléculas de doble entrecruzamiento, moléculas TX son también robustas y pueden ser fácilmente usadas para el diseño de arreglos cristalinos en dos dimensiones. Arreglo con triple Entrecruzamiento del ADN Nuevamente, hacemos uso de los extremos cohesivos para programar las uniones entre las moléculas. Una ventaja importante de las moléculas de TX en comparación a otros motivos de ADN, es q poseemos grandes espacios dentro del arreglo cristalino, que nos va poder permitir llenarlas con otros nanodispositivos o incluso permitir la incorporación de componentes altamente estructurados y fuera del plano bidimensional; es decir, un posible acercamiento a los tan esperados arreglos en tres dimensiones. Arreglo en ADN 9.2 f) Primer dispositivo nanomecánico basado en ADN La rigidez de las moléculas antiparelelas de doble entrecruzamiento ha permitido usarlas como componentes de dispositivos nanomecanicos basados en ADN. Este dispositivo trabaja utilizando la transición B-Z de las moléculas de doble hélice del ADN. Lo que se ha logrado, es conectar dos moléculas de doble entrecruzamiento (regiones rojas y azules) con un segmento puente que contiene una región donde B-ADN se puede convertir en Z-ADN. Este segmento convertible se muestra en el dibujo con color amarillo. X POTENCIALES DE LA NANOTECNOLOGÍA Potenciales aplicaciones médicas: Servir como un sistema auto inmune potenciado. Buscar y destruir virus, colesterol, excesos de grasa, células cancerígenas y marcadores genéticos. Eliminar la necesidad de cirugía. Evitar el "sacrificio" de materia viva natural. Borrar los procesos de envejecimiento Potenciales aplicaciones militares: Dispositivos inteligentes demasiado pequeños para ser descubiertos Armas biológicas/químicas computarizadas Escudos de defensa activos Blancos seleccionados sin posibilidad de error C. Potenciales aplicaciones energéticas. Se usa aproximadamente una diezmilésima parte de la energía solar que llega a la Tierra. Se usa combustibles fósiles porque es más conveniente Distribución de energía a través de "canales" de energía. Colectores solares (en órbita alrededor de la Tierra) reemplazarán a los combustibles fósiles. Potenciales aplicaciones espaciales. Máquinas moleculares y computadoras de tamaño subcelular. Bases de lanzamiento de gran altitud (baja gravedad). Vehículos y estaciones espaciales livianas y superresistentes. Naves con velas propulsoras posibilitarán los viajes interestelares (probablemente no para individuos pero sí para generaciones). Potenciales aplicaciones ambientales. Dietas "normales" sin matar animales. Todas las máquinas podrían ser "libres de contaminación ambiental". Materiales con estructura de diamante permitirán reemplazar a los actuales materiales. Nanomáquinas que obtengan su energía de la contaminación ambiental Reducir el uso de fuentes de energía, tradicionales, finitas y polusivas. BIBLIOGRAFÍA TABATA, Y. (2005) "Nanomaterials of drug delivery systems for tissue regeneration" . Methods in Molecular Biology 300, 81. WHITESIDES, G. M. (2003) "The right size in nanobiotechnology" Nature Biotechnology 21, 1161. www.estudiantes.info/ciencias_naturales/quimica/quimica-organica.htm www.euroresidentes.com/Blogs/alimentos-salud/labels/alimentos.html http://www.euroresidentes.com/Blogs/nanotecnologia/2005/07/nanotubos-y-medicina.html www.euroresidentes.com/futuro/nanotecnologia/diccionario/nanobot.htm http://www.fisicanet.com.ar/tecnicos/tecnologia/ar10_nanotecnologia.php http://www.fisicaysociedad.es/view/default.asp?cat=763&id=2319 http://www.fsp.csic.es/index_files/frames/link_frame_data/nanorobots.html http://www.sbf1.sbfisica.org.br/boletim/lemensagem.asp?msgId=17 http://www.iq.usp.br/wwwdocentes/mbertott/linha.htm http://www.invenia.es/farmameeting:conferencias.ibc http://www.nanorobots.net/ http://www.nanotecnologica.com/ http://nextwave.universia.net/salidas-profesionales/nano/nano1.htm http://www.uned.es/cristamine/fichas/grafito/grafito.htm http://www.nanotechproject.org/ http://es.wikipedia.org/wiki/Tabla_peri%C3%B3dica_de_los_elementos Espero que les aya servido si te gusto puntua Echo por Nicolas Ariel Libert

La nanotecnología, es un a nueva ciencia que esta emprendiendo su camino, desde el descubrimiento de los fullerenos, partículas a escalas manométricas conformadas por átomos de carbono, hasta novedosas maquinas que podrán ser la salvación de la humanidad en un futuro no tan lejano. Ya que podrán ser implantadas en nuestro cuerpo sin ninguna dificultad. INTRODUCCIÓN La nanotecnología, nació como ciencia hace muy poco tiempo. Uno de los más importantes descubrimientos para la humanidad, una nueva forma de ver las cosas. Ya que de ello trata, de ver de una distinta manera las cosas que no vemos y que participaran de manera continua en el desarrollo de nuestra vida. La nanotecnología nace con el fin de ayudar a la humanidad para su mejor desarrollo. Es así que este trabajo esta dedicado a una explicación de la nueva ciencia y de que es lo que deberíamos saber sobre ella, para poder afrontar todo una nueva era, la era de la nanotecnología. Para ello también se presentara una breve reseña de cómo nace, para posteriormente tocar los temas que son necesarios desarrollar para nuestro objetivo, saber a que nos enfrentamos y saber como esta nueva ciencia nos va ayudar en nuestra vida. I NANOTECNOLOGÍA 1.1. CONCEPTO La nanotecnología es el estudio, diseño, creación, síntesis, manipulación y aplicación de materiales, aparatos y sistemas funcionales a través del control de la materia a nano escala, y la explotación de fenómenos y propiedades de la materia a nano escala. Cuando se manipula la materia a la escala tan minúscula de átomos y moléculas, demuestra fenómenos y propiedades totalmente nuevas. Por lo tanto, científicos utilizan la nanotecnología para crear materiales, aparatos y sistemas novedosos y poco costosos con propiedades únicas La nanotecnología tiene tres objetivos fundamentales, los cuales son: 1. Colocar cada átomo en el lugar adecuado. 2. Conseguir que casi cualquier estructura sea consistente con las leyes de la física y la química que podemos especificar y describir a nivel atómico. 3. Lograr que los costes de fabricación no excedan, ampliamente, el coste de las materias primeras y la energía empleadas en el proceso. 1.2. HISTORIA Los años 40: Von Neuman estudia la posibilidad de crear sistemas que se auto-reproducen como una forma de reducir costes. 1959: Richard Feynmann habla por primera vez en una conferencia sobre el futuro de la investigación científica: "A mi modo de ver, los principios de la Física no se pronuncian en contra de la posibilidad de maniobrar las cosas átomo por átomo". 1966: Se realiza la película "Viaje alucinante" que cuenta la travesía de unos científicos a través del cuerpo humano. Los científicos reducen su tamaño al de una partícula y se introducen en el interior del cuerpo de un investigador para destrozar el tumor que le está matando. Por primera ve en la historia, se considera esto como una verdadera posibilidad científica. La película es un gran éxito. 1982 Gerd Binning y Heinrich Rohrer, descubrieron el Microscopio de Efecto Túnel (Premio Nobel 1986). 1985: Se descubren los buckminsterfullerenes 1989: Se realiza la película "Cariño he encogido a los niños", una película que cuenta la historia de un científico que inventa una máquina que puede reducir el tamaño de las cosas utilizando láser. 1.3. NANO Una milésima parte de un millón II QUÍMICA DEL CARBONO 2.1 CONCEPTO El carbono está ampliamente distribuido en la naturaleza pese a no ser un elemento especialmente abundante. En la corteza terrestre es el duodécimo elemento en orden de abundancia, siendo la misma la milésima parte de la de oxígeno y sólo vez y media mayor que la del manganeso. Sólo se conocen unas cincuenta mil sustancias en cuya composición no interviene el carbono, y pasan de 2 millones el número de compuestos de carbono conocidos. Al final del siglo XVII, los científicos dividían las sustancias naturales en tres grupos según su origen: sustancias vegetales, sustancias animales y sustancias minerales. Al final del siglo XVIII y gracias a los trabajos de Lavoisier, se llegó a la conclusión de que no existían diferencias en cuanto a la naturaleza de sustancias animales y vegetales. A partir de entonces se clasificaron las sustancias en dos grupos: las producidas por seres vivos u orgánicas, y las que no procedían de seres vivos o inorgánicas. A principios del siglo XIX, Berzelius aún creía en la existencia de una razón básica que fuese responsable de las marcadas diferencias que se encontraban entre los compuestos orgánicos y los inorgánicos. La causa de las diferencias se achacaba a la vis vitalis (fuerza vital), de misteriosa naturaleza y que sólo actuaba en los seres vivos, por lo que los compuestos orgánicos no podrían nunca prepararse artificialmente. La derrota de la teoría de la vis vitalis se atribuye a Friedrich Wöhler, quien en 1828 sintetizó urea (sustancia que se encuentra en la orina de los animales, siendo el principal producto nitrogenado del metabolismo de las proteínas). La síntesis tuvo lugar, sin intervención de organismos vivos, según: SO4(NH4)2 + (CNO)2Pb SO4Pb + 2CNONH4 (H2N)2CO (Urea) La síntesis efectuada por Kolbe en 1845 (síntesis del ácido acético) y la de Berthelot (síntesis del metano), así como otras que les siguieron, corroboraron las conclusiones de Wöhler, determinando el definitivo y total rechazo de la teoría de la fuerza vital. Poco a poco fue diluyéndose en la mente de los científicos la barrera entre Química Orgánica y Química Inorgánica. Sin embargo, se conservaron estos términos debido a que: Todos los compuestos considerados como orgánicos contienen carbono. Los compuestos de carbono son mucho más numerosos que los compuestos conocidos del resto de los elementos. Los compuestos con un esqueleto carbonado no parecen ajustarse a las reglas de valencia a que se ajustan los compuestos minerales. Los compuestos orgánicos presentan propiedades generales muy distintas de las que presentan los compuestos minerales. Así, los compuestos orgánicos se descomponen con facilidad por la acción del calor, son combustibles en su gran mayoría, tienen puntos de fusión y ebullición bajos, de ordinario reaccionan con lentitud, etc. Propiedades atómicas Masa atómica [12,0107 uma] Radio medio† [70 pm] Radio atómico calculado [67 pm] Radio covalente [77 pm] Radio de Van der Waals [170 pm] Configuración electrónica [2s22p2] Estados de oxidación (óxido) [4, 2 (levemente ácido)] Estructura cristalina [Cúbica o hexagonal (diamante); hexagonal o romboédrica (grafito)] 2.2 FORMAS ALOTRÓPICAS Todos los materiales de carbón están compuestos de átomos de carbono. Sin embargo, dependiendo de la organización que presenten estos átomos de carbono, los materiales de carbón pueden ser muy diferentes unos de otros. Las estructuras a las que dan lugar las diversas combinaciones de átomos de carbono pueden llegar a ser muy numerosas. En consecuencia, existen una gran variedad materiales de carbón. Para intentar explicar las diferentes estructuras de los carbones conviene empezar a una escala atómica. Así, los átomos de carbono poseen una estructura electrónica 1s2 2s2 2p2 , lo que permite que los orbitales atómicos de los átomos de carbono puedan presentar hibridaciones del tipo: sp, sp2 y sp3. Cuando se combinan átomos de carbono con hibridación sp dan lugar a cadenas de átomos, en las que cada átomo de carbono está unido a otro átomo de carbono por un enlace tripe y a un segundo átomo de carbono por un enlace sencillo. Cuando se combinan átomos de carbono con hibridación sp2, cada átomo de carbono se une a otros 3 en una estructura plana que da lugar a la forma alotrópica del grafito. Los átomos de carbono forman un sistema de anillos condensados que dan lugar a láminas paralelas entre si. Los enlaces químicos de las láminas son covalentes entre orbitales híbridos sp2, mientras que los enlaces entre las láminas son por fuerzas de Van der Waals. Dependiendo del apilamiento de las láminas existen dos formas alotrópicas diferentes: el grafito hexagonal, que es la forma termodinámicamente estable en la que la secuencia de apilamiento de las láminas es ABAB; y el grafito romboédrico, que es una forma termodinámicamente inestable, y mucho menos abundante, con una secuencia de apilamiento ABCABC. Estructuras del grafito hexagonal (ABAB) y del grafito romboédrico(ABCA) Hibridación sp3, forma alotrópica del diamante. El diamante cúbico es la estructura más habitual de esta forma alotrópica. Sin embargo, bajo ciertas condiciones el carbono cristaliza como diamante hexagonal o lonsdaleita (llamada así en honor a Kathleen Lonsdale), una forma similar al diamante pero hexagonal. Esta forma inusual del diamante se encontró por primera vez en 1967 en forma de cristales microscópicos, asociados al diamante, en restos del meteorito del Cañón del Diablo en Arizona. Con posterioridad también se ha identificado esta forma de diamante en otros meteoritos. Se cree que se forma cuando en el momento del impacto de meteoritos que contienen grafito contra la Tierra, de forma que el calor y energía del impacto transforman el grafito en diamante manteniendo en parte de la estructura hexagonal del grafito. Una forma alotrópica del carbono en la cual los átomos de carbono presentan una hibridación intermedia entre la sp2 y la sp3 es el fullereno. Este tipo de hibridación hace posible que los átomos de carbono puedan combinarse formando hexágonos y pentágonos en estructuras tridimensionales cerradas. El fullereno más común es el C60 (de 60 átomos de carbono) y es similar a un balón de fútbol, aunque también se han descrito otros fullerenos: C76,...C100, etc. Los nanotubos de carbono prestan también estas hibridaciones intermedias y pueden considerarse como láminas de grafito enrolladas en forma de tubos. Los nanotubos pueden ser abiertos o cerrados, en cuyo caso la estructura que cierra el nanotubo es similar a la mitad de un fullereno. Los nanotubos también pueden ser monocapa (de una sola capa) o multicapa (varias capas concéntricas). Diversas estructuras de nanotubos de carbono Carbones y sus diferentes estructuras microscópicas III QUÍMICA DEL SILICIO 3.1 ESTRUCTURA QUÍMICA Es un elemento semimetálico, el segundo elemento más común en la Tierra después del oxígeno. Su número atómico es 14 y pertenece al grupo 14 (o IVA) de la tabla periódica. Fue aislado por primera vez de sus compuestos en 1823 por el químico sueco Jöns Jakob barón de Berzelius. Propiedades y estado natural Se prepara en forma de polvo amorfo amarillo pardo o de cristales negros-grisáceos. Se obtiene calentando sílice, o dióxido de silicio (SiO2), con un agente reductor, como carbono o magnesio, en un horno eléctrico. El silicio cristalino tiene una dureza de 7, suficiente para rayar al vidrio, de dureza de 5 a 7. El silicio tiene un punto de fusión de 1.410 °C, un punto de ebullición de 2.355 °C y una densidad relativa de 2,33. Su masa atómica es 28,086. El silicio se disuelve en ácido fluorhídrico formando el gas tetrafluoruro de silicio, SiF4 (véase Flúor), y es atacado por los ácidos nítrico, clorhídrico y sulfúrico, aunque el dióxido de silicio formado inhibe la reacción. También se disuelve en hidróxido de sodio, formando silicato de sodio y gas hidrógeno. A temperaturas ordinarias el silicio es insensible al aire, pero a temperaturas elevadas reacciona con el oxígeno formando una capa de sílice que ya no reacciona más. A altas temperaturas reacciona también con nitrógeno y cloro formando nitruro de silicio y cloruro de silicio respectivamente. El silicio constituye un 28% de la corteza terrestre. No existe en estado libre elemental, sino que se encuentra en forma de dióxido de silicio y de silicatos complejos. Los minerales que contienen silicio constituyen cerca del 40% de todos los minerales comunes, incluyendo más del 90% de los minerales que forman rocas volcánicas. El mineral cuarzo, las variedades del cuarzo (cornalina, crisoprasa, ónice, pedernal y jaspe) y los minerales cristobalita y tridimita son las formas cristalinas del silicio existentes en la naturaleza. El dióxido de silicio es el componente principal de la arena. Los silicatos (en concreto los de aluminio, calcio y magnesio) son los componentes principales de las arcillas, el suelo y las rocas, en forma de feldespatos, anfiboles, piroxenos, micas y ceolitas, y de piedras semipreciosas como el olivino, granate, zircón, topacio y turmalina 3.2 SILICIO EN LA MEMORIA En 1959, Richard Feynman predijo que todas las palabras escritas en la historia del mundo podrían ser contenidas en un cubo de material cuyo lado fuera una 2/100 parte de una pulgada, siempre y cuando dichas palabras estuviesen escritas con átomos. Poco más de 40 años después, científicos de la University of Wisconsin-Madison han creado una memoria a escala atómica utilizando átomos de silicio en vez de los 1s y 0s empleados por los ordenadores de hoy en día para almacenar datos. Se trata de un paso corto pero crucial hacia una memoria a escala atómica práctica, donde los átomos representarán los bits de información que a su vez forman las palabras, imágenes y códigos leídos por los ordenadores. El trabajo, encabezado por Franz Himpsel, es muy interesante. Aunque la memoria creada por él y sus colegas se encuentra en dos dimensiones, a diferencia del cubo pronosticado por Feynman, proporciona una densidad de almacenamiento un millón de veces mayor que la de un CD-ROM. El átomo representa, de momento, el "muro" infranqueable de la miniaturización tecnológica. Parece un límite natural. Aunque divisible, es una unidad fundamental de la naturaleza. Son las partículas más pequeñas de un elemento químico: un único grano de arena, por ejemplo, puede contener 10 billones de átomos. La nueva memoria fue construida sobre una superficie de silicio que automáticamente forma surcos dentro de los cuales se alinean filas de átomos de silicio, descansando como pelotas de tenis en un canalón. Utilizando un microscopio STM (scanning tunneling microscope), los científicos levantaron átomos individuales de silicio con su punta, creando espacios que representan los 0s del almacenamiento de datos, mientras que los átomos que permanecen en su lugar representan los 1s. Como la memoria convencional, el dispositivo a escala atómica puede ser inicializado, formateado, escrito y leído a temperatura ambiental. Para su fabricación no se empleó litografía sino que se evaporó oro sobre una pastilla de silicio, proporcionando una estructura de pistas (surcos) muy precisa. Evaporando después silicio sobre la oblea tratada, se pueden difundir los átomos a lo largo de la estructura, donde se alinearán y permanecerán dentro de las pistas como los huevos en una huevera. Los átomos de silicio representarán los bits de información. La alineación es tan precisa que permite su manipulación y extracción con el STM sin perturbar a los átomos que no deben tocarse (de lo contrario podrían formarse enlaces indeseados). La tecnología requerirá aún años, sino décadas, para alcanzar el punto de madurez necesario para su uso práctico. Las manipulaciones con el STM en una situación de vacío son impedimentos que deberán resolverse. La densidad de memoria alcanzada es comparable a la elegida por la naturaleza cuando almacena información en las moléculas de ADN. La memoria de silicio a escala atómica usa 20 átomos para almacenar un bit de datos. El ADN utiliza 23 átomos. IV TIPOS DE NANOTECNOLOGÍA 4. 1 Nanotecnología Húmeda Esta tecnología se basa en sistemas biológicos que existen en un entorno acuoso incluyendo material genético, membranas, encimas y otros componentes celulares. También se basan en organismos vivientes cuyas formas, funciones y evolución, son gobernados por las interacciones de estructuras de escalas nanométricas. 4. 2 Nanotecnología Seca Es la tecnología que se dedica a la fabricación de estructuras en carbón, Silicio, materiales inorgánicos, metales y semiconductores. También está presente en la electrónica, magnetismo y dispositivos ópticos. Auto ensamblaje controlado por computadora. Es también confundida con la microminiaturización. 4.2 Nanotecnología Seca y Humeda Las ultimas propuestas tienden a usar una combinación de la nanotecnología húmeda y la nanotecnología seca Una cadena de ADN se programa para forzar moléculas en áreas muy específicas dejando que uniones covalentes se formen sólo en áreas muy específicas. Las formas resultantes se pueden manipulas para permitir el control posicional y la fabricación de nanoestructuras. 4.3 Nanotecnología computacional Con esta rama se puede trabajar en el modelado y simulación de estructuras complejas de escala nanométrica. Se puede manipular átomos utilizando los nanomanipuladores controlados por computadoras. V NANODIAMANTES El diamante, el material natural más duro y resistente, se espera que con el uso de la nanotecnología amplíe y mejore sus aplicaciones. Así los nanodiamantes podrían conducir a la detención de contaminantes bacterianos en agua y alimentos; y a producir nanodispositivos electrónicos, que como en el caso de los nanotubos del carbón que están siendo desarrollandos y estudiados, presenten mayores ventajas que los actuales en silicio. Es decir, será posible hacer diamantes o las películas de diamante en diferentes formas y tamaños, asi como también mejorar su costo. La nanotecnología ha permitido sintetizar películas de nanodiamantes con las características físicas, químicas y biológicas mejoradas para ser aplicado en áreas tecnológicas muy diferentes.9-12 Estos nanodiamantes crecidos en diversos substratos tienen una capacidad particular para el estudio electroquímico ofreciendo alta sensibilidad, buena precisión y alta estabilidad en comparación con otros materiales como el carbón vítreo y el platino. Además de las características naturales del diamante, tales como alta conductividad térmica, alta dureza e inercia química también presenta un amplio intervalo de potencial electroquímico en medios acuosos y no acuosos, capacitancia muy baja y estabilidad electroquímica extrema. Por otra parte, se desarrollan nuevas superficies que permiten el fijar compuestos como proteínas o moléculas más simples que permitirán obtener mayor afinidad a líquidos específicos para su estudio mejorando las propiedades biológicas de dichos materiales. Mientras que todas estas características promueven nuevas aplicaciones en campos como el electroanálisis, otras incluyen el uso de estas películas en la fabricación de los revestimientos duros que poseen coeficiente friccional bajo y características excelentes de desgaste,13 dispositivos emisores de electrones11 y cubiertas resistentes a altos impactos.14, 15 La nanocristalinidad de estas películas es el resultado de un nuevo tipo de crecimiento y mecanismos de nucleación, dando por resultado un nivel de nucleación alrededor de 1,010 cm-2s-1; gracias al uso de diversas técnicas de deposición, por ejemplo, del plasma asistido por microondas, descarga a baja presión, plasma inducido por laser, filamento caliente y otras técnicas.6 Típicamente, la mezcla gaseosa usada para la sintésis del diamante microcristalino o nanocristalinos es formada de hidrógeno y metano.1, 2 Sin embargo, en el logro de nano-películas, se han utilizado otras composiciones formadas de argón, hidrógeno y metano16, 17 o de helio, hidrógeno y metano;9, 10 obteniendo nanodiamantes con características específicas y con nuevas propiedades; como una mayor conductividad eléctrica, conductividad térmica y mayor área superficial potencialmente utilizable. Algunos ejemplos de nanodiamantes pueden ser observados en las figuras 1, 2, 3 y 4; que son fotos Fig. 1. A) Foto de un soporte carbonoso realizada mediante microscopía electrónica de barrido (conocido por sus siglas en inglés, SEM. Fig. 2. B) Foto del soporte de carbono con un depósito de nanodiamantes realizada mediante Microscopía electrónica de barrido. El depósito de nanodiamantes se realizó con un nivel de drogado en boro de 1018 partes por cm-3. Reimpreso de Diamond & Related Materials 14 (2005) 1673 – 1677, con permiso de Elsevier.18 VI NANOTUBOS DE CARBÓN 6.1 Definición Los nanotubos de carbono se consideran una gran promesa debido a sus propiedades mecánicas excepcionalmente fuertes, su habilidad para transportar de modo eficaz altas densidades de corriente eléctrica, y otras propiedades eléctricas y químicas. Los nanotubos, que son aproximadamente 10.000 veces más delgados que un cabello humano, pueden fabricarse casi perfectamente rectos en cámaras especiales de plasma gaseoso. Son las fibras más fuertes que se conocen. Un solo nanotubo perfecto es de 10 a 100 veces más fuerte que el acero por peso de unidad y poseen propiedades eléctricas muy interesantes, conduciendo la corriente eléctrica cientos de veces más eficazmente que los tradicionales cables de cobre El grafito (sustancia utilizada en lápices) es formado por átomos de carbono estructurados en forma de panel. Estas capas tipo-panel se colocan una encima de otra. Una sola capa de grafito es muy estable, fuerte y flexible. Dado que una capa de grafito es tan estable sola, se adhiere de forma débil a las capas al lado, Por esto se utiliza en lápices - porque mientras se escribe, se caen pequeñas escamas de grafito. En fibras de carbono, las capas individuales de grafito son mucho más grandes que en lápices, y forman una estructura larga, ondulada y fina, tipo-espiral. Se pueden pegar estas fibras una a otras y formar así una sustancia muy fuerte, ligera (y cara) utilizada en aviones, raquetas de tenis, bicicletas de carrera etc. Pero existe otra forma de estructurar las capas que produce un material más fuerte todavía, enrollando la estructura tipo-panel para que forme un tubo de grafito. Este tubo es un nanotubo de carbono. Los nanotubos de carbono, además de ser tremendamente resistentes, poseen propiedades eléctricas interesantes. Una capa de grafito es un semi-metal. Esto quiere decir que tiene propiedades intermedias entre semiconductores (como la silicona en microchips de ordenador, cuando los electrones se muevan con restricciones) y metales (como el cobre utilizado en cables cuando los electrones se mueven sin restricción). Cuando se enrolla una capa de grafito en un nanotubo, además de tener que alinearse los átomos de carbono alrededor de la circunferencia del tubo, también las funciones de onda estilo mecánica cuántica de los electrones deben también ajustarse. Este ajuste restringe las clases de función de onda que puedan tener los electrones, lo que a su vez afecta el movimiento de éstos. Dependiendo de la forma exacta en la que se enrolla, el nanotubo pueda ser un semiconductor o un metal. VII NANOMEDICINA En la nanomedicina se han clasificado tres partes principales para poder atender a una persona: el nanodiagnóstico, la liberación controlada de fármacos y la medicina regenerativa. Nanodiagnostico.- El objetivo del nanodiagnostico es de identificar la aparición de una enfermedad en sus primeros estadios a nivel celular o molecular e idealmente al nivel de una sólo célula. Para posteriormente dar un buen tratamiento en base al diagnostico que se le da. Nanomateriales usados: Nanobiosensores de reconocimiento celular o molecular Liberación controlada de fármacos.- El objetivo de la liberación controlada de fármacos como su nombre bien lo describe, es que una vez dada el diagnostico al paciente, se le suministre el medicamento de tal manera que este llegue a su destino y recién ahí empiece a reaccionar con la zona tratada. Para esto se utiliza tecnología para que en el transcurso del medicamento a través del organismo no se desperdicie el fármaco. Esto ayudara al paciente ya que se le suministrara menor cantidad de drogas pero que esto no influya en la eficacia del mismo. Liberándose cuando este en la zona requerida y no antes. Nanomateriales usados: Diferentes nanosistemas empleados para la dosificación controlada de fármacos Medicina regenerativa.- El objetivo principal de esta area es el de regenerar o reemplazar los tejidos u organos afectados, órganos mediante la aplicación de métodos procedentes de terapia génica, terapia celular, dosificación de sustancias bioregenerativas e ingeniería tisular. Nanomateriales usados: Crecimiento de células de fibroblasto sobre un sustrato nanoestructurado, Pero estos no solo son los unicos materiales para una terapia, ya que hay diversos nanomateriales que cada dia se desarrolan, con el objetivo de darle a la humanidad una mejor calidad de vida. 7. 1 Nanotubos en terapia genética Gracias a los últimos avances científicos en la medicina, se han logrado identificar muchos de los genes relacionados con ciertas enfermedades, y actualmente investigaciones utilizan estos nuevos conocimientos para desarrollar nuevos tratamientos para dichas enfermedades. Se cree que se podría reemplazar genes defectuosos o ausentes a través de la implantación en células humanas desde el exterior del mismo tipo de gen. Este proceso no resulta sencillo porque, como el ADN no puede traspasar las membranas células, se requiere la ayuda de un transportador. Ejemplos de este tipo de transportador incluyen un virus, un lisosoma o péptido especial. Un equipo europeo de investigadores ha desarrollado un nuevo método para introducir el ADN en células de mamíferos a través de nanotubos de carbón modificados. Los nanotubos de carbón son estructuras diminutas con forma de aguja y fabricados con átomos de carbón. Para utilizar nanotubos como transportador de genes, era necesario modificarlos. El equipo de investigadores logró enlazar al exterior de los nanotubos de carbón varias cadenas hechas de átomos de carbón y oxígeno cuyo lateral consiste en un grupo de aminos cargados positivamente (– NH3+). Esta pequeña alteración hace que los nanotubos sean solubles. Además, los grupos cargados positivamente atraen a los grupos de fosfatos cargados negativamente en el esqueleto del ADN. Al utilizar estas fuerzas electrostáticas atractivas, los científicos lograron fijar de forma sólida plasmidos al exterior de de los nanotubos. Luego contactaron los híbridos de nanotubo-ADN con su cultivo celular de células de mamífero. El resultado fue que los nanotubos de carbón, junto con su cargamento de ADN, entraron dentro de la célula. Imágenes de microscopio electrónico mostraron la forma en la que los nanotubos penetraron la membrana celular. Los nanotubos no dañan a las células porque, a diferencia de los anteriores sistemas de transporte genética, no desestabilizan la membrana al penetrarla. Una vez dentro de la célula, los genes resultaron ser funcionales. El uso de nanotubos de carbón como transportador no se limitará al transplante de genes. Nuevos avances científicos lograrán que sea posible el transporte de medicamentos y el desarrollo de otras nuevas técnicas médicas. 7. 2 Nanotubos en Medicina Según los resultados de una investigación llevada a cabo por un equipo de científicos de la Universidad de California, la fuerza, flexibilidad y poco peso de nanotubos de carbón hace que podrían servir como andamios capaces de suportar a los huesos y ayudar a víctimas de osteoporosis y huesos rotos. Los científicos describen su descubrimiento en un artículo publicado por la revista Chemistry of Materials de la American Chemical Society. Los resultados podrían suponer mayor flexibilidad y fuerza de huesos artificiales y prótesis, además de avances en el tratamiento de la enfermedad osteoporosis. Según el director de la revista, la investigación es importante porque indica un posible camino para la aplicación de nanotubos de carbón en el tratamiento médico de huesos rotos. Actualmente, las estructuras de hueso artificial se fabrican utilizando una gran variedad de materiales, tales como polímeros o fibras de péptido, pero tienen la desventaja de carecer de fuerza y el riesgo de ser rechazados por el cuerpo humano. Sin embargo, los nanotubos de carbón son excepcionalmente fuertes, y existe menos posibilidad de rechazo por su carácter orgánico. El tejido óseo es un compuesto natural de fibras de colágeno y hidroxiapatita cristalina, un mineral basado en fosfato de calcio. Los investigadores han demostrado que los nanotubos de carbón pueden imitar la función de colágeno y actuar como un andamio para inducir el crecimiento de cristales de hidroxiapatita. Al tratar los nanotubos químicamente, es posible atraer iones de calcio lo que fomenta el proceso de cristalización y mejora la biocompatibilidad de los nanotubos al aumentar su hidrosolubilidad. 7. 3 Nano-robots 7.3;a) Definición Aunque todavía no se han fabricado nanorobots, existen múltiples diseños de éstos, incluso no pueden ser del todo robots es decir pueden hasta ser modificaciones de células normales llamadas también células artificiales. Las características que éstos deben de cumplir, entre las que se pueden mencionar: 7.3;b) Tamaño Como el nombre lo indica, los nanorobots deben de tener un tamaño sumamente pequeño, alrededor de 0.5-3 micras ( 1micra=1*10-6) más pequeños que los hematíes (alrededor de 8 micras. 7.3;c) Componentes El tamaño de los engranes o los componentes que podría tener el nanorobot seria de 1-100 nanómetros (1nm=1*10-9) y los materiales variaría de diamante como cubierta protectora, hasta elementos como nitrógeno, hidrógeno, oxigeno, fluoruro, silicón utilizados quizás para los engranes 7.3;d) Nano-robots inmunológicos El sistema inmune de nuestro cuerpo es el encargado de proporcionar defensas contra agentes extraños o nocivos para nuestro cuerpo, pero como todos los sistemas éste siempre no puede con todo. Entre estas deficiencias se encuentra que muchas veces no responde (como es el caso con el SIDA) u tras veces sobreresponde (en el caso de enfermedades autoinmunitarias). Cabe decir que los nanorobots estarán diseñados para no provocar una respuesta inmune, quizás las medidas que tienen estos bastaran para no ser detectados por el sistema inmune. La solución que ofrece la nanomedicina es proporcionar dosis de nanorobots para una enfermedad especifica y la subsecuente reparación de los tejidos dañados, substituyendo en medida a las propias defensas naturales del organismo. 7.3;e) Nano-robots en la piel Parece que con billones de nanorobots que se implantan en el cuerpo humano y que recopilan información del estado de todo nuestro cuerpo, órganos, músculos, huesos, corazón, etc. para disponer de mucha información y poder hacer un análisis en tiempo real de alto nivel. Como nos citan en Xataka: "Para mostrar el análisis, algunos de estos nanorobots se colocarían sobre la mano o el antebrazo, a unas 200 o 300 micras por debajo de la piel, y alimentándose a partir de la glucosa y el oxígeno de nuestro propio cuerpo (menudos parásitos) formarían un pequeño rectángulo de unos 5×6 centímetros. podrían lucir en diversos colores gracias a una especie de diodos que vendrían integrados con los nanorobots, pero cuando se "apagasen" la piel volvería a lucir su color normal." VII. 3 Tratamiento contra el cáncer El equipo de Nanospectra ha logrado desarrollar nanopartículas de cristal bañadas en oro capaces de invadir un tumor y, cuando se calientan a través de un sistema remoto, capaces de destruirlo. La clave del alto grado de efectividad de este nuevo avance se deriva de las dimensiones de las partículas. Las nanopartículas tienen un diámetro de 150 nanómetros, que según el equipo de Nanoespectra, es el tamaño ideal para que puedan atravesar los vasos sanguíneos agujereados de un tumor. Esto podría permitir que las partículas se acumulasen en el tumor más que en otros tejidos. Cuando se dirigen rayos de luz infrarrojos a la localización del tumor, bien desde el exterior, o bien a través de una sonda, las partículas absorben la luz y se calientan. El resultado es que los tumores se calientan más que los otros tejidos alrededor, y se mueren. En el primer estudio realizado por la empresa, los tumores en ratones injertados con las nanopartículas desaparecieron a los seis días después de aplicarles el tratamiento de los rayos infrarrojos. Aunque la aplicación de rayos infrarrojos de luz ha sido utilizada en el campo de la medicina como una herramienta para mostrar imágenes, este nuevo avance científico supone la primera vez que se aplican rayos infrarrojos para calentar a los tejidos. En teoría, este nuevo avance tecnológico podría ayudar a eliminar aquellos tumores que caracterizan el cáncer de pecho, próstata y pulmón. La nanotecnología se sumaría así a otros tratamientos contra los cánceres más convencionales como la quimioterapia y la radioterapia. Y, según el presidente de Nanospectra Donald Payne, este nuevo método sería una "herramienta mucho menos tóxica para la caja de herramientas de los cirujanos". VII. 4 Análisis o estudio de ADN por "microarrays" Un microarreglo de ADN (del inglés DNA microarrays ) es una superficie sólida a la cual se unen una serie de fragmentos de ADN. Las superficies empleadas para fijar el ADN son muy variables y pueden ser vidrio, plástico e incluso chips de silicio. Los arreglos de ADN son utilizados para averiguar la expresión de genes, monitorizándose los niveles de miles de ellos de forma simultanea. La tecnología del microarreglo es un desarrollo de una técnica muy usada en biología molecular que es Southern Blot . Con esta tecnología podemos observar de forma casi instantánea la expresión de todos los genes del genoma de un organismo. De tal forma que suelen ser utilizados para identificar genes que producen ciertas enfermedades mediante la comparación de los niveles de expresión entre células sanas y células que están desarrollando ciertos tipos de enfermedades. Los microarreglos son fabricados usando una gran variedad de tecnologías. El gran desarrollo de esta técnica ha llegado debido al uso de Robots que son los que realizan el trabajo de alinear cada uno de los genes en puntos que se separan unos de otros por distancias microscópicas. Los microarreglos de ADN se pueden usar para detectar ARN, que pueden o no ser traducidas a proteínas. Los científicos se refieren a esta clase de análisis como "análisis de expresión". En los cuales pueden ser analizados desde diez a miles de genes, pero cada experimento de microarreglo debe llevar adjunto los análisis genéticos en paralelo. Los microarreglos han acelerado de todas formas muchas investigaciones. El uso de microarreglos para estudiar la expresión de diversos genes fue publicado en 1995, en la prestigiosa revista científica Science y el primer organismo eucariota con todo el genoma (Saccharomyces cerevisiae) dispuesto en un microarreglo fue publicado en 1997 en la misma revista. Microarrays de dos canales En este tipo de microarreglos (en inglés Spotted microarrays) las pruebas son oligonucleótidos, ADN copia (ADNc) o pequeños fragmentos de PCR, que corresponden con ARN mensajero(ARNm). En este tipo de microarreglo se hibrida el ADNc de dos condiciones que son marcados, cada uno de esas condiciones con dos fluoróforos diferentes. Las condiciones son mezcladas e hibridadas en el mismo microarreglo. Una vez realizado este primer paso se procede al escaneo del resultado y a la visualización del mismo. De esta forma se pueden observar genes que se activan o se reprimen en distintas condiciones. La contrapartida de estos experimentos es que no se pueden observar niveles absolutos en la expresión. Microarreglos de oligonucleótidos En los Microarreglos de oligonucleótidos o micromarreglos de canal único, las pruebas son designadas a partes de una secuencia conocida o un ARNm predicho. Estos microarreglos dan estimaciones del nivel de expresión, pero distintas condiciones no pueden ser observadas en una misma matriz, por lo que por cada condición se ha de utilizar un chip. Microarreglos para Genotipificación Los microarreglos de ADN pueden ser utilizados para "leer" las secuencias de un genoma particular en determinadas posiciones. Los SNP microarrys con un tipo particular de matrices que son usadas para identificar variaciones individuales y a través de poblaciones. Oligonucleótidos pequeños son capaces de identificar polimorfismos de un solo nucleótido (en inglés SNPs, single nucleótido polymorphisms) que podrían ser los responsables de variaciones genéticas dentro de una población, la fuente de susceptibilidad a distintas enfermedades genéticas e incluso a ciertos tipos de cáncer. En general, la aplicación de estas técnicas de genotipado son usadas con aplicaciones forenses ya que son rápidas en descubrir o medir la predisposición de enfermedades o incluso permitir el uso de ciertos medicamentos para tratar ciertas enfermedades según tu propio ADN. Los microarreglos de SNPs son también utilizadas para identificación de mutaciones somáticas en cáncer, sobre todo la perdida de heterocigosis, la amplificación o la delación de regiones de ADN en el genomio individual de pacientes afectados, es decir la detección de aberraciones cromosómicas. VIII NANOTECNOLOGÍA MOLECULAR Y SENSORES La nanotecnología es la manipulación de materiales a una escala molecular. Muchos científicos utilizan hebras artificiales de ADN para lograrlo. Technology Review publica que investigadores de la Universidad de Dortmund han descubierto la forma de hacer que ADN pegue y separe nanopartículas de oro a medida. Se podría aplicar este método a sensores que detectan sustancias y actividades biológicas en el laboratorio y en el cuerpo humano. También se podría aplicar a materiales programables cuyas propiedades se pueden cambiar al añadir un trozo de ADN. ADN consiste en cuatro bases químicas - adenina, guanina, citosina y timina - unidas a un esqueleto de fosfato- azúcar. Las hebras de ADN se unen cuando las secuencias de bases se aparean - adenina con timina y citosina con guanina. Con el nuevo avance científico desarrollado por el equipo alemán, es posible lograr que hebras artificiales cortas de ADN formen estructuras, y luego se puede manipularlas para que se peguen a otros materiales y a continuación, es posible organizar estos otros materiales dentro de una estructura. En esta investigación, los científicos utilizaron dos secuencias de hebras sencillas de ADN que se pegan a una nanopartícula de oro y una tercera hebra con tres secciones. Las primeras dos secciones de la tercera hebra aparean con cada una de las hebras de nanopartículas, pegándolas para que las nanopartículas de oro que llevan se posicionan cerca. Se puede separar las nanoparticulas utilizando un tercer tipo de hebra ADN que es igual que la hebra pegada de ADN. Esta hebra se adhiere primero a la tercera sección, la que está libre, de la hebra adhesiva de ADN y tira hasta que toda la hebra se despegaue. IX NANOTECNOLOGÍA BASADA EN ADN La nanotecnología comprende básicamente un conjunto de técnicas con aplicaciones potenciales en la mayoría de los sectores industriales existentes en la actualidad, y con el potencial de ayudar a crear nuevas industrias. Estas técnicas comparten el objetivo de hacer cosas cada vez más pequeñas, más pequeñas de hecho que los límites físicos establecidos en los microchips (100 nanometros, o 100 millonésimas de un milímetro) aunque más grandes, naturalmente, que el átomo individual (0,1 nanometros). A menudo se distinguen dos enfoques: la miniaturización de arriba a abajo de microtecnologías y la construcción controlada de abajo a arriba de materiales y dispositivos a partir de átomos y moléculas individuales. La nanotecnología puede utilizarse para investigación en ciencia de los materiales, física, química, biología y medicina. Además, a veces se considera como una opción futura para el desarrollo, o incluso en ciertos casos ya en uso, en I&D en materiales y producción industrial (tecnología de ultra precisión), catálisis, electrónica, productos farmacéuticos (fármacos inteligentes), tecnologías biomédicas, (órganos artificiales), energía (nuevos materiales fotovoltaicos, baterías) y detección ambiental. Algunos productos están ya o van a estar próximamente en el mercado. Estos productos son principalmente nuevos materiales nanoestructurados e instrumentos y técnicas para su fabricación. Los ejemplos incluyen láseres en reproductores de CD, espejos y lentes de alta calidad e incluso lápices de labios Lograr dirigir el movimiento atómico dentro de la molécula de ADN permite generar sistemáticamente cada molécula al menos dos estados, cada uno puede representar, ora 0, ora 1. Esta fue la hipótesis de la que se partió y los éxitos aunque modestos de apariencia han sido rotundos. Esa tesis permitió organizar computadoras que ofrecen reducciones del tamaño de los equipos porque son intrínsecamente pequeños: una milésima del tamaño de los transistores del semiconductor utilizados hoy como puertas cuyo diámetro ronda la micra, o sea, una millonésima de metro. De hecho, un ordenador biomolecular podría ser la quincuagésima parte (cincuenta veces menor) de un ordenador actual de semiconductores que contuviera similar número de elementos lógicos. La reducción del tamaño de las puertas desemboca en dispositivos más veloces; los ordenadores de base proteínica podrán, operar a velocidades mil veces mayores que los ordenadores modernos. Hasta ahora, nadie propone un ordenador puramente molecular. Es mucho más probable, al menos en un futuro cercano, que se utilice una tecnología híbrida, que combine moléculas y semiconductores. Tal proceder debería proporcionar ordenadores cincuenta veces menores que los actuales y centuplicar su velocidad. Las moléculas biológicas confieren así el control necesario para crear puertas que funcionen de acuerdo con los requerimientos de una aplicación. Parece razonable pronosticar que la técnica híbrida, que conjuga microcircuitos semiconductores y moléculas biológicas, pasará bastante pronto del dominio de la fantasía científica a las aplicaciones comerciales. La pantallas de cristal líquido ofrecen un espléndido ejemplo del sistema híbrido que ha triunfado. Casi todos los ordenadores portátiles de nuestros días se basan en pantallas de cristal líquido, que combinan dispositivos semiconductores con moléculas orgánicas para controlar la intensidad de la imagen en la pantalla. Son varias las moléculas biológicas que se podrían utilizar con vistas a su utilización en componentes informáticos, pero de todas ellas, es una proteína bacteriana, la bacteriorrodopsina la que suscita mayor interés. 9. 1 Material de construcción En el año de 1980, nació la idea de utilizar las moléculas de ADN como material de construcción a nanoescala. La idea se basa en utilizar variantes estables de intermediaros bifurcados de la recombinación genética (Cruces de Holliday), como elementos básicos para materiales a nanoescala. Al combinar estas moléculas bifurcadas con extremos cohesivos, se pueden producir redes periódicas que puedan actuar como anfitrionas hacia macromoléculas huéspedes en experientos cristalográficos macromoleculares. La idea básica ha sido expuesta por casi un cuarto de siglo, sin embargo, aún esta en su infancia. 9.1 a) Extremos Cohesivos (Sticky Ends) El origen de los extremos cohesivos se remonta a inicios de los años 70, cuando las técnicas de manipulación genética in vitro fueron realizadas inicialmente apilando moléculas de ADN con estos extremos cohesivos. Un extremo cohesivo es una corta hebra de ADN que existe como una pequeña protuberancia al final de una molécula de doble hélice de ADN. La ventaja de los extremos cohesivos es que dos moléculas de ADN con extremos cohesivos complementarios (es decir, sus. extremos cohesivos poseen el arreglo complementario de bases de nucleótidos adenina, citosina, guanina y tirosina) se unen para formar una molécula de ADN más compleja. Los extremos cohesivos son sin duda el mejor ejemplo de reconocimiento molecular programable: hay significativamente, una gran variedad de extremos cohesivos, y el producto formado debido a la cohesión es siempre la clásica doble hélice del ADN. Además, la conveniencia de la síntesis de ADN basado en soportes sólidos hace n mas facil programar diversas secuencias de extremos cohesivos en las hebras de ADN. Por lo tanto, los extremos cohesivos ofrecen un predecible y controlado asociamiento intermolecular con una geometría impredecible con el punto de cohesión. Posiblemente se puede obtener afinidades similares entre las interacciones antigeno- anticuerpo, pero en contraste con los extremos cohesivos de ADN, la orientación tridimensional de las interacciones Antigeno- anticuerpo no van a ser predecibles entre cada par. Es decir, cada interacción Antigeno- anticuerpo e va a comportar de diferente manera, siendo casi imposible predecir una geometría determinada que englobe dicha interacción. Los ácidos nucleicos parecen ser únicos en estas propiedades, ofreciendo un sistema programable y diverso, con un remarcable control sobre las interacciones intermoleculares. A pesar de que los extremos cohesivos resultaron una gran alternativa para definir por primera vez a la programación molecular, las moléculas de ADN aun carecían de una propiedad importante para ser utilizadas como material de construcción a nanoescala. Y es que formando moléculas de ADN lineales. Pero para producir materiales interesantes a partir de ADN, la síntesis era requerida en múltiples dimensiones, para este puposito moléculas bifurcadas de ADN eran requeridas. 9.1 b) El Cruce Holliday ( Holliday juction) Moléculas bifurcadas de ADN ocurren naturalmente en sistemas vivos, como intermediarios efímeros formados durante el proceso de recombinación celular. Este es un fenómeno que ocurre en todos los organismos, desde bacterias hasta humanos. Hebras alienadas de ADN se rompen y entrecruzan una a otra, formando estructuras llamadas "cruce de Holliday". Este proceso lleva a la diversidad genética en organismos. 9.1c) Formación de un Cruce de Holliday El cruce de holliday contiene cuatro hebras de ADN (cada par de cromosomas homólogos alineados esta compuesto de 2 hebras de ADN) enlazadas entre ellas para formar un brazo de cuatro dobles enlaces. El punto de bifurcación en el cruce de holliday puede reubicarse debido a la simetría de las secuencias. En contraste, complejos sintéticos de ADN pueden diseñarse para formar bifurcaciones que imiten el cruce de holliday sin que este pueda poseer centros de simetría 9.1d) Un Cruce bifurcado de Holliday inmovilizado El cruce d holliday esta compuesto de 4 hebras de ADN, marcados con números árabes. El termino 3 de cada molécula esta indicado por flechas. Cada hebra esta enlazada con otras dos hebras para formar brazos de doble hélice, los brazos están enumerados con números romanos. Lo enlaces de hidrogeno de los pares de bases que forman la doble hélice están indicados por los puntos entre las bases. La secuencia de este cruce ah sido optimizada para minimizar las simetrías y las faltas de pares complementarios. Debido a que no hay simetría C2 flanqueando el centro de bifurcación, este cruce no puede sobrellevar reacciones de isomerización que permitan la migración del punto de bifurcación. La molécula ah sido diseñada para minimizar secuencias simétrica; esto significa que todos los segmentos de secuencias cortos son únicos. En la parte de arriba del brazo 1, dos de los 52 tetrámeros en el complejo están marcados, estos son CGCA y GCAA en la esquina de la hebra 1, la secuencia CGTA esta marcada también. Esta es una de las 12 secuencias en l complejo que forman el cruce. El complemento de cada una de estas 12 secuencias no esta presente en el complejo, lo que no les va a permitir formar doble hélices. Mientras que los otro elementos tetrameritos si poseen sus complementos y forman los brazos de doble hélice. Cruce de Holliday sintetizado La síntesis de este complejo no va a permitir poseer un cruce bifurcado de holliday inmóvil. Esta síntesis es de gran importancia, ya que seria el "bosquejo" de la molécula de ADN que buscamos para que funcione como una unidad estructural de futuros compuestos en escala manométrica. Por lo tanto, la prescripción para usar el ADN como elemento básico para la formación de materiales mas complejos a una escala manométrica es simple: tomar molécula sintéticas de ADN con bifurcaciones y programarlas con extremos cohesivos, para permitirán autoensamblaje a la estructura deseada, el cual puede ser objeto cerrado a un medio cristalino. 9.2 AVANCES DE LA NANOTECNOLOGIA BASADA EN ADN Desde la idea originar de utilizar las moléculas de ADN como base para la formación de elementos mas complejos y de los estudios sobre los extremos cohesivos y el cruce de holliday, se han creado elementos basados en esta técnica, como el cubo hecho de ADN, los arreglos cristalinos bidimensionales de ADN, y el primer dispositivo manométrico. 9.2 a) Un Cubo hecho de ADN El primer gran éxito de la nanotecnologia basad en ADN fue la construcción de una molécula de ADN con los ejes de sus hélices conectados como los lados de una figura cúbica. Este objeto consiste d seis hebras de ADN cíclicas, una para cada cara del poliedro. Cada vértice del cubo consiste de dos vueltas de la doble hélice. 9.2 b) Doble entrecruzamiento del ADN (DX-Double Crossover) La idea que siguió a la formación del cubo basado en ADN, fue la construcción de arreglos periódicos de ADN y aprovechar a los extremos cohesivos para que puedan autoensamblarse. Sin embargo, los cruzamientos de Holliday resultaron algo flexibles y muy inestables al momento de producir arreglos en dos dimensiones, por lo tanto, se busco otro motivo de ADN que tengo menor flexibilidad y mayor dureza. Este nuevo motivo no estuvo muy lejano al ya conocido cruce de holliday, mas bien, fue una estructura similar llamada doble entrecruzamiento de holliday que también es análoga a un intermediario formado durante la meiosis. Este nuevo motivo molecular contiene do dobles hélices conectadas una a otra en dos ocasiones a través de dos puntos de entrecruzamiento. 9.2 c) Arreglo del doble entrecruzamiento del ADN En la parte superior del dibujo mostrado se presentan a las dos moléculas de doble entrecruzamiento A y B, que se muestran esquemáticamente. Arreglos con doble entrecruzamiento del ADN El carácter complementario entre sus extremos cohesivos es representado por una complementariedad geométrica. Las moléculas b contienen orquilla de ADN que se proyectan fuera del plano de las hélices; estas horquillas actúan como marcadores topográficos en el microscopio de fuerza atómica que es el instrumento donde se visualizan. Las dos moléculas son de aproximadamente 4 nm de ancho, 16 nm de largo y 2 nm de espesor. Cuando estas 2 moléculas son mezcladas en solución, forman los arreglos bidimensionales que tienen varios micrones de largo y cientos de nanometros de ancho. La filia que proyectan las orquídeas aparecen como líneas blancas la ser visualidades por AFM. Estas líneas están separadas 32 nm como era de esperarse, al haber una molécula A de 16 nm de largo entre dos moléculas de A de 16 nm de largo entre dos molécula de B. 9.2 d) Triple entrecruzamiento del ADN (Triple Crossover) Además de la molécula de doble cruzamiento de ADN, se sintetizó una molécula entrecruzada con tres dobles hélices. Triple entrecruzamiento de heras de ADN Esta molécula consiste de 4 oligonucleótidos hibridizados para formar tres dobles hélices de ADN que se recuestan en el plano y que permanecen unidas por intercambios de hebras en cuatro puntos inmovibles de entrecruzamiento. 9.2 e) Arreglo del triple entrecruzamiento del ADN (TX) De la misma manera que para las moléculas de doble entrecruzamiento, moléculas TX son también robustas y pueden ser fácilmente usadas para el diseño de arreglos cristalinos en dos dimensiones. Arreglo con triple Entrecruzamiento del ADN Nuevamente, hacemos uso de los extremos cohesivos para programar las uniones entre las moléculas. Una ventaja importante de las moléculas de TX en comparación a otros motivos de ADN, es q poseemos grandes espacios dentro del arreglo cristalino, que nos va poder permitir llenarlas con otros nanodispositivos o incluso permitir la incorporación de componentes altamente estructurados y fuera del plano bidimensional; es decir, un posible acercamiento a los tan esperados arreglos en tres dimensiones. Arreglo en ADN 9.2 f) Primer dispositivo nanomecánico basado en ADN La rigidez de las moléculas antiparelelas de doble entrecruzamiento ha permitido usarlas como componentes de dispositivos nanomecanicos basados en ADN. Este dispositivo trabaja utilizando la transición B-Z de las moléculas de doble hélice del ADN. Lo que se ha logrado, es conectar dos moléculas de doble entrecruzamiento (regiones rojas y azules) con un segmento puente que contiene una región donde B-ADN se puede convertir en Z-ADN. Este segmento convertible se muestra en el dibujo con color amarillo. X POTENCIALES DE LA NANOTECNOLOGÍA Potenciales aplicaciones médicas: Servir como un sistema auto inmune potenciado. Buscar y destruir virus, colesterol, excesos de grasa, células cancerígenas y marcadores genéticos. Eliminar la necesidad de cirugía. Evitar el "sacrificio" de materia viva natural. Borrar los procesos de envejecimiento Potenciales aplicaciones militares: Dispositivos inteligentes demasiado pequeños para ser descubiertos Armas biológicas/químicas computarizadas Escudos de defensa activos Blancos seleccionados sin posibilidad de error C. Potenciales aplicaciones energéticas. Se usa aproximadamente una diezmilésima parte de la energía solar que llega a la Tierra. Se usa combustibles fósiles porque es más conveniente Distribución de energía a través de "canales" de energía. Colectores solares (en órbita alrededor de la Tierra) reemplazarán a los combustibles fósiles. Potenciales aplicaciones espaciales. Máquinas moleculares y computadoras de tamaño subcelular. Bases de lanzamiento de gran altitud (baja gravedad). Vehículos y estaciones espaciales livianas y superresistentes. Naves con velas propulsoras posibilitarán los viajes interestelares (probablemente no para individuos pero sí para generaciones). Potenciales aplicaciones ambientales. Dietas "normales" sin matar animales. Todas las máquinas podrían ser "libres de contaminación ambiental". Materiales con estructura de diamante permitirán reemplazar a los actuales materiales. Nanomáquinas que obtengan su energía de la contaminación ambiental Reducir el uso de fuentes de energía, tradicionales, finitas y polusivas. BIBLIOGRAFÍA TABATA, Y. (2005) "Nanomaterials of drug delivery systems for tissue regeneration" . Methods in Molecular Biology 300, 81. WHITESIDES, G. M. (2003) "The right size in nanobiotechnology" Nature Biotechnology 21, 1161. www.estudiantes.info/ciencias_naturales/quimica/quimica-organica.htm www.euroresidentes.com/Blogs/alimentos-salud/labels/alimentos.html http://www.euroresidentes.com/Blogs/nanotecnologia/2005/07/nanotubos-y-medicina.html www.euroresidentes.com/futuro/nanotecnologia/diccionario/nanobot.htm http://www.fisicanet.com.ar/tecnicos/tecnologia/ar10_nanotecnologia.php http://www.fisicaysociedad.es/view/default.asp?cat=763&id=2319 http://www.fsp.csic.es/index_files/frames/link_frame_data/nanorobots.html http://www.sbf1.sbfisica.org.br/boletim/lemensagem.asp?msgId=17 http://www.iq.usp.br/wwwdocentes/mbertott/linha.htm http://www.invenia.es/farmameeting:conferencias.ibc http://www.nanorobots.net/ http://www.nanotecnologica.com/ http://nextwave.universia.net/salidas-profesionales/nano/nano1.htm http://www.uned.es/cristamine/fichas/grafito/grafito.htm http://www.nanotechproject.org/ http://es.wikipedia.org/wiki/Tabla_peri%C3%B3dica_de_los_elementos Espero que les aya servido si te gusto puntua Echo por Nicolas Ariel Libert
Resumen. Se hace un análisis de la estructura y la mecánica del Tiempo, en base a la evolucion historica de las Hipótesis existentes, principalmente las reflexiones de Einstein y sus seguidores en base a la Relatividad, el concepto del espacio-tiempo curvo y los Agujeros de Gusano Einstein-Bosen. Hasta la Conjetura de la Proteccion Cronologica de Hawking. También se analiza el concepto en base a la Hipó tesis Transdimensional del autor, que establece una relación directa entre gravedad y tiempo en un plano interdimensional. En base a estas, se hace una especulación sobre la factibilidad del viaje en el tiempo. LA ESTRUCTURA DEL TIEMPO Y LOS VIAJES TEMPORALES La Estructura del Tiempo. Conceptos Históricos sobre el Concepto Tiempo. El concepto del Tiempo como una línea, se remonta a los filósofos hebreos y a los Iraní Zoastrianos. Algunos filósofos romanos, como Séneca concibieron el tiempo como una línea. Platón y otros filósofos griegos y romanos creían que el Tiempo era un movimiento y que este movimiento era lineal, pero cíclico. Los teólogos islámicos y cristianos adoptaron los conceptos hebreos-zoroatrianos del tiempo lineal con el universo creado en un determinado momento en el pasado. Aristóteles dudó de la existencia del tiempo, pero decía que el tiempo era "el número de movimientos respecto al antes y después, y su continuo.". Aristóteles asociaba el tiempo con los cambios: "El tiempo es la medida del cambio", y estableció que no podía haber tiempo separado del cambio. En el Siglo 17, Isaac Barrow, discípulo de Newton, refutó la idea de Aristóteles de que el Tiempo estaba relacionado con el cambio, diciendo que el tiempo era algo que podía existir independientemente del movimiento o cambio. Que el tiempo existía aún antes que Dios creara la materia del Universo. Barrow desarrolla el concepto de Newton que el espacio y el tiempo forman un "contenedor" de todos los eventos infinitamente grande, y que este "contenedor" existe con o sin los eventos. El espacio y el tiempo no serian sustancias materiales según Barrow, pero serian "parecidas" a sustancias que no dependen de la materia o el movimiento. Leibniz refutó este concepto explicando que el tiempo no puede existir sin los eventos actuales. Según el, Newton sobreestimó el hecho que el tiempo necesariamente envuelve un "ordenamiento" de cualquier par de eventos no simultáneos. Es por esto que, para decirlo de algún modo, el tiempo "necesita" los eventos. En el Siglo 18, Kant expuso que el tiempo y el espacio eran formas que la mente proyecta sobre las cosas en si mismo. El opinaba que nuestra mente estructura nuestras percepciones de acuerdo con la Geometría Euclidiana y el tiempo era la estructura mental de una línea matemática. La idea de Kant es importante en éste estudio, porque sugiere implícitamente, que el tiempo es un tipo de fenómeno conceptual y que posiblemente la mente no tiene una percepción directa del tiempo sino una habilidad de experimentar cosas y eventos en el tiempo. También es importante porque, con el descubrimiento de la Geometría No Euclidiana en 1820, algunos filósofos dijeron que Kant se había equivocado en este asunto, pero la idea general se mantiene a través, ahora, de la percepción no euclidiana del espacio y tiempo. En 1924, Reichenbach define el orden del Tiempo en términos de sus causas posibles. De esta manera establece la asimetría del tiempo. La asimetría se debe al hecho que los procesos o eventos que surgen de un centro común, tienden a estar relacionados unos con otros, pero si se enfocan estos procesos o eventos en dirección contraria (hacia el centro) no se relacionan. En el Siglo XX, Godel y otros, descubrieron las soluciones para las ecuaciones de Einstein para la teoría de la Relatividad General, lo que llevó a conceptuar, matemáticamente, la existencia de curvas o rizos en la línea del tiempo. Estor "Rizos causales" o "Closed Timelike Curves", establecían, teóricamente, la posibilidad de que algunas líneas de tiempo retrocedieran al pasado. El Tiempo de una manera general se puede definir como la percepción a trabes de la conciencia del desarrollo integrado de los fenómenos físicos con que estamos relacionados. En este aspecto, el concepto de Aristóteles sobre el tiempo es indiscutible ya que, de cualquier modo, seria imposible probar lo contrario, o sea la existencia del tiempo sin la mente. El Tiempo existe o no existe. La reflexión inicial sobre este problema se debe basar lógicamente en la suposición de que el tiempo existe o no existe. Los filósofos del tiempo tienen opiniones diversas sobre el asunto. Opinan que existen diferencias ontologicas entre el presente, pasado y futuro. Los llamados "Presentistas" arguyen que necesariamente sólo los objetos y experiencias presentes son reales, y sólo somos concientes de reconocer la realidad de nuestras experiencias presentes. La Teoría del Universo Creciente dice que tanto el pasado, como el presente son reales, pero el futuro no es real. Finalmente la Teoría del Universo en Bloque o "Eternalismo" propone que no existen diferencias ontologicas entre el pasado, presente o futuro. En algunas hipótesis se expone que el tiempo no existe físicamente, y que sólo es alguna especie de ilusión o una impresión alterada de una serie de fenómenos físicos, que nuestros sentidos y nuestra mente interpretan y que se desarrollan en nuestra realidad. O sea que se especula sobre la existencia del tiempo en el sentido de que éste existe sólo porque es percibido por la conciencia humana, y no existiría sin ésta percepción, por lo que realmente no existiría físicamente, sino como una abstracción mental necesaria para que las dimensiones de la materia formen la realidad. Algunos filósofos como Zeno y McTaggart opinan que el tiempo es "Nada, pues no existe". En una línea similar, a principios del siglo XX, el filósofo inglés Bradley, opinaba: "El tiempo, como el espacio, no son reales, pero son de apariencia contradictoria...el problema desafía la solución...". De manera general, los filósofos opinan que el tiempo no existe.´ En las Hipótesis sobre el tiempo tenemos la que dice que el tiempo, por lógica, no existe, Ya que el Pasado, al ser una realidad pasada, no existe; el Presente es un punto en movimiento, en flujo constante; y el Futuro es algo que aun no acontece, por lo que tampoco existe. Esto, por supuesto, se relaciona con la percepción de la conciencia. El Físico Paul Davies ha expuesto la hipótesis que el tiempo existe como una dimensión, pero que su "movimiento" es una ilusión. O sea, que de hecho, el tiempo no existe. Finalmente, en el aspecto puramente físico, se plantea que el tiempo no podría existir sin la materia. La Hipótesis básica del Big-Bang supone que antes del evento, en nuestro universo no existía la materia y por ende, no existía el tiempo. No había una realidad. Esto sólo podría ser aceptado si se acepta el concepto de la "nada absoluta", ya que aún si sólo existiera una "sopa" de partículas subatómicas, la masa acumulada de estas seria muy alta y habría "tiempo". Según éste concepto, al principio del Big Bang, el tiempo existente seria "pequeño", o "lento", y su tamaño o velocidad se iría incrementando a medida que se fuera formando la materia del universo, hasta llegar al "nivel" de nuestros días. Si desarrollamos esta idea, entonces el tiempo no es estable en ningún "momento", y a medida que el universo se desarrolle o "expanda", el tiempo también lo hará. Sin embargo, este fenómeno no puede ser percibido por nosotros debido a su magnitud, o porque existe un mecanismo de la conciencia humana que ajusta automáticamente el tiempo a nuestra realidad. Este concepto también implicaría que si el universo se expandiera de manera infinita, el tiempo también lo sería. De otra forma, si el Universo empezara a contraerse, como mencionan algunas teorías, el Tiempo también se contraería, volviendo en un momento dado a un punto sin materia ni tiempo, que seria el origen del Big Bang. La Mente y el Tiempo. Aristóteles reflexionó sobre la metafísica del tiempo. ¿ Si no existe la mente, el tiempo tampoco existiría ?. "Debemos preguntarnos: ¿Si la mente no existe, el tiempo puede existir o no ? porque si no hay nadie que perciba esto, no habrá nada que percibir." Aristóteles no contesta esta pregunta directamente porque dice que la respuesta depende si el tiempo es el número de movimientos concientes, o sólo la capacidad de la conciencia de percibir el número de movimientos. Esta distinción de Aristóteles es la base del moderno concepto de "tiempo psicológico" y "Tiempo Físico". San Agustín tiene una opinión subjetiva del Tiempo. El dice que el tiempo no es nada en realidad, pero que existe sólo en la percepción mental de la realidad. Henry de Gent y Giles de Roma opinaban que el tiempo existe en la realidad como un continuo independiente de la mente, pero que sólo la mente puede distinguir entre el "antes" y "después". En el Siglo 11, el filósofo persa Avicena, dudó de la existencia física del tiempo, argumentando que el tiempo sólo existe en la conciencia y la memoria. LA CONCIENCIA Y EL TIEMPO. Para comprender estos planteamientos es necesario utilizar nuevos términos. El tiempo pre-conciencia es el tiempo que es parte de los procesos físicos producto del caos de a creación de cada universo. Posiblemente similar al Tiempo de Plank. El tiempo conciente es el tiempo pre-conciencia mas la percepción de la conciencia de la realidad. Esta percepción es intuitiva y la mayor parte inconsciente, determinada solo por la observación y deducción de los eventos cercanos. En este nivel, la conciencia no tiene acceso a la pre-conciencia, sino que se comporta como una adenda interactiva. En Tiempo Post-Conciencia es el T-conciencia con acceso al T-Preconciencia y solo existe en condiciones de la conciencia del concepto complejo del tiempo (Supra-conciencia). En el contexto general de estas hipótesis las tres formas de Tiempo, pasado, presente y futuro, existen simultáneamente. Los Conceptos de Einstein y el Tiempo. La Relatividad. En la Teoría de la Relatividad, Einstein estableció que el factor tiempo era una dimensión a ser considerada en los cálculos físicos y este factor se alteraba con la velocidad de la masa. Pero curiosamente nadie ha explicado la contradicción lógica que supone que la propia luz, que es una forma de materia no se afecte temporalmente al moverse a la velocidad establecida. La propia Teoría de la Relatividad, al admitir que la velocidad de la luz es una constante, se contradice, ya que al afectarse el factor Tiempo deja de ser una constante. A pesar de esto, algunos piensan que la Teoría de la Relatividad establece la posibilidad de viajar en el tiempo, pero, de ser completamente cierta esta teoría, realmente el fenómeno no tendría que ver con el "Viaje" en el Tiempo, sino con la variación ( Relatividad ) del tiempo cuando un objeto que se acerca o alcanza la velocidad de la luz. Si fuera posible que una nave con seres humanos, viajaran a una velocidad próxima o la de la propia luz, el tiempo para esta se volvería más lento o se detendría. Pero ni la nave, ni su tripulación viajaran en el tiempo. Además, hay que considerar "dificultades técnicas" en esta hipótesis, ya que al alcanzar la velocidad de la luz, tanto la nave como su tripulación se convertirían en una sopa de fotones, O "materia exótica" o sea un tipo de materia que tiene densidad negativa y que solo existe a velocidades cercanas a la luz. También podemos especular que si algún tipo de materia alcanzara la velocidad de la luz, el espacio entre sus átomos alcanzaría la "medida" Plank-Wheeler y se convertiría en "Espuma quántica". Y además, aunque sólo alcanzaran, por ejemplo un 75% de la velocidad de la luz, seria casi imposible desacelerar la nave a su velocidad inicial sin recorrer una distancia igual a la recorrida en la aceleración, sin contar que estos dos procesos requerirían de cantidades colosales de energía. Y si aún, después de todo esto, esta nave regresara intacta a la Tierra, los tripulantes se darían cuenta que realmente no han viajado en el tiempo, sino que el tiempo para ellos fue mas lento, y que la tierra que dejaron al partir, será decenas de miles de años mas vieja. La Curvatura del Espacio-Tiempo. Einstein visualizó la gravedad como la curvatura del espacio-tiempo causada por la materia en si, lo que se opone a la idea de Newton de la fuerza actuando a la distancia. Aunque los objetos trataran de moverse a través del espacio-tiempo en línea recta, esta trayectoria parecería curva. El Concepto de la Curvatura del Espacio-Tiempo, planteado en la Teoría de la Relatividad General por Einstein, viola la noción de Euclides y Minkowski de la geometría. Según este concepto, dos líneas paralelas pueden cruzarse en un "momento" dado. Los Agujeros de Gusano. La Teoría de los Agujeros de Gusano (Einstein –Rosen, también conocido como el puente de Einstein-Rosen , es un aspecto topológico hipotético del espacio tiempo que es esencialmente un atajo desde un punto del universo a otro punto en el universo, permitiendo el viaje entre ambos de una forma más rápida de la que le tomaría a la luz en realizar el mismo viaje a través del espacio normal. Los agujeros de gusano se presentan como soluciones para las ecuaciones de Einstein en la teoría general de la relatividad cuando se aplican a los agujeros negros. De hecho, surgen tan seguida y fácilmente en este contexto que algunos teóricos se sienten inclinados a creer que eventualmente puedan encontrarse o fabricarse contrapartes y, quizá, ser utilizados para viajes más rápidos que la velocidad de la luz. La teoría de los agujeros de gusano se remonta a 1916, poco después de que Einstein publicase su teoría general, cuando Ludwig Flamm, un físico Vienés desconocido, se fijó en la más simple y teórica forma posible de un agujero negro – el agujero negro Schwarzschild – y descubrió que las ecuaciones de Einstein permitían una segunda solución, ahora conocida como agujero blanco, que se encuentra conectado a la entrada del agujero negro por un conducto de espacio tiempo. La "entrada" del agujero negro y la "salida" del agujero blanco podrían estar en diferentes partes del mismo universo o en diferentes universos. En 1935, Einstein y Nathan Rosen estudiaron más a fondo la teoría de las conexiones intra- o inter-universo en una presentación (1) cuyo propósito era el de explicar las partículas fundamentales, tales como electrones, en términos de túneles de espacio-tiempo unidos por líneas de fuerza eléctricas. Esto dio paso al nombre formal de puente Einstein-Rosen a lo cual más tarde el físico John Wheeler se referiría como "agujero de gusano" (el también acuño los términos "agujero negro" y "espuma cuántica". La presentación de Wheeler en 1955 (3), trata sobre los agujeros de gusano en términos de entidades topológicas denominadas "geones" e incidentalmente provee el primer diagrama (ahora muy familiar) de un agujero de gusano como un túnel que conecta dos aberturas en diferentes regiones del espacio tiempo. Sin embargo, antes de que Einstein muriera, se vio frente a un embarazoso problema., Kurt Goedel, uno de los mas grandes Lógico Matemático que han existido, encontró una nueva solución a las propias ecuaciones de Einstein ¡que permitían el viaje en el tiempo!. El "río del tiempo" ahora tenía remolinos en los cuales podría curvarse sobre sí mismo en un círculo. La solución de Goedel era bastante ingeniosa: postuló un Universo repleto de un fluido rotante. Cualquiera que anduviese a lo largo de la dirección de rotación se encontraría de vuelta en el punto inicial, ¡pero antes en el tiempo!. En sus memorias, Einstein escribió que estaba preocupado porque esta ecuación contenía soluciones que permitían el viaje en el tiempo. Pero por fin concluyó: el Universo no rota, se expande (es decir como en la Teoría del Big Bang) y por esto la solución de Goedel podría ser desestimada por "razones físicas". (Aparentemente, si el Big Bang fuese rotacional, ¡sería posible viajar en el tiempo por el Universo!). El interés en los agujeros de gusano navegables tomó auge a continuación de la publicación de un escrito en 1987 de Michael Morris, Kip Thorne, y Uri Yertsever del Instituto de Tecnología en California quienes averiguaron de que tal viaje podría ser posible si un agujero negro pudiese ser mantenido abierto el suficiente tiempo para que una nave espacial (o cualquier otro objeto) pasase a través de el. concluyeron que para mantener un agujero de gusano requeriría de materia con una densidad de energía negativa y una presión negativa mayor - mayor en magnitud que la densidad de la energía. Tal materia hipotética es denominada materia exótica. Aunque la existencia de la materia exótica es especulativa, se conoce una manera de producir energía de densidad negativa: el efecto Casimir. Como fuente de su agujero de gusano, se volvieron hacia el vacío cuántico. "El espacio vacío" en su más mínima escala. Resulta ser que no está vacío sino que hierve con violentas fluctuaciones en la mismísima geometría del espacio-tiempo. A este nivel de la naturaleza, se cree que ultra pequeños agujeros de gusano están continuamente apareciendo y desapareciendo. Sugirieron que una civilización lo suficientemente avanzada podría expandir uno de esos pequeños agujeros hasta un tamaño macroscópico añadiéndole energía. Entonces el agujero podría ser estabilizado utilizando el efecto Casimir colocándole dos esferas súper conductoras cargadas en las bocas del agujero. Finalmente, las bocas podrían ser transportadas a regiones bastamente separadas en el espacio para proporcionar una forma de comunicación y de viaje más rápido que la luz. Por supuesto que, el anterior planteamiento no está exento de sus dificultades, una de las cuales es que la potencia de las increíblemente necesarias fuerzas para mantener las bocas del agujero de gusano abiertas podrían destrozar a cualquiera o cualquier cosa que tratase de pasar a través de ellas. En un esfuerzo por diseñar un ambiente más benigno para los viajeros que utilizasen estos agujeros, Matt Visser de la Universidad de Washington en St Louis concibió un arreglo bajo el cual la región de espacio tiempo de una de las bocas de estos agujeros es plano (y por lo mismo libre de fuerzas) pero enmarcado por "puntales" de materia exótica que contiene una región de curvatura muy aguda (6). Visser visualiza un diseño cúbico, con conexiones de bocas de agujero espacio-plano en las esquinas cuadradas y cadenas cósmicas en las orillas. Cada cara del cubo puede conectarse para hacer cara con otro cubo de agujero de gusano, o bien las seis caras del cubo pueden conectar con seis diferentes caras de cubo en seis localizaciones separadas. Es un hecho que la Ciencia y la Tecnología actual hacen imposible la construcción de Agujeros de Gusano artificiales. Otra es que puedan ocurrir en forma natural. David Hochberg y Thomas Kephart de la Universidad Vandebilt han descubierto que, en los primeros instantes del Universo, la propia gravedad puede haber dado lugar a regiones de energía negativa en las cuales pueden haberse formado agujeros de gusano auto estabilizados. Dichos agujeros, creados durante el Big Bang, pueden estar por ahí hoy en día, distanciándose en pequeñas o grandes distancias en el espacio. El problema de los Agujeros de Gusano, "Naturales", además de que , obviamente se encuentran a distancias imposibles de alcanzar con nuestra tecnología actual, se desconoce totalmente a donde conducen. Hay que recordar que la Hipótesis de Einsten-Bose plantea la posibilidad de los agujeros de gusano, pero con la posibilidad de que estos no tengan su "salida" en este mismo universo, sino en otro. Actualmente, de acuerdo con algunos físicos como el Israeli Amos Ori, de acuerdo con las teorías de Einstein, el espacio puede ser torcido lo suficiente para crear un campo gravitacional local que tendría forma de rosquilla (Dona.) de "tamaño arbitrario". Las líneas del campo gravitacional circularían alrededor de la rosquilla de modo que el espacio y el tiempo se curvarían o se doblarían sobre si mismas. En teoría sería posible viajar al pasado de antes que la máquina del tiempo fuese construida. Básicamente, la teoría de la "rosquilla gravitacional" es una variación de los "Agujeros de Gusano". Algunos físicos como el Australiano Paul Davies, opinan que esta idea no es posible debido a la inestabilidad del núcleo compacto de vació que se formaría en la rosquilla. Debido a que las curvas de tiempo cercanas que se formarían son inherentemente inestables a las fluctuaciones quánticas. La inmensa energía que se forma dentro de la rosquilla ocasionaría su destrucción en un instante. Sin embargo, el físico Kip Thorne, ha especulado que alguna forma de "materia antigravedad exótica" podría usarse para estabilizar la rosquilla y mantener el agujero de gusano abierto. La Teoría Transdimensional y el Tiempo. Según la Hipótesis Transdimensional de la Gravedad, nuestra realidad se forma a partir del flujo unidireccional de Materia oscura, a través de Agujeros Negros Cuantiaos, de un Universo Paralelo hacia el Nuestro. Debido a que antes del Big-Bang, el flujo de Materia Oscura era unidireccional, el tiempo negativo del Universo Alterno compensaba el tiempo producido por la masa de la Materia Oscura en el universo, y su efecto era casi imperceptible. . Pero al acumularse una masa critica de Materia oscura en nuestro Universo, la temperatura media se elevó notablemente y parte de la materia oscura se "condensó" formando átomos. Con esto empieza el tiempo normal, ya que se produce el flujo bidimensional descrito en ésta Hipótesis. Básicamente, la Teoría Transdimensional del Tiempo establece que el movimiento del tiempo es una consecuencia de la gravedad, y viceversa. El Tiempo no puede existir sin movimiento, y el movimiento solo es posible con la gravedad. Por este motivo tanto el tiempo como la gravedad son dimensiones asimétricas. De este modo, según la Teoria Transdimensional los eventos o el movimiento que producen los cambios se deben a la mecánica de la gravedad sobre la materia que percibimos de cualquier modo, y es un evento que sólo existe mientras sucede, es decir, en el presente. Es por esto que según la Teoria Trandimensional de la Gravedad , el tiempo en si no existe como una linea, sino como un punto formado por eventos que cambian constantemente, por lo tanto el viaje en el tiempo seria imposible. La Gravedad y el Tiempo. Es obvio que la gravedad está relacionada con el tiempo, en forma directa o indirecta. La gravedad no podría existir si en factor tiempo. De la única forma en que podría funcionar la gravedad según la Hipótesis Transdimensional, es que el universo ( en nuestra dimensión.) sea un continuo flujo de acontecimientos de materia-tiempo en que no existe en vació ( o la nada).---La gravedad, según esta hipótesis, funciona como un flujo, en y entre dimensiones-universos paralelos. Existe un tipo de materia que se encuentra en un nivel inter-dimensional por lo que es y no es materia y/o energía en cualquiera de las dimensiones-universo porque su tiempo es inestable y es simultanea en ambos universos. ---Debido a que el factor tiempo es inestable esta "Materia oscura" posee una masa y una energía que no puede ser detectada directamente por nuestra tecnología actual. La concepción o idealización del sistema continuo de flujo transdimensional es imposible para una mente que funcione con tres dimensiones físicas y un tiempo estable. Esto se debe a que en este nivel, el tiempo no es fijo ni estable, por lo que el sistema debe tener una estructura multidimensional. En la que la masa, la energía y la propia tienen valores infinitos y variables.. La idea o hipótesis de que el universo es finito y tiene una forma espacio temporal de una esfera, no sería totalmente correcta o seria "incompleta" ya que los conceptos "finito" y "esfera" no serian posibles en un sistema tiempo variable y multidimensional. La hipótesis de que el universo es finito, implicaría que después de su "limite" existiera la nada o el vació total de materia y energía. Según la Hipótesis Transdimensional, el universo seria finito en un sentido relativo, o sea que sus límites serian variables (espacio-tiempo), y siempre limitaría con otra dimensión-universo, en el mismo plano multidimensional. El Viaje en el Tiempo. Tenemos que empezar por establecer que el termino "Viaje en el Tiempo" es una metáfora debido a que el término "viaje" se refiere a cambios en el espacio solamente. El término "Viaje en el Tiempo" se referiría a ciertos cambios poco usuales en "locaciones temporales"· Para reflexionar sobre el viaje en el Tiempo debemos considerar dos hipótesis básicas sobre la estructura del tiempo, ya que cada una de ellas establece las posibilidades teóricas de los viajes temporales. El Tiempo como una línea única y continua. Esta hipótesis supone que el tiempo esta formado por una línea única y continua de acontecimientos, por lo que la realidad es inmutable. Según esta hipótesis no es posible viajar al pasado y cambiar los acontecimientos del presente o futuro Tampoco se podría viajar al Futuro, porque, en términos relativos, el Pasado y Futuro son la misma cosa. Algunos plantean la posibilidad de viajar en el tiempo, pero sin la posibilidad de interactuar físicamente .Lovecraft, en una de sus obras plantea la posibilidad de viajar en el tiempo a un nivel mental, a través de sofisticadas tecnologías. Algunos científicos de la actualidad piensan que ciertas partículas subatómicas, como los positrones, parecen desplazarse negativamente en el tiempo. La existencia de Premoniciones o de Personas capaces de "ver" el futuro, podría explicarse con estas hipótesis. También algunos, como Einstein, han propuesto que esta línea del tiempo es curva, como el universo, por lo que podría ser circular y relativamente finita. En la Novela de Ficción, "La Maquina del Tiempo", H.G. Wells, el personaje principal, que opera la Maquina temporal, viaja hacia el pasado hasta llegar a su futuro. El Físico J. Gowman, ha expuesto que el tiempo, por ser asimétrico, fluye en una sola dirección y es unidimensional. El piensa que la línea del tiempo produce espacios angulares en las tres dimensiones espaciales para producir el efecto llamado " Dominio histórico temporal". El incremento en edad o expansión de este dominio históricos temporal es análogo a la expansión en el espacio. La Red del Tiempo. Al parecer este concepto fue esbozado primero por Aristóteles, cuando expuso que el tiempo era "el número de movimientos respecto al "antes" y "después" y su continuo" y respecto a su "tamaño", dijo que cada línea de tiempo se divide "ad infinitum" La teoría de la Red sobre la estructura del tiempo, establece que el tiempo tiene forma de una complejísima red multidireccional de "Líneas de Tiempo". Esta Red se ramifica según las posibilidades matemáticas de acontecimientos que se den en un posible espacio físico mínimo. El autor ha deducido que el espacio físico mínimo para que se produzca un acontecimiento que afecte la realidad, puede ser la distancia que hay entre el núcleo de un átomo de Hidrogeno y el electrón en su órbita. Es decir, el radio medio de la orbita del electrón del átomo de Hidrogeno, que es, de hecho, la forma de materia atómica estable más pequeña que existe. Bajo este nivel, a nivel quántico, no existe posibilidad de un acontecimiento percibible a nivel no quántico. Este "Acontecimiento mínimo posible" hace que cada serie de acontecimientos determinan formalmente una "Línea de Tiempo" diferente. Con cada acontecimiento simple o complejo la línea de tiempo se ramifica en líneas de posibilidades. Es decir, que con cada variación de acontecimientos mínimos posibles, la red se ramifica y se producen nuevos " futuros", en que los acontecimientos históricos se desarrollan como consecuencias de estos cambios o variaciones. En base a esta hipótesis de la estructura del tiempo, se han basado numerosas historias de ciencia ficción. Teóricamente, si fuera posible viajar en el tiempo hacia atrás, hacia el pasado, la posibilidad de cambiar el pasado, para cambiar el futuro, realmente no existe, ya que el solo hecho de viajar al pasado crearía una serie de acontecimientos que a su vez crearían numerosas redes temporales, y otros posibles futuros que harían que el hipotético viajero temporal se perdiera para siempre en esta red de ramificaciones casi infinitas. De esta manera la famosa Paradoja del hombre que viaja al pasado y mata a su abuelo seria imposible en su propia línea del tiempo. Habría una línea de tiempo nueva en la que esto sería posible, pero su línea de tiempo original no se afectaría en absoluto. De este modo, y según esta teoría, si existiera el medio o la tecnología, sería imposible viajar al pasado o al futuro "propio". El viaje en el tiempo se haría en una línea temporal nueva, creada por el propio acontecimiento. Más difícil sería viajar "lateralmente", a otros presentes posibles, pero en caso de ser posible, sucedería lo mismo. Stepen Hawking estableció la llamada "Conjetura de la Protección Cronológica" que establece que las leyes de la física no permiten el viaje en el tiempo. Para Hawking, una prueba que el viaje en el tiempo no es posible no es posible es el hecho que no hemos recibido "turistas" del futuro. Sin embargo, este razonamiento no es válido si consideramos la teoría del tiempo como una red de conexiones casi infinitas. En esta teoría, si fuera posible hacerlo, un viajero del tiempo nunca podría regresar al pasado o viajar al presente en su propia línea de tiempo. El propio acontecimiento de su viaje, crearía una nueva línea de tiempo diferente. Conclusiones: El estudio de los conceptos del tiempo, desde un punto de vista filosofico y fisico, nos muestran que realmente no existe , hasta la fecha, ninguna explicación factible sobre lo que es el tiempo o como "funciona". De manera general, la opinión de los filosófos es que el tiempo, como un fenómeno físico real, no existe, siendo sólo una percepción de la mente conciente de los cambios o movimientos de la realidad. Si el tiempo no existe, por simple lógica los viajes en el tiempo no podrian ser posibles. Un hecho que apoya este concepto , expuesto por Hawking, es el hecho de que nunca hemos recibido visitas del futuro. Saludos, y nos vemos en Futurama