InicioCiencia EducacionCiencia con Inteligencia.

Ciencia con Inteligencia.

Ciencia Educacion12/10/2010
Ciencia con Inteligencia. La nanotecnología La nanotecnología es un campo de las ciencias aplicadas dedicado al control y manipulación de la materia a una escala menor que un micrómetro, es decir, a nivel de átomos y moléculas (nanomateriales). Lo más habitual es que tal manipulación se produzca en un rango de entre uno y cien nanómetros. Se tiene una idea de lo pequeño que puede ser un nanobot sabiendo que un nanobot de unos 50 nm tiene el tamaño de 5 capas de moléculas o átomos -depende de qué esté hecho el nanobot-. Nano- es un prefijo griego que indica una medida, no un objeto, de manera que la nanotecnología se caracteriza por ser un campo esencialmente multidisciplinar, y cohesionado exclusivamente por la escala de la materia con la que trabaja. Definición La nanotecnología promete soluciones vanguardistas y más eficientes para los problemas ambientales, así como muchos otros enfrentados por la humanidad. Las nanotecnologías prometen beneficios de todo tipo, desde nuevas aplicaciones médicas o más eficientes a soluciones de problemas ambientales y muchos otros; sin embargo, el concepto de nanotecnología aún no esta socialmente muy difundido. Historia El ganador del premio Nobel de Física (1965), Richard Feynman fue el primero en hacer referencia a las posibilidades de la nanociencia y la nanotecnología en el célebre discurso que dio en el Caltech (Instituto Tecnológico de California) el 29 de diciembre de 1959 titulado En el fondo hay espacio de sobra (There's Plenty of Room at the Bottom). Otros hombres de esta área fueron Rosalind Franklin, James Dewey Watson y Francis Crick quienes propusieron que el ADN era la molécula principal que jugaba un papel clave en la regulación de todos los procesos del organismo y de aquí se tomó la importancia de las moléculas como determinantes en los procesos de la vida. Aquella podría usarse para solucionar muchos de los problemas de la humanidad, pero también podría generar armas muy potentes. Pero estos conocimientos fueron más allá ya que con esto se pudo modificar la estructura de las moléculas como es el caso de los polímeros o plásticos que hoy en día encontramos en nuestros hogares. Pero hay que decir que a este tipo de moléculas se les puede considerar “grandes”. Con todos estos avances el hombre tuvo una gran fascinación por seguir investigando más acerca de estas moléculas, ya no en el ámbito de materiales inertes, sino en la búsqueda de moléculas orgánicas en nuestro organismo. Hoy en día la medicina tiene más interés en la investigación en el mundo microscópico ya que en él se encuentran posiblemente las alteraciones estructurales que provocan la enfermedad, y no hay que decir de las ramas de la medicina que han salido mas beneficiadas como es la microbiología, inmunología, fisiología; en fin, casi todas las ramas de la medicina. Con todos estos avances han surgido nuevas ciencias, por ejemplo, la Ingeniería Genética que hoy en día es discutida debido a repercusiones como la clonación o la mejora de especies. Inversión Algunos países en vías de desarrollo ya destinan importantes recursos a la investigación en nanotecnología. La nanomedicina es una de las áreas que más puede contribuir al avance sostenible del Tercer Mundo, proporcionando nuevos métodos de diagnóstico y cribaje de enfermedades, mejores sistemas para la administración de fármacos y herramientas para la monitorización de algunos parámetros biológicos. Actualmente, alrededor de 40 laboratorios en todo el mundo canalizan grandes cantidades de dinero para la investigación en nanotecnología. Unas 300 empresas tienen el término “nano” en su nombre, aunque todavía hay muy pocos productos en el mercado. Algunos gigantes del mundo informático como IBM, Hewlett-Packard ('HP)'NEC e Intel están invirtiendo millones de dólares al año en el tema. Los gobiernos del llamado Primer Mundo también se han tomado el tema muy en serio, con el claro liderazgo del gobierno estadounidense, que para este año ha destinado 570 millones de dólares a su National Nanotechnology Initiative. En España, los científicos hablan de “nanopresupuestos”. Pero el interés crece, ya que ha habido algunos congresos sobre el tema: en Sevilla, en la Fundación San Telmo, sobre oportunidades de inversión, y en Madrid, con una reunión entre responsables de centros de nanotecnología de Francia, Alemania y Reino Unido en la Universidad Autónoma de Madrid. Las empresas tradicionales podrán beneficiarse de la nanotecnologia para mejorar su competitividad en sectores habituales, como textil, alimentación, calzado, automoción, construcción y salud. Lo que se pretende es que las empresas pertenecientes a sectores tradicionales incorporen y apliquen la nanotectologia en sus procesos con el fin de contribuir a la sostenibilidad del empleo. Actualmente la cifra en uso cotidiano es del 0,1 % Con la ayuda de programas de acceso a la nanotecnologia se prevé que en 2014 sea del 15 % en el uso y la producción manufacturera. Ensamblaje interdisciplinario La característica fundamental de nanotecnología es que constituye un ensamblaje interdisciplinar de varios campos de las ciencias naturales que están altamente especializados. Por tanto, los físicos juegan un importante rol no sólo en la construcción del microscopio usado para investigar tales fenómenos sino también sobre todas las leyes de la mecánica cuántica. Alcanzar la estructura del material deseado y las configuraciones de ciertos átomos hacen jugar a la química un papel importante. En medicina, el desarrollo específico dirigido a nanopartículas promete ayuda al tratamiento de ciertas enfermedades. Aquí, la ciencia ha alcanzado un punto en el que las fronteras que separan las diferentes disciplinas han empezado a diluirse, y es precisamente por esa razón por la que la nanotecnología también se refiere a ser una tecnología convergente. Una posible lista de ciencias involucradas sería la siguiente: -Química (Moleculares y computacional) -Bioquímica -Biología molecular -Física -Electrónica -Informática -Matemáticas -Medicina Nanotecnología avanzada La nanotecnología avanzada, a veces también llamada fabricación molecular, es un término dado al concepto de ingeniería de nanosistemas (máquinas a escala nanométrica) operando a escala molecular. Se basa en que los productos manufacturados se realizan a partir de átomos. Las propiedades de estos productos dependen de cómo estén esos átomos dispuestos. Así por ejemplo, si reubicamos los átomos del grafito (compuesto por carbono, principalmente) de la mina del lápiz podemos hacer diamantes (carbono puro cristalizado). Si reubicamos los átomos de la arena (compuesta básicamente por sílice) y agregamos algunos elementos extras se hacen los chips de un ordenador. A partir de los incontables ejemplos encontrados en la biología se sabe que miles de millones de años de retroalimentación evolucionada puede producir máquinas biológicas sofisticadas y estocásticamente optimizadas. Se tiene la esperanza que los desarrollos en nanotecnología harán posible su construcción a través de algunos significados más cortos, quizás usando principios biomiméticos. Sin embargo, K. Eric Drexler y otros investigadores han propuesto que la nanotecnología avanzada, aunque quizá inicialmente implementada a través de principios miméticos, finalmente podría estar basada en los principios de la ingeniería mecánica. Determinar un conjunto de caminos a seguir para el desarrollo de la nanotecnología molecular es un objetivo para el proyecto sobre el mapa de la tecnología liderado por Instituto Memorial Battelle (el jefe de varios laboratorios nacionales de EEUU) y del Foresigth Institute. Ese mapa debería estar completado a finales de 2006. Futuras aplicaciones Según un informe de un grupo de investigadores de la Universidad de Toronto, en Canadá, las quince aplicaciones más prometedoras de la nanotecnología son: -Almacenamiento, producción y conversión de energía. -Armamento y sistemas de defensa. -Producción agrícola. -Tratamiento y remediación de aguas. -Diagnóstico y cribaje de enfermedades. -Sistemas de administración de fármacos. -Procesamiento de alimentos. -Remediación de la contaminación atmosférica. -Construcción. -Monitorización de la salud. -Detección y control de plagas. -Control de desnutrición en lugares pobres -Informática. -Alimentos transgénicos -Cambios térmicos moleculares (Nanotermología) Riesgos potenciales Recientemente, un nuevo estudio ha mostrado como este peligro de la “sustancia viscosa gris” es menos probable que ocurra de como originalmente se pensaba. K. Eric Drexler considera un escenario accidental con sustancia viscosa gris improbable y así lo declara en las últimas ediciones de Engines of Creation. El escenario sustancia viscosa gris clamaba la Tree Sap Answer: ¿Qué oportunidades existen de que un coche pudiera ser mutado a un coche salvaje, salir fuera de la carretera y vivir en el bosque solo de savia de árbol?. Sin embargo, se han identificado otros riesgos mayores a largo plazo para la sociedad y el entorno. Una variante de esto es la “Sustancia viscosa verde”, un escenario en que la nanobiotecnología crea una máquina nanométrica que se autoreplica que consume todas las partículas orgánicas, vivas o muertas, creando un cieno -como una masa orgánica muerta. En ambos casos, sin embargo, sería limitado por el mismo mecanismo que limita todas las formas vivas (que generalmente ya actúan de esta manera): energía disponible. Veneno y toxicidad A corto plazo, los críticos de la nanotecnología puntualizan que hay una toxicidad potencial en las nuevas clases de nanosustancias que podrían afectar de forma adversa a la estabilidad de las membranas celulares o distorsionar el sistema inmunológico cuando son inhaladas o ingeridas. Una valoración objetiva de riesgos puede sacar beneficio de la cantidad de experiencia acumulada con los materiales microscópicos bien conocidos como el hollín o las fibras de asbestos. Hay una posibilidad que las nanopartículas en agua potable pudieran ser dañinas para los humanos y otros animales. Las células de colon expuestas a partículas de dióxido de titanio se ha encontrado que se descomponen a mayor velocidad de la normal. Las nanopartículas de dióxido de titanio se usan normalmente en pantallas de sol, haciéndolas transparentes, al contrario de las grandes partículas de dióxido de titanio, que hacen a las pantallas de sol parecer blancas. Armas La militarización de la nanotecnología es una aplicación potencial. Mientras los nanomateriales avanzados obviamente tienen aplicaciones para la mejora de armas existentes y el hardware militar a través de nuevas propiedades (tales como la relación fuerza-peso o modificar la reflexión de la radiación, por medio de cambios térmicos moleculares para aplicaciones sigilosas), y la electrónica molecular podría ser usada para construir sistemas informáticos muy útiles para misiles, no hay ninguna manera obvia de que alguna de las formas que se tienen en la actualidad o en un futuro próximo puedan ser militarizadas más allá de lo que lo hacen otras tecnologías como la ingeniería genética. Mientras conceptualmente podríamos diseñar que atacasen sistemas biológicos o los componentes de un vehículo (es decir, un nanomáquina que consumiera la goma de los neumáticos para dejar incapaz a un vehículo rápidamente), tales diseños están un poco lejos del concepto. En términos de eficacia, podrían ser comparados con conceptos de arma tales como los pertenecientes a la ingeniería genética, como virus o bacterias, que son similares en concepto y función práctica y generalmente armas tácticamente poco atractivas, aunque las aplicaciones para el terrorismo son claras. La nanotecnología puede ser usada para crear dispositivos no detectables – micrófonos o cámaras de tamaño de una molécula, y son posibilidades que entran en el terreno de lo factible. El impacto social de tales dispositivos dependería de muchos factores, incluyendo quién ha tenido acceso a él, cómo de bien funcionan y cómo son usados. E.U.A. ha aportado gran parte de estos avances al igual que los chinos y franceses. Como dato la unión europea produce 29.64% de nanotecologia mundial otro 29 Estados Unidos y el resto pequenos países. Memoria: En un laboratorio de IBM en Zurich, uno de los que ayudaron en la invención de aquel microscopio AFM de 1986, se trabaja en la miniaturización a nivel nanómetro del registro de datos. El sistema de almacenamiento se basa en un conjunto de 1024 agujas de AFM en una matriz cuadrada que pueden escribir bits de información de no más de 50 nanómetros de diámetro. El mismo conjunto es capaz luego de leer la información e incluso reescribirla. La capacidad de guardar información a esa escala es una noticia excitante para el mercado, pues multiplica inmensamente la cantidad de información que se puede almacenar en un área determinada. El mejor sistema actual de registro, basado en la memoria magnética, puede guardar alrededor de dos gigabits por centímetro cuadrado; los físicos creen que el límite físico de la capacidad este sistema —no alcanzado aún— es de alrededor de 25 gigabits por centímetro cuadrado (64 gigabytes/in²).[1] El sistema de matriz de agujas descripto más arriba, bautizado "Millipede" (Miriápodo, por tener mil patas), ofrece 35 gigabits por centímetro cuadrado (y hasta 80 gigabits si se utiliza una aguja única) y es capaz de hacerlo a la velocidad de los artefactos magnéticos actuales. Con unidades de almacenamiento provistas de matrices gigantescas, con millones de agujas, se puede lograr un almacenamiento en el orden de los terabytes, algo así como 40 veces lo que está disponible hoy de forma comercial. Documental Nanotecnologia y micromaquinas Parte 1 link: http://www.youtube.com/watch?v=oaf2LZHGwr4 Documental Nanotecnologia y micromaquinas Parte 2 link: http://www.youtube.com/watch?v=0bcgJ1CN_BI Documental Nanotecnologia y micromaquinas Parte 3 link: http://www.youtube.com/watch?v=1OHXEz0JdjY Documental Nanotecnologia y micromaquinas Parte 4 link: http://www.youtube.com/watch?v=6bRssUB2fQ8 Documental Nanotecnologia y micromaquinas Parte 5 link: http://www.youtube.com/watch?v=B7dWSslONCo Singularidad Tecnologica En futurología, la singularidad tecnológica (algunas veces llamada simplemente la Singularidad) es un evento futuro en el que se predice que el progreso tecnológico y el cambio social acelerarán debido al desarrollo de inteligencia superhumana, cambiando nuestro ambiente de manera tal, que cualquier ser humano anterior a la Singularidad sería incapaz de comprender o predecir. Dicho evento se ha nombrado así por analogía con la singularidad gravitacional observada en los agujeros negros, donde existe un punto en el que las reglas de la física dejan de ser válidas, y donde la convergencia hacia valores infinitos hace imposible el definir una función. Según el científico y escritor de ciencia ficción Vernor Vinge, la singularidad se puede alcanzar por diferentes caminos: El desarrollo de un computador que alcance el nivel de inteligencia humana y posteriormente lo supere. El desarrollo de redes de computadoras que se comporten como superneuronas de un cerebro distribuido que "despierte" como ente inteligente. El desarrollo de elementos de interacción con computadoras que permitan a un humano comportarse como un ser superinteligente. Manipulaciones biológicas que permitan mejorar en algunos seres el nivel humano de inteligencia. El tiempo que resta antes de que se llegue a ese fenómeno se acelera con la utilización de máquinas para apoyar tareas de diseño o mejoras de diseño de nuevos inventos. Las consecuencias de semejante evento fueron discutidas durante la década de 1960 por I.J. Good, y John von Neumann quien usa el término "singularidad" para describir el progreso tecnológico durante la década de 1950. Sin embargo, no es sino hasta en los 80s que la Singularidad es popularizada por Vernor Vinge. Si la Singularidad ocurrirá o no, es un hecho muy debatido, pero la aproximación más común entre los futuristas la sitúa dentro de la tercera década del Siglo XXI. Otros, notablemente Raymond Kurzweil, han propuesto teorías que expanden la Ley de Moore hacia tipos de computación que van más allá de los simples transistores, sugiriendo un patrón exponencial de progreso tecnológico que persiste a través de la historia humana (se toma en cuenta el poder de computación de los cerebros humanos), e incluso antes de que siquiera hubiera vida sobre la tierra. Según Kurzweil, este patrón culmina en un progreso tecnológico inimaginable en el Siglo XXI, el cual conduce a la Singularidad. Una vez llegado al punto en que se cree una inteligencia superior a la humana, se entraría en una etapa post humana que probablemente conduzca a la extinción de la humanidad o a su subordinación a esos nuevos entes inteligentes. Si bien algunos autores, como Roger Penrose, piensan que las computadoras no llegarán a ser inteligentes (en el sentido de la prueba de Turing),[1] el camino biológico para llegar a la singularidad tecnológica no parece tener límite alguno. Ley de Moore La Ley de Moore expresa que aproximadamente cada 18 meses se duplica el número de transistores en un circuito integrado. Se trata de una ley empírica, formulada por el co-fundador de Intel, Gordon E. Moore el 19 de abril de 1965, cuyo cumplimiento se ha podido constatar hasta hoy. En 1965 Gordon Moore afirmó que la tecnología tenía futuro, que el número de transistores por pulgada en circuitos integrados se duplicaba cada año y que la tendencia continuaría durante las siguientes dos décadas. Más tarde, en 1975, modificó su propia ley al afirmar que el ritmo bajaría, y que la capacidad de integración se duplicaría aproximadamente cada 24 meses. Esta progresión de crecimiento exponencial, duplicar la capacidad de los circuitos integrados cada dos años, es lo que se considera la Ley de Moore. Sin embargo, el propio Moore ha puesto fecha de caducidad a su ley: "Mi ley dejará de cumplirse dentro de 10 o 15 años -desde 2007-". Según aseguró durante la conferencia en la que hizo su predicción afirmó, no obstante, que una nueva tecnología vendrá a suplir a la actual. La consecuencia directa de la Ley de Moore es que los precios bajan al mismo tiempo que las prestaciones suben: la computadora que hoy vale 3000 dólares costará la mitad al año siguiente y estará obsoleta en dos años. En 26 años el número de transistores en un chip se ha incrementado 3200 veces. Actualmente se aplica a ordenadores personales. Sin embargo, cuando se formuló no existían los procesadores, inventados en 1971, ni los ordenadores personales, popularizados en los años 1980. En el momento de escribir el artículo que originó su ley, Moore era Director de los laboratorios de Fairchild Semiconductor. Más tarde, en el verano de 1968, creó Intel junto con Robert Noyce, uno de sus compañeros en ambas empresas. Historia En 1965 un joven ingeniero de nombre Gordon Moore observó una tendencia en los primeros días de la microelectrónica que definió la estrategia de negocios para la industria de los semiconductores de 200.000 millones de dólares de la actualidad. Esta observación, más tarde denominada Ley de Moore, anticipó que la complejidad de los circuitos integrados se duplicaría cada año con una reducción mesurable en costo. Esto permitió también a una industria de semiconductores de reciente aparición crear el microprocesador (el cerebro de la computadora) y muchos otros circuitos integrados que han dado lugar a las computadoras personales, Internet, teléfonos móviles y videojuegos. Utilizando adelantos en la tecnología de los chips para computadoras, ahora tenemos películas y programas de TV con imágenes animadas con calidad fotográfica; automóviles que ofrecen un mayor rendimiento del combustible con menos contaminación; una forma de encontrar a nuestras mascotas extraviadas (con chips de identificación implantados); y dispositivos que nos ayudan a ubicarnos en ciudades que no conocemos GPS. Aplicación En Intel trabajamos duro para asegurarnos de que la Ley de Moore continúe guiando a nuestra industria en el futuro. Ya hemos visualizado los próximos 10 a 15 años de adelantos en nuestros laboratorios de investigación”, observó Craig Barrett, CEO de Intel Corporation. “Anticipamos no sólo avances continuos en los sectores tradicionales de la computación y las comunicaciones, sino que también vemos un futuro en el que la tecnología de los semiconductores revolucionará la industria de la atención a la salud, la forma en que educamos a nuestros hijos, la forma de protegernos a nosotros mismos y al ambiente, y el manejo de nuestra vida cotidiana en un mundo más complejo. Los chips de silicio (que el ritmo de la Ley de Moore hace cada vez más poderosos) continuarán ofreciendo estos recursos en el futuro a personas de todo el mundo a un costo cada vez más bajo”. ¿Qué es la Ley de Moore? El 19 de abril de 1965, la Revista Electronics publicó un documento elaborado por el Sr.Gordon Moore en el cual él anticipaba que la complejidad de los circuitos integrados se duplicaría cada año con una reducción de costo conmensurable. Conocida como la Ley de Moore, su predicción ha hecho posible la proliferación de la tecnología en todo el mundo, y hoy se ha convertido en el motor del rápido cambio tecnológico. Moore actualizó su predicción en 1975 para señalar que el número de transistores en un chip se duplica cada dos años y esto se sigue cumpliendo hoy. Además de proyectar cómo aumenta la complejidad de los chips (medida por transistores contenidos en un chip de computador), la Ley de Moore sugiere también una disminución de los costos. A medida que los componentes y los ingredientes de las plataformas con base de silicio crecen en desempeño se vuelven exponencialmente más económicos de producir, y por lo tanto más abundantes, poderosos y transparentemente integrados en nuestras vidas diarias. Los microprocesadores de hoy se encuentran en todas partes, desde juguetes hasta semáforos para el tránsito. Una tarjeta de felicitación musical que hoy se puede adquirir por muy bajo precio tiene más poder de cómputo que las computadoras centrales más rápidas de hace unas décadas. La Ley de Moore en perspectiva La Ley de Moore no es una ley en el sentido científico, sino más bien una observación, y ha sentado las bases de grandes saltos de progreso. En 2004 la industria de los semiconductores produjo más transistores (y a un costo más bajo) que la producción mundial de granos de arroz, según la Semiconductor Industry Association (Asociación de la Industria de los Semiconductores) de los Estados Unidos. Gordon Moore solía estimar que el número de transistores vendidos en un año era igual al número de hormigas en el mundo, pero para el 2003 la industria producía cerca de 10.000.000.000.000.000.000 (1019) transistores y cada hormiga necesitaba cargar 100 transistores a cuestas para conservar la precisión de esta analogía. En 1978, un vuelo comercial entre Nueva York y París costaba cerca de 900 dólares y tardaba 7 horas. Si se hubieran aplicado los mismos principios de la Ley de Moore a la industria de la aviación comercial de la misma forma que se han aplicado a la industria de los semiconductores desde 1978, ese vuelo habría costado cerca de un centavo de dólar y habría tardado menos de 1 segundo en realizarse. Documental Preparandonos para la singularidad parte 1 link: http://www.youtube.com/watch?v=Fxmi10AAfb0 Documental Preparandonos para la singularidad parte 2 link: http://www.youtube.com/watch?v=TA4BMWwbgHc Documental Preparandonos para la singularidad parte 3 link: http://www.youtube.com/watch?v=9lWrdwKBgls Documental Preparandonos para la singularidad parte 4 link: http://www.youtube.com/watch?v=2bQ2juUwegw Documental Preparandonos para la singularidad parte 5 link: http://www.youtube.com/watch?v=q03ySpJozUY Computacion Cuantica La computación cuántica es un paradigma de computación distinto al de la computación clásica. Se basa en el uso de qubits en lugar de bits, y da lugar a nuevas puertas lógicas que hacen posibles nuevos algoritmos. Una misma tarea puede tener diferente complejidad en computación clásica y en computación cuántica, lo que ha dado lugar a una gran expectación, ya que algunos problemas intratables pasan a ser tratables. Mientras un computador clásico equivale a una máquina de Turing, un computador cuántico equivale a una máquina de Turing indeterminista. La empresa canadiense D-Wave Systems había supuestamente presentado el 13 de febrero de 2007 en Silicon Valley, una primera computadora cuántica comercial de 16-qubits de propósito general; luego la misma compañía admitió que tal máquina llamada Orion no es realmente una Computadora Cuántica, sino una clase de máquina de propósito general que usa algo de mecánica cuántica para resolver problemas Origen de la computación cuántica A medida que evoluciona la tecnología, aumenta la escala de integración y caben más transistores en el mismo espacio, así se fabrican microchips cada vez más pequeños, y es que, cuanto más pequeño es, mayor velocidad de proceso alcanza el chip. Sin embargo, no podemos hacer los chips infinitamente pequeños. Hay un límite en el cual dejan de funcionar correctamente. Cuando se llega a la escala de nanómetros, los electrones se escapan de los canales por donde deben circular. A esto se le llama efecto túnel. Una partícula, si se encuentra con un obstáculo, no puede atravesarlo y rebota. Pero con los electrones, que son partículas cuánticas y se comportan como ondas, existe la posibilidad de que una parte de ellos pueda atravesar las paredes si son demasiado finas; de esta manera la señal puede pasar por canales donde no debería circular. Por ello, el chip deja de funcionar correctamente. En consecuencia, la computación digital tradicional no tardaría en llegar a su límite, puesto que ya se han llegado a escalas de sólo algunas decenas de nanómetros. Surge entonces la necesidad de descubrir nuevas tecnologías y es ahí donde entra la computación cuántica. La idea de computación cuántica surge en 1981, cuando Paul Benioff expuso su teoría para aprovechar las leyes cuánticas en el entorno de la computación. En vez de trabajar a nivel de voltajes eléctricos, se trabaja a nivel de cuanto. En la computación digital, un bit sólo puede tomar dos valores: 0 ó 1. En cambio, en la computación cuántica, intervienen las leyes de la mecánica cuántica, y la partícula puede estar en superposición coherente: puede ser 0, 1 y puede ser 0 y 1 a la vez (dos estados ortogonales de una partícula subatómica). Eso permite que se puedan realizar varias operaciones a la vez, según el número de qubits. El número de qubits indica la cantidad de bits que pueden estar en superposición. Con los bits convencionales, si teníamos un registro de tres bits, había ocho valores posibles y el registro sólo podía tomar uno de esos valores. En cambio, si tenemos un vector de tres qubits, la partícula puede tomar ocho valores distintos a la vez gracias a la superposición cuántica. Así un vector de tres qubits permitiría un total de ocho operaciones paralelas. Como cabe esperar, el número de operaciones es exponencial con respecto al número de qubits. Para hacerse una idea del gran avance, un computador cuántico de 30 qubits equivaldría a un procesador convencional de 10 teraflops (millones de millones de operaciones en coma flotante por segundo) cuando actualmente las computadoras trabajan en el orden de gigaflops (miles de millones de operaciones). .jpg] Problemas de la computación cuántica Uno de los obstáculos principales para la computación cuántica es el problema de la decoherencia cuántica, que causa la pérdida del caracter unitario (y, más específicamente, la reversibilidad) de los pasos del algoritmo cuántico. Los tiempos de decoherencia para los sistemas candidatos, en particular el tiempo de relajación transversal (en la terminología usada en la tecnología de resonancia magnética nuclear e imaginería por resonancia magnética) está típicamente entre nanosegundos y segundos, a temperaturas bajas. Las tasas de error son típicamente proporcionales a la razón entre tiempo de operación frente a tiempo de decoherencia, de forma que cualquier operación debe ser completada en un tiempo mucho más corto que el tiempo de decoherencia. Si la tasa de error es lo bastante baja, es posible usar eficazmente la corrección de errores cuánticos, con lo cual sí sería posible tiempos de cálculo más largos que el tiempo de decoherencia y, en principio, arbitrariamente largos. Se cita con frecuencia una tasa de error límite de 10-4, por debajo de la cual se supone que sería posible la aplicación eficaz de la corrección de errores cuánticos. Otro de los problemas principales es la escalabilidad, especialmente teniendo en cuenta el considerable incremento en qubits necesarios para cualquier cálculo que implica la corrección de errores. Para ninguno de los sistemas actualmente propuestos es trivial un diseño capaz de manejar un número lo bastante alto de qubits para resolver problemas computacionalmente interesantes hoy en día. Procesadores En 2004, científicos del Instituto de Física aplicada de la Universidad de Bonn publicaron resultados sobre un registro cuántico experimental. Para ello utilizaron átomos neutros que almacenan información cuántica, por lo que son llamados qubits por analogía con los bits. Su objetivo actual es construir una puerta cuántica, con lo cual se tendrían los elementos básicos que constituyen los procesadores, que son el corazón de los computadores actuales. Cabe destacar que un chip de tecnología VLSI contiene actualmente más de 100.000 puertas, de manera que su uso práctico todavía se presenta en un horizonte lejano. Transmisión de datos Científicos de los laboratorios Max Planck y Niels Bohr publicaron, en noviembre de 2005, en la revista Nature, resultados sobre la transmisión de información cuántica, usando la luz como vehículo, a distancias de 100 km. Los resultados dan niveles de éxito en las transmisiones de 70%, lo que representa un nivel de calidad que permite utilizar protocolos de transmisión con autocorrección. Actualmente se trabaja en el diseño de repetidores, que permitirían transmitir información a distancias mayores a las ya alcanzadas. Documental Visiones del futuro - La revolucion cuantica Parte 1 link: http://www.youtube.com/watch?v=GjVpiHhM_Sw Documental Visiones del futuro - La revolucion cuantica Parte 2 link: http://www.youtube.com/watch?v=YNnMEglJNy8 Documental Visiones del futuro - La revolucion cuantica Parte 3 link: http://www.youtube.com/watch?v=Documental Visiones del futuro - La revolucion cuantica Parte 3 Documental Visiones del futuro - La revolucion cuantica Parte 4 link: http://www.youtube.com/watch?v=SPwhnkR_sE4 Documental Visiones del futuro - La revolucion cuantica Parte 5 link: http://www.youtube.com/watch?v=mdUdxNOt70k Documental Visiones del futuro - La revolucion cuantica Parte 6 link: http://www.youtube.com/watch?v=Q1m3Di0bWRk Mecanica Cuantica En física, la mecánica cuántica (conocida originalmente como mecánica ondulatoria) es una de las ramas principales de la física que explica el comportamiento de la materia y de la energía. Su campo de aplicación pretende ser universal (salvando las dificultades), pero es en el mundo de lo pequeño donde sus predicciones divergen radicalmente de la llamada física clásica. De forma específica, se considera también mecánica cuántica, a la parte de ella misma que no incorpora la relatividad en su formalismo, tan sólo como añadido mediante teoría de perturbaciones. La parte de la mecánica cuántica que sí incorpora elementos relativistas de manera formal y con diversos problemas, es la mecánica cuántica relativista o ya, de forma más exacta y potente, la teoría cuántica de campos (que incluye a su vez a la electrodinámica cuántica, cromodinámica cuántica y teoría electrodébil dentro del modelo estándar) y más generalmente, la teoría cuántica de campos en espacio-tiempo curvo. La única interacción que no se ha podido cuantificar ha sido la interacción gravitatoria. La mecánica cuántica es la base de los estudios del átomo, los núcleos y las partículas elementales (siendo ya necesario el tratamiento relativista) pero también en teoría de la información, criptografía y química. Introducción La mecánica cuántica es la última de las grandes ramas de la física. Comienza a principios del siglo XX, en el momento en que dos de las teorías que intentaban explicar lo que nos rodea, la ley de gravitación universal y la teoría electromagnética clásica, se volvían insuficientes para explicar ciertos fenómenos. La teoría electromagnética generaba un problema cuando intentaba explicar la emisión de radiación de cualquier objeto en equilibrio, llamada radiación térmica, que es la que proviene de la vibración microscópica de las partículas que lo componen. Pues bien, usando las ecuaciones de la electrodinámica clásica, la energía que emitía esta radiación térmica daba infinito si se suman todas las frecuencias que emitía el objeto, con ilógico resultado para los físicos. Es en el seno de la mecánica estadística donde nacen las ideas cuánticas en 1900. Al físico Max Planck se le ocurrió un truco matemático: que si en el proceso aritmético se sustituía la integral de esas frecuencias por una suma no continua se dejaba de obtener un infinito como resultado, con lo que eliminaba el problema y, además, el resultado obtenido concordaba con lo que después era medido. Fue Max Planck quién entonces enunció la hipótesis de que la radiación electromagnética es absorbida y emitida por la materia en forma de cuantos de luz o fotones de energía mediante una constante estadística, que se denominó constante de Planck. Su historia es inherente al siglo XX, ya que la primera formulación cuántica de un fenómeno fue dada a conocer el 14 de diciembre de 1900 en una sesión de la Sociedad Física de la Academia de Ciencias de Berlín por el científico alemán Max Planck. By : http://a04.t.net.ar/avatares/4/3/9/9/120_4399590.jpg
Datos archivados del Taringa! original
0puntos
2,038visitas
0comentarios
Actividad nueva en Posteamelo
0puntos
0visitas
0comentarios
Dar puntos:

Dejá tu comentario

0/2000

No hay comentarios nuevos todavía

Autor del Post

G
Usuario
Puntos0
Posts13
Ver perfil →
PosteameloArchivo Histórico de Taringa! (2004-2017). Preservando la inteligencia colectiva de la internet hispanohablante.

CONTACTO

18 de Septiembre 455, Casilla 52

Chillán, Región de Ñuble, Chile

Solo correo postal

© 2026 Posteamelo.com. No afiliado con Taringa! ni sus sucesores.

Contenido preservado con fines históricos y culturales.