M

MrDownload

Usuario (Argentina)

Primer post: 14 oct 2008Último post: 6 mar 2010
26
Posts
107
Puntos totales
14
Comentarios
D
Dos satélites para dominarlos a todos
InfoporAnónimo1/26/2009

Registrate y eliminá la publicidad! MITEx: Dos satélites para dominarlos a todos ¡Es oficial! Estados Unidos tiene al menos dos satélites capaces de espiar (y destruir) a otros satélites. Si bien esta no es una revelación que sorprenda, a finales de la semana pasada el Pentágono la hizo oficial. China está mascando bronca, y no está sola. USA era la que, en el pasado, predicaba la transparencia que los programas espaciales internacionales debían tener. ¿Haz lo que digo, no lo que hago? MITEx puede espiar y destruir. La semana pasada el Pentágono admitió tener dos microsatélites de poco más de 220 kilogramos, desarrollados por nuestros amigos de DARPA (Defense Advanced Research Projects Agency), con el poder de inspeccionar otros satélites en el espacio. La noticia se dio a conocer cuando los MITEx (tal es el nombre del par) se acercaron a evaluar el daño sufrido por DSP 23, un satélite geoestacionario de rastreo de misiles, que falló un año después de haber sido puesto en órbita en Noviembre de 2007. El problema es que ninguna nación sabía (y si lo sabían no lo dijeron) que Estados Unidos podía poner semejantes juguetes en el espacio, ni que existiera la tecnología para una cosa semejante. Probablemente te preguntes, ¿qué tipo de tecnología se necesita para espiar otros satélites? Mucha. Primero, hay que entender que no estamos hablando de la información transferida por esos satélites, sino a los satélites en sí. Para lograr eso, los MITEx deben poder acercarse lo suficiente a su objetivo. Eso significa que tienen que poder maniobrar con muchísima exactitud y dar vueltas por su objetivo sin dañarlo. Y hete aquí el problema: Estos microsatélites, aunque no carguen armamento, pueden desde analizar la tecnología de otros satélites o destruirlos simplemente chocando contra ellos. Esto, en el escenario bélico del futuro y junto a la reactivación de la Strategic Defense Initiative, haría que Estados Unidos tenga una ventaja bélica arrolladora frente a sus posibles enemigos. Theresa Hitchens, del UNIDIR (United Nations Institute for Disarmament Research), está bastante cabreada con el asunto y dijo a la prensa: “Estoy segura que otras naciones, particularmente China, encontrarán sospechoso el asunto. El comportamiento de USA sobre este programa es hipócrita, dado que Washington siempre reprendió a Beijing por su falta de transparencia en lo que se refiere a sus programas espaciales y a sus intenciones.” ¿Tendremos otra saga de Sputnik en los próximos años? Ay, ¿pobre Obama…? Fuente: http://www.neoteo.com

0
4
R
Ram DDR3 de 32gb
InfoporAnónimo7/8/2009

Samsung muestra el primer módulo RAM DDR3 de 32GB La empresa Samsung vuelve a dejarnos con la boca abierta: usando su tecnología DRAM de 50nn y juntando 72 chips de 4 GB, ha hecho realidad este nuevo avance hacia una mejora en el desempeño en los centros de manejo en masa de información: una memoria modular DDR3 de 32 GB. De acuerdo a las versiones que se escucharon, este módulo puede reducir en un 20 por ciento el gasto de la energía respecto a sus antecesores, poniéndose en un consumo medio de 1.35 Volteos. La tecnología DDR3 se apunta a los desafíos nuevos que plantean los sistemas operativos, tales como Vista y Windows 7, siendo los últimos los favoritos por los fabricantes de hardware para que acompañe a los procesadores de doble y varios núcleos. El propósito es brindar al usuario una buena experiencia en relación de una excelente calidad de gráficos y un rendimiento alto de trabajo. El progreso de DDR3 originó un chip de alto rendimiento que colabora de forma significativa a los mercados principales como la industria gráfica, en la cual es necesaria una veloz transición de archivos entre los almacenamientos de fotogramas. Con aproximadamente una latencia de 13 nanosegundos, la DDR3 además viene a ser la solución de memoria absoluta para las aplicaciones de red en donde se dan accesos aleatorios frecuentes. El desempeño de esta memoria de Samsung logró grados crecidamente satisfactorios para la empresa en general en el transcurso de estos años, y se aguarda –como todas las veces- el instante de un producto nuevo, de un límite vencido nuevo, de un paso nuevo hacia la perfección. Si bien aún no se ha comentado sobre el precio de esta maravilla, se conoce que su destino está señalando a servidores grandes. Aparte es sabido que los módulos de 8 GB DDR3 DIMM se hallan ya en fabricación reservados a las computadoras de mesa, en tanto los 8 GB SO-DIMM se han destinado a las portátiles. Fuente: http://www.amenito.com

0
0
Top 10: Ordenadores personales del pasado
Top 10: Ordenadores personales del pasado
InfoporAnónimo1/30/2009

Los ordenadores personales fueron, hace 20 o 30 años, una revolución. Por primera vez una persona podía tener en su casa un ordenador. Y aunque no eran maquinas precisamente potentes, sirvieron para que se formase toda una generación de hackers. Hoy te proponemos una recorrida por los diez ordenadores hogareños más famosos de todos los tiempos. Amstrad CPC Fundada en 1968 por Alan Sugar, “Amstrad” es una contracción de Alan Michael Sugar Trading. Amstrad comenzó a comercializar sus propios ordenadores personales en 1984, intentando ganar una parte del mercado que estaba en manos de Commodore y Sinclair. El modelo CPC 464 de ese año estaba basado en un microprocesador de 8 bits, el Zilog Z80. Corría a 3,7MHz y contaba con una memoria RAM de 64 Kbytes. Los discos duros eran demasiado caros en esa época, así que los programas se guardaban en casetes de audio, gracias a una unidad de cinta incorporada en la carcasa del ordenador. Podía adquirirse con un monitor color o de fosforo verde, y se comercializó en el Reino Unido, Francia, Australia, Alemania y España, donde fue un éxito de ventas. Poco después la empresa presentó el modelo CPC 664 (con unidad de disco de 3" y el CPC 6128 (con 128 Kbytes de RAM y un teclado más profesional). Tan grande fue el éxito de estos ordenadores que en 1986 Amstrad compró a su más grande competidor: Sinclair Research. Amstrad siguió fabricando ordenadores hasta fines de la década del 90. Esos últimos modelos corrían Windows y empleaban microprocesadores de Intel (80386). Apple II La empresa que hoy vende millones de iPod e iPhone comenzó fabricando Home Computers allá por los 70s. El primer modelo, la Apple I fue poco más que un rompecabezas para armar, que solo podría utilizar un puñado de personas. Pero la Apple II cambió radicalmente el futuro de la empresa. Los primero Apple II salieron a la venta el 5 de junio de 1977. Estaban construidas sobre un microprocesador 6502 que funcionaba a 1 MHz, y contaba con 4 KB RAM, 12 KB de ROM (con el lenguaje de programación BASIC dentro). Al igual que otros ordenadores de la época, utilizaba cintas de audio para guardar datos y programas. El sistema de video del Apple II solo mostraba 24 líneas de 40 columnas de texto mayúsculas. La salida de video compuesto NTSC podría verse en un monitor, pero si comprabas un modulador de RF podrías usar una TV común como monitor. El precio de lanzamiento de este ordenador fue de U$S 1298 (con 4KB RAM) y U$S 2638 (con 48KB RAM). Miles de colegios equiparon sus aulas de informática con estos ordenadores durante los años 80s. Con el tiempo aparecieron muchos periféricos y modelos más completos. Por ejemplo, el “Disk II” era una unidad de disco flexible de 5¼ pulgadas externa, mucho más eficiente y rápida que los casetes. Esta interface de disco, creada por Steve Wozniak, se considera hoy como una maravilla de diseño. En 1986 la línea Macintosh comenzó a desplazar al Apple II. Sin embargo, la empresa continuó vendiendo y brindando soporte a sus ordenadores Apple II 1993. Amstrad modelo CPC464. El Bomb Jack en la pantalla del Amstrad CPC 464. Apple II, un hito en la informática. Donkey Konh, en la Apple II. Atari Los ordenadores Atari fueron durante los 80 unos de los más vendidos. La empresa era conocida por sus consolas de juegos, como la Atari 2600, pero en 1979 incursiono en el mercado de las Home Computers con dos modelos casi místicos: Atari 400 y Atari 800. Los nombres de estos ordenadores se debían a la cantidad de memoria que incorporaban originalmente: 4K de RAM en el 400 y 8K en el 800. Sin embargo los precios del RAM comenzaron a bajar, y las máquinas fueron actualizadas a 8K y 16K respectivamente. Atari 400, con el alojamiento para los cartuchos abierto. El precio del Atari 400 fue originalmente de u$s 549.95, y tenía un micro 6502 a 1.8MHz, con una RAM de 8K (ampliable a 48K). Podía mostrar 24 líneas de texto con 40 columnas, y disponía de dos modos gráficos: 320 x 192 pixeles en modo monocromo, o 160 x 96 pixeles con 128 colores. Tenía puertos para 4 joysticks, grabadora de casetes y disquetera. El teclado era de membrana de goma. El modelo Atari 800 se conseguía por U$S 999.95, y difería de su “hermano menor” en los 16K de RAM (también ampliables a 48K) y su teclado “profesional”, con teclas plásticas como las de un ordenador actual. Atari siguio fabricando ordenadores durante varios años, con modelos como el 600XL, 800XL, 1400XL y el 1450XL. En 1983 Jack Tramiel (dueño de Commodore) compró la división Home Computers de Atari, y construyó los modelos 65XE y 130XE. En 1992 la empresa cerró oficialmente su línea de ordenadores hogareños. Commodore 64 / Amiga Pocos ordenadores serán tan recordados como los Commodore 64 o Commodore Amiga. Estas maquinas fueron las más vendidas de todas las épocas. La empresa fue fundada por Jack Tramiel en los años 50, y comenzó reparando máquinas de escribir. A principios de los 70 tomó el control de MOS Technology, la empresa que fabricaba el microprocesador 6502, que utilizó en muchos de los ordenares que más tarde crearían. Este modelo contaba con un micro 6510 a 0,985 MHz (PAL) o 1,023 MHz (NTSC), video de 16 colores, con un modo de texto de 25 líneas de 40 columnas. Los caracteres estaban formados por bloques de 8x8 pixeles. El sonido era muy bueno, y lo proporcionaba un integrado de MOS Technology, el 6581/8580 SID. La memoria RAM era de 64KB, pero solo 38KB estaban disponibles para los programas BASIC. Tenía un puerto serie RS232C, conexión para disqueteras y casete, dos conectores para joysticks y salida para TV o monitor. Costaba U$S 595. La Commodore Amiga era un ordenador más profesional. El modelo más famoso, Amiga 500, comenzó a fabricarse en 1987. Empelaba un procesador 68000 a 7,16MHz, y disponía de unos impresionantes 512KB de RAM y otros 512KB de ROM. Sus graficos eran muy avanzados para la época, y disponía de tres modos de video: 320x400 pixeles con 32 colores, 640x400 con 16 colores o 320x200 con 4096 colores simultáneamente. Pero lo más importante de este ordenador era su avanzadísimo sistema operativo, el Amiga OS, inspirado en los Apple Macintosh. Fue el primer ordenador personal que permitía multitarea real. Disponía de chips especializados para el manejo de video y el sonido. No tenia originalmente disco duro (solo disquete), pero los últimos modelos permitían la conexión de discos duros SCSI y CD-ROM . Costaba (sin monitor) U$S 595.95 Commodore Amiga 500, un verdadero monstruo para la época. La mítica Commodore 64. IBM PCjr IBM también quiso una tajada del mercado de las Home Computers. La IBM PC, nacida en 1981, era muy cara para la mayoría de los usuarios hogareños, así que los ingenieros de la Big Blue se pusieron a pensar cómo hacer para reducir los costos. El resultado fue la IBM PCjr, una especie de IBM PC recortado. IBM también quiso una tajada del mercado de las Home Computers. Anunciado en 1985, el PCjr venia en dos sabores: el modelo 4860-004, con 64K de RAM y un precio base de U$S 669; y el 4860-067, con 128K de RAM y diskette de 5,25 pulgadas (de 360K), por U$S 1269. El PCjr aseguraba un alto grado de compatibilidad con el IBM PC, que ya era popular, y ofrecía gráficos a color y sonido comparables o superiores a otras Home Computers de la época. Su microprocesador Intel 8088 a 4,77MHz era más veloz que los de la competencia. Sin embargo, no fue el éxito que IBM hubiese deseado. El precio del PCjr no era competitivo, y costaba más del doble que un Commodore 64 o un Atari de 8 bits. Por ese dinero se podía comprar un ordenador con dos unidades de cinta, una impresora y abundante software. MSX En realidad no se trata de un ordenador, sino de una norma o especificación que intento imponer Microsoft en 1983. De hecho, se asegura que MSX es el acrónimo de MicroSoft eXtended. La idea en realidad era bastante buena. Por esa fecha hacia más de 50 fabricantes de ordenadores personales, y cada uno tenía su propio sistema operativo. Cuando una empresa de software creaba un juego o aplicación, debía portarlo a varias plataformas totalmente incompatibles entre sí. MSX definía una arquitectura de 8 bits que fue apoyada por una treintena de fabricantes, entre ellos Canon, Casio, Panasonic, Philips, Sony, Toshiba y Yamaha. Tuvo mucho éxito en Europa, Brasil, Chile, Argentina, Japón y Rusia, pero en EE.UU. nunca logro imponerse. Las características de estas maquinas incluían un microprocesador Z80, un lenguaje de programación llamado MSX-Basic (de Microsoft), un sistema operativo de disco (el MSX-DOS) compatible a nivel de ficheros con MS-DOS de IBM PC, interfaz para casete, RAM mínima de 8 KB (muchos ordenadores MSX 32 KB o 64 KB, y algunas llegaron a los 512KB). La memoria de video era de 16KB y permitía modos de texto de 40×24 y 32×24 y un modo grafico de 256×192 pixeles a 16. A la norma MSX le siguieron la MSX-2, MSX-2+ y MSX turbo R. Modelo MSX de Philips. Spectravideo SVI 728, otro MSX famoso. Oric-1 El Oric 1 fue un ordenador doméstico fabricado por Tangerine Computer Systems para competir con el Sinclair ZX Spectrum . Apareció en 1983, y se vendieron miles de unidades en todo el mundo, pero al igual que los demás Home Computers, a principio de los 90s desapareció del mercado. El Oric-1 tenía tenía 57 teclas. Con un precio de 129 libras, el Oric-1 tenía un micro 6502 a 1 MHz, 16KB de ROM (BASIC incluido) y RAM de entre 16 y 64KB. El teclado, de bloques de plástico, tenía 57 teclas. El video no disponía de memoria propia, y hacia uso de la RAM del sistema. Podía mostrar 28 líneas de 40 columnas de texto a 8 colores o gráficos de 240x200 pixeles, con 64 colores. El sonido era bastante bueno, gracias a un chip AY-3-8912 que proveía 3 canales de 8 octavas de sonido más uno de ruido blanco (Mono, con 16 niveles de volumen por un altavoz interno) Sinclair ZX81 / Spectrum Sir Clive Sinclair fue el Steve Jobs de los 70s y 80s. Durante esos años, parecía que era capaz de crear cualquier producto y transformarlo en un éxito. El Sinclair ZX81 (sucesor del ZX80) fue un producto que se vendió de a millones, en gran parte debido a su costo de solo U$S 100. Tenía un Z80 a 3.25MHz, 1 KB (¡si, 1KB!) de RAM y 8 KB de ROM y su teclado era de membrana. Se conectaba a un TV que hacía las veces de monitor, y los programas podían grabarse en una grabadora de casetes. Las instrucciones BASIC se ingresaban rápidamente, ya que cada tecla además de la letra correspondiente tenía escrita una orden BASIC. Los graficos eran muy pobres, formados por bloques en blanco y negro, con una resolución de 64x48 pixeles. En modo texto mostraba 24 líneas de 32 caracteres. La maquina que llevo a la cumbre a Sinclair fue la ZX Spectrum. Lanzada en abril de 1982, con un precio de U$S 299, tenía todo lo que le faltaba al ZX81. Sus características más relevantes incluían un Z80 a 3,5 MHz, con bus de datos de 8 bits y bus de direcciones de 16 bits, 16K (o 48K) de RAM, 16K de ROM con un intérprete del lenguaje BASIC SINCLAIR . El teclado de goma, sin ser una maravilla, era muy superior al del ZX81. Pero donde realmente superaba a su hermano menor era en el aspecto grafico. Su sistema de vídeo era capaz de mostrar 256x192 pixeles con 16 colores. Se escribieron miles de juegos para este ordenador. Existieron muchas versiones del ZX Spectrum. Los más vendidos fueron el ZX Spectrum 128 (128KB de RAM) y los modelos fabricados por Amstrad, como el ZX SPECTRUM 128 +3, que incluía una unidad de discos de 3 pulgadas en la misma carcasa. El Sincalir ZX Spectrum, a todo color. ZX81, teclado de membrana y... ¡1K de RAM! TRS-80 El microordenador Tandy Radio Shack Z-80 (TRS-80, para abreviar) fue un sistema producido por Tandy Corporation y distribuidos por los almacenes Radio Shack a finales de los 70s y durante los 80s. TRS-80 System Model III Fue puesto a la venta en 1977, con un precio de U$S 599. Estaba destinado a competir con el Apple II, e incluía en ese precio un monitor (blanco y negro de 12 pulgadas) y el grabador de casetes. La leyenda cuenta que Radio Shack tenía dudas sobre el éxito de este producto, asi que solo fabricó 3000 unidades: si fracasaba, serian utilizados para realizar las tareas administrativas de las sucursales de la cadena. Pero fue un éxito: vendieron 10.000 el primer mes y 55.000 el primer año. Dejo de fabricarse en 1981, después de vender más de 250.000 unidades. Tenía un microprocesador Z80 a 1.77MHz, 4K ó 16K de RAM y disponía de dos versiones de BASIC, una de ellas con soporte para cálculos de precisión. TI-99/4A Fabricado por Texas Instruments a partir de 1983, fue un ordenador muy popular en la década de los 80s. Fue además el primero en tener un CPU de 16 bits, el TMS9900 corriendo a 3,3 MHz. Algunos errores de diseño le impidieron sacar todo el provecho a este procesador (por ejemplo, el pésimo manejo de la memoria o la conexión de los periféricos). Era posible utilizar como pantalla un televisor normal, o un monitor creado especialmente para él. Podía almacenar datos en casetes de audio o en disquetes de 5,25 pulgadas (84 KB en una sola cara). El teclado era de gran calidad, y el sonido permitía tres voces simultáneas. Texas Instrument dotó a este ordenador de una gran cantidad de periféricos, entre los que se destacaron impresoras de 132 columnas, sintetizador de voz, discos duros, lápices ópticos, joysticks, etc. El BASIC, y especialmente el llamado Extended Basic o Basic Extendido (provisto en un cartucho enchufable) era uno de los mejores disponibles en esa época, permitiendo un manejo sencillo de gráficos, sonidos y hasta sprites. En 1983 costaba U$S525. TI-99/4A, con un CPU de 16 bits. El TI-99/4A disponía de muchos periféricos. Fuente: http://www.neoteo.com

10
0
T
TOP 10: Los inventos del 2008
InfoporAnónimo12/3/2008

Son 10 de los más importantes inventos que se hicieron famosos a lo largo del 2008. Provenientes de las más diferentes áreas, desde la física de partículas hasta la ingeniería genética, pasando por la robótica y la informática, estos son los diez inventos más importantes, extraños o revolucionarios que vimos a lo largo del año. Algunos de ellos fueron desarrollados a lo largo de varios años, pero tuvieron su reconocimiento público en los últimos meses. Es lógico, al fin y al cabo construir algo tan complejo como el LHC o elaborar una vacuna contra el HIV requiere de mucho trabajo. El criterio utilizado para la selección y el orden en que están enumerados es un secreto mejor guardado que la fórmula de la Coca Cola, por lo que no vale la pena que pierdas el tiempo buscándolo. Seguramente coincidirás con nosotros en alguno de los elegidos, y discreparas con muchos de ellos. No todos le damos la misma importancia a las mismas cosas, pero confiamos en que los comentarios servirán para que nos hagas conocer tus diferencias. Señoras y señores, con ustedes los seleccionados. 1 - El LHC “La maquina de Dios”, apodo que le dió la prensa Se trata de la máquina más acojonante jamás concebida, que hizo correr ríos de bytes a través de los blogs durante los últimos meses. Su construcción comenzó hace años, pero finalmente se pudo poner en marcha en 2008. Su función principal es la de realizar experimentos con partículas de altas energías, y su efecto colateral (según algunos alarmistas) es destruir el universo. A pesar de que la física es algo que al común de la gente le suena a chino, es difícil encontrar a alguien que no sepa que es “la máquina de Dios”, el apodo que le dio la prensa. Lamentablemente, y luego de un par de pruebas, el juguetito de 6.000 millones de dólares se rompió y ahora, en medio de la más grande recesión de las últimas décadas, los científicos andan buscando el puñado de billetes que les permita recomponerlo. 2 - El Mars Phoenix Lander El invierno marciano se cierne sobre la sonda. A fines de mayo llegaba a Marte la que se convertiría en la más popular nave de la NASA desde el Apollo XI. Se posó exitosamente en polo norte marciano luego de recorrer 679 millones de kilómetros, y su misión era averiguar si hay (o hubo) vida en el planeta rojo. Como si se tratase del argumento de una película de suspenso, una serie de fallas y éxitos hicieron que el robot fuese noticia prácticamente todas las semanas que duró su trabajo. Finalmente, hace unos días, y luego de una semana sin que la NASA pudiese comunicarse con ella, se dio por terminada su misión. El invierno marciano, con sus 128 grados bajo cero, se cierne sobre la sonda. Es muy poco probable la llegada del verano le permite volver a comunicarse con la Tierra, por lo que el robot que demostró la existencia de agua en el permafrost marciano ha terminado su misión. 3 - IBM RoadRunner El superordenador costó casi 100 millones de euros. La Ley de Moore nos garantiza que cada 18 meses se duplica la potencia de los microprocesadores. A pesar de tener décadas de vigencia, la predicción del ex hombre fuerte de Intel se cumple a rajatabla, y cada año vemos la aparición de ordenadores que hacen que sus predecesores sean poco más que un juguete. Los científicos de IBM se pusieron manos a la obra, y lograron superar la barrera del Petaflop cuando su Roadrunner alcanzó la velocidad de 1.026 billones de operaciones por segundo. Este superordenador emplea 12.960 procesadores Cell como aceleradores y 116.640 procesadores Opteron de AMD, que corren en paralelo. El superordenador costó casi 100 millones de euros, y necesita unos 3MW para funcionar, más o menos la energía que consume un centro comercial grande. Lamentablemente, el invento fue encargado especialmente para el desarrollo de nuevas armas atómicas. 4 - Energías alternativas Es posible transformar en electricidad casi el 100% de la luz. El petróleo, tarde o temprano, se va a acabar. Pero aunque no lo hiciese, igualmente deberíamos ser capaces de encontrar una alternativa que sea renovable y que (por supuesto) no contamine nuestro planeta. Una de las apuestas más interesantes que vimos este año es un proceso de la empresa Solazyme (elaborado junto una división del gigante del petróleo Chevron) que permite obtener combustible diesel a partir del procesamiento de algas marinas. Esto permitiría conservar las tierras fértiles para la producción de alimentos. Pero quizás el mejor reemplazo para los combustibles que deben quemarse para que liberen su poder es la energía solar. Las celdas solares que utilizamos actualmente tienen muy bajo rendimiento, convirtiendo en energía eléctrica solo un 10% o 15% de la luz que reciben. Pero este año nos enteramos que una nueva clase de paneles solares es capaz de transformar en electricidad casi el 100% de la energía lumínica que reciben del sol. Esto significa un adelanto enorme, haciendo posible la fabricación de paneles de un tamaño razonable que puedan impulsar un coche eléctrico o mantener funcionando los electrodomésticos de nuestra casa. Sin dudas, el 2008 fue un año prolífico en tecnologías destinadas a reemplazar el petróleo. Esperemos que estos inventos del 2008 sean puestos en práctica, a lo sumo, durante el año próximo. 5 - El memristor Un componente ideal para su empleo como elemento de memoria. No es mucho lo que se sabe sobre este extraño componente electrónico, pero los expertos aseguran que sus virtudes pueden revolucionar la electrónica. Básicamente, se comporta como un resistor “con memoria”, que puede “recordar” sus valores anteriores. Esto lo hace ideal para su empleo como elemento de memoria, y posiblemente en el futuro cercano veremos desarrollos basados este componente. Su existencia había sido predicha en 1971 por un estudiante de ingeniería llamado Leon Chua que estudiaba el comportamiento de los circuitos no lineales, pero recién se pudo fabricar un prototipo este año. 6 - La vacuna contra el SIDA El SIDA pasará a ser una enfermedad crónica pero tratable Si hay un problema en el que en que los científicos llevan trabajando varios años, ese es la cura del SIDA. Un estudio publicado en la revista Nature demostró que es posible forzar una respuesta del sistema inmune de simios mediante la inyección de virus modificados del resfriado común. Los monos sufren una enfermedad llamada SIV, que es el equivalente del VIH humano, y la esta técnica les permite adquirir defensas que pueden evitar que enfermen. Los análisis demostraron que aquellos simios que habían sido vacunados eran capaces de luchar contra el virus y permanecer sanos durante más de un año. Si somos capaces de hacer lo mismo en humanos, el SIDA pasará a ser una enfermedad crónica pero tratable, como la diabetes o la hipertensión. 7 - Reactores nucleares hogareños Reactores nucleares pequeños, seguros y baratos El hombre siempre ha sentido un voraz apetito de energía. Cuando vivíamos en cavernas, nos bastaba quemar un poco de madera para obtener toda la energía necesaria para iluminarnos, calentarnos y cocer los alimentos. En la actualidad debemos “alimentar” decenas de aparatos que hacen nuestras vidas mucho más fáciles (incluido el ordenador en que estás leyendo esto), y ya no basta con hacer una hoguera. A lo largo del 2008 vimos varios modelos de reactores nucleares lo suficientemente pequeños, seguros y baratos como para ser utilizados en nuestras casa, brindándonos toda la energía que podemos necesitar. Lo realmente interesante de los reactores nucleares hogareños es su capacidad de funcionar mucho tiempo sin necesitar recargar combustible. Y, a largo plazo, son más sanos para el medioambiente que la quema de combustibles fósiles como método de obtención de energía. 8 - La explosión de los netbooks El pequeño 701, con pantalla de menos de 8 pulgadas Estrictamente hablando, los ahora llamados netbooks tuvieron su origen a fines del 2007, cuando Asus presentó el ya desaparecido EeePC701. Durante años estuvimos embarcados en una carrera en la que “más” parecía ser sinónimo de “mejor”. Los fabricantes anunciaban cada día un ordenador con más MHz., más pulgadas, más GB, etc. Pero Asus demostró que a muchos usuarios no les hacia falta tener “lo ùltimo de lo ùltimo” para que su ordenador les resultase útil. El pequeño 701, con sus 900 gramos de peso y su pantalla de menos de 8 pulgadas demostró que era posible trabajar con un ordenador que no costase un ojo de la cara ni pesase 10 kilogramos. 9 - Fotosíntesis artificial con nanotubos de carbono La fotosíntesis es la base de la vida en nuestro planeta. Nadie ignora que la fotosíntesis es la base de la vida en nuestro planeta. Este proceso, sin el que los animales no duraríamos demasiado en pie, es el que permite a las plantas, algas y (algunas) bacterias, mediante la energía obtenida de la luz, transformar materia inorgánica en materia orgánica. Pero los científicos de la Hebei Normal University of Science and Technology, de China, han puesto a punto un material que gracias a la nanotecnología puede hacer el mismo trabajo que la naturaleza. No es solo una curiosidad de laboratorio: el duplicar un proceso natural como ese puede ser la clave para eliminar de nuestro futuro la amenaza de la acumulación del CO2, lo que no es poca cosa. 10 - Robots que cambian de forma Symbrion, un verdadero "enjambre" robótico. La robótica ha tenido, a lo largo de este año, una gran cantidad de inventos que bien podrían formar parte de esta lista. Hemos elegido el proyecto Symbrion de los científicos de la Universidad West of England de Bristol por lo novedoso de su enfoque. En lugar de construir un robot especifico para cada tarea, se fabrica un verdadero enjambre de pequeños robots inteligentes, que pueden ensamblarse entre sí de diferentes formas para crear el tipo de robot que haga falta en cada situación. Si la idea detrás de Symbrion se populariza, los futuros robots serán realmente increíbles. Fuente: http://www.neoteo.com

0
21
U
uTorrent cambia protocolo y causa revuelo
InfoporAnónimo12/3/2008

Registrate y eliminá la publicidad! ¿Explota o no explota? Apenas se supo que uTorrent tendría como protocolo por defecto a su nuevo uTP en su última versión alfa, un artículo publicado en The Register y escrito por Richard Bennett afirma que "BitTorrent le ha declarado la guerra a VoIP y a los jugadores", en donde el nuevo protocolo podría afectar todas las comunicaciones VoIP, la actividad de juegos en línea, y de paso hacer volar a la red por los aires. Defensores y detractores del artículo ya han tomado cartas en el asunto, por un lado, demostrando preocupación por los posibles inconvenientes que provocaría este cambio de protocolo, y por el otro, acusando a Bennett de generar lo que los norteamericanos llaman FUD (siglas para Miedo, Incertidumbre y Duda). ¿Amenaza real, o sólo una forma más de meter miedo a quienes usan BitTorrent? A nivel técnico, uTP trabaja sobre el protocolo UDP para transferencias de punto a punto. ¿Por qué preocupa tanto esto? El protocolo TCP posee un sistema de control de congestión integrado, el cual impide que la red se "atore" y los paquetes se mantengan fluidos, lleguen a destino, y lo hagan tal y como fueron enviados originalmente. En comparación, UDP es un poco más caótico. Es un protocolo con una muy baja tolerancia a demoras, lo que hace que no tenga ninguna clase de control de congestión o de corrección de errores. Los paquetes llegan en diferente orden, algunos llegan duplicados y otros directamente se pierden, pero en situaciones como Voz sobre IP o los juegos en línea, la latencia lo es todo. Ahora, según Bennett la mitad del tráfico existente en Internet hoy en día corresponde a transferencias P2P. Si todo ese tráfico se trasladara a un protocolo que no tiene ninguna capacidad de control de flujo, entonces toda la red se vería afectada, al menos en teoría. La respuesta posible de los proveedores sería aplicar alguna clase de filtro en el protocolo UDP, pero filtrar algo que depende exclusivamente del tiempo que tarda en llegar, lo arruina por completo. Un alto ejecutivo de BitTorrent Inc. (empresa dueña de uTorrent), además de descalificar por completo el artículo de Bennett, explica que el paso de uTorrent al protocolo UDP es para lograr el efecto opuesto al que declara Bennett: Aliviar la carga de la red, ya que el tráfico actual del protocolo UDP en Internet es menor al 2%. Con uTP planean implementar su propio control de congestión midiendo latencias, y detectando los puntos en donde la red no puede cumplir con la demanda. Ante esos puntos, uTorrent iría más lento, esperando a que las cosas se vuelvan un poco más fluidas. En resumen, uTP haría las transferencias BitTorrent más livianas para la red, más eficientes y menos agresivas. Con el cambio de protocolo uTorrent se ha puesto en el medio de la tormenta Ahora, ¿cómo afecta todo esto al usuario actual de uTorrent? No mucho, al menos por ahora. La implementación del protocolo uTP está en fase alfa, con todas las consecuencias que eso puede llegar a traer (cuelgues, descargas más lentas, etc.). En el mismo foro de uTorrent se ha colocado en letra gigantesca que la versión alfa no es recomendada para uso diario, por lo que el usuario promedio debería esperar hasta la versión 1.9 final de uTorrent para ver cómo funciona el nuevo cambio de protocolo. Sin embargo, nosotros descargamos la versión alfa, la instalamos y decidimos bajar algo. El foro es bastante claro al respecto El "algo", como siempre, fue un torrent estable y con una buena velocidad de descarga: Una distro de Linux. En esta ocasión nos inclinamos por la última versión de Ubuntu. Al descargar el torrent de la página oficial, uTorrent respondió como siempre lo ha hecho, iniciando la descarga sin inconvenientes. En la sección Peers pudimos ver que varias de las conexiones tenían a un lado la leyenda "uTP". Eso indica que dichas conexiones se estaban realizando a través del nuevo protocolo. Para utilizar uTP, ambas partes deben estar preparadas para hacerlo, por lo que sólo podrás realizar conexiones uTP desde peers que posean la versión 1.8. de uTorrent, o la versión alfa 1.9. No notamos una diferencia tangible en la velocidad En cuanto a velocidad, no notamos un impacto significativo ya sea en forma negativa o positiva. La descarga flotó alrededor de los 180 Kb por segundo, utilizando la misma conexión que cuando hablamos sobre los aceleradores P2P. Sobre problemas de estabilidad, nosotros no sufrimos ninguno, pero el foro de uTorrent se ha ido poblando lentamente con reportes de cuelgues y problemas bajo ciertas configuraciones. Por lo tanto, dejaremos el enlace al final del artículo, pero no digas que no te avisamos. La alternativa es intentar activar uTP en la versión 1.8.1 de uTorrent. Está allí, sólo que viene deshabilitada por defecto. Si quieres experimentar un rato, sólo debes ir a la sección Advanced en la configuración de uTorrent. Allí busca el parámetro bt.transp_disposition y cambia su valor de 0 a 255. Recuera cerrar y abrir uTorrent para que tome los cambios. En la versión 1.8.1, pasar este parámetro de 0 a 255 activará uTP El impacto de este cambio de protocolo se podrá ver realmente cuando la versión final de uTorrent salga a la red. Este cliente es uno de los más utilizados entre los que realizan descargas P2P, pero eso no es todo. Se ha anunciado que eventualmente el protocolo uTP se abrirá, lo que haría que estuviera disponible para otros clientes como Vuze o BitComet, o para cualquiera que lo desee implementar. Una cosa es cierta: El tráfico UDP no puede ni debe filtrarse. Toda aplicación que utilice este protocolo se verá afectada negativamente si un proveedor decide ponerle un tapón a las transferencias UDP sólo para aplicar cierto control al tráfico BitTorrent. De todas formas, la palabra final la tendrán los usuarios. Si uTP resulta ser más lento que el método actual de transferencia, los usuarios simplemente lo desactivarán y seguirán transfiriendo a través de TCP como hasta ahora. ¡Buena suerte! Fuente: http://www.neoteo.com

0
3
F
FireStrike: La primera arma de rayos láser
InfoporAnónimo11/18/2008

Que la guerra forma parte de la esencia del hombre es algo sobre lo que quedan pocas dudas. Y aquellos que todavía no se han convencido, pueden darle un vistazo a este cañón láser fabricado por la empresa Northrop Grumman, una vieja aliada del gobierno norteamericano. Este láser de estado sólido es una muestra más del arsenal futurista que está poniendo a punto la empresa, que tiene algunos juguetes que prometen convertir al enemigo en inofensivas cenizas, rápida y eficientemente. FireStrike es un láser de estado sólido, portátil, que podrán emplear los ejércitos (o particulares) que puedan pagar los millones de dólares que seguramente cuesta. Leímos un par de veces sus características porque realmente pareces sacadas de un texto de ciencia ficción: se trata de una “caja” de solo 30 x 52 x 95 (ancho, largo, alto) centímetros y capaz de ponerse en marcha y estar listo para disparar en solo medio segundo (ni mi ordenador no arranca tan rápidamente). Puede emitir 15 kilovatios de potencia. La empresa fabricante del chisme dice que está “lista para aceptar pedidos de la primera unidad de alta energía basada en un láser de estado sólido del mundo, para aplicaciones de campo de batalla". No está muy claro cuál será el uso que le van a dar a este cacharro, pero creemos que no va a ser usado para encender fogatas y tocar la guitarra en las noches Irakies. “Este es un láser con niveles de potencia ajustables, con una calidad adecuadas para usos ofensivos y defensivos en el campo militar", declaró Dan Wildt, uno de los funcionarios de Northrop Grumman. Esperamos no toparnos nunca con uno de estos y, si lo hacemos, al menos queremos un Yoda a nuestro lado. Fuente:http://www.neoteo.com

0
0
E
Energía Solar
InfoporAnónimo12/10/2008

Si Don Quijote viviera en nuestros días, en lugar de molinos de viento tendría que enfrentarse a brillantes paneles solares. Es que en la región de Castilla-La Mancha, la compañía japonesa Kyocera junto con la española Avanzalia están construyendo la mayor planta de energía solar del mundo. Con una superficie de más de 80 hectáreas, la central tendrá una capacidad de generación de energía de 18 megawatts, cantidad suficiente para suministrar electricidad a 9200 hogares. Para llevar a cabo esta monumental obra, Kyocera, empresa líder en la producción de sistemas de energía solar, colocará cerca de 90 mil paneles con celdas solares, enmarcadas en un total de 3300 toneladas de acero. Luego de una minuciosa investigación para determinar el lugar óptimo para el emplazamiento de la central, la región de Castilla-La Mancha, en la provincia española de Cuenca, se eligió por su clima moderado y su elevado grado de exposición a la luz del Sol. De hecho, España es un país con una ubicación ideal para la aplicación de energía solar, como lo demuestra otra planta inaugurada recientemente en Salamanca -también obra de Kyocera y Avanzalia- con una capacidad máxima de 13.8 megawatts. El presidente de la división europea de Kyocera, Mitsuru Imanaka, se muestra muy optimista: “El número de grandes plantas de energía fotovoltaica ha crecido continuamente en los últimos años, particularmente en Europa. Las condiciones económicas y geográficas son notables. Además de los programas de compensación energética de los países europeos, la ubicación, sobre todo en el Sur de Europea, ofrece sitios muy ventajosos gracias al clima reinante”. La principal desventaja de la energía fotovoltaica es la ineficiencia en la captación de la radiación solar. Pese al enorme progreso evidenciado en los últimos años, la energía solar continúa siendo costosa porque todavía se desperdicia la mayor parte de la luz de Sol en el proceso; aunque el futuro es muy prometedor, a la luz de una serie de investigaciones y descubrimientos que se están produciendo y que les comentaremos en artículos futuros. Fuente: http://www.nuestroclima.com Paneles solares, colectores solares y paneles solares fotovoltaicos Los paneles solares son dispositivos que aprovechan la energía que nos llega a la tierra en forma de radiación solar, el componente principal de los paneles solares son las células de siclillo, las células de silicio es el componente base de los paneles solares. Haciendo una gran división podemos decir que tenemos dos clases distintas de paneles solares dependiendo del uso que le queramos dar principalmente, los paneles solares para el calentamiento del agua generalmente para uso domestico o colectores solares, estos paneles solares son los que podemos ver principalmente en los tejados de nuestras casas y edificios, a través de un circuito cerrado calientan agua que es almacenada en un deposito para su posterior uso domestico. A partir de Enero de 2007 la instalación de estos colectores solares será de uso obligatorio en España para todos los edificios de nueva construcción, esto dará un impulso de una magnitud enorme al mercado de los paneles solares en España La otra parte de la división lo tenemos en los paneles solares fotovoltaicos estos paneles están destinado a la producción de energía solar a partir de las células de silicio, su uso principal se da para instalaciones aisladas a la red, en las cuales las llegada de la red eléctrica general se hace complicada o imposible, un uso que se esta haciendo de forma muy masiva de los paneles solares son las plantas solares dedicados a la producción eléctrica de forma fotovoltaica. España ha tenido a lo largo del 2006 un serio desabastecimiento de paneles solares a pesar de ser uno de los principales fabricantes de paneles solares a nivel mundial, esto es debido a que el silicio a pesar de ser un componente muy común dentro de la naturaleza tiene que sufrir un proceso complejo para poder fabricarse con el las células solares fotovoltaicas capaces de convertir la radiación solar en energía eléctrica, esto proceso en la actualidad solo se hacen en 5 fabricas en todo el panorama mundial y ninguna de ellas radica en España, es este motivo por el cual muchas organizaciones ecologistas exigen al gobierno español la construcción de una fabrica de células solares capaz de abastecer al mercado español, por otro lado la fuerte demanda de algunos países que están apostando de manera seria y fuerte por las energías limpias como es el caso de Alemania, hace se produzcan serios desabastecimientos de los paneles solares. El principal productor de paneles solares a nivel mundial es Japón en España podríamos destacar a la empresa Isofoton como principal fabricante de paneles solares en España. Paneles solares hibridos Hasta ahora conocíamos dos tipos de paneles solares para el aprovechamiento de la energía solar, los módulos fotovoltaicos para producir electricidad y los colectores o paneles térmicos para agua caliente. Ambos sistemas son totalmente independientes y diferentes. Es un hecho cierto que los paneles fotovoltaicos son enemigos del calor, como ya habréis visto en las hojas de características de los fabricantes, la potencia del panel esta especificada en base a unas condiciones de prueba estándar, (Irradiancia 100 mW/cm2, temperatura de la célula 25ºC, masa de aire de 1,5, etc.). En la vida real, la temperatura de la célula es muchísimo más elevada, con lo cual la eficiencia de las células cae al aumentar la temperatura, reduciendo la potencia del panel aproximadamente un 15%. (TK=-0.44% ºC) Lo mencionado anteriormente a modo de introducción es algo que casi todos conocemos, pero ¿existe otra alternativa? La respuesta es sí. En la Oficina Española de Patentes y Marcas está registrado un invento llamado “Panel Solar Híbrido”, dicho invento es un panel que integra la energía solar fotovoltaica y Térmica en un único Panel Solar. En el Panel Solar Híbrido, utilizado en edificaciones, el calor existente en las células fotovoltaicas, que era un problema, es transferido a un absorbedor de temperatura integrado en su parte posterior, el serpentín o similar del absorbedor es recorrido por un fluido calor-portante. Dicho fluido llega al intercambiador de calor del acumulador de agua caliente, donde cede su energía solar térmica para ser usada en A.C.S. u otros usos. Con este sistema conseguimos aumentar la producción de electricidad un 15% y reducir el espacio necesario para instalar ambos sistemas, ya que obtenemos una cogeneración, mediante la cual se obtiene simultáneamente energía eléctrica y energía solar térmica útil. El Panel Solar Híbrido usado en Huertas Solares funciona de una forma similar, pero se sustituye el acumulador de agua por un sistema de refrigeración basado en radiadores que enfrían el fluido calor-portante por convección de aire. De esta forma el Panel Solar Híbrido se usa como un Panel Solar Fotovoltaico Refrigerado, concentrando su función en la producción de electricidad. La vida útil de la instalación es más prolongada debido a que la temperatura de trabajo de los Paneles es más baja. Introducción a los Paneles solares hibridos El presente proyecto de investigación persigue dos objetivos fundamentales relacionados con la mejora de la eficiencia energética de los paneles solares fotovoltaicos. Por una parte incrementar la eficiencia fotovoltaica y al mismo tiempo y en el mismo espacio obtener A.C.S. El sistema desarrollado consta principalmente de un absorbedor formado por una pletina de cobre, aluminio o cualquier otro material con buena conductividad térmica sobre la cual se ha soldado un serpentín o sistema similar, para formar todo ello un absorbedor de calor refrigerado por un líquido calor-portante. Este absorbedor estará adosado a la parte posterior de un panel fotovoltaico, con el fin de disminuir la temperatura en sus células, en los diodos de protección y bypass que forman el panel. Con todo ello se pretende conseguir un incremento notable en la eficiencia de los paneles solares, que se prevé sea superior al 15% sobre la potencia de pico suministrada por el panel F.V. Este incremento de potencia es muy significativo, ya que la eficiencia conseguida en los paneles que se comercializan actualmente está situada entre el 15% y el 25%. Este sistema desarrollado refrigera las células solares incrementando notablemente la eficiencia en la producción de energía eléctrica. El calor absorbido del panel es conducido a un acumulador de agua caliente, para utilizarlo en un sistema de A.C.S., calefacción, etc.… De todos es conocida la estrecha relación que existe entre la temperatura y cualquier sistema basado en la electricidad; pero, ¿realmente le damos la importancia que tiene? Los Transformadores de alta tensión indican en su placa de características que se ha de reducir la potencia en un tanto % a partir de cierta temperatura, los motores eléctricos disminuyen su eficiencia cuando se calientan, las baterías para almacenamiento de electricidad, las células fotovoltaicas, los alternadores de las grandes centrales productoras de electricidad; todo lo que tiene relación con la electricidad está sometido a los efectos negativos del incremento de la temperatura. En valores porcentuales la perdida de potencia de un sistema eléctrico es algo considerable, pero si adoptamos una visión más amplia y lo vemos a nivel global, podremos intuir la perdida de muchos gigavatios por efectos de la temperatura. Lo mencionado anteriormente, es algo que la física conoce, pero en tiempos de abundancia energética, se desprecia. Entramos en nuevos tiempos en los cuales el problema energético se agudizará. Si somos responsables, si nos preocupa el futuro del planeta, de nuestros hijos y sus descendientes; deberíamos empezar a pensar en como exprimir cada vatio de potencia en cualquier sistema productor o consumidor de energía, mejorando la eficiencia de los mismos y tomando una actitud responsable de su consumo. La mayor parte de estos problemas se solventaran cuando lleguen los superconductores a temperatura ambiente, pero mientras esto no acontezca pensemos… 1.1.- Planteamiento del problema: El rendimiento de las células fotovoltaicas que se comercializan en la actualidad está comprendido entre un 15% y un 25%, es decir, que sólo una pequeña parte de la energía lumínica se aprovecha realmente en forma de energía eléctrica. Este rendimiento es menor cuanto más alta es la temperatura. El aumento de temperatura en las células supone un incremento en la corriente, pero al mismo tiempo una disminución mucho mayor, en proporción, de la tensión. El efecto global es que la potencia del panel solar disminuye al aumentar la temperatura de trabajo del mismo. Una radiación de 1.000 W/m2 es capaz de calentar un panel al menos 30 grados por encima de la temperatura del aire circundante, lo que reduce la tensión en 2 mV/ (célula*grado) * 36 células * 30 grados = 2,16 Voltios y por tanto la potencia en un 15%. Por otra parte, actualmente para instalar energía solar fotovoltaica y térmica, requiere dos instalaciones completamente independientes en el lugar de captación que habitualmente será en la cubierta de los edificios; esto implica tener que disponer de más superficie para realizar ambas instalaciones. El Instituto para la Diversificación y Ahorro de Energía calcula que por cada vivienda (cuatro personas, 100 m2) hacen falta uno o dos metros cuadrados de paneles. El impacto medioambiental y visual, aunque pequeño, también es un dato a tener en cuenta, ya que si vemos una instalación aislada, no es significativo, pero si lo vemos desde un punto de vista más generalizado, podría recordarnos los bosques de antenas que veíamos en los tejados no hace mucho tiempo, hasta la entrada en vigor de la ley sobre las Infraestructuras Comunes de Telecomunicaciones, (I.C.T.). El presente proyecto pretende aportar alguna solución viable a los problemas planteados. 1.2. Justificación Después de haber visto la relación directa entre temperatura y eficiencia energética de los paneles solares se ha indagado en Internet, libros, revistas especializadas, bases de datos en oficinas de patentes, y se ha comentado el problema con profesionales del sector, no encontrando ninguna solución técnica que solvente el problema de la temperatura en los paneles fotovoltaicos, que por otra parte es inherente a la propia energía solar. Si bien es cierto que en las instalaciones fotovoltaicas es recomendable situar los paneles en lugares bien ventilados, para paliar los efectos negativos de la temperatura sobre las células fotovoltaicas, también es cierto que se está desaprovechando la energía en forma de calor que existe en las mismas. Por otra parte la idea de integrar energía solar fotovoltaica y térmica en un mismo panel es un concepto novedoso, y que merece la pena investigar, ya que conllevaría las siguientes ventajas: - Menos superficie necesaria para instalar energía fotovoltaica y térmica. - Menos residuos alcanzado el fin de la vida útil de la instalación. - Incremento de al menos un 15% en la producción de electricidad. - Obtención de agua caliente para usos sanitarios, calefacción, etc.… - Prolongación de la vida útil de los paneles solares. - Reducción de la radiación solar reflejada. Paneles solares hibridos, objetivos Los objetivos que se pretenden alcanzar son los siguientes: 1 - Aumentar el rendimiento de un panel solar fotovoltaico en un 15% 2 - Obtener A.C.S. a partir del calor absorbido del panel fotovoltaico. 3 - Reducir la superficie necesaria para obtener electricidad y A.C.S simultáneamente. 4 - Aprovechar al máximo la radiación solar por metro cuadrado. 5 - Incrementar la vida útil de las instalaciones fotovoltaicas (a) El aumento de la eficiencia se deberá a la reducción del factor de degradación por efectos de la temperatura sobre las células fotovoltaicas. (Se mejora la zona de transición para la curva I-V) (b) El calor extraído de las células será transferido al absorbedor que será el generador A.C.S. (c) Al ser el mismo captador se reducirá a la mitad la superficie necesaria. (d) Se producirá una cogeneración aprovechando la energía en forma de electricidad y calor. (e) Los semiconductores que forman las células operarán a temperaturas más bajas y por lo tanto más idóneas, debido a las propiedades intrínsecas del silicio. Sistema de hipótesis. En este apartado se mostrarán algunas posibles variantes al modelo estudiado. Sería ideal fabricar paneles fotovoltaicos con el absorbedor integrado, montando directamente las células fotovoltaicas, sobre la superficie del propio absorbedor, disminuyendo de esta forma las perdidas en la transferencia de calor al mismo. También sería ideal montar dichos paneles en una carcasa, similar al utilizado actualmente para la energía solar térmica, con esto se conseguiría un incremento de la temperatura en el panel por el efecto invernadero generado en su interior; obteniendo más temperatura en el liquido refrigerante, y por lo tanto mayor eficiencia en el sistema térmico. Un automatismo de bajo coste basado en microcontroladores programables (PIC), supervisaría constantemente la temperatura de las células, controlando la circulación de líquido calor-portante a través del intercambiador situado en el acumulador de calor o desviándolo al radiador refrigerado por aire, cuando la temperatura en el acumulador se igualase con la existente en las células. Huertas solares El Panel Solar Híbrido sería de gran utilidad en Huertas Solares, donde todos los absorbedores de los paneles fotovoltaicos estarían conectados térmicamente en paralelo mediante tuberías. Dichas tuberías transportan el fluido calor-portante que recorre todo el circuito y cederá el calor absorbido en un radiador refrigerado por convección de aire o ventilación forzada. El radiador o radiadores pueden estar instalados horizontalmente con un tubo a modo de chimenea, con sección adecuada con el fin de reforzar la convección de aire. También puede ser interesante una combinación de posición horizontal y vertical. Una Huerta con una producción de 900 KW/h más un 15% de mejora en eficiencia (135 Kw/h.), el total sería 1.035 KW/h. Si la Huerta Solar está en las inmediaciones de un río, lago, o cualquier otra masa de agua fría, sería muy interesante bombear agua en el circuito de refrigeración, eliminando el radiador, consiguiendo una temperatura media en las células por debajo de 25ºC, con lo cual el aumento de eficiencia sería notablemente mayor. Un sistema más económico sería adosarle un radiador de aluminio con aletas de refrigeración al Panel FV, el propio aire circundante disminuiría la temperatura en las células. Como en el caso anterior, no se aprovecharía la potencia térmica. Limitaciones Investigar todas las variantes propuestas en el sistema de hipótesis, es lo recomendable, y aunque la lógica lleva a pensar que son factibles, el autor de este proyecto ha decidido probar experimentalmente el propuesto en la figura Nº 4, y el descrito en el apartado Nº 3.3 “Construcción del prototipo”.Las principales razones para ello son la falta de recursos técnicos y financieros para llevar a cabo una investigación seria de todos las variantes posibles. El objetivo que persigue el incremento de la vida útil de las instalaciones fotovoltaicas, no se podrá constatar, ya que serían necesarios varios años para poder evaluar este punto. No obstante, todos sabemos que los semiconductores tienen una temperatura de trabajo idónea, que suele estar entorno a los 25ºC. El hecho de rebajar la temperatura de trabajo de las células, nos hace creer que este objetivo sería alcanzado, debido a las características intrínsecas de los materiales semiconductores. Para la medición de la radiación solar se ha pedido un sensor LI-200 de la marca LI-COR, procedente de Nebraska, USA. No habiéndose recibido a tiempo para realizar la medida de radiación para efectuar las pruebas del experimento. No obstante las pruebas fueron realizadas en el mes de julio, con el cielo completamente despejado, buena visibilidad y a mediodía, por lo que se prevé que los valores de dicha radiación deben estar en torno a los valores supuestos. Viabilidad Dado que la eficiencia energética de los paneles solares fotovoltaicos se puede considerar en un 19%, como media; el autor de este proyecto cree muy viable el desarrollo de este tipo de tecnología, ya que al 19% de eficiencia existente habría que sumar un mínimo de un 15% de ganancia en producción eléctrica, que se debería principalmente como consecuencia de reducir la degradación por efectos de la temperatura en las células. A todo ello habría que sumar también al menos un 30% de energía captada de forma térmica, con lo cual el resultante obtenido es muy superior al conseguido actualmente. Los costes de producción serian inferiores, ya que en un mismo componente estarían situados todos los captadores. A la hora de realizar las instalaciones serían necesarios menos soportes y puntos de anclaje. Paneles solares hibridos, la teoria Semiconductores Un semiconductor es un componente que no es directamente un conductor de corriente, pero tampoco es un aislante. En un conductor la corriente es debida al movimiento de las cargas negativas (electrones). En los semiconductores se producen corrientes producidas tanto por el movimiento de electrones como de las cargas positivas (huecos). Los semiconductores son aquellos elementos pertenecientes al grupo IV de la Tabla Periódica (Silicio, Germanio, etc.). Generalmente a estos se le introducen átomos de otros elementos, denominados impurezas, de forma que la corriente se deba primordialmente a los electrones o a los huecos, dependiendo de la impureza introducida. Otra característica que los diferencia se refiere a su resistividad, estando ésta comprendida entre la de los metales y los aislantes. Efecto de la temperatura sobre los materiales. La resistencia de un conductor metálico aumenta al aumentar la temperatura. Dicho aumento depende de la elevación de la temperatura y del coeficiente térmico de resistividad alfa (), el cual se define como el cambio de resistividad por grado centígrado de variación. Los semiconductores tienen un coeficiente de temperatura negativo, mientras que muchos metales se tornan superconductores a pocos grados por encima del cero absoluto. La temperatura de trabajo (Tt) que alcanza un panel fotovoltaico obedece una relación lineal dada por la expresión: Tt=Ta+K.R • Tt: Temperatura de trabajo • Ta: Máxima temperatura ambiente • R: radiación solar en mW/cm2 (varía entre 80 y 100 mW/cm2). • K: coeficiente que varía entre 0,2 y 0,4 ºC.cm2/mW dependiendo de la velocidad promedio del viento. Cuando ésta es muy baja, o inexistente, el enfriamiento del panel solar es pobre o nulo y K toma valores cercanos o iguales al máximo (0,4). Si la velocidad del viento produce un enfriamiento efectivo del panel, el valor de K será el mínimo (0,2). K.R: Representa el incremento de temperatura que sufre panel sobre la máxima temperatura ambiente. Para calcular la Potencia de salida a la temperatura de trabajo (Pt) que alcanza un panel fotovoltaico, el primer paso es calcular la Temperatura de trabajo y luego se determina el incremento en la temperatura respecto a la de prueba (25 ºC). La expresión aproximada para el cálculo es: Pt= Pp δ.Dt • Pt: Potencia de salida a la temperatura de trabajo. • Pp: Potencia pico del panel (25 ºC). • δ: Coeficiente de degradación (0,6 % / ºC) • Dt: Incremento de temperatura sobre los 25 ºC (Tt – 25ºC) El personal técnico de la revista “HOME POWER” ha llevado a cabo una serie de evaluaciones, usando paneles solares con células de diferentes tipos, a temperaturas de trabajo no inferiores a los 50°C. Los resultados de estas pruebas han sido publicados en tres de sus números: el 24 (Págs. 26-30) y el 33 (Págs. 17-20) y el 49 (Págs. 28-33). La última evaluación es la más interesante por dos motivos: fue llevada a cabo después de un largo tiempo de uso de los paneles solares fotovoltaicos puestos a prueba y la temperatura de trabajo es la de verano. Ellos evaluaron nueve paneles con tres tipos diferentes de células: cristalina, policristalina y amorfa. Los resultados muestran que la mayoría de los paneles, independientemente del tipo de célula, ofrecen un coeficiente de degradación que oscila entre 0,7 y 0,86%. Tecnología Fotovoltaica La célula fotovoltaica El fenómeno fotovoltaico fue descubierto en 1839 por el científico francés, Henri Becquerel. Las primeras celdas solares de selenio fueron desarrolladas en 1880, sin embargo, no fue sino hasta 1950 que se desarrollaron las celdas de silicio monocristalino que actualmente dominan la industria fotovoltaica. Las primeras celdas de este tipo tenían una eficiencia de conversión de solo 1%; ya para 1954 se había logrado incrementar la eficiencia al 6% en condiciones normales de operación, mientras en el laboratorio se lograron eficiencias cercanas a 15%. Desde entonces hasta nuestros días la eficiencia en las células no ha mejorado notablemente. La producción eléctrica está basada en el fenómeno físico denominado "efecto fotovoltaico", que básicamente consiste en convertir la luz solar en energía eléctrica por medio de unos dispositivos semiconductores denominados células fotovoltaicas. Estas células están elaboradas a base de silicio puro (uno de los elementos más abundantes en la naturaleza, componente principal de la arena) con adición de impurezas de ciertos elementos químicos (boro y fósforo), y son capaces de generar cada de ellas una corriente de 2 a 4 Amperios, a un voltaje de 0,46 a 0,48 Voltios, utilizando como fuente de energía la radiación luminosa. Las células se montan en serie sobre paneles o módulos solares para conseguir un voltaje adecuado. Parte de la radiación incidente se pierde por reflexión (rebota) y otra parte por transmisión (atraviesa la célula). El resto es capaz de hacer saltar electrones de una capa a la otra creando una corriente proporcional a la radiación incidente. La capa antirreflejo aumenta la eficacia de la célula. Generalmente, una célula fotovoltaica tiene un grosor que varía entre los 0,25 y los 0,35 mm y una forma generalmente cuadrada, con una superficie aproximadamente igual a 100 mm2. Los materiales para la fabricación de los paneles solares son: -Silicio Monocristalino: de rendimiento energético hasta 15 - 17% -Silicio Poli-cristalino: de rendimiento energético hasta 12 - 14 % - Silicio Amorfo: con rendimiento energético menor del 10 %; - Otros materiales: Arseniuro de galio, diseleniuro de indio y cobre, telurio de cadmio. Actualmente, el material más utilizado es el silicio monocristalino que tiene prestaciones y duración en el tiempo superiores a cualquier otro material utilizado para el mismo fin. Paneles solares hibridos, diseño Datos de partida: Se utilizarán dos paneles solares gemelos con las mismas características eléctricas y mecánicas, uno es el utilizado en el prototipo del proyecto y otro es para poder observar y valorar las diferencias entre ambos en distintas condiciones, (refrigerado o no) Dimensiones del panel: 300x220mm. Potencia de Panel: 6w. Tensión Voc: 22 vdc. Corriente Isc: 500 mA. Temperatura ambiente: 25ºC. Radiación solar: ~ 97mW/cm² Velocidad del viento: 0 m/s Diámetro del tubo del serpentín absorbedor: 6 mm. Medidas de la pletina del absorbedor: 285x210x5 mm. Descripción del funcionamiento: La instalación en el interior del edificio es similar a las que se pueden encontrar actualmente en el mercado. La única variante reside en el captador, que en este caso es el mismo para el sistema de paneles fotovoltaicos y para el sistema térmico. El absorbedor está integrado en el propio panel fotovoltaico, recorrido por un líquido calor-portante que cede su energía en el intercambiador de calor situado en el interior de un tanque acumulador. Este acumulador está alimentado por agua fría, y de el se extrae agua caliente para su uso sanitario, calefacción, etc. El absorbedor disminuirá notablemente la temperatura en las células del panel, incrementando su eficiencia. La electricidad producida en el panel es conducida a través de conductores de sección apropiada a un regulador de tensión, cuya misión, entre otras, es controlar la carga de las baterías dentro de los límites adecuados. De las baterías se obtiene la potencia para los distintos elementos consumidores de la instalación, si esta está diseñada para trabajar a bajo voltaje en corriente continua. Si los aparatos consumidores y la instalación están diseñados para trabajar en corriente alterna, será necesario intercalar un inversor DC-AC. Esquema general teórico Nota: para simplificar el dibujo se han omitido los materiales aislantes de los lados y la cara posterior del panel solar. La bomba de circulación y el inversor podrían omitirse, dependiendo del tipo de instalación requerido. Construcción del prototipo Como se puede apreciar en la figura 5, en la cara posterior del panel fotovoltaico se ha instalado un absorbedor de calor, formado por una pletina de cobre a la cual se le ha soldado un serpentín formado por tubería de cobre. Este conjunto se ha impregnado de silicona para semiconductores cuya función es la de conseguir una buena transferencia térmica entre la cara posterior del panel fotovoltaico y la pletina del absorbedor. Todo el conjunto ha sido fijado en la cara posterior del panel en el propio soporte de las células. Cabe destacar, que aunque en el dibujo no se ha reflejado, en el prototipo construido, se han instalado aislantes térmicos en los lados interiores y en la cara posterior del panel para minimizar las pérdidas de temperatura, debidas al aire circundante, (Si se quiere aprovechar el calor). En la pletina de cobre que forma el absorbedor se ha instalado una sonda de temperatura tipo PT100, conectada a un controlador industrial de temperatura para verificar a lo largo de todo el proceso de ensayo la temperatura en el absorbedor. En la entrada y salida del absorbedor se han instalado dos trozos de tubo de vinilo por donde circulará el líquido refrigerante, en los ensayos se ha utilizado agua. En uno de los tubos se ha intercalado una pequeña bomba de circulación para el agua, tomada de un recipiente que contiene dos litros de agua. Dicho recipiente se ha aislado de la radiación solar y se encuentra a temperatura ambiente. En este recipiente se ha sumergido una sonda de temperatura tipo PT100, conectada a un controlador de temperatura para verificar el incremento de temperatura por unidad de tiempo que proporciona el absorbedor. El otro tubo que retorna del absorbedor, vierte el agua caliente directamente en el recipiente. Los tubos de entrada y salida del absorbedor también se han aislado de la radiación solar para evitar variaciones de temperatura generados fuera del absorbedor, y que podría falsear los resultados obtenidos en el experimento. Paneles solares hibridos, resultados Instrumentos de medida: Para realizar las mediciones de variables se han utilizado instrumentos con certificado de conformidad, los cuales han sido verificados internamente con otros instrumentos que poseen certificado de calibración, estos patrones tienen su correspondiente certificado de calibración, pudiéndose demostrar su trazabilidad con patrones del ENAC. Los instrumentos utilizados han sido los siguientes: Multímetro digital FLUKE, mod.185, Nº de serie: 8592000. Multímetro digital FLUKE, mod.87, Nº de serie: 58960048. Multímetro digital FLUKE, mod.87, Nº de serie: 68701323. Controlador de temperatura con sonda PT100 NAIS, mod. KT4. Controlador de temperatura con sonda PT100 TECNOLOGIC, mod. TDH01 FD11. Multímetro analógico ICE. Termómetro Testo, Mod.922, Nº de serie: 3080240175, con sonda de NiCr-Ni. Anemómetro Testo, mod. 506, Nº de serie: 30607815 Disposición de los aparatos de medida: Fig.5 (No se han representado los shunt de corriente y potenciómetros) Medición de parámetros: Para realizar las medidas se han usado dos paneles fotovoltaicos idénticos. Uno de ellos es el utilizado en el prototipo, (Híbrido) y el otro está instalado al lado, como referencia y sin dispositivos de refrigeración, (Normal), con el fin de tomar medidas simultáneas sobre ambos paneles, para poder cotejar las mediciones y evidenciar experimentalmente las diferencias obtenidas. Para asegurar los valores y conocer la incertidumbre se han repetido tres veces el experimento, realizado tres tandas de medidas, hallando la media de los valores obtenidos para el análisis de resultados. La primera prueba consistió en exponer ambos paneles a la radiación solar anotando cada minuto los valores de tensión, intensidad y temperatura de las células. Todavía no se ha conectado la bomba de circulación de agua en el panel híbrido. Una vez alcanzada la temperatura máxima (64,3ºC), se le aplicó tensión a la bomba de circulación de agua del panel híbrido, anotando los valores de tensión, intensidad, temperatura de las células y temperatura del agua del recipiente, por cada grado centígrado decrementado. Análisis de resultados: A temperatura de 64,3ºC la potencia del panel de referencia (normal) se sitúa en 4,54 W, la intensidad de cortocircuito (ISC) es de 225 mA y la tensión de salida a circuito abierto (VCO) está en 20,18 Voltios. En el panel que hemos elegido como referencia, la caída de tensión es de aproximadamente 80 mV por cada grado incrementado. La corriente aumenta ligeramente a un ritmo de 0,7mA, por grado centígrado. El coeficiente de degradación en nuestro panel es de 0,65%. La temperatura del agua del recipiente se ha incrementando aproximadamente 0,5ºC por minuto. Al cabo de una hora la temperatura del agua en el recipiente alcanzó 54ºC. Al no haber renovación de agua en el recipiente, pasados 90 minutos la temperatura del agua se equilibra con la temperatura máxima, en nuestro caso 64,3ºC. Alcanzado este valor la eficiencia en el sistema fotovoltaico es similar al panel normal, sin embargo la potencia térmica está en su punto más alto. Temperatura de trabajo: Tt= 25+ (0,4x97)= 25+40= 65ºC Potencia de salida: Pt= 6- (6x0,006 x 40)= 4,56 W Durante el proceso de prueba la potencia eléctrica del panel de referencia alcanzada la temperatura de trabajo, permanece constante entregando la mínima potencia a 64,3ºC, mientras que el panel híbrido ha entregado un 26% más de potencia eléctrica y además ha calentado dos litros de agua a 54ºC. Fuente: http://www.portalsolar.com

20
0
Dvd-R Vs Dvd+R
Dvd-R Vs Dvd+R
InfoporAnónimo11/21/2008

Para los que no tienen muy en claro las diferencias: El DVD+R es un disco óptico grabable solo una vez. Este formato de disco DVD+R es lo mismo que el DVD-R pero creado por otra alianza de fabricantes. El DVD Forum creó los estándares oficiales DVD-ROM/R/RW/RAM. DVD Alliance creó los estándares DVD+R/RW para evitar pagar la licencia al DVD Forum. Dado que los discos DVD+R/RW no forman parte de los estándares oficiales, no muestran el logotipo DVD. Al día de hoy un 85% de los lectores y grabadores son compatibles con ambos formatos. Panasonic y el DVD Forum están detrás del DVD-RAM y los formatos DVD-R/RW, mientras que Philips y la DVD Alliance son responsables de la alternativa DVD+R/RW. DVD-R: Fue el primer formato en comercializarse (1997). Utiliza una tecnología de polímero con tinte orgánico, como el CD-R y es compatible con la mayoría de los lectores DVD de sobremesa, así como con las consolas PS-2 y X-BOX. Existen dos sub-versiones del formato, la versión "authoring" (para "profesionales" y la general; ambas usan láser de diferente longitud de onda y requieren discos distintos (DVD-R(A) vs. DVD-R(G)). La grabación en un DVD-RW necesita de un proceso de inicialización (formateo de todo el disco) y de uno de finalización (grabación del "lead-out", para que pueda ser leído por el lector de DVD); este proceso puede tardar hasta 30 minutos. DVD-RAM: Diseñado en principio únicamente para almacenar datos en ordenadores, tiene un control mejorado de errores y un acceso aleatorio más rápido. Sin embargo, es incompatible con la mayoría de unidades DVD-ROM y lectores de sobremesa. Es más, los discos DVD-RAM solían ir dentro de un cartucho especial que proporciona mayor protección al disco (los hay de dos tipos: el tipo 1 no permite sacar el disco de dentro y el tipo 2 permite quitar y poner el disco, para poder reproducirlo en otros lectores compatibles con el formato). Con las últimas generaciones, ya no se necesita cartucho y hay también discos de doble cara (9.4 GB de capacidad). DVD-RW: El DVD-RW fue desarrollado por Pioneer, basado en el formato DVD-R, pero con discos re-grabables múltiples veces. DVD+RW: Las unidades DVD+RW también escriben y leen CD-R y CD-RW. Los discos DVD son compatibles con la mayoría de lectores de sobremesa. La forma de grabar los datos es diferente respecto al DVD-RW, ya que en la grabación de un DVD+RW, no se necesita un "lead-in" (formateo) ni un "lead-out"; se empieza a grabar al instante (formatea simultáneamente con el proceso de grabación) y, se puede visualizar la grabación de forma inmediata. Además, las grabadoras DVD+RW permiten detener la grabación sin que se produzcan errores y reanudarla posteriormente, permitiendo seguir creando un disco que puede procesarse en los reproductores de DVD; esto elimina los errores de "Buffer Under-run". También es mayor la probabilidad de tener compatibilidad (lectura en unidades de sobremesa) para los discos DVD+RW que para los DVD-RW. Estas grabadoras, también permiten escribir datos en dos modos: CAV (Constant Angular Velocity, Velocidad Angular Constante): Más eficiente para grabación de datos o CLV (Constant linear Velocity, Velocidad Lineal Constante): Para mejorar el acceso secuencial (apto para discos DVD – Vídeo); las re-grabadoras DVD-RW sólo graban con CLV. Además, los discos DVD+RW pueden leerse en cualquier DVD-ROM, como si fueran una unidad de disco más del sistema operativo (formato "Mount Rainier", lo que no es posible con las DVD-RW. Las velocidades de grabación y lectura son superiores en las grabadoras DVD+RW, tanto con CD como con DVD. A cambio, los discos vírgenes +R y +RW son bastante más caros que sus equivalentes –R y –RW. DVD+R: El último formato introducido, durante el 2002, es una variación de "sólo lectura" del DVD+RW. Las recientemente aparecidas "Grabadoras duales" graban tanto +R / + RW como –R / -RW.

5
1
Fenómenos del clima
Fenómenos del clima
InfoporAnónimo11/18/2008

¿CÓMO SE FORMA LA NIEBLA? La niebla es otro de los fenómenos producidos por la condensación del vapor de agua atmosférico. En realidad, es una nube tan baja que toca el suelo. Tanto la niebla como la nube consisten, en esencia, como ya hemos detallado en el apartado correspondiente, en un conjunto de gotitas dispersas en el aire. Las diferencias existentes entre ambas formaciones son la altitud a la que cada una se origina, y que las nubes contienen cristalitos de hielo. La niebla, pues, está constituida por gotitas de agua tan microscópicas que flotan en el aire, reduciendo la visibilidad tanto cuanto más juntas están, o sea, cuanto más espesa es la misma. La niebla se forma al enfriarse el aire que está en contacto con la tierra o el mar. Al igual que las nubes, así que una masa de aire cálido y húmedo se enfría, alcanzando el punto de rocío, o sea la temperatura en que queda saturado, el exceso de vapor se condensa en gotitas de agua gracias a los núcleos de condensación. Existen dos maneras de que se enfríen esas masas de aire, lo cual origina dos tipos distintos de niebla: la niebla por convección o advección y la niebla por radiación. En la niebla por convección, la masa de aire se traslada de una superficie caliente hacia otra más fría, con lo que su temperatura disminuye. Las nieblas marinas se forman, generalmente, por este procedimiento, y aparecen cuando una masa de aire caliente y húmeda se encuentra o cruza una corriente fría. El aire sufre, entonces, un brusco enfriamiento, alcanzando el punto de rocío, y el vapor de agua que contiene se condensa sobre los núcleos de condensación, partículas de sal en este caso. La niebla tropical, que es el tipo más corriente en alta mar, se origina por un enfriamiento progresivo del aire húmedo procedente de los trópicos, a medida que avanza hacia latitudes menos calurosas. Por su parte, la niebla por radiación se forma sobre tierra firme, al enfriarse ésta por la noche, principalmente en las noches claras y serenas, al no haber nubes que actúen como capa aislante. Al perder la tierra parte de su calor por radiación, se enfría muy rápidamente, haciendo lo mismo las capas inferiores de aire que están en contacto con su superficie. De esta manera, si no sopla viento, la masa de aire enfriada queda "encerrada" o "atrapada", pues l aire más cálido que se encuentra encima impide su ascensión. Si la masa de aire atrapada contiene vapor de agua suficiente, se origina la niebla. Con la formación de la niebla se produce el fenómeno llamado inversión de la temperatura. La temperatura de la atmósfera, en sus capas inferiores, disminuye con la altitud, pero cuando se enfría la superficie terrestre se produce una perturbación en la distribución de temperaturas. En este caso, la temperatura aumenta con la altura hasta un determinado punto, en que comienza a descender y sigue la escala normal. A cierta altura, pues, tiene lugar la inversión de la temperatura. Las nieblas siempre se forman por debajo del nivel de la inversión de la temperatura. Un factor primordial para que se forme la niebla por radiación consiste en que el aire ha de estar estancado, prácticamente en calma, pues un poco de brisa es suficiente para disipar el aire encerrado bajo la capa de inversión, haciendo que se mezcle con el más caliente de las zonas superiores. En cuanto a la llamada niebla de montaña, casi siempre es una nube baja en contacto con montañas altas. En otros casos, este tipo de niebla se forma en las laderas de los montes que dan al mar, al enfriarse el aire más caliente procedente del mismo. ¿QUÉ CARACTERÍSTICAS PARTICULARES PRESENTA LA NIEBLA EN EL MAR? De todo es conocido que la niebla, en el mar, es una de las causas principales de siniestros. Por lo tanto, interesa a todos los navegantes contribuir a su estudio, verificando sistemáticamente la observación de las que encuentren y comunicando los resultados a algunos de los servicios meteorológicos que han establecido para ello organizaciones y dictado normas especiales. Los datos más útiles son los referentes a los momentos de penetrar en la niebla y salir de ella, precisándose para cada uno la hora, la situación exacta, la intensidad y las temperaturas del aire del mar. Observaciones intermedias ayudan a concretar la importancia y las causas de la condensación. La niebla requiere, para formarse, humedades altas, de más del 90 %, aun cuando se observan algunas con grados higrométricos mucho menores. Favorecen su aparición las calmas y los vientos flojos, siendo, por el contrario, casi incompatibles con los algo fuertes. En el mar el origen de la niebla es casi siempre la diferencia de temperatura entre el aire y el agua superficial; cuando las circunstancias son propicias, basta una variación de dos o tres grados en la temperatura del aire para que la niebla se forme o se disipe. Las nieblas marinas aparecen principalmente en verano y las terrestres en invierno, si se prescinde de las nieblas de montaña debidas a la convección. Algunas veces, la causa, aun en el mar, reside en la atmósfera, y entonces las condiciones de aparición son las mismas que en tierra; tal acontece con las condensaciones que acompañan a los frentes de las depresiones. Otras veces se forman en los bordes de las corrientes marinas, donde la intervención del aire en el fenómeno es parecida a la que da lugar a las nieblas costeras. A igual que la niebla tropical, el paso de masas de aire caliente sobre aguas frías es, de todos los hechos que intervienen en la formación de la niebla marina, el más frecuente y el que origina condensaciones más persistentes. Un ejemplo de ello es lo que se observa en el banco de Terranova (Canadá), donde, desde abril hasta agosto, el aire que ha sido calentado por la corriente del Golfo entra en contacto con las aguas frías del Labrador. La temperatura de las capas atmosféricas más bajas desciende entonces hasta más abajo del punto de rocío, adquiriendo una gran estabilidad y llenándose de niebla densa, muy peligrosa debido a lo frecuentado de la zona por las flotas pesqueras de todo el mundo. ¿QUÉ ES EL FENÓMENO DE LA "MAR HUMEANTE"? Existe un fenómeno inverso al descrito, el cual tiene lugar cuando una masa de aire frío se sitúa sobre aguas tibias o más calientes. La capa atmosférica más baja, en contacto con la superficie líquida, se calienta y se satura, dando lugar a una inestabilidad particular en virtud de la cual se engendran en el seno del aire pequeñas corrientes de convección, y cada una de éstas se traduce en una bocanada de niebla que se eleva y disipa rápidamente, produciendo el conjunto de ellas el vistoso fenómeno del "mar humeante". Las nieblas o brumas de esta naturaleza son típicas de las costas del océano glacial, especialmente en verano en las costas occidentales de Noruega. Al principio del invierno aparecen en algunas costas de los países templados cuando las brisas terrales matutinas procedentes de planicies o valles muy fríos desembocan sobre el agua del mar, que entonces posee todavía una temperatura 10° ó 12° más elevada que la del aire. Se encuentra, por ejemplo, en algunas calas de la Costa Brava, entre la punta de Tordera y la frontera francesa, durante las madrugadas calmosas y serenas de diciembre y principios de enero. Estos tipos de nieblas también son las que se encuentran, al anochecer, en los valles de los ríos, en los pantanos y en los prados húmedos así que la temperatura del aire llega a ser inferior a la del agua. Finalmente, pertenecen a esta categoría de brumas las nieblas heladas que se forman en los fiordos escandinavos cuando desde el interior de las tierras sopla un viento frío sobre las aguas calientes de la superficie de los fiordos, siendo tanto más espesas cuanto mayor es la diferencia entre la temperatura del aire y la de la superficie del mar. La niebla, pues, es un impedimento gravísimo para las comunicaciones terrestres, marítimas y aéreas. El empleo de los nuevos sistemas (lámparas de yodo, radar, etc.) sólo lo reduce parcialmente. En marina se concede gran valor al uso constante de la sonda para recalar en la costa cuando ésta se halla invadida por la niebla. Al recalar en la costa con cerrazón de niebla no confían jamás en la certeza de oír una señal de niebla. Por regla general, los buques-faro no dan señales de niebla antes de que la visibilidad se reduzca a menos de tres a cinco millas. La niebla también es muy perjudicial para la salud, pues da lugar a la formación del temido smog. ¿LA ESCARCHA Y LA HELADA SON EL MISMO FENÓMENO? Contra la opinión generalizada, la escarcha no es el rocío que se hiela, sino que es un fenómeno independiente. Cuando la condensación del vapor de agua se produce a una temperatura inferior a 0° C., en las condiciones estipuladas para el rocío, se precipita sobre los vegetales y objetos malos conductores del calor en forma de cristalitos de hielo, ya sea como agujas, plumas, escamas, etc. La escarcha es, pues, un hielo que proviene directamente del vapor atmosférico sin pasar por el estado líquido. De ahí que este fenómeno también se le conozca por el nombre de helada. ¿POR QUÉ SE DICE QUE LA CENCELLADA ES BUENA PARA EL CAMPO? Existe un fenómeno muy parecido a la escarcha que recibe el nombre de cencellada. Acostumbra a producirse en días nublados, cuando una nube baja o una niebla muy húmeda, con temperatura inferior a los 0° C., contiene gotitas de agua en estado de subfusión, las cuales pueden conservarse en estado líquido hasta temperaturas de 6° C. bajo cero. Si esa nube o niebla encuentra algún objeto en su camino, ya sea árboles, paredes rocosas (principalmente verticales), etc., las gotitas se adhieren a ellos, congelándose instantáneamente, formando cristales de hielo duro que crecen cara al viento y que, algunas veces. llegan a alcanzar varios centímetros de longitud. Esta precipitación es muy rica en nitrógeno, por lo que resulta beneficiosa para el campo. Fuente: http://www.infoclima.com

10
0
P
Publicidad de Afeitadora
HumorporAnónimo12/24/2009

08:00 a.m. ----------------------------------------------------------------------------------- 08:05 a.m. 08:00 a.m. ----------------------------------------------------------------------------------- 08:05 a.m. 08:00 a.m. ----------------------------------------------------------------------------------- 08:05 a.m.

0
0
PosteameloArchivo Histórico de Taringa! (2004-2017). Preservando la inteligencia colectiva de la internet hispanohablante.

CONTACTO

18 de Septiembre 455, Casilla 52

Chillán, Región de Ñuble, Chile

Solo correo postal

© 2026 Posteamelo.com. No afiliado con Taringa! ni sus sucesores.

Contenido preservado con fines históricos y culturales.