lorenhey
Usuario (Argentina)
Ir a la primera parte http://www.taringa.net/posts/ciencia-educacion/13985040/Megapost_-Energias-alternativas_-Energia-eolica_-Parte-1_.html Ir a la segunda parte http://www.taringa.net/posts/ciencia-educacion/13987031/Megapost_-Energias-alternativas_-Energia-eolica_-Parte-2_.html Ir a la tercera parte http://www.taringa.net/posts/ciencia-educacion/14293566/Megapost_-Energias-alternativas_-Energia-eolica_-Parte-3_.html APROVECHAMIENTO DE LA ENERGÍA EÓLICA 3.1. Formas de utilización antiguas. Evolución histórica. La eólica es una fuente de energía que viene utilizándose de distintas formas desde A.C. Los más importantes aprovechamientos en la antigüedad fueron: la utilización de la fuerza del viento para la navegación a vela, para la molienda de granos y para el bombeo de agua. Actualmente, siguen realizándose dichos tipos de aprovechamiento, a los que se agregó la producción de energía eléctrica. En todos los casos, la tecnología fue evolucionando y lo sigue haciendo. Para la navegación, se aprovecha la energía cinética contenida en el viento, que incide sobre las velas produciendo el empuje necesario para lograr el desplazamiento de la embarcación; para el bombeo de agua, el viento incide sobre un rotor al que hace girar y luego, mediante un mecanismo, produce el movimiento de un émbolo que hace ascender el agua; para la producción de energía eléctrica, el viento también incide en un rotor al que hace girar y luego su eje es acoplado en forma directa o indirecta (utilizando una caja multiplicadora) a un generador de electricidad. En estos post, abordo principalmente el aprovechamiento del recurso energético eólico para la producción de energía eléctrica, analizando la evolución tecnológica producida en los últimos años. 3.2. Aerogeneradores. 3.2.1. Definición. Componentes básicos. 3.2.1.1. Definición. Un aerogenerador es un sistema de conversión de energía eólica en energía eléctrica. Consiste básicamente en un rotor que gira por la acción del viento y que luego, acoplado en forma directa o indirecta a un generador, produce energía eléctrica. Posee asimismo, otros componentes que pasaremos a describir y analizar. A los aerogeneradores se los denomina también, turbinas eólicas, molinos de viento o aeroturbinas. A un conjunto de aerogeneradores dispuestos en una zona y conectados todos a una misma red eléctrica, se lo denomina parque eólico, o granja eólica. 3.2.1.2. Componentes básicos. Los componentes de un aerogenerador son (Figura 3-1): - Rotores y palas. - Sistemas de transmisión. - Sistemas de orientación. - Generadores eléctricos. - Sistemas de regulación. - Estructuras de sostén (torre, tensores y fundación). - Sistemas de transformación, conversión, transmisión y distribución eléctrica. Figura 3-1: Vistas de Aerogeneradores. Arriba, de eje vertical. Abajo, de eje horizontal. 3.2.2. Rotores y palas (Principios de diseño. Bases para el dimensionamiento). a) Introducción. El rotor es el elemento esencial de una máquina eólica, y su misión es transformar la energía cinética del viento en energía mecánica. A lo largo de la historia, los rotores eólicos han evolucionado considerablemente, desde los rudimentarios sistemas de madera y tela, que se utilizaban en la antigüedad, hasta las modernas alas aerodinámicas, de acero y plástico, de las turbinas actuales (Figuras 3-2 y 3-3). Figura 3-2: Evolución de los molinos de viento. Figura 3-3: Evolución de las palas de los rotores. Los problemas técnicos de los rotores y de las palas que los componen, están estrechamente vinculados a su tamaño. Es evidente que cuanto mayores sean las potencias generadas por una misma máquina, menores son los costos de la energía que produce, y el interés por obtener una energía lo más barata posible ha marcado la tendencia hacia turbinas de gran potencia. Sin embargo, grandes potencias requieren rotores de gran tamaño, y con el tamaño se multiplican los problemas técnicos. En el pasado, la principal limitación de los grandes rotores venía impuesta por la dificultad de orientarlos en la dirección del viento. En la actualidad, la limitación es de tipo estructural; los elevados esfuerzos que se producen en los elementos resistentes de las palas crecen con la longitud, imponiendo serias limitaciones constructivas. Los mayores rotores que se han construido hasta el momento alcanzan diámetros de 150 m y se encuentran próximos al límite tecnológico. La necesidad de reducir los costos de la energía, para poder competir con las plantas generadoras de tipo convencional, ha sido la causa de que en los últimos años se haya dedicado un considerable esfuerzo al desarrollo de aerogeneradores de gran potencia. Otro aspecto de las posibilidades de aprovechamiento de la energía eólica lo constituyen las pequeñas aeroturbinas de baja potencia, dirigidas a usos agrícolas y a aplicaciones domésticas localizadas en zonas aisladas, donde el suministro de electricidad desde los centros de producción resulta difícil y costoso. El objetivo de diseño de estas pequeñas máquinas ya no es tanto el obtener una energía barata, sino ser capaces de adaptarse a diferentes tipos de necesidades y con un mantenimiento mínimo, dada la dificultad para proporcionar asistencia técnica en zonas rurales. En este tipo de aerogeneradores el rotor no representa especiales problemas, y los problemas de diseño residen en conseguir sencillez y eficacia en cada uno de los elementos que componen la máquina y un buen acoplamiento entre ellos (Figuras 3-4y 3-5). Figura 3-4: Vista de Aerogeneradores de pequeña potencia Industria Argentina. Figura 3-5: Vista de un aerogenerador de pequeña potencia de fabricación alemana. b) Clasificación de las turbinas. En función de la potencia, las turbinas pueden clasificarse, sin que ello sea una diferenciación de carácter estricto, sino más bien con el sentido de establecer un orden de magnitud, en: De pequeña potencia, hasta 50 kw. De mediana potencia, desde 50 a 250 kw. De gran potencia, superiores a 250 kw. En función de la disposición del eje: De eje horizontal: A este grupo pertenece la gran familia de las hélices, que son los rotores más extendidos, y los que presentan mejores cualidades aerodinámicas. De eje vertical: Son más sencillos de diseño, lo que les proporciona ciertas ventajas de tipo mecánico. Los molinos de viento más antiguos que se conocen eran de este tipo. En general, existen rotores de alta eficiencia tanto en el grupo de los de eje horizontal como en los de eje vertical. En ambos casos, el rendimiento aerodinámico se corresponde con la velocidad de funcionamiento. Los rotores rápidos, las hélices de bajo número de palas y los Darrieus, tienen rendimientos muy superiores a los lentos, los multipalas y los Savonius (Figura 3-6). Figura 3-6: Tipos de turbinas. Mitad derecha, de eje horizontal; mitad izquierda, de eje vertical. c) Principios de aerodinámica. Hasta el siglo XIX, las palas de los molinos de viento se diseñaban en base a unos conocimientos empíricos casi de tipo artesanal, que se habían ido acumulando a lo largo del tiempo. Hubo que esperar hasta las primeras décadas del siglo XX para poder disponer de una teoría aerodinámica que permitiera comprender el comportamiento de las palas cuando se encuentran sometidas al empuje del viento. Hoy en día, se tienen los conocimientos suficientes y los métodos de cálculo necesarios para determinar con precisión la forma que adopta la corriente de aire al atravesar la pala, cómo se distribuyen las presiones sobre su superficie y cuáles son las fuerzas aerodinámicas resultantes. En el caso del ala de un avión que se mueve horizontalmente en una atmósfera estable, la velocidad del viento incidente es, a efectos prácticos, la propia velocidad del avión, y las fuerzas aerodinámicas que se producen sobre un segmento de longitud unitaria del ala se pueden descomponer en una fuerza vertical de sustentación, que mantiene el avión en el aire, y en otra fuerza de resistencia en la dirección de avance, que tiene que vencer el empuje de los motores para mantener la velocidad (Figura 3-7 ). Figura 3-7: Fuerzas aerodinámicas y distribución de presiones sobre un perfil aerodinámico, producidas por una corriente incidente. 1. Aerodinámica de las turbinas de eje horizontal. En el caso de las palas de un rotor eólico, las fuerzas aerodinámicas se generan de forma similar a las del ala del avión, pero con la complicación adicional de que a la velocidad del viento habrá que sumarle la velocidad que se produce a causa de la rotación de la pala. Esta velocidad debida a la rotación, será mayor a medida que nos alejamos del eje y, en consecuencia, la velocidad de la corriente incidente crecerá con la distancia de cada segmento de pala al eje del rotor, y su ángulo de incidencia será diferente en cada uno de ellos (Figura 3-9). Las fuerzas aerodinámicas variarán en función de la velocidad de la corriente incidente, por lo que también aumentarán con la distancia al eje. La fuerza resultante que se produce sobre cada segmento de pala se descompone aquí en una fuerza T, dirigida en la dirección de rotación, que es la que produce el par motor, y en otra fuerza E, que se traduce en un empuje inútil sobre el eje del rotor. Figura 3-9: Arriba, distribución de velocidades sobre una pala de un rotor eólico de eje horizontal que gira impulsado por el viento; abajo, composición de velocidades que inciden sobre un segmento de pala y de las fuerzas aerodinámicas que se generan sobre ella. Si queremos que cada segmento trabaje con un ángulo de ataque óptimo que haga máxima la fuerza motriz T, tendremos que diseñar la pala con diferente ángulo en cada segmento, para compensar la variación en el ángulo de incidencia de la corriente. Esto es la causa de que frecuentemente las palas se construyan con torsión. Sin embargo, a veces es preferible diseñar la pala sin variar el ángulo de cada segmento, para evitar las dificultades de fabricación de una pala con torsión, a pesar de que el rendimiento aerodinámico disminuye (Figura 3-10). Figura 3-10: Angulos de posición de diferentes segmentos de una pala con torsión (a) y sin torsión (b). Por otra parte, una pala diseñada para obtener el mayor rendimiento posible a una determinada velocidad de viento no trabaja en las mismas condiciones óptimas cuando la velocidad del viento es diferente o cuando varía la velocidad de giro del rotor, puesto que varía el ángulo de incidencia de la corriente. En el caso de los rotores de hélice, la solución a este nuevo problema es girar toda la pala para adaptar el ángulo de ataque a las nuevas condiciones de la corriente, en un intento de seguir operando con los Cl y Cd óptimos de diseño. Las palas con posibilidad de variar su ángulo de calaje se denominan de paso variable, y las que operan siempre con el mismo, cualesquiera que sean las condiciones del viento, de paso fijo. Estas últimas tienen un rendimiento aerodinámico inferior para condiciones de viento distintas de las de diseño, pero no requieren mecanismos de variación de paso. 2. Aerodinámica de las turbinas rápidas de eje vertical. En el caso de estos rotores, la velocidad incidente no sólo varía en cada segmento de la pala, sino también a lo largo de la trayectoria de rotación, es decir, que el ángulo y la intensidad de la corriente dependen de la posición que tenga la pala en ese momento (Figura 3-11). Figura 3-11: Composición de velocidades que inciden sobre las palas de un rotor Darrieus, que gira sobre su eje horizontal. Esta nueva complicación trae como consecuencia que las fuerzas aerodinámicas, además de ser diferentes en cada uno de los segmentos de la pala, varían ahora cíclicamente durante la rotación, generando un par motor irregular (Figura 3-12). Figura 3-12: Composición de velocidades que inciden sobre un segmento de pala de un rotor Darrieus y de las fuerzas aerodinámicas que se generan, siendo F =fuerza aerodinámica, T = fuerza motriz, E = empuje aerodinámico, v = velocidad del viento, U = velocidad de rotación, V = velocidad de la corriente incidente. Este inconveniente se puede subsanar con un rotor de mayor número de palas que compensen las variaciones cíclicas, o bien incrementando la velocidad de giro, de forma que la influencia de la velocidad del viento sea menor a la hora de componer el triángulo de velocidades para obtener la resultante incidente. De hecho, los rotores Darrieus funcionan mejor a elevadas velocidades de giro, no sólo debido a la regularización de su par motor, sino también a la mejora considerable de su rendimiento aerodinámico (Figura 3-13). Figura 3-13: Variación del ángulo de ataque de la velocidad que incide sobre un segmento de pala de un rotor Darrieus en función de la posición angular en que se encuentra en un instante dado, para diferentes velocidades típicas. Se observa que para velocidades de rotación mayores, los márgenes de variación del ángulo de ataque en función de la posición de la pala, son cada vez menores. En consecuencia, las fuerzas aerodinámicas, y en especial el empuje, sufren una variación menor a lo largo de la rotación, y el régimen de funcionamiento se hace más regular. 3. Aerodinámica de las turbinas lentas de eje vertical. Entre los distintos tipos de eje vertical, existen unos que funcionan con un principio aerodinámico diferente, utilizando las fuerzas de resistencia aerodinámica en vez de las de sustentación. Estos rotores consiguen que la fuerza de resistencia en uno de sus lados sea superior a la del lado opuesto, generando de esta forma un par motor. Este sistema se utilizó en algunos molinos antiguos. En el molino persa se dirige el viento sobre un lado del rotor mediante una pared que actúa como una tobera. En la actualidad se sigue fabricando el rotor Savonius, que funciona de forma parecida, aunque en este caso es la pala, de sección semicircular, la que consigue que la resistencia sea mayor en el lado que se mueve a favor del viento (Figura 3-14). La geometría de las palas favorece la formación de torbellinos en ese lado, y ellos generan una zona de alta presión que presenta una mayor resistencia a la corriente de aire. En general, este tipo de rotores funciona con rendimientos bajos, pero su diseño es muy sencillo y son fáciles de construir. Figura 3-14: Comportamiento de las líneas de corriente que atraviesan un rotor savonius, que gira impulsado por el viento. d) Parámetros característicos de los rotores. Existe gran variedad de rotores diferentes, aunque muchos de ellos pertenecen ya a un pasado en el que la ciencia y la técnica no ofrecían demasiadas posibilidades, y otros sólo se desarrollaron con carácter experimental, siendo rápidamente relegados al olvido. En cualquier caso, la mayoría presenta ventajas e inconvenientes que no siempre son fáciles de evaluar. Las características generales de un rotor se definen por los parámetros siguientes: solidez, velocidad típica y rendimiento aerodinámico. a) Solidez La solidez se define como la relación entre la superficie proyectada por las palas y la superficie descrita por las mismas en su movimiento de rotación. Es un parámetro que permite comparar diferentes tipos de rotores desde el punto de vista de la eficacia del material utilizado, y de la sencillez constructiva. Los molinos antiguos y en general todos los que utilizan las fuerzas de resistencia para generar el par motor funcionan con solideces bastante elevadas, próximas a 1, mientras que las modernas aeroturbinas de alta velocidad trabajan con solideces de 0.1, e incluso de 0.01 (Figuras 3-15 y 3-16). Figura 3-15: Representación gráfica de la solidez. Figura 3-16: Trayectoria que sigue la corriente al pasar por el rotor, para distintas solideces. b) Velocidad típica La velocidad típica se define como la relación entre la velocidad debida a la rotación en el extremo más alejado de la pala y la velocidad del viento. Es un parámetro adimensional que permite clasificar los rotores en lentos o rápidos. Un rotor de gran diámetro puede tener la misma velocidad típica, aunque gire a bajo número de revoluciones por minuto, que otro de menor diámetro y mayor velocidad de rotación. Los rotores rápidos funcionan con velocidades típicas de 5 a 8, mientras que los lentos operan con velocidades en punta de pala parecidas a la del viento (Fig. 3-17). Figura 3-17: Variación de la solidez de diferentes rotores en función de las velocidades típicas. c) Rendimiento aerodinámico El rendimiento aerodinámico, o coeficiente de potencia, expresa la parte de la energía contenida en el viento que se transforma en energía mecánica en el eje del rotor. Teóricamente, se puede demostrar que el rendimiento depende de la velocidad típica como parámetro fundamental, una vez dadas las características generales del sistema eólico. La velocidad típica hace referencia a la velocidad del aire que incide sobre la pala incluyendo la participación del viento y la de la rotación de la propia pala. Las características geométricas tipo de perfil, ángulo de torsión, y el mismo sistema eólico son los demás parámetros de los que depende el rendimiento aerodinámico. El teorema de Betz expresa de forma sencilla que bajo condiciones ideales el rendimiento aerodinámico de los rotores eólicos tiene un máximo teórico que en ningún caso puede superar el 60 por 100. En la realidad dicho rendimiento oscila entre el 20 y el 45 por 100 según los tipos de turbinas y en función de la velocidad típica de operación (Figura 3-18). En la figura se representa el rendimiento aerodinámico en función de la velocidad típica, para los sistemas eólicos de uso más corriente. Figura 3-18: Rendimiento aerodinámico o coeficiente de potencia de los rotores, en función de la velocidad típica. 1. Rendimiento aerodinámico en turbinas rápidas de eje horizontal. Los mayores rendimientos aerodinámicos corresponden a rotores de eje horizontal que funcionan con velocidades típicas elevadas. El inconveniente de los rotores rápidos es que tienen poca capacidad para arrancar por sí solos. En situación de parada el rendimiento es tan bajo que apenas se genera la potencia suficiente para vencer la inercia y entrar en funcionamiento. En general, en cualquier condición de operación distinta de la de diseño su rendimiento disminuye mucho (Figura 3-18). El problema del arranque se suele solucionar en las grandes máquinas con motores auxiliares, o con el sistema de paso variable, que adapta el ángulo de calaje de las palas a las condiciones de operación de cada momento, de forma que en cualquier caso se obtengan potencias adecuadas. Este sistema de paso variable no sólo permite ajustar el ángulo de ataque de las palas a la hora de realizar las operaciones de arranque, sino que también sirve para evitar que el rotor se acelere excesivamente con vientos demasiado fuertes. Hay tipos de turbinas para generación de electricidad que requieren para su funcionamiento un régimen de vueltas casi constante. En este caso, cualquier perturbación de la velocidad de viento para la que se ha diseñado la máquina irá seguida de una variación en el paso de las palas, para que, aumentando o disminuyendo el ángulo de ataque, podamos adaptar la potencia absorbida a las condiciones normales de operación. En los sistemas con régimen de vueltas fijo, la potencia del viento que excede a la de diseño se desperdicia, disminuyendo la ganancia total de energía de la máquina, a costa de una potencia de salida más regular. Por el contrario, en los sistemas de vueltas variables, una vez sobrepasada la velocidad de régimen para velocidades de viento superiores a la de diseño, el ángulo de calaje de las palas varía, intentando optimizar el rendimiento para esa nueva condición de operación. En este caso, la curva real de potencia intentará seguir a la teórica, incrementándose la velocidad de giro del rotor y la potencia extraída. Los sistemas de vueltas variables se utilizan generalmente en aplicaciones de bombeo, de almacenamiento en baterías, de calefacción, o más precisamente en todos aquellos casos en los que las fluctuaciones en la potencia de salida no tengan demasiada importancia. Sin embargo, existen hoy grandes aerogeneradores de vueltas variables, que tienen el generador directamente acoplado al rotor; en este caso, los generadores son del tipo sincrónicos, multipolos, con un número de revoluciones variable entre unas 10 y 60 rpm. La energía producida es de frecuencia variable, por lo que debe convertirse mediante un conversor de frecuencia, a la frecuencia y voltaje de la red. 2. Rendimiento aerodinámico en turbinas de eje vertical tipo Darrieus. Los rotores tipo Darrieus presentan también buenas características de rendimiento aerodinámico, aunque algo inferiores a las de las hélices (Figura 3-18). Su curva de potencia tiene una dependencia muy acusada de la velocidad típica, lo que significa que su rendimiento baja mucho para condiciones de operación distintas de las de diseño. Esto favorece la regulación, puesto que al disminuir el rendimiento para velocidades de viento elevadas la potencia no crece demasiado y el esfuerzo necesario para frenarlo es menor. Sin embargo, también tiene el inconveniente de que su par de arranque es muy bajo, por lo que requiere de motores auxiliares para ponerlo en funcionamiento, ya que en este caso no es posible el sistema de paso variable. 3. Rendimiento aerodinámico en turbinas de baja velocidad. Los rotores lentos tienen rendimientos muy inferiores a los de las hélices rápidas o a los de los Darrieus, pero en cambio presentan mejores cualidades para arrancar por sí solos y pueden operar con vientos de baja velocidad (Figuras 3-18 y 3-19). Son más sencillos de construcción y muy adecuados para aplicaciones de bombeo o de molienda. Figura 3-19: Evolución del par de arranque para diferentes tipos de rotores, en función de la velocidad típica de diseño. En general, todos los molinos antiguos pertenecen a este grupo, y hoy todavía se sigue construyendo algún tipo de rotor lento dado que son muy idóneos para el riego en zonas aisladas. e) Número de palas. La elección sobre el número de palas más adecuado para un rotor eólico ha sido, a lo largo de la historia del molino de viento, un problema de difícil solución, y a ello se debe que se intentaran todo tipo de posibilidades. Aunque a partir del siglo XVIII ya se tenía cierta idea de la inutilidad de un elevado número de palas, hasta el siglo XX, en que se desarrolla la teoría aerodinámica, no es posible evaluar en qué medida varia el rendimiento aerodinámico de un rotor cuando tiene diferente número de palas (Figura 3-20). Figura 3-20: Evolución del rendimiento aerodinámico del rotor para diferentes números de palas, en función de la velocidad típica. A partir de tres palas el rendimiento varía poco, especialmente cuando se trata de rotores rápidos. En los grandes aerogeneradores actuales, en los que el rotor puede suponer cerca del 40 por 100 del costo total de la máquina, se adopta en general la solución de tres palas, aunque en algunos casos se adoptan rotores de dos palas, puesto que el incremento de potencia que se obtiene con una tercera pala no compensa el costo adicional. En las turbinas pequeñas las tres palas es la solución más generalizada, ya que el coste de las palas es menos importante y no sólo se mejora algo el rendimiento sino que se facilita el balanceo del rotor, reduciendo los problemas de vibraciones, que suelen ser la causa de los fallos estructurales. Asimismo, un rotor de tres palas tiene el mismo momento de inercia en cualquier eje del plano del rotor, lo que reduce las vibraciones. Estas conclusiones son válidas para los rotores Darrieus e incluso para los Savonius, aunque en ellos los problemas de balanceo son menos graves que en las hélices. f) Dimensiones y forma. El tamaño de rotor depende básicamente de la potencia de diseño de la máquina, y en su determinación hay que tener en cuenta dos factores: - El contenido medio de energía del viento en el lugar del emplazamiento, que habrá que estimar en función de la información meteorológica disponible, y - Los rendimientos de la turbina: El rendimiento aerodinámico del rotor, el rendimiento mecánico de los engranajes y multiplicadoras, el rendimiento eléctrico del generador y circuitos de salida, y finalmente el rendimiento del sistema de almacenamiento. Si tenemos en cuenta que la velocidad de la corriente incidente es mayor en la parte de la pala más alejada del eje y, por tanto, las fuerzas aerodinámicas son también mayores en esa zona, se comprende que la potencia crece rápidamente a medida que aumentamos la longitud de la pala. En cualquier caso, los problemas técnicos también crecen muy rápidamente con la longitud de las palas (Figuras 3-21 y 3-22 ). Figura 3-21: Dimensiones típicas para rotores de eje horizontal en función de la potencia que se desea obtener. Figura 3-22: Dimensiones típicas para rotores de eje vertical tipo Darrieus en función de la potencia que se desea obtener. g) Materiales y métodos constructivos. En los últimos años se han ensayado todo tipo de materiales, desde la madera pasando por gran variedad de aleaciones metálicas, y en especial las resinas plásticas polimerizables, que han dado muy buen resultado y reducido los costos de la pala de forma considerable. La madera ha sido muy empleada en el pasado y sigue utilizándose en la actualidad. Sus propiedades mecánicas varían mucho según la clase y su tratamiento, sin embargo, suelen ser menos resistentes que otros materiales disponibles y sólo su bajo peso y sus buenas características frente a fenómenos de fatiga justifican su utilización. En general, tanto el material como los métodos de trabajo que requieren suelen ser caros. Entre los metales, los materiales más comunes, son los aceros, y los aluminios. El acero tiene muy buenas propiedades resistentes, pero es demasiado pesado. Al aluminio, en cambio, le pasa lo contrario, salvo en el caso del duraluminio que resulta excesivamente caro. En cuanto a sus características frente a los fenómenos de fatiga, en general, los metales presentan peores propiedades que el resto de los materiales. Los metales se pueden utilizar en forma de chapa conformada por estampado, en forma maciza mediante métodos de moldeo o en forma estructural. La primera solución resulta sencilla y económica, pero sólo es apta para palas de pequeña longitud (2 ó 3 m). La segunda resulta cara y demasiado pesada. La tercera solución es, probablemente, la más eficaz. Por regla general, la solución más utilizada es la de emplear elementos metálicos como estructura resistente, con una cubierta de algún material ligero. Las resinas plásticas reforzadas con fibras vegetales o minerales constituyen posiblemente los materiales más idóneos para la fabricación de palas. Son ligeros, resistentes, con buenas características frente a fenómenos de fatiga e inalterables ante la agresión del medio ambiente. En palas de gran tamaño con exigencias estructurales muy estrictas, las resinas epoxi con refuerzo de fibra de vidrio o de carbono son las que presentan mejores propiedades de resistencia y rigidez. Para palas con menores requerimientos, las resinas de poliéster con fibra de vidrio dan muy buenos resultados y son mucho más baratas. Las palas fabricadas en materiales plásticos suelen llevar unos elementos estructurales, una cubierta que da la forma aerodinámica y un relleno de un material ligero que puede ser espuma de poliuretano, o panel de abeja. El mayor inconveniente de los materiales plásticos es que son demasiado elásticos y se deforman con facilidad. Para evitar este problema hay que recurrir a añadir elementos rigidizantes, bien incorporándolos a las resinas para cambiar el polímero final, o bien como elemento estructural. Para mejorar las propiedades mecánicas se suele aplicar la fibra de refuerzo en forma de bobinado a lo largo de toda la pala (Figuras 3-24). Figura 3-24: Arriba, una posible solución constructiva para una pala de grandes dimensiones; la estructura se rigidiza mediante cuadernas. Abajo, diferentes soluciones constructivas para la fabricación de palas. 3.2.3. Sistemas de transmisión. La energía mecánica obtenida en el rotor debe ser transmitida al generador mediante un sistema de acoplamiento, que generalmente consta de una multiplicadora y además, en el caso de aerogeneradores de gran potencia, de un embrague. Tanto las dínamos como los alternadores requieren un elevado número de revoluciones para funcionar eficazmente, por lo que la mayoría de los aerogeneradores deben de ir provistos de una multiplicadora que eleve las vueltas del rotor. Un caso especial lo constituyen los que se utilizan para bombeo, o los que disponen de generadores sincrónicos multipolos, en los que el generador trabaja acoplado directamente al rotor. En los molinos antiguos este problema no existía, puesto que para mover una rueda, o impulsar una bomba no se requerían grandes velocidades de giro, sino más bien al contrario; sin embargo, el problema del sistema de transmisión consistía en cambiar la dirección del eje motor desde la posición horizontal del rotor a la vertical en la que se situaban las muelas. Este problema debió ser crítico para las rudimentarias tecnologías de la época y posiblemente la causa de que los primeros molinos de viento fueran de eje vertical. Más tarde el cambio de dirección y a la vez la desmultiplicación se realizaba mediante un gran engranaje de madera, conocido como la “rueda catalina”, en los molinos ibéricos, que se alojaba en la cúpula de las torres. Existen diferentes tipos de multiplicadoras que se pueden encontrar fácilmente comercializados. Para máquinas de baja potencia las poleas dentadas o incluso las trapezoidales, pueden ser una solución adecuada, de funcionamiento silencioso y capaz de absorber vibraciones. Las multipli-cadoras de engranajes deben de ir provistas de cajas blindadas para protegerlos del medio ambiente y con sistemas de lubricación de bajo mantenimiento (Figura 3-25). Figura 3-25: Mecanismos de multiplicación, mediante poleas dentadas o mediante engranajes. Se han desarrollado también cierto tipo de rotores especiales que evitan la necesidad de utilizar multiplicadora. La compañía francesa Morel diseñó un sistema de acoplamiento directo que consiste en tomar el par motor en la periferia del rotor en vez de hacerlo en el eje. Otro método, empleado por la compañía suiza Noah, lleva un rotor de doble hélice en el que cada una de ellas gira en sentido contrario. El inducido del generador se acopla a una de ellas y la excitación a la otra. Las aeroturbinas de gran potencia suelen ir provistas de un embrague que conecta el generador cuando el rotor alcanza la velocidad de régimen. Otra función que cumplen los sistemas de transmisión, por regla general mediante algún tipo de acoplamiento hidráulico, es amortiguar las pequeñas fluctuaciones de potencia que se producen en el rotor debido a ráfagas, o al efecto sombra de la torre en caso de estar situados a sotavento. 3.2.4. Sistemas de orientación. Los rotores de eje horizontal necesitan de algún sistema que los oriente en la dirección del viento, de forma que en condiciones de operación siempre se encuentren en un plano perpendicular a él. En el pasado, la orientación de los molinos se realizaba manualmente y con bastantes dificultades, siendo casi el condicionante más crítico, que limitaba el tamaño y la potencia de las máquinas eólicas. Durante siglos se utilizaron procedimientos más o menos ingeniosos para facilitar la tarea del molinero. Desde la simple palanca unida al cuerpo giratorio del molino, pasando por poleas y manubrios se intentaron todo tipo de artilugios con el fin de resolver este problema que sin duda fue uno de los que más condicionó el desarrollo de molinos de mayor tamaño. En la actualidad, la orientación del rotor se resuelve básicamente mediante unos mecanismos de giro de bajo rozamiento (rodamientos, lubricación), apoyados por sistemas más o menos automatizados que mueven la turbina sin grandes dificultades. Sin embargo, en las máquinas de gran potencia no deja de ser un problema a resolver y que, por tanto, ofrece ciertas ventajas comparativas a las turbinas de eje vertical que no presentan este inconveniente. Las pequeñas turbinas suelen utilizar un sistema de orientación, sencillo y de muy buenos resultados consistente en una cola aerodinámica que actúa como una veleta. Cualquier alteración de la posición de equilibrio genera un empuje sobre la cola que tiende a devolver la turbina a su posición original (Figura. 3-26). Figura 3-26: Sistema de orientación del rotor mediante una veleta que actúa aerodinámicamente. Los molinos holandeses utilizaron a partir del siglo XVIII un sistema de orientación a base de rotores auxiliares, que aún hoy en día se siguen usando en máquinas de baja potencia. El sistema consiste en disponer una hélice auxiliar en un plano perpendicular al rotor principal, de forma que cuando éste no esté orientado en la dirección adecuada reciba cierta cantidad de viento. La rotación producida por el viento en la hélice auxiliar actúa sobre un mecanismo que mueve toda la turbina hasta que queda orientada. En los aerogeneradores de gran potencia la solución no es tan sencilla y, en general, requiere de motores auxiliares que funcionan automáticamente mediante servomecanismos, y que son los que se encargan de orientar la hélice en la dirección adecuada. En cualquier caso el movimiento de rotación que se produce puede afectar negativamente a las palas generando unas oscilaciones difíciles de solucionar. Existe otro sistema de orientación que está siendo muy utilizado en las grandes máquinas eólicas. El sistema está basado en el efecto de conicidad de las palas, que genera unas fuerzas aerodinámicas cuando el rotor no está orientado. Las palas de la hélice se sitúan a sotavento y se inclinan ligeramente hacia atrás, de forma que en su rotación describan un cono. Cuando la hélice no está orientada, las palas que se encuentran más a favor del viento reciben un mayor empuje aerodinámico, que tiende a variar la orientación del rotor hasta conseguir la posición de equilibrio donde todas las palas sufren el mismo empuje (Figura 3-27). Figura 3-27: Sistema de orientación por efecto de conicidad, que aprovecha las diferencias de empuje aerodinámico que se ejerce sobre las palas cuando adoptan posiciones cónicas, con el rotor a sotavento. Sin embargo, la disposición del rotor a sotavento, genera un problema adicional conocido por el efecto sombra. El empuje aerodinámico que actúa sobre las palas se ve afectado cuando éstas pasan por detrás de la torre, ya que ésta perturba la corriente de aire que incide sobre el rotor. Dicha perturbación produce oscilaciones en la pala, además de ciertos fenómenos acústicos de baja frecuencia que pueden ser perjudiciales para determinado tipo de afecciones cardiacas y respiratorias.
Luego de una pequeña presentación del tema en la primera parte, en esta hago un racconto de las características de los vientos aprovechados para la generación de energía mediante molinos. Para los que no vieron la primera parte, acá les dejo el link: Ir a la primera parte http://www.taringa.net/posts/ciencia-educacion/13985040/Megapost_-Energias-alternativas_-Energia-eolica_-Parte-1_.html SEGUNDA PARTE EL VIENTO COMO FUENTE DE ENERGIA 2.1. Definición. Convección. Todas las fuentes de energía renovables (excepto la mareomotriz y la geotérmica), e incluso la energía de los combustibles fósiles, provienen, en último término, del sol. La Tierra recibe 1,74 x 10^17 W (1,74 por 10 elevado a la 17) de potencia provenientes del sol. Alrededor de un 1 a un 2 por ciento de la energía proveniente del sol es convertida en energía eólica. Entonces, el viento es una consecuencia de la radiación solar. Puede definirse al viento, como el movimiento del aire con respecto a la superficie terrestre; este movimiento puede tener componente horizontal y vertical, pero en la práctica se hace referencia solamente a la horizontal. Las diferencias de insolación entre distintos puntos del planeta generan diferentes áreas térmicas, y los desequilibrios de temperatura se traducen en variaciones de presión. El aire, como cualquier gas, se mueve desde las zonas de alta presión a las de baja presión. El fenómeno físico que así se produce es denominado convección. 2.2. Meteorología. 2.2.1. Causas que provocan los vientos. 2.2.1.1 Temperaturas diferenciales en la superficie terrestre; temperatura del aire. Durante el día, el agua de los océanos permanece relativamente más fría que la superficie terrestre. De la radiación solar que incide sobre la superficie del agua se emplea parte en calentamiento, y parte en evaporación; pero debido a la gran capacidad del agua para absorber calor, la temperatura en las capas superficiales apenas varía y lo mismo ocurre con la temperatura del aire que se encuentra en contacto con ellas. Sobre la tierra, en cambio, la radiación solar que se recibe sobre el suelo se traduce en una elevación de la temperatura, tanto de la corteza terrestre como del aire circundante. El aire caliente se dilata, pierde presión y es remplazado por el aire fresco que viene del mar. Durante la noche, el ciclo se invierte. La corteza terrestre se enfría más rápidamente, mientras que el agua del mar conserva mejor el calor acumulado a lo largo del día. En las montañas ocurre un proceso parecido. Unas laderas reciben más insolación que otras, en función de su orientación y pendiente. El calentamiento del suelo es desigual, y los desplazamientos del aire tienden a compensar las diferencias de presión (figura 2.1). Figura 2-1: Esquema de circulación del aire provocada por diferencias de insolación recibidas en costas y montañas. 2.2.1.2 Circulación general del aire en la atmósfera terrestre. A escala planetaria, la zona ecuatorial recibe la máxima radiación solar, mientras que en las zonas polares apenas se perciben sus efectos. En una Tierra sin rotación, las diferencias térmicas y de presión entre la zona ecuatorial y las polares producirían un movimiento circulatorio del aire. El aire de las zonas cálidas ascendería a las capas altas de la atmósfera, siendo remplazado por aire más frío proveniente de los polos. El aire cálido a su vez se desplazaría hacia los polos por las capas altas de la atmósfera, completando la circulación. Debido a la diferencia de superficie entre dos paralelos próximos al polo y otros dos próximos al ecuador, las zonas de aire ascendente estarían comprendidas entre latitudes de 0° a 30°, y las de aire descendente entre los 30° a 90°, de forma que se equilibraran los volúmenes de aire desplazado en una dirección y en otra . Si consideramos el movimiento de rotación de la Tierra, el modelo de circulación global del aire sobre el planeta se hace mucho más complicado. En el hemisferio norte, el movimiento del aire en las capas altas de la atmósfera tiende a desviarse hacia el este, por efecto de las fuerzas de inercia Coriolis , y en las capas bajas tiende a desviarse hacia el oeste. En el hemisferio sur ocurre al contrario. Estas fuerzas de Coriolis aparecen en toda partícula cuyo movimiento está asociado a unos ejes de referencia que a su vez está sometido a un movimiento de rotación. Algo así como lo que le pasó a Bart en Australia. Figura 2-2 : Bart nos muestra una de las consecuencias del efecto Coriolis. De esta forma, el ciclo que aparecía en un planeta estático ahora se subdivide. El aire que asciende en la zona cálida del ecuador se dirige hacia el polo a una velocidad media de 2 m/s, desviándose hacia el este a medida que avanza hacia el norte. Al alcanzar la zona subtropical, su componente transversal es demasiado elevada y desciende, volviendo al ecuador por la superficie. Por encima de este ciclo subtropical se forma otro de características semejantes, aunque en este caso es el aire cálido que ha descendido en la zona subtropical el que se desplaza por la superficie terrestre hasta que alcanza la zona subpolar, en donde vuelve a ascender enlazando con el ciclo polar. El espesor de la zona de movimiento de los circuitos es en realidad de sólo 10 km, lo que representa 1/1200 del diámetro del globo. Esta parte de la atmósfera, conocida con el nombre de tropósfera, es donde ocurren todos los fenómenos meteorológicos. Este modelo de circulación más complicado que el anterior, todavía se ve perturbado por la formación de torbellinos que se generan en las zonas de interrelación de los diferentes ciclos. La componente transversal de la velocidad del viento genera unas ondas, que poco a poco se van incrementando hasta que la circulación se rompe, produciéndose unos torbellinos que se mueven independientemente. Estos núcleos borrascosos se generan periódicamente y transportan grandes masas de aire frío hacia el sur, alterando las condiciones climáticas en zonas de latitud inferior (figuras 2-3 y 2-4). Figura 2-3: Esquema simple de circulación del aire a escala planetaria. Figura 2-4: Esquema de la circulación general del aire en la atmósfera. Los diferentes efectos meteorológicos descritos en este modelo de circulación del aire, configuran a nivel global la composición de los vientos sobre el planeta. A nivel local, tendremos que tener en cuenta los efectos producidos por el mar y las montañas, y aún más detenidamente los que se derivan de la orografía del terreno, que pueden perturbar considerablemente el movimiento de las capas bajas de la atmósfera. Para la explotación energética del viento en una zona, se debe tener en cuenta además del valor medio de la velocidad, su distribución anual, conjuntamente con la duración de los períodos de calma, dirección predominante, intensidad de las ráfagas y sus variaciones diarias y estacionales. 2.2.1.3 Turbulencia atmosférica. La orografía del emplazamiento es muy importante para determinar la velocidad del aire en un punto localizado. El aire que se desplaza en la proximidad de la corteza terrestre debe sortear los innumerables obstáculos que encuentra a su paso, alterando en mayor o menor grado las líneas de corriente y sus velocidades correspondientes (figura 2-5). Figura 2-4: Variación típica de la velocidad del viento en función de la altura, para diferentes topografías. Las montañas constituyen un importante obstáculo al desplazamiento del aire y su comportamiento ante ellas puede resultar muy complejo. Por regla general, se suele considerar que las montañas ejercen un efecto de frenado sobre una corriente de aire, reduciendo su velocidad de un 30 a un 50 por 100 de la que tendría en iguales condiciones moviéndose en un espacio abierto. En ciertas condiciones, los obstáculos pueden provocar un incremento de la velocidad del viento; tal es el caso del viento que toma un camino entre dos edificios altos o en un paso estrecho entre montañas: el aire se comprime en la parte de los edificios o de la montaña que está expuesta al viento, y su velocidad crece considerablemente entre los obstáculos del viento. Esto es lo que se conoce como "efecto túnel" y responde físicamente a la ecuación de continuidad de los fluidos, que, claro está, no detallaré aquí. Así pues, incluso, si la velocidad normal del viento en un terreno abierto puede ser de, digamos, 6 m/s, en un "túnel" natural puede fácilmente alcanzar los 9 m/s. El efecto de frenado se ejerce también en zonas libres de obstáculos. Las fuerzas de rozamiento, que actúan en las capas de la atmósfera, que se encuentran en contacto con el suelo tienden a disminuir su velocidad, siendo sus efectos menores a medida que se gana en altura. Lo expuesto indica que la superficie de la tierra ejerce sobre el aire en movimiento, una fuerza de fricción que retarda el flujo y contribuye a la generación de turbulencias. Esta zona se conoce con el nombre de capa límite atmosférica y su altura varía según las condiciones meteorológicas, entre cientos de metros y varios kilómetros. Por encima de la capa límite, al movimiento del aire se lo denomina viento geostrófico, mientras que por debajo, viento de superficie. En este estudio sobre el viento me limitaré a esta porción inferior de la atmósfera, donde funcionan las turbinas eólicas y que normalmente no sobrepasan los 100 ó 200 metros de altura. La fricción origina una variación significativa de la velocidad con la altura y esta variación depende fuertemente de la rugosidad del terreno circundante, por lo que resulta importante la adecuada elección del sitio donde se instala la turbina. Generalmente, el movimiento atmosférico presenta características de flujo turbulento, si bien en algunas circunstancias especiales el aire circula en forma de flujo laminar. En este ultimo caso, las pequeñas fluctuaciones que naturalmente se producen en el movimiento del aire, son amortiguadas y por lo tanto, el flujo resultante es suave y ordenado. Normalmente esto no ocurre, las perturbaciones se magnifican y el flujo se hace turbulento. En la atmósfera deben distinguirse dos tipos de turbulencias: - la turbulencia de origen mecánico y - la turbulencia de origen térmico. La turbulencia mecánica se genera por la presencia de obstáculos sobre la superficie, como edificios, árboles y vehículos que fuerzan al viento a pasar por encima de ellos produciendo remolinos de distintas características en la parte posterior de los obstáculos. El tamaño de estos vórtices está relacionado con la velocidad media del viento y el tamaño y forma de los obstáculos. Los vórtices son arrastrados por el viento convirtiéndose en fuente de excitación en toda la corriente fluida. La turbulencia térmica en cambio, es producida por el movimiento ascendente de masas de aire calentadas en la superficie de la tierra y el descenso de masas frías que se mueven para ocupar el lugar dejado por las primeras. Ambos tipos de turbulencias actúan simultáneamente y según los casos, será más importante uno que otro. La turbulencia térmica puede ser inestable, neutral o estable. En el caso inestable, la temperatura del aire disminuye con la altura y la turbulencia producida por los obstáculos actúa como excitación inicial para ser luego amplificada y transportada. Este fenómeno ocurre normalmente alrededor de las 15 horas del día, ya que por efecto de la radiación solar, la tierra está más caliente que el aire y la inestabilidad térmica produce mucha turbulencia. En el caso neutral, la temperatura es prácticamente constante con la altura y cualquier perturbación en la atmósfera no produce reacción. Ocurre normalmente a las 9 horas o a las 18 horas y la turbulencia depende únicamente de la acción mecánica. Por ultimo, la turbulencia térmica estable se manifiesta cuando la temperatura del aire aumenta con la altura y las perturbaciones son rápidamente amortiguadas. Si además, la velocidad del viento es baja, las perturbaciones mecánicas son reducidas y puede existir flujo laminar. Este fenómeno puede ocurrir alrededor de las 5 horas, cuando la tierra está fría y la temperatura del aire tiene un gradiente positivo en altura. Cuando la velocidad del viento aumenta, la influencia de la temperatura de la tierra sobre el aire disminuye y el perfil de temperatura se aproxima a la condición de estabilidad neutral. Lo expuesto, nos permite considerar al movimiento del aire en forma simplificada, como la superposición de un viento de velocidad relativamente uniforme al que se le adicionan las turbulencias. Un remolino simple cuya velocidad tangencial es ∈V, arrastrado por la corriente uniforme de velocidad Vm da origen a una oscilación de velocidad y dirección según la fórmula: 6 6 6 V = Vm + ∈V Cuando vm y ∈v son del mismo sentido, la velocidad es máxima. Cuando vm y ∈v son de sentido opuesto, la velocidad es mínima. La relación ∈v/vm varía habitualmente entre 0,3 y 0,4. En la hipótesis de que ∈v sea constante, podemos escribir: Vmáx = Vm + ∈V Vmín = Vm - ∈V De aquí se deduce Vm = (Vmáx + Vmín)/2 ∈V = (Vmáx – Vmín)/2 Si se designa por β el valor máximo que puede tomar el ángulo que forma vm con la dirección de la velocidad instantánea v, la oscilación en dirección puede calcularse con aceptable aproximación por la expresión: Sen β = ∈V/Vm En la figura 2-6 están graficadas estas oscilaciones posibles; las mismas se refieren al plano horizontal. En el sentido vertical, las desviaciones en dirección son mucho menores (entre 5 y 10 veces). Figura 2-6: Composición de velocidades del viento: vm = velocidad uniforme; ∈v = turbulencia; β = máxima desviación de v con respecto a vm. Por otra parte, analizando las velocidades, se observa que los vientos resultantes de la composición arriba descripta tienen un contenido en frecuencia extremadamente amplio. Las componentes de frecuencias más bajas están asociadas a los fenómenos macro-meteorológicos, que hacen variar vm, mientras que las componentes de alta frecuencia corresponden a las turbulencias (∈v), que tienen un origen térmico-mecánico y son ocasionadas, como ya dije, por la fricción sobre la superficie terrestre y los obstáculos. Las componentes macro-meteorológicas y las turbulentas están claramente diferenciadas debido a que existe una brecha en el contenido en frecuencia de viento. Esto se muestra en la figura 2-7, que se conoce como espectro de Van der Hoven. El mismo, está realizado en base a las mediciones efectuadas en un lugar determinado, pero, su forma y la ubicación de los picos, varía muy poco con la posición geográfica, por lo que puede tomarse como válido para todo el planeta. Figura 2-7: Espectro de Van der Hoven. Este gráfico no representa la densidad espectral de potencia del viento en función de la frecuencia Фw(f) (se lee Ф sub w de f, el tema es que no se cómo poner subíndices, no se si se pueden editar en html los post), sino del producto f por Фw(f). Esto permite contrarrestar los errores de interpretación inducidos por la representación de la frecuencia en escala logarítmica. En efecto, la potencia del viento queda de esta manera determinada por el área ubicada por debajo del espectro de Van der Hoven. Puede apreciarse que en el período entre 10 minutos y 2 horas, el contenido en potencia es muy bajo. La existencia de esta brecha que separa la componente macro-meteorológica del viento de la turbulencia, motiva que el análisis energético del viento se haga dentro de este rango de tiempo. Resumiendo, los parámetros que definen el régimen de vientos (distribución de direcciones y velocidades en el tiempo) en un punto determinado dependen de: - la situación geográfica - las características microclimáticas locales - la estructura topográfica de la zona - las irregularidades del terreno - la altura sobre el nivel del suelo 2.2.2. Vientos en el mundo, estacionales, regionales y locales. 2.2.2.1. Vientos estacionales. Monzones Un ejemplo en gran escala de circulación térmica es el monzón. Esta voz, derivada del árabe, significa estación y designa un viento de carácter estacional. Durante el invierno, cuando los continentes están más fríos que los océanos, el aire fluye de los primeros a los segundos; mientras que durante el verano cuando los continentes están mas calientes que los océanos, el flujo se desarrolla en sentido contrario. En los lugares donde la circulación esta bien desarrollada, como en el continente asiático, las cantidades de precipitación estacional están en estrecha relación con el monzón. El monzón de verano hace penetrar aire oceánico húmedo en el continente, donde asciende y se produce condensación. Pero durante el monzón de invierno, es mucho menos probable que ocurran precipitaciones porque sobre los continentes el aire baja y se dirige hacia los océanos. Los monzones más intensos son los producidos por la gran masa terrestre asiática. El clima del sur de Asia, protegido del norte por la elevada cordillera del Himalaya, esta determinado en gran parte por el monzón. En verano, los vientos del sur que cruzan la parte norte del océano Indico producen las mayores lluvias del mundo en la vertiente sur del Himalaya. En invierno, los vientos predominantes del noroeste son secos y la lluvia es escasa. El comienzo y la duración del monzón de verano tienen gran importancia para la agricultura del Asia meridional. La distribución geográfica, intensidad y duración varían considerablemente de un año a otro. Los meteorólogos han realizado una intensa investigación de las causas de tales fluctuaciones, pero todavía no es posible predecir dichos vientos con certeza. El continente norteamericano tiene también una circulación monzónica, aunque no tan intensa como la del asiático y además está perturbada por ciclones y frentes migratorios. Su efecto más notable es que durante el verano, el cálido interior aspira aire tropical húmedo del golfo de México y del mar Caribe. Las tormentas de verano sobre las áridas tierras altas del suroeste pueden atribuirse en parte al influjo del aire húmedo procedente del golfo de México debido a la circulación monzónica. Figura 2-8: Monzones asiáticos 2.2.2.2. Vientos Alisios. Al norte y al sur de la zona de calmas ecuatoriales, en unas fajas de 30° de anchura, es notable la persistencia de los vientos en los niveles bajos. En ambos cinturones, dominan los vientos del este; en el del hemisferio norte suelen soplar del noreste, mientras que en el del sur soplan del sureste. Estos vientos reciben el nombre de alisios o trade winds (vientos de comercio) por el importante papel desempeñado en el descubrimiento y apertura al comercio del Nuevo Mundo cuando los barcos dependían de las velas. 2.2.2.3. Ciclones y anticiclones. El modelo de circulación del aire a escala planetaria, incluye, además de los tres circuitos independientes por cada hemisferio ya indicados, la generación de movimientos rotatorios en los límites de los circuitos, denominados ciclones y anticiclones. En la figura 2-9 se ilustran estos tipos de movimientos asociados con las áreas de presión baja (ciclones) y con las de presión alta (anticiclones) próximas a la superficie terrestre en los hemisferios norte y sur. En el hemisferio norte el aire discurre en espiral y en sentido contrario a las agujas del reloj hacia el centro de los ciclones, y en el sentido de las agujas del reloj y hacia fuera en los anticiclones. En el hemisferio sur la espiral se dirige hacia dentro en el sentido de las agujas del reloj en los ciclones y hacia fuera y en sentido contrario a las agujas del reloj en los anticiclones. Es posible determinar las situaciones aproximadas de las presiones alta y baja observando la dirección del viento en un punto dado y aplicando la regla de Buys Ballot: colocándose de espaldas al viento, la presión baja queda a la izquierda y la alta a la derecha (en el hemisferio norte). Figura 2-9: Flujo ciclónico y anticiclónico junto a la superficie terrestre. 2.2.2.4. El föhn o chinook. El föhn es un viento que desciende por las laderas montañosas en varias regiones. Es un viento cálido, muy seco, variable, que a veces aparece en las laderas de sotavento de las Cordilleras. Se produce cuando los vientos predominantes que contienen aire húmedo y caliente se dirigen contra una montaña. El ascenso forzado hace que se formen nubes densas, y en ocasiones propicias se producen intensas precipitaciones. Durante la mayor parte de la ascensión el enfriamiento se produce según el índice adiabático húmedo (4 o 5 °C/km) y cuando el aire llega a la altura de la cima, ha perdido la mayor parte de su humedad. Después de cruzar la cresta, parte del aire desciende por las laderas de sotavento, calentándose según el índice adiabático seco (10°C/km). Cuando llega al pie de la montaña, el aire se halla muy caliente y seco, por haberse caldeado por el calor latente de condensación. Aunque los vientos föhn se observan en muchas Cordilleras del mundo, algunos de los casos más notables se dan en las laderas orientales de las montañas Rocosas, donde el fenómeno toma el nombre de chinook, por el territorio indio de donde parecen proceder. Los indios suelen llamarle “devorador de nieve”, por que dados su calor y sequedad extremados, es capaz de evaporar hasta 60 cm de nieve en un día. El viento chinook con frecuencia expulsa el aire frío situado en las vertientes orientales y hace subir la temperatura 10 a 15°C a las doce horas de su llegada. 2.2.2.5. Masas de aire. Una masa de aire es un enorme cuerpo de aire que abarca miles de kilómetros dentro de la cual la temperatura y la humedad cambian gradualmente en el plano horizontal; es decir, no presenta cambios bruscos de la temperatura o de la humedad en este plano. Las masas de aire son creadas principalmente en el seno del flujo anticiclónico de los cinturones subtropicales y polares de presión alta. En estos sistemas el aire circula lentamente sobre superficies de propiedades bastante uniformes y adquiere gradualmente características térmicas y de humedad representativas de tales superficies. Por ejemplo, el aire que fluye alrededor del anticiclón atlántico semipermanente adquiere rápidamente el calor y la humedad de las masas acuáticas del mar Caribe y del golfo de México. Las masas frías de aire, como las que se forman sobre las superficies heladas del norte del Canadá en invierno, tardan algún tiempo más en formarse, pero cuando la calma es suficiente puede haber homogeneidad horizontal hasta tres o cuatro kilómetros de altura. Las masas de aire se clasifican según su origen: polar o tropical, marítima o continental. Las principales masas de aire que afectan el tiempo en Norteamérica son la polar continental (Pc), la polar marítima (Pni) y la tropical marítima (Tm). El origen de las masas de aire polar continental se halla en el norte del Canadá. En invierno, la masa de aire PC es seca y estable antes de salir de su zona de origen, pero cuando avanza hacia el sur sobre Estados Unidos, es calentada por la parte inferior y su estabilidad disminuye. La porción que atraviesa los grandes lagos se carga de humedad, lo cual con frecuencia se traduce en nevadas a lo largo de las costas orientales de los lagos y en los montes Apalaches. En algunas ocasiones, este aire penetra en la cordillera de las montanas Rocosas. El aire tropical marítimo que afecta a Estados Unidos generalmente procede del golfo de México. En invierno, el aire polar marítimo que barre el Pacifico es uno de los elementos más importantes en la producción de las lluvias de dicha estación en la costa occidental de Estados Unidos. Al chocar con las montañas de la costa y luego con las Rocosas, el ascenso forzado produce intensas lluvias y nevadas sobre estas barreras. Después de abandonar su región de origen, una masa de aire puede seguir siendo identificada por su temperatura en relación con la superficie sobre la cual viaja. Se dice que una masa de aire es fría cuando su temperatura es inferior a la de la superficie sobre la cual está y cálida cuando su temperatura es superior a la de ella. Una masa de aire frío se calentará por su parte inferior, de suerte que el gradiente vertical aumentará, mientras que una masa de aire caliente perderá calor por su porción inferior y su gradiente vertical disminuirá (se hará más estable). 2.2.2.6. Frentes. En la frontera que separa masas de aire de propiedades diferentes existe un agudo contraste de temperatura y humedad. Esta zona limitante donde “chocan” las masas de aire se llama zona frontal o, más corrientemente, frente. El término frente fue acuñado por los meteorologistas noruegos que desarrollaron la teoría del frente polar durante la primera guerra mundial, posiblemente porque las oscilaciones de la frontera, con estallidos intermitentes en el tiempo a lo largo de ella, les recordaban la prolongada batalla de trincheras que se desarrollaba en Europa con su actividad intermitente. El frente que separa dos masas de aire presenta una pendiente ascendente sobre el aire más frío y denso. La pendiente media de los frentes es sólo de alrededor de 1:150, y oscila desde un mínimo de 1:250 hasta una inclinación de 1:50. La anchura del frente —la zona de transición entre las masas de aire— mide usualmente de 50 a 100 km, pero a la escala de distancias que estamos considerando, semejante anchura equivale aproximadamente al espesor de una línea gruesa trazada en el mapa del tiempo. La frontera entre las masas de aire caliente y frío forma siempre una rampa sobre el aire frío. Esto es así porque el aire frío es un fluido más denso. (Imaginemos dos fluidos como el agua y el aceite, uno junto a otro y separados por un tabique. Si retiramos el tabique, el agua más densa se deslizará debajo del aceite.) Ahora bien, tanto si el aire caliente avanza sobre la cuña de aire frío, como si esta cuña penetra debajo del aire caliente, se producirá una ascensión forzada. En ambos casos, el enfriamiento debido a la expansión puede conducir a la condensación y posiblemente a la precipitación sobre la superficie frontal. 2.2.2.7. Ciclones tropicales. Los ciclones tropicales, que miden en término medio, unos 700 km de diámetro, como su nombre indica, son remolinos ciclónicos que se forman en los trópicos. De hecho, se forman casi invariablemente sobre los océanos en las latitudes comprendidas entre los 5 y los 20° del Ecuador. Se producen en abundancia en todos los océanos tropicales excepto en el Atlántico meridional. Cada área del mundo tiene su propio nombre local para designar esta perturbación, siendo los más comunes: huracán (Norteamérica), tifón (Asia oriental), ciclón (India), willy-willy (Australia), baguío (mar de China). En lo que sigue usaremos el nombre utilizado comúnmente para designar estas tormentas: huracán. 2.2.2.8. Tornados. El nombre tornado deriva probablemente del español “tornar”, que significa girar. Un tornado es un intenso vórtice ciclónico en el cual el aire gira rápidamente en espiral sobre un eje casi vertical. Visto a distancia semeja un gran embudo gris o una trompa de elefante que desde la base de un cumulonimbo (nube de tormenta), se dirige hacia abajo. En el punto en que llega al suelo circulan a su alrededor grandes masas de polvo y residuos hasta una altura de 60 metros. Los vientos asociados con los tornados son demasiado fuertes para que pueda soportarlos el anemómetro corriente, de modo que hay muy pocas mediciones dignas de confianza. Las estimaciones que se han hecho basándose en los daños infligidos a los edificios y en la fuerza de impacto de los objetos arrastrados por el viento, indican que las velocidades oscilan generalmente entre 160 y 500 km/h, si bien es posible que se den velocidades de hasta 800 km/h. Semejante viento requiere un gradiente de presión muy fuerte. La diferencia de presión entre el interior y el exterior de un tornado suele ser de alrededor de los 25 mbar, pero se han observado descensos incluso de 200 milibares. La longitud de la trayectoria de los tornados mide por término medio unos seis kilómetros, pero es sumamente errática. Algunos tocan el suelo en una distancia de sólo 20 o 30 m, mientras que otros saltan y brincan en trechos de centenares de kilómetros. Unos tornados apenas se mueven, pero se sabe de otros que se trasladan a la velocidad de hasta 200 km/h. Algunos duran solamente una fracción de minuto, mientras que otros persisten durante varias horas; la duración media es de menos de diez minutos. La mayoría avanza hacia el este o el noreste (hemisferio norte), pero se han observado toda clase de direcciones. Durante sus breves vidas los tornados pueden ser muy destructivos. Un edificio que se encuentre en su trayectoria ciertamente sufrirá muchos daños, si no es destruido. La causa de los desperfectos es triple: la fuerza enorme ejercida por el viento, la repentina diferencia de presión creada entre el interior y el exterior del edificio, y las fuertes corrientes ascendentes. Con una caída rápida de presión de 100 mbar, la presión neta hacia el exterior sufrida por las paredes del edificio puede llegar a ser de unos 1000 kg/m2 y se han visto edificios que explotaban literalmente. La presión del viento puede alcanzar fácilmente varios centenares de kilogramos por metro cuadrado. 2.2.3. Vientos en la República Argentina. 2.2.3.1. Características generales. Puede afirmarse en principio, que los vientos en la Argentina responden en general, a las características ya expuestas para el resto del mundo, con algunas particularidades propias que dan lugar a ciertas denominaciones de movimientos del aire que se detallan a continuación. 2.2.3.2. Viento Pampero El Pampero es el viento característico de las pampas, que ningún viajero ha dejado de mencionar. Ellos y los marinos, son los principales autores de su fama. Espinosa y Bauzá, entre otros, dicen: “Corren vientos violentísimos que llaman Pamperos que soplan del SO: vienen de la Cordillera y atravesando varias llanuras de 200 a 300 leguas sin bosques ni montes que moderen su ímpetu conservan toda su violencia, degeneran en verdaderos huracanes, y si corren por el Río de la Plata, no hay a veces embarcación que los aguante. El temporal más desecho del invierno no resiste a 6 horas de Pampero. Las reses muertas en el campo se secan prontamente sin agusanarse, y el lodo mismo de las calles se coagula y se deseca con facilidad: circunstancias todas que unidas a la frialdad del viento manifiestan la astringencia y demás calidades del viento de la nieve”. En realidad, deben distinguirse dos tipos de Pampero. El Pampero limpio o Pampero propiamente dicho, al que hacen referencia Espinosa y Bauzá, y el Pampero sucio, o línea de turbonada, que consiste en una tormenta de agua con viento fuerte, truenos, relámpagos y rayos. Ambos se presentan en condiciones bien definidas, con rasgos que les son propios. El Pampero sucio, se presenta como un viento frío, seco y violento, que viene a poner fin a un período de tiempo anormalmente cálido y húmedo. Indicio seguro de Pampero son las nubes que se forman sobre el horizonte hacia el sudoeste, después de una serie de días en que han soplado con persistencia vientos suaves y variables con componente norte. Durante esos días el tiempo se presenta bueno, con temperatura en paulatino ascenso, y presión atmosférica en descenso. Muchas veces, antes de que comience a soplar, ocurre un breve período de calma y luego la brusca irrupción del Pampero sucio, acompañado de nubosidad cumuliforme, truenos, relámpagos y precipitación violenta, de corta duración. La fuerza de las turbonadas es, por lo general, mayor en el verano, y alcanzan una velocidad de hasta 100 kilómetros por hora. La dispersión del polvo levantado por el viento puede alcanzar hasta grandes alturas. Wölcken calcula en 500 metros la capa de aire turbulento en la tormenta por él observada. El descenso de la temperatura del aire se produce en forma instantánea, y puede ser de 10° o más. Es claro que después de un período de sequía prolongada, cuando es más espeso el colchón de polvo que se asienta sobre la tierra, los caracteres del Pampero sucio resultan más definidos. Inmediatamente después del pasaje del Pampero sucio, comienza a soplar el Pampero limpio, que es aire fresco y agradable, síntoma seguro de la estabilización del tiempo. El Pampero sopla en cualquier época del año, y en la amplia zona donde se deja sentir, llanura pampeana, desembocadura del Plata, Uruguay, y aún más al norte, hasta los 30° de latitud, está íntimamente ligado al proceso ordinario de la evolución del tiempo, que se repite aproximadamente unas ochenta a cien veces en el año. 2.2.3.3. Sudestada. Sudestada es tal vez el nombre más temible para el navegante del río de la Plata. Como su nombre lo indica es viento del sudeste. Todo lo humedece y cubre de moho. Sopla cuando sobre el río de la Plata se ha formado un ciclón, luego de una larga persistencia de temperaturas elevadas con vientos del noroeste, norte y nordeste, que rotan finalmente al este, momento en que se hace particularmente molesta la humedad, que a veces se concreta en densa niebla. Por último, el viento vira bruscamente hacia el sudeste y se desata un temporal con viento arrachado y fuertes lluvias. Son estas tormentas las que ponen con frecuencia en peligro la vida de los pobladores de los barrios más bajos de la ciudad, tal como ocurrió en abril de 1940 y en otras oportunidades más recientes. Con frecuencia el tiempo se compone por espacio de uno o dos días y vuelve a presentarse otra Sudestada de menor violencia hasta que el viento gira al sudoeste y el Pampero barre las nubes y despeja la atmósfera, poniendo fin al temporal. 2.2.3.4. Viento Norte. El viento Norte, cálido y con frecuencia húmedo, tiene también su característica bien definida. Lo que de él dice Parish, puede servirnos para caracterizarle: "Durante la mayor parte del año los vientos que prevalecen son los del Norte, que pasando por las llanuras pantanosas y bañados de Entre Ríos y luego, sobre la ancha extensión del Plata, absorben sus vapores, y cuando llegan a la costa Sud del Río, toman ya una gran influencia sobre el clima. Todo se pone húmedo: las botas que se limpiaron ayer, están hoy llenas de moho; los libros se ponen verdes y las llaves se enmohecen en el bolsillo." Y continúa: "En algunas gentes produce una irritabilidad y mal humor, que llega a ser poco menos que un desarreglo transitorio de sus facultades morales”. 2.2.3.5. El Zonda. El más famoso, sin duda, de cuantos vientos reciben en el interior del país un nombre propio, es el Zonda, viento turbulento, seco y caliente, que se deja sentir en toda la región cordillerana. Toma su nombre de la quebrada de Zonda, a espaldas de la ciudad de San Juan, donde alcanza particular violencia. Burmeister dice que estos vientos "postran realmente al hombre por su ardor y aún le aminoran el libre uso de sus facultades; la gente se encierra en sus habitaciones, se queja de dolores de cabeza, lasitud en todas las articulaciones y se acuesta, para sustraerse a la influencia desagradable del Zonda, oponiéndole una completa apatía. Estos vientos calientes no traen tempestades con lluvia; se mantienen durante 24 ó 36 horas, cesan luego y dejan durante mayor tiempo únicamente suspenso en el aire, el polvo que han traído y levantado." El Zonda típico puede ser considerado como un viento föhn verdadero. Este viento característico de los Alpes toma su nombre de la palabra latina favonius, que significa viento caliente. El Zonda típico no sopla con mucha frecuencia. Cuando en toda la hoya geográfica comprendida entre las sierras Pampeanas y la cordillera se encuentra aire calido, desprovisto de humedad con una atmósfera extraordinariamente diáfana y una visibilidad horizontal máxima es indicio seguro de que comenzará a zondear. Poco a poco va acentuándose la disminución de la presión en toda la zona hasta que llega un momento en que el aire es sumamente liviano. En tanto, a espaldas de la cordillera, desde el lado chileno, avanzan masas de aire frío, sumamente pesado, que acompañan en su carrera hacia el este a los vientos que en esa dirección soplan constantemente en las capas superiores de la atmósfera. La baja temperatura del aire facilita la condensación de la humedad en los altos pasos cordilleranos y en las cumbres, en forma de una niebla espesa, fría y a menudo, también, en forma de nieve. Este aire, al abandonar las altas cumbres, se precipita como en cascada hacia la llanura, y fluye a través de los valles y quebradas profundas, alcanzando, a veces, velocidades extraordinarias. En este descenso comienza a aumentar su temperatura y en consecuencia su capacidad de absorción de vapor de agua, de modo que las nubes y la niebla se disipan y su sequedad aumenta a medida que se acerca a la superficie. Aquí, se desliza como una corriente de agua, siguiendo los desniveles del terreno, ocupando los lugares más bajos antes de cubrirlo todo; por eso es frecuente observar que solo una parte de un campo ha sido completamente quemado en tanto que el resto, a donde el Zonda no alcanzó, conserva su lozanía. Para que el Zonda alcance toda su magnitud, es decir, se deje sentir en la localidad de San Juan, es preciso que exista una gran diferencia entre la densidad del aire sobre la superficie y la densidad del aire polar que avanza desde el lado occidental de la cordillera. Este Zonda verdadero se deja sentir aun sobre la llanura pampeana, si bien es cierto que sensiblemente disminuido. El Zonda que sopló el 11 y 12 de agosto de 1941, transportó el polvillo rojizo del que estaba acompañado, hasta la ribera del Paraná. En esa oportunidad alcanzó una velocidad de 200 km/h, entre Punta de Vacas y las Cuevas, en la alta cordillera. La humedad relativa sufrió un descenso desde el 93 por ciento al 8 por ciento y la temperatura subió instantáneamente 20°. El Zonda típico es excepcional, pero son frecuentes sus formas atenuadas cuando la diferencia de densidad entre el aire cuyano y el que avanza desde el oeste no son muy marcadas; así, ocurre a veces, que el aire sólo desciende hasta las capas que se encuentran entre los dos y tres mil metros de altura, de modo que es frecuente que esté zondeando en las sierras de Córdoba, pero el viento no se sienta en San Juan. Se le dan también otros nombres, como en La Rioja, por ejemplo, donde se lo denomina Troyano, porque llega a ella desde la quebrada de la Troya. Las condiciones necesarias para la producción del Zonda en sus distintos tipos (Zonda incipiente, Zonda de altura y Zonda de superficie o verdadero), son, fundamentalmente, la existencia de una muy baja presión sobre la región cuyana y una masa de aire frío y denso sobre la ladera chilena. Cuando se dan estas condiciones, se presentan las distintas variantes de vientos a los que es necesario llamar Zonda, si empleamos esta palabra en substitución del termino föhn. 2.2.3.6. Masas polares. Es frecuente que en gran parte del territorio, especialmente en otoño e invierno, se sienta la influencia de las masas de aire provenientes del polo sur, que provocan un fuerte descenso de la temperatura. Estas masas, que superan los 100 km de ancho se desplazan desde la Antártida y suelen llegar hasta el norte del país. 2.2.3.7. Vientos Patagónicos. Al sur del río Colorado, en las provincias de Buenos Aires, Río Negro, Chubut, Santa Cruz y Tierra del Fuego, son muy frecuentes (casi permanentes) los vientos (moderados, regulares y fuertes) provenientes de centros de alta presión (anticiclones) ubicados en el océano Pacífico, que, atravesando la cordillera, soplan por toda la Patagonia con direcciones SO, O y NO. Estos son los vientos que poseen el más alto potencial energético en el mundo, con características reconocidas como excepcionales en el planeta. 2.2.3.8. Brisas marinas y terrestres. En toda la zona costera de la Argentina, desde el Río de La Plata, hasta Tierra del Fuego, en una franja costera que se desarrolla hasta unos 100 km en el continente y más aún en el océano, se presentan estos vientos (diurnos y nocturnos respectivamente), en forma casi permanente, con distintas intensidades, según la estación. 2.2.4. Dirección y velocidad del viento. 2.2.4.1. Estimación de la velocidad media del viento. Tanto para su conocimiento desde el punto de vista meteorológico, como para su aprovechamiento como recurso energético, es conveniente y necesario efectuar mediciones de la velocidad del viento en forma sistemática. En caso de no disponer de datos precisos, a partir de la experiencia se ha establecido una escala, denominada escala Beaufort, que clasifica los vientos en función de su velocidad, dividiéndolos en 17 categorías o grados, pudiendo estimar la misma en función de los efectos que provoca en la superficie. Estos efectos se presentan para tierra o mar. La figura 2-10 muestra esta clasificación, mientras que la figura 2-11 describe los fenómenos observables según la intensidad de los vientos expresados en grados Beaufort. (perdón por la calidad de los escaneos, estaban en una parte del libre particularmente difícil de manipular para poner sobre la impresora) Figura 12-10: Escala de Beaufort. Figura 2-11: Escala de Beaufort: Criterios de apreciación de los efectos en mar y en tierra para cada grado de la escala. 2.2.4.2. Instrumentos. Medición instantánea y continua. Las mediciones de viento se efectúan normalmente en estaciones meteorológicas, que miden en un lugar determinado diversos fenómenos meteorológicos. En la mayoría de los países del mundo existe una red de estaciones meteorológicas, que permiten realizar estudios estadísticos de dichos fenómenos. El viento se caracteriza por su dirección y velocidad. La dirección se designa por el lado desde donde sopla y se determina con veletas; la velocidad se mide con instrumentos denominados anemómetros. Ambas propiedades se miden hoy con un solo instrumento que incluye la veleta y el anemómetro. En general, los anemómetros de las estaciones meteorológicas se ubican a una altura de 10 metros sobre la superficie. Hasta hace no muchos años, particularmente en la Argentina, las mediciones eran puntuales realizadas tres veces al día (8, 14 y 20 hs). Hoy existen instrumentos que miden en forma casi continua tanto dirección como velocidad (incluso ráfagas). Con los datos de las mediciones, se publican planillas que resumen estudios estadísticos que abarcan períodos de 10 años. En la Argentina, el Servicio Meteorológico Nacional es el Organismo encargado de efectuar las mediciones, los estudios y efectuar los pronósticos oficiales del tiempo. En las figuras 2-12 y 2-13 se presentan planillas características publicadas por el S. M. N., que corresponden al resumen de una década de mediciones de distintos fenómenos meteorológicos, para determinadas estaciones meteorológicas, en las que están incluidos los datos de vientos. Figura 2-12: Planilla resumen de datos meteorológicos correspondientes a la estación Gobernador Gregores del S.M.N, para la década 1971/1980. Figura 2-13: Planillas resumen de datos meteorológicos correspondientes a las estaciones Cipolletti y San Julián del S.M.N., para las décadas1961/1970 y 1971/1980, respectivamente. A partir de la crisis del petróleo de los 70 y de reconocerse mundialmente la posibilidad de efectuar el aprovechamiento energético del recurso eólico, desde hace unos 30 a 40 años aproximadamente, comenzó en diversos lugares del mundo a realizarse un estudio más detallado del viento, que el que brindan las estaciones meteorológicas convencionales. Esto fue acompañado por el avance de la tecnología, llegándose hoy a disponer de estaciones de medición de viento que se ubican a distintas alturas, con sensores que transmiten los datos obtenidos los que son almacenados en computadoras remotas que los procesan facilitando su análisis. Los anemómetros más difundidos son los que captan el viento a través un sistema de cazoletas que giran sobre un eje (coperolas tipo Robinson). Hay diversas marcas y modelos (figura 2-14), de los cuales muchos incluyen memorias para almacenar los datos obtenidos (figura 2-15). Otros tipos de anemómetros incluyen ultrasonidos o anemómetros provistos de láser que detectan el desfase del sonido o la luz coherente reflejada por las moléculas de aire. Los anemómetros de hilo electrocalentado detectan la velocidad del viento mediante pequeñas diferencias de temperatura entre los cables situados en el viento y en la sombra del viento (cara a sotavento). Figura 2-14: Anemómetro de cazoletas, con veleta. Figura 2-15: memoria de almacenamiento de datos de anemómetro. La ventaja de los anemómetros no mecánicos es que son menos sensibles a la formación de hielo. Sin embargo en la práctica los anemómetros de cazoletas son ampliamente utilizados, y modelos especiales con ejes y cazoletas eléctricamente calentados pueden ser usados en las zonas árticas. Para la medición del viento con miras a estudiar el recurso energético eólico es necesario contar con anemómetros de calidad, con precisión en la medición del 1%. Veremos que un error en la medición de la velocidad del viento del 10%, lleva a tener errores en la determinación del potencial energético de más del 30%. 2.2.4.3. Frecuencia de velocidades y direcciones. La rosa de los vientos. Vientos dominantes. La rosa de las rugosidades. Para mostrar la información sobre las distribuciones de velocidades del viento y la frecuencia de variación de las direcciones del viento, puede dibujarse la llamada rosa de los vientos basándose en observaciones meteorológicas de las velocidades y direcciones del viento. En la figura 2-16 se presentan rosas características: La derecha es la rosa de los vientos de intensidades (puede ser de intensidades mínimas, máximas o promedio) en m/s, mientras que la izquierda es la rosa de los vientos de frecuencia porcentual de direcciones. Figura 2-16: Rosa de los vientos. A la derecha la rosa de los vientos de intensidades en m/s; a la izquierda la rosa de los vientos de frecuencias porcentuales de direcciones. Es común observar en las rosas de los vientos de distintas regiones del mundo, que alguna dirección prevalece sobre las demás. Al viento, cuya dirección en un determinado lugar, sopla con una frecuencia claramente superior que los correspondientes a las restantes direcciones a lo largo de una serie suficientemente prolongada de observaciones, que permita realizar un análisis estadístico, se lo llama viento dominante. Se ha dividido la rosa en 16 sectores, abarcando cada uno 30° del horizonte (también puede dividirse en 8, 12 o 32 sectores). Las rosas de los vientos pueden realizarse por estaciones (primavera, verano, otoño e invierno), lo cual permite realizar un estudio más exhaustivo de los vientos en un determinado lugar. Puede también dibujarse, la rosa de los vientos de energía, aplicando la fórmula que se verá más adelante en 2.3. Asimismo, estableciendo una escala de rugosidades del terreno (tal como se analiza en 2.2.5.), puede dibujarse la rosa de las rugosidades. Cuando se estudia el recurso para su aprovechamiento energético, la rosa de los vientos y la rosa de las rugosidades proporcionan una valiosa información para definir la ubicación más conveniente de los aerogeneradores en un parque eólico. 2.2.4.4. Gráfico de velocidades. Con los datos suministrados por las estaciones meteorológicas, puede graficarse la velocidad del viento en función del tiempo; si dispusiéramos de anemómetros a distintas alturas en una vertical, los gráficos obtenidos serían del tipo mostrado en la figura 2-17 en donde se observa que la velocidad aumenta con la altura, mientras que las variaciones van disminuyendo, por efecto de la menor influencia de la rugosidad. Figura 2-17: Gráfico de velocidades de viento a distintas alturas, en función del tiempo. En absisas se coloca el tiempo (minutos u horas) y en ordenadas la velocidad, en m/s. Los instrumentos actuales, permiten obtener dichos gráficos desde una computadora que almacena y procesa los datos captados por el anemómetro. Cada punto del gráfico representa la velocidad promedio del viento en el rango de tiempo seleccionado; se pueden seleccionar distintos rangos (desde segundos hasta 1 hora); cuanto menor sea el rango de tiempo seleccionado, mayor será la precisión del estudio, pero también mayor la memoria requerida para almacenar los datos correspondientes a un período determinado. 2.2.5. Variación de la velocidad del viento con la altura. Perfil de velocidades. El perfil de velocidades nos da la variación de la velocidad del viento a medida que ganamos altura respecto al suelo. Las fuerzas de rozamiento y el efecto de frenado debido a las irregularidades del terreno son más intensos en las capas que se encuentran en contacto con el terreno y la distribución de velocidades en función de la altura sigue una ley de tipo exponencial: V/V0 = (H/H0)^γ Siendo: V = la velocidad del viento a una altura H V0 = la velocidad del viento a una altura H0. El exponente γ (gamma) es un parámetro que depende de la topografía del terreno y de las condiciones meteorológicas. Generalmente se calcula en base a mediciones y estimaciones estadísticas. Valores típicos de γ: Area descubierta: 0,14 - 0,34 Area boscosa: 0,35 – 0,6 Area edificada: 0,6 – 0,8 Se puede representar también la variación de la velocidad del viento con la altura, por una ley logarítmica: V/V0 = ln (H/Z0) / ln(H0/Z0) El coeficiente Z0 es una medida del tamaño de los remolinos producidos por la rugosidad del terreno y toma los siguientes valores característicos: Superficie Z0 (m) Arena 0,0001 a 0,001 Nieve 0,001 a 0,006 Pasto corto 0,01 a 0,04 Pasto alto 0,04 a 0,1 Bosque (aprox. 10 m de altura) 0,5 a 1 Zona suburbana 0,2 a 0,4 Ciudad 0,35 a 45 En la figura 2-18, se presenta el perfil de velocidades del viento, para distintas características topográficas del terreno. Figura 2-18: Perfiles de velocidades del viento en función de las características topográficas del terreno. Hasta aquí todo lo referente en cuanto al viento en general y sus características, en el post siguiente ya veremos como aplicar estar propiedades a la generación de energía, con sus respectivas fórmulas de aplicación, y todo aquel conocimiento necesario sobre aerodinamia que, ulteriormente, nos permitirá llegar a la exposición de distintos modelos constructivos de molinos eólicos. Las figuras 2-1, 2-3, 2-5, 2-18, 2-19, 2-20 fueron extraídas del libro La Energía Eólica. Tecnología e historia de J.C. Cádiz Deleito. Las figuras 2-4 y 2-9 fueron extraídas del libro Meteorología, de Albert Miller. Las figuras 2-6, 2-10 y 2-11, fueron extraídas del libro Energía Eólica. Teoría, concepción y cálculo práctico de las instalaciones, de Desire Le Gouriéres. La figura 2-7, fue extraída de la tesis Doctoral de H. de Battista. Las figuras 2-12 y 2-13, corresponden a planillas obtenidas del S.M.N. Las figuras 2-14 y 2-15, fueron extraídas de prospectos de fabricantes de instrumental meteorológico (Vaisala). La figura 2-16, fue extraída de Vientos intensos en la región Norpatagónica, de C. Palese. La figura 2-2 fue extraída de http://www.taringa.net/posts/ciencia-educacion/6619018/Lisa-Simpson-tenia-razon-Las-pruebas_Video-propio_Bart-LTA.html La figura 2-8 fue extraída de http://bo.kalipedia.com/lengua-castellana/tema/monzones.html?x1=20070410klpgeodes_17.Kes&x=20070410klpgeodes_18.Kes
Para estar al tanto de qué viene este post, pasate por las partes 1 y 2: Ir a la primera parte Ir a la segunda parte 2.3. La energía del viento o energía eólica. 2.3.1. Fórmulas generales; densidad del aire; potencia. Desde un punto de vista práctico, es el contenido energético del viento lo que interesa aprovechar. La energía cinética de una masa de aire que se desplaza se expresa como: E = ½ m v2 Donde: m = masa del aire v = velocidad del viento El volumen de aire que pasa por un área A en la unidad de tiempo es A x v. La energía cinética por unidad de tiempo es por lo tanto la potencia disponible del viento y resulta: P = ½ ρ.A .v. v2 P = ½ ρ. A. v3 [2] Siendo: P = energía por unidad de tiempo (W, Watt); A = área interceptada (m2); ρ = densidad del aire (kg/m3); v = velocidad del viento (m/s). Esta es la denominada “ley del cubo”. Por lo tanto, el contenido energético del viento depende de la densidad del aire y de su velocidad (figura 2-18). Como en cualquier gas, la densidad varía con la temperatura y la presión, y ésta, a su vez, con la altura sobre el nivel del mar (figura 2-19). Figura 2-18: Evolución de la potencia contenida en el viento por unidad de superficie interceptada [W/m2], en función de la velocidad del viento para unas condiciones normales de presión y temperatura. Figura 2-19: Variación de la densidad del aire en función de la altura sobre el nivel del mar. La potencia media P(m) para un intervalo de tiempo t, se obtiene dividiendo la potencia máxima por t. Esta potencia media es la que ha de ser tenida en cuenta cuando se trata de determinar la potencialidad eólica en un punto. En general se la expresa en Watts y a una altura establecida por ejemplo, 10 metros. 2.3.2. Distribución de velocidades en el tiempo; velocidades medias. Mapas eólicos. En líneas generales, se puede afirmar que el problema de validez y representatividad de los datos de viento esta ligado a los tipos de observación y de instrumental y a los registros empleados, razón por la cual esos datos deben ser tratados en cada caso con las consideraciones correspondientes, a fin de obtener estadísticas que permitan determinar la energía eólica. Además, hay que tener en cuenta el hecho de que los datos son en gran parte discontinuos en la escala de tiempo. Como se mencionó, para realizar una evaluación, debería efectuarse un análisis estadístico detallado de los datos. Una forma de resolver el problema de la determinación de la energía disponible en un lugar determinado, es suponer una distribución que represente aproximadamente el comportamiento de la variable velocidad del viento en función del tiempo. La función de distribución de velocidades nos proporciona el número de horas al año en que la velocidad del viento es inferior a un valor determinado. Con esta información y conociendo los parámetros de operación de una turbina eólica se puede evaluar la ganancia energética anual que puede generar. La velocidad de diseño de la máquina será aquella a la que se obtenga una mayor ganancia energética, y conocida la velocidad de diseño se puede calcular la velocidad de régimen a la que ha de girar la turbina para que el rendimiento sea máximo. Con los cálculos efectuados para distintas localizaciones pueden confeccionarse los denominados mapas eólicos. En una primera instancia, se indican para cada lugar, las velocidades medias anuales de viento, a la altura de las mediciones, correspondientes a series de mediciones que abarcan períodos de tiempo prolongados, preferentemente mayores a tres años. Asimismo, luego de realizados los cálculos, puede confeccionarse para una región determinada, el mapa eólico de potencias medias meteorológicas a una altura determinada (por ejemplo 10 m) y, aplicando las fórmulas ya indicadas, trazar las líneas isopotenciales para otras alturas (por ejemplo 50m), obteniendo mapas eólicos como el indicado en las figuras 2-20 y 2-21, correspondientes a España y Estados Unidos, respectivamente. Figura 2-21: Mapa eólico de España. Figura 2-22: Mapa computarizado eólico de Estados Unidos, que muestra el potencial energético de dicho país. Según él, el viento podría proveer el doble de las necesidades energéticas. Las densidades de potencia están dadas para 10 y 50 metros de altura sobre la superficie. 2.3.3. Estudios del recurso energético eólico en el mundo y en la República Argentina en particular. Diversos países se interesaron en el aprovechamiento del recurso energético eólico, para lo cual dispusieron la realización de mediciones y estudios estadísticos para conocer su potencial y confeccionar los mapas eólicos. En particular, en nuestro país, la Comisión Nacional de Investigaciones Espaciales, publicó en 1982 una evaluación preliminar del recurso eólico, realizada a partir de los datos de las estaciones meteorológicas del S.M.N. Posteriormente, en 1986, se publicó el Atlas del Potencial Eólico del Sur Argentino, realizado por el CREE (Centro Regional de Energía Eólica) de la provincia del Chubut, en convenio con el Centro Nacional Patagónico, dependiente del CONICET, cuyo autor es el Lic. Vicente R. Barros. Este trabajo utiliza los datos de las estaciones del S.M.N., que fueron comparados con mediciones automáticas efectuadas para contrastarlos, y luego de un análisis y depuración de los mismos, se realizó el cálculo de la potencia media meteorológica para cada estación y el cálculo del costo de la energía, utilizando para ello, los datos de un aerogenerador de 85 kW que se comercializaba en esa época. Este trabajo permitió conocer que el recurso eólico de la Patagonia, al sur del paralelo 42, presenta condiciones excepcionales con respecto al resto del mundo; según él, es muy probable que más del 50% del territorio nacional por debajo de dicho paralelo, disponga de potencias meteorológicas superiores a 500 W/m2 a 50 metros de altura (figuras 2-22 y 2-23). Figura 2-23: Mapa eólico del sur Argentino. Estudio de V. Barros, para una altura de 10 m. Figura 2-24: Mapa eólico del sur Argentino. Estudio de V. Barros, para una altura de 50 m. A partir de allí, comenzaron a realizarse en diversas provincias estudios más detallados del potencial eólico (mencionándose entre otras, la Pcia. de Bs. As, Chubut, La Pampa y Santa Cruz. Para evaluar el recurso en las provincias del Chubut y La Pampa, el CREE desarrolló programas específicos de computadoras (Meso Map y Wind Map) que utilizan modelos matemáticos tridimensionales de orografía, rugosidad y viento, que fueron calibrados con mediciones efectuadas con anemómetros. Las figuras 2-18, 2-19, 2-20 fueron extraídas del libro La Energía Eólica. Tecnología e historia de J.C. Cádiz Deleito, con ilustraciones de J. Ramos Cabrero. La figura 2-22, fue extraída de un Prospecto publicado por el DOE. Las figuras 2-23 y 2-24, fueron extraídas del Atlas del Potencial Eólico del Sur Argentino, de V. Barros.

No dejes cargar el post, bajá cuando quieras Creo que para comprender bien de qué se trata todo el asunto es necesario explicar algunos conceptos básicos para que no sea información vacua y olvidable, es por ello que me extendí más allá de los clásicos artículos de una esquela. ¿Qué mierda es el bosón de Higgs? Aclaración: aquí me refiero a las propiedades corpusculares de las partículas elementales, por lo que no considero necesario hablar demasiado sobre la dualidad onda-partícula (que por otro lado, es un abuso del lenguaje que sólo trae confusiones) de las mismas. Es decir, hablo de las partículas asociadas al fenómeno en estudio.Este texto busca dar información meramente cualitativa. A lo nuestro Figura 1 Por empezar, el bosón de Higgs es una partícula, más específicamente, una partícula elemental. Hoy llamamos partículas elementales a aquellas que, actualmente, no se ha comprobado que tengan sub-estructura, es decir, son las partículas “finales”, a lo mínimo que se puede llegar, digamos, a los cimientos de todo el universo. Hay teorías que proponen la existencia de una sub-estructura en partículas que hoy llamamos elementales (recordemos que no hace mucho, los átomos eran consideradas partículas elementales -de ahí su nombre: “indivisibles”- luego se creyó que protones y neutrones también eran elementales, en fin, puede que todavía le estemos errando, tal vez encontramos los dados equivocados), pero es bastante jodido corroborarlo, ya que se necesitan energías de orden superior al de los TeV (Tera electrón Volt, 1.000.000.000.000 eV). Figura 2: Tamaño relativo de la materia. El bosón de Higgs al que me refiero en este texto, es al teorizado en el “modelo estándar de física de partículas”, teoría ampliamente aceptada por la comunidad científica como la más acertada descripción de tres de las cuatro interacciones fundamentales (nuclear débil, nuclear fuerte, y electromagnética), la que queda afuera es la forrita de la interacción gravitatoria, que siempre fue una piedrita en el zapato. Pues bien, el modelo estándar se ajusta (casi) perfectamente a las observaciones prácticas realizadas durante un buen tiempo. Es más, el modelo estándar ya ha logrado unificar la fuerza electromagnética (la cual es resultado, también, de una unificación entre dos interacciones que se creían no relacionadas: la eléctrica y la magnética) con la nuclear débil, llamando a este conjunto fuerza electrodébil; la teoría que pretende unificar la interacción electrodébil con la nuclear fuerte -cuya unificación es llamada interacción electronuclear- se llama “teoría de la gran unificación”; por último, una teoría que unifique la electronuclear con la gravitatoria sería la “teoría del todo”. Divagué. A lo que iba es que este bosón, del que tanto se habla, es el predicho por esta teoría; aclaro porque en otras teorías distintas, tal vez no tan “populares”, se propone la existencia de una “gama” de bosones de Higgs. Figura 3: Unificación de las fuerzas. Figura 4 Figura 5: Convergencia de las tres fuerzas contempladas en el modelo estándar. Consideremos, entonces, que las partículas que hoy llamamos elementales son tales. Existen dos tipos de partículas elementales, los bosones y los fermiones; a su vez, estos últimos se dividen el leptones y quarks (pronunciado “cuorks” no “cuarks”). Una partícula compuesta por varias elementales puede ser también un fermión o bosón, dependiendo únicamente del número de fermiones de los que está compuesta. Figura 6 Figura 7: Partículas elementales. Figura 8 Figura 9 Sobre los fermiones diremos que son los componentes básicos de la materia, de lo (haciendo un ejercicio mental) tangible, y que interactúan entre sí a través de los bosones de gauge (ya va, ya va, ya llego a eso). Figura 10: Fermiones, constituyentes de la materia. Figura 11 Los leptones son aquellos que no experimentan (ni se enteran) la interacción nuclear fuerte, su interacción es básicamente la nuclear débil. Existen seis leptones distintos, con sus correspondientes antipartículas. Figura 12 Figura 13 Los quarks, por su parte, sí pueden “sentir” la fuerza nuclear fuerte (y las otras tres también, de hecho, son las únicas partículas fundamentales que interactúan con las cuatro fuerzas elementales), y son los componentes de los hadrones (el protón y el neutrón son dos ejemplos de hadrones). Figura 14 Figura 15 Figura 16 Figura 17: Disposiciones de quarks en hadrones. Hablemos un poco de las interacciones fundamentales. A partir de ahora hablaré indistintamente de fuerzas e interacciones. Figura 18 La fuerza gravitatoria se observa fácilmente y es de la que se conoce hace más tiempo, pero a la vez, es la más “rara”, porque todavía no encaja con las otras tres. Es la encargada de que las partículas con energía interaccionen entre sí (si, incluso las partículas sin masa). Junto a la fuerza electromagnética, son las que actúan a grandes distancias. También, con esta última fuerza, comparten el hecho de que en la teoría de campos clásica, siguen la ley de la inversa del cuadrado. La gravedad se estudia mediante la relatividad general, en la que se describe a la gravedad como una deformación en el espacio-tiempo. Como ya dije, esta fuerza no encaja mucho con la física de partículas, pero su aporte a escalas subatómicas es tan ínfima (tan, tan, tan ínfima) que tranquilamente se pueden usar las dos teorías simultáneamente. Básicamente, la gravedad es notoria en grandes masas. Figura 19: Teoría gravitatoria clásica. Figura 20: Interpretación relativista de la gravedad, deformación del espacio tiempo. La fuerza electromagnética es aquella que actúa entre partículas con carga eléctrica. Puede ser atractiva o repulsiva, dependiendo de la polaridad de las cargas de las partículas que intervienen. En el caso particular en el que las partículas estudiadas se encuentren en reposo, se la conoce como fuerza electrostática. Al igual que la gravedad, también actúa a grandes distancias, pero esta es mucho más fuerte que la fuerza gravitatoria. A escala subatómica, se la denomina electrodinámica cuántica. Figura 21: Cuando ambas cargas tienen distinto signo (a) la fuerza electrostática es de atracción, mientras que si tienen el mismo signo la fuerza electrostática es de repulsión (b). Figura 22: Campo eléctrico producido por un conjunto de cargas puntuales (q1, q2, q3). Figura 23: Diagrama de Feynman de la interacción electromagnética. La fuerza nuclear fuerte sólo actúa a distancias del orden del radio atómico. Básicamente es la fuerza encargada de que en el núcleo atómico puedan coexistir varios nucleones (neutrones y protones) “juntos”. Es evidentemente mucho más fuerte que la electromagnética, que tiende a separar a las cargas eléctricas de la misma paridad (lo cual es mucho decir, porque la fuerza electromagnética de repulsión entre dos partículas a las distancias mencionadas es titánica). Esta fuerza es la que permite que los quarks dentro de los hadrones estén unidos. En este caso, la carga que rige su comportamiento es la carga de color (equivalente a las positivas y negativas del electromagnetismo). La teoría que estudia esta interacción en particular es la cromodinámica cuántica. Esta interacción es únicamente atractiva. Figura 24 Figura 25: Representación gráfica de la interacción fuerte. Figura 26 Por último, tenemos a la fuerza nuclear débil. Esta es un poco menos intuitiva que las anteriores. Por empezar es varios órdenes de magnitud menor que la electromagnética, y más débil todavía de la nuclear fuerte, y a su vez, actúa a distancias menores que esta última. Recordemos, las cargas que entran en juego en el electromagnetismo son positivas y negativas; las que se ven en la nuclear fuerte son cargas de color; aquí, las cargas son de sabor. Está de más que lo aclare, pero los nombres color y sabor son sólo eso, nombres, lo mismo daría llamarlas Pedro y Juan, porque es obvio que las partículas subatómicas no tienen sabor, y son mucho menores a la longitud de onda (la distancia entre las crestas de una onda; la distancia entre las partes más altas de una ola, por ejemplo) de la luz visible, por lo que tampoco tienen color en el sentido en el que lo entendemos los mortales. Esta interacción se encarga del cambio del sabor de los quarks y leptones; es la que produce la desintegración en partículas más livianas de quarks y leptones, es decir, que se conviertan en otras partículas distintas. También es la encargada de lo que se llama desintegración beta. En esta, un nucleido, que se entiende como las posibles agrupaciones de nucleones protones y neutrones (¿me explico? protones + neutrones, cada elemento de la tabla periódica tiene un nucleido principal, el más común, y, a su vez, por cada elemento hay varios isótopos, en los que los nucleidos difieren sólo en el número de neutrones), emite una partícula beta, las cuales son leptones (más específicamente, neutrinos y electrones). Figura 27: Desintegración beta de un nucleido: emisión de un electrón. Figura 28: Interpretación gráfica de la interacción débil, mediante el bosón W(-). Figura 29: Desintegración del neutrón en un protón, un electrón y un antineutrino electrónico. Figura 30: Representación gráfica de la desintegración de un neutrón. A través del bosón W(-), u quark down se transforma en un quark up (por lo que la partícula se convierte en un protón), y se emiten un electrón y un antineutrino electrónico. Todas estas fuerzas actúan a distancia, algunas a poca y otras a larga distancia. Cuando las fuerzas son ejercidas por un cuerpo sobre otro estamos todos tranquilos, no pasa nada raro. Y con las fuerzas a distancia, ¿qué carajo hacemos? En las teorías gravitatorias y electromagnéticas clásicas, para salvar el escollo planteado por el accionar de fuerzas a distancia, se introdujo el concepto de campo, de modo que este se extendía por todo el espacio entre los cuerpos estudiados, de forma que una perturbación de este campo en un punto por un elemento, se transmitía a través de este hasta llegar al otro cuerpo, donde ese campo perturbado ejercía una fuerza; básicamente, en esta teoría, el campo es un elemento más, que transmite perturbaciones, así que se podía decir (un poquito de imaginación che) que las fuerzas se transmitían, en última instancia, también por “contacto” entre partícula-campo campo-partícula. En un primer momento se planteó la idea de que esta fuerza se transmitía a través del campo en un tiempo nulo (instantánea); luego se propuso que lo hacía a la velocidad de la luz. Figura 31 Figura 32: Campo eléctrico generado por dos cargas iguales y por dos cargas opuestas respectivamente. Figura 33: Campo gravitatorio de una masa m. Tanto las leyes clásicas gravitatorias presentadas por Newton, y las electromagnéticas, formuladas por diversos científicos y recopiladas por Maxwell, hoy sabemos que son aproximaciones (que sirven de manera muy cercana a la exactitud, y a los efectos prácticos, con un error muy inferior al 1% para la mayoría de las aplicaciones mundanas) que a escalas subatómicas y/o a velocidades relativistas, fallan garrafalmente. Estudiando el interior de los átomos, se observaron comportamientos similares, que también pueden explicarse mediante una teoría que contenga campos (porque las fuerzas fundamentales son todas a distancia, a distancias subatómicas muy pequeñas, pero siguen siendo a distancia). Entonces, a cada interacción le corresponde un campo. Lo interesante es que cuando se estudiaron a fondo los resquicios de la mecánica cuántica, se encontró con que lo que se llama campo no es continuo, sino que está formada por cuantos, que son los bosones de gauge, y que el campo, al fin y al cabo, es el resultado de la interacción entre dichos bosones y los fermiones. Entonces, los bosones son los mediadores de fuerza o los portadores de las interacciones fundamentales (Son dos formas distintas de decir lo mismo). Los bosones que son responsables del campo electromagnético son los fotones; los que dan lugar a la interacción nuclear fuerte son los gluones; los encargados de mediar en la fuerza nuclear débil son los bosones W y Z (en realidad son tres: W± -léase W[superíndice]+- y Z [superíndice]0-), y los responsables de la gravedad son los hipotéticos gravitones, pero como ya dije más arriba, de existir, son muy escurridizos…gravedad y la concha de tu madre. La teoría que pretende cuantificar la interacción gravitatoria se denomina teoría de la gravedad cuántica. Todos estos bosones de gauge tienen una masa propia (la masa que tienen cuando están en reposo) nula (no quiero spammear, pero, para comprender mejor este concepto de masa propia, sería interesante ver ). El fotón, el hipotético gravitón y el gluón no joden con la masa. Ahora, afinando la teoría y las observaciones experimentales, se nota que los bosones W y Z deben tener (y tienen) masa; de hecho son muy masivos como para ser partículas elementales, son más densos aún que el núcleo de un átomo de hierro, ya que actúan a muy corta distancia. Pero… ¿Cómo explicar la masa de estas partículas elementales? Por el año 1964, varios físicos teóricos propusieron, de forma independiente, un mecanismo, enmarcado dentro del modelo estándar, que resolvía este problema. Se lo denominó mecanismo de Higgs. Este postula que existe un campo que impregna todo el espacio, llamado campo de Higgs, cuyo cuanto es la tan buscada, mentada, odiada, amada, preciada, mistificada, partícula de Higgs, el archimediático bosón de Higgs. Figura 34: Peter Higgs. Este mecanismo describe cómo se origina la masa en las partículas elementales (particularmente de los bosones W y Z), y también explica por qué otras no poseen masa. Como ya dije, este campo de Higgs, compuesto cuánticamente por bosones de Higgs, interactúa con algunas partículas elementales y no con otras; esta partícula, como los demás bosones de gauge, es la mediadora de una interacción, la interacción de Higgs. Figura 35: Representación gráfica del mecanismo de Higgs. Los fotones, gravitones y gluones no se enteran de la existencia del campo de Higgs (así como los leptones no se enteran de la interacción nuclear fuerte, por dan un ejemplo análogo), porque no interactúan con los bosones mediadoras de este campo. Los bosones W y Z, que son los mediadores de la fuerza nuclear débil interactúan fuertemente con este campo debido a su corta acción a distancia de acción, es decir, intercambian ““información”” (si me lee un físico me escupe la cara) con los bosones de Higgs. Así, entonces, estos bosones son los causantes, los responsables, del origen de la masa en las partículas…eso es todo. Va de nuevo, este bosón es el culpable de que las partículas que interaccionan con el tengan masa, dando una masa mayor a aquellas que más interactúan, y el que define cuáles partículas no poseen masa, debido a su nula (o pequeñésima) interacción con esta. Algo como una partícula discriminadora, “con vos todo bien, ¿cómo andás, vení, vení, acercate”, “con vos no me junto ni en pedo. Me importa un carajo, tomatela te dije”. Figura 36: Interacción de las partículas del modelo estándar. Recientemente, a mediados del año pasado (2012), se anunció el descubrimiento de una nueva partícula que se parecía mucho al bosón de Higgs. Posteriormente, en marzo de este año (2013), luego de haber analizado toneladas de información, se comunicó que esta partícula encaja perfectamente con este escurridizo bosón, tanto en sus características como en su interacción con las demás partículas fundamentales. Queda, todavía, decidir si el bosón hallado es, como expliqué al principio, el descrito en el modelo estándar, o si es uno de los bosones predichos por otras teorías alternativas. Figura 37 Básicamente, este es uno de los casos en los que los medios se cuelgan de una noticia del mundo de la ciencia por prestarse al sensacionalismo, debido a lo rimbombante de la misma, y como fue un físico el que acuñó el término “partícula de dios”, les dio el pie para bizarrearla, adoptar ese chiste como descripción absoluta de la partícula, y, ya que estaban, llamar al LHC “la máquina de dios”…bueno, el hambre y las ganas de comer. Figura 38 No digo que la partícula no sea importante, pero no lo es más que muchas otras, la importancia de esta es exterior, impropia llamémosla. Pero es la partícula que falta para cerrar el abanico de partículas teorizadas en el modelo estándar. Es como cuando se nos caen los dientes de niños, el último que se cae no es intrínsecamente más importante que cualquier otro diente, la importancia es relativa y viene dada por el hecho de que sea el último, el que cierra un ciclo. Digamos que es un descubrimiento oportunista, si hubiera sido otra partícula la faltante para completar el modelo, también la llamarían la partícula de dios. No sé, si la masa de los quarks u y d fueran distintas, los protones serían inestables, ergo, no habría átomos, ergo...bueno, es obvio ¿no? Si la masa del bosón W fuera menor, las estrellas tardarían más en formarse y consumirían su combustible mucho más rápido, no daría el tiempo para que se desarrolle la vida en un planeta (pasaron 4500 millones de años (aprox. , ¿no?) desde que surgió la vida hasta ahora, con la masa del bosón W mayor ni en pedo duraba todo eso el Sol; ahora, si fuera mayor, el Sol sería más chico, pero largaría ondas electromagnéticas mucho más energéticas, más aún que el ultravioleta, y la verdad quisiera ver vida ahí. Podría seguir, considerando masas y constantes con una mínima variación, y en todos los escenarios, yo no estaría comentando huevadas en T!; así que este dios es un pillín, nos hace trampa y se elige todas las partículas y constantes para él, como el nenito glotón que se mete todos los caramelos en el bolsillo, y a los otros no les deja posibilidad de elegir, y son todas las cosas en el universo (incluyendo al universo) de dios, o nos contentamos con el principio antrópico. ¿Alguien ha escuchado hablar de “democracia nuclear”? Es el concepto que postula que cada partícula elemental es igualmente "elemental" Básicamente, si no es el bosón de Higgs lo que encontraron, habrá que replantearse el modelo estándar, y habrá que formular una nueva teoría; y si es, todo bien, el modelo estándar feliz y contento; con su comprensión se podría pasar a un nuevo terreno en la investigación relativa a la materia oscura, ya que se tendría completo el modelo que describe las partículas elementales, cómo interactúan entre ellas y las consecuencias de estas interacciones…pero sí, al día de hoy ya está confirmado que se trata de un bosón de Higgs, queda saber si se trata del postulado en el modelo estándar o es sólo uno (el más liviano) de los predichos por otras teorías. Figura 39: “Hemos observado un nuevo bosón con una masa de 125,3 +/- 0,6 GeV con una significancia de sigma 4,9. Fuertes aplausos”. La información que se presenta a continuación es prescindible Glosario CERN Organización Europea para la Investigación Nuclear. Es el mayor laburatorio de investigación en física de partículas de todo el mundo. Se encuentra en la frontera entre Francia y Suiza. Cuenta con varios aceleradores de partículas, entre los que se destacan el LHC LHC Acelerador de partículas, de 27 km de circunferencia y un radio de 4 km. Es el mayor acelerador de partículas del mundo. En él, se aceleran dos haces de protones hasta alcanzar el 99,999% de la velocidad de la luz, para hacerlos chocar a altísimas energías; la mayor conseguida hasta ahora ha sido de 7 TeV (aún puede alcanzar energías tan altas como 14 TeV). Con esto se pretende obtener información sobre cómo fue el universo en los primeros instantes, en los que se sospecha, las cuatro fuerzas fundamentales estaban unificadas. Tabla 1 eV Electrón-Volt. Unidad de energía. En física de partículas se usa tanto como unidad de energía como de masa, relacionadas entre sí. Un eV es la energía de una partícula, mientras que, aunque también se expresa en eV, la masa de una partícula, aunque su verdadera unidad es eV/c^2, se la menciona como eV a secas. Una partícula con una masa de X eV tiene una energía equivalente a la contenida en una masa de X eV/c^2. Antipartícula Partícula con masa, y spin idénticos a una partícula “común”. Algunas partículas sin masa también pueden tener su antipartícula, aunque no todas. Spin Palabra ingresa equivalente a “giro”. Propiedad física intrínseca (de valor fijo) de las partículas (como la masa en reposo o la carga), que se refiere al momento angular (ver la entrada siguiente) intrínseco de cada partícula. Repito, esta es una propiedad intrínseca de cada tipo de partícula. El nombre es meramente ilustrativo y no tiene mucho que ver con el momento angular mecánico (bueno, tal vez sí, pero debemos tener en cuenta que la idea de un giro sobre un eje es sólo una ayuda de memoria para asociarlo con algo un poco más conocido). Esta bonita propiedad es exclusiva del mundo cuántico, no hay un equivalente exacto en la teoría clásica de giro en el espacio, sólo debemos tomar con pinzas la imagen mental. El espín no se puede representar como un movimiento real, es un número cuántico introducido para que “cierren” algunas cositas del mundillo cuántico. Entonces, como su valor es fijo no variará para distintos observadores, como mucho varía la dirección. Momento angular Si consideramos un cuerpo rígido que gira sobre su propio eje, el momento angular es la resistencia que se opone a la variación de la velocidad angular del sistema, la cual es una medida de la velocidad de rotación. Técnicamente se define como el ángulo girado (en radianes, básicamente es otra forma de medir ángulos distinta a los grados) por unidad de tiempo (segundo). Ley de la inversa del cuadrado Fenómeno físico en el cual la magnitud decrece con el cuadrado de la distancia al centro donde se originan. Figura 40: Ilustración de la ley de la inversa del cuadrado. Las líneas representan el flujo que emana de una fuente puntual. La densidad de líneas de flujo disminuye a medida que aumenta la distancia. Carga de color Análogo de la carga eléctrica de quarks y gluones. Hay tres colores distintos: rojo, azul y verde. A distinta combinaciones, distintas partículas. Carga de sabor Atributo que define a cada uno de los seis quarks: u (up), d (down), s (strange), c (charm), b (bottom), t (top). A su vez, cada uno de los cuales puede poseer uno de los tres colores, lo que nos daría un total de seis quarks (6saboresX3colores). Materia oscura Materia que no emite (o emite muy poca) radiación electromagnética para ser detectada con los medios que poseemos; se deduce su existencia debido al comportamiento distinto de la materia visible si su comportamiento se debiera sólo a la materia visible (valga la redundancia) circundante. No debe confundirse con la energía oscura; la masa oscura es una forma de materia, mientras que la energía oscura se entiende como un campo que impregna todo el espacio. Se estime que la masa oscura ocupa aproximadamente un 20% de la masa total del universo (al menos del observable). El papel de la física de partículas es la obtención de información sobre las partículas elementales que conforman dicha materia. Figura 41 Vida media Promedio de vida de un núcleo o de una partícula subatómica libre antes de desintegrarse. Este valor es específico de cada partícula. Una partícula no “envejece”, por lo que la vida media es una constante. Es el tiempo requerido para una muestra dada de partículas se desintegren a la mitad. Es un valor probabilístico, no se puede determinar qué partícula de la muestra se desintegrará primera, segunda, última… Neutrino Los neutrinos son fermiones sin carga eléctrica y con una masa muy pequeña y muy difícil de medir. Estas partículas tienen una interacción mínima con la materia, desde distintas fuentes la Tierra es bombardeada por miles de millones de neutrinos por segundo que nos atraviesan sin que nos demos cuenta. Literalmente, si dispusiéramos de un bloque de plomo de un año luz en el espacio exterior, éste sólo detendría la mitad de los neutrinos que lo impacten. Sólo los afectan las interacciones débil y gravitatoria. Existen tres tipos de neutrinos: electrónico, tauónico y muónico (y sus respectivas antipartículas), cada uno de ellos asociado a una de las tres cargas de sabor, y fluctúan aleatoriamente entre los tres sabores (“cambian” de un sabor a otro de forma aleatoria); es por ello que se hace muy difícil distinguir uno del otro, pero a su vez, fue lo que dio la pista de que los mismos debían tener masa. Información complementaria ¿Cómo se detectan las partículas subatómicas? Cuando dos partículas colisionan entre sí, creando y destruyendo distintas partículas. En las instalaciones de los aceleradores se cuenta con un software que dibuja electrónicamente las trazas que dejan estas partículas. Cuando se analizan estas trazas se pueden inferir las características de cada una de las partículas “nuevas”. Figura 42: Simulación de cómo deberían verse las trazas (estelas) del bosón de Higgs. Partículas estables e inestables Las partículas inestables son aquellas que libres se desintegran en otras más livianas espontáneamente. Los protones y electrones son estables; el resto de hadrones y todos leptones cargados son inestables. Existen límites inferiores en cuanto a la vida media de protones y electrones, pero son mayores a la edad del universo. Aún así, las teorías más aceptadas consideran la desintegración de los protones, pero la llamamos estable porque es lo mismo decir que nunca se van a desintegrar a decir que van a hacerlo en eones; esta consideraciones sólo se tienen en cuenta para el estudio de la muerte del universo. Los tiempos de vida media son, en general, específicos para cada partícula. Viene al caso decir que la vida media del bosón de Higgs es de un zeptosegundo; para dar una idea, en un segundo hay mil trillones (un 1 seguido de 21 ceros) de zeptosegundos. Características del bosón de Higgs Tabla 2 Partículas virtuales Son partículas elementales de existencia ínfima ("existen" por un instante), que violan (en apariencia) ciertas leyes de conservación. Cuando los bosones de gauge transmiten las interacciones los hacen en forma de partículas virtuales, que pueden ser creadas hasta en el vacío más perfecto posible. Trataré de explicarme mejor. Al momento del intercambio, el bosón, por un instante, se convierte en un par de partículas; y no hay medición alguna que nos pueda decir si esto “en realidad” ocurre o no. En ese instante, la partícula “fluctúa” entre dos partículas, y a la partícula adicional se la denomina partícula virtual.En la divulgación está muy difundido un abuso del lenguaje para explicar estas partículas; para no hacer un embrollo en la cabeza del lector se explica muy someramente y se da a entender que las intermediarias de las fuerzas son estas partículas, y termina pareciendo que son poco menos que mágicas, cualquiera. Otros casos en los que ocurre esto: Teoría de la relatividad simplificada a “nada se puede mover más rápido que la luz” (así, textual, hay al menos tres errores). Instante Un profesor de análisis (el Dr. Melgarejo) una vez nos preguntó “¿qué es un instante?”, todos comenzaron a aventurar (incorrectas) respuestas. Trazando una analogía, el concepto de instante se parece al de infinito. Infinito no es un número, no es el número más grande que existe, básicamente porque no existe tal cosa, infinito es un concepto, dicho groseramente, de interminable. Podemos elegir un número al azar y siempre va a haber un número más grande, y así hasta nunca terminar, entonces se dice que algo “tiende” al infinito, es justamente eso, una tendencia del sistema. El concepto de instante es algo similar. Tomamos un lapso de tiempo y lo comenzamos a achicar, achicar, achicar; pero siempre podremos encontrar un espacio de tiempo menor; cuando hacemos esto, decimos que el espacio de tiempo que estamos estudiando tiende a un instante, nunca llega a ser “un” instante. Bue…no sé si me expliqué o metí más la pata. Diagramas de Feynman Los diagramas de Feynman representan la interacción entre partículas elementales. Estos diagramas dicen mucho más de lo que parece, tipo de interacción, de partículas, etc.; de hecho, incluso, aportan información matemática de importancia. Las líneas rellenas representan partículas y las líneas punteadas (también pueden ser líneas onduladas, es lo mismo) representan la interacción. Figura 43 En la figura 43 tenemos un diagrama sencillito, en el se representa la colisión de dos partículas cualesquiera, “U”; al efectuarse la colisión, liberan un bosón intermediario, que se desintegrará en dos partículas “V”. Este sólo es un caso genérico entre un gran abanico de posibles diagramas. ¿Sigma 4,9? En primer lugar, sigma e refiere a un concepto estadístico llamado “desviación estándar”, esta expresa, en un valor numérico, la dispersión de los datos de una muestra cualquiera; es decir, nos dice si todos los datos que tenemos están concentrados alrededor de un valor, o, si por el contrario, están dispersos, tipo “nube”, sin hallarse particularmente de algún punto. Bien, los valores que contemplamos siguen lo que se conoce como distribución normal, cuya representación gráfica tiene forma de campana (campana de Gauss), con la parte del medio más alta, y va decreciendo hacia ambos lados. Figura 44: Distribución normal. Campana de Gauss. Vemos que para los valores menores de sigma la campana decrece, y, el valor medio se representa con la letra griega mu (esa que parece una u). La desviación es lo lejos que está un punto dado respecto de la media. Vemos que, a medida que el valor absoluto (el valor numérico sin signo) de sigma crece, la “sombra” bajo la curva ocupa cada vez una superficie mayor. Vemos en la figura 44 que para un valor absoluto de sigma 3, la superficie abarcada bajo la campana está entre el 99,5 y el 99,9 por ciento del total. Entonces, si los resultados de una investigación (pongámosle, en el caso de este bonito bosón, los valores en eV) se encuentran cerca de la media, es decir, valores absolutos de sigma pequeños, se observa que los datos no son consistentes con la teoría. Ejemplo: cuando en una encuesta a boca de urna (¿se sigue haciendo eso?) cuando las encuestadoras hablan del “margen de error”, se refieren a lo que “sobra” debajo de la curva sin sombrear, o sea, con sigma 2, el margen de error es de aprox. el 5%, por lo que el nivel de confianza ronda el 95% (decir sigma 2 implica nivel de confianza del 95%), ¿se entiende?. Entonces, con sigma tres, todavía tenemos un 5% fuera del area sombreada. Bien, ahora, sigma 4,9 (~ 5) equivale a una probabilidad de 1 en (+/-) 3.500.000; pero esta no es la probabilidad de que el bosón de Higgs exista o no, sino que expresa que 1 en 3.5 millones de ser debida a una fluctuación estadística; es decir, de que sea fruto del azar (no sé si me expresé bien…bue, sólo fui ayudante de mecánica racional, no es mi culpa , nah, creo que sí se entiende). ¿Por qué tanta vuelta todavía para dar por cierta la existencia del bosón? Como ya dije más arriba, yo creo que ya es prácticamente un hecho que la partícula descubierta en ese rango sea el bosón de Higgs; pero aún, para comunicar oficialmente su existencia se deben analizar algunos datos más. Usualmente sigma 5 es como un estándar “potable”, pero, por un lado, se trata de algo muy choto, algo que tal vez no comprendamos del todo, por lo que hay que buscar más información. El primer comunicado (el del 2012) fue de un valor de sigma 2,5 (aprox. , no sé, no me acuerdo), luego se analizaron más datos (2013), y se alcanzó el valor de sigma 4,9. Pero ya tienen un precedente fresco de un error con una desviación estándar de 6. Me refiero al (sonado) caso en el que se midió la velocidad los neutrinos superior al de las ondas electromagnéticas en el vacío (velocidad de la luz, c); finalmente, y a pesar del sigma 6, se corroboró que el tiempo de vuelo de los neutrinos es constante y no supera dicha velocidad. Será cuestión de tiempo hasta que lo hagan oficial. Links de interés* Página oficial del CERN (En inglés y francés) Visitar School of Physics & Astronomy, University of Edinburgh (En inglés) Visitar *No son fuentes de información para la escritura de este texto. Bien,su historia es muy interesante señor pelmazo... ...así que voy a transcribirla en mi máquina de escribir invisible. Créditos de las imágenes* Apertura Scan propio, extraído de la carpeta de apuntes de física III, UNLP, facultad de ingeniería, Titular Dr. Tocho. Inicio Captura propia. The Simpsons. Temporada 10, episodio 205. Figura 1 Figura 2 Figura 3 Figura 4 http://misdivagues.com/wordpress/?tag=fuerza-nuclear-fuerte Figura 5 Figura 6 Figura 7 http://foros.astroseti.org/viewtopic.php?f=2&t=8378 Figura 8 http://es.wikipedia.org/wiki/Part%C3%ADcula_elemental Figura 9 http://es.wikipedia.org/wiki/Archivo:Elementos_basicos_materia.png Figura 10 Figura 11 Figura 12 Figura 13 http://es.wikipedia.org/wiki/Lept%C3%B3n Figura 14 http://es.wikipedia.org/wiki/Bari%C3%B3n Figura 15 Figura 16 Figura 17 Figura 18 Figura 19 Figura 20 http://commons.wikimedia.org/wiki/File:Spacetime_curvature.png Figura 21 http://acer.forestales.upm.es/basicas/udfisica/asignaturas/fisica/electro/fuerza_electr.html Figura 22 http://es.wikipedia.org/wiki/Campo_el%C3%A9ctrico Figura 23 http://es.wikipedia.org/wiki/Electromagnetismo Figura 24 Figura 25 Figura 26 http://www.particleadventure.org/spanish/resid_strongs.html Figura 27 Figura 28 Figura 29 Figura 30 http://www.elenciclopedista.com.ar/la-fisica-de-particulas-y-las-interacciones-fundamentales Figura 31 Figura 32 http://es.wikipedia.org/wiki/Electrost%C3%A1tica Figura 33 Figura 34 Figura 35 Figura 36 http://es.wikipedia.org/wiki/Bos%C3%B3n_de_Higgs Figura 37 httpwww.fgcsic.eslychnoses_ESarticulosboson_de_higgs Figura 38 Figura 39 http://www.tumblr.com/tagged/particle%20physics?language=es_ES Figura 40 http://es.wikipedia.org/wiki/Ley_de_la_inversa_del_cuadrado Figura 41 http://es.wikipedia.org/wiki/Materia_oscura Figura 42 http://www.rtve.es/noticias/20111212/boson-higgs-preguntas-respuestas/481442.shtml Figura 43 Figura 44 Tabla 1 http://www.wolframalpha.com/ Tabla 2 http://www.wolframalpha.com/ Viñeta 1 Viñeta 2 http://mrpac.tumblr.com/post/26490881189 Viñeta 3 Captura propia. The Simpsons. Temporada 8, episodio 163. *No son fuentes de información, sólo utilicé las imágenes, las sacaba de Google imágenes a medida que las necesitaba (todo muy lindo...hasta que puse fermión )
La palabra ecología la creó el biólogo Ernst Haeckel en 1869, con el significado del estudio de la relación entre los seres vivos, entre sí y con su hábitat. El término se publicó treinta años después. Pero desde hace pocos años, el diccionario de nuestra lengua recoge un sentido más usual de ese vocablo, que es la defensa y protección de la naturaleza y del medio ambiente. La preocupación por los efectos ambientales del desarrollo tecnológico es relativamente nueva en la historia. Siempre hubo precursores y pioneros defensores del entorno, pero es a partir de 1980 que la cuestión ambiental nos alarma a todos, quizá porque ya sufrimos consecuencias de descuidos importantes, o porque a partir de las computadoras personales e Internet, hay más información accesible. Resumiré varias preocupaciones de raíz ambiental –muchas de ellas fundadas, otras no– asociadas con la producción y el uso de la electricidad. RECALENTAMIENTO PLANETARIO La mayor parte de la energía eléctrica producida en el mundo proviene de la quema de carbón, gas y petróleo, de la que resulta dióxido de carbono, gas que refuerza el efecto invernadero normal de la atmósfera. Principales yacimientos de carbón. Los Estados Unidos, con el 5% de la población mundial, emiten el 25% del dióxido de carbono que produce el mundo. AGRESIÓN DEL PAISAJE Los cables subterráneos son muy caros, entonces abundan los antiestéticos y peligrosos tendidos de cables a la vista. (A veces chocan con los cables helicópteros, avionetas, planeadores y aladeltas.) Los cables exteriores dañan doblemente el ambiente; por una parte empeoran el paisaje; por otra, cuando los voltea una tormenta, son fuentes de riesgo de electrocución. USO DE ACEITES VENENOSOS Algunas variedades de aceites aislantes podrían perjudicar la salud si llegasen a las aguas subterráneas, lo que ocurre cuando los transformadores que los usan tienen fugas. En nuestro país, ese líquido se terminó de retirar de servicio en 2006. La ley 25.670 establece que todo aparato que lo haya contenido debe tener un cartel que lo indique. En el ambiente técnico es frecuente usar expresiones inglesas; en la foto, NO PCB significa, en nuestro idioma, SIN PCB. (Los PCB son 209 sustancias químicas de la familia del policlorobifenilo, cuya fórmula es C12 H(10-n) Cln, donde n varía entre 1 y 10. Supuestamente, ese aceite no debería tomar contacto con el exterior; pero los recipientes pierden a veces, como lo delatan las manchas oscuras de polvo adherido, que se ven en algunos transformadores suburbanos. En las ciudades, los transformadores están en cámaras cerradas, algunas subterráneas. (El acrónimo PCB significa, también, printed circuit board, plaqueta de circuito impreso; eso dio origen a confusiones en trámites de importación.) INTERFERENCIA Las líneas en mal estado, sucias, con cables deshilachados o aisladores rotos, ionizan el aire cercano, y generan ondas que interfieren las comunicaciones. Efecto corona, causante de interferencias, en un aislador defectuoso. El fenómeno es casi invisible; la foto se tomó de noche, en pose, y durante un minuto. El campo eléctrico de radiointerferencia tiene un nivel máximo permitido, que se mide en microvolt por metro, con un receptor. RIESGO DE CONTAMINACIÓN RADIACTIVA Si bien las centrales nucleares son hoy las más limpias y las menos agresivas del ambiente, la población las ve con gran reserva, sobre todo después de varios accidentes en los que se dispersaron venenos radiactivos. También se denuncian supuestos daños causados por la mera presencia de las centrales nucleares. La cultura hostil hacia esa forma de generación aparece en sátiras y dibujos animados de países que queman mucho carbón, o donde se teme que los residuos de la industria nuclear se empleen en la fabricación de armas en su contra. Lo que sale de las torres de enfriamiento es vapor de agua. En ningún momento los residuos se mezclan con el ambiente; son debidamente tratados y resguardados. Los grandes productores de petróleo y carbón han demonizado de tal modo a este tipo de generación que es imposible mencionarla sin generar controversia. A pesar de todo, es una de las formas de generación menos agresiva con el ambiente, la más económica y una de las más limpias A pesar de lo que vemos en Los Simpsosns, no es tan sencillo trabajar en una planta nuclear, las mismas exigen un alto grado de preparación hasta en el más prescindible de los técnicos. ACCIDENTES ELÉCTRICOS Estos percances se deben considerar como un problema ambiental de la electricidad, ya que causan la muerte de humanos y animales. Son más los daños por los efectos indirectos de la electricidad (incendio, asfixia, caídas) que por el choque directo. En los inicios de la era eléctrica, en 1900, había mucha sensibilidad popular al respecto; hoy estamos más endurecidos. EFECTOS BIOLÓGICOS DE LOS CAMPOS ELECTROMAGNÉTICOS El campo eléctrico que admite la Organización Mundial de la Salud, de 5 kV/m, en campos de frecuencia menor de 300 Hz. Hasta la misma frecuencia, el límite de inducción magnética que recomienda ese organismo es de 100 microtesla, unas cinco veces la del campo terrestre. Para frecuencias mayores, el límite es de 5 miliwatt por centímetro cuadrado. (En frecuencias altas hay propagación de ondas, cuyos campos eléctrico y magnético máximos se vinculan por la relación E/B = c, donde c es la velocidad de la luz en el vacío. Por eso se da un único parámetro, en vez uno eléctrico y otro magnético.) Tanto las instalaciones de transmisión de energía, como los transformadores, transmisores, y todo artefacto eléctrico (eso incluye los teléfonos celulares) emiten radiaciones y campos que son inferiores a los límites higiénicos mencionados. Sin embargo, se oyen voces de alarma al respecto, y hay organizaciones que se oponen a los transformadores a la vis.ta, a las torres de comunicaciones, y a las líneas aéreas de transporte de energía. (Evito juzgar las protestas ecologistas; sólo ofrezco datos y conceptos científicos y técnicos –o los medios paraobtenerlos– para que cada uno, y cada una, adopte libremente su posición de conciencia.) Efectos ambientales de la quema de combustibles fósiles La figura revela el llamado período cálido medieval, en el año 1000, y la pequeña edad de hielo, seis siglos después. En los últimos dos mil años, la temperatura varió medio grado arriba y abajo del promedio. Pero si sólo se consideran los últimos cinco siglos, se aprecia un aumento grande. Hay registros de temperatura desde la invención del termómetro, en el siglo XVIII. Para saber cuál era la temperatura antes, se recurre a testimonios de efectos cualitativos, y más objetivamente, al estudio de los anillos de los árboles (Craig Loehle no confía en los anillos de los árboles, porque su grosor depende tanto de la temperatura, como de la radiación solar y las lluvias. Las estimaciones de ese investigador se basan en las propiedades químicas de los sedimentos) y las características químicas de los sedimentos en las cuencas. Algunos investigadores opinan que el calentamiento global que vivimos ya ha ocurrido antes, muchas veces, y que la generación de electricidad y el uso de automóviles son relativamente inocentes en relación con ese fenómeno. Otros estudiosos –la gran mayoría– consideran que estamos frente a un fenómeno grave y nuevo, coincidente con la era industrial, y causado por la actividad humana, la cual debe cambiar, bajo la autoridad de los gobiernos y el apoyo de empresas y organizaciones, para reducir los efectos negativos que ya sufrimos. Nivel de dióxido de carbono en la atmósfera. A partir de la Revolución Industrial del siglo XVIII, se registra un aumento del cuarenta por ciento. Mecanismo del efecto invernadero. La atmósfera es muy transparente a casi toda la radiación solar, llamada de onda corta; la mitad de ella visible. Cuando el Sol incide sobre el suelo, lo calienta, y la Tierra emite una radiación de onda larga, que no atraviesa la atmósfera, la que absorbe esa energía, y aumenta su temperatura. Economía de energía eléctrica; prácticas aconsejables Aparte de las decisiones de gobierno y del trabajo de empresas y organizaciones, los especialistas en cambios atmosféricos hacen las siguientes recomendaciones para las acciones individuales voluntarias, que podrían evitar indeseables medidas económicas disuasivas, como podrían ser los impuestos a los viajes en avión, la prohibición de circulación de coches con una sola persona a bordo, o los aumentos en electricidad y combustibles. • Cambiar las lámparas incandescentes por fluorescentes compactas, más conocidas como lámparas de bajo consumo. • Ajustar el termostato del aire acondicionado a una temperatura no muy extrema: 24 grados en verano, y 18 en invierno. • Moderar el uso del agua caliente, y cerrarla mientras lavamos los platos, o nos desvestimos para el baño. • Secar la ropa al aire libre, si tenemos lugar, en vez usar el secado eléctrico. • Comprar productos de papel reciclado, cuya fabricación demanda menos de la mitad de la energía que requiere el papel nuevo. E imprimir sólo lo necesario. • Consumir, si hay, alimentos frescos. El envasado y el congelado son energéticamente costosos. • Apagar los aparatos eléctricos que no se estén usando, especialmente estufas, planchas, luces intensas y televisores de tubos de rayos catódicos. En vez de dejar una luz siempre encendida de noche, ponerle un sensor pasivo infrarrojo, que la encienda sólo si alguien se acerca. • Viajar en transporte público; preferir los coches de menor consumo. Compartir el viaje; ofrecerse a acercar a alguien. Manejar sin aceleradas ni frenadas evitables, y evitar los embotellamientos. • Moderar los vuelos. La mitad del valor del pasaje se quema en las turbinas. • Plantar árboles. Reponer los que derriban las tormentas. Desalentar la ocupación de plazas y espacios verdes con puestos de comercio, por ejemplo, no comprar nada ahí, o votar autoridades que les brinden espacios adecuados a los artesanos. • Comprar artefactos que consuman poco, aunque sean más caros. Alentar el desarrollo de productos de bajo consumo. • Se discute si la basura se debe quemar o enterrar, porque en ambos casos produce gases invernadero; dióxido de carbono en el primero, y metano en el segundo. Todo lo que podemos hacer es tratar de producir menos residuos. Riesgos y necesidades de la electrodependencia El ansia de la indispensable libertad hace que deploremos todo tipo de dependencia, entre ellas la tecnológica. Pero tampoco deseamos una vida salvaje e incómoda, con hambre, enfermedades y muertes en el parto. Tratamos entonces de reducir los riesgos de falta de energía, por ejemplo con dobles líneas de alta tensión, conexiones de doble alimentación, y en anillo, para la distribución de energía, y con dos grupos electrógenos de emergencia para cada hospital o lugar crítico de salud y de vida. La figura muestra un esquema típico de distribución Llegan dos líneas de alta tensión, (lorenhey para Taringa!) que alimentan un par de transformadores. Dos conjuntos de interruptores distribuyen la energía entre las ciudades. Cuando falla una línea, o un transformador, se los desconecta, y se alimenta todo desde la otra rama, hasta que arreglen el desperfecto. Hay sistemas de doble juego de barras horizontales, por si la falla ocurriera en el propio tablero de distribución, el cual se construye de modo que un percance en una parte, no propague el daño a otras. Salubridad Aparte de lo dicho en relación con la emisión de gases invernadero, los aceites contaminantes y los mínimos campos electromagnéticos, mencionaré a continuación otras cuestiones vinculadas con la salubridad, la energía eléctrica, su producción y sus usos. ADITIVOS DE RETARDO DE LLAMA En la prevención de los daños por incendio, hay una oposición entre la reducción del riesgo de quemadura y la reducción del riesgo de intoxicación. En la tragedia de República de Cromagnon en el barrio de Once en Buenos Aires, a fines de 2004, nadie resultó gravemente quemado; pero sí murieron casi doscientas personas por intoxicación con los gases venenosos que despidieron los plásticos a los que se les añaden sales de bromo y otras sustancias que reducen la velocidad de propagación de la llama en caso de incendio; los mismos que se usan en la envoltura aislante de los conductores eléctricos. En ciudades de países industrializados, pero con muchas construcciones de madera y materiales combustibles, se prefiere el humo venenoso al fuego vivo. Quizás en las ciudades argentinas, en las que se emplea más el ladrillo, convenga, a la inversa, reducir las exigencias de incombustibilidad de los materiales eléctricos aislantes. RUIDO Los reactores, reactancias o balastos de los tubos fluorescentes grandes, o de las lámparas de mercurio, tienen una bobina con núcleo de hierro laminado que sirve para regular la corriente. (Si no estuviera el balasto, la corriente crecería hasta la destrucción de la lámpara, o hasta que actúe alguna protección, porque los gases son CTN (de coeficiente de temperatura negativo, en inglés NTC), materiales cuya resistencia disminuye al aumentar la temperatura. A la inversa, los metales sólidos aumentan su resistencia eléctrica cuando se calientan (balasto significa carga, o contrapeso)). Cuando las chapas del núcleo se aflojan, vibran y generan un ruido molesto e insalubre. Los artefactos de arranque electrónico suelen tener núcleos de ferrita, en los que el material magnético no está dividido en láminas separadas, sino en forma de polvo disperso en cerámica maciza y aislante; entonces no hacen ruido, aunque se aflojen sus partes. (Los núcleos magnéticos de transformadores, balastos y motores suelen estar laminados, o ser de ferritas, porque si fueran enterizos de hierro, la inducción alterna generaría en el metal fuerzas electromotrices que harían circular corrientes en remolino (eddy currents), con recalentamiento del material y pérdidas de energía.) MERCURIO EN LAS PILAS DE BOTON La energia que suministra una pila es insignificante frente a la que se obtiene de la red por el mismo costo. Una pila boton de 2 volt y 200 mA.h puede, en teoria, suministrar doscientos miliampere durante una hora. Eso equivale a 1 x 0,2 A x 2 V = 0,4 W.h, o 0,0004 kW.h. El precio de esa energia, si se la toma de la red, es de 600 microcentavos, o seis micropesos. La pila vale un peso (por decir algo), quince mil veces mas de lo que brinda. Sin embargo, las usamos igualmente, porque no podemos llevar un reloj pulsera o una calculadora siempre enchufados en un tomacorriente. El alto costo de la energia de las pilas se justifica por el servicio especial que brindan. El problema con ellas es que, cuando se las desecha, afectan la salubridad del medio ambiente, porque contienen mercurio, un elemento químico pesado, cuyas sales son muy tóxicas y producen enfermedades nerviosas y renales. En nuestro país hubo un caso de intoxicación grave con pañales de tela desinfectados con sales de mercurio. Medicamentos a base de mertiolato o mercurocromo o timerosal (C9H9HgNaO2S) cambiaron de fórmula y ya no usan mercurio. en nuestro país algunos municipios ya se ocupan de recoger las pilas gastadas, para asegurarles un destino alejado del agua que bebemos. En la actualidad y en nuestro país, la mayor emisión de mercurio al ambiente proviene de la incineración de residuos hospitalarios. MERCURIO EN LAS LÁMPARAS FLUORESCENTES Por una parte, el uso de lámparas fluorescentes compactas ahorra energía; eso hace que se quemen menos combustibles, se emitan menos gases invernadero, y se contribuya a disminuir la gravedad del cambio climático. Pero por otro lado, esas lámparas contienen mercurio, perjudicial para el medio ambiente, cuando llega al agua subterránea después de tirar a la basura esas lámparas, cuando ya no sirven. En nuestro país, sólo unos pocos municipios tienen en marcha un sistema de recolección diferenciada de esa clase de residuos. Hay quienes, por eso, se oponen a las campañas de reducción de consumo basadas en el reemplazo de lámparas incandescentes por fluorescentes. Energía limpia de fusión Todavía está en fase experimental, con resultados prometedores, la obtención de energía eléctrica en centrales nucleares de fusión. En esas instalaciones se unen entre sí núcleos de deuterio, para formar núcleos de helio. El deuterio es una variedad del hidrógeno, que en vez tener un protón y un electrón, como el hidrógeno ordinario, tiene además un neutrón. Ese isótopo (Isótopo, en griego, significa en el mismo lugar. Los elementos químicos cuyos núcleos tienen igual cantidad de protones, y sólo difieren en la de neutrones, se consideran el mismo elemento químico, y ocupan la misma casilla en la tabla periódica de los elementos) del hidrógeno, está presente en el agua común, en una proporción del 0,014%. De cada siete mil átomos de hidrógeno, uno es de deuterio. La reacción de fusión para obtener energía útil también es factible con tritio, un isótopo del hidrógeno con dos neutrones, además del protón. La masa de un átomo de helio es un poco menor que la masa de dos átomos de deuterio. En unidades u de masa atómica (Una unidad de masa atomica es la duodecima parte de la masa de un atomo de carbono 12, y vale 1 u = 1,660 737 86 x 10e-27 kg.): Átomo de deuterio: 2, 014102 u; el doble: 4, 028204 u Átomo de helio: 4, 002603 u Diferencia: 0,25501 u (más del 0,5%) De cada 18 kilos de agua, dos son de hidrógeno, en cada uno de los cuales hay 0,00014 kg de deuterio. El medio por ciento de eso es 0,0000014 kg de materia, que convertida en energía con la célebre fórmula de Einstein E=mc², resulta de más de 10e11 joule, o watt segundo, que equivalen a 35.000 kilowatt hora, suficientes para alimentar una casa mediana durante setenta bimestres, u once años. Y sólo con un balde de agua de la canilla. Los residuos de esa reacción nuclear son inocuos, y se pueden ventilar a la atmósfera sin prevenciones. Pero para acercar suficientemente dos núcleos de deuterio, en contra de la formidable fuerza de repulsión eléctrica, que podríamos sentir en los dedos, hay que arrojar los núcleos unos contra otros con suficiente velocidad, y para eso hay que calentar un gas a cien millones de grados. UN POSIBLE GENERADOR DE PLASMA un plasma es un gas totalmente ionizado, lo que ocurre (entre otros casos), cuando se encuentra a una elevada temperatura. En esas condiciones, conduce bien la electricidad, porque está compuesto de iones libres de ambas polaridades, que reciben fuerzas de los campos eléctricos presentes. En el reactor de cámara toroidal el plasma se encuentra en la circunferencia central del toro, donde están las flechas interiores en la imagen de arriba de la figura. Hay una bobina primaria, marcada en azul, arrollada alrededor de un núcleo paramagnético. El anillo de plasma conductor funciona como un secundario de una sola espira en cortocircuito, que se calienta para el arranque cuando se alimenta la bobina primaria con tensión alterna de alta frecuencia. En anillo rojo (la imagen del medio) representa una de muchas bobinas alrededor del toro, que en conjunto generan una inducción en la dirección del hilo de plasma. Y así como las partículas cargadas que vienen del Sol siguen las líneas del campo magnético terrestre, la inducción de las bobinas alrededor del toro ayudan a mantener el hilo de plasma bien delgado, y alejado de las paredes, para que el plasma no se enfríe, y las paredes no se quemen. (Las flechas negras en la iamgen de abajo indican el sentido de circulación de la corriente en los anillos rojos.) Los cables paralelos por los que circula corriente, se atraen. Por la misma razón, el hilo de plasma tiende a mantenerse unido por ese efecto de encogimiento radial. Cuando el plasma alcanza unos cien millones de grados, comienzan las reacciones de fusión, y genera energía propia que ya no viene de afuera. Esa condición ya se alcanzó experimentalmente durante tiempos muy breves, desde hace décadas. El calor generado en la reacción puede calentar un fluido de intercambio, para hervir agua y generar vapor que aprovechen turbinas, pero se investiga también la posibilidad de extraer directamente la energía eléctrica del propio reactor, por medios electromagnéticos y sin turbinas, si se consigue la adecuada oscilación de una corriente en el plasma. Hay decenas de países, cada uno con varios reactores de fusión en marcha, que procuran avanzar en el desarrollo de prototipos que funcionen de manera estable, y no por breves períodos experimentales. Se calcula que en 2020 estaría resuelta esa etapa, e iniciada la de obtención de un reactor de utilidad industrial.
¿Se puede jugar al tenis utilizando un pulso láser como pelota y dos espejos como raqueta? Figura 1 Figura 2: Creo que no es una raqueta de tenis, es de algún otro parecido, pero bue, es a modo ilustrativo. Todos sabemos que para lanzar una piedra lo más lejos posible tenemos que correr al mismo tiempo que la tiramos; sabemos instintivamente que así la velocidad de la piedra respecto al suelo será mayor. Pero (siempre hay un pero, yo le digo "la letra chica de dios" ) para sorpresa inicial de todo el mundo, los experimentos muestran que la luz emitida por una lámpara en movimiento tiene la misma velocidad que la luz emitida por una lámpara en reposo. La luz (en el vacío) nunca es más rápida que la luz (la redundancia es adrede); todos los haces de luz tienen la misma velocidad. Este resultado se ha confirmado miles de veces y con gran precisión por muchos experimentos especialmente diseñados para ello. La velocidad de la luz se puede medir con una precisión mayor que 1 m/s; pero no se ha encontrado ninguna puta diferencia, incluso para lámparas que se mueven a más de 290.000.000 m/s. Mirá vos che, que bonito...¿de dónde mierda sacan una lámpara que se mueva a esa velocidad? Ta taaaaan...partículas subatómicas. Sí, partículas subatómicas, tales como los muones, que decaen emitiendo un fotón. También, las estrellas están constantemente emitiendo chorros de materia que se mueven a velocidades comparables a la velocidad de la luz en el vacío. En la vida cotidiana, sabemos que una piedra llega antes si corremos hacia ella. De nuevo, para la luz, no se encuentra diferencia. Todos los experimentos muestran que la velocidad de la luz es la misma para todos los observadores, incluso aunque se estén moviendo unos respecto a otros, o respecto a la fuente de luz. La velocidad de la luz es realmente el patrón de medida perfecto. La velocidad de la luz es, también, igual en todas las direcciones del espacio. Figura 3: Suma de velocidades en mecánica clásica. El pájaro se mueve con velocidad v respecto al sistema S. Sin embargo, desde el punto de vista del piloto del avión, el pájaro se aleja de él a una velocidad v′ mayor. Figura 4: En la tierra tenemos un observador que ve pasar rápidamente al vagón a la velocidad de 100 mil kilómetros por segundo. El pasajero ve salir al rayo de luz de la linterna con una velocidad de 300 mil kilómetros por segundo. Nuestro sentido común nos dice que el observador en tierra verá la velocidad del rayo de luz de 300 mil kilómetros por segundo a la que se sumará a la velocidad del vagón de 100 mil kilómetros por segundo resultándole en una velocidad de 400 mil kilómetros por segundo. Pero la Teoría de la Relatividad nos dice que él también medirá una velocidad de 300 mil kilómetros por segundo para el rayo de luz. ¡Ambos miden la misma velocidad para la luz! Hay también un segundo conjunto de evidencias experimentales para la constancia de la velocidad de la luz. Todos los dispositivos electromagnéticos (no sé, un ampli, cualquier cosa) muestran que la velocidad de la luz es constante. Resulta (creéme) que los campos magnéticos no se formarían a partir de corrientes eléctricas, como lo hacen en cada motor y en cada parlante del mundo, si la velocidad de la luz no fuese constante. Así fue, de hecho, como varios científicos dedujeron por primera vez la constancia de la velocidad de la luz. Sólo tras comprender esto, pudo el físico germano-suizo Albert Einstein mostrar que dicha constancia también está en acuerdo con el movimiento de los cuerpos, como veremos en un ratito. En términos sencillos: si la velocidad de la luz no fuese constante, los observadores podrían moverse a la velocidad de la luz. Puesto que la luz es una onda, tales observadores verían una onda que se mantiene quieta. Pero éste es un fenómeno prohibido por el electromagnetismo, por tanto los observadores no pueden alcanzar la velocidad de la luz. En resumen, la velocidad v de cualquier sistema físico (es decir, cualquier masa o energía localizada) está acotada por Esta relación es la base de la relatividad especial; de hecho, toda la teoría de la relatividad especial está contenida en ella. Einstein a menudo lamentaba que su teoría se llamase ‘Relativitätstheorie’ o ‘teoría de la relatividad’; él prefería el nombre ‘Invarianztheorie’ o ‘teoría de la invarianza’, pero nunca consiguió cambiar el nombre. Figura 5: Albert Einstein. La constancia de la velocidad de la luz contrasta completamente con la mecánica newtoniana, y prueba que ésta es incorrecta a grandes velocidades. A bajas velocidades la descripción es buena porque el error es pequeño. Pero si queremos una descripción válida para todas las velocidades, tendremos que descartar la mecánica de Newton. Por ejemplo, cuando jugamos al tenis usamos el hecho de que golpeando la pelota de la manera correcta, podemos incrementar o decrementar su velocidad. Pero con la luz no es posible. Incluso si nos subimos en un avión y volamos hacia el haz de luz, éste seguirá moviéndose a la misma velocidad. La luz no se comporta como los autos. Si manejamos un bondi y pisamos el acelerador, los autos del otro sentido de la ruta se cruzan con nosotros a mayor velocidad. Con la luz no ocurre esto: la luz siempre nos encuentra a la misma velocidad ¿Por qué este resultado es tan increíble, incluso cuando las medidas nos lo muestran sin ningún tipo de duda? Consideremos dos observadores, O y Ω (utilizo esta nomenclatura por costumbre y porque creo que no dejan lugar a malos entendidos), que se acercan con una velocidad relativa v, tal y como lo harían dos autos en sentidos contrarios. Imaginemos que, en el momento en el que se cruzan, un flash de luz se emite desde una lámpara situada en O. El flash de luz se mueve por las posiciones x(t) (con esto me refiero a la posición "x" del haz de luz, el cual depende del valor de "t", es decir, depende del tiempo, esta en función a él) visto desde O, y por las posiciones ξ(τ) desde Ω (lo mismo "ξ" es la posición del haz de luz, vista por el observador Ω, que depende de "τ", de nuevo, la posición está en función del tiempo). Puesto que la velocidad de la luz es la misma para ambos, tenemos Sin embargo, en la situación descrita, obviamente tenemos que x ≠ ξ. En otras palabras, la constancia de la velocidad de la luz implica que t ≠ τ, es decir, que ¡el tiempo es distinto para observadores que se mueven uno respecto del otro! El tiempo no es único. Este sorprendente (y en un primer asomo, curioso) resultado, que ha sido confirmado por muchos experimentos, fue establecido por primera vez de forma clara por Albert Einstein en 1905. Aunque otros muchos sabían que c era invariable, tan sólo el joven Einstein tuvo el coraje de decir que el tiempo depende del observador, y de asumir las consecuencias. Ya en 1895, la discusión acerca de la invarianza del punto de vista había sido llamada teoría de la relatividad por Henri Poincaré. Einstein llamó teoría de la relatividad especial a la descripción del movimiento sin gravedad, y teoría de la relatividad general a la descripción del movimiento con gravedad. Ambos campos están llenos de resultados fascinantes y contrarios a la intuición. En particular, muestran que la física newtoniana es incorrecta a velocidades altas. Figura 6: Henri Poincaré. La velocidad de la luz es una velocidad límite. Ojo, no estoy hablando de la situación en la que una partícula se mueve con una velocidad mayor que la que tiene la luz en la materia, pero menor que la que tiene la luz en el vacío. Moverse en un material más rápido de lo que lo hace la luz es posible. Si la partícula está cargada, esta situación produce lo que se denomina radiación de Čerenkov. Es el equivalente a la onda con forma de V creada por una lancha a motor en el agua, o a la onda de choque con forma de cono formada alrededor de un avión supersónico (tipo Concorde). Figura 7: Frente de ondas de la radiación de Cherenkov. Figura 8: Radiación de Cherenkov brillando en el núcleo de un Reactor de pruebas. La radiación de Čerenkov se observa de forma rutinaria; por ejemplo, es la causa del brillo azul del agua de los reactores nucleares. Dicho sea de paso, la velocidad de la luz en la materia puede ser bastante baja: en el centro del Sol, la velocidad de la luz se estima que es de alrededor de 10 km/año, e incluso en el laboratorio, para algunos materiales se ha encontrado que vale tan poco como 0,3 m/s. Ahora, volviendo a lo nuestro, si quisiéramos jugar un "tenis lumínico" con dos espejos, y suponiendo que nos encontramos a 5 segundos-luz (por poner un valor, no tengo la más puta idea de las velocidades de una pelota de tenis en un partido, ni siquiera sé las dimensiones de una cancha de tenis), de modo que tengamos tiempo a "actuar" con nuestras raquetas, el juego se reduciría a cambiar la dirección del pulso de luz, no podríamos hacer ningún cambio en su velocidad, así que todas las jugadas (¿está bien dicho?) serían aburridas, el saque sería a la misma velocidad que cualquier otro golpe a la "pelota". Así, en teoría, se podría, eso sí, aburriría a los 5 minutos. Si no te asustan las ecuaciones... La composición de velocidades es el cambio en la velocidad de un cuerpo al ser medida en diferentes sistemas de referencia inerciales. En la física newtoniana se calcula mediante Sin embargo, debido a las modificaciones del espacio y el tiempo, esta relación no es válida en Relatividad Especial. Para llegar a la ecuación correcta, utilizamos las transformaciones de Lorentz. Veamos: Tenemos un sistema S de coordenadas y un sistema S' de coordenadas Gráficamente: Figura 9 Las ecuaciones que describen la transformación de un sistema a otro son: Donde: Ahora mediante las transformadas de Lorentz puede obtenerse la fórmula correcta: Como podemos observar, para velocidades "pequeñas", ésta última se aproxima mucho a la ecuación 1. Aclaración: Sólo di una pequeñísima información cuantitativa, lo más sencilla que pude, y, aunque el aparataje matemático para la relatividad especial no es muy complejo, escapa a este artículo su planteo. Créditos de las imágenes Figura 1: http://www.haycancha.com/ Figura 2: http://www.tuteate.com/tag/espejo/ Figura 3: https://es.wikipedia.org/wiki/Teor%C3%ADa_de_la_relatividad_especial Figuras 4 y 9: http://teoria-de-la-relatividad.blogspot.com.ar/2009/03/4-las-consecuencias-directas-de-la.html Figura 5: http://es.wikipedia.org/wiki/Albert_Einstein Figura 6: http://es.wikipedia.org/wiki/Poincare Figuras 7 y 8: http://es.wikipedia.org/wiki/Efecto_Cerenkov Para finlizar me quiero quedar con dos frases: “Fama nihil est celerius.” (Nada es más rápido que el rumor) Virgilio. Eneida, libro IV, versos 173 y 174. “Et nihil est celerius annis.” (Nada es más rápido que el paso de los años) Ovidio. Metamorfosis, Libro X, verso 520.

Al caos que siguió a la explosión ocurrida a la 1:23 del 26 de abril de 1986 en el reactor número 4 de la central nuclear de Chernobyl, ubicada a 110 km de la capital ucraniana de Kiev, y el hermetismo de las autoridades de la ya desaparecida URSS impidieron que por mucho tiempo se conocieran las causas y consecuencias de la tragedia. Luego de más de más de 20 años, algunas investigaciones científicas han permitido hacer una reconstrucción de los hechos. Sin embargo, los informes sobre las consecuencias de la tragedia, en lo ambiental y humano, parecen indicar que todavía no se sabe con exactitud cual es su verdadera magnitud. En la actualidad, cinco millones de personas viven en zonas contaminadas Rusia, Bielorrusia y Ucrania, y unas 7 mil a pocos kilómetros de los restos de la central, donde se continúa trabajando para evitar un nuevo accidente. LA HISTORIA RECONSTRUIDA Una serie de errores humanos podría haber sido la causa del accidente. Analicemos por puntos lo ocurrido: 1- Esa noche, los técnicos de matenimiento debían apagar el reactor para realizar una prueba de seguridad, pero, para evitar una serie de problemas, decidieron reducir considerablemente la potencia de salida del reactor y generar condiciones semejantes al apagado total. Para ello fue necesario que desactivaran los sistemas de seguridad. 2- Para lograr la disminución, realizaron maniobras con las barras controladoras de potencia, que tienen la capacidad de absorber los neutrones generados en la reacción en cadena. Esto generó condiciones inestables y pronto hubo un exceso de gas xenón, uno de los productos de la fisión nuclear. Para resolver el problema, los técnicos intentaron aumentar la potencia del reactor, pero ésta ascendió súbitamente a casi 10 veces el valor normal de funcionamiento. 3- La alta temperatura y la acumulación de productos inestables dentro del núcleo sellado herméticamente hicieron subir la presón, que finalmente hizo estallar el reactor de 1700 toneladas. La explosión emitió 500 veces más radiación que la bomba atómica lanzada sobre Hiroshima en 1945. MEDIDAS DESESPERADAS El desconocimiento y la improvisación marcaron las acciones posteriores. Veamos cuál fue el curso de acción. 1- En un primer momento, se envió al cuerpo de bomberos de Prypyat para apagar el incendio. Los oficiales llegaron a la planta sin la protección adecuada para enfrentar la situación y se expusieron a grandes dosis de radiación que les provocaron la muerte. 2- El primer día, la vida continuó siendo normal en Prypyat, la ciudad modelo construida a menos de dos kilómetros de la planta nuclear para albergar al personal y su familia. Sus habitantes fueron evacuados recién a las 36 horas del accidente y en los poblados vecinos, esta tarea demandó varios días. 3- Después de días sin que el fuego pudiera ser controlado, se arrojaron desde helicópteros más de 5000 toneladas de plomo, arena y otros materiales químicos a fin de impedir la fuga radiactiva. Esta acción también hizo posible apagar el incendio. 4- Hubo miles de héroes que, a pesar de la intensa radiación, trabajaron sin cesar para evitar una catástrofe mayor. En los meses siguientes, los "liquidadores", como se los conoció, construyeron sobre el ractor una gran estructura de hormigón, el "sarcófago", para impedir que la radiactividad siguiera contaminando. ESTRAGOS CONTINENTALES Falta de información y hermetismo. La radiación fue detectada en Suecia a los dos días del accidente y recién esa noche, luego de que este país anunciara que se disponía a presentar un alerta ante el Organismo Internacional de Energía atómica, las autoridades de la URSS reconocieron que uno de los reactores estaba dañado. Sólo dos semanas después del accidente se conoció un informe oficial que reflejaba, a medias, la magnitud de los hechos. LA TRAGEDIA INTERMINABLE 26 años más tarde, las consecuencias no pueden ser evaluadas. El informe publicado en 2005 por el foro de las Naciones Unidas sobre Chernobyl, da cuenta de que el desastre se llevó la vida de 4000 personas, aproximadamnete, incluidos los 50 trabajadores expuestos a las mayores radiaciones y las personas que murieron por cáncer y leucemia provocados por la radiación. La OMS considera que la cifra de muertos llegará a 9000. Por su parte, la organización ambientalista Greenpeace, en un informe publicado en 2006, denuncia que se subestimaron las consecuencias del accidente y que los muertos por Chernobyl superan ya la cifra de 200.000. Se estima en miles de años el tiempo necesario para que las tierras queden libres de radiación. Al igual que en todos mis posts, el texto es propio, lo escribí yo. Si me querés copypastear, hacelo, lo subí para compartir, pero mencioná la fuente.

A MODO DE INTRODUCCIÓN Hoy las fuentes de energía eléctrica se clasifican, quizá de manera no muy clara, en convencionales y alternativas. Se consideran convencionales la térmica, la hídrica y la nuclear. Y alternativas, la solar, fotovoltaica, eólica, mareomotriz, geotérmica y tidal. HÍDRICAS. Estas centrales aprovechan las diferencias de nivel del terreno por donde pasan ríos. Se embalsa el agua, y se la deja caer a través de turbinas, que hacen girar alternadores de cuarenta metros de diámetro. Son muy limpias, requieren poco mantenimiento y no hay gastos de combustibles. Pero alteran mucho el paisaje, el clima local, llegando hasta destruir ecosistemas; y cuando escasean las lluvias, también falta la energía. TÉRMICAS. En estas centrales de generación se queman combustibles, y con el calor de combustión se hace hervir agua, cuyo vapor impulsa turbinas y alternadores. Son muy útiles en países que tienen mucho combustible, como en Estados Unidos, donde prácticamente viven sobre un gigantesco yacimiento de carbón que les durará siglos. Pero producen gases que recalientan la atmósfera. En los últimos dos siglos esos gases aumentaron al triple del valor normal, y se temen cambios climáticos desfavorables en todo el mundo. En la Argentina también la generación de energía eléctrica se basa principalmente en la quema de combustibles, en nuestro caso el gas natural nacional y el importado de Bolivia. NUCLEARES. Son las centrales más baratas y limpias; no generan gases, y sus insumos (llamados combustibles aunque no se quemen) son abundantes. Por desgracia, los residuos requieren almacenamiento especial, y sirven para fabricar armas. El 70 % de la energía que usa Francia proviene de centrales nucleares; nosotros usamos sólo un 15 % de ese origen. GEOTÉRMICAS. Aprovechan el calor interno de la Tierra. Tienen la ventaja de que no liberan gases, pero no hay muchas fuentes termales útiles; se aprovechan las pocas que existen. EÓLICAS. Usan la energía del viento para impulsar generadores. Son útiles en regiones de pocos habitantes y donde hay mucho viento. Un solo molino puede alimentar un pequeño poblado; pero para una gran ciudad harían falta miles de molinos, y no habría dónde ponerlos. SOLARES TÉRMICAS. Concentran los rayos del Sol con espejos para hervir agua en calderas, cuyo vapor impulsa turbinas, las que a su vez hacen girar alternadores. SOLARES FOTOVOLTAICAS. Estas centrales convierten directamente la radiación solar en electricidad. Los paneles tienen bajo rendimiento, y ocupan mucho lugar, pero son muy limpios. TIDALES, O DE MAREAS. Son centrales hidroeléctricas que aprovechan los desniveles producidos por las mareas. Sólo sirven en lugares costeros donde ese efecto sea importante; además la geografía debe ser apropiada para embalsar el agua cuando sube, para usarla después. Figura 0-1: Hermoso parque de generación eólica en Copenhague, Dinamarca. En el mar abierto hay viento más intenso y uniforme que en la tierra. Sus veinte generadores desarrollan 40 MW en total. (Diez veces menos que la central argentina de Futalefú, o Atucha) Figura 0-2: Las torres que vemos en la imagen son enfriadoras (o refrigerantes), y sólo despiden vapor de agua. Sin embargo en el cine y la TV las suelen presentar como el paradigma de la contaminación. EFECTOS AMBIENTALES DE LA QUEMA DE COMBUSTIBLES Hay registros de temperatura desde la invención del termómetro, en el siglo XVIII. Para saber cuál era la temperatura antes, se recurre a testimonios de efectos cualitativos, y más objetivamente, al estudio de los anillos de los árboles y las características químicas de los sedimentos en las cuencas. Algunos investigadores opinan que el calentamiento global que vivimos ya ha ocurrido antes, muchas veces, y que la generación de electricidad y el uso de automóviles son relativamente inocentes en relación con ese fenómeno. Otros estudiosos –la gran mayoría– consideran que estamos frente a un fenómeno grave y nuevo, coincidente con la era industrial, y causado por la actividad humana, la cual debe cambiar, bajo la autoridad de los gobiernos y el apoyo de empresas y organizaciones, para reducir los efectos negativos que ya sufrimos. Figura 0-3: La figura revela el llamado período cálido medieval, en el año 1000, y la pequeña edad de hielo, seis siglos (estás re al pedo= después. En los últimos dos mil años, la temperatura varió medio grado arriba y abajo del promedio. Pero si sólo se consideran los últimos cinco siglos, se aprecia un aumento grande. PRIMERA PARTE Parque eólico en Rawson 1.1. El uso de la energía en el desarrollo socioeconómico. El papel que desempeña el uso de la energía en nuestras vidas es un hecho que puede ser fácilmente reconocido a poco de ponernos a reflexionar sobre la cuestión. A todos los países les resulta imposible prescindir de ella (la energía, en tanto componente fundamental del universo, es imprescindible para la vida, y la mera existencia del cosmos en sí; tal vez en otro post trate al respecto; cuando aquí me refiero a energía lo hago desde el punto de vista de la energía utilizada de forma industrial por el hombre para mantener toda la estructura de comodidad que se ha logrado a través de los años, y la que sostiene, sin lugar a dudas, lo que concebimos como civilización), y más aún, tampoco le es sencillo reducir su consumo sino a costa de postergar parte de su desarrollo y crecimiento. Asimismo, también se puede afirmar que es posible trazar una relación muy estrecha entre el uso de la energía y el estado de desarrollo económico y social de una determinada región o país; de hecho, en un tiempo, llegó a tomarse como determinante del nivel de progreso de un país o región la cantidad de (lorenhey) energía consumida, tendencia que está cayendo en desuso, dado que actualmete, a mayor desarrollo se tiende hacia un ahorro energético cada más sustancial. Esta relación se vuelve aún más estrecha cuando nos referimos al uso de la más versátil y popular forma de utilización de la energía; la energía eléctrica. A raíz de sucesivas crisis energéticas debidas al aumento en el precio del petróleo, esta problemática irrumpió en forma dramática a partir de los años setenta. En esos años, los gobiernos, las instituciones y los individuos tomaron plena conciencia de que, sin una fuente segura y sustentable de energía podría ser difícil, y hasta imposible, cumplir las actividades diarias y las aspiraciones futuras. Una de las consecuencias de esta crisis fue que en 1979, los 31 países miembros de la OEA (Organización de Estados Americanos) exigieron que se pusiera mayor énfasis en el sector energético; la responsabilidad recayó en el DDR (Departamento de Desarrollo Regional). El aspecto destacable en esa ocasión, consistió en considerar a la energía como un componente más, aunque catalítico, del desarrollo. Este nuevo enfoque no está centrado en la oferta de energía o en la provisión de una nueva tecnología; más bien, se analiza cómo la energía está relacionada con el proceso de desarrollo, a fin de encontrar formas de estrechar esas interrelaciones en beneficio del desarrollo económico y social. En otras palabras, se establece que la actuación simultánea y coordinada de distintos insumos puede producir un efecto total mayor al de la suma de los componentes individuales. Figura 1-2: El mundo de noche; utilización de energía. 1.2. Acerca del Uso de las distintas Fuentes de Energía. Como primer elemento a considerar, debemos conocer que todo el sistema energético mundial actual produce la energía necesaria para gran parte de sus actividades principalmente a través de combustibles de origen fósil: petróleo, gas, y carbón. Este sistema energético viene evolucionando desde los últimos 100 años, y se encuentra actualmente fuertemente establecido. Por un lado, las circunstancias predichas provocan, en los que ostentan el manejo de estas fuentes, una fuerte resistencia a la sustitución de estas fuentes por otras de origen renovables, como el viento y el sol. Por otro, forzarían en el sistema energético un drástico cambio estructural. Como veremos, estas fuentes presentan algunas características que las hace preferibles a las primeros, y otras que dificultan su implementación. En la consecución de este cambio del paradigma energético, y debido a la predicha relación existente entre desarrollo y uso de la energía, debería evitarse, a toda costa, desacelerar, frenar o retroceder el crecimiento global general y sus negativas consecuencias socio económicas. Como segundo elemento se debe tener en cuenta es que la generación de energía, por cualquier método que se utilice, trae aparejadas una serie de efectos indeseados. Estos efectos se agravan cuando se utilizan para su producción fuentes convencionales, provocando diferentes impactos según la fuente de que se trate. Así, por ejemplo la quema de combustibles fósiles, además de producir energía, genera dióxido de carbono, principal gas causante (junto con el metano) del recalentamiento global por efecto invernadero. Por eso, en primer lugar, se estima como lo más indicado su uso racional, que significa utilizar todas estas fuentes con el máximo provecho posible. Paralelamente se debería propiciar el uso de fuentes de energía con menor impacto ambiental, tales como la energía eólica, solar, mini hidráulica etc. En la actualidad, dado su estado de desarrollo tecnológico y los costos relativamente bajos alcanzados, la energía eólica es la que se encuentra mejor perfilada para reemplazar las otras fuentes que provocan mayor daño al medio ambiente, en pequeña y media escala. 1.3. Algunas pautas del contexto energético en el mundo y en nuestro país. Existen una serie de indicadores cuya evolución muestra la necesidad cada vez más imperiosa de sustituir progresivamente la matriz energética por fuentes más limpias de generación; los más significativos son los que muestran la tendencia de continua alza en los precios de los combustibles fósiles y los que indican el deterioro ambiental provocado por la quema de combustibles fósiles. Si bien Argentina esta bien posicionada con respecto al uso de fuentes que generan bajo contenido de dióxido de carbono, la concentración de contaminantes por unidad de superficie en las grandes urbes como la ciudad de Buenos Aires es realmente muy elevada y preocupante. Además, en nuestro país se agrega como factor de peso, las escasas reservas de combustibles fósiles con que se cuenta con respecto a otros países productores, por lo cual surge una importantísima acción estratégica para conseguir en el futuro una mayor independencia en uno de los insumos más básicos para el desarrollo y bienestar; la energía. 1.4. La importancia de la energía eólica en Argentina. Nuestro país cuenta con un ingente recurso eólico; de este recurso se destacan algunas características que juntas, sin exagerar, son únicas en el mundo; altos promedios en la velocidad del viento y una extensión de tierra muy importante donde se presentan estos vientos; más de 500.000 kilómetros cuadrados, en la región patagónica, y un recurso algo menos importante extendidos en una franja de unos 80 Km. a lo largo de nuestra costa atlántica de la provincia de Buenos Aires. Al respecto se pueden mencionar el trabajo llevado a cabo por el Lic. Barros. Este trabajo se inició en el Centro Nacional Patagónico (CONICET), en convenio con el CREE,Centro Nacional De Energía Eólica, dependiente de la Pcia. del Chubut, a mediados de la década del ‘70 y concluyó con la publicación de un Atlas del Potencial Eólico del Sur Argentino en el año 1986. Otros estudios más avanzados fueron realizados posteriormente, en particular los llevados a cabo por el CREE a partir del año 1985, para las provincias del Chubut y de La Pampa. En todos los estudios realizados quedó demostrado el enorme potencial eólico que presenta la región patagónica. Se indica como muy probable que en el 90% del territorio ubicado al sur del paralelo 42º el valor medio de la potencia del viento a 50 m de altura sea superior a los 500 W/m2 de superficie expuesta al viento. Esto implica para los 500.000 km2 de territorio argentino al sur del paralelo 42º un potencial eólico superior a los 800.000 MW, de los cuales, más de 100.000 MW tendrán un factor de utilización mayor a 0,5, mientras que para el resto será mayor que 0,4, guarismos que se desprenden de los estudios realizados y que, en el caso del parque eólico existente en las cercanías de Comodoro Rivadavia, se pudo comprobar que el factor de utilización es superior a 0,4, el mayor logrado en el mundo para este (lorenhey) tipo de emprendimientos. A fin de poder comparar estas magnitudes, tengamos presente que la potencia instalada actualmente (2005) no alcanza los 25.000 MW. Los volúmenes energéticos a los que nos estamos refiriendo son tan grandes y sus posibilidades tan importantes que provocan sorpresa en quienes lo comienzan a comprender, a la vez que se preguntan por que no se aprovechan masivamente, existiendo una creciente demanda de energía. Teniendo en cuenta que en Europa, con mucho menor recurso, la utilización del mismo está en franco crecimiento, es dable pensar que existe una negligencia por la omisión de acciones en esta cuestión, que debe considerarse como una falta de responsabilidad grave por parte de la clase dirigente. 1.5. Las potenciales posibilidades de abastecimiento de energía para todo nuestro país. Ciertamente existe esa posibilidad, y no solamente se podría abastecer nuestro país sino también a todo el MERCOSUR. Para que todo esto se haga realidad falta recorrer todavía un largo camino, pero la consecución de este fin debe ser un objetivo claro a pesar de las dificultades, pues la meta a alcanzar tiene, como es dable imaginar, consecuencias inmensamente positivas, en el plano energético en principio, y por añadidura en el bienestar general. En resumen: el vasto potencial eólico, sus posibilidades reales de aprovechamiento y el actual nivel de reservas de combustible fósiles, hacen del recurso eólico uno de los mejores recursos energéticos del país, que, pese a las dificultades para su implementación, amerita el esfuerzo para sortearlas. 1.6. El continuo progreso de la tecnología eólica. Este camino de desarrollo en su etapa más moderna lo han empezado a recorrer hace unos 15 años algunos países a un ritmo aproximado del 25 % anual. Entre los europeos se destacan, Alemania, España, Dinamarca y otros, y lo están haciendo con singular éxito. Durante los últimos años se ha desarrollado, y sigue en plena evolución, una tecnología eólica que fue en principio sencilla, pero se esta tornando cada vez mas compleja. Esto ha provocado la especialización de las distintas tareas con distintos ejecutores, formándose empresas para cada una de ellas, entre las que se pueden mencionar las de medición del recurso, las de fabricación de molinos, los diseñadores de las distintas partes del molino, los explotadores del parque, etc. Todo este desarrollo será difícil de alcanzar en el país y solo será posible si se comprende cabalmente las extraordinarias posibilidades que tendrá este tipo de energía y se actúa en consecuencia para recuperar el tiempo perdido. También su costo sigue una evolución favorable; en Europa y los Estados Unidos, éste es aún (año 2011, del cual es el último (lorenhey) del que tengo datos, los del corriente aún no están detallados, pero se puede extrapolar una tendencia similar) superior al costo de generación por otras fuentes convencionales; en nuestro país, debido a la magnitud del recurso, hay vastos sectores en nuestra región Patagónica en los que los costos ya son competitivos con las fuentes convencionales. Aquí nos estamos refiriendo solamente a las variables que normalmente se tienen en cuenta cuando se calcula el costo de generación; sin embargo si se incluyen en los costos los daños provocados en el ambiente mediante la generación por métodos convencionales, los costos de la energía eólica serán aún más competitivos y resultará más conveniente esté tipo de generación limpia. Por otro lado, su explotación es también una industria en sí misma y a igualdad de costos comparada con otra fuente, tiene la ventaja de requerir más mano de obra, contribuyendo a la generación de trabajo digno y genuino que tanta falta hace en nuestro país. Cuando se pretende compararla con otras energías convencionales, hay que tener en cuenta que su naturaleza y características son muy diferentes de las energías convencionales. Si bien se trata de una fuente de energía inagotable y limpia, siendo posible su generación muy cerca de la carga que alimentará, requiere debido a las naturales fluctuaciones del viento, el apoyo de las otras energías convencionales. En estos momentos la potencia Eoloeléctrica instalada crece rápidamente en el mundo; sin embargo, representa muy poco respecto de las energías convencionales. Sólo en España y Alemania supera el 10% de la potencia instalada total. Una de las mayores dificultades que se presenta para el futuro es el aumento del porcentaje de penetración en el sistema eléctrico de energías como la energía eólica u otras que dependan de una fuente fluctuante. La solución global la constituye indudablemente la acumulación y para este tipo de solución existe un consenso generalizado que será el hidrogeno el combustible utilizado en el futuro para compensar las fluctuaciones con que sopla el viento; no obstante, en nuestro país existe otra posibilidad muy importante que es el aprovechamiento eólico combinado con centrales hidroeléctricas de acumulación por bombeo, debido a la existencia de importantes reservorios y cursos naturales de agua que presentan condiciones óptimas para ello. Mientras se espera que se comience a trabajar de pleno y seriamente en el país en estas cuestiones, y ante la imperiosa necesidad de recurrir cada vez más a estas fuentes, en el resto del mundo se trabaja en algunas soluciones parciales: 1. Cambios en la infraestructura eléctrica capaz de soportar aumentos en la penetración de la energía eólica (por ejemplo la Red Eléctrica de España considera que deberá aumentar en un 18 % para los próximos años las inversiones en la red de transporte eléctrico debido a la conexión de nuevos parques). 2. Soluciones que tienen que ver con la operación y administración de un sistema eléctrico; esta solución se pone en práctica cuando un distribuidor está conectado a un parque eólico y recibe un exceso de energía que debe evacuar hacia otro distribuidor. 3. “Gerenciamiento de Carga” (managment of load), que consiste en la conexión y desconexión de cargas del sistema cuyo consumo es posible postergar o adelantar un cierto periodo de tiempo, por ejemplo refrigeradores o lavadoras y algunas cargas industriales que merecen estas consideraciones. Figura 1-3:Generación de energía eólica. Potencia instalada en MW. 1.7. Soluciones para Argentina. En nuestro país se da la circunstancia que el recurso eólico en cantidades ingentes se encuentra en la región patagónica y sobre todo en las provincias de Chubut y Santa Cruz, región ésta, despoblada y muy lejana de los centros de consumo por lo que se haría necesario transportar toda esta energía a zonas donde sea requerida. Para concretar esta opción habría que construir largas y costosas líneas de transporte (serían más de 2000 Km hasta nuestro centro de carga que se encuentra aproximadamente en la ciudad de Buenos Aires, por cada 1000 MW instalados). Lo más económico sería construir líneas de corriente continua. Existe también como ya dije, la posibilidad de producir hidrógeno en grandes cantidades a partir de la energía eólica y transportarlo en estado gaseoso hacia los centros de consumo de nuestro país o países limítrofes, o licuarlo para facilitar el transporte y exportarlo. Otra solución, a la postre posiblemente la más racional, es el aprovechar gran parte del recurso en la misma Patagonia. Para ello, previamente hay que generar la demanda, o sea establecer un fuerte polo de desarrollo, que se complemente con el existente en Buenos Aires. Este polo debe estar basado en la implantación de industrias electrointensivas, que permitan industrializar el país con expectativa exportadora, lo cual es la verdadera solución a los graves problemas de marginación y pobreza en los que se encuentra sumido. Esto llevará a generar una fuerte migración hacia este polo, de innumerables familias que encontrarán seguramente, trabajo genuino y digno y posibilidades de desarrollo humano que hoy en día no consiguen en los grandes centros poblados. Para lograr esto se requiere de una planificación y políticas de estado claras y estables, que hasta hoy nuestros dirigentes (llámese los poderes ejecutivo y legislativo) no han implementado luego de más de 20 años de vida democrática aún incipiente. ¿Hay industrias electrointensivas que pueden implantarse económicamente en la Patagonia?. La respuesta es sí, y se pueden mencionar algunas como muestra: del aluminio y otros minerales, plásticas y otros derivados del petróleo, factorías de pescados, fábricas de electrodomésticos, etc., etc., además de la industria de los propios parques eólicos, incluidas fábricas de aerogeneradores. Establecida esta política de desarrollo, con ella vendrán asociados los problemas propios de los conflictos de intereses entre los distintos actores (trabajadores, patrones y estado) pero eso será una cuestión a resolver dentro del estado de derecho. Lo más importante es lograr transformar a nuestro país en exportador de productos industriales. Hay entidades, como la Asociación Argentina de Energía Eólica que viene trabajando desde hace varios años en distintos frentes: en la difusión, capacitación, y también en proyectos demostrativos. Aboga fuertemente por el uso de las posibilidades cada vez más prometedoras del hidrógeno como combustible del futuro. Créditos de las imágenes La figura 0-1 fue extraída de http://www.skyscrapercity.com/showthread.php?t=320713&langid=5 La figura 0-2 fue extraída de http://inigoortizdeguzman.wordpress.com/2010/12/06/centrales-nucleares/ La figura 0-3 fue extraída de http://www.ncasi.org/publications/Detail.aspx?id=3152 La figura 1-1 fue extraída de http://www.prensa.argentina.ar/2011/09/30/24284-la-presidenta-inaugura-esta-tarde-el-parque-eolico-de-rawson.php La figura 1-2 fue extraída de http://www.todoarquitectura.com/v2/foros/topic.asp?Topic_ID=27953 La figura 1-3 fue extraída de http://www.plataformaurbana.cl/archive/2007/10/04/energy-island-almacenando-la-energia-en-el-mar/ Parte 2 Si no se ve alguna imagen, f5 y/o ver en pestaña nueva, si no está, por favor avisame que la resubo.

Sí. En defensa de los vándalos. Pero no de los pelotudos que rayan paredes, rompen bancos de plazas, y todo ese tipo de idioteces, sino del pueblo Vándalo. Uno de los motivos por el que creo esta entrada es para que ya no tenga que aclarar nunca más si me refiero al pueblo o a la acepción moderna de vándalo, la imagen que tenemos de gente que rompe todo sin necesidad y por pura maldad. No me voy a poner a hablar sobre los vándalos en general, hay 25 millones de resultados en internet, sobre sus orígenes, reyes, historia, bla, bla, bla... Como la parte de la que quiero hablar es muy puntual, a los fines del post basta decir que eran un pueblo germánico originario de las regiones costeras del Mar Báltico, que a principios del siglo V cruzó la Galia para establecerse en el sur de la actual España, y más tarde cruzarse al norte de África. En el siglo V d.C., los vándalos, gobernados por Genserico, son el único pueblo bárbaro del siglo en haber construido una flota. Genserico A mediados de ese siglo, los vándalos dominaban parte del norte de África, ocupando un porcentaje de lo que había sido la provincia romana de África, mas no toda, dado que las tribus originarias habían recuperado el control sobre la parte occidental. Pero compensaba las adquisición de otras tierra gracias a su flota. En esos tiempos. dominaban, además del norte de África, las Islas Baleares, Córcega, Cerdeña, y por un breve periodo de tiempo, la punta occidental de Sicila. Los tipos entraban y salían, como panchos por su casa en todo el extremo sudoccidental de la península italiana, como si bajo Genserico hubiera renacido Cártago de sus cenizas y se le estuviera riendo en la cara y humillando a su antiguo enemigo siete siglos después. El temita era menos que los despojos de lo que fuera 7 siglos antes, y ya no tenía la más puta capacidad de resistencia. Seguramente el fanatasma de Aníbal estaba mucho más sonriente que en el busto Ese mismo año, entonces, la putarraca de la emperatriz Eudoxia, esposa del emperador Petronio (que había matado, seguramente, al su esposo original, el emperador Valentiniano III), "invitó" a Genserico y a los suyos a Roma, casi firmándole el éxito en su campaña, mandando a todos al muere con tal de zafar ella. Obviamente, Genserico no se hizo rogar, y en junio de 455 d.C. sus barcos ya estaban en la desembocadura del Tíber, y los tipos entraron a la "Ciudad eterna" sin hallar prácticamente oposición oposición. Cuarenta y cinco años después de la entrada de Alarico en Roma, la ciudad fue saqueada por segunda vez, ¡y en esta oportunidad, los saqueadores venían de Cártago! El Papa León I fue el único que trató de hacer algo, y quiso usar su influencia sobre Genserico, como ya había hecho con Atila. Pero a Atila, un pagano, lo impactó con su barroca presencia y aura de lo sobrenatural (y algo de "guita" también). En cambio Genserico no era tan ingenuo. Por empezar, era una cristiano arriano, por lo que para él, el obispo de Roma no tenía ningún significado, y ya nada de "misterioso", dado que él también era cristiano y sabía cómo venía la mano; y segundo, sabía que todo lo que pudiera ofrecerle León era la nada misma comparado a lo que obtendría metiendo mano por su propia cuenta. Y fue así, metió mano Papa León I, el Magno Durante dos semanas hicieron trabajo de cirujano y de manera sistemática, acovachando todo lo que pudiera tener valor para llevárselo a Cártago y nada más. Ellos habían ido a buscar un botín, y lo obtuvieron de la manera fácil. No hubo destrucción inútil, no hubo "cacerías", no hubo carnicerías sádicas, ni nada que se asemeje. Roma quedó intacta, empobrecida, sí, pero intacta, por eso es injusto que hoy se asocie su nombre con aquél que destruye insensatamente, por todas partes, y sin ningún fin más que el de molestar, cosa que, paradójicamente, los vándalos no hicieron, pero ya sabemos, el legado romano es tan inmenso, que sus propios "complejos" nos lleguen a nosotros. Colorín colorado, este cuento se ha acabado...