kazad0r
Usuario

Sherlock Holmes.... eternamente Holmes. Probablemente la literatura tarde mucho tiempo en 'parir' un personaje que llegue a imbuir tanto al lector de que ciertamente es una persona real que ha conseguido salir del papel y la tinta que lo han creado. Este es el caso de Holmes y el hecho de que haya perdurado a su tiempo hasta la actualidad y probablemente perdure siempre, de que su apellido haya superado al de su autor y haya logrado que siempre que sintamos en nuestra nariz el olor de un tabaco y al mirar veamos una pipa humeante y sintamos que estamos próximos a una situación intrigante pensemos en Sherlock Holmes. Cita: "- Por favor, al número 221-B de Baker Street". El forastero ha tomado un taxi, ha dado la anterior dirección al taxista y se acomoda en el asiento de atrás del vehículo. Habría deseado hacer el viaje en un coche de caballos con pescante trasero y en un Londres envuelto por la niebla. Ya que eso no es posible, al menos quiere satisfacer su deseo de visitar la casa en que vivió el más celebre de los detectives, Sherlock Holmes. La escena es inventada, Pero se sabe de muchos turistas que, en Londres, quieren conocer la residencia de Sherlock Holmes. El mítico 221 de la Calle Baker - 221b Baker Street-. Sherlock Holmes y su colega, el doctor Watson pasaron muchos años en esta casa en Londres, Inglaterra, bajo los cuidados de la señora Hudson. Personajes de todo tipo frecuentaron esas estancias, pidiendo a Holmes consejo y ayuda. Sherlock Holmes nació el 6 de enero de 1854. Su padre era un hacendado inglés y su madre descendía de una estirpe de pintores franceses. Tiene un hermano, Mycroft, que gracias a las portentosas facultades para gestionar ingentes cantidades de información que posee, trabaja casi anónimamente como coordinador general e informador interno de los asuntos del gobierno británico. Sobre Mycroft Holmes, comenta el Doctor Watson (Elemental, Doctor Freud / The seven-per-cent solution): Cita: "Yo no conocía bien a Mycroft Holmes, y recuerdo que quedé asombrado cuando después de siete años, Sherlock me informó de su existencia. Ambos hermanos eran muy inteligentes pero ahí terminaba toda semejanza. Mycroft Holmes prefería vivir su excéntrica vida de soltero entre las cuatro paredes de su Club más allá de cuyos límites no solía aventurarse". Sherlock Holmes parece haber sido un esteta en la universidad, probablemente la de Oxford, pero sin duda no Cambridge. Tras su graduación se aloja cerca del British Museum para poder estudiar las ciencias necesarias para el desarrollo de su carrera posterior. Conoce a Watson en 1881 en el Hospital Saint Bartholomew. Rehusa al título de Sir, pero acepta la Legión de honor. Su gran enemigo, también de extraordinarias facultades intelectuales, es el profesor James Moriarty, que llegó a acabar aparentemente con la vida del eminente detective en la cascada de Reichenbach (The Adventure of the Final Problem). Doyle tuvo que optar por resucitar a su héroe cuando miles de lectores protestaron llevando crespones negros en el sombrero en señal de luto. Sherlock Holmes reaparece en el caso de La Casa Vacía (La Reaparición de Sherlock Holmes, 1903). Tras una carrera de 23 años, de los cuales Watson compartió 17 con él, Holmes se retiró a Sussex donde se dedicó a la apicultura y llegó a escribir un libro al respecto titulado Manual de apicultura, y también casi casualmente resuelve uno de sus casos más complicados:"La Aventura De La Melena Del Leon"(1907). Aunque posteriormente a su jubilación como detective dedicó dos años a preparar concienzudamente una importante acción de contraespionaje poco antes del inicio de la Primera Guerra Mundial. Nada más consta sobre él a partir de 1914. Sherlock HolmesPero intentemos aproximarnos un poco más a la figura de Holmes como individuo. Es alto, delgado, de nariz aguileña, poco emocional, irónico, ingenioso e intelectualmente inquieto. En ocasiones, su actitud, resulta un tanto brusca pero es cortés con las mujeres a pesar de que desconfía de ellas. Watson resalta en uno de sus casos la presencia de una bella dama llamada Irene Adler, la cual es considerada siempre por Sherlock como "La Mujer". A sus ojos, Adler, eclipsa y domina todo su ser (Un escándalo en Bohemia, 1892). No es muy ordenado en la rutina cotidiana, es muy habilidoso disfrazándose, fuma en pipa, toca el violín, un Stradivarius y a menudo a horas poco adecuadas, con maestría, es un experto apicultor, excelente boxeador, tiene un gran conocimiento científico en especial en química y farmacopea y, cuando se aburre por falta de los retos intelectuales que suponen sus casos, consume cocaína en una solución al 7. Hecho que preocupa a su compañero, amigo y cronista Watson, con quien vive hasta finales del siglo XIX en el número 221B de Baker Street, en Londres. Holmes, acaso un espíritu atormentado que recurre a los estimulantes artificiales -drogas- para hacer soportable los intervalos valdios entre reto y reto que le plantean las mentes criminales a las que se enfrenta y que queda patente en este diálogo de 'Escándolo en Bohémia'. Cita: Watson - ¿Qué ha sido esta noche morfina o cocaina? Holmes - Puedo recomendarle una solución del 7% de cocaína, ¿quiere usted probar?. Watson - ¡No, ni hablar!. Y lo digo no solo como su médico sino como su amigo, cómo puede poner en tan grave peligro las grandes facultades con las que ha sido dotado. Homes - No sabe usted lo que aclara y estimula el cerebro Watson - Y... termina por destruirlo con los años. Holmes - Mi mente se revela contra la inactividad. Plantéeme problemas, déme trabajo, propóngame criptogramas difíciles para su análisis, sucesos para su análisis y estaré en el mundo que me gusta. Entonces dejaré los estimulantes artificiales. Aborrezco la tediosa rutina de la vida, necesito la exaltación mental por eso he escogido mi profesión o mejor dicho la he creado porque soy único en el Mundo. Watson - El único detective privado Holmes - El único asesor privado detective. No busco la fama con esto. El trabajo en sí, el placer de encontrar un campo de trabajo desarrollado para mis actitudes es mi mejor recompensa. Holmes, con esa expresión de melancolía, de tristeza profunda de la solamente parece lograr salir cuando pronuncia la célebre frase: "El Juego ha comenzado" e inicia la casa del malechor. Numerosas son las referencias de Watson a la dependencia de su amigo (Elemental, Doctor Freud / The seven-per-cent solution): Cita: “Sería poner una sombra sobre el recuerdo de este gran hombre, el detallar el efecto que aquella droga había producido sobre sus facultades. Regresé a casa preocupado por las fantasías de Holmes con respecto a Moriarty...” El Dr. Watson, en calidad de biógrafo oficial, enumera y analiza la profundidad de sus conocimientos en "Estudio en Escarlata", la primera de las Novelas, dónde, como nota curiosa, Holmes le manifiesta desconocer la teoría heliocéntrica. Esta teoría, formulada por Nicolás Copérnico, afirma que la Tierra y los demás planetas giraban en torno a un Sol. Su característica más notoria es la utilización del razonamiento puro para resolver los casos más intrigantes, pudiendo llegar a las conclusiones más sorprendentes a partir de los detalles aparentemente más triviales gracias a su extraordinario poder de concentración y a sus amplios conocimientos tanto científicos como de las más variadas disciplinas. Es el creador de su propia profesión, "Detective consultor", consistente en ayudar a aclarar los casos que presentan dificultades superiores a las habilidades que poseen los detectives oficiales de Scotland Yard o detectives privados, como es el caso del detective Lestrade, Gregson, Hopkins y otros tantos que se quedan con el éxito de la resolución del crimen. Sherlock tiene un hermano mayor, Mycroft Holmes, que posee poderes de observación y deducción mayores que los suyos, pero es incapaz de aplicar sus habilidades a una actividad detectivesca ya que no tiene ambición y energía. Es miembro del Club Diógenes. El primer caso en el que Sherlock interviene de joven y según le cuenta a Watson es en la aventura de "La corbeta Gloria Scott"(1893), en la cual ayuda a un amigo a resolver un mensaje codificado. Doyle basó el método deductivo de su personaje en el proceder de uno de sus profesores en el Edinburgh Infirmary, donde estudió medicina: Joseph Bell. Esta es la amplia biblografía de Arthur Conan Doyle en la que se relatan las aventuras de Sherlock Holmes y su compañero Watson: Agradecer al amigo Maurio su colaboración, indispensable para la recopilación de los siguientes textos. Un Estudio En Escarlata (1887) Leer pasaje El Signo De Los Cuatro (1890) Leer pasaje Las Aventuras De Sherlock Holmes (1892) Un escándalo en bohemia. Leer pasaje La liga de los pelirrojos. Leer pasaje Un caso de identidad. Leer pasaje El misterio del valle de Boscombe. Leer pasaje Las cinco semillas de naranja. Leer pasaje El hombre del labio retorcido. Leer pasaje Las aventura del carbunclo azul. Leer Pasaje La banda moteada. Leer Pasaje El pulgar del ingeniero. Leer pasaje El aristócrata solterón. Leer pasaje La aventura de la diadema de esmeraldas. Leer pasaje La aventura de la finca de Cooper Beeches. Leer pasaje Memorias De Sherlock Holmes (1893) Estrella de plata. Leer pasaje La cara amarilla. Leer pasaje El empleado del corredor de bolsa. Leer pasaje La corbeta Gloria Scott. Leer pasaje El ritual de los musgrave. Leer pasaje El hidalgo de reigate. Leer pasaje El jorobado. Leer pasaje El paciente interno. Leer pasaje El intérprete griego. Leer pasaje El tratado naval. Leer pasaje El problema final. Leer pasaje El Sabueso De Los Baskerville (1902) Leer pasaje El Regreso De Sherlock Holmes (1903) La aventura de la casa deshabitada. Leer pasaje La aventura del constructor de Norwood. Leer pasaje La aventura de los bailarines. Leer pasaje La aventura de la ciclista solitara. Leer pasaje La aventura del colegio Priory. Leer pasaje La aventura del negro Peter. Leer pasaje La aventura de charles Augustus Milverton. La aventura de los seis napoleones. Leer pasaje La aventura de los tres estudiantes. Leer pasaje La aventura de los lentes de oro. Leer pasaje La aventura del tres-cuartos desaparecido. Leer pasaje La aventura de Abbey Grange. Leer pasaje La aventura de la segunda mancha. Leer pasaje El Valle Del Terror (1914) Leer pasaje Su Última Reverencia, Recuerdos De Sherlock Holmes (1917) La aventura de Witeria Lodge. Leer pasaje La aventura de la caja de cartón. Leer pasaje La aventura del círculo rojo. Leer pasaje La aventura de los planos de Bruce-Partington. Leer pasaje La aventura del detective moribundo. Leer pasaje La desaparición de lady Frances Carfax. Leer pasaje La aventura de la pata del diablo. Leer pasaje Su última reverencia. Un epílogo de Sherlock Holmes. Leer pasaje El Archivo De Sherlock Holmes (1927) La aventura del cliente ilustre. Leer pasaje La aventura del soldado de la piel decolorada. Leer pasaje La aventura de la piedra preciosa de Mazarino. Leer pasaje La aventura de los tres frontones. Leer pasaje La aventura del vampiro de Sussex. Leer pasaje La aventura de los tres Garrideb. Leer pasaje El problema del puente de Thor. Leer pasaje La aventura del hombre que reptaba. Leer pasaje La aventura de la melena del león. Leer pasaje La aventura de la inquilina del velo. Leer pasaje La aventura de Shoscombe old place. Leer pasaje La aventura del retirado fabricante de cajas de colores. Leer pasaje La mayoría de las historias del detective nos llegan narradas por su compañero de aventuras, Watson. Sin embargo los relatos: El Soldado descolorido y La melena de león, son obra de la pluma de Holmes. Sherlock Holmes siempre criticaba a su compañero de aventuras porque en sus relatos los hechos significativos se mezclan con detalles que, al ser innecesarios, distraen de los detalles objetivos que llevan a la resolución del caso. Sin embargo, en cuanto se ve él mismo en la tesitura de redactar sus aventuras, reconoce que el asunto tiene sus dificultades y que tal vez juzgó con demasiada severidad la redacción "florida" de Watson El personaje del popular detective ha sido llevado muchas veces al cine y al teatro y también aparece en novelas, relatos, historietas, dibujos animados y series de televisión, con los más diversos grados de fidelidad al espíritu del personaje que es ya todo un icono de la cultura popular. Entre los actores más aplaudidos se encuentran Basil Rathbone quien, con Nigel Bruce, constituyeron el icono referencial en el ámbito del cine; Peter Cushing, Robert Stephens y Jeremy Brett. Jeremy Brett es, de seguro, el mejor Sherlock Holmes de la pequeña pantalla, debido a su grado de fidelidad en la serie Las Aventuras de Sherlock Holmes. Pero al igual que muchos de los libros, muchas de las películas son adaptaciones a la gran o pequeña pantalla de escritos que no fueron firmados por la pluma de Doyle. Muchos serán los que publicarán obras, digamos 'apócrifas' que narran las aventuras del genial detective. Personajes como Nicholas Meyer que publicó en 1975 una novela proponiendo una aventura inédita de Sherlock Holmes cuyo título en español será: Elemental, Dr. Freud (título original The Seven Per Cent Solution / Solución al siete por ciento). Si nos fijamos en la traducción exacta del inglés al español nos daremos cuenta que comenta la 'dosis' de la mezcla con cocaína que se inyectaba Holmes. Esta sencilla y hábil obra, une a Holmes con el padre del psicoanálisis, Sigmund Freud, en lucha con Moriarty. Y tanto el libro como la película fueron un éxito. Holmes, gracias al psicoanálisis, parece liberarse de su dependencia a las drogas pero aún más, Freud consigue llegar al fondo de la mente de Holmes y encontrar el porqué de su odio a Moriarty y su desdén hacia las féminas. Este diálogo retoma, una vez más, el dilema de si es posible dejar el mundo de las drogas. Todo el diálogo anterior es un locuaz rodeo, para hacer llegar a ambos personajes, Holmes y Freud, a confesar y reconocer públicamente sus adicciones presentes, en uno, y pasadas, en otro. (Elemental, Doctor Freud / The seven-per-cent solution): Cita:Freud- ¿Quién soy yo para que ellos quisieran que no viésemos? Holmes- A parte de que es usted un destacado médico judío nacido en Hungría y estudió en Paris y que determinadas teorías suyas han revolucionado la respetable clase médica de tal forma que ha roto sus contactos con varios hospitales y colegios de médicos, a parte de eso poco puedo deducir. Que está casado, que tiene un hijo de… cinco años, que le gusta Shakespeare y que tiene sentido del humor. leer todo el diálogo Holmes, ha sido muchas veces denostado por la ruda indiferencia con la que trata al género femenino. Solamente una mujer logró despertar en él un sentimiento de respecto, Irene Adler a la que llama "La Mujer", tal y como nos relata Watson en este pasaje. Cita:"Y así concluyó el caso del escándalo que amenazó con remover los cimientos del reino del Bohemia y en el que Sherlock Holmes fue superado por la sagacidad de una mujer. Antes era frecuente en él despreciar la inteligencia de las mujeres, pero últimamente no le he oído ningún comentario despreciativo en este sentido y cuando habla de Irene Adler o cuando hace referencia a esta dama, siempre pone de relieve su calidad de mujer culta. En opinión de Holmes la señora Norton, de soltera Adler, eclipsa a todas las representantes de su sexo. Irene Adler "La Mujer" Quede claro que nunca se le escapó ningún comentario amoroso acerca de Irene Adler, emociones de este tipo son una auténtica relación para su mente fría y analítica. Él solo se ocupa de las mujeres como una relación patológica; como fuente de pistas, móviles y aún así conserva su fotografía aparte, bajo llave. Para él solo existe una mujer, la hermosa Irene Adler. De dudosa y pertinaz memoria". La inmortalidad de Holmes refrendada una vez más, y esta vez por las diferentes emisiones de sellos en distintos países del Mundo. Nicaragua Sherlock Holmes: Uno de los doce famosos Detectives. 50 Aniversario de la Interpol San Marino Sherlock Holmes: Uno de los cinco investigadores más famosos de la ficción. Timor Bohemia Afganistan Peter Cushing - Emisión U.S.A. Emitido en Long Beach, California. U.S.A. Rep. Dominicana Las Caras de Sherlock Holmes Emitido en U.S.A. El primer Detective Consultor del Mundo U.S.A. Caras de Holmes Willian Gillette * Será en EL Regreso de Sherlock Holmes -The Return of Sherlock Holmes- (1929), de Basil Dean, donde el detective (Clive Brook) replique al doctor Watson (Harry T. Morey) por vez primera con el famoso "Elemental, querido Watson". * ¿Quién es la persona que, en toda Inglaterra, recibe más correo diariamente? ¿La Reina? ¿Paul McCartney? ¿Camilla Parker? ¡Ninguno de ellos! La respuesta es... Sherlock Holmes, el individuo más requerido por carta. ¿Cuál es la dirección que recibe todo este correo? La bien conocida casa del 221B de Baker Street. En la actualidad, una auténtica casa museo dedicada a alguien que -atención- no vivió nunca allí porque ni siquiera existió. * La pequeña pipa negra, una de las que tenía Holmes, seguramente esa pipa vieja y grasienta que aparece a menudo en los relatos, y que cargaba cada mañana con ‘los restos de tabaco del día anterior, cuidadosamente recogidos y secados al lado de la chimenea’, mezcla que el detective se fumaba "antes de desayunar". * Holmes tenía un original escondite para el tabaco, lo guardaba en una vieja babucha persa. Incombustible, la criatura que creara Conan Doyle se suma a los personajes que protagonizan los juegos de ordenador y consolas en el siglo XXI. No es la primera vez que la compañía ucraniana Frogwares se acerca a la figura literaria creada por Sir Arthur Conan Doyle, ya que precisamente una de sus anteriores producciones era "Sherlock Holmes y el Misterio de la Momia". El hecho de que la historia prime por encima de todo se debe a que al parecer, han seguido al pie de la letra la novela de Jalil Amr, también diseñador del juego. Novela de la que por cierto, no hemos encontrado ninguna referencia en el mundo editorial internacional. A la vista de los créditos ("Basada en la novela `Sherlock Holmes y el Pendiente de Platade Jalil Amr" uno podría pensar en una fusilada post-Conan Doyle como "Adiós, Sherlock Holmes" de Robert Lee Hall, "Elemental, Dr. Freud" del cineasta Nicholas Meyer o el bastante recomendable "Sherlock Holmes y la sabiduría de los muertos", del español Rodolfo Martínez. Fuente 1 Fuente 2

Ubuntu 7.04 (Feisty Fawn): Antes de pasar a explicar el Ubuntu voy a comentarles que es exactamente. En el mundo Linux existen lo que se denominan "Distribuciones" que son ramificaciones o variaciones basadas en un Kernel (la mayoría de las distribuciones de hoy en dia estan basadas en el Kernel 2.6 por ejemplo), en el mundo Linux una Distribución es conocida mejor como "Distro". Existen tantas distros de Linux actualmente que concentrarnos en una de ellas es algo que debemos tomar mucho cuidado de hacer, ya que podremos llegar a interpretar muy mal al Linux solamente hablando de una Distro y como cada una es distinta a las demas, hay que elegir con cuidado. Debido a que nos gusta la simpleza y sobre todo para usuarios que nunca han usado Linux esto es fundamental, acostumbrados a Windows toda su vida, hemos elegido una de las distros mas conocidas en la actualidad, se trata del Ubuntu, desarrollada por la empresa de Mike Shuttleworth llamada Canonical y que pueden encontrar en la pagina oficial aquí Actualmente Ubuntu representa una de las distros mas importantes existentes en el mundo y la mas accesible al usuario, sus versiones han aumentado a lo largo de los meses y tienen un ciclo de mejoras de 6 a 8 meses, lo cual quiere decir que aproximadamente cada 6 meses sale una versión nueva. La versión anterior se denominaba 6.10 y se llamaba "Edgy Eft" (noten el incapié en la repetición de palabras que empiezan con "e" La versión actual es la conocida como 7.04 o también conocida como Feisty Fawn (la que haremos el analisis hoy, noten nuevamente el incapié en la repetición de la letra "f" y la próxima a salir se denomina Gutsy Gibbon y corresponde a la versión 7.10, cabe aclarar que todas las versiones de Ubuntu se pueden bajar gratuitamente de la pagina web, como así también las versiones Alpha y Beta de prueba de las versiones mas nuevas. Cada aproximadamente 2 o 3 versiones Ubuntu desarrolla una versión denominada LTS (Long Term) y que implica soporte técnico extendido, estas versiones tienen la peculiaridad de poder ser adquiridas online de forma totalmente gratuita, esto es, el usuario puede entrar a esta pagina y completar los datos personales, donde se podrán enviar de forma totalmente gratuita al domicilio de la persona que las requiera, sea en Indonesia, Argentina, Canada o cualquier pais del mundo, sin ningún costo adicional, hasta la puerta de la casa del solicitante, totalmente gratis (as in free beer). Ya que Canonical se hace cargo del costo de fabricación de los CD's y el envio. Así lucen los CD's que MaximoPC pidió de forma totalmente gratuita a Canonical, el tiempo de tardanza fué de aproximadamente 19 dias, recuerden que solo las versiones LTS pueden pedirse Online, es obvio también que pueden bajarse directamente. El Ubuntu viene en versiones 32bit y 64bit, si se pide el paquete completo se envian 2 versiones de 32bit y 1 versión de 64bit, se entiende que el segundo CD de 32bit es para regalar a un amigo ya que según la filosofía de Canonical, los CD's pueden copiarse libremente, alterarse, regalar o modificar todas las veces que se quieran sin ningun inconveniente Legal. En MaximoPC hemos elegido esta versión no solo por la comodidad de poder ser adquirida online sinó por el tipo de filosofía totalmente contraria a la de Microsoft y para que ustedes puedan tener una mejor perspectiva mas amplia de todo. LiveCD: El Ubuntu viene en una presentación llamada LiveCD, esto quiere decir que para instalarlo debemos entrar en el modo gráfico. Sin embargo, lo interesante del sistema LiveCD es que el Ubuntu se cargara íntegramente desde el CD, el cual nos dejará el sistema operativo listo para usar sin siquiera tener la necesidad de instalarlo en la PC o tocar el Disco Rígido de la misma, se puede usar incluso sin tener ningun Disco Rígido en el sistema!. Aquí vemos en la ventana el tiempo de carga, se interpreta que a mayor performance tenga la unidad de CD/DVD mas rapido será el proceso de carga inicial, en nuestro caso desde que pusimos el LiveCD hasta que nos encontramos con un escritorio totalmente funcional no pasó mas de 1 minuto y medio. Ubuntu viene en 2 versiones, Ubuntu con sistema gráfico Gnome (la que vemos aquí) y Kubuntu con KDE (que es mas parecido al Windows en aspecto), el porque elegimos Ubuntu en lugar de Kubuntu es obvio, si venimos de Windows, lo interesante es probar algo distinto y no caer en lo similar todo el tiempo. El Gnome es en muchos aspectos mas simple al KDE sin embargo, ello no le resta capacidades y lo bueno del sistema Ubuntu es que está basado en Debian. El Debian es una variación de Linux realmente muy poderosa que posee uno de los sistemas mas eficientes de manejo de paquetes, mas adelante explicaremos bien que significa esto para el que provenga de Windows y no tenga la menor idea de lo que estoy hablando. Como podemos ver, nuestro sistema fué totalmente detectado sin problemas, podemos utilizar Radios Online en Internet, conectarnos al MSN mediante una aplicación llamada Gaim (que ademas de permitirnos utilizar MSN, nos permite utilizar YAM, ICQ y todos los protocolos de comunicación, todos al mismo tiempo). El controlador de Audio fué detectado exitosamente por ALSA (que es uno de los tantos sistemas de audio que dispone linux similar al DirectSound de Windows) como HDA NVIDIA Audio. También fué detectada la placa de red y video y podemos navegar con toda libertad, esto es con un sistema que todavía no está instalado en el Disco Rígido. Instalación del Sistema: Debido a que la instalación al disco se realiza dentro del mismo Ubuntu, tenemos todas las facilidades de antemano, antes de instalar (con un ícono en el escritorio que dice "Install" vamos a proceder a crear las particiones. El Gnome incluído en el Ubuntu trae una aplicación muy cómoda para esto llamada Gparted, vamos a eliminar la partición de Windows y crear las particiones de Linux. La mejor idea para crear particiones de Linux dentro de un sistema que será usado también en Windows es crear una Partición Extendida donde dentro colocaremos todas las particiones lógicas que querramos, para lo cual le definimos un espacio total de 16Gb. Luego, creamos 3 particiones, recuerden que esas particiones se encuentran contenidas dentro de una sola partición extendida, para nuestra instalación elegí 3 particiones fundamentales, la partición / o Root, Swap y Home, vamos a explicar esto un poco mejor. En linux no existen lo que podríamos llamar C: D: E: y F: ya que esto es algo un tanto limitado y complicado, Linux adopta la filosofía mas simple, las unidades de disco se "adosan" a directorios, esto es, puedo tener un disco rígido (partición) mapeada en un directorio llamado "Home" mientras que puedo tener otro disco rígido totalmente distinto en otro directorio llamado "Backup". Las particiones (dentro de un mismo disco o en discos separados) son creadas y luego montadas en un directorio en particular. Lo interesante de este sistema es que no solo podemos formatear unidades a gusto sinó que podremos "quitarle" el vínculo con un directorio y trasladarlo a otro sin necesidad de borrar nada y preservando la información allí almacenada, o bien quitarle el vínculo y dejarlo así para que ningún intruso lo modifique. Por ejemplo, podremos tener 2 particiones en un disco de las cuales una mapearemos en un directorio en el raiz llamado "Main" y otra dentro del mismo directorio main denominada "Backup", cabe aclarar que para que el sistema funcione debe existir si o si una unidad lógica mapeada en "/" llamado (root) que es donde se instalará el Sistema Operativo. Esto quiere decir, que para el Linux no existen los directorios como unidades concretas dentro de un sistema, sinó que un directorio puede contener una conexión a red, una partición de un disco o prácticamente lo que se nos ocurra que involucre archivos. La unica forma de saber adonde estamos accediendo cuando entramos a un directorio es ver como se encuentran mapeadas las unidades en el sistema. Esto libera totalmente al usuario de tener que lidiar con un sistema de múltiples unidades y letras, teniendo solamente una estructura de directorios que se ordena a gusto de la persona que lo maneje, por ejemplo, puedo tener 4 discos rígidos con solo 1 partición cada uno y crear un directorio llamado "Almacenamiento" y dentro del mismo crear 4 directorios llamados "Backup1" al "Backup4" y montar cada disco a cada directorio, así, cada vez que deba copiar datos tendré tan solo de la estructura de directorios sin tener que preocuparme sobre las unidades, esto permite total libertad, no solo en como mapeamos las unidades sinó también en los nombres que le ponemos como así también de quien es el acceso a esa unidad, ya que podremos configurar el acceso a esa unidad por control de usuarios. Otra ventaja en el manejo de archivos de Linux, ademas de soportar mas de 6 tipos distintos de sistemas de archivos (en comparación de los 3 sistemas que soporta Windows Vista) es la forma en que maneja el Swap, el Linux requiere una partición formateada como "Swap" para encargarse de manejar la memoria virtual, esto elimina de manera completa el problema de los bloques contiguos y es una forma mucho mas limpia de manejar la memoria virtual, así que para poder instalar el sistema con éxito hay solo 2 condiciones. * Que exista al menos una partición mapeada en el directorio raiz "/" para Root * Que exista al menos una partición dedicada al Swap (se formatea como partición Swap). Cuando terminamos de crear las particiones, inmediatamente pasamos a la bienvenida del instalador y configuramos el Lenguaje. En Ubuntu las cosas se hacen al reves, primero se preguntan los datos relevantes, luego se procede a la copia. Como nosotros elegimos crear las particiones manualmente, aquí eligiremos "Manual" Podemos ver las unidades detectadas como "sda" que representan al disco rígido y sus particiones detectadas, a la derecha en "Mount Point" se encuentra el nombre y la ubicación de cada unidad en la estructura de archivos, noten que también podemos acceder a las particiones de Windows llamadas sda3 y sda4 que quedaran en el directorio /media/sda3, antes de instalar podríamos modificar el Mount Point y ponerle el nombre "discowindows1" y "discowindows2" por ejemplo a cada partición. El siguiente paso nos permite elegir importar los documentos mas importantes de Windows XP. Aquí elegimos los datos mas relevantes, nombre de usuario, clave y nombre del equipo. Ya se encuentra todo listo para instalar, así que presionamos en Instalar. La copia de todos los archivos ha tardado un aproximado de 10 minutos en nuestro sistema. Cuando presionamos "Restart now" ya podemos quitar el CD y considerar la instalación exitosa. Una vez que reiniciamos la PC nos encontramos con un menu de inicio, este menu se llama "Grub Loader" y es similar al "Windows Boot Manager", una vez aquí, la instalación esta completada y el Ubuntu iniciará sin problemas. Desde el momento en que presionamos en Instalar hasta que nos encontramos con el Ubuntu instalado y en la pantalla de bienvenida han transcurrido unos 14 minutos. Instalación Driver de Video: La instalación de Video en Ubuntu puede ser mas compleja o mas simple que en Windows, todo depende de como se lo mire, debido a que el sistema ya trae Drivers que soportan incluso las últimas versiones de las Geforce 8800, instalar drivers "propietarios" solo se hace necesario si se desea utilizar OpenGL para juegos bajo Linux o bien para utilizar el escritorio 3D, como esa es nuestra finalidad, procedimos a bajarnos el último driver de la pagina de NVIDIA. Una vez bajado el driver, aquí es donde las cosas se ponen algo dificiles para el que no sabe, pero no hay que quejarse por querer aprender, sobre todo por un sistema operativo que no cuesta un centavo. Se debe desactivar el modo gráfico, esto se puede hacer desde una consola, casi todo el sistema operativo puede ser manejado desde una consola, sea dentro de un entorno gráfico o fuera de el, ya que el control del sistema esta de la mano del usuario, no del sistema operativo, esta es una filosofía totalmente contraria a la de Microsoft en el Windows Vista donde el usuario pierde el control de lo que está sucediendo. Antes de proceder a desactivar el X, podremos bajar el unico archivo que el Driver de NVIDIA requiere para funcionar correctamente, ya que los Drivers de video requieren compilar el Kernel, este archivo se puede bajar directamente con el comando apt-get install libc6-dev, mas adelante explicaremos que significa todo esto. Ubuntu incorpora un control de usuario mediante el comando sudo, esto le permite ejecutar con permisos de "root" cualquier comando, esto es similar al UAC, sin embargo, aquí no hay cartel que impida la ejecución de un archivo, aquí deberemos ser nosotros los que antepongamos el comando "sudo" a la sentencia que deseamos ejecutar, con el sencilo comando de "gdm stop" cortamos el entorno gráfico, necesario para instalar los drivers. Ahora, con sh ejecutamos los drivers de NVIDIA, siempre se debe usar sudo para cualquier función concerniente al sistema, ya que le indica al Linux que estamos ejecutando con permisos de Root. El Driver nos da la bienvenida y se pueden descartar las advertencias que pueda dar, ya que hemos bajado el paquete necesario para recompilar nuestro kernel sin problemas. Aquí vemos al Driver instalando, es un proceso extremadamente rapido. Una vez terminado, el Driver pregunta si queremos modificar la configuración de pantalla para reflejar el driver, las configuraciones de pantalla se escriben en un archivo llamado "xorg.conf", en caso de que querramos hacerlo manualmente también podemos, pero podemos dejar al driver que lo haga automaticamente. Como en el cabo de todo este tiempo he aprendido algunas cosas de Linux, yo modifico el archivo de manera manual, la ventaja en Linux es que podremos hacer todo esto manualmente si aprendemos y podremos modificar el sistema a nuestro total gusto. Para reiniciar el entorno gráfico podremos escribir StartX o bien reiniciar la PC con Control-Alt-Del, aunque reiniciar la PC no es necesario en absoluto. Todo este proceso solo es necesario si queremos usar OpenGL en Placas de Video de la generación 8, ya que la versión Feisty Fawn está preparada para bajar los drivers de forma automática dentro del entorno gráfico si nuestra placa de video es de la generación Geforce 5, 6 o 7. Este es el panel de control de NVIDIA en Linux y se accede simplemente creando un acceso directo a la aplicación "nvidia-settings" o bien escribiendo "nvidia-settings" en cualquier consola del sistema, todo este proceso de actualización de Driver se hizo sin ninguna necesidad de reiniciar el sistema. Aquí podemos ver las capacidades de OpenGL mediante driver GLX que es el estandar de Linux para Video en Xorg. Escritorio / Repositorios / Synaptic: Veamos ahora el escritorio y hablemos un poco de una de las cosas mas interesantes que dispone el Ubuntu como distribución basada en Debian. El sistema de paquetes Debian conocido como apt-get se encarga también de actualizar el sistema de forma automatica, como podemos ver el anuncio en la parte superior, para nuestros fines, vamos a esperar en la actualización y vamos a mostrar un poco el sistema. Aquí vemos 2 aplicaciones que son muy usadas, por un lado vemos el panel de control de Red que podemos acceder simplemente haciendo doble click en el icono de red en la parte superior derecha, luego el System Monitor que es lo mas parecido al TaskMan del Windows, observen el consumo de recursos una vez finalizada la instalación y con los drivers de NVIDIA activados, 136Mb de memoria usados de un total de 2Gb, esto muestra una diferencia de 136 contra casi 500Mb en Vista, lo cual implica que en Ubuntu disponemos de aproximadamente 1910Mb de memoria RAM para programas, el Ubuntu es conciente de la memoria para cache de disco, solo que no requiere un Cache extenso para mantener el disco muy lejos de realizar Swap, de hecho, trabajar en Ubuntu hace que rara vez veamos al disco, el manejo de recursos es simplemente sorprendente y va a llamar la atención mucho mas a un usuario de Windows mas que a un usuario de Linux que sabe de estas diferencias, por otra parte, también el manejo de CPU es superior y cada CPU se maneja por separado con total libertad, recuerden que la mayoría de las aplicaciones en Linux son Multithreaded, así que no incurre en los problemas que actualmente el Windows tiene con respecto a optimizaciones. Si somos de aquellos que nos gusta ver internamente al Linux, podremos obtener mucho mas información con la aplicación "top" que puede correr incluso sin escritorio, aquí vemos como la cantidad de memoria usada es de 803268K (casi 800Mb) contrariamente a lo que vemos en Vista, donde incluso con Cache se consumen 500Mb aproximados de RAM, el Ubuntu reporta solo el espacio usado realmente por el Kernel y programas y no el espacio usado por Cache, por lo cual, el manejo de memoria es ligeramente distinto. Lo mas brillante de esta Distro y es lo que realmente podría alterar a muchos que jamas han adentrado en el mundo de Linux es su sistema de repositorios. Para entender que diablos es un "repositorio" debemos explicarles que significa basicamente esto en Linux. Debian introdujo un sistema de "Repositorios" en su distribución, debido a que Ubuntu es basado en Debian, goza de los beneficios, así como ustedes bajan de un FTP datos importantes, el Debian Linux tiene un sistema de Repositorios que vendrian a ser servicios de FTP permanentes donde podremos encontrar todos los programas a bajar. A diferencia de un FTP, no hay necesidad de configurar nada, los Repositorios de Ubuntu donde podremos encontrar mas de 500 programas gratuitos para bajar se encuentra pre-configurados por defecto. Un repositorio es un servidor en Internet dedicado exclusivamente a proveer programas listos para ejecución en la distribución que lo use. Cada Distro tiene sus propios sistemas de "Repositorios" pero sin lugar a dudas el mas efectivo, simple y prácticamente libre de problemas es el de Debian y dentro de este, el sistema de Repositorios de Ubuntu es uno de los mas completos que existen. Los repositorios estan ordenados por categorías y no hay que "navegar" para traer archivos, simplemente basta con saber el "nombre" de un programa para poder bajarlo o buscarlo en el Search, el proceso de bajar consta en hacer "Click" sobre el casillero vacio en Synaptic y clickear en "Apply" eso es todo. El programa se baja automaticamente del respositorio, se instala y se crean los accesos directos en el Menu principal. Debido a que los programas vienen pre-empaquetados, no estamos instalando una pila de DLL's (como haríamos en Windows) sino tan solo paquetes que serán descompactados e instalados en los correspondientes directorios sin que tengamos que preocuparnos del proceso, los paquetes de software tienen subcategorías (no es necesario saberlas, ni que contienen dependencias de otros paquetes) pero el tener este conocimiento permite entender mejor lo que ocurre, es comun ver que cada paquete termine con 6buntu3 o ubuntu5, etc, es una forma de dividir las categorías, el paquete principal generalmente tiene el nombre del programa y nada mas, por lo cual es facil incluso bajarlo manualmente sin recurrir al Synaptic (programa gráfico), esto en Ubuntu es incluso mas facil que utilizando Synaptic, en este ejemplo estoy bajando el XMMS que es un programa similar al Winamp, para bajarlo, podemos hacerlo o bien a traves de Synaptic (modo gráfico) o bien por consola, el comando de consola para bajarlo es "sudo apt-get install xmms" paso a explicar que es cada cosa: sudo = superuser (que es similar a pedir acceso root para el comando a tipear, recuerden que intento agregar programas) apt-get = invoca al sistema de packaging y repositorios (si estoy usando apt-get en modo consola e intento acceder a synaptic el Ubuntu me dirá que existe otro programa de Packaging en funcionamiento, para evitar generar conflictos solo 1 programa manejo de repositorios se permite a la vez, o bien por Synaptic o bien por apt-get en consola. install = le indica a apt-get que realice una instalación, puedo reemplazar esta palabra por "remove" y eliminará el programa que indique a continuación. xmms = instala el programa cuyo nombre sea "xmms" desde los repositorios (el apt-get busca el programa automaticamente, lo instala, crea los accesos directos, exactamente igual que si lo hicieramos por synaptic). Aquí vemos como una simple sentencia permite instalar el XMMS, si vamos al menu Audio/Video vemos el XMMS listo para ejecutar, lo abrimos y aparece en pantalla. Si quisiera instalar un grupo de programas, todos al mismo tiempo, es mas facil aún, solo debo agregar los nombres de ellos todos seguidos, ej: "sudo apt-get install xmms xmms-skins firefox vlc mplayer" Esta sentencia estaría instalando el XMMS con sus respectivos Skins, el Firefox, el VLC Media Player y el Mplayer for Linux, todos al mismo tiempo en una sola sentencia. Una vez que se aprende a dominar este tipo de sistema, se hace mucho mas rapido instalar programas de los repositorios, mucho mas rapido que navegar por ellos y buscarlos en Google y luego bajarlos como se hace en Windows. En caso de ser un fanatico de Windows y no poder lidiar con todo este asunto de los comandos o Synaptic, podremos recurrir a un programa mucho mas sencillo: Add/Remove Applications. Este programa, por supuesto, usa internamente apt-get, pero la forma en que lo representa es mucho mas agradable, todos los programas separados en categorías y con iconos y puntuación por popularidad de bajada, esto es incluso mas simple que en Windows y tenemos toda una biblioteca en internet a nuestra disposición lista para ser descargada. Aquí vemos la categoría de Internet. Aquí la de sonido y Video, aquí nos disponemos a instalar Amarok que a pesar de ser un programa de Sonido para KDE (otro entorno gráfico) aún asi puede usarse en Gnome, ya que el Ubuntu se encargará de instalar las librerias y dependencias correspondientes por nosotros, tanto el sistema gráfico KDE como Gnome son intercambiables, de hecho, podría tener ambos sistemas en la misma maquina, en serio lo digo? en serio, para cambiar todo el entorno gráfico del Ubuntu y convertirlo en un Ubuntu con KDE (similar a Kubuntu) solo debemos tipear en la linea de comandos "sudo apt-get install kde" o buscarlo a traves de Synaptic, cada tipo de entorno gráfico quedará a nuestra disposición en el menu de Login y podremos elegir con cual entorno gráfico ingresar antes de poner nuestra clave, claro está que como dije antes, los programas de un entorno y otro son intercambiables, así que no necesito realmente a todo el sistema KDE para correr Amarok, por cierto, Amarok es uno de los mejores programas de Audio/Playlist/Radio de Linux. El sistema de actualización también funciona por repositorios y se activa solito, cuando vemos una actualización disponible en la barra superior, basta acer click para que se abra esta ventana que actualizara todo el sistema, la forma de hacerlo manual mediante consola es tipeando "sudo apt-get update" y luego "sudo-apt-get dist-upgrade". Aquí vemos el Device Manager del Ubuntu, similar al de Windows, solo que con distinta información sobre cada dispositivo, podemos ver como el nForce 680i SLI se identifica con su codename en MCP55. El Ubuntu dispone incluso de servicio de Remote Desktop con protocolos para todos los escritorios remotos mas conocidos inclusive el RDP de Windows. Ubuntu viene con OpenOffice instalado por defecto, incluso podremos correrlo en LiveCD ! así que aquellos que necesiten utilizarlo para oficina estan hechos. Video: (Gstreamer) Vamos a pasar ahora a las habilidades de Video del Ubuntu. A diferencia del Vista que nos deja sin idea de porque el Video no funciona, el Ubuntu al estar conectado con el sistema de Repositorios nos avisa que hace falta un Codec aceptable para reproducir el Video, abrimos un Quicktime en formato H264 AVC en 1920x1080 y la ventana nos pide buscar el mejor Codec disponible. Esta no es tarea nuestra, el Ubuntu busca el Codec específico para el archivo que queremos reproducir y nos muestra lo que ha encontrado, en este caso es el paquete "Gstreamer para audio" y nos avisa que es un Codec con Copyright. Una vez que se aplican los cambios, hay que cerrar el Totem Media Player (el Player de Video que provee Ubuntu por defecto) y volver a abrirlo con el Archivo de Video para ver si es necesario un Codec Adicional. Ya tenemos el Audio pero ahora el Totem nos dice que es necesario el Gstreamer ffmpeg para Video que es el que permite reproducir todas las variantes de DivX, MPEG4 ASF y AVC (H264) y MPEG. Una vez bajado el Codec, el Video se abre por si mismo. Aquí vemos el uso de CPU, extremadamente bajo !, observen que se usan tan solo 30% de un solo procesador, hay que tener en cuenta que los valores no son comparables con el Windows Vista o Windows XP por una sencilla razon, el TaskManager de XP/Vista utiliza un valor de CPU combinado para indicar el uso de CPU, así, un 50% equivaldría a uno de los procesadores corriendo al máximo, en Ubuntu no tenemos valor combinado, cada procesador tiene su propio porcentaje. Si tendría que combinar los valores, el 30% de un solo procesador equivaldría a no mas de 15% en Windows, pero esto es tan solo una aproximación. Escritorio 3D: Compiz-Fusion Para finalizar este artículo, vamos a explorar el escritorio 3D del Ubuntu, esto se puede utilizar mediante agregar el paquete de Compiz y ejecutarlo "sudo apt-get install compiz" y "compiz --replace" para ejecutarlo, sin embargo, como a nosotros nos gusta lo ultimo en tecnología 3D, vamos a bajar el último Compiz disponible de los repositorios de Feisty, que son los mismos archivos que esta usando la última versión de Ubuntu (Gutsy Gibbon) que ya vendrá con el Compiz-Fusion instalado por defecto. El Compiz Fusion es la ultima variante en 3D para Linux que unifica ambos proyectos (Compiz y Beryl) que antes se encontraban separados. Ahora, Linux tiene una de las bases mas solidas de 3D de todas con un equipo unificado que trabaja para mejorar la experiencia 3D, como el Compiz funciona a base de "plugins" es ilimitada prácticamente la cantidad de cosas que se van agregando por mes y mejorando. El CompizConfig Settings Manager es el programa que se usa ahora para configurar Fusion, como expliqué anteriormente, todo se maneja mediante Plugins así que podremos activar/desactivar todos los plugins que se nos dé la gana para customizar el Fusion a nuestro gusto, incluso podremos convertirlo en un Vista incluso hasta en los mínimos detalles, para aquellos que quieran hacerlo pueden ver este video tutorial. Activamos Woobly Windows que es el plugin encargado de convertir elasticas las ventanas. El Plugin Zoom nos permite apretando la tecla "win" y la ruedita del mouse hacer "zoom" a cualquier parte de la pantalla, extremadamente util para el que se acerca al monitor con frecuencia a observar detalles. Aquí vemos una de las formas de cambiar tareas, similar al Vista pero con actualizacion de ventanas en tiempo real, así que podremos ver el video reproduciendose en la ventana al cambiar tareas. También podremos cambiar escritorios, mientras que en Windows Vista debemos comprar otro monitor para tener mas de un escritorio, en Ubuntu y en todas las distros de Linux tenemos 4 escritorios virtuales por defecto, pero podremos ponerle hasta 16 !!, el Plugin Expo es el encargado de permitirnos cambiar entre escritorios con los 4 paneles abiertos (observen las reflexiones de cada cosa abajo), las ventanas pueden arrastrarse con facilidad de un escritorio a otro (expo se activa con tecla Win+E), cuando activamos desactivamos expo, la pantalla vuelve en modo "zoom" hacia donde dejamos por ultima vez el Mouse, así que pasamos de un escritorio a otro con toda facilidad Otra forma interesante de cambiar ventanas al estilo "Cover" del OS-X con el plugin Shift-Switch que puede ser activado con la combinación WIN-Tab similar al Flip3D de Windows Vista Agregamos un poco de gotas de agua para darle un aspecto mas agradable y podemos ver como cambia las ventanas incluso con el video reproduciendo en tiempo real. Acaso creían que el Flip3D es exclusividad del Vista?, ya no, con el Plugin Shift-Switch se puede cambiar de modo "Cover a Flip3D" y tenemos emulado a la perfección el efecto Aero. No solo podremos cambiar ventanas con Win-TAB, podremos tener apretado el boton izquierdo de mouse y mover las ventanas con toda libertad con el mouse y pararnos sobre la que querramos y soltar el boton para ingresar a ella, cada Plugin permite incluso modificar sus parametros así que bien puedo cambiar la inclinación del efecto, para que las ventanas provengan del otro costado o desde arriba o como se me ocurra a mi que deberían venir. El Compiz Fusion está todavía en etapa de pruebas y la versión utilizada aquí es la 0.5.2 que todavía está categorizada como Unstable, sin embargo en todo nuestro analisis no se ha colgado ni una sola vez por lo cual consideraría que ya puede usarse de manera normal, sin embargo, esto es tan solo una adición y no define al Ubuntu en sí, claro está, a mas de uno le gustará saber que puede tener un escritorio totalmente en 3D y con un Hardware moderado, digo esto porque el Compiz Fusion puede funcionar incluso en una Geforce 4 Ti o Geforce FX con un movimiento mas que aceptable. Antes de terminar el review, les dejo algunos videos donde pueden ver las caraterísticas del Compiz-Fusion, particularmente de esta versión usada. video 1 video 2 video 3 Conclusion Ubuntu Feisty Fawn: Lo Bueno: Provee LiveCD por lo cual puede probarse con total libertad sin tener que recurrir a instalación, en modo LiveCD no usa ningun HDD del sistema por lo cual, puede utilizarse en PC's que incluso no tengan disco rígido!. La instalación es extremadamente rapida, total libertad para particionar cada disco con una selección de mas de 10 tipos de sistemas de archivos con soporte para FAT, FAT32 y NTFS incluído. Viene con Paquete de Office (OpenOffice) incluído. Excelentes habilidades de Decoding de Video y Audio con programas de Radio y Video incluídos, habilidad de detectar de forma automática los Codecs necesarios. Sistema de repositorios con cientos de programas, codecs y actualizaciones disponibles para el usuario sin cargo alguno (este sistema es inexistente en Windows Vista). Capacidad de modificación parcial o total del sistema operativo, posibilidad de utilizar otros sistemas gráficos (Gnome, KDE, Enlightenment, FluxBox, etc) ampliando las posibilidades del usuario. Kernel actualizado dia a dia con mejoras incluso en el sector Multitasking, Multithreading y soporte para Virtualizacion por Hardware en futuros Kernels con procesadores Intel. Software de virtualización VirtualBox disponible de forma gratuita. Capacidades de Escritorio 3D superiores a todo lo visto en Vista y rivalizadas en calidad solo con el OS-X Leopard de Macintosh superando al mismo en cantidad de opciones y modificaciones disponibles. Soporte de OpenGL 2.0 con Pixel Shaders, se pueden jugar todos los juegos basados en OpenGL con soporte Linux tales como Doom3, Quake4, Unreal Tournament 2003, 2004 y el próximo 2007 como así también todos los juegos basados en Unreal Engine 3 ya que este engine tiene soporte de OpenGL y Linux. Ciclo de Actualizaciones mucho mas alto que sistemas operativos basados en Windows y las innovaciones tecnológicas se dan cada 6-8 meses con actualizaciones constantes. Esta totalmente libre de Virus, Spyware y Adware, estas palabras no existen en el mundo Linux, de todas formas, se disponen de Antivirus gratutitos en los repositorios para eliminar Virus de Archivos de Windows, Mails, etc. Es totalmente gratuito y libre de temas legales, se puede modificar parcial o totalmente sin miedo a represalias de Canonical siempre que no se utilice para comercio ya que es Software Libre. Se puede pedir Online con envio puerta a puerta sin cargo alguno. Incluye versiones 32 y 64bit en el mismo paquete. Lo Malo: No contiene soporte DirectX9 ni 10, el Wine emula DirectX9 pero de manera deficiente por ahora y no es recomendable para la basta cantidad de juegos que existen y son solo compatibles con Windows. Actualizar Drivers de Video puede llegar a ser dificil para un iniciado si el driver no es detectado de forma automática por el Ubuntu (por suerte el Ubuntu tiene una de las mejores comunidades online disponibles para esto). Algunos documentos de Office no se reproducirán a la perfección en OpenOffice debido a las limitaciones impuestas por el codigo cerrado de Microsoft. Requiere de conocimientos para su puesta a punto y algo de conocimientos sobre como funciona Xorg y los archivos de configuración principales de Linux (aunque no es necesario una puesta a punto para poder disfrutarlo así como está). Requiere interacción del usuario para resolver problemas (usuarios de Windows sin intenciones de aprender del primer problema abstenerse de instalarlo). El escritorio Compiz-Fusion no se instala por defecto y requiere agregar los repositorios y configurarlo manualmente (esto vendrá instalado por defecto en próxima versión). Maquina Recomendada: Para una optima experiencia en Ubuntu, MaximoPC recomienda cualquier PC promedio con procesador SingleCore o DualCore de aproximadamente 1.6Ghz en adelante, un mínimo de 512Mb y hasta 1Gb para maximizar el uso. El ubuntu no requiere realmente de mas de 1Gb de RAM y correr con 2Gb le permitira abrir cientos de programas mas de lo que realmente usaremos en procesos cotidianos debido a su mejor manejo de memoria. Cualquier placa de video Geforce 6, 7 u 8 de cualquier generación es mas que suficiente para poder correr Ubuntu. Para la mejor experiencia en Compiz-Fusion es recomendable usar placas Geforce 6200 en adelante y desactivar algunas funciones para las placas 3D onboard aunque permite obtener excelente performance incluso con Geforce 6100 si algunas opciones de desactivan. Conclusión Final: El reinado de Microsoft se va acercando a su fin, es claro que para las cosas que hemos comparado aquí, uso diario, Video y escritorio 3D el Ubuntu no tiene competencia. Por supuesto que en caso de que se manejen aplicaciones específicas de Windows que no tengan soporte en Ubuntu o que el Wine no pueda ejecutar (Wine es la aplicacion de Linux que permite correr programas de Windows bajo Linux, Photoshop, Adobe acrobat, etc) un sistema Windows es la mejor elección. Sin embargo, para todos aquellos que ya se encuentran en un sistema Windows XP y que estén pensando en actualizar la triste realidad es que el Windows Vista con un precio de u$s499 para la versión Ultimate esta cargada de programas que generalmente no usaremos con un valor altísimo de venta y con un valor real de utilidad muy bajo, no existe actualmente nada que el Windows Vista haga y que no pueda hacer el XP con la unica salvedad del Aero y el DirectX10 y esos dos puntos actualmente no son suficientes para que justifique que ninguna persona pase del Windows XP (perfectamente funcional y estable con un manejo de memoria superior) a una versión mas pesada, llena de Bugs, extremadamente costosa y que hará que sus computadoras retrocedan a una era anterior. Cualquier persona que tenga una PC promedio podrá atestiguar que siente que su PC corre mucho mas lento en Windows Vista, esto es un problema intrínseco del Kernel y la forma en que Vista maneja DRM, haciendo chequeos continuos del sistema y quitando preciados ciclos de Reloj en el proceso. Es muy probable que este mismo esquema de protección DRM que la gran mayoría de nosotros jamás necesitaremos (cuantos de nosotros invertiran en Vista para reproducir BlueRay?) podría provocar el fracaso completo del DirectX10 puesto que aún las aplicaciones que corran deberán pelear por los recursos del sistema cuando tenemos programas que están chequeando el sistema en busca de intentos de "hacking" al DRM mientras que tenemos otros programas que requieren todo el tiempo de CPU y memoria. El nacimiento del Linux como sistema operativo de Escritorio para las masas recien ha comenzado, la versión Ubuntu Feisty Fawn es a mi criterio la primer versión totalmente amigable al usuario y que puede permitir que cientos de personas cambien al Linux. Esto no es algo nuevo, el Linux es algo que viene desde hace años, pero recien ahora ha llegado a un nivel de usabilidad que permite el acercamiento de las masas y con todos los programas que se incluyen y la gran facilidad de instalar cientos mas sin costo alguno y sin sentir que infringimos ninguna ley o que debemos perder todos nuestros ingresos comprando y comprando programas, tenemos ahora la oportunidad de descubrir todo un nuevo mundo, el mundo del Software Libre y que mejor incentivo que hacerlo ahora cuando el escritorio 3D en Linux está naciendo bajo el nombre de Compiz-Fusion. Cualquier persona que observe los screenshots o vea los videos decidirá en menos de 10 segundos que sistema 3D de escritorio es superior y esto recién ha comenzado para el Linux. MaximoPC Recomienda: Para Escritorio: El Ubuntu es sin lugar a dudas nuestra primordial elección por el simple hecho de que contiene todos los programas necesarios, puede trabajar en LiveCD sin necesidad de instalarlo, consume muy pocos recursos y puede ser usado incluso en maquinas viejas sin miedo a sentir que las cosas se ponen feas. Para Uso Cotidiano: Existen 2 opciones aquí para uso cotidiano y son el Windows XP y el Ubuntu, ya que ambas tienen todo lo necesario realmente, desde programas de musica (que pueden instalarse adicionalmente en el Windows XP) hasta navegadores, programas de correo, etc. Para Gaming: Sin lugar a dudas la mejor plataforma de Gaming indiscutible de la actualidad es el Windows XP. Con una plataforma solida, estable y con el mejor soporte de DirectX9 que ya se encuentra en un nivel super maduro, todavía no hay nada que le haga competencia a este sistema operativo que se hizo mucho mas fuerte ahora desde la llegada del Vista. El DirectX10 no es una opción para nadie en este momento, registrando una performance menos que aceptable en hardware tan alto como una Geforce 8800GTX deja mas que claro que pensar en jugar en cualquier placa de menores prestaciones es tan solo una ilusión por el momento. El ubuntu a pesar de tener buen soporte para OpenGL, debido al gran impacto que tuvo Microsoft en el mercado de Gaming, todavía le queda mucho camino que recorrer para considerarse una plataforma de Gaming, por suerte, el nuevo Unreal Engine 3 soportará Linux y esto podrá provocar que mas programadores sigan esta ruta. Para Multimedia y HTPC: Aquí el puesto se pelea entre Ubuntu y Windows XP. El Vista nuevamente no es una opción, ya que en maquinas HTPC lo mas importante son las prestaciones, el bajo costo y el poco ruido y esto no puede cubrirse con Vista que no funciona de manera satisfactoria con 1Gb de RAM mientras que tanto el Windows XP como Ubuntu pueden hacerlo perfectamente bien con 512Mb. Además, el Ubuntu es multithreaded por defecto y el Xine (engine de Video) se encuentra programado con multithreading en mente por lo tanto todos esos procesadores Dual-Core serán puestos a buen uso. El Windows XP sigue siendo una excelente opcion si se usa Media Player Classic Home Cinema como reemplazo a todos los programas comerciales. El ubuntu es una excelente opción si se usa Totem Media Player con Xine y VLC ya que obtienen excelente uso de CPU y gran compatibilidad de Codecs. El Vista no es una opción ya que requiere si o si soporte de PureVideoHD si se quiere obtener una performance aceptable en H264 y además consume ciclos de reloj extra para chequeos de DRM. Para Escritorio 3D: Sin lugar a dudas aquí la recomendación total es hacia Ubuntu con Compiz Fusion, si quieren experimentar lo que se siente tener el mejor escritorio 3D, haciendo cosas que un sistema de Windows tan solo podría soñar y sin agregarle una sola moneda a nuestro ya gratuito sistema operativo, el Compiz Fusion es la mejor elección del momento. Recomendación Final: MaximoPC recomienda un Dual-Boot utilizando Windows XP para Gaming y programas específicos de Windows y el Ubuntu para todo el resto y disfrutando de un escritorio 3D como ningun otro sistema operativo dispone sin tener que actualizar ninguna parte de nuestro hardware. Estas ,sin lugar a dudas, son buenas noticias para todos los que creyeron que actualizar un sistema operativo es invertir en mas hardware. Espero les haya gustado leer el artículo tanto como a mi me ha gustado escribirlo, ha llevado un enorme proceso de investigación y una gran cantidad de tiempo y espero que pueda ser usado de ahora en mas como punto de partida y también como un tutorial para todos aquellos que deseen probar lo nuevo del mercado. Me despido y será hasta la próxima. Fuente: Primera parte de este comparativo: http://www.taringa.net/posts/info/944077/Comparaci%C3%B3n-a-fondo:-Vista-vs-Ubuntu-(1%C2%BA-Parte).html

Sé que ya salió la versión 7.10 de Ubuntu, pero este comparativo está demasiado bueno como para dejarlo pasar. Esperemos echar un poco de luz por fin a este asunto acerca de qué SO es mejor y en qué aspectos, de un modo lo más objetivo posible. Me ví obligado a hacerlo en dos partes, ya que es demasiado largo para entrar en un solo post. Windows Vista vs Linux Ubuntu 7.04 Empresa: Microsoft & Canonical Modelo: MS Windows Vista - Ubuntu 7.04 + Compiz Fusion Autor: Eagle Fecha: 28-08-2007 Ninguna PC podría funcionar sin un Sistema Operativo y es el turno en esta ocasión de brindarles un artículo de dos productos mas conocidos, por un lado tenemos el Windows Vista y por el otro la distribución mas famosa de Linux, llamada Ubuntu. Pasen y lean como instalamos cada uno lado a lado, explicamos cada cosa y los comparamos en Escritorio, Uso diario y 3D. Con este super artículo estrenamos una nueva sección en MaximoPC: "SOFTWARE". Introducción: Se ha iniciado una competencia por los Sistemas Operativos desde hace un tiempo, con claras muestras de tecnologías innovadoras y otras no tan innovadoras, entre los participantes encontramos al Windows Vista de Microsoft, al Ubuntu de Canonical, al SuSe Linux de Novell y al OS-X Leopard de Apple, como todos estos Sistemas incluyen características interesantes y novedosas, mas allá de sus problemas y como lo prometido es deuda, en esta ocasión, les preparé un articulo muy completo e intensivo en el cual pondremos cara a cara a los dos SO mas conocidos de este momento, el Windows Vista y el Ubuntu en su versión 7.04 denominado "Feisty Fawn". Espero que con este review puedan aprender un poco mas de cada respectivo SO y que a su vez pueda inspirar a los lectores a probar nuevos horizontes mas alla del Windows XP que por tanto tiempo ha estado y sigue estando con nosotros, sin mas, los dejo con el articulo, a tener en cuenta que este artículo fué pensado para leer con calma, paso a paso y con mucho tiempo, ya que contiene información detallada de cada sistema operativo, su funcionalidad, instalación, ventajas y desventajas, de ser preciso es recomendable leerlo varias veces o en partes ya que está diseñado para proveerles mucho información y datos utiles así que tengan lista la taza de Café, la van a necesitar. Evaluación: La evaluación la voy a hacer bajo las siguientes condiciones para ambos sistemas operativos. * Se van a evaluar desde la instalación hasta la puesta a punto * Se van a instalar los Drivers de Video * Se van a probar en 3 escenarios tipicos: Uso diario, Multimedia y Reproducción de Videos. * Se van a evaluar con los programas exclusivamente provistos por el SO * En caso de necesitar una funcionalidad extra se recurrirá solo a Software gratuito, ya que no es correcto comparar la funcionalidad de Video si para tenerla debemos recurrir a comprar un nuevo producto (ej: PowerDVD) Primero nos vamos a adentrar de lleno en el Windows Vista, vamos a instalarlo paso a paso y luego vamos a ponerlo a prueba, en el transcurso les voy a ir comentando las cosas buenas y malas del producto así como también algunos detalles que deberían saber del mismo, espero que este Review sea tomado mas bien como un artículo informativo mas que una comparación de ambos productos ya que no se correrán Benchmarks de ningun tipo aquí. Para los fines prácticos de este artículo, utilizaremos una partición de 16Gb en el disco para instalar ambos sistemas operativos, primero el Vista, luego el Ubuntu. Una Pequeña Aclaración: Quiero destacar que voy a alternar entre "screeshots" hechos por el sistema y fotos sacadas al monitor, esto se debe a que en instancias de "instalación" (especialmente en Vista) no es posible tomar screenshots del sistema y se debe recurrir a la camara de fotos, las discrepancias en los brillos dejarán en evidencia cuando se tomó una foto al monitor. Otros eventos donde se quiere fotografiar al monitor directamente son cuando se activa el UAC (User Acces Control) de Windows Vista o cuando nos encontramos en la pantalla de Login por lo tanto, sepan disculpar las diferencias entre las capturas y las fotografías. Maquina de Pruebas: La maquina de pruebas que se armó para este artículo es la siguiente. * Core2Extreme X6800 (2.93Ghz) * 2Gb G.Skill PC2-8500 (1066Mhz) * ECS nForce 680i SLI * MSI Geforce 8800GTX OC * Seagate 320Gb SATA2 HDD * Pioneer DVR212 SATA * PowerCooler 550W ATX PS * LG 17" LCD (1280x1024) Así que, nos acabamos de comprar una PC nueva y queremos probar como se desempeña en lo último que podemos encontrar en el mercado de Sistemas Operativos?. Si esta es tu forma de pensar, este articulo es para tí. Windows Vista: Instalación del Sistema: El Windows Vista se provee en varias versiones, Vista Home Premium, Business Edition, Ultimate, etc, se provee en formato DVD y su precio aproximado (Vista Ultimate, que es la versión que utilizaremos) es de u$s499, esta, actualmente es la versión mas completa. El Windows Vista utiliza un sistema de Boot y carga de Instalador, similar al XP La diferencia radical consisten en que mientras en el XP observabamos lo que ocurría y que dispositivos cargabamos, el Vista solo nos muestra una pantalla con una barra. Mas barras por aquí y luego accedemos al Menu gráfico de la Instalación. El Vista nos dá la bienvenida y nos pide llenar datos básicos concernientes al lenguaje y ubicación donde nos encontramos. Claro está que existen pantallas que no tienen mucho sentido y esta es una de ellas, no les parece que si llegamos hasta aquí es porque queremos instalar el Sistema Operativo? Que otra cosa podríamos estar pretendiendo? Aquí completamos el Key de instalación, recuerden que con el Key no es suficiente para utilizar el Vista que funcionará por un periodo de 30 dias máximo, despues de esto, deberá registrarse Online de lo contrario perderá funcionalidad. Aquí aceptamos la licencia y los términos de uso. Observen que tenemos desactivada la opción de Upgrade por lo cual debemos realizar una instalación completa. Vamos a borrar las particiones primero, ya que el Vista requiere una partición en formato NTFS para su instalación, para todos aquellos que recuerden como el Vista se iba a ofrecer en Formato de LongHorn con un nuevo sistema de archivos denominado WinFS, esto ha quedado en el olvido, Vista solo soporta sistemas FAT y NTFS y requiere ser instalado en partición NTFS para su funcionamiento. Confirmación de borrado, el Vista no tuvo problemas en borrar particiones desconocidas y crear las nuevas. A partír de aquí, transcurren aproximadamente 10 minutos de instalación, luego, se reinicia la PC. Vemos como esta cargando nuevamente el instalador... Desde aquí ya vamos aproximadamente 20 minutos de tiempo de instalación. Se completa la instalación y nuevamente, se reinicia la PC. La instalación está completa (la copia al menos), se tomó 20 minutos con 2 reinicios del sistema, ahora podemos elegir en el nuevo Windows Boot Manager que es el nuevo sistema de selección de Boot, este sistema no es compatible con el sistema antiguo por ende, todas las instalaciones de Windows anteriores quedan agrupadas en un solo menu como "Earlier Version of Windows". Lo mas destacable de esta implementación es que segun mi criterio no está bien realizada, ya que una vez que entremos al menu de "versiones anteriores" nos encontramos con el Boot anterior de Windows XP y su menu de selección, por lo cual, si disponemos de mas de un Windows XP u otro sistema operativo, deberemos pasar por 2 menus para acceder, era mucho mas facil incorporar esta funcionalidad en el nuevo Windows Boot Manager que delegarlo a la carga del un sistema de Boot anterior contenido "dentro" del Boot Manager del Vista. Esta es la primera vez que se inicia el Windows Vista luego de la instalación y nos encontramos con un Menu de bienvenida que nos indica crear una cuenta. Aquí configuramos las opciones de Updates automaticos. La hora, fecha y ubicación en el mundo. Aquí se configura el Firewall de Vista, similar al de XP con 3 Profiles pre-seleccionados que ademas configuran la manera en que veremos la red, por ejemplo, en el Profile "Public Location" no se habilita por defecto el servicio "File and Printer Sharing" ni el "Network Discovery" por lo tanto, deberemos activarlos manualmente si queremos ver una red Microsoft de archivos. Ahora sí, finalmente terminamos de configurar todo. Aquí es donde nos quedamos nuevamente atascados por unos 6 minutos aproximadamente que es lo que dura todo el proceso del "Windows Assesment Tool", a pesar de que no se indique nada en esta pantalla, lo que está haciendo el Windows en este momento es corriendo el Assesment Tool que dictará la puntuación que recibirá el sistema, este Tool también es el encargado de activar el Aero. Debido a que rara vez el Windows detecta el dispositivo de Video con drivers capaces de activar Aero y la mayoría de las veces terminaremos bajando los mismos e instalandolos después, este paso podría haber sido eliminado del tiempo de instalación y dejarlo como opcional al usuario para correrlo cuando se quiera activar Aero, pero, no es opcional y debemos esperar. Por fin, luego de casi 27 minutos de espera en nuestra PC High End, tenemos la cuenta lista para ingresar. Esta nueva espera generalmente ocurre la primera vez, luego el Vista recurre a su técnica de "Superfetch" para almacenar el uso de todos los programas que utilicemos, acelerando considerablemente el tiempo de carga. El Vista generalmente tarda lo mismo o un poco menos en iniciar una vez que el proceso de instalación esté completo que un sistema similar en XP, pero esto siempre teniendo en consideración que se disponga de al menos 2Gb de RAM, nosotros hemos hecho la prueba con un sistema con un 1Gb y la instalación se tarda cuando menos casi el doble y el sistema operativo tiende a utilizar el Swap casi de forma permanente durante los primeros 10 minutos posteriores a entrar en el escritorio, así que es clara indicación de que el Vista necesita al menos 2Gb de RAM para operar con la eficiencia pensada por Microsoft, al menos para poder ingresar al escritorio sin ver a nuestro disco sacudido por un Swap excesivo. Esta es la pantalla de bienvenida, donde vemos que todo fué detectado excepto la placa de Video, ahora, vamos a proceder a instalar los Drivers, en el trascurso vamos a explicar algunas de las características mas del Vista. Instalación Driver de Video: El nForce680i SLI que tenemos fué detectado tanto en Chipset como en Dispositivos de Red así que entré a la pagina de NVIDIA y bajé el último Driver disponible. El Vista, a pesar de retener el sistema de archivos de Windows con unidades expresadas en letras para cada partición, utiliza un sistema muy parecido al Linux con carpetas personales, esta vez mejor ordenadas, dentro del nombre "Daniel" (mi perfil) donde los archivos a bajar se descargan directamente en el directorio Downloads, utilizando el Vista por un tiempo considerable uno tiende a percibir que se intentó destacar el uso de Carpetas de una manera muy similar al Linux, tratando en lo posible de "esconder" el hecho de que todavía existen unidades de disco detrás de cada carpeta, esto puede traer algunos problemas para los usuarios de Windows expertos o de mucha experiencia ya que notarán que es bastante dificil llegar a las unidades de disco navegando por los menús. Ya que si comparamos entre XP vs Vista los mismos no son intuitívos a nivel "Windows" (por no encontrar una mejor palabra para definirlo, se nota que se intenta orientar la atención del usuario hacia las carpetas, pero esto en un mundo de usuarios de Windows no trae un resultado muy positivo, a mas se conoce lo que se hace, mas molesta acceder a las unidades. Vemos como cada vez que se abre un archivo que representa instalación de un programa, obtenemos un cartel de "Security Warning" a la protección incluída que bloquea programas riesgosos, para decirle al sistema que nuestra instalación es legitima, deberemos hacer clock en "Run" Además de tener que lidiar con la parte de seguridad nativa del Vista, deberemos lidiar ahora con una aplicación llamada "User Account Control" o UAC, esta característica del Vista es algo que Microsoft intentó imitar del Linux, solo que el Linux lo maneja de forma mucho mas prolija. Como funciona, normalmente, accedemos al sistema como usuario, cualquier tipo de acción que indique lidiar con algo que puede ser peligroso para el sistema requiere de nuestra confirmación, lo divertido de todo esto es, que el User Account Control puede bloquear programas que intenten ejecutarse de manera oculta en el sistema, pero no puede evitar que cualquier persona arruine su PC ejecutando un programa que está seguro es seguro y que termina siendo un Virus, debido a que no existe cuenta de "Root" o "Administrador" da lo mismo en que nivel de acceso estemos, ni bien hacemos Click en "Continue" estamos proporcionandole al sistema el acceso mas alto, por lo cual, este tipo de esquema, invalida en cierta medida la idea de "Control de Usuario". Mas inteligente es el método que utiliza Linux en donde los usuarios son siempre considerados en un nivel por debajo del maximo, siendo cualquier acción por parte del mismo que intente acceder al sistema una señal para pedir clave de acceso de "Root", este sistema de clave permite que cualquier persona pueda utilizar una maquina Linux sin posibilidad de arruinarla ejecutando codigo peligroso, ya que deberá proporcionar la clave de "Root" para hacerlo, esto no es posible en Vista, donde un simple "click" provee al sistema el acceso de administrador. Para la gran mayoría que esta acostumbrada al Windows XP, les gustará saber que esta capacidad puede ser desactivada y creo que querrán hacerlo porque deben saber que el UAC y el Security Warning provocan un retraso en la ejecución de cualquier programa de entre 2 a 10 segundos antes de que veamos la ventana de instalación del programa. Para complicar mas las cosas, el UAC no recuerda preferencias y no tenemos forma de indicarle que un programa es en efecto seguro así que se activara cada vez, con cada programa y todas las veces que lo hagamos, sin importar si el programa a instalar es el mismo, ya que no tiene una mejor forma de determinar prioridades de acceso Debido a que no se maneja por usuarios, sino por aceptación de ejecución, aquí está la explicación de porque a la gran mayoría le parece extremadamente molesto el UAC, ya que las preguntas son constantes con cada instalación de cada programa y porque un sistema así tiende a quitarle utilidad, ya que estoy casi seguro la gran mayoría decidirá desactivarlo eliminando por completo el nivel de seguridad que UAC pretendía integrar. Una vez que accedemos a las dos advertencias de seguridad, ejecutamos finalmente el Instalador de Forceware. Reiniciamos la PC y ahora podremos acceder a la configuración de pantalla. En el Vista, la pantalla no se configura mas con el boton derecho sobre el escritorio en propiedades, esto se ha modificado por un menú muy parecido al del KDE (sistema gráfico de ventanas para Linux) donde las opciones de pantalla especificamente se encuentran dentro del menu de "Apariencia" en donde encontramos abajo de todo "Display Settings" Este menú abre las opciones de pantalla, esto puede ser algo incomodo ya que no hay forma directa de hacerlo mas que a traves de este menu, pero para usuarios de Linux, este sistema les puede resultar mas "familiar". Escritorio: Ahora sí, hemos pasado las instalación del Driver de Video, antes de adentrarnos en el Aero y como se activa, vamos a ver un poco el escritorio. El Vista tiene ordenado todo basicamente de manera similar al XP, con la inclusión de una ventana derecha denominada "Gadget" en donde podremos ubicar de manera libre iconos que representan funciones, como vemos aquí, tenemos la hora, fondos de pantalla seleccionables y un Gadget de Headlines. Se pueden agregar todo tipo de Gadgets y esta ventana es controlable mediante las opciones de Gadgets que se acceden en la barra de tareas, si se cierra esta aplicación, perdemos los Gadgets, lo bueno es que es facil de eliminar para el que no guste de ellas y tiene un sistema de "Recuerde la última configuración" que nos permite decirle que "no queremos usarlo nuevamente" la proxima vez que se inicie Vista, por ejemplo. Aquí vemos las opciones de configuración de Firewall, este programa es el responsable de dirigirnos el primer "Warning" cuando ejecutamos archivos, las opciones de Firewall, Malware Protection y demas se configuran aqui en este panel de control centralizado. El Menu de Start se modifica ligeramente en algo fundamental, no se expande, las opciones que vemos a la derehca tales como "Documents, Music, Games" se corresponden con las carpetas creadas para el usuario, luego tenemos el panel de control a mano y los programas por defecto así como también el Help (estas opciones estan en la parte oscura del menu). Donde estan todos los programas se preguntarán, pues en "All Programs" allí abajo escondido, cuando hacemos click, los programas se despliegan en la misma ventana blanca a la izquierda, dentro del mismo panel y deberemos navegar por ellas dentro del mismo menu, es algo incomodo para el que estaba acostumbrado al Windows XP pero no trae mayores problemas, la barra de busqueda rapida allí abajo también sirve para ejecutar programas así que todavía podremos tipear "calc" o "notepad" sin problemas. Aquí tenemos una aplicación interesante para organizar las fotos, se trata del Windows Photo Gallery, este es similar a las aplicaciones que encontramos en el OS-X de Mac, si vemos el aspecto del Leopard notaremos como la influencia de colores oscuros en los bordes se hizo evidente en ambos. El Windows Vista viene también con el Internet Explorer en su última encarnación, completo con la posibilidad de activar "Tabs" que Microsoft cordialmente ha imitado a la perfección de nuestro querido Firefox, también se presentan versiones nuevas del Windows Live (MSN Messenger), Windows Photo Gallery y el Windows Media Center (que es la porción de multimedia incorporada en el Ultimate). Por desgracia el Windows Vista no incluye ningun tipo de paquete para oficina, para esto Microsoft tiene su producto separado llamado Office 2007 así que no esperen editar documentos con el Vista ya que carece de funcionalidad para PDF, DOC, o cualquier otro documento de tipo "oficina" a menos que se instale software adicional. Reproducción de Video: Para la reproducción de Video el Windows Vista utiliza el Windows Media Player 11. Existen una serie de factores fundamentales que hay que explicar antes de adentrarnos a terminar de configurar el Windows Media Player. El Windows Media Player utiliza una interfase protegida denominada "Media Foundation Protected Pipeline", la razón real de porque existe esta interfaz que se activa ni bien abrimos el Windows Media Player 11 es actualmente desconocida, pero segun pude investigar, está directamente relacionada con la activación y chequeo constante de DRM (Digital Rights Management). Por este motivo, la interfase de Media Foundation Protected Pipeline" no solo consume un adicional de hasta un 10% mas de ciclos de reloj sinó que se activa con cada video que utilicemos en el Windows Media Player sin evidenciar ninguna utilidad. Segun investigaciones, aparentemente esta aplicación (que no se encuentra como ejecutable en el sistema) es la encargada de manejar el DRM y supervisa cada cosa que hacemos con el Video, además, la cantidad de ciclos adicionales que utiliza se cree que se deben a la cantidad de recursos adicionales que requiere para los chequeos de DRM. Esta es la principal razon por la cual la mayoria de los videos que se reproduzcan en el Vista consumen ligeramente entre un 5 a un 15% mas de ciclos de Reloj que en sistemas corriendo en Windows XP o incluso el mismo sistema corriendo en Windows XP, las repercusiones y consecuencias de haber adoptado un sistema de DRM a lo largo de todo el Windows Vista son fatales tanto para los fabricantes como para los usuarios y el costo de esto se ha pasado a todos ellos menos a Microsoft, el problema fundamental de esto es que no parece tener solución, ya que si yo soy un usuario que jamás utilizaré la PC para ver videos protegidos con DRM deberé pagar el precio de tener un sistema operativo mas lento que decidirá de manera constante monitorear el sistema buscando potenciales ataques al sistema DRM, aún cuando jamás lo utilice para reproducir BlueRay o HD-DVD, las consencuencias de este sistema son ampliamente explicadas en este artículo que realmente considero todos deben leer ya que es casi la Biblia sobre DRM en Vista. El Digital Rights Management incluído en el Vista se encuentra integrado a nivel "Kernel", el Windows Media Player 11 no desperdicia tiempo en evidenciar el interes comercial en este tipo de recursos, se ve como se permite elegir una tienda de compra de Musica Online incluso antes de poder utilizar el Windows Media Player 11. Lo mas curioso del Media Player 11 es que por mas que hemos buscado, no hemos encontrado una función muy simple. No tiene opción de "Abrir archivo" !! todo lo que utilicemos deberá ser a través de la navegación en carpetas, ya que no podremos abrir un archivo de forma directa en el Media Player 11, lo mas que podremos hacer es Abrir Playlist ya armados o pegar archivos sobre su lado derecho armando Playlist. Ni bien terminamos de instalarlo correctamente, podremos navegar por el listado de URGE para poder adquirir toda la musica que querramos, esto es, con codigo de DRM, por lo cual, seriamente recomiendo no utilizar Windows Media Player 11 en Windows Vista, principalmente porque parece consumir mas recursos de lo normal y porque parece activar un proceso que monitorea los archivos de Video que utilicemos sin ningun beneficio aparente al usuario. Es fundamental saber que la estructura interna del Vista está diseñada con el DRM en mente, por lo cual, se deberá tener un sistema con HDCP tanto en la placa de video, placa de sonido y Monitor para poder apreciar el BlueRay y HD-DVD o simplemente no utilizar el Windows Vista y ver las peliculas en formato DVD. Como dijo alguien muy sabiamente, el Windows Vista con respecto al DRM es la mayor tentación a la piratería creada jamás. Saben ustedes que la rutina de encriptación AACS del BlueRay y HD-DVD fué rota por un usuario en menos de 1 semana? Negando todo el esfuerzo y trabajo que Microsoft puso en el Sistema Operativo para este fin. La persona no lo hizo con fines de piratería, al contrario, lo hizo como una medida de protesta ya que no podía ver sus propias peliculas compradas Legalmente en Blue Ray en su dispositivo Blue Ray comprado legalmente con su PC con Windows Vista comprada legalmente con su placa de video y monitor recien comprados, tan solo porque el monitor no soportaba HDCP. Aquí vemos como debe configurarse el acceso a cada archivo, para nuestra prueba, decidimos abrir un archivo QuickTime a ver como se comportaba el sistema. El Archivo y extensión QuickTime para HD 1080p fué configurado con el Windows Media Player. Por supuesto, al no tener Codec de video aceptable, el Windows Vista revela un esquema de visualización por defecto y no da opciones automáticas para bajar Codecs. Vamos a proceder a instalar Software adicional para poder ver videos, para esto recurrimos a unos de los mejores Players gratuitos del mercado, el Zoom Player 5.00, después de Aceptar su instalación por el UAC lo procedemos a instalar. El Zoom Player 5.00 tiene una habilidad insuperable que cuesta comprender porque el Vista no posee, baja de manera automatica las ultimas versiones de casi todos los Codecs necesarios para poder ver cualquier video que exista en el planeta. Instala entre otras cosas FFDShow, Dcodec's MP3, Halli Media Splitter (necesario para abrir archivos MKV - Matroska), Real Media, D'Scaler (para AC3, MPEG2, DVD) y Gabest Audio CD, todos Codecs gratuitos. Después de haber utilizado al Zoom Player como nuestra fuente de Video, podemos abrir de forma perfectamente natural el archivo QuickTime con una reproducción perfecta en el Windows Media Player 11. Gaming: Debido a que estamos usando Vista y mucha gente instala este sistema operativo tan solo para jugar, vamos a darle una vuelta a la experiencia en Juegos, sobre todo con un titulo que da mucho que hablar, el Company of Heroes en su versión para DirectX10. Antes que me olvide, si intentan jugar juegos en modo DirectX9 hay que bajarse el paquete de DirectX9 (no provisto en Vista) e instalarlo, si me preguntan porque no está provisto un paquete de DirectX9 cuando mas del 99% de gente lo utilizará por defecto diré que solo Microsoft sabe porque. Nuestro juego en cuestión será configurado en modo DirectX10, antes de cargar el mapa, el uso de memoria sube a unos 894Mb (casi 1 Gb de RAM destinado al juego). Sin embargo, ni bien entramos al mapa, el uso de memoria se escala a una cifra exorbitante de 1.48Gb de RAM, esto es memoria física real consumida por la aplicación, me gustaría agregar que el mismo juego en Windows XP consume 580Mb en el menu y 1.11 Gb dentro del Mapa en exactas condiciones, por lo cual, el consumo general de Vista en mismas condiciones bajo DirectX10 en esta aplicación es de 314Mb adicionales dentro del juego y 380Mb adicionales dentro del Mapa. Lo que realmente hay que notar aquí es que por mas que quisieramos que mas allá de este problema el juego se vea sensacional, su jugabilidad ha pasado de aproximadamente 66 FPS en Windows XP a unos escasos 25 a 30 FPS con la misma maquina en modo DirectX10 y pasado los 10 o 15 minutos de juego, se nota que ha consumido toda la memoria disponible y comienza a usar el disco. El mayor problema que enfrenta actualmente el Windows Vista es un Bug muy desagradable que ha encontrado Anandtech en uno de sus reviews, el Bug consiste en como hemos visto, un mayor consumo proporcional de memoria acorde a la placa de video que tengamos en comparación al XP. Mientras que los juegos en XP tales como el Company of Heroes o Supreme Commander consumen aproximadamente entre 1 a 1.2 Gb de RAM de manera constante y sin importar que Placa de Video tengamos, en Vista consumen entre 300 a 500Mb adicionales de memoria y segun Anantech ha descubierto, a mayor memoria tiene la placa de video que utilicemos, mayor es el consumo adicional de memoria RAM del sistema que se percibe y que no parece cumplir ningún objetivo, según NVIDIA y declaraciones que ha hecho a Anandtech este Bug es conocido por Microsoft y están buscando una solución así que por el momento puedo decir con toda seguridad que el Windows Vista no es una plataforma viable para Gaming. Escritorio 3D: Aero Para finalizar la parte dedicada al Windows Vista vamos a examinar el Aero. La parte 3D del Vista. Antes de correr Aero se debe si o si correr el "Assesement Tool" para poder obtener el nuevo resultado que permitira la activación automática de Aero. Incluso cuando este es un proceso del sistema, el UAC nos pide confirmación para ejecutarlo. El Windows Assesment Tool tarda entre 5 a 9 minutos dependiendo de diversos factores, en nuestro caso exactamente 6 minutos. El nuevo resultado es mas que suficiente para activar Aero, recuerden que en este sistema, la escala que utiliza Microsoft no es de 1 a 10 sinó de 1 a 6, por lo cual tenemos casi un resultado perfecto en Performance. Así luce el sistema luego de activar Aero, la memoria disponible es de 807Mb de 2Gb esto es usando 889Mb de Cache para funciones tales como SuperFetch y carga rapida de programas, el uso real de memoria oscila los 440 a 500Mb por lo cual nos quedan disponibles entre 1 a 1.5Gb de memoria. Nada cambia para el menu inicio, sin embargo, ni bien activamos el Flip3D vemos al Aero en toda su gloria mediante tecla Win+Tab. Aquí vemos al Aero cambiando ventanas, una cosa que realmente es destacable en Aero es la suavidad con la que se movía en nuestra PC, por supuesto es una PC High End y esto es mas que evidente. Aún así, la suavidad del Aero le da un aspecto muy relajante a la experiencia de utilizar el Vista, ya que sus ventanas y su presentación es impecable gráficamente. Para terminar la parte que concierne al Windows Vista, les dejo este Screeshot en 800x600 para que puedan verlo con mas detalle. Conclusión Windows Vista: Lo Bueno: Excelente Presentación y aspecto visual del escritorio, utilizar Aero en maquinas High End es una experiencia placentera, Sistema de SuperFetch aumenta considerablemente la velocidad de inicio del sistema siempre y cuando se disponga de al menos 2Gb de RAM. Lo Malo: Sistema DRM incluído en el Kernel que reduce la performance de todo el Sistema sin ningun beneficio tangible al usuario mas que permitir que Hollywood controle lo que vemos en nuestras computadoras. Performance extremadamente baja en DirectX10, consume mas memoria de lo habitual en comparación a Windows XP, no trae ningun Codec incorporado para Video y no permite bajarlos automaticamente sin recurrir a Software adicional, No es recomendable utilizar en ninguna maquina inferior a un Core2Duo con al menos 2Gb de RAM, es muy costoso. Sistema UAC de control de acceso que resulta incomodo y molesto para el usuario que procurará desactivarlo eliminando la seguridad que el sistema intenta promover. No implementa DirectSound3D por lo cual a menos que nuestra placa soporte OpenAL por hardware, estaremos corriendo con procesamiento via-software en modo estereo y consumiendo ciclos de reloj adicionales y esto puede traer problemas en Gaming como también en reproducción de Video. Maquina Recomendada: Para una optima experiencia en Windows Vista es recomendale una maquina DualCore en adelante, tener al menos 2Gb de RAM en el sistema, ya que con 1Gb de RAM el sistema swapea de manera casi constante. Lo ideal es 3Gb de RAM para la versión de 32bits y 4Gb de RAM para la versión de 64bits. Placa de video Geforce 7600GT en adelante u 8600GT en adelante. Para Gaming el mínimo indispensable en DirectX10 es una Geforce 8800GTS de 320 y existen juegos que aún no pueden correr con todos sus detalles al máximo en una Geforce 8800GTX. Para audio se recomienda SoundBlaster X-Fi con soporte de OpenAL ya que de lo contrario perderemos ciclos de reloj ya que el Windows Vista no implementa DirectSound3D. Segunda parte de este comparativo:
Post reactivado por Moderador. Muchas gracias Como dice el título, mi papa está tomando mate. Aquí la pueden ver... Ah!! Cómo? No era lo que esperabas?? Eso demuestra la importancia de las reglas de acentuación, así como también las de puntuación y ortográficas. Démosles un pequeño repaso: Reglas generales de acentuación Según la posición de la sílaba tónica dentro de la palabra, se distinguen cuatro reglas de acentuación: Palabra aguda u oxítona Es aquella palabra en la que la acentuación fonética recae en la última sílaba. El porcentaje de palabras agudas en el léxico castellano es inferior solamente al de las palabras graves, que son la mayoría. Llevan acento ortográfico las palabras agudas que terminan en -n, en -s o vocal (salvo que la -s esté precedida por otra consonante en -ns). Ejemplos: sofá, café, sentí, salió, tabú, camión, además. Palabra grave o paroxítona Es aquella palabra en la que la acentuación fonética recae en la penúltima sílaba. La mayor parte del léxico castellano está compuesto por palabras llanas y éstas en su mayoría terminan en -n, -s o en vocal, tales como hombre, caminas o suben. El acento ortográfico lo llevan las palabras llanas que terminen en una consonante distinta de las anteriores, como Bolívar, débil o cárdex. También se acentúan cuando terminan en -s precedida de otra consonante. Palabra esdrújula o proparoxítona Es aquella palabra en la que la acentuación fonética recae en la antepenúltima sílaba. En castellano todas las palabras esdrújulas siempre llevan tilde (acento ortográfico) en la vocal donde recae la acentuación. Algunos ejemplos de palabra esdrújula son: teléfono, informática, enciclopédico, lágrima, cárceles, árboles, esdrújula. Palabras sobreesdrújulas Es aquella palabra en la que la acentuación fonética recae en la trasantepenúltima sílaba. Las palabras sobresdrújulas llevan tilde (acento ortográfico). No obstante, en el caso de adverbios creados a partir de adjetivo con el sufijo -mente, solo se acentuarán en el caso de que el adjetivo lleve la tilde por sí solo. Por ejemplo, la palabra fríamente lleva tilde puesto que el adjetivo del que está formada (frío) también la lleva, sin embargo efectivamente no la lleva ya que tampoco la tiene efectivo. Formación * Añadiendo pronombres enclíticos al verbo, generalmente en modo imperativo: dígaselo, cuéntamelo, corríjaselo, prepáreselo, etc. * Añadiendo el sufijo -mente a un adjetivo que llevaba tilde antes de la composición, con lo que se genera un adverbio de modo. En este caso, se acentúan solo cuando a la forma original le corresponde llevar tilde sin el sufijo. Por ejemplo: fácilmente, difícilmente, esporádicamente, etc. Las palabras que acaban en y, y se pronuncian como i, no son consideradas un diptongo. Casos especiales Existen diversos casos que no se ajustan a las reglas generales: Monosílabas Por regla general, las palabras monosílabas no se acentúan nunca. La única excepción es el caso en el que lleven tilde diacrítica. No se acentúan por tanto las siguientes palabras monosílabas que lo harían por la norma de las agudas: a / as / bien / bis / Blas / buen / can / cien / cio / clan / clon / con / El / crin / crio / da / dais / dan / das /deis / den / des / di / dio / dios / do / don / dos / e / en / es / fa / fan / fe / fes / fiais / fieis / fin / fio / flan / fue / fui / gas / gran / gres / gris / gua / guiais / guieis / guio / guion / ha / han / has / he / hui / huir / huis / id / ion / Juan /ley/ la / las / le / les / liais / lieis / lio / lo / los / Luis / me / mes / mies / mis / mus / ni / non / nos / o / os / pan / pez / piais / pieis / pie / pies / pio / pis / plan / plus / pon / pues / pus / ras / re / res / riais / rio / ron / ruin / san / seis / sien / sin / so / sois / son / su / sus / tan / ten / ti / tras / tren / tres / tul / tus / u / un / vais / va / van / vas / ve / veis / ven / ves / vi / vio / vos / ya / yo /.... Diptongos Un diptongo es un conjunto de dos vocales que se escriben juntas y se pronuncian en una misma sílaba. Las palabras con diptongo llevan tilde solo si se encuentran dentro de alguno de los casos de las reglas generales. Dentro del diptongo, en el caso de llevarla, la tilde se coloca: * Vocal abierta (a, e, o) + vocal cerrada (i, u): siempre se coloca sobre la vocal abierta (por ser la tónica), indistintamente si es abierta + cerrada o cerrada + abierta (diptongo decreciente y creciente respectivamente): información, náutico. * Vocal cerrada + vocal cerrada: la tilde siempre irá sobre la segunda vocal: interviú. En algunas palabras estas combinaciones vocálicas pueden pronunciarse como hiatos (por ejemplo fluir puede pronunciarse con diptongo fluir o con hiato flu -ir), sin embargo a efectos de acentuación gráfica se consideran siempre diptongos. En el lenguaje español hay 14 diptongos. Que son: ai, ia, au, ua, ei, ie, eu, ue, ou, uo, oi, io, ui, iu. Triptongos Un triptongo es un conjunto de tres vocales que se escriben juntas y se pronuncian en una misma sílaba. Al igual que los diptongos, los triptongos solo se acentúan si las reglas generales lo indican. En ese caso, la tilde se coloca siempre en la vocal abierta (a, e, o): averigüéis. Hiatos Forman dos vocales que se escriben juntas pero que pertenecen a sílabas distintas. Los hiatos se acentúan según el tipo de vocales en contacto, al igual que con los diptongos: * Vocal abierta + vocal abierta: Este tipo de hiato se rige por las reglas generales: caótico, zoólogo. * Vocal abierta + vocal cerrada: Siempre se acentúan, independientemente de lo que exijan las reglas generales, sobre la vocal cerrada (por ser la tónica): país, día. Este es un tipo de acentuación especial llamada dierética. Tilde diacrítica La tilde diacrítica distingue palabras con diferentes categorías gramaticales pero que se escriben igual (homógrafos). Cuando hay dos palabras de igual forma y distinto significado, una de ellas llevará tilde para distinguirse de la otra. Ejemplos: * Para diferenciar entre un artículo y pronombre: o El perro o El perro lo tiene él * Para diferenciar entre significados: o Ya se lo he dicho o Ya lo sé (primera persona del presente del verbo saber) * Para diferenciar entre enunciativas e interrogativas/exclamativas: o ¿Cómo lo has hecho? o Lo he hecho como me dijiste él = pronombre personal = él llegó el primero el = artículo = el premio será para ti tú = pronombre personal = tú tendrás futuro tu = adjetivo posesivo = tu futuro no está escrito mí = pronombre personal = a mí me importas mucho mi = adjetivo posesivo = mi novia es la más guapa sé = imperativo del verbo ser / presente de indicativo del verbo saber = sé tú misma en todo momento, aunque sé que a veces te costará se = pronombre = se puede ser como te digo sí = adverbio / pronombre = sí, puede ser, —se dijo para sí— si = condicional = si tú lo dices, así será dé = presente de subjuntivo del verbo dar = que nos dé su opinión de eso de = preposición = llegó el hijo de mi vecina té = planta herbácea para infusiones = tomaremos un té te = pronombre = te dije que te ayudaría más = adverbio de cantidad = todos queremos más mas = (cuando es sinónimo de "pero" ) = volveremos, mas no sé cuándo aún = (cuando es sinónimo de "todavía" ) = aún no ha venido a casa aun = (cuando es sinónimo de "incluso" ) = aun sin tu permiso, iré a verte o/ó. La nueva Ortografía de la RAE, publicada el 17 de diciembre de 2010, indica que la conjunción o en ningún caso debe tildarse. Por tanto, debe escribirse 1 o 3, 52 o 26, por ejemplo. por qué = interrogativo o exclamativo = ¿por qué no te callas? / ¡por qué te haré caso! porque= "da razón de algo" = "por causa de que..." = porque te vi llorar porqué = sustantivo = "el motivo" = no sabemos el porqué de algunas cosas por que = cuando el que es relativo = Las calles por que (=por las que) vienes son peligrosas qué = pronombre interrogativo o exclamativo = ¿qué quieres? ¡qué grande eres! cuál = pronombre interrogativo o exclamativo = ¿cuál escoges? quién = pronombre interrogativo o exclamativo = quién llama cuánto = pronombre interrogativo o exclamativo = cuánto has crecido cuándo = pronombre interrogativo o exclamativo = ¿cuándo vienes? cómo = pronombre interrogativo o exclamativo = ¿cómo lo haces? dónde = pronombre interrogativo o exclamativo = no sé dónde vives cuán = adverbio de modo interrogativo = ¡cuán gritan esos ruidosos! Palabras donde se puede prescindir de la tilde diacrítica * este, esta, estos, estas, ese, esa, esos, esas, aquel, aquella, aquellos, aquellas. Estas palabras pueden funcionar como determinante demostrativo (antes llamado adjetivo demostrativo) o como pronombre demostrativo. Antiguamente se acentuaban cuando tenían función de pronombre. Obsérvese que esto, eso, aquello, que solo pueden ser pronombres, nunca se han acentuado. * solo. Puede funcionar como adjetivo o como adverbio. Antiguamente se acentuaba cuando tenía función de adverbio, equivalente a solamente. Ejemplos: o A Tomás le gusta estar solo. (adjetivo) o Solo tomaremos fruta. (adverbio) Hasta la publicación de la Ortografía de la Real Academia Española y la Asociación de Academias de la Lengua Española de 2010 se tomaba en cuenta, para distinguirla con tilde diacrítica, la ambigüedad en estas palabras. A partir de su publicación ya no se toma en consideración la posible ambigüedad. Todos los demostrativos y el término «solo», pueden escribirse sin tilde. Textualmente se señala: ... ya que tanto el adjetivo solo como los determinantes demostrativos son palabras tónicas, lo mismo que el adverbio solo y los pronombres demostrativos, a partir de ahora se podrá prescindir de la tilde en estas formas incluso en casos de doble interpretación. Ortografía, 2010, pág. 269. Palabras que terminan en dos consonantes En estos casos habría que diferenciar las palabras agudas de las graves: En el caso de las agudas, estas no deben llevar tilde si tienen una doble consonante. Ejemplos: Isbert, robots, tictacs. En el caso de las graves que tengan dos consonantes, deberán llevar tilde aunque terminen en -s. Ejemplos: Bíceps, fénix /ks/, cómics. Acentuación de las palabras compuestas Uno de los problemas en el buen uso de la tilde lo presentan las palabras compuestas. Por lo general, solo lleva tilde la última palabra del compuesto si lo exige la norma. La primera palabra, sin embargo, la pierde al unirse a la segunda, pues al formarse una nueva palabra ésta debe obedecer a la norma que rige su uso: décimo + séptimo = decimoséptimo. Si la primera palabra, no obstante, va separada de la siguiente por un guión, la tilde se conserva como si de dos palabras simples se tratase: físico-química. Los adjetivos que se unen al adverbio -mente conservan asimismo la tilde: rápidamente, y también las formas verbales a las que se les añade un pronombre: reírse. En el caso de que tal forma verbal se convierta en esdrújula al unirse al pronombre, deberá necesariamente acentuarse: bebe > bébetelo. Fuente: http://es.wikipedia.org/wiki/Acentuaci%C3%B3n_del_idioma_espa%C3%B1ol Más info: Reglas ortográficas: http://www.oni.escuelas.edu.ar/2005/CHUBUT/829/ReglasOrtograficas.htm Reglas de puntuación: http://lorien.die.upm.es/~macias/docvarios/301_Reglas_puntuacion.htm Y ya saben, taringueros: Expresémosnos con corrección

El pasado viernes 24 de setiembre el investigador e historiador HERNAN LONGONI brindó una conferencia sobre la historia de los aviones a reacción fabricados en la Argentina. Esta rica charla, fue seguida por más de un centenar de entusiastas aficionados a la aeronáutica que se dieron cita en el Salón de los Espejos del Centro de Comercio e Industria. A continuación el texto completo de esta conferencia: Segunda parte Para hablar de cómo sigue evolucionando esto vamos a tener que retroceder un poco en el tiempo. A este que ven acá mucha gente lo debe reconocer, es un Focke Wulf 44. Este era un avión de entrenamiento diseñado por el profesor Kurt Tank y construido por su fábrica y que se hizo bajo licencia en la Fábrica Militar de Aviones. Tiene el FW 44 la particularidad de que el fuselaje es de tubos de acero al cromo molibdeno, las alas son de madera y tela y toda la superficie del avión está entelada. Pero desde el punto de vista de la estructura había sido un avance que un avión entrenador tuviese ese tipo de construcción. La fábrica lo adoptó y lo empezó a realizar bajo licencia. Se pensó en una época fabricar el FW 44 para la Armada pero esta optó por el “Stearman”. De estos aviones se fabricaron alrededor de 200 y hay muchos aero clubes del interior que todavía deben tener restos o alguno entero. La Fuerza Aérea Argentina tiene solamente uno que está en el Museo de la Escuela de Aviación Militar y, por lo que yo pude averiguar, no hace mucho se le hizo una inspección y el avión está en condiciones de volar. La semana pasada estuve en Don Torcuato donde hay un hangar en que restauran aeronaves antiguas y me encontré con dos Focke Wulf 44, entré a ver qué era lo que estaban haciendo ahí y me enteré que los dos, uno está prácticamente listo y el otro tiene el fuselaje terminado, son nacionales y están cero horas. Es decir que esos fuselajes no volaron nunca, son los números de serie 168 y 192. El segundo está listo para volar. Lo que sí me dijeron es que las alas que eran de madera no servían por lo que hubo que hacerlas de nuevo. Las mandaron a hacer a Lituania, no se por qué, pienso que saldría más barato. Cuando llegaron las alas y se las fueron a instalar al avión había una diferencia de un milímetro por lo que quedaron muy contentos. Parece que a fin de año intentarán hacerlo volar. Observar esta máquina viene bien para ver en qué andaba el diseñador del “Pulqui II” en los comienzos de su carrera. El profesor Kurt Tank era un ingeniero aeronáutico con cierto renombre. En Alemania diseñó el FW 44 en la preguerra, en 1939 diseñó una especie de ala volante compitiendo con Horten. También realizó un caza excepcional, el FW 190, que era un avión equivalente al Mustang o al Spitfire en sus ultimas versiones, con la particularidad que los cazas aliados tenían el mismo motor, el “Merlin” en V y este tenía un motor en doble estrella. Por esas épocas se decía que un avión con estas performances no podía tener un motor radial por cuestiones de enfriamiento de los cilindros o que la fuerza de torsión y esto o el otro pero la cuestión es que el FW 190 demostró que se podía hacer un caza de esas performances con un motor radial y eso fue gracias a Kurt Tank. Esto que vemos acá es un Mig 15. Lo puse aquí para que veamos en dónde andaba el mundo en ese momento en que apareció Argentina. Todos estaban corriendo carrera con el sonido utilizando aeronaves de muy alta performances. Observando al Mig 15 quiero que tengan en cuenta tres detalles, primero la toma de aire que está adelante, segundo donde están los frenos del avión, en la cola y cerca de la salida de gases. Son de aleta como en el A 4 o en el Sabre. Finalmente quiero que observen la cola, lo más importante en cuanto al éxito de esta máquina radica en el grupo de cola, es la diferencia fundamental que tiene el Mig 15 en relación al “Pulqui II” y en un momento vamos a ver por qué. Acá tenemos la planta alar que es muy similar a la del jet argentino, en cuánto al ala es muy fácil confundirlos. En cuánto al grupo de cola, si vemos el plano horizontal es muy similar a lo que fue el del F 86, solamente que este lo tiene a nivel central, en el medio del grupo vertical y el F 86 lo tenía arriba de la salida de gases pero en diseño son muy parecidos. El Mig 15 tenía una capacidad de carga muy importante como se ve por esos tanques suplementarios, cosa que el “Pulqui” no tenía. A esta foto la puse como curiosidad, es de un Mig 15 UTI, un entrenador, y fue tomada aquí en la Argentina. Este es una avión privado, argentino, de construcción polaca y está volando en Don Torcuato en la empresa “Alas Argentinas”. Es el único Mig 15 que hay en Sudamérica, tiene número de serie 15 mil y pico, imagínense la cantidad de aviones de este tipo biplaza solamente que construyeron los polacos. Este es el famosísimo Sabre F 86. Acá vamos a aprovechar para despejar una duda o un error normal. Muchas veces escuché que el F 86 es una copia del “Pulqui”. En realidad no porque el F 86 voló por primera vez en 1947 y el “Pulqui” lo hizo en el año 1951. Lo que sí es que responden a requerimientos similares, es decir que el que le encargó un avión al diseñador le dijo: “Yo quiero un caza de tal performance, que cargue tanto, a tanta velocidad y con tal alcance” y diseñó esto. Lo mismo pasó con el “Pulqui II” y salió algo parecido. Acá tenemos un Sabre, aunque este es un F 30, es un avión hermoso, la Fuerza Aérea Argentina tuvo 28 de estos aviones, mucho después y no en el momento en que debió haberlos tenido. Bueno ahora empezamos con las cosas raras. Ya vimos en que andaban los demás y ahora vamos a ver en qué andaba Alemania. Este país ya había volado el “Salamander”, había volado el Me 262, el Heinkel 178. Focke Wulf estaba fabricando el 190, el FW 200, si Alemania hubiese ganado la guerra este hubiera sido el DC 3. Si bien es un muy buen avión, el éxito del DC 3 tuvo que ver también con que los EEUU ganaron la guerra. El FW 200 era tan bueno como el DC 3. Pero Kurt Tank le encargó al jefe de diseño, un profesional brillante, Hans Multhopp, el desarrollo de un avión de alas en flecha, monomotor, a turbina, con la capacidad para llevar el 8 por ciento de su peso en armamento. Se trataba de un caza interceptor que nació de la necesidad de reemplazar o tener algo mejor que el Me 163, que era un avión cohete, diseñado para atacar “Fortalezas Volantes” en el aire y descender planeando. Los alemanes se dieron cuenta que el momento más débil del Me 163 era cuando se quedaba sin combustible y debía bajar planeando, ahí lo esperaban los cazas aliados y lo destruían. Además era en parte de madera. Entonces Multhopp agarró y dijo: “Bueno, vamos a aplicar lo que aprendimos diseñando este avión”. En la biblioteca de la fábrica encontró lo que quedaba, porque ya había sido bastante bombardeada, de escritos de un ingeniero italiano que había escrito sobre aeronaves con alas en flecha. Se puso a dibujar en base a este material y salió un avión revolucionario cuyo prototipo se designó TA 183. Aquí vemos al prototipo en un túnel de viento supersónico que es muy parecido al que la Fábrica Militar de Aviones tuvo para probar el “Pulqui II”. El TA 183 tenía particularidades que eran de moda, por decirlo de alguna manera, porque la toma de aire estaba en la proa, el ala era alta, fíjense que tenía diedro negativo, es decir que bajaba hacia las puntas. Pero les pido que presten atención a lo raro del grupo de cola. Era un avión muy corto que, por una cuestión de centraje, se tuvo que extender la cola en T para poder compensar el centro de gravedad al ser tan corto el fuselaje. Este es el segundo prototipo del TA 183 y ya el fuselaje es un poco más largo. De este avión solamente se fabricaron planeadores impulsados por cohetes y sin tripular. Les pido que presten atención a la planta alar. Esta era muy avanzada y se parece un poco a la que vimos recién en el Mig 15. Cuando estaban en condiciones de fabricar el primer prototipo la guerra terminó y se armó el desbande donde cada uno disparó para donde pudo. Lo que se dice comúnmente con respecto a los científicos que estaban trabajando en Alemania son tres cosas. Los que eran amantes de la democracia fueron a trabajar a los EEUU y derivó ese trabajo en el F 86, los que fueron a trabajar a la Unión Soviética fue porque los hicieron prisioneros y, por último, los que eran nazis y se pudieron escapar vinieron a la Argentina. En realidad hay un poco de cada cosa. Que Kurt Tank era simpatizante del partido Nacional Socialista no era ningún secreto pero los que fueron a EEUU, los que vinieron a la Argentina o los que fueron a Rusia lo hicieron por una sola razón: iban a fabricar aviones, no iban ni prisioneros ni torturados ni nada. En el reparto y desde el punto de vista intelectual, salimos ganando ya que vino la crema y nata de los diseñadores. A la Argentina vinieron Reimar Horten y Kurt Tank, entre otros. Reimar Horten, para mi gusto particular y a pesar que soy un admirador de los productos de Tank, era superior a este último. Me decía el ing. San Martín que el tipo veía todo en números. Cuando entregaba un plano no lo daba dibujado sino que entregaba coordenadas. No hay un plano dibujado por Horten sino que le daba al dibujante coordenadas para que las tradujera a dibujo. Horten veía al mundo en coordenadas y, además, tenía una intuición muy especial porque, años después, cuando se intentaba hacer volar el “Mamboretá” que era un avión aeroaplicador que tenía deficiencias en su control vertical a las que no podían solucionar, vino Horten y les dijo a los ingenieros: “Miren, ustedes tienen que agarrar el plano horizontal de la deriva y hacerle un ángulo de ataque que salga de acá y termine acá. Yo en esta semana se lo dibujo”. Al cabo de unos días llegó Horten con sus dibujos en coordenadas, el dibujante lo tradujo, lo aplicaron en el avión y el “Mamboretá” voló como tenía que volar. Es decir que era un genio pero, además, era un intuitivo. Bueno, la cuestión es que nosotros recibimos a Horten y recibimos a Tank. Este último vino con lo que pudo agarrar de los planos del TA 183. Tank había tenido diferencias con Multhopp, que era el diseñador de este avión, justamente por el dibujo de la cola. Horten decía que, así como estaba, era difícil de volar, iba a ser inestable lateralmente, que no iba a tener una buena reacción a los comandos. No sabemos quien de los dos tuvo razón pero al final Tank lo aplicó y el “Pulqui II” terminó volando, más allá de los problemas que tenía cualquier avión de alas en flecha de aproximación porque era alta la velocidad. Bueno, volviendo al tema, debemos decir que el equipo alemán ingresó a la Argentina, usando pasaportes argentinos, con nombres argentinos pero sin hablar una sola palabra en castellano. Cuando pasaron por la aduana, por supuesto, nadie les preguntó nada. Tank venía con una valijita y en ella traía los planos del TA 183 que había recuperado. Esto fue muy gratificante de descubrir porque la hija de este señor que está debajo en la foto, que es Otto Beherens, el piloto alemán de pruebas del proyecto “Pulqui II”, con los años se me hizo amiga. Hoy es una mujer grande que vive en Hannover quien me empezó a contar anécdotas de su padre y de Tank. Esta foto es previa al vuelo del segundo prototipo. Del “Pulqui II” se construyeron cinco prototipos en total. La primer célula se usó para instalar en una ménsula y someterla a cargas hasta la ruptura para saber la resistencia, para probar el límite teórico del avión. La segunda fue la que realmente voló. En esta imagen vemos a la plana del equipo “Pulqui” en la vida cotidiana. Arriba se ve a Horten y a Beherens fumando. En aquella foto que está allá donde hay una persona sentada en una silla, es Kurt Tank pelando papas en un fuentón para un asado que se hizo en la casa de Beherens. En otra de las fotos se ve el asado. La foto que está más abajo muestra a Beherens en el asado y en la que está ahí a Kurt Tank después del primer vuelo. El que está de saco y corbata es Otto Beherens. A él no le dejaron tocar el avión hasta que no lo voló Weiss porque el “Pincho” era el jefe de pilotos de la fábrica y me parece que, con corrección, se le dio prioridad a ese piloto para que lo volara. Esta foto muestra el taller mecánico que se había puesto Beherens ya que quería ser mecánico cuando terminara su carrera como piloto de pruebas, arreglaba motos y autos. Este es el esquema del primer prototipo, el esquema de disposición del fuselaje. A este material la fábrica, después de escanearlo, lo deshechó. Del avión también se fabricó un planeador de madera. Ese planeador empezó siendo muy parecido al TA 183. El centro de gravedad del avión estaba muy adelantado en relación a lo que era en el “Pulqui I”, por eso la turbina está muy atrás. Ya no hacía falta todo ese tubo que tenía el “Pulqui I”, en total el avión tenía 11 tanques de combustible, 8 en las alas y el resto en el fuselaje. Tenía un asiento eyectable “Martin Baker” mk 1, que era el prototipo de lo que después se usó en el F 86. Estamos viendo ahora el encastre alar, en el “Pulqui II” eran semialas, dos alas separadas y una cosa que me resulta siempre interesante, a pesar de que no tengo ninguna base para asegurarlo, es la inclinación de la espalda del piloto. El F 16 que tiene un límite teórico de 9 G, está inclinado 30 grados para que el piloto lo soporte mejor y en el “Pulqui” estaba practicamente igual, por supuesto no iba a llegar nunca a esa cantidad de aceleraciones. Este planeador de madera fue diseñado y construido porque la maqueta de túnel de viento que se estaba usando en el túnel supersónico no cubría los aspectos que Tank quería dirimir. Entonces dijo: “Bueno, vamos a tener que construir una maqueta para remolcarla y ver que pasa”. Efectivamente se fabricó esta maqueta y una segunda. Lo que va variando es la cola, siempre el problema del “Pulqui” fue la cola, aquello fue por lo que Tank y Multhopp discutieron y lo que se resolvió con el Mig 15 porque Multhopp se fue a Rusia y aplicó lo que había aprendido con el TA 183 en el Mig 15 y por eso el Mig 15 era más maniobrable que el F 86. Bueno, esto estaba pensado para que se remolcara por un Martin 139 o un Junkers 52 y con cuanto avión estaba en la fábrica. A esto lo voló Balado y lo voló Weiss. Este es el primer prototipo, el CN doble 0, o 01. Acá hay un problema porque la fábrica a este le puso 01 cuando debió ponerle 00. Lo vemos en la ménsula, estaba pensado para someterlo a cargas para ver como reaccionaba el fuselaje. Acuérdense que estamos pensando en una época en la que se creía que cuando pasaran la barrera del sonido iba a ser como pegar contra una pared. No se conocía el estallido sónico, no se sabía si el avión iba a seguir volando o si se iba a desintegrar. Este prototipo nunca voló y se destruyó cuando fue sometido a estas cargas. Este es el primer prototipo, el número de serie 02. Lo interesante de esta foto es la facilidad de acceso, se retiraba todo el grupo de cola. Era muy parecido a la manera de desarmar un A 4 hoy en día, el Douglas se corta al medio y todo el grupo de cola sale y queda la turbina tal como se ve ahí. Por supuesto la turbina era completamente diferente en el caso del “Pulqui”, ya que se trataba de una Rolls Royce Nene II. Este es el último prototipo. Lo puse acá para conversar un poco del avión. Entre el cuarto y quinto prototipo no hay ninguna diferencia, solamente el esquema de pintura y que el quinto se conserva y el cuarto no. Al “Pulqui II” lo voló Weiss, hizo un vuelo de 28 minutos, comprobó que el avión funcionaba, lo aceleró, notó que era dócil a los comandos a pesar que no tenía comandos asistidos sino que era barra como el “Pulqui I” y lo aterrizó de una manera muy optimista, lo hizo bien, a muy alta velocidad. Weiss volaba cualquier cosa y bien. Pero así como era muy buen piloto a veces se entusiasmaba demasiado con el producto justamente por lo bien que lo volaba. Entonces dijo: “A este avión no hay que modificarle nada, así como está, está bien”. El siguiente vuelo que se produjo a los tres días de ese primero lo hizo Otto Beherens. Beherens no hablaba ni una palabra en castellano cuando vino y había sido piloto de pruebas del FW 190, del Me 262, íntegró el grupo elite que había formado Adolf Galland para volar el 262. Era un as y voló el “Pulqui II”. Cuando voló lo exigió un poco mas que Weiss y alcanzó más de 700 km. por hora en el primer vuelo. Cuando fue a aterrizar, según dijo Ojeda después, lo aterrizó como si fuera un avión convencional, lo trajo hasta la pista en pérdida y cuando estuvo sobre la cabecera cortó motor y lo soltó, el avión se desplomó sobre la cabecera y rompió el tren de aterrizaje. Beherens salió ileso pero el avión quedó bastante golpeado. Hubo que rediseñar el tren de aterrizaje, se detectó que hubo una falla en uno de los amortiguadores pero, más allá de eso, quedó que Beherens había metido la pata Lo que también se detectó fue que las punteras del ala entraban en pérdida antes que la raíz. Para homogeneizar el flujo de aire se modificó el ala agregando unos espolones en la raíz alar. El segundo prototipo modificado, al que algunos llaman 02 M, tiene las alas un poco más largas y suben hacia la cabina. El siguiente vuelo lo hizo el profesor Tank, su diseñador y que era muy buen piloto. Se elevó hasta 8 mil metros en 6 minutos. Cuando estuvo a esa altura que es la que calculó como la ideal para hacer pruebas en forma segura, intentó hacer entrar en barrena al avión. Tank sacó flaps, sacó tren, cortó motor y el avión empezó a descender la velocidad de una manera lenta. De golpe, según cuenta Tank en el registro de vuelo, y sin ningún aviso ni vibración ni nada por el estilo el “Pulqui” entró en tirabuzón chato. Bajó alrededor de 4 mil metros en esas condiciones no pudiendo sacar la máquina de esa situación. Por ahí se dio cuenta que la turbina todavía estaba funcionando por lo que dio potencia y, por esas cosas de la vida, el avión salió hacia delante, lo dominó y estabilizó a alrededor de los mil metros del suelo. Una vez que superó esta situación Tank volvió a trepar a 9 mil metros y repitió toda la operación para ver como podía sacar de la pérdida al avión. Cuando se dio cuenta cuál era el problema aterrizó la máquina, fue hacia la biblioteca y se acordó de lo mismo que se había acordado su amigo Multhopp que los aviones con empenaje en “T” tenían inconvenientes con lo que se denominaba “sombra dinámica”, o sea que el flujo del ala principal se desprendía y le restaba comando al empenaje debido a la turbulencia, es decir que no tenía elevación por lo que no había forma de sacarlo del tirabuzón. Lo que Kurt Tank hizo fue cambiar el borde de ataque de la cola, con eso trató de homogeneizar la entrada en pérdida o la entrada en “sombra dinámica”. Una vez que se le hicieron las modificaciones el ministro de aeronáutica, que era Ojeda todavía, insistió en que algunos pilotos que estaban volando el Gloster “Meteor” en la Fuerza Aérea, volaran el avión para ir adaptándose a lo que iba a ser el nuevo caza interceptor de la FAA. Una cosa demasiado apresurada porque faltaba mucho para que el avión estuviera listo. Entonces vinieron dos de los mejores pilotos de Gloster, el comandante Soto, un jefe de escuadrilla, que volo el “Pulqui II” bastante bien, lo aterrizó y dijo; Bueno, es un buen avión, ta ta ta”. Después de Soto, que era comandante en ese momento, un grado equivalente a lo que hoy es el de mayor, lo voló un capitán que se llamaba Vedraño Manubal, un argentino descendiente de hindúes. Se subió al avión y, no se sabe muy bien por qué, hizo un vuelo mucho más brusco y arriesgado que lo que había sido el de Soto. Fue el mismo día y con quince minutos de separación. Manubal tenía un récord sudamericano de altura de 15.100 metros con un Gloster, era un hombre experimentado, buen piloto pero... bueno..., no se sabe si por impresionar a sus jefes o por volar a los más rústicos Gloster el asunto es que, en una maniobra baja, llama al Pulqui con mucha brusquedad y se pliega un ala. El avión se invierte y Manubal intenta eyectarse. A tal efecto hace el procedimiento que había mencionado anteriormente, agarra el martillito, corta el remache, vuela la cúpula, tira del anillo de eyección, pero una vez que sale del avión con el asiento eyectable, (el avión tenía que tenerlo sí o si porque sino la cola te partía al medio) pero en este caso se eyectó invertido, cosa que no es muy recomendable pero no le quedó más remedio. La secuencia de desprendimiento del asiento eyectable era tan larga (el piloto se tenía que soltar de la silla y abrir el paracaídas) que llegó al piso antes de que pudiera abrirlo. El tipo se mató, el avión se estrelló, con los restos se hizo un estudio y se determinó que lo que había fallado era unos remaches defectuosos que habían originado que se plegara una de las alas. La cosa es que ese prototipo se perdió en el accidente y el “Pulqui II” se cobra la primera víctima, un capitán de la Fuerza Aérea Argentina. Lo primero que hizo Tank en ese momento fue llamar a Perón y decirle: “Mire que nosotros vamos a seguir adelante con el desarrollo, esto es una cosa normal”. Lo que era cierto por otra parte ya que se han matado miles de pilotos probando aeronaves. En el interin hubo un intento de golpe de estado en 1951 en el que estuvieron implicados oficiales que estaban a cargo de Ojeda, que seguía siendo ministro de aeronáutica. Ojeda lo que hace es presentar su renuncia de manera indeclinable por lo que se nombra en su reemplazo al brigadier mayor Juan Ignacio de San Martín, ingeniero aeronáutico que, en ese momento, estaba como gobernador de Córdoba. San Martín deja su cargo y se viene a dirigir el Instituto Aerotécnico y garantiza la continuidad del proyecto. San Martín era un tipo de vanguardia más allá de haber hecho cortar la pista y comienza a desarrollar el siguiente prototipo, el cuarto avión. Esta nueva máquina incorpora un mejoramiento en el remachado del ala y se incorporan aletas. El cuarto prototipo es el que incorpora estas mejoras y, además, el armamento, cuatro cañones de 20 mm. debajo de la toma de aire. En el centro de esta última puede verse una especie de elemento vertical con un agujero en el medio que era la cineametralladora, ésta se sacó de un Gloster para ponerla en este avión. Esta foto que vemos ahora muestra el prototipo de túnel de viento supersónico de la fábrica. Esta maqueta de madera gracias a Dios se conservó y se encuentra hoy en el Museo “San Martín” en Córdoba. Esta foto corresponde al instante previo al despegue en Córdoba del primer prototipo para ser presentado a Perón en febrero de 1951. Hay una anécdota graciosa que es que Tank lo llamó a Perón y le dijo: “General, voy a ir para allá con el avión, vamos a hacer la demostración en el Aeroparque, salgo a tal hora, usted salga a la misma que yo, desde Córdoba, voy a llegar antes que usted”. “Bueno -le dijo Perón- salga”. Tank se subió al avión, dio motor, despegó y llegó, por supuesto, antes que Perón, que venía de la Quinta Presidencial de Olivos. Lo que Perón no tuvo en cuenta y Tank sí es que, como el evento era importante, iba a haber multitudes en el Aeroparque y el tráfico no lo iba a dejar llegar. En ese momento no existía el helicóptero presidencial así es que llegó antes Tank con el “Pulqui II” desde Córdoba que Perón con el auto desde Olivos. Esta foto muestra el vuelo de Tank en Aeroparque. Con este prototipo pasó algo que hubiera podido ser importante. El principe Bernardo de Holanda, que era alemán, había venido a la Argentina con la idea de comprar “Pulqui” y es por el que se hacía esta demostración. Cuando le dijeron a Tank que tal príncipe estaba en la Argentina y que él debía hacer una demostración contestó que no quería volar para él porque era un alemán traidor. Entonces lo agarró Perón y le dijo: “No, mire, va a comprar cien “Pulqui”, déjese de embromar, vuele un poco y que se yó”. La cuestión es que Tank voló pero cuando terminó la demostración, aterrizó, lo saludaron, ta ta ta, se subió al avión para una segunda demostración, la hizo, puso proa hacia Córdoba y desapareció. No saludó al príncipe y se dio el gusto de desairarlo aunque fuese de esa manera. Esta foto muestra al cuarto prototipo tomando tierra en Córdoba. Este avión está pintado con el esquema definitivo y se destruyó, pero con este esquema está el último prototipo conservado. Se hacían las mejoras a paso muy lento, era cuestión de probar y errar y probar y errar. Al cuarto prototipo se le introdujeron aletas en el borde del extradós alar para canalizar el aire. Ese avión se le iba a presentar a Perón luego del accidente de Manubal. Entonces Tank le dice a Otto Beherens que empiece a ensayar en el avión para hacer una presentación importante frente a Perón con el objetivo de garantizar la continuidad del proyecto. El 9 de octubre de 1954 Beherens se sube al avión, hace una serie de maniobras, entra la cola en “sombra dinámica”, luego en barrena chata. Lo saca de la barrena chata pero muy cerca de tierra. El avión pega de panza contra el piso, se desparrama y Beherens pierde la vida. Hasta ahí es lo que decía la historia, un vuelo arriesgado para hacer una presentación prolija para el presidente. La realidad es otra y yo me enteré mucho tiempo después a través de la hija de Beherens. Ella me cuenta que ese día era el cumpleaños de la madre, o sea la esposa de Beherens, y el quiso hacer un vuelo más espectacular y arriesgado que lo normal pasando por arriba de la casa. Eso le costó entrar en tirabuzón chato y perder la vida. Como sea el cuarto prototipo se perdió no quedando prácticamente nada. Pero ya se estaba construyendo el quinto. A la revolución Libertadora no le cayó para nada bien al programa. Todo lo que tuviera que ver con el gobierno de Perón era censurado o dejado de lado. Pero también es una realidad que el proyecto “Pulqui II” siempre estuvo retrasado porque se le daba prioridad a una aeronave cuya designación era IAE 35 y al que se lo conocía como “justicialista del aire”. La Revolución del 55 hizo que el proyecto prácticamente finalizara. Al “Huanquero”, como ya se habían producido unos cuantos ejemplares, lo único que se le hizo fue cambiarle el nombre, de “justicialista del aire” a “Huanquero”. Hay una anécdota en cuánto al nombre. “Huanquero” es un abejorro que, cuando vuela, produce un zumbido muy particular y el avión parece que zumbaba cuando volaba, o también, lo que hace el “Huanquero” es depositar los huevos en los excrementos de vaca. Entonces parece ser que parte de la teoría es que se le pone “Huanquero” por el zumbido y otra es por el excremento y demás, cosa que tiene que ver con el mundillo político y que no vamos a analizar. Con el 55 y su revolución todo el grupo de diseño alemán emigró. Kurt Tank fue a la India. Allí cristalizó un proyecto que había comenzado a diseñar acá en la Argentina que fue el IAE 48, un caza supersónico de ala en delta, que terminó siendo, no el mismo avión pero sí un desarrollo, en la India el Industan “Marut”. Un desarrollo interesante de diseño porque, en realidad, no hizo nada. Con los ingenieros argentinos se siguió trabajando en el quinto prototipo, que incorporando todas las mejoras de los anteriores, entre ellos los frenos de aire que estaban en la misma posición del Mig 15, con una diferencia, en lugar de ser de pétalos y abrirse eran de aleta. El diseño era raro y entorpecía el flujo de la turbina pero parece ser que eran eficientes. El quinto prototipo fue volado, en un intento de golpe publicitario, por Rogelio Balado, en una presentación que se quiso hacer en Morón despegando de Córdoba, full de combustible y munición, ametrallando el aeródromo de Córdoba y volviendo a la base. Ese vuelo se hizo y fue exitoso. Para ese ensayo Balado, algo raro, se puso un casco de plástico. En ese momento el avión tenía fuera de servicio el sistema de óxígeno por lo que se le adaptó un botellón de un Gloster y cuando iba volviendo el piloto sufre una descompensación por la baja del oxigeno. La grabación del vuelo es muy graciosa porque Balado va diciendo pavadas por la falta de oxígeno. La cosa es que, cuando aterriza en Córdoba rompe el avión, se pega un palo, pero Balado no sufre ninguna consecuencia. El avión se desintegró pero la suerte del proyecto ya estaba echada. A mediados de los 60 ser desprograma el avión y se manda al Museo Nacional de Aeronáutica. Mientras tanto la Fuerza Aérea Argentina seguía volando desde el año 1947 un avión del año 1944 que era el Gloster “Meteor” MK 4. Este Gloster que vemos acá está fotografiado en 1965 en Morón en sus últimos años. Con esto quiero demostrar que se retrocedió mucho con la cancelación del programa “Pulqui II” porque si bien el Gloster “Meteor” cuando salió era una aeronave avanzada quedó obsoleto apenas concluyó la guerra. Era una máquina de reacciones lentas, con un consumo de combustible elevado y parecido a lo que era el “Pulqui I”. Tenía sí una capacidad de fuego importante, no era mal avión, de hecho la Fuerza Aérea lo voló hasta el año 1970. Esta foto está tomada en una de las cabeceras de la pista de Morón cuando era 7ma. Brigada Aérea. En ese momento en Morón había 50 Gloster. La Fuerza Aérea Argentina era la fuerza más poderosa de sudamérica a pesar de tener aviones del año 44 y no del año 50 como hubiera sido de tener el “Pulqui II”. Por eso digo que se retrocedió mucho. La idea del “Pulqui II” fue la de reemplazar a los Gloster cosa que no se pudo hacer porque para el año 1955 cuando la Revolución Libertadora, el tiempo de desarrollo había sido tan largo que el avión era prácticamente obsoleto. Pensemos que en el año 1955 Tank ya tenía los planos del IAE 48 que volaba a Mach 2. Esto que vemos aquí es un Sabre F 86 de la Fuerza Aérea. Este avión voló por primera vez en el año 1947, se suponía que era la competencia directa del “Pulqui II” y el poder político, porque la FA no tenía ese poder de decisión, decidió cancelar el proyecto “Pulqui II” y comprar 28 Sabres usados a la FA estadounidense que llegaron al país cuatro años después del encargo. El avión era muy lindo pero en esos momentos obsoleto. Este es el “Charlie” 120 que tiene una historia especial. Por este avión se desprogramó el sistema de armas en 1986 porque plegó las dos alas en vuelo debido a fatiga. El piloto se mató. El “Pulqui II” estuvo exhibido, por decirlo en un tono benévolo, en el Museo Nacional de Aeronáutica en Aeroparque, a la intemperie, al igual que el “Pulqui I”. El clima lo afectó bastante hasta que en el año 1998 se lo llevó al Area Material Rio Cuarto y se restauró. En esta foto vemos cómo quedó el último prototipo del “Pulqui II”. Si se fijan atrás, donde dice IAX 33 y antes de llegar a la escarapela, están abiertos los frenos y están en la misma posición en que los vimos en el Mig 15. Fíjense como las soluciones que se fueron adoptando son muy parecidas. Los aviones están mucho más emparentados de lo que se piensa. El desarrollo de aeronaves de reacción no se detuvo con el “Pulqui II”. Esto raro que se ve acá es un diseño de Reimar Horten y se trata del IAE 37. Era un ala delta que estaba pensada para ser impulsada por dos turbinas Rolls Royce “Avon” y para volar a velocidades supersónicas. De este avión se fabricaron maquetas en distintas escalas y se hizo una en tamaño natural. El que se está subiendo ¡oh casualidad! el “Pincho” Weiss, el piloto que voló por primera vez todos los prototipos de reacción de esa época en la fábrica. El que está sosteniendo la escalera es el diseñador, Reimar Horten. Este avión tenía la particularidad que el piloto iba acostado, con una horquilla en donde apoyaba su barbilla. Eso suponía que ayudaba a soportar cargas aerodinámicas pero después se le puso una cabina más convencional. Este es el prototipo de madera que era remolcado por un DC 3. Bueno, a partir de la cancelación del IA 37 la fábrica no tuvo más remedio que empezar a fabricar aviones bajo licencia. Esta línea que vemos es de Morane Saulnier MS 760 “Paris”. Esta máquina se empezó a fabricar en el país hace 43 años y hoy en día aún sigue volando El avión que vemos en la foto, tomada en Posadas en marzo de este año, tiene 9800 horas de vuelo y alrededor de 14 mil ciclos. Hace dos años se le hizo un ICM y tiene para seguir volando diez años más, hasta que se le haga otro ICM que diga que puede seguir volando. La madurez técnica de la Fábrica Militar de Aviones se consiguió con el IA 63 “Pampa”. Hay algo interesante para destacar y es lo siguiente. El otro avión fabricado en serie en los últimos tiempos fue el “Pucará”. Si uno agarra un ala completa de un “Pucará” y la quiere poner en el fuselaje de otro “Pucará” se va a encontrar que cuesta insertarla porque a pesar de que se fabricaron ciento y pico de aviones nunca pasó de ser un artesanado la fabricación de esa aeronave. Cada “Pucará” es diferente del otro. Yo tengo una anécdota con respecto a eso que ocurrió durante la reconstrucción de un “Pucará” para un museo y que está armado con piezas de cuatro Pucarás y todavía hay remaches que no podemos poner porque no los podemos hacer coincidir los carenados. En cambio uno puede agarrar cualquier componente del “Pampa” e instalarlo en cualquier otro avión y va a encajar perfecto. La fábrica alcanzó, como decíamos, la madurez técnica con el “Pampa”, ayudado por otra empresa alemana, la “Dornier”, fíjense como se repite la historia. Termino con el “Pampa” y no es casualidad. Queda claro que la calidad del material argentino es muy buena, de haberse llegado a producir en serie “Pulqui I” y “Pulqui II”, hoy tendríamos por lo menos “Pulqui II” volando, cosa que, lamentablemente, no se pudo hacer. De hecho hoy tenemos “Guaraní”, Morane, Pucarás volando. Fuente
Burán es el nombre de un transbordador espacial lanzado por la Unión Soviética en 1988. Aunque el programa de los transbordadores soviéticos se denominaba MKS, terminó siendo más conocido como Burán (en ruso Бура́н, «tormenta de nieve» o «ventisca»), primer y único vehículo de la serie en alcanzar el espacio. El trabajo comenzó en 1976 en el Instituto Central de Aerohidrodinámica (TsAGI), como respuesta al programa del transbordador espacial estadounidense. Los políticos soviéticos estaban convencidos de que el transbordador espacial podría ser un arma efectiva desde el momento en que el Departamento de Defensa estadounidense comenzó a tomar parte en el proyecto. Pensaban que el transbordador podría desestabilizar la balanza de poder establecida durante la Guerra Fría. Este proyecto se convirtió en el mayor y más caro de la historia de la exploración espacial soviética. Debido a que el debut del transbordador Burán fue posterior al del transbordador espacial Columbia, y dadas las similitudes entre ambos transbordadores, muchos especularon que el espionaje soviético podría haber jugado un papel importante en el desarrollo del transbordador ruso. Esta impresión se apoyaba también en el recuerdo de las similitudes entre el Tupolev Tu-144 y el avión de pasajeros supersónico Concorde. Sin embargo hoy se sabe que, aunque externamente sí comparte las características aerodinámicas del transbordador espacial estadounidense, internamente es un producto desarrollado por la ingeniería aeroespacial soviética (argumento ya expuesto por los responsables del proyecto en el tiempo de su desarrollo). Para mayor información, dirigirse a la Fuente , o a post, creado por . Uno de los prototipos del Buran usados en el proyecto se exhibe en el Parque Gorki, en Moscú. Aquí el link para verlo en Google Maps[/b] Videos El viaje del Burán link: link: http://www.videos-star.com/watch.php?video=hTWvRY87uUM Las primeras pruebas y el vuelo inauguraldel Antonov AN-225, el gigantesco compañero del Burán, construído para llevar a la lanzadera a sus espaldas. El primer vuelo del Antonov transportando al Burán link: http://www.videos-star.com/watch.php?video=iBCMnhYwJ-0
Me sumo a la cruzada de MrRose y acerswap en contra de los sitios pro anorexia y bulimia Les presento una iniciativa que me pareció muy buena y que puede ser una herramienta más en nuestra lucha. esto lo escribió el usuario Cheycr0n, de comunidadmoviles.com, foro del que también soy miembro, y está reproducido aquí con su expresa autorización: Noanaymia es un proyecto de momento unipersonal. Pero para saber de que se trata el asunto, deberiamos comenzar por analizar a Ana y a Mia, que quizá no todo el mundo conozcan. Bajo el pseudonimo de Ana se reclutan las Anorexicas en internet, una gran via de información y comunicación que les permite, con el anonimato deseado, compartir información y tips para sobrellevar lo que llaman “Filosofia de Vida”. El problema con esta Filosofia es que promueve dicha enfermedad. Lo mismo pasa con Mia, quienes se atribuyen a la Bulimia. Pro-ana (la abreviación de pro-anorexia) es un subgrupo de las comunidades a favor de los desordenes alimenticios. Al principio, las páginas Pro-ana fueron creadas para contradecir a los sitios que ofrecían apoyo y animaban a recuperarse de la anorexia. Muchos adeptos pro-ana procuran justificar su deseo de alcanzar una figura extremadamente delgada aludiendo a que no es una enfermedad, sino un estilo de vida alternativo. Algunos otros dicen que ven la anorexia como una enfermedad pero que han decidido no buscar ayuda, ni tratarla. Muchos médicos que tratan la anorexia consideran a las personas pro-ana con un riesgo latente para la gente que ya tiene el problema y no lo sabe, y la que ya está buscando ayuda. Algunos sitios pro-ana son bastante exclusivos, otros siempre aceptan nuevos miembros, ya sea que estos deseen ayuda en la recuperación o en la enfermedad; aun existen los sitios en los que no aceptan a aquellas personas que están recuperándose o desean hacerlo. Estos sitios incluyen consejos de cómo permanecer anoréxico o ser “mejores” ; así como también dan trucos para esconder los síntomas a amigos y miembros de la familia, engañar al hambre, tablas caloricas, frases y demás, son raros los sitios que animan directamente a personas sanas a convertirse en anoréxicas. Los sitios Pro-ana, ofrecen un contacto con personas que encuentran aceptación en un círculo que no encuentran en la vida real; un grupo en el que se instan a permanecer en esa condición.Son comunes en estos sitios, al igual que inumerables tablas para contar las calorías de los alimentos, para saber cuantas calorías quemaran durante el día por distintas actividades, formas de calcular el IMC (indice de masa corporal). Fotos de ellas mismas, al espejo, mostrando el limite: huesos de las caderas (crestas iliacas) sobresalientes, costillas bien marcadas, vientres planos, esternones claramente visibles. Si buscan en google el query "Ana y Mia" encuentran inifinidad de resultados, algunos sitios son informativos y toman a la enfermedad como lo que realmente es. Pero el problema recide en aquellos sitios creados por anorexicas y bulimicas para difundir la enfermedad (como dije antes, una enfermedad psicologia-nerviosa. Sitios como este del cual voy a hacer algunas citas: Cita: * - Si te ven más delgada sólo di:Es cierto, comeré más. No lo hagas, es sólo para despistar. * - Si te obligan por lo menos a probar un mordisco de la comida hazlo, pero parate en seguida y di que le falta sal, ve a la cocina y escupe en una servilleta. * - Dale la comida a tu perro. * - Cuando estés en casa usa ropa holgada y ancha para que no noten tu pérdida de peso. * - Maquillate para que no te noten las ojeras y la palidez. * - Cuando estés comiendo con más gente prueba el truco de la taza opaca: "Aparenta que estas comiendo y escupe la comida en la taza cuando aparentes estar bebiendo". * -Intenta pasar bastante rato en la cocina para aparentar que comes, si nunca te pasas por la cocina tu familia sospechará, si ven que al menos te pasas de vez en cuando se tranquilizaran un poco. * - Convéncete de que no te gusta la comida que contiene muchas grasas o muy calórica y no la comas. * - Si te tienes que hacer unos análisis de sangre, estos trucos te pueden servir para aparentar que estás bien: bebe mucha agua, bebe zumo y come algun yogurt el día antes del análisis y unas horas antes, toma bebidas isotónicas para incrementar el nivel de electrolitos. * - Trata de comer en tu cuarto y meter la comida en una bolsa y esconderlapara luego darsela a tu perro o si no tienes ya de ultima opcionbotarla. Como dije en un principio, ambas enfermedades son psicologicas, lo que disminuye la capacidad de dicernir entre lo que esta "Bien" y lo que está "Mal". No son p*l*t*d*s, no son mogolicas: Estan enfermas. Y ese tipo de material que circula por una incontable cantidad de sitios, informativamente o no, a una persona "Cerebralmente delicada" no le ayuda en lo mas minimo. Por está razón, en noanaymia nos encargamos de recolectar firmas para controlar y cerrar de forma definitiva sitios que promuevan la anorexia y la bulimia en internet. Las firmas que se recolecten en este blog seran enviadas a organismos de control y proveedores de servicio de hosting o alojamiento con el fin de blockear y dejar fuera de circulación dicha información. La lucha no es sencilla, no hay ningun organismo que controle directamente está situación así como ningun pais ni comunidad tiene una reglamentación Ley al respecto. Pero no estamos solos, como nosotros hay muchos sitios que ofrecen información controlada sobre el tema y luchan por una causa común. Por todo lo anteriormente nombrado, les ruego que se den una vuelta por el Cronograma de Lucha y Firmen el libro de firmas mediante el cual partimos para el cierre y clausuración de sitios pro-ana y mia. Taringueros: Pongamos cartas en el asunto. Muchos de ustedes ya denunciaron tales sitios. Se están logrando avances: algunos sitios ya fueron cerrados. Les pido ahora que firmen todos los que puedan. Sólo les llevará lo que tarden en escribir su nombre y mail. Recuerden que pueden salvarle la vida a alguien. No me dejes puntos, si te pareció interesante FIRMÁ!! Dedicado para vos MrRose, fuerza!!
Partición Medio Oriente 1916 ( Sykes -Picot) Cuando estalla la I Guerra Mundial los aliados occidentales buscan apoyos. Los aliados son conscientes del odio ferviente que sienten los musulmanes del Próximo Oriente hacia la máquina bélica del Imperio Turco y ven en ellos un posible resorte para acercarse a la victoria frente a los turcos en la zona. El Imperio Otomano, aliado del Imperio Austro-húngaro y Alemania, es un poderoso enemigo y todo apoyo es poco. Francia e Inglaterra pactan con los países árabes un acuerdo de apoyo mutuo por el cual los árabes lucharán del lado de los aliados contra los otomanos. Y los occidentales se comprometen a la creación de Estados independientes para los musulmanes. Sin embargo, las promesas de los franceses e ingleses estaban vacías de intención, ya que al mismo tiempo de realizarlas, reunidos en secreto entre ellos firman los acuerdos de Sykes-Picot que establecían el reparto entre Francia e Inglaterra de la Turquía otomana: Inglaterra pasaría a disponer de Irak y Palestina; Francia controlaría el Líbano y Siria.Además los aliados han prometido a los judíos, en reconocimiento a su apoyo económico y por los acuerdos de Balfour (1917), la creación de un Estado de Israel en la franja de Palestina. Unos tres meses después del comienzo oficial del mandato británico en Palestina, el gobierno efectuó un censo de la población en la fecha del 23 de octubre de 1922, seguido por otro en noviembre de 1931. Los resultados de las estadísticas británicas indicaban que el total de la población de Palestina alcanzaba la cifra de 762.000 habitantes en 1921, de los cuales: el 76’9% eran musulmanes, el 10’6% judíos, el 11.6% cristianos y el 0.9% eran de otras confesiones. La población de Palestina siguió creciendo hasta llegar al 1.035.800 habitantes en 1931, de los cuales: 619.438 eran musulmanes (59’8%), 174.000 judíos (16’9%), 91.400 cristianos (8’8%) y unos 10.100 que representaban el 1% aproximadamente eran de otras confesiones. La ambición judía en Palestina se centró en establecer un Estado judío con la mayor extensión y el menor número de árabes posible, además de las tentativas de establecer una fuerza militar judía y una economía hebrea que responda a las ambiciones sionistas. El gobierno del mandato británico colaboró en gran medida en la transformación de la población judía de una minoría confesional a una comunidad con un peso numérico en Palestina, ya que su número creció de unos 84.000 judíos en el año 1922, hasta llegar a los 650.000 judíos el 15 de mayo de 1948. Durante el mandato británico sobre Palestina entre los años 1920 a 1948 hubo unas intensas oleadas migratorias de los judíos: - entre los años 1919 a 1923 emigraron unos 35.000 judíos hacia Palestina. - entre 1924 a 1931 llegaron otros 78.898 judíos, la mayoría de origen alemán, de países de Europa Occidental y de Polonia. - entre los años 1932 a 1939 fue cuando se realizó la más importante operación de inmigración de judíos a Palestina alcanzándose la cifra de 224.784 inmigrantes, aprovechándose el Movimiento Sionista de la coyuntura internacional favorable, particularmente en Alemania. - entre los años 1940 a 1948 se llegaron a alcanzar la cifra de 118.300 inmigrantes. Todas estas oleadas fueron financiadas por empresas y organizaciones judías emergidas del Movimiento Sionista. Además, las infiltraciones judías hacia Palestina durante el mandato británico, fueron acompañadas con la construcción de más asentamientos, pasando de 110 en 1927 a 291 asentamientos agrarios en 1948, año de la creación del Estado de Israel. El 1 de abril de 1948, el Consejo de Seguridad adopta la Resolución 44 invocando al artículo 20 de la Carta de las Naciones Unidas por primera vez, el consejo solicita al Secretario General que convoquen a una sesión especial de la Asamblea General para considerar el futuro Gobierno de Palestina. El Consejo también llama por la prevención o reducción del desorden y el arreglo de una tregua entre las comunidades Arabe y Judía en Palestina. La Asamblea General convoca a una segunda Sesión Especial entre el 16 de abril y el 14 de mayo de 1948, durante la cual considera un papel de trabajo sometido por Estados Unidos sobre la cuestión del Fideicomiso de palestina, al cual se opusieron la URSS y la Agencia Judía. La Asamblea adopta tres resoluciones respectivamente, solicitando al Consejo Fideicomiso estudiar medidas para la protección de Jerusalén y sus habitantes, recomendando la designación de un Comisario Especial Municipal para Jerusalén, y decidió enviar a un mediador de la ONU que fue el Conde Bernadotte de Suecia. El 14 de mayo de 1948, un Estado Judío, Israel es proclamado, un día antes de que expirara el mandato y justo antes que la Asamblea General comenzara la discusión sobre la resolución principal contrariando la idea de los Estados Unidos sobre el fideicomiso de Palestina, el gobierno de estados Unidos reconoce al estado Judío como la URSS. La guerra estalla en Palestina. Varios ejércitos de Estados Arabes se ven comprometidos a enfrentar el conflicto. Aproximadamente 750,000 civiles palestinos huyen de sus casas bajo la presión militar israelí creciente y por el terror. Esos refugiados se instalaron en campos y partes de Palestina fuera del control israelí y los Estados Arabes vecinos. Más información: Cuestión Palestina y Naciones Unidas Todo ello provocó que el porcentaje de representación de la población judía en la población de Palestina pasó del 10’6% al 31% de judíos entre los años 1921 a 1948. Con el establecimiento del Estado de Israel el 15 de mayo de 1948, concluyó la ocupación el 14 de mayo de 1948 por parte de Gran Bretaña, capacitando a las bandas sionistas que más adelante formaron el núcleo del ejército israelí que se apropió de la mayor parte de la Palestina histórica. El Movimiento Sionista habría conseguido realizar el objetivo de establecer un Estado judío después de cincuenta años del primer Congreso Sionista en Basilea. Para lograr la ambición demográfica expulsaron alrededor de 850.000 palestinos de sus casas entre los años 1947 a 1948. Después de 1948 se estableció el Estado de Israel sobre el 78% de la extensión total de la Palestina histórica. A pesar de la expulsión forzosa de sus propias tierras, Cisjordania o la franja de Gaza, seguían acogiendo a casi el 80’5% del número total de los palestinos. En Cisjordania quedaron unos 323.000 refugiados, en Gaza 219.200 refugiados. El otro 19’5%, que representaban unos 307.000 refugiados, tuvieron que emigrar forzosamente a los países árabes limítrofes a Palestina después de la “Nakba” de 1948: Siria, Líbano, Jordania, Iraq y Egipto. Territorios ocupados por Israel 1967 Tras la Guerra de los 6 días en 1967, los judíos ocupan Cisjordania y la franja de Gaza expulsando nuevamente a unos 460.000 habitantes palestinos, apareció un nuevo mapa de distribución para los palestinos tras el flujo de la emigración forzosa, originada por el atropello de las limitaciones económicas palestinas en Cisjordania y la franja de Gaza. Otras estimaciones hablan de que el total de los desplazados palestinos que emigraron bajo el atropello de los tanques israelíes en 1967 habrían sido 1.500.000 palestinos, la mayor parte de ellos son de Cisjordania, estableciéndose en Jordania hasta que las circunstancias les permitan volver a sus tierras de origen. Según datos de la Agencia de Ayuda al Refugiado, el número total de refugiados palestinos en Jordania, Siria, Líbano y los territorios palestinos, a finales de 2007, era de casi 4,6 millones. El reparto poblacional de los palestinos sería: el 45’6% del total del censo de los palestinos estarían dentro de su tierra, y fuera de ella el 54’4%. Ver más datos en Gloobal.net. En 1948 había 1,4 millones de palestinos viviendo en 1.399 pueblos y ciudades de Palestina. En la actualidad, Israel ocupa las tres cuartas partes de Palestina. Israel se ha apoderado de 774 pueblos y ciudades palestinas y destruido alrededor de 531. (Más información: www.comunidadpalestina.org/Indice_mapas.htm) En resumen, desde 1948 Israel ha ido expulsando al 85% de la población palestina de su tierra. Esto ha hecho que Gaza se transforme en una de las zonas del mundo más densamente poblada. La densidad de población total en los territorios palestinos al final de 2007 era de 625 personas por kilómetro cuadrado. En Cisjordania era de 417 personas por kilómetro cuadrado y en la Franja de Gaza habría aumentado hasta 3.881 personas por kilómetro cuadrado. El informe del Organismo Central Palestino de Estadística indican que el pueblo palestino libra una decisiva guerra demográfica con los judíos sobre la histórica tierra de Palestina. El retroceso del crecimiento poblacional de los ocupantes israelíes en comparación con la de los palestinos se debe a que el crecimiento de la población israelí depende de la emigración hacia Tel Aviv mientras que los palestinos se basan en el crecimiento natural a través del aumento de la natalidad. El índice de fertilidad entre los palestinos es de alrededor de 6 niños por fémina en tanto que en Israel es de 2 niños. El tamaño medio de una familia palestina es de 4,7 personas. El 40,2% de la población es menor de 15 años y sólo el 3,2 % supera los 65. El experto israelí en demografía Sergio Della Pérgola asegura que “antes de finalizar el presente decenio los judíos serán minoría en los territorios que incluyen Israel, Cisjordania y la Franja de Gaza”. “En 1945 había 11 millones de judíos. El pueblo judío creció desde 1945 poco más de dos millones de personas. El primer millón en la primera década después del Holocausto. El segundo millón en los siguientes 50 años”, explica Della Pergola sobre las tendencias demográficas. Las últimas estadísticas de la Agencia Judía para Israel, el organismo encargado de las relaciones entre los judíos de todo el mundo, muestran que este pueblo ha crecido durante el último año sólo un 0,05 por ciento, para llegar en la actualidad a los 13,3 millones de judíos en el mundo. El informe de la Agencia indica en ese sentido que la población judía fuera de Israel decreció este último año en 15.000 personas. En Israel, el único país con crecimiento sostenido, reside ahora el 41,3 por ciento de la población judía mundial, y el otro 58,7 se reparte por todo el planeta. En Estados Unidos viven casi la misma cantidad que en Israel: 5,3 millones. EE UU ha absorbido buena parte del crecimiento demográfico judío durante las últimas tres generaciones debido a matrimonios mixtos en el 55 % de las uniones. Las leyes ortodoxas reconocen únicamente como judía a una persona con madre de ese origen o convertida, sin embargo desde hace una década la Agencia Judía ha adoptado una nueva política: “Ya no incluimos a personas por origen biológico, sino a aquellas que se declaran como judías, independientemente de quienes sean su progenitores”, explica Della Pergola. Ambos organismos están convencidos de que programas de acercamiento a la cultura hebrea y a Israel pueden revertir las tendencias demográficas negativas, que no son sino el reflejo de la paradoja judía de posguerra: su positiva integración social se traduce en una amenaza a su identidad como pueblo. Los judíos pudieron a raíz de la Revolución Francesa disfrutar por primera vez de los mismos derechos civiles que los conciudadanos de otros credos, muchos abandonaron sus estrictas tradiciones ortodoxas y se integraron plenamente en las sociedades de sus países de residencia. El resultado fue un rápida pérdida de identidad judía, que se prolonga hasta la actualidad. Cisjordania Mientras tanto, los continuos esfuerzos para importar judíos de todas las partes del mundo para albergarles en las tierras de los palestinos expulsados han logrado alcanzar los 5,5 millones, por lo que prosigue sin pausa el proceso de construcción de asentamientos para esos recién llegados en las tierras usurpadas palestinas. Según confirma la Oficina Central de Estadísticas Palestinas, la realidad demográfica actual, después de 60 años, es que la población palestina se ha multiplicado por siete. La población palestina era de 1,4 millones en 1948, mientras que las estimaciones para 2008 son de 10,5 millones, de los cuales cinco millones siguen viviendo aún en Palestina, según las estadísticas de finales de 2007.Los árabes palestinos y los judíos tendrán cifras de población similares en 2016. Siguiendo los datos de fertilidad y del crecimiento poblacional palestino, da como resultado que el censo total de la población palestina en el año 2025 será de unos 18 millones. Los datos demográficos se analizaron con preocupación en el XXXIV Congreso Sionista: “El Congreso Sionista hace un llamado a todas las instituciones sionistas, es decir, al Gobierno, a la Agencia Judía y a la dirigencia política, a hacer todo lo posible, a fin de encontrar las vías que lleven a profundizar el carácter judeo-sionista y democrático del Estado de Israel. El Congreso Sionista hace un llamado al Gobierno de Israel y al Parlamento, a fin de que actúen de manera continua y decidida, para asegurar la mayoría judía en el Estado de Israel y ver en la cuestión demográfica, un asunto de carácter existencial para el futuro del Estado de Israel. El Congreso Sionista felicita a la Agencia judía y al Consejo Sionista en Israel, por su participación en proyectos de cooperación y de acercamiento con la comunidad drusa y hace un llamado a fin de profundizar el vínculo con dicha comunidad, como fiel colaboradora del Movimiento Sionista y del Estado de Israel. El Congreso Sionista hace un llamado a los ciudadanos árabes-israelíes del Estado de Israel, a integrarse al mismo como ciudadanos iguales, y pide al Gobierno de Israel que evite toda discriminación contra la comunidad árabe en Israel. ” Tomado de La garantía de una mayoría judía en el Estado de Israel //www.wzo.org.il Datos demográficos actuales Gaza Strip/ según Wolfram Alpha Datos demográficos actuales West Bank/ según Wolfram Alpha Datos demográficos actuales Israel/ según Wolfram Alpha Israel/Palestina, Google Maps (Clic para agrandar) Fuentes: www.nodo50.net/csca/agenda08/palestina/arti305.html www.nodo50.net/csca/agenda05/palestina/al-nakba_16-05-05.html Israel:Fuerzas armadas y conflictos bélicos (pdf) Guerra demográfica entre los palestinos e Israel Israel versus Palestina: ¿un conflicto interminable? Factores y perspectivas- Joseph Hodara La paradoja de la emancipación judía Una reflexión sobre la asimilación (Periódico Judío independiente) En el año 2050: 12 ó 18 millones de judíos en el mundo? Vida en Israel. Judíos y “árabes israelíes” El muro proyectado por Israel y en fase de construcción Palestina en mapas (PASSIA) Historia de Israel Israel (Ministerio Asuntos Exteriores) Delegación General de Palestina en España Documentos de las Naciones Unidas relativos a la cuestión Palestina El Movimiento de Resistencia Islámico, Hamas La Organización por la Liberación de Palestina (O.L.P.) Palestinian National Authority Comentarios fuera de lugar serán eliminados
Son unos simples pasos para registrar permenentemente tu Nick en el chat. 1- Cuando entres a chatear, te pones el nick que deseas registrar: Para ello, escribis: /nick tunick 2- Ahora tipeas: /nickserv register password email (donde password es una clave cualquiera y email debe ser un correo válido) 3- Tu nick está registrado temporalmente ahora. Para que la registración sea permanente, debes abrir la casilla de correo que ingresaste. Ahí te vas a encontrar con un mensaje de "DALnet Registration Services". Lo abrís, obvio. 4- vas a encontrarte con una choclada de cosas en inglés... No importa si no conocés el idioma del país del norte: buscá el siguiente párrafo: [...] "You have two choices on how to COMPLETE YOUR REGISTRATION: The next time you are online you can send a special message to NickServ: /msg NickServ@services.dal.net AUTH tunick XXXXXXXXXXXXXXXXX (las X corresponden a un código único que te identifica) [...] 5- Copias desde donde dice /msg hasta el final del código en cuestión 6- Vas al chat de nuevo y pegas todo en el campo de escritura y le das enter. 7- Voilà!! Tu nick está registrado permanentemente. Saludoss!! PD: no necesito poner fuente, lo investigué yo mismo probando con los comandos en el chat. Edit: Casi lo olvido, jeje, que nabo Cuando cierres sesión en el chat y quieras volver a entrar con el mismo nick, te va a aparecer un msj diciendo qu ese nick ya fue registrado por alguien más... Para identificarte como el poseedor del mismo, tipea lo siguiente: /msg NickServ@services.dal.net IDENTIFY password y ya estás autenticado.
Toda la vida se nos dijo que las neuronas no podían regenerarse. Uno nacía con una cierta cantidad y a lo largo del tiempo las iba perdiendo de a poco. Si por alguna razón las neuronas de cierta área del cerebro se morían, se producía un daño irreparable. Este concepto ha cambiado en los últimos años. Este es un descubrimiento muy importante y no muy conocido por la gente en general. Tiene implicaciones muy importantes en el caso de tratamientos de enfermedades mentales como el Alzheimer o de lesiones cerebrales. Hice una pequeña recopilación de artículos que hablan sobre el tema. Al leerlos, tengan en cuenta la fecha de publicación de cada uno. Artículo 1: LAS NEURONAS MUERTAS INDUCEN EL NACIMIENTO DE NUEVAS NEURONAS ( Publicado en Revista Creces, Septiembre 2000 ) HASTA HACE ALGUNOS AÑOS EL DOGMA INDICABA QUE LAS NEURONAS ERAN LAS UNICAS CELULAS DEL ORGANISMO QUE NO PODIAN RENOVARSE. SIN EMBARGO EN LOS ULTIMOS AÑOS HAN SURGIDO NUMEROSAS EVIDENCIAS QUE DEMUESTRAN QUE EL CEREBRO PUEDE PRODUCIR NUEVAS NEURONAS, AUN EN AQUELLAS ZONAS CEREBRALES RESPONSABLES DE ALTAS FUNCIONES. Hasta hace muy pocos años se afirmaba que el cerebro nacía con la dotación definitiva de células y que éstas sólo podían morir pero nunca renovarse. Ahora el concepto ha estado cambiando al comprobarse en animales de experimentación (desde pájaros a ratas y primates) que la neurogénesis ocurre normalmente. Con todo, se seguía afirmando que en algunas áreas relacionadas con altas funciones cerebrales (neocorteza), como son las involucradas en la memoria y el aprendizaje, esto no podía ocurrir. Pero nuevos trabajos también han agregado la neocorteza a la lista de regiones cerebrales que también pueden regenerarse (Science. vol 288. Junio 23, 2000. pág. 2111). En la revista "Nature" de Junio 22 de 2000, el neurocientista Sanjay Magavi y sus colaboradores del Children Hospital de la Universidad de Harvard, reportaron que induciendo la autodestrucción de neuronas ubicadas en la neocorteza de ratas adultas, se gatillaba un proceso de reemplazo de neuronas a partir de células troncales (stem cells). Lo que aún era más interesante, estas neuronas neoformadas migraban a la misma posición y establecían las mismas conexiones que sus predecesoras que habían fallecido. Es decir, el cerebro adulto tenía la capacidad de responder al daño iniciando un proceso de autorreparación. Esto tiene grandes proyecciones futuras, ya que si ocurre también en el cerebro humano, se abren grandes perspectivas para restablecer la memoria en la enfermedad de Alzheimer o para inducir reparaciones de la médula espinal cuando ésta haya sido dañada por algún traumatismo. COMO SE REALIZO EL TRABAJO Los autores inyectaron en neuronas de la neocorteza del cerebro de ratas adultas, una sustancia química que se activa por la luz, lo que induce la muerte de ellas (apoptosis). Observaron que estas mismas neuronas muertas potenciaban a células precursoras inmaduras, para que se transformaran en células adultas de reemplazo. Los investigadores siguieron las huellas de estas nuevas neuronas, mediante una sustancia química trazadora llamada 5-bromodeoxyuridina (BrdU). Ella se incorpora dentro del DNA sintetizado por las nuevas neuronas y se traspasa a las derivadas de ellas. De este modo las pudieron seguir en su migración hacia la neocorteza. Observaron que en esa región aparecían las nuevas neuronas en distintas etapas de desarrollo, desde las más primitivas hasta las completamente desarrolladas. Por otra parte, otros resultados indicaron que las nuevas neuronas no sólo habían migrado, sino que además habían realizado las conexiones necesarias para su funcionalidad. Incluso éstas enviaban sus axones al tálamo del cerebro. Estos hallazgos demostraron que las nuevas neuronas estaban realizando las mismas conexiones que antes tenían las neuronas que habían muerto. Jeffrey Macklis dijo "tuvimos la evidencia que la inducción de la apoptosis gatillaba un programa de desarrollo de expresión génica que ya estaba presente en la rata cuando era embnón". Para las próximas etapas, los investigadores planean identificar los genes que controlan el desarrollo de las neuronas, lo cual va a tomar algunos años. "Si ello se logra, se podría llegar a diseñar drogas que reactiven el programa en personas que hayan sufrido daño cerebral, induciendo así al cerebro hacia su propia curación", señaló Macklis. Fuente: http://www.creces.cl/new/index.asp?imat=%20%20%3E%20%2066&tc=3&nc=5&art=1087 ------------- Artículo 2: Regeneración de neuronas Expertos confirman que el cerebro humano, además de albergar células madre, tiene capacidad para producir nuevas células del sistema nervioso central Después de muchos años de considerar que el cerebro era incapaz de regenerarse, ahora no sólo se confirma que hay células madre sino que los precursores de las neuronas son capaces de emigrar y movilizarse. Esta plasticidad del sistema nervioso, el cual durante mucho tiempo fue considerado un sistema rígido, alimenta la esperanza de los investigadores que ven en la regeneración neuronal una posibilidad terapéutica en el tratamiento de enfermedades como el Parkinson y el Alzheimer. TERESA ROMANILLOS 16 de marzo de 2007 Neurogénesis Hasta hace poco tiempo se consideraba que la producción de nuevas neuronas después del nacimiento era un fenómeno que ocurría en algunos vertebrados pero no en la especie humana. Desde hace unos años, han aparecido estudios que confirman que en nuestro cerebro no sólo hay células madre sino que también hay neurogénesis, producción de nuevas neuronas. Un grupo de investigadores de la Universidad de Auckland (Nueva Zelanda) y de la Academia Sahigrenska de Goteborg (Suecia), acaban de publicar en Sciencie, los resultados de una investigación que muestra la ruta que siguen la células madre, capaces de producir nuevas neuronas, hasta alcanzar el bulbo olfatorio. La ruta que siguen los precursores neuronales parte de una zona del cerebro, los ventrículos laterales, donde se encuentra la fuente originaria de estas células. A través del líquido que baña estas cavidades y el resto del cerebro, estas células alcanzan el bulbo olfatorio, desplazándose unos 20 mm. La imagen de esta ruta se captó con técnicas de microscopía y resonancia magnética. Este hallazgo podría ser un primer paso para movilizar estas células hacia zonas del cerebro dañadas. Por otro lado, también permite pensar en la posibilidad del bulbo olfatorio como fuente de estas células, aptas para ser trasplantadas. En 1998 se demostró la existencia de neurogénesis en el cerebro adulto. El investigador español José Manuel García Verdugo (Universidad de Valencia) en colaboración con el mexicano Arturo Alvarez-Buylla (Universidad de California) demostraron que la neurogénesis es obra de células madre neuronales con las características propias de los astrocitos, células en forma de estrella que garantizan el funcionamiento de las neuronas. También describieron la «cuna» de las células madre neuronales, situada en la zona subventricular. El trabajo fue publicado hace tres años en Nature. Posteriormente mostraron el camino por el que las nuevas neuronas llegaban al bulbo olfatorio, pero sólo en ratones, tal y como divulgaron en Sciencie. Una esperanza Los datos revelan que las neuronas se renuevan de forma constante en el cerebro adulto de mamíferos y otras especies animales, incluido el ser humano. Este hecho biológico, constatado de forma fehaciente en los últimos años, ha significado la caída de uno de los grandes dogmas de la biologíasegún el cual las células nerviosas eran las mismas durante toda la vida. Fernando Nottebohm, director del Laboratorio de Conducta Animal de la Universidad Rockefeller (Nueva York), contribuyó decisivamente al demostrar que en el cerebro adulto de canarios se produce un constante reemplazo neuronal coincidiendo con el aprendizaje de nuevos cantos. La primera demostración de reemplazo neuronal en adultos fue gracias a un marcador radiactivo del ADN celular y constató que había muchas neuronas que nacían y que, en poco tiempo, eran plenamente funcionales. Si sufrimos una lesión (un accidente vascular cerebral, una fractura de cráneo o padecemos alguna enfermedad degenerativa como el Alzheimer), se destruyen miles de neuronas y se desconectan los circuitos entre ellas haciendo imposible la realización de las funciones que tienen encomendadas. Para impedir que en circunstancias naturales, en ausencia de lesión o enfermedad, se produzca muerte celular, las neuronas están dotadas de mecanismos de autorreparación y autoremodelación constante. Unas sustancias químicas llamadas neurotrofinas o factores de crecimiento nervioso, que se sintetizan en neuronas especializadas, son las mediadoras del proceso. La ciencia avanza en el conocimiento de la regeneración neuronal por lo que, según creen los especialistas, en años venideros surgirán soluciones terapéuticas para diversas enfermedades que causen daño cerebral o de la médula espinal. En 2003, el equipo de Maurice A. Curtis, de la Facultad de Medicina y Ciencias de la Salud de la Universidad de Auckland (Nueva Zelanda), publicó el hallazgo de que en la enfermedad de Huntington se produce regeneración neuronal espontánea en la vecindad del núcleo caudado, que es la zona dañada en este proceso. Al confirmar que la neurogénesis ocurre en diversas zonas del cerebro, tanto de manera natural como en respuesta a distintas lesiones, cobra más verosimilitud la posibilidad de que funcionen los transplantes de neuronas y aumenta el interés por encontrar cómo promover la neurogénesis de manera artificial, actuando sobre los genes, proteínas y factores tróficos que la regulan. La teoría de Cajal Pronto se cumplirán 100 años desde que Ramón y Cajal vaticinó la regeneración neuronal. El premio Nobel se adelantó con creces a su tiempo ya que el cerebro pasó de ser considerado un sistema estático a otro en constante cambio. En 1905, Cajal inició el estudio de la degeneración y regeneración del sistema nervioso, publicando numerosos artículos que fueron resumidos en el libro Estudios sobre la Degeneración y Regeneración del sistema nervioso. Aún hoy vigente, Cajal afirmaba que cualquier axón seccionado podía regenerarse. Observó que al producirse la sección de un axón, la porción proximal que quedaba vinculada al cuerpo de la neurona intentaba regenerarse. Este tipo de regeneración fue denominado «brote abortivo», porque si bien en el extremo proximal del axón seccionado se producían yemas de múltiples prolongaciones, éstas eran de muy corta distancia. Como contrapartida, estudios posteriores demostraron que los axones son capaces de regenerarse en trayectos extensos. Uno de las mayores aportaciones de Cajal fue la de demostrar que el sistema nervioso estaba formado por una red de células nerviosas que estaban contiguas pero manteniendo la independencia entre ellas, contrariamente a lo que se había creído hasta entonces. En 1920, los principios teóricos de Cajal se confirmaron experimentalmente: la transmisión entre las neuronas se realizaba no a través de impulsos eléctricos sino a través de sustancias químicas. El sistema nervioso central está formado por unos 100.000 millones de neuronas conectadas unas con otras y responsables del control de todas las funciones mentales. Cajal demostró, contrariamente a lo que se creía, que el sistema nervioso estaba formado por una red de células nerviosas contiguas pero independientes entre ellas Neuronas Cada una de estas células está formada por un núcleo, que controla todas las actividades celulares y un citoplasma o cuerpo celular de donde emergen las prolongaciones nerviosas: el axón y las dendritas. El axón trasmite mensajes de una neurona a otra y puede llegar a medir más de un metro, como en el caso de las neuronas que transmiten un impulso desde la corteza cerebral hasta la zona inferior de la médula espinal. Las dendritas son las ramificaciones del cuerpo celular que reciben los mensajes que llegan a través de los axones de otras neuronas. Cada neurona está conectada con miles y miles de otras neuronas a través de axones y dendritas. Los puntos de contacto son las sinapsis, de las que cada neurona tiene por término medio hasta 15.000. Al llegar el impulso en forma de potencial eléctrico al final del axón origina la liberación de unos mensajeros químicos (neurotransmisores) que atraviesan el espacio entre las sinapsis y se acoplan a las dendritas de la neurona vecina. Los fármacos del sistema nervioso actúan precisamente a este nivel, potenciando o inhibiendo los neurotransmisores. El papel fundamental de las neuronas es comunicarse entre sí millones de veces por segundo. Nuestro sistema nervioso es como una gran red de telecomunicación por la que circulan, día y noche, millones de llamadas telefónicas a velocidades increíbles. Fuente: http://www.consumer.es/web/es/salud/investigacion_medica/2007/03/16/160809.php ............... Artículo 3: 20 febrero 2007 Regeneracion de Neuronas De el blog de Don Fernando Flores Un reciente descubrimiento que promete abrir nuevas posibilidades para la investigación del cerebro y sus males fue publicado en la revista Science. La BBC comenta este hallazgo en la siguiente nota: ¿Neuronas que se regeneran?Un grupo de investigadores internacionales dijo haber descubierto un tipo de neurona que se regenera de manera continua en los seres humanos.Los expertos identificaron que un grupo de células especiales "migran" y crean nuevas células nerviosas en la parte del cerebro responsable del sentido del olfato. Anteriormente, científicos habían detectado este mecanismo en ratones y ratas, y hasta ahora se pensaba que no existía en seres humanos. Los expertos señalan que los resultados del estudio, publicado en la revista científica Science, abren la posibilidad para otras investigaciones en torno a la reparación del cerebro como, por ejemplo, en el caso de pacientes con la enfermedad de Alzheimer. El viaje de transformación Los investigadores de la Universidad de Auckland, en Nueva Zelanda, y de la Academia Sahlgrenska, en Suecia, demostraron la existencia de células madre en ciertas zonas del cerebro, justamente debajo de cavidades llenas de líquido encéfalo raquídeo, denominadas ventrículos. Tras localizar las células los científicos intentaron explicar cómo éstas llegan a ocupar esa parte específica del cerebro. Se sabía que en muchas especies, un conducto lleno de fluido cerebral permitía a este tipo de células desplazarse hasta el bulbo olfatorio -la región del cerebro que registra los olores- transformándose durante el trayecto en células nerviosas. Hasta ahora, este mecanismo no se había detectado en humanos. ¿Cómo detectaron el mecanismo? A través del uso de diversas técnicas, entre ellas un poderoso microscopio de electrones, el equipo fue capaz de identificar el conducto y demostrar que contenía tanto células madres como otras que, mientras se desplazaban, se convertían gradualmente en células nerviosas. Los expertos indicaron que el aumento de células nerviosas en el bulbo olfatorio permite una respuesta a diferentes estímulos más efectiva durante la vida de una persona. Los científicos señalaron que los resultados podrían ser importantes para investigaciones futuras sobre la regeneración de neuronas en pacientes con enfermedades como el Alzheimer. También destacaron que los estudios en ratones podrían ser aplicados a humanos. El doctor Marx Baxter, de la Universidad de Oxford, señaló que "este estudio es importante porque revela un grupo de neuronas en el cerebro humano adulto que continuamente se están regenerando." "El estudio abre otra vía por medio de la cual podríamos descubrir formas para reparar cerebros humanos dañados producto de accidentes o enfermedades. Además, se enfatiza la importancia de la investigación con animales, como guía para el estudio biomédico en humanos." Por su parte, el profesor Sebastian Brandner, jefe de la dirección de neuropatología del Instituto de Neurología de la University College London, señaló que: "La comprensión de la biología de las células madre es esencial en el estudio del proceso regenerativo del cerebro en el caso de enfermedades neurodegenerativas, e incluso sería posible que las células madre sean la fuente de algunos tumores cerebrales", concluyó. Fuente: http://edgardourrea7.blogspot.com/2007/02/regeneracion-de-neuronas.html ........ Artículo 4: NEUROGÉNESIS; crean neuronas de células madre y describen su desarrollo en el hipocampo cerebral Emil Domec Actualizada: 23/11/2005 La formación de las neuronas a partir de células madre que hasta hace poco no se entendía su secuencia de migración para alcanzar la capa glandular del cerebro en que cumplen su función específica, cuánto tiempo lleva su proceso y como se interconectan con otras neuronas alojadas en el hipocampo, era el misterio que consiguió develarse por un trabajo que fué publicado en The Journal of Neurocience en el Congreso de la Sociedad Neurociencias de EE.UU realizado en Washington. Este mecanismo descubierto es de comprensión decisiva para el desarrollo de estrategias destinadas a combatir enfermedades neurodegenerativas, que vienen trabajándose desde hace varios años cuándo se pensaba que en el cerebro adulto las neuronas que se destruían no se podían regenerar. El argentino Fernando Nottebohm es un zoólogo, neurólogo y ornitólogo de gran trayectoria, especializado en el canto de las aves. Ha ganado prestigio mundial con éste descubrimiento, el proceso por el cual las neuronas se reproducen y el tejido nervioso se regenera va en contra de lo que hasta el momento era casi un dogma central en la neurología: las neuronas sólo pueden morir, nunca reproducirse y comprobó que las neuronas de los canarios se reproducen, pudiendo generarse veinte mil nuevas cada día. Y lo más sorprendente: incluso en las hembras se dá la neurogénesis y éstas adquieren la capacidad del canto, cuando son inyectadas con hormonas masculinas Hoy sabemos que la neurogénesis, es decir, la diferenciación de nuevas neuronas a partir de células precursoras, ocurre en dos zonas muy concretas de nuestro cerebro: el bulbo olfatorio y el hipocampo. El bulbo olfatorio se encarga de recibir y procesar información de los quimiorreceptores del epitelio olfatorio, mientras que el hipocampo está implicado en una de las más enigmáticas propiedades de nuestro sistema nervioso central, la memoria, lugares donde participan los procesos de aprendizaje. La formación del hipocampo se ha asociado desde hace tiempo a la ejecución de funciones cognoscitivas de orden superior, y su degradación a causa del estrés y el envejecimiento se ha relacionado con algunas alteraciones cognoscitivas. Recientemente se han realizado esfuerzos de investigación en la neurogénesis hipocámpica para entender la participación de la formación hipocámpica en la mediación de comportamientos normales y patológicos Para entender éste proceso explica el biólogo argentino Dr.Alejandro Schinder, se inyecta en el hipotálamo de un ratón adulto un virus con una proteína fluorescente verde como marcador para las células progenitoras que se dividen y así poder seguir su desarrollo durante cuatro semanas en sus diferentes intérvalos. En la primer semana se observa apenas las células con forma de neuronas con inicial capacidad de transmitir impulso nervioso. A las dos semanas siguentes se podían conectar con otras células neuronales del hipocampo y liberan un neurotransmisor llamado GABA (ácido gamma aminobutírico). A las cuatro semanas encontraban un potencial mayor y apariencia externa madura recibiendo conexiones de 2 clases neuronales, las que liberan GABA y aquellas que expresan otro neurotransmisor llamado '' glutamato'' que para diferenciarlo se colorearon de color azul para seguir su trazabilidad. Así se completa el ciclo cuando alcanzan su total madurez y conectan en su red neuronal con otros ganando su migración dentro de la capa granular, descubriendo que las neuronas en el hipocampo adulto sigue el mismo orden que tiene en el embrión. Ésto sugiere que la secuencia está ligada por el programa genético de la célula y por su ambiente que la rodea, aclara el Dr Zinder, director del Laboratorio de la Plasticidad Neuronal del Instituto Leloir argentino donde se llevaron las investigaciones que por primera vez pudieron describir como hacen las células madre del cerebro adulto convertirse en neuronas. El descubrimiento de la neurogénesis ha abierto un camino para el desarrollo de investigaciones que, de ser exitosas, permitirían inducir la regeneración de neuronas en los seres humanos con lesiones cerebrales hasta ahora irreversibles como el Mal de Alzheimer. Fuente: http://www.noticias.com/articulo/23-11-2005/emil-domec/neurognesis-crean-neuronas-celulas-madre-y-describen-su-desarrollo-hipocampo-cerebral-4nmg.html .......... Artículo 5: Neurogénesis De Wikipedia, la enciclopedia libre La neurogénesis es la producción de nuevas células del sistema nervioso central, es decir, de neuronas. Hay que distinguir entre la neurogénesis en el desarrollo y la neurogénesis en seres adultos. Neurogénesis en adultos La producción de nuevas neuronas tras el nacimiento fue negada hasta bien avanzada la segunda mitad del siglo XX. Hoy día se sabe que tanto las neuronas como las células gliales se siguen reproduciendo durante toda la vida de los organismos, especialmente del ser humano. Asimismo, se ha demostrado que tanto la actividad cerebral como la actividad física favorecen la neurogénesis. Depresión y neurogénesis Estudios de 2006 parecen probar que la fluoxetina actúa sobre la depresión acelerando la neurogénesis, con lo que la formación de nuevas neuronas sería parte del mecanismo que alivia la depresión. Referencias * Gerd Kempermann: Neurogénesis en Mente y cerebro, nº19, julio 2006. * Neurogénesis en Mente y cerebro, nº22, enero 2007. Fuente: http://es.wikipedia.org/wiki/Neurog%C3%A9nesis ............ Artículo 6: Formación de nuevas neuronas en la corteza cerebral adulta: otro dogma que cae Por José Carlos Dávila Cansino Aquellos que trabajamos en eso de la investigación estamos acostumbrados a ver una y otra vez cómo verdades "inmutables" se vuelven falsas interpretaciones con el paso de los años o con la aparición de nuevas técnicas o experimentos. A todos nos han contado en alguna ocasión, no sin fundamento, que cuando nacemos tenemos todas las neuronas que podemos tener en nuestro cerebro y que, en todo caso, lo que sucede es una pérdida irremediable de muchas neuronas desde ese momento, que se ve incrementada conforme nos acercamos a la vejez. Que las neuronas maduras son células altamente diferenciadas que no se dividen y tampoco se generan en el cerebro adulto es algo que está escrito en los libros desde hace mucho tiempo. Estas afirmaciones tan contundentes empezaron a tambalearse hace ya años, con la observación, de forma independiente por distintos investigadores, de procesos de neurogénesis (formación de neuronas) en ciertas regiones del cerebro de vertebrados adultos. Así, quedaba demostrado que la formación de neuronas nuevas a partir de células precursoras inmaduras no era algo imposible en el cerebro adulto, aunque se tratara de vertebrados "inferioresí. Entre los casos más conocidos estaban la neurogénesis adulta en algunas áreas del cerebro de reptiles y en ciertas regiones cerebrales implicadas en la conducta del canto en aves (ver "El canto de las aves: una cuestión de neuronas". Encuentros en la Biología 24, 1995). Más tarde, la neurogénesis adulta se "extendióí también al cerebro de los mamíferos, aunque esta formación de nuevas neuronas quedaba restringida a determinadas regiones "filogenéticamente antiguas" como el bulbo olfatorio o el hipocampo. De forma implícita, estos descubrimientos parecían sugerir que la neurogénesis adulta podía considerarse como un fenómeno más relacionado con cerebros o áreas cerebrales "primitivasí y que de alguna manera reflejaba cierto grado de "inmadurezí en la estructura. En cuanto al papel de las neuronas formadas de nuevo, en la mayoría de los casos solo había sugerencias. Unas veces, la neurogénesis estaba precedida de muerte neuronal (caso de las regiones del canto en las aves), por lo que las neuronas recién formadas iban a ocupar el lugar de sus predecesoras, pero en la mayoría de los casos, las nuevas neuronas simplemente pasaban a incrementar el número existente. Con esta visión de la neurogénesis adulta como un proceso de marcado carácter primitivo, no resultaba extraño que no se hubiera descrito (¿o estudiado?) este fenómeno en la neocorteza de mamíferos, denominada ésta como la corteza cerebral filogenéticamente más reciente y sólo presente en mamíferos. Es más, parecía existir cierto clamor entre los neurocientíficos en contra de la posibilidad de neurogénesis en la neocorteza de mamíferos adultos y todavía más si de primates o de la especie humana se trataba. Pues bien, los cimientos de la neurobiología han vuelto a temblar de nuevo, al menos para aquellos que se encuentran anclados a las viejas creencias. A finales de este año pasado, aparecía en la prestigiosa revista Science un artículo donde se demostraba la existencia de neurogénesis en el neocórtex de primates adultos (Gould et al., 1999. Science, 286: 548-552). Mediante la inyección de bromodeoxiuridina, una técnica que se emplea para marcar las células proliferantes y su descendencia, estos autores ponían de manifiesto la producción de nuevas células en áreas asociativas (cortezas prefrontal, temporal inferior y parietal posterior) de la neocorteza de macacos adultos. Estas células expresaban marcadores específicos de neuronas (como la enolasa neuronal), lo que dejaba claro que las células generadas eran neuronas y no células gliales y, además, extendían sus axones para formar conexiones funcionales. Los autores del artículo señalan que el número de neuronas formadas diariamente en estas áreas debe ser mucho mayor que el que ellos observan, ya que la bromodeoxiuridina inyectada solamente está disponible para ser incorporada por las células proliferantes durante dos horas tras la inyección; por lo tanto una sola inyección de esta sustancia marcará una fracción de todas las células que se dividan en 24 horas. Las áreas asociativas están implicadas en la plasticidad conductual (mediante el aprendizaje y la memoria), por lo que es concebible que las nuevas neuronas añadidas a estas áreas en el adulto jueguen un papel especial en dichas funciones. Estos investigadores sugieren que las neuronas recién formadas pueden ser capaces de sufrir cambios estructurales rápidamente y, por lo tanto, servir como un sustrato para el aprendizaje. Se abren nuevos horizontes y caen "viejos" tópicos. José Carlos Dávila Cansino es Profesor Titular de Biología Celular en la Universidad de Málaga Fuente: http://www.encuentros.uma.es/encuentros63/neurogenesis.html -------------------------- (Editado para corregir los links a las fuentes)