gonnzaaa
Usuario

Luego de la finalización de las Guerra de las Malvinas, que enfrentó a Argentina e Inglaterra por la soberanía de las islas, la versión de que Chile había colaborado con los europeos estuvo siempre presente, hasta que se convirtió en una historia oficial en 1999. En dicho año, el ex Comandante de la Fuerza Aérea de Chile, Fernando Matthei reconoció haber ayudado a Inglaterra y contó detalles de las operaciones, luego de que Margaret Tatcher agradeciera públicamente la ayuda chilena, develando el secreto, no muy bien guardado. En 2005 Matthei volvió a ratificar que apoyó a los ingleses y dijo que en las mismas circunstancias volvería a hacer los mismo. Yo hice todo lo posible para que Argentina perdiera la guerra.- Fernando Matthei Según Matthei y la mayoría del pueblo chileno esto fue realizado con motivos defensivos, ya que en el hipotético caso de que Argentina venciera a Inglaterra en esta guerra el próximo objetivo sería Chile, indefenso militarmente y con quien se mantenían problemas de límites que estuvieron a punto de pasar a las armas en 1978. Se basaron en declaraciones de Galtieri al comenzar la guerra donde dijo que “este es sólo el primer paso” y luego se recuperarán los demás lugares que le pertenecen al país. ¿Cómo se realizó la ayuda chilena? Comenzada la guerra, llegó a tierras chilenas el Wing Commander (comandante de escuadrilla) Sidney Edwards con una carta del comandante el jefe de la Fuerza Aérea inglesa. Lo que los británicos necesitaban era información sobre nuestro desconocido militarmente país y luego de contar con la aprobación de Pinochet, Matthei se dispuso a colaborar. Esta ayuda se realizó a cambio de aviones Hawker Hunters, un radar de larga distancia, misiles antiaéreos, aviones Camberra de reconocimiento fotogramétrico a gran altura y también bombarderos. La información consistía en los movimientos de las tropas y despegues de aviones desde el continente hacia las islas y la llegada nuevamente de los mismos y era recogida por algunos aviones chilenos y por puestos desplegados en la frontera delimitada por la cordillera. Esos datos eran enviados a Santiago y luego Edwards lo hacía a sus superiores con dispositivos de alta tecnología para la época. Además en un incidente el ejército chileno protegió y envió nuevamente a Inglaterra a un grupo que se transladaba en un helicóptero que aterrizó de urgencia en Punta Arenas, tierra chilena. Esto fue parte de la abortada Operación Mikado. http://granimpetu.com/articulos/la-ayuda-chilena-a-inglaterra-en-la-guerra-de-las-malvinas
La primera máquina de calcular mecánica, un precursor del ordenador digital, fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar. El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos. La máquina analítica También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital moderna. La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro. Primeros ordenadores Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación. Ordenadores electrónicos Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico digital electrónico (ENIAC) en 1945. El ENIAC, que según mostró la evidencia se basaba en gran medida en el ‘ordenador’ Atanasoff-Berry (ABC, acrónimo de Electronic Numerical Integrator and Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde. El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador. A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata. Circuitos integrados A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio. HISTORIA DE LA COMPUTADORA Del Abaco a la tarjeta perforada EL ABACO; quizá fue el primer dispositivo mecánico de contabilidad que existió. Se ha calculado que tuvo su origen hace al menos 5000 años y su efectividad ha soportado la prueba del tiempo. LA PASCALINA; El inventor y pintor Leonardo Da Vencí (1452-1519) trazó las ideas para una sumadora mecánica. Siglo y medio después, el filósofo y matemático francés Balicé Pascal (1623-1662) por fin inventó y construyó la primera sumadora mecánica. Se le llamo Pascalina y funcionaba como maquinaria a base de engranes y ruedas. A pesar de que Pascal fue enaltecido por toda Europa debido a sus logros, la Pascalina, resultó un desconsolador fallo financiero, pues para esos momentos, resultaba más costosa que la labor humana para los cálculos artiméticos. LA LOCURA DE BABBAGE, Charles Babbage (1793-1871), visionario inglés y catedrático de Cambridge, hubiera podido acelerar el desarrollo de las computadoras si él y su mente inventiva hubieran nacido 100 años después. Adelantó la situación del hardware computacional al inventar la "máquina de diferencias", capaz de calcular tablas matemáticas. En 1834, cuando trabajaba en los avances de la máquina de diferencias Babbage concibió la idea de una "máquina analítica". En esencia, ésta era una computadora de propósitos generales. Conforme con su diseño, la máquina analítica de Babbage podía suma r, substraer, multiplicar y dividir en secuencia automática a una velocidad de 60 sumas por minuto. El diseño requería miles de engranes y mecanismos que cubrirían el área de un campo de futbol y necesitaría accionarse por una locomotora. Los escépticos l e pusieron el sobrenombre de "la locura de Babbage". Charles Babbage trabajó en su máquina analítica hasta su muerte. Los trazos detallados de Babbage describían las características incorporadas ahora en la moderna computadora electrónica. Si Babbage hubiera vivido en la era de la tecnología electrónica y las partes de precisión, hubiera adelantado el nacimiento de la computadora electrónica por varías décadas. Ironicamente, su obra se olvidó a tal grado, que algunos pioneros en el desarrollo de la computadora electrónica ignoraron por completo sus conceptos sobre memoria, impresoras, tarjetas perforadas y control de pro grama secuencia. LA PRIMERA TARJETA PERFORADA; El telar de tejido, inventado en 1801 por el Francés Joseph-Marie Jackard (1753-1834), usado todavía en la actualidad, se controla por medio de tarjetas perforadas. El telar de Jackard opera de la manera siguiente: las tarje tarjetas se perforan estratégicamente y se acomodan en cierta secuencia para indicar un diseño de tejido en particular. Charles Babbage quiso aplicar el concepto de las tarjetas perforadas del telar de Jackard en su motor analítico. En 1843 Lady Ada Augusta Lovelace sugirió la idea de que las tarjetas perforadas pudieran adaptarse de manera que propiciaran que el motor de Babbage repitiera ciertas operaciones. Debido a esta sugerencia algunas personas consideran a Lady Lovelace la primera programadora. Herman Hollerit (1860-1929) La oficina de censos estadounidense no terminó el censo de 1880 sino hasta 1888. La dirección de la oficina ya había llegado a la conclusión de que el censo de cada diez años tardaría mas que los mismo 10 años para terminarlo. La oficina de censos comisiono al estadística Herman Hollerit para que aplicara su experiencia en tarjetas perforadas y llevara a cabo el censo de 1890. Con el procesamiento de las tarjetas perforadas y el tabulador de tarjetas perforadas de Hollerit, el censo se terminó en sólo 3 a años y la oficina se ahorró alrededor de $5,000,000 de dólares. Así empezó el procesamiento automatizado de datos. Hollerit no tomó la idea de las tarjetas perforadas del invento de Jackard, sino de la "fotografía de perforación" Algunas líneas ferroviarias de la época expedían boletos con descripciones físicas del pasajero; los conductores hacían orificios en los boletos que describían el color de cabello, de ojos y la forma de nariz del pasajero. Eso le dió a Hollerith la idea para hacer la fotografía perforada de cada persona que se iba a tabular. Hollertih fundó la Tabulating Machine Company y vendió sus productos en todo el mundo. La demanda de sus máquinas se extendió incluso hasta Rusia. El primer censo llevado a cabo en Rusia en 1897, se registró con el Tabulador de Hollerith. En 1911, la Tabulating Machine Company, al unirse con otras Compañías, formó la Computing-Tabulating-Recording-Company.LASMAQUINAS ELECTROMECANICAS DE CONTABILIDAD (MEC) Los resultados de las máquinas tabuladoras tenían que llevarse al corriente por medios manuales, hasta que en 1919 la Computing-Tabulating-Recording-Company. anunció la aparición de la impresora/listadora. Esta innovación revolucionó la manera en que las Compañías efectuaban sus operaciones. Para reflejar mejor el alcance de sus intereses comerciales, en 1924 la Compañía cambió el nombre por el de international Bussines Machines Corporation (IBM) Durante décadas, desde mediados de los cincuentas la tecnología de las tarjetas perforadas se perfeccionó con la implantación de más dispositivos con capacidades más complejas. Dado que cada tarjeta contenía en general un registro (Un nombre, direcció n, etc) el procesamiento de la tarjeta perforada se conoció también como procesamiento de registro unitario. La familia de las máquinas electromecánicas de contabilidad (EAM) eloctromechanical accounting machine de dispositivos de tarjeta perforada comprende: la perforadora de tarjetas, el verificador, el reproductor, la perforación sumaria, el intérprete, e l clasificador, el cotejador, el calculador y la máquina de contabilidad. El operador de un cuarto de máquinas en una instalación de tarjetas perforadas tenía un trabajo que demandaba mucho esfuerzo físico. Algunos cuartos de máquinas asemejaban la actividad de una fábrica; las tarjetas perforadas y las salidas impresas se cambiaban de un dispositivo a otro en carros manuales, el ruido que producía eran tan intenso como el de una planta ensambladora de automóviles. Pioneros de la computación ATANASOFF Y BERRY Una antigua patente de un dispositivo que mucha genté creyó que era la primera computadora digital electrónica, se invalidó en 1973 por orden de un tribunal federal, y oficialmente se le dió el credito a John V. Atanasoff como el inventor de la computador a digital electrónica. El Dr. Atanasoff, catedrático de la Universidad Estatal de Iowa, desarrolló la primera computadora digital electrónica entre los años de 1937 a 1942. Llamó a su invento la computadora Atanasoff-Berry, ó solo ABC (Atanasoff Berry Com puter). Un estudiante graduado, Clifford Berry,fue una útil ayuda en la construcción de la computadora ABC. Algunos autores consideran que no hay una sola persona a la que se le pueda atribuir el haber inventado la computadora, sino que fue el esfuezo de muchas personas. Sin embargo en el antiguo edificio de Física de la Universidad de Iowa aparece una p laca con la siguiente leyenda: "La primera computadora digital electrónica de operación automática del mundo, fue construida en este edificio en 1939 por John Vincent Atanasoff, matemático y físico de la Facultad de la Universidad, quien concibió la idea, y por Clifford Edward Berry, estudiante graduado de física." Mauchly y Eckert, después de varias conversaciones con el Dr. Atanasoff, leer apuntes que describían los principios de la computadora ABC y verla en persona, el Dr. John W. Mauchly colaboró con J.Presper Eckert, Jr. para desarrollar una máquina que calcul ara tablas de trayectoria para el ejército estadounidense. El producto final, una computadora electrónica completamente operacional a gran escala, se terminó en 1946 y se llamó ENIAC (Electronic Numerical Integrator And Computer), ó Integrador numéric o y calculador electrónico. La ENIAC construida para aplicaciones de la Segunda Guerra mundial, se terminó en 30 meses por un equipo de científicos que trabajan bajo reloj. La ENIAC, mil veces más veloz que sus predecesoras electromecánicas, irrumpió como un importante descubrimiento en la tecnología de la computación. Pesaba 30 toneladas y ocupaba un espacio de 450 mts cuadrados, llenaba un cuarto de 6 m x 12 m y con tenía 18,000 bulbos, tenía que programarse manualmente conectándola a 3 tableros que contenían más de 6000 interruptores. Ingresar un nuevo programa era un proceso muy tedioso que requería días o incluso semanas. A diferencia de las computadoras actuales que operan con un sistema binario (0,1) la ENIAC operaba con uno decimal (0,1,2..9) La ENIAC requería una gran cantidad de electricidad. La leyenda cuenta que la ENIAC, construida en la Universidad de Pensilvania, bajaba las luces de Filadelfia siempre que se activaba. La imponente escala y las numerosas aplicaciones generales de la ENIAC señalaron el comienzo de la primera generación de computadoras. En 1945, John von Neumann, que había trabajado con Eckert y Mauchly en la Universidad de Pennsylvania, publicó un artículo acerca del almacenamiento de programas. El concepto de programa almacenado permitió la lectura de un programa dentro de la memoria d e la computadora, y después la ejecución de las instrucciones del mismo sin tener que volverlas a escribir. La primera computadora en usar el citado concepto fue la la llamada EDVAC (Eletronic Discrete-Variable Automatic Computer, es decir computadora aut omática electrónica de variable discreta), desarrollada por Von Neumann, Eckert y Mauchly. Los programas almacenados dieron a las computadoras una flexibilidad y confiabilidad tremendas, haciéndolas más rápidas y menos sujetas a errores que los programas mecánicos. Una computadora con capacidad de programa almacenado podría ser utilizada para v arias aplicaciones cargando y ejecutando el programa apropiado. Hasta este punto, los programas y datos podría ser ingresados en la computadora sólo con la notación binaria, que es el único código que las computadoras "entienden". El siguiente desarrollo importante en el diseño de las computadoras fueron los programas intérpretes, que permitían a las personas comunicarse con las computadoras utilizando medios distintos a los numeros binarios. En 1952 Grace Murray Hoper una oficial de la Marina de E.U., desarrolló el primer compilador, un programa que puede traducir enunciados parecidos al inglés en un código binario comprensible para la maquina llamado COBOL (COmmon Business-Oriented Langu aje). Generaciones de computadoras Primera Generación de Computadoras (de 1951 a 1958) Las computadoras de la primera Generación emplearon bulbos para procesar información. Los operadores ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápida mente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran mucho más grandes y generaban más calor que los modelos contemporáneos. Eckert y Mauchly contribuyeron al desarrollo de computadoras de la 1era Generación formando una Cia. privada y construyendo UNIVAC I, que el Comité del censó utilizó para evaluar el de 1950. La IBM tenía el monopolio de los equipos de procesamiento de datos a base de tarjetas perforadas y estaba teniendo un gran auge en productos como rebanadores de carne, básculas para comestibles, relojes y otros artículos; sin embargo no había logrado el c ontrato para el Censo de 1950. Comenzó entonces a construir computadoras electrónicas y su primera entrada fue con la IBM 701 en 1953. Después de un lento pero exitante comienzo la IBM 701 se conviertió en un producto comercialmente viable. Sin embargo en 1954 fuen introducido e l modelo IBM 650, el cual es la razón por la que IBM disfruta hoy de una gran parte del mercado de las computadoras. La administración de la IBM asumió un gran riesgo y estimó una venta de 50 computadoras. Este número era mayor que la cantidad de computadoras instaladas en esa época en E.U. De hecho la IBM instaló 1000 computadoras. El resto es historia. Aunque caras y de uso limitado las computadoras fueron aceptadas rápidamente por las Compañías privadas y de Gobierno. A la mitad de los años 50 IBM y Remington Rand se consolidaban como líderes en la fabricación de computadoras. Segunda Generación (1959-1964) Transistor Compatibilidad limitada El invento del transistor hizo posible una nueva generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. Sin embargo el costo seguia siendo una porción significativa del presupuesto de una Compañia. Las computadoras de la segunda generación también utilizaban redes de nucleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales pod podrian almacenarse datos e instrucciones. Los programas de computadoras también mejoraron. El COBOL desarrollado durante la 1era generación estaba ya disponible comercialmente. Los programas escritos para una computadora podían transferirse a otra con un mínimo esfuerzo. El escribir un programa ya no requería entender plenamente el hardware de la computación. Las computadoras de la 2da Generación eran substancialmente más pequeñas y rápidas que las de bulbos, y se usaban para nuevas aplicaciones, como en los sistemas para reservación en líneas aéreas, control de tráfico aéreo y simulaciones para uso general. Las empresas comenzaron a aplicar las computadoras a tareas de almacenamiento de registros, como manejo de inventarios, nómina y contabilidad. La marina de E.U. utilizó las computadoras de la Segunda Generación para crear el primer simulador de vuelo (Whirlwind I). HoneyWell se colocó como el primer competidor durante la segunda generación de computadoras. Burroughs, Univac, NCR, CDC, HoneyWell, los más grandes competidores de IBM durante los 60s se conocieron como el grupo BUNCH (siglas). Tercera Generación (1964-1971) circuitos integrados Compatibilidad con equipo mayor Multiprogramación Minicomputadora Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de silicio) en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes. Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexib ilidad de los programas, y estandarizar sus modelos. La IBM 360 una de las primeras computadoras comerciales que usó circuitos integrados, podía realizar tanto análisis numéricos como administración ó procesamiento de archivos. Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor tamaño y podían todavía correr sus programas actuales. Las computadoras trabajaban a tal velocidad que proporcionaban la capacidad de correr más de un programa de manera simultánea (multiprogramación). Por ejemplo la computadora podía estar calculando la nomina y aceptando pedidos al mismo tiempo. Minicomputadoras, Con la introducción del modelo 360 IBM acaparó el 70% del mercado, para evitar competir directamente con IBM la empresa Digital Equipment Corporation DEC redirigió sus esfuerzos hacia computadoras pequeñas. Mucho menos costosas de compra r y de operar que las computadoras grandes, las Minicomputadoras se desarrollaron durante la segunda generación pero alcanzaron su mayor auge entre 1960 y 70. La cuarta Generación (1971 a la fecha) * Microprocesador * Chips de memoria. * Microminiaturización Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de Chips de silicio y la colocación de muchos más componentes en un Chic: producto de la microminiaturi zación de los circuitos electrónicos. El tamaño reducido del microprocesador de Chips hizo posible la creación de las computadoras personales. (PC) Hoy en día las tecnologías LSI (Integración a gran escala) y VLSI (integración a muy gran escala) permiten que cientos de miles de componentes electrónicos se almacén en un clip. Usando VLSI, un fabricante puede hacer que una computadora pequeña rivalice con una computadora de la primera generación que ocupara un cuarto completo. Clasificación de las computadoras: * Supercomputadoras * Macrocomputadoras * Minicomputadoras * Microcomputadoras o PC´s Supercomputadoras : Una supercomputadora es el tipo de computadora más potente y más rápido que existe en un momento dado. Estas máquinas están diseñadas para procesar enormes cantidades de información en poco tiempo y son dedicadas a una tarea específica. Así mismo son las más caras, sus precios alcanzan los 30 MILLONES de dólares y más; y cuentan con un control de temperatura especial, ésto para disipar el calor que algunos componentes alcanzan a tener. Unos ejemplos de tareas a las que son expuestas las supercomputadoras son los siguientes: 1. Búsqueda y estudio de la energía y armas nucleares. 2. Búsqueda de yacimientos petrolíferos con grandes bases de datos sísmicos. 3. El estudio y predicción de tornados. 4. El estudio y predicción del clima de cualquier parte del mundo. 5. La elaboración de maquetas y proyectos de la creación de aviones,simuladores de vuelo. Etc. Debido a su precio, son muy pocas las supercomputadoras que se construyen en un año. Macrocomputadoras o Mainframes. macrocomputadoras : Las macrocomputadoras son también conocidas como Mainframes. Los mainframes son grandes, rápidos y caros sistemas que son capaces de controlar cientos de usuarios simultáneamente, así como cientos de dispositivos de entrada y salida. Los mainframes tienen un costo que va desde 350,000 dólares hasta varios millones de dólares. De alguna forma los mainframes son más poderosos que las supercomputadoras porque soportan más programas simultáneamente. PERO las sup ercomputadoras pueden ejecutar un sólo programa más rápido que un mainframe. En el pasado, los Mainframes ocupaban cuartos completos o hasta pisos enteros de algún edificio, hoy en día, un Mainframe es parecido a una hilera de archiveros en algún cuarto con piso falso, ésto para ocultar los cientos de cables d e los periféricos , y su temperatura tiene que estar controlada. Minicomputadoras : En 1960 surgió la minicomputadora, una versión más pequeña de la Macrocomputadora. Al ser orientada a tareas específicas, no necesitaba de todos los periféricos que necesita un Mainframe, y ésto ayudo a reducir el precio y costos de mantenimiento . Las Minicomputadoras , en tamaño y poder de procesamiento, se encuentran entre los mainframes y las estaciones de trabajo. En general, una minicomputadora, es un sistema multiproceso (varios procesos en paralelo) capaz de soportar de 10 hasta 200 usuarios simultáneamente. Actualmente se usan para almacenar grandes bases de datos, automatización industrial y aplicacio nes multiusuario. Microcomputadoras o PC´s microcomputadoras : Las microcomputadoras o Computadoras Personales (PC´s) tuvieron su origen con la creación de los microprocesadores. Un microprocesador es "una computadora en un chic", o sea un circuito integrado independiente. Las PC´s son computadoras para uso personal y relativamente son baratas y actualmente se encuentran en las oficinas, escuelas y hogares. El término PC se deriva de que para el año de 1981 , IBM®, sacó a la venta su modelo "IBM PC", la cual se convirtió en un tipo de computadora ideal para uso "personal", de ahí que el término "PC" se estandarizó y los clones que sacaron posteriormente otras empresas fueron llamados "PC y compatibles", usando procesadores del mismo tipo que las IBM , pero a un costo menor y pudiendo ejecutar el mismo tipo de programas. Existen otros tipos de microcomputadoras , como la Macintosh®, que no son compatibles con la IBM, pero que en muchos de los casos se les llaman también "PC´s", por ser de uso personal. En la actualidad existen variados tipos en el diseño de PC´s: Computadoras personales, con el gabinete tipo minitorre, separado del monitor. Computadoras personales portátiles "Laptop" o "Notebook". Computadoras personales más comunes, con el gabinete horizontal, separado del monitor. Computadoras personales que están en una sola unidad compacta el monitor y el CPU. Las computadoras "laptops" son aquellas computadoras que están diseñadas para poder ser transportadas de un lugar a otro. Se alimentan por medio de baterías recargables , pesan entre 2 y 5 kilos y la mayoría trae integrado una pantalla de LCD (Liquid Crys tal Display). Estaciones de trabajo o Workstations Las estaciones de trabajo se encuentran entre las Minicomputadoras y las macrocomputadoras (por el procesamiento). Las estaciones de trabajo son un tipo de computadoras que se utilizan para aplicaciones que requieran de poder de procesam iento moderado y relativamente capacidades de gráficos de alta calidad. Son usadas para: Aplicaciones de ingeniería CAD (Diseño asistido por computadora) CAM (manufactura asistida por computadora) Publicidad Creación de Software en redes, la palabra "workstation" o "estación de trabajo" se utiliza para referirse a cualquier computadora que está conectada a una red de área local. Hardware : * Entrada * Procesamiento * Almacenamiento Secundario * Salida Definición de Hardware: Hardware son todos aquellos componentes físicos de una computadora, todo lo visible y tangible. El Hardware realiza las 4 actividades fundamentales: entrada, procesamiento, salida y almacenamiento secundario. Entrada Para ingresar los datos a la computadora, se utilizan diferentes dispositivos, por ejemplo: Teclado Dispositivo de entrada más comunmente utilizado que encontramos en todos los equipos computacionales. El teclado se encuentra compuesto de 3 partes: teclas de función, teclas alfanuméricas y teclas numéricas. Mouse : Es el segundo dispositivo de entrada más utilizado. El mouse o ratón es arrastrado a lo largo de una superficie para maniobrar un apuntador en la pantalla del monitor. Fue inventado por Douglas Engelbart y su nombre se deriva por su forma la cual se asemeja a la de un ratón. Lápiz óptico : Este dispositivo es muy parecido a una pluma ordinaria, pero conectada a un cordón eléctrico y que requiere de un software especial. Haciendo que la pluma toque el monitor el usuario puede elegir los comandos de las programas. Tableta digitalizadora : Es una superficie de dibujo con un medio de señalización que funciona como un lápiz. La tableta convierte los movimientos de este apuntador en datos digitalizados que pueden ser leídos por ciertos paquetes de cómputo . Los tamaños varían desde tamaño carta hasta la cubierta de un escritorio. Entrada de voz (reconocimiento de voz) : Convierten la emisión vocal de una persona en señales digitales. La mayoría de estos programas tienen que ser "entrenados" para reconocer los comandos que el usuario da verbalmente. El reconocimiento de voz se usa en la profesión médica para permitir a los doctores compilar rápidamente reportes. Más de 300 sistemas Kurzweil Voicemed están instalados actualmente en más de 200 Hospitales en Estados Unidos. Este novedoso sistema de reconocimiento fónico utiliza tecnología de independencia del hablante. Esto significa que una computadora no tiene que ser entrenada para reconocer el lenguaje o tono de voz de una sola persona. Puede reconocer la misma palabra dicha por varios individuos. Pantallas sensibles al tacto (Screen Touch) : Permiten dar comandos a la computadora tocando ciertas partes de la pantalla. Muy pocos programas de software trabajan con ellas y los usuarios se quejan de que las pantallas están muy lejos del teclado. Su aceptación ha sido muy reducida. Algunas tiendas departamentales emplean este tipo de tecnología para ayudar a los clientes a encontrar los bienes o servicios dentro de la tienda. Lectores de código de barras Son rastreadores que leen las barras verticales que conforman un código. Esto se conoce como Punto de Venta (PDV). Las tiendas de comestibles utilizan el código Universal de Productos (CUP ó UPC). Este código i dentifica al producto y al mismo tiempo realiza el ticket descuenta de inventario y hará una orden de compra en caso de ser necesario. Algunos lectores están instalados en una superficie física y otros se operan manualmente. Scanners : Convierten texto, fotografías a color ó en Blanco y Negro a una forma que puede leer una computadora. Después esta imagen puede ser modificada, impresa y almacenada. Son capaces de digitalizar una página de gráficas en unos segund os y proporcionan una forma rápida, fácil y eficiente de ingresar información impresa en una computadora; también se puede ingresar información si se cuenta con un Software especial llamado OCR (Reconocimiento óptico de caracteres). Procesamiento : El CPU (Central Proccesor Unit) es el responsable de controlar el flujo de datos (Actividades de Entrada y Salida E/S) y de la ejecución de las instrucciones de los programas sobre los datos. Realiza todos los cálculos (suma, resta, multiplicación, divisi ón y compara números y caracteres). Es el "cerebro" de la computadora. Se divide en 3 Componentes 1.Unidad de Control (UC) 2.Unidad Aritmético/Lógica (UAL) 3.Área de almacenamiento primario (memoria) Unidad de control : Es en esencia la que gobierna todas las actividades de la computadora, así como el CPU es el cerebro de la computadora, se puede decir que la UC es el núcleo del CPU. Supervisa la ejecución de los programas Coordina y controla al sistema de cómputo, es decir, coordina actividades de E/S Determina que instrucción se debe ejecutar y pone a disposición los datos pedidos por la instrucción. Determina donde se almacenan los datos y los transfiere desde las posiciones donde están almacenado. Una vez ejecutada la instrucción la Unidad de Control debe determinar donde pondrá el resultado para salida ó para su uso posterior. Unidad Aritmético/Lógica : Esta unidad realiza cálculos (suma, resta, multiplicación y división) y operaciones lógicas (comparaciones). Transfiere los datos entre las posiciones de almacenamiento. Tiene un registro muy importante conocido co mo: Acumulador ACC Al realizar operaciones aritméticas y lógicas, la UAL mueve datos entre ella y el almacenamiento. Los datos usados en el procesamiento se transfieren de su posición en el almacenamiento a la UAL. Los datos se manipulan de acuerdo con las instrucciones del programa y regresan al almacenamiento. Debido a que el procesamiento no puede efectuarse en el área de almacenamiento, los datos deben transferirse a la UAL. Para terminar una operación puede suceder que los datos pasen de la UAL al área de almacenamient o varias veces. Área de almacenamiento Primario : La memoria da al procesador almacenamiento temporal para programas y datos. Todos los programas y datos deben transferirse a la memoria desde un dispositivo de entrada o desde el almacenamiento secundario ( disquete), antes de que los programas puedan ejecutarse o procesarse los datos. Las computadoras usan 2 tipos de memoria primaria: ROM (read only memory), memoria de sólo lectura, en la cual se almacena ciertos programas e información que necesita la computadora las cuales están grabadas permanentemente y no pueden ser modificadas por el programador. Las instrucciones básicas para arrancar una computadora están grabadas aquí y en algunas notebooks han grabado hojas de calculo, basic, etc. RAM (Random access memory), memoria de acceso aleatorio, la utiliza el usuario mediante sus programas, y es volátil. La memoria del equipo permite almacenar datos de entrada, instrucciones de los programas que se están ejecutando en ese momento, los dato s resultados del procesamiento y los datos que se preparan para la salida. Los datos proporcionados a la computadora permanecen en el almacenamiento primario hasta que se utilizan en el procesamiento. Durante el procesamiento, el almacenamiento primario almacena los datos intermedios y finales de todas las operaciones a ritméticas y lógicas. El almacenamiento primario debe guardar también las instrucciones de los programas usados en el procesamiento. La memoria está subdividida en celdas individuales cada una de las cuales tiene una capacidad similar para almacenar datos. Almacenamiento Secundario : El almacenamiento secundario es un medio de almacenamiento definitivo (no volátil como el de la memoria RAM). El proceso de transferencia de datos a un equipo de cómputo se le llama procedimiento de lectura. El proceso de transferencia de datos desde la computadora hacia el almacenamiento se denomina procedimiento de escritura. En la actualidad se pueden usar principalmente dos tecnologías para almacenar información: 1.- El almacenamiento Magnético. 2.-El almacenamiento Óptico. Algunos dispositivos combinan ambas tecnologías. Dispositivos de almacenamiento magnético : Almacenamiento Magnético 1.- Discos Flexibles 2.- Discos Duros 3.- Cintas Magnéticas o Cartuchos. Almacenamiento Óptico: La necesidad de mayores capacidades de almacenamiento han llevado a los fabricantes de hardware a una búsqueda continua de medios de almacenamiento alternativos y cuando no hay opciones, a mejorar tecnologías disponibles y desarrollar nuevas. Las técnicas de almacenamiento óptico hacen posible el uso de la localización precisa mediante rayos láser. Leer información de un medio óptico es una tarea relativamente fácil, escribirla es otro asunto. El problema es la dificultad para modificar la superficie de un medio óptico, ya que los medios ópticos perforan físicamente la superficie para reflejar o dis persar la luz del láser. Los principales dispositivos de almacenamiento óptico son: 1.- CD ROM.- CD Read Only Memory 2.- WORM.- Write Once, Read Many Medios Magnético - Ópticos: Estos medios combinan algunas de las mejores características de las tecnologías de grabación magnética y óptica. Un disco MO tiene la capacidad de un disco óptico, pero puede ser re-grabable con la facilidad de un disco magnético. Actualmente están disponibles en varios tamaños y capacidades. Salida Los dispositivos de salida de una computadora es el hardware que se encarga de mandar una respuesta hacia el exterior de la computadora, como pueden ser: los monitores, impresoras, sistemas de sonido, módem. etc. 1.- Monitores : El monitor ó pantalla de vídeo, es el dispositivo de salida más común. Hay algunos que forman parte del cuerpo de la computadora y otros están separados de la misma. Existen muchas formas de clasificar los monitores, la básica es en término de sus capacidades de color, pueden ser: Monocromáticos, despliegan sólo 2 colores, uno para el fondo y otro para la superficie. Los colores pueden ser blanco y negro, verde y negro ó ámbar y negro. Escala de Grises, un monitor a escala de grises es un tipo especial de monitor monocromático capaz de desplegar diferentes tonos de grises. Color: Los monitores de color pueden desplegar de 4 hasta 1 millón de colores diferentes. Conforme ha avanzado la tecnología han surgido los diferentes modelos: TTL, Monocromático, muy pobre resolución, los primeros no tenían capacidad de graficar. CGA, Color Graphics Adapter, desplegaba 4 colores, con muy pobre resolución a comparación de los monitores actuales, hoy en día fuera del mercado. EGA, Enhanced Graphics Adapter, manejaba una mejor resolución que el CGA, de 640x350 pixeles. (los pixeles son los puntos de luz con los que se forman los caracteres y gráficas en el monitor, mientras más pixeles mejor resolución). Desplegaban 64 colores. VGA, Vídeo Graphics Array, los hay monocromáticos y de color. Adecuados para ambiente gráfico por su alta resolución (640x480 pixeles), pueden llegar hasta 256,000 colores ó 64 tonalidades de gris dependiendo de la memoria destinada al dispositivo. PVGA, Super Vídeo Graphics Array, maneja una resolución más alta (1,024x768), el número de colores desplegables varía dependiendo de la memoria, pero puede ser mayor que 1 millón de colores. UVGA, Ultra Vídeo Graphics Array, Resolución de 1280 x 1024. La calidad de las imágenes que un monitor puede desplegar se define más por las capacidades de la Tarjeta controladora de vídeo, que por las del monitor mismo. El controlador de vídeo es un dispositivo intermediario entre el CPU y el monitor. El controlador contiene la memoria y otros circuitos electrónicos necesarios para enviar la información al monitor para que la despliegue en la pantalla. 2.- Impresoras : Dispositivo que convierte la salida de la computadora en imágenes impresas. Las impresoras se pueden dividir en 2 tipos: las de impacto y las de no impacto. IMPRESORAS DE IMPACTO: Una impresora que utiliza un mecanismo de impresión que hace impactar la imagen del carácter en una cinta y sobre el papel. Las impresoras de línea, de matriz de punto y de rueda de margarita son ejemplos de impresoras de i mpacto. Impresora de Matriz de puntos, es la impresora más común. Tiene una cabeza de impresión movible con varias puntillas o agujas que al golpear la cinta entintada forman caracteres por medio de puntos en el papel, Mientras mas agujas tenga la cabeza de impresión mejor será la calidad del resultado. Las hay de 10 y 15", las velocidades varían desde: 280 cps hasta 1,066 cps Impresoras de margarita; tiene la misma calidad de una máquina de escribir mediante un disco de impresión que contiene todos los caracteres, están de salida del mercado por lentas. Impresoras de Línea: Son impresoras de alta velocidad que imprimen una línea por vez. Generalmente se conectan a grandes computadoras y a Minicomputadoras. Las impresoras de línea imprimen una línea a la vez desde aproximadamente 100 a 5000 LPM. IMPRESORAS SIN IMPACTO: Hacen la impresión por diferentes métodos, pero no utilizan el impacto. Son menos ruidosas y con una calidad de impresión notoriamente mejor a las impresoras de impacto. Los métodos que utilizan son los siguientes: Térmicas: Imprimen de forma similar a la máquina de matriz, pero los caracteres son formados marcando puntos por quemadura de un papel especial. Vel. 80 cps. Los faxes trabajan con este método. Impresora de inyección de tinta: Emite pequeños chorros de tinta desde cartuchos desechables hacia el papel, las hay de color. Vel. de 4 a 7 ppm. Electrofotográficas o Láser: Crean letras y gráficas mediante un proceso de fotocopiado. Un rayo láser traza los caracteres en un tambor fotosensible, después fija el toner al papel utilizando calor. Muy alta calidad de resolución, velocidades de 4 a 18 ppm. Software : * Definición * Clasificación Sistemas Operativos * Lenguajes de Programación S. * De uso general S. D e aplicación Definición de Software: El software es el conjunto de instrucciones que las computadoras emplean para manipular datos. Sin el software, la computadora sería un conjunto de medios sin utilizar. Al cargar los programas en una computadora, la máquina actuará como si recibier a una educación instantánea; de pronto "sabe" cómo pensar y cómo operar. El Software es un conjunto de programas, documentos, procedimientos, y rutinas asociados con la operación de un sistema de computo. Distinguiéndose de los componentes físicos llamados hardware. Comúnmente a los programas de computación se les llama software; el software asegura que elprograma o sistema cumpla por completo con sus objetivos, opera con eficiencia, esta adecuadamente documentado, y suficientemente sencillo de operar. Es simp lemente el conjunto de instrucciones individuales que se le proporciona al microprocesador para que pueda procesar los datos y generar los resultados esperados. El hardware por si solo no puede hacer nada, pues es necesario que exista el software, que es el conjunto de instrucciones que hacen funcionar al hardware. Clasificaciones del Software : El software se clasifica en 4 diferentes Categorías: Sistemas Operativos, Lenguajes de Programación, Software de uso general, Software de Aplicación. (algunos autores consideran la 3era y 4ta clasificación como una sola). Sistemas Operativos : El sistema operativo es el gestor y organizador de todas las actividades que realiza la computadora. Marca las pautas según las cuales se intercambia información entre la memoria central y la externa, y determina las operaciones elementales que puede realizar el procesador. El sistema operativo, debe ser cargado en la memoria central antes que ninguna otra información. Lenguajes de Programación Mediante los programas se indica a la computadora que tarea debe realizar y cómo efectuarla , pero para ello es preciso introducir estas órdenes en un lenguaje que el sistema pueda entender. En principio, el ordenador sólo entiende las instrucciones en código máquina, es decir ,el específico de la computadora. Sin embargo, a partir de éstos se elaboran los llamados lenguajes de alto y bajo nivel. Software de Uso General : El software para uso general ofrece la estructura para un gran número de aplicaciones empresariales, científicas y personales. El software de hoja de cálculo, de diseño asistido por computadoras (CAD), de procesamiento de texto, de manejo de Bases de Datos, pertenece a esta categoría. La mayoría de software para uso general se vende como paquete; es decir, con software y documentación orientada al usuario ( manuales de referencia, plantillas de teclado y demás ). Software de aplicaciones : El software de aplicación esta diseñado y escrito para realizar tareas específicas personales,,empresariales o científicas como el procesamiento de nóminas, la administración de los recursos humanos o el control de inventarios. Todas éstas aplicacion es procesan datos (recepción de materiales) y generan información (registros de nómina). para el usuario. Sistemas Operativos Un sistema Operativo (SO) es en sí mismo un programa de computadora. Sin embargo, es un programa muy especial, quizá el más complejo e importante en una computadora. El SO despierta a la computadora y hace que reconozca a la CPU, la memoria, el tecla do, el sistema de vídeo y las unidades de disco. Además, proporciona la facilidad para que los usuarios se comuniquen con la computadora y sirve de plataforma a partir de la cual se corran programas de aplicación. Cuando enciendes una computadora, lo primero que ésta hace es llevar a cabo un autodiagnóstico llamado autoprueba de encendido (Power On Self Test, POST). Durante la POST, la computadora indentifica su memoria, sus discos, su teclado, su sistema de vídeo y cualquier otro dispositivo conectado a ella. Lo siguiente que la computadora hace es buscar un SO para arrancar (boot). Una vez que la computadora ha puesto en marcha su SO, mantiene al menos parte de éste en su memoria en todo momento. Mientras la computadora esté encendida, el SO tiene 4 tareas principales. 1.Proporcionar ya sea una interfaz de línea de comando o una interfaz gráfica al usuario, para que este último se pueda comunicar con la computadora. Interfaz de línea de comando: tú introduces palabras y símbolos desde el teclado de la computadora, ejemplo, el MS-DOS. Interfaz gráfica del Usuario (GUI), seleccionas las acciones mediante el uso de un Mouse para pulsar sobre figuras llamadas iconos o seleccionar opciones de los menús. 2.Administrar los dispositivos de hardware en la computadora. Cuando corren los programas, necesitan utilizar la memoria, el monitor, las unidades de disco, los puertos de Entrada/Salida (impresoras, módems, etc). El SO sirve de intermediario entre los programas y el hardware. 3.Administrar y mantener los sistemas de archivo de disco · Los SO agrupan la información dentro de compartimientos lógicos para almacenarlos en el disco. Estos grupos de información son llamados archivos. Los archivos pueden contener instrucciones de programas o información creada por el usuario. El SO mantiene una lista de los archivos en un disco, y nos proporciona las herramientas necesarias para organizar y manipular estos archivos. 4.Apoyar a otros programas. Otra de las funciones importantes del SO es proporcionar servicios a otros programas. Estos servicios son similares a aquellos que el SO proporciona directamente a los usuarios. Por ejemplo, listar los archivos, grabarlos a disco, eliminar archivos, revisar espacio disponible, etc. Cuando los programadores escriben programas de computadora, incluyen en sus programas instrucciones que solicitan los servicios del SO. Estas instrucciones son conocidas como "llamadas del sistema" El Kernel y el Shell : Las funciones centrales de un SO son controladas por el núcleo (kernel) mientras que la interfaz del usuario es controlada por el entorno (shell). Por ejemplo, la parte más importante del DOS es un programa con el nombre "COMMAND.COM" Este programa ti ene dos partes. El kernel, que se mantiene en memoria en todo momento, contiene el código máquina de bajo nivel para manejar la administración de hardware para otros programas que necesitan estos servicios, y para la segunda parte del COMMAND.COM el s hell, el cual es el interprete de comandos. Las funciones de bajo nivel del SO y las funciones de interpretación de comandos están separadas, de tal forma que puedes mantener el kernel DOS corriendo, pero utilizar una interfaz de usuario diferente. Esto es exactamente lo que sucede cuando carga s Microsoft Windows, el cual toma el lugar del shell, reemplazando la interfaz de línea de comandos con una interfaz gráfica del usuario. Existen muchos shells diferentes en el mercado, ejemplo: NDOS (Norton DOS), XTG, PCTOOLS, o inclusive el mismo SO MS-DOS a partir de la versión 5.0 incluyó un Shell llamado DOS SHELL. Categorías de Sistemas OperativosMULTITAREA : El término multitarea se refiere a la capacidad del SO para correr más de un programa al mismo tiempo. Existen dos esquemas que los programas de sistemas operativos utilizan para desarrollar SO multitarea. El primero requiere de la cooperación entre el SO y los programas de aplicación. Los programas son escritos de tal manera que periódicamente inspeccionan con el SO para ver si cualquier otro programa necesita a la CPU, si este es el caso, entonces dejan el control del CPU al siguiente programa, a este método se le llama multitarea coo perativa y es el método utilizado por el SO de las computadoras de Machintosh y DOS corriendo Windows de Microsoft. El segundo método es el llamada multitarea con asignación de prioridades. Con este esquema el SO mantiene una lista de procesos (programas) que están corriendo. Cuando se inicia cada proceso en la lista el SO le asigna una prioridad. En cualquier momen to el SO puede intervenir y modificar la prioridad de un proceso organizando en forma efectiva la lista de prioridad, el SO también mantiene el control de la cantidad de tiempo que utiliza con cualquier proceso antes de ir al siguiente. Con multitare a de asignación de prioridades el SO puede sustituir en cualquier momento el proceso que esta corriendo y reasignar el tiempo a una tarea de mas prioridad. Unix OS-2 y Windows NT emplean este tipo de multitarea. MULTIUSUARIO : Un SO multiusuario permite a mas de un solo usuario accesar una computadora. Claro que, para llevarse esto a cabo, el SO también debe ser capaz de efectuar multitareas. Unix es el Sistema Operativo Multiusuario más utilizado. Debido a que Unix fue originalmente diseñado para correr en una minicomputadora, era multiusuario y multitarea desde su concepción. Actualmente se producen versiones de Unix para PC tales como The Santa Cruz Corporation Microport, Esix, IBM,y Sunsoft. Apple también produce una versión de Unix para la Machintosh llamada: A/UX.Unix , Unix proporciona tres maneras de permitir a múltiples personas utilizar la misma PC al mismo tiempo. 1.Mediante Módems. 2.Mediante conexión de terminales a través de puertos seriales 3.Mediante Redes. MULTIPROCESO : Las computadoras que tienen más de un CPU son llamadas multiproceso. Un sistema operativo multiproceso coordina las operaciones de la computadoras multiprocesadoras. Ya que cada CPU en una computadora de multiproceso puede estar ejecutando una instrucción, el otro procesador queda liberado para procesar otras instrucciones simultáneamente. Al usar una computadora con capacidades de multiproceso incrementamos su velocidad de respuesta y procesos. Casi todas las computadoras que tienen capacidad de multiproceso ofrecen una gran ventaja. Los primeros Sistemas Operativos Multiproceso realizaban lo que se conoce como: Multiproceso asimétrico: Una CPU principal retiene el control global de la computadora, así como el de los otros procesadores. Esto fue un primer paso hacia el multiproceso pero no fue la dirección ideal a seguir ya que la CPU principal podía conv ertirse en un cuello de botella. Multiproceso simétrico: En un sistema multiproceso simétrico, no existe una CPU controladora única. La barrera a vencer al implementar el multiproceso simétrico es que los SO tienen que ser rediseñados o diseñados desde el principio para trabajar en u n ambiente multiproceso. Las extensiones de Unix, que soportan multiproceso asimétrico ya están disponibles y las extensiones simétricas se están haciendo disponibles. Windows NT de Microsoft soporta multiproceso simétrico. Sistemas Operativos más comunes : MS-DOS Es el más común y popular de todos los Sistemas Operativos para PC. La razón de su continua popularidad se debe al aplastante volumen de software disponible y a la base instalada de computadoras con procesador Intel. Cuando Intel liberó el 80286, D OS se hizo tan popular y firme en el mercado que DOS y las aplicaciones DOS representaron la mayoría del mercado de software para PC. En aquel tiempo, la compatibilidad IBM, fue una necesidad para que los productos tuvieran éxito, y la "compatibilidad IBM" significaba computadoras que corrieran DOS tan bien como las computadoras IBM lo hacían.80186 Después de la introducción del procesador Intel 80286, IBM y Microsoft reconocieron la necesidad de tomar ventaja de las capacidades multitarea de esta CPU. Se unieron para desarrollar el OS/2, un moderno SO multitarea para los microprocesadores Intel. < BR>Sin embargo, la sociedad no duró mucho. Las diferencias en opiniones técnicas y la percepción de IBM al ver a Windows como una amenaza para el OS/2 causó una desavenencia entre las Compañías que al final las llevó a la disolución de la sociedad. IBM continuó el desarrollo y promoción del OS/2. Es un sistema operativo de multitarea para un solo usuario que requiere un microprosesador Intel 286 o mejor. Además de la multitarea, la gran ventaja de la plataforma OS/2 es que permite manejar directamente hasta 16 MB de la RAM ( en comparación con 1 MB en el caso del MS-DOS ). Por otra parte, el OS/2 es un entorno muy complejo que requiere hasta 4 MB de la RAM. Los usuarios del OS/2 interactuan con el sistema mediante una interfaz gráfica para usuario llamada Administrador de presentaciones. A pesar de que el OS/2 rompe la barrera de 1 MB del MS-DOS, le llevo tiempo volverse popular. Los vendedores de software se muestran renuentes a destinar recursos a la creación de un software. VIRUS : * virus del sector inicialización * virus infectante de archivos * caballo de trolla * bombas de tiempo * mutantes Son programas diseñados para multiplicarse y pro pagarse sin dar indicios de su existencias los virus electrónicos pueden producir una variedad de sintomas en sus receptores. Algunos virus se multiplican sin causar cambios obios, los virus malintencionados pueden producior ruidos extraños o presentar mensajes de mal gusto en la pantalla. En los casos extremos pueden borrar archivos o discos duros. Los virus se propagan de varias maneras, algunos se duplican cuando se habre un archivo infectado. Otros infectan la parte de un disco duro que contro la parte del equipo y luego infectan otros discos a los que se absede. Un virus que ha infectado un disco podrá propagarse en otros que contengan información como programas. CLASIFICACIÓN DE LOS VIRUS : 1. Los virus del sector inicializacion : El sector inicialización es la parte del disco duro que controla el inicio del sistema operativo cuando prendamos la cp. 2. virus infectados :Una vez que se activa este virus, se propagara a todos los archivos del programa. 3. caballos de troYa :Este virus se disfraza como un programa legal puede dañar el equipo, los archivos o el disco duro. Los caballos de trolla son los mas capacitados para destruir los archivos. 4. bombas de tiempo ermanen ocultos hasta que la cp. Cumpla con ciertos requisitos como la hora y fecha determinada. 5. mutantes :Estos virus cambian de forma al pasar de un disco a otro o de un archivo a otro, es difícil detectarlos y erradicarlos. WINDOWS: Es un soporte físico grafico de trabajo que funciona con muchas aplicacines diseñadas específicamente para el. Sus características principales el la facultad de las aplicaciones para que los usuarios trabajen de manera sencilla y agradable. En el ambiente weindows se hace referencia a la panalla como si fuera un escritorio, las funciones se presentan en áreas se denominan ventanas. Windows ofrece una barra de tares en el cual se acomodan los archivos que tenemos abiertos pero que en un momento dado nos estorbarian, windows se compone de muchas ventanas. word: Microsoft Word es un programa diseñado para la comodidadd del usuario con demaciadas aplicaciones, en word se manejan doumentos de texto. Los requerimientos de microsoft Word son los sig : 1. Windows 3.1, win 95 2. 4 megas de ram (recomenddo 8 megas) 3. 480 40 MH2 (recomendado pentrium) 4. teclado 5. maus recomendado 6. monitor En word se encuentra una aplicación capas de copiar y luego pegar los documentos que se hayan repetidos, y las viñetas es otra aplicación de microsoft Word que nos sirve para acomodar correctamente los datos que lo requieran. Fuente:

Registrate y eliminá la publicidad! ¿Por qué bostezamos? Bostezamos o vemos bostezar a alguien todos los días, en el bondi a primera hora de la mañana, en la aburrida clase de última hora, en la reunión interminable de la tarde, nada más levantarnos… O incluso nos sorprendemos a nosotros mismos bostezando tras ver a alguien que lo estaba haciendo. Y aún con lo rutinario del fenómeno no sabemos casi nada sobre él. Se han realizado algunas investigaciones pero lo único que se ha podido sacar a la luz han sido varias teorías que no acaban de dar una explicación coherente de este singular comportamiento. Y es que, mientras que el bostezo no se convierta en un problema, seguirá siendo investigado como una mera curiosidad. Y las curiosidades, en ciencia y más aún en medicina, suponen más gastos que beneficios económicos. Sencillamente no se ha investigado más de lo que se ha hecho hasta ahora porque no hay interés económico en ello. Es triste, pero es así, muchas de las investigaciones se mueven por dinero. ¿Qué significado y qué utilidad puede tener este fenómeno tan normal y a la vez tan desconocido para nosotros? ¿Por qué es contagioso? No es sólo en la especie humana en la que observamos esta conducta tan peculiar, en muchos animales también lo vemos (ya sean reptiles, aves o mamíferos). Pero vayamos por partes. Antes de preguntarnos por qué bostezamos deberíamos respondernos antes a otra pregunta que nos pasa desapercibida y es en qué consiste el bostezo. ¿Qué es el bostezo? Todo comienza con un pequeño estímulo; ya sea por el aburrimiento, el cansancio, durante el despertar o al ver a alguien bostezar. La mayoría de bostezos ocurren al despertar o al acostarse. Pero lo que no todo el mundo sabe es que la hipoxia (la falta de oxígeno en los tejidos del cuerpo) puede desencadenar también un bostezo. Además, se sabe que los fetos de alrededor de 20 semanas de gestación ya bostezan. Ahora mismo, gran parte de la gente que se encuentre leyendo este artículo bostezará o ya habrá bostezado y, quitando el hecho de que a alguien le pueda parecer aburrido, se deberá al simple hecho de mencionarlo. Yo he bostezado más de 5 veces al escribir el artículo (sin contar los que he hecho a propósito para analizar anatómicamente el fenómeno)… Tras este estímulo comienza un proceso que tiene componentes voluntarios e involuntarios. Este estímulo produce una respuesta en la formación reticular, en una región inferior del cerebro, que lleva a cabo actividades inconscientes pero que a su vez se haya conectado con otras regiones del cerebro “consciente”. Actúa como un regulador de la sensibilidad y de la contracción muscular voluntaria e involuntaria, de los ciclos de vigilia y sueño, del sistema endocrino… A grandes rasgos, la formación reticular sería nuestro cerebrito inconsciente que regula gran cantidad de procesos sin darnos cuenta pero que a su vez va de la mano del cerebro consciente interrelacionándose entre ellos. Y una de las tareas de las que se encarga la formación reticular es el bostezo. La formación reticular, junto con otras estructuras neurológicas, responden ante los estímulos anteriormente comentados con un reflejo semi-involuntario. Produce una inspiración profunda en la cual la boca se abre ampliamente, tanto, que la mandíbula baja mucho más de lo normal (¿a quién no le ha crujido alguna vez la mandíbula al bostezar?),la lengua se extiende hacia abajo y la faringe se dilata. Al mismo tiempo los ojos se cierran. Gracias a esa inspiración profunda se produce el paso de un gran volumen de aire hacia los pulmones, hasta llenarlos prácticamente al completo de aire. A los pocos segundos, se produce una espiración rápida para expulsar el aire. Todo este proceso suele durar una media de seis segundos. En el bostezo intervienen además otras áreas como la corteza cerebral y áreas del cerebelo. Los pulmones deben estar preparados para recibir tal cantidad de aire. Por eso, el diafragma y los músculos abdominales (implicados en la respiración) están relajados mientras ello ocurre. Permiten que los pulmones puedan expandirse tranquilamente. También se sabe que la dopamina y la acetilcolina, entre otros, intervienen en el bostezo al actuar sobre el hipotálamo. ¿Por qué bostezamos? Una amplia variedad de hipótesis se manejan para contestar a esta pregunta. Sin embargo, ninguna por sí misma aporta una respuesta completa y rotunda. Pasarán años hasta que sepamos con seguridad a qué se debe exactamente. Estas teorías son las más defendidas actualmente: Teoría 1: Niveles bajos de oxígeno Esta explicación es la más extendida y es la única que se explica a los estudiantes de medicina para resumir y simplificar el fenómeno (lo que estoy haciendo ahora se le podría llamar una ampliación extracurricular). Cuando nos encontramos aletargados, aburridos o cansados, respiramos menos profundamente que de forma normal. Usamos un porcentaje pequeño de la capacidad de nuestros pulmones y, por tanto, de los alveolos (similares a sacos de aire). Estos alveolos se colapsan o retraen parcialmente cuando dejan de recibir aire (imaginemos como si fueran globos), lo que conlleva que haya un intercambio menor de oxígeno y dióxido de carbono entre la sangre y los alveolos. A la larga el cuerpo detecta estas pequeñas bajadas de oxígeno y aumentos de dióxido de carbono en sangre y responde con un bostezo. Así se expanden los alveolos, en cuestión de segundos, con una gran bocanada de aire y los niveles de estas moléculas en sangre se vuelven a estabilizar. Sin embargo, esta teoría tiene una pega. Se detectaron fetos de doce semanas que bostezaban (movimiento de bostezo fetal) y ellos no utilizan los pulmones hasta que nacen. La forma en la que ellos obtienen el oxígeno y expulsa el dióxido de carbono es a través del cordón umbilical. Este movimiento de bostezo fetal, en el cual la boca se encontraba ampliamente abierta, es bastante diferente a otros que podrían confundirse, como un movimiento rápido de tragar u otro más prolongado, como mantener la boca abierta durante alrededor de dos minutos. Los que defienden esta teoría dicen que hay demasiadas variaciones en las observaciones cómo para considerarlas auténticos bostezos y que, además, los fetos retraen la lengua en lugar de extenderla, como hacen los adultos. Teoría 2: Transición biológica del Cuerpo Esta teoría explicaría el supuesto bostezo fetal ya que le ayudaría a mantener un equilibrio con el líquido amniótico. En los adultos, el bostezo se produciría en la transición de un estado de alerta a uno de sueño y viceversa. No es raro comprobar como muchos deportistas antes de competiciones importantes o incluso de políticos justo antes de dar conferencias o entrevistas, bostezan. Y ni qué decir tiene lo que ocurre cuando nos vamos quedando aletargados por cualquier actividad carente de interés, el bostezo no tarda en hacer acto de presencia. La razón de este comportamiento tendría unos orígenes evolutivos. El bostezo sería el resultado de la sincronización de nuestro comportamiento con estos cambios de alerta. Por ejemplo, tras un bostezo podemos incrementar nuestra tensión arterial y nuestra frecuencia cardiaca un 30%. De esta forma, no sólo nosotros conseguiríamos ser más conscientes de nuestro estado de alerta, sino que a su vez podríamos comunicarlo al resto del grupo con un simple gesto. Y, eso, a su vez está relacionado con el carácter contagioso de éste. Teoría 3: Gesto de Intimidación De las teorías mencionadas hasta ahora, esta es la menos probable. Al igual que la teoría de transición biológica tendría un significado evolutivo. El bostezo se convertiría en un acto intimidatorio al mostrar los dientes a los individuos que le rodeaban, hace miles de años. El efecto contagioso de este fenómeno vendría a ser una respuesta refleja y vestigial a la intimidación provocada. Si nos pusiéramos en situación el bostezo sería un inconsciente: “Mira qué dientes tengo” mientras que la respuesta a éste con un nuevo bostezo por parte de otro individuo significaría un inconsciente: “Mira qué dientes tengo yo también”. Esta teoría explicaría por qué determinados animales bostezan, pero en el ser humano sería un mero reflejo vestigial (actualmente nuestros dientes distan mucho de ser intimidantes) o simplemente no tener nada que ver en ese sentido. Es difícil creer que cada vez que bostezamos estemos implícitamente intimidando o retando a los demás. Sabiendo sobre el bostezo, cómo se produce y qué causas podrían provocar que éste se diera. Aún queda mucho por saber, pero los misterios no terminan ahí, el carácter contagioso del fenómeno es algo aún más enigmático. El bostezo es algo que se da en gran cantidad de animales, desde peces hasta mamíferos. Sin embargo, sólo se produce el contagio del bostezo única y exclusivamente en el ser humano y en chimpancés. ¿Por qué sólo esas dos especies desarrollan esa característica extra? ¿Podría significar eso que le hemos aportado un significado interpersonal sin darnos cuenta? ¿O acaso éste estuvo presente desde el principio y ha permanecido junto a nosotros como un mero reflejo vestigial? Creo que la mejor forma de acercarnos a responder a esas preguntas es dando un repaso a las teorías que podrían explicar éste carácter contagioso y, a su vez, conocer más de cerca el papel que desempeña el bostezo en otros animales. Básicamente, comprender mejor el fenómeno al contrastarlo entre especies y poder distinguir su posible significado social del puramente biológico. ¿Por qué el bostezo es contagioso? Gran parte de los lectores lo comprobaron al leer la anterior entrada sobre el tema. Al ver las fotografías del bebé o del leopardo bostezando, terminaron ellos haciendo lo mismo. Y si alguien se había resistido a ello, algún otro terminó por hacerlo durante la lectura del artículo. Ahora bien, tampoco es algo infalible, también hubo personas que no sintieron el impulso de bostezar. Estudios realizados en personas comprobaron que alrededor de un 50% de ellas terminaban bostezando tras ver videos de otras personas que también bostezaban o sólo por el hecho de oír a alguien hablar sobre el bostezo. Y eso no termina ahí, leer o pensar en bostezos también lo desencadena. Incluso los ciegos, cuando oían bostezar a alguien en grabaciones, también lo hacían. Todo ello indica que el contagio es algo que se produce en todas las personas en algún momento. Pero, ¿desde cuándo exactamente? Hace tres años, dos psicólogos realizaron un curioso experimento sobre niños cuya edad iba desde los 2 a los 11 años. En sí, el planteamiento era muy sencillo. A los niños se les hacía dos pruebas básicas: -Se les ponían videos de gente que aparecía bostezando. -Se les alentaba a leer o escuchar una historia sobre los bostezos. Después todo era cuestión de observar atentamente a las personas y ver cuales llegaban a bostezar y cuales no. Los resultados fueron, cuanto menos, sorprendentes: Los videos de bostezos no provocaban nada en niños con menos de 5 años, y las lecturas o escuchas de historias sobre bostezos tampoco desencadenaban nada en niños con menos de 6 años. Conforme la edad del niño aumentaba, las probabilidades de reaccionar con un bostezo eran mayores. (Cualquiera que desee corroborar los resultados y tenga algún niño pequeño a su cuidado puede comprobarlo fácilmente, imite un bostezo lo más disimulada y espontáneamente que pueda y observe la reacción.) Si el bostezo espontáneo aparece desde el embrión de 12 semanas y sólo el bostezo por contagio aparece a partir de los 5 años, debe haber un papel social además del biológico. La pregunta del millón es: ¿Qué papel social desempeña exactamente? Esta pregunta va irremediablemente ligada a la causa del carácter contagioso del bostezo. Si supiéramos la causa podríamos conocer el papel social y viceversa, si conociéramos el papel social podríamos deducir la causa. Actualmente hay tres teorías que intentan esclarecer esta causa. Pero, como veremos a continuación, alguna se contradice con los hechos comentados anteriormente. Pasemos, pues, a explicarlas: 1-Teoría Fisiológica (Basada en la Teoría de los Niveles de Oxígeno comentada en la primera parte) Según esta teoría, como el bostezo se produce por una disminución de la concentración de oxígeno y el aumento de dióxido de carbono en sangre, sería lógico pensar que si hay una gran cantidad de personas reunidas en una sala y alguna empieza a bostezar (debido a una alteración de los gases) habrá más gente que bostece por encontrarse en las mismas condiciones. Es decir, si una persona bosteza porque la sala tiene unos niveles de oxígeno ligeramente inferiores, es normal que las personas que se encuentren allí también bostecen. Sin embargo, esta teoría es fácilmente refutable: Primero, porque se realizó un experimento con personas en salas en las que los niveles de oxígeno se aumentaban más de lo normal. El resultado: La frecuencia de los bostezos no variaba con respecto a salas en los que los niveles de oxígeno eran normales o inferiores. Segundo, no explicaría por qué en niños con menos de 5 años, independientemente del lugar, nunca se contagian con los bostezos. Si la causa fuera el oxígeno, ellos también se verían afectados y bostezarían. Tercero, no explica por qué los videos, las lecturas, las escuchas sobre bostezos provocan un contagio de éstos en gente con una edad superior a seis años. Así que creo que esta teoría podemos dejarla como descartada en cuanto al papel contagioso (que no tiene por qué ir en contra de una causa biológica del bostezo, en un principio). 2-Teoría del Aburrimiento(Relacionada con la teoría de la Transición Biológica del Cuerpo descartando su papel social) Si un grupo de personas se encuentra ante una misma situación aburrida, es normal que varios individuos terminen bostezando. Puesto que es el cambio en el estado de alerta lo que provoca el bostezo, si varios individuos cambian a un estado de menor atención no tardarán en aparecer varios bostezos en el grupo. Esta teoría es más probable que la anterior. Explicaría por qué en algunas situaciones la gente comienza bostezar frecuentemente sin ni siquiera haber visto a otras personas hacerlo. Pero, al igual que la teoría anterior, no explica por qué se contagia en fotos, videos, lecturas o escuchas de bostezos. 3-Teoría Intimidatoria(Relacionada con la teoría del Gesto de Intimidación) El bostezo fue en sus inicios un signo de comunicación con un sentido intimidatorio y territorial. Con el paso de miles de años y que nuestros dientes fueran haciéndose cada vez menos “intimidantes” fueron perdiendo este sentido y han quedado como un mero reflejo vestigial al igual que cuando se nos eriza la piel en situaciones de furia o miedo. Esta teoría explicaría entonces por qué se contagia el bostezo por cualquier medio audiovisual pero no daría una explicación convincente a por qué entonces el bostezo se produce sobre todo en las horas cercanas a acostarse o despertarse. Si fuera un gesto intimidatorio no tendría sentido que se produjera en esas situaciones. En cambio, los bostezos que se producen en babuinos sí tienen un sentido intimidatorio y se dan sobre todo en los machos antes de una pelea. Ellos, además, tienen unos colmillos lo suficientemente desarrollados como para ser bastante intimidatorios: Tan sólo podría ser plausible si este gesto intimidatorio estuviera relacionado con un gesto del estado de alerta del individuo. 4-Teoría de la Mente (Evolucionaria)(Relacionada con la teoría de la Transición Biológica del Cuerpo junto su papel social) La más fiable y que explica todos los datos mencionados anteriormente. Pero para que esta teoría se posicione como la única y definitiva se tienen que realizar aún más estudios que la refuercen. Cuando la persona pasa del aburrimiento a un estado de alerta o viceversa, lo comunica inconscientemente a través de un bostezo para que los de alrededor se den por enterados y puedan actuar en consecuencia con otro bostezo. Hace miles de años este signo podría haber tenido una gran importancia a la hora de coordinar las horas de sueño o de despertar en el grupo. Por tanto, se trataría de un acto de comunicación con un papel social importante. Esto explicaría por qué en niños con menos de cinco años no se contagian con los bostezos pero sí que bostezan por sí mismos. Ellos pasan, al igual que los adultos, por estados diferentes de alerta pero, la gran diferencia es que aún no han aprendido ni asimilado inconscientemente el significado comunicativo que posee el bostezo. No han desarrollado la empatía suficiente ni tampoco son conscientes de sí mismos (un niño con menos de dos años no se reconoce en el espejo). Esta teoría explicaría además por qué se produce una mayor frecuencia de bostezos en personas más conscientes de sí mismas y que desarrollan una mayor empatía hacia los demás. Y, también explicaría por qué sólo los humanos y los chimpancés desarrollan el bostezo contagioso. Son dos especies que han desarrollado una complejidad social superior al resto de especies, con una empatía y una consciencia de sí mismo. (Aún tengo que asegurarme de si hay estudios de bostezos en delfines, porque quizás en ellos también puede producirse…). Aquí hay un video de un estudio que se realizó en chimpancés y dónde se puede ver claramente como ellos también se contagian por los bostezos. Mientras que en humanos el porcentaje de contagio de bostezos es alrededor del 50%, en chimpancés es del 33%. Además, esta teoría aportaría sentido a por qué en personas esquizofrénicas o con autismo (dónde hay una merma de la capacidad de comunicación y empatía) el bostezo por contagio está prácticamente anulado. También abarcaríamos con esta teoría la del aburrimiento. Y por qué se producen los bostezos sobre todo a la hora de acostarse y despertarse. Personalmente y, sin lugar a dudas, me quedo con esta última teoría. Es, con diferencia, la que mejor explica todo y no tiene, hasta ahora, ningún dato que la contradiga. Evidentemente hay muchas más teorías, pero están poco desarrolladas y son menos probables que las tres primeras. aaaaauh me dieron ganas de bostezar mirando estas imagenes las imagenes no se ven pero las pueden encontrar aca http://knuttz.net/hosted_pages/Yawmn-20070305 espero que los haya hecho bostezar un poco, y tambien que les haya interesado este tema. saludos Fuentes: Textos: http://medtempus.com/archives/%C2%BFpor-que-bostezamos-parte-i/ http://medtempus.com/archives/%C2%BFpor-que-bostezamos-parte-ii/ Imagenes: http://knuttz.net/hosted_pages/Yawmn-20070305
Registrate y eliminá la publicidad! Cerca de 50 mil argentinos mueren anualmente por motivos asociados al consumo de tabaco, una adicción que empieza en el 45 por ciento de los casos entre los 12 y 13 años y es la segunda causa de fallecimiento entre los adultos. Así se advirtió en informes de la Organización Mundial de la Salud (OMS) y agrupaciones locales en lucha contra el tabaquismo, con motivo de celebrarse mañana el "Día Mundial Sin Tabaco". A nivel mundial, el tabaco se cobró la vida de 4.900.000 personas en 2002, de acuerdo con estadísticas de la OMS, entidad que advirtió que esa cifra puede aumentar a 10 millones en el año 2030 si no se logra una reducción del consumo de cigarrillos. Las cifras intentan concientizar a la población, sobre los perjuicios que ocasiona el consumo de cigarrillos. La OMS centró el día Mundial Sin Tabaco 2005 en el papel fundamental que ejercen los profesionales de la salud en el control del tabaco, reconociendo su posición e influencia. En ese sentido, consideró que ellos pueden proveer consejo, orientación y respuestas a las preguntas relacionadas con las consecuencias del uso del tabaco y la exposición pasiva al humo. Estudios médicos señalaron que los fumadores tienen 10 veces más riesgo de desarrollar cáncer de pulmón que los no fumadores y que el tabaco duplica el peligro de enfermedades cardíacas. Raquel Fisch, presidente de la Asociación Antitabáquica Sin Pucho, puntualizó que en Argentina "mueren alrededor de 137 personas por día" a causa del cigarrillo, es decir "cerca de 50 mil personas, lo que equivale a cinco por hora". Un cigarrillo emana 4.500 sustancias nocivas y las consecuencias del tabaquismo pasivo -respirar el humo del tabaco- puede provocar abortos espontáneos, bebés que nacen con bajo peso, tumores y mayor incidencia de la muerte súbita entre lactantes. Fuentes médicas señalaron que también el tabaco genera cáncer de páncreas y vejiga y favorece al desarrollo de enfermedad vascular periférica, cardiopatía isquémica, aneurisma aórtico y accidentes cerebrovasculares. La Organización Panamericana de la Salud (OPS) advirtió que en América las tasas más altas de consumo de tabaco se registran en el cono sur, en particular en Argentina y Chile. Los datos de la última medición mostraron que en estos países fuman cerca del 45 por ciento de los hombres y el 35 por ciento de las mujeres. Fuentes:http://www.clarin.com/diario/2005/05/30/um/m-986193.htm <a href='http://b.t.net.ar/www/delivery/ck.php?n=a2afc290&cb=INSERT_RANDOM_NUMBER_HERE' target='_blank'><img src='http://b.t.net.ar/www/delivery/avw.php?zoneid=58&cb=INSERT_RANDOM_NUMBER_HERE&n=a2afc290' border='0' alt='' /></a>

Introducción: Los pueblos que habitaban América antes de la conquista europea tenían diversas formas de organización económica, social y política. Algunos habían desarrollado sociedades urbanas y otros sólo practicaron una agricultura simple o eran cazadores y recolectores. Los aztecas y mayas, en la región mesoamericana, y los incas, en la andina, desarrollaron sociedades urbanas. En estas sociedades, la construcción de complejas obras de riego y la aplicación de técnicas agrícolas habían favorecido el crecimiento constante de la producción agrícola y de la población. Se habían desarrollado las ciudades y la organización social estaba fuertemente jerarquizado. Entre los aztecas y los incas, como entre los mayas, los guerreros y los sacerdotes conformaban el grupo privilegiado y ejercían el gobierno. La mayoría de la población, compuesta por campesinos y trabajadores urbanos, debía entregar fuertes tributos en productos y trabajo. Estas sociedades estaban organizadas y gobernadas por fuertes Estados teocráticos, llamados así porque toda la autoridad residía en los sacerdotes y porque el jefe del Estado era considerado como un dios. Por esto, las primeras ciudades se organizaron alrededor del centro ceremonial o templo. Los templos eran edificios que tenían funciones religiosas y también económicas, dado que almacenaban y distribuían los productos tributados por los campesinos. A la llegada de los españoles, las únicas sociedades urbanas que existían en América eran la azteca y la inca; la cultura maya había desaparecido en el siglo XI d.C. La mayoría de los pobladores de América vivían de una agricultura simple, de la caza y de la pesca de animales y de la recolección de frutos. Muchos de estos pueblos eran nómadas y prácticamente no existía la división del trabajo. Estaban distribuidos a lo largo de todo el continente americano, desde Alaska hasta Tierra del Fuego. La organización jerárquica de la sociedad. Las sociedades azteca e inca fueron sociedades urbanas que tuvieron una organización económica, políticas social del mismo tipo que las sociedades .urbanas que existieron en el Cercano Oriente desde el 3000 a. C. Los americanos también desarrollaron sistemas de escritura y de numeración; la religión fue la manifestación espiritual más importante y regía la mayor parte de los actos de la vida cotidiana de la población; y el arte alcanzó una elaborada complejidad. Los Incas, sus orígenes, su evolución y la conquista española Los Pucarás de Tilcara en la provincia de Jujuy (Argentina), fueron construídos de piedras y tenían una función militar, formaban parte de la red del Camino del Inca en territorios calchaquí y diaguitas. La red del Camino del Inca abarcaba unos 40.000 km. de largo. A través de él se logró unir a mas de cien poblaciones difundiendo sus creencias, religión y lengua (quechua) Los Incas: Machu Pichu y el Cuzco: El Cuzco ocupa un valle situado a 3.400 metros sobre el nivel del mar. Se atribuye al Inca Pachacutti (1438-1471) la reconstrucción del Cuzco como una ciudad monumental En ella se instalaron grandes almacenes de granos, barrios, un complejo sistema de riego y depósitos de todo tipo. Los templos y los pucarás (construcciones militares) ocuparon un lugar preponderante en la ciudad. La construcción de Machu Pichu fue un claro ejemplo de ello. Fue construida en el Cuzco a alturas casi inaccesibles, con fines religiosos y militares. Segú n la leyenda fueron cuatro hermanos los fundadores de la familia Inca. A Manco Capac considerado como héroe y un dios, fue el fundador del Cuzco, la ciudad capital del imperio Inca. A partir de Manco Capac se le sucedieron 13 incas en el gobierno, el último fue Atahualpa quien reinaba cuando llegaron los españoles. Los incas constituyeron un poderoso imperio que logró la expansión territorial en la época en que Colón iniciaba su viaje hacia lo desconocido. Abarcó desde las sierras de la actual Colombia hasta el norte de Chile y de la Argentina, y desde la costa del océano Pacífico hasta el este de los bosques del río Amazonas. Los incas eran un pueblo originario de las sierras y desde allí dominaron, mediante la guerra de conquista, a los pueblos de las otras zonas. Establecieron la capital de su imperio en la ciudad de Cuzco, a la que consideraban el centro del universo. El imperio, que ellos llamaban Tahuantinsuyo -que quiere decir las cuatro partes del mundo-, estaba dividido en cuatro regiones, las que, a su vez, se subdividían en provincias. Al frente del imperio estaba el Inca, y las zonas conquistadas estaban dirigidas por los curacas o gobernadores de provincia. Organización económica y grupos sociales La agricultura fue la base de la economía del imperio incaico. La producción era muy variada y los cultivos más importantes eran el maíz y la papa. Los incas aplicaron diferentes técnicas agrícolas que mejoraron el rendimiento de los cultivos. En la zona árida de la costa usaron el guano -excremento de aves marinas- como fertilizante de las tierras y construyeron canales de riego. En el interior, sobre las laderas de las sierras, cultivaban en terrazas. Además, el dominio de pueblos que habitaban diferentes zonas les permitió obtener, mediante el pago de tributos, productos que no había en su propio hábitat. En la sociedad incaica se podían diferenciar varios grupos sociales. La nobleza real incaica estaba formada por los sacerdotes, los guerreros y los funcionarios. Controlaban el Estado y vivían de los tributos que entregaban los campesinos. A este grupo social pertenecía el Inca. Los curacas, o nobles de provincia, eran los nobles que gobernaban a los campesinos organizados en comunidades (ayllus). Su instrucción se realizaba en el Cuzco. Eran los responsables de recibir los tributos de los ayllus, que luego entregaban al Estado incaico. El ayilu era la comunidad de campesinos unidos por vínculos familiares, que tenían antepasados en común y habitaban un mismo territorio. El Estado entregaba tierras a cada comunidad para su subsistencia. Anualmente, un funcionario local asignaba parcelas a cada familia según el número de sus componentes. Pero los campesinos no eran propietarios de las tierras y estas parcelas eran trabajadas colectivamente por todos los miembros de la comunidad. El ayllu debía entregar fuertes tributos en productos y en trabajo al Estado y a los curacas. En las laderas de la sierras, el cultivo en terrazas permitió un mejor aprovechamiento de la tierra fértil y facilitó el riego. Como técnica de labranza el palo cavador y una maza de cabeza de piedra, no conocían la rueda. La cría de llamas y de alpacas fue una actividad importante en la economía incaica. De ella obtenían lanas, carne y se usaban como animales de trabajo. La llama aunque no soporta más de 45 Kg. de peso soporta las grandes alturas. Entre los incas las tierras se dividían en tres zonas: las tierras de las comunidades, cuya producción alimentaba a las familias campesinas, la del Inca que mantenían al Inca , a los sacerdotes y el ejército, y las del Sol, con las que se mantenía el culto a los dioses. Los campesinos debían obligatoriamente trabajar en todas. El Estado Incaico El Estado incaico fue teocrático porque el emperador, el Inca, era reconocido como el hijo del Sol, el dios más importante. Un consejo de nobles y sacerdotes, llamados orejones y pertenecientes a la familia real, asesoraba al Inca en las tareas de gobierno. La gran expansión del imperio fue posible por la cuidada organización de la fuerza militar. Para facilitar el desplazamiento de sus ejércitos, los incas construyeron una vasta red de caminos. La existencia de tambos o postas a lo largo de esos caminos servía para el descanso de las tropas en campaña y para el recambio de animales y armas. Todos los pueblos que pertenecían al imperio tenían la obligación de entregar al Estado una determinada cantidad de alguna materia prima o de productos manufacturados, según la producción característica de cada zona. Además, la población estaba obligada a realizar trabajos individuales en beneficio del Estado, los curacas o los sacerdotes. Por esto, personas y productos recorrían también permanentemente el Camino del Inca. Redistribución y reciprocidad La sociedad incaica funcionaba sobre la base de la reciprocidad y la redistribución. La reciprocidad era común entre las comunidades de campesinos de la región andina. Consistía en la práctica entre todos los miembros de una comunidad. Por ejemplo, los habitantes de un ayllu se ayudaban entre sí a sembrar y a cosechar en las parcelas de subsistencia; y, en ocasión de un matrimonio, toda la comunidad ayudaba a levantar la casa de los recién casados. Los incas incorporaron el principio de reciprocidad de los ayllus como una de las bases del funcionamiento económico y social de su imperio. La redistribución suponía el reconocimiento por parte de los campesinos de los diferentes niveles de autoridad que existían en la sociedad. Los ayllus entregaban los tributos a los curacas, y los bienes tributados se acumulaban en depósitos reales que estaban en aldeas, caminos y ciudades. Allí eran contabilizados por funcionarios especializados que comunicaban a los administradores del Cuzco las cantidades de cada producto mediante el uso de quipus, contadores hechos con tiras de cuero en las que se realizaban nudos. De este modo, el Inca conocía las cantidades de excedente y en qué regiones del imperio sobraban o faltaban determinados productos. Cuando algunos pueblos del imperio no podían satisfacer sus necesidades básicas porque las regiones en las que vivían habían sido afectadas por malas cosechas u otras catástrofes, el Estado incaico redistribuía una parte de los alimentos, materias primas y productos manufacturados almacenados. También utilizaba los bienes acumulados para costear los gastos de las constantes expediciones militares, y para premiar los servicios realizados por algunos funcionarios generalmente nobles. Los tributos de las comunidades campesinas dados al Estado eran de tres tipos: 1. Trabajos colectivos en las tierras del Inca 2. Trabajos individuales periódicos y rotativos a los que llamaban mita, con este sistema se construían puentes y caminos. 3. Las comunidades debían entregar a los curacas alimentos, materia primas y productos manufacturados. PRESAGIOS Y PROFECÍAS DE LA DERROTA INDÍGENA Los incas creían en muchos dioses. El dios Viracocha era considerado el dios de la vida, del Sol y de la Luna. Todos los demás dioses estaban subordinados a él. Al Sol se le atribuía los beneficios que hacía prosperar la agricultura. La llegada de los europeos a América fue anticipada por presagios y profecías de origen azteca e inca. De los aztecas han llegado hasta nosotros fragmentos escritos. En el caso de los incas, que no tenían escritura, las noticias provienen de la tradición oral indígena y de los testimonios que dejaron los cronistas de la época. Los presagios aztecas anunciaban que el retorno del dios Quetzalcoátl se produciría al final del reinado de Moctezuma y lo haría bajo la forma de un hombre blanco. Antes de su llegada -afirmaban- ocurrirían una serie de fenómenos naturales y catástrofes. Los testimonios así lo enunciaban: "De aquí a muy pocos años nuestras ciudades serán destruidas y asoladas, nosotros y nuestros hijos muertos..." Y prevenían al emperador: "perderéis todas las guerras que comiences y otros hombres con las armas se harán dueños de estas tierras..." Las profecías comenzaron a cumplirse a los tres años de la ascensión de Moctezuma al trono. En 1510 se sucedieron un eclipse de Sol y la aparición de un cometa. Al poco tiempo Hernán Cortés desembarcó en las costas de México... y no pasó mucho tiempo hasta que los indígenas tomaron conciencia de que no era precisamente el dios que aguardaban. En el imperio de los incas la llegada de los españoles también fue precedida por presagios y profecías. Se anunciaban fenómenos naturales: rayos, cometas y cambios en el color del Sol y la Luna. El cronista Garcilaso de la Vega cuenta al respecto: "Hubo grandes terremotos y temblores de tierra (a poco de arribar los españoles) que, aunque en el Perú son frecuentes, notaron que los temblores eran mayores que los ordinarios, y que caían muchos cerros altos." Los incas esperaban también el retorno de un dios salvador, Viracocha. Por ello cuando tuvieron noticias de la llegada de Pizarro, muchos creyeron que era la esperada divinidad: "Quién puede ser sino Viracocha... era de barba negra y otros que lo acompañaban de barbas negras y bermejas". Pero los españoles pronto disiparon la ilusión de los incas, según lo afirmaba un cronista de origen indígena: "Pensábamos que era gente grata y enviados de Viracocha, pero paréceme que ha salido al revés, hermanos, que estos que entraron a nuestras tierras no son hijos de dios sino del demonio." LOS PRIMEROS ASENTAMIENTOS ESPAÑOLES Los primeros asentamientos españoles se ubicaron en las islas Antillas. Desde la ciudad de Santo Domingo en la isla que Cristóbal Colón llamó La Española -actual territorio de Santo Domingo y Haití-, se organizaron la primera recolección de oro americano y la conquista de las islas adyacentes y del continente. Entre 1492 y 1520, los españoles no obtuvieron de los territorios conquistados las riquezas esperadas -especias y grandes cantidades de oro sino sólo perlas, algo de azúcar y una escasa cantidad de oro. Pero el oro que los españoles encontraron en las Antillas era de aluvión: pepitas arrastradas por los cursos de los ríos desde algún yacimiento superficial y poco abundante. Los aborígenes fueron obligados a recolectar el metal precioso. Los indígenas antillanos no opusieron resistencia armada a los conquistadores, pero en pocos años casi todos ellos desaparecieron. Un gran número de estos indígenas murieron a causa de las enfermedades transmitidas por los europeos. Además, la dominación a que se los sometió, provocó en muchos de ellos el deseo de no tener hijos, con lo que disminuyó drásticamente el índice de natalidad. A partir de 1510, La Española perdió importancia y Santiago de Cuba se transformó en el centro de las operaciones coloniales españolas. Desde allí, en febrero de 1519, partió Hernán Cortés, al mando de 11 naves y 600 hombres, con destino a la tierra firme del continente, a la búsqueda de las fabulosas riquezas en oro mencionadas por los indígenas. LA CONQUISTA DEL PERÚ Desde su asentamiento en Panamá los españoles comenzaron al explorar la costa del Pacífico hacia el sur. El hallazgo de piezas de oro los animó a emprender nuevas expediciones. En noviembre de 1532, Francisco Pizarro, con 200 hombres, llegó a Cajamarca, donde acampaban 30.000 incas al mando del emperador Atahualpa. Pizarro pensaba aprovechar a su favor la división interna entre los incas, enfrentados en una guerra civil en la que dos hermanos descendientes del Inca -Atahualpa y Huascar- se disputaban el trono. A pesar de la inferioridad numérica, Pizarro convenció al jefe inca para parlamentar y lo tomó prisionero. Al ver a su soberano cautivo, muchos soldados se dejaron matar sin defenderse. La orden de Atahualpa de matar a Huascar, que dominaba el sur del imperio, facilitó la alianza entre grupos incas y los españoles. Finalmente, en noviembre de 1532, Pizarro entró al Cuzco, capital del imperio, y reconoció como emperador a un miembro de la nobleza inca. De este modo, Pizarro obtuvo el apoyo de un sector de la sociedad conquistada. En el Perú, la capital española no se superpuso -como en México- a la indígena. En 1535 Pizarro fundó Lima, la Ciudad de los Reyes. La ciudad fue establecida cerca de la costa para asegurar las comunicaciones con las otras tierras de españoles, situadas sobre el Pacífico, y también por temor a instalarse en una región tan aislada como la del Cuzco. Las grandes cantidades de oro y de plata que los españoles obtuvieron en el Perú hicieron de esta región la más importante de todas las conquistadas por España en América. Las sublevaciones indígenas y las luchas entre los mismos conquistadores, ávidos de enriquecerse rápidamente -y que le costaron la vida al propio Pizarro-, obligaron la intervención de la corona, que en 1544 creó el Virreinato del Perú. EL IMPACTO DE LA CONQUISTA La invasión europea produjo un tremendo impacto entre los pueblos que habitaban América. Para estas sociedades que habían vivido aisladas del resto del mundo, los europeos representaban algo totalmente desconocido. Toda su vida cambió a partir de la conquista. Su organización económica, social y política, sus creencias religiosas, su visión del mundo y las costumbres de su vida cotidiana, se derrumbaron. La desestructuración de la economía La conquista española alteró el funcionamiento y la organización de las economías indígenas. En el Perú, por ejemplo, el triunfo español alteró el sistema basado en la reciprocidad y la redistribución. Los conquistadores ocuparon el lugar del Inca en la jerarquía social. Las comunidades continuaron obligadas a entregar tributos y los curacas fueron mantenidos como los funcionarios encargados de controlar el cumplimiento de la obligación y el almacenamiento de los productos. Pero los españoles quebraron el principio de la redistribución: el excedente que los curacas entregaban a los conquistadores no volvía a las comunidades. Además, con la introducción de la moneda y el mercado, los españoles destruyeron el principio de la reciprocidad: los indígenas dejaron de intercambiar productos entre comunidades de acuerdo con lo que cada una producía y se vieron obligados a comprar y vender. La destrucción de las religiones indígenas : Cuando los españoles llegaron a México, se encontraron con una civilización que tenía una religión muy diferente de la cristiana. Lo que más impactó a los conquistadores fue la poderosa religión estatal que rendía culto a las principales divinidades indígenas a través de sacrificios humanos que eran acompañados de diversos ritos. De acuerdo con su mentalidad de hombres europeos de¡ siglo XVI, la entendieron como una religión demoníaca -que rendía culto al demonio y a las fuerzas del mal- y se propusieron su completa destrucción. Los conquistadores y los misioneros -sacerdotes y religiosos que llegaban a América con la misión de evangelizar, es decir, de enseñar a los indígenas los principios de la que consideraban la verdadera fe: la religión cristiana- se propusieron extirpar la idolatría (porque los europeos llamaron ídolos ii los dioses de los aborígenes). La muerte de los emperadores azteca e inca contribuyó a que esas sociedades perdieran confianza en sus dioses: con la muerte de Moctezuma o de Atahualpa, no sólo desaparecían los jefes del Estado sino también los hijos del Sol, su protector. Otra forma en que los españoles se propusieron reemplazar las creencias tradicionales indígenas, fue la edificación de iglesias en los lugares en los que antes habían existido templos o centros de culto. Durante los primeros tiempos y terminada la etapa de la resistencia armada, los misioneros fueron optimistas porque los indígenas parecían aceptar a la nueva religión y recibían en masa los sacramentos del bautismo y del matrimonio. Sin embargo, al poco tiempo comenzaron a advertir que la aceptación del cristianismo era sólo superficial ya que, a escondidas de los españoles, continuaban realizando los ritos de su culto tradicional. Las causas de la derrota Un proceso tan complejo como la conquista de un continente no puede explicarse por un solo factor. Si tenemos en cuenta que un pequeño número de europeos lograron dominar en muy poco tiempo a comunidades muy numerosas y que habían alcanzado un elevado nivel de organización social, ¿Como explicar que los 200 hombres de la expedición de Cortés conquistaran tina región habitada por más de 10 millones de personas? Sin duda influyeron factores técnicos como la superioridad de las armas de fuego, y el terror que producían las explosiones de pólvora y los caballos. Otros factores serían de tipo religioso, como las leyendas que hablaban de la llegada de enviados de los dioses. Pero tal vez haya que prestarle particular atención a un elemento de tipo político: la organización imperial y militarista de los aztecas e incas. Si bien esto puede aparecer como un símbolo de fortaleza, también lo es de debilidad. Muchos de los pueblos dominados por los aztecas y los incas colaboraron con los europeos convencidos de que ése era el medio para liberarse de quienes les exigían pesados tributos. Además, la organización imperial muy centralizada de los incas, por ejemplo, facilitó el triunfo de los españoles. Éstos atacaron directamente la cabeza del imperio -el Inca y el Cuzco- y frente a la derrota de ésta, el poderío inca sucumbió. Los españoles aprovecharon la situación y mantuvieron parte de la estructura de dominio impuesta por los incas, pero se ubicaron ellos a la cabeza de esa estructura. El derrumbe demográfico Antes de la llegada de los europeos, la población americana no estaba distribuida de manera uniforme por el continente. Las zonas más densamente pobladas eran las de las civilizaciones urbanas de MesoAmérica y la región andina. En esas dos zonas, la población aumentaba a medida que mejoraban las técnicas de cultivo y crecí-,in el intercambio y los centros urbanos. La conquista interrumpió bruscamente esta tendencia y diezmó la población indígena. El derrumbe demográfico se produjo por un conjunto de factores que actuaron de manera simultánea: las muertes provocadas por la violencia de los conquistadores; la desorganización de la vida económica, que hizo disminuir la producción de alimentos, provocando hombrunas; la explotación del trabajo indígena en las minas; la desorganización de la vida familiar tradicional; los efectos devastadores de las epidemias de enfermedades infecciosas como la viruela, frente a las que los indígenas no tenían desarrolladas defensas orgánicas. También influyeron facto)res de tipo psicológico, como la pérdida del deseo de vivir en un mundo que se derrumbaba, donde todo lo conocido iba desapareciendo. A lo largo de los siglos XVII y XVIII, los indígenas que sobrevivieron la conquista se transformaron -en su mayoría- en campesinos. Algunas comunidades o individuos llegaron a competir con los europeos por los beneficios producidos por la economía colonial americana. DIFERENTES VISIONES DE LA CONQUISTA: La visión de los conquistadores La conquista del Nuevo Mundo fue impulsada por instituciones como los Estados monárquicos, la Iglesia Católica y las grandes compañías comerciales. Pero la importancia de estas instituciones no debe hacernos olvidar que los protagonistas de este proceso histórico fueron los conquistadores, hombres reales, de carne y hueso. ¿Quiénes fueron estas personas? ¿Qué motivos los impulsaron a cruzar el océano, pese a los riesgos que la empresa suponía? ¿Cuál fue la visión que estos hombres tuvieron al tomar Contacto con una realidad geográfica y humana tan diferente de la propia? Los conquistadores eran hombres con poca o ninguna fortuna en tierras o en dinero, aunque algunos de ellos eran de origen noble. Llegaron a América esperando lograr en el Nuevo Mundo los objetivos que en Europa les resultaban inaccesibles. Estos objetivos eran la riqueza, el prestigio social y su contribución a la misión cristiana de evangelizar a los indígenas americanos. Sobre todo en los primeros años de la conquista, los conquistadores imaginaban que iban a alcanzar sus utopías sin conflicto. Esperaban que las riquezas fueran la base de una posición de reconocimiento social en tierras americanas; y que, al regresar a España, la fortuna y el prestigio social recién adquiridos estuvieran legitimados por su servicio prestado a la expansión del cristianismo. Sin embargo, en la práctica, la mayoría de los conquistadores no realizó sus utopías. Los conquistadores se fueron diferenciando entre sí. Rápidamente, entre ellos se establecieron diferencias de jerarquía y autoridad: los que actuaban en México y en Perú obtenían mayores recursos económicos que los que actuaban en las islas del Caribe. Pero, en el continente, sólo un reducido grupo de hombres relacionados directamente con los jefes de las expediciones (sucesivamente, Colón, Velázquez, Cortés, Pizarro, Valdivia, por ejemplo) obtuvieron el título de encomenderos. A los encomenderos se les confiaban porciones de población indígena y se les otorgaba el derecho de obtener de ella tributos, emplearla como mano de obra en sus empresas particulares (minería, plantaciones, talleres textiles, entre otras), y recibir el pago de sus jornales si trabajaban fuera de la encomienda. Estos beneficios se otorgaban teóricamente a cambio de la obligación de evangelizar a los indígenas encomendados. Como resultado de esta diferenciación, muchos conquistadores vieron cerrado su acceso a los niveles superiores de riqueza y prestigio social. Fueron frecuentes las intrigas políticas y los enfrentamientos armados entre grupos que se oponían a los conquistadores más poderosos. La visión de los vencidos La conquista violenta significó para los indígenas un gran sufrimiento espiritual. Su mundo y sus tradiciones se desmoronaron. Algunos historiadores denominaron a este impacto en la mentalidad de los pueblos americanos como el traumatismo de la conquista. Para los vencidos, la derrota tuvo un carácter religioso y cósmico: se sintieron abandonados por sus dioses. La caída de Tenochtitlán por ejemplo, no fue solo una derrota militar significaba también la caída del reino del Sol. Los dioses habían muerto o eran débiles ante el avance de la nueva fe cristiana que imponen los conquistadores. Las nuevas condiciones de existencia impuestas por los europeos provocaron la desvalorarización de los americanos. El alcoholismo se difundió como una epidemia. El desgano vital, producido por la falta de incentivos pira vivir en un mundo hostil, lleva muchos a un estado de autoabandonarse incluso a la disminución de la natalidad. Para Nathan Wachtel -historiador francés contemporáneo-, "saqueos, masacres, incendios, es la experiencia del fin de un mando. Pero se trata de un fin sangriento, de un mundo asesinado". Que sabes de la aculturación ? Cuando dos culturas se ponen en contacto se establece entre ellas una serie de relaciones que modifican a ambas. En el proceso de la conquista europea en América se relacionaron dos culturas que, hasta ese momento, se habían desarrollado por separado, sin que una tuviera noción de la existencia de la otra. Frecuentemente las culturas que entran en contacto no se enfrentan en condiciones de igualdad. En ocasiones, por circunstancias diversas, una cultura tiene la fuerza suficiente como para imponerse sobre la otra. La conquista de América fue una historia de vencedores y vencidos. Unos lograron imponer su dominio sobre los otros. En la relación entre sus culturas ocurrió algo similar. La cultura europea derrotó a la indígena. El concepto de cultura se refiere a la forma en que los miembros de un grupo de personas piensan, creen y viven, la manera en que resuelven sus problemas, sus manifestaciones artísticas y su vida espiritual, las normas y acuerdos que establecen. Por esto, cuando se produce un choque entre culturas, se enfrentan todos los aspectos de la vida social de los pueblos en lucha. En las ciencias sociales como la antropología y la historia, por ejemplo se utiliza el término aculturación para explicar procesos como el de la conquista de América, en el cual una cultura se modificó por el contacto violento con otra, y en ese proceso de modificación perdió los rasgos más importantes que le eran propios. En un proceso de aculturación, el pueblo vencido pierde su identidad cultura¡ tradicional e incorpora a su visión del mundo muchos elementos de la cultura de los vencedores. El resultado final de este proceso es la imposición de los rasgos principales de la cultura vencedora a la cultura vencida. --------------------------------------------------- UNA INDÍGENA, PREMIO NOBEL DE LA PAZ: La indígena Rigoberto Menchú recibió el 1 0 de diciembre de 1992, en Suecia, el Premio Nóbel de la Paz por su ardua lucha por la defensa de los derechos indígenas y humanos en general, de su país y de¡ continente. "Este Premio Nóbel lo interpreto primero como un homenaje a los pueblos indígenas sacrificados y desaparecidos por la aspiración de una vida más digna, justo, libre, de fraternidad y comprensión entre los humanos, A los que ya no están vivos para albergar la esperanza de un cambio de lo situación de pobreza y marginación de los indígenas, relegados y desamparados en Guatemala y en todo el continente americano, "Reconforta esto creciente atención, aunque llegue 500 años más tarde, hacio el sufrimiento, la discriminación, lo opresión y explotación que nuestros pueblos han sufrido, pero que gracias a su propia cosmovisión y concepción de lo vida han logrc7do resistir y finalmente ver con perspectivos promisorias, cómo, de aquellas raíces que se quisieron erradicar germinan ahora con pujanza, esperanzas y representaciones paro el futuro. 'Implica también una manifestación de/ progresivo interés y comprensión internacional por los Derechos de los Pueblos Originarios, por el futuro de los más de 60 millones de indígenas que habitan nuestra América y su fragor de protesta por los 500 años de opresión que han soportado. Por el genocidio incomparable que han sufrido en todo esta época, de/ que otros países y las élites en América se han favorecido y aprovechado "Libertad paro los indígenas dondequiera que estén en América y en el mundo, porque mientras vivan, vivirá un brillo de esperanza y un pensar original de la vida! "Los manifestaciones de júbilo de los Organizaciones Indígenas de todo el continente y los congratulaciones mundiales recibidos por el otorgamiento del Premio Nobel de lo Paz, expresan claramente la trascendencia de esto decisión. Es el reconocimiento de una deudo de Europa para con los pueblos indígenas americanos; es un llamado a la conciencia de la Humanidad para que se erradiquen los condiciones de marginación o las que los condenó el coloniaje y la explotación de los no indígenas, y es un clamor por la vida, la paz, la justicia, lo igualdad y hermandad entre los seres humanos." (Fragmento del discurso de Rigoberta Menchú en el acto de entrega del Premio Nóbel de la Paz.)

Earl Antoine Boykins (nacido el 2 de junio de 1976 en Cleveland, Ohio) es un jugador profesional de baloncesto que juega en Charlotte Bobcats de la NBA.Tabla de contenidos Universidad Boykins asistió a la Universidad Eastern Michigan desde 1995 hasta 1998, siendo elegido en el mejor quinteto de su conferencia en su año senior y junior. Durante su temporada de senior, Boykins fue con 26.8 puntos por partido el segundo máximo anotador de la NCAA. NBA En la NBA, ha jugado en Cleveland Cavaliers, New Jersey Nets, Orlando Magic, Los Angeles Clippers, Golden State Warriors, Denver Nuggets y Milwaukee Bucks. También pasó dos años en la CBA jugando en Rockford Lightning. Con sus 1.65 metros de altura, Boykins es el jugador más bajo en activo de la liga, y el segundo de la historia detrás de Muggsy Bogues (1.60 metros). Tras deambular sin rumbo por varios equipos de la NBA, Boykins encontró finalmente un contrato garantizado en Denver Nuggets en 2004. El rol principal de Boykins siempre ha sido salir del banquillo e inyectar energía ofensiva a su equipo, en parte porque es uno de los bases más rápidos de la liga. El 18 de enero de 2005, Boykins batió el récord de más puntos en una prórroga, con 15, aunque posteriormente Gilbert Arenas lo superaría con 16. El 11 de enero de 2007, Boykins fue traspasado a Milwaukee Bucks a cambio de Steve Blake, donde ha promediado 14 puntos por noche. Como curiosidad, Boykins es el jugador más bajo en anotar 30 puntos o más. Al finalizar la temporada, el jugador no renovó y se convirtió en agente libre hasta el 31 de enero de 2008, cuando firmó un contrato con Charlotte Bobcats.

A que llamamos amor? miles de veces les buscamos nombre a lo que sentimos.. aun mas veces por esa sensación sufrimos… pero dentro de mi surge una pregunta… a que le llamamos amor? al sentimiento hermoso que creemos sentir cuando conocemos a alguien q creemos que es de esa forma de la cual nosotros soñamos? o a estar con alguien q en un punto ya no aguantas pero como la sociedad impone que el amor es la meta … y después de tantas veces repetir el magico te amo… terminamos creyendo nuestras mentiras!!? bue.. en cualquiera de los casos son todas creencias…o sea el amor no es algo real es algo en lo que nos focalizamos para sentirnos mejor.. pero acaso eso no es un error?¿ ya que si enfocamos nuestras vidas en algo que no tiene fundamentos por ahí estamos confundido.. pero de echo el mundo no tiene fundamentos.. no sabemos por que esta pero esta… y quizas buscando algo q nunca vamos a encontrar transcurre la vida… y al decir la verdad lo mas lindo en cualquier caso … es la busqueda!!.. por que después la seguridad canza… asi que en vez de rompernos la cabeza buscando… disfrutemos la busqueda…! por que disfrutar de la busqueda del amor .. es disfrutar la vida! y si la vida es una sola.. ese es el sentido…! ahh… no se afianzen de la primera tarada/o que parece distinta! Por que una falla por ahí te quita las ganas de buscar !!!
El martes por la tarde, Silvina Escudero fue asaltada por motochorros mientras circulaba con su camioneta. Según allegados a la bailarina, el asalto ocurrió en Costa Rica y Thames, en pleno barrio de Palermo a las 5 de la tarde de este martes. Entre los artículos perdidos por la hermana de Vanina en el asalto, se contabilizan un teléfono celular, documentos y dinero en efectivo. Fabián Medina Flores, quien se encontraba casualmente cerca de Escudero, escuchó los gritos de la ex de Matías Alé y corrió en su auxilio, aunque sólo puso consolarla luego del atraco. Esta tarde, Infama, el ciclo que Santiago del Moro conduce por América, mostró imágenes de la morocha luego del desafortunado episodio. La morocha, quien se encontraba en plena crisis de nervios, se refugió en la zapatería a la que se dirigía antes de hecho, tras hablar con la policía que se hizo presente en el lugar.

Alexis Texas (25 de mayo de 1985)[3] es una actriz pornográfica estadounidense. Primeros años Alexis Texas nació en una base militar de Panamá, pero creció en el área de San Antonio, en Texas. Es descendiente de puertorriqueños, alemanes y noruegos. Trabajó como camarera en el bar Dillinger's, en la ciudad universitaria de San Marcos, Texas, con el motivo de juntar dinero para pagar cuentas y sus estudios. En este lugar la productora pornográfica Shane's World se encontraba rodando escenas para la serie College Amateur Tour, por lo que Texas decidió participar en la filmación. Carrera Su primera escena pornográfica fue para la película College Amateur Tour In Texas, filmada en octubre de 2006. Posteriormente filmó un par de escenas para Bang Bros en Florida. Luego se trasladó a Los Ángeles y comenzó a grabar escenas para la agencia de modelos LA Direct, en marzo de 2007. En febrero de 2008 lanzó Discovering Alexis Texas, película dirigida por la actriz pornográfica Belladonna. En la película de Elegant Angel, Alexis Texas is Buttwoman, protagonizó su primera escena de sexo anal. En 2009 formó su propia empresa, Alexis Texas Entertainment, la cual es una subsidiaria de Starlet Entertainment Group (SEG). A través de SEG, lanzó su sitio web oficial, con contenidos bajo modalidad de suscripción. Ha aparecido en películas de estudios como Reality Kings, Muffia, Bang Bros, Brazzers, Wicked Pictures y Elegant Angel. Fue portada de la revista Genesis, en abril de 2009, y para la edición del trigésimo quinto aniversario de la revista Hustler, en junio de 2009. Premios 2008 – Premio Night Moves Adult Entertainment – Mejor actriz revelación (elección de los fans). 2008 – Premio Empire – Mejor DVD orgiástico – Alexis Texas is Buttwoman. 2009 – Premio AVN – Mejor escena lésbica – Alexis Texas is Buttwoman. 2009 – Premio CAVR – Actriz del año. 2009 – Premio XRCO – Mejor película gonzo – Alexis Texas is Buttwoman 2010 – Premio AVN – Best All-Girl Group Sex Scene – Deviance

Lisa Ann (n. 9 de mayo de 1972) es una actriz porno estadounidense. En 2009 fue incluida en el Salón de la Fama de AVN. Biografía Ella se inició alrededor de 1990 para pagarse los estudios, obtuvo el título de ayudante de dentista. En julio de 1994, se mudó a California para iniciar su carrera en el porno, pero la abandonó en 1997 debido a la corriente de casos de sida que afectó a la industria aquellos años. Estuvo varios años viajando como bailarina en numerosos clubs de striptease por todo el país. Después de tanto tiempo viajando, Lisa decidió instalarse y dedicarse completamente a su matrimonio y a su nuevo negocio de balneario. Posteriormente se divorció y vendió su balneario, Lisa emprendió su objetivo a largo plazo y entró de nuevo en la industria como agente, por lo que poco tiempo después volvió para actuar, aproximadamente en 2004. Actualmente ella aparece como una de las estrellas de la categoría MILF en webs de éstos contenidos como son Mommygotboobs.com y Milfslikeitbig.com Lisa fundó su propia agencia de talentos en noviembre de 2006, Clear Talent Management. Combinado con su fama en la industria adulta, su éxito duradero, y su capacidad de instruir y dirigir a los demás, su lista de nuevos talentos creció rápidamente. En agosto de 2007, Lisa se vio obligada a dejar de usar su nombre y lo renombró como Lisa Ann's Talent Management (LATM). El 11 de diciembre de 2007, la industria adulta anunció la combinación de Seymore Butts' Lighthouse Agency con LATM. Esencialmente, Lisa Ann ha asumido Lighthouse Agency y la cuantía de representados ha alcanzado cotas aún más altas que antes. El 2 de octubre de 2008, Lisa Ann fue confirmada como la estrella que protagonizaría Who's Nailin' Paylin? parodiando a la candidata republicana a la Vicepresidencia Sarah Palin. La película, producida por Larry Flynt de Hustler Video, retrata a Lisa Ann en escenas de sexo con otras mujeres estrellas porno parodiando a famosas figuras políticas, como Hillary Clinton y Condoleezza Rice. La película ha tenido cuatro sequelas - Obama is Nailin' Palin , Letterman's Nailin' Palin, You're Nailin' Palin, estrenadas en 20095 , y Hollywood's Nailin' Palin , estrenada en 2010. Tambien en 2009, ha parodiado a Sarah Palin en una aparición en el video musical del tema "We Made You" del rapero Eminem. CASI ME MUEROO