d

drojas75

Usuario (Chile)

Primer post: 31 jul 2009Último post: 10 mar 2014
52
Posts
533
Puntos totales
55
Comentarios
España, orígen de turismo sexual pederasta
España, orígen de turismo sexual pederasta
InfoporAnónimo12/31/2010

España, orígen de turismo sexual pederasta España es uno de los países consumidores de turismo sexual pederasta en todo el mundo, tal y como denuncia la coordinadora de derechos de la infancia de Save the Children, Liliana Orjuela, en declaraciones a Europa Press. Al tiempo, añade que hay destinos turísticos donde la legislación contra el turismo pederasta es más "relajada". Según datos de la organización, citados por la revista 'Vida Nueva', hasta 40.000 españoles realizan cada año este tipo de viajes. En esta línea, el responsable de derechos de la infancia de Unicef España, Gabriel González-Bueno, señala que según la encuesta 'Actitud de la sociedad española ante la práctica de la explotación sexual infantil en los viajes', realizada junto a la Asociación Catalana por la Infancia Maltratada (ACIM) en 2006, el 10 por ciento de los 1.200 encuestados conocía a alguien que había viajado a un país "para tener relaciones sexuales con menores de edad". Para luchar contra este problema, se elaboró en 1998 el 'Código de conducta del sector turístico para la protección de niños, niñas y adolescentes contra la explotación sexual en los viajes y en el turismo', concebido por la ECPAT-Suecia (parte de la Red internacional contra la prostitución y la pornografía infantil y el tráfico sexual de menores). Desde la creación del Código, "Unicef lo ha apoyado con recursos económicos y de otro tipo" y tres empresas turísticas españolas están adheridas: Hoteles Sol Meliá & Resorts, Hoteles Barceló & Resorts y Viajes Mogador, como informa ACIM. Unicef y Save the Children realizan trabajos conjuntos junto a los gobiernos de los países donde están presentes. Save the Children ha trabajado en campañas de prevención y de apoyo para la formulación de planes "de tal modo que a nivel estatal haya medidas específicas de sensibilización y protección, pero también la promoción del trabajo de cooperación policial mundial". Por su parte, Unicef ha trabajado con "eficacia" en algunos países como la República Dominicana --uno de los destinos preferidos de los pederastas españoles según indica Orjuela-- y ha contribuido a cambiar las leyes en países que históricamente "han tenido fama de ser destino de turismo sexual infantil, como por ejemplo, Tailandia". Asimismo, Unicef ha colaborado en la lucha contra el turismo pederasta en países no identificados habitualmente con este problema. Éste es el caso de Sudáfrica, un país en el que, como señala González-Bueno en declaraciones a Europa Press, se actuó de manera preventiva durante la celebración del Mundial de Fútbol y en el que, según unos estudios previos, había entre 28.000 y 30.000 menores de edad, la mayoría con edades comprendidas entre los diez y los catorce años, "que podían estar inmersos en temas de explotación sexual". Pero este problema no es ajeno a España. Según información de ACIM a la que ha tenido acceso Europa Press, durante el periodo 2002-2006, la Guardia Civil española "detectó 2.749 casos de tráfico de menores, de los que cerca de 750 fueron únicamente con fines de tráfico sexual" y en el pasado mes de julio "siete menores fueron rescatadas de redes de prostitución en Cataluña". "LA EXPLOTACIÓN SEXUAL DE LA INFANCIA ES UN DELITO" Un mensaje en el que tanto Save the Children como Unicef coinciden es que "la utilización de niños y adolescentes en actividades sexuales remuneradas y otras formas de explotación sexual son formas de vulneración de derechos de la infancia, y ante todo, son un delito". Además, González-Bueno recuerda que el objetivo de la campaña 'No hay excusas', de Unicef España, era "contribuir al conocimiento de la sociedad española sobre este problema y que la explotación sexual de menores de edad es un delito". Como asegura Orjuela, el turismo sexual infantil se define a nivel internacional como la explotación por parte de una persona o un grupo de personas que viajan fuera de su país con la intención de mantener relaciones sexuales con menores de edad que pueden implicar algún tipo de remuneración en dinero o en especies, y en muchas ocasiones el objetivo no es específicamente tener relaciones sexuales con niños". Por ello, González-Bueno explica que parte de las actividades de Unicef pretenden enseñar a los niños para que sean capaces de prevenir este tipo de situaciones, "explicarles lo que supone que un adulto se acerque a ellos, sus intenciones y las consecuencias que tienen la explotación y el abuso sexual". Asimismo, las ONG y ACIM recalcan que la explotación sexual y comercial infantil existe porque "hay oferta y demanda", y uno de los mayores problemas para indagar en el problema y solucionarlo, tanto en España como en el resto de países, es que se trata de una actividad clandestina. "No hay posibilidad de tener estimaciones muy fiables por parte de quienes pueden estar incumpliendo la Ley", afirma el responsable de Unicef. En este sentido, González-Bueno reconoce que se ha avanzado mucho en la lucha contra el turismo sexual pederasta en el ámbito y penal debido con la última reforma del Código Penal "se penaliza de forma expresa no sólo al proxeneta sino también al cliente". Liliana Orjuela también comenta que se ha avanzado mucho en las legislaciones de los países, aunque advierte de que el número de víctimas "no disminuye", por lo que considera necesario "seguir trabajando y cooperando a nivel internacional, llevar a cabo políticas y programas sociales que fortalezcan a las familias para que tengan capacidad de respuesta y trabajar en el replanteamiento de muchas actitudes patriarcales y las formas de ejercicio del que vulneran los derechos de la infancia". Asimismo, González-Bueno asegura que, por ejemplo, cuando se reforzó la persecución policial y judicial en Tailandia el problema se trasladó a países vecinos como Camboya y Vietnam, por lo que coincide con Orjuela y señala que aún es necesaria "una colaboración internacional y homogénea". En este sentido González-Bueno asegura que la corrupción instalada en las autoridades de algunos países "es un obstáculo en la lucha contra este problema". Asimismo, Orjuela asegura que el consentimiento familiar no se produce tanto por ser una costumbre, sino que está más asociado "a la desigualdad y a la pobreza". Por lo tanto, en coincidencia con González-Bueno, afirma que el retraso en el logro de los Objetivos de Desarrollo del Milenio --sobre todo el primero, la erradicación de la pobreza extrema y el hambre-- influye en la dificultad para erradicar la explotación y el comercio sexual infantil, aunque el responsable de Unicef España destaca que la relación entre pobreza y explotación sexual "no es lineal". Si sabes de alguien que tenga algun razgo de pederasta o conoces algún caso de un niño o niña que esté en peligro o esté siendo abusado no lo calles... le podrías salvar la vida. Hagamos de T! una comunidad que ayuda a los niños y niñas de nuestro continente. drojas75 (Daniel Rojas)

0
0
La Web 3.0
La Web 3.0
InfoporAnónimo11/30/2010

La Web 3.0 Se trata de una prolongación lógica de un proceso de evolución. Al igual que para el paso de la generación 1.0 (que daba el acceso a la información gracias a los “buscadores”) a la 2.0 (que permite la interacción), la 3.0 por medio de plataformas digitales de todo tipo permite un nuevo nivel de integración de datos y aplicaciones interoperables, haciendo los datos tan accesibles y enlazables como las páginas web. En otras palabras, en la práctica, al nacer la generación 3.0 no desaparece la 2.0 (ni tampoco la 1.0) pero con la 3.0, sí aparece un espectacular salto cualitativo: el paso de lo masivo a la especialización. Los intercambios crecen en calidad. Se acaban las búsquedas en Internet que devuelven miles de resultados inútiles, los anchos de banda estrechos, la conexión limitada a la computadora y al móvil. Si la web 2.0 se caracteriza por el auge de las redes sociales, el siguiente paso en la evolución del ciberespacio permite lograr un Internet inteligente, presente en cualquier lugar, que conozca a la persona y se adapte a ella. Este cambio cobra aún más importancia al considerar el uso estratégico que harán los portales con esta oportunidad. Es lo que Mark López, directivo del portal TERRA en Miami, comentó en una entrevista exclusiva para NEO en ocasión de su visita a México para el Día del Internet, organizado por la AMIPCI. El salto cualitativo El hombre es un ser social, y en la vida virtual como en la vida real los intercambios se manifiestan por millones. Tanto de orden privado como profesional, los intercambios de ideas, opiniones, música, fotos, videos se multiplican de forma exponencial. Con la 2.0, rápidamente se formaron “redes sociales”, expresión acuñada al observar la formación espontánea de comunidades alrededor de temas de interés. Los temas son tan variados y de naturalezas tan diversas que pueden ir del fútbol a la metafísica o de la búsqueda de amigos desaparecidos al comercio de guitarras eléctricas. Un arquitecto, piloto aficionado de coches de carrera, encontrará fácilmente a nivel mundial una comunidad de arquitectos pilotos de coches de carrera con quiénes intercambiará ideas, opiniones, fotos…Perfil extraño que, sin embargo, forma una comunidad o red social más allá de todas las fronteras (geográficas, políticas económicas, de sexo y de edad). Con la adopción masiva de la banda ancha, la mejora en tecnología inalámbrica, la explosión de los videos online y el dominio de Google como buscador, este afán natural de los internautas por buscar y crear sus propios caminos para lograr libremente a través del Internet satisfacción a sus inquietudes de “socialización”, hubiera podido amenazar la importancia de los portales tradicionales. La respuesta inteligente Como respuesta al reto, menciona López, los portales deben abrirse para adaptar su oferta, particularmente en cuanto a actualizar las plataformas de comunidad, con nuevas aplicaciones, integrar las tendencias de “social media” en la oferta de contenidos, distribuir los contenidos y los servicios de modo diferente y entender la importancia del Search Engine Marketing (SEM) y de la Search Engine Optimization (SEO). El SEM se refiere a la actividad que realizan los anunciantes para tener la compra de palabras claves en los buscadores, a través de las cuales, sus marcas salen en los resultados patrocinados. Terra utiliza el SEM para ofertar sus contenidos más exclusivos y lograr captar más usuarios que se encuentren buscando lo que Terra tiene para ellos. La SEO es la actividad que cada página, sitio, portal de Internet, debe llevar a cabo para obtener una mejor posición en los resultados orgánicos del buscador. El trabajo que ha hecho Terra recientemente en SEO ha dado resultados por demás sorprendentes, menciona el entrevistado. Es a partir de esas observaciones que se desprende la estrategia de portales que para constituirse una audiencia altamente satisfecha y, por tanto, fiel, se especializan en temas de interés que ofrecen a comunidades afines la posibilidad de intercambiar información pertinente. Lo que implica segmentación de mercado y satisfacción de perfiles cada vez mejor identificados con sus inquietudes, tendencias, hábitos y deseos. Enfatiza al respecto López: “Terra como compañía está muy bien posicionada para tomar ventaja en las siguientes versiones de la web porque todas estas redes sociales, su contenido y toda la información que se está compartiendo entre usuarios, al final gira siempre alrededor de unos puntos de pasión, de una afición, de amar algo. Y es lo que Terra hace bien; Terra crea contenidos específicos para que un grupo de usuarios se apasione. Como ejemplos de esto, Mark López nos adelanta la operación que su organización está instalando para cubrir las Olimpiadas a nivel regional así como las plataformas que se están abriendo. Dice: “Llevamos a más de 50 personas a Beijing para que cubran las Olimpiadas. “Para algunos países tenemos incluso derechos de transmisión a través de vías en línea y eso va a crear en sí una comunidad social de amantes del deporte; por otro lado, estamos desarrollando el Espacio Terra, una red social que vamos a integrar dentro de lo que se llama Open Social, una iniciativa abierta donde están colaborando otras compañías que tienen un sitio dentro de un sector dado, incitando a sus usuarios a participar y desarrollar sus aficiones a través de todos los sitios con una sola identidad”. La 3.0 conduce a la creación de pequeñas redes que compartirán información en función de los intereses de cada persona. Y por otro lado, al hacer compatibles todas las aplicaciones, la computadora, sin ser forzosamente la plataforma principal, al conectarse a cualquier aparato desde celulares hasta electrodomésticos, coches y reproductores mp3, formará parte de una red. El cambio más profundo Con esta estrategia de apertura, colaboración y convergencia, según el entrevistado, aquí en México, Terra podrá crear una aplicación alrededor, por ejemplo, del seguimiento de la Liga Mexicana de fútbol, en la que usuarios, a partir de una computadora o de cualquier móvil, podrán informarse de los últimos resultados y las últimas noticias relacionadas con sus jugadores sin tener que ir forzosamente a una página especifica de Terra “porque ellos tendrán una aplicación que se van a llevar con ellos como parte de su identidad… y la pueden ver en otras páginas de redes sociales que tendrán esos contenidos específicos para ellos”. Este poder, esta libertad que consigue el internauta y que el portal le otorga, constituye el cambio “más profundo” que caracteriza a la generación 3.0 porque “antes, lo que la web suponía era llevar tráfico a una propiedad (sitio, portal) pero ahora con lo que se está evolucionando es llevar contenido al usuario”. Por lo tanto el cambio no sólo es de contenido; se relaciona aún más con la definición de aplicaciones que permitirán otorgar al usuario una funcionalidad: “(es decir) para tu equipo favorito tendrás el poder de participar en un juego donde eliges el resultado a futuro, combinas a los jugadores u opinas cuál sería el mejor equipo para el siguiente partido”. Esta respuesta estratégica basada sobre el análisis del comportamiento de los internautas, en aras de satisfacer sus necesidades de “socialización” y su libertad de acción, “apunta a la creación de conjuntos de plataformas aliadas, con la finalidad de crear mayor tráfico y más horas en línea y, en consecuencia, ofrecer a los anunciantes un soporte publicitario, no solamente importante en cantidad sino en cuanto a targets perfectamente identificados en cuestiones de gustos, aficiones y otras características”. La 3.0 es el win-win por excelencia, todo el mundo gana, de la oferta a la demanda: el internauta en poder, el portal en eficiencia, los mensajes publicitarios en impacto y la web en calidad. Fuente

0
0
Diez tip para sacarle mejor partido a Gmail
Diez tip para sacarle mejor partido a Gmail
InfoporAnónimo1/22/2011

Diez tips para sacarle mejor partido a Gmail Aquí algunas herramientas para hacer de tu mail un complemento en tu vida diaria. Gmail no es solamente ahora uno de los servicios de correo electrónicos más populares a nivel mundial, sino que además de a poco ha ido integrando una serie de aplicaciones y herramientas que permiten hacer muchas tareas más fáciles. Sin embargo, la mayoría de los usuarios se quedan solamente en la función básica. Readwriteweb publicó una guía de diez trucos para sacarle trote a este servicio, y transformarlo en algo más que solamente una casilla de correo. - Centralizar varias casillas en una: Gmail permite recibir y enviar correos electrónicos de direcciones distintas, desde la misma página de webmail. Se hace en forma bastante simple, hay que ir a Configuración y luego Cuentas e Importación, y ahi seguir los pasos. Se puede, incluso, elegir que el correo predeterminado para enviar correos no sea el de Gmail, sino otro a elección. - Priority Inbox: funciona como filtro de spam pero al revés, es decir escogiendo los correos de los emisores que se han catalogado como de mayor importancia. Optimo para quienes revisan más de una cuenta en Gmail. Se configura en Configuración - Prioritarios. - Etiquetas: Permiten organizar los mensajes en diferentes grupos y, además, añadir más de una etiqueta a un mismo mensaje. Se colocan categorizando los remitentes en grupos, estos luego aparecen al lado como subcarpetas a las que se puede consultar directamente. En Configuración- Etiquetas. - Mensajes no leídos: cuando quedan muchos correos en el camino sin revisar, y se extravían en el mar de mensajes, se puede hacer una búsqueda especial. Hay que tipear label:unread en la ventana de búsqueda. - Google Docs: Es posible crear documentos en este servicio con cualquier cuenta de correo. Además, los documentos adjuntos pueden ser convertidos en esta aplicación. Se crean en Docs. - Google Calendar: agenda que permite crear eventos para recordar reuniones, aniversarios, citas y un largo etc. Lo útil es que se integra con el correo, y permite enviar avisos vía email a las direcciones que se indiquen. Además, quienes tienen smartphone con Android podrán tener recordatorios automáticos en el momento en que el evento está transcurriendo. - Mensajes SMS: Google Calendar puede enviar mensajes SMS con alertas de eventos. - Traducción de mensajes: el archi usado traductor de Google, de las herramientas de idioma que aparecen en el buscador, puede ser usado también para traducir mensajes de correo. - Google Maps: esta aplicación permite enviar un mapa con una dirección específica inserto en un mensaje de correo. Útil cuando se trata de dar indicaciones. - Imágenes: es posible arrastrar imágenes y otros archivos al correo directamente, y quedan insertos en el mensaje. Funciona automáticamente en Chrome y quienes usen Firefox pueden hacerlo con la extensión dragdropupload. fuente: www.123.cl

0
2
M
Megapost de Historia de la informática parte 2
InfoporAnónimo12/31/2010

Megapost de Historia de la informática parte 2 1958: ALGOL, inicialmente llamado IAL (International Algebraic Language), es presentado en Zurich. 1958: Las primeras computadoras electrónicas son fabricadas en japón por la NEC: la NEC-1101 y NEC -1102. 1958: Frank Rosenblatt construye el Perceptron Mark I, usando un dispositivo de salida CRT (monitor de tubos de rayos catódicos). 1958: El lenguaje LISP es desarrollado para la IBM 704 en el MIT, bajo el mando de John McCarthy. 1958: Seymour Cray construye el CDC 1604, para Control Data Corp., el primer super computador totalmente transistorizado. 1958: Jack Kilby de Texas Instruments frabrica el primer circuito integrado. 1959 - 1964 LA SEGUNDA GENERACION DE COMPUTADORAS 1948 Los transistores Allá por 1945 la máxima limitación de los componentes de las computadoras eran la causa de su lenta velocidad de procesamiento. Los relés electro-mecánicos, la pobre disipación de calor de los amplificadores basados en tubos de vacío, motivaron a Mervin Kelly, por ese entonces Director de Investigación de los Laboratorios Bell, a conformar un grupo de investigadores que pudiesen concebir unos semi-conductores. El grupo fue conformado en 1946 por varios investigadores, entre los que destacaron John Bardeen, Walter Brattain y William Shockley quienes en 1948 inventaron el primer Transistor, sin presagiar que estaban a punto de lograr uno de los mayores descubrimientos de la era de la computación. En 1947, estos 3 científicos de la Bell, perteneciente a AT&T en New Jersey empezaron a experimentar con un tipo de semiconductor llamado "germanio", un elemento blanco grisáseo, que poseía un un lustre brillante metálico y una estructura cristalina, con un molde de la estructira de un diamante. Fueron John Bardeen, Walter Brattain y William Shockley quienes conociendo las propiedades del silicón hallado en las piedras de cuarzo, finalmente concibieron el Transistor. Sus componentes originales fueron muy simples. Cada uno de ellos estaba soldado encima de una tabla de circuitos que servía para conectar a otros componentes individuales. Un transistor contiene un material semi-conductor que puede cambiar su estado eléctrico cuando es pulsado. En su estado normal el semi-conductor no es conductivo, pero cuando se le aplica un voltaje se convierte en conductivo y la corriente leéctrica fluye a través de éste. En las computadoras, funcionan como un swicht electrónico o puente. 1958 Los Circuitos Integrados La computación empezó a tomar el interés de los científicos y estudiosos a partir del invento de los Transistores y no se pueden dejar de mencionar los siguientes hechos cronológicos: Fue en 1958 que Jack Kilby y Robert Noycea, de la Texas Instrument, inventaron los circuitos integrados, que eran un conjunto de transistores interconectados con resistencias, dentro de un solo chip. Fue a partir de este hecho que las computadoras empezaron a fabricarse de menor tamaño, más veloces y a menor costo ya que la cantidad de transistores colocados en un solo chip fue aumentando en forma exponencial. Vale decir de un puñado de ellos a decenas de milllones en tan sólo uno de ellos. Bajo el principio de que un impulso eléctrico viaje a menos distancia, más rápido llegará a su destino. A menor dimensión de los elementos, mas veloces son sus impulsos. Hoy día la velocidad es medida en billones o trillones de segundo. 1959: COBOL es definido en la Conferencia de Sistemas de Lenguajes de Datos (Codasyl), basado en el Flow-Matic de Grace Hooper. 1959: IBM introduce el modelo 1401. Más de 10,000 unidades serían vendidas. 1959: IBM despacha su primera computadora transistorizada o de segunda generación. Desde los modelos 1620 hasta el 1790. 1960: Benjamin Curley construye la primera minicomputadora, la PDP-1, en Digital Equipment Corporation. 1960: Control Data Corporation entrega su primer producto, una enorme computadora científica llamada la CDC 1604. 1960: DEC ships the first small computer, the PDP-1. 1960: Aparece en el mercado el primer disco remobible. 1961: La multiprogramación corre en la computadora IBM Stretch (de estiración). Varios conceptos pioneros se aplican, incluyendo un nuevo tipo de tarjeta de circuitos y transistores, con un caracter de 8 bits, llamado byte. La IBM Strech es 75 veces más rápida que los modelos de tubos al vacío, pero resulta en un fracaso comercial. Permaneció operativa hasta 1971. A pesar de que podía ejecutar 100 billones de operaciones por día, no cumple con las prdicciones de los ingenieros de la IBM, lo cual obliga a Thomas Watson Jr. a reducir el precio a casi la mitad. Sin embargo, muchas de sus innovaciones formarían parte de la existosa serie IBM 360. 1962: IBM presenta su modelo modelo 1311. Usando los primeros discos removibles y que por muchísimos años se convertirían en un estándar de la industria de la computación. La portabilidad de la información empezó a ser posible gracias a esta nueva tecnología, la cual fue empleada por los otros líderes del hardware, tales como Digital Equipment, Control Data y la NEC de Japón, entre otros grandes fabricantes de computadoras. Cada paquete de discos (disk pack) podía guardar mas de 2 millones de caracteres de información, (2 Megabytes de ahora), lo cual promovió la generación de lenguajes de programación y sus respectivas aplicaciones, ya que los usuarios podían intercambiar los paquetes de discos con facilidad. 1962: Por primera vez en la historia la IBM reporta ganancias anuales de 1 billón de dólares. Ross Perot nació en Texarkana, Texas in 1930. Después de trabajar en IBM en 1962 funda EDS (Electronic Data Systems), una empresa de servicios para computadoras. Durante la toma de rehenes en Irán en 1979, organizó una exitosa operación para rescatar a dos de sus empleados de una prisión. Vendió EDS a la General Motors en 1984, se diserfició en inmobiliarias, gas y aceite y más tarde empezó una nueva empresa de servicios de computadoras. Ross Perot nació en Texarkana, Texas in 1930. Después de trabajar en IBM en 1962 funda EDS (Electronic Data Systems), una empresa de servicios para computadoras. Durante la toma de rehenes en Irán en 1979, organizó una exitosa operación para rescatar a dos de sus empleados de una prisión. Vendió EDS a la General Motors en 1984, se diserfició en inmobiliarias, gas y aceite y más tarde empezó una nueva empresa de servicios de computadoras. En 1992 postuló a la presidencia de los Estados Unidos, como independiente, sin resultados positivos. 1963: DEC entrega la primera minicomputadora modelo PDP-5. 1963: Tandy adquiere Radio Shack, con sus 9 tiendas. 1964: IBM anuncia el lanzamiento de su Systema 360, la primera familia de computadoras compatibles. Fue el principio del uso de lenguajes amigables con comandos en inglés, tales como FORTRAN y COBOL, hasta ahora en uso, obviamente en versiones mucho más avanzadas. A pesar de ello hasta 1964 no se crearon equipos que se pudiesen nombrar como destacables. En 1964 John Kemeny y Thomas Kurtz desarrollaron la primera versión del popular lenguaje BASIC en el Dartmouth College y que permitió hacer más fácil la programación de las computadoras emergentes. 1964 - 1971 La tercera generación de computadoras Si bien los circuitos integrados fueron inventados en 1958, tuvieron que transcurrir algunos años más para que las grandes compañías los dispositivos que permitiesen desarrollar verdaderas computadoras, mas completos y veloces. En Abril de 1964 IBM presenta su generación de computadores IBM 360 Estos equipos, a pesar de que no fueron los únicos que se fabricaron en esta generación, la simbolizan debido a su enorme aceptación en el mercado de las grande instituciones estatales y privadas de todo el mundo. Las IBM 360 estaban basadas en circuitos integrados, la alimentación de la información era realizada por medio de tarjetas perforadas, previamente tabuladas y su almacenamiento se hacía en cintas magnéticas. IBM lanzó muchos modelos de esta serie como la IBM 360 20/30/40/50/65/67/75/85/90/195. Su sistema operativo simplemente se llama OS (Operating System) y los lenguajes que manejaron fueron el FORTRAN, ALGOL y COBOL. 1964: Control Data Corporation introduce la CDC 6000. Esta emplea palabras de 60-bits y procesamiento de datos en paralelo. Luego vino la CDC 6600, una de las más poderosas computadoras por varios años. Fue diseñada por Seymour Cray. 1964: BASIC (Beginners All-purpose Symbolic Instruction Language) es creado por Tom Kurtz y John Kemeny de Dartmouth. 1964: Honeywell presenta su modelo H-200 para competir con los sistemas IBM 1400. 1964: NCR introduce la 315/100. 1965: Digital Equipment despachas su primera minicomputadora la PDP-8. 1966: Honeywell adquiere Computer Control Company, un fabricante de minicomputadoras. 1966: Scientific Data Systems (SDS) introduce su modelo Sigma 7. 1966: Texas Instruments lanza su primera calculadora de bolsillo de estado sólido. 1967: DEC introduce la computadora PDP-10. 1967: A.H. Bobeck de los laboratorios Bell Laboratories desarrolla la memoria burbuja. 1967: Burroughs despacha el modelo B3200. 1967: El primer número de Computerworld es publicado. 1968: Univac presenta su computadora modelo 9400. 1968: Integrated Electronics (Intel) Corp. es fundada por Gordon Moore y Robert Noyce. 1969: El compilador PASCAL es escrito po Nicklaus Wirth e instalado en la CDC 6400. 1970: DEC lanza su primera minicomputadora de 16 bits. La PDP-11/20. 1970: Data General despacha la SuperNova. 1970: Honeywell adquiere la división de computadoras de General Electric. 1970: Xerox Data Systems introduce la CF-16A. 1970: IBM despacha su primer sistema System 370, computadora de cuarta generación. En 1971 se presentan los modelos 370/135 hasta el modelo 370/195. Ese mismo año IBM desarrolla e introduce los loppy disks son introducidos para cargar el microcódigo de la IBM 370. 1971: Intel Corporation presenta el primer microprocesador, el 4004. 1971 - 1981 La cuarta generación de computadoras 1971: El microprocesador Intel 4004 En 1969, la empresa japonesa Busicom solicitó a Intel que le fabricase un chip para un modelo nuevo de calculadora de escritorio, con cinta impresora, que deseaba producir masivamente. Un equipo liderado por Marcial Edward "Ted" Hoff, quien fue uno de sus primeros empleados desde 1986, desarrolló y terminó de fabricar en Marzo de 1971 un microprocesador, pero para uso general, al cual denominaron el chip 4000. Ted Hoff se proyectó a diseñar un microprocesador de capacidades o prestaciones mas completas que las solicitadas por la empresa japonesa, realizando el mismo esfuerzo, con la posibilidad de usos futuros. Luego de sus predecesores, Intel fabricó los modelos 4001, 4002, 4003 y 4004. Este chip de 4 bits, contenía 23,000 transistores que procesaban 108 kHz o 0.06 MIPS. Contaba con 46 instrucciones y 4k de espacio de almacenamiento. Posteriormente Intel lanzó el modelo 4004 al cual le agregó 14 instrucciones más y que tenía una capacidad de 8k de almacenamiento. Intel vendió el microchip a la empresa japonesa, pero después le recompró los derechos de propiedad intelectual por US $ 60,000, pues se dió cuenta que si bien el chip 4004 había sido fabricado para operar como cerebro de una calculadora, su versatibilidad como microprocesador de uso general le permitía ser tan poderoso como el ENIAC. 1971 La Kenbak I, primera PC Durante 1985 el Museo de Computación de Boston realizó un concurso con el objeto de registrar la historia de la computación. El museo estuvo publicitando este evento en todos los Estados Unidos, solicitando al público su contribución personal y como resultado de 316 muestras remitidas y ante la enorme sorpresa de todos, un modelo descontinuado y olvidado resultó haber sido la primera Computadora Personal, que inclusive precedió a la Altair. La Kenbak 1, fue fabricada en 1971 por John Blankenbaker de la Kenbak Corporation de Los Angeles, vale decir 4 años antes que la Altair fuese lanzada al mercado. Esta PC fue dirigido al mercado educacional y contaba con apenas 256 bytes (no kilobytes) de memoria Ram y su programación se realizaba por medio de palanquillas (switches). Solamente se comercializaron 40 equipos al costo de 750 dólares. 1973 Los discos Winchister Los discos duros Winchester son introducidos por IBM en los modelos 3340. Estos dispositivos de almacenamiento se convierten en el estándar de la industria. Provisto de un pequeño cabezal de lectura/escritura con un sistema de aire que le permite movilizarse muy cerca de la superficie del disco de una película de 18 millonésimas de pulgada de ancho. El 3340 duplica la densidad de los discos IBM cercano a los 1.7 millones de bits por pulgada cuadrada. 1974 8080, el primer CPU de Intel La verdadera industria de la computación, en todos los aspectos, empezó en 1974 cuando Intel Corporation presentó su CPU (Unidad Central de Procesos) compuesto por un microchip de circuito integrado denominado 8080. Este contenía 4,500 transistores y podía manejar 64k de memoria aleatoria o RAM a través de un bus de datos de 8 bits. El 8080 fue el cerebro de la primera computadora personal Mits Altair, la cual promovió un gran interés en hogares y pequeños negocios a partir de 1975. 1975 La Altair 8800 producida por Micro Instrumentation Telemetry Systems La primera computadora personal comercial fue la Altair 8800 fabricada por la empresa MITS en 1975, diseñada por Ed Roberts y Bill Gates. El primer modelo de estas computadoras no contaba con monitor ni teclado, tan sólo con luces LED y pequeñas palancas o switches para facilitar la programación. La información era almacenada en cassettes de las radio grabadoras y era visualizada en los aparatos de televisión. Su costo era de $395.00 con una memoria de 256 bytes. 1975 Fundación de Microsoft En 1975 William Henry Gates y Paul Allen forman Microsoft, en la ciudad de Albuquerque, Nuevo México, debido a que la sede de la MITS estaba en esa ciudad. Microsoft fue el proveedor de la versión del lenguaje BASIC para la computadora personal MITS Altair. Un par de años antes estos dos amigos de la Universidad de Harvard habían fundado TRAF-O-DATA una pequeña empresa que se encargó de desarrollar un software para la administración del tráfico en la ciudad de Seattle. William Gates estudió Economía pero abandonó sus estudios para incursionar en el desarrollo de software y los negocios. Podemos elegir a 1977 como el año del despegue de la computación personal con la aparición en el mercado de varios modelos de este tipo de máquinas. Estuvieron a la venta equipos tales como: Commodore (la cual utilizaba un televisor como monitor), un modelo de Radio Shack, Atari y por supuesto la de mayor éxito la Apple II de Woznizk y Jobs. Junto con estas máquinas aparece uno de los primeros sistemas operativos el CP/M diseñado por la Digital Research. 1975 CM/P, el primer sistema operativo estándar Gary Kildall y John Torode fundan en 1975 la Digital Research que ingresa exitosamente al mercado con su sistema operativo CPM. (Control Program for Microcomputers) escrito por Gary Kildall para las computadoras basadas en el microchip 8080 y las Z80 y que fuera muy popular en los finales de la década de los 70, pero con la aparición del MS-DOS virtualmente desapareció del mercado. Gary Kildall fue el creador del CP/M, primer sistema operativo estándar de la industria. Su vida está llena de anécdotas y colorido que forman parte del folclore, que unidos a sus inventos lo hacen ocupar un sitial de privilegio en la era de la computación. Siendo estudiante de secundaria, en su ciudad natal Seattle, estado de Washington, deseó convertirse en profesor de matemáticas y apenas concluido sus estudios llegó a enseñar en el Kildall College of Nautical Knowledge, de propiedad de su familia y que fuera fundado por su abuelo en 1924. Luego ingresó a la Universidad de Chicago y muy pronto se casó con su novia de la secundaria Dorothy McEwen, lo cual lo transformó en un estudiante aplicado, dejando atrás los años de rendimiento mediocre en sus notas estudios, los carros de carrera y las travesuras de la adolescencia. Estando en la facultad de matemáticas se interesó por las computadoras y al terminar su bachillerato decidió obtener una maestría en Ciencias de la Computación. Sin embargo ocurrió un incidente. Fue enrolado en la reserva de la Marina de Guerra de su país y se le dio a escoger entre ir a pelear en la guerra de Vietnam o dictar clases en la Naval Postgraduate School in Monterey, estado de California. La respuesta a la propuesta de la Marina de Guerra fue obvia y viajó a California. Fue en Monterrey que Gary creó el CP/M, cuyas siglas inicialmente se dieron para el Control Program Monitor, para posteriormente cambiarlo a Computer Program Monitor. Por el contrario de cualquier sistema operativo desarrollado antes o después, el CP/M no fue el resultado de investigación y desarrollo de un equipo de ingenieros sino la inventiva y el trabajo de un sólo hombre. Aunque su sistema operativo resultó ser un buen producto, por muchas razones técnicas el CP/M fue lanzado al mercado apenas un año antes de la aparición de las primeras micro computadoras comerciales. Gary Kildall falleció en 1994, debido a un trágico accidente automovilístico. Hechos notables La primera generación de computadoras personales, o microcomputadoras, como fueran renombradas posteriormente, usaron chips tales como el 8008, 8080, Zilog Z80 y el Motorola 6800. El primer número de la revista BYTE es publicado y meses después la cadena de tiendas BYTE SHOP COMPUTER empieza a crecer ráudamente. En 1976 IMSAI había comenzado a despachar las primeras computadoras en serie. La revista del Dr. DOBBS comienza a editarse y se celebra la primera conferencia mundial de ALTAIR. Bill Gates escribe su Carta abierta a los hobistas, la cual habla de la piratería de software (su versión de lenguaje Basic es copiado ilegalmente por la mayoría de usuarios). 1976 Los dos Steven y la Apple Computer Steven Wozniak y Steven Jobs fueron amigos desde la escuela secundaria y ambos se habían interesado mucho en electrónica y eran considerados por sus compañeros como personas controvertidas. Después de su graduación se mantuvieron en contacto y ambos consiguieron empleos en corporaciones de Silicon Valley. (Wozniak trabajó en Hewlett-Packard y Jobs en Atari). Wozniak se había dedicado un buen tiempo al diseño de computadoras y finalmente en 1976, construyó la que se convertiría en la Apple I. Steven Jobs con una visión futurista presionó a Wozniak para tratar de vender los equipos recién inventados y el 1o de Abril de 1976 nació Apple Computer. A pesar de la gran novedad que causó su presentación, no fue muy aceptada. En 1977, con el lanzamiento de la Apple II la compañía recién empezó a imponerse en el mercado norteamericano. Al siguiente año lanzaron la Apple Disk II, la primera disquetera y en 1980 la compañía fundada por Jobs y Wozniak ya contaba con varios miles de empleados. Emerge una forma de distribución masiva de software, a precios mas asequibles. 1977 La TRS-80 de Tandy/Radio Shack El primer modelo de esta computadora fue vendido el 3 de Agosto de 1977 por la suma de US $ 599.95 con 4k de memoria, pero muy pronto subió a 16k con el modelo de Nivel II y al cual se le agregó un teclado y posibilidad de expansión de memoria a 32 k. El microprocesador empleado fue el Z-80 de 1.77 Mhz, con sistema operativo BASIC grabado en un chip de 12k de memoria ROM. Se le podía agregar periféricos tales como un televisor de 12", casetera o un diskdrive de 89 o 102k, impresora con conexión RS-232 y hasta un sintetizador de voz. Esta computadora fue una de las más populares de la época. 1978 el microprocesador Intel 8086 En 1978 se produce un evento importante, la fabricación del microprocesador Intel 8086 el cual provocó una demanda masiva y motivó a la IBM a crear su flamante División de Computadoras Personales. El éxito de ventas alcanzado, hizo que Intel comenzara a figurar en el ranking de las 500 empresas más grandes del mundo, tal como lo publicara la revista FORTUNE 500 de Malcom Forbes, "la empresa No. 1 de las Exitosas de los Negocios de los 70s" Un microprocesador de la misma familia el 8088, utilizaría la IBM en su primera PC. En el mes de Julio de ese mismo año la revista Radio Electronics publica un interesante artículo, con diagramas y planos enseñando a construir la computadora Mark 8, basada en el microprocesador 8088 y a la que simplemente denominan "Su mini computadora personal". Muchas personas en los Estados Unidos fabricaron computadoras personales en sus propios hogares, lo cual incentivó aún más su uso. Steven Jobs visita los Laboratorios SPARC de la Xerox y obtiene ideas para desarrollar la Macintosh. MicroPro, una de las primeras grandes casas de software de la época lanza su procesador de textos WORDSTAR. El sistema operativo de la época es el CPM-86. La hoja de cálculos VisiCalc se convierte en software promotor de ventas de las computadoras personales provocando una verdadera revolución y record de ventas. VisiCalc resuelve en forma muy sencilla los problemas matemáticos de los usuarios. De allí su nombre 'Visual Calculator'. Muchísimas computadoras Apple se vendieron con el único propósito de correr el VisiCalc. Empieza la revolución del software. Todos estos grandes éxitos despertaron en la IBM la ambición de ingresar al mercado de las computadoras personales y participar en las suculentas ganancias que obtenían empresas como Apple, Tandy/Radio Shack, Commodore y hasta Spectrum de Inglaterra. Caben mencionar los siguientes hechos cronológicos: 1971: Computer Automation introduce la Alpha-16. 1971: IBM presenta las computadoras mainframes 370/135 y 370/195. 1971: NCR preenta el modelo Century 50. 1971: Sperry-Rand toma la línea de computadoras de la RCA. 1972: La primera calculadora de bolsillo es fabricada por Jack Kilby, Jerry Merryman, y Jim VanTassel de Texas Instruments. 1972: Gary Kildall escribe el PL/1, primer lenguaje de programación para el microprocesador Intel 4004. 1973: IBM enfrenta un juicio de Control Data, terminando por vender el Service Bureau Corporation (SBC) a Control Data. 1973: El lenguje PROLOG es desarrollado por Alain Comerauer en la Universidad de Marslla-Luminy, Francia. 1974: Zilog es formada para fabricar microprocesadores. 1975: Se forma el Homebrew Computer Club, considerado el primer grupo de usuarios de computadoras personales. 1976: Commodore International construye la Pet 2001. Con nuevo microprocesador 6502. La Pet fue la primera computadora personal con una pantalla incorporada, con 4k de memoria Ram, expandible a 32 K y un programa BASIC en memoria ROM (Read Only memory). Los programas se almacenaban en cassettes y su precio de venta fue de US $ 595 para el modelo de 4k y US $ 795 para el de 8k. Posteriormenta Commodore International compraría la MOS Technology, que fabricaba los chips 6502. 1976: NEC System 800 y 900 de propósito general son presentados. 1977: DEC introduce su primera superminicomputadora de 32 bits, la VAX-11/780. 1978: Se celebra la primera feria de COMDEX. 1979: El lenguaje Ada es desarrollado por un equipo dirigido por Jean Ichbiah en CII-Honeywell Bull (Francia). 1980: Commodore Inc. presenta la VIC-20, un modelo de computadora personal muy barata, dirigida a los principiantes y hobbistas. Usaba el microprocesador 6502 con una memoria de apenas 5k de Ram. El sistema estaba diseñado para ser conectado a un televisor y los programas se almacenaban en una casetera, la cual debía ser conectada a la VIC-20. 1980: Control Data Corporation introduce el supercomputador Cyber 205. 1981: La Commodore 64 reemplazó a la VIC-20. Se vendió al igual que su predecesora, a muy bajo precio. Este modelo empleó un microprocesador ligeramente mejorado al 6502 y que costaba US $ 20 al por mayor. La Commodore 64 usó el chip 6510 que permitía una capacidad de procesamiento de 64k y podía integrarse a un diskdrive fabricado por la misma empresa, para ejecutar los programas y el almacenamiento de la información. 1984: el Macintosh La compañía Apple lanzó una máquina que introduciría nuevamente una revolución: el Macintosh. Éste era el sucesor de un modelo llamado "Lisa" -pero que no tuvo aceptación debido a su costo y escasa capacidad- en que se introducía por primera vez el concepto de interfaz gráfica, la analogía del "escritorio" y un nuevo periférico: el "mouse" o ratón, como herramienta para controlar al computador. Existen además supercomputadores que en vez de funcionar a base de un sólo microprocesador utilizan miles de éstos, pudiendo así hacer un enorme número de operaciones simultáneas, llegando a los doscientos millones por segundo. El primer modelo fue desarrollado por Cray y comercializado hacia 1984. Realizaba 80 millones de operaciones por segundo. 1986: T-40.000 Floating Point Systems, compañía competidora de la Cray Research, lanzó su "T-40.000", con 16.384 microprocesadores coordinados por "transputadores", el cual es capaz de procesar a una velocidad de 262 millones de operaciones en punto flotante por segundo (Mflops). Hoy, algunos supercomputadores ocupan hasta 65.000 microprocesadores. 1991: Nanoelectrónica Un equipo de investigadores de IBM desarrolló el aparato más pequeño jamás creado por el hombre: un interruptor que mide el tamaño de un átomo. Es capaz de controlar el flujo de corriente eléctrica desplazando un átomo de xenón entre dos diminutos electrodos. Esta proeza es de suma importancia para el desarrollo futuro de computadores enanos ya que los componentes con dos posibles estados constituyen la base de los procesadores. Este mismo año, Digital Equipment (DEC) lanzó al mercado una familia de computadores basados en arquitecturas de paralelismo masivo: las máquinas van en un rango desde los 1.024 hasta los 16.384 microprocesadores que trabajan en forma paralela. En su configuración máxima (por un costo de unos 1.500.000 dólares) son capaces de realizar 26 mil millones de instrucciones básicas por segundo (26.000 MIPS). La firma NCR exhibió su nuevo microcomputador sin teclado, lanzado en diciembre de 1991 en los Estados Unidos. Se trata del "Notepad NCR 3125" que consiste en una caja del tamaño de una hoja carta y de 3 cm de espesor y un lápiz inalámbrico especial. Pesa menos de 2 kg, por lo cual podía ser usado como si fuese un bloc de apuntes. Tiene una pantalla sensible a los pulsos electrónicos enviados por el lápiz. Así, el accede al computador mediante símbolos, gráficos y escritura manual. Funciona con software de procesamiento de textos y bases de datos, gráfica, fax y comunicación con otro computador por teléfono. Es el predecesor de las actuales computadoras de mano. Gracias por visitarme.

0
0
Megapost de Historia de la informática parte 1
Megapost de Historia de la informática parte 1
InfoporAnónimo12/31/2010

Megapost de Historia de la informática parte 1 Las computadoras no han nacido en los últimos años, en realidad el hombre siempre buscó tener dispositivos que le ayudaran a efectuar cálculos precisos y rápidos; una breve reseña histórica nos permitirá, comprender cómo llegamos a las computadoras actuales. Los chinos hace más de 3000 años a. C. desarrollaron el ÁBACO, con éste realizaban cálculos rápidos y complejos. Éste instrumento tenia un marco de madera cables horizontales con bolas agujereadas que corrían de izquierda a derecha, como muestra la figura. En el siglo XVII, el creciente interés, en Europa, por las nuevas ciencias, tales como la astronomía y la navegación, impulsó alas mentes creativas a simplificar los cálculos. Habría costado años a los primeros científicos calcular la vasta cantidad de datos numéricos cuyos patrones estaban intentando descubrir. En 1614, el escocés John Napier anunció su descubrimiento de los logaritmos, permitiendo que los resultados de complicadas multiplicaciones se redujeran a un proceso de simple suma. Muy poco después, en los años 20 del mismo siglo, se inventó la regla de cálculo, basada en los principios matemáticos descubiertos por Napier. PASCAL en 1642 crea una máquina mecánica de sumar, parecida a los cuenta kilómetros que utilizan en la actualidad los automóviles. Pero ésta tenia algunos problemas con las sumas largas; pero en 1671 LEIBNITZ le agregó la posibilidad de: restar, sumar, multiplicar y dividir. Su máquina estaba formada Sobre ruedas dentadas, cada una de estas ruedas tenía diez dientes, éstos correspondían a los números de 0 al 9. Siendo el sistema de tal tipo que el paso de 9 a 0 daba lugar a un salto de la rueda. Los conceptos de esta máquina se utilizaron mucho tiempo, pero éstas calculadoras exigían intervención del operador, ya que éste debía escribir cada resultado parcial en una hoja de papel. Esto era sumamente largo y por lo tanto produce a errores en los informes Otra evolución en esta historia fue la que realizó BABBAGE. éste diseño y desarrollo la primera computadora de uso general. Fue un genio pero la Época no lo ayudó para poder terminar de construirla. Llamo a su descubrimiento "Máquina de las diferencias". En 1833 concibió una segunda máquina que le Llevó 20 años. Esta era capaz de realizar una suma en segundos y necesitaba un mínimo tiempo de atención del operador. A esta segunda máquina la llamó "Analítica". Leibniz aplicó la lógica y la materializó en su exitosa maquina de calcular. En 1804, Joseph Jacquard empezó a utilizar un telar que se servia de tarjetas perforadas para controlar la creación de complejos diseños textiles, (La misma técnica se utilizaría posteriormente en pianolas y organillos, que empleaban" Tarjetas perforadas para copiar música de piano, tanto clásica como popular. La primer operación de procesamiento de datos fue Lograda en 1890 por HERNAN HOLLERICH. Éste desarrolló un sistema mecánico para calcular y agrupar datos de censos. El nuevo sistema se basaba en tarjetas perforadas. Lo utilizaron en el censo de población en Estados Unidos en donde se logró por primera vez, que los resultados fueran conocidos a los dos años y medio, mientras que el censo anterior se tardó siete años para conocer estos datos. La primera mujer programadora fue ADA AUGUSTA BYRON (1815 - 1852) se interesó por los descubrimientos de BABBAGE a quién ayudó en los estudios de esta gran filosofía. En 1930, el norteamericano Vannevar Bush diseñó en el MIT (Massachusetts Institute of Technology) el analizador diferencial, marcando el inicio de nuestra era de computadoras; el "analizador" era una máquina electrónica que media grados de cambio en un modelo. La maquina ocupaba la mayor parte de una gran sala, Para analizar un nuevo problema, un grupo de ingenieros debía cambiar las proporciones, y só1o aparecían, tras dos o tres días, con las manos cubiertas de aceite. Aun la capacidad de la máquina para. Resolver complicados cálculos sobrepasaba cualquier invento anterior. En 1936, el científico independiente Alan Turing, de Gran Bretaña, captó la atención de los científicos con un trabajo que sobre un estudio sobre los números y las computadoras, propuso, soluciones a problemas hasta entonces no resueltos.' ''; La primera computadora totalmente electrónica fue la ENIAC (Electric Numeric Integrator And Calculator), fue construida en 1943 y 1945 por JOHN MANCHI y J. PROPER ECKUT. Podía multiplicar 10.000 veces más rápido que la máquina de AIKEN, pero ten/a sus problemas. Como estaba construida con casi 18,000 válvulas era enorme la energía que consumía y el calor que producía. Esto hacia que las válvulas se quemaran rápidamente y que las casa de alrededor tuvieran cortes de luz. La Segunda Guerra Mundial vio a Alemania y a los otros países occidentales en competencia por desarrollar una mayor velocidad de cálculo, junto a un aumento de la capacidad de trabajo, para así lograr decodificar los mensajes enemigos. 'En respuesta a su presión 'EE.UU, desarrolló en Harvard el enorme computador Mark I, con una altura de 2,5 m, inspirado por las ideas de Babbage, y el Mark I se dedicó a problemas balísticos de la Marina. En Alemania, se estaba comprobando las aerodinámicas proyectadas en el computador . El primer intento de sobreponerse alas limitaciones de velocidad y errores fue de HOWARD AIKEN. Trabajó con ingenieros de I.B.M, crearon una calculadora automática Llamada MARK I (en 1944). Luego sé construyó MARK II. (Estas máquinas no pudieron satisfacer las necesidades de ese momento ya que eran millones los datos para guardar y resolver, aunque sirvieron de base para que cuando se crearan las válvulas al vacío comenzara la computación electrónica. Tres científicos de los laboratorios Bell, William Bardeen y Walter Bratt, inventaron el transistor, recibiendo el premio novel de Física en 1956. A continuación se desarrolló el circuito integrado o "IC" que pronto recibiría el sobrenombre de "chip". Se atribuye el mérito de este invento a Robert Noyce. La fabricación del microchip 6,45 mm2 (la décima parte de una pulgada cuadra da), pronto fue seguida por la Capacidad de integrar hasta 10 transistores miniaturizados y eventualmente 1.000 piezas varias en el mismo espacio. Alrededor de 1971, el microprocesador había sido desarrollado por la nueva compañía de Noyce, Intel. Esta novedad colocó en un finito microchip los circuitos para todas las funciones usuales de un computador. Fueron integrados ahora en el chip en una serie de delgadísimas capas. Esto hizo que la computación fuera más rápida y más flexible, al tiempo que los circuitos mejorados permitieron al computador realizar varias tareas al mismo tiempo y reservar memoria con mayor eficacia. La contribución de estos inventos ha sido incalculable en cuanto a la disponibilidad de Computadoras personales de difícil uso. Los Usuarios dan por hecho rápidas y fiables respuestas a sus comandos, y un gran almacenamiento de memoria, tanto en términos de memoria de trabajo RAM como en espacio de almacenamiento en disco duro para trabajos terminados. Los pioneros cuentan cómo en los años 60, cuando utilizaban sistemas centrales, estaban limitados a 4 K de memoria de trabajo, aproximadamente 1.5 páginas escritas. Escribiendo programas, tenían que mantener las líneas de instrucciones cortas; sus comandos. Eran enviados por dispositivos de memoria que só1o podían retener una cantidad limitada de información antes de que se perdiera. Una pequeña historia Del mismo modo que su TV, la vídeo o la cámara, su PC trabaja en compatibilidad con alguna norma estándar. Las normas mas conocidas en el mundo de las computadoras personales son dos: IBM y Machintosh, la primera impuesta por la Empresa homónima conocida como, el gigante. Azul y la segunda por la Empresa APPLE. Esta última, fue pionera en desarrollar bastante de la tecnología que después adoptó IBM, pero la política de APPLE fue hasta hace poco, tener un producto caro y dirigido a un mercado especifico como el del diseño gráfico, sólo había software para Machintosh referido alas artes gratificas, por esto IBM, a pesar de su abismal diferencia tecnológica, logró imponerse en el resto de los ámbitos, aunque no por mérito de su fabricante. Otras empresas se lanzaron a fabricar computadoras. E1 problema era el Sistema Operativo. La computadora, como dijimos, es un conjunto de piezas que muestra resultados acordes con el software que le ponemos. Cuando una computadora arranca, necesita de un programa base para comenzar a operarla, un software que contenga los pasos básicos le permita copiar y ejecutar los programas que compró. Este software básico o de arranque se llama Sistema Operativo. La PC que lanzó IBM (años 1979/1980), venia con un sistema operativo propio denominado por esa empresa como OS, (iniciales de Operative System) ocupaba varios disquetes y tenia un costo adicional elevadisimo; obviamente la PC no funcionaba sin ~1. Los fabricantes que querían incursionar en el mercado debían comprar a IBM el OS. Estas computadoras fabricadas por terceros fueron llamadas, compatibles, ya que su hardware era capaz de ejecutar el OS de IBM. La computadora era más barata que la original, y el sistema OS, parecía desproporcionadamente caro. Frente a esto, un joven americano emprendedor y tenaz, se encerró en su habitación con una PC y no salió de ella hasta haber obtenido como resultado un sistema operativo compatible con el de IBM. Lo llamó DOS, siglas de Disk Operative System, porque además, entraba en un solo disquete. Ese joven es hoy el dueño de la empresa más grande del mundo dedicada al desarrollo de software, y marca el rumbo al mercado informático; se llama Bill Gates y su empresa, Microsoft. Las computadoras fabricadas por terceros, es decir. No por IBM, se extendieron rápidamente, su costo era hasta tres veces menores que la original del gigante azul, y por supuesto, el sistema operativo era el DOS de Bill Gates. En la jerga, sé comenzó a llamar alas PC'S, clones, o sea. Copias. IBM perdió el control muy pronto. E1 rumbo de la tecnología era marcado ahora por la empresa INTEL, que fabricaba los microprocesadores. El corazón. El cerebro de la PC. Lanzando uno nuevo aproximadamente cada año. De inmediato Bill Gates con su flamante empresa Microsoft, desarrollaba programas para aprovechar al máximo las capacidades de éste. Pronto queda claro que los lideres son INTEL y Microsoft, IBM, dueño de la idea, había perdido toda influencia sobre el tema. Hoy las computadoras de IBM llevan procesadores INTEL y ejecutan programas de Microsoft. Durante este periodo, surgieron las líneas de procesadores 286, 386 y 486. Desde hace unos años, las cosas se dieron vuelta y Microsoft pasó a desarrollar software que exigía demasiado a los procesadores de INTEL, por lo que éste se veía obligado a apurar los tiempos de lanzamiento de nuevos modelos. Aprovechando esta situación, por 1993, IBM, APPLE y Motorola intentan quebrar el liderazgo INTEL-Microsoft, y lanzan el Power PC, un procesador que prometía hacer estragos, pero solo 1o utilizan APPLE en sus computadoras personales e IBM en su línea de servidores AS400. Simultáneamente otros fabricantes de procesadores tomaron impulso. Estas circunstancias impulsaron a INTEL a crear un procesador distinto. (Los anteriores eran continuas mejoras al 286 mas poderoso, así nació el Pentium.) Microsoft tiene una inesperada compañera que también demanda mas tecnología en el hardware: INTERNET. Digamos que, por culpa de Internet, INTEL creó el MMX. En realidad es un Pentium con mejoras que optimiza la ejecución de video y sonido multimedia en la PC. Luego nacen los modelos Pentium Pro, Pentium II y Pentium III. La evolución de la informática afecta a todos los aspectos de la vida, la computadora hoy tiene muchas aplicaciones. Por ejemplo cuando vamos a un hospital encontramos en la recepción una computadora informándonos dónde se encuentra la sección que buscamos (sí es pediatría, internación o rayos). Además, si necesitamos una ecografía observamos una computadora que registra todos los datos que él medica desea. De la misma forma que en nuestro ejemplo, podríamos señalar otras aplicaciones en diferentes áreas Ejemplo: MEDICINA. v TOMOGRAFiA COMPUTADA, v HISTORIAS CLINICAS EN BASES DE DATOS v BRAZOS ROBOT QUE REEMPLAZAN AL HOMBRE La prehistoria de la era de la computación Desde que el hombre primitivo se convirtió en "homo sapiens sapiens" se inclinó por las estadísticas y las expresó en la forma de artes gráficas, creando una incipiente modalidad de cálculo. Graficaba la cantidad de animales que habían cerca a su coto de caza y los guerreros de otros grupos nómades enemigos. Una muestra muy conocida y evidente la constituye los restos arqueológicos, de arte rupestre, hallados en las famosas cuevas de Altamira en España, donde se conservan prácticamente intactas, pinturas de bizontes y caballos, entre otras, con una calidad artística digna de tiempos contemporáneos. Las primera máquinas de calcular Los primeros vestigios de cálculo realizado por medios artesanalmente mecánicos, por decirlo de algún modo, se remontan a 3000 años antes de Cristo (AC). Los Babilonios que habitaron en la antigua Mesopotania, empleaban unas pequeñas bolas hechas de semillas o pequeñas piedras, a manera de "cuentas" y que eran agrupadas en carriles de caña. Más aún, en 1800 AC un matemático babilonio inventó los algoritmos que le permitieron resolver problemas de cálculo numérico Algoritmo: conjunto ordenado de operaciones propias de un cálculo. El intercambio comercial y las conquistas bélicas entre los pueblos del mundo antiguo, permitieron que el invento de los Babilonios, se transmitiesen a otros grupos culturales a través del tiempo, permitiendo de este modo que con los aportes respectivos, se mejorasen sus diseños. El Abaco Fueron los egipcios quienes 500 años AC inventaron el primer dispositivo para calcular, basado en bolillas atravesadas por alambres. Posteriormente, a principios del segundo siglo DC, los chinos perfeccionaron este dispositivo, al cual le agregaron un soporte tipo bandeja, poniéndole por nombre Saun-pan. El Abaco permite realizar sumar, restar, multiplicar y dividir. La palabra Abaco proviene del griego ABAX que significa una tabla o carpeta cubierta de polvo. Este dispositivo en la forma moderna en que la conocemos, realmente apareció en el siglo 13 DC y fue sujeto de varios cambios y evoluciones en su técnica de calcular. Actualmente está compuesto por 10 columnas con 2 bolillas en la parte superior 5 en la parte inferior. Los Japoneses copiaron el abaco chino y lo re-diseñaron totalmente a 20 columnas con 1 bolilla en la parte superior y 10 en la inferior, denominándolo Soroban. Como caso anecdótico cabe relatar que en 1946, un contador japonés de nombre Kiyoshu Matzukai, quien era un experto en el uso del Abaco, se enfrentó en un concurso contra una computadora de la época durante dos días completos, resultando como ganador indiscutible el ciudadano japonés. Actualmente el antiguo abaco se emplea como método de enseñanza en las escuelas de los paises orientales, aunque es usado regularmente en muchos de lugares del mundo, particularmente en los pequeños negocios de los barrios chinos (Chinatowns) en los Estados Unidos de América y Canadá. Transcurrirían muchísimos siglos antes de que se ocurriera una innovación trascedental y ello sucedió entre los siglos VII y IX, cuando surgiera el sistema numérico arábigo, el mismo que empezó a difundirse lenta pero exitosamente en toda Europa. Siglos XIV al XIX, época de grandes inventos Trancurrieron 1300 años antes de que se inventase algún dispositivo vinculado al cálculo y es sólo entre los siglos XIV al XIX que se suceden una serie de eventos e importantes aportes, tal como veremos a continuación. Jonh Napier (1550-1617) Inventor de los logaritmos En 1550, en el pequeño pueblo de Tower of Merchiston, Inglaterra nace John Napier, considerado como uno de los estudiosos matemáticos más destacados de la historia universal, catalogado con Arquímedes, Isaac Newton o Albert Einsten. A la temprana edad de 13 años ingresó al Saint Salvador College, donde estudió por espacio de 2 años. Luego viajó por toda Europa, principalmente a Francia y Holanda donde continuó sus estudios e investigaciones entre 1566 y 1571. En vida recibió honrosamente el seudónimo de "la maravilla de Merchiston", debido a su reconocida genialidad y visión imaginativa en diversos campos. La principal contribución de John Napier, es sin lugar a dudas la invención de los logaritmos, que son un exponente al cual hay que elevar un número o base para que iguale a un número dado. Con relación al cálculo publicó una obra titulada "RABDOLOGIAE", que era un pequeño tratado sobre la forma de ejecutar multiplicaciones. En su apéndice explicaba un método para multiplicar y dividir usando varillas y placas metálicas que puesto en la práctica se convirtió en la precursora de las modernas calculadoras de bolsillo de hoy en dia, pese a que este rústico sistema era inseguro debido a que las varillas no podían ser manejadas con versatibilidad. Este invento irónicamente conocido como los "huesos de Napier". Abundan las historias sobre sus experimentos sobrenaturales y hay evidencias de que practicaba la adivinación. Su vida estuvo rodeada de misterio y falleció en Abril de 1617. Merchiston, el lugar de su nacimiento es ahora el centro de la famosa Universidad de Napier. Blaise Pascal (1623-1662) La Pascalina Nació en Clermont-Ferrand, Francia, el 19 de Junio de 1623. Hijo de un recaudador de impuestos y miembro de la alta burguesía, el joven Blaise Pascal no tuvo una instrucción formal y fue educado por su padre. Su juventud transcurrió entre los salones de la nobleza y los círculos científicos de la sociedad francesa de la época. Cuando apenas contaba con 19 años Blaise Pascal empezó a construir una complicada máquina de sumar y restar, la cual fue concluida 3 años más tarde. En 1649 gracias a un decreto real obtuvo el monopolio para la fabricación y producción de su máquina de calcular conocida como la PASCALINA que realizaba operaciones de hasta 8 dígitos. En 1646 Blaise Pascal empezó sus experimentos barométricos, los cuales continuó durante 8 años. En 1654 completó un trabajo dedicado a las leyes de la hidrostática y a la demostración y descripción de los efectos del peso del aire. Terminado estos experimentos realizó estudios de aritmética, destacando en el análisis y cálculo de probabilidades. Blaise Pascal inventó la prensa hidráulica y es considerado el padre y creador de la HIDROSTATICA. Este joven científico falleció en 1662 en la ciudad de París a la temprana edad de 39 años. Gottfried Wilhelm Leibniz (1646-1716) inventor del Sistema Binario Gottfried Leibniz nació el 1 de Julio de 1646 en Leipzig, Alemania. Realizó estudios de Leyes en la universidad de su ciudad natal y en 1675 estableció los fundamentos para el cálculo integral y diferencial. En 1676 publicó su "Nuevo Método para lo Máximo y Mínimo", una exposición de cálculo diferencial. Fue filósofo, matemático y logístico. En 1670, Leibniz mejora la máquina inventada por Blaise Pascal, al agregarle capacidades de multiplicación, división y raíz cúbica. En 1979 crea y presenta el modo aritmético binario, basado en "ceros" y "unos", lo cual serviría unos siglos más tarde para estandarizar la simbología utilizada para procesar la información en las computadoras modernas. Charles Babbage (1792-1871) La máquina diferencial y la analítica Charles Babbage nació el 26 de Diciembre de 1792 en Londres, algunos afirman que fue en 1791, y era hijo de un rico banquero inglés. Desde muy jóven se inclinó por los estudios de matemáticas y fue su propio instructor de Algebra, de cuyos estudios e investigación fue un terrible apasionado. Después de ingresar al Trinity College de Cambridge, en 1811, descubrió que estaba mucho más adelantado en sus conocimientos de matemáticas que sus propios tutores. Conjuntamente con Hershel, Peacock y otros fundó la Sociedad Analítica con el objeto de promover las matemáticas continentales. En 1816 fue elegido miembro de la Royal Society y fue uno de los promotores de la formación de la Sociedad Real de Astronomía, fundada en 1820. A partir de 1820, Charles Babbage despertó un enorme interés sobre las máquinas de calcular. Con la ayuda de la condesa Ada Byron, hija del poeta Lord Byron, desarrolla el concepto de 2 calculadoras mecánicas o "máquinas de números". La primera de ellas, llamada la Máquina Diferencial era un dispositivo de 6 dígitos que resolvía ecuaciones polinómicas por el método diferencial. La segunda, denominada Máquina Analítica, que tampoco fue terminada, fue diseñada como un dispositivo de cómputo general. Ambos equipos eran totalmente mecánicos, usaban ejes, engranajes y poleas para poder ejecutar los cálculos. Por este motivo los diseños funcionaban en teoría pero en la práctica las maquinarias y herramientas de fabricación de la época eran imprecisas y no pudieron construir las piezas con la necesaria exactitud. Dispositivo de entrada de la información: tarjetas metálicas perforadas en miles de combinaciones. Procesador: dispositivo con cientos de ejes verticales y miles de piñones. Unidad de control: dispositivo en forma de barril con filamentos y ejes (como cuerdas de piano). Dispositivo de salida: Plantillas diseñadas para ser utilizadas en una prensa de imprenta. En lo que respecta a Babbage y Ada Byron sus proyectos quedaron frustrados. Sin embargo, los planos y modelos de ambas máquinas sirvieron como puntos referenciales de muchos de los conceptos de computación aplicados hoy en día y para muchos, Charles Babbage es considerado el padre de las computadoras. A pesar de sus muchos logros y aportes a la ciencia, a través de su vida, la frustración de no poder llegar a construir exitosamente sus máquinas de calcular, principlamente por la falta de apoyo del gobierno, convirtió a Babagge en un hombre resentido y amargado hasta el dia de su muerte ocurrida en Londres el 18 de Octubre de 1871. La condesa Ada Byron (1815-1851) La primera programadora de la historia Augusta Ada Byron, también llamada Lady Lovelace, fue uno de los personajes más pintorescos de la historia de la computación. Nació en Londres, el 10 de Diciembre de 1815 siendo hija del ilustre poeta inglés Lord Byron. Apenas 5 semanas después de nacida su madre Lady Byron, se separó de su esposo y obtuvo la custodia de su hija, encargándose de su crianza y educación por cuanto a ella le aterrorizaba la idea de que su hija acabase convirtiéndose en un poeta como su padre. Lady Lovelace tuvo vocaciones de analista y metafísica y a los 17 años influenciada por Mary Somerville realizó sus estudios de matemáticas. Fue en una cena que escuchó y se interesó sobre las ideas de Charles Babbage acerca de una nueva máquina de calcular. Ella intuyó que un proyecto de esa envergadura podría convertirse en una realidad y fue una de las pocas personas que creyó en la "universabilidad de las ideas", preconizada por Charles Babbage y decidió colaborar con él. Ada Byron, es considerada la primera programadora de la era de la computación, ya que fue ella quien se hizo cargo del análisis y desarrollo de todo el trabajo del inventor y la programación de los cálculos a procesarse. De quebrantable salud y muy enfermiza, al igual que su padre, Lord Byron, Lady Lovelace falleció siendo muy jóven, a la edad de 36 años. En la década de los 80 el Departamento de Defensa de los Estados Unidos de América desarrolló un lenguaje de programación en honor a la condesa, al cual nombró ADA. Joseph Marie Jacquard (1752 - 1834) Las plantillas perforadas Nació el 7de Julio de 1752 en la ciudad de Lyon, Francia, y aunque fue hijo de un modesto obrero textil tuvo grandes aspiraciones para su futuro. En 1801 y ya convertido en inventor e industrial textil Joseph Marie Jacquard dio un fundamental aporte al proceso de las máquinas programables al modificar una maquinaria textil, inventada por Vaucanson, a la cual implementó un sistema de plantillas o moldes metálicos perforados, unidas por correas, que permitían programar las puntadas del tejido logrando obtener una diversidad de tramas y figuras. Fue tan grande el interés despertado por el invento de Jacquard, que el propio Napoleón Bonaparte se quedó muy asombrado cuando en 1805 asistió a una exibición industrial celebrado en Lyon, para posteriormente condecorarlo con la medalla de La Legión de Honor y un premio de 50 francos por cada Telar que fuese comercializado durante el período de 6 años. A partir del invento de Jacquard empezaron a proliferar, poniéndose muy de moda las máquinas y equipos programados por sistemas perforados, tales como los pianos mecánicos, conocidos como pianolas, muñecos y otros novedosos juguetes mecánicos. Herman Hollerith (1860-1929) El Censo de 1890 en los Estados Unidos Nacido en Buffalo, New York, el 29 de Febrero de 1860 e hijo de unos inmigrantes alemanes realizó estudios en el City College de New York a la edad de 15 años y se graduó de Ingeniero de Minas, con altas distinciones, en la Columbia School of Mines, a la edad de 19 años. Su primer empleo lo obtuvo en la Oficina de Censos en 1880. Posteriormente enseñó ingeniería mecánica en el Instituto Tecnológico de Massashusetts (MIT) y luego trabajó para la Oficina de Patentes del gobierno norteamericano. Hollerith empezó a trabajar con el sistema de máquinas tabuladoras durante sus dias en el MIT, logrando su primera patente en 1884. Desarrolló una prensa manual que detectaba los orificios en las tarjetas perforadas, tenía un alambre que pasaba a través de los huecos dentro de una copa de mercurio debajo de la tarjeta, cerrando de este modo el circuito eléctrico. Este proceso disparaba unos contadores mecánicos y ordenaba los recipientes de las tarjetas, tabulando así en forma apropiada la información. En 1880 se celebró un censo de población nacional en los Estados Unidos y tuvieron que transcurrir 7 largos años antes de que toda la información quedase procesada por el Buró de Censos, debido a que los datos levantados eran tabulados en papel. Por consiguiente se estimó que el próximo censo a celebrarse en 1890 tardaría unos 10 o 12 años en procesarse y poder obtener los resultados finales. Es por ello que el gobierno norteamericano convocó a una licitación para un sistema de procesamiento de datos que proporcionase resultados más rápidos. Herman Hollerith, que trabajaba como empleado del buró de Censos, propuso su sistema basado en tarjetas perforadas que si bien esto no era una invención, puesto en práctica constituyó el primer intento exitoso de automatizar el procesamiento de ingentes volúmenes de información. Las máquinas de Hollerith clasificaron, ordenaban y enumeraban las tarjetas perforadas que contenían los datos de las personas censadas, logrando una rápida emisión de reportes, a partir de los 6 meses. Los resultados finales del censo de 1890 se obtuvieron en el tiempo record de 2 años y medio. Herman Hollerith en 1896 fundó la TABULATING MACHINE COMPANY que luego se convirtió en la Computer Tabulating Machine (CTR). Hollerith se retiró en 1921 y en 1924 CTR cambió su nombre por el de International Business Machines Corporation (IBM), que años más tarde se convertiría en el gigante de la computación. Herman Hollerith falleció el 17 de Noviembre de 1929. 1939 - 1958 La primera generación de computadoras La Segunda Guerra Mundial impulsó el desarrollo de dispositivos de cómputo cuyos diseños habían empezado alrededor de 1933. Aunque algunos hechos trascendentales, ocurrieron en forma simultánea. John Louis von Neumann (1903-1957) Este científico matemático ocupa un lugar privilegiado en la historia de la computación debido a sus múltiples e importantísimos aportes a las computadoras de la primera generación. Nació el 28 de Diciembre de 1903 en Budapest, Hungria, llegando a ser uno de los más brillantes matemáticos de la era de la computación. Von Neumann fue un niño prodigio que a la edad de 6 años podía dividir mentalmente cifras de 8 dígitos. Recibió una temprana educación en su ciudad natal, bajo el tutelaje del matemático M. Fekete conjuntamente con el cual publicó su primer trabajo a la edad de 18 años. En 1921 ingresó a la facultad de Química de la Universidad de Budapest pero decidió continuar sus estudios en Berlin y Zurich, graduándose de Ingeniero Químico en 1925. Inmediatamente después de graduado volvió a sus investigaciones y estudios de las matemáticas de las cuales fue un apasionado, logrando un doctorado en 1928. Rápidamente ganó una reputación como un excelente matemático y en 1930 fue invitado a visitar la Universidad de Princeton (USA) y al ser fundado el Instituto de Estudios Avanzados en 1933, Von Neumman fue elegido como uno de sus únicos 6 profesores matemáticos, actividad que desempeñó hasta el resto de su vida. A través de los años desempeñó muchas cátedras en universidades de prestigio en todo el mundo, tales como Harvard, Pensilvania, Princeton, Roma, Amsterdam, etc. Durante la segunda guerra mundial fueron aprovechados sus conocimientos en hidrodinámica, balística, meteorología, teoría de juegos y estadísticas. En 1944 contribuyó en forma directa en los diseños de fabricación de computadoras de esa generación, asesorando a Eckert y John Machly, creadores de la ENIAC y que construyeran además la UNIVAC en 1950. Durante esa década trabajó como consultor para la IBM colaborando con Howard Aiken para la construcción de la computadora Mark I de Harvard. John Von Neumann falleció el 8 de Feberero de 1957 en Washington DC. Konrad Zuse (1910-1957) El primer prototipo de computadora digital Durante 1936 y 1939 el ingeniero alemán Konrad Zuse construyó la primera computadora electromecánica binaria programable, la cual hacía uso de relés eléctricos para automatizar los procesos. Sin embargo, tan sólo fabricó un prototipo para pruebas al cual llamó Z1, el mismo que nunca llegó a funcionar a cabalidad debido a la falta de perfeccionamiento en sus elementos mecánicos. En 1940 Zuse terminó su modelo Z2, el cual fue la primera computadora electro-mecánica completamente funcional del mundo. Al año siguiente, en 1941, fabricó su modelo Z3 al cual le desarrolló un programa de control que hacía uso de los dígitos binarios. Sin embargo esta computadora fue destruida en 1944 a causa de la guerra. Entre 1945 y 1946 creó el "Plankalkül" (Plan de Cálculos), el primer lenguaje de programación de la historia y predecesor de los lenguajes modernos de programación algorítmica. Konrad Zuse nació en Berlin el 22 de Junio de 1910. Estudió ingeniería civil en el Instituto Politécnico de Berlin, graduándose en 1933, trabajó en la industria aeronáutica pero años más tarde se retiró para dedicarse a las tareas de "inventor", labor que desarrolló en el dormitorio de un departamento desocupado, de propiedad de sus padres. En 1949 formó la fundación ZUSE KG dedicada al desarrollo de programas de control para computadoras electro mecánicas. En 1956 esta fundación fue adquirida por la empresa Siemens. A lo largo de su vida Konrad Zuze fue motivo de muchos honores, falleciendo en Hünfeld, Alemania el 18 de Diciembre de 1995. 1939 Atanasoff-Berry y la ABC La Atanasoff-Berry Computer o ABC empezó a ser concebida por el profesor de física John Vincent Atanasoff a partir de 1933, formulando la idea de usar el sistema de números binarios para su funcionamiento. Al buscar un ayudante para cumplir con su inovativo propósito, le fue recomendado por un colega, el joven y brillante recién graduado en ingeniería mecánica de nombre Clifford Berry. Entre los años de 1937 y 1942, contando con la ayuda de Berry, diseño y construyó en el sótano de su laboratorio en la Universidad del Estado de Iowa su famoso prototipo a un costo de 1,460 dólares, el mismo que estaba compuesto de tubos al vacío, capacitores y un tambor rotatorio para el manejo de los elementos de la memoria, así como un sistema lógico para su operatividad. Esta computadora fue usada para resolver ecuaciones matemáticas complejas. La Atanasoff Berry Computer usaba relés, núcleos magnéticos para la memoria y tubos de vidrio al vacío (radio tubos) y condensadores (capacitores) para el almacenamiento de la memoria y el procesamiento de los datos. La Atanasoff-Berry computer o ABC terminada de construirse en 1942 en el Iowa State College fue la primera computadora electrónica digital, aunque sin buenos resultados y nunca fue mejorada. Desafortunadamente sus inventores jamás la patentaron y por aquel entonces surgieron problemas sobre la propiedad intelectual de la misma, en cuyas divergencias participó la IBM. Aunque existen serias dudas sobre si la ABC (Atanasoff-Berry Computer) fue completamente operativa, el hecho es que John W. Mauchly visitó a Atanasoff en 1941 y observó muy de cerca su impresionante máquinaria y tuvo la oportunidad de revisar su tecnología. Existe una gran controversia respecto a que Mauchly copió muchas de las ideas y conceptos del profesor Atanasoff, para posteriormente entre los aõs de 1943 a 1946 contruyera la computadora ENIAC. 1941 Alan M. Turing y la Collosus La Collosus usaba miles de válvulas y 2,400 bombas de vidrio al vacío, así como un scanner que podía leer 5,000 caracteres por cinta de papel. La MARK I de IBM en 1944 Mark I, es la primera computadora construída por la IBM a gran escala, desarrollada en cooperación con la Universidad de Harvard. La Calculadora Automática de Control Secuencial de la Mark I es la primera máquina capaz de ejecutar largas operaciones en forma automática. Medía 15 metros de largo, 2.40 m. de altura y pesaba 5 toneladas. La Mark I usaba relés electromecánicos para resolver problemas de suma en menos de un segundo, 6 segundos para multiplicación y el doble de tiempo para la división. Muchísimo mas lenta que una calculadora de bolsillo del presente. Grace Hooper (1906-1992) la MARK I de IBM en 1944 Nada menos que una brillante mujer, la almirante Grace Hooper, conocida como "Amazing Grace" (la fascinante Grace), una excelente oficial de la Marina de Guerra de los Estados Unidos, entre los años 1940 y 1950 se convirtió en pionera y propulsora de la programación en computadoras. Como innovativa y pensadora fundamentalista, la almirante Hooper creyó firmemente en que las computadoras podían servir para aplicaciones de negocios más allá del uso primordial que se le daban a estos equipos en los campos científicos y militar. Ella creó el lenguaje Flowmatic, con el cual desarrolló muchas aplicaciones y en 1951 produjo el primer compilador, denominado A-0 (Math Matic). En 1960 presentó su primera versión del lenguaje COBOL (Common Business-Oriented Language). Grace se graduó en matemáticas y física en el Vassar College. Completó su maestría y doctorado en la Universidad de Yale. Durante la Segunda Guerra Mundial se unió a la Marina de Guerra de los Estados Unidos, habiendo trabajado en el Bureau of Ordenance Computation. Paradójicamente recibió entre muchos reconocimientos y condecoraciones, el título de Hombre del Año en Ciencia de la Computación, otorgado por la Data Processing Managment Association. También fue la primera mujer nombrada miembro distinguido de British Computer Society y fue la primera y única mujer nombrada con el grado de Almirante de la Marina de Guerra de su pais. Grace Hooper falleció en 1992. 1946 ENIAC Electronic Numerical Integrator and Computer Otra de las más famosas computadoras de la época fue la ENIAC que contaba con 17,468 tubos de vidrio al vacío, similares a los radio-tubos, y que fuera empleada por el ejército exclusivamente para cálculos balísticos, o de la trayectoria de los misiles. Fue construída en 1946 en la Universidad de Pensylvania por John Mauchly y J. Presper Eckert. Medía 2.40 de ancho por 30 metros de largo y pesaba 80 toneladas. La ENIAC podía resolver 5,000 sumas y 360 multiplicaciones por segundo, pero su programación era terriblemente tediosa y debía cambiársele de tubos contínuamente. 1949 EDVAC (Electronic Discrete variable Automatic Computer) La computadora EDVAC, construida en la Universidad de Manchester, en 1949 fue el primer equipo con capacidad de almacenamiento de memoria e hizo desechar a los otros equipos que tenían que ser intercambiados o reconfigurados cada vez que se usaban. Esta computadora fue también construída por John Maucly y J. Prespert Eckert, quienes empezaron a trabajar en ella 2 años antes que la ENIAC empezara a operar. La idea era tener el programa alamacenado en la computadora y esto fue posible gracias a que la EDVAC tenía una mayor capacidad de almacenamiento de memoria. La memoria consistía en líneas de mercurio dentro de un tubo de vidrio al vacío, de tal modo que un impulso electrónico podía ir y venir en 2 posiciones, para almacenar los ceros (0) y unos (1). Esto era indispensable ya que en lugar de usar decimales la EDVAC empleaba números binarios. En realidad EDVAC fue la primera verdadera computadora electrónica digital de la historia, tal como se le concibe en estos tiempos y a partir de ella se empezaron a fabricar arquitecturas más completas. 1951 UNIVAC (Universal Automatic Computer) de John Mauchly y J. Presper Eckert Todas los equipos mencionados y que pertenecen a la primera generación de computadoras entre los años 1940 y 1958, se caracterizaron por usar entre sus componentes relés, bobinas y tubos de vidrio al vacio. A fines de esta generación, entre 1951 y 1958 Mauchly y Eckert construyeron la famosa serie UNIVAC, la misma que fue diseñada con propósitos de uso general y universal pues ya podía procesar problemas alfanuméricos y de datos. Las tarjetas perforadas todavía conformaban el mayor recurso de alimentación de datos y toda la programación era muy compleja pues se realizaba en lenguaje de máquina. En esta generación proliferante de inventos no podemos dejar de mencionar los siguientes inventos: 1948: IBM lanza la primera calculadora electrónica denominándola simplemente IBM 604 1948: IBM construye la SSEC (Selective Sequence Electronic Calculator) con 12,000 tubos de vidrio al vacío y 21,000 relés electromecánicos. La SSEC es 250 veces más rápida que la Mark I, pero muchísimo menos poderosa que las computadoras modernas de escritorio o las portátiles notebooks. 1948: El Transistor es inventado por William Bradford Shockley con John Bardeen y Walter H. Brattain. Jack Forrester inventa la memoria de núcleo de acero. Estos núcleos de almacenamiento sirven como la tecnología básica detrás de cada computadora hasta los años 70s. Los diminutos núcleos de acero pueden ser magnetizados como contadores de reloj, para representar bits de información, la cual puede ser invocada en millonésimas de segundo. Fueron patentados en 1956. 1950: Maurice V. Wilkes de la Universidad de Cambridge emplea el lenguaje assembler en EDSAC. 1950: Remington-Rand adquiere la Eckert-Mauchly Computer Corp. 1951: Se forma the Computer Society. 1951: Wang Laboratories, Inc. es fundado por An Wang, en Boston. 1951: La primera computadora con ventilador es operada en el MIT. Fue diseñada por Jay Forrester y Ken Olsen. 1952: IBM introduce el modelo 701, su primera computadora electrónica con programa de almacenamiento. Antes de que los mecanismos de cintas magnéticas se convirtiesen en un estándar para el almacenamiento de la información, IBM presentó un sistema que que consistía en una columna con una cámara de aire, la servía para controlar la rápida aceleración o desaceleración de la cinta. Con la IBM 701, los carriles de las cintas de almacenamiento soportaban 100 caracteres por pulgada, o el equivalente de 12,500 tarjetas perforada, por cada carril. En 1953 la IBM 726 introdujo la primera cinta magnética, con una densidad de 100 caracteres por pulgada a una velocidad de 75 pulgadas por segundo. 1952: Remington-Rand adquiere Engineering Research Associates (ERA). 1952: RCA desarrolla la BIZMAC con memoria de núcleo de acero y tambor magnético para soportar base de datos. 1952: El departamento de Justicia de los Estados Unidos enjuicia a la IBM por monopolizar las tarjetas perforadas, en la industria de la contabilidad computarizada. 1953: Burroughs Corp. instala la Universal Digital Electronic Computer (UDEC) en la Universidad del Estado de Wayne. 1953: La primera impresora de alta velocidad es desarrollada por Remington-Rand para su uso en la Univac. 1954: El lenguaje FORTRAN es creado por John Backus en IBM, pero Harlan Herrick desarrolla el primer programa en FORTRAN. 1954: Gene Amdahl desarrolla el primer sistema operativo, usado en la IBM 704. 1955: Remington-Rand surge con el Sperry Gyroscope para conformar Sperry-Rand. 1956: El gobierno de Estados Unidos enjuicia a IBM y lo obliga a vender así como alquilar equipos bajo la modalidad de Leasing. 1956: A. Newell, D. Shaw and F. Simon inventan el IPL (Information Processing Language.) 1956: El concepto de Inteligencia Artificial es acuñado por John McCarthy. 1957: Control Data Corporation es formado por William C. Norris y un grupo de ingenieros de Sperry-Rand. 1957: Digital Equipment Corporation es fundada por Ken Olsen. http://www.taringa.net/posts/info/8580094/Megapost-de-Historia-de-la-informatica-parte-2.html

0
2
E
Evita formatear tu pc con Windows frecuentemente
InfoporAnónimo2/14/2011

Evita formatear tu pc con Windows frecuentemente. Incluso hoy en día, muchos usuarios tienen el hábito de formatear el sistema operativo cada vez que comienza a quedarse más lento. Esa es una práctica que ha sido utilizada desde hace más de una década, pues era esa la mejor forma de corregir errores de Windows 95 o 98, pero en realidad, hoy en día ese tipo de acción no es tan necesaria, o al menos no con tanta frecuencia. Con la popularización de las computadoras, surgieron muchos nuevos usuarios. El número de desarrolladores también aumentó bastante, lo que provocó que fueran creados nuevos géneros de programas, como es el caso de los optimizadores de sistema, que hoy son de gran ayuda para todos lo que necesitan mejorar el desempeño de su sistema operativo, evitando tener que pasar por ese gigantesco proceso de formatear el disco duro. El origen del mito Cuando las computadoras todavía no eran tan populares, no existían tantos programas especializados en limpieza de registros y afines, lo que dejaba las máquinas más pesadas a cada día. Instalaciones de programas sin utilidad era una de las principales causas de ese peso extra en las máquinas. Desinstalaciones también eran constantemente, la causa de ese tipo de problema. Muchos programas, al ser eliminados, se llevaban DLL’s importantes junto con la desinstalación, o dejaban muchos rastros, lo que impedía que el sistema operativo fluyera más suavemente, como ocurre antes de instalar los primeros programas. Por esas razones, muchos encontraban en el proceso de formatear el disco duro, la única salida para que las computadoras volvieran a ofrecer las capacidades que fueron adquiridas por el consumidor. Con eso, se instauró una cultura de formateos constantes en gran parte de las comunidades de los usuarios de Windows. Hoy en día, esa historia es completamente diferente y existen programas de optimización que se encajan en cualquier perfil de usuarios, desde los más novatos hasta los más expertos y exigentes. Uso correcto: uso consciente El mejor modo de evitar que sea necesario formatear la computadora es no dejarla llegar al límite. Para eso, se recomienda el uso consiente de ella, siempre pensando en la mejor manera de mantener espacio libre en disco, sin que las aplicaciones o documentos esenciales para el usuario sean eliminados. Acompaña algunos de los consejos que reunimos para mostrar cómo es posible mantener la computadora con el mejor funcionamiento posible. Instala apenas lo esencial ¿Trabajas con edición de imágenes o utilizas los programas de edición para tareas más comunes? Si solo necesitas de programas de este tipo para realizar algunos pequeños redimensionamientos o alteraciones, opta por instalar programas más leves, como PhotoScape o Paint.net. Photoshop, a pesar de ser más completo, tiene muchos recursos que solamente son utilizados por profesionales. Lo mismo debe ser aplicado a todos los otros tipos de programas. Aplicaciones muy pesadas ocupan un espacio innecesario del disco duro y que cuando se abren demandan muchos recursos de procesamiento, que podrían ser destinados a otras tareas. Eso es apenas la punta del iceberg. Existen muchos usuarios que instalan muchos programas que realizan funciones parecidas y esta aglomeración de “desperdicio electrónico” genera una lentitud insoportable. Lo que nos lleva hasta el segundo consejo de este artículo: Desinstala aplicaciones abandonadas Cuanto más programas tengas en tu computadora, más espacio será ocupado y mayores serán los caminos recorridos por el sistema para leer todas las tareas. No es raro encontrarnos nuevos programas que realizan todas las funciones que otro ya las hacía, agregando apenas una o dos funciones diferentes. Cuando eso ocurre, lo más recomendado es eliminar la aplicación anterior, dejando solamente el programa más completo en el sistema. Por ejemplo, para conversiones de archivos, puedes usar Format Factory, que tiene una enorme gama de formatos para videos, música y varios otros. Esa reunión evita la necesidad de tener varias aplicaciones con funciones parecidas en la computadora. ¡Limpiar es necesario! Formatear no siempre lo es… Ya que tenemos una infinidad de aplicaciones para la limpieza y optimización del sistema operativo, no hay motivos para no usarlos. Existen muchas opciones excelentes disponibles de forma gratuita, o sea, no necesitas gastar nada para lograr que tu computadora vuelva a presentar óptimos resultados. Sabiendo combinar dos o tres programas, el sistema queda como nuevo en pocos minutos. Por ejemplo, utilizando CCleaner para eliminar rastros de navegación, cookies y limpieza de registro, la utilización del Advanced SystemCare solamente complementa el servicio, garantizando que incluso algunos pequeños pedazos de fragmentación sean corregidos. Una opción interesante también es Portinho. Esta aplicación, creada por un desarrollador independiente brasileño, hace limpiezas profundas en Windows, dejando el sistema mucho más leve para evitar que les salgan nuevas canas a los usuarios después de tanta irritación. Siguiendo esos consejos, difícilmente tu computadora necesitará ser formateada constantemente. Es lógico que existen casos en que formatear se hace extremamente necesario o inevitable, pero dejemos esa medida drástica para las situaciones que realmente lo necesitan. Sabiendo utilizar la computadora de una forma más consiente, hará que el sistema fluya fácilmente. Fuente: http://www.123.cl

11
8
Los Illuminati
Los Illuminati
InfoporAnónimo3/10/2011

Los Illuminati Imagen: símbolo de los Illuminati escaneado de un billete de 1 dólar. El dolar es la moneda usada internacionalmente en los intercambios comerciales internacionales. "Y que nadie pueda comprar ni vender, sino sólo quien lleve la marca con el nombre de la Bestia o con la cifra de su nombre." La Biblia, Apocalipsis 13,17 Illuminati Illuminati es el nombre por el que se conoce mayormente la Orden de los Perfectibilistas o Iluminados de Baviera. Fue una sociedad secreta fundada el 1 de mayo de 1776 en Ingolstadt, Baviera, Alemania, por el alemán Adam Weishaupt. Illuminati en latín significa "Los Iluminados". link: http://www.youtube.com/watch?v=QxYzQBIRsS4 Weishaupt habría creado esta sociedad con el propósito de derrocar a los gobiernos y reinos del mundo además de erradicar a todas las religiones y creencias para regir a las naciones bajo un Nuevo Orden Mundial, basado en un sistema internacionalista (precursor del comunismo y el anarquismo). Establecerían una moneda única y una religión universal, donde según sus creencias, cada persona lograría la perfección. Simbología El símbolo de los Illuminati está compuesto por "el ojo que todo lo ve", asociado al Ojo de Dios o Yahvhe (que en su forma hebrea es el verdadero nombre de Dios). Su verdadero origen se encuentra en el simbolismo del Udjat u "Ojo de Horus", antiguo dios egipcio que representa al Sol. El símbolo, rodeado por un aura, está situado encima de la pirámide truncada. Un presunto "Ex-illuminati" llamado William Schnoebelen, explica el significado de este símbolo y comenta que se basa en un mensaje realizado por Jesús en Mateo 21:42 que dice: Jesús les dijo, ¿Acaso nunca leyeron en las escrituras?: La piedra que los constructores rechazaron es la piedra que llegó a ser la cabeza y esquina. El Señor ha hecho esto, y es cosa maravillosa a nuestros ojos. Según Schnoebelen, la única piedra que puede ser cabeza y esquina, es el vértice superior de una pirámide, razón por la cual ellos le cortan esa piedra al símbolo, él explica: "Este símbolo en el dólar no es nada más que un talismán y este talismán se carga con la energía de millones de personas diariamente". Los Illuminati creen que cortándole el vértice a la pirámide se impedirá el regreso de Jesús. La Pirámide La pirámide truncada tiene 13 escalones los cuales representan de una forma esotérica los 13 grados del Rito de los Iluminados de Baviera. Representa también a la Humanidad separada de los "Iluminados". La parte izquierda está oscurecida (un 15% aproximadamente) y el resto está iluminada, pero sin la fuerza del ojo superior. Fundación En la base está escrito el número 1776 en números romanos (año de la independencia de las 13 colonias en EEUU y de la fundación de los Illuminati). Estas 13 colonias o estados originales son representadas por las 13 franjas o líneas que aparecen en la bandera de EEUU. Annuit Coeptis En la parte superior hay una sentencia: "Annuit Cœptis" que significa: "[Él] aprueba comienzo". Nuevo Orden de las Eras Abajo aparecen las palabras "Novus Ordo Seclorum", su traducción sería "Nuevo Orden de las Eras" (o de los Siglos). También se puede traducir como Nuevo Orden Seglar, seglar significa aquel que no es miembro del clero (laico). Búho de Minerva Los Illuminati tenían también otro símbolo para su "escuela secreta de sabiduría", este era el Búho de Minerva, la diosa de la sabiduría. Este símbolo, igualmente se puede encontrar en el billete de un dólar a una escala minúscula, en el margen superior derecho entre una hoja y el margen que rodea al número uno. Este símbolo muestra a una minoría, que todo lo observa, sobre una gran mayoría estática (de piedra) que está bajo el control del ojo. Metas de los Illuminati 1. Aniquilación de la monarquía y de todo gobierno. 2. Abolición de la propiedad privada para individuos y sociedades. 3. Supresión de los derechos de herencia en todos los casos. 4. Destrucción del concepto de patriotismo y sustitución por un gobierno mundial. 5. Desprestigio y eliminación del concepto de familia clásica. 6. Prohibición de cualquier tipo de religión tradicional. 7. Establecimiento de un único Gobierno Mundial. La actual situación mundial, con una crisis que afecta al 100% de los países, con numerosas guerras en activo, con millones de personas en situación de hambruna, con pobreza, con incertidumbre en la economía, es el caldo de cultivo que nos han implantado para la aceptación del Primer Gobierno Mundial. La Historia nos enseña que todos los gobiernos que han existido se han basado en la imposición de sus creencias a base del sometimiento de la población, creando grandes desigualdades sociales. Técnicas Militares Para llevar a cabo sus planes utilizan técnicas militares del político y militar romano Quinto Fabio Máximo. http://revelacionesdivinas.blogspot.com/2009/03/40-illuminati.html

5
0
25 frases más comunes de una pareja
25 frases más comunes de una pareja
InfoporAnónimo3/19/2011

Las 25 frases más comunes en una relación de pareja Las relaciones de pareja son muy complejas, el entender a la otra persona y que lo entiendan a uno mismo es bastante difícil. Durante el tiempo que se permanece con el otro se viven situaciones que nos llevan pronunciar un par de frases que muchos han escuchado entre reproches, preguntas y excusas. Recuerda algunas de ellas: -Antes eras más romántico. -No estaba mirando a nadie. -Démonos un tiempo. -Ya no es lo mismo. -Te mereces alguien mejor. -¿Por qué no contestas? -No estoy enojada. -El problema soy yo. -¿Me quieres? -¿En qué piensas? -Necesito espacio. -Tenemos que hablar. -Siempre soy yo el culpable. -Es que tú no me entiendes. -¿Es que no confías en mí? -No eres la misma que conocí. -No hay plata tenemos que ahorrar. -Decide tú. -Un amigo que tú no conoces. -Nunca hacemos nada diferente. -Ahora no me duele la cabeza. -¿Te gusta alguien más? -¿Me veo gorda? Dime la verdad. -Es que tomas decisiones sin consultarme. -No me compares. -¿Por qué no llamas? Mas de una de estas yo también las he dicho... saludos taringueros... Fuente: http://www.terra.cl/zonamujer/index.cfm?id_cat=2476&id_reg=1615258

0
0
Cibercrimen mueve mas dinero que el narcotrafico
Cibercrimen mueve mas dinero que el narcotrafico
InfoporAnónimo4/28/2010

Hacker afirma que cibercrimen mueve mas dinero que el trafico de heroina Ingeniero francés señala que existe una cadena de tráfico que comienza con la creación de un troyano y termina con el lavado de dinero robado desde cuentas corrientes. El cibercrimen es un negocio altamente rentable. Más que el tráfico de heroína incluso, según señala Guillame Lovet, destacado experto en seguridad francés en reciente entrevista a diario El Pais. Lovet, quien actualmente trabaja como ingeniero del Georgia Insitute of Technology en Estados Unidos y lidera el centro europeo de respuesta a amenazas Fortinet, dice que los cibercriminales operan en distintas capas, cada una con su propia ganancia y beneficios. El ingeniero señala que la cadena parte con ingenieros que desarrollan troyanos o virus para robar datos e información. Principalmente, en países como Rusia, Turqu+ia y China donde los profesionales son altamente calificados pero muy mal pagados (300 dólares de sueldo mensual versus 1.500 que puede lograr a obtener por un kit troyano completo). La segunda parte está en manos de quienes lavan el dinero, que implica más riesgos -el autor del troyano es difícil de ser rastreado, pero más beneficios. En ese sentido, comenta que hay casos donde se venden cuentas corrientes con 180 mil dólares por 300, y que en cifras globales se mueven entre 50 mil y 150 mil millones de dólares al año. "Es más rentable que el tráfico de heroína, que requiere muchos intermediarios: hay que cultivar el opio, transformarlo en heroína, transportarla, distribuir las dosis... el beneficio total es mayor, pero se reparte entre más intermediarios. El cibercrimen es menos peligroso y más fácil", afirma Lovet. El ingeniero también dicr que existen claros vínculos entre el terrorismo y el cibercrimen. Los atentados en el metro de Londres y en los trenes de Madrid se financiaron con números de cuentas corrientes robadas, y así es como muchas de las actividaes de Al Qaeda obtienen sus recursos. Además, Lovet advierte que los archivos PDF son con los que hay que tener más cuidado al momento de navegar en Internet, pues la mayoría de los usuarios desconocen que pueden estar infectados con malware al igual que los archivos ejecutables. En cuanto a las redes sociales, señala que la mayor amenaza es la falta de educación: "Nadie distribuiría en la calle sus propias fotos semidesnudo. En Facebook se hace. Y los cibercriminales aprovechan esa información para lanzar ataques personalizados". Fuente: terra.cl

0
0
Todo sobre las Piramides de Egipto
Todo sobre las Piramides de Egipto
InfoporAnónimo7/21/2010

Pirámides de Egipto 1. Introducción Las pirámides de Egipto construidas hace mas de 4 000 años, son la maravilla más antigua y la única que se conserva. Sirvieron como tumba a los faraones egipcios, cuyos cuerpos momificados se rodeaban de tesoros y objetos personales. Erguidas sobre la arena del desierto, las pirámides de Egipto, esbeltas majestuosas, son algo más que un templo y una tumba. Ante ellas, y especialmente a la Gran Pirámide, se tiene la impresión de hallarse en presencia de un monumento que guarda en sus entrañas secretos trascendentales muy estrechamente relacionados con su estructura. Como en Babilonia y en América, en Egipto las pirámides eran templos erigidos a la gloria de un dios, templos para complejos rituales de muerte y de nacimiento, y al tiempo monumentos al conocimiento de un pueblo mucho menos ignorantes de lo que los historiadores creían. Hasta los arqueólogos más irracionalmente racionalistas se han rendido a la evidencia : en sus medidas esta reflejado el conocimiento matemático y astronómico de una ciencia incomprensible hace seis o siete mil años atrás. Estamos, pues, frente a algo más que una tumba. En esa montaña formada por dos millones seiscientos mil bloques de piedra, acarreados y ensamblados quien sabe como, con un volumen total de más de dos millones y medio de metros cúbicos y un peso superior a los siete millones de toneladas, la Gran Pirámide es un templo religioso y científico y tal vez, sea también una tumba 2. Arte en las Pirámides de Egipto Cuando Napoleón, viajó a Egipto, llegó a Gizeh, a las tres grandes pirámides de Keops, Kefrén y Mikerinos, que adornan la llanura, impresionó mucho al viajero, que era admirador de todas las manifestaciones de poder de los antiguos reyes. Napoleón entregó a una serie de cálculos matemáticos sobre la cantidad de piedra empleada en aquellos edificios. Según él la piedra usada bastaría para cercar a Francia con un muro de tres metros de altura y unos 40 centímetros de grosor. El matemático Monje, que acompañaba a Napoleón, confirmó estos cálculos. Hoy se piensa que sólo la gran pirámide de Keops está formada por unos 2.300.000 bloques de piedra, que pesarán una media de dos toneladas y media cada uno. Claro que ésta es la mayor de las pirámides con 146,59 metros de altura, y en cierto modo marca el máximo desarrollo en la construcción de este tipo de tumbas, tanto por su tamaño como por la envergadura de los medios empleados en su erección. Razón de sus construcciones La pirámide fue pensada para tumba inviolable del soberano, destinada a la eterna preservación de su cuerpo, incorrupto por embalsamamiento, y de su ajuar funerario. Sólo de este modo se posibilitaba la residencia del alma en el cuerpo y su supervivencia en el mundo del más allá. Para proteger el cuerpo y el ajuar de eventuales saqueadores se multiplicaban las dificultades de acceso a la cámara, interponiendo toneladas de piedra, disponiendo puertas falsas, corredores ciegos, cámaras dobles, etc. Todo ello fue inútil: los saqueadores siempre consiguieron su objetivo y ya en la antigüedad las pirámides fueron violadas y robadas y pasaron a ser lo que son hoy, el símbolo de Egipto de su arte teocrático y de su sistema político. A pesar de los grandes progresos que ha experimentado la egiptología, particularmente en lo que va de siglo, es todavía mucho lo que se ignora acerca de cómo era construida una pirámide. Para asegurar la vida en el más allá, el cuerpo del difunto debía ser conservado y habían de ser satisfechas las necesidades materiales que tuvo cuando vivía. Esta idea fue dominante y condicionó de modo decisivo la vida en todos los períodos del antiguo Egipto. Ya en la época predinástica se hacía lo posible por preservar adecuadamente el cadáver. Entonces se enterraba en hoyos rectangulares excavados en la arena, en los que a veces se disponían unas paredes de madera o de barro prensado. Junto al cadáver se disponían utensilios, armas y alimentos. Cerrada la tumba, ésta se cubría con un túmulo de arena y relleno. Con el tiempo solía ocurrir que la arena era desplazada por el viento, desaparecía el túmulo y finalmente el cadáver quedaba expuesto a los elementos y se perdía. Para evitar este peligro, ya en la era dinástica las personas de elevada posición y los reyes se hacían construir encima del túmulo de arena, una estructura de adobe y ladrillo. La "mastaba", que debía imitar en su aspecto a las viviendas que el difunto habitó cuando vivía. Los reyes de la III Dinastía empezaron a usar la piedra para sus monumentos funerarios, pero su empleo no se generalizó en las tumbas de nobles y dignatarios hasta la IV Dinastía. 3. Tipos de Pirámides La pirámide escalonada La primera tumba de piedra jamás construida se atribuye a Imhotep, el arquitecto de Zóser. El nombre de este arquitecto se encontró al pie de una estatua del faraón, cerca de la tumba. Los logros de Imhotep eran legendarios ya en la antigüedad. No se construyó aisladamente, sino formando parte de un conjunto de edificios y patios de piedra relacionados con diversas ceremonias funerarias dedicadas al faraón. El núcleo del monumento consiste en una estructura sólida a modo de caja alargada cuyo interior está formado por bloques de piedra traída de las proximidades y el exterior de caliza fina procedente de las canteras de Tura, más lejanas. En la parte norte se había empezado a construir un templo funerario, pero antes de que se concluyera se decidió extender la pirámide por sus fachadas norte y oeste. Finalmente una última ampliación de la pirámide afectó a sus cuatro lados. Se completaron los seis peldaños y el conjunto se revistió con piedra caliza de Tura. La parte subterránea de este conjunto consistía en un pozo profundo que daba acceso a un complicado laberinto de corredores y cámaras de diversos tamaños. Las pirámides clásicas Está claro que la pirámide tal como hoy la entendemos, monumento de base cuadrada y lados en rampa hacia la cumbre, deriva de la pirámide escalonada. Afortunadamente se puede conocer esa transición gracias al estudio de los restos de una pirámide parcialmente destruida en Meidum. Esta pirámide estaba formada por un núcleo compuesto de varias capas de mampostería que disminuían en altura desde el centro hacia los lados y se apoyaban sobre un cuerpo central formando un ángulo de 75 grados. Parece ser que este mismo método fue empleado por los constructores de las pirámides de la V dinastía. No es absolutamente seguro, sin embargo, que las tres pirámides de Gizeh se construyeran siguiendo este sistema. Como norma general, la tumba real debía estar situada al oeste del Nilo, lugar de la puesta del sol, y por encima del nivel del río, para evitar que las inundaciones periódicas afectaran al monumento. Por otra parte no podía construirse muy lejos del río, ya que las piedras se transportaban desde las canteras por vía fluvial. Lo ideal era que además no se encontrara demasiado retirada de algún núcleo urbano. Una vez elegido el lugar, había que preparar el terreno limpiándolo de toda la arena superficial hasta dar con la roca viva, donde debían afirmarse los cimientos. Esta roca se nivelaba por medio de un complejo procedimiento. A veces, sin embargo, se dejaba una prominencia en el centro y se aprovechaba en la construcción de la futura pirámide. Por último se aseguraban de que los cuatro lados del monumento estuviesen orientados hacia las cuatro puntos cardinales. La orientación de la pirámide debió hacerse con ayuda de varios cuerpos celestes, puesto que los egipcios desconocían la brújula. El faraón marcaba la línea de los cuatro lados una vez observada la posición de las estrellas. En esta observación le ayudaba un sacerdote en representación del dios Thoth. La pirámide en construcción. La piedra para el revestimiento exterior de la pirámide se obtiene de las canteras de Tura en la orilla este del Nilo, cerca de las colinas de Mugattan. Las herramientas usadas para este trabajo consistían en excelentes útiles de cobre, entre ellos sierras capaces de cortar cualquier tipo de piedra caliza. Más problemático es pensar como podrían extraer piedras duras como el granito. Algunos opinan que la utilización de granitos fue tardía y que, al principio, los egipcios se contentaron con aprovechar los bloques sueltos de superficie. El número de trabajadores necesarios para construir una pirámide debió ser necesariamente enorme. Herodoto afirma que en la pirámide de Keops trabajaron sin descanso cien mil hombres en turnos de tres meses durante veinte años. Cuando los bloques salían de la cantera había que transportarlos al lugar de la construcción. A pesar de que algunos alcanzaban las doscientas toneladas, el transporte fluvial no presentaría demasiados problemas. Aprovecharían la época de las inundaciones para, en pesadas balsas, arrastrar estos materiales hasta la orilla más próxima al monumento en construcción. Después se transportarían por tierra a base de trineos sobre los que el bloque se afirmaría con ayuda de cuerdas. Los trineos se deslizarían sobre pistas preparadas al efecto en las que iban colocándose rodillos. La construcción del exterior de la pirámide es algo que aún pertenece al dominio de lo especulativo. Una explicación plausible sería la de la construcción de sólo una rampa de abastecimiento que cubriría un lado de la pirámide. Los otros tres estarían tapados por terraplenes de pendiente más pronunciada. A medida que la pirámide ganaba altura, la rampa crecía igualmente y se alargaba para corresponder al estrechamiento de la pirámide de modo que se evitase todo riesgo de desmoronamiento. Los tres lados de la pirámide que no tenían rampa estaban provistos de terraplenes con la anchura suficiente en la cumbre como para permitir el paso de hombres y materiales. Pero como estos terraplenes no se usaban para elevar piedras, que era la función de la rampa, su gradiente en la superficie externa tendría la máxima inclinación compatible con la firmeza. Vigas de madera, algunas de las cuales han sido encontradas por los arqueólogos, se colocaban sobre la superficie de la rampa y de los terraplenes para ofrecer una base firme a los trineos de transporte. La pirámide iría creciendo laboriosamente y estrechándose progresivamente hasta que ya sólo hiciese falta un único bloque, con forma precisamente de pirámide para completarla en su cúspide, esta última piedra se tallaba en granito. Cámaras y pasadizos Queda por tratar el problema de cómo se incorporarían a la obra los corredores y habitaciones que se encuentran en el interior de las pirámides. Parece ser que, como éstos ocupan una parte mínima del edificio, se construirían con independencia de éstos. Posiblemente, rampas subsidiarias se elevarían y desmantelarían rápidamente según las necesidades, de modo que los bloques prefabricados correspondientes a pasadizos y cámaras pudiesen elevarse al nivel requerido, más alto que el resto de la construcción de relleno. De ese modo, los obreros empeñados en esta obra habrían tenido tiempo de acabarla antes de que los estratos de mampostería de la pirámide alcanzasen su nivel. Terminada la pirámide vendría el trabajo de labrar las caras exteriores que habían quedado ocultas por rampa y terraplenes. Todavía quedarían algunos trabajos menores que realizar en los alrededores de la pirámide donde se disponían un templo mortuorio, el corredor de la avenida y otras obras adyacentes. 4. Método de construcción Construcción en Gizeh. Las pirámides, monumento de la fuerza y la inteligencia humana, han motivado en todo tiempo la admiración y curiosidad de los hombres. Erigida en la meseta de Gizeh, durante el antiguo imperio egipcio, la pirámide del faraón Keops o Gran Pirámide como se la denomina representa la obra maestra de los constructores. Es sumamente vasta la problemática que comprende los métodos constructivos utilizados para la realización de esta obra, y la explicación de los motivos que determinan su distribución interior tan característica. Me referiré en este artículo a dos temas que han concitado la atención de los arqueólogos, desde Bourchardt hasta nuestros días, a saber : a) Método utilizado para la elevación de bloques. b) Finalidad con que fue construida la Gran Galería. Tradicionalmente, ambas temáticas han sido analizadas en forma separada, llegándose al agotamiento de los elementos de juicio existentes en ambas áreas. Realizaré una breve descripción a título informativo de las opiniones científicas existentes para luego formular un enfoque diferente de la temática cuya originalidad radica en considerar que ambos temas están relacionados. Finalidad de la Gran Galería * Flinders Petrie, fue el primer arqueólogo en emitir la opinión de que la Gran Galería estaba destinada a almacenar los tres bloques de granito, que en una longitud de 4,5 metros, obstruye el corredor luego del funeral del faraón. * Bourchardt comparte esta idea, sin embargo, remarca que ella no permite explicar las ranuras talladas en la parte inferior de la tercera hilada de piedras de las paredes laterales de la galería, y los bloques engastados existentes en estas paredes sobre cada uno de los veintiocho agujeros excavados en las banquetas a intervalos regulares. Considera además, que los bloques colocados en el piso de la galería, habrían obstaculizado el cortejo fúnebre en su pasaje hacia la cámara funeraria, y sugiere que esos bloques fueron depositados sobre una plataforma de madera instaladas en las ranuras existentes en las paredes laterales, la cual era soportada por maderos encastrados en los agujeros existentes en las banquetas. Complementa su propuesta con la teoría de los estados sucesivos de la edificación, que consiste en suponer que existieron tres cambios de planes durante la construcción , lo cual explicaría la existencia de tres cámaras en el edificio. * Según Lauer, durante el segundo plan, la cámara intermedia era la destinada a cumplir la función de cámara funeraria y la galería estaba construida como un corredor sin salida, en el cual se almacenaban los bloques de granito que obstruían todo el corredor ascendente. Finalmente los constructores habrían desechado esta idea, construyendo la cámara superior y la antecámara con su sistema de bloqueado. Este sistema de bloqueado, le ofrecía suficiente seguridad a la cámara superior como para que los constructores entendieran innecesario el bloqueado de todo el corredor ascendente, reduciéndolo a tres bloques. El resto de los bloques de granito fueron utilizados en la construcción de la cámara superior, y para trasladarlos de la galería a esta cámara, construyeron un andamiaje semejante al formulado por Bourchardt, que permite explicar los distintos detalles existentes en la galería. Técnicas de elevación de bloques Los bloques que componen la pirámide del faraón Keops, tienen un peso promedio de 2500 kg. a excepción de las enormes losas que conforman el techo de la cámara de granito y sus cámaras de descarga, las cuales están ubicadas próximas al centro del edificio hasta una altitud estimada en 68 metros. Solo un medio estaba al alcance de los antiguos egipcios para elevar estas grandes losas, la rampa construida en ladrillo y tierra. Vestigios de rampas encontradas en exploraciones arqueológicas, hacen que la teoría de las rampas rectas formulada por Bourchardt y perfeccionada por Lauer fueran aceptadas unánimemente en su momento. Sin embargo la utilización de rampas rectas, se torna sumamente trabajosa, cuando se consideran alturas como las alcanzadas en esta pirámide, al ser necesario acumular un volumen de material en la rampa, que solo puede ser comparado con el de la propia pirámide. La rampa en forma de espiral, permite subsanar esta deficiencia y ha tenido buena aceptación en los medios científicos, si bien no se han encontrado evidencias arqueológicas que confirmen su utilización. Uno de los arqueólogos que más aportes ha realizado al esclarecimiento de este tema , J. F. Lauer, sugirió una variante a su modelo de rampa recta. El considera la superposición de rampas con pendientes progresivamente más acentuadas, que tienen en cuenta la disminución de altura media de las hiladas de piedra a medida que nos acercamos a la cúspide y el hecho de que las enormes losas no se encuentran más en ésta pirámide por encima de los 68 metros de altitud, esas superposiciones de rampas permiten, además, limitar su longitud desde el pie e la pirámide a 300 metros. Este sistema ofrece la enorme ventaja de presentar un gran ancho de vía de la rampa en los niveles inferiores de la pirámide que ofrecen muy vastas superficies para construir. 5. Método Propuesto. Uno de los objetivos claramente perseguidos por los constructores de pirámides, es la búsqueda de mayor altitud en sus edificaciones. En la pirámide de Keops, se alcanzó la altura máxima lograda de aproximadamente 147 metros, superando ampliamente a las pirámides del Grupo Dahchurt que las precedieron (Pirámide del Sur y del Norte, con 103 y 92 metros de altura ). Para obtener este importante incremento de la altura, los constructores debieron resolver deficiencias estructurales, evidenciadas en Meidun y la Pirámide del Sur y dificultades crecientes para elevar los bloques a alturas significativamente mayores. Probablemente la evolución constructiva experimentada, fuera acompañada por modificaciones en las técnicas utilizadas para elevar los bloques, superando así las dificultades que los métodos empleados en las construcciones anteriores les presentaban. Coincidiendo con ese incremento de la altitud obtenida, la pirámide de Keops, presenta en su distribución interior, una construcción que no tiene precedentes, "la Gran Galería". Consideremos que ambos fenómenos estén relacionados, es decir, el incremento sensible de la altitud se obtiene a partir de la aplicación de un método para elevar los bloques, que requiere la existencia de una rampa interior con las características de la Gran Galería. Para instrumentar prácticamente esta idea, adoptaremos como hipótesis que la galería fue utilizada como rampa interior sobre la cual se deslizará un contrapeso. Con el objeto de ilustrar la aplicación práctica del método que se propone, imaginemos que el edificio ha sido construido hasta una altura de 100 metros, la superficie superior del mismo es una plataforma cuadrada pronta a recibir la hilada siguiente de bloques. En el interior del edificio, la galería oficiando como rampa se encuentra dividida por una plataforma construida en madera y montada en las ranuras existentes a la altura de la tercera disminución de los muros laterales, debajo de la cual un contrapeso cargado con pequeñas piedras se desliza sobre guías de madera fijas a las banquetas. Los agujeros existentes a intervalos regulares permiten la fijación de las guías a las banquetas, mediante tarugos de madera, y los bloques engastados en las paredes, actuando como topes, cumplen la función de detener el contrapeso en posiciones intermedias. Un conducto vertical, conecta la pared sur de la galería con la superficie superior del edificio, a través del cual es trasmitido mediante cuerdas y apoyos fijos lubricados, el esfuerzo generado durante el deslizamiento del contrapeso, el cual será utilizado para elevar los bloques en el exterior. Elevado el bloque, el contrapeso se encuentra en el final de su recorrido donde es descargado. Un equipo de hombres, desde la plataforma construida en la galería, realiza por medio de cuerdas el esfuerzo de subir el contrapeso descargado, a su posición inicial, en la parte alta de la galería. Una vez cargado nuevamente el contrapeso, se está en condiciones de elevar un nuevo bloque. Como puede apreciarse, los distintos detalles y características que presenta la galería, de dificultosa interpretación , aparecen explicados con la función que le hemos adjudicado. Esta nueva forma de visualizar la problemática, tiene como principal virtud, su demostración. En efecto, en la descripción del método propuesto para elevar los bloques, asumí la existencia de un conducto vertical que conectando la pared sur de la galería con la plataforma en construcción, permitía trasmitir al exterior el esfuerzo generado durante el deslizamiento del contrapeso. Imaginemos ahora que la construcción del edificio ha sido finalizada incluida la colocación del revestimiento, se presenta entonces la tarea de obstruir el conducto vertical. Si adoptamos como hipótesis que dicho conducto existió y fue obstruido con pequeños bloques, necesariamente deben existir evidencias de la obstrucción en la traba superior del edificio. Puede observarse la presencia de tres bloques pequeños y alineados a la cara este del edificio, ubicados próximos al centro de la plataforma (ver flecha). Dos aspectos merecen ser resaltados, que hacen factible la existencia de la obstrucción a la que hicimos referencia anteriormente, la diferencia de tamaño de éstos bloques respectos al resto que componen la plataforma, y el hecho de que los bloques que aun subsisten de la hilada anterior se encuentran en el borde de esos pequeños bloques y no formando la traba como correspondería. Este detalle a ser investigado, permite que las variantes que hemos formulado en la problemática tratada, sea demostrado en uno u otro sentido. Herodoto, que representa la tradición corriente de Egipto en su época, declara en lo referente a la construcción del monumento de Keops: "Esta pirámide fue construida de la siguiente manera: se colocaron al principio una serie de gradas que algunos llaman crossai y otros bomides. Después de haberle dado para empezar, esta primer forma, se procedió a subir las piedras restantes, por medio de máquinas construidas de trozos cortos de madera; desde el suelo las subían a la primera plataforma; cuando la piedra había llegado allí, era colocada en otra máquina instalada sobre esta primera plataforma; y pasaba a otra grúa , pues había tantas máquinas como plataformas. O quizás solo había una máquina, fácil de transportar, que trasladaban de un piso a otro, después de haber retirado la piedra, indicamos los dos procedimientos, según las dos versiones que hemos oído. Lo primero que hicieron fue llegar al vértice de la pirámide, después pasaron a las partes que quedaban inmediatamente debajo, y por fin, dieron el último toque a los pisos próximos al suelo y al pie mismo del edificio." Hasta el presente no se han aportado pruebas en apoyo a las declaraciones de Herodoto en su conjunto. La pirámide de Kefren es posterior a la pirámide de Keops y presenta una altura ligeramente inferior, resulta lógico pensar que fue construida en forma análoga, de lo cual se deduce que dicha pirámide debería presentar una distribución similar a la estudiada, como ha sido sugerido por distintos arqueólogos. En lo referente a los bloques tapón, se admite como válido que se encontraban depositados en la Gran Galería desde la cual fueron deslizados para colocarlos como un tapón en el corredor ascendente. Aún aceptando que fuera posible deslizar estos bloques en un corredor de 39 metros de largo con la misma sección, el deslizamiento de estos bloques , que presentan una superficie irregular sobre una piedra mas blanda como la que se utilizó para construir este corredor, debería haber dejado evidencias notorias de su paso por el mismo. Si suponemos que el corredor ascendente tenía antes del bloqueado una sección mayor que la actual, todo parece tener mas sentido, y podemos concluir en que primero se colocaron los bloques de granito y luego se redujo la sección del corredor. Si el corredor ascendente presentaba antes del bloqueado un ancho como el de la Gran Galería, lo cual es probable, si tenemos en cuenta que es una prolongación de la misma, podrían haberse depositado los bloques en el corredor y dejar libre para el paso, el mismo ancho que tiene el corredor actualmente. Una inspección del corredor ascendente y de la pared norte de la galería permitiría determinar si esto fue efectivamente así. Resumiendo, la utilización de un contrapeso interior durante la construcción del edificio, habría facilitado la elevación de los bloques, permitiendo alcanzar las alturas obtenidas. Su empleo es complementario al uso de las rampas y explica sin mayores conjeturas la función que cumplió la Gran Galería y sus particularidades. 6. Cosas tras las Pirámides de Egipto. Una sorpresa en el desierto. Su contemplación sobrecoge el animo. Erguidas sobre la arena del desierto, las pirámides de Egipto, esbeltas majestuosas, son algo más que un templo y una tumba. Ante ellas, y especialmente a la Gran Pirámide, se tiene la impresión de hallarse en presencia de un monumento que guarda en sus entrañas secretos trascendentales muy estrechamente relacionados con su estructura. Esas figuras geométricas perfectas poseen un poder que podemos definir como mágico, pero que en realidad debe ser tan natural como las fuerzas cósmicas que intervinieren en sus efectos. Los constructores de las pirámides lo sabían, y nosotros debemos intentar saberlo también. Un paseo por el luminoso horizonte de Jufu Lo malo de la erosión y los saqueos sufridos a lo largo de los milenios por la Gran Pirámide hacen imposible determinar las medidas exactas, y ni con el más exquisito de los cuidados puede garantizarse un error mínimo de diez centímetros, sobre todo en lo que se refiere a la longitud de los lados de la base y a la altura del monumento, medidas éstas en las que están descansando casi la totalidad de los cálculos piramidológicos. Misterios Egipcios En la década del veinte, la arqueología festejó un éxito: Su gran aporte a las investigaciones egiptológicas producido luego de descubrir en el Valle de los Reyes, la tumba intacta de un ignoto faraón muerto y momificado hacía unos tres mil años. Pero poco duró la algarabía. El hallazgo también sumo otros datos que hicieron virar a los científicos hacía el mundo de lo oculto: quien ingresaba a la cámara sepulcral o estaba de algún modo relacionado con las momias, moría misteriosamente. En los seis años posteriores al descubrimiento, 35 era el número de muertos y hoy, aun con las más sólidas teorías científicas, parece que la maldición de las momias ha ganado la batalla. Cuando el arqueólogo ingles Howard Carter abrió la cámara sepulcral de Tutankamon a las 5 de la tarde del viernes 17 de febrero de 1923, entre los tributos de oro y las vajillas repletas de semillas que rodeaban el sarcófago, la comitiva de científicos descubrió una poco reluciente estela de barro con una sentencia en caracteres jeroglíficos: "La muerte golpeara a quien perturbe al sueño del faraón". La maldición del Rey-Dios Con buen criterio se presume que la mayoría de las tumbas de los reyes dinásticos del antiguo Egipto contenían advertencias de esta naturaleza. Asimismo, se sabe que casi todos los sepulcros se convirtieron en cámaras vacías de momias, estelas, vajillas de semillas y naturalmente, objetos preciosos. Por esa razón fundamental no se sabrá nunca que terribles consecuencias padecieron los que desoyeron las advertencias de los sumos sacerdotes. Todo lo que el siglo XX podía conocer en su primera década se basaba en leyendas, en narraciones de boca en boca que contaban los padecimientos de tal o cual saqueador de tumbas, o en maldiciones que acompañaban a un objeto determinado hallado en una cámara funeraria, al lado de una momia. Efectivamente, las cosas se desarrollaron de esa manera ambigua, hasta esa tarde de viernes en que Carter y su séquito de arqueólogos y funcionarios penetraron en la tumba donde Tutankamon había descansado lejos del mundo de los vivos durante 3.259 años. Unos meses antes cuando Carter descubrió el pasillo en cuyo extremo se encontraba el recinto del faraón, los habitantes del desierto se alarmaron. Por esos días una cobra (animal protector de los sacerdotes egipcios) se había comido al canario de Carter y lo que para el no paso de ser una tristeza, para los herederos de las antiguas civilizaciones del Nilo, era un anuncio de futuras catástrofes. Unas semanas después del ingreso a la cámara mortuoria, cuando el mundo de la arqueología celebraba el triunfo de uno de los suyos, el ambiente del ocultismo se disponía a comenzar una década tan brillante como el oro de la mascarilla del legendario Rey-dios. Lord Carnarvon, dandy ingles, amante de la buena vida y las aventuras, socio capitalista de Carter en sus andanzas egipcias, muere en un hospital de El Cairo. Uno de los primeros en ingresar a la tumba de Tutankamon, fue picado por un mosquito en la cara; se le formo una herida infecciosa; entro en la suerte de coma febril y a los trece días murió para horrorizar a los egipcios que auguraban las maldiciones del faraón. Antes de expirar Caranvon le informo a su hermana que Tutankamon lo había llamado y que iba a reunirse con él. En ese mismo momento, en Inglaterra, el perro del filántropo moría fulminado por un infarto. Nace la leyenda La muerte de Lord Carnarvon desato en el mundo entero una comprensible fiebre por lo oculto: espiritistas de todas las latitudes informaron sobre "comunicaciones " de sacerdotes del antiguo Egipto portadores de mensajes terribles; la maldición del faraón se convirtió en tema central durante muchos años, e incluso la literatura y el cine se apropiaron del asunto para darle un carácter aun mas sensacionalista. Sin embargo, no faltaron motivos para que la leyenda se incrementara. El arqueólogo Arthur Mace, del grupo de Carter, muere inexplicablemente luego de un coma profundo en el mismo hotel en el que Carnarvon (según su ultimo anuncio) fue al encuentro de Tutankamon. Joel Woolf, amigo del filántropo ingles y poseedor de las primeras fotos tomadas en la cámara mortuoria, muere por causas no definidas, lo mismo que Richard Bethell, secretario de Carter. En la larga y aterradora lista de muertos por la presunta maldición de la momia, hay que destacar a la hermana de Lord Carnarvon, Aubrey Herbert, que se suicido en Londres; la esposa del filántropo, Almina, que murió repentinamente luego de visitar la tumba; el doctor Archibald Reid, quien había sido encargado de sacar las radiografías de la momia y falleció fulminado cuando nadie lo esperaba; Lee Stack y George Gould, muertos ambos luego de visitar la cámara mortuoria; y varios directores de museos, médicos, arqueólogos y gente ligada a los primeros hombres que ingresaron a la tumba del Valle de los Reyes. Para ser exactos, a seis años del descubrimiento ya sumaban 35 las personas muertas en forma misteriosa que tenían en común una sola cosa: la momia de Tutankamon. Sin embargo, como ya fue señalado, este faraón fallecido adolescente, que no hubiera merecido una línea en los tratados de historia de no ser porque tuvo la suerte de que su tumba se encontrara intacta, no fue el único en hacer sentir sus maldiciones. En 1879 había sido descubierta la momia del sacerdote Khapah Amon con la siguiente amenaza: "La cobra que esta sobre mi cabeza se vengara con llamas de fuego de quien perturbe mi cuerpo. El intruso será atacado por bestias salvajes, su cuerpo no tendrá tumba y sus huesos serán lavados por la lluvia". Al poco tiempo un ingles (Lord Harring) fue aplastado por un elefante, su cuerpo abandonado y su carne y sus huesos dispersados por intensas lluvias. Se trataba del coleccionista que había comprado la momia de Khapah Amon. Algo similar paso con la leyenda del Titanic, uno de los capítulos mas negros de la historia de la navegación. Se sabe que murieron mas de un millar de personas y se han hecho numerosas especulaciones acerca del motivo por el cual se hundió un transatlántico considerado el mas seguro del mundo. Lo que se conoce poco es que uno de los pasajeros ahogados, Lord Canterville, llevaba en el barco, cerca del puente de mando, la momia de una pitonisa que actuó durante el reinado de Amenofis IV. La misma tenia un brazalete con la siguiente leyenda: "Despierta de tu postración y el rayo de tus ojos aniquilara a todos aquellos que quisieron adueñarse de ti". 7. Posibles Causas Sean del orden mágico o meramente científico, lo cierto es que no son pocas las muertes extrañas vinculadas al descubrimiento de la tumba de Tutankamon y otras momias. Como es natural, el origen de estas muertes fue investigado por quienes no se conforman con la explicación mágica. De esta forma se habló de venenos de contacto cuyas propiedades tóxicas no caducan; de gases tóxicos producidos por la descomposición y el encierro; de hongos tóxicos depositados en las tumbas por sumos sacerdotes ( El British Medical Journal arriesgo la teoría de que Lord Carnarvon murió al tocar en una vajilla un hongo patógeno llamado histoplasma capsulatum ). Para agotar el arsenal científico, hace unos años el científico nuclear Bulgarini opino que los egipcios ya conocían la energía atómica y que en ese marco cabía la posibilidad que hubieran utilizado uranio radiactivo para proteger a los reyes de los profanadores. Hace ya muchos años que no se habla de la maldición de las momias. Los incrédulos, al parecer, habían ganado la batalla ya que cualquier episodio reciente vinculado a objetos "malditos" seguidos de muerte, son rápidamente archivados. Lo real es que las teorías basadas en venenos y gases radioactivos, bien pueden explicar algunas de las muertes, no así los casos de accidentes o suicidios, aunque sean producidos por sugestión. La casualidad, se sabe, no existe; pero una suma de ellas siempre es algo mas que una simple casualidad. 8. Mapas de las Pirámides de Egipto Guiza Plano General 9. Conclusiones Los grandes templos, las tumbas y las extraordinarias pirámides del valle del Nilo han convertido a Egipto en un lugar fascinante, motivo de inspiración para el viajero, desde, aproximadamente, los últimos tres mil años. Los egipcios ejecutaron obras maestras con instrumentos demasiado rudimentarios. Desarrollaron un arte majestuoso y se muestra en los sepulcros que construyeron, así como las decoraciones y el mobiliario, que son una fuente más fecunda para conocer sus creencias, esperanzas e ideales, y por consiguiente su arte, que los de cualquier otra civilización de la Antigüedad. Mi trabajo de investigación va orientado hacia la cultura egipcia ya que me parece muy interesante todo lo relacionado con esta forma de ser y vivir. Más importante que sus viviendas(residencia temporal)eran para los egipcios sus tumbas, donde esperaban pasar toda la eternidad. Las tumbas prehistóricas estaban cubiertas por túmulos de arena o de piedra suelta, pero el viento del desierto barría la arena y los chacales hurgaban entre las piedras. Los egipcios antiguos creían que después de la muerte el espíritu de los difuntos continuaba viviendo, así que no escatimaban esfuerzos para asegurarse de que disfrutarían la vida ultraterrena. Durante el Imperio Antiguo solamente los faraones tenían derecho a pasar a la vida futura. Ya llegando al Imperio nuevo(11 siglos después), todos los egipcios podían participar en ella. A fin de lograrlo, usaban compuestos de sales, especias y resinas que preservaban y secaban el cuerpo convirtiéndolo en una momia arrugada; después lo rellenaban y lo envolvían en finas vendas de lino. Los obreros trabajaban en cuadrillas de 18 ó 20, subiendo los pesados bloques de piedra por rampas para ponerlos en su lugar. Para facilitar levantar los bloques, éstos eran arrastrados por rampas: tres para subir y una para bajar. La grandeza se encuentra en la calidad y en la duración del arte mismo, en este caso, la simetría de masas que se advierte en las pirámides. En la actualidad, las pirámides de Egipto son motivo de admiración y de interés, la majestuosidad ha perdurado y seguirá perdurando hasta que el tiempo las logre derrumbar. Comentar es rapido y facil...

0
6
123...6
PosteameloArchivo Histórico de Taringa! (2004-2017). Preservando la inteligencia colectiva de la internet hispanohablante.

CONTACTO

18 de Septiembre 455, Casilla 52

Chillán, Región de Ñuble, Chile

Solo correo postal

© 2026 Posteamelo.com. No afiliado con Taringa! ni sus sucesores.

Contenido preservado con fines históricos y culturales.