s

sol_chiz

Usuario (Argentina)

Primer post: 19 jul 2009
19
Posts
12
Puntos totales
66
Comentarios
Emoticono
Emoticono
InfoporAnónimo7/31/2009

Un emoticono es una secuencia de caracteres ASCII que, en un principio, representaba una cara humana y expresaba una emoción. Pero, posteriormente, fueron creándose otros emoticonos con significados muy diversos. Los emoticonos que expresan alegría u otras emociones positivas se clasifican normalmente como smileys (de smile, «sonrísa» en inglés). Los emoticonos se emplean frecuentemente en mensajes de correo electrónico, en foros, SMS y en los chats mediante servicios de mensajeria instantanea. Emoticono es un neologismo que proviene de emoción e icono. En algunos países y comunidades de Internet, son llamados emoticones (latinización de la palabra en inglés emoticon) o caretos. Si se gira a la derecha el emoticono :-) se obtiene una cara. Una cara sonriente derivada del emoticono (smiley). Historia El National Telegraphic Review and Operators Guide en Abril de 1857 documentó el uso del número 73 en Código Morse para expresar "amor y besos" (luego reducido al mensaje más formal "los mejores deseos". Dodge's Manual en 1908 documentó la reintroducción de "amor y besos" como el número 88. Gajadhar y Green commentaron que ambas abreviaciones del código Morse son más suscintas que las modernas abreviaciones tales como LOL. Los emoticonos tipográficos fueron publicados en 1881 por la revista satírica norteamericana Puck. En 1912 Ambrose Bierce propuso "una mejoría en la puntuación; el punto de risa: se escribe así \___/! y presenta una boca sonriendo. Es adjuntado, con la vista completa, (o el signo de exclamación qu luego utilizaría Bierce) para cada frase jocosa o irónica". Los emoticonos han entrado ya en el fandom de la ciencia ficción en los años 40,aunque allí puedan parecer tener un lapso en la continuidad cultural entre las comunidades. Para qué se emplean Los emoticonos se han ido desarrollando a lo largo de los años, principalmente, para imitar las expresiones faciales y las emociones, para vencer las limitaciones de tener que comunicarse sólo en forma de texto y porque sirven como abreviaturas. Se han escrito libros sobre este tema, con listas interminables de emoticonos. En los foros de Internet, los emoticonos se suelen reemplazar automáticamente por las imágenes correspondientes. En algunos editores de texto (como por ejemplo Microsoft Word), la opción de «corrección automática» reconoce emoticonos básicos como y , cambiándolos por el carácter correspondiente. Estilo occidental Para reconocer los emoticonos más fácilmente, gire la cabeza hacia la izquierda o hacia la derecha, dependiendo de si la parte superior del emoticono está a la izquierda o a la derecha (aunque normalmente está a la izquierda). Variantes Hay posibilidades ilimitadas, dada la habilidad de la gente de crear e interpretar dibujos como caras. Véase arte ASCII. Los emoticonos suelen estar girados a la izquierda. Sin embargo, algunos los giran a la derecha para crear emoticonos "zurdos", por ejemplo, (: Estos emoticonos zurdos pueden crear confusión, dado que algunos internautas habituales tienden a omitir el : que representa los ojos [dejando ) en lugar de ], así que lo que usted escribió como una sonrisa podría interpretarse como una cara triste. En general, los que se comunican mucho mediante emoticonos piensan subconscientemente "Paréntesis de cierre = alegría, paréntesis de apertura = tristeza". Más como un chiste que por otra cosa — pero también como una afirmación política —, los "frownies" y el símbolo :-( fueron patentados por Despair, Inc. en U.S. Trademark Serial No. 75502288, Registration No. 2347676. XD expresa "Risa a carcajadas". Al girarlo 90º a la derecha se asemeja a la representación de una cara con la boca muy abierta y los ojos apretados fuertemente como síntoma de una fuerte carcajada. Supuestamente fue popularizado después de ser usado en South Park, pero su origen parece ser proveniente del cómic japonés. Usualmente se explica que el emoticón usa el método usado cuando un personaje se ríe tan fuertemente que cierra sus ojos y parece una X al revés. No es equivalente al termino "LOL" o las onomatopeyas de risa existentes en todos los idiomas. También se le pude confundir con otras palabras con significado diferente como el formato de memoria XD. Estilo de Asia Oriental En Asia Oriental tuvieron su origen los llamados "emoticonos japoneses" conocidos también como kaomoji o kaoani, que se diferencian de los occidentales, principalmente, en que se pueden comprender sin tener que girar la cabeza. Suelen ser más sencillos que los occidentales, ya que, en general, sólo se representan los ojos y la boca, como por ejemplo: '_' , donde los apóstrofos representan los ojos y la barra horizontal la boca. En China, también hay una variante de los emoticonos, pero con números. Se escribe una serie de números que tienen algún significado parecido al de los emoticonos. Intento de ampliar este sistema de signos A principios del siglo XXI surge el Argot Internet, un intento de ampliar este sistema de signos. Se diferencia de los emoticonos en que no es ideográfico, sino que está formado por abreviaturas, incluyendo algunas que ya existían antes de la aparición de Internet, como por ejemplo +/- (más o menos), otras, en cambio, surgieron en Internet, como lol (laugh out loud, muerto de risa). Su uso es cada vez más frecuente en los chats porque a muchos internautas les parecen prácticas. Este sistema de escritura se utiliza relativamente poco en los países de lengua española ("pq" o "xq" = "¿Por qué?", y algún otro caso), pero ha tenido un éxito notable en los países francófonos y anglófonos. Fuente Wikipedia xD

0
0
Frases suicidas
Frases suicidas
InfoporAnónimo8/11/2009

Cheken algunas de las frases relacionadas con el suicidio, son interesantes ¿tu ke piensas? "El secreto de la existencia humana consiste no sólo en vivir, sino en hallar el motivo de vivir. Sin una idea clara y determinada del objeto de su existencia, el hombre preferirá renunciar a ella, y se destruirá, antes que permanecer en la tierra" Ivan Karamazov (Los Hermanos Karamazov / Dostoievski)" ¿Por qué mira usted la bala?¿Por qué?... Si pensara usted alojarse una bala en la cabeza ¿No la miraría antes de cargar el arma?¿A qué mirarla?Como ha de pasearse por mi cráneo, quiero conocerla antes." Los Hermanos Karamazov (Fragmento) "Siempre hay razones para asesinar a un hombre. Por el contrario, es imposible justificar que viva." Jean Batiste Clamence (La Caída / Camus) "Considerando que la naturaleza mortal de las cosas no te confiere un poder excepcional de duración, cuélgate de la raíz" Eluard / Breton (La Inmaculada Concepción) "Morir más temprano o más tarde es cosa de poca importancia; lo que importa es morir bien o mal. Morir bien, por otra parte, es huir del peligro de vivir mal y la vida no es como para comprarla sea cual sea el precio." Séneca "La cosa mejor que ha hecho la ley eterna es que, habiéndonos dado una sola entrada a la vida, nos ha procurado miles de salidas (…) Si te place, vive; si no te place, estás perfectamente autorizado para volverte al lugar de donde viniste." Séneca "Dios, aun cuando quisiera, no podría darse muerte y ejercitar ese privilegio que concedió al hombre en medio de tantos sufrimientos de la vida." Plinio el Viejo (Historia Natural) "La naturaleza no ha dado al hombre nada mejor que la brevedad de su vida." Plinio el Viejo "Es preferible una vida breve y mejor que una vida más larga y peor." Epicteto "Es indudable que no carece de valor el que tranquilamente se mata, porque se necesita de gran fuerza de voluntad para sobreponerse al instinto más poderoso de la naturaleza, y en una palabra, el suicidio es un acto que prueba más ferocidad que debilidad." François-Marie Arouet Voltaire "Cuando se ha perdido todo, cuando ya no se tiene esperanza, la vida es una calamidad y la muerte es un deber." François-Marie Arouet Voltaire "Hace mucho tiempo que me hubiera suicidado de no haber leído en alguna parte que es un pecado quitarse voluntariamente la vida mientras pueda hacerse todavía una buena acción. La vida es hermosa, pero la mía está envenenada para siempre." Ludwig van Beethoven "La muerte, para acabar conmigo, tendrá que contar con mi complicidad" M. Yourcenar (Fuegos) "Tenemos en nuestras manos los medios para poner término a nuestras penas, y aquel que está dispuesto a morir puede desafiar cualquier calamidad." Pierre Corneille "Si se admite que el suicidio es un crimen, sólo la cobardía puede impulsarnos a él. Si no es un crimen, tanto la prudencia como el valor nos obligan a desembarazarnos de la existencia cuando ésta se convierte en una carga." David Hume "Nueve hombres de cada diez son suicidas." Benjamín Franklin "Si tienes que suicidarte procura hacerlo de la manera más decorosa posible: nunca debe perderse de vista el decoro, así en la vida como en la muerte." George Borrow "No hay nada en el mundo a que más indiscutible derecho tenga el hombre que a disponer de su propia vida y persona." Arthur Schopenhauer "A nadie le falta una buena razón para suicidarse." Cesare Pavese "Si me suicido no será para destruirme, pero sí para ponerme otra vez atrás. El suicidio será para mí solamente uno de los medios violentos para reconquistarme de la invasión brutal de mi ser, para anticipar la impredecible llegada de dios. Por el suicidio me devuelvo voluntariamente a la naturaleza, para dar desde el inicio a las cosas la forma de mi voluntad." Antonin Artaud "El único problema filosófico verdaderamente serio es el Suicidio. Juzgar si la vida es o no digna de vivir es la respuesta fundamental a la suma de preguntas filosóficas. Todo lo demás -- si tiene o no el mundo tres dimensiones, si la mente tiene nueve o doce categorías -- viene después. Esos son juegos; aquello se debe contestar primero." Albert Camus "La obsesión con el suicidio es característica del hombre que no puede ni vivir ni morir y quien nunca aparta su atención de esta doble imposibilidad." Emile Cioran "Hay muchos que no se atreven a matarse por temor a lo que dirán sus vecinos." Cyril Connolly copyleft para sus actores. ¿Que piensas sobre el suicidio? ¿Es una cobardía o un gran acto de Valor? FUENTE

0
7
Hallado un gen que ralentiza el desarrollo del virus del VIH
Hallado un gen que ralentiza el desarrollo del virus del VIH
InfoporAnónimoFecha desconocida

Cita :Un célula infectada con el virus del sida, junto a tres células sanas a las que acabará infectando. Un grupo de científicos ha descubierto una variante genética del cromosoma sexual X que ralentiza el desarrollo del síndrome de la inmunodeficiencia adquirida (SIDA) en las mujeres, informó este jueves el genetista Michael Krawczak en Kiel (norte de Alemania). La conclusión de este estudio explicaría el por qué en algunas mujeres infectadas con el virus VIH, el sida tarda mucho tiempo en manifestarse. Cita :Aún quedan por esclarecer el 85% de los factores genéticos que influyen en su desarrollo Este hallazgo podría ser de gran utilidad a la hora de pronosticar el ritmo al que va a avanzar la enfermedad en determinadas pacientes. Por otra parte, señaló Krawczak, esa variante genética también podría emplearse, a largo plazo, para seguir investigando en posibles medicamentos que combatan el sida. En el caso de algunas personas infectadas por VIH, pueden transcurrir más de diez años desde el contagio y hasta que se hace necesario el tratamiento médico, mientras que cerca de la mitad de los pacientes requieren medicación específica, tras un máximo de dos años. Para las mujeres que poseen este gen, el sida tarda cuatro veces más de tiempo en desarrollarse, lo que por término medio supone unos ocho años. Alrededor del 15% de las mujeres europeas posee este gen, frente al 3% de las africanas y el 50% de las asiáticas. A pesar de que se trata de un avance en relación con el sida, aún quedan por esclarecer el 85% de los factores genéticos que influyen en el desarrollo de esta enfermedad transmisible. El estudio completo será publicado en la revista estadounidense especializada en genética American Journal of Human Genetics. FUENTE

0
1
H
Historia del hardware
InfoporAnónimo7/20/2009

Historia del hardware El hardware ha sido un componente importante del proceso de cálculo y almacenamiento de datos desde que se volvió útil para que los valores numéricos fueran procesados y compartidos. El hardware de computador más primitivo fue probablemente el palillo de cuenta;1 después grabado permitía recordar cierta cantidad de elementos, probablemente ganado o granos, en contenedores. Algo similar se puede encontrar cerca de las excavaciones de Minoan. Estos elementos parecen haber sido usadas por los comerciantes, contadores y los oficiales del gobierno de la época. Los dispositivos de ayuda provenientes de la computación han cambiado de simples dispositivos de grabación y conteo al ábaco, la regla de cálculo, el computadora analógica y los más recientes, la computadora u ordenador. Hasta hoy, un usuario experimentado del ábaco usando un dispositivo que tiene más de 100 años puede a veces completar operaciones básicas más rápidamente que una persona inexperta en el uso de las calculadoras electrónicas, aunque en el caso de los cálculos más complejos, los computadores son más efectivos que el humano más experimentado. Los dispositivos más antiguos La humanidad ha usado dispositivos de cómputo por milenios. Un ejemplo es el dispositivo para establecer la igualdad de peso: las clásicas balanzas. Una máquina más aritmética es el ábaco. Se piensa que la forma más antigua de este dispositivo —el ábaco de polvo— fue inventado en Babilonia. El ábaco egipcio del grano y del alambre datan del año 500 A.C. En la antigüedad y en la edad media se construyeron algunos computadores analógicos para realizar cálculos de astronomía. Entre ellos estaba: el Mecanismo de Anticitera, un mecanismo de la antigua Grecia (aprox. 150-100 aC), el Planisferio; algunas de las invenciones de Al-Biruni (aprox. 1000 d. C.), el Ecuatorio de Azarquiel (alrededor de AD 1015), y otros computadores analógicos de astrónomos e ingenieros musulmanes Introducción Durante milenios, la humanidad ha usado dispositivos para ayudar en los cálculos. El dispositivo de contar más temprano fue probablemente una cierta forma de palito de contar. Posteriores ayudas para mantener los registros incluyen la arcilla de Fenicia que representaban conteos de artículos en contenedores, probablemente ganado o granos. Una máquina más orientada hacia la aritmética es el ábaco. La forma más temprana de ábaco, el ábaco de polvo, había sido usado en Babilonia tan temprano como en 2.400 A.C.. Desde entonces, muchas otras formas de tablas de contar han sido inventadas, por ejemplo en una casa de cuenta medieval, un paño a cuadros sería colocado en una mesa, como una ayuda para calcular sumas de dinero, y los marcadores se movían alrededor en ella según ciertas reglas.Suanpan (el número representado en el cuadro es 6.302.715.408) Los engranajes están en el corazón de dispositivos mecánicos como la calculadora de Curta. Un número de computadores análogos fueron construidos en épocas antiguas y medioevales para realizar cálculos astronómicos. Éstos incluyen el mecanismo de Anticitera y el astrolabio de la Grecia antigua (c. 150-100 A.C.). Estos dispositivos son usualmente considerados como las primeras computadoras análogas. Otras versiones tempranas de dispositivos mecánicos usados para realizar ciertos tipos de cálculos incluyen el Planisferio; algunas de las invenciones de Al-Biruni (c. AD 1000); el Equatorium de Azarquiel (c. AD 1015); y los computadores astronómicos análogos de otros astrónomos e ingenieros musulmanes medievales. John Napier (1550-1617) observó que la multiplicación y la división de números pueden ser realizadas por la adición y la sustracción, respectivamente, de los logaritmos de esos números. Mientras producía las primeras tablas logarítmicas Napier necesitó realizar muchas multiplicaciones, y fue en este punto que diseñó los huesos de Napier, un dispositivo similar a un ábaco usado para la multiplicación y la división. Puesto que los números reales pueden ser representados como distancias o intervalos en una línea, la regla de cálculo fue inventada en los años 1920 para permitir que las operaciones de multiplicación y de división se realizarán perceptiblemente más rápidamente que lo que era posible previamente. Las reglas de cálculo fueron usadas por generaciones de ingenieros y de otros trabajadores profesionales con inclinación matemática, hasta la invención de la calculadora de bolsillo. Los ingenieros del programa Apollo para enviar a un hombre a la Luna, hicieron muchos de sus cálculos en reglas de cálculo, que eran exactas a tres o cuatro dígitos significativos. La regla de cálculo, una calculadora mecánica básica, facilita la multiplicación y la división. Calculadora mecánica de 1914 En 1623, Wilhelm Schickard construyó la primera calculadora mecánica digital y por lo tanto se convirtió en el padre de la era de la computación.2 Puesto que su máquina usó técnicas tales como dientes y engranajes desarrollados primero para los relojes, también fue llamada un \'reloj calculador\'. Fue puesto en uso práctico por su amigo Johannes Kepler, quien revolucionó la astronomía. Una original calculadora de Pascal (1640) es presentada en el museo de Zwinger. Siguieron las máquinas de Blaise Pascal (la Pascalina, 1642) y de Gottfried Wilhelm von Leibniz (1671). Alrededor 1820, Charles Xavier Thomas de Colmar creó la primera calculadora mecánica excitosa producida en serie, El Aritmómetro de Thomas, que podía sumar, restar, multiplicar, y dividir. Estaba basado principalmente en el trabajo de Leibniz. Las calculadoras mecánicas, como el Addiator de base diez, el Comptómetro, la calculadora Monroe, el Curta y el Addo-X permanecieron en uso hasta los años 1970. Leibniz también describió el sistema de numeración binario, un ingrediente central de todas las computadoras modernas. Sin embargo, hasta los años 1940, muchos diseños subsecuentes fueron basados en el difícil de implantar sistema decimal, incluyendo las máquinas de Charles Babbage de los años 1800 e incluso el ENIAC de 1945. 1801: Tecnología de tarjeta perforada Sistema de tarjeta perforada de una máquina de música. Sistema de tarjeta perforada de un telar del siglo XIX En los años 1890, Herman Hollerith inventó una máquina tabuladora usando tarjetas perforadas. Tan temprano como en 1725, Basile Bouchon, quien fue alumno de Carlos Bruné, usó un lazo de papel perforado en un telar para establecer el patrón a ser reproducido en la tela, y en 1726 su compañero de trabajo, Jean-Baptiste Falcon, mejoró su diseño al usar tarjetas perforadas de papel unidas una a la otra para la eficacia en adaptar y cambiar el programa. El telar de Bouchon-Falcon era semiautomático y requería la alimentación manual del programa. En 1801, Joseph Marie Jacquard desarrolló un telar en el que el patrón que era tejido era controlado por tarjetas perforadas. La serie de tarjetas podría ser cambiada sin cambiar el diseño mecánico del telar. Esto un hito en programabilidad. En los años 1890, Herman Hollerith inventó una máquina tabuladora usando tarjetas perforadas. En 1833, Charles Babbage avanzó desde desarrollar su máquina diferencial a desarrollar un diseño más completo, la máquina analítica, que, para su programación, tomaría prestada directamente las tarjetas perforadas del telar Jacquar En 1835 Charles Babbage describió su máquina analítica. Era el plan de una computadora programable de propósito general, empleando tarjetas perforadas para la entrada y un motor de vapor para la energía. Una invención crucial fue usar engranajes para la función servida por los granos de un ábaco. En un sentido real, todos los ordenadores contienen ábacos automáticos (técnicamente llamados como la unidad aritmético lógica o la unidad de punto flotante). Su idea inicial era usar las tarjetas perforadas para controlar una máquina que podía calcular e imprimir con precisión enorme las tablas logarítmicas (una máquina de propósito específico). La idea de Babbage pronto se desarrolló en una computadora programable de propósito general, su máquina analítica. A pesar que su diseño era brillante y los planes eran probablemente correctos, o por lo menos depurables, el proyecto fue retardado por varios problemas. Babbage era un hombre difícil para trabajar con él y discutía con cualquier persona que no respetara sus ideas. Todas las partes para su máquina tenían que ser hechas a mano. En una máquina con miles de partes, a veces los pequeños errores en cada elemento pueden acumularse, terminando en grandes discrepancias. Esto requería que estas partes fueran mucho mejores que las tolerancias que podían obtenerse con la tecnología de esa época. El proyecto se disolvió en conflictos con el artesano que construyó las partes y fue terminado cuando se agotó el financiamiento del gobierno. Ada Lovelace, hija de Lord Byron, tradujo y agregó notas al \"Sketch of the Analytical Engine\" por Federico Luigi, Conte Menabrea. Ella ha sido asociada cercanamente con Babbage. Algunos afirman que ella fue la primer programador de computadoras del mundo, no obstante esta afirmación y el valor de sus otras contribuciones son discutidos por muchos. Una reconstrucción la Máquina Diferencial II, un diseño anterior, más limitado, ha estado operacional desde 1991 en el Museo de Ciencia de Londres. Con algunos cambios triviales, trabaja como Babbage la diseñó y demuestra que Babbage estaba correcto en teoría. El museo usó máquinas herramientas operadas por computador para construir las partes necesarias, siguiendo las tolerancias que habría podido alcanzar un maquinista de ese período. Algunos creen que la tecnología de ese tiempo no podía producir partes de suficiente precisión, aunque esto aparece ser falso. La falla de Babbage en terminar la máquina puede ser principalmente atribuida a dificultades no solamente relacionadas con la política y el financiamiento, pero también con su deseo de desarrollar una computadora cada vez más sofisticada. Hoy, muchos en el campo de la computación llaman a esta clase obsesión creeping featuritis (algo así como \"caracterititis creciente\", es decir, el deseo de agregar cada vez más y más características). En 1890, la Oficina del Censo de los Estados Unidos usó tarjetas perforadas, las máquinas de ordenamiento, y las máquinas tabuladoras diseñadas por Herman Hollerith para manejar la inundación de datos del censo decenial ordenado por la constitución de Estados Unidos. La compañía de Hollerith eventualmente se convirtió en el núcleo de IBM. La IBM desarrolló la tecnología de la tarjeta perforada en una poderosa herramienta para el procesamiento de datos de negocios y produjo una extensa línea de equipos de registros de unidades?? especializados. Por 1950, la tarjeta de IBM había llegado a ser ubicua en la industria y el gobierno. La advertencia impresa en la mayoría de las tarjetas previstas para la circulación como documentos (cheques, por ejemplo), \"No doblar, no perforar ni mutilar\", se convirtió en un lema para la era posterior a la Segunda Guerra Mundial.3 Siguiendo los pasos de Babbage, aunque ignorante de este anterior trabajo, Percy Ludgate, un contable de Dublín, Irlanda, diseñó independientemente una computadora mecánica programable, que describió en un trabajo que fue publicado en 1909. Los artículos de Leslie Comrie sobre métodos de tarjetas perforadas, y las publicaciones de Wallace Eckert sobre Métodos de Tarjetas Perforadas en la Computación Científica en 1940, describieron técnicas que fueron suficientemente avanzadas para solucionar ecuaciones diferenciales, realizar multiplicación y división usando representaciones de punto flotante, todo ello hecho con tarjetas perforadas y las máquinas de registro de unidades??. La Oficina de Computación Astronómica Thomas J. Watson, de la Universidad de Columbia realizó cálculos astronómicos representando el estado del arte en la Computación. En muchas instalaciones de computación, las tarjetas perforadas fueron usadas hasta (y después) del final de los años 1970. Por ejemplo, en muchas universidades alrededor del mundo los estudiantes de ciencia e ingeniería someterían sus asignaciones de programación al centro de computación local en forma de una pila de tarjetas, una tarjeta por línea de programa, y entonces tenían que esperar que el programa estuviera en cola para ser procesado, compilado, y ejecutado. En espera para la impresión de cualquier resultado, marcado con la identificación de quien lo solicitó, sería puesto en una bandeja de salida fuera del centro de computación. En muchos casos estos resultados serían solamente un listado de mensajes de error con respecto a la sintaxis, etc, del programa, necesitando otro ciclo de edición-compilación-ejecución.Ver también Programación de la computadora en la era de la tarjeta perforada. Las tarjetas perforadas todavía son usadas y manufacturadas a este día, y sus dimensiones distintivas (y la capacidad de 80 columnas) todavía pueden ser reconocidas en formas, registros, y programas alrededor del mundo. 1930s-1960s: Calculadoras de escritorio Por los años 1900, las primeras calculadoras mecánicas, cajas registradoras, máquinas de contabilidad, etcétera fueron rediseñadas para usar motores eléctricos, con la posición de engranajes como representación para el estado de una variable. Desde los años 1930, compañías como Friden, Marchant Calculator y Monroe hicieron calculadoras mecánicas de escritorio que podían sumar, restar, multiplicar y dividir. La palabra \"computador\" era un título de trabajo asignado a la gente que usaba estas calculadoras para realizar cálculos matemáticos. Durante el Proyecto Manhattan, el futuro laureado premio Nobel, Richard Feynman, fue el supervisor de un cuarto lleno de computadoras humanas, muchos de ellos eran matemáticos mujeres, que entendían las ecuaciones diferenciales que eran solucionadas para el esfuerzo de la guerra. Después de la guerra, incluso el renombrado Stanislaw Ulam fue presionado en servicio para traducir las matemáticas a aproximaciones computables para la bomba de hidrógeno. En 1948, fue introducido el Curta. Éste era una calculadora mecánica pequeña y portable, que tenía el tamaño aproximado de una amoladora de pimienta. Con el tiempo, durante los años 1950 y los años 1960 aparecieron en el mercado una variedad de diferentes marcas de calculadoras mecánicas. La primera calculadora de escritorio completamente electrónica fue la ANITA Mk.VII británica, que usaba una pantalla de tubo Nixie y 177 tubos tiratrón subminiatura. En junio de 1963, Friden introdujo la EC-130 de cuatro funciones. Tenía un diseño completamente transistorizado, la capacidad 13 dígitos en un CRT de 5 pulgadas (130 mm), e introdujo la notación polaca inversa (RPN) al mercado de las calculadoras con un precio de $2200. El modelo EC-132 añadió la raíz cuadrada y funciones recíprocas. En 1965, los laboratorios Wang produjeron el LOCI-2, una calculadora de escritorio transistorizada de 10 dígitos que usaba una exhibición de tubo Nixie y podía computar logaritmos. Con el desarrollo de los circuitos integrados y los microprocesadores, las calculadoras grandes y costosas fueron sustituidas por dispositivos electrónicos más pequeños. Calculadora de Curta Computadoras análogas avanzadas Antes de la Segunda Guerra Mundial, las computadoras análogas mecánicas y eléctricas eran consideradas el \"estado del arte\", y muchos pensaban que eran el futuro de la computación. Las computadoras análogas toman ventaja de las fuertes similitudes entre las matemáticas de propiedades de pequeña escala -- la posición y el movimiento de ruedas o el voltaje y la corriente de componentes electrónicos -- y las matemáticas de otros fenómenos físicos, ej. trayectorias balísticas, inercia, resonancia, transferencia de energía, momento, etc. Modelar los fenómenos físicos con las propiedades eléctricas rinde una gran ventaja sobre usar modelos físicos: los componentes eléctricos son más pequeños y baratos; son más fácilmente construidos y ejercitados. Aunque de otra manera similar, los fenómenos, eléctricos se pueden hacer que ocurran en marcos de tiempo convenientemente cortos. Centralmente, los sistemas trabajaron creando análogos eléctricos de otros sistemas, permitiendo a los usuarios predecir el comportamiento de los sistemas de interés al observar los análogos eléctricos. La más útil de las analogías fue la manera en que el comportamiento en pequeña escala podía ser representado con ecuaciones integrales y diferenciales, y por lo tanto podía ser usado para solucionar esas ecuaciones. Un ingenioso ejemplo de tal máquina fue el integrador de agua construido en 1928; un ejemplo eléctrico es la máquina de Mallock construida en 1941. A diferencia de las computadoras digitales modernas, las computadoras análogas no eran muy flexibles, y necesitan ser reconfiguradas (es decir, reprogramadas) manualmente para cambiarlas para trabajar de un problema a otro. Las computadoras análogas tenían una ventaja sobre los primeros computadores digitales en que podían ser usadas para solucionar problemas complejos usando comportamientos análogos mientras que las primeras tentativas en las computadoras digitales eran absolutamente limitadas. Pero a medida que las computadoras digitales han venido siendo más rápidas y usaban memorias más grandes (ej, RAM o almacenamiento interno), han desplazado casi completamente a las computadoras análogas, y la programación de computadores, o codificación ha surgido como otra profesión humana. Puesto que las computadoras eran raras en esta era, las soluciones eran a menudo hard-coded en las formas de papel como gráficas y nomogramas, que entonces podían producir soluciones análogas a esos problemas, tales como la distribución de presiones y temperaturas en un sistema de calefacción. Algunas de las computadoras análogas más extensamente desplegadas incluyeron dispositivos para apuntar armas, tales como los sistemas Norden bombsight y Fire-control system para embarcaciones navales. Algunos de éstos permanecieron en uso por décadas después de la segunda guerra mundial. Un ejemplo es el Mark I Fire Control Computer, desplegado por la Armada de los Estados Unidos en una variedad de naves desde los destructores a los acorazados. Otros ejemplos incluyeron el Heathkit EC-1, y la computadora hidráulica MONIAC. El arte de la computación análoga alcanzó su cenit con el Differential analyser, inventado en 1876 por James Thomson y construido por H. W. Nieman y Vannevar Bush en el MIT comenzando en 1927. Fueron construidas menos de una docena de estos dispositivos; el más poderoso fue construido en la Escuela Moore de Ingeniería Eléctrica en la Universidad de Pensilvania, donde también fue construido el ENIAC. Las computadoras electrónicas digitales, como el ENIAC, significaron el fin para la mayoría de las máquinas análogas de computación, pero las computadoras análogas híbridas, controladas por electrónica digital, permanecían en substancial uso en los años 1950 y los años 1960, y más adelante en algunas aplicaciones especializadas. Analizador diferencial de Cambridge, 1938 Primeros computadores digitales La era de computar moderno comenzó con un explosivo desarrollo antes y durante la Segunda Guerra Mundial, a medida que los circuitos electrónicos, los relés, los condensadores, y los tubos de vacío reemplazaron los equivalentes mecánicos y los cálculos digitales reemplazaron los cálculos análogos. Las máquinas como el Atanasoff–Berry Computer, Z3, Colossus, y el ENIAC fueron construidas a mano usando circuitos que contenían relés o válvulas (tubos de vacío), y a menudo usaron tarjetas perforadas o cintas perforadas para la entrada y como el medio de almacenamiento principal (no volátil). En esta era, un número de diferentes máquinas fueron producidas con capacidades que constantemente avanzaban. Al principio de este período, no existió nada que se asemejara remotamente a una computadora moderna, excepto en los planes perdidos por largo tiempo de Charles Babbage y las visiones??? matemáticas de Alan Turing y otros. Al final de la era, habían sido construidos dispositivos como el EDSAC, y son considerados universalmente como computadores digitales. Definir un solo punto en la serie, como la \"primera computadora\", pierde muchos sutiles detalles. El texto escrito por Alan Turing en 1936 probó ser enormemente influyente en la computación y ciencias de la computación de dos maneras. Su principal propósito era probar que había problemas (nombrados el problema de la parada) que no podían ser solucionados por ningún proceso secuencial. Al hacer eso, Turing proporcionó una definición de una computadora universal, una construcción que vino a ser llamada máquina de Turing, un dispositivo puramente teórico que formaliza el concepto de ejecución de algoritmo, reemplazando el engorroso lenguaje universal basado en en aritmética de Kurt Gödel. Excepto por las limitaciones impuestas por sus almacenamientos de memoria finitos, se dice que las computadoras modernas son Turing completo, que es como decir que tienen la capacidad de ejecución de algoritmo equivalente a una máquina universal de Turing. Este tipo limitado de la cualidad de Turing completo es algunas veces visto como la capacidad umbral que separa las computadoras de uso general de sus precursores de propósito específico. Para que una máquina de computación sea una computadora de propósito general práctica, debe haber algún mecanismo de lectura/escritura conveniente, como por ejemplo la cinta perforada. Para la completa versatilidad, la arquitectura de Von Neumann usa la misma memoria para almacenar tanto los programas como los datos; virtualmente todas las computadoras contemporáneas usan esta arquitectura (o alguna variante). Mientras que es teóricamente posible implementar una computadora completa mecánicamente (como demostró el diseño de Babbage), la electrónica hizo posible la velocidad y más adelante la miniaturización que caracterizan las computadoras modernas. En la era de la Segunda Guerra Mundial habían tres corrientes paralelas en el desarrollo de la computadora, y dos fueron ignoradas en gran parte o deliberadamente mantenidas en secreto. La primera fue el trabajo alemán de Konrad Zuse. La segunda fue el desarrollo secreto de la computadora Colossus en el Reino Unido. Ninguna de éstas tuvieron mucha influencia en los varios proyectos de computación en los Estados Unidos. La tercera corriente de desarrollo de la computadora, el ENIAC y el EDVAC de Eckert y Mauchly, fue publicada extensamente. Z-series de Konrad Zuse: Las primeras computadoras controladas por programa Trabajando aisladamente en Alemania, en 1936 Konrad Zuse comenzó la construcción de sus primeras calculadoras de la Z-series que ofrecían memoria y programabilidad (limitada inicialmente). La Z1 de Zuse, que aunque puramente mecánica ya era binaria, fue finalizada en 1938. Nunca trabajó confiablemente debido a problemas con la precisión de las partes. La subsecuente máquina de Zuse, el Z3, fue finalizada en 1941. Fue basada en relés telefónicos y trabajó satisfactoriamente. El Z3 se convirtió así en la primera computadora funcional, de todo propósito, controlada por programa. De muchas maneras era muy similar a las máquinas modernas, siendo pionera en numerosos avances, tales como números de punto flotante. El reemplazo del difícil de implementar sistema decimal, usado en el diseño temprano de Charles Babbage, por el más simple sistema binario, significó que las máquinas de Zuse eran más fáciles de construir y potencialmente más confiables, dadas las tecnologías disponibles en aquel tiempo. Esto a veces es visto como la razón principal por la que Zuse tuvo éxito donde Babbage falló. Los programas fueron alimentados en el Z3 por medio de películas perforadas. Faltaban los saltos condicionales, pero desde los años 1990 se ha probado teóricamente que el Z3 seguía siendo un computador universal (ignorando sus limitaciones de tamaño físico de almacenamiento). En dos aplicaciones de patente de 1936, Konrad Zuse también anticipó que las instrucciones de máquina podían ser almacenadas en el mismo almacenamiento usado para los datos - la idea clave de lo que sería conocido como la arquitectura de Von Neumann y fue implementada por primera vez en el posterior diseño del EDSAC británico (1949). Zuse también decía haber diseñado el primer lenguaje de programación de alto nivel, (Plankalkül), en 1945 (que fue publicado en 1948) aunque fue implementado por primera vez en 2000 por un equipo alrededor de Raúl Rojas en la Universidad Libre de Berlín - cinco años después de que murió Zuse. Zuse sufrió reveses durante la Segunda Guerra Mundial cuando algunas de sus máquinas fueron destruidas en el curso de las campañas aliadas de bombardeos. Aparentemente su trabajo en gran parte siguió siendo desconocido a los ingenieros en el Reino Unido y los E.E.U.U. hasta mucho más tarde, aunque al menos la IBM estaba enterada de ellos pues financiaron a su compañía de lanzamiento de posguerra en 1946 en el retorno por una opción en las patentes de Zuse. Una reproducción de la computadora Z1 de Zuse. Colossus Durante la Segunda Guerra Mundial, los británicos en Bletchley Park alcanzaron un número de éxitos al romper las comunicaciones militares alemanas cifradas. La máquina de cifrado alemana, Enigma, fue atacada con la ayuda de máquinas electromecánicas llamadas bombes. La bombe, diseñada por Alan Turing y Gordon Welchman, después de la bomba criptográfica polaca (1938), eliminaba ajustes posibles del Enigma al realizar cadenas deducciones lógicas implementadas eléctricamente. La mayoría de las posibilidades conducían a una contradicción, y las pocas restantes se podían probar a mano. Los alemanes también desarrollaron una serie de sistemas de cifrado de teleimpresora, muy diferentes del Enigma. La máquina Lorenz SZ 40/42 fue usada para las comunicaciones de alto nivel del ejército, llamada \"Tunny\" por los británicos. Las primeras intercepciones de los mensajes Lorenz comenzaron en 1941. Como parte de un ataque contra los Tunny, el profesor Max Newman y sus colegas ayudaron a especificar el colossus. El Mk I colossus fue construido entre marzo y diciembre de 1943 por Tommy Flowers y sus colegas en el Post Office Research Station en Dollis Hill en Londres y después enviado a Bletchley Park. El colossus fue el primer dispositivo de computación totalmente electrónico. El colossus usó una gran cantidad de válvulas (tubos de vacío). Tenía entrada de cinta de papel y era capaz de ser configurado para realizar una variedad de operaciones de lógica booleana en sus datos, pero no era Turing completo. Fueron construidos nueve Mk II Colossi (el Mk I fue convertido en un Mk II haciendo diez máquinas en total). Los detalles de su existencia, diseño, y uso fueron mantenidos secretos bien entrados los años 1970. Winston Churchill personalmente publicó una orden para su destrucción en piezas no más grandes que la mano de un hombre. debido a este secreto los Colossi no fueron incluidos en muchas historias de la computación. Una copia reconstruida de una de las máquinas Colossus está ahora en exhibición en Bletchley Park. El colossus fue usado para romper cifrados alemanes durante la Segunda Guerra Mundial. Desarrollos norteamericanos En 1937, Claude Shannon produjo su tesis magistral en el MIT que por primera vez en la historia implicaba el álgebra booleana usando relés y conmutadores electrónicos. La tesis de Shannon, intitulada A Symbolic Analysis of Relay and Switching Circuits (Un análisis simbólico de circuitos de conmutación y relés), esencialmente funda el diseño de circuitos digitales prácticos. En noviembre de 1937, George Stibitz, entonces trabajando en los Laboratorios Bell, terminó una computadora basada en relés que calculaba con la adición binaria y apodó con el nombre de \"Modelo K\" (por \"kitchen\" (cocina), donde él la había ensamblado). A finales de 1938, los Laboratorios Bell autorizaron un programa de investigación completo con Stibitz al timón. Su Complex Number Calculator, terminado el 8 de enero de 1940, podía calcular números complejos. En una demostración del 11 de septiembre de 1940 en la conferencia de la American Mathematical Society en el Dartmouth College, Stibitz pudo enviar, al Complex Number Calculator, comandos remotos sobre líneas telefónicas por un teletipo. Fue la primera máquina de computación usada remotamente, en este caso sobre una línea telefónica. Algunos participantes en la conferencia que atestiguaron la demostración eran John Von Neumann, John Mauchly, y Norbert Wiener, quien escribió sobre ello en sus memorias. En 1939, John Vincent Atanasoff y Clifford E. Berry de Iowa State University desarrollaron el Atanasoff Berry Computer (ABC), una calculadora electrónica digital de propósito especial para solucionar sistemas de ecuaciones lineares. La meta original era solucionar 29 ecuaciones simultáneas de 29 incógnitas cada una, pero debido a errores en el mecanismo del perforador de tarjetas la máquina terminada solamente podía solucionar algunas ecuaciones. El diseño usaba más de 300 tubos de vacío para alta velocidad y empleaba para la memoria condensadores fijados en un tambor que rotaba mecánicamente. Aunque la máquina ABC no era programable, fue la primera en usar circuitos electrónicos. El co-inventor del ENIAC, John Mauchly, examinó el ABC en junio de 1941, y su influencia en el diseño de la posterior máquina ENIAC es una cuestión de controversia entre los historiadores del computador. El ABC fue en gran parte olvidado hasta que se convirtió en el foco del pleito legal Honeywell vs. Sperry Rand, la decisión invalidó la patente de ENIAC (y varias otras), entre muchas razones por haber sido anticipado por el trabajo de Atanasoff. En 1939, en los laboratorios Endicott de la IBM comenzó el desarrollo del Harvard Mark I. Conocido oficialmente como el Automatic Sequence Controlled Calculator, el Mark I fue una computadora electromecánica de propósitos generales construida con el financiamiento de la IBM y con la asistencia del personal de la IBM, bajo dirección del matemático de Harvard, Howard Aiken. Su diseño fue influenciado por la Máquina Analítica de Babbage, usando ruedas de aritmética y almacenamiento decimal e interruptores rotatorios además de relés electromagnéticos. Era programable vía una cinta de papel perforado, y contenía varias unidades de cálculo trabajando en paralelo. Versiones posteriores contuvieron varios lectores de cinta de papel y la máquina podía cambiar entre los lectores basados en una condición. Sin embargo, la máquina no era absolutamente Turing completa. El Mark I fue trasladado a la universidad de Harvard y comenzó la operación en mayo de 1944. ENIAC El ENIAC (Electronic Numerical Integrator and Computer), construido en los Estados Unidos, fue el primer computador electrónico de propósito general. Construido bajo la dirección de John Mauchly y John Presper Eckert en la universidad de Pennsylvania, era 1.000 veces más rápido que sus contemporáneos. El desarrollo y la construcción del ENIAC duró desde 1943 hasta estar operativo completamente al final de 1945. Cuando su diseño fue propuesto, muchos investigadores creyeron que los millares de delicadas válvulas (es decir tubos de vacío) se quemarían tan frecuentemente que el ENIAC estaría con tanta frecuencia inactivo por reparaciones que sería inútil. Sin embargo, era capaz de miles de operaciones por segundo por horas enteras entre las fallas de válvulas. Validó abiertamente el uso de la electrónica para la computación en gran escala. Esto fue crucial para el desarrollo del cómputo moderno. El ENIAC era inequívocamente un dispositivo Turing completo. Sin embargo, un \"programa\" en el ENIAC era definido por los estados de sus cables de remiendo e interruptores, una decepcionante disparidad con las máquinas electrónicas de programa almacenado que se desarrollaron a partir del ENIAC. Programarlo significaba recablearlo. Las mejoras completadas en 1948 hicieron posible ejecutar programas almacenados fijados en memoria de tabla de función, que hizo la programación menos un esfuerzo \"único/realizado solo una vez/único en su tipo\"??, y más sistemático. La máquina de von Neumann de primera generación y otros trabajos Incluso antes de que el ENIAC estuviera terminado, Eckert y Mauchly reconocieron sus limitaciones y comenzaron el diseño de una nueva computadora, el EDVAC, que debía tener programa almacenado. John von Neumann escribió un reporte de ámplia circulación que describía el diseño del EDVAC en el que tanto los programas como los datos de trabajo estaban almacenados en un solo unificado almacén. Este diseño básico, que sería conocido como la arquitectura de von Neumann, serviría como la base para el desarrollo de las primeras computadoras digitales de propósito general realmente flexibles. En esta generación, el almacenamiento temporal o de trabajo fue proporcionado por líneas de retardo acústico, que usaban el tiempo de propagación del sonido a través de un medio como el mercurio líquido (o a través de un alambre) para almacenar datos brevemente. Una serie de pulsos acústicos eran enviados a lo largo de un tubo; después de un tiempo, en lo que el pulso alcanzaba el extremo del tubo, el circuito detectaba si el pulso representaba un 1 ó un 0 y causaba al oscilador volver a reenviar el pulso. Otros usaron los tubos de Williams, que utilizan la capacidad de un tubo de imagen de televisión para almacenar y de recuperar datos. Por 1954, la memoria de núcleo magnético rápidamente desplazó la mayoría de las otras formas de almacenamiento temporal, y dominó el campo hasta mediados de los años 1970. La primera máquina funcional de von Neumann fue el \"Baby\" (\"Bebé\" de Manchester o Small-Scale Experimental Machine, construida en la universidad de Manchester en 1948; fue seguida en 1949 por el computador Manchester Mark I que funcionó como un sistema completo usando el tubo Williams y el tambor magnético para la memoria, y también introdujo los registros de índice. El otro competidor para el título de \"primer computador digital de programa almacenado\" había sido el EDSAC, diseñado y construido en la Universidad de Cambridge. Operacional en menos de un año después de la Manchester \"Baby\", también era capaz de abordar problemas reales. EDSAC fue inspirado de hecho por los planes para el EDVAC (Electronic Discrete Variable Automatic Computer), el sucesor del ENIAC; estos planes ya estaban en el lugar correcto para el tiempo en que el ENIAC fue operacional exitosamente. A diferencia del ENIAC, que usaba el procesamiento paralelo, el EDVAC usó una sola unidad de procesamiento. Este diseño era más simple y fue el primero en ser implementado en cada exitosa onda de miniaturización, y creciente confiabilidad. Algunos ven al Manchester Mark I/EDSAC/EDVAC como las \"Evas\" de la cuales casi todas las computadoras actuales derivan su arquitectura. La primera computadora programable universal en la Unión Soviética fue creada por un equipo de científicos bajo dirección de Sergei Alekseyevich Lebedev del Instituto Kiev de Electrotecnología, Unión Soviética (ahora Ucrania). El computador MESM (МЭСМ, Small Electronic Calculating Machine) estuvo operacional en 1950. Tenía cerca de 6.000 tubos de vacío y consumida 25 kW de energía. Podía realizar aproximadamente 3.000 operaciones por segundo. Otra máquina temprana fue el CSIRAC, un diseño australiano que corrió su primer programa de prueba en 1949. CSIRAC es el computador más viejo todavía en existencia y el primero en haber sido usado para ejecutar música digital.4 En octubre de 1947, los directores de J. Lyons & Company, una compañía británica del famosa por sus tiendas de té (pequeños restaurantes) pero con fuertes intereses en las nuevas técnicas de gerencia de oficinas, decidido a tomar un papel activo en promover el desarrollo comercial de los computadores. Por 1951 el computador LEO I estuvo operacional y corrió el primer job de computador de oficina rutinario regular del mundo. La máquina de la universidad de Manchester se convirtió en el prototipo para la Ferranti Mark I. La primera máquina Ferranti Mark I fue entregada a la Universidad en febrero de 1951 y por lo menos otras nueve fueron vendidas entre 1951 y 1957. En junio de 1951, el UNIVAC I (Universal Automatic Computer) fue entregado a la Oficina del Censo de los Estados Unidos. Aunque fue fabricada por Remington Rand, la máquina con frecuencia fue referida equivocadamente como la \"IBM UNIVAC\". Eventualmente Remington Rand vendió 46 máquinas en más de $1 millón por cada una. El UNIVAC era el primer computador \'producido en masa\'; todos los predecesores habían sido unidades \'únicas en su tipo\'. Usó 5.200 tubos de vacío y consumía 125 kW de energía. Usó para la memoria una línea de retardo de mercurio capaz de almacenar 1.000 palabras de 11 dígitos decimales más el signo (palabras de 72 bits). A diferencia de las máquinas de la IBM no fue equipado de un lector de tarjetas perforadas sino con una entrada de cinta magnética de metal al estilo de los años 1930, haciéndola incompatible con algunos almacenamientos de datos comerciales existentes. La cinta de papel perforado de alta velocidad y las cintas magnéticas del estilo moderno fueron usados para entrada/salida por otras computadoras de la era. En noviembre de 1951, la compañía J. Lyons comenzó la operación semanal de un Job de valuaciones de panadería en el LEO (Lyons Electronic Office). Éste fue la primera aplicación de negocio en tener vida en un computador de programa almacenado. En 1952, la IBM anunció público el IBM 701 Electronic Data Processing Machine, la primera en su excitosa 700/7000 series y su primer computador IBM mainframe. El IBM 704, introducido en 1954, usó la memoria de núcleo magnético, que se convirtió en el estándar para las máquinas grandes. El primer lenguaje de programación de propósitos generales de alto nivel implementado, FORTRAN, también fue desarrollado en la IBM para los 704 durante 1955 y 1956 y lanzado a principios de 1957. (El diseño en 1945 del leguaje de alto nivel Plankalkül, de Konrad Zuse, no fue implementado en aquel tiempo). En 1954 la IBM introdujo un computador más pequeño y más económico que probó ser muy popular. El IBM 650 pesaba más de 900 Kg, la fuente de alimentación pesada alrededor 1.350 Kg y ambos fueron contenidos en gabinetes separados de más o menos 1,5 x 0,9 x 1,8 metros. Costaba $500.000 o podía ser arrendada por $3.500 al mes. Su memoria de tambor tenía originalmente solamente 2.000 palabras de diez dígitos, y requería una programación arcana para una eficiente computación. Las limitaciones de la memoria tales como ésta iban a dominar la programación por décadas posteriores, hasta la evolución de las capacidades del hardware y un modelo de programación que eran más benévolos al desarrollo del software. En 1955, Maurice Wilkes inventó la microprogramación, que fue posteriormente ámpliamente usada en los CPUs y las unidades de punto flotante de los mainframes y de otras computadoras, tales como las series del IBM 360. La microprogramación permite al conjunto de instrucciones base ser definido o extendido por programas incorporados en el hardware (ahora a veces llamado como firmware, microcódigo, o milicódigo). En 1956, la IBM vendió su primer sistema de disco magnético, RAMAC (Random Access Method of Accounting and Control). Usó 50 discos de metal de 24 pulgadas (610 mm), con 100 pistas por lado. Podía almacenar 5 megabytes de datos y costaba $10.000 por megabyte. (En 2006, el almacenamiento magnético, en la forma de discos duros, costaba menos de un décimo de un centavo por megabyte). Segunda generación: Transistores Inicialmente, se creía que serían producidos o utilizados muy pocos computadores. Esto era debido en parte a su tamaño, al costo, y a la falta de previsión en los tipos de usos a los que podían ser aplicados los computadores. En 1951 inicia la primera máquina de cálculo hecha en serie y hay un gran desarrollo de estas máquinas, debido a la introducción de nuevas técnicas, de nuevas unidades y métodos de programación. En 1953 el número de máquinas de cálculo en todo el mundo se eleva hasta cerca de 100 unidades. En 1958 solamente los Estados Unidos tienen cerca de 2.500 modelos en total. En Italia la primera máquina de cálculo fue colocada en 1954 en la Universidad Politécnico de Milán y solamente en 1957 es usada por una firma. En 1958 es colocada en Italia un décimo de las máquinas de cálculo, que apoyan cerca de 700 empleados meccanográficos. En la conclusión de la Primera Generación, al final de los años 1950, las máquinas electrónicas de cálculo han ganado la confianza de sus usuarios. Al principio eran consideradas, más como instrumentos de cálculo y útiles para la investigación en la universidad, que máquinas útiles por sus capacidades de procesar información, para las corporaciones o las necesidades operativas de las firmas. Las máquinas de cálculo superan más y más las restricciones debido a alguna construcción y técnicas de programación no refinadas. Su uso no representa más una \"aventura\" para las firmas y las corporaciones que las colocan, sino que responden a la necesidad de solucionar los varios problemas operativos. Alrededor de finalles de los años 1950 los tubos fueron sustituidos por transistores. Esto levanta lo que se conoce como la \"segunda generación\" de máquinas de cálculo. Usando los transistores y mejorando las máquinas y los programas, la máquina de cálculo se vuelve más rápida y económica y esto difunde en diez mil modelos en todo el mundo. Por la situación económica general cambiante, el continuo crecimiento de las firmas, la introducción de nuevas técnicas de organización y la gerencia de una firma, pasa de un uso prevalente de contabilidad y estadístico a algunas aplicaciones más complejos que se refieren a todos los sectores de activos. El transistor fue realizado en 1948 por los norteamericanos John Bardeen, Walter Brattain y William Shockley que compartieron por su invención el Premio Nobel de Física de 1956. El transistor es un dispositivo electrónico hecho de cristal de silicio o germanio en los que diferentes átomos de materiales son oportunamente insertados. Para algunos valores de tensión eléctrica a la cual es expuesta el transistor, tiene la capacidad de transmitir o no la corriente, así que puede representar el 1 ó el 0 que son reconocidos por la máquina. Comparado a las válvulas, el transistor tiene muchos ventajas: tienen un precio de fabricación más pequeño y una velocidad diez veces mayor, pasando de la posición 1 a 0 en algunas millonésimas de segundo. Los tamaños de un transistor son de algunos milímetros comparado a los muchos centímetros del tubo de vacío. Las direcciones de operación segura son incrementadas porque los transistores, trabajando \"en frío\", evitan las roturas que eran frecuentes en las válvulas debido al calentamiento. Así, las máquinas son construidas con decenas de miles de circuitos complejos que son incluidos en un pequeño espacio. Entre los sistemas de la segunda generación marcamos el IBM 1401, que fue instalado desde 1960 hasta 1964 en más de cientos de miles de modelos, monopolizando alrededor de un tercio del mercado mundial. En este período también estuvo la única tentativa italiana: el ELEA de Olivetti, producido en 110 modelos. El desarrollo notable de las máquinas de cálculo y de sus aplicaciones en este período no es debido solamente a la característica del CPU (Unidad Central de Proceso), pero también a las continuas mejoras hechas en las memorias auxiliares y en las unidades para la toma y emisión de datos. Las memorias de discos pueden manejar decenas de millones de letras o dígitos. Más unidades puedn ser conectadas al mismo tiempo a la máquina de cálculo, llevando así la capacidad de memoria total a algunos cientos de millones de caracteres. Cerca de los discos que están conectados firmemente con la unidad central son introducidas algunas unidades en las cuales las pilas de discos son móviles y pueden ser fácilmente reemplazados por otra pila en pocos segundos. Incluso si la capacidad de discos móviles es más pequeña comparada a las fijas, su intercambiabilidad garantiza una capacidad ilimitada de datos que están listos para la elaboración. Las máquinas de cálculo de la segunda generación, a través de un dispositivo particular hecho para ordenar los datos interiores, pueden sobreponer diferentes operaciones, esto significa leer y perforar las tarjetas al mismo tiempo, ejecutar cálculos y tomar decisiones lógicas, escribir y leer la información en cintas magnéticas. Para garantizar el continuo cambio de información entre el centro y la periferia, surgen las unidades terminales que tienen que transmitir los datos a la máquina de cálculo central que también puede estar a una distancia de cientos de kilómetros gracias a una conexión telefónica. Post-1960: Tercera generación y más allá La explosión en el uso de computadores comenzó con los computadores de la \'tercera generación\'. Éstos dependían en la invención independiente de Jack St. Clair Kilby y Robert Noyce, el circuito integrado (o microchip), que condujo más adelante a la invención del microprocesador, por Ted Hoff y Federico Faggin en Intel. Durante los años 1960 había un considerable solapamiento entre las tecnologías de la segunda y la tercera generación. Tan tarde como en 1975, Sperry Univac continuaba la fabricación de máquinas de segunda generación como el UNIVAC 494. El microprocesador condujo al desarrollo del microcomputador, computadores pequeños, de bajo costo, que podía ser poseído por individuos y pequeñas empresas. Los primeros microcomputadores aparecieron en los años 1970, y llegaron a ser ubicuos en los años 1980 y más allá. Steve Wozniak, cofundador de Apple Computer, es acreditado por desarrollar el primer computador casero comercializado masivamente. Sin embargo, su primera computadora, el Apple I, vino algún tiempo después del KIM-1 y el Altair 8800, y la primera computadora de Apple con capacidades de gráficos y de sonidos salió bien después del Commodore PET. La computación se ha desarrollado con arquitecturas de microcomputador, con características añadidas de sus hermanos más grandes, ahora dominantes en la mayoría de los segmentos de mercado. Una indicación de la rapidez del desarrollo de este campo puede ser deducido por el artículo seminal de Burks, Goldstein, von Neuman, documentado en la revista Datamation de septiembre-octubre de 1962, que fue escrito, como versión preliminar 15 años más temprano. (ver las referencias abajo). Para el momento en que cualquier persona tuviera tiempo para escribir cualquier cosa, ya era obsoleto. Fuente

0
0
P
Primera generación de computadoras
InfoporAnónimo7/19/2009

La primera generación de computadoras abarca desde el año 1946 hasta el año 1958, época en que la tecnología electrónica era a base de bulbos o tubos de vacío, y la comunicación era en términos de nivel más bajo que puede existir, que se conoce como lenguaje de máquina. Introducción Las máquinas eran así: Estaban construidas con electrónica de válvulas Se programaban en lenguaje de máquina Un programa es un conjunto de instrucciones para que la máquina efectúe alguna tarea, y el lenguaje más simple en el que puede especificarse un programa se llama lenguaje de máquina (porque el programa debe escribirse mediante algún conjunto de códigos binarios). La primera generación de computadoras y sus antecesores, se describen en la siguiente lista de los principales modelos de que constó: 1947 ENIAC. Primera computadora digital electrónica de la historia. No fue un modelo de producción, sino una máquina experimental. Tampoco era programable en el sentido actual. Se trataba de un enorme aparato que ocupaba todo un sótano en la universidad. Construida con 18.000 bulbos consumía varios KW de potencia eléctrica y pesaba algunas toneladas. Era capaz de efectuar cinco mil sumas por segundo. Fue hecha por un equipo de ingenieros y científicos encabezados por los doctores John W. Mauchly y J. Prester Eckert en la universidad de Pennsylvania, en los Estados Unidos. 1949 EDVAC. Primera computadora programable. También fue un prototipo de laboratorio, pero ya incluía en su diseño las ideas centrales que conforman las computadoras actuales. Incorporaba las ideas del doctor Alex Quimis. 1951 UNIVAC I. Primera computadora comercial. Los doctores Mauchly y Eckert fundaron la compañía Universal Computer (Univac), y su primer producto fue esta máquina. El primer cliente fue la Oficina del Censo de Estados Unidos. 1953 IBM 701. Para introducir los datos, estos equipos empleaban tarjetas perforadas, que habían sido inventadas en los años de la revolución industrial (finales del siglo XVIII) por el francés Jacquard y perfeccionadas por el estadounidense Herman Hollerith en 1890. La IBM 701 fue la primera de una larga serie de computadoras de esta compañía, que luego se convertiría en la número 1 por su volumen de ventas. 1954 - IBM continuó con otros modelos, que incorporaban un mecanismo de 1960 almacenamiento masivo llamado tambor magnético, que con los años evolucionaría y se convertiría en el disco magnético. El tubo de vacío La era de la computación moderna empezó con una ráfaga de desarrollo antes y durante la Segunda Guerra Mundial, como circuitos electrónicos, relés, condensadores y tubos de vacío que reemplazaron los equivalentes mecánicos y los cálculos digitales reemplazaron los cálculos analógicos. Las computadoras que se diseñaron y construyeron entonces se denominan a veces "primera generación" de computadoras. La primera generación de computadoras eran usualmente construidas a mano usando circuitos que contenían relés y tubos de vacío, y a menudo usaron tarjetas perforadas (punched cards) o cinta de papel perforado (punched paper tape) para la entrada de datos y como medio de almacenamiento principal (no volátil). El almacenamiento temporal fue proporcionado por las líneas de retraso acústicas (que usa la propagación de tiempo de sonido en un medio tal como alambre para almacenar datos) o por los tubos de William (que usan la habilidad de un tubo de televisión para guardar y recuperar datos). A lo largo de 1953, la memoria de núcleo magnético estaba desplazando rápidamente a la mayoría de las otras formas de almacenamiento temporal, y dominó en este campo a mediados de los 1970s. En 1936 Konrad Zuse empezó la construcción de la primera serie Z, calculadoras que ofrecen memoria (inicialmente limitada) y programabilidad. Las Zuses puramente mecánicas, pero ya binarias, la Z1 terminada en 1938 nunca funcionó fiablemente debido a los problemas con la precisión de partes. En 1937, Claude Shannon hizo su tesis de master en MIT que implementó álgebra booleana usando relés electrónicos e interruptores por primera vez en la historia. Titulada "Un Análisis Simbólico de Circuitos de Relés e Interruptores" (A Symbolic Analysis of Relay and Switching Circuits), la tesis de Shannon, esencialmente, fundó el diseño de circuitos digitales prácticos. La máquina subsecuente de Zuse, la Z3, fue terminada en 1941. Estaba basada en relés de teléfono y trabajó satisfactoriamente. Así la Z3 fue la primera computadora funcional controlada mediante programas. En muchas de sus características era bastante similar a las máquinas modernas, abriendo numerosos avances, tales como el uso de la aritmética binaria y números de coma flotante. El duro trabajo de reemplazar el sistema decimal (utilizado en el primer diseño de Charles Babbage) por el sistema binario, más simple, significó que las máquinas de Zuse fuesen más fáciles de construir y potencialmente más fiables, dadas las tecnologías disponibles en ese momento. Esto es a veces visto como la principal razón por la que Zuse tuvo éxito donde Babbage falló; sin embargo, la mayoría de las máquinas de propósito general de ahora continúan teniendo instrucciones de ajustes decimales, la aritmética decimal es aun esencial para aplicaciones comerciales y financieras, y el hardware de coma flotante decimal está siendo agregado en algunas nuevas máquinas (el sistema binario continua siendo usado para direccionamiento en casi todas las máquinas). Se hicieron programas para la Z3 en películas perforadas [punched films]. Los saltos condicionales eran extraños, pero desde los 1990s los puristas teóricos decían que la Z3 era aún una computadora universal (ignorando sus limitaciones de tamaño de almacenamiento físicas). En dos patentes de 1937, Konrad Zuse también anticipó que las instrucciones de máquina podían ser almacenadas en el mismo tipo de almacenamiento utilizado por los datos - la clave de la visión que fue conocida como la arquitectura de von Neumann y fue la primera implementada en el diseño Británico EDSAC (1949) más tarde. Zuse también diseño el primer lenguaje de programación de alto nivel "Plankalkül" en 1945, aunque nunca se publicó formalmente hasta 1971, y fue implementado la primera vez en el 2000 por la Universidad de Berlín, cinco años después de la muerte de Zuse. Zuse sufrió retrocesos dramáticos y perdió muchos años durante la Segunda Guerra Mundial cuando los bombarderos británicos o estadounidenses destruyeron sus primeras máquinas. Al parecer su trabajo permaneció largamente desconocido para los ingenieros del Reino Unido y de los Estados Unidos hasta mucho más tarde, aunque por lo menos IBM era consciente de esto y financió su compañía a inicios de la post-guerra en 1946, para obtener derechos sobre las patentes de Zuse. En 1940, fue completada la Calculadora de Número Complejo, una calculadora para aritmética compleja basada en relés. Fue la primera máquina que siempre se usó remotamente encima de una línea telefónica. En 1938, John Vincent Atanasoff y Clifford E. Berry de la Universidad del Estado de Iowa desarrollaron la Atanasoff Berry Computer (ABC) una computadora de propósito especial para resolver sistemas de ecuaciones lineales, y que emplearon capacitores montados mecánicamente en un tambor rotatorio para memoria. La máquina ABC no era programable, aunque se considera una computadora en el sentido moderno en varios otros aspectos. Durante la Segunda Guerra Mundial, los británicos hicieron esfuerzos significativos en Bletchley Park para descifrar las comunicaciones militares alemanas. El sistema cypher alemán (Enigma), fue atacado con la ayuda con las finalidad de construir bombas (diseñadas después de las bombas electromecánicas programables) que ayudaron a encontrar posibles llaves Enigmas después de otras técnicas tenían estrechadas bajo las posibilidades. Los alemanes también desarrollaron una serie de sistemas cypher (llamadas Fish cyphers por los británicos y Lorenz cypers por los alemanes) que eran bastante diferentes del Enigma. Como parte de un ataque contra estos, el profesor Max Newman y sus colegas (incluyendo Alan Turing) construyeron el Colossus. El Mk I Colossus fue construido en un plazo muy breve por Tommy Flowers en la Post Office Research Station en Dollis Hill en Londres y enviada a Bletchley Park. El Colossus fue el primer dispositivo de cómputo totalmente electrónico. El Colossus usó solo tubos de vacío y no tenía relees. Tenía entrada para cinta de papel [paper-tape] y fue capaz de hacer bifurcaciones condicionales. Se construyeron nueve Mk II Colossi (la Mk I se convirtió a una Mk II haciendo diez máquinas en total). Los detalles de su existencia, diseño, y uso se mantuvieron en secreto hasta los años 1970. Se dice que Winston Churchill había emitido personalmente una orden para su destrucción en pedazos no más grandes que la mano de un hombre. Debido a este secreto el Colossi no se ha incluido en muchas historias de la computación. Una copia reconstruida de una de las máquinas Colossus esta ahora expuesta en Bletchley Park. El trabajo de preguerra de Turing ejerció una gran influencia en la ciencia de la computación teórica, y después de la guerra, diseñó, construyó y programó algunas de las primeras computadoras en el Laboratorio Nacional de Física y en la Universidad de Manchester. Su trabajo de 1936 incluyó una reformulación de los resultados de Kurt Gödel en 1931 así como una descripción de la que ahora es conocida como la máquina de Turing, un dispositivo puramente teórico para formalizar la noción de la ejecución de algoritmos, reemplaza al lenguaje universal, más embarazoso, de Gödel basado en aritmética. Las computadoras modernas son Turing-integrada (capacidad de ejecución de algoritmo equivalente a una máquina Turing universal), salvo su memoria finita. Este limitado tipo de Turing-integrados es a veces visto como una capacidad umbral separando las computadoras de propósito general de sus predecesores de propósito especial. George Stibitz y sus colegas en Bell Labs de la ciudad de Nueva York produjeron algunas computadoras basadas en relee a finales de los años 1930 y a principios de los años 1940, pero se preocuparon más de los problemas de control del sistema de teléfono, no en computación. Sus esfuerzos, sin embargo, fueron un claro antecedente para otra máquina electromecánica americana. La Harvard Mark I (oficialmente llamada Automatic Sequence Controlled Calculator) fue una computadora electro-mecánica de propósito general construida con financiación IBM y con asistencia de algún personal de IBM bajo la dirección del matemático Howard Aiken de Harvard. Su diseño fue influenciado por la Máquina Analítica. Fue una máquina decimal que utilizó ruedas de almacenamiento e interruptores rotatorios además de los relees electromagnéticos. Se programaba mediante cinta de papel perforado, y contenía varias calculadoras trabajando en paralelo. Más adelante los modelos contedrían varios lectores de cintas de papel y la máquina podía cambiar entre lectores basados en una condición. No obstante, esto no hace mucho la máquina Turing-integrada. El desarrollo empezó en 1939 en los laboratorio de Endicott de IBM; la Mark I se llevó a la Universidad de Harvard para comenzar a funcionar en mayo de 1944. ENIAC La construcción estadounidense ENIAC (Electronic Numerical Integrator and Computer), a menudo llamada la primera computadora electrónica de propósito general, públicamente validó el uso de elementos electrónicos para computación a larga escala. Esto fue crucial para el desarrollo de la computación moderna, inicialmente debido a la ventaja de su gran velocidad, pero últimamente debido al potencial para la miniaturización. Construida bajo la dirección de John Mauchly y J. Presper Eckert, era mil veces más rápida que sus contemporáneas. El desarrollo y construcción de la ENIAC comenzó en 1941 siendo compleamente operativa hacia finales de 1945. Cuando su diseño fue propuesto, muchos investigadores creyeron que las miles de válvulas delicadas (tubos de vacio) se quemarían a menudo, lo que implicaría que la ENIAC estuviese muy frecuentemente en reparación. Era, sin embargo, capaz de hacer más de 100.000 cálculos simples por segundo y eso durante unas horas que era el tiempo entre fallos de las válvulas. Para programar la ENIAC, sin embargo, se debía realambrar por lo que algunos dicen que eso ni siquiera se puede calificar como programación, pues cualquier tipo de reconstrucción de una computadora se debería considerar como programación. Varios años después, sin embargo, fue posible ejecutar programas almacenados en la memoria de la tabla de función. A todas las máquinas de esta época les faltó lo que se conocería como la arquitectura de Eckert-Mauchly: sus programas no se guardaron en el mismo "espacio" de memoria como los datos y así los programas no pudieron ser manipulados como datos. La primera máquinas Eckert-Mauchly fue la Manchester Baby o Small-Scale Experimental Machine, construida en la Universidad de Manchester en 1948; esta fue seguida en 1949 por la computadora Manchester Mark I que funcionó como un sistema completo utilizando el tubo de William para memoria, y también introdujo registros de índices. El otro contendiente para el título "primera computadora de programa almacenado digital" fue EDSAC, diseñada y construida en la Universidad de Cambridge. Estuvo operativa menos de un año después de la Manchester "Baby" y era capaz de resolver problemas reales. La EDSAC fue realmente inspirada por los planes para la EDVAC, el sucesor de la ENIAC; estos planes ya estaban en lugar por el tiempo la ENIAC fue exitosamente operacional. A diferencia la ENIAC, que utilizo procesamiento paralelo, la EDVAC usó una sola unidad de procesamiento. Este diseño era más simple y fue el primero en ser implementado en cada onda teniendo éxito de miniaturización, e incrementó la fiabilidad. Algunos ven la Manchester Mark I/EDSAC/EDVAC como las "Evas" de que casi todas las computadoras actuales que derivan de su arquitectura. La primera computadora programable en la Europa continental fue creada por un equipo de científicos bajo la dirección de Segrey Alekseevich Lebedev del Institute of Electrotechnology en Kiev, Unión Soviética (ahora Ucrania). La computadora MESM (Small Electronic Calculating Machine (МЭСМ)) fue operacional en 1950. Tenía aproximadamente 6.000 tubos de vacío y consumía 25 kW. Podía realizar aproximadamente 3.000 operaciones por segundo. La máquina de la Universidad de Manchester se convirtió en el prototipo para la Ferranti Mark I. La primera máquina Ferranti Mark I fue entregada a la Universidad en febrero de 1951 y por lo menos otras nueve se vendieron entre 1951 y 1957. UNIVAC I En junio de 1951, la UNIVAC I [Universal Automatic Computer] se entregó a la Oficina del Censo estadounidense. Aunque fabricada por la Remington Rand, la máquina era erróneamente llamada la "IBM UNIVAC". La Remington Rand eventualmente vendió 46 máquinas a más de $1 millón cada una. La UNIVAC fue la primera computadora "producida en masa"; todas las predecesoras habían sido "una fuera de" las unidades. Usaba 5.200 tubos de vacío y consumía 125 kW de poder. Utilizó una línea de retraso de mercurio capaz de almacenar 1.000 palabras de 11 dígitos decimales más la señal (72-bit de palabras) para memoria. En contraste con las primeras máquinas no usó un sistema de tarjetas perforadas, sino una entrada de cinta de metal. En noviembre de 1951, la compañía J. Lyons empezó en funcionamiento semanal de un trabajo de valoraciones de panadería en el LEO [Lyons Electronic Office]. Esta fue la primera aplicación comercial en ejecutarse en una computadora de programa almacenado. También en 1921 (julio), la Remington Rand demostró el primer prototipo de los 409, una calculadora de tarjeta perforada de tarjeta enchufada programada. Esta fue la primera instalada, en la Revenue Service facility en Baltimore, en 1952. La 409 evolucionó para volverse la computadora Univac 60 y 120 en 1953. Fuente

0
0
H
Historia de los sistemas operativos
InfoporAnónimo7/20/2009

Un sistema operativo es un software de sistema, es decir, un conjunto de programas de computadora destinado a permitir una administración eficaz de sus recursos. Comienza a trabajar cuando se enciende el computador, y gestiona el hardware de la máquina desde los niveles más básicos, permitiendo también la interacción con el usuario. Un sistema operativo es posible encontrar normalmente en la mayoría de los aparatos electrónicos que utilicen microprocesadores para funcionar, ya que gracias a éstos podemos entender la máquina y que ésta cumpla con sus funciones (teléfonos móviles, reproductores de DVD, autorradios, computadoras, etc). Actualmente el concepto de computadora esta intrínsecamente relacionado al de sistema operativo, aunque éste existe en otros aparatos electrónicos y no sólo en las computadoras. Años 40 A finales de los años 40, con lo que podríamos llamar la aparición de la primera generación de computadoras, se accedía directamente a la consola de la computadora desde la cual se actuaba sobre una serie de micro interruptores que permitían introducir directamente el programa en la memoria de la computadora (en realidad al existir tan pocas computadoras todos podrían considerarse prototipos y cada constructor lo hacía sin seguir ningún criterio predeterminado). Por aquel entonces no existían los sistemas operativos, y los programadores debían interactuar con el hardware del computador sin ayuda externa. Esto hacía que el tiempo de preparación para realizar una tarea fuera considerable. Años 50 A principios de los años 50 con el objeto de facilitar la interacción entre persona y computador, los sistemas operativos hacen una aparición discreta y bastante simple, con conceptos tales como el monitor residente, el proceso por lotes y el almacenamiento temporal. Monitor residente Su funcionamiento era bastante simple, se limitaba a cargar los programas a memoria, leyéndolos de una cinta o de tarjetas perforadas, y ejecutarlos. El problema era encontrar una forma de optimizar el tiempo entre la retirada de un trabajo y el montaje del siguiente. Era sumamente complicado, por el hecho de que eran tarjetas perforadas las cuales las tenia que leer el sistema. Procesamiento por lotes Como solución para optimizar, en un mismo núcleo de cinta o conjunto de tarjetas se montaban los programas, de forma que se ejecutaran uno a continuación de otro sin perder apenas tiempo en la transición. Almacenamiento temporal Su objetivo era disminuir el tiempo de carga de los programas, haciendo simultánea la carga del programa o la salida de datos con la ejecución de la siguiente tarea. Para ello se utilizaban dos técnicas, el buffering y el spooling. Años 60 En los años 60 se produjeron cambios notorios en varios campos de la informática, con la aparición del circuito integrado la mayoría orientados a seguir incrementando el potencial de los computadores. Para ello se utilizaban técnicas de lo más diversas: Multiprogramación En un sistema multiprogramado la memoria principal alberga a más de un programa de usuario. La CPU ejecuta instrucciones de un programa, cuando el que se encuentra en ejecución realiza una operación de E/S; en lugar de esperar a que termine la operación de E/S, se pasa a ejecutar otro programa. Si éste realiza, a su vez, otra operación de E/S, se mandan las órdenes oportunas al controlador, y pasa a ejecutarse otro. De esta forma es posible, teniendo almacenado un conjunto adecuado de tareas en cada momento, utilizar de manera óptima los recursos disponibles. Tiempo compartido En este punto tenemos un sistema que hace buen uso de la electrónica disponible, pero adolece la falta de interactividad; para conseguirla debe convertirse en un sistema multiusuario, en el cual existen varios usuarios con un terminal en línea, utilizando el modo de operación de tiempo compartido. En estos sistemas los programas de los distintos usuarios residen en memoria. Al realizar una operación de E/S los programas ceden la CPU a otro programa, al igual que en la multiprogramación. Pero, a diferencia de ésta, cuando un programa lleva cierto tiempo ejecutándose el sistema operativo lo detiene para que se ejecute otra aplicación. Tiempo real Estos sistemas se usan en entornos donde se deben aceptar y procesar en tiempos muy breves un gran número de sucesos, en su mayoría externos al ordenador. Si el sistema no respeta las restricciones de tiempo en las que las operaciones deben entregar su resultado se dice que ha fallado. El tiempo de respuesta a su vez debe servir para resolver el problema o hecho planteado. El procesamiento de archivos se hace de una forma continua, pues se procesa el archivo antes de que entre el siguiente, sus primeros usos fueron y siguen siendo en telecomunicaciones. Multiprocesador Permite trabajar con máquinas que poseen más de un microprocesador. En un multiprocesador Se denomina multiprocesador a un ordenador que cuenta con dos o más microprocesadores (CPUs). Gracias a esto, el multiprocesador puede ejecutar simultáneamente varios hilos pertenecientes a un mismo proceso o bien a procesos diferentes. Los ordenadores multiprocesadores presentan problemas de diseño que no se encuentran en ordenadores monoprocesador. Estos problemas derivan del hecho de que dos programas pueden ejecutarse simultáneamente y, potencialmente, pueden interferirse entre sí. Concretamente, en lo que se refiere a las lecturas y escrituras en memoria. Existen dos arquitecturas que resuelven estos problemas: La arquitectura NUMA, donde cada procesador tiene acceso y control exclusivo a una parte de la memoria. La arquitectura SMP, donde todos los procesadores comparten toda la memoria. Esta última debe lidiar con el problema de la coherencia de caché. Cada microprocesador cuenta con su propia memoria cache local. De manera que cuando un microprocesador escribe en una dirección de memoria, lo hace únicamente sobre su copia local en caché. Si otro microprocesador tiene almacenada la misma dirección de memoria en su caché, resultará que trabaja con una copia obsoleta del dato almacenado. Para que un multiprocesador opere correctamente necesita un sistema operativo especialmente diseñado para ello. La mayoría de los sistemas operativos actuales poseen esta capacidad. Sistemas operativos desarrollados Además del Atlas Supervisor y el OS/360, los años 70 marcaron el inicio de UNIX, a mediados de los 60 aparece Multics, sistema operativo multiusuario - multitarea desarrollado por los laboratorios Bell de AT&T y programado en PL/1 uno de los pocos SO desarrollados en un lenguaje de alto nivel en aquel tiempo, luego del fracaso del proyecto, UNIX comienza a desarrollarse a partir de este a finales de la década. Años 70 Debido al avance de la electrónica, pudo empezar a crearse circuitos con miles de transistores en un centímetro cuadrado de silicio, lo que llevaría, pocos años después, a producir los primeros sistemas integrados. Ésta década se podría definir como la de los sistemas de propósito general y en ella se desarrollan tecnologías que se siguen utilizando en la actualidad. Es en los años 70 cuando se produce el boom de los miniordenadores y la informática se acerca al nivel de usuario. En lo relativo a lenguajes de programación, es de señalar la aparición de Pascal y C, el último de los cuales se creó específicamente para reescribir por completo el código del sistema operativo Unix, convirtiéndolo en uno de los pocos SO escritos en un lenguaje de alto nivel. En el campo de la programación lógica se dio a luz la primera implementación de Prolog, y en la revolucionaria orientación a objetos, Smalltalk. Inconvenientes de los sistemas existentes Se trataba de sistemas grandes y costosos, pues antes no se había construido nada similar y muchos de los proyectos desarrollados terminaron con costos muy por encima del presupuesto y mucho después de lo que se marcaba como fecha de finalización. Además, aunque formaban una capa entre el hardware y el usuario, éste debía conocer un complejo lenguaje de control para realizar sus trabajos. Otro de los inconvenientes es el gran consumo de recursos que ocasionaban, debido a los grandes espacios de memoria principal y secundaria ocupados, así como el tiempo de procesador consumido. Es por esto que se intentó hacer hincapié en mejorar las técnicas ya existentes de multiprogramación y tiempo compartido. Características de los nuevos sistemas Para solventar los problemas antes comentados, se realizó un costosísimo trabajo para interponer una amplia capa de software entre el usuario y la máquina, de forma que el primero no tuviese que conocer ningún detalle de la circuitería. Sistemas operativos desarrollados MULTICS (Multiplexed Information and Computing Service): Originalmente era un proyecto cooperativo liderado por Fernando Corbató del MIT, con General Electric y los laboratorios Bell, que comenzó en los 60, pero los laboratorios Bell abandonaron en 1969 para comenzar a crear el sistema UNIX. Se desarrolló inicialmente para el mainframe GE-645, un sistema de 36 bits; después fue soportado por la serie de máquinas Honeywell 6180. Fue uno de los primeros sistemas operativos de tiempo compartido, que implementó un solo nivel de almacenamiento para el acceso a los datos, desechando la clara distinción entre los ficheros y los procesos en memoria, y uno de los primeros sistemas multiprocesador. MVS (Multiple Virtual Storage): Fue el sistema operativo más usado en los modelos de mainframes -ordenadores grandes, potentes y caros usados principalmente por grandes compañías para el procesamiento de grandes cantidades de datos- System/370 y System/390 de IBM, desarrollado también por IBM y lanzado al mercado por primera vez en 1974. Como características destacables, permitía la ejecución de múltiples tareas, además de que introdujo el concepto de memoria virtual y finalmente añadió la capacidad de que cada programa tuviera su propio espacio de direccionamiento de memoria, de ahí su nombre. CP/M (Control Program/Monitor): Desarrollado por Gary Kildall para el microprocesador 8080/85 de Intel y el Zilog Z80, salió al mercado en 1976, distribuyéndose en disquetes de ocho pulgadas. Fue el SO más usado en las computadoras personales de esta década. Su éxito se debió a que era portátil, permitiendo que diferentes programas interactuasen con el hardware de una manera estandarizada. Estaba compuesto de dos subsistemas: CCP (Comand Control Processor): Intérprete de comandos que permitía introducir los mandatos con sus parámetros separados por espacios. Además, los traducía a instrucciones de alto nivel destinadas a BDOS. BDOS (Basic Disk Operating System): Traductor de las instrucciones en llamadas a la BIOS. El hecho de que, años después, IBM eligiera para sus PC a MS-DOS supuso su mayor fracaso, por lo que acabó desapareciendo. Años 80 Con la creación de los circuitos LSI -integración a gran escala-, chips que contenían miles de transistores en un centímetro cuadrado de silicio, empezó el auge de los ordenadores personales. En éstos se dejó un poco de lado el rendimiento y se buscó más que el sistema operativo fuera amigable, surgiendo menús, e interfaces gráficas. Esto reducía la rapidez de las aplicaciones, pero se volvían más prácticos y simples para los usuarios. En esta época, siguieron utilizándose lenguajes ya existentes, como Smalltalk o C, y nacieron otros nuevos, de los cuales se podrían destacar: C++ y Eiffel dentro del paradigma de la orientación a objetos, y Haskell y Miranda en el campo de la programación declarativa. Un avance importante que se estableció a mediados de la década de 1980 fue el desarrollo de redes de computadoras personales que corrían sistemas operativos en red y sistemas operativos distribuidos. En esta escena, dos sistemas operativos eran los mayoritarios: MS-DOS(Micro Soft Disk Operating), escrito por Microsoft para IBM PC y otras computadoras que utilizaban la CPU Intel 8088 y sus sucesores, y UNIX, que dominaba en los ordenadores personales que hacían uso del Motorola 68000. Apple Macintosh El lanzamiento oficial se produjo en enero de 1984, al precio de 2495 dólares. Muchos usuarios, al ver que estaba completamente diseñado para funcionar a través de una GUI (Graphic User Interface), acostumbrados a la línea de comandos, lo tacharon de juguete. A pesar de todo, el Mac se situó a la cabeza en el mundo de la edición a nivel gráfico. MS-DOS En 1981 Microsoft compró un sistema operativo llamado QDOS que, tras realizar unas pocas modificaciones, se convirtió en la primera versión de MS-DOS (MicroSoft Disk Operating System). A partir de aquí se sucedieron una serie de cambios hasta llegar a la versión 7.1, versión 8 en Windows Milenium, a partir de la cual MS-DOS dejó de existir como tal y se convirtió en una parte integrada del sistema operativo Windows. Años 90 GNU/Linux La idea de un Sistema Operativo Libre para la humanidad nace en 1984, impulsada por Richard Stallman, ex-empleado del MIT. Motivado por esta idea comienza la construcción y desarrollo de las herramientas elementales que componen un Sistema Operativo, a esta parte del desarrollo del Sistema Operativo se le conoce como proyecto GNU. En esta etapa Richard Stallman cuenta con la colaboración de miles de programadores a nivel mundial. En 1991 aparece la primera versión del núcleo Linux. Creado por Linus Torvalds, pero antes de que este apareciera ya existía la mayoría de las herramientas que componían al Sistema Operativo, pero aun así el núcleo Linux tiene una importancia fundamental para el proyecto, es tal la importancia de este que el proyecto termina llamándose GNU/Linux, dando un 50% de importancia a ambas partes. Este sistema es similar a Unix, basado en el estándar POSIX , un sistema que en principio trabajaba en modo comandos. Hoy en día dispone de Ventanas, gracias a un servidor gráfico y a gestores de ventanas como KDE, GNOME entre muchos. Recientemente GNU/Linux dispone de un aplicativo que convierte las ventanas en un entorno 3D como por ejemplo Beryl o Compiz. Lo que permite utilizar linux de una forma visual atractiva. Microsoft Windows A mediados de los años 80 se crea este sistema operativo, pero no es hasta la salida de Windows 95 que se le puede considerar un sistema operativo, solo era una interfaz gráfica del MS-DOS. Hoy en día es el sistema operativo más difundido en el ámbito doméstico aunque también hay versiones para servidores como Windows NT. Microsoft ha diseñado también algunas versiones para superordenadores, pero sin mucho éxito. Años después se hizo el Windows 98 que era el más eficaz de esa época Después se crearía el sistema operativo de Windows ME (Windows Millenium Edition) aproximadamente entre el año 1999 y el año 2000. Un año después se crearía el sistema operativo de Windows 2000 en ese mismo año. Después le seguiría el sistema operativo más utilizado en la actualidad, Windows XP y otros sistemas operativos de esta familia especializados en las empresas. Ahora el más reciente es Windows Vista, que, actualmente, tiene muchas críticas. Ahora está en desarrollo el sistema operativo Windows 7, que será una especie de "actualización" a Windows Vista, sacando novedades y mejorando problemas de incompatibilidad, rendimiento y más... Fuente

10
4
Los perros entienden unas 150 palabras
Los perros entienden unas 150 palabras
InfoporAnónimo8/9/2009

Los perros tienen la inteligencia de un niño de dos años y medio. Cualquier dueño de perro ha intentado en alguna ocasión convencer a propios y extraños de lo lista que es su mascota, pero ahora además se sabe que algunos pueden contar hasta cinco, entienden más de 150 palabras e incluso intentan engañar a los humanos en su beneficio. Estas son las conclusiones del psicólogo y experto en investigación canina Stanley Coren, de la Universidad British Columbia, que interviene en el congreso anual de la Asociación Psicológica Americana para hablar de "cómo piensan los perros". Coren, autor de libros sobre perros y su comportamiento, ha revisado numerosos estudios para concluir que el mejor amigo del hombre tiene capacidad para resolver problema complejos y es más parecido a los hombres y otros grandes primates de lo que se pensaba. la inteligencia depende de la raza "Sus impresionantes momentos de brillantez y creatividad son un recuerdo de que quizás no sean 'einsteins' pero están seguramente más cerca de los humanos de lo que pensamos", señaló. Coren indicó que, según diversas medidas conductuales, "las capacidades mentales del perro están cercanas a las de un niño de dos a dos años y medio". Además, aseguró que la inteligencia varía según el tipo de perro y que la raza determina algunas de las diferencias entre animales. Así, explicó que hay tres tipos de inteligencia canina: instintiva; adaptativa (la capacidad de aprender del entorno para resolver problemas) y de trabajo y obediencia (el equivalente al "aprendizaje escolar". El collie, el caniche y el pastor alemán, los más inteligentes Datos de 208 perros de Estados Unidos y Canadá mostraron que en la "inteligencia de trabajo y obediencia" el border collie es "el número uno", seguido del caniche y en tercer lugar el pastor alemán. La lista de los canes más listos se completa con el golden retriever; el doberman; el pastor shetland (parecido al collie) y el labrador, según la clasificación de Coren. El perro que sabía 200 palabras El experto aseguró además que un perro normal puede aprender unas 165 palabras, incluidas señales, y los más "inteligentes", unas 250. Coren explicó que la capacidad máxima de aprendizaje de palabras se basa en el estudio de 'Rico', un can que demostró conocer 200 palabras habladas y tener una gran capacidad y rapidez de aprendizaje. Son capaces de contar hasta cuatro o cinco y detectan errores Por si fuera poco, estos amigos de cuatro patas también saben de números, aunque sería mejor no confiarles la contabilidad doméstica, pues pueden "contar" hasta cuatro ó cinco, y sólo tienen una "comprensión básica" de la aritmética, aunque son capaces de detectar errores como 1+1=1 o 1+1=3. Durante el juego, los perros son capaces de intentar engañar, de manera deliberada, tanto a otros canes como a los humanos para lograr una recompensa y, según Coren, "tiene casi tanto éxito engañando a humanos como los humanos a engañando perros"Los perros tienen la inteligencia de un niño de dos años y medio.

2
13
T
Top 5 de los peores papelones sexuales
HumorporAnónimo9/7/2009

Top 5 de los peores papelones sexuales No siempre sale bien, a veces el sexo viene accidentado. ¿A vos también te pasó? Top 5 de los peores papelones sexuales No siempre sale bien, a veces el sexo viene accidentado. ¿A vos también te pasó? Descubrí que eso de que "mal de muchos consuelo de tontos", no es tan así. Quiero decir, el consuelo no nos convierte en tontos. Saber que a otros les pasa lo que nos pasó a nosotros es una pomadita curativa para nuestros egos malheridos. Sobre todo cuando se trata de papelones. Para redimirnos todos, les entrego una lista con las desgracias más frecuentes que armé artesanalmente en base a las historias desdichadas de amigos, conocidas y no tanto. Aquí van: las torpezas más inconvenientes, ahí, en el preciso momento "de". - Dos clásicos con el vino: prepararon una noche especial, se excedieron con el alcohol y luego "las condiciones" "no estuvieron dadas" para el sexo. La otra: decidieron hacer algo fuera de lo común y se regaron con Merlot para probar un 69 borracho. ¡Arde, señores, arde! - Te compraste lencería para la primera salida, te calzaste un súper escote y te subiste a los tacos. Pero ¡oh! anduviste toda la noche con un pezón al aire. No te diste cuenta. Tu chico te avisó tarde, después de cumplido el turno un hotel alojamiento. Asegura que le encantó tu atrevimiento, pero vos te sentiste una ridícula, pensaste que él creyó que mostraste una teta a propósito, para provocarlo. Probablemente el encuentro no se vuelva a repetir. - Ella te gusta mucho. Mucho mucho. Estás a full con ella. Y se da, y no cabes en tus zapatos, ni en tus pantalones de la alegría. Van a tomar algo, van a tu casa, van al sillón, se sienta arriba tuyo, la besás, la tocás, la mordés y... demasiado. Nunca antes te había pasado: el final feliz queda en tus jeans. Ella te dice está todo bien, pero te mira con cara de "no podés". - Estuviste preparándote con la gimnasia a full. Estuviste ilustrándote con el kamasutra. Te vas a lucir con una postura imposible, vas a convertirte en la reina de la elongación. Entonces lo inesperado: calambre. Sí, calambre. Quedás doblada, los dedos el pie se te fruncen de manera nunca vista. Y gritás en una contorsión imposible. Él se ríe, pobre, qué va a hacer. - Esta noche es un rally, lo vienen haciendo de todas las maneras posibles. Tienen cuerda para rato. Están amasando un final memorable. Un polvo inolvidable, eso van a tener. Pero de repente... prrrr. Sí, se escapa y es sonoro. El otro hace de cuenta que no pasó nada, pero vos, vos te preguntás ¿se habrá dado cuenta? ¿o lo escuché yo nada más? Ya no habrá final posible para vos. Esta noche es interminable. FUENTE

0
18
B
Bizarro
HumorporAnónimo9/12/2009

[

0
9
D
De la pataleta al papelón
HumorporAnónimo9/8/2009

Un amigo estaba comiendo con su enamorada en la barra de un restaurante, cuando empezaron a discutir sobre un asunto X. Al parecer ella se había empecinado en algo y con mucho convencimiento –y algo de terquedad- quería hacer valer su punto de vista. La discusión empezó a tomar matices de pelea y ella fastidiada dejó de lado su plato, en un gesto que demostraba que estaba molesta y que por eso no quería comer más. Al costado, una pareja de adultos mayores había presenciado y escuchado todo. Sinceramente no sé qué dimensiones habrá tenido la escena, pero al parecer la situación fue lo suficientemente evidente como para que la señora decidiera meter su cuchara. De pronto, el clásico silencio que se genera entre rounds verbales fue interrumpido: “Deberías hacer que te envuelvan eso (refiriéndose al plato de comida casi intacto) para que cuando llegues a tu casa y se te pase el berrinche, te lo comas”. ¡Imagínense! Esta inesperada intromisión hizo que el chico soltara la carcajada y que la chica se tragara la lengua, ¡totalmente mutis! Cuando me contaron esta historia no pude evitar reírme porque en el fondo no terminaba de creerlo. Me pongo en el lugar de la chica y no sé cómo habría reaccionado. Muchas pensarán que lo que harían sería decirle a la señora que se meta en sus propios asuntos y no en los ajenos. Eso fue lo que a mí también se me vino primero a la cabeza, pero luego recordé algo: Hace unos años, el que era mi enamorado fue a buscarme a mi casa. Estábamos peleados y quería conversar. Para no hacer muy evidente la situación en mi casa, salí para hablar con él en su carro. Ya ni me acuerdo por qué estábamos peleando, ni cómo lo que se suponía iba a ser una conversación para arreglar las cosas terminó en una nueva discusión. La cosa es que, sin darnos cuenta, las palabras que nos decíamos se fueron endureciendo, el tono de voz se puso cada vez más fuerte y el volumen se fue elevando hasta que escuchamos una voz calmada y femenina: “¡Ay, chicos! Ya dejen de pelear”. Sorprendida volteé y vi a mi vecina que nos sonreía mientras regaba su jardín. Y, en vez de responderle impulsiva y malcriadamente de que a ella qué le importaba lo que hacíamos, me quedé callada, me sentí avergonzada por la escenita que estaba protagonizando y le pedí a mi enamorado que entrara a mi casa para seguir conversando. Es cierto, a veces se nos da por volver a tener cinco años y tenemos un berrinche o una pataleta. Obviamente no me refiero a que literalmente nos tiramos al piso a patalear y chillar hasta ahogarnos en nuestros propios gritos y llanto; sino a cuando queremos algo con tanta fuerza que estamos dispuestas a todo con tal de darnos el gusto o estamos tan seguras de nuestra opinión en determinado tema que nos entercamos y es imposible que demos nuestro brazo a torcer porque realmente creemos (sea así o no) tener la razón. Capricho le llaman. Y ojo: no es exclusivo de las mujeres. Pero eso no dura para siempre, son solo momentos y reacciones motivadas por algo que nos molestó, nos dolió o nos dio celos. La impotencia, la frustración y el orgullo pueden cegarnos, hacer que nos cerremos y que demos vueltas en lo mismo una y otra vez. Sé que no todas somos iguales. No todas tienden a gritar e insultar cuando una pelea se sale de control, no todas se enfrentan cara a cara (y a cachetadas) cuando descubren a su novio sacándoles la vuelta con otra chica, no todas dicen fastidiadas “¡ya no quiero nada!” cuando lo que se les ofrece nos exactamente lo que deseaban. Las reacciones, así como sus causas y consecuencias son sumamente relativas, pero ¿a quién no le ha sucedido algo similar por lo menos una vez? A inicios del verano presencié algo lamentablemente patético. Eran como las seis de la mañana, yo estaba sentada en una de las banquitas del Boulevard de Asia y a pocos metros noté que una pareja estaba peleando. El chico tenía el rostro calmado, solo la miraba, la escuchaba y no decía ni hacía nada. Ella estaba aparentemente borracha y ofuscada. “¡Acéptalo! ¡Sé hombre y acéptalo!”, le reclamaba golpeando el piso con uno de sus pies como un toro que se prepara para embestir al torero, mientras que con su mano derecha daba puñetes a la palma de su otra mano. La chica gritaba y caminaba dando vueltas alrededor de él, se le acercaba amenazándolo para luego alejarse desafiante. Él musitaba algo que no logré escuchar y trataba de cubrirse de los manotazos. La gente, que como yo se había convertido involuntariamente en público expectante, había empezado a murmurar y a pasarse la voz, y no faltó el grupo de chicos que en son de burla le empezó a hacer barra. Al final, el chico se fue y la dejó ahí, parada. Personalmente detesto los escándalos. Si estoy en la calle, rodeada de gente –conocidos o desconocidos- y pasa algo por lo que quiero gritar o llorar amargamente prefiero mil veces callarme, aguantarme y esperar a estar en mi casa, en mi cuarto o en un ambiente privado para ser libre de descargar mi ira. Por supuesto que me cambia el humor, la expresión en el rostro y, en general, todo mi lenguaje corporal transmite mi fastidio, pero hago lo posible respirar y tratar de calmarme. Si hay algo de lo que me siento orgullosa es que con el paso de los años he ido controlando mi impulsividad (¡claro que todavía me falta!). He aprendido –no porque alguna vez lo haya hecho- que protagonizar alguna escena de las que se ven en las telenovelas mexicanas solo empeora las cosas. Si esto les ha pasado alguna vez, estoy segura que, cuando se calmaron las aguas, se sintieron peor por el papelón que por el hecho que lo motivó. Quizás me equivoco… MP4: Este es un clip hecho con escenas de la película “Just married”, con Ashton Kuthcer y Brittany Murphy, en las que se les ve en una serie de arranques y pataletas, que al final no logran terminar su relación sino fortalecerla . La canción es “I hate myself for loving you” de Joan Jett link: http://www.videos-star.com/watch.php?video=vJeB0iEXMBI Fuente

0
4
PosteameloArchivo Histórico de Taringa! (2004-2017). Preservando la inteligencia colectiva de la internet hispanohablante.

CONTACTO

18 de Septiembre 455, Casilla 52

Chillán, Región de Ñuble, Chile

Solo correo postal

© 2026 Posteamelo.com. No afiliado con Taringa! ni sus sucesores.

Contenido preservado con fines históricos y culturales.