e

erchus91

Usuario (Argentina)

Primer post: 19 sept 2014Último post: 16 may 2016
33
Posts
4759
Puntos totales
278
Comentarios
L
Las diez cosas de la actualidad que le debemos a Einstein
InfoporAnónimo11/8/2015

En 1953, como consecuencia de algunas ideas que Einstein había manifestado en 1917, se logró el desarrollo del máser, un dispositivo que hace lo mismo que el láser (que apareció en escena después), pero con radiación de microondas en vez de con luz. Fue 36 años después de que el genio alemán pensara en emisiones estimuladas. De hecho, la palabra máser deriva del acrónimo inglés para amplificación de microondas por emisión estimulada de radiación. Hoy se utiliza en radiotelescopios y relojes atómicos, mientras que la capacidad de las microondas de generar calor permitió su aplicación en los hornos a microondas. El físico estadounidense Charles H. Townes ganó el Nobel de Física en 1964 (compartido con dos soviéticos) por la creación del máser, y fue pionero en la del láser. Murió en enero de este año. En 1953, como consecuencia de algunas ideas que Einstein había manifestado en 1917, se logró el desarrollo del máser, un dispositivo que hace lo mismo que el láser (que apareció en escena después), pero con radiación de microondas en vez de con luz. Fue 36 años después de que el genio alemán pensara en emisiones estimuladas. De hecho, la palabra máser deriva del acrónimo inglés para amplificación de microondas por emisión estimulada de radiación. Hoy se utiliza en radiotelescopios y relojes atómicos, mientras que la capacidad de las microondas de generar calor permitió su aplicación en los hornos a microondas. El físico estadounidense Charles H. Townes ganó el Nobel de Física en 1964 (compartido con dos soviéticos) por la creación del máser, y fue pionero en la del láser. A más de un siglo de su descripción del movimiento azaroso de micropartículas suspendidas en un fluido (por ejemplo, el polen en una gota de agua), la explicación de Einstein sobre este fenómeno –conocido como movimiento browniano–sigue siendo útil. Los físicos que trabajan en nanotecnología (la manipulación de materiales muy pequeños, a escala molecular) utilizan ecuaciones de Einstein para cancelar el movimiento browniano y, así, controlar las nanopartículas. Más aún: ese ensayo logró aplicarse en ámbitos en principio alejados de la física, como la economía. En 1900, cinco años antes de que apareciera el artículo de Einstein, el matemático francés Louis Bachelier había establecido vínculos entre el azaroso y caótico comportamiento de las acciones en la bolsa de valores y el movimiento browniano, en lo que se reconoce como el primer trabajo matemático aplicado a la economía. Sin embargo, fue el detallado trabajo de Einstein el que permitió desarrollar modelos más ajustados sobre el comportamiento del mercado financiero y sus estadísticas. GIF En abril de 2015, el dispositivo de navegación conocido como sistema de posicionamiento global (GPS) cumplió 20 años. Desarrollado por el Departamento de Defensa de los Estados Unidos, en poco tiempo se extendió su uso civil y hoy prácticamente todos los teléfonos celulares lo incluyen entre sus funciones. Este gadget, que nos permite llegar a cualquier punto del globo terrestre sin preocuparnos de cuán terrible es nuestra orientación, no sería posible sin las ideas enunciada por Einstein. El elemento clave con que trabajan los satélites de GPS es el tiempo. Un receptor de GPS reúne señales muy precisas de distintos satélites, cada uno equipado con un reloj atómico. Al conocer la posición de cada satélite, mediante un método conocido como trilateralización, el GPS puede determinar su ubicación exacta sobre la superficie terrestre. Pero este invento no tendría ninguna utilidad sin la Teoría de la Relatividad de Einstein. Por algo la elogió tanto el científico inglés Paul Dirac, que ganó el Premio Nobel de Física en 1933. El británico llamó a esa genialidad del científico alemán “probablemente el descubrimiento científico más grande jamás hecho”. Opinión compartida por uno de los padres de la mecánica cuántica, otro alemán, Max Born (Premio Nobel de Física de 1954), quien la destacó como “el más grande logro del pensamiento humano sobre la naturaleza”.Los satélites se mueven a velocidades que superan los 10.000 kilómetros por hora, por lo cual funcionan más lento que los relojes terrestres, lo que se conoce como efecto de dilatación del tiempo, tal como se explica en la Teoría Especial de la Relatividad. En total, la diferencia es de unos 7 microsegundos por día. Casi nada, pero para que el GPS sea operativo, necesita una precisión de 20-30 nanosegundos (7 microsegundos equivalen a 7.000 nanosegundos, y un nanosegundo es la milmillonésima parte de un segundo).Pero hay más: como los satélites están alejados de la Tierra (a unos 20.000 Km de altura), están sujetos a una menor influencia del campo gravitatorio terrestre (un postulado de la Teoría General de la Relatividad), por lo cual funcionan más rápido que los relojes en el planeta. En este caso, la diferencia es de 45 microsegundos diarios. Combinando los dos desajustes, resulta una diferencia de 38 microsegundos por día, algo que los GPS deben corregir para mantener la precisión. Sin esta corrección “el sistema mundial de GPS se vendría abajo”, confirma el físico Charles Wang, de la Universidad de Aberdeen, en el Reino Unido. Entonces, nuestro celular indicaría que “ha llegado a su destino” cuando en realidad estaríamos ubicados a 10 kilómetros de distancia del lugar al que nos dirigimos. Y la divergencia aumentaría cada día en 10 kilómetros. Un grave problema que no se podría salvar ni recalculando una y otra vez. GIF La fisión nuclear (es decir, la división del núcleo del átomo) se logró en 1938. Es lo que permitió, unos años más tarde, la bomba atómica. Hoy se utiliza de forma controlada para la producción de energía mediante reactores nucleares. Alrededor del 11 % de la energía producida mundialmente es nuclear. Cuando se logró la división del núcleo del átomo en dos, se observó que la suma de la masa de las dos mitades era algo inferior al núcleo original. ¿Qué había ocurrido con el faltante? La célebre fórmula E=mc2, que establece la equivalencia de masa y energía, dio la respuesta: ese déficit se había convertido en energía. Según José Edelstein, profesor de física teórica de la Universidad de Santiago de Compostela, España, “la energía nuclear se fundamenta en los trabajos de Einstein; si no hubiera reactores nucleares, la humanidad tendría que consumir muchísima menos energía, y lo que llamamos nivel de vida tendría que ser mucho más austero”. Más allá de este aspecto teórico, que Einstein desarrolló en 1905 al escribir la Teoría Especial de la Relatividad, el físico alemán tuvo un efecto práctico en la creación de la bomba atómica, al firmar una carta en 1939 dirigida al presidente de los Estados Unidos, Franklin D. Roosevelt. La carta advertía que Alemania podría desarrollar la bomba atómica, y recomendaba que EE. UU. iniciara su propio programa nuclear. Este fue el puntapié inicial del Proyecto Manhattan, del cual, irónicamente, Einstein sería excluido por su origen alemán. El Proyecto culminó con la primera detonación (experimental) de una bomba atómica el 16 de julio de 1945, seguida al mes siguiente por los bombardeos de Hiroshima y Nagasaki. Más tarde Einstein lamentaría haber firmado aquella carta. El funcionamiento básico del televisor no sería posible sin la explicación de Einstein sobre el efecto fotoeléctrico. El físico argentino Juan Pablo Paz lo comenta así: “La teoría de los fotones de Einstein permitió explicar el aspecto más extraño del efecto fotoeléctrico: al iluminar un metal, la luz deposita energía, arranca electrones y da lugar a una corriente eléctrica. Pero para que eso ocurra, el color de la luz no puede ser cualquiera. La selectividad del efecto fotoeléctrico al color de la luz es clave para numerosas tecnologías”. La invención del tubo de rayos catódicos, en 1907, y del iconoscopio (una primitiva cámara de tevé), en 1933, fueron hitos en el desarrollo de la televisión que aprovecharon la obra científica de Einstein. Sin embargo, en un nivel más específico, para un funcionamiento adecuado del sistema fue necesario tomar en cuenta la Teoría Especial de la Relatividad, sin cuya aplicación para corregir algunos defectos, las imágenes televisivas se verían borrosas, inentendibles. GIF El Premio Nobel de Física por su explicación del efecto fotoeléctrico, desarrollada en un artículo de 1905. Allí planteó que la luz presenta un comportamiento tanto de ondas –de acuerdo con la teoría física clásica– como de partículas (que luego se denominarían fotones). Se convirtió, así (y casi a su pesar), en uno de los fundadores de la mecánica cuántica, aunque –paradójicamente– a lo largo de su vida se negó a aceptar como válida. Se considera al físico Max Planck el padre de la mecánica cuántica y, justamente de Planck, Einstein tomó la idea de considerar a la luz como conformada por partículas. Este descubrimiento tiene infinidad de aplicaciones: desde la energía solar a las alarmas antirrobo, pasando por los reguladores del tóner de fotocopiadoras. Otra consecuencia práctica son las cámaras digitales. Augusto Beléndez Vázquez, experto en física aplicada de la Universidad de Alicante, España, lo explica así: “Las cámaras digitales utilizan sensores CCD en vez de película fotográfica, como las cámaras tradicionales. Esos sensores se basan en el efecto fotoeléctrico, la conversión de luz recibida en corriente eléctrica, que ocurre en algunos materiales”. También es clave en otros inventos: • Puertas automáticas de ascensores y supermercados: en ellas, el cuerpo de la persona que ingresa interrumpe un haz de luz que, normalmente, incide sobre una célula fotoeléctrica. En el caso de los ascensores, esa interrupción corta la corriente eléctrica del motor que cierra las puertas, deteniendo el cierre. En las puertas de supermercados, lo activa, abriéndolas. • Lámparas automáticas: se activan cuando la célula fotoeléctrica llega a un umbral determinado de luz. • Alcoholímetros: el alcohol exhalado por una persona reacciona en el alcoholímetro con un gas que lo colorea (mayor alcohol, mayor intensidad del color). Ese color se traduce en el índice de alcoholemia mediante una célula fotoeléctrica. El físico e inventor húngaro Leó Szilárd realizó notables contribuciones a la ciencia, entre ellas, la idea del reactor nuclear. Alumno de Einstein en Berlín, entre 1926 y 1930 colaboró con su maestro en el desarrollo de una heladera. En aquellos tiempos, las heladeras hogareñas estaban dando sus primeros pasos, y utilizaban gases tóxicos como refrigerantes. La elevada tasa de muertes por su malfuncionamiento llevó a Einstein a buscar una solución. Diseñaron una sin partes móviles (minimizando la posibilidad de una pérdida de gas), y que no utilizaba electricidad, sino únicamente una fuente de calor, y además no hacía ruido. La clave era una bomba electromagnética que movía un metal líquido. Sin embargo, el metal planteaba un potencial riesgo de intoxicación. Frigoríficos más eficaces (hoy se utilizan gases no tóxicos, como el freón) relegaron al “frigorífico Einstein” al archivo de las curiosidades. No obstante, su idea se reflotó en 2008, cuando investigadores de la Universidad de Oxford retomaron el invento para aplicarlo en regiones del mundo en las que hay escasez de electricidad. Cuando se recibió de físico en la Escuela Politécnica de Zurich, Einstein apenas pudo conseguir un modesto trabajo en la oficina de patentes de Berna, recién dos años después de haberse graduado. El puesto le permitió interiorizarse en aplicaciones novedosas de principios científicos, y daría lugar a su mayor éxito como inventor: el girocompás. Este artefacto es un tipo de brújula. Al contrario que las brújulas convencionales, señala el norte geográfico y no el norte magnético (la diferencia entre ambos, llamada declinación magnética, es de unos 1.600 kilómetros). Además, el girocompás no resulta afectado por los metales. Ambas características son muy útiles en los buques actuales y submarinos. El prototipo del girocompás fue inventado por el alemán Hermann Anschütz-Kaempfe en 1904. En 1915 Einstein actuó como perito para determinar si se había infringido la patente de Anschütz-Kaempfe, y testificó a favor del alemán. A partir de entonces se inició una relación entre ambos, y en años siguientes trabajaron juntos para mejorar el dispositivo. Sus aportes le permitieron percibir ingresos del 3 % de las ventas y el 3 % de las ganancias provenientes de las licencias. El invento fue rápidamente adoptado por la Armada alemana y hoy es de amplio uso en los barcos de todo el mundo. Además de estos inventos, Einstein también desarrolló, con otros colaboradores, un dispositivo para mejorar la audición (1934) y una cámara de exposición automática (1936). El año milagroso de Einstein. Así es conocido 1905, el año en que publicó cuatro artículos extraordinarios que revolucionaron la física. Dos de ellos estaban dedicados a la Teoría Especial de la Relatividad; otro, a la explicación del efecto fotoeléctrico (por el cual más tarde recibiría el Premio Nobel); el último, en tanto, estaba dedicado al movimiento browniano (el que se puede observar en algunas partículas microscópicas cuando están en un medio fluido). Ese artículo se convirtió en la primera evidencia empírica de los átomos, en una época en la que todavía se discutía su existencia física. El movimiento browniano, observado en 1827 por el botánico Robert Brown, es el comportamiento azaroso de partículas microscópicas en un fluido. Einstein explicó que estos desplazamientos aleatorios se debían a la colisión de estas partículas con moléculas (átomos). Estableció, además, una ecuación para determinar la distancia que puede recorrer una partícula como resultado de su choque con los átomos. Esta ecuación se denomina relación de Einstein, y más tarde se usó para “describir los movimientos de los dispositivos semiconductores a través de un material semiconductor”, algo particularmente útil en el diseño y análisis de los microchips. Un semiconductor es un material (como el silicio) capaz de regular el flujo de corriente en un microchip (el cerebro de la computadora). Los primeros dispositivos que utilizan las propiedades de los semiconductores fueron bastante rudimentarios y datan de 1906, un año después de que Einstein publicara su artículo sobre el movimiento browniano. Este trabajo daría frutos prácticos varios años más tarde, con la invención del transistor, desarrollado en 1947 por tres físicos estadounidenses (el logro les valió el Premio Nobel en 1956). Los transistores son los primeros semiconductores modernos, y son el componente clave de prácticamente todos los artefactos electrónicos, desde la radio y la televisión hasta las computadoras y los teléfonos celulares. En ellos, las ideas de Einsten están presentes cada vez con más fuerza. GIF

0
0
¿Quién Tiene La Culpa De Los Despidos?
¿Quién Tiene La Culpa De Los Despidos?
InfoporAnónimo2/8/2016

GIF Resumen Level 5: Culpable es el líder populista que utiliza el aparato estatal para premiar a su militancia, y que infla el empleo público para ocultar los verdaderos índices de desempleo y pobreza en el país, el que a largo plazo genera problemas económicos, y no quien debe corregir la insostenible situación creada por aquél. UNA DISCUSIÓN (CASI) ABSURDA La discusión política y económica que se está dando en Argentina es, por lo menos, llamativa. En efecto, el enroque que se produjo entre oficialismo y oposición en diciembre de 2015 alteró de forma significativa el modo de construir los argumentos: hubo quienes del día a la mañana se enteraron que existe en el país algo llamado “inflación”; que algo llamado “inseguridad” amenaza cotidianamente al ciudadano; que el narcotráfico no es sólo una realidad mexicana o colombiana, sino cada vez más argentina; que nuestra moneda pierde valor respecto del dólar; que la pobreza es una realidad bien palpable. Quienes cegados por las mieles del relato kirchnerista no quisieron ver en su momento, de repente parecen haber despertado de un largo sueño y, como si hubiesen vivido en una dimensión paralela a lo largo de diez años, hoy paradójicamente se escandalizan de las consecuencias económicas y sociales que dejó el kirchnerismo endilgándolas al nuevo gobierno, sin reparar en las verdaderas causas. Algo parecido a lo que ocurre con un alcohólico después de una fuerte borrachera, en la que se mezcla distorsión de la realidad y ausencia de autocrítica. En rigor, es el eterno final de la historia populista. Pan y circo, borrachera y despilfarro, seguido de una dura pero merecida resaca colectiva pagada en términos sociales por el pueblo entero (incluidos aquellos que no apoyaron a los populistas), y en términos políticos por una nueva gestión que debe llevar adelante los esfuerzos necesarios para volver a colocar al país en el carril de la realidad que la ebriedad nubló. Es lo que ocurre hoy día con la problemática de los despidos. Los paranoicos del monstruo llamado “ajuste”, que llamativamente jamás dijeron ni media palabra sobre los constantes ajustes y devaluaciones kirchneristas, no se explican cómo puede ser posible tanta crueldad; cómo ha de concebirse que el Estado deba reducir su tamaño, sin preguntarse, por supuesto, sobre las causales de tal necesidad. Pero los números evidencian muy bien quién creó el problema del empleo público improductivo. En efecto, durante toda la gestión kirchnerista aproximadamente 1.300.000 personas, equivalente a casi un 60% del tamaño del año 2003, se sumaron al sector público, sin que las prestaciones de éste hayan mejorado significativamente sino, en muchos casos, todo lo contrario (y si no, pregúntenle por ejemplo a las víctimas de Once). Para empeorar las cosas para el próximo gobierno, las últimas jugarretas de Cristina Kirchner antes de abandonar el poder consistieron en seguir atorando de militantes la estructura estatal. El problema es que el dinero con el que se pagan los sueldos de ese aluvión de nuevos burócratas no cae como maná del cielo, sino que es absorbido del sector privado a través de impuestos y, por supuesto, de la inflación creada por la emisión monetaria descontrolada. Lo inverso, por lo tanto, también es cierto: para controlar la inflación se necesita reducir los niveles de déficit fiscal, lo cual lleva a recortar los gastos innecesarios que hace el Estado en virtud de las políticas populistas que se intentan dejar atrás. En efecto, la presión impositiva del período K se llevó el triste récord de haber sido la más alta de la historia argentina, habiendo superado incluso a la de muchos Estados de bienestar europeos: el peso de los tributos sobre la economía superó el 45% del PIB, lo que representa un aumento de casi un 100% respecto del 23,4% que se tuvo en 2003. El gasto público para soportar esta estructura elefantiásica, sumando Nación, provincias y municipios, pasó en los diez años kirchneristas del 30%, a estar por arriba del 45% al finalizar el gobierno de Cristina Fernández. El déficit fiscal, por su parte, trepó a niveles mayores al 8% al concluir la larga experiencia kirchnerista. Todo esto significó que los argentinos tuvieron que trabajar prácticamente seis meses al año de manera gratuita, reducidos al nivel de esclavos del Estado, para soportar un sector público que, para peor de males, ni siquiera pudo cumplir con la función más esencial de todas: asegurar la vida en la seguridad. ¿No es entonces por lo menos insolente arremeter ahora contra quienes están buscando reparar los daños de la borrachera populista? Esta historia concluye, pues, con un Estado cuyo crecimiento va en un sentido inversamente proporcional al crecimiento del sector privado, del cual aquél depende. Como un parásito que se alimenta de su víctima y que, al alimentarse la va destruyendo, el Estado dirigido por un gobierno populista le chupa la sangre a los privados hasta dejarlos anémicos. Tal cosa es lo que ocurrió, en efecto, al menos desde el 2008 al 2015, período en el que cual el sector privado dejó de crecer y experimentó lo que es la recesión. Pero en los últimos años del gobierno kirchnerista, aquellos que ahora se escandalizan por los despidos estatales, nada decían por los despidos que se estaban produciendo en las empresas privadas a causa de las políticas económicas del gobierno. En una palabra, quienes hoy se encuentran alarmados por los despidos del sector público deberían entender que la crueldad primera no consiste en reducir la magnitud de la burocracia estatal, sino en haberla inflado en detrimento del trabajo productivo privado, con fines político-clientelares. Es la sobredosis de alcohol la que genera la resaca, y no al revés. Mutatis mutandis, es el líder populista que utiliza el aparato estatal para premiar a su militancia, y que infla el empleo público para ocultar los verdaderos índices de desempleo y pobreza en el país, el que a largo plazo genera problemas económicos, y no quien debe corregir la insostenible situación creada por aquél. Como Lord Keynes dijo, al largo plazo todos estaremos muertos. El problema es que con políticas populistas, el largo plazo llega más rápido que tarde. GIF

0
0
E
Encuesta sobre la Gestión de Macri
InfoporAnónimo1/20/2016

SE HIZO UNA ENCUESTA SOBRE LA GESTIÓN DE MACRI La encuestadora Poliarquía realizo una encuesta sobre el primer mes de Gobierno de Mauricio Macri. El 71% de los encuestados aprueba la gestión presidencial. Mientras que el 24% la desaprueba y un 4% no sabe, no contesta. Los resultados demuestran el amplio nivel de apoyo con que cuenta Mauricio Macri (71%) superando incluso lo alcanzado por Cristina Fernández de Kirchner en el año 2008. En el mismo relevamiento se preguntaba a los encuestados sobre “imagen positiva” y a la cabeza está María Eugenia Vidal con el 68% seguida de Mauricio Macri con el 64%. Le siguen Sergio Massa con el 62%, Gabriela Michetti con el 61%, y el décimo lugar lo ocupa la ex Presidenta Cristina Kirchner con el 33% de los votos. También se les preguntó a los encuestados sobre los asuntos más urgentes por resolver, y la inseguridad, la inflación, los problemas económicos, el desempleo y la corrupción (en ese orden) fueron los temas que la gente desea que se resuelvan en forma más urgente. De esta forma, sobre los resultados arrojados de la encuesta de Poliarquía, se desprende que a poco más de un mes de asumir, la imagen positiva de Mauricio Macri se mantiene en una excelente performance y la gestión de Gobierno es aprobada por una gran parte de la población (71%). Dentro de un par de meses, cuando se cumpla el primer trimestre de Gobierno, seguramente tendremos resultados de las encuestas que afirmen o rectifiquen la aprobación por parte de la población a la gestión de Mauricio Macri. Consultora: http://www.poliarquia.com/

0
12
CIA robó una sonda espacial soviética
CIA robó una sonda espacial soviética
InfoporAnónimo9/19/2014

Secretos del pasado: ¿por qué robó la CIA una sonda espacial soviética? EE.UU. logró compensar sus incapacidades en la esfera aeroespacial sustrayendo de una exposición una sonda automática soviética del programa Luna sin que la URSS se percatara de lo sucedido. En los años 60, EE.UU. intentaba atrapar a la URSS en unacarrera espacial que perdía debido a la mala planificación, a esquemasdisparatados y a la ineptitud de su espionaje, revela el semanarioestadounidense 'Newsweek', que ha tenido acceso a documentos secretosrecientemente desclasificados que contienen detalles de planes de Washingtondurante la Guerra Fría. Washington ansiaba conocer la tecnología de la sondaespacial comúnmente conocida como Lunik, ya que la misión de esta serie deaparatos (de 1959 a 1976) hasta ese momento había garantizado a la URSS unliderazgo incuestionable en la carrera espacial: la tercera nave del programaLuna logró fotografiar el 70% de la cara oculta del satélite. Los logros de losdiseñadores de la Lunik "eran mayores que lo que estaba consiguiendoEE.UU. en esta época y los norteamericanos querían desesperadamente echar unaojeada a la tecnología soviética. Una exposición itinerante parecía ofrecer laoportunidad perfecta", escribe el semanal. La CIA elaboró un plan para robar la información secretadurante una gira que la URSS estaba realizando para exhibir sus logrosindustriales y económicos, como maquinaria, centrales eléctricas y equiposnucleares. El vehículo espacial Lunik estaba incluido en la muestra. Losagentes de la CIA determinaron que sería imposible acercarse a la sondamientras estuviera en la exposición, porque los guardias soviéticos lavigilaban las 24 horas. Eso significaba que el único momento en que la Lunik noestaba bajo vigilancia constante era durante los traslados de una ciudad aotra. El transporte se realizaba primero en camiones y luego enferrocarril. Los espías de EE.UU., en colaboración con algunos lugareños,orquestaron que el camión en el que viajaba la caja donde se guardaba la Luniksería el último en el convoy que salía del recinto de la exhibición. Tambiénconsiguieron la plena cooperación del conductor, quien fue sustituido por unagente de la CIA que llevó el camión a un depósito de chatarra que la agenciahabía alquilado. Una vez allí, los agentes abrieron la caja y comenzaron atomar fotografías de todos los detalles de la sonda. Al llegar la madrugada,cerraron la caja y entregaron el camión con su carga al conductor sobornado,que lo llevó hasta el patio de ferrocarril. La información secreta obtenida de la Lunik constituía untesoro que permitió a los funcionarios espaciales estadounidenses conocer lascapacidades de la nave espacial soviética y robar lo mejor de la tecnología dela URSS.

10
0
Q
Querés saber donde se alojó PirateBay? Entrá! Ya!
InfoporAnónimo9/22/2014

Comprometidos a proteger tu privacidad y una Internet abierta http://bit.do/cyberbunker CyberBunker es un proveedor de servicios de Internet fundado en 1998 que, según su sitio web, hostea "servicios a cualquier sitio Web 'excepto pornografía infantil y cualquier cosa relacionada con el terrorismo". Sirvió como un host para The Pirate Bay y como una de las muchas Wikileaks. CyberBunker también ha sido acusado de ser un anfitrión para los spammers , botnet servidores de comando y control, software malicioso y estafas en línea. Vista lateral de la entrada del búnker La compañía también ha estado involucrado en Border Gateway Protocol secuestro de direcciones IP utilizadas por Spamhaus y el Departamento de Defensa de los Estados Unidos. El secuestro Spamhaus fue parte de un excepcionalmente gran ataque de denegación de servicio lanzado contra ellos marzo de 2013. Debido al tamaño de este ataque atrajo la atención de los principales medios de comunicación. Entrada del búnker La compañía se llama así porque está alojada en un antiguo bunker que se utilizó durante la guerra fría. Este fue construido en 1955 en las afueras de la pequeña ciudad de Kloetinge en el sur de Holanda . Fue pensado como un Centro de Comando del ejército holandés para resistir un ataque nuclear. Fue descartada por los militares holandeses en 1994. A partir de 2013, la ubicación física del búnker fue mostrada. Escalera hacia el nivel -1 CyberBunker tiene una larga historia de roces con la ley. En 2002 se produjo un incendio en el bunker. Después de que el fuego fue apagado, se descubrió que, además de los servicios de alojamiento de Internet se encontró un laboratorio donde se sintetizaba MDMA (3,4-metilendioximetanfetamina). Tres de los cuatro hombres acusados de la operación del laboratorio fueron condenados a penas de tres años de prisión; el cuarto fue absuelto por falta de pruebas. En octubre de 2009 un tracker Bittorrent de The Pirate Bay , que había sido objeto de acciones legales por varios grupos de anti- piratería, entre ellos la organización holandesa de derechos de autor BREIN, se alejó de Suecia a CyberBunker. En 2010, el tribunal de distrito de Hamburgo dictaminó que CyberBunker, que opera en Alemania como CB3Rob Ltd & Co KG , ya no le permitirían ser sede de The Pirate Bay, siendo objeto de una multa de € 250.000 o hasta 2 años de prisión por cada infracción. Matriz de pantallas La mayoría de las puertas son blindadas En marzo de 2013, Spamhaus agregó CyberBunker a su lista negra. Poco después una denegación de servicio (DDoS) de escala previamente no declarada (alcanzando un máximo de 300 gigabits por segundo; un ataque de media a gran escala es a menudo alrededor de 50 Gbit / s, mientras que el más grande conocido ataque previamente reportado públicamente era 100 Gbit / s ) fue lanzado contra el correo electrónico Spamhaus y servidores web que utilizan un sistema de nombres de dominio (DNS), a partir del 27 de marzo 2013 el ataque había durado más de una semana. Steve Linford, director ejecutivo de Spamhaus, dijo que habían resistido el ataque. Otras compañías, como Google , habían hecho sus recursos disponibles para ayudar a absorber el tráfico. El ataque estaba siendo investigado por cinco ciber-policías diferentes en todo el mundo. Spamhaus denunció que Cyberbunker estaba detrás del ataque, en cooperación con "bandas criminales" de Europa del Este y Rusia. Cyberbunker no respondió a la BBC solicitud 's para hacer comentarios sobre la acusación. Servidores señuelo Vista trasera de los servidores señuelo Tomas de aire, nivel -2 Puertas blindadas internas, diseñadas para resistir ondas de presión y explosiones Refrigeración para el datacenter, nivel -4 Áreas restringidas sólo accesibles a través de puertas blindadas y cámaras selladas Servidores con cerradura Sala de conferencias Departamento de investigación Piscina Sauna Generadores, 2 Megawatts Unidad distribuidora de energía Filtros de aire Filtros de carbono para absorber las partículas radiactivas del aire Racks UPS UPS, 2 Megawatts Cuarto de baterías Líneas de tensión, 3 fases ~ 400 V Medidores eléctricos Servidores privados virtuales Distribución de la red Equipos Dell Asilo en frío Más servidores Consola de servidor con Windows, bastante inestable Servidores dedicados Piso de datos, nivel -4 Equipos de refrigeración Otro asilo en frío Cine Cocina Cabe destacar que lo que se ve acá es lo que permiten ver al público, el resto de los equipos y otros espacios del búnker están altamente restringidos.

1·533
0
E
El juego escondido de Google Chrome
InfoporAnónimo9/27/2014

OCULTO. El juego de Google para no aburrirse cuando te quedas sin internet. Google piensa en todo. Inclusive en el momento en que te quedás sin internet. Para todos los usuarios de Chrome Canary, la versión en fase alfa del navegador, hay un juego para matar el aburrimiento de no tener conexión. Cuando la página indica que "No se ha podido establecer conexión con Internet", si apretás la barra espaciadora el pequeño dinosaurio se pondrá a correr, y con tu objetivo es evitar los obstáculos. Ante cada metro recorrido, el dinosaurio va sumando puntos. Descargar la versión de Chrome para desarrolladores podés hacer click: http://www.google.com/intl/es-419/chrome/browser/canary.html i

110
50
5 hechos deprimentes de la existencia humana
5 hechos deprimentes de la existencia humana
InfoporAnónimo10/2/2014

El ser humano es uno de los misterios más grandes de la naturaleza. ¿Qué es la consciencia? ¿Qué es la vida humana? ¿Qué sentido tiene la vida? Son preguntas con miles y millones de respuestas: tantas como personas que se las formulen. Esta actitud que tenemos los humanos, permanentemente cuestionándonos sobre la vida, el tiempo y la consciencia, sin dudas es un gran privilegio. Somos la única especie que se puede estudiar a sí misma, la forma de vida más inteligente de la Tierra, tenemos el cerebro más sofisticado del reino animal y contamos con la capacidad de dominar a todas las demás. Sin embargo, no todo es tan hermoso. Los mismos factores que nos determinan como la especie más inteligente y sofisticada, nos condena a una vida repleta de dilemas existenciales y morales que nos abruman, nos conducen a la depresión y a la desesperación. Tanto es así que muchas veces quisiéramos vivir como un animal más, sin preocupaciones; o volver a ser como bebés, que solo duermen, comen y pasan el día sin obligación alguna. Lo cierto es que no podemos escapar de nuestra agonía existencial, al menos no de una forma saludable... o legal. Por ello es que hoy vamos a hablar sobre algunos de esos aspectos más deprimentes de la existencia humana. #5 El ser humano es consciente de que va a morir Esta es, quizás, una de las ideas que más atormentan a los seres humanos. La consciencia de la vida, implica la consciencia de la muerte. Qué es la muerte o qué sucede después de la muerte probablemente constituya dos de los más grandes misterios de la humanidad. Tanto es así que las religiones, en su función de explicarnos las cosas que no entendemos, han desarrollado decenas de explicaciones y teorías sobre lo que sucede con el alma humana luego de la muerte física. Más allá de creer en esas teorías o no, lo cierto es que nos vamos a morir y no tenemos forma de saber exactamente qué sucede después. #4 El ser humano es consciente del paso del tiempo Este punto está muy relacionado con el anterior. La consciencia del paso del tiempo tiene que ver con la idea de que el tiempo se termina. Esta idea, quizás de forma inconsciente, está presente todo el tiempo. Los humanos vivimos ansiosos y apurados por hacer las cosas a tiempo, antes de que el tiempo se acabe. Esto opera en el día a día con cosas pequeñas e insignificantes, así como a lo largo de toda nuestra vida, con cuestiones más importantes. Los humanos delimitamos las etapas de nuestra propia vida (niñez, adolescencia, juventud, adultez, tercera edad) y le asignamos a cada una de ellas, metas y objetivos a cumplir. Cuando no logramos cumplir con las expectativas que tenemos para cada etapa, nos atormenta la idea de que estamos perdiendo el tiempo, que estamos desperdiciando nuestra vida. Esto nos genera ansiedad y nos conduce a la depresión. #3 El ser humano es consciente de que domina a las demás especies Todas las especies animales se valen de otras para sobrevivir, en ello no hay demasiado misterio. Lo que diferencia al humano del resto de las especies en éste sentido, es que somos conscientes de que dominamos totalmente a las demás especies. A veces, incluso de forma innecesaria. Esta idea atormenta a algunas personas, pero no a todas, claro. Algunos sienten culpa por dominar a otros animales, y creen que es injusto que los humanos utilicen su inteligencia para aprovecharse de estos, aún cuando lo hacen para subsistir. Tanto es así que alrededor del mundo existen organizaciones que se dedican a promover el vegetetarianismo y el veganismo. Lo que subyace detrás de ese tipo de organizaciones es el sentimiento de culpa por pertenecer a la especie que tiene la capacidad de dominar a las demás. #2 El ser humano consume mucho más de lo que necesita También es cierto que los humanos podrían ser mucho más respetuosos con el resto de las especies y el medio que los rodea. La inteligencia humana ha desarrollado formas de producción cada vez más intensivas y agresivas con el medio ambiente. Más allá de producir lo que se necesita para subsistir, los humanos producen para obtener beneficios materiales. Y si bien a nivel global se produce mucho más de lo necesario, una gran parte de la humanidad no obtiene ni la mitad de lo que necesita para subsistir. La consciencia de la desigualdad: la idea de que algunos obtienen demasiado y otros demasiado poco, se ha posicionado como uno de los dilemas más importantes de la ciencia y la filosofía política contemporánea. #1 El ser humano crea conocimiento y complica más las cosas Quizás uno de los problemas más importantes de la consciencia humana sea la propia capacidad que tenemos para conocer. La constante búsqueda de innovación, el objetivo permanente de superar los límites de la ciencia y la necesidad de saber más sobre las cosas que ya se conocen son, para el humano, tanto un fascinante privilegio, como una fuente de problemas. Cuanto más conoce el humano, más necesita conocer. Cuánta más información hay sobre algo, más información necesitamos sobre otra cosa. El conocimiento, además, dificulta algunas relaciones humanas. Cuanto más sabemos sobre una materia, nos es más difícil empatizar con una persona que no sabe tanto sobre ella. Cuanto más se profundiza en un tema, más difícil es comunicarlo.

722
182
10 preguntas que la ciencia aún no ha podido contestar
10 preguntas que la ciencia aún no ha podido contestar
InfoporAnónimo11/12/2014

El sitio estadounidense listverse.com realizó una lista de las 10 preguntas simples que los científicos, pensadores y filósofos no han podido encontrar respuestas aún. En algunos momentos de la vida no hay respuesta para todo. Y parece que la ciencia tampoco las tiene. Filósofos, científicos y pensadores han colaborado para develar algunos enigmas, pero hay otras preguntas sencillas - eso parece - que aún continúan sin porder ser respondidas. El sitio estadounidense listverse.com realizó una lista de las 10 preguntas simples para las que no tenemos respuestas. 1 - ¿Por qué las jirafas tienen el cuello largo? Los especialistas no llegaron todavía a un acuerdo sobre las condiciones exactas que han generado que sus cuellos sean largos. Una teoría sostiene que las jirafas desarrollaron esos cuellos como un rasgo de apareamiento, pero no hay evidencias que apoyen esa hipótesis. La longitud de sus cuellos no ofrecen ninguna ventaja especial a las jirafas, ya que se preocupan más por el tipo de hoja que por la altura a la que está situada. 2 - ¿Por qué las mujeres tienen menopausia? La mayoría de las mujeres pierden la capacidad reproductiva entre los 45 y los 50 años, y la ciencia no sabe por qué. La capacidad de reproducirse en la fauna asegura que las especies son capaces de transmitir sus genes superiores, pero en los seres humanos sucede algo extraño. 3 - ¿Por qué migran los pájaros? Las aves recorren largas distancias cada año para poner sus huevos o viajan ante la falta de alimentos, de hábitat o cambios climáticos. Pero el mayor interrogantes es cómo consiguen hacerlo. Para la ciencia, la migración de las aves sigue siendo uno de los comportamientos más misteriosos del mundo animal. Los científicos creen que son capaces de utilizar una variedad de compases basados en las estrellas y el campo magnético de la Tierra, pero por ahora no hay evidencias que sostenga esta la teoría. 4- ¿Qué causa el espasmo mioclónico? Cuando estamos a punto de dormirnos sentimos una especie de sensación de caída que nos hace despertar de repente y a veces hasta provoca un pequeño sobresalto en alguna de las extremidades. La ciencia ha llegado a algunas interesantes hipótesis sobre las causas de esta sensación. Una de ellas sugiere que esto ocurre debido a la relentización de los procesos del cuerpo cuando nos dormimos. Y la otra - algo alocada - sostiene que los cuerpos desarrollaron este mecanismo cuando nuestros ancestros dormían en las ramas, y que la sensación ayudaba prevenir la caída. Pero no existe ninguna evidencia que la sostenga, porque, entre otras cosas, los seres humanos no dormían en los árboles. 5 - ¿Qué provoca la gravitación? Como todos sabemos, hace más de 350 años, Newton fue pionero en el estudio de la gravitación, y podríamos pensar que el asunto está resuelto. Pero cuanto más avanzamos en nuestro conocimiento del mundo, la gravedad se vuelve más enigmática para los investigadores. El gravitón que sería la partícula transmisora de la interacción gravitatoria aún no se ha encontrado. La gravitación mantiene unidas a las galaxias pero, al mismo tiempo, es aproximadamente 1040 veces más débil que la fuerza electromagnética, otro misterio no revelado por los científicos. 6- ¿Por qué los gatos ronronean? El que tiene uno, se lo habrá preguntado. Pero la respuesta es difícil de responder. Al parecer no existe ningún órgano ronroneo en la garganta de un gato. Una teoría que intenta explicar el enigma sostiene que tiene que ver con la construcción de la laringe, pero no hay ninguna evidencia que pruebe eso. 7- ¿Cómo actúan las turbulencias? A pesar de que la turbulencia es un fenómeno fundamental para la seguridad área, todavía no se sabe cómo funciona. El enigma se agrava por el hecho de que las reacciones químicas ocurren en condiciones de alta presión, lo que dificulta estudiar las razones de turbulencia. 8 - ¿Cómo funciona exactamente el magnetismo? Los físicos se han encargado de explicarnos cómo funciona el magnetismo, pero todavía no hay podido responder al interrogante de por qué las partículas emiten un campo magnético para mover físicamente las cosas desde lejos. 9- ¿Cómo guardamos y recuperamos los recuerdos? La ciencia recorrió un largo camino para saber cómo funcionan nuestros cuerpos, pero los recuerdos continúan siendo uno de enigmas más desconcertantes de la anatomía humana. Todavía no está claro qué partes del cerebro están involucradas en el almacenamiento de los recuerdos. Desde la década del 20, los científicos han buscado la forma en la que nuestro cerebro traza un recuerdo especial de nuestro banco de memoria, pero todavía no está claro cómo lo hacemos. Lo que sí sabemos con certeza es que tiene algo que ver con las neuronas y las conexiones entre ellas. 10 - ¿Qué son los sueños? Más allá que los científicos aseguran que los sueños son probablemente símbolos de las profundidades de nuestra psiquis, nadie puede demostrarlo de manera concluyente. No hay respuestas definitivas sobre qué son exactamente los sueños. Algunos creen que son solo imágenes aleatorias, mientras que otros creen que contienen un significado más profundo.

46
10
La generación Trifásica
La generación Trifásica
InfoporAnónimo9/27/2014

La generación trifásica de energía es la forma más común de los conductores y la que provee un uso más eficiente de la electricidad. La utilización de electricidad en forma trifásica se aprovecha mayoritariamente en industrias donde muchas de las máquinas funcionan con motores adaptados para esta tensión. Las corrientes trifásicas se generan mediante alternadores que presentan tres bobinas o grupos de bobinas, que están enrollados sobre tres sistemas de piezas polares equidistantes entre sí. En este sentido, debemos saber que el retorno de cada uno de estos circuitos o fases se acopla en un punto, denominado neutro –si el sistema está equilibrado, es cero–, por lo que el transporte puede ser efectuado usando solamente tres cables. Las ventajas de utilizar un sistema alterno trifásico son las siguientes: • Ahorro en los costos de materiales en líneas de transmisión y distribución eléctrica. •Generación de campos giratorios. • Potencia instantánea constante. Es decir, un sistema trifásico es el conjunto de tres fases monofásicas que se encuentran desfasadas en 120°. En el esquema simplificado del generador trifásico, vemos los valores instantáneos de cada fase: estos valores pueden ser positivos o negativos, cuando el valor se hace cero se anula la fase. En los motores trifásicos, no disminuye la velocidad de giro, sino que se mantiene constante la velocidad de rotación. En una máquina de corriente alterna, la fuerza electromotriz se caracteriza por los siguientes parámetros: • Magnitud • Frecuencia • Forma de curva  Generador elemental Este tipo de sistema está conformado por una pieza móvil llamada rotor, que se ubica dentro de la parte fija de la maquina llamada estator. El giro del rotor se puede realizar de distintas maneras: con un motor diesel, turbina de vapor, eólica, etcétera, que mantiene la velocidad constante. El rotor es un electroimán alimentado por corriente continua. Este consiste en un acoplamiento de chapas de acero que forma un cilindro solidario con el eje del rotor. La parte fija o estator está constituida por un paquete de chapas magnéticas que forman un cilindro con ranuras longitudinales donde estarán implantadas las bobinas de la máquina. Los lados de la bobina se ubicarán en las ranuras que serán iguales en su construcción y cuya distribución geométrica será tal que sus ejes magnéticos formen 120°. Una de las características de las máquinas generadoras sincrónicas es que la velocidad depende de la frecuencia de la red de alimentación eléctrica del sistema. La máquina giratoria sincrónica puede trabajar como motor, generador o compensador. El principio de operación de un generador síncrono o alternador se basa en la ley de Faraday, de inducción electromagnética. La generación de la fuerza electromotriz (fem) se obtiene por medio del movimiento relativo entre conductores y un flujo magnético. Al colocar una espira dentro de un campo magnético al que se lo hacer girar, sus lados cortarán las líneas de fuerzas del campo, induciéndose entonces una fem que se puede verificar entre los extremos del conductor en forma de espira, y se comprueba que la fem es alterna. Las dos partes básicas de una maquina síncrona son: la estructura del campo magnético, que lleva un devanado excitado por corriente continua, y la armadura. La armadura tiene con frecuencia un devanado trifásico en el que se genera la fem de corriente alterna. Casi todas las máquinas síncronas modernas tienen armaduras estacionarias y estructuras de campo giratorias. El devanado de corriente continua sobre la estructura giratoria del campo se conecta a una fuente externa por medio de anillos deslizantes y escobillas.

10
0
ARM vs X86 – Te explico las diferencias clave!
ARM vs X86 – Te explico las diferencias clave!
InfoporAnónimo11/25/2014

Android es compatible con 3 diferentes arquitecturas de procesador: ARM, Intel y MIPS. El más popular y omnipresente de estos tres es, sin lugar a dudas, ARM. Intel es conocida principalmente por su popularidad en los mercados de escritorio y servidor, sin embargo en el móvil ha tenido un impacto menor. MIPS tiene una larga herencia, y un montón de éxito, tanto para soluciones de 32 y 64 bits en una variedad de espacios incrustados, sin embargo, es actualmente el menos popular de los tres diseños de CPU para Android. En resumen, ARM es el ganador actual e Intel es su gran rival de la marca. Entonces, ¿cuál es la diferencia entre un procesador ARM y un procesador Intel ? ¿Por qué es ARM la elección más popular? E importa que CPU se encuentra en su teléfono inteligente o tablet? La CPU La Unidad Central de Procesamiento (CPU) es el "cerebro" de su dispositivo. Su trabajo consiste en ejecutar una secuencia de instrucciones para controlar el hardware del dispositivo (la pantalla, la pantalla táctil, el módem celular, etc.) para convertirlo de un trozo de plástico y metal en un smartphone o tablet vibrante. Los dispositivos móviles son cosas complejas y estas CPUs tienen que ejecutar millones de instrucciones para que se comporten como esperamos. La velocidad, la potencia y la eficacia de estas CPUs es crítica. La velocidad afecta a la experiencia del usuario, mientras que la eficiencia afecta a la vida de la batería. El dispositivo móvil perfecto es uno que tiene un alto rendimiento y bajo consumo de energía. Esta es la razón por la cual, la elección de la CPU es importante. Hambre de poder, un CPU agotará la batería rápida, sin embargo, un CPU elegante y eficiente le dará tanto rendimiento y duración de la batería. Al más alto nivel, la primera diferencia entre una CPU ARM y una CPU de Intel es que el primero es RISC (Conjunto reducido de instrucciones de Computing) y el segundo es CISC (Conjunto de instrucciones complejas). En simplificado (y enfatizo, "simplificado" los términos del laico, conjuntos de instrucciones RISC son más pequeñas, más atómicas, mientras que los conjuntos de instrucciones CISC son más grandes, más complejas. Por atómica, me refiero a que cada instrucción se podría traducir como una sola operación que la CPU puede realizar, por ejemplo, añadir el contenido de dos registros juntos. Instrucciones CISC expresan una sola idea, pero la CPU necesitarán para ejecutar 3 o 4 instrucciones más simplificados para llevar a cabo la misma. Por ejemplo, una CPU CISC se le puede decir a sumar dos números almacenados en la memoria principal. Para ello, la CPU tiene que buscar el número de la dirección-1 (una operación), ir a buscar el número de la dirección-2 (segunda operación), añadir los dos números (tercera operación) y así sucesivamente. Todas las CPUs modernas usan un concepto conocido como microcódigo, una instrucción interna de la CPU que describe operaciones atómicas que la CPU puede realizar. Son estas (micro) operaciones más pequeñas que la CPU ejecuta realmente. En los procesadores RISC, el conjunto de instrucciones de operaciones y las operaciones de microcódigo están muy cerca. En CISC, las instrucciones complejas deben traducirse en operaciones de microcódigo más pequeños (como se describió anteriormente con la CISC). Esto significa que el decodificador de instrucciones (el bit que funciona, lo que la CPU tiene que hacer en realidad) es mucho más simple en un procesador RISC, y más simple por lo tanto usa menos energía y posee una mayor eficiencia. Fabs La próxima gran diferencia entre un procesador ARM y un procesador de Intel es que ARM sólo ha diseñado procesadores eficientes de energía. Su razón de ser, es el diseño de procesadores de uso de baja potencia. Esa es su especialidad. Sin embargo la experiencia de Intel es diseñar procesadores de altas prestaciones de escritorio y de servidor. Y ha hecho un buen trabajo. Intel es el líder de la industria en equipos de sobremesa y servidores. Cada PC, ordenador portátil y servidor que he tenido (con la excepción de uno) en los últimos 20 años tuvieron un procesador Intel . Sin embargo, para entrar en el móvil, Intel está utilizando la misma arquitectura del conjunto de instrucciones CISC (ISA) que se utiliza en el escritorio, pero está tratando de meterlos con calzador en los procesadores más pequeños, adecuados para los dispositivos móviles. "Cuando se trata de 64 bits, también hay algunas diferencias significativas entre ARM e Intel " El procesador Intel i7 promedio produce alrededor de 45W de calor. El ARM promedio Soc (incluyendo la GPU) produce diez veces menos, 4.5W. Ahora Intel es una empresa grande y tienen un montón de gente inteligente que trabajan allí. Sus últimos procesadores Atom tienen diseños térmicos similares a los procesadores basados en ARM, sin embargo, para hacer eso se ha tenido que utilizar el último proceso de fabricación de 22 metros. En general cuanto menor sea el número de nanómetros de fabricación, mejor será la eficiencia energética. Procesadores ARM tienen propiedades térmicas similares a mayores procesos de fabricación. Por ejemplo, el Qualcomm Snapdragon 805 utiliza un proceso de 28nm. 64-bits Cuando se trata de 64 bits, también hay algunas diferencias significativas entre ARM e Intel . ¿Sabía usted que Intel ni siquiera inventó la versión de 64 bits de su conjunto de instrucciones x86. Conocido como x86-64 (o a veces sólo x64), el conjunto de instrucciones fue diseñado en realidad por AMD. La historia es la siguiente, Intel quería pasar a 64 bits, pero sabía que para tomar su actual arquitectura x86 de 32 bits y crear una versión de 64 bits sería ineficiente. Así comenzó un nuevo proyecto de procesador de 64 bits llamado IA64. Esto a la larga produce la gama de procesadores Itanium. Mientras tanto AMD sabía que no sería capaz de producir procesadores compatibles IA64, por lo que se adelantó y extendió el diseño x86 incluyendo un direccionamiento de 64 bits y registros de 64 bits. La arquitectura resultante, conocida como AMD64, se convirtió en el estándar de 64-bit de facto para los procesadores x86. El proyecto IA64 nunca fue un gran éxito y hoy en día está prácticamente muerto. Intel finalmente adoptó AMD64. Ofertas móviles actuales de Intel son procesadores de 64 bits utilizando el conjunto de instrucciones de 64 bits diseñado por AMD (con algunas diferencias de menor importancia). En cuanto a ARM, la historia es una muy diferente. Viendo la necesidad de informática de 64 bits en el móvil, ARM anunció su ARMv8 con arquitectura de 64 bits en 2011. Fue la culminación de varios años de trabajo en la próxima generación ARM ISA. Para crear una aplicación de 64 bits limpio, pero basado en los principios y conjunto de instrucciónes existentes , la arquitectura ARMv8 utiliza dos estados de ejecución, AArch32 y AArch64. Como su nombre indica, se trata de la ejecución de código de 32 bits y otra para 64 bits. La belleza del diseño ARM es que el procesador puede cambiar sin problemas de un modo a otro durante su ejecución normal. Los medios que el decodificador usa para las instrucciones de 64 bits es un nuevo diseño que no necesita para mantener la compatibilidad con la era de 32 bits, sin embargo, el procesador en su conjunto sigue siendo compatible con versiones anteriores. Cómputo heterogéneo Arquitectura Big.little de ARM es una innovación que Intel está muy lejos de replicar. En Big.little los núcleos en la CPU no necesitan ser del mismo tipo. Tradicionalmente, un procesador de doble núcleo o de cuatro núcleos tenía 2 o 4 núcleos del mismo tipo. Así que un procesador de doble núcleo Atom tiene dos núcleos x86-64 idénticos, ambos ofrecen el mismo rendimiento y utilizan la misma cantidad de energía. Pero con Big.little ARM ha introducido el cómputo heterogéneo para dispositivos móviles. Esto significa que los núcleos pueden ser diferentes en términos de rendimiento y potencia. Cuando el dispositivo móvil no está ocupado, un núcleo de baja energía se puede utilizar, pero cuando empiezas un juego complejo, se utilizan los núcleos de alto rendimiento. Pero aquí está la magia. Cuando se habla de diseños de CPU hay un montón de diseños técnicos que alteran el rendimiento y el consumo de energía del procesador. Cuando una instrucción se decodifica y se prepara para la ejecución del procesador ( Intel y ARM) utiliza un Pipeline. Eso significa que cada aspecto del proceso de decodificación es paralelizado. Así que la parte para ir a buscar la siguiente instrucción de la memoria es la etapa 1, entonces el tipo de instrucción necesita ser examinado y decoded- etapa 2, a continuación, la instrucción se ejecuta realmente - etapa 3, y así sucesivamente. La belleza del Pipeline es que mientras que la primera instrucción está en la etapa 2, la siguiente instrucción ya está en la etapa 1. Cuando la primera instrucción está en la etapa de ejecución (etapa 3), la segunda instrucción está ahora en la etapa 2 y la tercera instrucción está en la etapa 1, y así sucesivamente. "Este principio de la utilización de una lógica más compleja en el procesador para un mejor rendimiento, y una lógica menos compleja para alta eficiencia, no sólo se aplica al Pipeline de instrucción" Para hacer las cosas aún más rápido estos Pipelines se pueden construir de modo que las instrucciones pueden ser ejecutadas en un orden diferente que en el programa. Hay una cierta lógica inteligente para averiguar si la siguiente instrucción se basa en el resultado de la instrucción por delante de él. Tanto Intel y ARM tienen lógica fuera de la ejecución de órdenes. Pero como se puede imaginar que es una tecnología muy compleja. Complejo significa hambre de poder. En los procesadores de Intel los diseñadores optan por aplicar fuera de la ejecución de órdenes o no. Pero con el cómputo heterogéneo no es un problema. El ARM Cortex-A53 utiliza la ejecución en orden, lo que significa que utiliza menos energía. Pero el Cortex-A57 utiliza fuera de la ejecución de órdenes, lo que significa que es más rápido, pero consume más energía. En un procesador Big.little no puede haber núcleos Cortex-A53 y Cortex-A57, y los núcleos se utiliza de acuerdo con las exigencias que se plantean. Usted no necesita una súper rápida ejecución fuera de orden a fondo para sincronizar su correo electrónico, pero si al jugar juegos complejos. Entonces el núcleo derecho se utiliza en el momento adecuado. Este principio de la utilización de una lógica más compleja en el procesador para un mejor rendimiento y menos lógica compleja para alta eficiencia, no sólo se aplica al Pipeline de la instrucción. Se aplica igualmente a la unidad de coma flotante, a la lógica SIMD (es decir NEON en ARM y SSE / MMX de Intel ), y la forma en la caché L1 y L2 de trabajo. Intel ofrece una solución por Atom SoC, ARM, a través de sus socios de silicio, ofrece múltiples configuraciones de muchos de los cuales se pueden implementar simultáneamente en el mismo encapsulado. Compatibilidad ARM es el líder actual en términos de procesadores móviles. Socios de ARM han enviado 50 mil millones de chips basados en sus diseños, todos los mercados móviles y embebidos. Para Android, ARM es el estándar de facto y esto lleva a un problema para Intel y MIPS. Aunque Android utiliza Java como lenguaje de programación principio, también permite a los programadores tomar su código existente (en C o C ++, por ejemplo) y crear aplicaciones. Estas aplicaciones "nativas" en general son compilados para procesadores ARM y no siempre para Intel o MIPS. Para evitar esto Intel y MIPS necesidad de utilizar software de traducción especial que convierte las instrucciones ARM a código para sus procesadores. Este sistema obviamente crea impactos en el rendimiento. Por el momento MIPS e Intel pueden reclamar una compatibilidad del 90% de todas las aplicaciones disponibles en el Play Store. Esa cifra es probablemente más cercano a 100% cuando se trata de las 150 mejores aplicaciones. Por una mano que es una buena cobertura, pero por otro lado, muestra el dominio de ARM en que los otros diseñadores de procesadores tienen la necesidad de ofrecer una capa de mejor compatibilidad. La construcción de un CPU es un negocio complejo. ARM, Intel y MIPS están trabajando duro para traer la mejor tecnología disponible para los dispositivos móviles, sin embargo ARM es claramente el líder. Con su enfoque en procesadores eficientes de energía, su aplicación de 64 bits limpio, su cómputo heterogéneo, y su papel como el estándar de facto para la informática móvil, entonces parece que ARM se establece a permanecer en la parte superior.

172
30
PosteameloArchivo Histórico de Taringa! (2004-2017). Preservando la inteligencia colectiva de la internet hispanohablante.

CONTACTO

18 de Septiembre 455, Casilla 52

Chillán, Región de Ñuble, Chile

Solo correo postal

© 2026 Posteamelo.com. No afiliado con Taringa! ni sus sucesores.

Contenido preservado con fines históricos y culturales.