C

Chloetiloide

Usuario (Argentina)

Primer post: 15 sept 2014Último post: 2 sept 2015
21
Posts
1193
Puntos totales
191
Comentarios
T
Todo sobre la Gamescom 2015
InfoporAnónimo8/3/2015

Todo lo que necesitas saber sobre la Gamescom 2015 La Gamescom 2015 comienza mañana. Os contamos, incluyendo horarios y juegos destacados, qué podéis esperar de la feria europea más importante del sector Pasada la resaca de uno de los mejores E3 de la historia esta semana toca centrarnos en la feria europea más importante del sector, la Gamescom de Colonia. Para poneros en antecedentes sobre qué esperar y qué se podrá ver en Alemania llega este texto. Como es costumbre, el evento europeo suele ser mucho más light en cuanto a anuncios y muchas compañías eligen la Gamescom como el lugar donde enseñar más de sus proyectos anunciados previamente. Pero empecemos por las conferencias –aunque pocas, las habrá-, ¿qué compañías harán acto de presencia? Microsoft (4 de agosto) link: https://www.youtube.com/watch?v=R84EwYp0plM España: 16:00México: 9:00Argentina: 11:00Chile: 11:30Colombia / Ecuador / Perú: 9:00Venezuela: 9:00 Posiblemente, el principal atractivo de esta Gamescom debido a la cantidad y calidad de juegos a mostrar. En su notable E3 se echó de menos la presencia de proyectos como Quantum Break, Crackdown o Scalebound. Así, todos ellos tendrán presencia en la feria germana y, en principio, deberíamos esperar una ración de gameplay de cada uno de ellos. ¿Habrá fecha de lanzamiento definitiva de Quantum Break? ¿Cómo habrá enfocado Dave Jones el nuevo Crackdown? ¿Qué se tiene entre manos Platinum Games con el misterioso Scalebound? Los de Redmond tienen muchas dudas que despejar. Además, es de suponer que habrá tiempo para echarle un ojo a su potente catálogo de exclusivos para la recta final de año con lo que, a buen seguro, Forza Motorsport 6, Halo 5: Legends y Rise of the Tomb Raider harán acto de presencia. Electronic Arts (5 de agosto) España: 10:00México: 3:00Argentina: 5:00Chile: 5:00Colombia / Ecuador / Perú: 3:00Venezuela: 3:30 Al contrario que Microsoft, la presencia de EA en el E3 2015 fue sumamente mejorable. Su catálogo de futuro es envidiable pero la presentación del mismo estuvo tan falta de cuidado como carente de ritmo. Es su deber, pues, solventar lo ocurrido en la feria angelina. Y para ello va sobrado de efectivos. Con sus respectivos lanzamientos a la vuelta de la esquina, lo normal será ver FIFA 16, Need for Speed y Star Wars Battlefront en movimiento. Lo mismo, aunque lleguen a principios de 2016, debería ocurrir con Mirror’s Edge: Catalyst o PvZ: Garden Warfare 2. Ya está confirmada, por desgracia, la ausencia de Mass Effect Andromeda. Blizzard (5 de agosto) link: https://www.youtube.com/watch?v=aBFnqYHbeus España: 10:00México: 5:00Argentina: 7:00Chile: 7:00Colombia / Ecuador / Perú: 5:00Venezuela: 5:30 Como ha solido ser habitual, pese a esa Blizzcon de noviembre, Blizzard también contará con su presencia en la Gamescom. Lo más cacareado, ya anunciado oficialmente, es la presentación de una nueva expansión para World of Warcraft, acortando mucho los plazos seguidos hasta ahora al respecto. Pero si algo tiene la compañía californiana es un enorme catálogo de históricas IP. Así, al nuevo contenido para el MMO más jugado de la historia se le unirán, previsiblemente, nuevos anuncios relacionados con Starcraft II: Legacy of the Void y Overwatch, su primera nueva propiedad intelectual en 17 años. Otros juegos Son solo tres las conferencias con las que contará la Gamescom pero, como es obvio, serán muchas más las compañías que harán acto de presencia en la feria, ya sea mostrando nuevos tráilers o llevando demos jugables al recinto. ¿Cuáles son aquellos a los que merece la pena seguirle la pista? Uno de los anuncios ya anunciados –sí, cosas de esta industria- es el de un Mafia III que lleva mucho tiempo rondando y que tras ciertos problemas en su desarrollo parece estar llegando a buen puerto. La inexplicable sequía de juegos que nos pongan en la piel de gángsters y mafiosos hacen que esta entrega cuente con un atractivo especial. La propia 2K, además, tendrá más que enseñar de dos de sus grandes bazas para los próximos meses: Battleborn y XCOM 2. Otro de los clásicos protagonistas de la Gamescon ha sido el apartado multijugador de Call of Duty. En esta ocasión ya hemos visto en qué están trabajando Treyarch y Activision pero se espera un vistazo en profundidad a dicho modo de su Black Ops III, con una fase beta a la vuelta de la esquina. Volviendo a las grandes compañías, Sony ha decidido no apostar por la Gamescom en este 2015 y parece que guardará noticias de interés para la Paris Games Week de octubre. Así pues, no esperéis novedades relacionadas con PSVita o Playstation 4. Ubisoft, por su parte, contará con el mismo catálogo anunciado en el E3 2015 y, en principio, serán muchas las demos jugables en el recinto. Curiosamente, será desde Japón desde donde vendrán muchas novedades interesantes. El inminente Metal Gear Solid V: The Phantom Pain tendrá nueva demo jugable mientras que From Software enseñará algo más del esperado Dark Souls III. Mientras tanto, como ya confirmara meses atrás, Square Enix tendrá algo que mostrar de Final Fantasy XV así como, volviendo a occidente, Deus EX: Mankind Divided y el nuevo Hitman. link: https://www.youtube.com/watch?v=mLyLJ9AAeRA Nintendo, por su parte, seguirá yendo a su ritmo y no contará con un nuevo Direct ni presencia destacada en la feria más allá de, obviamente, demos jugables de algunos de sus títulos más interesantes: Super Mario Maker, Mario Tennis: Ultra Smash, Tri Force Heroes o Chibi Robo. Por último, serán varios los juegos de menor calado que tendrán presencia, de una forma u otra, en la feria. La primera expansión de Cities: Skylines, ELEX, The Technomancer o Kingdom Come: Deliverance serán algunos de los más interesantes. Por último, recordad que, como ya ocurriera en el pasado E3, en Hipertextual encontraréis todas las noticias, vídeos e imágenes salidos de la feria germana.

0
11
4
4 televisores para disfrutar el cine al máximo
InfoporAnónimo1/19/2015

Todos vemos películas a menudo, pero disfrutar el cine de verdad es otra cosa. Aquí tienes 4 televisores con una gran calidad de imagen. Tras conocer los nominados a los Oscar, no hay nada mejor que repasar los mejores modelos de televisor de 2014, ya comentaré los nuevos cuando pueda probarlos, para poder disfrutar el cine al máximo. Lo primero que quiero aclarar es que no importa si tu tele es 4K o Full HD, la resolución nunca indica la calidad de un televisor. Sólo indicará, dependiendo del tamaño también, cuánto de cerca podrás sentarte sin distinguir los pixeles. El artículo está destinado a los televisores con la mejor calidad de imagen y con los que creo se puede lograr el mayor disfrute viendo películas. Si quieres un televisor para jugar puede haber mejores alternativas, tengo en cuenta calidad de imagen para elegir, no el input lag, sus capacidades Smart TV, etc. El cine se disfruta con las luces apagadas, por lo que los niveles de negro y contraste son críticos para disfrutar. Al igual que la fidelidad de color y un gamma de 2.4, ya que el cine es una obra de arte y debes disfrutarla tal y cómo el director la diseño, o al menos, con la mayor fidelidad posible. También han de ser compatibles con una entrada de vídeo de 24 escenas por segundo (todavía hay teles que no admiten ese refresco, debido a que es diferente del de las emisiones de TV). Los modelos de televisor pueden tener varias resoluciones o tamaños. Te recomiendo que si vas a ver muchas películas en Bluray o Netflix y derivados a buen bitrate y resolución compres una tele todo lo grande que puedas mientras la distancia a la que te sientes a disfrutarla sea la adecuada. Te recomiendo usar este gráfico: Cualquier televisor tiene ya una resolución 1080p como mínimo. Depende de la distancia, elige el tamaño del televisor. Y tranquilo, aunque veas material en 720p, si es de calidad también se verá muy bien. No te obsesiones por la resolución del televisor, hazlo por sus negros, contraste y que tu fuente de vídeo sea de calidad. Tampoco uses Yify y derivados que desmerezcan las capacidades de tu televisor y ojos. Los televisores 4K son el futuro, por supuesto. Pero la falta de contenido y el precio extra a pagar son grandes contras a la hora de invertir en ellas, pero no olvides que los televisores de mayor calidad de imagen de este año y los próximos serán 4K. Elige la televisión por su calidad de imagen y si es de resolución 4K, mejor. Si tienes un presupuesto ajustado lo inteligente es apostar por una resolución 1080p todavía. Vayamos con los elegidos: Panasonic AS640 Es un televisor de 42", 48" y 55" con un precio muy reducido para la gran calidad de imagen que tiene. Al contrario que los paneles LED de esta gama de precios, el televisor tiene un nivel de negros muy bueno, no te dará pánico apagar las luces y envolverte en la película. Los colores son todo lo fieles que puedes necesitar. El apartado SmartTV es bueno y maneja las fuentes sin perder framerate. La clave de este televisor es que es un panel VA LCD, no IPS, lo que proporciona mejores negros. Tiene ángulos de visión peores que un panel IPS, pero... ¿vas a ver una película desde la esquina del salón? Los paneles VA me encantan, es una pena su escasa popularidad. Si vas a usar el televisor para ver películas y tu presupuesto no es muy alto, es una de las mejores opciones del mercado. Puedes encontrarla a unos 600€ LG 55EA970V LG ha sido uno de los fabricantes que más me ha sorprendido en este CES 2015 presentado 7 nuevos televisores OLED. La tecnología OLED proporciona negros puros, ya que cada pixel emite luz propia y se pueden apagar (como las pantallas AMOLED que ya conoceréis). Bajo mi punto de vista es el futuro, pero su precio es prohibitivo, así que los fabricantes siguen intentando mejorar los paneles LCD (quantum dots). Este televisor es 1080p, más que suficiente y bajará mucho de precio al salir los 4K presentados en el CES. Si puedes permitírtelo, no disfrutarás calidad de imagen mayor. Los negros son espectaculares y el contraste de los más altos del mundo. Es una tecnología nueva en la televisión, poco conocida y muy cara; pero es imposible que te defraude. Si eres de los que cuida cada detalle OLED es lo que quieres. Bien por LG, ¡queremos televisores OLED! He incluido este modelo en concreto por ser de los mejores en calidad/precio, pero casi cualquier OLED te dará ese contraste y colores que siempre quisiste. Sobre los 3.500€ Samsung HU8500 Para muchos, el mejor televisor de 2014 (en el cómputo global). Tiene un nivel de fidelidad increíble, la imagen es espectacular y los negros son de lo mejor que existe en paneles LED gracias al auto-dimming. El problema es que es un televisor con un precio muy elevado al ser de los primeros televisores en incorporar la pantalla curvada y la resolución 4K. Además, teniendo en cuenta que Samsung acaba de lanzar sus nuevos televisores SUHD puede que no sea la mejor idea. Pero... es seguro que el precio de este excelente televisor comience a bajar rápidamente. Aunque la compres ahora mismo te llevarías a casa un televisor de calidad de imagen genial y un diseño espectacular. Y, aunque no haya contenido 4K, sigue siendo uno de los mejores televisores del mundo para ver contenido 1080p. Puedes encontrarla por 2.200€ la versión de 55" y 3.200€ la de 65" Sony KDL-55W829 Nos encantan las teles OLED y los últimos televisores 4K presentados en el CES 2015, pero, para un presupuesto más contenido hay alternativas muy válidas. Sony ha lanzado uno de los modelos LCD Full HD de mejor calidad/precio según los aficionados. La 55W829 tiene unos colores, contraste y procesado de la imagen muy buenos. El nivel de detalle de las sombras y escenas oscuras es bastante bueno para ser un LCD. La única pega es la calidad de imagen en 3D. ¿Alguien usa eso? Puedes encontrarla por unos 900€

10
0
S
Samsung duplica la capacidad de sus baterías usando grafeno
InfoporAnónimo6/26/2015

Samsung duplica la capacidad energética de sus baterías mediante el uso de grafeno Tras meses de estudios y desarrollo, estas nuevas baterías de Samsung prometen duplicar la capacidad energética mediante el uso de grafeno. Los dispositivos electrónicos han avanzado exponencialmente en muchos ámbitos durante estos últimos años, pero las baterías, desgraciadamente, no han sido uno de ellos. Desde las primeras de litio allá por los años noventa, apenas hemos visto grandes saltos en lo que a la tecnología base se refiere. El incremento de autonomía se ha basado, principalmente, en el aumento de capacidad (asociado, en mayor o menor medida, a un aumento de tamaño) y en la reducción del consumo energético de los componentes a los que alimentan. Pero eso, afortunadamente, está a punto de cambiar gracias a las nuevas baterías de Samsung. La compañía surcoreana ha anunciado mediante el medio científico Nature el desarrollo de una nueva tecnología que permite duplicar la capacidad energética de las baterías. La principal clave de esta invención, según afirman en Nature, es el empleo de grafeno, un material con el que Samsung ha realizado avances muy significativos durante los últimos años. El grafeno es uno de los materiales del futuro. También es clave en el desarrollo de estas baterías de Samsung. Samsung decidió emplear cátodo de silicio para este experimento, algo que muchas otras compañías del sector han intentado implementar. Pero surgió un problema: el silicio se expande y se contrae cuando la batería se somete a ciclos de carga y descarga. Para solventar dicho inconveniente, el equipo de I+D de Samsung ha desarrollado un proceso que se basa en el crecimiento de grafeno, un material muy alabado por su resistencia, su maleabilidad y su conductividad eléctrica. Estas baterías de Samsung no llegarán al mercado hasta 2017 Cuando el silicio se expanda o se contraiga, las capas de grafeno situadas en la superficie del silicio contrarrestarán dichos efectos. Esto permitirá almacenar mayores niveles energéticos y aumentar la resistencia de las baterías a los ciclos de carga –ya saben que las baterías, conforme pasan los ciclos de carga, se van desgastando y debilitando–. Aunque Samsung ya cuenta con diversas patentes y prototipos funcionales, la tecnología necesita más desarrollo antes de ser totalmente comercial. Es por esto por lo que los surcoreanos no esperan poder llevarla al mercado hasta 2017 o 2018.

0
8
A
Análisis de la Nvidia GeForce GTX 970
InfoporAnónimo1/4/2015

Nvidia pone patas arriba el mercado de las tarjetas gráficas con una imbatible relación calidad-precio. La GeForce GTX 970 es una rareza, un producto destinado a poner patas arriba todo un mercado. De hecho, parece incluso un misil dirigido al mercado de GPUs de gama alta, diseñado para causar el máximo daño a la competencia pero con el efecto colateral de afectar también a varias tarjetas de la propia Nvidia. Su precio ronda los 360€, lo cual no es barato, pero su ratio de rendimiento por euro es tan alto que habrá quien incluso piense que no vale la pena ir a por otra tarjeta de gama alta, y eso incluye la propia GTX 980 de Nvidia. Los titulares son estos: la R9 290 de AMD y la R9 290X - el tope de gama - quedan obsoletas: se calientan mucho, consumen demasiado y son productos poco eficientes a los que la nueva gráfica de Nvidia supera sin problemas. Pero Nvidia también se ve afectada: la GTX 780 es historia, mientras que la 780 Ti, hasta hace unos meses una opción interesante, también queda relegada a una posición irrelevante. Con overclocking la GTX 970 también supera el rendimiento de la GTX 980 estándar en muchas aplicaciones, algo muy a tener en cuenta sabiendo que la segunda es un 65% más cara. La onda expansiva no termina ahí, porque también hay ramificaciones en el mercado de GPUs duales. La bestial Radeon R9 295X2 de AMD, un monstruo refrigerado por agua con una potencia de 11.5 teraflops, era hasta ahora prácticamente la única opción para jugar a 4K con frame-rates decentes hasta la llegada de la arquitectura Maxwell. Tal y como están las cosas ahora, en cambio, dos 970 en SLI serán una alternativa más barata, más fresca, más silenciosa y mucho más eficiente a nivel energético. Es algo que ya probaremos más adelante, pero basándonos en los resultados que veréis ahora una configuración SLI 970 debería ser más que suficiente con la mayoría de juegos. Hemos probado la versión de MSI de la GTX 970, con la última tecnología de refrigeración TwinFrozr. Es muy silenciosa - incluso con el overclock al máximo - y de gran calidad. Curiosamente la alimentación va con una entrada de 8/6 pins, en vez de la configuración de 6/6 pins del diseño de referencia. Hemos probado la versión de MSI de la GTX 970, con la última tecnología de refrigeración TwinFrozr. Es muy silenciosa - incluso con el overclock al máximo - y de gran calidad. Curiosamente la alimentación va con una entrada de 8/6 pins, en vez de la configuración de 6/6 pins del diseño de referencia. Empezamos nuestras pruebas estándar de gameplay para GPUs de gama alta con Crysis 3 al máximo en la exigente fase Welcome to the Jungle, operando a 1080p. Según la encuesta de hardware de Steam, el 95% de los usuarios de PC juega a esta resolución, y apostaríamos a que la gran mayoría de estas pantallas funciona a 60Hz. Nuestro objetivo con la prueba de Crysis 3 es hacer todo lo posible para alcanzar una experiencia de juego 1080p60, la mejor opción para esta mayoría de pantallas. Como tenemos una gran cantidad de datos en nuestro disco duro de otras pruebas de GPUs, esta vez tenemos para vosotros dos comparativas. En la primera la GTX 970 se enfrenta a su competencia de AMD - la Radeon R9 290 y la versión más cara de la tecnología Hawaii, la R9 290X. Tras esto el reto se repite con las opciones de Nvidia, la GTX 780 Ti y el tope de gama, la GTX 980. El resultado es que la GTX 980 ofrece lo más cercano a 60FPS, mientras que la Radeon R9 290 es la que tiene más problemas para mantener este nivel de rendimiento. En la parte media están la GTX 780 Ti, la R9 290X y la GTX 970. La nueva tarjeta de Nvidia se sitía un poquito por encima de las otras dos: hay caídas de frame-rate, sin duda, pero en menor cantidad que con la 780 Ti y la 290X, algo destacable si tienes en cuenta que hasta hace unos días estas eran las dos mejores tarjetas con una GPU que podías comprar. link: https://www.youtube.com/watch?v=IkuB2IUttyo El reto de mover Crysis 3 a 1080p con el detalle al máximo deja a la GTX 970 por detrás de la 980, pero supera sin problemas a la Radeon R9 290 de AMD. Los resultados entre la nueva tarjeta y la GTX 780 Ti y la R9 290X se acercan más, pero parece que la nueva gráfica de Nvidia aguanta más los bajones de frame-rate que sus competidoras, mucho más caras. Con este ejemplo práctico de la potencia de la GTX 970 pasemos a la teoría, poniendo la nueva tarjeta a prueba con varios benchmarks tanto en su estado de fábrica como con overclock. Usando MSI Afterburner hemos aumentado la potencia al 110%. En este escenario podemos ampliar la velocidad de reloj 185MHz más, mientras que los 4GB de memoria GDDR5 funcionan estables a 8000MHz, un 14% de mejora en ancho de banda de memoria. También subimos la velocidad del ventilador al 70% para acomodarse a la generación de calor, pero la tarjeta seguía siendo muy, muy silenciosa, un logro conseguido gracias al diseño TwinFrozr de MSI. Los resultados conseguidos con la resolución de pruebas 1080p (la más importante) demuestran que este hardware es muy potente. La GTX 970 ofrece un rendimiento equivalente al de la 780 Ti en Crysis 3 y Battlefield 4, mientras que en BioShock Infinite y Metro: Last Light las diferencias no son tan apreciables. La GTX 980 parece ser un poco más débil con el Tomb Raider de Crystal Dynamics, y esto también es extrapolable a la 970. Es el único benchmark donde la R9 290X supera a las soluciones de Nvidia, mientras que la R9 290 ni siquiera entra en la carrera. Por supuesto, lo que realmente abre los ojos es la comparación entre la GTX 970 con overclock y la GTX 980 de fábrica. Básicamente hemos recuperado todo el rendimiento (incluso superándolo en algunos casos) en todos los juegos excepto Crysis 3. Sin embargo, en todos los casos la GTX 780 Ti se queda por detrás de la 970 con overclock. En nuestras pruebas la GPU ofrece entre un 10% y un 15% más de rendimiento gracias al overclock, dependiendo de la aplicación. link: https://www.youtube.com/watch?v=S5aPkZFnVYU 1080p es la resolución más popular para jugar. Aquí usamos varias pruebas exigentes con el detalle al máximo para ver de qué es capaz esta tarjeta. Todas ellas se han producido usando FCAT. Para aquellos que busquen una experiencia 'mejor que las consolas' en sus potentes PCs una buena opción es adquirir un monitor 2.5K que opere a resolución 2560x1440. La mayoría de jugadores de PC juegan en su escritorio, sentados bastante cerca de la pantalla. En estas condiciones, el 77% de incremento en la cantidad de pixels respecto a 1080p ofrece resultados espectaculares. Obviamente ese incremento requiere una tarjeta bastante potente, y quizás incluso una reducción en las opciones de calidad gráfica ingame. Al volver a hacer las pruebas anteriores con esta resolución hemos visto que la GTX 970 sigue manteniendo el tipo. La R9 290 y la GTX 780 se quedan por detrás en todas las pruebas (salvo por Tomb Raider), mientras que a su velocidad estándar la tarjeta planta cara a la R9 290X y la GTX 780 Ti. Una vez más hacer overclocking en la GTX 970 elimina en casi todos los casos esos déficits, permitiendo que compita contra su hermana mayor. Normalmente no somos partidarios del overclock, porque el rendimiento se consigue a costa de incrementar en gran medida el calor y el consumo, pero la arquitectura Maxwell se escala muy bien y los niveles de calor y consumo energético siguen siendo menores que los de todas las tarjetas de anterior generación. link: https://www.youtube.com/watch?v=_wEOK6Hf4h8 A 2560x1440 la GTX 970 sigue rindiendo muy bien, luchando cara a cara con las dos AMD basadas en Hawaii y aguantando el tipo frente a la GTX 980. Tanto AMD como Nvidia han hecho bastante ruido sobre el juego 4K en los últimos 18 meses. Hubo un tiempo en el que 1080p no se consideraba una auténtica resolución para jugar en PC, pero eso cambió rápidamente cuando se estableció el estándar Full HD y proliferó en los salones de casa. 4K es el siguiente paso, con pantallas ultra-HD que cada vez son más numerosas y baratas, y los fabricantes de GPUs quieren que sus productos estén preparados de cara al futuro. La buena noticia es que las tarjetas Maxwell - la GTX 970 y la GTX 980 - tienen salidas HDMI 2.0, con lo cual estas GPUs pueden ofrecer imagen 4K a 60FPS, duplicando las posibilidades del actual estándar HDMI 1.4. ¿Pero tienen potencia suficiente como para ofrecer una experiencia jugable adecuada? En esta última batería de benchmarks hemos siendo un poco realistas. Los niveles de calidad Ultra no están diseñados con 4K en mente, y renderizar cosas como un anti-aliasing brutal no son necesarias cuando el tamaño de los pixels en una pantalla 4K es tan pequeño. Siendo así, en estas pruebas bajamos de Ultra a la siguiente opción gráfica, y desactivamos el multi-sampling o super-sampling anti-aliasing por completo. Los resultados demuestran que sigue siendo necesaria una solución con 2 GPUs para acercarse al juego a 60FPS - y algunos considerarán que la combinación de frame-rates cercanos a los 30FPS junto con reducción de calidad es demasiado compromiso. La GTX 980 domina en gran parte estas pruebas, pero la exigencia que tienen las GPUs para producir un simple frame reduce las distancias considerablemente entre todas las tarjetas. La GTX 970 de fábrica no es ni de lejos la que mejor rinde, pero con el overclock se vuelve mucho más competitiva frente a sus rivales. link: https://www.youtube.com/watch?v=6y_GEvObFRQ Terminamos nuestras pruebas con un vistazo al consumo energético, un aspecto que Maxwell domina con puño de hierro. Lo que es interesante es que todos los recortes que hemos visto anteriormente en la GTX 970 no afectan ni mejoran la eficiencia energética. El pico de consumo de las dos nuevas tarjetas de Nvidia es idéntico tanto en su configuración de fábrica como al aplicar overclock. Es la única decepción que tenemos con la GTX 970 teniendo en cuenta todo lo que aporta en general, y eso por no mencionar que la eficiencia sigue siendo muy superior a la del chip Hawaii de la R9 290 y 290X, y también al procesador GK110 de la GTX 780, GTX Titan y 780 Ti, incluso aplicando un overclock agresivo. Para poner las cifras en contexto, debemos destacar que esta es la carga total del sistema según un medidor de voltaje. Nuestra configuración para este artículo era un Core i7 3770K a 4.3GHz (sin requerir voltaje adicional) junto a 16GB de RAM DDR3. También hemos echado un vistazo de cerca al sistema Dynamic Super Resolution (DSR). Es una tecnología específica de la arquitectura Maxwell que permite acceder a resoluciones mucho más altas en los juegos, con la GPU reescalando al vuelo a la resolución nativa de la pantalla. En una reciente conferencia de Nvidia la compañía aseguraba que no tendría penalización de rendimiento, aunque el algoritmo de escalado usa un filtro gaussiano para mejorar los resultados comparados con los del super-sampling básico. Hemos probado varios juegos a 4K nativo y luego a 1080p con reescalado 4K DSR. En todos los casos los frame-rates con DSR eran más bajos, aunque apenas un 1% o 2%. Estos resultados caen dentro de un margen de error, y claramente no son visibles por el ojo humano mientras se juega. DSR es una tecnología fascinante, pero en la mayoría de juegos modernos necesitarás un equipo brutalmente potente para poder usarlo. Nvidia GeForce GTX 970 - el veredicto de Digital Foundry Hoy en día se necesita algo verdaderamente especial para destacar en el mercado de las tarjetas gráficas. Normalmente AMD y Nvidia ponen el precio a sus productos en función de la potencia disponible, lo cual provoca un mercado en el que el coste va muy ligado al rendimiento y a una gama alta (a menudo inaccesible) en la que habitualmente hay menos valor en términos de rendimiento por euro. La GTX 970 es diferente. No llega a tener el precio perfecto para el entusiasta, pero ofrece tantísimo rendimiento que el coste extra está más que justificado. Hablamos de una tarjeta que cuesta unos 360€ y que tranquilamente supera a rivales que costaban casi el doble hace unos meses. Se trata, simplemente, de un terremoto en la relación precio-rendimiento, y un producto destacable para una compañía que normalmente adopta la estrategia de coste premium para sus tarjetas más potentes. Lo que está muy claro es que Nvidia ya no quiere hacer tarjetas gráficas basadas en el caro y grande chip GK110 - la Titan, la GTX 780 y la 780 Ti quedan caducas tras el lanzamiento de la GTX 970, más pequeña, más fresca, más eficiente y, lo más importante para Nvidia, más barata de fabricar. Este proceso de eliminación de gama tiene un efecto desafortunado para los productos premium de AMD, porque tanto la R9 290 como la 290X parecen ahora demasiado caras y necesitarán un descuento importante para seguir siendo competitivas. Los productos de gama baja de Nvidia también bajarán de precio y en estos momentos ya se pueden encontrar precios atractivos para la GTX 770 y la GTX 760 (la 780 y 780 Ti también bajan de precio, pero en nuestra opinión son caras comparadas con la GTX 970). Todavía no hay una tarjeta de bajo coste con Maxwell atractiva, excepto la GTX 750 Ti. Resumiendo... con la GTX 980 nos encantó la eficiencia energética, pero no supone un gran cambio en el mercado de gama alta, con ventajas marginales respecto a la GTX 780 Ti. Con la GTX 970, en cambio, estamos ante una situación totalmente diferente: es un cambio radical que pone patas arriba el mercado de las tarjetas gráficas, con un rendimiento altísimo y un precio que la acerca al mercado masivo, donde logra ofrecer una relación calidad-precio espectacular. Siendo así, recomendamos sin ningún tipo de reservas esta nueva tarjeta de Nvidia. Nvidia presentó esta nueva tarjeta gráfica en el evento Game 24 celebrado en Londres, al que asistió el redactor del artículo. Nvidia pagó los costes de transporte y alojamiento. Las pruebas con la tarjeta, sin embargo, se realizaron en las oficinas de Digital Foundry. Especificaciones de la Nvidia GeForce GTX 970 La GTX 970 se ha reducido respecto a la 980 en varios aspectos: el número de núcleos baja de 2048 a 1664, mientras que la velocidad máxima de reloj desciende de 1216MHz a 1178MHz. Las unidades de mapeado de texturas también se reducen de 128 a 104. El TDP baja a 145W, pero en la práctica no hemos apreciado diferencias reales entre ambas tarjetas. El overclocking te permite recuperar todo lo que pierde la GTX 970, con un rendimiento que realmente puede superar al de la GTX 980 estándar. Núcleos CUDA: 1664 Velocidad base de reloj: 1050MHz Velocidad máxima de reloj: 1178MHz Memoria: 4GB GDDR5 Velocidad de memoria: 7000MHz Ancho de banda de memoria: 224GB/s Unidades de mapeado de texturas: 104 ROPs: 64 Tamaño cache L2: 2048MB TDP: 145W Tamaño de la die: 398mm2 Proceso de fabricación: 28nm La MSI GTX 970 que hemos probado para este análisis tiene un pequeño overclock de fábrica, con frecuencias de 1140MHz/1279MHz. La tarjeta, sin embargo, es capaz de mucho más...

0
88
El PC tendrá conferencia dedicada en el E3 2015
El PC tendrá conferencia dedicada en el E3 2015
InfoporAnónimo4/30/2015

El PC tendrá conferencia dedicada en el E3 2015 A un E3 más cargado de lo normal se le une ahora el evento bautizado como 'PC Gaming Show' de la mano de AMD y PC Gamer. Con Bethesda y Square Enix teniendo sus propias conferencias en un E3 por primera vez en la historia, la lista de eventos sigue aumentando y, esta vez, la atención irá a parar al mundo del PC de la mano de AMD y PCGamer. El PC Gaming Show tendrá lugar el 16 de junio en el Belasco Theater de Los Ángeles y será retransmitido vía Twitch para todo el mundo. Era lógico que, antes o después, el mundo del PC tuviera mayor presencia en el E3. Dicho evento contará con la presencia de creadores como Dean Hall (DayZ) o Cliff Bleszinski, creador de Gears of War y CEO de Boss Key Productions, y de desarrolladoras como Blizzard Entertainment, Tripwire Interactive, Obsidian, Paradox, Devolver Digital o la gente detrás de la iniciativa de los Humble Bundle. Una buena plétora de creadores con un fuerte apego al mundo del PC y que, claro, estarán acompañados de alguna que otra sorpresa. Es lógico que la presencia del PC vaya en aumento durante los próximos años debido al cada vez mayor número de jugadores que dan el salto hacia los compatibles en medio de una generación un tanto decepcionante. Sin duda, una buena noticia para todo aquel aficionado al mundo del videojuego: cuanta más variedad y competencia, mejor para todos. "Vivimos una época dorada en los videojuegos para PC pero al contrario que otras plataformas, el PC no tiene una gran compañía detrás, un departamento de marketing y, hasta ahora, no tenía un evento dedicado en el E3" señala Tim Clark, uno de los principales editores de PC Gamer. Como decíamos, el E3 de 2015 viene especialmente cargado: la lista de conferencias empezará con Bethesda durante el domingo 14 de junio para, en orden cronológico, seguir con Microsoft, Electronic Arts, Ubisoft y Sony el día 15 y concluir con el Nintendo Direct, la conferencia de Square Enix y el PC Gaming Show del día 16, poco antes de que el E3 abra sus puertas al público. Estamos ante el E3 más cargado en la historia del evento, ¡toca disfrutar!

110
0
Los árboles gigantes de California que arrasó el ser humano
Los árboles gigantes de California que arrasó el ser humano
InfoporAnónimo5/30/2015

Los árboles gigantes de California que arrasó el ser humano Aunque sea algo triste reconocerlo, es nuestra propia especie la que ha arrasado con entornos naturales que estaban presentes en la Tierra incluso antes que nosotros. Un ejemplo de ello puede ser el último macho de rinoceronte blanco que queda en el mundo, o el que ilustra la imagen principal de hoy, la tala de árboles gigantes de California que se realizó a principios del siglo XX. Tomo comenzó cuando en 1850 se descubrió oro en la parte noroeste de California, lo que trasladó a un gran número de familias en busca de una nueva vida llena de riquezas. Sin embargo eso no fue suficiente. Por lo tanto, se optó por aprovechar los diferentes bosques de secuoya que predominaban por la zona. Hachas o sierras manuales eran algunos de los instrumentos utilizados por aquel entonces, una carencia tecnológica que dificultaba enormemente la tala de árboles que podían llegar a superar los 100 metros de altura y tener 7,9 metros de diámetro de base. Sin embargo, las mejoras tecnológicas ayudaron a que se pudiese acabar con más árboles en una menor cantidad de tiempo. Éstos eran destinados al desarrollo de ciudades como San Francisco u otras ciudades de la Costa Oeste de Estados Unidos. Como consecuencia de la tala indiscriminada, el Parque Nacional Redwood creado en 1968 para su conservación contiene únicamente 540 kilómetros cuadrados, un 10% del bosque de árboles gigantes original.

151
8
La guía definitiva de auriculares: in-ear
La guía definitiva de auriculares: in-ear
InfoporAnónimo1/19/2015

¿Cuáles son los mejores auriculares in-ear que puedes comprar actualmente? Considerando la inmensa cantidad de oferta que hay en el mercado, resulta sumamente complicado encontrar la mejor relación calidad/precio que se ajuste a determinado presupuesto. Esta es una guía definitiva para ayudarte a hacer la mejor compra. La realidad es que los auriculares son parte fundamental de nuestro estilo de vida y no es fácil elegirlos correctamente. La popularización de los smartphones ha sido determinante para que podamos cargar con gran cantidad de música en nuestros bolsillos. ¿El problema? Normalmente los fabricantes, para reducir costos, incluyen auriculares de calidad mediana o baja, degradando significativamente las posibilidades de escuchar buen audio. También eso ha hecho que adquieran mala fama: “Son incómodos”, “me hacen doler los oídos”, “no se escuchan bien”, “van a causarme sordera”, “se saturan fácilmente”. El problema es que miniaturizar componentes y mantener muy buena calidad de audio no es fácil y hasta hace relativamente poco, era muy caro. Esta es una guía de compra definitiva de auriculares in-ear. Ordenados por precio, de más caro a más barato: Noble Audio Kaiser 10 ¿Unos auriculares que cuestan más que un MacBook Pro? Sí. Esta es la joya de la corona, no hay más alto que esto, no hay nada mejor, no hay nada que se le compare. Con los Kaiser 10, Noble Audio alcanzó uno de los puntos más altos en calidad de audio y calidad de construcción. Se hacen de la manera más artesanal posible, uno a uno, donde el cliente elige parte de los materiales y el diseño exterior. Este es el equivalente en auriculares a un reloj suizo de alta precisión. Los Kaiser 10 están diseñados con ¡diez! diafragmas: dos para bajos, dos para frecuencias medias, dos para frecuencias medias/altas, dos para frecuencias altas y dos más para frecuencias ultra altas. No hay forma alguna de disfrutar de la calidad de sonido real de estos auriculares si simplemente los conectas al portátil, al smartphone o al reproductor de música. Necesitas un amplificador bueno para sacarle verdadero provecho. Unique Melody Miracle ¿Alguna vez has escuchado música con auriculares personalizados? Es una experiencia total y completamente diferente que cambia por completo la percepción que tienes de la música. Surge de la necesidad de intentar eliminar cualquier sonido externo adaptando el auricular a la forma del oído. En este sentido los Kaiser 10 son lo mejor del mercado, pero los Unique Melody Miracle están en un segundo puesto muy cercano. Una de las características que identifica a los Miracle es cómo se escucha el bajo. Después de experimentarlo, cuando una persona te dice “qué buen bajo tienen los Beats” te vas a reír hasta la eternidad. Los Unique Melody Miracle tienen seis diafragmas balanceados: dos para los altos, dos para los medios y dos para los bajos. AKG K3003i AKG nunca será barato. Suele ser la principal crítica de esta marca. Por los casi 1.000 dólares que cuestan los K3003i, es posible conseguir auriculares de molde personalizado que, en teoría, suenan mejor. En la práctica no es necesariamente cierto. Los K3003i usan un diafragma dinámico estándar para los bajos y diafragma de armazón dobles balanceados para medios y altos. La construcción del cuerpo es premium y la calidad de sonido es simplemente brutal. Eso sí, requieren un poco de personalización intercambiando los filtros incluidos (negros para aumentar los bajos, grises para enfatizar los medios, blancos para subir los altos) y las tapas que se adapten mejor a los canales de tu oído. Al igual que los Noble Audio o los Unique Melody Miracle, para sacarle verdadero provecho a los K3003i, necesitarás un amplificador decente. Shure SE 535 El niño mimado, el favorito de quienes apreciamos la calidad de sonido por su calidad y transportabilidad. Probablemente los mejores in-ear (no personalizados) que podrías comprar si consideramos la relación calidad/precio. Por menos de 500 dólares/euros tendrás auriculares que no tienen nada que pedirle a contrapartes de 300 o 400 dólares/euros más caros. Los auriculares tienen una construcción que hace que el cable vaya por encima de la oreja y te permite llevarlos con el cable por la espalda o por el frente, dependiendo la situación. Incluye muchas tapas con las cuales puedes probar y encontrar la que mejor se acomoda a tu oído. Sennheiser iE80 Los iE80 suelen ser los primeros auriculares que compras si quieres adentrarte al mundo del audio en alta calidad. El precio es relativamente bajo considerando sus prestaciones. Sennheiser nunca decepciona y en este caso, simplemente, brillan. Tienen el mismo sistema de posicionamiento de los cables (por encima de la oreja) como los Shure SE 535 o los RHA MA-750 que dan un nivel extra de soporte. Los iE80 tienen una función de ajuste manual de la respuesta de los bajos en función de las preferencias del usuario aunque recomiendo mantenerlo en el nivel más bajo, que es más que suficiente. Etymotic ER4PT Etymotic brilla cuando se trata de bloquear cualquier sonido externo para quedarte únicamente con el que sale de los auriculares. Es posible que ningún otro en esta guía sea tan bueno en ese sentido. Como casi cualquier otro modelo de la marca, la calidad de sonido de los ER4PT es excelente sin hacer mucho énfasis en los bajos y, sobre todo, brilla en los medios. Son sumamente livianos, aunque el diseño físico no es uno de sus fuertes pero es poco importante, cuando lo que realmente se debe apreciar es lo que escuchas, no lo que ves. Sony XBA-H1 Sony ha hecho un trabajo excepcional con los XBA-H1, ya que ofrece una nueva solución para disfrutar de una muy buena calidad de sonido por menos precio: un diafragma híbrido. Estos son los equivalentes al Swatch Sistem 51, pero de los auriculares: mecanismos nuevos para conseguir alta calidad a un precio más bajo. Los Sony XBA-H1 usan una combinación de diafragma dinámico de nueve milímetros y un diafragma de armazón equilibrado. Son lo suficientemente ligeros, pero el cuerpo de cada auricular es relativamente grande, puede llegar a ser incómodo para algunas personas. Aun así, por 150 dólares o 99 euros, son una gran adquisición. RHA MA-750 Los RHA MA-750 nos sorprendieron por su calidad de construcción, elección de materiales y calidad de audio por un precio bastante ajustado que los convierten en una de las mejores opciones si quieres tener buen audio por relativamente poca inversión. Además de la excelente calidad de sonido que RHA ha logrado con este modelo, los auriculares tienen control remoto y micrófono para el smartphone, una presentación muy cuidada, muchas opciones de tapas para encontrar el mejor comfort en tus oídos y un diseño bonito pero diferente a lo que estamos acostumbrados en este rango de precio. Philips Fidelio S1 En los últimos años, Philips está haciendo bastante trabajo en positivo con la calidad de sus auriculares, particularmente en la línea Fidelio, donde están los S1, que es donde está la mejor relación calidad/precio. Hay auriculares que cuestan entre 50-100 dólares/euros más y que suenan peor que los Fidelio S1. Medios y altos muy buenos y un bajo contenido que crea buen balance de sonido que hace que te preguntes cómo es posible tener tanta calidad por un precio tan bajo. Xiaomi Piston 2 Por último, tenemos los Xiaomi Piston. Con la segunda generación de estos auriculares estamos convencidos de que la compañía aplicó algún tipo de magia negra para hacer que suenen tan bien por un precio tan bajo. Suficientes bajos, suficientes medios, no muy bueno en los altos, poco aislamiento de sonidos externos, pero es imposible pedirle todo a un accesorio tan barato. Si tu presupuesto se acerca a cero pero quieres mejor sonido que el 99% de los auriculares que vienen con smartphones Android.

50
0
¿
¿Cómo veríamos el cielo sin contaminación lumínica?
InfoporAnónimo6/10/2015

¿Cómo veríamos el cielo sin contaminación lumínica? España es el país con mayor contaminación lumínica de toda la Unión Europea. ¿A qué se debe este fenómeno? ¿Cómo veríamos el cielo si no existiera? Antes de cumplir la veintena, Pablo Neruda ya había publicado uno de sus libros más célebres. Se trataba de Veinte poemas de amor y una canción desesperada. Entre sus hojas encontramos ternura, pero sobre todo nostalgia, la búsqueda de lo que fue y jamás será. Neruda reflejó como nadie la soledad que en alguna ocasión nos ha lanzado al abismo, la añoranza del pasado. En Galicia también lo llaman saudade. Quizás sea el poema número veinte el que mejor describa ese recuerdo perdido. ¿Quién no ha levantado la vista para observar "la noche estrellada", maravillándose ante el espectáculo astronómico que asoma en el cielo? ¿Quién no ha sentido alguna vez que "podía escribir los versos más tristes"? En esos momentos nostálgicos, los astros, en palabras del chileno, "tiritan azules a lo lejos". Pero no siempre es posible mirar hacia el pasado, contemplar el baile de estrellas que centellean sobre nosotros. Lo cantaba también Amaral al hablar del "cielo sin estrellas de Madrid". La contaminación lumínica, presente en grandes urbes como la capital española, impide que la nostalgia nos invada. Ya no es posible contemplar la noche estrellada. Ya no es posible observar astros tiritando a lo lejos. La luz que emana de nuestras calles, de las miles de farolas que alumbran rincones y avenidas, oculta el cielo como si no existiera. Como si mirar al pasado estuviera literalmente prohibido. link: https://www.youtube.com/watch?v=UVzBTEuNkJA En España, los núcleos con mayor contaminación lumínica son, por este orden, Valencia, Madrid, Barcelona y Sevilla. Cuatro capitales que se pueden observar desde el espacio, como muestran las imágenes tomadas por la ISS. La Península Ibérica resplandece fulgurante, visible desde 400 kilómetros de altura. De hecho, España es el país que mayor potencia luminaria presenta de toda la Unión Europea. ¿Afecta la contaminación lumínica sólo a la exploración del cielo, como escribiera Neruda? ¿O tiene por contra un impacto negativo sobre nuestra salud? ¿Qué es la contaminación lumínica? Según Alejandro Sánchez, "la contaminación lumínica es toda introducción de luz no natural en el medio ambiente nocturno". Sin embargo, no todo contamina por igual. En palabras de este investigador de la Universidad Complutense, "la dosis es fundamental". Por poner un ejemplo, no contaminará lo mismo una vela encendida en una habitación que un foco antiaéreo. ¿Pero cuál es la razón por la que España se sitúa a la cabeza de la Unión Europea en cuanto a contaminación lumínica se refiere? Como explica Sánchez a Hipertextual, toda luz nocturna contribuye. Sin embargo, buena parte de la culpa la tiene el alumbrado público, responsable de entre el 40 y el 60% de la contaminación. El alumbrado ornamental, por su parte, es la segunda fuente luminaria. Los científicos de la Universidad Complutense de Madrid evaluaron el control del consumo eléctrico en alumbrado público, un estudio que el Ministerio de Industria dejó de hacer en 2007, cuando dichas estadísticas se integraron dentro de otras partidas. La investigación de la UCM permitió relacionar la luz emitida por las ciudades durante la noche con el consumo eléctrico desde 1992 a 2012. Los resultados, como vemos en la gráfica anterior, son desoladores. En 2012, el consumo por habitante fue de 113 kWh, 1,5 veces más que el objetivo fijado en el Plan de Eficiencia Energética 2004-2012. El incremento del consumo eléctrico en alumbrado público no sólo ha provocado un aumento de la contaminación lumínica, sino que incide especialmente en nuestros bolsillos. El aumento de las tarifas eléctricas ha provocado que el gasto en alumbrado público pase de 450 millones de euros en 2007 a 830 millones en 2012, casi el doble. Además, según el artículo publicado en Journal of Quantitative Spectroscopy and Radiative Transfer, la suma del coste del alumbrado público y privado superaría los 1.000 millones de euros. Podríamos pensar que la contaminación lumínica procede únicamente de las grandes ciudades. Pero como explica Sánchez, "el impacto ambiental varía mucho, pues depende también del tipo de lámparas". En el caso de las lámparas azules, se observa una mayor contaminación que con el uso de lámparas anaranjadas. Es decir, si evaluamos la contaminación lumínica emitida por una mina de focos brillantes o una gasolinera en medio del campo, veremos que pueden llegar a ser más problemáticas que las luces de un pequeño municipio. ¿Por qué Valencia contamina más? Hasta el momento, los mapas de contaminación lumínica se realizaban mediante modelos físicos obtenidos a partir de las imágenes del satélite. Sin embargo, el grupo de investigación de la Universidad Complutense de Madrid es pionero en la elaboración de dos nuevas técnicas. Por un lado, los mapas de medidas de brillo de cielo mediante adquisición automática, que permiten "barrer el mayor área posible con un vehículo con sensor", según Sánchez. Por otro lado, también se puede realizar una observación directa por imágenes de satélite de alta resolución. Sea como fuere, los mapas de contaminación nos brindan sorpresas inesperadas. Una de ellas, Valencia. ¿Por qué una población con cerca de 800.000 habitantes contamina más que otras ciudades como Madrid (3 millones) o Barcelona (1 millón y medio)? La mismísima Samantha Cristoforetti, astronauta de la Estación Espacial Internacional, daba ayer las buenas noches con una imagen en la que se observa la situación valenciana con meridiana claridad: En palabras de Sánchez, "Valencia es la ciudad más brillante de Europa en cuanto a intensidad por metro cuadrado". Detrás de la capital del Turia se encuentra Madrid, que curiosamente produce más luz pero no de forma tan intensa. ¿Por qué Valencia está a la cabeza de la contaminación lumínica europea? La razón podría estar en el incremento del gasto en el alumbrado público, que se multiplicó por 2 entre el año 1990 y el 2000 y otra vez por 2 entre el 2000 y el 2007. Pero como explica el propio Sánchez en su blog, la población valenciana ha crecido en torno a un 2,5% en este período de tiempo. ¿El resultado? En veinte años el gasto energético se ha disparado un 400%. El científico de la UCM apunta que la situación de Valencia posiblemente refleje "un caso más de despilfarro en esa comunidad, sin que se pueda descartar que sea fruto de la corrupción". Una dura realidad que se aprecia mejor en esta imagen captada por astronautas de la NASA y de la Agencia Espacial Europea en 2013: ¿Pero por qué Valencia, Madrid, Barcelona o Sevilla lideran los ránkings de contaminación lumínica? Para responder a esta cuestión, tenemos que recurrir a la cultura popular. Existe una idea, bastante extendida, que explica que al ser un país mediterráneo con mucho sol, "nos gusta tener una elevada cantidad de luz por la noche", al contrario que otras ciudades como Berlín, caracterizada por su baja contaminación lumínica. Esta hipótesis, señala Sánchez, es falsa. También lo es el mito de que el alumbrado en autopistas mejora la seguridad vial. Como apunta el investigador, "la elevada contaminación lumínica es el efecto colateral del modelo productivo de país, que invierte una gran cantidad de recursos en infraestructuras sin un adecuado análisis de la necesidad de las mismas". Por comparar sólo unas cifras: en 1992, España tenía un gasto por habitante de 82 kwh/año, una media similar a la europea. En veinte años se ha duplicado el coste, a diferencia de países como Inglaterra, donde se ha mantenido el mismo nivel de iluminación. ¿Cómo sería el cielo con estrellas? A pesar de que en los últimos años se han realizado ciertas mejoras en las políticas municipales y autonómicas, ninguna ciudad española puede compararse con Berlín, la capital europea menos contaminante. Los avances en materia legislativa de las Comunidades Autónomas, así como la eliminación de los "globos opacados", que desperdiciaban casi el 75% de la energía, han permitido pequeños avances en esta materia. Sin embargo, el grupo de Sánchez sólo tiene constancia de que los cambios en la regulación hayan tenido algún efecto en regiones como Andalucía, Cataluña y Canarias. Esta situación provoca que no podamos ver el cielo en su máximo esplendor, por lo que tenemos que imaginarlo. ¿Cómo hacerlo? Desde Hipertextual hemos empleado la herramienta Stellarium, un programa de acceso abierto que simula un planetario en tiempo real. Gracias a este software, observamos el cielo como si pudiéramos hacerlo sin contaminación lumínica. En estas dos imágenes nocturnas, captadas en diferentes puntos de la ciudad de Madrid, es posible comprobar todo lo que no vemos por culpa de las fuentes de luz contaminantes. Pero el problema va mucho más allá de la mera contemplación astronómica, asegura Sánchez. "No somos del todo conscientes de su dimensión económica, cultural, medioambiental y sanitaria", confirma el científico. A la izquierda, simulación del cielo de Madrid sin contaminación lumínica (Stellarium). A la derecha, cielo que puede verse realmente sobre el Palacio Real. Fuente original de la imagen: Marcus Obal (Wikimedia) A la izquierda, simulación del cielo de Madrid sin contaminación lumínica (Stellarium). A la derecha, cielo que puede verse realmente sobre la calle Alcalá de Madrid. Fuente original de la imagen: Antonio García Rodríguez (Wikimedia) En un estudio publicado en Journal of Geophysical Research, investigadores alemanes evaluaron la influencia de la contaminación lumínica en la actividad de animales nocturnos. Seres vivos como arañas, polillas, escarabajos y grillos emplean la luz celeste para orientarse, como si de una brújula se tratara. Al no poder usar esta guía, "la aptitud evolutiva de estas especies podría mermar", llegando a desequilibrar ecosistemas completos. El impacto de la contaminación lumínica también afecta a los movimientos migratorios de muchas aves. Pero como señala Sánchez, "los ritmos biológicos en los seres humanos también están regulados por la luz". Exponerse a una elevada intensidad lumínica podría no sólo modificar los patrones de sueño, sino que algunos estudios apuntan a que podría incrementar el riesgo de padecer cáncer de mama. Aunque estas investigaciones son muy preliminares, lo cierto es que deberían concienciarnos sobre el grave problema ambiental que supone la contaminación lumínica. "Tarde o temprano la racionalidad y la eficiencia harán que dejemos de contaminar tanto", comenta el investigador. Sin embargo, no podremos recuperar las especies que hayamos perdido ni el daño afligido sobre la salud. Por eso iniciativas como Cities at night, impulsada por el grupo de la UCM, pretende involucrar a la sociedad en el estudio de este problema ambiental. Este proyecto de ciencia ciudadana está ayudando a localizar, catalogar y mapear la contaminación lumínica del mundo por primera vez en color. Gracias a estas investigaciones, podremos conocer mejor su impacto. Y tal vez algún día, si logramos luchar contra esta problemática ambiental, cuando se apague la luz del Sol, se encenderá de nuevo el cielo.

130
0
Unreal Tournament 4 y el desarrollo abierto
Unreal Tournament 4 y el desarrollo abierto
InfoporAnónimo1/4/2015

Desde la popularización de internet es innegable que los fans y los desarrolladores/empresas de videojuegos han comenzado a tener un mayor grado de comunicación entre ellos. Gracias a las redes sociales el público tiene al alcance de su mano y de forma instantánea no sólo la posibilidad de manifestar una opinión sobre un producto y que ésta pueda tener bastante eco, sino también de hacérsela llegar directamente a los responsables. Con YouTube, los fans de determinadas sagas pueden, en muchos casos, seguir muy de cerca cómo avanza el proceso creativo a través de los diarios de desarrollo, teasers y tráilers que van publicando las compañías. Que las compañías de videojuegos cada vez se preocupan más por lo que dicen de ellos sus clientes es una obviedad. No entraremos aquí en si miman más al jugador o en si realmente tienen en cuenta sus opiniones ahora más que antes, porque hay miles y miles de casos diferentes. Pero en relación a esto, Epic Games dio un salto muy importante cuando hace unos meses anunció que ya estaban desarrollando un nuevo Unreal Tournament. Hasta aquí todo normal, si no fuera por los detalles y la forma en que desde entonces se está llevando a cabo la creación de la nueva entrega del mítico FPS, basada en dos pilares: el desarrollo abierto y el formato totalmente free-to-play. Pero, ¿qué significa que el proceso de desarrollo es totalmente abierto? Epic Games explicó esto el día del anuncio: "sabemos que tenéis grandes ideas y opiniones muy válidas sobre hacia dónde debería dirigirse el juego y cómo debería ser, así que vamos a hacer algo radical y vamos a hacer este juego juntos, en abierto, por y para todos". link: https://www.youtube.com/watch?v=x8XLtaCkZAQ De esta manera Epic Games ha creado un nuevo modelo de desarrollo que traslada las opiniones de sus jugadores a un terreno central, ya que las convierte en una realidad dentro del propio juego. Como bien explican, "desde la primera línea de código, la primera pieza de arte creada y la primera decisión de arte tomada, el desarrollo se llevará a cabo de forma abierta, como colaboración entre Epic Games, los fans de Unreal Tournament y los desarrolladores del Unreal Engine 4". Parecía al principio una locura, pero lo cierto es que el paso de los meses está dando la razón a Epic Games y da la sensación que este nuevo método de desarrollo se está llevando a cabo desde entonces con absoluta normalidad y eficacia. Todo el mundo puede seguir el día a día de la creación de Unreal Tournament 4 gracias a los streamings semanales en Twitch y mediante el foro, en el que todo, absolutamente todo, se debate y discute entre fans y desarrolladores, puliendo ideas que poco a poco se van implementando en el juego. Si bien el seguimiento es totalmente gratuito y está abierto a todo el público, colaborar económicamente en el desarrollo del juego sí que está también al alcance de todos. Para participar en los foros y aportar ideas es necesario estar registrado en la web del Unreal Engine, una suscripción que cuesta 19 euros mensuales. Puede parecer restrictivo, pero si vemos todo lo que conseguimos con esta mensualidad entenderemos que es casi un regalo. Teniendo en cuenta que poseer la licencia del Unreal Engine 4 entra dentro de esa mensualidad y que al suscribirnos no sólo se nos da acceso al motor sino también a toda la documentación oficial, al desarrollo de Unreal Tournament 4, al foro y a todas las herramientas necesarias para formar parte del mismo, quizá nos parezca un precio más que razonable y, por qué no, seguramente también te sirva de filtro. No perdamos de vista que poner el futuro de un proyecto así de grande en manos de cualquiera no deja de ser un peligro al que, de momento, solo Epic Games se ha atrevido a enfrentarse. link: https://www.youtube.com/watch?v=XupPMjJB0-8 Otro detalle no menos importante es que desde el principio se ha asegurado que el juego - según el propio Mark Rein - será gratuito ("no será free-to-play, sino gratis" y no tendrá microtransacciones. Más adelante se creará un marketplace en el que los usuarios podrán poner a la venta sus mapas, mods y otros contenidos, siendo este el medio por el que la compañía tratará de rentabilizar los costes de publicar el juego de forma gratuita. Y no olvidemos tampoco que este modelo abierto de desarrollo no es más que una increíble manera de convencer a desarrolladores amateurs y aficionados que el Unreal Engine 4 es el motor perfecto para sus proyectos. Si el "experimento" terminará bien o no es algo que solo el tiempo nos dirá. Unreal Tournament 4, o Unreal Tournament 2015 como se le ha ido llamando, no tiene todavía ni fecha de lanzamiento ni nombre definitivo, pero lo que está claro es que tiene una iniciativa detrás a la que vale la pena seguirle el rastro. No sólo por arriesgar y dar un voto de fe a la comunidad y a sus jugadores, sino por crear un modelo que seguramente se convertirá en una nueva forma de desarrollo, especialmente positiva en campos como la enseñanza. Es como ir a clase pero a distancia, de forma gratuita (recordemos que al menos en España la docencia en materia de videojuegos no es precisamente barata) y con los mejores "profesores". El desarrollo abierto de Unreal Tournament podría significar un antes y un después y la aparición de un nuevo modelo de hacer videojuegos y de aprender a desarrollarlos. Si el resultado resulta finalmente satisfactorio, es muy probable que otras compañías, tanto de juegos triple A como de indies, puedan querer subirse a este carro que no acaba más que empezar a rodar. Y que ruede por mucho tiempo.

80
48
E
El futuro de la saga Total War
InfoporAnónimo1/8/2015

Los planes de Creative Assembly en 2015. En 2015 la saga Total War cumple quince años, y como recompensa por hacernos sentir tan viejos The Creative Assembly quiere celebrarlo con una batería de nuevos juegos. Tras el reciente lanzamiento del paquete de contenido Wrath of Sparta para Total War: Rome 2 llegará Total War: Attila el 17 de febrero, la nueva gran entrega de la franquicia. Pero el feroz huno no cabalgará solo: junto a él vendrán también dos experiencias Total War menos tradicionales, cuyo objetivo es atraer nuevos jugadores gracias al modelo free-to-play. La primera es exclusivamente multijugador y se llama Total War: Arena, mientras que la segunda es un título multiplataforma para escritorio y tabletas, Total War Battles: Kingdom. La pregunta si alguno de estos nuevos juegos ampliará el ilustre legado de la saga o si fallarán en su objetivo y acabarán sufriendo la ignominia del olvido. En su estado actual la verdad es que Total War: Arena lo tendrá difícil para brillar. Compuesto por batallas PvP diez contra diez en las que el objetivo es aniquilar al rival o capturar su base, en él cada jugador controla tres escuadras dirigidas por un comandante famoso, lo cual ofrece bonus de un determinado tipo. A medida que los comandantes ganan experiencia pueden usar unidades más avanzadas, y actualizarlas con la moneda ganada en los combates (o presumiblemente con microtransacciones). Sus rápidas batallas de quince minutos quedan definidas, en parte, por las decisiones previas que tomas respecto a la composición del ejército y el mantenimiento de las unidades. Controlar solo tres unidades en Arena hace que sea accesible, pero sigues teniendo que controlar la estrategia de equipo y los árboles de mejora. Tras jugar varias partidas seguidas durante una hora te das cuenta de que la diversión en Arena está limitada por no saber encontrar su sitio entre la accesibilidad inmediata para los vírgenes en Total War y la satisfacción táctica para los veteranos en la saga. El problema para los novatos es la comunicación y cómo se presentan las estadísticas de las unidades y las mejoras. En cambio, para los usuarios experimentados, acostumbrados a administrar docenas de unidades a la vez, el problema está en la simplicidad. Gabor Beressy, director del proyecto, reconoce la primera crítica, pero no está tan de acuerdo con la segunda. "En estos momentos no tenemos un tutorial, pero planeamos añadir uno para ayudar a la gente que tiene problemas con los controles de la cámara o el número de unidades. Sin embargo, también tenemos el potencial para un juego con batallas muy complejas que quizás no resulta aparente jugando un par de partidas, pero que están ahí para los que se queden más rato". Según Beressy, el feedback de los jugadores definirá el futuro desarrollo de Arena, y aunque el equipo tiene ideas sobre el meta-juego, las épocas históricas y las batallas navales, al final será la respuesta de la comunidad la que determinará su forma en el futuro. El entusiasmo es esperanzador, pero existe el peligro de que este juego tipo MOBA no capture la imaginación de todos esos nuevos jugadores si no se centra un poco más en ser amigable con el usuario en los próximos meses (para ayudar a ello puedes apuntarte a la alpha cerrada en la web de Total War: Arena). Afortunadamente las cosas pintan mejor con el otro juego free-to-play de Creative Assembly. Total War Battles: Kingdom es una secuela del Shogun de 2012, aunque es más grande y más complejo que su predecesor, incluyendo la creación de un imperio, la administración de las tierras y la construcción de un ejército. Tiene el mecanismo de temporizador típico de los free-to-play al crear edificios o superar misiones de diplomacia, pero una vez tu reino tiene un tamaño decente hay suficientes cosas para hacer hasta que esos temporizadores llegan a cero (o hasta que pagas para que lo hagan, claro). El tranquilo ritmo de Total War Battles: Kingdom se acelera con las rápidas batallas contra los vecinos más problemáticos. Las batallas duran unos pocos minutos y pueden jugarse en PvE o PvP, aunque el último sólo ocurre si lo activas u optas por la campaña enfocada en PvP. Es por ello que si dejas el juego unos días no te encontrarás que ha sido saqueado mientras estabas fuera. Las opciones de personalización para el reino y el ejército son un factor clave, y junto a la sensación de controlar tu reino y las tareas de administración, Total War Battles: Kingdom podría ser algo muy interesante para aquellos cansados de enfrentarse entre clanes con amigos y extraños. Aunque Arena y Kingdom están ocupados forjando sus propios caminos, el gran atractivo para los jugadores experimentados es, sin duda, el lanzamiento el mes que viene de Total War: Attila. The Creative Assembly reconoce, de hecho, que para aquellos que la ven desde fuera esta saga puede parecer una serie de juegos "muy similares, simplemente ambientados en diferentes épocas históricas". Para cambiar esto un poco están variando las cosas, pasando de centrarse en construir un glorioso imperio a preservar o destruir uno. "Esta vez lo que verás será la caída de un imperio y los últimos capítulos de la Antigua Roma y el comienzo de la Edad Oscura", explica el líder del proyecto, Janos Gasper. "Esto significa que hay revueltas, destrucción y una gran masa de gente arrasando la tierra, haciendo que Attila sea un juego de estrategia de supervivencia que te obliga a adaptarte a estos cambios". "La mayoría de las nuevas características se centran en esa caída, con fuego dinámico, destrucción y los Hunos en el centro de esta mezcla. También nos estamos centrando en narrativa emergente, lo cual es muy importante para nosotros y la impredecibilidad de estos elementos se adapta muy biena este tipo de campaña". El enfoque de Attila en un periodo de convulsos cambios trae consigo un cambio climático tan duro como sus adversarios. Los detalles de estos nuevos elementos, junto con la explicación del nuevo árbol familiar y cómo afectará el clima al imperio Romano y los hábitos migratorios de las tribus del norte, se podían ver en el último vistazo que dimos a la build preview de Attila. Es importante que Attila añada cosas nuevas, claro, pero también que no repita los problemas más molestos de Rome 2, especialmente en lo que respecta a como la IA reacciona a los nuevos elementos dinámicos, algo que Gasper y su equipo confían funcionará gracias a la experiencia acumulada por el estudio en los últimos dieciocho meses. "Attila ha sido creado sobre los cimientos de Rome 2, así que todas las mejoras están colocadas sobre una base estable. Fuimos muy ambiciosos con Rome 2 y queríamos cambiar muchas cosas y añadir otras muchas. Al crear Attila sobre estos fuertes cimientos hemos podido dar grandes saltos al compartir tecnología y experiencia entre equipos. El décimo quinto aniversario de Total War será movidito entonces, con The Creative Assembly situando su maquinaria de guerra en varios frentes a la vez. Los planes están definidos, pero aunque todos los líderes de proyecto del estudio confían en que van a tener éxito, también deben saber de su experiencia que también existe la posibilidad del fracaso. Sea como fuere, los usuarios de PC y tabletas van a tener una buena ración de guerra este año, y pocas veces ha habido mayor variedad de campos de batalla en los que adentrarse.

58
0
PosteameloArchivo Histórico de Taringa! (2004-2017). Preservando la inteligencia colectiva de la internet hispanohablante.

CONTACTO

18 de Septiembre 455, Casilla 52

Chillán, Región de Ñuble, Chile

Solo correo postal

© 2026 Posteamelo.com. No afiliado con Taringa! ni sus sucesores.

Contenido preservado con fines históricos y culturales.