i

ivans2050

Usuario (México)

Primer post: 23 sept 2013
65
Posts
229
Puntos totales
0
Comentarios
¿
¿Cuándo utilizar SAP?
InfoporAnónimo4/10/2014

Manuales SAP ¿Cuándo utilizar SAP? SAP HANA es la implementación de SAP AG de la tecnología de base de datos en memoria. Hay cuatro componentes dentro del grupo de software: • SAP HANA DB (o HANA DB) se refiere a la tecnología de base de datos en sí. • SAP HANA Studio se refiere al conjunto de herramientas proporciona SAP para modelar. • SAP HANA Appliance se refiere a HANA DB como socio de hardware presentadas en el certificado (véase más adelante) como un dispositivo. También incluye las herramientas de modelado de HANA Studio, así como herramientas de replicación y transformación de datos para mover datos a HANA DB2 • SAP HANA Aplicación en nube se refiere a la infraestructura basada en la Computación en la nube para la entrega de aplicaciones (típicamente las aplicaciones existentes de SAP reescritas para ejecutarse en HANA). HANA DB se aprovecha del bajo coste de la memoria principal (RAM), la capacidad del procesamiento de datos de losprocesadores multinúcleo y el acceso rápido a datos de unidades de estado sólido con respecto a los discos duros tradicionales para ofrecer un mejor rendimiento de las aplicaciones analíticas y transaccionales. Ofrece un entorno de consulta multi-motor de procesamiento que le permite soportar tanto datos relacionales (con tanto en fila y columna orientado a representaciones físicas en un motor híbrido) así como el tratamiento gráfico y de texto para la gestión de datos no estructurados y semi-dentro del mismo sistema. HANA DB es 100% compatible con ACID. Aunque HANA ha sido llamado de diversas maneras un acrónimo HAsso's New Architecture 3 (una referencia al fundador de SAPHasso Plattner) y de High Performance ANalytic Appliance, HANA es un nombre no es una sigla

0
5
C
Consejos para ganar dinero
InfoporAnónimo4/11/2014

más consejos en: Consejos para ganar dinero Siempre leemos grandes casos de éxito, pero al analizarlos a fondo la mayoría ya nació en un grupo familiar con muchas herramientas a su alcance que le permitieron conseguir dicho éxito. Por ese motivo es que en este post nos dedicaremos a mencionar a 10 personas que han saltado de pobre a millonario con el transcurso de los años. A mucho les sorprenderá ver el nombre de estas personas ya que muchas son inventoras de grandes marcas que vemos en el día a día. Harold Simmons (fortuna: 40.000 millones de dólares, según Business Insider). Nació en 1931 en el pueblo de Golden, en Texas, Estados Unidos. Creció en una choza sin agua, electricidad ni cloacas, y a fuerza de trabajo duro, logró que lo aceptaran en la Universidad de Texas, donde obtuvo un máster en economía. Ingresó al selecto club de los millonarios tras vender por 50 millones de dólares una pequeña cadena de tiendas que había comprado años antes. Hasta su muerte a los 82 años el pasado 28 de diciembre, era uno de los mayores expertos en grandes compraventas de compañías. George Soros (Fortuna: 20.000 millones de dólares). Nació en Budapest, con el nombre de Schwartz György. De niño sobrevivió a la ocupación nazi de Hungría y logró emigrar hacia Inglaterra haciéndose pasar por el nieto de un funcionario público. De joven trabajó como mesero y empleado ferroviario para pagar sus estudios en la London School of Economics. Una vez graduado estuvo un tiempo trabajando en un comercio de venta de souvenirs hasta que consiguió un ansiado empleo como bancario en Nueva York. Se hizo multimillonario tras apostar en contra de la libra británica en 1992. Leonardo Del Vecchio (Fortuna: 15.300 millones de dólares). Nació en 1935 en Milán, Italia, hijo de una madre viuda que como no podía mantenerlo a él y a sus cuatro hermanos los envió a un orfanato. De joven fue obrero en una planta automotriz, donde perdió un dedo trabajando sobre cristales. A los 23 abrió su propio comercio de cristales, Luxottica, que con los años se convirtió en el mayor fabricante mundial de lentes de sol. Es dueño de algunas de las principales marcas del mercado, entre ellas, Ray-Ban y Oakley. Francois Pinault (Fortuna: 15.000 millones de dólares). Nació en 1936 en la comuna de Les Champs-Géraux, Francia, en el seno de una familia de bajos recursos. Tuvo que abandonar la escuela cansado del hostigamiento al que era sometido por ser pobre. Pero ese resentimiento sirvió como combustible para su ambición, que lo llevó a ser uno de los mayores empresarios mundiales de la moda, conocido por sus despiadadas estrategias comerciales. Actualmente dirige el conglomerado Kering, dueña de marcas de primer nivel, como Gucci, Stella McCartney, Alexander McQueen e Yves Saint Laurent. Ralph Lauren (Fortuna: 7.700 millones de dólares). Nació en 1939 en Nueva York, en una familia humilde del Bronx. Al poco tiempo de ingresar a la universidad se fue para enlistarse en el ejército. Luego empezó a trabajar como vendedor en una tienda de ropa de hombres, donde empezó a cuestionar la rigidez de las corbatas que se vendían entonces. A los 28 años se lanzó a diseñar y vender sus propios modelos, y en un año ganó medio millón de dólares. Al año siguiente fundóPolo. John Paul DeJoria (Fortuna: 4.000 millones de dólares). Nació en Los Ángeles, Estados Unidos, en 1944. A los 9 años vendía tarjetas de navidad y periódicos en la calle para ayudar a su familia a sobrevivir. Pero la falta de recursos obligó a sus padres a enviarlo a un hogar para niños pobres. Cuando salió ingresó a una pandilla y pasaba la mayor parte del tiempo en la calle, hasta que ingresó en el ejército. Tiempo después, pidió un préstamo de 700 dólares para crear la marca de productos para el cabello John Paul Mitchell Systems. En los primeros tiempos, él mismo vendía el champú puerta a puerta y vivía en su automóvil. Hoy Paul Mitchell es una de las compañías líderes en el rubro. Kirk Kerkorian (Fortuna: 3.900 millones de dólares). Nació en Fresno, California, en 1917, en el seno de una familia de origen armenio. Por las dificultades económicas que afrontaban, debió dejar la escuela y empezó a boxear. Luego, con el estallido de la Segunda Guerra Mundial, trabajó para la Real Fuerza Aérea británica. Con el tiempo, creó una de las cadenas de resorts más importantes de Las Vegas. Shahid Khan (Fortuna: 3.800 millones de dólares). Nació en Pakistán en 1952 y con mucho esfuerzo logró emigrar hacia Estados Unidos. Para financiar sus estudios en la Universidad de Illinois trabajaba como lava copas en un restaurante por 1,20 dólares la hora. Luego comenzó a trabajar en la fabricante de autopartes Flex-N-Gate, donde fue ascendiendo en el escalafón, hasta que se fue para fundar su propia compañía, Bumper Works. Luego compró Flex-N-Gate a su antiguo empleador. Actualmente es además dueño del Fulham, equipo de fútbol de la Premier League, y de losJacksonville Jaguars, conjunto de fútbol americano en la NFL. Oprah Winfrey (Fortuna: 2.900 millones de dólares). Nació en 1954 en Misisipi, Estados Unidos, en una familia muy pobre. En su adolescencia ganó una beca que le permitió ingresar a la Universidad Estatal de Tennessee, pero su sueño era trabajar en los medios. Así, a los 19 años se convirtió en la primera corresponsal de televisión afroamericana de la historia del país. En 1983, a los 29 años, empezó a trabajar en un talk show que luego pasaría a llamarse The Oprah Winfrey Show, el más famoso del mundo. Hoy es probablemente la mayor figura de la televisión estadounidense. Howard Schultz (Fortuna: 2.000 millones de dólares). Nació en Nueva York, en 1953, y de chico fueenviado a un hogar para pobres. Gracias a su talento para el fútbol americano, obtuvo una beca para la Universidad de Michigan del Norte, lo que le permitió obtener un empleo en Xerox. Luego empezó a trabajar en una cadena de cafeterías llamada Starbucks, que en ese momento no tenía más de 60 sucursales. A los 34 años llegó a ser CEO de una compañía que hoy tiene más de 16.000 comercios en todo el mundo. “Quería escalar esa valla que me separaba de la gente que tenía más dinero y familias más felices. Por alguna razón quería lograr algo que estuviera más allá de lo que la gente decía que era posible. Puede que use saco y corbata ahora, pero sé de dónde vengo”, contó recientemente en una entrevista concedida a The Mirror.

0
18
A
Autos nuevos: el auto eléctrico más caro y lujoso del mund
InfoporAnónimo4/14/2014

Autos nuevos: el auto eléctrico más caro y lujoso del mundo La tendencia es que los autos nuevos eléctricos empezaran a dominar las calles en los próximos años. La empresa automotriz Tesla Motors optó por dominar el mercado de lujo con estos vehículos, lanzando el proyecto California S Model. El modelo California S parece estar concentrado en un radio de 50 millas de Palo Alto, en Estados Unidos, en el corazón de Silicon Valley. La foto de arriba fue hecha por uno de los empleados de High Gear de camino a comer: no se trata de la versión más cara, son sólo $ 80,000, sedán deportivo de lujo totalmente eléctrico estacionado en un parquímetro público. Según comentan en autosnuevos.org el nuevo auto de superlujo cuesta $ 205,000 y es el coche eléctrico más caro del mundo. Pero también, no es menos: el vehículo está equipado con tapizado en cuero, pintura especial, llantas de 21 pulgadas de oro y alerón trasero de fibra de carbono. Ya en términos de tecnología, el California S Model ha actualizado su sistema de audio, trae un iPad como centro de entretenimiento y acceso a la web oficial de Tesla, que te permite configurar el coche a tu gusto. Cuanta además con un sistema de enfriamiento digital, con lo último en esta tecnología, lo que hace enfriar el interior del coche bien rápido. Este modelo se prevé que será muy exclusivo y es posible que solo se vendan en los mercados de Norteamérica, Europa y Asia. Y es que a demás de su elevado precio de compra, sus partes de repuesto son igual de caras, lo que hace que el mantenimiento en países en vías de desarrollo sea casi infranqueable. El auto eléctrico más caro

0
4
¿Qué es Big Data?
¿Qué es Big Data?
InfoporAnónimo4/10/2014

Qué es big data 1. Introducción El primer cuestionamiento que posiblemente llegue a su mente en este momento es ¿Qué es Big Data y porqué se ha vuelto tan importante? pues bien, en términos generales podríamos referirnos como a la tendencia en el avance de la tecnología que ha abierto las puertas hacia un nuevo enfoque de entendimiento y toma de decisiones, la cual es utilizada para describir enormes cantidades de datos (estructurados, no estructurados y semi estructurados) que tomaría demasiado tiempo y sería muy costoso cargarlos a un base de datos relacional para su análisis. De tal manera que, el concepto de Big Data aplica para toda aquella información que no puede ser procesada o analizada utilizando procesos o herramientas tradicionales. Sin embargo, Big Data no se refiere a alguna cantidad en específico, ya que es usualmente utilizado cuando se habla en términos de petabytes y exabytes de datos. Entonces ¿Cuánto es demasiada información de manera que sea elegible para ser procesada y analizada utilizando Big Data? Analicemos primeramente en términos de bytes: Gigabyte = 109 = 1,000,000,000 Terabyte = 1012 = 1,000,000,000,000 Petabyte = 1015 = 1,000,000,000,000,000 Exabyte = 1018 = 1,000,000,000,000,000,000 Además del gran volumen de información, esta existe en una gran variedad de datos que pueden ser representados de diversas maneras en todo el mundo, por ejemplo de dispositivos móviles, audio, video, sistemas GPS, incontables sensores digitales en equipos industriales, automóviles, medidores eléctricos, veletas, anemómetros, etc., los cuales pueden medir y comunicar el posicionamiento, movimiento, vibración, temperatura, humedad y hasta los cambios químicos que sufre el aire, de tal forma que las aplicaciones que analizan estos datos requieren que la velocidad de respuesta sea lo demasiado rápida para lograr obtener la información correcta en el momento preciso. Estas son las características principales de una oportunidad para Big Data. Es importante entender que las bases de datos convencionales son una parte importante y relevante para una solución analítica. De hecho, se vuelve mucho más vital cuando se usa en conjunto con la plataforma de Big Data. Pensemos en nuestras manos izquierda y derecha, cada una ofrece fortalezas individuales para cada tarea en específico. Por ejemplo, un beisbolista sabe que una de sus manos es mejor para lanzar la pelota y la otra para atraparla; puede ser que cada mano intente hacer la actividad de la otra, mas sin embargo, el resultado no será el más óptimo. Volver arriba 2. ¿De dónde proviene toda esa información? Los seres humanos estamos creando y almacenando información constantemente y cada vez más en cantidades astronómicas. Se podría decir que si todos los bits y bytes de datos del último año fueran guardados en CD's, se generaría una gran torre desde la Tierra hasta la Luna y de regreso. Esta contribución a la acumulación masiva de datos la podemos encontrar en diversas industrias, las compañías mantienen grandes cantidades de datos transaccionales, reuniendo información acerca de sus clientes, proveedores, operaciones, etc., de la misma manera sucede con el sector público. En muchos países se administran enormes bases de datos que contienen datos de censo de población, registros médicos, impuestos, etc., y si a todo esto le añadimos transacciones financieras realizadas en línea o por dispositivos móviles, análisis de redes sociales (en Twitter son cerca de 12 Terabytes de tweets creados diariamente y Facebook almacena alrededor de 100 Petabytes de fotos y videos), ubicación geográfica mediante coordenadas GPS, en otras palabras, todas aquellas actividades que la mayoría de nosotros realizamos varias veces al día con nuestros "smartphones", estamos hablando de que se generan alrededor de 2.5 quintillones de bytes diariamente en el mundo. 1 quintillón = 10 30 = 1,000,000,000,000,000,000,000,000,000,000 De acuerdo con un estudio realizado por Cisco[1], entre el 2011 y el 2016 la cantidad de tráfico de datos móviles crecerá a una tasa anual de 78%, así como el número de dispositivos móviles conectados a Internet excederá el número de habitantes en el planeta. Las naciones unidas proyectan que la población mundial alcanzará los 7.5 billones para el 2016 de tal modo que habrá cerca de 18.9 billones de dispositivos conectados a la red a escala mundial, esto conllevaría a que el tráfico global de datos móviles alcance 10.8 Exabytes mensuales o 130 Exabytes anuales. Este volumen de tráfico previsto para 2016 equivale a 33 billones de DVDs anuales o 813 cuatrillones de mensajes de texto. Pero no solamente somos los seres humanos quienes contribuimos a este crecimiento enorme de información, existe también la comunicación denominada máquina a máquina (M2M machine-to-machine) cuyo valor en la creación de grandes cantidades de datos también es muy importante. Sensores digitales instalados en contenedores para determinar la ruta generada durante una entrega de algún paquete y que esta información sea enviada a las compañías de transportación, sensores en medidores eléctricos para determinar el consumo de energía a intervalos regulares para que sea enviada esta información a las compañías del sector energético. Se estima que hay más de 30 millones de sensores interconectados en distintos sectores como automotriz, transportación, industrial, servicios, comercial, etc. y se espera que este número crezca en un 30% anualmente. 3. ¿Qué tipos de datos debo explorar? Muchas organizaciones se enfrentan a la pregunta sobre ¿qué información es la que se debe analizar?, sin embargo, el cuestionamiento debería estar enfocado hacia ¿qué problema es el que se está tratando de resolver?. Si bien sabemos que existe una amplia variedad de tipos de datos a analizar, una buena clasificación nos ayudaría a entender mejor su representación, aunque es muy probable que estas categorías puedan extenderse con el avance tecnológico. 1.- Web and Social Media: Incluye contenido web e información que es obtenida de las redes sociales como Facebook, Twitter, LinkedIn, etc, blogs. 2.- Machine-to-Machine (M2M): M2M se refiere a las tecnologías que permiten conectarse a otros dispositivos. M2M utiliza dispositivos como sensores o medidores que capturan algún evento en particular (velocidad, temperatura, presión, variables meteorológicas, variables químicas como la salinidad, etc.) los cuales transmiten a través de redes alámbricas, inalámbricas o híbridas a otras aplicaciones que traducen estos eventos en información significativa. 3.- Big Transaction Data: Incluye registros de facturación, en telecomunicaciones registros detallados de las llamadas (CDR), etc. Estos datos transaccionales están disponibles en formatos tanto semiestructurados como no estructurados. 4.- Biometrics: Información biométrica en la que se incluye huellas digitales, escaneo de la retina, reconocimiento facial, genética, etc. En el área de seguridad e inteligencia, los datos biométricos han sido información importante para las agencias de investigación. 5.- Human Generated: Las personas generamos diversas cantidades de datos como la información que guarda un call center al establecer una llamada telefónica, notas de voz, correos electrónicos, documentos electrónicos, estudios médicos, etc. 4. Componentes de una plataforma Big Data Las organizaciones han atacado esta problemática desde diferentes ángulos. Todas esas montañas de información han generado un costo potencial al no descubrir el gran valor asociado. Desde luego, el ángulo correcto que actualmente tiene el liderazgo en términos de popularidad para analizar enormes cantidades de información es la plataforma de código abierto Hadoop. Hadoop está inspirado en el proyecto de Google File System(GFS) y en el paradigma de programación MapReduce, el cual consiste en dividir en dos tareas (mapper – reducer) para manipular los datos distribuidos a nodos de un clúster logrando un alto paralelismo en el procesamiento. Hadoop está compuesto de tres piezas: Hadoop Distributed File System (HDFS), Hadoop MapReduce y Hadoop Common. Hadoop Distributed File System(HDFS) Los datos en el clúster de Hadoop son divididos en pequeñas piezas llamadas bloques y distribuidas a través del clúster; de esta manera, las funciones map y reduce pueden ser ejecutadas en pequeños subconjuntos y esto provee de la escalabilidad necesaria para el procesamiento de grandes volúmenes. La siguiente figura ejemplifica como los bloques de datos son escritos hacia HDFS. Observe que cada bloque es almacenado tres veces y al menos un bloque se almacena en un diferente rack para lograr redundancia. Hadoop MapReduce MapReduce es el núcleo de Hadoop. El término MapReduce en realidad se refiere a dos procesos separados que Hadoop ejecuta. El primer proceso map, el cual toma un conjunto de datos y lo convierte en otro conjunto, donde los elementos individuales son separados en tuplas(pares de llave/valor). El proceso reduce obtiene la salida de map como datos de entrada y combina las tuplas en un conjunto más pequeño de las mismas. Una fase intermedia es la denominada Shuffle la cual obtiene las tuplas del proceso map y determina que nodo procesará estos datos dirigiendo la salida a una tarea reduce en específico. La siguiente figura ejemplifica un flujo de datos en un proceso sencillo de MapReduce. Hadoop Common Hadoop Common Components son un conjunto de librerías que soportan varios subproyectos de Hadoop. Además de estos tres componentes principales de Hadoop, existen otros proyectos relacionados los cuales son definidos a continuación: Avro Es un proyecto de Apache que provee servicios de serialización. Cuando se guardan datos en un archivo, el esquema que define ese archivo es guardado dentro del mismo; de este modo es más sencillo para cualquier aplicación leerlo posteriormente puesto que el esquema esta definido dentro del archivo. Cassandra Cassandra es una base de datos no relacional distribuida y basada en un modelo de almacenamiento de <clave-valor>, desarrollada en Java. Permite grandes volúmenes de datos en forma distribuida. Twitter es una de las empresas que utiliza Cassandra dentro de su plataforma. Chukwa Diseñado para la colección y análisis a gran escala de "logs". Incluye un toolkit para desplegar los resultados del análisis y monitoreo. Flume Tal como su nombre lo indica, su tarea principal es dirigir los datos de una fuente hacia alguna otra localidad, en este caso hacia el ambiente de Hadoop. Existen tres entidades principales: sources, decorators y sinks. Unsource es básicamente cualquier fuente de datos, sink es el destino de una operación en específico y undecorator es una operación dentro del flujo de datos que transforma esa información de alguna manera, como por ejemplo comprimir o descomprimir los datos o alguna otra operación en particular sobre los mismos. HBase Es una base de datos columnar (column-oriented database) que se ejecuta en HDFS. HBase no soporta SQL, de hecho, HBase no es una base de datos relacional. Cada tabla contiene filas y columnas como una base de datos relacional. HBase permite que muchos atributos sean agrupados llamándolos familias de columnas, de tal manera que los elementos de una familia de columnas son almacenados en un solo conjunto. Eso es distinto a las bases de datos relacionales orientadas a filas, donde todas las columnas de una fila dada son almacenadas en conjunto. Facebook utiliza HBase en su plataforma desde Noviembre del 2010. Hive Es una infraestructura de data warehouse que facilita administrar grandes conjuntos de datos que se encuentran almacenados en un ambiente distribuido. Hive tiene definido un lenguaje similar a SQL llamado Hive Query Language(HQL), estas sentencias HQL son separadas por un servicio de Hive y son enviadas a procesos MapReduce ejecutados en el cluster de Hadoop. El siguiente es un ejemplo en HQL para crear una tabla, cargar datos y obtener información de la tabla utilizando Hive: Jaql Fue donado por IBM a la comunidad de software libre. Query Language for Javascript Object Notation (JSON) es un lenguaje funcional y declarativo que permite la explotación de datos en formato JSON diseñado para procesar grandes volúmenes de información. Para explotar el paralelismo, Jaql reescribe los queries de alto nivel (cuando es necesario) en queries de "bajo nivel" para distribuirlos como procesos MapReduce. Internamente el motor de Jaql transforma el query en procesos map y reduce para reducir el tiempo de desarrollo asociado en analizar los datos en Hadoop. Jaql posee de una infraestructura flexible para administrar y analizar datos semiestructurados como XML, archivos CSV, archivos planos, datos relacionales, etc. Lucene Es un proyecto de Apache bastante popular para realizar búsquedas sobre textos. Lucene provee de librerías para indexación y búsqueda de texto. Ha sido principalmente utilizado en la implementación de motores de búsqueda (aunque hay que considerar que no tiene funciones de "crawling" ni análisis de documentos HTML ya incorporadas). El concepto a nivel de arquitectura de Lucene es simple, básicamente los documentos (document) son dividos en campos de texto (fields) y se genera un índice sobre estos campos de texto. La indexación es el componente clave de Lucene, lo que le permite realizar búsquedas rápidamente independientemente del formato del archivo, ya sean PDFs, documentos HTML, etc. Oozie Como pudo haber notado, existen varios procesos que son ejecutados en distintos momentos los cuales necesitan ser orquestados para satisfacer las necesidades de tan complejo análisis de información. Oozie es un proyecto de código abierto que simplifica los flujos de trabajo y la coordinación entre cada uno de los procesos. Permite que el usuario pueda definir acciones y las dependencias entre dichas acciones. Un flujo de trabajo en Oozie es definido mediante un grafo acíclico llamado Directed Acyclical Graph (DAG), y es acíclico puesto que no permite ciclos en el grafo; es decir, solo hay un punto de entrada y de salida y todas las tareas y dependencias parten del punto inicial al punto final sin puntos de retorno. Un ejemplo de un flujo de trabajo en Oozie se representa de la siguiente manera: Pig Inicialmente desarrollado por Yahoo para permitir a los usuarios de Hadoop enfocarse más en analizar todos los conjuntos de datos y dedicar menos tiempo en construir los programas MapReduce. Tal como su nombre lo indica al igual que cualquier cerdo que come cualquier cosa, el lenguaje PigLatin fue diseñado para manejar cualquier tipo de dato y Pig es el ambiente de ejecución donde estos programas son ejecutados, de manera muy similar a la relación entre la máquina virtual de Java (JVM) y una aplicación Java. ZooKeeper ZooKeeper es otro proyecto de código abierto de Apache que provee de una infraestructura centralizada y de servicios que pueden ser utilizados por aplicaciones para asegurarse de que los procesos a través de un cluster sean serializados o sincronizados. Internamente en ZooKeeper una aplicación puede crear un archivo que se persiste en memoria en los servidores ZooKeeper llamado znode.Este archivo znode puede ser actualizado por cualquier nodo en el cluster, y cualquier nodo puede registrar que sea informado de los cambios ocurridos en ese znode; es decir, un servidor puede ser configurado para "vigilar" un znode en particular. De este modo, las aplicaciones pueden sincronizar sus procesos a través de un cluster distribuido actualizando su estatus en cada znode, el cual informará al resto del cluster sobre el estatus correspondiente de algún nodo en específico. Como podrá observar, más allá de Hadoop, una plataforma de Big Data consiste de todo un ecosistema de proyectos que en conjunto permiten simplificar, administrar, coordinar y analizar grandes volúmenes de información. Volver arriba 5. Big Data y el campo de investigación Los científicos e investigadores han analizado datos desde ya hace mucho tiempo, lo que ahora representa el gran reto es la escala en la que estos son generados. Esta explosión de "grandes datos" está transformando la manera en que se conduce una investigación adquiriendo habilidades en el uso de Big Data para resolver problemas complejos relacionados con el descubrimiento científico, investigación ambiental y biomédica, educación, salud, seguridad nacional, entre otros. De entre los proyectos que se pueden mencionar donde se ha llevado a cabo el uso de una solución de Big Data se encuentran: •El Language, Interaction and Computation Laboratory (CLIC) en conjunto con la Universidad de Trento en Italia, son un grupo de investigadores cuyo interés es el estudio de la comunicación verbal y no verbal tanto con métodos computacionales como cognitivos. •Lineberger Comprehensive Cancer Center - Bioinformatics Group utiliza Hadoop y HBase para analizar datos producidos por los investigadores de The Cancer Genome Atlas(TCGA) para soportar las investigaciones relacionadas con el cáncer. •El PSG College of Technology, India, analiza múltiples secuencias de proteínas para determinar los enlaces evolutivos y predecir estructuras moleculares. La naturaleza del algoritmo y el paralelismo computacional de Hadoop mejora la velocidad y exactitud de estas secuencias. •La Universidad Distrital Francisco Jose de Caldas utiliza Hadoop para apoyar su proyecto de investigación relacionado con el sistema de inteligencia territorial de la ciudad de Bogotá. •La Universidad de Maryland es una de las seis universidades que colaboran en la iniciativa académica de cómputo en la nube de IBM/Google. Sus investigaciones incluyen proyectos en la lingüistica computacional (machine translation), modelado del lenguaje, bioinformática, análisis de correo electrónico y procesamiento de imágenes. Para más referencias en el uso de Hadoop puede dirigirse a : http://wiki.apache.org/hadoop/PoweredBy El Instituto de Tecnología de la Universidad de Ontario (UOIT) junto con el Hospital de Toronto utilizan una plataforma de big data para análisis en tiempo real de IBM (IBM InfoSphere Streams), la cual permite monitorear bebés prematuros en las salas de neonatología para determinar cualquier cambio en la presión arterial, temperatura, alteraciones en los registros del electrocardiograma y electroencefalograma, etc., y así detectar hasta 24 horas antes aquellas condiciones que puedan ser una amenaza en la vida de los recién nacidos. Los laboratorios Pacific Northwest National Labs(PNNL) utilizan de igual manera IBM InfoSphere Streams para analizar eventos de medidores de su red eléctrica y en tiempo real verificar aquellas excepciones o fallas en los componentes de la red, logrando comunicar casi de manera inmediata a los consumidores sobre el problema para ayudarlos en administrar su consumo de energía eléctrica. La esclerosis múltiple es una enfermedad del sistema nervioso que afecta al cerebro y la médula espinal. La comunidad de investigación biomédica y la Universidad del Estado de Nueva York (SUNY) están aplicando análisis con big data para contribuir en la progresión de la investigación, diagnóstico, tratamiento, y quizás hasta la posible cura de la esclerosis múltiple. Con la capacidad de generar toda esta información valiosa de diferentes sistemas, las empresas y los gobiernos están lidiando con el problema de analizar los datos para dos propósitos importantes: ser capaces de detectar y responder a los acontecimientos actuales de una manera oportuna, y para poder utilizar las predicciones del aprendizaje histórico. Esta situación requiere del análisis tanto de datos en movimiento (datos actuales) como de datos en reposo (datos históricos), que son representados a diferentes y enormes volúmenes, variedades y velocidades. Volver arriba 6. Conclusiones La naturaleza de la información hoy es diferente a la información en el pasado. Debido a la abundacia de sensores, micrófonos, cámaras, escáneres médicos, imágenes, etc. en nuestras vidas, los datos generados a partir de estos elementos serán dentro de poco el segmento más grande de toda la información disponible. El uso de Big Data ha ayudado a los investigadores a descubrir cosas que les podrían haber tomado años en descubrir por si mismos sin el uso de estas herramientas, debido a la velocidad del análisis, es posible que el analista de datos pueda cambiar sus ideas basándose en el resultado obtenido y retrabajar el procedimiento una y otra vez hasta encontrar el verdadero valor al que se está tratando de llegar. Como se pudo notar en el presente artículo, implementar una solución alrededor de Big Data implica de la integración de diversos componentes y proyectos que en conjunto forman el ecosistema necesario para analizar grandes cantidades de datos. Sin una plataforma de Big Data se necesitaría que desarrollar adicionalmente código que permita administrar cada uno de esos componentes como por ejemplo: manejo de eventos, conectividad, alta disponibilidad, seguridad, optimización y desempeño, depuración, monitoreo, administración de las aplicaciones, SQL y scripts personalizados. IBM cuenta con una plataforma de Big Data basada en dos productos principales: IBM InfoSphere BigInsights™ e IBM InfoSphere Streams™, además de su reciente adquisición Vivisimo, los cuales están diseñados para resolver este tipo de problemas. Estas herramientas están construidas para ser ejecutadas en sistemas distribuidos a gran escala diseñados para tratar con grandes volúmenes de información, analizando tanto datos estructurados como no estructurados. Dentro de la plataforma de IBM existen más de 100 aplicaciones de ejemplo recolectadas del trabajo que se ha realizado internamente en la empresa para casos de uso e industrias específicas. Estos aplicativos están implementados dentro de la solución de manera que las organizaciones puedan dedicar su tiempo a analizar y no a implementar.

29
5
V
Vivir en Londres de forma económica es posible
InfoporAnónimo4/12/2014

Vivir en Londres de forma económica es posible Londres es un país con muchas oportunidades a nivel laboral y profesional para las personas que deciden emigrar a este país. Sin embargo, el costo de vivir en Londres puede resultar un poco elevado en este país, aunque sí es posible la vida en Londres de una manera cómoda siguiendo algunas recomendaciones básicas. Aunque los lugares más baratos para residir dentro de Londres, se encuentran en las zonas más alejadas del centro, específicamente en las zonas 4 a la 6, sería importante considerar que mientras más lejano del centro se encuentre el domicilio, más dinero se invertirá en transporte, por lo que habrá que tomar en cuenta si es preferible pagar un poco más por un apartamento más cercano al centro, donde se pueda tener mejor acceso a la ciudad. Si se desea un lugar en el centro lo preferible es buscar apartamentos en las zonas 1 y 2 o las partes más próximas de la zona 3, las cuales darán la facilidad de acceder a cualquier lugar en poco tiempo y a un costo más económico en materia de transporte. Aunque estos lugares pueden resultar un poco más elevados en precio, sobre todo en la zona 1, la cercanía a todos los puntos de la ciudad es un factor que vale el precio del apartamento. Si eres nuevo en el país, será mejor que consideres primero alojarte de forma temporal, por unas cuantas semanas, en un apartamento en cualquiera de las dos primeras zonas, de ese modo contarás con tiempo suficiente para buscar un alojamiento permanente y poder observar los apartamentos antes de decidirte por alguno y firmar un contrato. Dentro de las zonas 1 y 2, perfectas para vivir en Londres, se pueden encontrar diversos tipos de apartamentos, desde pisos compartidos con precios muy cómodos, hasta apartamentos individuales a un precio un poco mayor, pero que sin embargo, ofrecen todas las comodidades posibles al inquilino. Dependiendo del precio que se desee pagar, será posible encontrar apartamentos totalmente equipados, que permiten a la persona ahorrar mucho en la compra del mobiliario básico. Aunque el costo de vivir en Londres pueda parecer elevado, existen gran cantidad de opciones, de las que se deberá considerar siempre la que resulte más adecuada para la persona en factores como cercanía al lugar de trabajo, comodidad y acceso a servicios básicos y de ocio a un costo más accesible. Alojamientos en Londres, pisos compartidos y hostales

0
24
M
My Baby’s Beat aplicación para oír los latidos de tu beb
InfoporAnónimo4/25/2014

¿Alguna vez te has imaginado ser capaz de oír el latido de tu bebé todavía en proceso de gestación, en tu casa, a cualquier momento que te gustaría y todavía ser capaz de mostrárselo a amigos, padres, tíos y abuelos futuros? My Baby’s Beat My Baby’s Beat es una aplicación, dirigida a padres, para grabar el latido del bebé durante el embarazo. Especialistas aseguran que desde el segundo trimestre de la gestación, los bebés son capaces de escuchar y reconocer la voz de madre. Esta conexión es importante y saludable. Para ayudar a los padres aún más en contacto con su bebé, incluso antes del nacimiento, el mercado de aplicaciones ha desarrollado una aplicación fácil de usar, que amplifica y registra el sonido de los latidos del bebé. App & seguridad Los desarrolladores recomiendan el uso de la aplicación de la trigésima semana de embarazo, cuando el latido del corazón es más fuerte, sin embargo hay algunas madres que pueden utilizarlo antes de este período. Después de descargarlo en tu smartphone, usando sólo un auricular sin un micrófono, acuéstate con el vientre hacia arriba, coloca el dispositivo en modo “avión” (para que no haya ningún tipo de comunicación con las señales de Internet o de telefonía), aprieta el botón “home” y toca en el lugar donde está el micrófono en la parte inferior del abdomen. Además de escuchar en tiempo real, puedes registrar el latido del bebé y tener ese recuerdo para siempre. Es posible escuchar el corazón de la madre y el del bebé. Para escuchar los latidos del corazón, presiona suavemente en el micrófono del dispositivo por debajo de la mama izquierda. Cabe recordar que como el bebé se mueve con frecuencia, es posible que tome un tiempo para que lata en el lugar donde pueda escuchar a su corazón, pero no te desanimes. El sonido que es recogido cerca se asemeja a la de cardiotocografias. No se recomienda el uso de esta aplicación sin antes hablar con tu médico. Pros Muy fácil de usar Posibilidad de grabar los latidos del corazón Aumenta el vínculo madre-hijo Contras Sólo en inglés Descargar aplicación desde

0
0
¿Cómo instalar las actualizaciones de PS4 sin internet?
¿Cómo instalar las actualizaciones de PS4 sin internet?
InfoporAnónimo4/26/2014

La PS4 requiere siempre estar actualizada, sin embargo, cuando por determinadas condiciones no podemos acceder a internet desde la misma, puede ser un problema. Aquí explicaremos como resolverlo con una memoria USB y un PC. Actualizaciones de PS4 sin internet Obtener suficiente memoria USB. Debe tener al menos 800GB de espacio libre, y ser formateada con una configuración FAT32. Insertar el USB en tu PC. Luego crea la carpeta PS4, y una subcarpeta denominada “UPDATE”. Recordemos que deben tener los mismos nombres que se utilizan en la consola para que sean reconocidas por el sistema. Descargar la actualización. La fila generalmente suele estar denominada como “PS4UPDATE.PUP“, y debe ser la única que vamos a colocar en nuestra subcarpeta “UPDATE”. Sacar el USB de nuestra PC. Haga click en el icon “Safely Remove Hardware” y saque la memoria USB de su computadora. Apague la PS4. Inserte la memoria USB en la PS4. Enciéndala en MODO SEGURO. Para eso, mantenga presionado el botón de encendido durante 7 segundos. Ingrese al menú “UPDATE SYSTEM SOFTWARE”. Y siga las instrucciones para completar la instalación. Desde Tecnopsi esperamos que os haya sido útil este tutorial para poder actualizar su PS4 sin acceso a Internet. En muchas ocasiones, nos encontramos sin conexión a la red y estos consejos os serán muy útiles para poder tener al día vuestra preciada PS4. Fuente: Instalar update PS4 sin Internet

0
8
Servidores privado virtuales streaming
Servidores privado virtuales streaming
InfoporAnónimo4/26/2014

El streaming se ha convertido en uno de los elementos más utilizados alrededor de Internet para transmitir ideas hacia un número cada día más creciente de usuarios que buscan informarse y conocer de un tema de manera más visual o por medio de audio. Debemos de comprender que las dos funciones básicas de un servidor streaming es transmitir video y audio, siendo la transmisión de programas o conferencias por video en tiempo real, la manera más representativa de hacer streaming de video, mientras que las radios online se convierten en las abanderadas del streaming de audio. VPS streaming Un servidor privado virtual de streaming es en realidad un servidor VPS enfocado en transmitir streaming de audio y video a los usuarios tanto en tiempo real como de manera alterna. Uno de los programas más comunes para este tipo de servidores es CentovaCast el cual nos permite realizar un gestión completa de nuestros recursos enfocada a la área que deseemos. Cabe resaltar que este tipo de servidores por la potencia de sus procesadores como el Dell PowerEdge R200 y HP ProLiant DL 180 que son considerados uno de los mejores del momento, no menos importante resulta la posibilidad de disponer de un plan de servidor privado virtual streaming que os permitiese una ilimitada cantidad de uso de banda ancha que es el factor determinante para transmitir streaming. Actualmente existe un número más creciente de empresas que están ofreciendo este servicio debido como ya dijimos antes al aumento del número de usuarios que requieren este recurso. Fuente: VPS streaming

0
0
¿
¿Qué es el page rank o rankin web?
InfoporAnónimo4/26/2014

¿Qué es el page rank o rankin web? PageRank (PR) es un valor en internet que es representado de forma numérica. Google considera que cuando un sitio web coloca un link hacia otra, es como si fuera un voto para esta última. Cuantos más links se tenga hacia una página web, mayor será considerada su importancia ante Google. Aparte de la importancia de la página que pone el lik o da su voto también determina el peso del voto. De esta forma Google se encarga de calcular la importancia que tiene un sitio web, pero no hay que olvidar que también toma en cuenta la importancia que tiene la página donde está colocado el link que para este ejemplo cuenta como un voto. El PageRank es es un dato importante, porque es uno de los factores que ayudan a determinar el posicionamiento web que va tener un sitio cuando se realiza una búsqueda. Cabe aclarar que hay otros factores que Google utiliza, sin embargo, el pagerank es uno de los más importantes. Hay que tomar en cuenta que Google no toma en cuenta todos los links, por ejemplo, Google no toma en cuenta los enlaces que vienen de páginas dedicadas a colocar muchos enlaces (conocidas como granjas de enlaces). Si un sitio web tiene PageRank 0, generalmente es una web penalizada, y podría ser poco inteligente colocar un link hacia ella, aunque sitios nuevos empiezan tambien con el mismo page rank. Como ejemplo de esto tomaré al sitio Zonambulos que cuenta con un pagerak de 2, esto se logro gracias a los enlaces que tiene a su sitio, para averiguar el pagerank puedes poner en google el termino pagerank y saldrán varias herramientas que te ayudarán a saber el pagerank de las páginas que desees.

0
0
C
Como incrementar la velocidad de paginas web
InfoporAnónimo4/26/2014

Hola amigos taringueros, desde hace algún tiempo me he dedicado a crear sitios web ya sea desarrollándolos desde cero o usando plataformas como wordpress y blogger. Vivimos en un mundo en lo que todo queremos que sea rápido, por ejemplo, si le das click a un link quieres que la página web cargue rápido y eso sería lo ideal, sin embargo, no en todos los casos sucede así y es por ello que me anime a escribirles este post que espero les sirva a quienes se dedican a desarrollar sitios web. Factores que determinan el tiempo de carga de un sitio web. Google, ha comenzado a valorar el tiempo de carga de los sitios web, esto ha sido valorado como un factor SEO (earch Engine Optimization, lo que en español sería optimización para los motores de búsqueda). Hosting Sin temor a equivocarme, el hosting es el principal factor. Debemos de valorar donde está ubicado el servidor, la latencia del servidor, el número de saltos (más conocido como tracert) hasta llegar al mismo, el tiempo de respuesta, velocidad del disco duro del servidor, los recursos con que cuenta el servidor como la RAM, procesadores, etc., tipo de tarjeta de red, sistema operativo del servidor, ancho de banda asignado al servidor, entre otras cosas. Un hosting de calidad es necesario para que tu sitio cargue de forma rápida, si es posible hay qu tratar de conseguir un hosting que tenga sus servidores en el mismo país al que va dirigido el sitio web con características suficientes para tu sitio y de ser posible que sea un servidor dedicado (un detalle muy importante). Red No es lo mismo la red de donde se conecta nuestros clientes que la de nuestro servidor. es recomendable que tu centro de dats tenga contratado una red de calidad, ya sea por fiabilidad como por velocidad. En algunas ocasiones se redirecciona a otros nodos por averías en la red o mantenimiento y pasamos de contar con un tracert de 8 saltos a tener uno que es de 13 saltos, cuanto menos suceda esto es mejor. El operador de ADSL con que trabajan los clientes también influye en la velocidad en que cargará nuestro sitio web, esto último es algo en lo que no podemos influir. Programación Otra cosa muy importante es la programación. Un sitio web bien programado y optimizado influye bastante en la carga del sitio, esto hay que cuidarlo bastante también. Una vez conocido estos detalles puedes utilizar algunas herramientas para verificar la carga de tu sitio web, entre las que podemos usar están: Whichloadsfaster, Loads.in, Pingdom Tools, entre otras. un ejemplo de esto puede ser el sitio Zonambulos que es un sitio que veo que carga muy rápido, obviamente el dueño del sitio se ha fijado en todos esos detalles, de igual forma podría mencionar otros sitios pero no es el fin de este post. Espero que este post les sea de utilidad a todos los que están por crear un sitio web.

0
6
...
PosteameloArchivo Histórico de Taringa! (2004-2017). Preservando la inteligencia colectiva de la internet hispanohablante.

CONTACTO

18 de Septiembre 455, Casilla 52

Chillán, Región de Ñuble, Chile

Solo correo postal

© 2026 Posteamelo.com. No afiliado con Taringa! ni sus sucesores.

Contenido preservado con fines históricos y culturales.