ManiacBrain
Usuario (México)
"Si se limpiaran las puertas de la percepción todo se mostraría al hombre tal como es, infinito". (William Blake) Uno de los objetivos de la antropología -por no decir el más importante- es recorrer la "distancia" que nos separa de otras culturas, permitiendo percibir, comprender y respetar al "otro". En este viaje el antropólogo (que no es un coleccionista de curiosidades etnológicas) mediante la observación participante y la encuesta oral trata de encontrar la lógica oculta que subyace detrás de las prácticas culturales "extrañas" que estudia. En última instancia el estudio de los otros, según los esposos Keesing, es "el estudio de nosotros mismos, como reflejados en el espejo de los modos de vida muy diferentes del nuestro propio". Carlos Castaneda, para completar sus estudios de antropología en California, decide estudiar la cultura de los indios yaquis de Sonora y lo que empieza siendo un trabajo etnográfico de campo acaba convirtiéndose en un relato de una "conversión" de la asunción por parte de una mente científica de los postulados espirituales y mágicos objeto de la investigación. Juan Matus, don Juan, el chamán yaqui que Castaneda utiliza como informador, decide "iniciar" al antropólogo en la senda de los brujos, en los misterios del chamanismo y en el uso sacramental y ritual de las sustancias enteógenas provocadoras de lo que Huston Smith llama "percepción divina". Esta iniciación provocará una auténtica revolución cognitiva en Castaneda al comprobar que su mundo cotidiano no estaba regido por su percepción sino por la interpretación en clave cultural de su percepción. Don Juan decide convertir a Castaneda en un "hombre de conocimiento", alguien que ha vencido al miedo, a la claridad cegadora, al poder y a la vejez y camina hacia la iluminación, hacia el nivel más elevado posible del saber. En este proceso de aprendiz debe mantener una "intención rígida", una gran capacidad de esfuerzo y ser consciente en todo momento de que es un "guerrero", ya que "un hombre va al saber como a la guerra: bien despierto, con miedo, con respeto y con absoluta confianza". Un "hombre de conocimiento" no está solo, cuenta con un "aliado", un poder que engrandecerá su vida, lo aconsejará y le dará la fuerza necesaria para salvar todo tipo de obstáculos. Además un "aliado" es capaz de llevar a un hombre más allá de sus propios límites, revelándole cosas que ningún ser humano podría. A estos "aliados" se les puede encontrar en algunas plantas ricas en sustancias psicoactivas. Don Juan habla de la "hierba del diablo" (perteneciente al grupo de las plantas datura) y del "humito" (posiblemente el hongo psilocybe mexicana) como aliados tanto de su maestro como de él. Todo "aliado" tiene una regla, un concepto organizador inflexible que regula el proceso operativo de manejar una sustancia determinada. Si no se cumple la regla el proceso pierde toda su eficacia. Además esta regla debe validarse de forma pragmática y experimental a través de "encuentros con el aliado", usando adecuadamente las plantas a fin de vivir estados de realidad no ordinaria o estados especiales de realidad ordinaria. Estos contactos con "la realidad no ordinaria" de la existencia provocaron en Castaneda un derrumbe en su imagen de la realidad y de la lógica falsamente impecable que la sustentaba. Abrieron su mente hacia nuevas realidades aparejadas a todas las posibilidades perceptivas que encierra el cerebro humano, limitadas muchas veces por barreras culturales que tratan de restringir las potencialidades infinitas de la conciencia, determinando los modos de "ver" y los contenidos de "lo real". Escrito por: Gracia Sacromonte Si alguien desea el libro puede pedirmelo por mensaje.

Setas mágicas, obtuvieron su nombre por una razón. La psilocibina - la sustancia química activa en los llamados "hongos mágicos" - trabaja en la mente de maneras asombrosas para criar nuevos conocimientos y romper de la negatividad y la intransigencia. La psilocibina libera el cerebro de sus patrones rígidos y supuestos ego-conducido, y permite al usuario mirar el mundo - y él o ella - desde una perspectiva totalmente nueva. Muchas experiencias de hongos también son acompañados por las olas de buenos sentimientos y visiones psicodélicas de sonido y color. Una nueva investigación está ayudando a entender cómo trabaja la magiua de los hongos. Un estudio publicado el año pasado en la revista de la Sociedad Real encontró que la psilocibina realmente cambia marco organizativo del cerebro y permite que la información para pase de una sección a otra en las redes neuronales nuevas o infrautilizadas, sin pasar por los viejos caminos, trillados. Las nuevas conexiones no son un revoltijo desorganizado, sin embargo. "Una simple lectura de este resultado sería que el efecto de la psilocibina es relajar las restricciones en la función cerebral, atribuyendo la cognición una calidad más flexible, pero al mirar el nivel de borde, la imagen se vuelve más complejo," señala el informe. "El cerebro no se limita a ser un sistema aleatorio después de la inyección psilocibina, pero en cambio conserva algunas características de organización, aunque sea diferente del estado normal." "Encontramos que el estado psicodélico se asocia con un modo menos restringido y más intercomunicativa de la función cerebral", concluye el estudio, "lo cual es consistente con las descripciones de la naturaleza de la conciencia en el estado psicodélico." Estos resultados se basan en otras pruebas acerca de cómo la psilocibina puede recablear el cerebro. Un anterior estudio en el Imperial College de Londres mostró que la actividad cerebral disminuida en ciertas áreas cuando los sujetos tomaron la sustancia, sobre todo en la parte del cerebro responsable de un sentido del yo. Mientras tanto, un estudio de seguimiento mostró que más actividad tuvo lugar en el hipocampo y la corteza cingulada anterior, las áreas asociadas con la emoción y la memoria. El resultado fue un patrón cerebral similar a alguien que está soñando. "Me fascinó ver similitudes entre el patrón de actividad cerebral en un estado psicodélico y el patrón de actividad cerebral durante el sueño el sueño", el investigador principal, Robin Carhart-Harris dijo en un comunicado. "La gente a menudo describen tomar psilocibina como la producción de un estado de ensueño y nuestros hallazgos han, por primera vez, a condición de una representación física de la experiencia en el cerebro." Las nuevas vías ayudan a explicar por qué la psilocibina es útil en la lucha contra los trastornos mentales como la depresión y el trastorno de estrés postraumático. Con la construcción de nuevas carreteras en todo el cerebro, la química permite que las personas se dan la pierden sus viejas suposiciones y reacciones de estímulo-respuesta. En efecto, permite restablecer su cerebro. "Las personas que se encuentren en el pensamiento depresivo, sus cerebros están Overconnected," el investigador David Nutt dijo Psychology Today. "Creemos que la amortiguación de abajo de ese circuito permite a la gente a escapar de estar encadenado a ese proceso de pensamiento." El impacto es de larga duración, también. Un estudio de la Universidad Johns Hopkins encontró que la mayoría de los sujetos que tomaron la psilocibina tenía cambios de personalidad que se prolongó durante más de un año. Casi todos los participantes en otro estudio psilocibina Hopkins dijeron que la experiencia fue una de las más significativas de sus vidas. "No parece ser una herramienta increíblemente interesante para el desbloqueo de estos misterios de la conciencia humana", Roland Griffiths, investigador de la Universidad Johns Hopkins, que ha realizado una amplia labor con psilocibina, dijo en una entrevista con la Asociación Multidisciplinaria para Estudios Psicodélicos. "La característica fundamental de la experiencia mística es este fuerte sentido de la interconexión de todas las cosas, donde hay una creciente sensación de no sólo la auto-confianza y claridad, sino de responsabilidad comunal - de altruismo y la justicia social - una sensación sentida del oro Regla: para hacer a los demás como te gustaría que te hicieran a ti ... La comprensión de la naturaleza de estos efectos y sus consecuencias, puede ser clave para la supervivencia de nuestra especie ".
Los algoritmos de planificación se encargan de asegurar que un proceso no monopoliza el procesador. Un proceso es un programa que está en ejecución. Este proceso puede estar en 3 estados distintos “Listo” “Bloqueado” y “En Ejecución”. Los procesos son almacenados en una lista junto con la información que indica en qué estado está el proceso, el tiempo que ha usado el CPU, etc. Estos algoritmos surgen debido a la necesidad de poder organizar los procesos de una manera eficiente para el procesador. 1. FCFS “Firts-Come, First-Served” (Támbien conocido como FIFO (First In, First Out, Primero en llegar, Primero en salir)) En esta política de planificación, el procesador ejecuta cada proceso hasta que termina, por tanto, los procesos que en cola de procesos preparados permanecerán encolados en el orden en que lleguen hasta que les toque su ejecución. Este método se conoce también como FIFO (fist input, first output, Primero en llegar primero en salir). Se trata de una política muy simple y sencilla de llevar a la práctica, pero muy pobre en cuanto a su comportamiento. La cantidad de tiempo de espera de cada proceso depende del número de procesos que se encuentren en la cola en el momento de su petición de ejecución y del tiempo que cada uno de ellos tenga en uso al procesador, y es independiente de las necesidades del propio proceso. Sus características son: – No apropiativa. – Es justa, aunque los procesos largos hacen esperar mucho a los cortos. – Predecible. – El tiempo medio de servicio es muy variable en función del número de procesos y su duración. Ejemplo : Proceso A → Tiempo ejecución → Tiempo llegada → Tiempo finaliza → Tiempo retorno → Tiempo espera . En el caso de que los procesos de mayor tiempo de duración llegasen los primeros, el tiempo medio de espera sería mucho mayor. Podemos llegar a la conclusión de que este no es un algoritmo eficiente. Conclusión: Este algoritmo esta bien lo único que que los procesos largos hacen esperar mucho a los cortos. 2. SJF “Shortest Job First” (El trabajo mas corto primero) En este algoritmo , da bastante prioridad a los procesos más cortos a la hora de ejecución y los coloca en la cola. Ejemplo: Una cola de personas en El supermercado, delante de la caja , la persona que menos compra lleva esa pasa primero. Conclusión En resumen, este algoritmo selecciona al proceso con el próximo tiempo ejecución más corto. en proceso corto saltará a la cabeza de la cola. Ejecución de un proceso consiste en ciclos de ejecución de CP y ciclos de espera por E/S. El algoritmo selecciona aquel proceso cuyo próximo ciclo de ejecución de CP sea menor. El problema está en conocer dichos valores, pero podemos predecirlos usando la información de los ciclos anteriores ejecutados 3. SRTF “Short Remaining Time First” Es similar al SJF, con la diferencia de que si un nuevo proceso pasa a listo se activa el dispatcher para ver si es más corto que lo que queda por ejecutar del proceso en ejecución. Si es así, el proceso en ejecución pasa a listo y su tiempo de estimación se decremento con el tiempo que ha estado ejecutándose. Los procesos llegan a la cola y solicitan un intervalo de CPU – Si dicho intervalo es inferior al que le falta al proceso en ejecución para abandonar la CPU, el nuevo proceso pasa a la CPU y el que se ejecutaba a la cola de preparados. Conclusión: El intervalo de CPU es difícil de predecir – Posibilidad de inanición: los trabajos largos no se ejecutarán mientras hayan trabajos cortos. 4. Round Robin Es un método para seleccionar todos los elementos en un grupo de manera equitativa y en un orden racional, normalmente comenzando por el primer elemento de la lista hasta llegar al último y empezando de nuevo desde el primer elemento. Round Robin es uno de los algoritmos de planificación de procesos más complejos y difíciles, dentro de un sistema operativo asigna a cada proceso una porción de tiempo equitativa y ordenada, tratando a todos los procesos con la misma prioridad. Se define un intervalo de tiempo denominado cuanto, cuya duración varía según el sistema. La cola de procesos se estructura como una cola circular. El planificado la recorre asignando un cuanto de tiempo a cada proceso. La organización de la cola es FIFO. Conclusión: Cada proceso tiene asignado un intervalo de tiempo de ejecución, llamado cuantum o cuanto. Si el proceso agota su cuantum de tiempo, se elige a otro proceso para ocupar la CPU. Si el proceso se bloquea o termina antes de agotar su cuantum también se alterna el uso de la CPU. El round robín es muy fácil de implementar. Todo lo que necesita el planificado es mantener una lista de los procesos listos.

Bajo la denominación de ayahuasca, o también yajé y natema, encontramos varios bebedizos chamánicos que se preparan en una zona muy amplia de Sudamérica, principalmente en la cuenca del Amazonas, en Brasil, Perú, Colombia y el Ecuador. El nexo de unión entre todas estas pócimas es la planta Banisteriopsis caapi, una liana que contiene harmala y harmalina, compuestos que en el organismo humano actúan como inhibidores de la mono-aminoxidasa (MAO). Curiosamente por sí misma esta planta no es psicoactiva, y lo habitual es que sirva de base a numerosos preparados a los que se añaden varios tipos de vegetales; básicamente pueden distinguirse tres grupos de agregados: plantas medicinales (dirigidas a realzar un aspecto u otro de la ingesta); estimulantes (pues la harmala o la harmalina tienen unos efectos un poco soporíferos por sí mismas); y enteógenos, que es el grupo que más nos interesa. Las plantas enteógenas más conocidas que se añaden a la ayahuasca son vegetales que contienen dimetiltriptamina (DMT), que es un poderoso enteógeno que está en la base de muchas otras sustancias psicoactivas, ya sean naturales o bien semisintéticas, como la LSD o la psilocibina de los hongos mágicos. Y aquí es dónde empieza la parte curiosa del asunto: la DMT no es activa a nivel oral, o sea, que si se la ingiere sin más, el sistema digestivo la metaboliza a tal velocidad que sus efectos no llegan a manifestarse. El descubrimiento trascendental de las tribus chamánicas de la amazonía fue el darse cuenta que al mezclar plantas como la Psychotria viridis, que contiene DMT, con la liana de la Banisteriopsis caapi se obtenían efectos enteógenos de gran potencia. Según los científicos esto es así gracias a las propiedades inhibidoras de la MAO de la harmala y la harmalina, que hacen que las enzimas del sistema digestivo no degraden la DMT, por lo que esta puede desplegar sus efectos enteógenos sin más problemas cuando se la toma en forma de una decocción de plantas (recientemente se ha comprobado que la DMT fumada también es psicoactiva, y de una intensidad aun mayor que preparada junto la liana de la ayahuasca). Descubrimiento occidental de la ayahuasca Existen documentos arqueológicos (o etnográficos, como prefieran), que remontan el conocimiento de la ayahuasca entre los pueblos amazónicos a miles de años atrás. El uso de la ayahuasca, o el mundo y la cultura que ella genera, cuenta con numerosos mitos sobre su origen, divinidades asociadas y acontecimientos sobre el origen de las tribus, algunos de las cuales fueron representadas de forma perenne en rocas y piedras que aun pueden ser admiradas en nuestros días. La irrupción de este brebaje secreto en los anales de los exploradores del mundo occidental no aconteció hasta 1851, cuando Richard Spruce, un famoso explorador inglés, viajó a Perú y allí se convirtió en el primer hombre blanco que prestó atención a esta liana que lentamente devino uno de los enteógenos más interesantes para el mundo occidental. Siete años más tarde Manuel Villavicencio, un funcionario ecuatoriano, se convirtió en el primer occidental en probar en carne y espíritu propios los efectos de este poderoso enteógeno amazónico, cuando fue invitado a participar en un ritual de ingesta de esta planta en el que vio “los más sobrecogedores paisajes, grandes ciudades, maravillosas torres, bellos parques y otras cosas magníficas”. Al ser la ayahuasca un preparado que parte como base de dos plantas, y al no poder cultivarse estas fácilmente en territorio europeo o en Norteamérica, pues necesitan de un clima claramente tropical, el bregabaje permaneció recogido tranquilamente en los poblados que lejos de los núcleos urbanos occidentales siguieron viviendo a salvo de inquisiciones y colonizaciones culturales. El primer paso en el redescubrimiento en pleno siglo veinte vino de la mano de uno de los personajes más inquietos y polémicos que la literatura americana ha traído al mundo: William Burroughs. Burroughs, alcohólico y heroinómano, pesimista nato y intelectual brillante, decidió emprender un viaje en 1953 a la jungla del amazonas en busca de este misterioso preparado que decían escondía los secretos del alma humana, buscando la “cura final”. Allí en Colombia, además de encontrar la ayahuasca y probarla (experiencias que quedaron para la posteridad en forma de cartas enviadas al poeta Allan Ginsberg y luego publicadas en un libro bajo el título de Las cartas del yajé), Burroughs se encontró también con Richard Evans Shultes, el que más tarde fuera llamado padre de la etnobotánica, un profesor de Harward que hallamos en los inicios del descubrimiento de muchos de los enteógenos hoy conocidos. Shultes, que había sido enviado por el Gobierno de EEUU para estudiar temas relacionados con el caucho, aprovechaba toda ocasión para conocer más acerca de los usos de este misterioso brebaje amazónico, de las gentes que lo utilizaban, formas de preparación, plantas relacionadas y formas de uso. De brebaje amazónico a enteógeno de Pangea De estos primeros contactos occidentales con la ayahuasca hasta hoy en día se han dado dos pasos fundamentales. Primero fueron las pertinentes visitas de los antropólogos a los lugares de uso de este mágico preparado enteogénico, con las consiguientes descripciones y tímidas publicaciones al efecto. Realmente, como hemos comentado, llevar la ayahuasca de la jungla a la civilización era más que complicado, por lo que hasta el momento el interés occidental sobre el asunto se había de contentar con estas lecturas, además que algún que otro viaje organizado a la selva para que el chamán de turno preparara una sesión para el grupo de turistas interesados. El segundo paso lo dio Jonathan Ott durante la gestación de su mítico libro Pharmacotheon, drogas enteógenas, sus fuentes vegetales y su historia. Esta biblia de las plantas enteógenas contiene un capítulo dedicado a cada familia de vegetales, o mejor dicho, un repaso a cada sustancia psicoactiva partiendo de la familia a la que pertenece –según la catalogación científica occidental- su principio activo. Llegado al capítulo de la ayahuasca, Jonathan se dio cuenta de algo que después ha resultado de sumo interés y que ha convertido la ayahuasca, o sus análogos -como él los bautizó- en un enteógeno al alcance de muchas personas, como ya hicieron años atrás las técnicas de cultivo de los hongos enteógenos (básicamente el género psilocybe). Pues lo dicho. Jonathan, al elaborar el capítulo sobre los IMAOS y la DMT se dio cuenta de que existían infinidad de plantas que crecían por todos los rincones del globo terráqueo que contenían estos principios activos, y que por tanto pócimas análogas a la ayahuasca original compuesta por las plantas Banisteriopsis caapi y la Psychotria Viridis se podían hacer con infinidad de vegetales (aproximadamente unos sesenta por cada grupo, que en combinatoria matemática da la posibilidad de 4.000 formas de preparar un brebaje psicoactivo a base de juntar diferentes fuentes vegetales). Esta riqueza de plantas análogas era tal que podía dar pie a un libro por sí mismo; esto, además de descargar un poco de páginas el voluminoso Pharmacotheon que tenía entre manos, tenía una ventaja inmensa: un libro dedicado a este tema, sobre el que nadie había prestado la atención antes, abría la posibilidad a un campo de investigación virgen que en un futuro inmediato mostró sus enormes posibilidades. El nuevo libro, que vería la luz en 1994, dos años después que su hermano mayor, lleva el título de Análogos de la ayahuasca, un enteógeno de Pangea. Análogos en cuanto a que propone diversas plantas que permitían obtener preparados de efectos análogos a la ayahuasca original, y lo de un enteógeno de Pangea (pan en griego significa totalidad, y gea hace referencia a la Madre Tierra), porque la ayahuasca dejaba de ser un brebaje de uso exclusivo de las gentes que viven en la selva amazónica para pasar a estar disponible a cualquier persona interesada en la enteogenia en casi cualquier parte del Planeta Tierra. Ott, además, proyectó una pequeña broma acerca de este nuevo descubrimiento: la posibilidad de obtener ayahuasca sin necesidad de desplazarse al Amazonas evitaba el incordio y contaminación cultural de unas gentes que han logrado preservar su cultura de la devoradora civilización occidental (a la vez que preservan un conocimiento milenario acerca del uso de estos vegetales, algo que está a punto de perderse como apuntó R.E. Shultes). Jonathan Ott y los análogos de la ayahuasca El libro de Jonathan es un tratado científico sobre este enteógeno a la vez que un poema en honor a este extraordinaria mezcla de compuestos farmacológicos que el mundo arcaico descubrió y legó a la hiperatrofiada racionalidad occidental. Como el mismo Ott dilucida en la introducción al libro, el conocimiento de los enteógenos puede suponer un salvavidas ecológico a la vez que cultural para una civilización occidental que se propuso conocer y conquistar el mundo tan sólo a base de ver materia en él. Expuesto en un bello lenguaje y lleno de referencias bibliográficas, como es costumbre en los libros de este autor, sus cinco capítulos hacen un repaso al descubrimiento de la ayahuasca por el hombre blanco; a la riqueza botánica de la composición de los diferentes brebajes, a la farmacología de sus principios activos; a los vegetales que sirven para preparar análogos de la ayahuasca sin haber de recurrir a los ingredientes originales; y en el capítulo final propone que estos análogos se convertirán en el vehículo con el que la ayahuasca, o la enteogenia, abrirá nuevos surcos en el mundo moderno. Ofrecemos a continuación unas tablas con plantas que sirven para la preparación de análogos de la ayahuasca. TABLA I (fuentes de batacarbolinas: harmala y harmalina) Banisteriopsis caapi Peganum harmala Acacia baileyana Acacia complanata Passiflora caerulea Passiflora incarnata Virola cuspidata Appocynum cannabinum Amsonia tabernaemontana Hippophae rhamnoudes TABLA II (fuentes de dimetiltriptamina: DMT) Psychotria viridis Phalaris acuatica Phalaris arundinacea Phalaris tuberosa Acacia phlebophylla Acacia simplex Acacia maidenii Acacia senegal Anadenanthera colubrina Justicia pectoralis Amanita citrina Desmanthus illinoensis Desmodium gyrans Desmodium triflorum Mimosa hostilis Mimosa tenuiflora Virola theiodora
La unidad central de procesamiento o CPU es de los componentes mas importantes que podemos hallar en casi todas las piezas de alta tecnología modernas. Sin embargo, la mayoría tenemos nociones mas bien pobres de lo que hace y cómo lo hacen, cómo se han convertido en los complejos milagros tecnológicos que son, y cuales son los principales tipos modernos. Aunque no se puede decir que hay una única parte mas importante dentro de un ordenador, puesto que mas de una es totalmente vital para su funcionamiento, el CPU o procesador puede ser considerada la piedra angular de estas máquinas. Y es que es precisamente es este componente el encargado de computar, ordenar o procesar, conceptos que definen los ordenadores o computadores modernos. Actualmente se trata de complejas piezas de tecnología desarrolladas con arquitecturas microscópicas, la mayoría de ellos viene en forma de un chip único, bastante pequeño, de allí que se les diera el nombre de microprocesadores hace ya algunas décadas. Un poco de historia Hubo un tiempo en que los procesadores eran constituidos por enormes armatostes que bien podrían llenar una habitación. Estos primeros pasos de la ingeniería de computación estaban principalmente constituidos por tubos de vació, que aunque para la época eran sustancialmente mas potentes a las alternativas formadas por relés electromecánicos, hoy los 4 MHz que como máximo solían alcanzar nos parecerían de risa. Con la llegada de los transistores en los años 50 y los 60 los CPU comenzaron a hacerse, ademas de mas pequeños y potentes, también mucho mas confiables, puesto que las máquinas formadas por tubos de vacío tendían a presentar una falla promedio cada 8 horas. Sin embargo, cuando hablamos de hacerse mas pequeños no nos referimos a que cabían en la palma de la mano. Simplemente pasaron de ser tamaño habitación a tamaño nevera. Y aquellos todavía grandes procesadores estaban constituidos por decenas de placas de circuitos impresos que estaban conectadas entre sí para dar vida a una sola CPU. Luego de eso vino la invención del circuito integrado, que básicamente unía todo en una única placa de circuitos impresos u oblea, lo que supuso el primer paso para la consecución del microprocesador moderno. Los primeros circuitos integrados eran muy básicos, puesto que solo podían agrupar un puñado de transistores, pero con el paso de los años, y el crecimiento exponencial de la cantidad de transistores que podían ser añadidos en un circuito integrado, para mediados de los años sesenta ya teníamos los primeros procesadores complejos constituidos por una única oblea. El primer microprocesador como tal sería introducido al mercado ya para 1971, se trataba del Intel 4004, y desde entonces lo demás es historia. Con la rápida evolución de estos pequeños chips, y su gran flexibilidad, han acaparado del todo el mercado del computo, siendo que salvo para aplicaciones muy puntuales que requieren Hardware muy especializado, son el núcleo de casi todos los tipos de ordenador moderno. Cómo funciona un Procesador Simplificando al extremo, y en términos didácticos, el funcionamiento de un procesador esta dado por cuatro fases. Estas fases no necesariamente están siempre separadas, sino que por norma general se solapan, y siempre ocurren en simultaneo aunque no necesariamente para una función en especifico. 1. Durante la primera fase el procesador se encarga de cargar el código desde la memoria. En otras palabras se leen los datos que deben ser procesados posteriormente. En esta primera fase se encuentra un problema común en la arquitectura de los procesadores, y es que hay un máximo de datos que pueden ser leídos por periodo de tiempo, y suelen ser inferiores a los que pueden ser procesados, por lo que hay una especie de efecto de pico de botella que en la actualidad se trata de solventar aplicando el multicanal y cachés. 2. En la segunda fase ocurre la primera etapa del procesamiento como tal. La información leída en la primera fase es analizada siguiendo un juego de instrucciones (próxima sección de este articulo). Así pues, dentro de los datos leídos habrá fracciones descriptivas para el set de instrucciones, que indicarán qué se debe hacer con el resto de la información. Por poner un ejemplo practico, hay código que indica que se deben sumar los datos de un paquete con los de otro paquete, siendo cada paquete información que describe un numero, con lo que se obtiene una operación aritmética común. 3. A continuación viene la fase que continua con el procesamiento franco, y se encarga de ejecutar las instrucciones tomadas decodificadas dentro de la segunda fase. En el ejemplo anterior, aquí sería dónde se realiza la suma y se obtiene el resultado. 4. Por último, el proceso concluye con una fase de escritura, dónde de nuevo la información es cargada, solo que esta vez desde el procesador hasta la memoria. En algunos casos la información puede ser cargada a memoria del procesador para ser reutilizada posteriormente, pero una vez terminado el procesamiento de labor en particular, los datos siempre terminan siendo escritos en la memoria principal, de donde luego pueden ser escritos a la unidad de almacenamiento o no, dependiendo de la aplicación. Principales arquitecturas modernas Como ya hemos dicho, la función del procesador es interpretar información. Los datos son cargados desde los diferentes sistemas de memoria a manera de código binario, y es ese código el que debe ser procesador para ser convertido en datos útiles por las aplicaciones. La mentada interpretación se realiza mediante un juego de instrucciones, que es lo que define la arquitectura del procesador. Actualmente se usan principalmente dos arquitecturas RISC y CISC. RISC da vida a los procesadores diseñados por la firma británica ARM, que con el auge de los dispositivos móviles ha visto un crecimiento importante. También PowerPC, la arquitectura que dio vida a ordenadores Apple, servidores y las consolas Xbox 360 y PlayStation 3, esta basada en RISC. CISC es la arquitectura utilizada en los procesadores X86 de Intel y X86-64 de AMD. Respecto a qué arquitectura es mejor, desde siempre se ha dicho que por ser mucho mas limpia y estar mucho mejor optimizada RISC sería el futuro de la computación. Sin embargo, Intel y AMD nunca han dado el brazo a torcer y han conseguido crear un ecosistema muy solido al rededor de sus procesadores, que aunque estar muy contaminados de elementos de retrocompatibilidad ya obsoletos, siempre se han mantenido a la altura de sus rivales. En general, por su flexibilidad y relativa facilidad de producción, por algunos años mas los CPU seguirán siendo las piezas centrales del computo moderno. Pero siempre hay que tener en cuenta que con el paso de los año han estado evolucionado tecnologías en paralelo que ayudan a descentralizar la carga y hoy mas que nunca los procesadores gráficos, mas potentes pero menos flexibles han comenzado a ganar casi tanta importancia como la unidad de procesamiento central.
Las dos firmas más importantes, fabricantes de procesadores, son Intel y AMD. Cada una de esas empresas adopta una determinada nomenclatura para otorgarle información al consumidor a partir del nombre del procesador. Aparentemente la nomenclatura de esos procesadores es un tanto confusa, pero con un poco de atención podemos identificar muchas de sus características. Intel En el caso de la prestigiosa compañía Intel, todo procesador Quad Core (que posee 4 núcleos) comienza con la letra Q, de Quad. Por ejemplo: Q9550, Q8400s, Q9300. Todo procesador Dual Core (que posee 2 núcleos) comienza con la letra Y. Por ejemplo: Y7500, Y6750, Y4700. La nomenclatura de los poderosos procesadores Core iX es dividida jerárquicamente de la siguiente forma Core i7: Procesadores de alto desempeño (y alto costo) Core i5: Procesadores de desempeño intermedio Core i3: Procesadores de desempeño básico Si el procesador fuera un Atom significa que fue hecho para netbooks (EeePCs) Si es un Xeon, significa que fue hecho para servidores. Si el procesador que vas a comprar en un Celeron, significa que este es un procesador de bajo desempeño y bajo costo, estaríamos hablando de una versión que carece de un buen procesador. Esos Celerones normalmente forman parte de las computadoras más económicas. Nomenclatura de AMD Todo procesador que termina con X2, X3 y X4 posee 2,3 y 4 núcleos, respectivamente. Por ejemplo: Athlon 64 X2 4400. Siempre se encontrara al lado del nombre de un procesador AMD una numeración. Esa numeración no significa la frecuencia (o velocidad) del procesador, sólo indica el modelo. Las versiones que poseen FX al final del nombre tienen el multiplicador liberado, siendo ideales para overclock. Un procesador denominado Sempron, es un procesador ultra básico. Con memoria cache y single core (único núcleo) ningún procesador Sempron es Dual Core. Con respecto a los procesadores Phenom, existen el Phenom y el Phenom II (el II es el mejor) y son procesadores de alto desempeño. Los procesadores Turion fueron hecho exclusivamente para notebooks. Un Opteron, es un procesador diseñado para servidores, así como el Xeon de Intel. ¿Cuáles son los mejores procesadores de cada fabricante? Al momento de comprar un procesador no se debe analizar solamente el clock, ya que es sólo una parte del equipo. Muchos vendedores pueden llegar a confundirnos cuando nos ofrecen procesadores si no estamos informados. Nos pueden ofrecer un procesador 3.2 asegurándonos que es mejor que un procesador 2.6, pudiendo ser el 2.6 un Dural Core y el 3.2 Celeron, siendo el Dural Core superior. Siempre analice el procesador que tenga el mayor número (siempre y cuando sean de la misma marca), en el caso de los Intel y de los AMD's más recientes (Dual, Quad Core y iX; Phenom II y Athlon II). Por ejemplo: P 8400, P8500, P8600 Cual el mejor? El que posee el mayor número. Phenom II X4 920 y Phenom II X4 955. Cual es el mejor? El de mayor número. Sólo hay que ser cuidadosos cuando se comparan procesadores de marcas distintas.

Efectivamente, hay veces que estrujas la piel de un cítrico y expele pequeños chorros de líquido que no es el zumo de la pulpa. Y es inflamable. Lo que ocurre es que las cáscaras de cítricos contienen altas cantidades de un compuesto (un aceite) llamado limoneno. Esta sustancia pertenece a la familia de los terpenos, que son compuestos formados fundamentalmente por carbono e hidrógeno, y que, como buenos hidrocarburos que son, arden con facilidad. La resina de las coníferas, por ejemplo, se usaba en los quinqués porque contiene terpenos. link: https://www.youtube.com/watch?v=r4wLe7shCRA

Cada tarea requiere un buen conjunto de herramientas. Tener herramientas adecuadas a mano ahorrar gran parte de nuestra energia y tiempo. En el mundo de la Seguridad Cibernética hay millones de herramientas que están disponibles en Internet ya sea como Freewares o como Sharewares. Si usted es investigador de seguridad, pentester o un administrador del sistema, es necesario tener presente en sus PC/portátiles estas herramientas para encontrar las vulnerabilidades. En base a una encuesta en línea se determinaron las diez mejores herramientas de hacking Esta es la lista que salio de la encuesta. 10. Wapiti: Wapiti es un escáner de vulnerabilidades para aplicaciones web, licenciado bajo la GPL v2 , que busca fallos XSS, inyecciones SQL y XPath, inclusiones de archivos (local y remota), ejecución de comandos, inyecciones LDAP, inyecciones CRLF, para que pongamos a prueba la seguridad de nuestras aplicaciones web y podamos corregirlas. 9. Ettercap: Ettercap es un interceptor/sniffer/registrador para LANs con switch. Soporta direcciones activas y pasivas de varios protocolos (incluso aquellos cifrados, como SSH y HTTPS). También hace posible la inyección de datos en una conexión establecida y filtrado al vuelo aun manteniendo la conexión sincronizada gracias a su poder para establecer un Ataque Man-in-the-middle(Spoofing). Muchos modos de sniffing fueron implementados para darnos un conjunto de herramientas poderoso y completo de sniffing. 8. Nessus Security Scanner remoto Nessus es un programa de escaneo de vulnerabilidades en diversos sistemas operativos. Consiste en un daemon, nessusd, que realiza el escaneo en el sistema objetivo, y nessus, el cliente (basado en consola o gráfico) que muestra el avance e informa sobre el estado de los escaneos. Desde consola nessus puede ser programado para hacer escaneos programados con cron. En operación normal, nessus' comienza escaneando los puertos con nmap o con su propio escaneador de puertos para buscar puertos abiertos y después intentar varios exploits para atacarlo. Las pruebas de vulnerabilidad, disponibles como una larga lista de plugins, son escritos en NASL (Nessus Attack Scripting Language, Lenguaje de Scripting de Ataque Nessus por sus siglas en inglés), un lenguaje scripting optimizado para interacciones personalizadas en redes. 7. Burp Suite: Una herramienta pentesting, Burp Suite tiene varias características que pueden ayudar al probador de penetración o hacker ético. Dos aplicaciones de uso común utilizados en esta herramienta incluyen la “Burp Suite Spider” que pueden enumerar y delinear las distintas páginas y los parámetros de un sitio web mediante el analisis de las Cookies, inicia conexiones con estas aplicaciones web, y el “Intruso”, lleva a cabo ataques automatizados en aplicaciones web. 6. THC Hydra: Aunque a menudo se considera como otra herramienta de contraseñas, el THC Hydra es muy popular y tiene un equipo de desarrollo muy activo y con experiencia. Esencialmente THC Hydra es una herramienta de red Conexión de Hacking rápido y estable que usará ataques de diccionario o de fuerza bruta para probar diferentes combinaciones de contraseñas de inicio de sesión y en contra de un registro en la página. Esta herramienta de hacking es compatible con una amplia serie de protocolos incluyendo correo (POP3, IMAP, etc.), bases de datos, LDAP (Lightweight Directory Access Protocol), SMB, VNC y SSH (Secure Shell, utilizado por VPN Softwares). 5.John The Ripper: John the Ripper es un programa de criptografía que aplica fuerza bruta para descifrar contraseñas. Es capaz de romper varios algoritmos de cifrado o hash, como DES, SHA-1 y otros.Es una herramienta de seguridad muy popular, ya que permite a los administradores de sistemas comprobar que las contraseñas de los usuarios son suficientemente buenas. John the Ripper es capaz de autodetectar el tipo de cifrado de entre muchos disponibles, y se puede personalizar su algoritmo de prueba de contraseñas. Eso ha hecho que sea uno de los más usados en este campo. 4. Angry IP Scanner: Angry IP Scanner, también conocido como ‘IPScan’ es una libre disposición (de código abierto y multiplataforma) escáner de red de hacking que es a la vez rápido y fácil de usar. El propósito principal de esta herramienta de hacking es escanear direcciones IP y puertos para encontrar las puertas abiertas y puertos. A tener en cuenta que Angry IP Scanner también tiene un montón de otros usos. Los usuarios comunes de esta herramienta de hacking incluyen administradores de red y los ingenieros de sistemas. 3. Caín y Abel: Cain & Abel es una herramienta de recuperación de contraseña que se utiliza sobre todo para los sistemas operativos de Microsoft. Esta herramienta de hacking permite al usuario la recuperación de diversos tipos de contraseñas de la red (la captura de algunos de los paquetes de datos), el agrietamiento de contraseñas encriptadas utilizando Diccionarios, fuerza bruta (Generación de hashes de palabras y luego la comparación de cifrado hash con la generada, este método requiere menos tiempo que el método de ataque de diccionario) y ataques de Criptoanálisis. Caín también puede grabar de VoIP (voz sobre protocolo IP, utilizado para realizar llamadas sobre el uso de Internet) conversaciones, decodificar contraseñas de hash devueltos, recuperar claves de redes inalámbricas y más. Puede romper varios tipos de hashes incluyendo NTLM , MD2, MD5, SHA-1, SHA-2 y muchos más. Estas funcionalidades hacen que Caín y Abel una de las mejores herramientas de recuperación de contraseñas. 2. Metasploit: Una herramienta para la explotación (Utilizando la debilidad de la red para hacer una “puerta trasera”) vulnerabilidades (puntos débiles) en la red. Esta herramienta no es ni libre ni fuente abierta. Pero cuando se trata de características que ofrece se merece el precio. El Proyecto Metasploit es un pentesting muy popular (pruebas de penetración) o una herramienta de hacking que es utilizado por los profesionales de la seguridad cibernética y los hackers éticos. Metasploit es esencialmente un proyecto de seguridad informática que proporciona información acerca de las vulnerabilidades de seguridad conocidas y ayuda a formular las pruebas de penetración y las pruebas de IDS. 1. Nmap: Red Mapper Abreviado como Nmap es una herramienta versátil para seguridad de la red, además de que es libre. Se utiliza en gran medida por los administradores de red para la detección de redes y la auditoría de seguridad. Los administradores de sistemas utilizan nmap de inventario de la red, determinando los puertos abiertos, horarios de actualización de servicio de gestión y monitoreo de host (Término utilizado para “un ordenador en una red”) o servicio el tiempo de actividad. La herramienta utiliza paquetes IP crudos en muchas formas creativas para determinar qué servicios están disponibles en la red, ¿qué servicios? (nombre de la aplicación y la versión) que ofrecen, qué tipo de protocolos se están utilizando para la prestación de los servicios, ¿Qué sistemas operativos? (y versiones OS y los posibles parches) y qué tipo y versión de filtros de paquetes/cortafuegos están siendo utilizados por el objetivo.

Estaba virgueando como un campeon,recordando viejos tiempois cuando baje ese video de Ares jajaja, me sentia satisfecho ya que mis amigos linces me pidieron el nombre de un video y con mucho gusto se los comparti para que pudieran hacer sus trabajos de la facu, checando los comentarios me aparece esto, de repente los comentarios se duplicaron, no se porque razon, seguramente una mala programacion, he aqui las pruebas..
