jueves, 26 de noviembre de 2009

Microprocesadores de PC

MICROPROCESADORES


HISTORIA






Sin embargo, para que esto llegue, la historia de los procesadores ha pasado por diferentes situaciones, siguiendo la lógica evolución de este mundo. Desde aquel primer procesador 4004 del año 1971 hasta el actual Pentium II del presente año ha llovido mucho en el campo de los procesadores. Tanto, que no estamos seguros si las cifras que se barajan en Intel se pueden, incluso, quedar cortas. Aquel primer procesador 4004, presentado en el mercado el día 15 de noviembre de 1971, poseía unas características únicas para su tiempo. Para empezar, la velocidad de reloj sobrepasaba por poco los 100 KHz (sí, habéis leído bien, kilohertzios), disponía de un ancho de bus de 4 bits y podía manejar un máximo de 640 bytes de memoria. Realmente una auténtica joya que para entonces podía realizar gran cantidad de tareas, pero que por desgracia no tiene punto de comparación con los actuales micros. Entre sus aplicaciones, podemos destacar su presencia en la calculadora Busicom, así como dotar de los primeros tintes de inteligencia a objetos inanimados.
Poco tiempo después, sin embargo, el 1 de abril de 1972, Intel anunciaba una versión mejorada de su procesador. Se trataba del 8008, que contaba como principal novedad con un bus de 8 bits, y la memoria direccionable se ampliaba a los 16 Kb. Además, llegaba a la cifra de los 3500 transistores, casi el doble que su predecesor, y se le puede considerar como el antecedente del procesador que serviría de corazón al primer ordenador personal. Justo dos años después, Intel anunciaba ese tan esperado primer ordenador personal, de nombre Altair, cuyo nombre proviene de un destino de la nave Enterprise en uno de los capítulos de la popular serie de televisión Star Trek la semana en la que se creó el ordenador. Este ordenador tenía un coste de entorno a los 400 dólares de la época, y el procesador suponía multiplicar por 10 el rendimiento del anterior, gracias a sus 2 MHz de velocidad (por primera vez se utiliza esta medida), con una memoria de 64 Kb. En unos meses, logró vender decenas de miles de unidades, en lo que suponía la aparición del primer ordenador que la gente podía comprar, y no ya simplemente utilizar.


La introducción de IBM
Sin embargo, como todos sabemos, el ordenador personal no pasó a ser tal hasta la aparición de IBM, el gigante azul, en el mercado. Algo que sucedió en dos ocasiones en los meses de junio de 1978 y de 1979. Fechas en las que respectivamente, hacían su aparición los microprocesadores 8086 y 8088, que pasaron a formar el denominado IBM PC, que vendió millones de unidades de ordenadores de sobremesa a lo largo y ancho del mundo. El éxito fue tal, que Intel fue nombrada por la revista "Fortune" como uno de los mejores negocios de los años setenta. De los dos procesadores, el más potente era el 8086, con un bus de 16 bits (por fin), velocidades de reloj de 5, 8 y 10 MHz, 29000 transistores usando la tecnología de 3 micras y hasta un máximo de 1 Mega de memoria direccionable. El rendimiento se había vuelto a multiplicar por 10 con respecto a su antecesor, lo que suponía un auténtico avance en lo que al mundo de la informática se refiere. En cuanto al procesador 8088, era exactamente igual a éste, salvo la diferencia de que poseía un bus de 8 bits en lugar de uno de 16, siendo más barato y obteniendo mejor respaldo en el mercado.
En el año 1982, concretamente el 1 de febrero, Intel daba un nuevo vuelco a la industria con la aparición de los primeros 80286. Como principal novedad, cabe destacar el hecho de que por fin se podía utilizar la denominada memoria virtual, que en el caso del 286 podía llegar hasta 1 Giga. También hay que contar con el hecho de que el tiempo pasado había permitido a los ingenieros de Intel investigar más a fondo en este campo, movidos sin duda por el gran éxito de ventas de los anteriores micros. Ello se tradujo en un bus de 16 bits, 134000 transistores usando una tecnología de 1.5 micras, un máximo de memoria direccionable de 16 Megas y unas velocidades de reloj de 8, 10 y 12 MHz. En términos de rendimiento, podíamos decir que se había multiplicado entre tres y seis veces la capacidad del 8086, y suponía el primer ordenador que no fabricaba IBM en exclusiva, sino que otras muchas compañías, alentadas por los éxitos del pasado, se decidieron a crear sus propias máquinas. Como dato curioso, baste mencionar el hecho de que en torno a los seis años que se le concede de vida útil, hay una estimación que apunta a que se colocaron en torno a los 15 millones de ordenadores en todo el mundo.

Microprocesadores Microsoft






El año de 1985 es clave en la historia de los procesadores. El 17 de octubre Intel anunciaba la aparición del procesador 80386DX, el primero en poseer una arquitectura de 32 bits, lo que suponía una velocidad a la hora de procesar las instrucciones realmente importante con respecto a su antecesor. Dicho procesador contenía en su interior en torno a los 275000 transistores, más de 100 veces los que tenía el primer 4004 después de tan sólo 14 años. El reloj llegaba ya hasta un máximo de 33 MHz, y era capaz de direccionar 4 Gigas de memoria, tamaño que todavía no se ha superado por otro procesador de Intel dedicado al mercado doméstico. En 1988, Intel desarrollaba un poco tarde un sistema sencillo de actualizar los antiguos 286 gracias a la aparición del 80386SX, que sacrificaba el bus de datos para dejarlo en uno de 16 bits, pero a menor coste. Estos procesadores irrumpieron con la explosión del entorno gráfico Windows, desarrollado por Microsoft unos años antes, pero que no había tenido la suficiente aceptación por parte de los usuarios. También había habido algunos entornos que no habían funcionado mal del todo, como por ejemplo el Gem 3, pero no es hasta este momento cuando este tipo de entornos de trabajo se popularizan, facilitando la tarea de enfrentarse a un ordenador, que por aquel entonces sólo conocíamos unos pocos. Windows vino a ser un soplo de aire fresco para la industria, pues permitió que personas de cualquier condición pudiera manejar un ordenador con unos requerimientos mínimos de informática.
Y si esto parecía la revolución, no tuvimos que esperar mucho para que el 10 de abril de 1989 apareciera el Intel 80486DX, de nuevo con tecnología de 32 bits y como novedades principales, la incorporación del caché de nivel 1 (L1) en el propio chip, lo que aceleraba enormemente la transferencia de datos de este caché al procesador, así como la aparición del co-procesador matemático, también integrado en el procesador, dejando por tanto de ser una opción como lo era en los anteriores 80386. Dos cambios que unido al hecho de que por primera vez se sobrepasaban el millón de transistores usando la tecnología de una micra (aunque en la versión de este procesador que iba a 50 MHz se usó ya la tecnología .8 micras), hacía posible la aparición de programas de calidad sorprendente, entre los que los juegos ocupan un lugar destacado. Se había pasado de unos ordenadores en los que prácticamente cualquier tarea compleja requería del intérprete de comandos de MS-DOS para poder ser realizada, a otros en los que con mover el cursor y pinchar en la opción deseada simplificaba en buena medida las tareas más comunes. Por su parte, Intel volvió a realizar, por última vez hasta el momento, una versión de este procesador dos años después. Se trataba del 80486SX, idéntico a su hermano mayor salvo que no disponía del famoso co-procesador matemático incorporado, lo que suponía una reducción del coste para aquellas personas que desearan introducirse en el segmento sin necesidad de pagar una suma elevada.

Microprocesadores Pentium






Sin embargo, Intel no se quedó contemplando la obra que había creado, y rápidamente anunció que en breve estaría en la calle una nueva gama de procesadores que multiplicaría de forma general por cinco los rendimientos medios de los 80486. Se trataba de los Pentium, conocidos por P5 en el mundillo de la informática mientras se estaban desarrollando, y de los que la prensa de medio mundo auguraba un gran futuro, tal y como así ha sido. Estos procesadores pasarán a la historia por ser los primeros a los que Intel no los bautizó con un número, y sí con una palabra. Esto era debido a que otras compañías dedicadas a la producción de procesadores estaban utilizando los mismos nombres puesto que no se podía registrar una cadena de ellos como marca, y por lo tanto, eran de dominio público. De modo que a Intel no le quedó más remedio que ponerle una palabra a su familia de procesadores, que además, con el paso del tiempo, se popularizó en los Estados Unidos de tal forma, que era identificada con velocidad y potencia en numerosos cómics y programas de televisión. Estos procesadores que partían de una velocidad inicial de 60 MHz, han llegado hasta los 200 MHz, algo que nadie había sido capaz de augurar unos años antes.
Con una arquitectura real de 32 bits, se usaba de nuevo la tecnología de .8 micras, con lo que se lograba realizar más unidades en menos espacio (ver recuadro explicativo). Los resultados no se hicieron esperar, y las compañías empezaron aunque de forma tímida a lanzar programas y juegos exclusivamente para el Pentium, hasta el punto que en este momento quien no posea un procesador de este tipo, está seriamente atrasado y no puede trabajar con garantías con los programas que actualmente hay en el mercado. Algo que ha venido a demostrar la aparición del nuevo sistema operativo de Microsoft Windows 95, que aunque funciona en equipos dotados de un procesador 486, lo hace sin sacar el máximo partido de sus funciones.


Pentium Pro y Pentium II








La aparición, el 27 de marzo de 1995, del procesador Pentium Pro supuso para los servidores de red y las estaciones de trabajo un aire nuevo, tal y como ocurriera con el Pentium en el ámbito doméstico. La potencia de este nuevo procesador no tenía comparación hasta entonces, gracias a la arquitectura de 64 bits y el empleo de una tecnología revolucionaria como es la de .32 micras, lo que permitía la inclusión de cinco millones y medio de transistores en su interior. El procesador contaba con un segundo chip en el mismo encapsulado, que se encargaba de mejorar la velocidad de la memoria caché, lo que resultaba en un incremento del rendimiento sustancioso. Las frecuencias de reloj se mantenían como límite por arriba en 200 MHz, partiendo de un mínimo de 150 MHz. Un procesador que en principio no tiene muchos visos de saltar al mercado doméstico, puesto que los procesadores Pentium MMX parecen cubrir de momento todas las necesidades en este campo. No podemos asegurar que en un futuro cercano esto no acabe ocurriendo, pues en el mundo de la informática han sucedido las cosas más extrañas, y nunca se sabe por dónde puede tirar un mercado en constante evolución.
Una evolución que demostró Intel hace muy poco con un nuevo procesador, denominado Pentium II, que viene a ser simplemente un nuevo ingenio que suma las tecnologías del Pentium Pro con el MMX. Como resultado, el Pentium II es el procesador más rápido de cuantos ha comercializado Intel. Por el momento únicamente se dispone de las versiones a 233 y 266 MHz, pero después de este verano podremos disfrutar de la versión de 300 MHz, que supondrá un nuevo récord de velocidad de reloj. El Pentium II, cuyas características fueron tratadas con detalle en el artículo de portada del pasado mes de la revista, es hoy (por poco tiempo) el extremo de la cadena evolutiva de Intel.

El futuro de los microprocesadores







La evolución que están sufriendo los procesadores es algo que no parece escapar a la atención de millones de personas, cuyo trabajo depende de hasta dónde sean capaces de llegar los ingenieros de Intel a la hora de desarrollar nuevos chips. El último paso conocido ha sido la implementación de la nueva arquitectura de 0.25 micras, que viene a sustituir de forma rotunda la empleada hasta el momento, de 0.35 micras en los últimos modelos de procesador. Esto va a significar varias cosas en un futuro no muy lejano. Para empezar, la velocidad se incrementará una media del 33 por ciento con respecto a la generación de anterior. Es decir, el mismo procesador usando esta nueva tecnología puede ir un 33 por ciento más rápido que el anterior. Para que os podáis hacer una idea del tamaño de esta tecnología, deciros que el valor de 0.25 micras es unas 400 veces más pequeño que un pelo de cualquier persona. Y este tamaño es el que tienen los transistores que componen el procesador. El transistor, como muchos sabréis, permite el paso de la corriente eléctrica, de modo que en función de en qué transistores haya corriente, el ordenador realiza las cosas (esto es una simplificación de la realidad, pero se ajusta a ella más o menos). Dicha corriente eléctrica circula entre dos puntos, de modo que cuanto menor sea esta distancia, más cantidad de veces podrá pasar pues el tiempo de paso es menor. Aunque estamos hablando de millonésimas de segundo, tened en cuenta que un procesador está trabajando continuamente, de modo que ese tiempo que parece insignificante cuando es sumado a lo largo de las miles de millones de instrucciones que realizar, nos puede dar una cantidad de tiempo bastante importante. De modo que la tecnología que se utilice puede dar resultados totalmente distintos incluso utilizando el mismo procesador. Por el momento, en un futuro cercano además de contar con la arquitectura de 0.25 micras, podremos disfrutar de duna de 0.07 para el año 2011, lo que supondrá la introducción en el procesador de mil millones de transistores y alcanzando una velocidad de reloj cercana a los 10000 MHz, es decir, 10 GHz.

La tecnología MMX












Aunque no podamos considerar la tecnología MMX como un procesador en sí mismo, sería injusto no hablar de ella en un informe como éste. Es uno de los mayores pasos que ha dado Intel en la presente década, y según ellos mismos, todos los procesadores que fabriquen a partir de mediados del próximo año llevarán incorporada esta arquitectura. Para su desarrollo se analizaron un amplio rango de programas para determinar el funcionamiento de diferentes tareas: algoritmos de descompresión de vídeo, audio o gráficos, formas de reconocimiento del habla o proceso de imágenes, etc. El análisis dio como resultado que numerosos algoritmos usaban ciclos repetitivos que ocupaban menos del 10% del código del programa, pero que en la práctica suponían el 90% del tiempo de ejecución. De modo que nació la tecnología MMX, compuesta por 57 instrucciones y 4 tipos de datos nuevos, que se encargan de realizar esos trabajos cíclicos consumiendo mucho menos tiempo de ejecución. Antes, para manipular 8 bytes de datos gráficos requería 8 repeticiones de la misma instrucción; ahora, con la nueva tecnología, se puede utilizar una única instrucción aplicada a los 8 bytes simultáneamente, obteniendo de este modo un incremento del rendimiento de 8x.

Especificaciones técnicas de los microprocesadores Intel
Fecha de presentación Velocidad de reloj Ancho de bus Número de transistores Memoria direccionable Memoria virtual Breve descripción
4004 15/11/71 108 KHz. 4 bits 2.300 (10 micras) 640 byte Primer chip con manipulación aritmética
8008 1/4/72 108 KHz. 8 bits 3.500 16 KBytes Manipulación Datos/texto
8080 1/4/74 2 MHz. 8 bits 6.000 64 KBytes 10 veces las (6 micras) prestaciones del 8008
8086 8/6/78 5 MHz.
8 MHz.
10 MHz. 16 bits 29.000
(3 micras) 1 MegaByte 10 veces las prestaciones del 8080
8088 1/6/79 5 MHz.
8 MHz. 8 bits 29.000 Idéntico al 8086 excepto en su bus externo de 8 bits
80286 1/2/82 8 MHz.
10 MHz.
12 MHz. 16 Bits 134.000
(1.5 micras) 16 Megabytes 1 Gigabyte De 3 a 6 veces las prestaciones del 8086
Microprocesador
Intel 386 DX 17/10/85 16 MHz.
20 MHz.
25 MHz.
33 MHz. 32 Bits 275.000
(1 micra) 4 Gigabytes 64 Terabytes Primer chip x86 capaz de manejar juegos de datos de 32 bits
Microprocesador
Intel 386 SX 16/6/88 16 MHz.
20 MHz. 16 Bits 275.000
(1 micra) 4 gigabytes 64
Terabytes Bus capaz de direccionar 16 bits procesando 32bits a bajo coste
Microprocesador
Intel 486 DX 10/4/89 25 MHz.
33 MHz.
50 MHz. 32 Bits (1 micra, 0.8 micras en 50 MHz.) 4 Gigabytes 64
Terabytes Caché de nivel 1 en el chip
Microprocesador
Intel 486 SX 22/4/91 16 MHz.
20 MHz.
25 MHz.
33 MHz. 32 Bits 1.185.000
(0.8 micras) 4 Gigabytes 64
Terabytes Idéntico en diseño al Intel 486DX, pero sin coprocesador matemático
Procesador
Pentium 22/3/93 60 MHz.
66 MHz.
75 MHz.
90 MHz.
100 MHz.
120 MHz.
133 MHz.
150 MHz.
166 MHz.
200 MHz. 32 Bits 3,1 millones
(0.8 micras) 4 Gigabytes 64
Terabytes Arquitectura escalable. Hasta 5 veces las prestaciones del 486 DX a 33 MHz.
Procesador
PentiumPro 27/3/95 150 MHz.
180 MHz.
200 MHz. 64 Bits 5,5 millones
(0.32 micras) 4 Gigabytes 64
Terabytes Arquitectura de ejecución dinámica con procesador de altas prestaciones
Procesador
PentiumII 7/5/97 233 MHz.
266 MHz.
300 MHz. 64 Bits 7,5 millones
(0.32 micras) 4 Gigabytes 64
Terabytes S.E.C., MMX, Doble Bus Indep., Ejecución Dinámica

lunes, 23 de noviembre de 2009


El Gran Colisionador de Hadrones :
es un acelerador de partículas (o acelerador y colisionador de partículas) ubicado en la actualmente denominada Organización Europea para la Investigación Nuclear (la sigla es la del antiguo nombre en francés de tal institución: Conseil Européen pour la Recherche Nucléaire, CERN), cerca de la frontera franco-suiza. El LHC se diseñó para colisionar haces de hadrones, más exactamente de protones de 7 TeV de energía, siendo su propósito principal examinar la validez y límites del Modelo Estándar, el cual es actualmente el marco teórico de la física de partículas, del que se conoce su ruptura a niveles de energía altos.
Los protones son acelerados a velocidades del 99,99% de la velocidad de la luz (c) y chocan entre sí en direcciones diametralmente opuestas produciendo altísimas energías (aunque a escalas subatómicas) que permitirían simular algunos eventos ocurridos durante o inmediatamente después del big bang. El LHC se convertirá en el acelerador de partículas más grande y energético del mundo.Más de 2000 físicos de 34 países y cientos de universidades y laboratorios han participado en su construcción. Hoy en día el colisionador se encuentra enfriándose hasta que alcance su temperatura de funcionamiento, que es de 1,9 K (2 grados por encima del cero absoluto o −271,25°C). Los primeros haces de partículas fueron inyectados el 1 de agosto de 2008, el primer intento para hacer circular los haces por toda la trayectoria del colisionador se produjo el 10 de septiembre de 2008 mientras que las primeras colisiones a alta energía en principio estaban previstas para el 21 de octubre de 2008. Sin embargo, debido a una avería se produjo una fuga de helio líquido y el experimento se ha parado temporalmente. Está previsto que para verano de 2009 se reactiven las actividades. Este funcionara a medio rendimiento durante 2 años, en esas condiciones será más difícil que pueda descubrir antes del 2011, al menos, el bosón de Higgs (la partícula de la masa), que es su principal objetivo y una de los mayores incógnitas de la física fundamental.
Teóricamente se espera que, una vez en funcionamiento, se detecte la partícula conocida como el bosón de Higgs (a veces llamada "la partícula de Dios" ). La observación de esta partícula confirmaría las predicciones y "enlaces perdidos" del Modelo Estándar de la física, pudiéndose explicar cómo adquieren las otras partículas elementales propiedades como su masa.

Diseño del CMS collaboration :
Verificar la existencia del bosón de Higgs sería un paso significativo en la búsqueda de una , teoría que pretende unificar tres de las 4 fuerzas conocidas, quedando fuera de ella únicamente la gravedad. Además este bosón podría explicar por qué la gravedad es tan débil comparada con las otras tres fuerzas. Junto al bosón de Higgs también podrían producirse otras nuevas partículas que fueron predichas teóricamente, y para las que se ha planificado su búsqueda, como los strangelets, los micro agujeros negros, el monopolo magnético o las partículas supersimétricas. El nuevo acelerador usa el túnel de 27 km de circunferencia creado para el Gran Colisionador de Electrones y Positrones (LEP en inglés).

jueves, 19 de noviembre de 2009

Análisis hardware pc



-Análisis de una computadora y de su hardware interno y externo.

PC:Definición de PC:
Maquina o sistema que a partir de unos datos de entrada es capaz de elaborar una información o resultados siguiendo una serie de operaciones para los cuales ha sido previamente programada. Procesa información para obtener resultados.
Informática: tratamiento automático de la información, la herramienta con la que se realiza esta tarea es la computadora.
Los datos se pueden introducir en la computadora cono entrada luego se procesa para lograr producir una salida el resultado que se obtiene será la información, genéricamente hablado.

1.Análisis hardware externo

1.1 CPU:Definición de PC:
Maquina o sistema que a partir de unos datos de entrada es capaz de elaborar una información o resultados siguiendo una serie de operaciones para los cuales ha sido previamente programada. Procesa información para obtener resultados.
Informática: tratamiento automático de la información, la herramienta con la que se realiza esta tarea es la computadora.
Los datos se pueden introducir en la computadora cono entrada luego se procesa para lograr producir una salida(output) el resultado que se obtiene será la información, genéricamente hablado.

1.2ZIP DRIVE:Un teclado es un periférico o dispositivo que consiste en un sistema de teclas, como las de una máquina de escribir, que permite introducir datos a un ordenador o dispositivo digital.
El Zip drive es un sistema de disco removible de mediana capacidad, introducido en el mercado por la empresa Iomega en .
El Zip Drive se basó en el sistema Bernoulli Box de la propia Iomega; en ambos sistemas, un juego de cabezas de read/write montado en atuadores lineares flotando encima de un disquete girando rápidamente montado en un cartucho robusto. El Zip Drive usa medidas menores (aproximadamente el tamaño de un disquete , en lugar de los discos de tamaño compacto de las mídias Bernoulli).
Esto resulta que es un disco que tiene todo lo conveniente del disquete 3.5" , pero almacena muchos más datos, con un desempeño que es mucho más rápido que un floppy drive. El Zip Drive original tenía una tasa de transferencia de datos de cerca de 1 MB/s y un tiempo de búsqueda de 28 milisegundos promedio, comparado a los 500 Kb/s de tasa de transferencia de un disquete de 1.4 MB y varias centenas de milissegundos de tiempo de búsqueda.
1.3 TECLADO
Un teclado es un periférico o dispositivo que consiste en un sistema de teclas, como las de una máquina de escribir, que permite introducir datos a un ordenador o dispositivo digital.

1.4 MOUSE
El ratón o mouse es un dispositivo apuntador, generalmente fabricado en plástico. Se utiliza con una de las manos del usuario y detecta su movimiento relativo en dos dimensiones por la superficie plana en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor.

2 Análisis placa base

2.1 Definición:La placa base, placa madre, tarjeta madre es una tarjeta de circuito impreso a la que se conectan las demás partes de la computadora. Tiene instalados una serie de integrados, entre los que se encuentra el Chipset que sirve como centro de conexión entre el procesador, la memoria RAM, los buses de expansión y otros dispositivos.
Va instalada dentro de un gabinete que por lo general esta hecho de lamina y tiene un panel para conectar dispositivos externos y muchos conectores internos y zócalos para instalar componentes dentro del gabinete.
La placa base además incluye un software llamado BIOS, que le permite realizar las funcionalidades básicas como: pruebas de los dispositivos, vídeo y manejo del teclado, reconocimiento de dispositivos y carga del sistema operativo.

jueves, 5 de noviembre de 2009

LINUX




GNU/Linux (Linux) es uno de los términos empleados para referirse al sistema operativo libre similar a Unix que utiliza el núcleo Linux y herramientas de sistema GNU. Su desarrollo es uno de los ejemplos más prominentes de software libre; todo el código fuente puede ser utilizado, modificado y redistribuido libremente por cualquiera bajo los términos de la GPL (Licencia Pública General de GNU) y otras licencias libres.

A pesar de que Linux sólo es el núcleo de este sistema operativo una parte significativa de la comunidad, así como muchos medios generales y especializados, prefieren utilizar dicho término. Para más información consulte la sección "Denominación GNU/Linux" o el artículo "Controversia por la denominación GNU/Linux".

Las variantes de este sistema se denominan distribuciones y su objetivo es ofrecer una edición que cumpla con las necesidades de determinado grupo de usuarios.

Algunas distribuciones son especialmente conocidas por su uso en servidores y supercomputadoras. No obstante, es posible instalar GNU/Linux en una amplia variedad de hardware como computadoras de escritorio y portátiles.

En el caso de computadoras de bolsillo, teléfonos móviles, dispositivos empotrados, videoconsolas y otros, puede darse el caso en que las partes de GNU se remplacen por alternativas más adecuadas. Para saber más sobre las arquitecturas soportadas, lea el artículo "Portabilidad del núcleo Linux y arquitecturas soportadas".













-¿Qué es Linux?


Linux es un sistema operativo, una gran pieza de software que controla un computador. Es parecido a Microsoft Windows, pero completamente libre. El nombre correcto es GNU/Linux pero "Linux" se usa más.

Linux no es el producto de una sola compañía, es el resultado de la contribución de un gran número de compañías y grupos de personas. De hecho, el sistema GNU/Linux es un componente central, el cual se transforma en muchos productos diferentes: las llamadas distribuciones.

Las distribuciones cambian la apariencia y funcionamiento de Linux completamente. Las hay desde grandes sistemas completos totalmente equipados (respaldadas por compañías) hasta las más ligeras que entran en un llavero USB o funcionan en computadores viejos (usualmente desarrolladas por voluntarios).
Una distribución destacada, completa y fácil de usar para iniciarse en GNU/Linux es Ubuntu.

-¿Porqué Linux No?

Una copia legal de Windows es costosa, pero, ¿qué obtienes realmente? Ni Windows ni office son vendidos, sino que lo que se vende es una licencia para usarlos.

Para usar estos productos, tenemos que aceptar varias restricciones muy fuertes. En la mayoría de las licencias de Windows, no puedes conservar el software cuando cambias de computador. A veces ni siquiera puedes regalar el software. Microsoft te impone quién puede usar el software, en qué computador y para qué propósitos; la lista de restricciones es larga y en ocasiones aberrante.

Una sociedad libre necesita software libre. Necesita la libertad para inspeccionar el software, aprender de él, y modificarlo de acuerdo a sus necesidades.

Los computadores se usan para compartir ideas, cultura e información. Sin estas libertades sobre el software, estamos en riesgo de perder el control sobre lo que compartimos.

Esto ya está sucediendo hoy; desde tecnologías evidentemente fastidiosas como la Gestión de Digital de Restricciones (DRM) hasta las completamente espantosas como la Computación Confiable (TC). El derecho que tiene cualquiera de participar en la cultura se está viendo amenazado.

Si tienes que renunciar a tu libertad para usar un software, quizá entonces no estés contento con él.

El código fuente (los detalles del funcionamiento de un programa) de Windows y Office están ocultos, y además nadie tiene permiso legal para averiguar cómo funcionan.

Si no tienes derecho a inspeccionar el código fuente (la descripción del funcionamiento de un programa), no puedes pedirle a un informático que modifique el software ni que evalúe cómo el software protege tu privacidad.

Y adivina qué: En el software que cuyo código fuente está disponible, los programas maliciosos (como los virus) no logran su objetivo, es decir, aquí la seguridad no se compra por separado. La industria de los antivirus, en la cual Microsoft juega un papel crucial, prefiere que tú uses Windows.

-USANDO LINUX



GNU/Linux no es más difícil de usar que Windows, y tiene muchas más funcionalidades. Se tarda sólo unos minutos en familiarizarse con una distribución como Ubuntu o Fedora, la cual viene con muchos programas instalados.

Si necesita software de calidad comercial para trabajar con documentos de negocios, Internet, conexión de redes, o trabajar con gráficos, está listo para que lo use. ¿Quiere aún más? Linux puede hacerlo: Existen muchos miles de programas que puede encontrar, instalar y desinstalar de una forma intuitiva y sencilla.

Sin embargo, no debería asumir que Linux es un clon de Windows. Para saber qué le espera al adentrarse en Linux, le sugerimos leer nuestra página relacionada con migrar a Linux.


miércoles, 28 de octubre de 2009

EL SECTOR TIC TAMBIÉN TEME LA CRISIS BANCARIA


La inversión tecnológica mundial teme la crisis de la banca


El 49% de las entidades financieras ha reducido el presupuesto TIC para el actual ejercicio, según Forrester.
La crisis financiera, agravada en los últimos días por la quiebra de Lehman Brothers y la salvación in extremis de Merrill Lynch y AIG, va a repercutir en casi todos los sectores económicos. Y la industria tecnológica no es una excepción. Diversos analistas coinciden ya en que el deterioro de las cuentas de las entidades financieras va a provocar un recorte de sus inversiones en tecnologías de la información y la comunicación (TIC). 'En el contexto actual, es muy previsible que las reducciones de costes que pongan en marcha las entidades afecten a sus gastos en tecnología', explica Fernando Acevedo, socio de Accenture, quien recuerda que el sector financiero es de los que más invierte en TIC.
Algunas de las grandes consultoras ya han empezado a poner cifras a los posibles recortes. Forrester publicó este martes un informe, basado en una encuesta realizada a responsables de tecnología de casi 1.000 corporaciones de Europa y EE UU, en el que apuntaba que el 43% de las empresas habían reducido los presupuestos para las TIC, porcentaje que subía al 49% en el caso de las entidades de servicios financieros. 'Ha sido el sector en el que el recorte ha sido más duro'. La consultora pronostica una disminución del 2% de las inversiones en tecnología de la industria bancaria en 2008.
El impacto puede alcanzar gran relevancia habida cuenta del peso que bancos y cajas han tenido en el sector tecnológico durante los últimos años. Según Forrester, la industria bancaria global destinó 241.000 millones de dólares (unos 167.300 millones de euros) a nuevas tecnologías (hardware, software, servicios y telecomunicaciones) durante el pasado año, cerca de un 5% más que en 2006. La consultora IDC precisa que sólo las entidades financieras de EE UU, país en el que la crisis se ha mostrado hasta ahora con mayor dureza, dedicaron a estas partidas en torno a 60.000 millones de dólares. En España, según Accenture, la inversión TIC de la industria financiera (considerada por muchos expertos como una de las más avanzadas del mundo) rondó los 3.300 millones de euros en 2007, en torno a un 10% más que el año anterior.
Con estas magnitudes, no cabe la menor duda de que la industria financiera tiene también un gran peso en las cuentas de las corporaciones tecnológicas. Por ejemplo, IBM vio como los servicios financieros aportaban 7.600 millones de dólares a sus ingresos en el segundo trimestre, en torno a un 28% del total. Y con un crecimiento del 15%, por encima del 13% registrado por el conjunto de la corporación. Para otras empresas del sector como la francesa Capgemini, la banca supone un 17,6% de su volumen de negocio por un 34% de la india Infosys.
Claro que, no todas las áreas TIC se verán penalizadas por igual. Acevedo indica que las mayores bajadas podrían tener lugar en los costes discrecionales, especialmente en la 'paralización de proyectos de renovación de aplicaciones con una duración de entre seis y doce meses'.

miércoles, 21 de octubre de 2009

Novedades sobre tecnología e informática

Desarrollan el motor de plasma de iones más potente del mundo

Desde el 2005 la empresa Ad Astra Rocket, está trabajando en un revolucionario motor de iones, el VASIMR, con el que querían alcanzar una potencia muy superior a cualquier otro motor de plasma construido hasta la fecha. Pues bien, ya lo han conseguido.

Ad Astra Rocket acaba de dar un paso importante en el proyecto: han probado con éxito el motor prototipo VX-200 en una cámara de vacío, alcanzando los 200 kilovatios de potencia, siendo la primera vez que se llega a esa marca. Esto
mejora mucho las expectativas de futuro en cuanto a viajes espaciales.

Por el momento ya han firmado acuerdo con la NASA para probar el VX-200 en la ISS en 2013 y comprobar si puede proporcionar la ayuda que necesitan las instalaciones espaciales para no salirse de su órbita, con un ahorro muy importante en combustible y por consiguiente en dinero. Y esto solamente es el principio, las ventajas del VX-200 son muchas más y siguen trabajando para aumentar la potencia del motor hasta donde se pueda.


Sistema para generar energía con calor corporal

Recargar el teléfono móvil con el calor corporal del usuario podría hacerse realidad muy pronto gracias a un invento que fue galardonado con el premio Swisselectric Research Award 2009, otorgado por las compañías eléctricas de Suiza.

Su inventor, Wulf Glatz, un científico de 35 años, ha desarrollado un generador termoeléctrico de nueva generación que convierte el calor en una corriente eléctrica. Para ello, utiliza la diferencia de temperatura entre la fuente de calor y la del ambiente, por lo que no genera emisiones contaminantes.

Estos generadores pueden instalarse, por ejemplo, en los apartamentos para producir electricidad a través del calor emitido por la calefacción central. Del mismo modo, pueden alimentar la electrónica de un vehículo gracias al calor del motor, lo que supondría un ahorro del 10% de combustible.

Además, el proceso de fabricación de estos generadores puesto en marcha por Glatz es diez veces más barato que el clásico. El “Swisselectric Research Award 2009″ incluye un premio en metálico de unos €16.000 y reconoce cada año a un científico cuya labor haya avanzado la investigación en el ámbito de la electricidad.


Mano robótica operada por aire comprimido

El Laboratorio de Robótica y Mecanismos (RoMeLa) de la Facultad de Ingeniería en Virginia Tech ha desarrollado una mano robótica que puede sujetar firmemente objetos, desde una pesada lata de comida hasta un delicado foco.

Se llama RAPHAEL (Robotic Air Powered Hand with Elastic Ligaments) y en vez de usar costosos o voluminosos motores, esta mano robot es articulada por un compresor de aire de 60 psi que mediante un microcontrolador coordina los movimientos de los dedos.

RAPHaEL es parte de un proyecto más ambicioso llamado CHARLI (Cognitive Humanoid Robot with Learning Intelligence), un robot humanoide bípedo de 5 pies de altura y que posiblemente lo veremos participar en la RoboCup 2010.


Los nuevos iPods tendrán cámara

Desde hace unos meses se viene hablando que la nueva generación de iPods tendrá una cámara. Sin embargo, hasta ahora todos los rumores estaban incomprobados, o al menos carecerían de sustento material que les sirviese de prueba.

No obstante, desde la milenaria China vuelven a llegar rumores de iPods con cámaras, esta vez apoyados en más de una docena de carcasas que poseen la ranura u orificio donde se ubicaría la cámara en cada modelo.

Hasta ahora la empresa china fabricante de estos artilugios, sólo se ha limitado a señalar que posee las medidas exactas de cada modelo y que no fabrican cosas para botarlas, sólo se están adelantando para tener stock.

Por otro lado, con las nuevas carcasas podemos apreciar que no hay mayores cambios morfológicos en los reproductores de la manzana, salvo el iPod nano, que teniendo la cámara en su extremo inferior izquierdo en posición vertical, nos indica que su cámara será utilizada en forma horizontal (para que ésta quede en la esquina superior derecha como muchas cámaras compactas).

http://www.blogdetecnologia.com/
http://www.blogdetecnologia.com/categoria/actualidad/
http://www.blogdetecnologia.com/categoria/robotica/
http://www.blogdetecnologia.com/categoria/ipod/

jueves, 15 de octubre de 2009

blog de deportes

En la calse de hoy,el profesor nos ha mandado buscar blogs temáticos diferentes para añadirlos a nuestro propio blog .Esta entrada contiene pequeñas entradas de diferentes temas

DEPORTES:

http://www.blogdedeporte.com

HIPHOP:
http://www.hiphophispano.com

HUMOR:
http://www.blogdehumor.com

REGGAE/DANCEHALL:
http://www.mrpipee.blogspot.com

miércoles, 14 de octubre de 2009

Características favorables de las tecnologías de información y comunicación




La tecnología de la información no es algo nuevo. El proceso de construir artefactos que favorezcan la expansión de la información, con el fin de que podamos transformarla en conocimiento útil, ha sido una actividad constante desde los inicios de la enseñanza. Lo novedoso hoy es el hecho de haber puesto juntos, diferentes recursos tecnológicos que generan una fuerza comunicativa sin precedentes: palabra escrita; registros orales y visuales; dispositivos masivos de almacenaje con capacidades de ordenar, organizar y transformar información; dispositivos potentes de transmisión y comunicación; disponibilidad casi universal de estos recursos; desaparición de los condicionantes de tiempo y espacio.
Las críticas a estas TIC parecen surgir cuando se confunde información con conocimiento. La información fluye por los circuitos electrónicos . La tecnología informática constituye una parte del ambiente en que transcurre nuestro vivir; exige, cada vez con mayor urgencia, aprender a convivir con ella y a utilizar sus indudables potencialidades. Estas potencialidades se han convertido ya en lugares comunes y aparecen como conceptos introductorios en la mayor parte de la literatura sobre el tema (Lito, 1996; Sancho, 1996; Patterson 1997; Atuesta, González y Zea, 1997).
Se destaca como una primera ventaja evidente de las nuevas tecnologías la de poner a disposición de profesores y alumnos grandes volúmenes de información, que utilizan diversos canales sensoriales a la vez. Un segundo postulado, que aparece obligadamente en los escritos sobre nuevas tecnologías y educación, se refiere a su incidencia para el trabajo colaborativo. Las nuevas tecnologías informáticas, sobre todo de telecomunicaciones, han permitido configurar entornos virtuales compartidos a los que se puede aplicar nuestro concepto de "ambiente de aprendizaje"; la práctica desaparición de las restricciones de tiempo y el acceso remoto facilitan la comunicación permanente entre usuarios y, con ello, la cooperación y construcción conjunta de conocimientos.Creo que ésta es una ventaja real de las nuevas tecnologías.


La tecnología de la información no es algo nuevo. El proceso de construir artefactos que favorezcan la expansión de la información, con el fin de que podamos transformarla en conocimiento útil, ha sido una actividad constante desde los inicios de la enseñanza. Lo novedoso hoy es el hecho de haber puesto juntos, diferentes recursos tecnológicos que generan una fuerza comunicativa sin precedentes: palabra escrita; registros orales y visuales; dispositivos masivos de almacenaje con capacidades de ordenar, organizar y transformar información; dispositivos potentes de transmisión y comunicación; disponibilidad casi universal de estos recursos; desaparición de los condicionantes de tiempo y espacio.
Las críticas a estas TIC parecen surgir cuando se confunde información con conocimiento. La información fluye por los circuitos electrónicos . La tecnología informática constituye una parte del ambiente en que transcurre nuestro vivir; exige, cada vez con mayor urgencia, aprender a convivir con ella y a utilizar sus indudables potencialidades. Estas potencialidades se han convertido ya en lugares comunes y aparecen como conceptos introductorios en la mayor parte de la literatura sobre el tema (Lito, 1996; Sancho, 1996; Patterson 1997; Atuesta, González y Zea, 1997).
Se destaca como una primera ventaja evidente de las nuevas tecnologías la de poner a disposición de profesores y alumnos grandes volúmenes de información, que utilizan diversos canales sensoriales a la vez. Un segundo postulado, que aparece obligadamente en los escritos sobre nuevas tecnologías y educación, se refiere a su incidencia para el trabajo colaborativo. Las nuevas tecnologías informáticas, sobre todo de telecomunicaciones, han permitido configurar entornos virtuales compartidos a los que se puede aplicar nuestro concepto de "ambiente de aprendizaje"; la práctica desaparición de las restricciones de tiempo y el acceso remoto facilitan la comunicación permanente entre usuarios y, con ello, la cooperación y construcción conjunta de conocimientos.Creo que ésta es una ventaja real de las nuevas tecnologías.