jueves, 26 de noviembre de 2009

Microprocesadores de PC

MICROPROCESADORES


HISTORIA






Sin embargo, para que esto llegue, la historia de los procesadores ha pasado por diferentes situaciones, siguiendo la lógica evolución de este mundo. Desde aquel primer procesador 4004 del año 1971 hasta el actual Pentium II del presente año ha llovido mucho en el campo de los procesadores. Tanto, que no estamos seguros si las cifras que se barajan en Intel se pueden, incluso, quedar cortas. Aquel primer procesador 4004, presentado en el mercado el día 15 de noviembre de 1971, poseía unas características únicas para su tiempo. Para empezar, la velocidad de reloj sobrepasaba por poco los 100 KHz (sí, habéis leído bien, kilohertzios), disponía de un ancho de bus de 4 bits y podía manejar un máximo de 640 bytes de memoria. Realmente una auténtica joya que para entonces podía realizar gran cantidad de tareas, pero que por desgracia no tiene punto de comparación con los actuales micros. Entre sus aplicaciones, podemos destacar su presencia en la calculadora Busicom, así como dotar de los primeros tintes de inteligencia a objetos inanimados.
Poco tiempo después, sin embargo, el 1 de abril de 1972, Intel anunciaba una versión mejorada de su procesador. Se trataba del 8008, que contaba como principal novedad con un bus de 8 bits, y la memoria direccionable se ampliaba a los 16 Kb. Además, llegaba a la cifra de los 3500 transistores, casi el doble que su predecesor, y se le puede considerar como el antecedente del procesador que serviría de corazón al primer ordenador personal. Justo dos años después, Intel anunciaba ese tan esperado primer ordenador personal, de nombre Altair, cuyo nombre proviene de un destino de la nave Enterprise en uno de los capítulos de la popular serie de televisión Star Trek la semana en la que se creó el ordenador. Este ordenador tenía un coste de entorno a los 400 dólares de la época, y el procesador suponía multiplicar por 10 el rendimiento del anterior, gracias a sus 2 MHz de velocidad (por primera vez se utiliza esta medida), con una memoria de 64 Kb. En unos meses, logró vender decenas de miles de unidades, en lo que suponía la aparición del primer ordenador que la gente podía comprar, y no ya simplemente utilizar.


La introducción de IBM
Sin embargo, como todos sabemos, el ordenador personal no pasó a ser tal hasta la aparición de IBM, el gigante azul, en el mercado. Algo que sucedió en dos ocasiones en los meses de junio de 1978 y de 1979. Fechas en las que respectivamente, hacían su aparición los microprocesadores 8086 y 8088, que pasaron a formar el denominado IBM PC, que vendió millones de unidades de ordenadores de sobremesa a lo largo y ancho del mundo. El éxito fue tal, que Intel fue nombrada por la revista "Fortune" como uno de los mejores negocios de los años setenta. De los dos procesadores, el más potente era el 8086, con un bus de 16 bits (por fin), velocidades de reloj de 5, 8 y 10 MHz, 29000 transistores usando la tecnología de 3 micras y hasta un máximo de 1 Mega de memoria direccionable. El rendimiento se había vuelto a multiplicar por 10 con respecto a su antecesor, lo que suponía un auténtico avance en lo que al mundo de la informática se refiere. En cuanto al procesador 8088, era exactamente igual a éste, salvo la diferencia de que poseía un bus de 8 bits en lugar de uno de 16, siendo más barato y obteniendo mejor respaldo en el mercado.
En el año 1982, concretamente el 1 de febrero, Intel daba un nuevo vuelco a la industria con la aparición de los primeros 80286. Como principal novedad, cabe destacar el hecho de que por fin se podía utilizar la denominada memoria virtual, que en el caso del 286 podía llegar hasta 1 Giga. También hay que contar con el hecho de que el tiempo pasado había permitido a los ingenieros de Intel investigar más a fondo en este campo, movidos sin duda por el gran éxito de ventas de los anteriores micros. Ello se tradujo en un bus de 16 bits, 134000 transistores usando una tecnología de 1.5 micras, un máximo de memoria direccionable de 16 Megas y unas velocidades de reloj de 8, 10 y 12 MHz. En términos de rendimiento, podíamos decir que se había multiplicado entre tres y seis veces la capacidad del 8086, y suponía el primer ordenador que no fabricaba IBM en exclusiva, sino que otras muchas compañías, alentadas por los éxitos del pasado, se decidieron a crear sus propias máquinas. Como dato curioso, baste mencionar el hecho de que en torno a los seis años que se le concede de vida útil, hay una estimación que apunta a que se colocaron en torno a los 15 millones de ordenadores en todo el mundo.

Microprocesadores Microsoft






El año de 1985 es clave en la historia de los procesadores. El 17 de octubre Intel anunciaba la aparición del procesador 80386DX, el primero en poseer una arquitectura de 32 bits, lo que suponía una velocidad a la hora de procesar las instrucciones realmente importante con respecto a su antecesor. Dicho procesador contenía en su interior en torno a los 275000 transistores, más de 100 veces los que tenía el primer 4004 después de tan sólo 14 años. El reloj llegaba ya hasta un máximo de 33 MHz, y era capaz de direccionar 4 Gigas de memoria, tamaño que todavía no se ha superado por otro procesador de Intel dedicado al mercado doméstico. En 1988, Intel desarrollaba un poco tarde un sistema sencillo de actualizar los antiguos 286 gracias a la aparición del 80386SX, que sacrificaba el bus de datos para dejarlo en uno de 16 bits, pero a menor coste. Estos procesadores irrumpieron con la explosión del entorno gráfico Windows, desarrollado por Microsoft unos años antes, pero que no había tenido la suficiente aceptación por parte de los usuarios. También había habido algunos entornos que no habían funcionado mal del todo, como por ejemplo el Gem 3, pero no es hasta este momento cuando este tipo de entornos de trabajo se popularizan, facilitando la tarea de enfrentarse a un ordenador, que por aquel entonces sólo conocíamos unos pocos. Windows vino a ser un soplo de aire fresco para la industria, pues permitió que personas de cualquier condición pudiera manejar un ordenador con unos requerimientos mínimos de informática.
Y si esto parecía la revolución, no tuvimos que esperar mucho para que el 10 de abril de 1989 apareciera el Intel 80486DX, de nuevo con tecnología de 32 bits y como novedades principales, la incorporación del caché de nivel 1 (L1) en el propio chip, lo que aceleraba enormemente la transferencia de datos de este caché al procesador, así como la aparición del co-procesador matemático, también integrado en el procesador, dejando por tanto de ser una opción como lo era en los anteriores 80386. Dos cambios que unido al hecho de que por primera vez se sobrepasaban el millón de transistores usando la tecnología de una micra (aunque en la versión de este procesador que iba a 50 MHz se usó ya la tecnología .8 micras), hacía posible la aparición de programas de calidad sorprendente, entre los que los juegos ocupan un lugar destacado. Se había pasado de unos ordenadores en los que prácticamente cualquier tarea compleja requería del intérprete de comandos de MS-DOS para poder ser realizada, a otros en los que con mover el cursor y pinchar en la opción deseada simplificaba en buena medida las tareas más comunes. Por su parte, Intel volvió a realizar, por última vez hasta el momento, una versión de este procesador dos años después. Se trataba del 80486SX, idéntico a su hermano mayor salvo que no disponía del famoso co-procesador matemático incorporado, lo que suponía una reducción del coste para aquellas personas que desearan introducirse en el segmento sin necesidad de pagar una suma elevada.

Microprocesadores Pentium






Sin embargo, Intel no se quedó contemplando la obra que había creado, y rápidamente anunció que en breve estaría en la calle una nueva gama de procesadores que multiplicaría de forma general por cinco los rendimientos medios de los 80486. Se trataba de los Pentium, conocidos por P5 en el mundillo de la informática mientras se estaban desarrollando, y de los que la prensa de medio mundo auguraba un gran futuro, tal y como así ha sido. Estos procesadores pasarán a la historia por ser los primeros a los que Intel no los bautizó con un número, y sí con una palabra. Esto era debido a que otras compañías dedicadas a la producción de procesadores estaban utilizando los mismos nombres puesto que no se podía registrar una cadena de ellos como marca, y por lo tanto, eran de dominio público. De modo que a Intel no le quedó más remedio que ponerle una palabra a su familia de procesadores, que además, con el paso del tiempo, se popularizó en los Estados Unidos de tal forma, que era identificada con velocidad y potencia en numerosos cómics y programas de televisión. Estos procesadores que partían de una velocidad inicial de 60 MHz, han llegado hasta los 200 MHz, algo que nadie había sido capaz de augurar unos años antes.
Con una arquitectura real de 32 bits, se usaba de nuevo la tecnología de .8 micras, con lo que se lograba realizar más unidades en menos espacio (ver recuadro explicativo). Los resultados no se hicieron esperar, y las compañías empezaron aunque de forma tímida a lanzar programas y juegos exclusivamente para el Pentium, hasta el punto que en este momento quien no posea un procesador de este tipo, está seriamente atrasado y no puede trabajar con garantías con los programas que actualmente hay en el mercado. Algo que ha venido a demostrar la aparición del nuevo sistema operativo de Microsoft Windows 95, que aunque funciona en equipos dotados de un procesador 486, lo hace sin sacar el máximo partido de sus funciones.


Pentium Pro y Pentium II








La aparición, el 27 de marzo de 1995, del procesador Pentium Pro supuso para los servidores de red y las estaciones de trabajo un aire nuevo, tal y como ocurriera con el Pentium en el ámbito doméstico. La potencia de este nuevo procesador no tenía comparación hasta entonces, gracias a la arquitectura de 64 bits y el empleo de una tecnología revolucionaria como es la de .32 micras, lo que permitía la inclusión de cinco millones y medio de transistores en su interior. El procesador contaba con un segundo chip en el mismo encapsulado, que se encargaba de mejorar la velocidad de la memoria caché, lo que resultaba en un incremento del rendimiento sustancioso. Las frecuencias de reloj se mantenían como límite por arriba en 200 MHz, partiendo de un mínimo de 150 MHz. Un procesador que en principio no tiene muchos visos de saltar al mercado doméstico, puesto que los procesadores Pentium MMX parecen cubrir de momento todas las necesidades en este campo. No podemos asegurar que en un futuro cercano esto no acabe ocurriendo, pues en el mundo de la informática han sucedido las cosas más extrañas, y nunca se sabe por dónde puede tirar un mercado en constante evolución.
Una evolución que demostró Intel hace muy poco con un nuevo procesador, denominado Pentium II, que viene a ser simplemente un nuevo ingenio que suma las tecnologías del Pentium Pro con el MMX. Como resultado, el Pentium II es el procesador más rápido de cuantos ha comercializado Intel. Por el momento únicamente se dispone de las versiones a 233 y 266 MHz, pero después de este verano podremos disfrutar de la versión de 300 MHz, que supondrá un nuevo récord de velocidad de reloj. El Pentium II, cuyas características fueron tratadas con detalle en el artículo de portada del pasado mes de la revista, es hoy (por poco tiempo) el extremo de la cadena evolutiva de Intel.

El futuro de los microprocesadores







La evolución que están sufriendo los procesadores es algo que no parece escapar a la atención de millones de personas, cuyo trabajo depende de hasta dónde sean capaces de llegar los ingenieros de Intel a la hora de desarrollar nuevos chips. El último paso conocido ha sido la implementación de la nueva arquitectura de 0.25 micras, que viene a sustituir de forma rotunda la empleada hasta el momento, de 0.35 micras en los últimos modelos de procesador. Esto va a significar varias cosas en un futuro no muy lejano. Para empezar, la velocidad se incrementará una media del 33 por ciento con respecto a la generación de anterior. Es decir, el mismo procesador usando esta nueva tecnología puede ir un 33 por ciento más rápido que el anterior. Para que os podáis hacer una idea del tamaño de esta tecnología, deciros que el valor de 0.25 micras es unas 400 veces más pequeño que un pelo de cualquier persona. Y este tamaño es el que tienen los transistores que componen el procesador. El transistor, como muchos sabréis, permite el paso de la corriente eléctrica, de modo que en función de en qué transistores haya corriente, el ordenador realiza las cosas (esto es una simplificación de la realidad, pero se ajusta a ella más o menos). Dicha corriente eléctrica circula entre dos puntos, de modo que cuanto menor sea esta distancia, más cantidad de veces podrá pasar pues el tiempo de paso es menor. Aunque estamos hablando de millonésimas de segundo, tened en cuenta que un procesador está trabajando continuamente, de modo que ese tiempo que parece insignificante cuando es sumado a lo largo de las miles de millones de instrucciones que realizar, nos puede dar una cantidad de tiempo bastante importante. De modo que la tecnología que se utilice puede dar resultados totalmente distintos incluso utilizando el mismo procesador. Por el momento, en un futuro cercano además de contar con la arquitectura de 0.25 micras, podremos disfrutar de duna de 0.07 para el año 2011, lo que supondrá la introducción en el procesador de mil millones de transistores y alcanzando una velocidad de reloj cercana a los 10000 MHz, es decir, 10 GHz.

La tecnología MMX












Aunque no podamos considerar la tecnología MMX como un procesador en sí mismo, sería injusto no hablar de ella en un informe como éste. Es uno de los mayores pasos que ha dado Intel en la presente década, y según ellos mismos, todos los procesadores que fabriquen a partir de mediados del próximo año llevarán incorporada esta arquitectura. Para su desarrollo se analizaron un amplio rango de programas para determinar el funcionamiento de diferentes tareas: algoritmos de descompresión de vídeo, audio o gráficos, formas de reconocimiento del habla o proceso de imágenes, etc. El análisis dio como resultado que numerosos algoritmos usaban ciclos repetitivos que ocupaban menos del 10% del código del programa, pero que en la práctica suponían el 90% del tiempo de ejecución. De modo que nació la tecnología MMX, compuesta por 57 instrucciones y 4 tipos de datos nuevos, que se encargan de realizar esos trabajos cíclicos consumiendo mucho menos tiempo de ejecución. Antes, para manipular 8 bytes de datos gráficos requería 8 repeticiones de la misma instrucción; ahora, con la nueva tecnología, se puede utilizar una única instrucción aplicada a los 8 bytes simultáneamente, obteniendo de este modo un incremento del rendimiento de 8x.

Especificaciones técnicas de los microprocesadores Intel
Fecha de presentación Velocidad de reloj Ancho de bus Número de transistores Memoria direccionable Memoria virtual Breve descripción
4004 15/11/71 108 KHz. 4 bits 2.300 (10 micras) 640 byte Primer chip con manipulación aritmética
8008 1/4/72 108 KHz. 8 bits 3.500 16 KBytes Manipulación Datos/texto
8080 1/4/74 2 MHz. 8 bits 6.000 64 KBytes 10 veces las (6 micras) prestaciones del 8008
8086 8/6/78 5 MHz.
8 MHz.
10 MHz. 16 bits 29.000
(3 micras) 1 MegaByte 10 veces las prestaciones del 8080
8088 1/6/79 5 MHz.
8 MHz. 8 bits 29.000 Idéntico al 8086 excepto en su bus externo de 8 bits
80286 1/2/82 8 MHz.
10 MHz.
12 MHz. 16 Bits 134.000
(1.5 micras) 16 Megabytes 1 Gigabyte De 3 a 6 veces las prestaciones del 8086
Microprocesador
Intel 386 DX 17/10/85 16 MHz.
20 MHz.
25 MHz.
33 MHz. 32 Bits 275.000
(1 micra) 4 Gigabytes 64 Terabytes Primer chip x86 capaz de manejar juegos de datos de 32 bits
Microprocesador
Intel 386 SX 16/6/88 16 MHz.
20 MHz. 16 Bits 275.000
(1 micra) 4 gigabytes 64
Terabytes Bus capaz de direccionar 16 bits procesando 32bits a bajo coste
Microprocesador
Intel 486 DX 10/4/89 25 MHz.
33 MHz.
50 MHz. 32 Bits (1 micra, 0.8 micras en 50 MHz.) 4 Gigabytes 64
Terabytes Caché de nivel 1 en el chip
Microprocesador
Intel 486 SX 22/4/91 16 MHz.
20 MHz.
25 MHz.
33 MHz. 32 Bits 1.185.000
(0.8 micras) 4 Gigabytes 64
Terabytes Idéntico en diseño al Intel 486DX, pero sin coprocesador matemático
Procesador
Pentium 22/3/93 60 MHz.
66 MHz.
75 MHz.
90 MHz.
100 MHz.
120 MHz.
133 MHz.
150 MHz.
166 MHz.
200 MHz. 32 Bits 3,1 millones
(0.8 micras) 4 Gigabytes 64
Terabytes Arquitectura escalable. Hasta 5 veces las prestaciones del 486 DX a 33 MHz.
Procesador
PentiumPro 27/3/95 150 MHz.
180 MHz.
200 MHz. 64 Bits 5,5 millones
(0.32 micras) 4 Gigabytes 64
Terabytes Arquitectura de ejecución dinámica con procesador de altas prestaciones
Procesador
PentiumII 7/5/97 233 MHz.
266 MHz.
300 MHz. 64 Bits 7,5 millones
(0.32 micras) 4 Gigabytes 64
Terabytes S.E.C., MMX, Doble Bus Indep., Ejecución Dinámica

lunes, 23 de noviembre de 2009


El Gran Colisionador de Hadrones :
es un acelerador de partículas (o acelerador y colisionador de partículas) ubicado en la actualmente denominada Organización Europea para la Investigación Nuclear (la sigla es la del antiguo nombre en francés de tal institución: Conseil Européen pour la Recherche Nucléaire, CERN), cerca de la frontera franco-suiza. El LHC se diseñó para colisionar haces de hadrones, más exactamente de protones de 7 TeV de energía, siendo su propósito principal examinar la validez y límites del Modelo Estándar, el cual es actualmente el marco teórico de la física de partículas, del que se conoce su ruptura a niveles de energía altos.
Los protones son acelerados a velocidades del 99,99% de la velocidad de la luz (c) y chocan entre sí en direcciones diametralmente opuestas produciendo altísimas energías (aunque a escalas subatómicas) que permitirían simular algunos eventos ocurridos durante o inmediatamente después del big bang. El LHC se convertirá en el acelerador de partículas más grande y energético del mundo.Más de 2000 físicos de 34 países y cientos de universidades y laboratorios han participado en su construcción. Hoy en día el colisionador se encuentra enfriándose hasta que alcance su temperatura de funcionamiento, que es de 1,9 K (2 grados por encima del cero absoluto o −271,25°C). Los primeros haces de partículas fueron inyectados el 1 de agosto de 2008, el primer intento para hacer circular los haces por toda la trayectoria del colisionador se produjo el 10 de septiembre de 2008 mientras que las primeras colisiones a alta energía en principio estaban previstas para el 21 de octubre de 2008. Sin embargo, debido a una avería se produjo una fuga de helio líquido y el experimento se ha parado temporalmente. Está previsto que para verano de 2009 se reactiven las actividades. Este funcionara a medio rendimiento durante 2 años, en esas condiciones será más difícil que pueda descubrir antes del 2011, al menos, el bosón de Higgs (la partícula de la masa), que es su principal objetivo y una de los mayores incógnitas de la física fundamental.
Teóricamente se espera que, una vez en funcionamiento, se detecte la partícula conocida como el bosón de Higgs (a veces llamada "la partícula de Dios" ). La observación de esta partícula confirmaría las predicciones y "enlaces perdidos" del Modelo Estándar de la física, pudiéndose explicar cómo adquieren las otras partículas elementales propiedades como su masa.

Diseño del CMS collaboration :
Verificar la existencia del bosón de Higgs sería un paso significativo en la búsqueda de una , teoría que pretende unificar tres de las 4 fuerzas conocidas, quedando fuera de ella únicamente la gravedad. Además este bosón podría explicar por qué la gravedad es tan débil comparada con las otras tres fuerzas. Junto al bosón de Higgs también podrían producirse otras nuevas partículas que fueron predichas teóricamente, y para las que se ha planificado su búsqueda, como los strangelets, los micro agujeros negros, el monopolo magnético o las partículas supersimétricas. El nuevo acelerador usa el túnel de 27 km de circunferencia creado para el Gran Colisionador de Electrones y Positrones (LEP en inglés).

jueves, 19 de noviembre de 2009

Análisis hardware pc



-Análisis de una computadora y de su hardware interno y externo.

PC:Definición de PC:
Maquina o sistema que a partir de unos datos de entrada es capaz de elaborar una información o resultados siguiendo una serie de operaciones para los cuales ha sido previamente programada. Procesa información para obtener resultados.
Informática: tratamiento automático de la información, la herramienta con la que se realiza esta tarea es la computadora.
Los datos se pueden introducir en la computadora cono entrada luego se procesa para lograr producir una salida el resultado que se obtiene será la información, genéricamente hablado.

1.Análisis hardware externo

1.1 CPU:Definición de PC:
Maquina o sistema que a partir de unos datos de entrada es capaz de elaborar una información o resultados siguiendo una serie de operaciones para los cuales ha sido previamente programada. Procesa información para obtener resultados.
Informática: tratamiento automático de la información, la herramienta con la que se realiza esta tarea es la computadora.
Los datos se pueden introducir en la computadora cono entrada luego se procesa para lograr producir una salida(output) el resultado que se obtiene será la información, genéricamente hablado.

1.2ZIP DRIVE:Un teclado es un periférico o dispositivo que consiste en un sistema de teclas, como las de una máquina de escribir, que permite introducir datos a un ordenador o dispositivo digital.
El Zip drive es un sistema de disco removible de mediana capacidad, introducido en el mercado por la empresa Iomega en .
El Zip Drive se basó en el sistema Bernoulli Box de la propia Iomega; en ambos sistemas, un juego de cabezas de read/write montado en atuadores lineares flotando encima de un disquete girando rápidamente montado en un cartucho robusto. El Zip Drive usa medidas menores (aproximadamente el tamaño de un disquete , en lugar de los discos de tamaño compacto de las mídias Bernoulli).
Esto resulta que es un disco que tiene todo lo conveniente del disquete 3.5" , pero almacena muchos más datos, con un desempeño que es mucho más rápido que un floppy drive. El Zip Drive original tenía una tasa de transferencia de datos de cerca de 1 MB/s y un tiempo de búsqueda de 28 milisegundos promedio, comparado a los 500 Kb/s de tasa de transferencia de un disquete de 1.4 MB y varias centenas de milissegundos de tiempo de búsqueda.
1.3 TECLADO
Un teclado es un periférico o dispositivo que consiste en un sistema de teclas, como las de una máquina de escribir, que permite introducir datos a un ordenador o dispositivo digital.

1.4 MOUSE
El ratón o mouse es un dispositivo apuntador, generalmente fabricado en plástico. Se utiliza con una de las manos del usuario y detecta su movimiento relativo en dos dimensiones por la superficie plana en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor.

2 Análisis placa base

2.1 Definición:La placa base, placa madre, tarjeta madre es una tarjeta de circuito impreso a la que se conectan las demás partes de la computadora. Tiene instalados una serie de integrados, entre los que se encuentra el Chipset que sirve como centro de conexión entre el procesador, la memoria RAM, los buses de expansión y otros dispositivos.
Va instalada dentro de un gabinete que por lo general esta hecho de lamina y tiene un panel para conectar dispositivos externos y muchos conectores internos y zócalos para instalar componentes dentro del gabinete.
La placa base además incluye un software llamado BIOS, que le permite realizar las funcionalidades básicas como: pruebas de los dispositivos, vídeo y manejo del teclado, reconocimiento de dispositivos y carga del sistema operativo.

jueves, 5 de noviembre de 2009

LINUX




GNU/Linux (Linux) es uno de los términos empleados para referirse al sistema operativo libre similar a Unix que utiliza el núcleo Linux y herramientas de sistema GNU. Su desarrollo es uno de los ejemplos más prominentes de software libre; todo el código fuente puede ser utilizado, modificado y redistribuido libremente por cualquiera bajo los términos de la GPL (Licencia Pública General de GNU) y otras licencias libres.

A pesar de que Linux sólo es el núcleo de este sistema operativo una parte significativa de la comunidad, así como muchos medios generales y especializados, prefieren utilizar dicho término. Para más información consulte la sección "Denominación GNU/Linux" o el artículo "Controversia por la denominación GNU/Linux".

Las variantes de este sistema se denominan distribuciones y su objetivo es ofrecer una edición que cumpla con las necesidades de determinado grupo de usuarios.

Algunas distribuciones son especialmente conocidas por su uso en servidores y supercomputadoras. No obstante, es posible instalar GNU/Linux en una amplia variedad de hardware como computadoras de escritorio y portátiles.

En el caso de computadoras de bolsillo, teléfonos móviles, dispositivos empotrados, videoconsolas y otros, puede darse el caso en que las partes de GNU se remplacen por alternativas más adecuadas. Para saber más sobre las arquitecturas soportadas, lea el artículo "Portabilidad del núcleo Linux y arquitecturas soportadas".













-¿Qué es Linux?


Linux es un sistema operativo, una gran pieza de software que controla un computador. Es parecido a Microsoft Windows, pero completamente libre. El nombre correcto es GNU/Linux pero "Linux" se usa más.

Linux no es el producto de una sola compañía, es el resultado de la contribución de un gran número de compañías y grupos de personas. De hecho, el sistema GNU/Linux es un componente central, el cual se transforma en muchos productos diferentes: las llamadas distribuciones.

Las distribuciones cambian la apariencia y funcionamiento de Linux completamente. Las hay desde grandes sistemas completos totalmente equipados (respaldadas por compañías) hasta las más ligeras que entran en un llavero USB o funcionan en computadores viejos (usualmente desarrolladas por voluntarios).
Una distribución destacada, completa y fácil de usar para iniciarse en GNU/Linux es Ubuntu.

-¿Porqué Linux No?

Una copia legal de Windows es costosa, pero, ¿qué obtienes realmente? Ni Windows ni office son vendidos, sino que lo que se vende es una licencia para usarlos.

Para usar estos productos, tenemos que aceptar varias restricciones muy fuertes. En la mayoría de las licencias de Windows, no puedes conservar el software cuando cambias de computador. A veces ni siquiera puedes regalar el software. Microsoft te impone quién puede usar el software, en qué computador y para qué propósitos; la lista de restricciones es larga y en ocasiones aberrante.

Una sociedad libre necesita software libre. Necesita la libertad para inspeccionar el software, aprender de él, y modificarlo de acuerdo a sus necesidades.

Los computadores se usan para compartir ideas, cultura e información. Sin estas libertades sobre el software, estamos en riesgo de perder el control sobre lo que compartimos.

Esto ya está sucediendo hoy; desde tecnologías evidentemente fastidiosas como la Gestión de Digital de Restricciones (DRM) hasta las completamente espantosas como la Computación Confiable (TC). El derecho que tiene cualquiera de participar en la cultura se está viendo amenazado.

Si tienes que renunciar a tu libertad para usar un software, quizá entonces no estés contento con él.

El código fuente (los detalles del funcionamiento de un programa) de Windows y Office están ocultos, y además nadie tiene permiso legal para averiguar cómo funcionan.

Si no tienes derecho a inspeccionar el código fuente (la descripción del funcionamiento de un programa), no puedes pedirle a un informático que modifique el software ni que evalúe cómo el software protege tu privacidad.

Y adivina qué: En el software que cuyo código fuente está disponible, los programas maliciosos (como los virus) no logran su objetivo, es decir, aquí la seguridad no se compra por separado. La industria de los antivirus, en la cual Microsoft juega un papel crucial, prefiere que tú uses Windows.

-USANDO LINUX



GNU/Linux no es más difícil de usar que Windows, y tiene muchas más funcionalidades. Se tarda sólo unos minutos en familiarizarse con una distribución como Ubuntu o Fedora, la cual viene con muchos programas instalados.

Si necesita software de calidad comercial para trabajar con documentos de negocios, Internet, conexión de redes, o trabajar con gráficos, está listo para que lo use. ¿Quiere aún más? Linux puede hacerlo: Existen muchos miles de programas que puede encontrar, instalar y desinstalar de una forma intuitiva y sencilla.

Sin embargo, no debería asumir que Linux es un clon de Windows. Para saber qué le espera al adentrarse en Linux, le sugerimos leer nuestra página relacionada con migrar a Linux.