viernes, 7 de diciembre de 2007

Linux

Linux
El logotipo oficial del núcleo Linux es el pingüino Tux
El logotipo oficial del núcleo Linux es el pingüino Tux
Desarrollador: Varios
Modelo de desarrollo: Open source
Núcleo: Linux
Tipo de núcleo: Monolítico
Licencia: GPL
Estado actual: En desarrollo

Linux es la denominación de un sistema operativo tipo Unix y el nombre de un núcleo. Es uno de los paradigmas más prominentes del software libre y del desarrollo del código abierto, cuyo código fuente está disponible públicamente, para que cualquier persona pueda libremente usarlo, estudiarlo, redistribuirlo y, con los conocimientos informáticos adecuados, modificarlo[1] .

Los primeros sistemas Linux se originaron en 1992, al combinar utilidades de sistema y bibliotecas del proyecto GNU con el núcleo Linux, completando un sistema también conocido como GNU/Linux[2] . Desde finales de 2000 Linux ha obtenido un aumento en el apoyo de diversas empresas multinacionales del mundo de la informática, tales como IBM[3] , Sun Microsystems[4] , Hewlett-Packard[5] y Novell[6] . Actualmente Linux es comercializado en computadores de escritorio y portátiles por Dell[7] y Lenovo[8] , además hay un grupo numeroso de compañías establecidas en Taiwan que planean hacer lo propio[9] .

Si bien Linux es usado como sistema operativo en computadores de escritorio (PCs x86 y x86-64 así como Macintosh y PowerPC), computadores de bolsillo, teléfonos celulares, dispositivos empotrados, videoconsolas (Xbox, PlayStation 3, PlayStation Portable, Dreamcast, GP2X...) y otros, su mayor desarrollo se ha llevado a cabo en el mundo de los servidores y supercomputadores[10] .

La marca Linux (Número de serie: 1916230) pertenece a Linus Torvalds y se define como "un sistema operativo para computadoras que facilita su uso y operación".

Existen grupos de usuarios del sistema Linux en casi todas las áreas del planeta.


Etimología

Linux se refiere estrictamente al núcleo Linux, pero es comúnmente utilizado para describir al sistema operativo tipo Unix (que implementa el estándar POSIX), que utiliza primordialmente filosofía y metodologías libres (también conocido como GNU/Linux) y que está formado mediante la combinación del núcleo Linux con las bibliotecas y herramientas del proyecto GNU y de muchos otros proyectos/grupos de software (libre o no libre).

La expresión "Linux" es utilizada para referirse a las distribuciones GNU/Linux, colecciones de software que suelen contener grandes cantidades de paquetes además del núcleo. El software que suelen incluir consta de una enorme variedad de aplicaciones, como: entornos gráficos, suites ofimáticas, servidores web, servidores de correo, servidores FTP, etcétera. Coloquialmente se aplica el término "Linux" a éstas. Algunas personas opinan que es incorrecto denominarlas distribuciones Linux, y proponen llamarlas sistema GNU/Linux. Otras personas opinan que los programas incluidos proceden de fuentes tan variadas que proponen simplificarlo denominándolo simplemente a "Linux".

Pronunciación: /lí.nuks/, no /lái.nuks/ —

La pronunciación correcta (para cualquier idioma) es muy cercana a como se pronuncia en español: /lí.nux/ o /lnəks/ (Alfabeto Fonético Internacional).

Historia


Linus Torvalds, creador del núcleo Linux
Linus Torvalds, creador del núcleo Linux

Linux nació gracias a la idea de Linus Torvalds de crear un sistema basado en Unix para máquinas i386; en más de una ocasión, Linus Torvalds ha afirmado que si hubiera sabido de la existencia de los sistemas BSD que ya cumplían lo que hacía Linux, no se habría molestado en modificar Minix. La historia de Linux está fuertemente vinculada a la del proyecto GNU. El proyecto GNU, iniciado en 1983, tiene como objetivo el desarrollo de un sistema Unix completo compuesto enteramente de software libre. Hacia 1991, cuando la primera versión del núcleo Linux fue liberada, el proyecto GNU había producido varios de los componentes del sistema operativo, incluyendo un intérprete de comandos, una biblioteca C y un compilador, pero aún no contaba con el núcleo que permitiera completar el sistema operativo.

Entonces, el núcleo creado por Linus Torvalds, quien se encontraba por entonces estudiando en la Universidad de Helsinki, llenó el hueco final que el sistema operativo GNU exigía. Subsecuentemente, miles de programadores voluntarios alrededor del mundo han participado en el proyecto, mejorándolo continuamente. Torvalds y otros desarrolladores de los primeros días de Linux adaptaron los componentes de GNU y de BSD, así como de otros muchos proyectos como Perl, Apache, Python, etc. para trabajar con el núcleo Linux, creando un sistema operativo completamente funcional procedente de muchísimas fuentes diferentes, la mayoría libres.

Distribuciones Linux


Sharp Zaurus, un computador de bolsillo con Linux.
Sharp Zaurus, un computador de bolsillo con Linux.

Una distribución es un conjunto de aplicaciones reunidas por un grupo, empresa o persona para permitir instalar fácilmente un sistema Linux. Es un sabor de Linux. En general se destacan por las herramientas para configuración y sistemas de paquetes de software a instalar.

Existen numerosas distribuciones Linux (también conocidas como "distros"), ensambladas por individuos, empresas y otros organismos. Cada distribución puede incluir cualquier número de software adicional, incluyendo software que facilite la instalación del sistema. La base del software incluido con cada distribución incluye el núcleo Linux y las herramientas GNU, al que suelen adicionarse también varios paquetes de software.

Las herramientas que suelen incluirse en la distribución de este sistema operativo se obtienen de diversas fuentes, incluyendo de manera importante proyectos de código abierto o libre, como el GNU y el BSD o el KDE. Debido a que las herramientas de software libre que en primera instancia volvieron funcional al núcleo de Linux provienen del proyecto GNU que desde 1983 había liberado software que pudo ser usado en el proyecto de Linux de 1991, Richard Stallman (fundador del proyecto GNU) pide a los usuarios que se refieran a dicho sistema como GNU/Linux. A pesar de esto, la mayoría de los usuarios continúan llamando al sistema simplemente "Linux" y las razones expuestas por Richard Stallman son eterno motivo de controversia. La mayoría de los sistemas "Linux" incluyen también herramientas procedentes de BSD y de muchos otros proyectos como Mozilla, Perl, Ruby, Python, PostgreSQL, MySQL, Xorg, casi todas con licencia GPL o compatibles con ésta (LGPL, MPL) otro aporte fundamental del proyecto GNU.

Usualmente se utiliza la plataforma XFree86 o la X.Org para sostener interfaces gráficas.

Cómo se instala Linux

Linux en la actualidad es un sistema operativo generalmente fácil de instalar, debido a que la mayoría de sus distribuciones puede utilizarse desde el CD (LiveCD) antes de instalarse en la computadora e incluso instalarse desde ese mismo entorno. Basta con descargar la imagen .iso de una distribución, grabarla en un CD o DVD e iniciar la computadora utilizando dicho disco. Algunas distribuciones muy utilizadas son Debian, SuSE, Ubuntu o YellowDog (esta última es la más común en la plataforma PlayStation 3). La mayoría de las distribuciones son gratuitas y pueden conseguirse fácilmente a través de las páginas web de sus fabricantes o a través de archivos torrent.

Existen versiones linux para máquinas x86 (abarca desde computadoras 386, pentium I, celeron, hasta pentium IV), también para 64 bits (los nuevos procesadores, aunque también trabajan con linux para x86), y para procesadores PowerPc (ppc) de las computadoras Apple Macintosh.

El resto es tan fácil como instalar Windows, incluso algunas distribuciones permiten entrar al escritorio linux sin necesidad de instalar el sistema operativo (desde el CD), para luego usarlo o instalarlo desde el escritorio. Este es el caso de Ubuntu y Kubuntu y las versiones más actualizadas, se inserta el cd/dvd dentro de la computadora, se reinicia el equipo y en uno o dos minutos se está en el escritorio del sistema operativo Linux. Estas versiones son también llamadas Live, del inglés "en vivo".

Actualmente Linux es un sistema fácil de usar. Cada distribución trae programas seleccionados por los autores de la distribución incluidos en el cd o en el dvd, y se pueden instalar tanto al comienzo de la instalación como luego de haber instalado el sistema. Se puede instalar en computadoras que se consideren "obsoletas", pero esto puede resultarle complicado a un usuario novato.

Aplicaciones de los sistemas Linux

Escritorio KDE 3.4.2 corriendo sobre Gentoo Linux (2.6.13-r9) corriendo un cliente IRC Konversation, un cliente p2p aMule y un reproductor musical Amarok.
Escritorio KDE 3.4.2 corriendo sobre Gentoo Linux (2.6.13-r9) corriendo un cliente IRC Konversation, un cliente p2p aMule y un reproductor musical Amarok.

Con la adopción por numerosas empresas fabricantes de PCs, muchas computadoras son vendidas con distribuciones GNU/Linux pre-instaladas, y "GNU/Linux" ha comenzado a tomar su lugar en el vasto mercado de las computadoras de escritorio.

Con entornos de escritorio, "GNU/Linux" ofrece una interfaz gráfica alternativa a la tradicional interfaz de línea de comandos de Unix. Existen en la actualidad numerosas aplicaciones gráficas, ya sean libres o no, que ofrecen funcionalidad que está permitiendo que GNU\Linux se adapte como herramienta de escritorio.

Algunas distribuciones permiten el arranque de Linux directamente desde un disco compacto (llamados LiveCDs) sin modificar en absoluto el disco duro de la computadora en la que se ejecuta Linux. Para este tipo de distribuciones, en general, los archivos de imagen (archivos ISO) están disponibles en Internet para su descarga.

Otras posibilidades incluyen iniciar el arranque desde una red (ideal para sistemas con requerimientos mínimos) o desde un disco flexible o disquete o de unidades de almacenamiento USB.

La escala del desarrollo de "Linux"

Un estudio sobre la distribución Red Hat 7.1 reveló que ésta en particular posee más de 30 millones de líneas de código real. Utilizando el modelo de cálculo de costos COCOMO, puede estimarse que esta distribución requeriría 8.000 programadores por año para su desarrollo. De haber sido desarrollado por medios convencionales de código cerrado, hubiera costado más de mil millones de dólares en los Estados Unidos.

La mayor parte de su código (71%) pertenecía al lenguaje C, pero fueron utilizados muchos otros lenguajes para su desarrollo, incluyendo C++, Bash, Lisp, Ensamblador, Perl, Fortran y Python.

Alrededor de la mitad de su código total (contado en líneas de código) fue liberado bajo la licencia GPL en su versión 2.

El núcleo Linux contenía entonces 2,4 millones de líneas de código, correspondiente al 8% del total, demostrando que la vasta mayoría del sistema operativo no pertenece al núcleo del mismo.

En un estudio posterior, Counting potatoes: the size of Debian 2.2, el mismo análisis fue hecho para Debian GNU/Linux versión 2.2. Esta distribución contiene más de 55 millones de líneas de código fuente, y habría costado 1.900 millones de dólares (año 2000) el desarrollo por medios convencionales (no libres); y el núcleo Linux continua siendo de unas 2,5 millones de líneas.

GNU/Linux como sistema de programación

La colección de utilidades para la programación de GNU es con diferencia la familia de compiladores más utilizada en Linux. Tiene capacidad para compilar C, C++, Java, Ada, entre otros muchos lenguajes. Además soporta diversas arquitecturas mediante la compilación cruzada, lo que hace que sea un entorno adecuado para desarrollos heterogéneos.

Hay varios IDEs disponibles para Linux incluyendo, Anjuta, KDevelop, Ultimate++, Code::Blocks, NetBeans IDE y Eclipse. Además existen editores extensibles como pueda ser Emacs que hoy en día siguen siendo ampliamente utilizados. GNU/Linux también dispone de capacidades para lenguajes de guión (script), aparte de los clásicos lenguajes de programación de shell, la mayoría de las distribuciones tienen instalado Python, Perl, PHP y Ruby.

Linux en la Administración Pública

Hay una serie de administraciones públicas que han mostrado su apoyo al software libre, sea migrando total o parcialmente sus servidores y sistemas de escritorio, sea subvencionándolo. Como ejemplos se tiene a:

  • Alemania pagando por el desarrollo del Kroupware. Además ciudades como Múnich, que migró sus sistemas a SuSE Linux, una distribución alemana especialmente orientada a KDE.
  • Cuba donde el gobierno ha establecido una indicación oficial para introducir de manera progresiva el software libre y en particular GNU/Linux y en el que la red de Salud Pública, Infomed, fue pionera en su uso.
  • China, con su acuerdo con Sun Microsystems para distribuir millones de Java Desktop (una distribución de GNU/Linux basada en GNOME y especialmente bien integrada con java)
  • Brasil, con una actitud generalmente positiva, y, por ejemplo, con el desarrollo de los telecentros
  • En España, algunos gobiernos autonómicos están desarrollando sus propias distribuciones no sólo para uso administrativo sino también académico. Así tenemos LinEx en Extremadura, Augustux en Aragón, GuadaLinex en Andalucía, LliureX en La Comunidad Valenciana, Molinux en Castilla-La Mancha, MAX en La Comunidad de Madrid, Linkat en Cataluña, Trisquel en la Comunidad de Galicia, LinuxGlobal en Cantabria, EHUX en el País Vasco, mEDUXa en la comunidad Canaria , Silu en la Provincia de Las Palmas en Canarias como proyecto de la ULPGC y Melinux en la Ciudad Autónoma de Melilla, por el momento. Todas estas distribuciones (a excepción de Linkat) tienen en común el hecho de estar basadas en Debian, o alguno de sus derivados, como Ubuntu.
  • Perú donde se desarrollo Tumix, es una distribución GNU/Linux del tipo LiveCD, está desarrollada en el Perú por iniciativa del grupo de usuarios de software libre Somos Libres.
  • Venezuela donde por decreto, se estableció el uso preferente del software libre y GNU/Linux en toda la administración pública, incluyendo ministerios y oficinas gubernamentales y se está fomentando la investigación y el desarrollo de software libre. Actualmente la Universidad de Los Andes desarrolla una distribución linux llamada ULAnix basada en Debian y que es la primera creada en ambiente universitario venezolano. Existe una nueva distribución desarrollada por el Ministerio del Poder Popular para las Telecomunicaciones y la Informática, la misma está basada en Debian y se encuentra disponible en un sitio mantenido por esta entidad [1]
  • Chile, donde el Ministerio de Educación y la Universidad de la Frontera (ubicada en Temuco) crearon EduLinux, una distribución que hoy está en más de 1500 escuelas chilenas y funcionando en más de un 90% de las bibliotecas chilenas. Actualmente las Fuerzas Armadas chilenas están planificando la creación de una distribución militar que interconecte a las ramas de la defensa chilena. El gobierno de ese país aprobó el uso del software libre en la administración pública, anulando así un contrato previo con Microsoft para el mantenimiento de las redes y de los equipos en escuelas y bibliotecas chilenas.
  • República Dominicana, promociona el uso y proliferación del Software libre en el campo educativo y científico. Dispone de dos fundaciones, una en la capital de Santo Domingo y la otra en la ciudad de Santiago. Codigolibre.org
  • México el Gobierno del Distrito Federal dentro de sus políticas y lineamientos en materia de Informática da preferencia al uso del Software Libre. La Delegación Tlalpan personaliza y adapta a sus necesidades la distribución Fedora dándole el nombre de Gobierno GDF/Linux y la UNAM creadora de el sistema operativo de Linux 100% mexicano llamado Jarro Negro el cual puede instalarse o usarse en Live cd.

Linux en el mercado

Richard Stallman, creador del proyecto GNU
Richard Stallman, creador del proyecto GNU

La creciente popularidad de Linux se debe a las ventajas que presenta ante otros tipos de software. Entre otras razones se debe a su estabilidad, al acceso a las fuentes (lo que permite personalizar el funcionamiento y auditar la seguridad y privacidad de los datos tratados), a la independencia de proveedor, a la seguridad, a la rapidez con que incorpora los nuevos adelantos tecnológicos (IPv6, microprocesadores de 64 bits), a la escalabilidad (se pueden crear clusters de cientos de computadoras), a la activa comunidad de desarrollo que hay a su alrededor, a su interoperatibilidad y a la abundancia de documentación relativa a los procedimientos.

Hay varias empresas que comercializan soluciones basadas en Linux: IBM, Novell, Red Hat, Rxart, Canonical Ltd. (Ubuntu), así como miles de PYMES que ofrecen productos o servicios basados en esta tecnología.

Servidores basados en Linux.
Servidores basados en Linux.

Dentro del segmento de supercomputadoras, la 9ª más potente del mundo y primera más potente fuera de EE.UU a Junio de 2007 [2], denominada MareNostrum, fue desarrollada por IBM y está basada en un cluster Linux [3]. Se encuentra alojada en Barcelona y es gestionada por la "Universitat Politècnica de Catalunya" (UPC). A fines de 2006, de acuerdo al TOP500.org, encargado de monitorear las 500 principales supercomputadoras del mundo: 371 usaban una distribución basada en GNU/Linux, 81 Unix, 32 SLES (una variante de Unix), 13 Únicos con Linux y 3 Mac. Ninguna usaba Windows.

Linux, además de tener una amplia cuota en el mercado de servidores de internet, debido entre otras cosas a la gran cantidad de soluciones que tiene para este segmento, tiene un creciente campo en computadoras de escritorio y portátiles. Prueba de ello es que es el sistema base que se ha elegido para el proyecto OLPC"ONE LAPTOP PER CHILDREN", que tiene como objetivo llevar un ordenador portátil a cada niño de países como China, Brasil, Argentina, Uruguay y Perú y está patrocinado por la iniciativa del MIT y firmas como AMD, Google y Sun Microsystems.

Entre las entidades más destacadas que usan Linux se encuentra la bolsa de Nueva York.

martes, 28 de agosto de 2007

Historia de las computadoras

COMPUTADORA
Maquina capaz de efectuar una secuencia de operaciones mediante un programa, de tal manera, que se realice un procesamiento sobre un conjunto de datos de entrada, obteniendose otro conjunto de datos de salida.

TIPOS DE COMPUTADORAS

Se clasifican de acuerdo al principio de operacion de Analogicas y Digitales.

COMPUTADORA ANALÓGICA
Aprovechando el hecho de que diferentes fenomenos fisicos se describen por relaciones matematicas similares (v.g. Exponenciales, Logaritmicas, etc.) pueden entregar la solucion muy rapidamente. Pero tienen el inconveniente que al cambiar el problema a resolver, hay que realambrar la circuiteria (cambiar el Hardware).
COMPUTADORA DIGITAL
Estan basadas en dispositivos biestables, i.e., que solo pueden tomar uno de dos valores posibles: ‘1’ o ‘0’. Tienen como ventaja, el poder ejecutar diferentes programas para diferentes problemas, sin tener que la necesidad de modificar fisicamente la maquina.
HISTORIA DE LA COMPUTADORA

Uno de los primeros dispositivos mecanicos para contar fue el abaco, cuya historia se remonta a las antiguas civilizaciones griega y romana. Este dispositivo es muy sencillo, consta de cuentas ensartadas en varillas que a su vez estan montadas en un marco rectangular. Al desplazar las cuentas sobre varillas, sus posiciones representan valores almacenados, y es mediante dichas posiciones que este representa y almacena datos. A este dispositivo no se le puede llamar computadora por carecer del elemento fundamental llamado programa.

Otro de los inventos mecanicos fue la Pascalina inventada por Blaise Pascal (1623 - 1662) de Francia y la de Gottfried Wilhelm von Leibniz (1646 - 1716) de Alemania. Con estas maquinas, los datos se representaban mediante las posiciones de los engranajes, y los datos se introducian manualmente estableciendo dichas posiciones finales de las ruedas, de manera similar a como leemos los numeros en el cuentakilometros de un automovil.

La primera computadora fue la maquina analitica creada por Charles Babbage, profesor matematico de la Universidad de Cambridge en el siglo XIX. La idea que tuvo Charles Babbage sobre un computador nacio debido a que la elaboracion de las tablas matematicas era un proceso tedioso y propenso a errores. En 1823 el gobierno Britanico lo apoyo para crear el proyecto de una maquina de diferencias, un dispositivo mecanico para efectuar sumas repetidas.

Mientras tanto Charles Jacquard (frances), fabricante de tejidos, habia creado un telar que podia reproducir automaticamente patrones de tejidos leyendo la informacion codificada en patrones de agujeros perforados en tarjetas de papel rigido. Al enterarse de este metodo Babbage abandono la maquina de diferencias y se dedico al proyecto de la maquina analitica que se pudiera programar con tarjetas perforadas para efectuar cualquier calculo con una precision de 20 digitos. La tecnologia de la epoca no bastaba para hacer realidad sus ideas.

El mundo no estaba listo, y no lo estaria por cien años mas.

En 1944 se construyo en la Universidad de Harvard, la Mark I, diseñada por un equipo encabezado por Howard H. Aiken. Esta maquina no esta considerada como computadora electronica debido a que no era de proposito general y su funcionamiento estaba basado en dispositivos electromecanicos llamados relevadores.

En 1947 se construyo en la Universidad de Pennsylvania la ENIAC (Electronic Numerical Integrator And Calculator) que fue la primera computadora electronica, el equipo de diseño lo encabezaron los ingenieros John Mauchly y John Eckert. Esta maquina ocupaba todo un sotano de la Universidad, tenia mas de 18 000 tubos de vacio, consumia 200 KW de energia electrica y requeria todo un sistema de aire acondicionado, pero tenia la capacidad de realizar cinco mil operaciones aritmeticas en un segundo.

El proyecto, auspiciado por el departamento de Defensa de los Estados Unidos, culmino dos años despues, cuando se integro a ese equipo el ingeniero y matematico hungaro John von Neumann (1903 - 1957). Las ideas de von Neumann resultaron tan fundamentales para su desarrollo posterior, que es considerado el padre de las computadoras.

La EDVAC (Electronic Discrete Variable Automatic Computer) fue diseñada por este nuevo equipo. Tenia aproximadamente cuatro mil bulbos y usaba un tipo de memoria basado en tubos llenos de mercurio por donde circulaban señales electricas sujetas a retardos.

La idea fundamental de von Neumann fue: permitir que en la memoria coexistan datos con instrucciones, para que entonces la computadora pueda ser programada en un lenguaje, y no por medio de alambres que electricamente interconectaban varias secciones de control, como en la ENIAC.

Todo este desarrollo de las computadoras suele divisarse por generaciones y el criterio que se determino para determinar el cambio de generacion no esta muy bien definido, pero resulta aparente que deben cumplirse al menos los siguientes requisitos:

La forma en que estan construidas.
Forma en que el ser humano se comunica con ellas.
Primera Generacion

En esta generacion habia una gran desconocimiento de las capacidades de las computadoras, puesto que se realizo un estudio en esta epoca que determino que con veinte computadoras se saturaria el mercado de los Estados Unidos en el campo de procesamiento de datos.

Esta generacion abarco la decada de los cincuenta. Y se conoce como la primera generacion. Estas maquinas tenian las siguientes caracteristicas:

Estas maquinas estaban construidas por medio de tubos de vacio.
Eran programadas en lenguaje de maquina.
En esta generacion las maquinas son grandes y costosas (de un costo aproximado de ciento de miles de dolares).

En 1951 aparece la UNIVAC (NIVersAl Computer), fue la primera computadora comercial, que disponia de mil palabras de memoria central y podian leer cintas magneticas, se utilizo para procesar el censo de 1950 en los Estados Unidos.

En las dos primeras generaciones, las unidades de entrada utilizaban tarjetas perforadas, retomadas por Herman Hollerith (1860 - 1929), quien ademas fundo una compañia que con el paso del tiempo se conoceria como IBM (International Bussines Machines).

Despues se desarrollo por IBM la IBM 701 de la cual se entregaron 18 unidades entre 1953 y 1957.

Posteriormente, la compañia Remington Rand fabrico el modelo 1103, que competia con la 701 en el campo cientifico, por lo que la IBM desarrollo la 702, la cual presento problemas en memoria, debido a esto no duro en el mercado.

La computadora mas exitosa de la primera generacion fue la IBM 650, de la cual se produjeron varios cientos. Esta computadora que usaba un esquema de memoria secundaria llamado tambor magnetico, que es el antecesor de los discos actuales.

Otros modelos de computadora que se pueden situar en los inicios de la segunda generacion son: la UNIVAC 80 y 90, las IBM 704 y 709, Burroughs 220 y UNIVAC 1105.

Segunda Generacion

Cerca de la decada de 1960, las computadoras seguian evolucionando, se reducia su tamaño y crecia su capacidad de procesamiento. Tambien en esta epoca se empezo a definir la forma de comunicarse con las computadoras, que recibia el nombre de programacion de sistemas.

Las caracteristicas de la segunda generacion son las siguientes:

Estan construidas con circuitos de transistores.
Se programan en nuevos lenguajes llamados lenguajes de alto nivel.
En esta generacion las computadoras se reducen de tamaño y son de menor costo. Aparecen muchas compañias y las computadoras eran bastante avanzadas para su epoca como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester.

Algunas de estas computadoras se programaban con cintas perforadas y otras mas por medio de cableado en un tablero. Los programas eran hechos a la medida por un equipo de expertos: analistas, diseñadores, programadores y operadores que se manejaban como una orquesta para resolver los problemas y calculos solicitados por la administracion. El usuario final de la informacion no tenia contacto directo con las computadoras. Esta situacion en un principio se produjo en las primeras computadoras personales, pues se requeria saberlas "programar" (alimentarle instrucciones) para obtener resultados; por lo tanto su uso estaba limitado a aquellos audaces pioneros que gustaran de pasar un buen numero de horas escribiendo instrucciones, "corriendo" el programa resultante y verificando y corrigiendo los errores o bugs que aparecieran. Ademas, para no perder el "programa" resultante habia que "guardarlo" (almacenarlo) en una grabadora de astte, pues en esa epoca no habia discos flexibles y mucho menos discos duros para las PC; este procedimiento podia tomar de 10 a 45 minutos, segun el programa. El panorama se modifico totalmente con la aparicion de las computadoras personales con mejore circuitos, mas memoria, unidades de disco flexible y sobre todo con la aparicion de programas de aplicacion general en donde el usuario compra el programa y se pone a trabajar. Aparecen los programas procesadores de palabras como el celebre Word Star, la impresionante hoja de calculo (spreadsheet) Visicalc y otros mas que de la noche a la mañana cambian la imagen de la PC. El sortware empieza a tratar de alcanzar el paso del hardware. Pero aqui aparece un nuevo elemento: el usuario.

El usuario de las computadoras va cambiando y evolucionando con el tiempo. De estar totalmente desconectado a ellas en las maquinas grandes pasa la PC a ser pieza clave en el diseño tanto del hardware como del software. Aparece el concepto de human interface que es la relacion entre el usuario y su computadora. Se habla entonces de hardware ergonomico (adaptado a las dimensiones humanas para reducir el cansancio), diseños de pantallas antirreflejos y teclados que descansen la muñeca. Con respecto al software se inicia una verdadera carrera para encontrar la manera en que el usuario pase menos tiempo capacitandose y entrenandose y mas tiempo produciendo. Se ponen al alcance programas con menus (listas de opciones) que orientan en todo momento al usuario (con el consiguiente aburrimiento de los usuarios expertos); otros programas ofrecen toda una artilleria de teclas de control y teclas de funciones (atajos) para efectuar toda suerte de efectos en el trabajo (con la consiguiente desorientacion de los usuarios novatos). Se ofrecen un sinnumero de cursos prometiendo que en pocas semanas hacen de cualquier persona un experto en los programas comerciales. Pero el problema "constante" es que ninguna solucion para el uso de los programas es "constante". Cada nuevo programa requiere aprender nuevos controles, nuevos trucos, nuevos menus. Se empieza a sentir que la relacion usuario-PC no esta acorde con los desarrollos del equipo y de la potencia de los programas. Hace falta una relacion amistosa entre el usuario y la PC.

Las computadoras de esta generacion fueron: la Philco 212 (esta compañia se retiro del mercado en 1964) y la UNIVAC M460, la Control Data Corporation modelo 1604, seguida por la serie 3000, la IBM mejoro la 709 y saco al mercado la 7090, la National Cash Register empezo a producir maquinas para proceso de datos de tipo comercial, introdujo el modelo NCR 315.

La Radio Corporation of America introdujo el modelo 501, que manejaba el lenguaje COBOL, para procesos administrativos y comerciales. Despues salio al mercado la RCA 601.

Tercera generacion

Con los progresos de la electronica y los avances de comunicacion con las computadoras en la decada de los 1960, surge la tercera generacion de las computadoras. Se inaugura con la IBM 360 en abril de 1964.3

Las caracteristicas de esta generacion fueron las siguientes:

Su fabricacion electronica esta basada en circuitos integrados.
Su manejo es por medio de los lenguajes de control de los sistemas operativos.
La IBM produce la serie 360 con los modelos 20, 22, 30, 40, 50, 65, 67, 75, 85, 90, 195 que utilizaban tecnicas especiales del procesador, unidades de cinta de nueve canales, paquetes de discos magneticos y otras caracteristicas que ahora son estandares (no todos los modelos usaban estas tecnicas, sino que estaba dividido por aplicaciones).

El sistema operativo de la serie 360, se llamo OS que contaba con varias configuraciones, incluia un conjunto de tecnicas de manejo de memoria y del procesador que pronto se convirtieron en estandares.

En 1964 CDC introdujo la serie 6000 con la computadora 6600 que se considero durante algunos años como la mas rapida.

En la decada de 1970, la IBM produce la serie 370 (modelos 115, 125, 135, 145, 158, 168). UNIVAC compite son los modelos 1108 y 1110, maquinas en gran escala; mientras que CDC produce su serie 7000 con el modelo 7600. Estas computadoras se caracterizan por ser muy potentes y veloces.

A finales de esta decada la IBM de su serie 370 produce los modelos 3031, 3033, 4341. Burroughs con su serie 6000 produce los modelos 6500 y 6700 de avanzado diseño, que se reemplazaron por su serie 7000. Honey - Well participa con su computadora DPS con varios modelos.

A mediados de la decada de 1970, aparecen en el mercado las computadoras de tamaño mediano, o minicomputadoras que no son tan costosas como las grandes (llamadas tambien como mainframes que significa tambien, gran sistema), pero disponen de gran capacidad de procesamiento. Algunas minicomputadoras fueron las siguientes: la PDP - 8 y la PDP - 11 de Digital Equipment Corporation, la VAX (Virtual Address eXtended) de la misma compañia, los modelos NOVA y ECLIPSE de Data General, la serie 3000 y 9000 de Hewlett - Packard con varios modelos el 36 y el 34, la Wang y Honey - Well -Bull, Siemens de origen aleman, la ICL fabricada en Inglaterra. En la Union Sovietica se utilizo la US (Sistema Unificado, Ryad) que ha pasado por varias generaciones.

Cuarta Generacion

Aqui aparecen los microprocesadores que es un gran adelanto de la microelectronica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aqui nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada "revolucion informatica".

En 1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso masivo y mas tarde forman la compañia conocida como la Apple que fue la segunda compañia mas grande del mundo, antecedida tan solo por IBM; y esta por su parte es aun de las cinco compañias mas grandes del mundo.

En 1981 se vendieron 800 00 computadoras personales, al siguiente subio a 1 400 000. Entre 1984 y 1987 se vendieron alrededor de 60 millones de computadoras personales, por lo que no queda duda que su impacto y penetracion han sido enormes.

Con el surgimiento de las computadoras personales, el software y los sistemas que con ellas de manejan han tenido un considerable avance, porque han hecho mas interactiva la comunicacion con el usuario. Surgen otras aplicaciones como los procesadores de palabra, las hojas electronicas de calculo, paquetes graficos, etc. Tambien las industrias del Software de las computadoras personales crece con gran rapidez, Gary Kildall y William Gates se dedicaron durante años a la creacion de sistemas operativos y metodos para lograr una utilizacion sencilla de las microcomputadoras (son los creadores de CP/M y de los productos de Microsoft).

No todo son microcomputadoras, por su puesto, las minicomputadoras y los grandes sistemas continuan en desarrollo. De hecho las maquinas pequeñas rebasaban por mucho la capacidad de los grandes sistemas de 10 o 15 años antes, que requerian de instalaciones costosas y especiales, pero seria equivocado suponer que las grandes computadoras han desaparecido; por el contrario, su presencia era ya ineludible en practicamente todas las esferas de control gubernamental, militar y de la gran industria. Las enormes computadoras de las series CDC, CRAY, Hitachi o IBM por ejemplo, eran capaces de atender a varios cientos de millones de operaciones por segundo.

Quinta Generacion

En vista de la acelerada marcha de la microelectronica, la sociedad industrial se ha dado a la tarea de poner tambien a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computacion, en la que se perfilan dos lideres que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje mas cotidiano y no a traves de codigos o lenguajes de control especializados.

Japon lanzo en 1983 el llamado "programa de la quinta generacion de computadoras", con los objetivos explicitos de producir maquinas con innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya esta en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera:

Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de gran velocidad.
Manejo de lenguaje natural y sistemas de inteligencia artificial.
El futuro previsible de la computacion es muy interesante, y se puede esperar que esta ciencia siga siendo objeto de atencion prioritaria de gobiernos y de la sociedad en conjunto.

MODELO DE VON NEUMANN

Las computadoras digitales actuales se ajustan al modelo propuesto por el matematico John Von Neumann. De acuerdo con el, una caracteristica importante de este modelo es que tanto los datos como los programas, se almacenan en la memoria antes de ser utilizados.

Historia de la Computadora

La primera maquina de calcular mecanica, un precursor del ordenador digital, fue inventada en 1642 por el matematico frances Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en las que cada uno de los dientes representaba un digito del 0 al 9. Las ruedas estaban conectadas de tal manera que podian sumarse numeros haciendolas avanzar el numero de dientes correcto. En 1670 el filosofo y matematico aleman Gottfried Wilhelm Leibniz perfecciono esta maquina e invento una que tambien podia multiplicar.

El inventor frances Joseph Marie Jacquard, al diseñar un telar automatico, utilizo delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la decada de 1880 el estadistico estadounidense Herman Hollerith concibio la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguio compilar la informacion estadistica destinada al censo de poblacion de 1890 de Estados Unidos mediante la utilizacion de un sistema que hacia pasar tarjetas perforadas sobre contactos electricos.

La maquina analitica

Tambien en el siglo XIX el matematico e inventor britanico Charles Babbage elaboro los principios de la computadora digital moderna. Invento una serie de maquinas, como la maquina diferencial, diseñadas para solucionar problemas matematicos complejos. Muchos historiadores consideran a Babbage y a su socia, la matematica britanica Augusta Ada Byron (1815-1852), hija del poeta ingles Lord Byron, como a los verdaderos inventores de la computadora digital moderna. La tecnologia de aquella epoca no era capaz de trasladar a la practica sus acertados conceptos; pero una de sus invenciones, la maquina analitica, ya tenia muchas de las caracteristicas de un ordenador moderno. Incluia una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matematicas y una impresora para hacer permanente el registro.

Primeros ordenadores

Los ordenadores analogicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los calculos mediante ejes y engranajes giratorios. Con estas maquinas se evaluaban las aproximaciones numericas de ecuaciones demasiado dificiles como para poder ser resueltas mediante otros metodos. Durante las dos guerras mundiales se utilizaron sistemas informaticos analogicos, primero mecanicos y mas tarde electricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviacion.

Ordenadores electronicos

Durante la II Guerra Mundial (1939-1945), un equipo de cientificos y matematicos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se considero el primer ordenador digital totalmente electronico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 valvulas o tubos de vacio, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habian construido un prototipo de maquina electronica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y mas tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numerico digital electronico (ENIAC) en 1945. El ENIAC, que segun mostro la evidencia se basaba en gran medida en el ‘ordenador’ Atanasoff-Berry (ABC, acronimo de Electronic Numerical Integrator and Computer), obtuvo una patente que caduco en 1973, varias decadas mas tarde.

El ENIAC contenia 18.000 valvulas de vacio y tenia una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debia ser modificado manualmente. Se construyo un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matematico hungaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecucion y permitia resolver problemas sin necesidad de volver a conectarse al ordenador.

A finales de la decada de 1950 el uso del transistor en los ordenadores marco el advenimiento de elementos logicos mas pequeños, rapidos y versatiles de lo que permitian las maquinas con valvulas. Como los transistores utilizan mucha menos energia y tienen una vida util mas prolongada, a su desarrollo se debio el nacimiento de maquinas mas perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generacion. Los componentes se hicieron mas pequeños, asi como los espacios entre ellos, por lo que la fabricacion del sistema resultaba mas barata.

Circuitos integrados

A finales de la decada de 1960 aparecio el circuito integrado (CI), que posibilito la fabricacion de varios transistores en un unico sustrato de silicio en el que los cables de interconexion iban soldados. El circuito integrado permitio una posterior reduccion del precio, el tamaño y los porcentajes de error. El microprocesador se convirtio en una realidad a mediados de la decada de 1970, con la introduccion del circuito de integracion a gran escala (LSI, acronimo de Large Scale Integrated) y, mas tarde, con el circuito de integracion a mayor escala (VLSI, acronimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un unico sustrato de silicio.