Ilustrados comunidad mundial educativa
Inicio | Escribenos
User: Pass: Recordar ó (Registrate!)

| !Publicar Articulo¡

Historia de las computadoras

Resumen: Desde que el Hombre inventó la Escritura, hasta las Tecnologías del Futuro. La historia que llevó a construir la primera computadora. El Software. Generaciones de sistemas operativos. Unix. Linux. OS/2 (IBM Operating System 2). Microsoft Windows. El Desarrollo de los Lenguajes y Técnicas de Programación. Programas traductores. Generaciones de computadoras. Categorías de las Computadoras. Microprocesadores. La Próxima Generación de Arquitecturas de Microprocesadores. Redes Informáticas. La Computación Vestible. Nanotecnología. El gran salto en la Informática y las Telecomunicaciones se dará con el uso de los componentes de la Luz.(V)
2,375 visitas
Rating: 0
Tell a Friend
Autor: Héctor Venti
Índice

Índice

La Historia que Llevó a Construir la Primera Computadora

El Software

Generaciones de sistemas operativos

Unix

Linux

OS/2 (IBM Operating System 2)

Microsoft Windows

El Desarrollo de los Lenguajes y Técnicas de Programación

Programas traductores

Generaciones de computadoras

Categorías de las Computadoras

Microprocesadores

La Próxima Generación de Arquitecturas de Microprocesadores

Redes Informáticas

La Computación Vestible

Nanotecnología

El gran salto en la Informática y las Telecomunicaciones se dará con el uso de los componentes de la Luz

Conclusión

Bibliografía

 

El primer escrito que se conoce se atribuye a los sumerios deMesopotamia y es anterior al 3000 a.C, los egipcios

escribían con jeroglíficos; los signos escritosrepresentaban sonidos o palabras, pero nunca letras, Los semitas utilizaron engeneral los signos cuneiformes que son, también, signos fonéticos En Biblos,los comerciantes utilizaban un sistema simplificado de jeroglíficos, de 75signos con valor fonético: es un primer paso hacia la alfabetización de laescritura. El primer texto descubierto es una inscripción sobre la tumba delrey Ahiram, de Biblos.

Entre el V y IV milenio a.C. aparecieron los primeros códigosde escritura, en Egipto, Mesopotamia y China.

Entre los años 1000 y 900 a.C. los griegos habían adoptadola variante fenicia del alfabeto semítico y a sus 22 consonantes habían añadidodos signos. Después del año 500 a.C. el griego ya se escribía de izquierda aderecha. Su alfabeto se difundió por todo el mundo mediterráneo y de élsurgen otras escrituras como la etrusca, osca, umbra y romana. Como consecuenciade las conquistas del pueblo romano y de la difusión del latín, su alfabeto seconvirtió en el básico de todas las lenguas europeas occidentales.

 Runas

Las runas son cada uno de los caracteres del alfabeto queusaron los pueblos germánicos. En toda la Europa occidental se han encontradoinscripciones rúnicas, en monumentos de piedra y en objetos metálicos comopuntas de lanza y amuletos

 Cuneiforme

La palabra "cuneiforme" procede del latín cuneusque significa cuña o ranura. Se sabe que los sumerios descubrieron la escrituraideográfica y que, con el paso del tiempo y mediante el uso de tablillas dearcilla como material para la escritura y de estiletes de caña como lápices,se fue transformando en la llamada escritura cuneiforme

 Escritura Alfabética

En torno al año 1500 a C surgió en el ámbito de la culturasemita, probablemente en Siria, la escritura alfabética.

Fue utilizado por numerosos pueblos antiguos y,posteriormente, permitió a los fenicios crear su alfabeto                - antecedente de todos los modernos - , que desarrollaron y difundieron por lospaíses a que llevaron su civilización. Los signos del alfabeto fenicio, comolos de todas las lenguas semitas, solo representaban las consonantes. Losgriegos que lo adoptaron hacia el año 800 a C, añadieron la representación devocales. Todos los alfabetos posteriores proceden del semita o del griego, y enellos se emplearon un número de letras que oscilaba entre 20 y 30. En laprimitiva escritura griega se utilizaban solamente letras mayúsculas;posteriormente se introdujeron las minúsculas. Ya en el siglo IV de la eracristiana, la roma imperial utilizaba una escritura corrida en la que semezclaban las mayúsculas con letras minúsculas cursivas. Este sistema supusouna gran reducción de signos con respecto a las demás escrituras, ya que lasilábica constaba de cerca de 90 símbolos, la cuneiforme de 700 y la chinacerca de varios miles de símbolos.

Los fenicios inventaron el alfabeto. Este alfabeto fenicio secomponía de 22 caracteres; y era un alfabeto moderno en todos los aspectos,excepto en uno: tenía consonantes, pero no vocales. La sencillez del alfabetopuso la escritura al alcance del hombre de la calle y le permitió a la mayoríade las clases sociales saber como escribir

 Los Griegos Adoptaron la escritura de los fenicios peroagregándole cinco letras, las vocales, la llamaban escritura fenicia

 Los Etruscos Las inscripciones de losetruscos, estaban escritas en caracteres griegos

 Los Hititas Los jeroglíficos hititasfueron escritos en direcciones alternas. Este sistema constaba de 419 símbolos,la mayoría de ellos pictográficos

 Los Sumerios Después de 1.500 años dela invención de su escritura, la cuneiforme, los sumerios habían conseguidocerca de 2.000 símbolos-palabra. Quinientos años mas tarde consiguierontransformarlos en símbolos abstractos, que en algunos casos representaban lossonidos de palabras.

 Los Egipcios Desarrollaron tres tipos deescritura: la jeroglífica, la hierática y la demorita

 Los Chinos La escritura china, que figuraentre las mas antiguas del mundo, ha conservado su caracteres esencial durantemas de 3.500 años el numero de caracteres usados por los chinos paso de 2.500 amas de 50.000 en la actualidad

 Los Incas Los incas fueron la únicacivilización capaz de llegar a un desarrollo alto pese a no tener ni elconocimiento de la rueda ni la tracción animal, llevaban registros meticulosospor medio de un instrumento basado en el uso de un complicado sistema de cuerdasanudadas

 Los Persas El idioma persa paso por dosfases básicas. La de la escritura cuneiforme y el alfabeto El imperio persaantiguo adopto de Mesopotamia la escritura cuneiforme, que termino siendo la masmoderna y sencilla de las cuatro variedades cuneiformes

 Los Asirios Desarrollaron una escrituracuneiforme, copiándola de los sumerios y desarrollándola según su idioma

ANTES DE CRISTO

 

h.3250

Desarrollo de la escritura cuneiforme en Sumer

3200:

Primeras inscripciones en Mesopotamia

h.3100

Escritura pictográfica inventada en Sumer

2900

Con la adopción de las tablas de arcilla la escritura mesopotámica se convierte en cuneiforme

2900

Primeras inscripciones jeroglíficas egipcias

2700

Inscripciones en el Valle del Indo

1700

Disco de Festo

h.1700

Los cananeos usan un nuevo método de escritura con un alfabeto de 27 letras

h.1500

Escritura ideográfica utilizada en China, escritura utilizada en Creta y Grecia; cuneiforme hitita ,en Anatolia

1600

Primeras inscripciones chinas sobre caparazones de tortuga

1500

Nace el alfabeto: las inscripciones paleosinaiticas

1500-1700

Escritura ideográfica

1500

Los hititas adoptan la escritura cuneiforme

1400

Inscripciones cretenses en «Lineal B".

1400

En Ugarit aparece una escritura alfabética cuneiforme

h.1000

Los fenicios inventan un alfabeto sencillo, que servirá de base al nuestro

S.X

Los fenicios difunden su alfabeto en sus expansiones coloniales por el Mediterráneo

S.X

Los griegos adoptan el alfabeto de los fenicios e introducen la escritura alfabética de las vocales

S.VIII

Los etruscos adoptan el alfabeto de los griegos

S.VII

Los latinos adoptan el alfabeto de los etruscos

S.VI-V

El arameo empieza su desarrollo hacia el este

S.VI

A partir del paleo-hebreo se desarrolla el hebreo "cuadrado», idéntico al actual

h.500

Primera escritura jeroglífica en México. (Monte Albán).

 S.V

En India aparece la escritura Brahmi, antepasada de todas las escrituras indias y de Asia oriental

 S.I

El alfabeto nabateo surge a partir de formas cursivas del alfabeto arameo, antepasado del árabe.

 

 

DESPUÉS DE CRISTO

 

S.I

El sirio nace de las formas cursivas del arameo.

S.IV

El pergamino suplanta al papiro en Europa.

S.IV

Empleo de la tinta metálica marrón rojiza para los manuscritos

S.IV

Empleo de letras onciales

S.IV

Para evangelizar el Cáucaso, el obispo Mesrop inventa la primera escritura armenia y, después, la georgiana.

S.V

Del nabateo nace el alfabeto árabe

S.V

Se utilizan los caracteres chinos en Japón

S.V

El libro desplaza al rollo

S.VII

La imprenta en China

S.X

Invención de la imprenta en China mediante el empleo de letras móviles, atribuida a Fong in-Wan

 

Los sumerios tuvieron una de las mejores escriturascuneiformes de esa época. Los egipcios desarrollaron casi a la perfección trestipos diferentes de escritura, los etruscos, los que originaron la civilizaciónromana, inventaron, al parecer, un buen sistema  y los griegos, unacivilización perfecta por periodos, desarrollaron un sistema bastante avanzadoque provenía de los fenicios, desarrollando hasta ahora el mejor o mayorsistema de escritura, la escritura alfabética. Si no hubiesen inventado unsistema no estaríamos aquí, sino que seguiríamos con sistemas retardadosantiguos. Mi opinión es que la escritura es uno de los mayores inventos que elhombre pudo haber hecho, junto con la rueda, la agricultura y el descubrimientodel fuego. El mayor éxito se lo atribuyo al intento de crear el mejor sistemade escritura a los fenicios. Creo que es la primera que creó un sistema deescritura capaz de decir o escribir cualquier pensamiento. Además desarrollaronel sistema de escritura más importante actualmente.  

La Historia que Llevó a Construir laPrimera Computadora

 Por siglos los hombres han tratado de usar fuerzas y artefactos dediferente tipo para realizar sus trabajos, para hacerlos mas simples y rápidos.La historia conocida de los artefactos que calculan o computan, se remonta amuchos años antes de Jesucristo.

Dos principios han coexistido con la humanidad en este tema.Uno es usar cosas para contar, ya sea los dedos, piedras, semillas, etc. El otroes colocar esos objetos en posiciones determinadas. Estos principios sereunieron en el ábaco, instrumento que sirve hasta el día de hoy, pararealizar complejos cálculos aritméticos con enorme rapidez y precisión.

 El ÁbacoQuizá fue el primer dispositivo mecánicode contabilidad que existió. Se ha calculado que tuvo su origen hace al  menos5.000 años y su efectividad ha soportado la prueba del tiempo.

Desde que el hombre comenzó a acumular riquezas y se fueasociando con otros hombres, tuvo la necesidad de inventar un sistema para podercontar, y por esa época, hace unos miles de años, es por donde tenemos quecomenzar a buscar los orígenes de la computadora, allá por el continente asiáticoen las llanuras del valle Tigris.

Esa necesidad de contar, que no es otra cosa que un términomás sencillo y antiguo que computar, llevo al hombre a la creación del primerdispositivo mecánico conocido, diseñado por el hombre para ese fin, surgió laprimera computadora el ABACO o SOROBAN.

El ábaco, en la forma en que se conoce actualmente fue inventado en Chinaunos 2.500 años AC, más o menos al mismo tiempo que apareció el soroban, unaversión japonesa del ábaco.
En general el ábaco, en diferentes versiones era conocido en todas lascivilizaciones de la antigüedad. En China y Japón, su construcción era dealambres paralelos que contenían las cuentas encerrados en un marco, mientrasen Roma y Grecia consistía en una tabla con surcos grabados.

A medida que fue avanzando la civilización, la sociedad fuetomando una forma más organizada y avanzada, los dispositivos para contar sedesarrollaron, probablemente presionados por la necesidad, y en diferentes paísesfueron apareciendo nuevos e ingeniosos inventos cuyo destino era calcular.

 Leonardo da Vinci (1452-1519). Trazó lasideas para una sumadora mecánica, había hecho anotaciones y diagramas sobreuna máquina calculadora que mantenía una relación de 10:1 en cada una de susruedas registradoras de 13 dígitos. 

 John Napier(1550-1617). En el Siglo XVII en occidente se encontraba en uso la regla de cálculo,calculadora basada en el invento de Napier, Gunther y Bissaker. John Napierdescubre la relación entre series aritméticas y geométricas, creando tablasque él llama logaritmos. Edmund Gunter se encarga de marcar loslogaritmos de Napier en líneas. Bissaker por su parte coloca las líneas deNapier y Gunter sobre un pedazo de madera, creando de esta manera la reglade cálculo.Durante más de 200 años, la regla de cálculo es perfeccionada, convirtiéndoseen una calculadorade bolsillo, extremadamente versátil.Por el año 1700 las calculadoras numéricas digitales, representadas por el ábacoy las calculadoras análogas representadas por la regla de cálculo, eran de usocomún en toda Europa.

 Blas Pascal(1623-1662). El honor de ser considerado como el "padre" dela computadora le correspondió al ilustre filósofo y científico francésquien siglo y medio después de Leonardo da Vinci inventó y construyó la primeramáquina calculadora automática utilizable, precursora de las modernascomputadoras. Entre otras muchas cosas, Pascal desarrolló la teoría de lasprobabilidades, piedra angular de lasmatemáticas modernas. La pascalinafunciona en base al mismo principio del odómetro (cuenta kilómetros) de losautomóviles, que dicho sea de paso, es el mismo principio en que se basan lascalculadoras mecánicas antecesoras de las electrónicas, utilizadas no hacetanto tiempo. En un juego de ruedas, en las que cada una contiene los dígitos,cada vez que una rueda completa una vuelta, la  rueda siguiente avanza un décimode vuelta.

A pesar de que Pascal fue enaltecido por toda Europa debido asus logros, la Pascalina, resultó un desconsolador fallo financiero, pues paraesos momentos, resultaba más costosa que la labor humana para los cálculosaritméticos.

 Gottfried W. von Leibnitz(1646-1717). Fué el siguiente en avanzar en el diseño de una máquinacalculadora mecánica. Su artefacto se basó en el principio de la suma repetiday fue construida en 1694. Desarrolló una máquina calculadora automáticacon capacidad superior a la de Pascal, quepermitía no solo sumar y restar, sinotambién multiplicar, dividir y calcular raíces cuadradas.La de Pascal solo sumaba y restaba. Leibnitz mejoro la máquina de Pascal al añadirleun cilindro escalonado cuyo objetivo era representar los dígitos del 1 al 9.Sin embargo, aunque el merito no le correspondía a él (pues se consideraoficialmente que se inventaron más tarde), se sabe que antes de decidirse porel cilindro escalonado Leibnitz consideró la utilización de engranajes condientes retráctiles y otros mecanismos técnicamente muy avanzados para esa época.Se le acredita el habercomenzado el estudio formal de la lógica, la cual es la base de la programacióny de la operación de las computadoras.

Joseph-Marie Jackard (1753-1834).El primer evento notable sucedió en el 1801 cuando el francés, Joseph Jackard,desarrolló el telar automático. Jackard tuvo la idea de usar tarjetasperforadas para manejar agujas de tejer, en telares mecánicos. Un conjunto detarjetas constituían un programa, el cual creaba diseños textiles.
Aunque su propósito no era realizar cálculos, contribuyó grandemente aldesarrollo de las computadoras. Por primera vez se controla una máquina coninstrucciones codificadas, en tarjetas perforadas, que era fácil de usar yrequería poca intervención humana; y por primera vez se utiliza un sistema detarjetas perforadas para crear el diseño deseado en la tela mientras esta seiba tejiendo. El telar de Jackard opera de la manera siguiente: las tarjetas se perforan estratégicamente y se acomodan en cierta secuenciapara indicar un diseño de tejido en particular. Esta máquina fueconsiderada el primer paso significativo para la automatización binaria.

 Charles Babbage (1793-1871). Profesor dematemáticas de la Universidad de Cambridge, Inglaterra, desarrolla en 1823 elconcepto de un artefacto, que él denomina "máquina diferencial".La máquina estaba concebida para realizar cálculos, almacenar y seleccionarinformación, resolver problemas y entregar resultados impresos. Babbage imaginósu máquina compuesta de varias otras, todas trabajando armónicamente enconjunto: los receptores recogiendo información; un equipo transfiriéndola; unelemento almacenador de datos y operaciones; y finalmente una impresoraentregando resultados. Pese a su increíble concepción, la máquina de Babbage,que se parecía mucho a una computadora, no llegó jamás a construirse. Losplanes de Babbage fueron demasiado ambiciosos para su época.  Esteavanzado concepto, con respecto a la simple calculadora, le valió a Babbage serconsiderado como el precursor de la computadora.

La novia de Babbage, Ada Augusta Byron, luego Condesa deLovelace, hija del poeta inglés Lord Byron, que le ayuda en el desarrollo delconcepto de la Máquina Diferencial, creando programas para la máquina analítica,es reconocida y respetada, como el primer programador de computadoras.La máquina tendría dos secciones fundamentales: una parte donde se realizaríantodas las operaciones y otra donde se almacenaría toda la informaciónnecesaria para realizar los cálculos, así como los resultados parciales yfinales. El almacén de datos consistiría de mil registradoras con un númerode 50 dígitos cada una; estos números podrían utilizarse en los cálculos,los resultados se podrían guardar en el almacén y los números utilizados podríantransferirse a otras ubicaciones.

La máquina controlaría todo el proceso mediante lautilización de tarjetas perforadas similares a las inventadas por Jackard parala creación de diseños de sus telares, y que hasta hace muy poco se utilizabanregularmente.
Babbage no pudo lograr su sueño de ver construida la máquina, que habíatomado 15 años de su vida entre los dos modelos, pero vio un equipo similardesarrollado por un impresor sueco llamado George Scheutz,

basado en su máquina diferencial.

Babbage colaboró con Scheutz en la fabricación de su máquinae inclusive influyó todo lo que pudo, para que esta ganara la Medalla de OroFrancesa en 1855.

 George Boole  Trabajo sobre las bases sentadas por Leibnitz, quien preconizó quetodas las verdades de la razón se conducían a un tipo de cálculo, paradesarrollar en 1854, a la edad de 39 años, su teoría que redujo la lógica aun tipo de álgebra extremadamente simple. Esta teoría de lalógica construyó la base del desarrollode los circuitos de conmutación tan importantes en telefonía y en el diseñode las computadoras electrónicas.

En su carrera como matemático,Boole tiene a su crédito también haber descubierto algo que se considera quefue indispensable para el desarrollo de la teoría de la relatividad deEinstein: las magnitudesconstantes. Los descubrimientos matemáticosde George Boole, que llevaron al desarrollo del sistema numérico binario(0 y 1) constituyeron un hito incuestionable a lo largo del camino hacia lasmodernas computadoras electrónicas. Pero además de la lógica, el álgebra deBoole tiene otras aplicaciones igualmente importantes, entre ellas la de ser elálgebra adecuada para trabajar con la teoría combinatoria de la operación deunión e intersección. También, siempre en este campo, al considerar la ideadel número de elementos de un conjunto, el álgebra de Booleconstituye la base de laTeoría de las Probabilidades.

 Claude Elwood Shanon A él  sedebe el haber podido aplicar a la electrónica - y por extensión a lascomputadoras - los conceptos de la teoría de Boole. Shanon hizo susplanteamientos en 1937 en su tesis de grado para la Maestría en Ingeniería Eléctricaen el MIT, uno de los planteles de enseñanza científica y tecnológica másprestigiosos del mundo.

En su tesis, Shanon sostenía que los valores de verdadero yfalso planteados en el álgebra lógica de Boole, se correspondían con losestados 'abierto' y 'cerrado' de los circuitos eléctricos.Además, Shanon definió la unidad de información, et bit, lo queconsecuentemente constituyó la base para la utilización del sistema binariode las computadoras en lugar del sistema decimal.

 William Burroughs Nació el 28 de enerode 1857. La monotonía del trabajo y la gran precisión que se necesitaba en losresultados de los cálculos fue lo que decidió a William Burroughs a intentarconstruir una máquina calculadora precisa y rápida. Sus primeros pasos en estesentido los dio en 1882, pero no fue hasta casi veinte años después que suesfuerzo se vio coronado por el éxito.

Las primeras máquinas compradas por los comerciantestuvieron que recogerse rápidamente, puesto que todas,   presentabandefectos en el funcionamiento. Este nuevo fracaso fue el paso final antes deperfeccionar

definitivamente su modelo al cual llamó Maquina de sumary hacer listas.

A pesar de otro sin número de dificultades en promoción ymercado de su nueva máquina, poco a poco este modelo se fue imponiendo, de modoque luego de dos años ya se vendían a razón de unas 700 unidades por año.William Burroughs, fue el primer genio norteamericano que contribuyógrandemente al desarrollo de la computadora

Herman Hollerith Las tarjetasperforadas.Uno de los hitos más importantes en el proceso paulatino del desarrollo de unamáquina que pudiera realizar complejos cálculos en forma rápida, que luegollevaría a lo que es hoy la moderna computadora, lo constituyó laintroducción de tarjetasperforadas como elemento de tabulación.Este histórico avance se debe a la inventiva de un ingeniero norteamericano deascendencia alemán: Herman Hollerith. La idea de utilizar tarjetas perforadasrealmente no fue de Hollerith, sino de John Shaw Billings, su superior en el Buródel Censo, pero fue Hollerith quien logró poner en práctica la idea querevolucionaría para siempre el cálculo mecanizado. El diseñó un sistemamediante el cual las tarjetas eran perforadas para representar la informacióndel censo.  Las tarjetas eran insertadas en la máquina tabuladora y éstacalculaba la información recibida. Hollerith no tomó la idea de las tarjetasperforadas del invento de Jackard, sino de la "fotografía de perforación"Algunas líneas ferroviarias de la época expedían boletos con descripciones físicasdel pasajero; los conductores hacían orificios en los boletos que describíanel color de cabello, de ojos y la forma de nariz del pasajero. Eso le dio aHollerith la idea para hacer la fotografía perforada de cada persona que se ibaa tabular. Hollertih fundó la Tabulating Machine Company y vendió susproductos en todo el mundo. La demanda de sus máquinas se extendió inclusohasta Rusia. El primer censo llevado a cabo en Rusia en 1897, se registró conel Tabulador de Hollerith. En 1911, la Tabulating Machine Company, al unirse conotras Compañías, formó la Computing-Tabulating-Recording-Company.

Konrad Zuse  Nació en Berlín,Alemania, en 1910. EN 1938, Zuse ya había desarrollado una notación binariaque aplicó a los circuitos de rieles electromagnéticos que utilizaría mástarde en su serie de computadoras. El primer modelo construido por Konrad Zuseen 1939, fabricado por completo en la sala de su casa sin ayuda por parte deninguna agencia gubernamental o privada, era un equipo completamente mecánico.Este modelo fue bautizado con el nombre de V-1(V por Versuchmodel o Modelo Experimental). La intención principal deZuse al tratar de desarrollar estos equipos era proporcionar una herramienta alos científicos y técnicos para resolver la gran cantidad de problemas matemáticosinvolucrados en todas las ramas científicas y técnicas.

En 1939 Konrad Zuse fue reclutado por el ejército alemán, pero pronto fuelicenciado (al igual que la mayoría de los ingenieros en aquella época) yasignado a trabajar en el cuerpo de ingeniería que desarrollaba los proyectosdel ejército, en el Instituto Alemán de Investigación Aérea.

Al mismo tiempo que prestaba sus servicios en el citado instituto, Zusecontinúo sus trabajos en la sala de su casa y desarrolló una versión másavanzada de su V-1 a la cual denominó V-2. Este modelo lo construyóZuse con la ayuda de un amigo y estudiante del mismo Instituto Técnico dondeZuse había estudiado, Helmut Schreyer había hecho su carrera en la rama de lastelecomunicaciones y fue él quién consiguió los rieles electromagnéticos conque funcionaba este nuevo modelo, y quien sugirió a Zuse su utilización.

Alfred Teichmann, uno de los principales científicos que prestaba serviciosen el Instituto Alemán de Investigaciones Aéreas, tuvo conocimiento de lostrabajos de Zuse con respecto a las computadoras en una visita que hizo a lacasa de éste. Allí vio por primera vez el modelo V-2 y quedó inmediatamenteconvencido de que máquinas como esa eran las que se necesitaban para resolveralgunos de los problemas más graves que se estaban presentado en el diseño delos aviones.

Con la ayuda de Teichmann, Zuse logró conseguir fondos que le permitieroncontinuar con sus investigaciones un poco más holgadamente, aunque siempre enla sala de su casa, y así surgió, con la colaboración activa de Schreyer, la V-3,la primera computadora digital controlada por programas y completamenteoperacional. Este modelo constaba con 1.400 rieles electromagnéticos en lamemoria, 600 para el control de las operaciones aritméticas y 600 para otrospropósitos.

Durante la Segunda Guerra Mundial Wernher von Braun, eminentecientífico alemán, desarrolló un tipo de bombas cohete denominadas V-1 y V-2,muy celebres sobre todo por el papel que jugaron en los ataques alemanes contrael puerto de Amberes (Bélgica) y Londres (Inglaterra). Para evitar confusióncon estas bombas, Zuse determinó cambiar la denominación de sus computadorasque, en adelante, pasaron a conocerse como Z-1, Z-2, Z-3,etc.

El modelo Z-3 desarrollado a finales de 1941 como unacomputadora de propósito general, fue parcialmente modificada por Zuse con elobjetivo de apoyar el esfuerzo bélico alemán. La nueva versión se denominó Z-4y se utilizó como elemento de teledirección de una bomba volante desarrolladapor la compañía Henschel Aircraft Co., para la Luftwaffe. (Zuse niega que laZ-4 haya sido diseñada para este propósito).

La bomba volante alemana era una especie de avión notripulado que era transportado por un bombardero. Cuando el piloto delbombardero determinaba el blanco, lanzaba la bomba que era dirigida mediante laZ-4 por la tripulación del bombardero. En sus aplicaciones de diseño, la Z-4estaba destinada a medir las inexactitudes en las dimensiones de las piezasde los aviones y a calcular la desviación que éstas ocasionarían en latrayectoria de  los aviones que se construyeran con ellas.

En 1944, mientras Zuse trabajaba en la terminación de laZ-4, se enteró de la presentación en Estados Unidos de la Mark I de Aiken, laprimera computadora digital programable norteamericana.

Al finalizar la guerra, con la caída del régimen nazi, Zuseabandono Berlín llevando consigo todos los elementos de su computadora Z-4(todos los modelos previos fueron destruidos en los bombardeos a Berlín).Ayudado por un amigo de Wernher von Braun, a quien había conocido en su huidade Berlín, Walter Robert Dornberger, Zuse y von Braun abandonaron Alemania, yZuse se radicó en la pequeña población Alpina de Suiza, Hinterstein. Allícontinúo trabajando en su proyecto, desarrollado su computadora.

En 1947, la Z-4 tenía una capacidad de 16 palabras en lamemoria, en 1949 la capacidad había aumentado hasta 64 palabras y en la décadade los 50, la memoria de la Z-4 podía contener 1024 palabras de 32 bits. Ademáspodía multiplicar en un segundo y extraer raiz cuadrada en 5 segundos.

Además de sus trabajos en la computadora, Konrad Zusedesarrolló un idioma prototipo al cual llamó Plankalkul, en el cual anticipóy resolvió varios de los problemas que se abarcan hoy en el contexto de la teoríade los algoritmos, programación estructurada y estructura de la programaciónde idiomas para computadoras.
Poco después de terminada la guerra, ya establecido en suelo suizo, KonradZuse estableció su propia compañía a la que denomino Zuse KG. Después devarios años construyendo su serie Z y de no haber logrado interesar losuficiente a IBM para respaldar su producción, Remington Rand decidió ayudar acomercializar en Suiza algunos de los modelos fabricados por Zuse. Finalmente,la firma Siemens AG adquirió los derechos sobre la compañía de Zuse y éstequedó como consultor semi-retirado de la misma. Hoy se reconoce a Konrad Zusecomo el creador de la primera computadora digital programable completamenteoperacional.

 Atanasoff Y Berry Una antigua patente deun dispositivo que mucha gente creyó que era la primera computadora digitalelectrónica, se invalidó en 1973 por orden de un tribunal federal, yoficialmente se le dio el crédito a John V. Atanasoff como el inventor de lacomputadora  digital electrónica. El Dr. Atanasoff, catedrático de laUniversidad Estatal de Iowa, desarrolló la primera computadora digital electrónicaentre los años de 1937 a 1942. Llamó a su invento la computadoraAtanasoff-Berry, ó solo ABC (Atanasoff Berry Computer). Un estudiantegraduado, Clifford Berry, fue una útil ayuda en la construcción de lacomputadora ABC.

En el edificio de Física de la Universidad de Iowa apareceuna placa con la siguiente leyenda: "La primera computadora digital electrónicade operación automática del mundo, fue construida en este edificio en 1939 porJohn Vincent Atanasoff, matemático y físico de la Facultad de la Universidad,quien concibió la idea, y por Clifford Edward Berry, estudiante graduado de física."

MARK I (1944) Marca la fecha del la primeracomputadora, que se pone en funcionamiento. Es el Dr. Howard Aiken en laUniversidad de Harvard, Estados Unidos, quien la presenta con el nombre de MarkI. Es esta la primera máquina procesadora de información. La Mark I funcionabaeléctricamente, las instrucciones e información se introducen en ella pormedio de tarjetas perforadas. Los componentes trabajan basados en principioselectromecánicos. Este impresionante equipo medía 16 mts. de largo y 2,5 mts.de alto, contenía un aproximado de 800.000 piezas y más de 800 Km. de cableríoeléctrico, pero los resultados obtenidos eran igualmente impresionantes para laépoca. Mark I tenía la capacidad de manejar números de hasta 23 dígitos,realizando sumas en menos de medio segundo, multiplicaciones en tres segundos yoperaciones logarítmicas en poco más de un minuto. Ahora sí se había hechopor fin realidad el sueño de Pascal, Leibnitz, Babbage, Hollerith y muchosotros: la computadora era una realidad.

A pesar de su peso superior a 5 toneladas y su lentitudcomparada con los equipos actuales, fue la primera máquina en poseer todaslas características de una verdadera computadora.

 ENIAC (1946) La primera computadoraelectrónica fue terminada de construir en 1946, por J.P.Eckert yJ.W.Mauchly en la Universidad de Pensilvania, U.S.A. y se le llamó ENIAC(Electronic Numerical Integrator And Computer), ó Integrador numérico ycalculador electrónico. La ENIAC construida para aplicaciones de la SegundaGuerra mundial, se terminó en 30 meses por un equipo de científicos quetrabajaban bajo reloj. La ENIAC, mil veces más veloz que sus predecesoraselectromecánicas, irrumpió como un importante descubrimiento en la tecnologíade la computación. Pesaba 30 toneladas y ocupaba un espacio de 450 mtscuadrados, llenaba un cuarto de 6 mts x 12 mts y contenía 18.000 bulbos, teníaque programarse manualmente conectándola a 3 tableros que contenían más de6000 interruptores. Ingresar un nuevo programa era un proceso muy tedioso querequería días o incluso semanas. A diferencia de las computadoras actuales queoperan con un sistema binario (0,1) la ENIAC operaba con uno decimal (0,1,2...9) La ENIAC requería una gran cantidad de electricidad. La ENIAC poseíauna capacidad, rapidez y flexibilidad muy superiores a la Mark I. Comenzabaentonces la tenaz competencia en la naciente industria,  IBM desarrolló en1948 su computadora SSEC (Calculadora Electrónica de SecuenciaSelectiva) superior a la ENIAC.

Para 1951, la compañía Remington Rand, otra de las líderesen este campo, presento al mercado su modelo denominado Univac, que ganóel contrato para el censo de 1951 por su gran capacidad, netamente superior atodas las demás desarrolladas hasta el momento.

Pero para la recia personalidad de Thomas J. Watson,  sele hacia difícil aceptar que su compañía no fuera la principal en este campo,así que en respuesta al desarrollo de la Univac, hizo que IBM construyera sumodelo 701, una computadora científica con una capacidad superior 25veces a la SSEC y muy superior también a la Univac.

A la 701 siguieron otros modelos cada vez más perfeccionadosen cuanto a rapidez, precisión y capacidad, los cuales colocaron a IBM como ellíder indiscutible de la naciente industria de las computadoras. Aunque en laactualidad es  difícil mencionar a una firma determinada como la primeraen este campo, es un hecho irrefutable que IBM continua siendo una de lasprincipales compañías en cuanto a desarrollo de computadoras se refiere.

  • Con ella se inicia una nueva era, en la cual la computadora pasa a ser el centro del desarrollo tecnológico, y de una profunda modificación en el comportamiento de las sociedades.

EDVAC (1947)  (Eletronic Discrete-Variable AutomaticComputer, es decir computadora automática electrónica de variable discreta)Desarrollada por Dr. John W. Mauchly, John Presper Eckert Jr. y John VonNeumann. Primera computadora en utilizar el concepto de almacenar información. Podía almacenar datos e instrucciones usando un código especial llamadonotación binaria. Los programas almacenados dieron a las computadoras unaflexibilidad y confiabilidad tremendas, haciéndolas más rápidas y menossujetas a errores que los programas mecánicos. Una computadora con capacidad deprograma almacenado podría ser utilizada para varias aplicaciones cargando yejecutando el programa apropiado. Hasta este punto, los programas y datos podíanser ingresados en la computadora sólo con la notación binaria, que es el únicocódigo que las computadoras "entienden". El siguiente desarrolloimportante en el diseño de las computadoras fueron los programas intérpretes,que permitían a las personas comunicarse con las computadoras utilizando mediosdistintos a los números binarios. En 1952 Grace Murray Hoper una oficial de laMarina de EE.UU., desarrolló el primer compilador, un programa que puedetraducir enunciados parecidos al inglés en un código binario comprensible parala maquina llamado COBOL (COmmon Business-Oriented Languaje).

EDSAC (1949) Desarrollada por Maurice Wilkes.  Primeracomputadora capaz de almacenar programas electrónicamente.

 LA ACE PILOT (1950) Turing tuvo listos en 1946 todos losplanos de lo que posteriormente seria conocido como ACE Pilot (AutomaticCalculating Engine) que fue presentado públicamente en 1950. La ACE Pilotestuvo considerada por mucho tiempo como la computadora más avanzada delmundo, pudiendo realizar

operaciones tales como suma y multiplicación en cuestión de microsegundos.

 UNIVAC I (1951) Desarrollada por Mauchly y Eckert para laRemington-Rand Corporation.  Primera computadora comercial utilizada en lasoficinas del censo de los Estados Unidos.  Esta máquina se encuentraactualmente en el "Smithsonian Institute".  En 1952 fueutilizada para predecir la victoria de Dwight D. Eisenhower en las eleccionespresidenciales de los Estados Unidos. 

El Software

 Durante las tres primeras décadas de la Informática, elprincipal desafío era el desarrollo del hardware de las computadoras, de formaque se redujera el costo de procesamiento y almacenamiento de datos.

La necesidad de enfoques sistemáticos para el desarrollo ymantenimiento de productos de software se patentó en la década de 1960. En éstadécada aparecieron las computadoras de la tercera generación y sedesarrollaron técnicas de programación como la multiprogramación y de tiempocompartido. Y mientras las computadoras estaban haciéndose más complejas,resultó obvio que la demanda por los productos de software creció en mayorcantidad que la capacidad de producir y mantener dicho software. Estas nuevascapacidades aportaron la tecnología necesaria para el establecimiento desistemas computacionales interactivos, de multiusuario, en línea y en tiemporeal; surgiendo nuevas aplicaciones para la computación, como las reservacionesaéreas, bancos de información médica, etc.

Fue hasta el año 1968 que se convocó una reunión enGarmisch, Alemania Oriental estimulándose el interés hacia los aspectos técnicosy administrativos utilizados en el desarrollo y mantenimiento del software, yfue entonces donde se utilizó el término "Ingeniería del Software".

A lo largo de la década de los ochenta, los avances enmicroelectrónica han dado como resultado una mayor potencia de cálculo a lavez que una reducción de costo. Hoy el problema es diferente. El principaldesafío es mejorar la calidad y reducir el costo.

Las personas encargadas de la elaboración  delsoftware se han enfrentado a problemas muy comunes: unos debido a laexigencia cada vez mayor en la capacidad de resultados del software, debido alpermanente cambio de condiciones lo que aumenta su complejidad y obsolescencia;y otros, debido a la carencia de herramientas adecuadas y estándares de tipoorganizacional encaminados al mejoramiento de los procesos en el desarrollo delsoftware.

Una necesidad sentida en nuestro medio es el hecho de que losproductos de software deben ser desarrollados con base en la implementación deestándares mundiales, modelos , sistemas métricos, capacitación del recursohumano y otros principios y técnicas de la ingeniería de software quegaranticen la producción de software de calidad y competitividad a nivel locale internacional.

Con el acelerado avance tecnológico de la información, lacantidad y la complejidad de los productos de software se están incrementandoconsiderablemente, así como también la exigencia en su funcionalidad yconfiabilidad; es por esto que la calidad y la productividad se estánconstituyendo  en las grandes preocupaciones tanto de gestores como paradesarrolladores de software.

En los primeros años del software, las actividades deelaboración de programas eran realizadas por una sola persona utilizandolenguajes de bajo nivel y ajustándose a un computador en especial, quegeneraban programas difíciles de entender, aun hasta para su  creador,después de algún tiempo de haberlo producido. Esto implicaba tener que repetirel mismo proceso  para desarrollar el mismo programa para otras máquinas.
Por consiguiente, la confiabilidad, facilidad de mantenimiento y cumplimiento nose garantizaban y la productividad era muy baja.

Posteriormente, con la aparición de técnicas estructuradasy con base en las experiencias de los programadores se mejoró la productividaddel software. Sin embargo, este software seguía teniendo fallas, como porejemplo: documentación inadecuada, dificultad para su correcto funcionamiento,y por su puesto, insatisfacción del cliente.

Conforme se incrementaba la tecnología de los computadores,también crecía la demanda de los productos de software, pero mucho máslentamente, tanto que hacia 1990 se decía que las posibilidades del softwareestaban retrasadas respecto a las del hardware en un mínimo de dos generacionesde procesadores y que la distancia continuaba aumentando.

En la actualidad  muchos de estos problemas subsisten enel desarrollo de software, con una dificultad adicional relacionada  con laincapacidad para satisfacer totalmente la gran demanda y exigencias por parte delos clientes.

El elemento básico del software es el programa. Un programaes un grupo de instrucciones destinadas a cumplir una tarea en particular. Unprograma puede estar conformado por varios programas más sencillos.

El software se puede clasificar en tres grupos: sistemasoperativos, lenguajes de programación y aplicaciones.  

Sistema Operativo

 El sistema operativo es un conjunto de programas que coordinan elequipo físico de la computadora y supervisan la entrada, la salida, elalmacenamiento y las funciones de procesamiento. Incluye comandos internos yexternos. Los comandos internos se encuentran en la memoria de la computadora ylos comandos externos, generalmente, están en la unidad de disco.  Parausar los comandos externos, se necesitan sus archivos.  

El sistema operativo es una colección de programas diseñadospara facilitarle al usuario la creación y manipulación de archivos, la ejecuciónde programas y la operación de otros periféricos conectados a la computadora. Ejemplo de algunos comandos son: abrir un archivo, hacer unacopia impresa de lo que hay en la pantalla y copiar un archivo de un disco aotro.

En las décadas de los 70 y 80 lamayor parte de las computadoras utilizaban su propio sistema operativo, o sea,que aquellas aplicaciones creadas para un sistema operativo no se podíanusar enotro.  Debido a este problema, losvendedores de sistemas operativos decidieron concentrarse en aquellos sistemas másutilizados. Ellos visualizaron que las dos compañías más grandes demicrocomputadoras se unirían para crear mayor compatibilidad y esto es unhecho.

Toda computadora tiene algún tipo de sistema operativo, elcual debe ser activado cuando la computadora se enciende.  Si el sistemaoperativo está grabado en la ROM o presente en el disco duro de la computadora,el sistema operativo, generalmente, se activa automáticamente cuando lacomputadora se enciende.  Si no, se inserta un disco que contenga elsistema operativo para activarlo.

Un sistema operativo provee un programa o rutina parapreparar los discos ("formatting a disk"), copiar archivos o presentarun listado del directorio del disco.

El sistema operativo del disco de una computadora personal deIBM (IBM-PC) es una colección de programas diseñados para crear y manejararchivos, correr programas y utilizar los dispositivos unidos al sistema de lacomputadora.  Microsoft (compañía de programas) desarrolló PC-DOS paraIBM y MS-DOS para IBM compatibles. Los dos sistemas operativos son idénticos. DOS dicta cómo los programas son ejecutados en IBM y compatibles.

El DOS ("Disk Operating System") esel sistema operativo del disco.  Es el conjunto de instrucciones delprograma que mantiene un registro de las tareas requeridas para la operación dela computadora, o sea, es una colección de programas diseñados para crear ymanejar archivos, correr programas y utilizar los dispositivos unidos al sistemade la computadora.  

Entre las tareas que realiza un SO tenemos:

  • Si es un sistema multitarea: asignar y controlar los recursos del sistema, definir qué aplicación y en qué orden deben ser ejecutadas.
  • Manejar la memoria del sistema que comparten las múltiples aplicaciones.
  • Manejar los sistemas de entrada y salida, incluidos discos duros, impresoras y todo tipo de puertos.
  • Envío de mensajes de estado a las aplicaciones, al administrador de sistema o al propio usuario, sobre cualquier    error o información necesaria para el trabajo estable y uniforme del sistema.
  • Asume tareas delegadas de las propias aplicaciones, como impresión en background y procesamiento por lotes, con el fin de que éstas ganen en eficiencia y tiempo.
  • Administra, de existir, el procesamiento en paralelo. 

Tipos de sistemas operativos

·         El "Character based": DOS dice si está listo para recibir un comando presentando un símbolo ("prompt") en la pantalla: C:\>. El usuario responde escribiendo una instrucción para ser ejecutada, caracter por caracter mediante el uso del teclado.    

  • El "Graphic User Interface": Hace uso de un "mouse" como un dispositivo de puntero y permite que se apunte a iconos (pequeños símbolos o figuras que representan alguna tarea a realizarse) y oprimir el botón del "mouse" para ejecutar la operación o tarea seleccionada. El usuario puede controlar el sistema operativo seleccionando o manipulando iconos en el monitor.

 Ejemplos de sistemas operativos

PC-DOS (Personal Computer DOS)
      MS-DOS (Microsoft DOS)
      OS/2 (IBM Operating System 2)
      DR DOS 5.0 (Digital Research DOS)
      UNIX

Linux
      Windows para sistemas operativos DOS
      Windows NT
 

GENERACIONES DE SISTEMAS OPERATIVOS

 Los sistemas operativos, al igual que el hardware de las computadoras,han sufrido una serie de cambios revolucionarios llamados generaciones. En elcaso del hardware, las generaciones han sido enmarcadas por grandes avances enlos componentes utilizados, pasando de válvulas (primera generación), atransistores (segunda generación), a circuitos integrados (tercera generación),a circuitos integrados de gran y muy gran escala (cuarta generación). Cadageneración sucesiva de hardware ha sido acompañada de reduccionessubstanciales en los costos, tamaño, emisión de calor y consumo de energía, ypor incrementos notables en velocidad y capacidad.

 Generación Cero (Década de 1940)

 Los sistemas operativos han ido evolucionando durante los últimos 40 añosa través de un número de distintas fases o generaciones que corresponden a décadas.En 1940, las computadoras electrónicas digitales más nuevas no tenían sistemaoperativo. Las Máquinas de ese tiempo eran tan primitivas que los programas porlo regular manejaban un bit a la vez en columnas de switch's mecánicos.Eventualmente los programas de lenguaje de máquina manejaban tarjetasperforadas, y lenguajes ensamblador fueron desarrollados para agilizar elproceso de programación. Los usuarios tenían completo acceso al lenguaje de lamaquina.

Todas las instrucciones eran codificadas a mano.

 Primera Generación (Década de 1950)

 Los sistemas operativos de los años cincuenta fueron diseñados parahacer más fluída la transmisión entre trabajos. Antes de que los sistemasfueran diseñados, se perdía un tiempo considerable entre la terminación de untrabajo y el inicio del siguiente. Este fue el comienzo de los sistemas de procesamientopor lotes, donde los trabajos se reunían por grupo o lotes. Cuando eltrabajo estaba en ejecución, este tenía control total de la máquina. Alterminar cada trabajo, el control era devuelto al sistema operativo, el cual"limpiaba" y leía e inicia el trabajo siguiente.

Al inicio de los años 50 esto había mejorado un poco con laintroducción de tarjetas perforadas (las cuales servían para introducir losprogramas de lenguajes de máquina), puesto que ya no había necesidad deutilizar los tableros enchufables.  Esto se conoce como sistemas de procesamientopor lotes de un sólo flujo, ya que los programas y los datos eran sometidosen grupos o lotes. El laboratorio de investigación General Motors implementóel primer sistema operativo para la IBM 701.

La introducción del transistor a mediados de los años50 cambió la imagen radicalmente. Se crearon máquinas suficientementeconfiables las cuales se instalaban en lugares especialmente acondicionados,aunque sólo las grandes universidades y las grandes corporaciones o bien lasoficinas del gobierno se podían dar el lujo de tenerlas.

Para poder correr un trabajo (programa), tenían queescribirlo en papel (en Fortran o en lenguaje ensamblador) y después seperforaría en tarjetas. Enseguida se llevaría la pila de tarjetas al cuarto deintroducción al sistema y la entregaría a uno de los operadores. Cuando lacomputadora terminaba el trabajo, un operador se dirigiría a la impresora ydesprendía la salida y la llevaba al cuarto de salida, para que la recogiera elprogramador.   

Segunda Generación (A mitad de la década de 1960)

 La característica de la segunda generación de los sistemas operativosfue el desarrollo de los sistemas compartidos con multiprogramación, ylos principios del multiprocesamiento. En los sistemas de multiprogramación,varios programas de usuarios se encuentran al mismo tiempo en el almacenamientoprincipal, y el procesador se cambia rápidamente de un trabajo a otro. En lossistemas de multiprocesamiento se utilizan varios procesadores en un solosistema computacional, con la finalidad de incrementar el poder de procesamientode la máquina. La independencia de dispositivos aparece después. Un usuarioque deseara escribir datos en una cinta en sistemas de la primera generacióntenia que hacer referencia específica a una unidad en particular. En lossistemas de la segunda generación, el programa del usuario especificaba tansolo que un archivo iba a ser escrito en una unidad de cinta con cierto númerode pistas y cierta densidad. El sistema operativo localizaba, entonces, unaunidad de cinta disponible con las características deseadas, y le indicaba aloperador que montara la cinta en esa unidad.

El surgimiento de un nuevo campo: LA INGENIERÍA DEL SOFTWARE.

Los sistemas operativos desarrollados durante los años 60 tuvieron una enorme conglomeración de software escrito por gente que noentendía el software, también como el hardware, tenía  que ser ingenieropara ser digno de confianza, entendible y mantenible.  

Se desarrollaron sistemas compartidos, en la que los usuariospodían acoplarse directamente con el computador a través de terminales.Surgieron sistemas de tiempo real, en que los computadores fueron utilizados enel control de procesos industriales. Los sistemas de tiempo real secaracterizan por proveer una respuesta inmediata. 

Multiprogramación

  • Sistemas multiprogramados : varios trabajos se conservan en memoria al mismo tiempo, y el cpu se comparte entre ellos
  • Rutinas de E/S: provista por el sistema ejecutadas simultáneamente con procesamiento del CPU.
  • Administración de memoria: el sistema debe reservar memoria para varios trabajos.
  • Administración del CPU: el sistema debe elegir entre varios trabajos listos para ejecución.
Administración de dispositivos

Tercera Generación (Mitad de la década de 1960 a mitad de la década de1970)

 Se inicia en 1964, con la introducción de la familia de computadores Sistema/360de IBM. Los computadores de esta generación fueron diseñados como sistemaspara usos generales. Casi siempre eran sistemas grandes, voluminosos. Eransistemas de modos múltiples, algunos de ellos soportaban simultáneamenteprocesos por lotes, tiempo compartido, procesamiento de tiempo real ymultiprocesamiento. Eran grandes y costosos, nunca antes se habíaconstruido algo similar, y muchos de los esfuerzos de desarrollo terminaron muypor arriba del presupuesto y mucho después de lo que el planificador marcabacomo fecha de terminación.

Estos sistemas introdujeron mayor complejidad a los ambientescomputacionales; una complejidad a la cual, en un principio, no estabanacostumbrados los usuarios.  

Sistemas de Tiempo Compartido

  • El  CPU se comparte entre varios trabajos que se encuentran residentes en memoria y en el disco (el CPU se asigna a un trabajo solo si éste esta en memoria).
  • Un trabajo es enviado dentro y fuera del la memoria hacia el disco.
  • Existe comunicación en-línea entre el usuario y el sistema; cuando el sistema operativo finaliza la ejecución de un comando, busca el siguiente "estatuto de control" no de una tarjeta perforada, sino del teclado del operador.
  • Existe un sistema de archivos en línea el cual está disponible para los datos y código de los usuarios 

Cuarta Generación (Mitad de la década de 1970 a nuestros días)

 Los sistemas de la cuarta generaciónconstituyen el estado actual de la tecnología. Muchos diseñadores y usuariosse sienten aun incómodos, después de sus experiencias con los sistemasoperativos de la tercera generación, y se muestran cautelosos antes decomprometerse con sistemas operativos complejos. Con la ampliación del uso deredes de computadores y del procesamiento en línea los usuarios obtienen accesoa computadores alejados geográficamente a través de varios tipos determinales. El microprocesador ha hecho posible la aparición de lacomputadora personal,uno de los desarrollos de notables consecuencias sociales más importantes delas últimas décadas. Ahora muchos usuarios han desarrollado sistemas decomputación que son accesibles para su uso personal en cualquier momento del díao de la noche. La potencia del computador, que costaba varios cientos de milesde dólares al principio de la década de 1960, hoy es mucho más accesible. Elporcentaje de la población que tiene acceso a un computador en  el SigloXXI es mucho mayor. El usuario puede tener su propia computadora para realizarparte de su trabajo, y utilizar facilidades de comunicación para transmitirdatos entre sistemas. La aplicación de paquetes de software tales comoprocesadores de palabras, paquetes de bases de datos y paquetes de gráficosayudaron a la evolución de la computadora personal. La llave era transferirinformación entre computadoras en redes de trabajo. El correo electrónico,transferencia de archivos, y aplicaciones de acceso a bases de datosproliferaron. El modelo cliente-servidor fue esparcido. El campo de ingenieríadel software continuó evolucionando con una mayor confianza proveniente de losEE.UU. Los ambientes del usuario, altamente simbólicos, y orientados hacia lassiglas de las décadas de los sesenta y setenta, fueron reemplazados, en la décadade los ochenta, por los sistemas controlados por menú, los cuales guían alusuario a lo largo de varias opciones expresadas en un lenguaje sencillo.

  Mini-computadoras y Microprocesadores

  • Computadoras de menor tamaño.
  • Desarrollo de sistemas operativos (UNIX, DOS, CP/M).
  • Mejora en las interfaces de usuario.
  • Introducción de Microprocesadores.
  • Desarrollo de lenguajes de programación.

 Sistemas de cómputo personales 

  • Computadoras Personales- sistemas de cómputo dedicados a un solo usuario.
  • Dispositivos de E/S- teclados, ratón, pantalla, impresoras..
  • Conveniente al usuario y de respuesta rápida.
  • Puede adaptarse a la tecnología para soportar otros sistemas operativos.

 Sistemas Distribuidos

  • Sistemas Distribuidos: Distribuyen el cómputo entre varios procesadores geográficamente dispersos.
  • Sistemas débilmente acoplados: Cada procesador tiene su propia memoria local y el procesador se comunica con los demás procesadores mediante líneas de comunicación, buses de alta velocidad y líneas telefónicas.

       Ventajas:

–        Compartición de recursos     

–        Incremento en la velocidad de cómputo

–        Compartición de carga

–        Confiabilidad

–        Comunicación

 Redes

  • Estaciones de Trabajo: Sun, Vax, Silicon Graphics.
  • Redes de Area Local Ethernet, Token Ring, FDDI, ATM, Redes de larga distancia (Arpanet).
  • Redes organizadas como clientes-servidores.
  • Servicios de S.O. Protocolos de comunicación, encriptación de datos, seguridad, consistencia  

 Sistemas Paralelos 

  • Sistemas Paralelos: Sistemas de múltiples procesadores con mas de un procesador con comunicación entre ellos.
  • Sistema Fuertemente Acoplado: Los procesadores comparten memoria y reloj; la comunicación usualmente se realiza mediante memoria compartida.

       Ventajas:

–         Incremento de throughput

–         Económica

–         Incremento en la confiabilidad

1990 - 2000

  • Cómputo Paralelo (Teraflops).
  • PC’s poderosas (1.5 GigaHertz), Computadoras Multimedia.
  • Redes de Comunicación de distancia mundial, con envío de imágenes, grandes cantidades de datos, audio y video.
  • World Wide Web.
  • Notebooks utilizando tecnologías de comunicación inalámbrica: Cómputo Móvil.
  • Cómputo Embebido y Robótica.

 Sistemas de Tiempo Real

  • A menudo son utilizados como dispositivos de control en aplicaciones dedicadas, como control de experimentos científicos, sistemas de procesamiento de imágenes médicas, sistemas de control industrial, etc...
  • Exige cumplimiento de restricciones de tiempos.
  • Sistemas de Tiempo Real Críticos.

–        Cumplimiento forzoso de plazos de respuesta.

–        Predecibilidad y análisis de  cumplimiento de plazos de respuesta

  • Sistemas de tiempo real acríticos.

–        Exigencia "suave" de plazos de respuesta.

–        Atención lo mas rápido posible a eventos, en promedio. 

 UNIX

 Los orígenes del sistema UNIX se remontan aldesarrollo de un proyecto iniciado en 1968. Este proyecto fue realizado porGeneral Electric, AT&T, Bell y el MIT; llevaron a cabo el desarrollo de unsistema operativo con nuevos conceptos como la multitarea, la gestión dearchivos o la interacción con el usuario. El resultado de estas investigacionesse bautizó como MULTICS. El proyecto resultó ser demasiado ambicioso,por lo que no llegó a buen fin y terminó abandonándose.

Posteriormente la idea de este proyecto se vuelve a retomar yconduce al gran desarrollo en 1969 del sistema operativo UNIX. Entre losinvestigadores destacaban Ken Thompson y Dennis Ritchie. En principio, estesistema operativo recibió el nombre de UNICS, aunque un año despuéspasa a llamarse UNIX, como se conoce hoy en día.

El  código de UNIX estaba inicialmente escrito enlenguaje ensamblador, pero en 1973, Dennis Ritchie llevó a cabo unproyecto para reescribir el código de UNIX en lenguaje C. UNIX seconvirtió así en el primer sistema operativo escrito en lenguaje de altonivel. Con este nuevo enfoque fue posible trasladar el sistema operativo aotras máquinas sin muchos cambios, solamente efectuando una nueva compilaciónen la máquina de destino. Gracias a esto la popularidad de UNIX creció ypermitió asentar la "filosofía UNIX".

Inicialmente UNIX fue considerado como un proyecto deinvestigación, hasta el punto de distribuirse de forma gratuita en algunasuniversidades, pero después la demanda del producto hizo que los laboratoriosBell iniciaran su distribución oficial.

Después de tres décadas dehaber escapado de los laboratorios Bell, el UNIX sigue siendo uno delos SO más potentes, versátiles yflexibles en el mundo de la computación.Su popularidad se debe a muchos factores incluidas su portabilidad y habilidadde correr eficientemente en una inmensa variedad de computadoras. Descritofrecuentemente como un sistema "simple, potente y elegante" el UNIX eshoy el corazón que late en el seno de millones de aplicaciones de telefoníafija y móvil, de millones de servidores en universidades, centros académicos,grandes, medianas y pequeñas empresas, el SO cuyo desarrollo viene de la manodel de Internet y que alberga a millones de servidores y aplicaciones de la redde redes. Sin UNIX, no cabe duda, el mundo de la informática hubiera sido otro. 

Linux

 En octubre de 1991 un estudiante graduado de Cienciasde la Computación en la Universidad de Helsinki, llamado Linus Torvalds,anuncia en Internet que había escrito una versión libre de un sistema MINIX(una variante de UNÍX) para una computadora con procesador Intel 386 y lodejaba disponible para todo aquel que estuviera interesado. En los subsiguientes30 meses se desarrollarían hasta 90 versiones del nuevo SO, finalizando en 1994con la definitiva, llamándola Linux versión 1.0.

La fascinación de los medios por Linux viene dada, entreotras cosas, por ser un proyecto de ingeniería de software distribuido a escalaglobal, esfuerzo mancomunado de más de 3 000 desarrolladores y un sinnúmero decolaboradores distribuidos en más de 90 países. El rango de participantesen la programación del Linux se ha estimado desde unos cuantos cientos hasta másde 40.000, ya sea ofreciendo código, sugiriendo mejoras, facilitandocomentarios o describiendo y enriqueciendo manuales. De hecho, se cuenta que elmayor soporte técnico jamás diseñado de manera espontánea y gratuitapertenece a este SO. Hoy Linux es una alternativa para muchos o un indispensablepara otros. Su importancia no puede ser relegada: los RED HAT, los SUSE, losMandrake pueblan miles de servidores por todo el planeta

 Las Distribuciones de  Linux son:

  • Caldera: El énfasis de esta distribución es la facilidad de uso e instalación para los usuarios. Se orienta más hacia el desktop a pesar que, como cualquier otra distribución de Linux, puede ser usada para servidores.
  • Corel: Es una distribución basada en Debian, pero extensivamente modificada para hacerla tan fácil de usar como el sistema operativo de Microsoft. Es quizá la distribución más fácil de utilizar para alguien que no esté familiarizado con Unix.
  • Debian: Es una distribución orientada más a desarrolladores y programadores. El énfasis de esta distribución es incluir en su sistema solamente software libre según la definición de la Fundación del Software Libre (FSF).
  • Mandrake: Es una distribución originalmente basada en RedHat que se enfoca principalmente hacia la facilidad de uso. Al igual que Corel, es recomendada para quienes no tengan mucha experiencia con sistemas Unix.
  • RedHat: Es la distribución más popular de Linux y para la que hay más paquetes comerciales de software. Está orientada tanto al desktop como a servidores. La mayoría de servidores de web que utilizan Linux como sistema operativo usan esta distribución.
  • S.U.S.E.: Es la distribución más popular en Europa y probablemente la segunda más popular del mundo. Al igual que RedHat, está orientada tanto a desktops como a servidores.
  • Slackware: Es una distribución de Linux que pretende parecerse a BSD desde el punto de vista del administrador de sistemas. No es una distribución muy popular a pesar que cuando comenzó era la más popular.
  • Stampede: Es una distribución enfocada al rendimiento y velocidad del sistema. No es muy fácil de usar para quién no está acostumbrado a la administración de sistemas Unix.  

OS/2 (IBM Operating System 2)

 OS/2 son las siglas de "Sistema operativo de segunda generación".La idea de OS/2 surgió entre IBM y Microsoft a mediados de los 80, en unintento de hacer un sucesor de MS-DOS, el cual ya empezaba a acusar el paso deltiempo y resultaba claramente desaprovechador de los recursos de las máquinasde la época (basadas en el Intel 286).

 OS/2 1.0

 OS/2 1.0 salió en abril de 1987 y era un sistemaoperativo de 16 bits, pues estaba pensado para trabajar sobre el microprocesador286. Sin embargo, aprovechaba plenamente el modo protegido de este ordenador,haciendo uso de sus capacidades para protección de memoria, gestión demultitarea, etc. El resultado fue un S.O. estable, rápido y muy potente.

OS/2 ya tenía incorporada desde esa primera versión lamultitarea real. Se podían ejecutar varias sesiones simultáneamente, en cadauna de ellas se podían tener múltiples programas, y cada uno de ellos podíatener múltiples threads en ejecución. Se trataba de una multitarea jerárquica,con cuatro niveles de prioridad: Crítico (útil para programas querequieran atención casi constante por parte del  CPU, como un módem), Primerplano (correspondiente al programa que tiene acceso a la pantalla, teclado yratón), Medio (programas lanzados por el usuario que se ejecutan enBackGround) y Desocupado (tareas de poca importancia o lentas, como elSpooler de impresión). Dentro de cada nivel (a excepción del de Primer plano),existen 32 niveles de prioridad, los cuales son asignados dinámicamente a cadaprograma por el S.O. en función del porcentaje de uso del CPU, de los puertosde E/S, etc.

OS/2, además, permitía memoriavirtual, con lo que se podían ejecutar programas más largos que lo que lamemoria física instalada permitiría en principio (los requerimientos deaquella versión eran un 286 con 2 megas de memoria). Por otro lado, incluía lacaracterística de compartición decódigo:al cargar dos veces un mismo programa, el código de este no se duplicaba enmemoria, sino que el mismo código era ejecutado por dos Threads diferentes.Esto permitía ahorrar mucha memoria.

Esta versión de OS/2 era íntegramente en modo texto. Sibien el Sistema Operativo daba la posibilidad de usar los modos gráficos de latarjeta del ordenador, no incluía ningún API que ayudase en ello, recayendotodo el trabajo de diseño de rutinas de puntos, líneas, etc, en el programadorde la aplicación. Esto no era realmente tan problemático, pues era lo que sehacía en el mundo del MS-DOS. Sin embargo, se añoraba un entorno gráfico comoWindows.

 OS/2 1.1

 En la versión 1.1, aparecida en octubre de 1988, llegópor fin el Presentation Manager, un gestor de modo gráfico, junto con laprimera versión de Work Place Shell. Ambos formaban un entorno gráfico muyparecido al aún no comercializado Windows 3.0. También hizo su aparición elformato de ficheros HPFS (High Performance File System). Este sistema deficheros complementaba al clásico FAT, que era el usado por MS-DOS y por OS/21.0; sin embargo, ofrecía una gran cantidad de ventajas, tales como:

  • Menor fragmentación de ficheros: HPFS busca primero una zona en donde el archivo entre completo, con lo que la fragmentación de ficheros es prácticamente inexistente. De hecho, IBM recomienda desfragmentar los discos duros una vez al año, y solo a los paranoicos.
  • Mayor capacidad: HPFS admite discos duros de  más capacidad, manteniendo el tamaño del cluster (unidad mínima de información almacenable) en 512 bytes o un sector. En FAT, el tamaño mínimo de cluster para un disco duro es 2048 bytes, y para discos mayores aumenta (un disco duro de 1 giga tiene un tamaño de cluster de 32K).
  • Soporte para nombres largos: Permite nombres de hasta 256 caracteres.
  • Mayor seguridad: Si al grabar en un sector se detecta un error, se marca automáticamente como defectuoso y se graba en otra parte.
  • Mayor velocidad en el acceso: Gracias a la estructura jerárquica de directorios, que optimiza el acceso a disco.

El gran problema de OS/2 es que seguía siendo un S.O. de 16bits, con lo que no aprovechaba plenamente las capacidades de los 386 de la época,que empezaron a extenderse con más velocidad de la esperada. Según una revistadel sector, Microsoft sugirió hacer una versión de 32 bits (que obligaría aejecutarla en ordenadores 386 o superiores), pero IBM insistió en perfeccionarla de 16 bits. Sobre quien dijo cada cosa realmente solo se puede especular. Loúnico que se sabe a ciencia cierta es que la versión de OS/2 de 32 bitspresentada por Microsoft en 1990 era casi igual que la versión 1.3, con la únicadiferencia de que el kernel era de 32 bits. IBM, por su parte, quería unescritorio orientado a objetos, y no el clásico shell de OS/2 1.x (el cualMicrosoft copiaría para su Windows 3.0). Puestas así las cosas, finalmente serompió el acuerdo entre ambos.

 OS/2 2.0

 Fué la primera versión de OS/2 de 32 bits, ibaa salir inicialmente a finales de 1990; pero al no contar con la ayuda deMicrosoft, IBM no fue capaz de sacarlo hasta 1992, dándole a Windows 3.0 eltiempo suficiente para asentarse en el mercado.

OS/2 2.0 tenía todas lasventajas de los anteriores OS/2, unido al nuevo núcleo de 32 bits. No setrataba, por tanto, de un retoque de la versión de 16 bits, sino un sistemaoperativo prácticamente nuevo que aprovechaba al máximo las capacidades delmodo protegido del microprocesador 386. Sin embargo, iba más allá que Windows,pues al contrario que éste, ofrecía compatibilidadgarantizada con todas las aplicaciones de16 bits anteriores, gracias a la inclusión del API original de 16 bits juntocon el nuevo de 32, y además sin perdida de prestaciones. Asímismo, ofrecía también compatibilidad con Windows 2.x y 3.0, junto con unacompatibilidad con MS-DOS muy mejorada, gracias al modo V86 que incorporan losmicros 386 y del que carecía el 286: en OS/2 1.x la compatibilidad DOS era muylimitada, quedando reducida a una sola tarea y realizando un cambio entre modoreal y modo protegido del microprocesador, además de consumir de manerapermanente 640 K  de memoria. Aparte, la emulación no era todo lo buenaque cabía esperar. Todos estos problemas desaparecieron en la versión 2.0,pudiendo tener varias sesiones DOS totalmente independientes entre sí, con unacompatibilidad cercana al 100% y beneficiándose de las capacidades de CrashProtection del OS/2, que impiden que un programa pueda colapsar el sistemaentero.

Por otro lado, el Work Place Shell (el shell de trabajo gráfico,de ahora en adelante WPS) fue muy mejorado, resultando un shell totalmenteorientado a objetos, con acceso directo a los ficheros, carpetas dentro decarpetas, ficheros sombra (conocidos como alias en los sistemas UNIX) y unescritorio de verdad. 

IBM consiguió vender OS/2 2.0 en grandes cantidades; sinembargo, no consiguió su autentico despegue, en parte por culpa de la falta deapoyo por parte de las empresas del software. El API del Presentation Manager,aunque similar al de Windows, tenía muchas diferencias, con lo que las empresastuvieron que elegir entre uno u otro, ante la imposibilidad de muchas de ellasde dividir su talento entre ambos sistemas.

 OS/2  3.0 (Warp)

 A principios de 1994 aparece el OS/2 Warp, nombrecomercial de la versión 3.0 de OS/2. En ella surgen nuevos elementos: unkit completo de multimedia (mejor del que traía la versión 2.1) y el BonusPak, un kit de aplicaciones que permite ponerse a trabajar con el ordenador nadamás instalar el Sistema Operativo, pues contiene elementos como un Kit deconexión a Internet completo, el paquete integrado IBM Works (formado por unprocesador de textos, hoja de cálculo, base de datos y gráficos de empresa,junto con el PIM, que añade más funcionalidades aprovechando las capacidadesdrag&drop del WPShell), soft de terminal, soft de captura y tratamiento devideo, etc. Así mismo, la cantidad de hardware soportado fue ampliada de maneraconsiderable, soportando casi cualquier dispositivo existente en el mercado:CD-Roms, impresoras, tarjetas de sonido, soporte PCMCIA, tarjetas de video,tarjetas de captura de video, tarjetas SCSI, etc. Los requisitos mínimos deesta versión seguían siendo un 386SX a 16MHz con 4 megas de RAM, los mismosque para Windows 3.11, y podía ejecutar programas DOS, OS/2 16bits, OS/2 32bits, Windows 2.x y Windows 3.x (incluía además el API Win32, con lo que sepodían ejecutar incluso programas Windows de 32bits).

IBM se metió en una campaña publicitaria a nivel mundialpara promocionar esta nueva versión, la cual, sin embargo, no dio losresultados esperados. A pesar de eso, OS/2 es ampliamente utilizado en múltiplesempresas, bancos sobre todo, en donde su estabilidad es la mayor garantía.

Poco después sale al mercado una revisión de Warp,denominada Warp Connect, la cual añade un kit completo de conexión a redes,soportando prácticamente cualquier estándar de red, incluyendo Novell Netware,TCP/IP, etc. junto con soporte para SLIP y PPP.

 OS/2 4.0 (Merlín)

 En Noviembre de 1996 se hizo la presentación de Merlín,nombre clave de OS/2 4.0, y que, en contra de lo que mucha gente piensa, notiene nada que ver con el mítico mago de la corte del rey Arturo, sino con un pájaroparecido a un águila (siguiendo la nueva filosofía de IBM de nombrar suscreaciones con nombres de aves). Merlín trae todo lo que ofrecía OS/2 3.0,pero lo amplía con un conjunto extra de características, como son:

  • Un soporte todavía mayor de hardware.
  • Mayor simplicidad de instalación.
  • Librerías OpenDoc (compatibles con OLE 2.0, pero más potentes).
  • Librerías OpenGL, que permiten aprovechar las capacidades 3D de las tarjetas que soporten este estándar.
  • API de desarrollo Open32, que permiten recompilar con suma facilidad las aplicaciones escritas para Windows95 y WindowsNT, de forma que aprovechen al máximo los recursos de OS/2.
  • Un Bonus Pack ampliado, incluyendo una nueva versión del IBMWorks basada en OpenDoc, y las utilidades LotusNotes.
  • Un Kernel aún más optimizado.
  • Escritorio mejorado, ofreciendo una orientación a objeto aún mayor.
  • Un extenso soporte de conectividad, superior a la versión Connect de Warp 3.0, lo que lo convierte en el cliente de red universal, pudiendo conectarse a casi cualquier servidor (no solo Warp Server, sino Windows NT Server, Novell, etc).
  • HPFS mejorado: mayor capacidad por disco y seguridad.
  • Sesiones DOS reales (el micro se conmuta a modo real, y todo el contenido de la RAM se guarda en disco, quedando el Sistema Operativo y el resto de las utilidades congelados, pudiendo rearrancar en cualquier momento. Es útil para juegos o programas de DOS muy exigentes, que se niegan a funcionar en una sesión DOS virtual).
  • La Característica Estrella de cara al Márketing: El VoiceType. Se trata de un software reconocedor de voz, capaz de funcionar con cualquier tarjeta de sonido, y que permite al usuario trabajar exclusivamente mediante el dictado de comandos. Este sistema, al contrario que otros disponibles hasta el momento, realmente reconoce el habla de forma continua, de modo que no sólo se puede usar para navegar por el escritorio y controlar programas, sino que sirve perfectamente para dictar cualquier tipo de texto, como artículos, cartas, etc., sin tocar una sola tecla. Se trata, por tanto, de un avance de los que serán, sin duda, los sistemas operativos del futuro.

Microsoft Windows

 De los tantos sistemas operativos que se han hechofamosos a lo largo del desarrollo de la informática en el ocaso del siglopasado, sin duda, ningún otro posee la peculiaridad del Windows de Microsoft.
Rodeado por todo tipo de mitos acerca de su emprendedor y ambicioso creador,solidificado sobre la base de un sistema DOS, cuya irrupción en la primera PCtenía más de suerte que de propósito, amparado por disfrutar de un férreo ydespiadado control de mercado es hoy por hoy, odiado o amado, el sistemaoperativo más extendido del planeta.

 MS-DOS

 Cuando IBM fabricó la PC hizo que el usuario antes decargar algún SO, realizara lo que se llamó el POST (Power On SelfTest), que determinaba los dispositivos disponibles (teclado, vídeo,discos, etc.) y luego buscaba un disco de arranque. Estas funciones eranrealizadas por un conjunto de instrucciones incorporad.as en la máquinamediante una ROM Luego quedó escrito que siempre hubiera algún tipode software en el sistema aún sin ser cargado el SO. Entre las rutinasdel POST tenemos las de revisión del sistema, inicialización y prueba deteclado, habilitación de vídeo, chequeo de la memoria y la rutina deinicialización que preparaba a la máquina para ejecutar el DOS. Después quelas pruebas de arranque han sido ejecutadas y el sistema está cargado, la ROM aúnsigue siendo importante debido a que contiene el soporte básico deentrada y salida (BIOS). La BIOS provee un conjunto de rutinas que elSO o los programas de aplicación pueden llamar para manipular el monitor,teclado, discos duros, discos flexibles, puertos COM o impresoras.

El trato de IBM con Microsoft tenía entre otras condicionesuna particularidad interesante: la administración directa de las tarjetasadaptadoras podría ser manejada sólo por programas que IBM proveía con la ROMdel computador. El DOS sería escrito para utilizar estos servicios. De estamanera, si IBM decidía cambiar el hardware, éste podía embarcar nuevosmodelos de chips con cambios en la BIOS y no requería que Microsoft cambiara elSO. Ello posibilitó, junto con la clonación de la arquitectura de IBM incluidola BIOS, que el DOS se extendiera por el universo, aun cuando el Gigante Azulrompiera su alianza con Microsoft, en 1991, para producir su propio SO.Microsoft había hecho un trabajo estratégico brillante e IBM había perdido lasupremacía de las computadoras para siempre.

Realmente el núcleo del DOS estaba contenido en un par dearchivos ocultos llamados IO.SYS y MSDOS.SYS en las versiones deDOS realizadas por Microsoft, e IBMBIO.SYS, para las versiones de DOS hechas porIBM bajo licencia Microsoft. Los servicios del DOS eran solicitados cuando unaaplicación llamaba a la interrupción 21 (INT 21) reservada para estos fines.Esta buscaba un punto de entrada del administrador de servicios del DOS en unatabla y saltaba a la rutina en el módulo MSDOS.SYS. En otros SO, la aplicacióndebía realizar una llamada al sistema (system call) para requerir servicios,como, por ejemplo, en UNIX.

Otro rasgo distintivo del MS-DOS fue la forma en el manejode la estructura de ficheros: la FAT (File Allocation Table) o Tablade Asignación de Archivos, que dividía al disco en subdirectorios y archivos.Criticados por muchos como un sistema poco seguro y no eficiente, la herenciasobrevivió por mucho tiempo y no fue hasta época reciente que Microsoft decidióreemplazarlo por un sistema más robusto, el NTFS que destinó a la gama alta desus SO: el Windows NT, 2000 y XP.

 Windows 1.0

 Microsoft hizo su primera incursión en lo que luego sellamaría Microsoft Windows en el año 1981 con el llamado Interface Manager, entiempos en que las interfaces gráficas de usuario, GUI, eran una quimera delujo para muchos, en tanto la computación estaba suscripta al área geográficade los centros académicos, grandes instituciones y empresas. Más que un SO, setrataba en realidad de una interfaz montada sobre su estrenado DOS. Aunque losprimeros prototipos usaban una interfaz similar a una de las aplicacionesestrellas de la Compañía en aquel entonces, el Multiplan, luego ésta fuecambiada por menús pulldown y cuadros de diálogo, similares a las usadas en elprograma Xerox Star del mencionado fabricante. Al sentir la presión deprogramas similares en aquel entonces, Microsoft anuncia oficialmente Windows afinales del año 1983. En ese momento, muchas compañías trabajan la línea delas interfaces gráficas, entre ellas Apple, reconocida casi por todos como laprimera, DESQ de Quraterdeck, Amiga Workbech, NEXTstep, etc. Windows prometíauna interfaz GUI de fácil uso, soporte multitarea y gráfico. Siguiendo el ritode los anuncio-aplazamientos de Microsoft, Windows 1.0 no llegó a los estantesde los negocios hasta noviembre de 1985, disponiendo de un soporte deaplicaciones pobres y un nivel de ventas pírrico. El paquete inicial deWindows 1.0 incluía: MS-DOS Ejecutivo, Calendario, Tarjetero, el Notepad,Terminal, Calculadora, Reloj, Panel de Control, el editor PIF (ProgramInformation File), un Spooler de impresión, el Clipboard, así como el WindowsWrite y Windows Paint.

 Windows 2.0

 Windows/286 y Windows/386, renombrados como Windows 2.0terminan la saga en el otoño de 1987, al ofrecer algunas mejoras de uso,adicionar íconos y permitir la superposición de ventanas, lo que propició unmarco mucho más apropiado para la co-ubicación de aplicaciones de mayor nivelcomo el Excel, Word, Corel Draw, Ami y PageMakers, etc. Una notoriedad delWindows/386 lo constituyó el hecho de poder correr aplicaciones en modoextendido y múltiples programas DOS de manera simultánea.

 Windows 3.0

 El Windows 3.0, que aparece en mayo de 1990, constituyóun cambio radical del ambiente Windows hasta entonces. Su habilidad dedireccionar espacios de memorias por encima de los 640 k y una interfaz deusuario mucho más potente propiciaron que los productores se estimularan con laproducción de aplicaciones para el nuevo programa. Ello, unido a la fortalezadominante del MS-DOS como SO llevado de la mano de la gula insaciable delgigante corporativo, hizo que el Windows 3.0 se vislumbrara como el primer SOgráfico (siempre con el MS-DOS bajo su estructura) marcado para dominar elmercado de las PCs en el futuro inmediato. Windows 3.0 fue un buen producto,desde el punto de vista de las ventas: diez millones de copias.

 Windows 3.1 y 3.11

 En 1992  llegaría la saga del Windows 3.1 y 3.11,así como su variante para trabajo en grupo. Con éste se hizo patente eltraslado de la mayoría de los usuarios del ambiente de texto que ofrecía elMS-DOS hacia el ambiente gráfico de la nueva propuesta, olvidándonos todospaulatinamente del Copy A:\ *.* para sustituirlo por el COPIAR Y PEGAR. Lasprimeras aplicaciones "adquiridas y/o desplazadas" por Microsoftofrecidas como un todo único, el ambiente de RED peer to peer, los sistemas deupgrade de una versión a otra y el tratamiento diferenciado para losrevendedores y los fabricantes OEM, caracterizaron los movimientos de Microsoftpara afianzar el mercado de su SO insignia. En el caso de la versión paratrabajo en grupo, Microsoft integró por primera vez su SO con un paquete detratamiento para redes, lo que permitió, sobre un protocolo propio, elcompartir ficheros entre PCs (incluso corriendo DOS), compartir impresoras,sistema de correo electrónico y un planificador para trabajo en grupo. Sinembargo, lo realmente llamativo consistió en su plena integración con elambiente Windows y con ello garantizar, independiente de la calidad del productofinal, un seguro predominio.

 Windows 95

 El año 1995 significó un nuevo vuelco en la línea delos SO de Microsoft. En agosto sale al mercado el controvertido Windows 95, unentorno multitarea con interfaz simplificada y con otras funciones mejoradas.

Parte del código de Windows 95 está implementado en 16 bitsy parte en 32 bits. Uno de los motivos por los cuales se ha hecho así, ha sidopara conservar su compatibilidad. Con Windows 95 podemos ejecutar aplicacionesde Windows 3.1 ó 3.11, MS-DOS y obviamente las nuevas aplicaciones diseñadasespecíficamente para este sistema operativo. Entre las novedades que ofreceWindows 95 cabe destacar el sistema de ficheros de 32 bits, gracias al cualpodemos emplear nombres de ficheros de hasta 256 caracteres (VFAT y CDFS),debido a que se trata de un sistema operativo de modo protegido, desaparece labarrera de los 640K, hemos de tener presente que aunque la mayor parte deWindows 3.1 es un sistema de modo protegido, este se está ejecutando sobre unsistema operativo que trabaja en modo real.

La interfaz de Windows 95 también ha sido mejorada. Elprimer gran cambio que veremos al empezar a trabajar será la desaparición delAdministrador de Programas. Ahora tenemos un escritorio al estilo del Sistema 7de los Macintosh o NeXTStep.

Viene a sustituir al sistema operativo DOS y a su predecesorWindows 3.1. Frente al DOS tiene tres ventajas importantes:

  • En primer lugar toda la información presentada al usuario es gráfica, mientras que el DOS trabaja con comandos en modo texto formados por órdenes difíciles de recordar.
  • En segundo lugar, Windows 95 define una forma homogénea de utilizar los recursos de la computadora, lo cual permite compartir datos entre las distintas aplicaciones, así como utilizar con facilidad los elementos de hardware ya instalados.
  • En tercer lugar Windows 95 es un sistema operativo que permite ejecutar varias aplicaciones a la vez (multitarea), mientras que en DOS sólo se puede ejecutar un programa en cada momento. 

A sólo siete semanas de su lanzamiento ya se habían vendidosiete millones de copias. Es la época del despegue de Internet y el WWW, y suvisualizador dominante: el Navigator de Netscape. Microsoft, en un error pococomún de su timonel no se había dado cuenta que el futuro de las computadorasestaba precisamente en la red y que Internet significaría toda una revoluciónen la rama.

Además de "empotrar" su navegador y obligar a losfabricantes de PCs a tenerlo en cuenta, ese mismo año se crea The MicrosoftNetwork y mediante su incursión acelerada en los medios masivos de comunicación,surge MSNBC, un año después.

 Windows NT

 La misión del equipo de desarrolladores quetrabajó el NT estaba bien definida: construir un SO que supliera lasnecesidades de este tipo de programa para cualquier plataforma presente ofutura. Con esa idea, el equipo encabezado por un antiguo programador de SO paramáquinas grandes, se trazó los siguientes objetivos: portabilidad en otrasarquitecturas de 32 bits, escalabilidad y multiprocesamiento, procesamientodistribuido, soporte API y disponer de mecanismos de seguridad clase 2 (C2),según parámetros definidos por el Gobierno estadounidense.
La robustez del sistema, fue un requisito a toda costa
: el NT debíaprotegerse a sí mismo de cualquier mal funcionamiento interno o daño externo,accidental o deliberado, respondiendo de manera activa a los errores de hardwareo software. Debía ser desarrollado orientado al futuro, prever las necesidadesde desarrollo de los fabricantes de equipos de cómputo, su adaptación tecnológicano sólo al hardware, sino al propio software. Todo ello sin sacrificar eldesempeño y eficiencia del sistema. En cuanto al certificado de seguridad, C2debiera cumplir con los estándares establecidos por éste como la auditoría,la detección de acceso, protección de recursos, etc. Así nació el Windows NT3.5, devenido 3.51 en el año 1994 y se introdujo poco a poco en un mercadohasta ese momento desterrado para Microsoft.

El NT 4.0 de nombre código Cairo, sale a luz en 1996.Por ahí leíamos que el nuevo sistema operativo cumplía una fórmula muysencilla: tomar un NT 3.51, sumarle los service packs 1, 2 y 3 y mezclarlo conuna interfaz a lo Windows 95 (incluido su papelera de reciclaje, algo realmenteútil para un sistema montado sobre NTFS). Un paso más en la integración delSO con Internet lo dio el NT 4.0 al incluir Internet Information Server,servidor de Microsoft para soporte WEB, FTP, etc., como un utilitario másdentro del paquete y que como la lógica indicaba engranaba con éste a las milmaravillas al desplazar en eficiencia y velocidad cualquier producto externo. Lacara "Windows 95" se sobrepuso a un inicio incierto, ya que tuvo quevencer la desconfianza que pudo haber generado. Téngase en cuenta, que lafamilia NT estaba orientada a un cliente en el que la estabilidad y seguridaddel sistema eran el requisito número uno y ello contrastaba con la experienciaque había tenido el 95. Sin embargo, el golpe fue genial. Por primera vez,Microsoft mezcló la solidez con el fácil uso y desterró para siempre elconcepto impuesto hasta entonces de que para las grandes compañías y lasgrandes empresas los servidores debían ser cosa de científicos de bata blanca.El crecimiento de los usuarios NT se multiplicó desde ese momento. EL 4.0 secomercializaba en tres versiones: Workstation, Server y AdvancedServer para tres variantes de clientes tipo, el profesional de lasingenierías, incluido la informática, la pequeña y mediana empresas y la granempresa.

 Windows 98

 La llegada de Windows 98 nomarcó mucha diferencia visual de su predecesor. Sin embargo, en el fondo fuetodo un mensaje de lo que Microsoft haría para penetrar en el mercado deInternet y barrer con los que habían dominado en este tema hasta entonces. Laindisoluble integración del WEB con el escritorio, el llamado active desktop,la interfaz   "HTML", los canales y la persistente presenciadel Explorer 4.0, para situarse por vez primera a la cabeza de losvisualizadores de Internet, fueron rasgos distintivos de esta versión. El 98 incluyóutilidades para el tratamiento de FAT16 y su conversión a FAT32, mejor manejode los discos duros, manipulación múltiple devarios monitores, una lista extendida desoporte plug and play, soporte DVD, AGP,etc. A su vez la promesa de una mejora sustancial en el tratamiento de losdrivers de dispositivos y en la disminución de los pantallazos azules, querealmente cumplió y mejoró con la versión SR1 (service release 1), tiempodespués.

Las nuevas características de Windows 98 ofrecen sacar muchomás partido del PC. Los programas se ejecutan más rápido, pudiendo ganar unapromedio de un 25% o más de espacio en el disco, Internet pasa a ser una partemuy importante en el ordenador, dando un paso gigante en la entrega de contenidomultimedia de alta calidad.

El Windows 98 se ha mantenido hasta nuestros días y debe serla última versión del SO que quede vinculada a lo que fue la líneaMS-DOS-Windows (salvando la variante Millenium o Windows Me que no ha convencidoa nadie) hasta su total sustitución por Windows 2000 y el XP, en una serie dezigzagueantes cambios que deja a todos adivinando si debe cambiar o no para lapróxima versión. Pero tras este errático rumbo, Microsoft persigue sólo unacosa: conservar la supremacía de los SO de por vida.

 Windows Millenium

 El 14 de septiembre sale el Windows Millenium, no como un sucesor del98, sino como un producto orientado al usuario doméstico (interfaz de colores,mucha música y vídeo, soporte para redes LAN inalámbricas, cortafuegospersonales), nada del otro mundo, con poca perspectiva de supervivencia.

 Windows 2000

 Se ofrece en 4 clasificaciones: Windows 2000 Professional,Windows 2000 Server (anteriormente NT Server), Windows 2000 AdvancedServer (anteriormente NT Advanced Server) y Windows 2000 Datacenter Server,un producto nuevo, poderoso y muy específico con posibilidad de manejo de hasta16 procesadores simétricos y 64 Gb de memoria física.

Lo destacable de este pasoestriba en haber llevado la robustez, la seguridad y la portabilidad quedaba el NT al mercado masivo de las PCs.Este ofrece una plataforma impresionante para el trabajo en Internet, Intranet,manejo de aplicaciones, todo muy bien integrado. La posibilidad de soportecompleto de redes, incluido redes privadas virtuales, encriptación a nivel dedisco o de red y riguroso control de acceso son otras de sus bondades.

 Windows XP ( Experience)

 Desde que apareció Windows95 las sucesivas versioneshan sido una evolución de la original, sin embargo en esta ocasión se haproducido un cambio de mayor envergadura ya que se ha cambiado el núcleo oKernel del sistema operativo.

Aunque de cara al usuario no se noten cambios radicales, sepuede decir que Windows XP no es solo una versión más de Windows sino quesupone prácticamente un nuevo sistema.

Hasta ahora Microsoft disponía de dos sistemas operativosdiferentes, para el entorno personal o doméstico tenía Windows98 y para elentorno profesional (o de negocios) el Windows NT/2000.

Con Windows XP se produce unaconvergencia entre ambas versiones ya que se ha partido delnúcleo del sistema de Windows 2000para crear Windows XP y a partir de ahí sehan realizado algunos retoques para diferenciar dos versiones de Windows XP, unapara el ámbito personal llamada Windows XP Home Edition, y otra para el ámbitoprofesional denominada Windows XP Professional.

El principal beneficio de esta estrategia para los usuariosdomésticos va a ser que Windows XP ha adquirido la robustez y estabilidad deWindows NT/2000, esto debe suponer que Windows XP se quedará menos vecesbloqueado, habrá menos ocasiones en la que tengamos que reiniciar el sistemacomo consecuencia de un error.
La mejora para los usuarios profesionales se debe a que Windows XP tiene mayorcompatibilidad con el hardware de la que gozaba Windows NT/2000.

Windows XP dispone de un nuevo sistema de usuarioscompletamente diferente respecto a Windows98. Este nuevo sistema ha sidoheredado de Windows NT/2000.

Ahora se pueden definir varios usuarios con perfilesindependientes. Esto quiere decir que cada usuario puede tener permisosdiferentes que le permitirán realizar unas determinadas tareas. Cada usuariotendrá una carpeta Mis documentos propia que podrá estar protegida porcontraseña, un menú de inicio diferente. También se dispone de una carpeta ala que tienen acceso todos los usuarios y donde se pueden colocar los documentosque se quieren compartir con los demás usuarios.

Para pasar de un usuario a otro no es necesario apagar elordenador, ni siquiera que un usuario cierre lo que estaba haciendo, simplementehay que iniciar una nueva sesión con otro usuario, más tarde podremos volver ala sesión del primer usuario que permanecerá en el mismo estado que la dejó.El sistema se encarga de manejar a los distintos usuarios activos y sininterferencias.

 El Desarrollo de los Lenguajes y Técnicas deProgramación

Paralelo al desarrollo de laciencia de la computación y de las máquinas correspondientes fue tomando augela técnica relativa a los métodos de suministrar las instrucciones a las máquinascon vistas a realizar un determinado trabajo de cálculo. Fueron dos mujereslas grandes pioneras de lastécnicas e idiomas de programación,independientemente del aporte que los hombres también brindaron.

Se reconoce generalmente como la primera gran pionera en estecampo a Lady Ada Augusta Lovelace, única hija legitima del poeta inglesLord Byron, nacida en 1815.

Entre los muchos aportes que hizo a la ciencia de lacomputación Lady Lovelace, mientras estudiaba la máquina de Babbage, el mássobresaliente probablemente fue el que estaba relacionado con el concepto de loque hoy llamamos 'lazos' o 'subrutinas'

Lady Lovelace planteó que en una larga serie deinstrucciones debía haber necesariamente varias repeticiones de una mismasecuencia. Y que consecuentemente debía ser posible establecer un solo grupo detarjetas perforadas para este grupo de instrucciones recurrentes. Sobre estemismo principio trabajaron posteriormente los conocidos matemáticos inglesesAlan Turing y John Von Neumann.

En 1989 el único lenguaje aceptado por el Departamento deDefensa Norteamericano es el llamado ADA, este en honor de la Condesa ADALovelace. ADA surgió por la necesidad de unificar los más de 400 lenguajesy dialectos que dicho departamento utilizaba en sus proyectos, de forma que eltiempo y dinero invertidos en el desarrollo de software para uno de ellos fuerautilizable en otro de similares características.

Poco más de un siglo después de la muerte de Lady Lovelace,otra mujer, que con el paso del tiempo demostró ser eminente, estaba empeñadaen la programación de la primera computadora digital, la Mark I.

Grace M. Hooper fue una de las pioneras en el campo delos idiomas de programación, especialmente en el desarrollo de Cobol(Common Business Oriented Languaje), un idioma concebido para su utilizacióncon equipos de diferentes fabricantes y que expresa los problemas de manipulacióny elaboración de datos en forma narrativa ordinaria en Ingles.

Su trabajo relacionado con la programación de Mark I y lassubsiguientes generaciones Mark II y Mark III le valieron ganar un prestigiosopremio otorgado por la Marina. Luego de tres años trabajando en el departamentode computación de la Marina, Grace Hooper se unió a la Eckert Mauchly Corp.como experta en matemáticas. En la fecha en que Hooper se unió a la compañíade Eckert Mauchly, éstos estaban empeñados en la construcción de Univac I, enla programación de la cual la Sra. Hooper tuvo gran participación.

En 1952 Grace Hooper publicó su primer ensayo sobreautoprogramadores (Compilers), que le valió ser nombraba directora eingeniero de sistemas de la División Univac de la Sperry Rand Corp. Estedocumento de gran importancia técnica sería el primero de muchos otros (másde 50) publicados por ella relacionados con idiomas y otros elementos deprogramación.

Los trabajos de Grace Hooper en materia de programaciónllevaron al desarrollo de las subrutinas (subprograms) y por extensióna la creación de colecciones de las subrutinas, un procedimiento eficiente yeconómico de eliminar errores en la programación y de disminuirconsiderablemente el esfuerzo requerido para poder programar.

Los lenguajes de programación sedividen en:

Lenguaje de máquina: El lenguaje de máquina está orientado hacia lamáquina.  Este lenguaje es fácil de entender por la computadora,pero difícil para el usuario.  Es el lenguaje original de la computadorael cual es generado por el "software", y no por el programador.

 Bajo Nivel: Son dependientes de la máquina, están diseñadospara ejecutarse en una determinada computadora. A esta categoría pertenecen las2 primeras generaciones. Ejemplo: lenguaje ensamblador.

Alto Nivel: Son independientes de la máquina y se pueden utilizar encualquier computadora. Pertenecen a esta categoría la tercera y la cuartageneración. Los lenguajes de más alto nivel no ofrecen necesariamente mayorescapacidades de programación, pero si ofrecen una interacciónprogramador/computadora más avanzada. Cuanto más alto es el nivel dellenguaje, más sencillo es comprenderlo y utilizarlo.

 Cada generación de lenguajes es más fácil de usar ymás parecida a un lenguaje natural que sus antecesores.

Los lenguajes posteriores a la cuarta generación se conocencomo lenguajes de muy alto nivel. Son lenguajes de muy alto nivel losgeneradores de aplicaciones y los naturales.

En cada nuevo nivel se requieren menos instrucciones paraindicar a la computadora que efectúe una tarea en particular. Pero loslenguajes de alto nivel son sólo una ayuda para el programador. Un mayor nivelsignifica que son necesarios menos comandos, debido a que cada comando o mandatode alto nivel reemplaza muchas instrucciones de nivel inferior.

Programas traductores
Son los que traducen instrucciones de lenguajes de programación de altonivel al código binario del lenguaje de la máquina.

  • Código fuente ("source code")
    Es un conjunto de instrucciones del programa que están escritas en un lenguaje de programación.
Código del objeto ("object code")
Es un conjunto de instrucciones binarias traducidas y que la computadora puede ejecutar.

Ejemplos de programas traductores

Compilador
Es un programa que traduce un lenguaje dealto nivel al lenguaje de máquina de una computadora. Según va ejecutando latraducción, coteja los errores hechos por el programador.  Traduce unprograma una sola vez, generalmente, y es cinco veces más rápido que losprogramas intérpretes. Ejemplos: ALGOL, BASIC, COBOL, FORTRAN, PASCAL yPL/1.

  Intérprete
Es un programa que traduce un lenguaje de alto nivel al lenguaje de máquina deuna computadora.  El programa siempre permanece en su forma original(programa fuente) y traduce cuando está en la fase de ejecución instrucciónpor instrucción.  Ejemplo:  BASIC

  Ensamblador
Es un programa de bajo nivel que traduce el lenguaje de ensamble a lenguaje de máquina. Utiliza letras del alfabeto para representar los diferentes arreglos del códigobinario de la máquina.  Los programadores de ensamble deben conocerprofundamente la arquitectura y el lenguaje de máquina de su computadora. El programa ensamblador traduce cada instrucción de ensamble escrita porel programador a la instrucción en lenguaje de máquina binario equivalente. En general, las instrucciones ("software") de un sistema seescriben en este lenguaje.  Ejemplos: Sistema operativo ySistemas de manejo de base de datos.

Lenguajes de alto nivel más comunes

 BASIC (Beginners All-purpose Symbolic Instruction Code)

Fue el lenguaje de programación interactivo máspopular en la década de los 70.  Es un lenguaje de propósito general. Desarrollado por John Kemeny y Thomas Kurtz en "DartmouthCollege" en 1963.  Existen numerosas versiones, algunas son compiladores y otras son intérpretes.

COBOL (Common Business Oriented Language)

Es un lenguaje compilador diseñado para aplicaciones de negocios.  Desarrolladoen 1959 por el gobierno federal de los Estados Unidos y fabricantes decomputadoras bajo el liderazgo de Grace Hopper.  Es el más utilizadopor los "mainframe".  COBOL está estructurado en cuatrodivisiones; a saber:

1)       División de identificación -identifica el programa.  

2)       División ambiental - identifica a lascomputadoras fuente y objeto.

3)       División de datos - identifica lasmemorias "buffer", constantes y áreas de trabajo.  

4)       División de procedimiento - describeel procesamiento (la lógica del programa).

    PASCAL
Este programa recibió su nombre enhonor a Blas Pascal.  Fue desarrollado por el científico suizo NiklausWirth en 1970 y diseñado para enseñar técnicas de programación estructurada.  Esfácil de aprender y de usar y no utiliza línea sino ";"(semicolon).  Existen versiones de compilador, como de intérprete.  Estasvarían según la versión.

   FORTRAN(FORmula TRANslator)

Es uno de los primeros lenguajes de alto nivel desarrollado en 1954 por JohnBackus y un grupo de programadores de IBM.  Es un lenguaje compilador quese diseñó para expresar con facilidad las fórmulas matemáticas, resolverproblemas científicos y de ingeniería.

   ADA
Es un lenguaje desarrollado como una norma del Departamento de Defensa de losEstados Unidos.

Es un lenguaje basado en PASCAL, pero más amplio y específico.  Fuediseñado tanto para aplicaciones comerciales como científicas.  Es unlenguaje de multitareas que puede ser compilado por segmentos separados. Se llama ADA en honor de Augusta Ada Byron, condesa de Lovelace e hija del poetainglés Lord Byron.

  APL(A Programming Language)

Este programa fue desarrollado por Kenneth Inverson a mediados de la décadade 1960 para resolver problemas matemáticos.  Este lenguaje se caracterizapor su brevedad y por su capacidad de generación de matrices y se utiliza en eldesarrollo de modelos matemáticos.

   PL/1(Programming Language 1)

Este programa fue desarrollado por IBM.  Es un lenguaje de propósitogeneral que incluye características de COBOL y de FORTRAN.  Su principalutilidad es en los "mainframes".

    RPG(Report Program Generator)

Fue desarrollado por IBM en 1964 y diseñado para generar informescomerciales o de negocios.

    LenguajeC

Fue desarrollado a principios de la década de los 70 en Bell Laboratoriespor Brian Kernigham y Dennis Ritchie.  Ellos necesitaban desarrollar unlenguaje que se pudiera integrar con UNIX, permitiendo a los usuarios hacermodificaciones y mejorías fácilmente.  Fue derivado de otro lenguajellamado BCPL.

    Lenguaje C

Se pronuncia "ce plus plus".  Fue desarrollado porBjarne Stroustrup en los Bell Laboratories a principios de la década de los'80.  C introduce la programación orientada al objeto en C.  Es unlenguaje extremadamente poderoso y eficiente.  C es un súperconjunto de C, para aprender C significa aprender todo acerca de C, luegoaprender programación orientada al objeto y el uso de éstas con C .

    Visual BASIC

Este programa fue creado por Microsoft.  Es un programa moderno queda apoyo a las características y métodos orientados a  objetos.

    Programación orientada al objeto

Las metas de la programación orientada al objeto es mejorar la productividadde los programadores haciendo más fácil de  usar y extender los programasy manejar sus complejidades.  De esta forma, se reduce el costo dedesarrollo y mantenimiento de los programas.  En los lenguajesorientados al objeto los datos son considerados como objetos que a su vezpertenecen a alguna clase.  A las operaciones que se definen sobre losobjetos son llamados métodos.  Ejemplo de programas orientados alobjeto: Visual BASIC y C

Generaciones de los Lenguajes de Programación

 1.       Primera Generación: Lenguajede máquina. Empieza en los años 1940-1950. Consistía en sucesiones de dígitosbinarios. Todas las instrucciones y mandatos se escribían valiéndose decadenas de estos dígitos. Aún en la actualidad, es el único lenguaje internoque entiende la computadora; los programas se escriben en lenguajes de mayornivel y se traducen a lenguaje de máquina.

2.       Segunda Generación: Lenguajesensambladores. Fines de los 50. Se diferencian de los lenguajes de máquinaen que en lugar de usar códigos binarios, las instrucciones se representan consímbolos fáciles de reconocer, conocidos como mnemotécnicos. Aún seutilizan estos lenguajes cuando interesa un nivel máximo de eficiencia en laejecución o cuando se requieren manipulaciones intrincadas. Al igual que loslenguajes de máquina, los lenguajes ensambladores son únicos para unacomputadora en particular. Esta dependencia de la computadora los hace serlenguajes de bajo nivel.

3.       Tercera Generación: Años’60. Los lenguajes de esta generación se dividen en tres categorías, segúnse orienten a:

       Procedimientos:Requieren que la codificación de las instrucciones se haga en la secuencia enque se deben ejecutar para solucionar el problema. A su vez se clasifican encientíficos (ej.: FORTRAN), empresariales (ej.: COBOL), y de uso general o múltiple(ej.: BASIC). Todos estos lenguajes permiten señalar cómo se debe efectuaruna tarea a un nivel mayor que en los lenguajesensambladores.Hacen énfasis en los procedimientos o las matemáticas implícitas, es decir enlo quese hace (la acción).

      Problemas:Están diseñados para resolver un conjunto particular de problemas y norequieren el detalle de la programación que los lenguajes orientados aprocedimientos. Hacen hincapié en la entrada y la salida deseadas.

       Objetos: El énfasis sehace en el objeto de la acción. Los beneficios que aportan estoslenguajes incluyen una mayor productividad del programador y claridad de la lógica,además de ofrecer la flexibilidad necesaria para manejar problemas abstractosde programación.

4.       Cuarta Generación: Sucaracterística distintiva es el énfasis en especificar qué es lo que sedebe hacer, en vez de cómo ejecutar una tarea. Las especificaciones de losprogramas se desarrollan a un más alto nivel que en los lenguajes de lageneración anterior. La característica distintiva es ajena a losprocedimientos, el programador no tiene que especificar cada paso para terminaruna tarea o procesamiento. Las características generales de los lenguajes decuarta generación son:

  • Uso de frases y oraciones parecidas al inglés para emitir instrucciones.
  • No operan por procedimientos, por lo que permiten a los usuarios centrarse en lo que hay que hacer no en cómo hacerlo.
  • Al hacerse cargo de muchos de los detalles de cómo hacer las cosas, incrementan la productividad.

Hay dos tipos de lenguajes de cuarta generación, según se orienten:

  • A la producción: Diseñados sobre todo para profesionales en la computación.
  • Al usuario: Diseñados sobre todo para los usuarios finales, que pueden escribir programas para hacer consultas en una base de datos y para crear sistemas de información. También se llama lenguaje de consultas (SQL, Structured Query Language: lenguaje estructurado para consultas).   

GENERACIONES DE COMPUTADORAS

 Primera Generación (1951-1958)

Las computadoras de la primera Generación emplearonbulbos para procesar información. Los operadores ingresaban los datos yprogramas en código especial por medio de tarjetas perforadas. Elalmacenamiento interno se lograba con un tambor que giraba rápidamente, sobreel cual un dispositivo de lectura/escritura colocaba marcas magnéticas. Esascomputadoras de bulbos eran mucho más grandes y generaban más calor que losmodelos contemporáneos. El voltaje de los tubos era de 300v y laposibilidad de fundirse era grande. Eckert y Mauchly contribuyeron al desarrollode computadoras de la 1era Generación formando una Cia. privada y construyendo UNIVACI, que el Comité del censo utilizó para evaluar el de 1950. La programaciónen lenguaje máquina, consistía en largas cadenas de bits, de ceros y unos, porlo que la programación resultaba larga y compleja

  • Usaban tubos al vacío para procesar información.
  • Usaban tarjetas perforadas para entrar los datos y los programas.
  • Usaban cilindros magnéticos para almacenar información e instrucciones internas

En 1953 se comenzó   a construir computadoraselectrónicas y su primera entrada fue con la IBM 701.

Después de un lento comienzo la IBM 701 se convirtió en un productocomercialmente viable. Sin embargo en 1954 fue introducido el modelo IBM 650, elcual es la razón por la que IBM disfruta hoy de una gran parte del mercado delas computadoras. Aunque caras y de uso limitado las computadoras fueronaceptadas rápidamente por las Compañías privadas y de Gobierno. A la mitad delos años 50 IBM y Remington Rand se consolidaban como líderes en la fabricaciónde computadoras.

 Segunda Generación (1959-1964)

El invento del transistor hizo posible una nueva generación decomputadora

s, más rápidas, más pequeñas y con menores necesidades de ventilación.Sin embargo el costo seguía siendo una porción significativa del presupuestode una Compañía. Las computadoras de la segunda generación utilizaban redesde núcleos magnéticos en lugar de tambores giratorios para el almacenamientoprimario. Estos núcleos contenían pequeños anillos de material magnético,enlazados entre sí, en los cuales podían almacenarse datos e instrucciones.Los programas de computadoras también mejoraron. El COBOL desarrollado durantela 1era generación estaba ya disponible comercialmente. Los programasescritos para una computadora podían transferirse a otra con un mínimoesfuerzo. El escribir un programa ya no requería entender plenamente elhardware de la computadora. Las computadoras de la 2da Generación eransubstancialmente más pequeñas y rápidas que las de bulbos, y seusaban para nuevas aplicaciones, como en los sistemas para reservación en líneasaéreas, control de tráfico aéreo y simulaciones para uso general. Lasempresas comenzaron a utilizar las computadoras en tareas de almacenamiento deregistros, como manejo de inventarios, nómina y contabilidad, la velocidadde las operaciones ya no se mide en segundos sino en microsegundos (ms).Memoria interna de núcleos de ferrita.

  • Instrumentos de almacenamiento: cintas y discos.
  • Mejoran los dispositivos de entrada y salida, para la mejor lectura de tarjetas perforadas, se disponía de células fotoeléctricas.
  • Introducción de elementos modulares.

La marina de EE.UU. utilizó las computadoras de la Segunda Generación paracrear el primer simulador de vuelo (Whirlwind I). HoneyWell se colocó como elprimer competidor durante la segunda generación de computadoras. Burroughs,Univac, NCR, CDC, HoneyWell, los más grandes competidores de IBM durante los años60  se conocieron como el grupo BUNCH 

 Tercera Generación (1964-1971)

Circuitos integrados (chips)

Las computadoras de la tercera generación emergieron con el desarrollo delos circuitos integrados (pastillas de silicio) en las cuales se colocanmiles de componentes electrónicos, en una integración en miniatura. Lascomputadoras nuevamente se hicieron más pequeñas, más rápidas, desprendíanmenos calor y eran energéticamente más eficientes.

Multiprogramación

Antes del advenimiento de los circuitos integrados, las computadoras estabandiseñadas para aplicaciones matemáticas o de negocios, pero no para las doscosas. Los circuitos integrados permitieron a los fabricantes de computadorasincrementar la flexibilidad de los programas, y estandarizar sus modelos. La IBM360 una de las primeras computadoras comerciales que usó circuitos integrados,podía realizar tanto análisis numéricos como administración ó procesamientode archivos.

Las computadoras trabajaban a tal velocidad que proporcionaban lacapacidad de correr más de un programa de manera simultánea(multiprogramación).

Minicomputadora

Con la introducción del modelo 360 IBM acaparó el 70% del mercado, paraevitar competir directamente con IBM la empresa Digital Equipment Corporation (DEC)redirigió sus esfuerzos hacia computadoras pequeñas. Mucho menos costosas decomprar y de operar que las computadoras grandes, las minicomputadoras sedesarrollaron durante la segunda generación pero alcanzaron su mayor auge entre1960 y 1970.

  • Generalización de lenguajes de programación de alto nivel
  • Compatibilidad para compartir software entre diversos equipos
  • Tiempo Compartido: Uso de una computadora por varios clientes a tiempo compartido, pues el aparato puede discernir entre diversos procesos que realiza simultáneamente
  • Se desarrollaron circuitos integrados para procesar información.
  • Se desarrollaron los "chips" para almacenar y procesar la información.
  • Un "chip" es una pieza de silicio que contiene los componentes electrónicos en miniatura llamados semiconductores.
     

Cuarta Generación (1971-1982)

 El microprocesador: El proceso de reducción del tamaño de loscomponentes llega a operar a escalas microscópicas. La microminiaturizaciónpermite construir el microprocesador, circuito integrado que rige lasfunciones fundamentales del ordenador.

Las aplicaciones del microprocesador se han proyectado más allá de lacomputadora y se encuentran en multitud de aparatos, sean instrumentos médicos,automóviles, juguetes, electrodomésticos, el tamaño reducido delmicroprocesador de chips hizo posible la creación de las computadoraspersonales. (PC)

Memorias Electrónicas: Se desechan las memorias internas de los núcleosmagnéticos de ferrita y se introducen memorias electrónicas, que resultan másrápidas. Al principio presentan el inconveniente de su mayor costo, pero estedisminuye con la fabricación en serie.

Sistema de tratamiento de base de datos: El aumento cuantitativo delas bases de datos lleva a crear formas de gestión que faciliten las tareas deconsulta y edición. Los sistemas de tratamiento de base de datos consisten enun conjunto de elementos de hardware y software interrelacionados que permitenun uso sencillo y rápido de la información

En 1981, IBM develó su computador personal y, en 1984, Apple su Macintosh. Amedida que estas máquinas se hacían más poderosas, se pudieron enlazar enredes, lo cual eventualmente condujo al desarrollo de Internet. Otros de losadelantos que se han desarrollado en esta generación son el uso de interfacesgráficas (Windows y Mac OS), el mouse y aparatos portátiles.

Hoy en día las tecnologías LSI (Integración a gran escala) y VLSI(integración a muy gran escala) permiten que cientos de miles de componenteselectrónicos se almacenen en un clip. Usando VLSI, un fabricante puede hacerque una computadora pequeña rivalice con una computadora de la primera generaciónque ocupara un cuarto completo.

  • Se minimizan los   circuitos, aumenta la capacidad de almacenamiento.
  • Reducen el tiempo de respuesta.
  • Gran expansión del uso de las Computadoras.
  • Memorias electrónicas más rápidas.
  • Sistemas de tratamiento de bases de datos.
  • Multiproceso.
  • Microcomputadora.  

Categorías de las Computadoras

 Supercomputadora
La supercomputadora es lo máximo encomputadoras, es la más rápida y, por lo tanto, la más cara.  Cuestamillones de dólares y se hacen de dos a tres al año.  Procesanbillones de instruccionespor segundo.  Son utilizadas paratrabajos científicos, particularmente para crear modelos matemáticos del mundoreal, llamados simulación.  Algunos ejemplos de uso son:  exploracióny producción petrolera, análisis estructural, dinámica de fluidoscomputacional, física, química, diseño electrónico, investigación de energíanuclear, meteorología, diseño de automóviles, efectos especiales de películas,trabajos sofisticados de arte, planes gubernamentales y militares y la fabricaciónde naves espaciales por computadoras.  Ejemplo: Cray 1, Cray2.

 Mainframe
Los "mainframe" soncomputadoras grandes, ligeras, capaces de utilizar cientos de dispositivos deentrada y salida.  Procesan millones de instrucciones por segundo.  Suvelocidad operacional y capacidad de procesar hacen que los grandes negocios, elgobierno, los bancos, las universidades, los hospitales, compañías de seguros,líneas aéreas, etc. confíen en ellas.  Su principal función esprocesar grandes cantidades de datos rápidamente.  Estos datos estánaccesibles a los usuarios del "mainframe" o a los usuarios de lasmicrocomputadoras cuyos terminales están conectados al "mainframe".  Sucosto fluctúa entre varios cientos de miles de dólares hasta el millón.  Requierende un sistema especial para controlar la temperatura y la humedad.  Tambiénrequieren de un personal profesional especializado para procesar los datos ydarle el mantenimiento.  Ejemplo: IBM 360.

Minicomputadora
La minicomputadora se desarrolló en la décadade 1960 para llevar a cabo tareas especializadas, tales como el manejo de datosde comunicación.  Son más pequeñas, más baratas y más fáciles demantener e instalar que los "mainframes". Usadas por negocios,colegios y agencias gubernamentales.  Su mercado ha ido disminuyendodesde que surgieron las microcomputadoras.  Ejemplos: PDP-1,PDP-11, Vax 20, IBM sistema 36.

 Microcomputadora
La microcomputadora es conocida como computadora personal o PC.  Es lamás pequeña, gracias a los microprocesadores, más barata y más popular en elmercado.   Su costo fluctúa entre varios cientos de dólareshasta varios miles de dólares.  Puede funcionar como unidadindependiente o estar en red con otras microcomputadoras o como un terminal deun "mainframe" para expandir sus capacidades.  Puedeejecutar las mismas operaciones y usar los mismos programas que muchascomputadoras superiores, aunque en menor capacidad.  Ejemplos: MITS Altair,Macintosh, serie Apple II, IBM PC, Dell, Compaq, Gateway, etc.

 Tipos de microcomputadoras:

a.   Desktop: Es otro nombrepara la PC que está encima del escritorio.

b.  Portátil: Es la PCque se puede mover con facilidad.  Tiene capacidad limitada y la mayoríausa una batería como fuente de poder.  Pesan entre 7Kg y 9Kg.
             Laptop: La computadora "laptop" tiene una pantalla planay pesa alrededor de 6 Kg.
              NotebookLa computadora "notebook" es más pequeña y pesa alrededor de 4Kg. 

c.  Palmtop: Es la computadora del tamaño de una calculadorade mano.  Utiliza batería y puede ser conectada a la desktop paratransferir datos.          

Microprocesadores

 Es el cerebro del ordenador. Se encarga de realizar todas lasoperaciones de cálculo y de controlar lo que pasa en el ordenador recibiendoinformación y dando órdenes para que los demás elementos trabajen. En losequipos actuales se habla fundamentalmente de los procesadores Pentium4 de Intely Athlon XP de AMD. Además, están muy extendidos procesadores no tannovedosos, como los Pentium MMX y Pentium II/III de Intel y los chips de AMD(familias K6 y los primeros K7/Athlon).

 Tipos de conexión

 El rendimiento que dan los microprocesadores no sólo depende de ellosmismos, sino de la placa donde se instalan. Los diferentes micros no se conectande igual manera a las placas:

Socket: Con mecanismo ZIF (Zero Insertion Force). En ellas el procesador se inserta y se retira sin necesidad de ejercer alguna presión sobre él. Al levantar la palanquita que hay al lado se libera el microprocesador, siendo extremadamente sencilla su extracción. Estos zócalos aseguran la actualización del microprocesador. Hay de diferentes tipos:

     Socket  423 y 478: En ellos se insertan los nuevos Pentium 4 de Intel. El primero hace referencia al modelo de 0,18  (Willamete) y el segundo al construido según la tecnología de 0,13  (Northwood). También hay algunos de 478 con núcleo Willamete. El tamaño de  mencionado hace referencia al tamaño de cada transistor, cuanto menor sea tu tamaño más pequeño será el micro y más transistores será posible utilizar en el mismo espacio físico. Además, la reducción de tamaño suele estar relacionada con una reducción del calor generado y con un menor consumo de energía. En el zócalo 478 también se insertan micros Celeron de Intel de última generación similares a los p4 pero más económicos

      Socket462/Socket A:Ambos son el mismo tipo. Se trata donde se insertan los procesadores Athlon ensus versiones más nuevas:

Athlon Duron: Versión reducida, con sólo 64 Kb de memoriacaché, para configuraciones económicas.

Athlon Thunderbird: Versión normal, con un tamaño variable dela memoria caché, normalmente 256 Kb.

  • Athlon XP: Con el núcleo Palomino fabricado en 0,18  o Thoroughbred fabricado en 0,13, es un Thunderbird con una arquitectura totalmente remodelada con un rendimiento ligeramente superior a la misma frecuencia (MHz), con un 20% menos de consumo y el nuevo juego de instrucciones SEC de Intel junto con el ya presente 3DNow! de todos los procesadores AMD desde el K6-2. o con el núcleo T.
  • Athlon MP: Micro que utiliza el núcleo Palomino al igual que el XP, con la salvedad que éste accede de forma diferente al acceso a la memoria a la hora de tener que compartirla con otros micros, lo cual lo hace idóneo para configuraciones
  • multiprocesador.
  • Socket 370 o PPGA: Es el zócalo que utilizan los últimos modelos del Pentium III y Celeron de Intel.
  • Socket 8: Utilizado por los procesadores Pentium Pro de Intel, un micro optimizado para código en 32 bits que sentaría las bases de lo que conocemos hoy día.
  • Socket 7: Lo usan los micros Pentium/Pentium MMX/K6/K6-2 o K6-3 y muchos otros.
  • Otros socket: como el zócalo ZIF Socket-3 permite la inserción de un 486 y de un Pentium Overdrive.
  • Slot A /Slot 1 /Slot 2: Es donde se conectan respectivamente los procesadores Athlon antiguos de AMD, los procesadores Pentium II y antiguos Pentium III, los procesadores Xeon de Intel dedicados a servidores de red. Todos ellos son cada vez más obsoletos. El modo de insertarlos es similar a una tarjeta gráfica o de sonido, ayudándonos de dos guías de plástico insertadas en la placa base.
  • En las placas base más antiguas, el micro iba soldado, de forma que no podía actualizarse (486 a 50 MHz hacia atrás). Hoy día esto no se ve en lo referente a los microprocesadores de PC.

  El Microprocesador 4004

 En 1969, Silicon Valley, en el estado de California (EEUU) era elcentro de la industria de los semiconductores. Por ello, gente de la empresaBusicom, una joven empresa japonesa, fue a la compañía Intel (fundada el añoanterior) para que hicieran un conjunto de doce chips para el corazón de sunueva calculadora de mesa de bajo costo.

Durante el otoño (del hemisferio norte) de 1969 Hoff, ayudado por StanleyMazor, definieron una arquitectura consistente en un CPU de 4 bits, una memoriaROM (de sólo lectura) para almacenar las instrucciones de los programas, unaRAM (memoria de lectura y escritura) para almacenar los datos y algunos puertosde entrada/salida para la conexión con el teclado, la impresora, las llaves ylas luces. Además definieron y verificaron el conjunto de instrucciones con laayuda de ingenieros de Busicom (particularmente Masatoshi Shima).

En abril de 1970 Federico Faggin se sumó al staff de Intel. El trabajo de élera terminar el conjunto de chips de la calculadora. Se suponía que Hoff yMazor habían completado el diseño lógico de los chips y solamente quedaríanpor definir los últimos detalles para poder comenzar la producción. Esto nofue lo que Faggin encontró cuando comenzó a trabajar en Intel ni lo que Shimaencontró cuando llegó desde Japón.

Shima esperaba revisar la lógica de diseño, confirmando que Busicom podríarealizar su calculadora y regresar a Japón. Se puso furioso cuando vio queestaba todo igual que cuando había ido seis meses antes, con lo que dijo (en lopoco que sabía de inglés) "Vengo acá a revisar. No hay nada pararevisar. Esto es sólo idea". No se cumplieron los plazos establecidos enel contrato entre Intel y Busicom. De esta manera, Faggin tuvo que trabajarlargos meses, de 12 a 16 horas por día.

Finalmente pudo realizar los cuatro chips arriba mencionados. El los llamó"familia 4000". Estaba compuesto por cuatro dispositivos de16 pines: el 4001 era una ROM de dos kilobits con salida de cuatro bits dedatos; el 4002 era una RAM de 320 bits con el port de entrada/salida (bus dedatos) de cuatro bits; el 4003 era un registro de desplazamiento de 10 bits conentrada serie y salida paralelo; y el 4004 era el CPU de 4 bits.

El 4001 fue el primer chip diseñado y terminado. La primera fabricaciónocurrió en octubre de 1970 y el circuito trabajó perfectamente. En noviembresalieron el 4002 con un pequeño error y el 4003 que funcionó correctamente.Finalmente el 4004 vino unos pocos días antes del final de 1970. Fue una lástimaporque en la fabricación se habían olvidado de poner una de las máscaras.Tres semanas después vinieron los nuevos 4004, con lo que Faggin pudo realizarlas verificaciones. Sólo encontró unos pequeños errores. En febrero de 1971el 4004 funcionaba correctamente. En el mismo mes recibió de Busicom lasinstrucciones que debían ir en la ROM.

A mediados de marzo de 1971, envió los chips a Busicom, donde verificaronque la calculadora funcionaba perfectamente. Cada calculadora necesitaba un4004, dos 4002, cuatro 4001 y tres 4003. Tomó un poco menos de un año desde laidea al producto funcionando correctamente.

Luego de que el primer microprocesador fuera una realidad, Faggin le pidió ala gerencia de Intel que utilizara este conjunto de chips para otrasaplicaciones. Esto no fue aprobado, pensando que la familia 4000 sólo serviríapara calculadoras. Además, como fue producido mediante un contrato exclusivo, sólolo podrían poner en el mercado teniendo a Busicom como intermediario.

Después de hacer otros dispositivos utilizando la familia 4000, Faggin ledemostró a Robert Noyce (entonces presidente de Intel) la viabilidad de estosintegrados para uso general. Finalmente ambas empresas llegaron a un arreglo:Intel le devolvió los 60.000 dólares que había costado el proyecto, sólopodría vender los integrados para aplicaciones que no fueran calculadoras yBusicom los obtendría más baratos (ya que se producirían en mayor cantidad).

El 15 de noviembre de 1971, la familia 4000, luego conocida como MCS-4(Micro Computer System 4-bit) fue finalmente introducida en el mercado.

  El Microprocesador 8080

 El 8080 realmente creó el verdadero mercado de losmicroprocesadores. El 4004 y el 8008 lo sugirieron, pero el 8080 lo hizoreal. Muchas aplicaciones que no eran posibles de realizar con losmicroprocesadores previos pudieron hacerse realidad con el 8080. Este chip se usóinmediatamente en cientos de productos diferentes. En el 8080 corría el famososistema operativo CP/M (siglas de Control Program for Microcomputers) dela década del '70 que fue desarrollado por la compañía Digital Research.

Como detalle constructivo el 8080 tenía alrededor de 6000transistores MOS de canal N (NMOS) de 6 , se conectaba al exteriormediante 40 patas (en formato DIP) y necesitaba tres tensiones para sufuncionamiento (típico de los circuitos integrados de esa época): 12V, 5V y -5V. La frecuencia máxima era de 2 MHz.

La competencia de Intel vino de Motorola. Seis meses despuésdel lanzamiento del 8080, apareció el 6800. Este producto era mejor en variosaspectos que el primero. Sin embargo, la combinación de tiempos (el 8080 salióantes), "marketing" más agresivo, la gran cantidad de herramientas dehardware y software, y el tamaño del chip (el del 8080 era mucho menor que eldel 6800 de Motorola) inclinaron la balanza hacia el 8080.

El mayor competidor del 8080 fue el microprocesador Z-80, quefue lanzado en 1976 por la empresa Zilog (fundada por Faggin). Entre lasventajas pueden citarse: mayor cantidad de instrucciones (158 contra 74),frecuencia de reloj más alta, circuito para el apoyo de refresco de memoriasRAM dinámicas, compatibilidad de código objeto (los códigos de operación delas instrucciones son iguales) y una sola tensión para su funcionamiento ( 5V).

 Los Microprocesadores 8086 y 8088

 En junio de 1978 Intel lanzó al mercado el primer microprocesadorde 16 bits: el 8086. En junio de 1979 apareció el 8088 (internamente igualque el 8086 pero con bus de datos de 8 bits) y en 1980 los coprocesadores 8087(matemático) y 8089 (de entrada y salida). El primer fabricante que desarrollósoftware y hardware para estos chips fue la propia Intel.

Los ordenadores con estos microprocesadores eran conocidoscomo ordenadores XT

Esto significa que los datos iban por   busesque eran de 8 ó 16 bits, bien por dentro del chip o cuando salían alexterior, por ejemplo para ir a la memoria. Este número reducido de bits limitasus posibilidades en gran medida.

El desarrollo más notable para la familia 8086/8088 fue laelección del CPU 8088 por parte de IBM (International Business Machines) cuandoen 1981 entró en el campo de las computadoras personales. Esta computadora sedesarrolló bajo un proyecto con el nombre "Acorn" (Proyecto"Bellota") pero se vendió bajo un nombre menos imaginativo, pero máscorrecto: "Computadora Personal IBM"(con 48KB de memoria RAM y unaunidad de discos flexibles con capacidad de 160KB). Esta computadora entró encompetencia directa con las ofrecidas por Apple (basado en el 6502) y por RadioShack (basado en el Z-80).

 Los Microprocesadores 80186 y 80188

 Estos microprocesadores altamente integradosaparecieron en 1982. Por "altamente integrados" se entiende que elchip contiene otros componentes aparte de los encontrados en microprocesadorescomunes como el 8088 u 8086. Generalmente contienen, aparte de la unidad deejecución, contadores o "timers", y a veces incluyen memoria RAM y/oROM y otros dispositivos que varían según los modelos. Cuando contienenmemoria ROM, a estos chips se los llama microcomputadoras en un sólo chip(no siendo éste el caso de los microprocesadores 80186/80188).

Externamente se encapsulaban en el formato PGA (Pin GridArray) de 68 pines.

El Microprocesador 80286

 Este microprocesador apareció en febrero de 1982. Los avances deintegración que permitieron agregar una gran cantidad de componentes periféricosen el interior del 80186/80188, se utilizaron en el 80286 para hacer unmicroprocesador que soporte nuevas capacidades, como la multitarea (ejecuciónsimultánea de varios programas).

 El 80286 tiene dos modos de operación: modo real y modo protegido.En el modo real, se comporta igual que un 8086, mientras que en modo protegido,las cosas cambian completamente.

El 80286 contiene 134.000 transistores dentro de su estructura (360% más queel 8086). Externamente está encapsulado en formato PLCC (Plastic Leaded ChipCarrier) con pines en forma de J para montaje superficial, o en formato PGA (PinGrid Array), en ambos casos con 68 pines.

El microprocesador 80286 ha añadido un nuevo nivel de satisfacción a laarquitectura básica del 8086, incluyendo una gestión de memoria con la extensiónnatural de las capacidades de direccionamiento del procesador. El 80286 tieneelaboradas facilidades incorporadas de protección de datos. Otras característicasincluyen todas las características del juego de instrucciones del 80186, asícomo la extensión del espacio direccionable a 16 MB, utilizando 24 bits paradireccionar (224 = 16.777.216).

El 80286 revisa cada acceso a instrucciones o datos paracomprobar si puede haber una violación de los derechos de acceso. Estemicroprocesador está diseñado para usar un sistema operativo con variosniveles de privilegio. En este tipo de sistemas operativos hay un núcleo que,como su nombre lo indica, es la parte más interna del sistema operativo. El núcleotiene el máximo privilegio y los programas de aplicaciones el mínimo. Existencuatro niveles de privilegio. La protección de datos en este tipo de sistemasse lleva a cabo teniendo segmentos de código (que incluye lasinstrucciones), datos (que incluye la pila aparte de las variables de losprogramas) y del sistema (que indican los derechos de acceso de los otrossegmentos).

Para un usuario normal, los registros de segmentación (CS,DS, ES, SS) parecen tener los 16 bits usuales. Sin embargo, estos registros noapuntan directamente a memoria, como lo hacían en el 8086. En su lugar, apuntana tablas especiales, llamadas tablas de descriptores, algunas de las cualestienen que ver con el usuario y otras con el sistema operativo. Paralelamente alos 16 bits, cada registro de segmento del 80286 mantiene otros 57 bitsinvisibles para el usuario. Ocho de estos bits sirven para mantener los derechosde acceso (sólo lectura, sólo escritura y otros), otros bits mantienen ladirección real (24 bits) del principio del segmento y otros mantienen lalongitud permitida del segmento (16 bits, para tener la longitud máxima de 64KB). Por ello, el usuario nunca sabe en qué posición real de memoria estáejecutando o dónde se ubican los datos y siempre se mantiene dentro de ciertasfronteras. Como protección adicional, nunca se permite que el usuario escribaen el segmento de código (en modo real se puede escribir sobre dicho segmento).Ello previene que el usuario modifique su programa para realizar actos ilegalesy potencialmente peligrosos. Hay también provisiones para prever que el usuariointroduzca en el sistema un "caballo de Troya" que puedaproporcionarle un estado de alto privilegio.

El 80286 tiene cuatro nuevos registros. Tres de ellos apuntana las tablas de descriptores actualmente en uso. Estas tablas contieneninformación sobre los objetos protegidos en el sistema. Cualquier cambio deprivilegio o de segmento debe realizarse a través de dichas tablas.Adicionalmente hay varios indicadores nuevos.

Existen varias instrucciones nuevas, además de lasintroducidas con el 80186. Todas estas instrucciones se refieren a la gestiónde memoria y protección del sistema haciendo cosas tales como cargar yalmacenar el contenido de los indicadores especiales y los punteros a las tablasde descriptores.

 El Microprocesador 80386

 El 80386 consiste en una unidad central de proceso (CPU), unaunidad de manejo de memoria (MMU) y una unidad de interfaz con el bus (BIU).

El CPU está compuesto por la unidad de ejecucióny la unidad de instrucciones. La unidad de ejecución contiene los ochoregistros de 32 bits de propósito general que se utilizan para el cálculo dedirecciones y operaciones con datos y un barrel shifter de 64 bits que seutiliza para acelerar las operaciones de desplazamiento, rotación, multiplicacióny división. Al contrario de los microprocesadores previos, la lógica de divisióny multiplicación utiliza un algoritmo de 1 bit por ciclo de reloj. El algoritmode multiplicación termina la interacción cuando los bits más significativosdel multiplicador son todos ceros, lo que permite que las multiplicaciones típicasde 32 bits se realicen en menos de un microsegundo.

El 80386 tiene dos modos de operación: modo dedireccionamiento real (modo real), y modo de direccionamientovirtual protegido (modo protegido). En modo real el 80386 opera como un 8086muy rápido, con extensiones de 32 bits si se desea. El modo real se requiereprimariamente para preparar el procesador para que opere en modo protegido. Elmodo protegido provee el acceso al sofisticado manejo de memoria y paginado.

Finalmente, para facilitar diseños de hardware de altorendimiento, la interfaz con el bus del 80386 ofrece pipeliningde direcciones, tamaño dinámico del ancho del bus de datos (puede tener 16 ó32 bits según se desee en un determinado ciclo de bus) y señales de habilitaciónde bytes por cada byte del bus de datos

Versiones del 80386

  • 80386: En octubre de 1985 la empresa Intel lanzó el microprocesador 80386 original de 16 MHz, con una velocidad de ejecución de 6 millones de instrucciones por segundo y con 275.000 transistores. La primera empresa en realizar una computadora compatible con IBM PC AT basada en el 80386 fue Compaq con su Compaq Deskpro 386 al año siguiente.
  • 386SX: Para facilitar la transición entre las computadoras de 16 bits basadas en el 80286, apareció en junio de 1988 el 80386 SX con bus de datos de 16 bits y 24 bits de direcciones (al igual que en el caso del 80286). Este microprocesador permitió el armado de computadoras en forma económica que pudieran correr programas de 32 bits. El 80386 original se le cambió de nombre: 80386 DX.
  • 386SL: En 1990 Intel introdujo el miembro de alta integración de la familia 386: el 80386 SL con varias características extras (25 MHz, frecuencia reducida ó 0 MHz, interfaz para caché opcional externo de 16, 32 ó 64 KB, soporte de LIM 4.0 (memoria expandida) por hardware, generación y verificación de paridad, ancho de bus de datos de 8 ó 16 bits) que lo hacen ideal para equipos portátiles.  

El Microprocesador 80486

Este microprocesador es básicamente un 80386 con el agregadode una unidad de coma flotante compatible con el 80387 y un caché de memoria de8 KBytes.

Versiones del 80486 

  • 80486 DX: En abril de 1989 la compañía Intel presentó su nuevo microprocesador: el 80486 DX, con 1.200.000 transistores a bordo, el doble de la velocidad del 80386 y 100% de compatibilidad con los microprocesadores anteriores. El consumo máximo del 486DX de 50 MHz es de 5 watt.
  • 80486 SX: En abril de 1991 introdujo el 80486 SX, un producto de menor costo que el anterior sin el coprocesador matemático que posee el 80486 DX (bajando la cantidad de transistores a 1.185.000).
  • 80486 DX2: En marzo de 1992 apareció el 80486 DX2, que posee un duplicador de frecuencia interno, con lo que las distintas funciones en el interior del chip se ejecutan al doble de velocidad, manteniendo constante el tiempo de acceso a memoria. Esto permite casi duplicar el rendimiento del microprocesador, ya que la mayoría de las instrucciones que deben acceder a memoria en realidad acceden al caché interno de 8 KBytes del chip.
  • 80486 SL: En el mismo año apareció el 80486 SL con características especiales de ahorro de energía.
  • 80486 DX4: Siguiendo con la filosofía del DX2, en 1994 apareció el 80486 DX4, que triplica la frecuencia de reloj y aumenta el tamaño del caché interno a 16 KBytes.

El chip se empaqueta en el formato PGA (Pin GridArray) de 168 pines en todas las versiones. En el caso del SX, también existeel formato PQFP (Plastic Quad Flat Pack) de 196 pines. Las frecuencias másutilizadas en estos microprocesadores son: SX: 25 y 33 MHz, DX: 33y 50 MHz, DX2: 25/50 MHz y 33/66 MHz y DX4: 25/75 y 33/100 MHz. Enlos dos últimos modelos, la primera cifra indica la frecuencia del bus externoy la segunda la del bus interno. Para tener una idea de la velocidad, el 80486DX2 de 66 MHz ejecuta 54 millones de instrucciones por segundo. 

El Microprocesador Pentium

 El 19 de octubre de 1992, Intel anunció que la quintageneración de su línea de procesadores compatibles (cuyo código interno erael P5) llevaría el nombre Pentium en vez de 586 u 80586, como todo elmundo estaba esperando. Esta fue una estrategia de Intel para poder registrar lamarca y así poder diferir el nombre de sus procesadores del de sus competidores(AMD y Cyrix principalmente).

Este microprocesador se presentó el 22 de marzo de 1993 convelocidades iniciales de 60 y 66 MHz (112 millones de instrucciones por segundoen el último caso), 3.100.000 transistores (fabricado con el proceso BICMOS(Bipolar-CMOS) de 0,8 ), caché interno de 8 KB para datos y 8 KB parainstrucciones, verificación interna de paridad para asegurar la ejecucióncorrecta de las instrucciones, una unidad de coma flotante mejorada, bus dedatos de 64 bit para una comunicación más rápida con la memoria externa y, lomás importante, permite la ejecución de dos instrucciones simultáneamente. Elchip se empaqueta en formato PGA (Pin Grid Array) de 273 pines.

Como el Pentium sigue el modelodel procesador 386/486 y añade unas pocas instrucciones adicionales pero ningúnregistro programable, ha sido denominado un diseño del tipo 486 . Esto noquiere decir que no hay características nuevas o mejoras que aumenten lapotencia. La mejora mássignificativa sobre el 486 ha ocurrido en la unidad de coma flotante.Hasta ese momento, Intel no había prestado mucha atención a la computación decoma flotante, que tradicionalmente había sido el bastión de las estaciones deingeniería. Como resultado, los coprocesadores 80287 y 80387 y loscoprocesadores integrados en la línea de CPUs 486 DX se han considerado anémicoscuando se les compara con los procesadores RISC (Reduced Instruction SetComputer), que equipan dichas estaciones.

Todo esto ha cambiado con el Pentium: la unidad decoma flotante es una prioridad para Intel, ya que debe competir en el mercado deWindows NT con los procesadores RISC tales como el chip Alpha 21064 de DigitalEquipment Corporation y el MIPS R4000 de Silicon Graphics. Esto puede ayudar aexplicar por qué el Pentium presenta un incremento de 5 veces en el rendimientode coma flotante cuando se le compara con el diseño del 486. En contraste,Intel sólo pudo extraer un aumento del doble para operaciones de coma fijo oenteros.

El gran aumento de rendimiento tiene su contraparte en elconsumo de energía: 13 watt bajo la operación normal y 16 watt a plenapotencia (3,2 amperes x 5 volt = 16 watt), lo que hace que el chip se calientedemasiado y los fabricantes de tarjetas madres (motherboards) tengan que agregarcomplicados sistemas de refrigeración.

Intel puso en el mercado el 7 de marzo de 1994 la segundageneración de procesadores Pentium. Se introdujo con las velocidades de 90 y100 MHz con tecnología de 0,6  y posteriormente se agregaron las versionesde 120, 133, 150, 160 y 200 MHz con tecnología de 0,35. En todos los casos seredujo la tensión de alimentación a 3,3 volt. Esto redujo drásticamente elconsumo de electricidad (y por ende el calor que genera el circuito integrado).De esta manera el chip más rápido (el de 200 MHz) consume lo mismo que el de66 MHz. Estos integrados vienen con 296 pines. Además la cantidad detransistores subió a 3.300.000. Esto se debe a que se agregó circuiteríaadicional de control de clock, un controlador de interrupciones avanzadoprogramable (APIC) y una interfaz para procesamiento dual (facilita eldesarrollo de motherboards con dos Pentium).   

El Microprocesador Pentium Pro

 El Pentium Pro a 133 MHz, que fue presentado el día 3 de noviembre de1995 es el primer microprocesador de la tercera generación de la gama Pentium.Está preparado específicamente para ejecutar aplicaciones compiladas ydesarrolladas para 32 bits. Algunas aplicaciones desarrolladas para entornos de16 bits tienen una reducción de rendimiento en su ejecución en sistemasbasados en un Pentium Pro respecto a los Pentium normales a 133 MHz.Perfectamente compatible con sus hermanos menores incorpora nuevas mejoras, delas cuales destaca la ejecución dinámica y la inclusión de una memoriacache secundaria integrada en el encapsulado del chip.

Fabricado en una geometría de 0,6, Intel basó susdesarrollos con vistas a reducirla a 0,35 micrones como la de los Pentium a 133MHz, lo que reducirá su temperatura y podrá elevarse la frecuencia de relojhasta los 200 MHz.

Intel ha puesto mucho esfuerzo en probar el Pentium Pro paraintentar salvarse de los numerosos bugs que mancharon su gran prestigio. ElPentium Pro no es compatible con todas las placas del mercado. El motivoprincipal es la inclusión de la memoria cache secundaria dentro del chip. Seutiliza un bus interno que está optimizado para trabajar con lastemporizaciones de conexión directa, lo cual imposibilita la conexión de lamemoria cache externa.

Este nuevo producto tiene un bus que ha sido diseñado paraconectar varios Pentium Pro en paralelo que soporta el protocolo MESI, es unmicroprocesador de 32 bits que incorpora una instrucción más (mover datoscondicionalmente) que supone una mayor predicción de ramificaciones en laejecución. Tiene 21 millones de transistores, 5,5 millones en el núcleo y 15,5millones en la memoria cache secundaria. El CPU consta de dos chips colocados encavidades independientes conectadas internamente. El chip correspondiente a lamemoria cache es más pequeño que el del chip del núcleo, ya que la disposiciónde los transistores permite una mayor concentración.

 El Microprocesador Pentium MMX

 En enero de 1997 apareció una tercera generación dePentium, que incorpora lo que Intel llama tecnología MMX (MultiMediaeXtensions) con lo que se agregan 57 instrucciones adicionales. Estándisponibles en velocidades de 66/166 MHz, 66/200 MHz y 66/233 MHz (velocidadexterna/interna). Las nuevas características incluyen una unidad MMX y el doblede caché. El Pentium MMX tiene 4.500.000 transistores con un procesoCMOS-silicio de 0,35  mejorado que permite bajar la tensión a 2,8 volt.Externamente posee 321 pines.

Prometían que el nuevo Pentium, con las MMX y el doble decaché (32 KB), podía tener hasta un 60% más de rendimiento. Que en larealidad en ocasiones, la ventaja puede llegar al 25%, y sólo en aplicaciones muyoptimizadas para MMX. En el resto, no más de un 10%, que además se debecasi en exclusiva al aumento de la caché interna al doble.

La ventaja del chip es que su precio final acaba siendo igualque si no fuera MMX. Además, consume y se calienta menos por tener voltajereducido para el núcleo del chip (2,8 V).  

El Microprocesador Pentium II

 Se trata del Pentium Pro, con algunos cambios y en una nueva y fantásticapresentación, el cartucho SEC: una cajita negra que en vez de a un zócalose conecta a una ranura llamada Slot 1.

Los cambios respecto al Pro son:
  • Optimizado para MMX  
  • Nuevo encapsulado y conector a la placa   
  • Rendimiento de 16 bits mejorado  
  • Caché secundaria encapsulada junto al chip (semi-interna), pero a la mitad de la velocidad de éste  
  • Mejor gestión del bus que aumenta las prestaciones
  • Las vías de datos más grandes mejoran el paso de datos
  • Arquitectura de apertura de página dinámica que reduce la latencia del sistema
  • El ECC de la memoria con cancelación del hardware soporta un realismo mayor.

 Extendiendo la capacidad de ancho de banda de 100 MHzdel procesador al bus del sistema, el conjunto de chips más nuevo de Intelsoporta los últimos componentes SDRAM de 100 MHz. El Intel 440BX AGPset no sóloprovee de "vías más anchas" sino de "vías más rápidas".

Eso sí, durante bastante tiempo fue el mejor chip delmercado, especialmente desde que se dejó de fabricar el Pro.   

El Microprocesador Pentium II Xeon

 El procesador Pentium II Xeon a 400 MHz es el primermiembro de la familia de microprocesadores Intel diseñados exclusivamente paralos poderosos servidores y estaciones de trabajo. Basado en la arquitectura delprocesador Pentium II, el procesador Pentium II Xeon agrega el rendimiento,facilidad de uso y confiabilidad en misión crítica superiores que exigen susservidores y estaciones de trabajo basados en Intel.

El procesador Pentium II Xeon está disponible con memoriascaché grandes y rápidas que procesan los datos a velocidades muy elevadas através del núcleo del procesador. Además, características superiores defacilidad de uso como protección térmica, comprobación y corrección deerrores, comprobación de redundancia funcional y el bus de administración delsistema ayudan a garantizar confiabilidad y tiempo de actividad máximos.

  • Incorpora una memoria caché L2 de 512 KB o 1 MB. La memoria caché L2 opera a la misma velocidad que el núcleo del procesador (400 MHz), lo que pone a disposición del núcleo del procesador una cantidad de datos sin precedentes.
  • Comparte datos con el resto del sistema a través de un bus de sistema multitransacciones de alta capacidad de 100 MHz, otra tecnología de vanguardia que extiende el potencial de velocidad de procesamiento superior al resto del sistema.
  • Se puede direccionar y asignar a caché un máximo de 64 GB de memoria para incrementar el rendimiento con las aplicaciones más avanzadas.
  • El bus del sistema permite múltiples transacciones pendientes de ejecución para incrementar la disponibilidad de ancho de banda. También ofrece compatibilidad sin "suplementos" con un máximo de 8 procesadores. Esto hace posible el multiprocesamiento simétrico con cuatro y ocho procesadores a un bajo costo y ofrece un incremento de rendimiento significativo para sistemas operativos multitareas y aplicaciones con múltiples subprocesos.
  • PSE36: Es una expansión de la compatibilidad con memoria de 36 bits que permite a los sistemas operativos utilizar memoria por arriba de los 4 GB, lo cual incrementa el rendimiento del sistema para aplicaciones con grandes exigencias de lectura y espacio de trabajos grandes.
  • El cartucho Single Edge Contact (S.E.C.) desarrollado por Intel hace posible la disponibilidad en grandes volúmenes, lo cual ofrece protección en el transporte y un factor de forma común para futuros procesadores Intel Pentium II Xeon
  • Compatibilidad con clústeres o la capacidad de agrupar en clústeres varios servidores de cuatro procesadores. Esto permite a los usuarios escalar sus sistemas basados en el procesador Pentium II Xeon para ajustarlos a las necesidades de su organización

El Microprocesador Celeron (Pentium II light)

Es un chip de Intel basado en el Pentium II, que en su primera versióntrabaja a 266 MHz.  Es un Pentium II, pero sin una de sus características:carece de memoria caché de segundo nivel en total 512 Kb. menos en elinterior del cartucho SEC. Tan sólo quedan los 32 Kb. de primer nivel.

Su función no es otra que sustituir al Pentium MMX en elmercado de micros baratos (el entry level o nivel básico). Su rendimiento escasi idéntico al del Pentium MMX (según pruebas de la misma Intel).

Gracias a este chip eliminan el mercado de placas consocket 7, es decir, las que usan los MMX y toda su competencia (AMD,Cyrix-IBM). Además, se quedan con absolutamente todo el mercado de loschipsets para placas base, ya que en el campo de placas para Pentium II Intel esla única empresa que cuenta a nivel mundial.

Otras características son el uso del Slot 1, bus de 66 MHz yancho de transistor de 0,25 micrones. El chipset diseñado para el Celeron seráel Intel MU440EX. Soporta USB, memorias DIMM, DMA 33... pero, dada lafinalidad de los equipos, sólo posee un slot ISA y dos PCI. El SVGA vaintegrado en la placa base.  

Suele ir con el chipset LX o con uno nuevo llamado EXque sólo dan una velocidad de placa de 66 MHz, mientras que otro nuevo chipset,el BX, ofrece 100 MHz.  

 El Microprocesador Pentium III

 Este micro sería al Pentium II lo que el K6-2 era al K6; es decir, quesu única diferencia de importancia radica en la incorporación de unas nuevasinstrucciones (las SSE, Streaming SIMD Extensions), que aumentanel rendimiento matemático y multimedia... pero sólo en aplicaciones específicamenteoptimizadas para ello.

Los primeros modelos, con núcleo Katmai, se fabricaron todosen el mismo formato Slot 1 de los Pentium II, pero la actual versión Copperminede este micro utiliza mayoritariamente el Socket 370 FC-PGA.

Son unos procesadores prácticamente iguales a los PentiumII, pero se diferencian de ellos en que incorporan 70 nuevas instrucciones para"mejorar la experiencia en Internet".

Las nuevas instrucciones se han llamado MMX-2, parareferenciarlas como una extensión de las viejas MMX. También KNI, ya que elprocesador tenía el nombre en clave de Katmai, de ahí a las Katmai NewInstructions (KNI), aunque parece ser que también se referencian como SSE.

El porqué de estas instrucciones es muy simple. Para mejorarla experiencia multimedia, especialmente la decodificación de películas en DVD(para lo que era necesario disponer de una tarjeta decodificadora), la velocidaden el procesamiento de imágenes 2D y 3D, reconocimiento de voz.... Es decirMultimedia.

 Estas 70 instrucciones se pueden dividir en 3grupos:

 En el primero podemos incluir 8 nuevas instruccionesque mejoran el acceso a memoria (para cachear memoria, especialmente paramanejar muchos datos, como en el reconocimiento de voz o los vectores de datos3D).

Existen 12 nuevas instrucciones específicas para  multimedia, para tareas como optimizar el proceso de datos de audioo para mejorar las representaciones MPEG2. Estas instrucciones complementan alas 59 MMX ya existentes.

Y por último, las 50 nuevas instrucciones para el manejo dedatos en coma flotante. Especialmente diseñadas para el proceso de datostridimensionales. Estas son las más parecidas a las 3DNow! de AMD. Puedenproducir hasta 4 resultados por ciclo de reloj (como las 3DNow!), aunque estosresultados pueden ser 4 sumas, o 4 multiplicaciones, mientras que las 3DNow!tienen que combinar suma y multiplicación para poder cumplir con sus 4resultados.

Además, gracias a las nuevas instrucciones, (al igual queocurría con las 3DNow!) podemos utilizar el modo MMX y la unidad de comaflotante sin ver penalizado el rendimiento (en los primeros MMX y K6, si utilizábamosMMX no podíamos hacer operaciones en coma flotante y al revés). 

El Microprocesador Pentium 4

La última apuesta de Intel, que representa todo un cambio dearquitectura; pese a su nombre, internamente poco o nada tiene que ver con otrosmiembros de la familia Pentium. Se trata de un micro peculiar: su diseñopermite alcanzar mayores velocidades de reloj (más MHz... y GHz), pero proporcionandomucha menos potencia por cada MHz que los micros anteriores; es decir, queun Pentium 4 a 1,3 GHz puede ser MUCHO más lento que un Pentium IIIa "sólo" 1 GHz. Para ser competitivo, el Pentium 4 debefuncionar a 1,7 GHz o más.

Incluye mejoras importantes: bus de 400 MHz(100 MHz físicos cuádruplemente aprovechados) y nuevas instrucciones para cálculosmatemáticos, las SSE2. Éstas son muy necesarias para el Pentium 4,ya que su unidad de coma flotante es muchísimo más lenta que la del Athlon; siel software está específicamente preparado (optimizado) para las SSE2, elPentium 4 puede ser muy rápido, pero de lo contrario no.

El nuevo procesador Intel Pentium 4 a 3 GHz con unavanzado bus del sistema de 800 MHz ofrece mayores niveles de rendimiento,creatividad y productividad. Basado en la microarquitectura Intel NetBurst ydiseñado con tecnología de 0,13 micrones, el procesador Pentium 4proporciona significativas mejoras en el rendimiento, tanto en su uso domésticoo con soluciones empresariales, y satisface todas sus necesidades de proceso.

El procesador Pentium 4 a 3 GHz también ofrecesoporte para la tecnología Hyper-Threading, permitiéndole realizar variastareas de forma más eficaz cuando ejecuta a la vez aplicaciones que utilizanmuchos recursos.

 Velocidades disponibles

  • Bus del sistema a 800 MHz: 3 GHz
  • Bus del sistema a 533 MHz: 3,06 GHz, 2,80 GHz, 2,66 GHz, 2,53 GHz, 2,40B GHz, 2,26 GHz
  • Bus del sistema a 400 MHz: 2,60 GHz, 2,50 GHz, 2,40 GHz, 2,20 GHz, 2A GHz

 Chipset

  • Bus del sistema a 800 MHz: Gama de chipsets Intel 875P 
  • Bus del sistema a 400 MHz y 533 MHz: Gama de chipsets Intel 850 , 850E , 845PE , 845GE , 845GV , 845E  y 845G 
  • Bus del sistema a 400 MHz: chipsets Intel 845GL  y 845 
  • Soporte de Pentium 4 Socket 423
  • 4 ranuras RIMM para memoria RDRAM
  • Incluye 2 módulos CRIMM
  • Chipset Intel 850 (82850/82801)
  • 1 ranura AGP 4x 1.5 V
  • 5 ranuras PCI
  • 1 ranura CNR
  • Soporte ATA/100
  • Sonido AC97 integrado
  • 2 puertos USB 2 opcionales 

 La Próxima Generación de Arquitecturas deMicroprocesadores

 Intel y Hewlett-Packard han definido conjuntamente unanueva tecnología de arquitectura llamada EPIC llamada así por lahabilidad del software de extraer el máximo paralelismo (potencial paratrabajar en paralelo) del código original y explícitamente describirlo alhardware.

Intel y HP se han basado en estatecnología EPIC para definir la arquitectura del set de instrucciones (ISA)que será incorporada en la arquitectura final del microprocesador de 64-bits deIntel. Esta nueva tecnología ISA de 64-bits trae consigo un modus operandiinnovador, ya que haciendo uso de su tecnología EPIC, y combinando paralelismoexplícito con conceptos y técnicas avanzadas de arquitectura de computadorasllamadas especulación y predicación superará todas las limitaciones de lasarquitecturas tradicionales.

Intel anunció el nuevo nombre para su primer microprocesadorIA-64 de nombre clave Merced, Itanium.

Itanium supuestamente reemplazaratoda la línea de procesadores Xeon ,que en este momento esta ocupando un lugar muy importante en la industria de losservidores. Se afirma que tendrá un rendimiento para redes suficiente como parasacarle una ventaja a los RISC de un 20-30% en este rubro. Intel espera que elnuevo procesador opere a una frecuencia de reloj alrededor de los 800 MHz y queentregue entre 45-50 SPECint95 y 70-100 SPECfp95 (base).

Mientras que en modo x86, Itanium podría igualar elrendimiento de un Pentium II de 500-MHz. Consumirá 60 Watts. El chip IA-64 estamás o menos por encima de los 300 mm2.

Itanium mejorará su labor concaracterísticas como el ECC y lo que Intel llama EMC .Si el chip Itanium cae repetidamente en excepciones de ECC, la arquitecturaalerta al sistema operativo.

El CPU del Itanium está combinado con mas de 4M de SRAM enun modulo que está conectado horizontalmente a la tarjeta madre.

El procesador será producido con una tecnología de 0.18micrones la cual también esta siendo desarrollada por Intel Corporation.Decrementando las características de esa tecnología, permite reducir el poderde disipación, aumentar la frecuencia de operación y agrandar la escala deintegración. Esta última permite colocar más unidades funcionales, másregistros y más cache dentro del procesador.

Tendrá cache L1 y L2 en el chip, y cache L3 en el paqueteItanium (el cual es más pequeño que una tarjeta de presentación de3x5"), mas no adentro del chip, el cual se utilizará para reducir eltrafico de bus. El Itanium vendrá con 4 MB de cache L3. Incluirá una opciónde 2 Mbytes o de 4 Mbytes de cache L2. OEM’s también podrán añadir cacheL4.

El primer Itanium será un módulode estilo cartucho ,incluyendo un CPU, cache L1 y L2 y una interface de bus. El cartucho usará unsistema de bus recientemente definido, usando conceptos del bus del Pentium-II.El Itanium será capaz de soportar 6 gigaflops. Tendrá 4 unidades paraenteros y dos unidades de coma flotante.

IA-64 es algo completamentediferente, es una mirada anticipada a la arquitectura que usa "palabras deinstrucciones largas" (LIW),predicación de instrucciones, eliminación de ramificaciones, cargaespeculativa, y otras técnicas avanzadas para extraer mas paralelismo del códigode programa.

Definitivamente Intel continuará en el futuro con eldesarrollo de procesadores IA-32, tal es el caso de Foster.  

Merced proveerá direccionamiento de 64-bits, y tamaños de páginasaltamente flexibles para reducir el intercambio de información entre memoria físicay virtual, y especulación para reducir los efectos del tiempo de retrieve dememoria. Para máxima disponibilidad, el procesador Itanium incorporará un MCAmejorado que coordina el manejo de errores entre el procesador y el sistemaoperativo, suministrando oportunidades adicionales para corregir y entender loserrores. El Itanium ofrece también otras características como elenvenenamiento de datos, el cual permite enclaustrar la data corrupta y asíterminar solamente los procesos afectados y con respuestas rebeldes al sistema ytambién una paridad extensiva y ECC. Estas características complementadas conotras de sistema anticipado como lo es el PCI Hot Plug (cambio de periféricosen tiempo de ejecución, teniendo arquitecturas redundantes obviamente), elsoporte de los sistemas operativos mas utilizados y un manejo de instruccionesmejorado permitirán al Itanium satisfacer las demandas computacionales denuestra era como lo son el e-Business, visualización y edición de gráficos 3Dde gran tamaño y toda clase de operación multimedia.

El procesador Itanium extenderá la arquitectura Intel anuevos niveles de ejecución para los servidores y estaciones de trabajo de altacapacidad, ya que en sus presentaciones Intel no ha dejado duda de que IA-64tiene como objetivo primario este segmento del mercado.

Inicialmente llevará el chip setlógico de sistema 460GX,incluirá un servidor para entregar el rendimiento y confiabilidad necesariospor estos sistemas de alto costo.

Intel indicó que el 460GXsoportará por lo menos 16G de standard SDRAM PC100 a 100 MHz. El 460GX soportaECC en el bus del sistema y en la memoria principal y puede mapear fallas de lasDRAM’s. Puede manejar más de 4 microprocesadores y puede ser usado comobloque de construcción, a pesar de que varios de los clientes de Intel estándesarrollando su propia lógica del sistema para conectar 8 o más procesadoresItanium. El 460GX soporta "hot plugging" cuando tiene arriba de cuatro buses PCI, cada uno de 64 bits y 66 MHz de ancho de banda extra. El multi chip settambién podrá ser usado para estaciones de trabajo, ya que incluye un puertoAGP de 4x. Ya que Intel y HP están desarrollando la arquitectura EPIC, dicenque es una tecnología de arquitectura fundamental, análoga a lo que es CISCy RISC.

El nuevo formato IA-64 empaquetatres instrucciones en una sola palabra de 128 bits de longitud para unprocesamiento más veloz. Este empaquetamiento es usualmente llamado codificaciónLIW, pero Intel evita ese nombre. Más bien, Intel llama a su nuevatecnología LIW EPIC.

EPIC es similar en concepto a VLIW ya que ambos permiten al compilador explícitamente agrupar las instruccionespara una ejecución en paralelo. El flexible mecanismo de agrupación del EPICresuelve dos desperfectos del VLIW: excesiva expansión de código y falta deescalabilidad. 

Redes Informáticas

 Una Red es una manera de conectar varias computadoras entre sí,compartiendo sus recursos e información y estando conscientes una de otra.Cuando las PCs comenzaron a entrar en el área de los negocios, el conectar dosPCs no traía ventajas, pero esto desapareció cuando se empezaron a crear lossistemas operativos y el Software multiusuario.

Topología de Redes

La topología de una red, es el patrón de interconexión entre nodos yservidor, existe tanto la topología lógica (la forma en que es regulado elflujo de los datos), cómo la topología física (la distribución física delcableado de la red).

Las topologías físicas de red más comunes son:

  • Topología de Estrella: Red de comunicaciones en que la que todas las terminales están conectadas a un núcleo central, si una de las computadoras no funciona, esto no afecta a las demás, siempre y cuando el "servidor" esté funcionando.
  • Topología Bus Lineal: Todas las computadoras están conectadas a un cable central, llamado el "bus" o "backbone". Las redes de bus lineal son de las más fáciles de instalar y son relativamente baratas.
  • Topología de Anillo: Todas las computadoras o nodos están conectados el uno con el otro, formando una cadena o círculo cerrado.

 Tipos de Redes

 Según el lugar y el espacio que ocupen, las redes, se puedenclasificar en dos tipos:

  • Redes LAN (Local Area Network) o Redes de área local
  • Redes WAN (Wide Area Network) o Redes de área amplia

1)       LAN ( Redes de Área Local)

Es una red que se expande en un área relativamente pequeña. Éstas seencuentran comúnmente dentro de una edificación o un conjunto de edificacionesque estén contiguos. Así mismo, una LAN puede estar conectada con otras LAN a cualquier distancia por medio de línea telefónica y ondas de radio.

Pueden ser desde 2 computadoras, hasta cientos de ellas. Todas se conectanentre sí por varios medios y topología, a la computadora que se encarga dellevar el control de la red es llamada "servidor" y a las computadorasque dependen del servidor, se les llama "nodos" o "estaciones detrabajo".

Los nodos de una red pueden ser PCs que cuentan con su propio CPU, disco duroy software y tienen la capacidad de conectarse a la red en un momento dado; opueden ser PCs sin CPU o disco duro y son llamadas "terminalestontas", las cuales tienen que estar conectadas a la red para sufuncionamiento.

Las LAN son capaces de transmitir datos a velocidades muy rápidas, algunasinclusive más rápido que por línea telefónica; pero las distancias sonlimitadas.

2)       WAN (Redes de Área Amplia)

Es una red comúnmente compuesta por varias LAN interconectadas y seencuentran en un área geográfica muy amplia. Estas LAN que componen la WAN seencuentran interconectadas por medio de líneas de teléfono, fibra óptica opor enlaces aéreos como satélites.

Entre las WAN más grandes se encuentran: la ARPANET, que fue creada por laSecretaría de Defensa de los Estados Unidos y se convirtió en lo que esactualmente la WAN mundial: INTERNET, a la cual se conectan actualmente miles deredes universitarias, de gobierno, corporativas y de investigación.

Componentes de una Red

 1.-Servidor (server): El servidor es la máquina principal de la red,la que se encarga de administrar los recursos de la red y el flujo de lainformación. Muchos de los servidores son "dedicados", es decir, estánrealizando tareas específicas, por ejemplo, un servidor de impresión solo paraimprimir; un servidor de comunicaciones, sólo para controlar el flujo de losdatos...etc. Para que una máquina sea un servidor, es necesario que sea unacomputadora de alto rendimiento en cuanto a velocidad y procesamiento, y grancapacidad en disco duro u otros medios de almacenamiento.

2.- Estación de trabajo (Workstation): Es una computadora que se encuentraconectada físicamente al servidor por medio de algún tipo de cable. Muchas delas veces esta computadora ejecuta su propio sistema operativo y ya dentro, se añadeal ambiente de la red

3. -Sistema Operativo de Red: Es el sistema (Software) que se encarga deadministrar y controlar en forma general la red. Para esto tiene que ser unSistema Operativo Multiusuario, como por ejemplo: Unix, Netware de Novell,Windows NT, etc.

4. -Recursos a compartir: Al hablar de los recursos a compartir, estamoshablando de todos aquellos dispositivos de Hardware que tienen un alto costo yque son de alta tecnología. En estos casos los más comunes son las impresoras,en sus diferentes tipos: Láser, de color, plotters, etc.

5. - Hardware de Red: Son aquellos dispositivos que se utilizan parainterconectar a los componentes de la red, serían básicamente las tarjetas dered (NIC-> Network Interface Cards) y el cableado entre servidores yestaciones de trabajo, así como los cables para conectar los periféricos.

  Tecnologías Futuras

 La nanotecnología basada en el nanómetro, del cual la unidad es lamil millonésima parte de un metro, permite a los científicos tener nuevosconceptos de diagnósticos de enfermedad y tratamiento a una escala molecular yatómica. Al utilizar partículas de nanómetro, un médico puede separar las célulasdel feto de la sangre de una mujer embarazada para ver si el desarrollo del fetoes normal. Este método también está siendo utilizado en los diagnósticostempranos de cáncer y de enfermedades cardíacas.

Uno de los impactos más significativos de la nanotecnología es en lainterface de los materiales bio-inorgánicos, de acuerdo con Greg Tegart,consejero ejecutivo del Centro de APEC para la Previsión de Tecnología.
Al combinar enzimas y chips de silicona podemos producir biosensores. Estos podríanser implantados en seres humanos o animales para monitorear la salud y enviardosis correctivas de drogas.

La nanotecnología podría afectar la producción de virtualmente todo objetohecho por el hombre, desde automóviles, llantas y circuitos de computadoras,hasta medicinas avanzadas y el reemplazo de tejidos y conducir a la invenciónde objetos que aún están por imaginarse. Se ha mostrado que los nanotubos decarbón son diez veces más fuertes que el acero, con un sexto del peso, y lossistemas de nanoescala tienen el potencial de hacer el costo del transportesupersónico efectivo e incrementar la eficiencia de la computadora en millonesde veces. Al disfrutar más y más gente de la navegación por Internet, loscientíficos han comenzado la investigación de la nueva generación deInternet. La tercera generación de Internet, conocida como la cuadrícula deservicio de información (ISG, siglas en inglés), conectará no sólocomputadoras y sitios web, sino también recursos informativos, incluyendo basesde datos, software y equipo informativo. La cuadrícula proveerá a lossuscriptores de servicios integrados precisamente como una computadorasupergrande.

Por ejemplo, cuando un suscriptor vaya a viajar, el o ella sólo necesitaráintroducir datos en el número de turistas, destino, tiempo y otros factores.Entonces el ISG contactará automáticamente aerolíneas, estaciones de tren,agencias de viajes y hoteles para preparar un programa de viaje para elsuscriptor y terminar todo el trabajo necesario como la reservación de boletosy de cuartos.

 Ordenadores Cuánticos y Moleculares

 La velocidad y el tamaño de los micros están íntimamenterelacionadas ya que al ser los transistores más pequeños, la distancia quetiene que recorrer la señal eléctrica es menor y se pueden hacer más rápidos.Al ser los transistores cada vez más pequeños la cantidad de ellos contenidosen un microprocesador, y por consiguiente su velocidad, se ha venido duplicandocada dos años. Pero los estudios revelan que este ritmo no se puede mantener yque el límite será alcanzado tarde o temprano, ya que si se reduce más, lasinterferencias de un transistor provocarían fallos en los transistoresadyacentes.

Con el fin de superar estos límites de tamaño y velocidad se estátrabajando en la actualidad en varios centros de investigación de todo el mundoen dos líneas que pueden revolucionar el mundo de la informática: Losordenadores cuánticos y los ordenadores de ADN.

 Los Ordenadores Cuánticos

 Los ordenadores utilizan bits para codificar la información de modoque un bit puede tomar el valor cero o uno. Por contra, los ordenadores cuánticosutilizan los qubits (bits cuánticos) para realizar esta tarea. Un qubitalmacena la información en el estado de un átomo, pero por las propiedades delos átomos hacen que el estado no tenga porque ser cero o uno, sino que puedeser una mezcla de los dos a la vez. Así, al poder almacenar una mezcla de ambosvalores a la vez en cada qubit podemos tratar toda la información de una solavez.

Su procesador consta de algunos átomos de hidrógeno y carbono en una moléculade cloroformo con los spines de sus núcleos alineados por radiofrecuencias,usando las técnicas usuales de resonancia magnética de origen nuclear (NMR).Podría ser el inicio de la nanotecnología, idea propuesta por Eric Drexler,quien, como estudiante del MIT en los años 70, consideraba la posibilidad deconstruir máquinas con unos pocos átomos que puedan programarse para construirotras, eventualmente millones.

Gracias a estas propiedades los ordenadores cuánticos tienen una especialcapacidad para resolver problemas que necesitan un elevado número de cálculosen un tiempo muy pequeño. Además, como estarán construidos con átomos, sutamaño será microscópico consiguiendo un nivel de miniaturización impensableen los microprocesadores de silicio.

Por desgracia, en la actualidad aún no se ha llegado a construir ordenadorescuánticos que utilicen más de dos o tres qubits. Aún así, hay un gran númerode centros de investigación trabajando tanto a nivel teórico como a nivel prácticoen la construcción de ordenadores de este tipo y los avances son continuos.Entre los principales centros destacan los laboratorios del centro deinvestigación de Almaden de IBM, AT&T, Hewlett Packard en Palo Alto(California), el Instituto Tecnológico de Massachusetts (MIT) y universidadesde todo el mundo como la de Oxford Standford, Berkeley, etcétera.

 Computadoras de ADN

 La computación molecular consiste en representar la información aprocesar con moléculas orgánicas y hacerlas reaccionar dentro de un tubo deensayo para resolver un problema.

La primera experiencia en laboratorio se realizó en 1994 cuando se resolvióun problema matemático medianamente complejo. Para ello se utilizó laestructura de moléculas de ADN para almacenar la información de partida y seestudió las moléculas resultantes de las reacciones químicas para obtener lasolución.

Por una parte, esta técnica aprovecha la facultad de las moléculas dereaccionar simultáneamente dentro de un mismo tubo de ensayo tratando unacantidad de datos muy grande al mismo tiempo. Por otro lado, el tamaño de lasmoléculas los sitúa a un tamaño equiparable al que se puede conseguir con losordenadores cuánticos. Otra ventaja importante es que la cantidad de informaciónque se puede almacenar es sorprendente, por ejemplo, en un centímetro cúbicose puede almacenar la información equivalente a un billón de CDs.

Si comparamos un hipotético computador molecular con un supercomputadoractual vemos que el tamaño, la velocidad de cálculo y la cantidad de informaciónque se puede almacenar son en extremo mejoradas. La velocidad de cálculoalcanzada por un computador molecular puede ser un millón de veces más rápiday la cantidad de información que puede almacenar en el mismo espacio es un billónde veces (1.000.000.000.000) superior.

Aunque aún no se pueden construir ordenadores de este tipo, desde la primeraexperiencia práctica esta área ha pasado a formar parte de los proyectos másserios como alternativa al silicio. Buena prueba de ello son las investigacionesllevadas a cabo en el marco del DIMACS o "Centro de Matemática Discreta yComputación Teórica" del cual forman parte las universidades Princeton,los laboratorios de AT&T, Bell entre otros. Otros focos de investigaciónson el Departamento de Defensa de los Estados Unidos y el Consorcio Europeo deComputación Molecular  formado por un importante número de universidades.Científicos israelitas, presentaron una computadora  de ADN tan diminutaque un millón de ellas podría caber en un tubo de ensayo y realizar 1.000millones de operaciones por segundo con un 99,8 por ciento de precisión. Es laprimera máquina de computación programable de forma autónoma en la cual laentrada de datos, el software y las piezas están formados por biomoléculas.Los programas de la microscópica computadora están formados por moléculas deADN que almacenan y procesan la información codificada en organismos vivos. 

La Computación Vestible

 La computación vestible o para llevarpuesta (Wearable Computing o WC)intenta hacer que la computadora sea verdaderamente parte de la vida diaria delser humano, integrándola en la forma de un accesorio tan cómodo de vestir comoun reloj de pulsera y tan fácil de usar como un teléfono móvil. Se trata deun sistema completo que porta el usuario, desde la placa principal (elmotherboard) hasta la fuente de alimentación y todos los dispositivos deentrada/salida, y que interactúan con él basado en el contexto de la situación.

"Para integrar la computadora de forma imperceptible conel entorno, no basta con que se la pueda llevar a la playa, a la selva o a unaeropuerto. La computadora de bolsillo más potente seguiría centrando laatención del usuario sobre una caja individual. Uno debería estar dentro de lacomputadora más bien que frente a ella, debería estar en un entornoinmersivo"

En una configuración convencional, la WC constará de unchaleco lleno de chips y sensores conectado al cinturón-batería, de donde seextraerá la alimentación del equipo. La energía generada por la respiración,el calor corporal, los latidos cardíacos y el movimiento de los brazos y laspiernas podrá usarse para alimentar a las baterías. Como dispositivo deinterfaz, cuenta con micrófonos y antenas diminutos, así como también conunos anteojos especiales equipados con microcámaras que integran las funcionesde cámaras fotográficas, video-cámaras y escáners. A través del sistema decontrol visual se puede controlar con la vista muchas de las funciones de la máquina.Aquellas principales se descuelgan de la parte interna de los anteojos en formade menú de múltiple elección y con sólo mirarlas fijas por un período de 2segundos o con un simple parpadeo el usuario puede elegir una de ellas. Estaelección puede llevar a un segundo menú en el que se esbozan característicassecundarias, y así sucesivamente hasta que quede convenientemente detallada laoperación que se desea realizar. Aunque resulte increíble, a esa distancia delojo, la imagen percibida sobre la cara interna de los anteojos, es equivalente ala ofrecida por un monitor común situado a varias decenas de centímetros.

Esto creará una simbiosis íntima entre el hombre y lacomputadora. La WC responderá a la voz del dueño dándole la información críticaque necesita, en el momento en que la precisa y en cualquier lugar. Por ejemplo,y en el caso de que una persona presencie un hurto, podrá fotografiarlo yenviarlo por Internet ya que, además, uno podrá navegar por la red mientrasviaja o camina por cualquier zona del globo. El usuario podrá recibir de manerainstantánea aquellas informaciones que particularmente le interesen; podráenlazarse con la red de posicionamiento global para saber en cualquier momentosu ubicación y nunca se olvidará del cumpleaños de ninguno de sus amigos.Asimismo, ofrece la posibilidad para tomar notas y procesarlas en el momento,algo verdaderamente útil ya que evita la sobrecarga de pensamientos y libera ala mente de "recursos" para permitir que surjan nuevas ideas. Incluso,permitirá organizar mejor los pensamientos, ya que recuperará para el usuariotodo lo que anteriormente escribió, leyó, vio y escuchó sobre el mismo tema,complementando o aumentando su información.

La principal aplicación de las WC será la adquisición, elalmacenamiento y la recuperación de la información, y la idea es que estén"siempre encendidas" en contraste con las computadoras que están"casi siempre apagadas". 

Nanotecnología

 La nanotecnología tiene grandes posibilidades deconvertirse en la tecnología clave en las próximas décadas. Las nanotecnologías-técnicas de manipulación o control a escala nanotécnica e incluso molecularo atómica- estarán presentes en todos los campos de las ciencias y supondrán,según los expertos, una revolución.

Los futuros desarrollos de esta tecnología, como lamicromecanización tridimensional, microsensores, materiales nanoestructurados,así como los sistemas microelectromecánicos, se aplicarán tanto a lacomputación, a la producción de medicamentos o al desarrollo de materialescada vez  más diminutos. En todos los países situados a la cabeza deldesarrollo tecnológico, cobran cada día más relevancia las investigaciones dela Nanotecnología aplicadas a distintos campos como la aeronáutica y elespacio, las comunicaciones y multimedia, la biomedicina o el control deprocesos industriales.

Mantener la tecnología basada en transistores supondría laquiebra para muchos fabricantes de chips porque no podrían soportar los altoscostos. Por eso se están investigando nuevos sistemas dentro de la nanotecnología.

Entre las soluciones que se están aplicando actualmente estála de sustituir el aluminio por el cobre en los conductores que conectan lostransistores. El cobre es un 40% mejor conductor que el aluminio y mejora lavelocidad de los procesadores. Pero presenta otros problemas. No se mezcla biencon el silicio, el material base de los transistores, y, además, es capaz decambiar las propiedades eléctricas del sustrato.

Para solucionar este problema, la compañía IBM consiguiódesarrollar un método, que consiste en introducir una barrera microscópicaentre el cobre y el silicio, y que elimina el rechazo. Este sistema estápermitiendo fabricar chips con tecnología de 0.12 micras y cuyo coste deprocesamiento es entre un 20 y un 30% menor que el de los chips basados enaluminio.

En septiembre de 2001, anunció que había conseguido unir elarsenio de galio, más caro pero mejor conductor de la electricidad, con elsilicio. La compañía de telefonía afirmó que el nuevo semiconductor actúa auna velocidad de 70 gigahercios, 35 veces por encima de los actuales gigaherciosde los procesadores más rápidos en las computadoras personales.

Intel presentó una nueva estructura para transistores, quepermitirá que los chips funcionen más rápido y consuman menos energía. Lollaman el Transistor TeraHertz, porque su ciclo de encendido y apagado esde un billón de veces por segundo.

El proyecto del chip molecular sustituirá al silicio, enfavor de la química, más manipulable. Se prevé que se podrán fabricarcomputadoras del tamaño de una partícula de polvo y miles de veces máspotentes que los existentes. De momento, se ha conseguido simular el cambio deuna molécula, mediante su rotura, pero falta crear moléculas que se curven sinromperse.

También es necesario fabricar otros conductores, porque losexistentes no sirven. Los experimentos con nanotubos de carbón (milmillonésimaparte de un metro) para la conducción de información entre las moléculas yahan dado resultados. IBM acaba de anunciar que ha conseguido crear un circuito lógicode ordenador con una sola molécula de carbono, una estructura con forma decilindro 100.000 veces más fino que un cabello. Este proyecto permiteintroducir 10.000 transistores en el espacio que ocupa uno de silicio.

Los desarrollos en Nanotecnología se están aplicando tambiéna los sistemas de seguridad. La empresa taiwanesa Biowell Technology presentó,en agosto, un sintetizado que puede utilizarse para probar la autenticidad depasaportes y otros documentos y tarjetas, con el fin de evitar el pirateo.

Este chip podrá utilizarse también en tarjetas de débito,carnets, matrículas de automóviles, permisos de conducir, discos compactos,DVD, programas informáticos, títulos y valores, bonos, libretas bancarias,antigüedades, pinturas, y otras aplicaciones en las que se necesite comprobarsu autenticidad.  

Computación Suave o Soft Computing

 Su objetivo es bien concreto: aumentar el"coeficiente intelectual" de las máquinas dándoles la habilidad deimitar a la mente humana, la cual es blanda, suave, flexible, adaptable einteligente. Es la antítesis de la computación actual, asociada con larigidez, la fragilidad, la inflexibilidad y la estupidez. Los métodos de lacomputación dura no proveen de suficientes capacidades para desarrollar eimplementar sistemas inteligentes.

En lugar de confiar en las habilidades del programador, unverdadero programa de Computación Suave aprenderá de su experiencia porgeneralización y abstracción, emulando la mente humana tanto como pueda,especialmente su habilidad para razonar y aprender en un ambiente deincertidumbre, imprecisión, incompletitud y verdad parcial, propios del mundoreal. De esta forma, es capaz de modelizar y controlar una amplia variedad desistemas complejos, constituyéndose como una herramienta efectiva y tolerante afallas para tratar con los problemas de toma de decisiones en ambientescomplejos, el razonamiento aproximado, la clasificación y compresión de señalesy el reconocimiento de patrones. Sus aplicaciones están relacionadas, entreotras, con el comercio, las finanzas, la medicina, la robótica y laautomatización.

La Computación Suave combina diferentes técnicas modernasde Inteligencia Artificial como Redes Neuronales, Lógica Difusa, Algoritmos Genéticosy Razonamiento Probabilística, esta última incluyendo Algoritmos Evolutivos,Sistemas Caóticos, Redes de Opinión y, aunque solo parcialmente, Teoría deAprendizaje. No obstante, conviene aclarar, la Computación Suave no es unamezcla con estos ingredientes, sino una disciplina en la cual cada componentecontribuye con una metodología distintiva para manejar problemas en su dominiode aplicación que, de otra forma, se tornarían irresolubles. De una formacomplementaria y sinérgica -en lugar de competitiva-, conduce a lo que sedenomina "sistemas inteligentes híbridos", siendo los más visibleslos neuro-difusos, aunque también se están empezando a ver los difuso-genéticos,los neuro-genéticos y los neuro-difusos-genéticos.  

Cyborgs

 Dentro de algunos años, podría haber sofisticadossistemas computacionales implantados dentro mismo del sistema nervioso humano yenlazados con las partes sensitivas del cerebro. De este modo, y a través delas ondas cerebrales, el hombre podrá interactuar directamente con su"anexo cibernético" a través de sus procesos de pensamiento,mejorando su rendimiento, expandiendo sus habilidades innatas o creando otrasnuevas. Incluso el cerebro humano tendría integradas las funciones de algunosdispositivos actuales como el celular, el pager, el e-mail o la agenda.

Por ejemplo, cualquiera podría tener en su memoria y a sudisposición súbita y virtualmente la totalidad de los conocimientos de lahumanidad, con el agregado de que estarán permanentemente actualizados. Sinembargo, estarían en la memoria de la microcomputadora, no en la memoria delser humano. Este podría tener acceso a ella, ya que estarán completamenteintegrados, pero no lo podría entender hasta que no lo haya"concientizado", comprendiendo el significado de cada frase. En esecaso, sería posible conectarse con la computadora a voluntad y usarla paraextraer recuerdos específicos. Incluso, la nueva capa encefálica artificialpodría hacer surgir "en vivo" los recuerdos guardados en la mentehumana con la misma intensidad con que fueron realidad en un remoto pasado. Conlas "películas omnisensoriales on-line", por ejemplo, uno podríallegar a convertirse en un "copiloto" que experimenta la realidad deotra persona en el mismo momento en que ésta lo está viviendo.  

El gran salto en la Informática y las Telecomunicacionesse dará con el uso de los Componentes de la Luz

 Es ciertamente muy difícil hablar sobre el futuro: una y otravez hemos visto cómo la extraordinaria inventiva humana deja atrás cualquierpredicción y cómo, a su vez, la naturaleza nos da muestras de ser mucho másrica y sutil de lo que puede ser imaginado. Sin embargo, avances recientes enlas aplicaciones físicas asociados a las tecnologías de la informaciónbasados en las propiedades de los componentes de la luz (fotones), y dela materia (electrones), así como en la aplicación de las leyes de lanaturaleza a este nivel (los principios de la mecánica cuántica), nos permitenprever para las próximas décadas un avance importante en los límites de lacomputación y las comunicaciones. Se abrirán así grandes posibilidades parala humanidad en el siglo XXI.
Aún si la industria de los semiconductores ha seguido la "ley deMoore", según la cual el poder de los procesadores se duplica cada 18meses, lo cierto es que la tecnología actual tiene un límite físico impuestopor la miniaturización de los componentes y, por consiguiente, por lasdimensiones del procesador y por el número de transistores, puesto que las señaleseléctricas no pueden sobrepasar la velocidad de la luz.

Un grupo de investigadores del Laboratorio Nacional de Sandiaen Albuquerque, Nuevo México, puso en operación por primera vez un cristal fotónicoen tres dimensiones, que es el equivalente para la luz (fotones) de lo que lossemiconductores y transistores usuales son para los electrones. La luz esdesviada en los diversos materiales que constituyen el cristal fotónico, queactúa como un switch de luz que servirá de base para los futuros transistoresópticos. A diferencia de los procesadores actuales que operan a velocidades enel rango de los millones de oscilaciones por segundo, los transistores ópticostendrán capacidad de operar un millón de veces más rápido, lo que equivale aun millón de millones de ciclos por segundo.

Se llevó a cabo en la Universidad de Harvard un experimentonunca antes realizado, en el que la velocidad de la luz es reducida a 17 metrospor segundo de su velocidad en el vacío de 300.000 kilómetros por segundo.Para lograr este efecto, se creó un medio de materia condensada llamado "transparenciainducida por electromagnetismo" utilizando un sistema de láser, quepermitió reducir la velocidad de la luz por un factor de 20 millones sin serabsorbida. Se espera alcanzar próximamente velocidades tan bajas como centímetrospor segundo en la propagación de la luz para aplicaciones prácticas deconversión óptico-electrónica y conversión de la luz de una frecuencia aotra, aspectos necesarios para implementar la tecnología óptica en loscomputadores y sistemas de comunicaciones en el futuro.

Una propiedad básica de los electrones es su spin uorientación de su rotación intrínseca, que actúa como un minúsculo magneto.Esta propiedad es la base de otra nueva tecnología, la spintrónica,donde el uso de las corrientes de spin de los electrones en un circuito deinformación se usa en lugar de las corrientes de carga eléctrica en la electrónica.Como fue demostrado recientemente en la Universidad de California, en Santa Bárbara,esta tecnología puede ser viable para transportar información en loscomputadores cuánticos.               

 El Futuro de las Telecomunicaciones  

 Siguiendo el ritmo de desarrollo actual, veremos en laprimera década del siglo XXI crecer el número de usuarios de Internet de unos100 millones en la actualidad a unos 1.000 millones. El modelo de Internetposiblemente se impondrá en todos los aspectos de las telecomunicaciones, eincluso sustituirá la telefonía actual. Los protocolos de comunicación deInternet son simples y poderosos y pueden adaptarse a todo tipo de aplicacionesy a un gran crecimiento.

Un ejemplo de las aplicaciones tecnológicas del siglo XXI esel Proyecto Abilene, parte del Proyecto Internet 2, que interconecta alas universidades y centros de investigación más importantes en EstadosUnidos. En Europa, el proyecto equivalente se conoce como TEN-155 y une alas universidades en16 países en el viejo continente. Abilene, es un proyectoconjunto de la Corporación Universitaria de Desarrollo Avanzado de Internet, yde las empresas Qwest, Cisco y Nortel. La velocidad usada en las aplicaciones deAbilene es 100.000 veces mayor que una conexión usual por módem. Aplicacionescomo telecirugía y acceso remoto a telescopios, laboratorios e instrumentosavanzados de investigación y enseñanza serán cotidianas.

 El Futuro del Software

 Los avances en los límites de la computación no podrían seraprovechados sin un avance paralelo en el desarrollo de las aplicaciones y laaccesibilidad de las tecnologías. Con el rol central y cada vez más importantede Internet, es posible que el software en el futuro sea cada vez másutilizado, distribuido y creado en la misma red de Internet en una forma abiertay disponible para todos.  

Conclusión

 Desde sus comienzos el Hombre ha buscado (y casi siempre con éxito) lamanera de superar los obstáculos impuestos por sus propias limitaciones, desdela invención de la escritura como una forma de romper la barrera que le impedíainteractuar con sus pares, pasando por etapas en las que  su ingenio lollevara a construir máquinas que simplificaran y resolvieran las tareasadministrativas, estadísticas y contables, disminuyendo los esfuerzos deltrabajo humano y acelerando el tiempo de cada proceso. 

Las computadoras son el reflejo de la inteligencia humana,representan la materialización de todos aquellos aspectos del pensamiento queson automáticos, mecánicos y determinísticos. Ellas potencian enormemente lascapacidades intelectuales del hombre.

Obviamente, las computadoras han invadido ya todos y cada unode los campos de la actividad humana: ciencia, tecnología, arte, educación,recreación, administración, comunicación, defensa y de acuerdo a la tendenciaactual, nuestra civilización y las venideras dependerán cada vez más de éstas.

Se están desarrollando nuevas investigaciones en las que unprograma informático de Inteligencia Artificial al equivocarse puede aprenderde sus errores y utilizar fórmulas alternativas para no volver a cometerlos.

Está claro que estamos transitando una nueva era en la quese avanza a pasos agigantados, sin mirar a veces el terreno por el quecaminamos.

Así como Julio Verne nunca imaginó al escribir "20.000Leguas de viaje Submarino" que el Nautilus un siglo después sería unarealidad, (convirtiéndolo en un visionario), deberíamos replantearnos, a lavelocidad que avanzan la ciencia y la tecnología, si lo que hoy vemos comociencia ficción (como por ejemplo Matrix) no será algún día realidad,y en lugar de estar las maquinas al servicio del hombre, este pase a ser esclavode ellas.

Por eso creo firmemente que "Aún nos queda mucho porAprender", y espero que sepamos utilizar toda esa tecnología en pos de unfuturo mejor para toda la humanidad. 

Bibliografía

"Electrónica." Enciclopedia Microsoft Encarta 2001. 1993-2000Microsoft Corporation. http://www.iacvt.com.ar/generaciones.htm
http://www.formarse.com.ar/informatica/generaciones.htm
http://itesocci.gdl.iteso.mx/~ia27563/basico.htm

http://www.infosistemas.com.mx/soto10.htm

http://www.fciencias.unam.mx/revista/temas/contenido.html

http://www.monografias.com

Enciclopedia Microsoft Encarta 98  

 "Introducción a las Computadoras y al Procesamiento de laInformación"; Cuarta Edición Joyanes A. Luis; Metodología de laProgramación"; McGrawHill

  

  

Autor:

Héctor Venti

ventors@datafull.com

Articulos relacionados:
Microprocesadores Pentium II, DVD
Resumen:
Microprocesadores. Nuevas Tecnologías. Pentium II. Características. Técnica de la instrucción simple, datos múltiples (SIMD). Nuevas instrucciones. Arquitectura Dual Inde...
Nociones de Informatica
Resumen:
¿Que es un Diskette?. ¿Que es Formatear, conque comando? Cual es el procedimiento. ¿Que es un Sistema Operativo?. ¿Quién es Bill Gates?. ¿Qué es la Microsoft?. ¿Qué es IB...
Historia de la Computación
Resumen:
Uno de los primeros dispositivos mecánicos para contar fue el ábaco, cuya historia se remonta a las antiguas civilizaciones griega y romana. Este dispositivo es muy senci...
Guía Nº I Plan de trabajo sistemas
Resumen:
El mundo de hoy no sería posible sin la informática. Todas las tareas de la vida del ser humano se han modificado bajo el impulso de esta tecnología de punta. Quiérase o...
Delitos Informáticos
Resumen:
Hoy en día es común ver como cada vez estamos siendo más dependientes de las computadoras como herramienta indispensable. Ya no es extraño ver que una gran parte de la po...
Copyright © 2011 ilustrados.com, Monografias, tesis, bibliografias, educacion. Tofos los temas y publicaciones son propiedad de sus respectivos autores ©