Computación en perspectiva

Precedentes

El ábaco

El ábaco es posiblemente el primer dispositivo mecánico de contabilidad de la historia. Tiene unos 5.000 años de antigüedad, y su efectividad ha soportado la prueba del tiempo, puesto que aún se utiliza en varios lugares del mundo.

El ábaco es un dispositivo sencillo: una serie de cuentas ensartadas en varillas que a su vez están montadas en un marco rectangular. Al desplazar las cuentas sobre varillas, sus posiciones representan valores almacenados. A pesar de su capacidad para representar y almacenar datos, a este dispositivo no se le puede llamar computadora, puesto que –entre otras cosas– carece del elemento fundamental llamado programa.

Las calculadoras mecánicas

El genio renacentista Leonardo Da Vinci (1452-1519) trazó alrededor de 1500 varios apuntes para una sumadora mecánica. Más de un siglo después, hacia 1623, el alemán Wilhelm Schickard construyó la primera máquina de calcular. Sin embargo, la Historia ha reservado el puesto de creador del primer ingenio mecánico calculador a Pascal.

Efectivamente, en 1642, el filósofo y matemático francés Blaise Pascal (1623-1662) construyó la primera sumadora mecánica, que se llamó Pascalina, y que funcionaba con un complicado mecanismo de engranes y ruedas: la rotación completa de una de las ruedas dentadas hacía girar un paso a la rueda siguiente. La Pascalina sólo realizaba sumas y restas.

A pesar de que Pascal fue enaltecido por toda Europa debido a sus logros, la Pascalina resultó un fracaso financiero, pues resultaba más costosa que la labor humana para los cálculos artiméticos.

Por su parte, el alemán Gottfried Wilhelm von Leibniz (1646-1716) diseñó en 1671 otra sumadora mecánica, que concluyó definitivamente en 1694, conocida como la Calculadora Universal o Rueda Escalada de Leibniz, capaz de realizar sumas, restas, divisiones y raíces cuadradas.

En estas calculadoras mecánicas, los datos, representados mediante las posiciones de los engranajes, se introducían manualmente, estableciendo dichas posiciones finales de las ruedas de manera similar a como leemos los números en el cuentakilómetros de un automóvil.

A partir de este momento se fueron sucediendo nuevos modelos de calculadoras mecánicas, con distintas variaciones y mejoras.

La primera tarjeta perforada

El fabricante de tejidos francés Joseph-Marie Jacquard (1752-1834) ideó en 1801 un telar, todavía utilizado en la actualidad, que podía reproducir automáticamente patrones de tejidos leyendo la información codificada en patrones de agujeros perforados en tarjetas de papel rígido. Las tarjetas se perforaban estratégicamente y se acomodaban en cierta secuencia para indicar un diseño de tejido en particular. Para cambiar de diseño, basta con preparar una nueva colección de tarjetas.

El telar consta de una serie de varillas, sobre las que pasan las tarjetas, y de las que están prendidos hilos de distintos colores. Las perforaciones de las tarjetas determinan de manera mecánica qué varillas –y por tanto qué hilos– intervienen en la formación del tejido y en la disposición de los dibujos.

El principio de las tarjetas perforadas de Jacquard es el mismo que rige el funcionamiento de ciertos aparatos musicales. Más tarde, las tarjetas perforadas tendrán una gran influencia en los trabajos de Charles Babbage.

El telar de Jacquard supone una triple aportación teórica para el futuro desarrollo computacional:

Proporciona un modelo de automatización de los procesos de producción diversificada (opuesta a la de un solo propósito o específica).

Por primera vez se realiza una codificación de la información. Las tarjetas son la información suministrada (input) y el tejido es el resultado (output).

Por primera vez se realiza la programación de las instrucciones. La cadena de tarjetas perforadas prefigura la organización de los procesos mediante técnicas de programación.

Charles Babbage

Charles Babbage se licenció en la Universidad de Cambridge en 1814. Poco después, en 1815, fundó con J. Herschel la Analytic Society con el propósito de renovar de la enseñanza de las matemáticas en Inglaterra. En 1816 fue elegido miembro de la Royal Society y en 1828 ingresó en su universidad como profesor de matemáticas.

Aunque había destacado en el área de la teoría de funciones y análisis algebraico, Charles Babbage se volcó en el intento por conseguir una máquina capaz de realizar con precisión tablas matemáticas. En 1833 completó su «máquina diferencial», capaz de calcular los logaritmos e imprimirlos de 1 a 108.000 con notable precisión, y formuló los fundamentos teóricos de cualquier autómata de cálculo. Por entonces Babbage ya conocía los sistemas decimales de conteo, y estaba familiarizado con la descomposición de complejas operaciones matemáticas en secuencias sencillas.

Después de esto, Babbage se volcó en el proyecto de diseñar una «máquina analítica» que fuese capaz de procesar cualquier secuencia de instrucciones aritméticas. Para esta realización contó con fondos del gobierno inglés y con la colaboración de la que está considerada como la primera programadora de la historia, Ada Lovelace, hija del poeta Lord Byron.

Aunque no consiguió su propósito, Charles Babbage sentó los principios básicos de las computadoras modernas, como el concepto de programa o instrucciones básicas (que se introducen en la máquina de manera independiente de los datos), el uso de la memoria para retener resultados y la unidad aritmética. La máquina de Babbage, construida exclusivamente con piezas mecánicas y multitud de ruedas dentadas, utilizaba las tarjetas perforadas para la introducción de datos y programas, e imprimía en papel los resultados con técnicas muy similares a las que se emplearon hasta mediados de los años 70.

En compañía de Ada Lovelace, que empleó mucho de su tiempo en la publicación de las ideas de su maestro, Babbage dedicó sus últimos años y recursos a una máquina infalible que fuese capaz de predecir los ganadores de las carreras de caballos. En honor de Lady Ada Lovelace, el Departamento de Defensa de los Estados Unidos denominó ADA a un lenguaje de programación de computadoras de alto nivel.

Alan Turing

(Alan Mathison Turing; Londres, 1912 – Wilmslow, Reino Unido, 1954) Matemático británico. Pasó sus primeros trece años en la India, donde su padre trabajaba en la Administración colonial. De regreso al Reino Unido, estudió en el King’s College y, tras su graduación, se trasladó a la Universidad estadounidense de Princeton, donde trabajó con el lógico Alonzo Church.

En 1937 publicó un célebre artículo en el que definió una máquina calculadora de capacidad infinita (máquina de Turing) que operaba basándose en una serie de instrucciones lógicas, sentando así las bases del concepto moderno de algoritmo. Turing describió en términos matemáticos precisos cómo un sistema automático con reglas extremadamente simples podía efectuar toda clase de operaciones matemáticas expresadas en un lenguaje formal determinado. La máquina de Turing era tanto un ejemplo de su teoría de computación como una prueba de que un cierto tipo de máquina computadora podía ser construida.

La Segunda Guerra Mundial ofreció un insospechado marco de aplicación práctica de sus teorías, al surgir la necesidad de descifrar los mensajes codificados que la Marina alemana empleaba para enviar instrucciones a los submarinos que hostigaban los convoyes de ayuda material enviados desde Estados Unidos; Turing, al mando de una división de la Inteligencia británica, diseñó tanto los procesos como las máquinas que, capaces de efectuar cálculos combinatorios mucho más rápidamente que cualquier ser humano, fueron decisivos en la ruptura final del código.

Alan Turing definió además un método teórico para decidir si una máquina era capaz de pensar como un hombre (test de Turing) y realizó contribuciones a otras ramas de la matemática aplicada, como la aplicación de métodos analíticos y mecánicos al problema biológico de la morfogénesis. En el ámbito personal, su condición de homosexual fue motivo constante de fuertes presiones sociales y familiares, hasta el punto de especularse si su muerte por intoxicación fue accidental o se debió a un intento de suicidio.

Bill Gates

Bill Gates nació en una familia acomodada que le proporcionó una educación en centros de élite como la Escuela de Lakeside (1967-73) y la Universidad de Harvard (1973-77). Siempre en colaboración con su amigo Paul Allen, se introdujo en el mundo de la informática formando un pequeño equipo dedicado a la realización de programas que vendían a empresas o administraciones públicas.

En 1975 se trasladaron a Alburquerque (Nuevo México) para trabajar suministrando a la compañía MITS una serie de programas susceptibles de ser utilizados con el primer microordenador, el Altair, para el cual habían desarrollado una versión del lenguaje de programación BASIC. Ese mismo año fundaron en Alburquerque su propia empresa de producción de software informático, Microsoft Corporation, con Bill Gates como presidente y director general. Su negocio consistía en elaborar programas adaptados a las necesidades de los nuevos microordenadores y ofrecérselos a las empresas fabricantes más baratos que si los hubieran desarrollado ellas mismas. Cuando, en 1979, Microsoft comenzó a crecer (contaba entonces con dieciséis empleados), Bill Gates decidió trasladar su sede a Seattle.

El negocio del software

A principios de la década de 1970, la invención del microprocesador permitió abaratar y reducir el tamaño de las gigantescas computadoras existentes hasta entonces. Era un paso decisivo hacia un sueño largamente acariciado por muchas empresas punteras en el sector tecnológico: construir ordenadores de tamaño y precio razonable que permitiesen llevar la informática a todas las empresas y hogares. El primero en llegar podría iniciar un negocio sumamente lucrativo y de enorme potencial. Era impensable que una empresa como Microsoft, dedicada solamente al software (sistemas operativos y programas) pudiese jugar algún papel en esta carrera entre fabricantes de hardware, es decir, de máquinas.

Y así fue al principio: una competición entre fabricantes de ordenadores no demasiado honesta, pues hubo más de un plagio. A mediados de los años setenta, en un garaje atestado de latas de aceite y enseres domésticos, Steve Jobs y Stephen Wozniak diseñaron y construyeron una placa de circuitos de computadora, toda una muestra de innovación y de imaginación. Al principio tenían la intención de vender sólo la placa, pero pronto se convencieron de la conveniencia de montar una empresa, Apple, y vender ordenadores. En 1977 empezaron a comercializar la segunda versión de su computadora personal, el Apple II, que se vendía con un sistema operativo también creado por Apple: un hito histórico que marca el nacimiento de la informática personal.

Bastante ingenuamente, Apple cometió el error de dar a conocer a otras empresas las especificaciones exactas del Apple II. Para desarrollar su primer ordenador personal, la empresa IBM copió y adaptó la arquitectura abierta del ordenador de Apple y escogió el microprocesador Intel 8088, que manejaba ya caracteres de 16 bits. De este modo, en 1981, IBM pudo lanzar su primer PC (Personal Computer, ordenador personal). Pero el sistema operativo de su PC, imprescindible para su funcionamiento, no había sido creado por IBM, sino por Microsoft. Un año antes, en 1980, Bill Gates había llegado a un acuerdo con IBM para suministrarle un sistema operativo adaptado a sus ordenadores personales, el MS-DOS, que desde 1981 iría instalado en todos los ordenadores de la marca.

IBM obtuvo un gran éxito comercial con su PC. Con un precio que, con el paso de los años, sería cada vez más asequible, cualquier consumidor podía comprar una computadora de tamaño reducido, cuyas aplicaciones no hacían sino aumentar, y que abarcaban tanto el ocio como múltiples actividades laborales. Pero IBM también cometió errores en el uso de la patente. Muchas empresas, conscientes del gran boom que se avecinaba, se lanzaron a la fabricación y comercialización de PC compatibles, llamados en la jerga informática clónicos, más económicos que los de IBM.

El mercado se inundó de ordenadores personales compatibles con el de IBM que funcionaban con el sistema operativo de Microsoft, que podía venir instalado o adquirirse por separado, porque, aunque IBM lo había encargado, el MS-DOS no era de su propiedad: había cedido los derechos de venta a Microsoft. Por otro lado, aparte de las empresas y administraciones, no siempre los usuarios adquirían la licencia del MS-DOS. Era sencillísimo conseguir una copia e instalarlo sin pagar, hecho que favoreció aún más su difusión.

Del MS-DOS a Windows

Aún existían otras opciones, pero se quedaron en minoritarias: gracias a su bajo coste, la combinación PC más MS-DOS acabó copando el mercado y convirtiéndose en el estándar. Mientras los fabricantes de ordenadores intentaban reducir costes, entregados a una guerra de precios de la que nadie pudo sacar una posición dominante, una empresa de software, la de Bill Gates, se hizo con prácticamente todo el mercado de sistemas operativos y buena parte del de programas.

A partir de ese momento, la expansión de Microsoft fue espectacular. Y no sólo porque los PC necesitaban un sistema operativo para funcionar, sino también porque los programas y aplicaciones concretas (un procesador de textos, una hoja de cálculo, un juego) se desarrollan sobre la base de un sistema operativo en concreto, y ese sistema era el MS-DOS. Las distintas empresas de software (y entre ellas la misma Microsoft) podían desarrollar, por ejemplo, distintos procesadores de textos, compitiendo entre ellas para agradar al usuario. Pero como la inmensa mayoría de usuarios tenía MS-DOS, desarrollaban programas para funcionar con MS-DOS, y acababan por hacer un favor a Microsoft, que podía presumir de que sobre su sistema operativo podían funcionar todos los programas imaginables: los suyos y casi todos los de la competencia. Esa retroalimentación viciosa era el fabuloso activo de Microsoft, y Bill Gates supo conservarlo.

El MS-DOS, sin embargo, era un entorno poco amigable, cuyo manejo requería el conocimiento de comandos que se introducían a través del teclado. Con el lanzamiento en 1984 del ordenador personal Macintosh, Apple pareció tomar de nuevo la delantera. Su sistema de ventanas supuso un salto cualitativo; su interfaz simulaba la distribución de una mesa de trabajo por medio de iconos. Un pequeño aparato, el ratón, cuyo movimiento se reflejaba en la pantalla con un icono parpadeante, permitía recorrerla en busca del documento o programa buscado. En lugar de tener que recordar los comandos de cada una de las operaciones y teclearlos en cada momento, bastaba acudir a los listados de acciones posibles y hacer clic con el ratón sobre la opción elegida.

Por el momento, aquellas innovaciones no parecían hacer sombra a Bill Gates. En 1983 Paul Allen dejó Microsoft, aquejado de una grave enfermedad. Y cuando, en 1986, Microsoft salió a la Bolsa, las acciones se cotizaron tan alto que Bill Gates se convirtió en el multimillonario más joven de la historia. Volcado en un proceso de innovación tecnológica acelerada, y en su caso imitando más el Macintosh de Apple que innovando, Gates lanzó una interfaz gráfica para MS-DOS llamada Windows: Windows 3.0 en 1990 y Windows 3.1 en 1992.

No era, en realidad, un nuevo sistema operativo, sino, como se ha dicho, una interfaz gráfica con ratón, iconos y ventanas bajo la que seguía corriendo el viejo MS-DOS, pero fue muy bien recibido por los usuarios, que disponían finalmente de un sistema tan intuitivo como el de Macintosh, pero mucho más económico al funcionar sobre un PC, gracias a lo cual se impuso fácilmente en el mercado. El enorme éxito llevó a la verdadera renovación que fue Windows 95 (en cuya campaña de promoción a escala mundial asumió el propio Gates el papel de profeta de la sociedad cibernética como personificación de Microsoft), al que seguirían Windows 98 y las sucesivas versiones de este sistema operativo, de entre las que sobresale Windows XP (2001), el primero cien por cien de nuevo cuño, que dejaba completamente de lado el antiguo MS-DOS.

Entretanto, el negocio no había cesado de crecer (de los 1.200 empleados que tenía en 1986 hasta más de 20.000 en 1996), y, con la generalización de Windows, Bill Gates pasó a ejercer un virtual monopolio del mercado del software mundial, reforzado por su victoria en el pleito de 1993 contra Apple, que había demandado a Microsoft por considerar que Windows era un plagio de la interfaz gráfica de su Macintosh. Desde 1993 embarcó a la compañía en la promoción de los soportes multimedia, especialmente en el ámbito educativo.

Además de Windows, muchos de los programas y aplicaciones concretas más básicas e importantes producidas por la empresa (el paquete ofimático Microsoft Office, por ejemplo) eran siempre las más vendidas. Surgieron muchas voces críticas que censuraban su posición monopolística, y en numerosas ocasiones Microsoft fue llevada por ello a los tribunales por empresas competidoras y gobiernos, pero nada logró detener su continua ascensión.

Empresario y filántropo

El talento de Gates se ha reflejado en múltiples programas informáticos, cuyo uso se ha difundido por todo el mundo como lenguajes básicos de los ordenadores personales; pero también en el éxito de una empresa flexible y competitiva, gestionada con criterios heterodoxos y con una atención especial a la selección y motivación del personal. Las innovaciones de Gates contribuyeron a la rápida difusión del uso de la informática personal, produciendo una innovación técnica trascendental en las formas de producir, transmitir y consumir la información. El presidente George Bush reconoció la importancia de la obra de Gates otorgándole la Medalla Nacional de Tecnología en 1992.

Su rápido enriquecimiento ha ido acompañado de un discurso visionario y optimista sobre un futuro transformado por la penetración de los ordenadores en todas las facetas de la vida cotidiana, respondiendo al sueño de introducir un ordenador personal en cada casa y en cada puesto de trabajo; este discurso, que alienta una actitud positiva ante los grandes cambios sociales de nuestra época, goza de gran audiencia entre los jóvenes de todo el mundo por proceder del hombre que simboliza el éxito material basado en el empleo de la inteligencia (su libro Camino al futuro fue uno de los más vendidos en 1995).

Los detractores de Bill Gates, que también son numerosos, le reprochan, no sin razón, su falta de creatividad (ciertamente su talento y sus innovaciones no son comparables a las de un Steve Jobs, y más bien siguió los caminos que abría el fundador de Apple), y critican asimismo su política empresarial, afirmando que se basó siempre en el monopolio y en la absorción de la competencia o del talento a golpe de talonario. A los críticos les gusta subrayar un hecho totalmente real, pese a que parezca una leyenda urbana: ni siquiera el MS-DOS es obra suya. Bill Gates lo compró por 50.000 dólares a un programador de Seattle llamado Tim Paterson, le cambió el nombre y lo entregó a IBM.

En la actualidad, Microsoft sigue siendo una de las empresas más valiosas del mundo, pese a haber perdido diversas batallas, especialmente la de Internet y la de los sistemas operativos para teléfonos móviles, que lidera ahora Google (Sergei Brin y Larry Page), otro gigante tan valioso como Microsoft. Frente al dinamismo de la era de Internet, en la que surgen y se convierten rápidamente en multimillonarias nuevas ideas como la red social Facebook, de Mark Zuckerberg, la empresa de Gates parece haber quedado algo anquilosada, aunque no se pone en duda la solidez de su posición.

Tampoco ello es exclusiva responsabilidad de Bill Gates, que ya en el año 2000 cedió la presidencia ejecutiva de Microsoft a Steve Ballmer y pasó a ser arquitecto jefe de software para centrarse en los aspectos tecnológicos. Bill Gates había contraído matrimonio en 1994 con Melinda French, con la que tendría tres hijos. En el año 2000 creó, junto con su esposa, la Fundación Bill y Melinda Gates, institución benéfica dedicada a temas sanitarios y educativos cuya espléndida dotación económica procede mayormente de su fortuna personal. No en vano el fundador de Microsoft es un habitual de las listas anuales de la revista Forbes: en 2014 la había encabezado ya en quince ocasiones como el hombre más rico del planeta.

En 2008, Bill Gates abandonó definitivamente Microsoft para dedicarse íntegramente a sus labores en la fundación, que había recibido el Premio Príncipe de Asturias de Cooperación Internacional en 2006. Si antes fue una figura discutida, esta nueva etapa como filántropo despierta más bien unánime admiración: al igual que lo fue su empresa, su fundación es la más grande del mundo por lo que respecta a la cuantía de sus aportaciones económicas a toda clase de programas de ayuda, investigación y desarrollo.

Steve Jobs

(Steve Paul Jobs; San Francisco, 1955 – Palo Alto, California, 2011) Informático y empresario estadounidense. Padre del primer ordenador personal y fundador de Apple Computer, probablemente la empresa más innovadora del sector, este mago de la informática fue uno de los más influyentes de la vertiginosa escalada tecnológica en que aún vive el mundo actual, contribuyendo decisivamente a la popularización de la informática. Sus ideas visionarias en el campo de los ordenadores personales, la música digital o la telefonía móvil revolucionaron los mercados y los hábitos de millones de personas durante más de tres décadas.

Sus padres, dos estudiantes universitarios sin medios materiales para mantenerlo, entregaron al pequeño Steve en adopción al matrimonio formado por Paul y Clara Jobs (maquinista ferroviario y ama de casa, respectivamente). Desde 1961, la familia Jobs residió en la pequeña ciudad californiana de Mountain View, importante centro de la industria electrónica estadounidense. No cabe duda de que el ambiente local influyó en sus futuras inclinaciones profesionales; con apenas doce años se unió al Hewlett-Packard Explorer Club, asociación juvenil en la que los ingenieros de la compañía Hewlett-Packard enseñaban a niños y jóvenes las últimas creaciones en el terreno de la computación.

Al terminar el bachiller en el Instituto Homestead de Mountain View, Steve Jobs ingresó en la Reed College, una universidad de artes liberales radicada en Portland (Oregón), pero abandonó los estudios universitarios un semestre más tarde. En esa época coqueteó con las drogas y se interesó por la filosofía y la contracultura, llegando a viajar a la India en busca de iluminación espiritual. Tras unas prácticas en la empresa Hewlett-Packard en Palo Alto, en 1974 Jobs fue contratado como diseñador por Atari, compañía pionera de la por entonces naciente industria de los videojuegos.

Nace Apple

En aquella misma época se unió al que sería su primer socio, el ingeniero Stephen Wozniak. Jobs supo apreciar de inmediato el interés comercial del proyecto de microcomputador doméstico en que trabajaba su amigo; entre los bártulos y enseres domésticos del garaje crearon primero una imaginativa placa base y luego un computador completo, el Apple I, considerado el primer ordenador personal de la historia. En 1976, con el dinero obtenido en la venta de su furgoneta Volkswagen, fundaron la empresa Apple Computer, con sede en el garaje de la familia Jobs. Steve Jobs eligió el nombre Apple como un recuerdo de los tiempos en que trabajaba en la recolección de su fruta favorita, la manzana.

El Apple II, una mejora del modelo anterior, fue introducido en 1977, convirtiéndose en el primer ordenador de consumo masivo. Tras una impresionante lluvia de pedidos, Apple pasó a ser la empresa de mayor crecimiento de Estados Unidos. Tres años después, Apple salió a la bolsa con un precio de 22 dólares por acción, lo que convirtió a Jobs y Wozniak en millonarios. Steve Jobs había adquirido ya su fama de genio bifronte, magníficamente dotado para la tecnología y para los negocios: un excepcional talento creativo le había permitido tanto idear un ordenador revolucionario como triunfar en su comercialización.

Tras el Apple II, Jobs y Wozniak se enfrascaron en la creación del Macintosh, el primer ordenador asequible y fácil de manejar sin necesidad de saber informática: era la realización del sueño que acariciaba la industria desde la invención del primer microprocesador (1971). El lanzamiento del

Macintosh en 1984 supuso un vuelco en las perspectivas del mercado. Su gran innovación fue una interfaz gráfica de diseño exquisito y amigable que simulaba una mesa de trabajo (el escritorio), y la introducción del ratón para ejecutar las funciones haciendo clic sobre las iconos, ventanas y menús de opciones que se abrían en la pantalla, lo que facilitaba grandemente la interacción entre el usuario y el ordenador: dejaba de ser necesario comprender, memorizar e introducir a través del teclado multitud de comandos esotéricos, de modo que hasta un niño podía utilizarlo. En este sentido, Jobs realizó una gran contribución a la introducción de los ordenadores personales en la enseñanza.

En 1981, el más fuerte competidor de Apple, IBM, había sacado al mercado su primer ordenador personal, copiando en buena parte las especificaciones del Apple II que la propia Apple, de forma un tanto ingenua, había hecho públicas. Con el ánimo de mantener la competitividad de su empresa, Steve Jobs decidió reclutar para la dirección de Apple al entonces presidente de la conocida multinacional de refrescos Pepsi, John Sculley, sin imaginar que éste acabaría echándole de su propia empresa. El estilo de Sculley, un ejecutivo de la vieja guardia, chocaba claramente con la rebeldía y las maneras heterodoxas de Jobs.

Al mismo tiempo empezaron los problemas entre Jobs y Wozniak, relegado a un segundo plano tras un accidente, aunque, según otras versiones, el deterioro de sus relaciones se debió al difícil carácter de Jobs, tachado en medios informáticos de «tirano carismático». El resultado de ambos conflictos personales fue que Wozniak se marchó de Apple en 1985, año en que fueron despedidos mil doscientos empleados a raíz de una amplia reestructuración en la empresa, y Jobs dimitió para emprender en solitario una nueva andadura empresarial.

NeXT Computer y Pixar

Steve Jobs fundó una nueva compañía informática, NeXT Computer (1985), y a continuación compró al director cinematográfico estadounidense George Lucas, por diez millones de dólares, la división de animación de la productora del cineasta, Lucasfilm Limited. Así nacieron en 1986 los Estudios de Animación Pixar, centrados en la producción por ordenador de películas de dibujos animados; tan sólo tres años después, una de las películas realizadas por los estudios, Tin Toy (1988), mereció el Oscar de la Academia al mejor cortometraje animado.

En 1989, NeXT Computer lanzó su primer ordenador, repleto de funciones extraordinarias, pero que no resultó rentable por su elevado precio y su incompatibilidad con la mayoría de los sistemas existentes en el mercado. Finalmente, el visionario Jobs cerró la división de ordenadores en 1993, con el mérito de haber creado el aparato con el que el programador británico Tim Berners-Lee ideó la World Wide Web, que sería la base del desarrollo y popularización de Internet.

Mejor iban las cosas en Pixar: con el apoyo de Disney Motion Pictures, la mega productor del imperio que fundara Walt Disney, el estudio lanzó Toy Story (1995), una producción que forma ya parte de la historia del cine por ser el primer largometraje realizado íntegramente por ordenador. La película fue un éxito de taquilla y obtuvo un Oscar de la Academia de Hollywood. El siguiente gran éxito de Pixar fue Bichos, una aventura en miniatura (1998), al que seguirían nuevos títulos memorables, como Monsters, Inc. (2001) y Buscando a Nemo (2003).

Su antigua empresa, en cambio, atravesaba momentos difíciles. Desde principios de los 80, los llamados PC clónicos (ordenadores personales compatibles con los de IBM) copaban el mercado gracias su bajo coste. Con Jobs al frente, Apple había logrado capear el temporal gracias al ya citado Macintosh (1984): su intuitiva interfaz gráfica fácilmente manejable mediante el ratón era claramente superior al MS-DOS, el sistema operativo de Microsoft que llevaban los clónicos, y justificaba, junto con otras virtudes, su elevado precio.

Pero cuando Microsoft lanzó las primeras versiones del sistema operativo Windows (Windows 3.1 en 1992, Windows 95 en 1995), Apple perdió uno de sus principales argumentos de venta. Un PC clónico equipado con Windows y ratón era tan fácil de usar como el Macintosh, y mucho más barato. A juicio de casi todos los expertos, Windows era un plagio de la interfaz del Macintosh; así lo entendió Apple, que de inmediato se enzarzó en demandas y pleitos contra la Microsoft de Bill Gates. La enemistad entre dos personalidades tan contrapuestas como el hipercreativo Steve Jobs y el funcionarial Bill Gates sería el tema de una película televisiva titulada Piratas del Silicon Valley, producida en 1998 por la cadena TNT.

De nuevo en Apple

Derrotada en sus pleitos contra Microsoft y sumergida en una profunda crisis, en diciembre de 1996 Apple decidió comprar NeXT Computer, lo que supuso la vuelta de Steve Jobs a la empresa por él fundada con un cargo de asesor interino (por el que Jobs, voluntariamente, no recibía ningún salario). Nueve meses después, la dimisión del presidente de Apple encumbró nuevamente a Jobs al frente de la compañía. En agosto de 1997, un mes antes de su nombramiento como presidente provisional de Apple, Jobs anunció un acuerdo con la corporación rival, Microsoft, que decidió invertir 150 millones de dólares en Apple. Las dos compañías acabaron comprendiendo que se necesitaban y se complementaban, pues Microsoft era el principal fabricante de programas para Macintosh, y Apple uno de los principales testigos en el juicio antimonopolio que la justicia norteamericana había incoado contra la empresa de Bill Gates.

Durante esta segunda etapa en Apple, en la que se mantendría como director ejecutivo hasta 2009, Steve Jobs continuó en su línea rompedora, impulsando productos decididamente innovadores. Visto en perspectiva, no hay duda de que acertó en sus planteamientos. Cuando Jobs asumió de nuevo la presidencia de Apple en septiembre de 1997, la batalla parecía perdida; en 2012, un año después de su muerte, Apple se había convertido en la empresa más valiosa del mundo: la cotización global de sus acciones en bolsa rozaba los seiscientos mil millones de dólares.

En 1998, justo un año después de su regreso, Steve Jobs volvió a revolucionar el mercado informático con el lanzamiento del iMac, un ordenador compacto integrado en el monitor, que además de su espectacular diseño vanguardista estaba preparado para navegar por Internet. Su éxito de ventas colocó a Apple nuevamente entre los cinco mayores fabricantes de ordenadores personales de Estados Unidos y acarreó una revalorización del 50% de las acciones de la compañía. Nuevas versiones del iMac, con mayor potencia y cada vez más sofisticadas prestaciones y diseño, seguirían apareciendo en los años siguientes, con gran aceptación entre su legión de usuarios incondicionales.

Como si el mundo del ordenador personal se le hubiera quedado pequeño, Jobs pasó pronto a desplegar su inagotable inventiva en otros ámbitos, conjugando como siempre había hecho las novedosas funcionalidades con la máxima simplicidad de uso y elegantes diseños minimalistas. El primero fue la música digital: en 2001 desembarcó en el sector musical con un reproductor de audio de bolsillo, el iPod, y dos años después creó la tienda musical iTunes, que lideró de inmediato la venta de música en línea y sigue manteniendo su posición dominante. Desgraciadamente, sus problemas de salud lo obligaron a apartarse temporalmente de su trabajo en 2004, año en que fue tratado de un cáncer de páncreas.

En 2007 presentó el iPhone, primero de la familia de teléfonos inteligentes de alta gama producida por Apple. Declarado «invento del año» por la revista Time, su pantalla táctil integraba un teclado de orientación tanto vertical como horizontal, e incorporaba una cámara fotográfica de tres megapíxeles, un lector de música (con las mismas funciones que un iPod) y un navegador de Internet. Inicialmente contaba con un número reducido de aplicaciones, proporcionadas por Apple, pero la demanda de más programas por parte de los usuarios originó la creación de la App Store en julio de 2008, una tienda de aplicaciones donde todo tipo de desarrolladores podían vender software diseñado para los iPhone y demás dispositivos fabricados por la compañía.

Las novedosas prestaciones del iPhone fueron pronto imitadas, pero sólo otro gran gigante del sector, Google (Sergei Brin y Larry Page), presentó batalla al liderazgo de Apple lanzando ese mismo año Android, un sistema operativo para móviles. La historia se repetía: el iPhone llevaba integrado su propio sistema operativo, el iOS, y gracias al desarrollo de Android, que acabaría por imponerse casi como estándar entre los restantes fabricantes, Google logró evitar que una probable hegemonía de Apple amenazase su posición dominante en Internet, pues era sabido que, en un futuro muy próximo, la mayor parte de conexiones a Internet se efectuarían desde dispositivos móviles.

En 2009, año en que hubo de someterse a un trasplante de hígado, Steve Jobs delegó la mayor parte de sus responsabilidades en Timothy Cook. Pero ni siquiera el visible deterioro de su salud lograría reducir su entrega al trabajo y su afán innovador. Con su creatividad intacta, todavía en 2010 sorprendió al mundo con el iPad, un híbrido de tableta y teléfono móvil; una ligera y delgadísima pantalla táctil de 9,7 pulgadas contenía en su parte posterior la potencia de procesamiento y todas las prestaciones de un ordenador portátil, sin necesidad de teclado ni ratón. Steve Jobs presentó la segunda versión, el iPad 2, en marzo de 2011, en la que sería una de sus últimas apariciones en público. El 5 de octubre de 2011, a los 56 años de edad, falleció en su casa de Palo Alto, víctima del avance del cáncer que le había sido detectado en 2003.

Las 5 generaciones de Computadoras

Primera generación: tubos de vacío (1940-1956)

Los primeros sistemas informáticos usaban tubos de vacío para los circuitos y tambores magnéticos para la memoria, estos equipos a menudo eran enormes, ocupando salas enteras. Además eran muy costosos de operar además de utilizar una gran cantidad de electricidad, los primeros ordenadores generaban mucho calor, que a menudo era la causa de un mal funcionamiento.

Los ordenadores de primera generación se basaban en el lenguaje de máquina, el lenguaje de programación de nivel más bajo, para realizar operaciones, y solo podían resolver un problema a la vez. A los operadores les tomaría días o incluso semanas establecer un nuevo problema. La entrada de los datos se basó en tarjetas perforadas y cinta de papel, y la salida se mostró en las impresiones.

UNIVAC y ENIAC son ejemplos de dispositivos informáticos de primera generación. El UNIVAC fue el primer ordenador comercial entregada a un cliente comercial, la Oficina del Censo de los Estados Unidos en 1951.

Segunda generación: transistores (1956-1963)

El mundo vería que los transistores reemplazan los tubos de vacío en la segunda generación de ordenadores. El transistor fue inventado en Bell Labs en 1947, pero no se vio un uso generalizado hasta finales de la década de 1950. El transistor era muy superior al tubo de vacío, lo que permitía que los ordenadores se volvieran más pequeños, más rápidos, más baratos, más eficientes energéticamente y más confiables que sus antecesores de primera generación. Aunque el transistor aún generaba una gran cantidad de calor, fue una gran mejora con respecto al tubo de vacío. Los ordenadores de segunda generación aún dependían de tarjetas perforadas para la entrada y copias impresas para la salida.

Estos equipos pasaron del lenguaje de máquinas binarias crípticas a lenguajes simbólicos o de ensamblaje, lo que permitió a los programadores especificar instrucciones en palabras. Los lenguajes de programación de alto nivel también se estaban desarrollando en este momento, como las primeras versiones de COBOL y FORTRAN. Estos fueron también los primeros ordenadores que almacenaron sus instrucciones en su memoria, que pasaron de un tambor magnético a una tecnología de núcleo magnético. Los primeros ordenadores de esta generación fueron desarrollados para la industria de la energía atómica.

Tercera Generación: Circuitos Integrados (1964-1971)

El desarrollo del circuito integrado fue el sello distintivo de la tercera generación de ordenadores. Los transistores fueron miniaturizados y colocados en chips de silicio, llamados semiconductores, que aumentaron drásticamente la velocidad y la eficiencia.

En lugar de tarjetas perforadas e impresiones, los usuarios interactuaron a través de teclados y monitores, e interactuaron con un sistema operativo, lo que permitió que el dispositivo ejecutara muchas aplicaciones diferentes a la vez con un programa central que monitoreaba la memoria. Por primera vez se hicieron accesibles para una audiencia masiva, porque eran más pequeños y más baratos que sus predecesoras.

Cuarta generación: microprocesadores (1971-presente)

El microprocesador trajo la cuarta generación de ordenadores, ya que miles de circuitos integrados se construyeron en un solo chip de silicio. Lo que en la primera generación llenaba una habitación entera, ahora cabía en la palma de la mano. El chip Intel 4004, desarrollado en 1971, ubicó todos los componentes, desde la unidad de procesamiento central y la memoria hasta los controles de entrada / salida, en un solo chip.

En 1981, IBM presentó su primer ordenador para el usuario doméstico, y en 1984, Apple presentó el Macintosh. A medida que se volvieron más poderosos, pudieron vincularse entre sí para formar redes, lo que finalmente condujo al desarrollo de Internet. Los ordenadores de cuarta generación también vieron el desarrollo de GUI, el ratón y dispositivos de mano.

Quinta generación: inteligencia artificial (presente y más allá)

Los dispositivos informáticos de quinta generación, basados ​​en inteligencia artificial, aún están en desarrollo, aunque hay algunas aplicaciones, como el reconocimiento de voz, que se están utilizando en la actualidad. El uso de procesamiento paralelo y superconductores está ayudando a hacer realidad la inteligencia artificial. La computación cuántica y la nanotecnología molecular cambiarán radicalmente la cara de las computadoras en los años venideros. El objetivo de la computación de quinta generación es desarrollar dispositivos que respondan al aporte del lenguaje natural y que sean capaces de aprender y auto organizarse.

Conceptos básicos

Informática

Algoritmo

Bit

Byte

Carácter, ASCII

Unidades de medición y equivalencias

Hardware

Unidades de Entrada

Unidades de Salida

Unidades de Almacenamiento

Generalidades de los Microprocesadores

RAM, Tarjeta Madre, Discos Duros, Discos Duros de Estado Sólido, Tarjetas de Video

Software

Software Propietario y Software de Libre Distribución

Clasificación de Software

Software de Aplicación

Software de Programación

Software de Sistema

Interfaces de usuario (Diferencias entre Windows, Linux, MAC)

Dejar respuesta

Please enter your comment!
Please enter your name here