Cómo se hacían los videojuegos en los años ochenta

Listado BASIC de un Spectrum

Listado BASIC de un Spectrum

En la época dorada del software español, allá entre 1983 y 1992, la producción de videojuegos para las máquinas de 8 bit de la época sufrió un importante auge a nivel mundial, pero sobre todo a escala nacional. Las empresas productoras de entretenimiento digital patrio surgían como champiñones. Así pues, compañías tales como Indescomp, Made in Spain (Zigurat), Dinamic Software, Opera Soft o Topo Soft se llenaban los bolsillos de las antiguas pesetas desarrollando juegos para Spectrum, MSX y Amstrad, sobre todo.

La forma de trabajo de aquellos tiempos era bien distinta a lo que puede ocurrir en la actualidad. En un principio los videojuegos se diseñaban directamente sobre la máquina que los iba a ejecutar. Para ello existía una doble vertiente, en función de la calidad requerida y de los conocimientos del programador: desarrollar en ensamblador o desarrollar en algún lenguaje de alto nivel (comúnmente algún intérprete nativo de BASIC).

La diferencia entre ambas técnicas reside en la potencia del producto final. Evidentemente, programar en ensamblador ayuda a aprovechar al máximo las capacidades del aparato, ya que se hace necesario conocer a la perfección el funcionamiento interno del procesador y del resto del hardware, así como las instrucciones propietarias que presentan y permiten manejar. Hacerlo en un lenguaje de alto nivel acompaña en el proceso, debido a su sencillez de codificación con respecto al ensamblador, pero es muy posible que no exprima al cien por cien el funcionamiento de la máquina.

Para desarrollar un título que fuera compatible con las tres plataformas más conocidas al mismo tiempo, los programadores debían, pues, diseñar el juego para cada una de ellas particularmente, aprovechando muchas veces código en el traspaso debido a que las tres compartían el mismo procesador, un Z80. Sin embargo, el proceso resultaba tedioso y, para las empresas, poco rentable.

'Fernando Martín Basket Master' para Spectrum

'Fernando Martín Basket Master' para Spectrum

Hacia el año 1987 apareció una herramienta denominada PDS (Programmers Development System), una suerte de sistema que hacía uso de un compilador cruzado y de un equipo de hardware para la época muy avanzado. Este equipo consistía en dos tarjetas, una ISA con dos puertos COM para un ordenador de 16 bit (que hacía las veces de equipo madre de programación) y otra que se insertaba en el equipo de 8 bit y que, en función de este, podía tener forma de cartucho o de periférico adaptado a él.

Desde el ordenador de 16 bit (bien un PC, un Amiga o un Atari) se diseñaba el juego para, después, enviarlo directamente, ya compilado y a través de un cable conectado a las tarjetas mencionadas, a la memoria de la máquina de 8 bit. De esta forma, el desarrollo era mucho más rápido y dinámico a causa de la potencia de los computadores de trabajo y, también, se disponía de la posibilidad de hacer cambios directamente sobre la memoria para comprobar el funcionamiento de los distintos elementos y de depurar errores prácticamente en tiempo de ejecución.

La pega de este sistema PDS es que él solito era capaz de generar las distintas compilaciones para las diferentes máquinas. Esto, que podría parecer una ventaja, sólo así lo era para los empresarios dueños de las producciones, pero no para el público final. El problema reside en que, a pesar de que los tres ordenadores compartan procesador principal, las capacidades gráficas, de audio, de memoria u otras no son las mismas. Por ejemplo, MSX tiene unas aptitudes gráficas bastante mejores que Spectrum, y Amstrad CPC un sistema de sonido también muy superior al de Spectrum.

Ello significaba que la primera versión que se desarrollaba era la de Spectrum para, posteriormente, convertirla, a través de mínimos cambios, para MSX y Amstrad. La inmensa mayoría de los juegos de la época eran conversiones directas de Spectrum, lo que cabreaba bastante a los usuarios de Amstrad o MSX, porque pagaban por juegos para sus plataformas que llevaban gráficos de Spectrum y el sonido chillón de los pitidos del beeper de Spectrum. En fin, no se aprovechaban las capacidades de las distintas máquinas, porque el objetivo era desarrollar rápido y vender mucho. Ojo, no siempre era así, pues algunas compañías como Opera Soft cuidaban muy mucho las versiones.

'Fernando Martín Basket Master' en Spectrum y Amstrad

'Fernando Martín Basket Master' en Spectrum y Amstrad

Ricardo Cancho, a la sazón grafista de Topo Soft, en una entrevista que le hicieron el pasado año 2010 comenta algo que no tiene desperdicio:

Desde el punto de vista técnico, siempre empezábamos por la versión de Spectrum, pero con los cálculos de memoria realizados para el Amstrad. ¿Por qué? Muy sencillo: el Amstrad era el que más consumía en gráficos, literalmente el doble que en las otras máquinas, así que primero había que asegurarse de que el proyecto cupiese entero en esta plataforma. Una vez realizadas las estimaciones, ya podíamos ponernos a hacer gráficos, mapas, etcétera. Así que, paradójicamente, en las versiones de Spectrum siempre quedaba algo de memoria libre de sus 48 KB.

La versión de MSX se dejaba siempre para el final y solía ser un clon de la de Spectrum. El criterio era puramente económico: no se dedicaba ni un minuto de tiempo extra a esta plataforma, para así cumplir los plazos de entrega y de fecha de salida al mercado.

Una auténtica pena que la avaricia de los mercaderes aplastará ríos de imaginación y destreza informática por los siempre putos plazos de entrega. Pero hoy en día no es muy distinto. La única diferencia es que en aquellos tiempos, si realmente se aprovechaban las capacidades de cada equipo, el mismo juego para Sprectrum y MSX eran completamente polos opuestos. Hoy, si dejamos aparte la Wii de Nintendo por su clara inferioridad técnica, es lo mismo ser un poseedor de una PlayStation 3 o de un Xbox 360, porque los juegos se ven y se perciben de una forma exactamente igual en ambas plataformas. Y esto es algo que no tiene mucho sentido.

Ambas consolas actuales tienen unas capacidades similares, pero no iguales. Cabría pensar, además, que el hecho de que el soporte nativo de PlayStation 3 sea el Blu-ray Disc y el de Xbox 360 sea el DVD podría llevar aparejada una mayor cantidad de contenidos en los juegos de la consola de Sony (más niveles, más cortes de vídeo…), pero no es así. Los títulos para ambas consolas son prácticamente iguales, y las diferencias que se pueden encontrar son tan nimias que no merece la pena siquiera tenerlas en cuenta. Lo único que hoy día debería considerar un comprador a la hora de decidirse por una u otra, es el precio y, sobre todo, el catálogo de juegos.

'Dead Rising 2' en Xbox 360 y PS3

'Dead Rising 2' en Xbox 360 y PS3

¿Qué es lo que impulsa esta tendencia? ¿Por qué se hacen juegos idénticos? ¿A qué oscuro acuerdo se ha llegado? Porque todo el mundo está de acuerdo en que, si se deseara realmente y se aprovecharan al máximo las capacidades de cada máquina, la guerra entre Sony y Microsoft podría ser brutal. Pero eso no ocurre, ni ocurrirá. La historia se repite, no sabemos si por motivos económicos, de mercado o de lo que fuere.

Para el que quiera profundizar más en este tema, desee disfrutar de un buen rato y tenga hora y cuarto que perder (o que ganar), os dejo con un podcast de RetroActivo, uno de los blog más interesantes, maduros, completos y profesionales del mundo retro de la informática y los videojuegos. En este vídeo ha tenido esta entrada su inspiración, pero os recomiendo el resto también sin ningún género de dudas.

Podcast #3 de RetroActivo

BTaprendiendo, la nueva red social de educación

BTaprendiendo

BTaprendiendo

Acaba de nacer BTaprendiendo, un proyecto pionero en el que el editor de este blog ha tenido la oportunidad y la satisfacción de participar de manera más o menos activa. BTaprendiendo es una nueva red social para todos los agentes activos del mundo de la educación, esto es, alumnos, profesores, particulares, centros de estudio, padres y madres, universidades, colegios, academias y un larguísimo etcétera. Un punto de encuentro entre personas relacionadas con el mundo de la enseñanza de cualquier clase.

El universo social de las redes en Internet ha dado un vuelco enorme en los últimos tiempos. Los entornos de este tipo han pasado de ser meras salas de reunión para amigos en contacto a convertirse en auténticas herramientas de colaboración en línea. Ya sea en el entorno médico, en el del derecho o en el del deporte, las redes sociales han tomado las riendas de la comunicación dos punto cero, haciendo partícipes a sus miembros de un punto de encuentro sin parangón para el intercambio de ideas, noticias, modos de trabajo, clases maestras o cualquier tipo de información relevante.

BTaprendiendo parte de esa premisa e intenta poner en común a personas diversas con un mismo fondo: el mundo de la educación. Desde el alumno más joven hasta el pedagogo más experto tienen cabida en esta red. El objetivo es claro: proporcionar vínculos entre iguales para compartir información e interactuar de manera social.

En BTaprendiendo un alumno de Física podrá encontrar tutoriales que se adapten a sus querencias; un estudiante de Filología Inglesa tendrá la oportunidad de contactar con otros alumnos para practicar el idioma; un profesor de secundaria podrá disponer de un grupo de trabajo para mantenerse en contacto con sus alumnos; el padre de un niño con necesidades especiales dispondrá de herramientas para conversar mediante voz y vídeo con otro padre en la misma situación; una academia de informática podrá publicar sus cursos, horarios y tarifas. Las posibilidades son infinitas.

Esta red te permite, tras registrarte de manera gratuita, crear grupos de personas (públicos o privados) o unirte a los ya existentes, compartir archivos (tutoriales, apuntes, guías…) y vídeos (videotutoriales, presentaciones, demostraciones…), crear y participar de foros de noticias, realizar sesiones de chat y videoconferencia, generar salas de chat para conversaciones en grupo, escribir entradas de blog que podrás compartir, o no, con toda la comunidad, crear eventos para invitar a tus iguales, etcétera. Todo aquello que se te ocurra para interactuar lo tienes al alcance de un par de golpes de ratón.

Asimismo, BTaprendiendo te ofrece la posibilidad de buscar clases de apoyo, así como de anunciarte como profesor para impartir materias de manera particular. Todo ello, también, de forma totalmente gratuita, a través de una sección especial para este fin.

Además, La red irá creciendo conforme a las necesidades de sus miembros, y es más que posible que, en breve, aparezcan nuevas implementaciones de utilidades relacionadas con la educación. Un mundo de posibilidades que no te puedes perder.

Puedes ser miembro de BTaprendiendo y, al tiempo, seguir informado continuamente de las novedades y las noticias más importantes a través de otras vías anejas como son el blog de la red, su feed RSS, la página de Facebook o la cuenta en Twitter. El más amplio abanico para que no te quedes descolgado en ningún momento.

BTaprendiendo viene a revolucionar el panorama de las redes sociales, acercando a todos los integrantes del paisaje de la educación a un centro común y poniéndolos en contacto de una manera sencilla, intuitiva y potente. Regístrate ahora y comienza el viaje. No te lo puedes perder.

Por cierto, el tema está aún en fase Beta, por lo que es probable que encuentres cosas raras por ahí. Los problemas se irán solucionando poco a poco. Gracias por tu paciencia.

El aerógrafo prehistórico (o el efecto Venturi en el Paleolítico Superior)

Manos en negativo (Altamira)

Manos en negativo (Altamira)

Resulta curioso, cuando menos, comprobar cómo los descubrimientos científicos documentados y verificados tienen mucho de documentados, mucho de verificados pero poco de descubrimientos. La física de los instrumentos modernos, la química de los seres vivos o la mecánica de los aparatos actuales siempre estuvieron ahí, esperando a que alguien los repitiera artificialmente y los plasmará en un papel, asignando su nombre al hallazgo para la posteridad. Pero ello no quiere decir que antes no hubiera habido otro que, por casualidad, descubriera lo mismo y lo utilizara profusamente, sin haber estampado su firma en un legajo junto a su fortuito encuentro; muchas veces porque ni siquiera, en ese momento, se había inventado el papel.

Es el caso, entre otros muchos, del aerógrafo prehistórico. Si uno se da una vuelta por la cueva de Ardales (Málaga), por la de Maltravieso (Cáceres), por la cueva de Altamira (Cantabria) o por la de Tito Bustillo (Asturias), podrá comprobar como en las propias cavidades horadadas en la roca (si es que son visitables) o en los museos cercanos, se le muestra uno de los descubrimientos arqueológicos más curiosos y que más trajo de cabeza a los expertos durante años: las pinturas de manos en negativo.

Mano en negativo (Pech Merle, Francia)

Mano en negativo (Pech Merle, Francia)

Estos dibujos, como se puede comprobar en la imagen anterior, son representaciones de manos de los antiguos habitantes paleolíticos de las cuevas. Sin embargo, y como cabría esperar, la pintura no ha sido plasmada cubriendo la palma de tinte y estampándola contra la pared, puesto que lo pintado aparece alrededor de la figura de la mano, dejando el hueco ocupado por ésta sin teñir. De ahí su denominación de «manos en negativo».

El descubrimiento hizo pensar mucho a los arqueólogos de hace décadas. Lo primero que se investigó fue el pintado periférico, es decir, se supuso que el autor habría colocado la mano en la roca y, con un dedo de la otra mano impregnado en una tintura, habría ido coloreando la periferia. La hipótesis se desechó enseguida, porque las pruebas que se llevaron a cabo no producían manos como aquellas. Las originales parecían haber sido creadas no a base de pinceladas, sino por la expulsión violenta de pintura sobre la mano, dejando esa mancha característica alrededor.

La segunda hipótesis hizo a los expertos realizar la prueba por medio del soplado de tinte sobre la mano en la pared, lo que se conoce como técnica del estarcido. Una delgada pajita, que podría ser un pequeño hueso perforado, hacía las veces de conducto por el que escupir la pintura a presión desde la boca del artista. Sin embargo, aquella prueba tampoco resulto nada concluyente. La mancha de colorante se formaba por gotas de variado tamaño, inconexas entre sí y de aspecto tosco y burdo. No era una imagen tan homogénea como la de las manos de los hombres prehistóricos, representadas por diminutas partículas de pintura como si se hubiera producido una pulverización con nuestros aerosoles actuales. ¿Cómo es posible que aquella gente utilizara alguna técnica que hoy en día no somos capaces de reproducir?, se preguntaban los arqueólogos.

Una tercera vertiente defendía un procedimiento que emplearía un pincel o brocha, fabricado con pelo de caballo, agitado enérgicamente, salpicando la pared y dejando el hueco de la mano limpio. Los resultados tampoco fueron los esperados.

Al fin, y gracias a varios hallazgos cercanos a las pinturas en los que aparecían los instrumentos utilizados (un cuenco y dos pequeños huesecillos de ave huecos), la incógnita pudo ser despejada. Los hombres paleolíticos habían descubierto el denominado efecto Venturi algunas decenas de miles de años antes de que el reconocido físico italiano le pusiera su nombre.

Como diría nuestra amiga la Wikipedia, el efecto Venturi se explica por el principio de Bernoulli y el principio de continuidad de masa. Si el caudal de un fluido es constante pero la sección disminuye, necesariamente la velocidad aumenta tras atravesar esta sección. Por el teorema de la conservación de la energía mecánica, si la energía cinética aumenta, la energía determinada por el valor de la presión disminuye forzosamente.

Este efecto es fácilmente reproducible con instrumentos básicos: un par de pajitas pequeñas y un cuenco con algún pigmento desleído en agua. Uno de los tubitos ha de tener un extremo sumergido en el líquido, el otro se coloca perpendicular al anterior y junto a él, quedando los centros de los orificios, pues, perpendiculares y separados por un milímetro o menos. Se sopla enérgicamente y se produce la pulverización. Es exactamente la misma técnica de la que se sirven los aerógrafos actuales.

El antes y el ahora de la aerografía

El antes y el ahora de la aerografía

Físicamente, al soplar con fuerza por el tubo horizontal, la velocidad del aire hace que la presión disminuya en el extremo superior del tubo vertical. La diferencia de presiones resultante en ambos extremos de este tubo produce que la columna de tinte ascienda, empujada por la presión atmosférica. Cuando la pintura sube, se encuentra con el chorro de aire y se produce la salida pulverizada de la misma.

Las primeras manos en negativo conocidas se representaron en las cuevas de Cosquer (Marsella) y Gargas (Pirineos de Ariége) hace aproximadamente 27.000 años. Los principales conjuntos de este tipo de pintura prehistórica en la Península Ibérica se realizaron en fechas posteriores, coincidiendo con el Magdaleniense. Si bien es cierto que el foco más importante de manos en negativo se desarrolló en la región franco-cantábrica, existen importantes ejemplos en la Patagonia, Italia, Austria, Borneo, Norte de África, Urales o la India.

Aquellos antiguos habitantes de nuestro mundo nunca supieron lo importante que el efecto Venturi llegaría a ser para nuestras vidas actuales (carburadores de automóviles, pistolas de pintura, duchas de alta eficiencia, dispositivos antifugas para lavadoras, etcétera), pero tampoco supieron discernir la física del invento. Simplemente soplaban y utilizaban una tecnología que, probablemente, descubrieran por casualidad [modo 'Iker Jiménez' ON] les fuera entregada por seres inteligentes provenientes de otras dimensiones [modo 'Iker Jiménez' OFF].

Os dejo con un vídeo demostrativo en el que unas jovenzuelas colegiales explican perfectamente, y de una forma práctica, todo lo anteriormente comentado. Eso sí, con mucho guión y muy poquita naturalidad escénica, la verdad. Pero sirve.

Demostración del aerógrafo prehistórico

Una entrevista sobre informática en 1974

Börje Langefors

Börje Langefors

Existe un tomo titulado «Los ordenadores» perteneciente a la colección «Biblioteca SALVAT de grandes temas«, una recopilación del año 1974 (de la editorial SALVAT Editores, S. A.) que recoge en 52 pequeños volúmenes la realidad social de la época y los avances científicos y tecnológicos más importantes. El libro comienza con una entrevista a Börje Langefors, un ingeniero sueco que, a la sazón, era profesor de Business Information Systems en el Real Instituto de Tecnología de la Universidad de Estocolmo. De 1960 a 1965, este hombre presidió la Sociedad Sueca para el Tratamiento de la Información, posteriormente participó en el diseño de máquinas automáticas controladas por medio de ordenadores analógicos y digitales, en el diseño de elementos de aviones controlados informáticamente y desarrolló métodos matriciales para el análisis de sistemas y de estructuras mecánicas. Murió en diciembre del año 2009.

Lo curioso de esta entrevista que traigo hoy aquí es que, si hubiera sido realizada antes de ayer, sería totalmente creíble, válida y vigente. Con la excepción de algunos pequeños detalles y comentarios que apuntan claramente a un tiempo pasado, la verdad es que las inquietudes y los retos de aquellos expertos no eran muy distintas a lo que hoy mismo nos podemos encontrar, como es el caso de la seguridad informática, la educación en las aulas, la desaparición de puestos de trabajo humanos en favor de las máquinas o el monopolio de ciertas empresas.

Por otro lado, resulta asaz curioso comprobar la importancia que adquirían en aquel entonces (hace treinta y siete años) los avances en la comunicación con los ordenadores (el paso de tarjetas perforadas a teclados en terminales), el almacenamiento de datos en unidades de memoria cada vez más rápidas y de mayor capacidad o, también, la reducción drástica del tamaño de los procesadores que, efectivamente, implicaba una disminución del volumen de los propios equipos.

Una entrevista retro sin desperdicio alguno que paso a transcribir de forma íntegra.

¿Qué es un ordenador?

Intentaré no dar una definición demasiado estricta. Comúnmente se define como una máquina que tiene cierta capacidad de cálculo, combinada con la posibilidad de almacenar datos o programas, y que es capaz de modificar sus propios programas. Lo importante es que su memoria pueda almacenar tanto hechos relativos al mundo exterior como instrucciones.

¿Existen diferentes clases de ordenadores?

En un tiempo se decía que determinados ordenadores trataban los datos relativos a las empresas y que otros realizaban el trabajo científico. Hasta cierto punto esto ocurre todavía; pero, en la actualidad, estamos más interesados en la distinción entre los ordenadores que poseen gran capacidad de tratamiento de datos, ya sean industriales, comerciales o científicos, y los pequeños ordenadores.

Hoy día los miniordenadores tienen una extraordinaria capacidad de cálculo en cualquier campo. Prácticamente pueden hacerlo todo. Hasta cierto punto son más universales, porque se les pueden añadir equipos externos (periféricos) que les permiten adaptarse a tareas muy diversas.

Existe una tercera categoría: la de los microordenadores, cuya unidad central de cálculo es tan reducida que la podríamos colocar en la uña del dedo pulgar; tienen la ventaja de que se puede introducir directamente esa unidad central en una máquina o en un instrumento, y se emplean para realizar cálculos especializados en el interior de la máquina.

Teníamos la impresión de que había dos tipos de ordenadores: los que calculan y los que proceden por analogía.

En efecto. Cuando hablamos de ordenadores, solemos pensar en los numéricos o digitales, que realizan cálculos exactos como las máquinas de calcular mecánicas de oficina. Pero, en determinados casos, utilizamos ordenadores analógicos, los cuales, en lugar de hacer cálculos, realizan una especie de modelo eléctrico del fenómeno que se desea estudiar. Pero estos ordenadores son de empleo más limitado. Ciertos modelos reales parecen difíciles de traducir en circuitos eléctricos.

¿Cuáles son las principales técnicas, recientemente introducidas, que se emplean en el campo de los ordenadores?

Desde el punto de vista tecnológico, físico, las principales innovaciones afectan a los equipos que reciben los datos procedentes de los utilizadores del ordenador, así como a los equipos que transmiten a estos los datos obtenidos por aquel o los resultados de los cálculos efectuados. Estos equipos deben traducir el lenguaje comprensible para los humanos en un lenguaje comprensible para la máquina, y viceversa.

Una innovación reciente, muy interesante por cierto, consiste en reemplazar las técnicas de entrada y salida tradicionales (fichas perforadas, etc.) por terminales unidos directamente al ordenador, de forma que el utilizador puede enviar sus mensajes al ordenador sólo con pulsar un teclado parecido al de una máquina de escribir, y el ordenador puede contestarle al instante, darle las soluciones o decirle que falta tal o cual dato.

Trabajadora en un centro de cálculo

Trabajadora en un centro de cálculo

Aunque esto parezca solamente un pequeño cambio técnico, supone una gran ventaja: para utilizar un ordenador era indispensable, hasta hace poco, presentar las preguntas de manera estrictamente lógica; una simple falta de ortografía podía retrasar el proceso todo un día, hasta que se averiguaba que el ordenador no había comprendido el mensaje. Ahora es posible preguntar al ordenador qué sabe de un asunto concreto, y éste puede responder preguntando sobre qué materia se le cuestiona; de esta forma, al no ser ya necesario conocer el lenguaje específico del ordenador, se pueden sostener con él conversaciones más parecidas a las que tenemos entre nosotros los humanos.

Existen también varias técnicas nuevas para almacenar datos en las memorias rápidas, y es posible utilizar una especie de depósitos suplementarios de datos cuando estos tienen que almacenarse en cantidades muy grandes. Esas memorias suplementarias son más lentas, pero tienen mayor capacidad. Se trata de algo similar a la organización de nuestro cerebro, que puede encontrar rápidamente ciertos datos, pero que para otros necesita más tiempo.

¿En qué medida los ordenadores pueden modificar las actuales formas de trabajo?

Creo que el ordenador tiene mucho que ofrecernos en este campo. Cuando hay que resolver un problema complicado, si usted es un ingeniero, intenta aplicar métodos matemáticos para su resolución. Hay personas que no son aptas para utilizar el pensamiento abstracto y, en consecuencia, se ven excluidas de ciertos trabajos.

Pero ahora parece que puede usted aprender a solucionar de manera práctica determinadas categorías de problemas. Por ejemplo: hemos utilizado ordenadores analógicos para resolver un problema de vibraciones mecánicas en los aviones, que es un asunto bastante matemático. Me di cuenta de que algunos de mis ayudantes podían tratar ese problema; aunque no tenían una preparación matemática suficiente habían adquirido bastante experiencia en el trabajo con modelos analógicos o como radioaficionados.

Un ordenador moderno, con sus terminales, puede enseñar a las personas a resolver problemas especiales utilizando las posibilidades de diálogo de las que está dotado.

Actualmente se plantea el problema de que gran número de trabajadores pueden ser reemplazados por máquinas automáticas, por controladores automáticos. Esto daría origen a un aumento considerable del número de parados…

Es un problema muy importante. Cuando tenemos la posibilidad de automatizar nuevas operaciones, determinar si queremos utilizar esa posibilidad o no es una decisión de carácter político. Pero si no detenemos el progreso, si queremos aprovecharlo, ello significa que podemos producir una misma cantidad de artículos con la mitad de mano de obra. Entonces podemos decidir o bien producir más objetos con la misma cantidad de trabajo humano (entonces no habrá paro, pero podemos destruir la Tierra por un exceso de producción y, en consecuencia, de detritos), o bien que no queremos más objetos, que preferimos detener el crecimiento.

Si continuamos automatizando, dispondremos progresivamente de más tiempo libre para dedicarlo a otras cosas; para el ocio, por ejemplo.

¿Cuál es la utilidad de los ordenadores en las empresas, y cuál es el resultado de su introducción y su empleo?

Es una pregunta muy difícil de responder. Durante muchos años hemos vendido demasiados ordenadores. Primero introdujimos los ordenadores en aplicaciones que podríamos llamar ordinarias: contabilidad, salarios, producción… Luego evolucionamos en direcciones más complejas. Creo que cometimos un error fundamental al pensar que las tareas cotidianas tenían poca importancia. Eran comunes únicamente desde un punto de vista matemático, o tecnológico.

Lectora de discos

Lectora de discos

Debido a este error encontramos muchas dificultades que no estaban previstas. En primer lugar, los ordenadores eran demasiado numerosos para las aplicaciones simples o fragmentarias a que podían adaptarse; el trabajo humano que ahorraban no compensaba los gastos de los ordenadores y de los especialistas. Más tarde, cuando bajaron los precios, tratar las tareas cotidianas mediante ordenadores empezó a ser ventajoso, hasta tal punto, que la mayor parte de las grandes empresas no podrían existir sin los ordenadores.

Entonces se advirtió que las pequeñas aplicaciones separadas resultarían mucho más económicas si se las podía integrar, coordinándolas. El ordenador podría utilizar unos mismos datos para diversas aplicaciones.

En el aspecto de la integración se consiguieron economías mucho mayores. Pero cuando, al principio, se intentó integrar distintos trabajos, se descubrió que no daba resultado porque las diferentes tareas no eran compatibles entre sí. Tuvimos que pasar unos años modificando las distintas tareas para poder integrar diversas aplicaciones; se crearon grandes sistemas integrados: control de producción, control de material almacenado, contabilidad, salarios… Y luego se descubrió que los sistemas integrados no eran viables. Pero eso permaneció en secreto, porque los que habían dirigido el desarrollo de tales proyectos, muy costosos, no podían confesar tranquilamente que la idea había sido un fracaso absoluto. De modo que empezaron a desintegrar discretamente los sistemas integrados para poderlos conservar en vida.

Esto ocurrió por dos razones fundamentales: la primera es que los sistemas no se estructuraron con la suficiente profundidad y claridad; un sistema puede seguir funcionando si el tiempo que se necesita para introducir un cambio en el mismo es, por término medio, más corto que el tiempo que separa dos necesidades de cambio. Cuanto mayor sea un sistema, y peor estructurado esté, más aumenta el tiempo necesario para esas modificaciones, y si no se es capaz de hacer todos los cambios necesarios antes de que se requiera otra modificación, todo se va al agua.

La segunda razón es que no se tuvieron en consideración las necesidades reales de los utilizadores. Los sistemas muy complicados no se pueden concebir de manera perfecta, porque se carece de experiencia. Por esta razón, cualquier sistema complejo debe tener obligatoriamente algunos defectos y, en consecuencia, dependerá por completo de un personal bien informado y familiarizado con él. Esta es la única forma de que realmente pueda llegar a funcionar. No hace falta que esas personas saboteen el trabajo, basta con que ayuden al sistema para que provoquen la catástrofe y el fracaso.

¿Nos permitirá la informática desarrollar métodos y aproximaciones de decisiones perfectas y lógicas en las empresas, tanto en el plano técnico como en el socioeconómico?

Creo que hace algunos años, cuando empecé a enseñar en la Universidad de Estocolmo, ya consideraba esta pregunta cuestión de importancia capital para la investigación. Pensaba que había una posibilidad de desarrollar sistemas informáticos mayores y más integrados y, al mismo tiempo, desarrollar un mejor método teórico de optimización matemática; esa acción conjugada podría conducir a grandes sistemas integrados del todo y ampliamente optimizados de dirección y de control de empresas.

Empecé por preguntarme si era factible. Pronto me di cuenta de que no lo era. Y existen varias razones: una, quizá la principal, es que cuando llegas a las decisiones más generales para una organización cualquiera, no tienen un fin único, un solo objetivo. Por ejemplo, si el director de una empresa me dice que su único objetivo es la búsqueda del máximo aprovechamiento, que es lo que muchas personas dicen todavía, esto me sitúa inmediatamente ante dos objetivos: aprovechamiento actual y aprovechamiento futuro. Y en la mayoría de los casos ello es contradictorio, ya que los caminos que se han de seguir no son los mismos para corto, medio o largo plazo. De modo que no puedes utilizar modelos matemáticos a menos que los responsables presentes algunas evaluaciones cuantitativas sobre la importancia relativa, para ellos, de dichos aprovechamientos en los distintos períodos.

Además, cuando se discute el asunto a fondo con un responsable, uno se da cuenta de que busca, por ejemplo, no sólo el aprovechamiento, sino además el crecimiento, el aumento. Cuanto más estudias el problema más compruebas que los responsables del nivel más alto persiguen varios objetivos. Un director puede escoger un objetivo en un momento dado, pero hay que saber por qué un objetivo es más importante en ese momento.

Controladora de discos magnéticos

Controladora de discos magnéticos

Las más de las veces no puedes obtener una información cuantitativa de los responsables, los cuales no saben, de hecho, qué desean realmente. Y esto no puede ser de otro modo, ya que si un objetivo es lo más importante para uno en un momento dado, puede no serlo al día siguiente. Si, por ejemplo, no estaba previsto conseguir un aprovechamiento satisfactorio este año en la empresa, el primer objetivo será alcanzarlo. Pero si se confiaba en obtener fácilmente un máximo aprovechamiento este año, entonces se descubrirá que hay cosas más importantes, como, por ejemplo, una estrategia para el futuro. De hecho, los directores no deberían decir tan solo el valor relativo que atribuyen a los diferentes objetivos, sino también de qué manera prevén la evolución de las relaciones entre esos diversos objetivos. Y esto es, de nuevo, inconcebible, y hace imposible la realización de la idea.

Surge ahora una pregunta: ¿no podemos hacer nada para ayudar a las personas que tienen que tomar esas decisiones? La conclusión precedente era demasiado pesimista. Realmente, podríamos, gracias a un sistema de informática, más dinámico que la realización de los modelos matemáticos, ayudar a los que deben tomar esas decisiones dándoles mayor información y presentándoles imágenes más claras del desarrollo de sus diversos objetivos.

De modo que podemos ofrecer mucho a los dirigentes, pero el objetivo no puede ser hacernos cargo de sus decisiones. La mayor parte de las decisiones importantes se adoptan en circunstancias críticas ante hechos desconocidos hasta el momento. Por el contrario, existen amplios campos, como el del control de la producción, de los que se puede hacer cargo por completo el ordenador. Pero aunque esos ámbitos sean amplios, no son forzosamente los más importantes. Parece que toda organización sufre cada tres años una situación crítica y, entonces, se ve obligada a tomar serias decisiones de cara al futuro. Eso parece ajeno por completo a las funciones del ordenador, fuera de su alcance, simplemente porque no puede saber por adelantado lo que ocurrirá en el mundo exterior y porque en esas situaciones críticas la redefinición de objetivos planteará de nuevo problemas insolubles. Sin embargo, el ordenador podrá presentar situaciones simuladas, calcular lo que ocurrirá si hace esto o aquello.

¿Cree usted que la informática invadirá y amenazará la vida privada? ¿Deben establecerse reglas, leyes, para la defensa del individuo?

Esto es importante, sin duda, pero se trata, en esencia, de una cuestión política y un problema técnico. A mi modo de ver, la única razón para ser prudente ante el ordenador reside justamente en el hecho de que éste nos aporta tantas cosas útiles que debemos impedir que se haga peligroso. Si únicamente fuera peligroso, perjudicial, podríamos destruirlo. Nuestro problema está en decidir «cuántos informes deben conocerse sobre nuestra persona».

Por eso debemos estudiar atentamente las leyes, las reglas que habrá que establecer respecto a este asunto. Y esas reglas no deberán frenar ni detener un desarrollo útil.

En el campo de la educación, ¿cuáles son las directrices y los principios que deben tenerse en cuenta para utilizar correctamente la informática? ¿Se podría llegar a eliminar a los profesores? ¿Cuál es la asistencia que aporta un ordenador a la enseñanza actual? ¿Hasta dónde se puede llegar en esa dirección?

Se puede hacer mucho. Ya me he referido a ese problema al decir que las personas pueden aprender realizando experiencias prácticas en un terminal. Utilizando esos terminales es posible la experimentación en casos en que antes no lo era. Y existen muchos ámbitos. Cuando, por ejemplo, queremos enseñar los métodos matemáticos de toma de decisiones o la optimización lineal, sería mucho más eficaz para los estudiantes no sólo leer, sino disponer de un terminal y de una programación para ello, y hacer muchos más cálculos, probar más hipótesis y adquirir un sentimiento experimental más concreto de diversos modos de decisión.

¿Qué ocurre con las enseñanza programada?

Eso nos devuelve a una pregunta anterior: ¿se podrían suprimir los profesores? Gran cantidad de los errores cometidos en muchas empresas (y que han costado miles de dólares, millones, a cada una de ellas) al intentar poner en marcha sistemas sin comprenderlos suficientemente, se habrían evitado si se hubiera dejado a los profesores el tiempo necesario para adquirir esa comprensión, esa inteligencia del problema. En ese ámbito de la enseñanza programada, nosotros hemos puesto en marcha, aquí, una sección. Nos encontramos con que, en vez de analizar primero sistemáticamente el problema y mirar lo que puede no puede hacerse, la gente empezó a trabajar enseguida; es la línea que se sigue en Estados Unidos.

Hubo tantos proyectos mal estructurados que, al final, se desacreditó el conjunto de esa rama. Creemos que esto no se halla justificado y, en la actualidad, avanzamos con mucha prudencia.

Siguiendo el camino clásico para comprender y aprender la programación, lees un capítulo de un libro, intentas comprender su contenido e inmediatamente vas al ordenador, haces un programa. Por ejemplo, lo haces por la tarde. A la mañana siguiente te das cuenta de que cometiste un error al principio y todo el resto está en blanco. Si puedes dialogar con el ordenador, no necesitas leer un capítulo entero: desde el momento que crees haber comprendido algo, hace el test en el acto. Cuando lees todo un capítulo e intentas aplicarlo, descubres a menudo que comprendiste mal parte de lo que se dice en él.

Cableado de una computadora (¡menudo lío!)

Cableado de una computadora (¡menudo lío!)

Habrás almacenado en tu cabeza algo parcialmente falso y tendrás que hacer un esfuerzo más o menos prolongado para desprenderte de ello. Con el diálogo se pueden evitar muchos equívocos e incomprensiones. Es posible que no tenga tantas ventajas como se había creído antes, pero creo que, en la enseñanza programada, las experiencias fallidas de que antes hemos hablado fueron llevadas a cabo con tanta incompetencia, que no hace falta sacar conclusiones demasiado pesimistas.

Existe prácticamente una situación de monopolio en el campo de la informática. ¿Cómo es que IBM y algunos otros pueden llegar a controlar la aparición de nuevos procedimientos?

Es realmente un peligro. IBM tiene una preponderancia total en el mercado. Yo tenía que vender los productos de la informática sueca. Pensaba poder utilizar argumentos razonables, pero los clientes me contestaban: «Seguramente se equivoca, porque no es lo que dice IBM«. Los productores más poderosos tienen tendencia a comprar los inventos que les puedan hacer la competencia. Por el contrario, parece que IBM defiende en cierto modo a las otras compañías: no intenta expulsarlas del mercado, sino que pone precios muy altos a sus artículos, lo que permite mantenerse en liza a la competencia más pequeña. Esto permite también cierta capacidad de innovación.

Es posible que se evolucione hacia una situación más competitiva. Me parece que los miniordenadores y los microordenadores permitirán romper algo el monopolio tradicional.

¿Cuáles son las condiciones de desarrollo de una industria europea de informática?

Personalmente creo que las redes de pequeños ordenadores harán la competencia a los grandes ordenadores centralizados. Se exagera la economía que resulta de la dimensión de los ordenadores. Los precios de los ordenadores evolucionan muy favorablemente. ¡E incluso los miniordenadores están amenazados por los microordenadores! La situación está cambiando: son únicamente los grandes ordenadores los difíciles de producir por los pequeños fabricantes. Además, no existirá la necesidad de grandes ordenadores. Incluso una sociedad que necesite mucho de la informática se dará cuenta de que es más interesante aumentar su capacidad de tratamiento de datos con los pequeños ordenadores, que descargan de trabajo a los grandes.

¿Cuál será la evolución de la informática en un futuro próximo?

Hay una tendencia general: la rápida disminución del coste y de las dimensiones de las unidades centrales de cálculo. También existe un gran desarrollo de la tecnología de la memoria de los grandes bancos de datos. Somos capaces de almacenar muchos más datos y de encontrarlos más rápidamente. Se pueden aplicar métodos más avanzados para el acceso a las informaciones y a su utilización. Por ejemplo, se desarrolla lo que se llama inteligencia artificial: si inyectas ciertos hechos, el ordenador puede sacar conclusiones y deducir otros hechos. El problema está en que, si deseas utilizar un gran banco de informaciones, eso puede llevar cierto tiempo, y la respuesta llegará demasiado tarde. Pero con unidades centrales de tratamiento más rápidas y menos costosas, y con memorias más baratas y más rápidas, esas posibilidades se desarrollarán.

Operadores con las memorias de cinta

Operadores con las memorias de cinta

Todavía resultará más fácil comunicarse con el ordenador. El ordenador será también capaz de programarse a sí mismo; hoy día nosotros escribimos un programa que saca conclusiones de unos hechos. Si el ordenador es capaz de sacar por si solo estas conclusiones, podremos economizar en gran manera nuestro trabajo de programación.

Gracias a esas facilidades de utilización, un número creciente de personas tendrá acceso a los bancos de datos cada vez en más lugares. Este desarrollo permitirá, tal vez, que lleguemos a tener terminales en cada hogar, como el teléfono.

Cuando se quiera enseñar el empleo del ordenador en la escuela, no será forzoso aprender la programación, pero seguramente habrá que enseñar a utilizar un terminal.

V I R I I

Un thriller ciberpunk retrotecnológico de conspiraciones, resistencia digital y ciudades ahogadas en neón, humedad rancia y corrosión.

[Jonathan Préstamo Rodríguez]

COMPRAR EN AMAZON

<script>» title=»<script>


<script>

Utilizamos cookies propias y de terceros para mejorar la experiencia de navegación. Más información.

ACEPTAR
Aviso de cookies