Disponible la nueva versión "donationware" 7.3 de OrganiZATOR
Descubre un nuevo concepto en el manejo de la información.
La mejor ayuda para sobrevivir en la moderna jungla de datos la tienes aquí.

Notas sobre Internet

[Home]  [Inicio]  [Índice]


 Prev.

8.2.3  Tipos de ficheros y otras cuestiones -II


§2.4  El movimiento de Software Libre
(Free Software Movement)

Aparte de los contenidos freeware y shareware antes mencionados, a principios de los 90 apareció en el mundo informático un movimiento denominado de Software Libre, iniciado por un estudiante del MIT,  Richard Stallman, que introdujo un nuevo concepto en las formas y modos de desarrollar, publicar y en cierta forma "comercializar" el software. Este sistema, conocido por sus iniciales GNU, se basa en un curioso concepto del copyright.  La esencia del mismo puede resumirse en que cada cual puede utilizar y modificar libremente el software, a condición que publique su código y lo ponga a disposición del resto de la comunidad de la misma forma [3].

Esta forma de uso se denomina Licencia Pública General GPL ("General Public License"), y estipula que los programas "libres" son propiedad de sus autores y deben ser distribuidos en su código fuente. Según los términos de esta licencia, cualquiera puede comercializar un programa libre, incluso con sus propias modificaciones, pero no tiene derecho a apropiárselo para sí solo. De esta forma se garantiza que estos programas estén disponibles para todo el mundo, garantizando la perpetuidad de su estatus.

Stallman publicó sus intenciones e ideas en un artículo aparecido en 1984. El documento ha sido traducido a casi todas las lenguas y es ahora mundialmente conocido como "El manifiesto GNU" ( www.gnu.org). Su objetivo, conseguir un sistema de Software libre y gratuito incluyendo tanto Sistemas Operativos como programas de aplicación de todo tipo. Para desarrollar su proyecto inició una fundación sin ánimo de lucro, denominada Free Software Foundation cuya misión sería recabar ayudas para desarrollar el proyecto.

Nota:  Aparentemente las iniciales GNU no significan nada.  Todo lo que sabemos sobre las mismas en palabras del propio Stallman es lo siguiente:  "GNU, which stands for Gnu's Not Unix, is the name for the complete Unix-compatible software system which I am writing so that I can give it away free to everyone who can use it. Several other volunteers are helping me. Contributions of time, money, programs and equipment are greatly needed".

Más información en:

GNU    www.gnu.org/

Free Software Foundation   www.gnu.org


Para entender todo este movimiento hay que recordar que a mediados de los 80 todo el software disponible era propiedad de las pocas compañías fabricantes de ordenadores de entonces, de forma que después de un cierto tiempo de su uso, las empresas que los habían adquirido eran en cierta forma "prisioneras" de los fabricantes, ya que los programas de aplicación desarrollados por la empresa, y las bases de datos e información histórica correspondientes, se hacía cada vez más importante. Y solo corría en las máquinas del fabricante.

Un método muy común para forzar periódicamente a los clientes a renovar su parque de máquinas por nuevos y costosos modelos, era subir anualmente el costo del contrato de mantenimiento (obligatorio) para los equipos antiguos. En ocasiones estas prácticas rozaban la tiranía, ya que los costos y problemas de un cambio de proveedor eran tales que muy pocos directores de informática ("mecanización" como se llamaba entonces) se exponían a este riesgo. Los Sistemas Operativos de cada fabricante eran totalmente incompatibles entre sí, así como los formatos de ficheros, la filosofía de operación, los lenguajes, etc. Ni siquiera había seguridad que la cinta magnética grabada en un sistema pudiera ser leída por otro.

A continuación se incluyen unos comentarios [4] de David Solomon Bennahum (  www.memex.org/ ), publicados en Community Memory, lista de discusión sobre la historia del ciberespacio www.memex.org, que exponen con más claridad de lo que yo pudiera hacerlo, los antecedentes y circunstancias que rodearon los comienzos del movimiento.

Of at least as much interest as Internet's technical progress in the 1990s has been its sociological progress.  It has already become part of the national vocabulary, and seems headed for even greater prominence.  It has been accepted by the business community, with a resulting explosion of service providers, consultants, books, and TV coverage.  It has given birth to the Free Software Movement.

The Free Software Movement owes much to bulletin board systems (BBS), but really came into its own on the Internet, due to a combination of forces.  The public nature of the Internet's early funding ensured that much of its networking software was non-proprietary.  The emergence of anonymous FTP sites provided a distribution mechanism that almost anyone could use.  Network newsgroups and mailing lists offered an open communication medium.  Last but not least were individualists like Richard Stallman*, who wrote EMACS, launched the GNU Project and founded the Free Software Foundation*. In the 1990s, Linus Torvalds wrote Linux, the popular (and free) UNIX clone operating system.

For those list members interested in Richard Stallman, and the Free Software Foundation [5], I did an interview with him in 1996 and a transcript of that conversation is available for you www.memex.org.

The explosion of capitalist conservatism, combined with a growing awareness of Internet's business value, has led to major changes in the Internet community.  Many of them have not been for the good.

First, there seems to be a growing departure from Internet's history of open protocols, published as RFCs. Many new protocols are being developed in an increasingly proprietary manner. IGRP, a trademark of Cisco Systems, has the dubious distinction as the most successful proprietary Internet routing protocol, capable only of operation between Cisco routers. Other protocols, such as BGP, are published as RFCs, but with important operational details omitted. The notoriously mis-named Open Software Foundation has introduced a whole suite of "open" protocols whose specifications are available - for a price - and not on the net. I am forced to wonder: 1) why do we need a new RPC? and 2) why won't OSF tell us how it works?

People forget that businesses have tried to run digital communications networks in the past.  IBM and DEC both developed proprietary networking schemes that only ran on their hardware. Several information providers did very well for themselves in the 80s, including LEXIS/NEXIS, Dialog, and Dow Jones. Public data networks were constructed by companies like Tymnet and run into every major US city.  CompuServe and others built large bulletin board-like systems. Many of these services still offer a quality and depth of coverage unparalleled on the Internet (examine Dialog if you are skeptical of this claim).  But none of them offered nudie GIFs that anyone could download. None of them let you read through the RFCs and then write a Perl script to tweak the one little thing you needed to adjust. None of them gave birth to a Free Software Movement.  None of them caught people's imagination.

The very existence of the Free Software Movement is part of the Internet saga, because free software would not exist without the net. "Movements" tend to arise when progress offers us new freedoms and we find new ways to explore and, sometimes, to exploit them. The Free Software Movement has offered what would be unimaginable when the Internet was formed - games, editors, windowing systems, compilers, networking software, and even entire operating systems available for anyone who wants them, without licensing fees, with complete source code, and all you need is Internet access.  It also offers challenges, forcing us to ask what changes are needed in our society to support these new freedoms that have touched so many people. And it offers chances at exploitation, from the businesses using free software development platforms for commercial code, to the Internet Worm and the security risks of open systems.

People wonder whether progress is better served through government funding or private industry.  The Internet defies the popular wisdom of "business is better". Both business and government tried to build large data communication networks in the 1980s. Business depended on good market decisions; the government researchers based their system on openness, imagination and freedom. Business failed; Internet succeeded. Our reward has been its commercialization.

§3  Técnicas auxiliares

Muchos elementos software, especialmente programas, no se componen en realidad de un solo fichero sino de varios (a veces muchos), aunque por razones de comodidad y rapidez se pueden empaquetar mediante programas especiales en un único archivo que es el que se transmite y viaja por la red. Una vez en su destino, un procedimiento inverso restituye la individualidad de cada componente, con lo que pueden ya utilizarse o instalarse en el ordenador de destino.

Las técnicas de compresión de ficheros (para ahorrar espacio de almacenamiento) son conocidas desde antiguo en la informática, pero la popularización de la Web y su inmenso trafico de datos, las ha vuelto a poner en candelero. Desde el punto de vista de la Red, los programas de compresión y empaquetado [6] de ficheros presentan una doble ventaja:

  • Gracias a las técnicas de compresión empleadas, el resultante total es siempre menor que la suma de las partes, lo que significa transmisiones más rápidas y menor exigencia de espacio de almacenamiento en servidores y clientes.

  • Al empaquetar todos los elementos de una aplicación en un solo fichero no existe riesgo de que se pierda algún elemento, que nos olvidemos descargarlo, que confundamos un componente antiguo con el de una actualización, etc.

Además, algunos de estos programas añaden utilidades adicionales. Por ejemplo: pueden imponer una cierta técnica de cifrado de los contenidos, de forma que el fichero resultante solo puede volverse a su estado original conociendo la clave utilizada, lo que supone un valor añadido en lo que a seguridad de las transmisiones se refiere.

Al margen de su utilidad como vehículo o excipiente para las transmisiones, este tipo de programas resultan útiles incluso para el almacenamiento de datos en el propio ordenador, ya que al margen de la compactación, la agrupación de múltiples ficheros en uno solo tiene beneficios añadidos desde el punto de vista de la optimización de los almacenamientos de disco, sobre todo en unidades de gran capacidad con clusters de gran tamaño. Máxime cuando, a pesar de estar compactados, los ficheros mantienen casi intacta su accesibilidad y operatividad (como ocurre en el caso que comentamos a continuación).

Existen muchos y muy buenos programas de este tipo, algunos con especial énfasis en las capacidades de compresión, en la velocidad, en la seguridad, etc. Pero de todos ellos, el que aquí comentamos se ha convertido de facto en una especie de estándar mundial en lo que se refiere a las transmisiones de ficheros en Internet. Realmente se trata de una de las herramientas que no debe faltar en el taller de cualquier buen internauta.

WinZip   www.winzip.com 

Programa shareware de Nico Mak Computing Inc. Reúne todas las opciones para hacerlo sumamente interesante, entre ellas la posibilidad de empaquetar múltiples ficheros en uno solo (los populares ficheros .ZIP) que puede ser auto extraíble, es decir, el receptor no necesita ninguna utilidad adicional para restituir el contenido (el fichero puede desempaquetarse a sí mismo). Permite añadir una clave de acceso al fichero resultante, con lo que puede aumentarse la seguridad en las transmisiones [7]. No solo comprime ficheros (con buenos índices de optimización), también directorios completos y sus contenidos, manteniendo su estructura al restituirlos. Permite ver y restituir los contenidos individualmente (los ficheros individuales) sin necesidad de desempaquetar la totalidad.

En ocasiones, cuando se descargan aplicaciones, en vez de un fichero .ZIP, se reciben ficheros ejecutables (EXE); se trata también de ficheros comprimidos auto extraíbles, cuya única misión al ejecutarse es desempaquetar los elementos integrantes e iniciar el proceso de instalación del software en el ordenador anfitrión, aunque en este caso es poco lo que puede hacerse para ver el contenido (no tienen tantas opciones como los ficheros ZIP). En cualquier caso, una vez realizada la instalación puede borrarse el fichero original .exe o .zip (salvo que deseemos guardarlo por cuestiones de seguridad).

  Inicio.


[3]  El resultado más conocido y exitoso de esta fórmula ha sido Linux. Iniciado por Linux Thorwald, que creó el núcleo de este sistema operativo y lo puso en la Red a disposición de todo el que quisiera utilizarlo bajo la licencia GNU.

[4]  Respetamos el original inglés.  Los comentarios y subrayados son nuestros.

[5]  No confundir con la Open Software Foundation.

[6]  Por compresión entendemos reducir el tamaño resultante de un fichero mediante algoritmos adecuados. La compactación se refiere a la agrupación de varios ficheros en uno solo esté o no acompañada de una compresión previa de los elementos integrantes. En el capítulo 10 se comentan mas extensamente estas cuestiones.

[7]  Si utiliza este programa y ha olvidado la contraseña de algún fichero comprimido, quizás este programa pueda ayudarle: Advanced ZIP Password Recovery. Es una utilidad shareware que ayudará a recuperarlos. El programa extrae las contraseñas de ficheros ZIP, usando el ataque basado en la "fuerza bruta". Su capacidad es de diez millones de contraseñas por minuto (en un Pentium 166).

 Prev.