27/6/09

EL SOFTWARE

EL SOFTWARE

Denominamos software a los elementos lógicos de los ordenadores, es decir, los programas que utilizan los ordenadores. Los programas que hacen funcionar los ordenadores no tienen una naturaleza física. Aunque que es pueden trasladar a diferentes soportes (disco, cinta, papel...) su naturaleza es sólo lógica, son simples listados que indican al ordenador como ha de realizar determinados trabajos. El proceso para la elaboración de un programa es muy laborioso e incluye las siguientes etapas:

- Estudio del problema o trabajo que queremos que resuelva el ordenador, análisis y determinación de las partes en que se puede descomponer. 
- Elaboración del algoritmo del programa, es decir, descripción detallada (en cualquier lenguaje) de las acciones que el ordenador ha de ejecutar para realizar el trabajo.
- Elaboración del programa: traducción del algoritmo a un lenguaje que pueda entender el ordenador .

Podemos distinguir varios tipos de programas : 

- Los lenguajes de programación. Son los lenguajes que se utilizan para escribir programas, es decir, para programar. Podemos distinguir tres tipos:

- Lenguajes de nivel máquina: Sólo usan signos 0 y 1. Resulta muy lento y complicado programar con ellos.

- Lenguajes ensambladores (assembler):
más fáciles que los anteriores ya que usan códigos nemotécnicos.

- Lenguajes de alto nivel: son lenguajes próximos a nuestro lenguaje habitual. Facilitan la programación. Los lenguajes de alto nivel más utilizados son:

- FORTRAN (FORmula TRANslation): Lenguaje adecuado a trabajos científicos a partir del 1954.

- COBOL. Muy utilizado en el mundo empresarial a partir del 1959, especialmente para realizar trabajos administrativos.

- BASIC (Beginners All-purpose Symbolic Instruction Code). Creado el año 1965 por Kemeny y Kurtz (USA), Es un lenguaje de uso general muy fácil de usar, el más difundido entre los microordenadores. La versión VISUAL BASIC (Microsoft) permite programar en Windows .

- PASCAL. Concebido por el suizo Niklaus Wirth y difundido a partir de 1971, Es un lenguaje de programación estructurado de uso general. Resultan especialmente potentes y manejables las versiones TURBO PASCAL (Borland).

- LOGO. Nace en el año 1971 de la mano de Seymor Papert (discípulo del psicólogo suizo Jean Piaget ). Es un lenguaje muy útil en el ámbito educativo ja que permite al alumno aprender activamente con el ordenador mediante la construcción y exploración de micromonos, el más conocido de los cuales es el micromundo de la tortuga.

- C. Lenguaje estructurado de uso general, parecido al PASCAL, que asegura la transportabilidad de los programas entre ordenadores diferentes.

- Toolbook: es un lenguaje de autor que facilita la programación en los entornos WINDOWS y MAC SYSTEM . Permite realizar programas multimedia y hipertext.

-PROLOG (PROgraming in LOGic). A diferencia de los anteriores, que son lenguajes procedimentales, PROLOG pertenece al grupo de los lenguajes declarativos. Se utiliza mucho en el campo de la Inteligencia Artificial.

Como los ordenadores sólo entienden el lenguaje máquina, cuando se programa con ensambladores o lenguajes de alto nivel es necesario usar programas traductores que traduzcan el programa acabado a lenguaje máquina .

- Los sistemas operativos (operating systems) son un conjunto de programas informáticos que se encargan de la comunicación entre la Unidad Central y sus periféricos (teclado, pantalla, unidades de disco...) y nos permiten controlar el ordenador. Este control se realiza mediante una serie de comandos que ordenan acciones como: ver el contenido de un disco, borrar la pantalla, copiar discos... Según el número de terminales del ordenador distinguimos:

- Sistemas operativos monousuarios: sólo permiten el trabajo de un único usuario delante del ordenador, como el MS/DOS, WINDOWS

- Sistemas operativos multiusuarios: permiten el trabajo simultáneo de diversos usuarios en terminales diferentes, como el UNIX y el XENIX .

Si consideramos los trabajos que el ordenador puede procesar a la vez podemos distinguir dos tipos de SISTEMAS OPERATIVOS:

- Sistemas operativos monoproceso, que hacen los trabajos sucesivamente, uno detrás del otro, como el MS/DOS.
- Sistemas operativos multiproceso, que permiten hacer al ordenador diversos trabajos en paralelo a la vez, como por ejemplo los sistemas: OS/2 y WINDOWS .

Los sistemas operativos que se han utilizado más en los ordenadores personales han sido: 

- MS/DOS. El sistema operativo MS/DOS actualmente ya en desuso. Algunos de sus comandos son los siguientes:

- DIR: muestra los ficheros y directorios que contiene un disco.
- FORMAT: realiza el formateo de los discos.
- DISKCOPY: realiza una copia completa de un disquete.
-COPY: copia algunos ficheros de un disco.
- MD: permite crear nuevos directorios en el disco.
- CD: permite enviar de directorios.
- ERASE: elimina ficheros del disco .

- MAC OS/SYSTEM.
Es el sistema operativo de los ordenadores Macintosh. Su entorno de trabajo ha sido siempre un modelo en cuanto a facilidad de uso. Sus principales elementos son los mismos de WINDOWS.

- WINDOWS. El sistema operativo WINDOWS, es el más extendido actualmente en todo el mundo. Actúa como un sistema operativo que mejora las prestaciones ofrecidas por el sistema operativo MS/DOS y ofrece un entorno de trabajo más intuitivo y amigable. Sus principales elementos son:

- Menús: a través de los cuales se seleccionan las acciones a realizar.
- Ventanas (windows): espacios donde se muestra la información y se realizan los trabajos.
- Iconos: con los que se representan las acciones que se pueden realizar y los programas disponibles

Todos los programas disponibles que funcionan con el sistema WINDOWS acostumbran a tener una estructura de menús similar, de manera que se facilita su aprendizaje .

- LINUX. Sistema operativo gratuito, que se va extendiendo lentamente.

- Aplicaciones de uso general. Las APLICACIONES DE USO GENERAL (también llamadas aplicaciones horizontales o software de base) son programas que resultan de utilidad en el desarrollo de muchas actividades humanas diferentes. Los más utilizados son:

- Los PROCESADORES DE TEXTOS (Word processing) son programas que facilitan la edición de textos, cartas, documentos... Actualmente el más utilizado es el Microsoft Word. Con la ayuda de una impresora convierten el ordenador en una potente y sofisticada máquina de escribir que, entre otras funciones permite:

- Justificar automáticamente márgenes.
- Borrar, corregir y añadir frases a cualquier lugar de un documento.
- Almacenar los documentos en el disco y sacar copias.
- Hacer una corrección ortográfica.
- Editar cartas personalizadas.

- Los GESTORES DE BASES DE DATOS se usan para la creación, modificación y archivo de documentos y fiches sobre muy diversos temas, y permiten la búsqueda, clasificación y listado de las informaciones. Podemos distinguir dos tipos de bases de datos:

- B.D. Documentales, especializadas en la gestión de grandes volúmenes de información documental: resúmenes de libros, artículos de periódicos... Por ejemplo el programa MICROQUESTEL.

- B.D. relacionales, especializadas en la gestión de información muy estructurada en campos: fichas, cuadres de doble entrada... Por ejemplo los programas: DBASE, File Maker y Microsoft Access.

- Los HOJAS DE CÁLCULO son programas especializados en hacer cálculos matemáticos. Agilizan los trabajos que requieren muchas operaciones numéricas como los estudios provisionales, el manejo de modelos... Así resultarán útiles para la elaboración y actualización de presupuestos, en los estudios estadísticos, etc. Actualmente las más utilizadas son LOTUS 1-2-3 y Microsoft Excel

- Los EDITORES GRÁFICOS son programas (Microsoft Paint, Photoshop...) que facilitan la elaboración de gráficos y dibujos:

- Gráficos geométricos.
- Dibujos artísticos.
- Gráficos estadísticos: diagramas de barras, histogramas, diagramas de sectores, pictogramas...

- Los PROGRAMAS DE COMUNICACIONES son programas especializados en transmitir ficheros, gestionar el correo electrónico o navegar por las redes telemáticas. 

- Aplicaciones específicas. Las APLICACIONES ESPECÍFICAS (también llamadas aplicaciones verticales) son programas que se utilizan exclusivamente en unas actividades muy concretas:

- Contabilidad y gestión comercial
- Diseño gráfico y arquitectura
- Fabricación asistida
- Educación
- Gestión de centros educativos
- Juegos

CLASIFICACIONES DEL SOFTWARE

1) De acuerdo a su costo:
De costo cero: también conocido como software gratis o gratuito. Es aquel software cuyo costo de adquisición es nulo, es decir, no hace falta efectuar un desembolso de dinero para poder usarlo. 
De costo mayor a cero: también se conoce como software "comercial o de pago". Es el software desarrollado por una entidad que tiene la intención de hacer dinero con su uso.

2) De acuerdo a la apertura de su código fuente:
De código fuente abierto: también llamado "de fuente abierta" u "open source". Es aquel software que permite tener acceso a su código fuente a través de cualquier medio (ya sea acompañado con el programa ejecutable, a través de Internet, a través del abono de una suma de dinero, etc.) 

De código fuente cerrado:
también llamado "software cerrado". Es el software que no tiene disponible su código fuente disponible por ningún medio, ni siquiera pagando. Generalmente tiene esta característica cuando su creador desea proteger su propiedad intelectual.

3) De acuerdo a su protección:
De dominio publico: es el software que no esta protegido por ningún tipo de licencia. Cualquiera puede tomarlo y luego de modificarlo, hacerlo propio. 
Protegido por licencias: es el tipo de software protegido con una licencia de uso. Dentro de este grupo tenemos: 

b.1) Protegido con copyright: es decir, con derechos de autor (o de copia). El usuario no puede adquirirlo para usarlo y luego vender copias (salvo con la autorización de su creador). 

b.2) Protegido con copyleft:
es aquel cuyos términos de distribución no permiten a los redistribuidores agregar ninguna restricción adicional. Quiere decir que cada copia del software, aun modificada, sigue siendo como era antes.

4) De acuerdo a su "legalidad":
Legal: es aquel software que se posee o circula sin contravenir ninguna norma. Por ejemplo, si tengo un software con su respectiva licencia original y con su certificado de autenticidad, o si lo tengo instalado en una sola computadora (porque la licencia solo me permite hacer eso). 
Ilegal: es el software que se posee o circula violando una norma determinada. Por ejemplo: tengo licencia para usarlo en una sola computadora pero lo instalo en mas de una, no tengo la licencia pero lo puedo utilizar mediante artificios (cracks, patchs, loaders, key generators, números de serie duplicados, etc)

5) De acuerdo a su "filosofía":
Propietario: es aquel software que refleja el hecho de que su propiedad absoluta permanece en manos de quien tiene sus derechos y no del usuario, quien únicamente puede utilizarlo bajo ciertas condiciones. Su uso, redistribución y/o modificación están prohibidos o restringidos de modo tal que no es posible llevarlos a cabo. Es decir, este tipo de software le da al usuario derechos limitados sobre su funcionamiento, cuyo alcance establece el autor o quien posea ese derecho. Por ejemplo, ese derecho puede ser el de ejecutar el programa "tal como es" en una determinada computadora. 

Libre: es el tipo de software que le da al usuario la libertad de usarlo, estudiarlo, modificarlo, mejorarlo, adaptarlo y redistribuirlo, con la única restricción de no agregar ninguna restricción adicional al software modificado, mejorado, adaptado o redistribuido. Vale aclarar que debe permitir el acceso al código fuente, debido a que ello es una condición imprescindible para ejercer las libertades de estudiarlo, modificarlo, mejorarlo y adaptarlo.


26/6/09

SOFTWARE LIBRE

SOFTWARE LIBRE 
Software libre (en inglés free software) es la denominación del software que brinda libertad a los usuarios sobre su producto adquirido y por tanto, una vez obtenido, puede ser usado, copiado, estudiado, modificado y redistribuido libremente. Según la Free Software Foundation, el software libre se refiere a la libertad de los usuarios para ejecutar, copiar, distribuir, estudiar, cambiar y mejorar el software; de modo más preciso, se refiere a cuatro libertades de los usuarios del software: la libertad de usar el programa, con cualquier propósito; de estudiar el funcionamiento del programa, y adaptarlo a las necesidades; de distribuir copias, con lo que puede ayudar a otros; de mejorar el programa y hacer públicas las mejoras, de modo que toda la comunidad se beneficie (para la segunda y última libertad mencionadas, el acceso al código fuente es un requisito previo).

El software libre suele estar disponible gratuitamente, o al precio de coste de la distribución a través de otros medios; sin embargo no es obligatorio que sea así, por ende no hay que asociar software libre a "software gratuito" (denominado usualmente freeware), ya que, conservando su carácter de libre, puede ser distribuido comercialmente ("software comercial"). Análogamente, el "software gratis" o "gratuito" incluye en algunas ocasiones el código fuente; no obstante, este tipo de software no es libre en el mismo sentido que el software libre, a menos que se garanticen los derechos de modificación y redistribución de dichas versiones modificadas del programa.

Tampoco debe confundirse software libre con "software de dominio público". Éste último es aquél que no requiere de licencia, pues sus derechos de explotación son para toda la humanidad, porque pertenece a todos por igual. Cualquiera puede hacer uso de él, siempre con fines legales y consignando su autoría original. Este software sería aquél cuyo autor lo dona a la humanidad o cuyos derechos de autor han expirado, tras un plazo contado desde la muerte de éste, habitualmente 70 años. Si un autor condiciona su uso bajo una licencia, por muy débil que sea, ya no es dominio público.

HISTORIA 
Entre los años 60 y 70 del Siglo XX, el software no era considerado un producto sino un añadido que los vendedores de los grandes computadores de la época (los mainframes) aportaban a sus clientes para que éstos pudieran usarlos. En dicha cultura, era común que los programadores y desarrolladores de software compartieran libremente sus programas unos con otros. Este comportamiento era particularmente habitual en algunos de los mayores grupos de usuarios de la época, como DECUS (grupo de usuarios de computadoras DEC). A finales de los 70, las compañías iniciaron el hábito de imponer restricciones a los usuarios, con el uso de acuerdos de licencia.

Allá por el 1971, cuando la informática todavía no había sufrido su gran boom, las personas que hacían uso de ella, en ámbitos universitarios y empresariales, creaban y compartían el software sin ningún tipo de restricciones.

Con la llegada de los años 80 la situación empezó a cambiar. Las computadoras más modernas comenzaban a utilizar sistemas operativos privativos, forzando a los usuarios a aceptar condiciones restrictivas que impedían realizar modificaciones a dicho software.

En caso de que algún usuario o programador encontrase algún error en la aplicación, lo único que podía hacer era darlo a conocer a la empresa desarrolladora para que esta lo solucionara. Aunque el programador estuviese capacitado para solucionar el problema y lo desease hacer sin pedir nada a cambio, el contrato le impedía que mejorase el software.

El mismo Richard Stallman cuenta que por aquellos años, en el laboratorio habían recibido una impresora donada por una empresa externa. El dispositivo, era utilizado en red por todos los trabajadores, parecía no funcionar a la perfección dado que cada cierto tiempo el papel se atascaba. Como agravante, no se generaba ningún aviso que se enviase por red e informase a los usuarios de la situación.

La perdida de tiempo era constante, ya que en ocasiones, los trabajadores enviaban por red sus trabajos a imprimir y al ir a buscarlos se encontraban la impresora atascada y una cola enorme de trabajos pendientes. Richard Stallman decidió arreglar el problema, e implementar el envío de un aviso por red cuando la impresora se bloqueara. Para ello necesitaba tener acceso al código fuente de los controladores de la impresora. Pidió a la empresa propietaria de la impresora lo que necesitaba, comentando, sin pedir nada a cambio, que era lo que pretendía realizar. La empresa se negó a entregarle el código fuente.

En ese preciso instante, Richard Stallman se vio en una encrucijada, debía elegir entre aceptar el nuevo software privativo firmando acuerdos de no revelación y acabar desarrollando más software privativo con licencias restrictivas, que a su vez deberían ser más adelante aceptadas por sus propios colegas.

Con este antecedente, en 1984, Richard Stallman comenzó a trabajar en el proyecto GNU, y un año más tarde fundó la Free Software Foundation (FSF). Stallman introdujo una definición para free software y el concepto de "copyleft", el cual desarrolló para dar a los usuarios libertad y para restringir las posibilidades de apropiación del software.

QUÉ NO ES SOFTWARE LIBRE
Software regalado: o de costo cero, pero sin el código fuente. Es el que normalmente viene en los CD’s de revistas de computación o que se consigue en sitios freeware. 

• Software con el código fuente: esto quiere expresar que el software se provee con su código fuente, pero no necesariamente brinda las libertades del Software Libre. 

• Software de dominio publico: este tipo de software no tienen licencias de uso, por lo tanto corre el peligro de dejar de serlo si alguien lo utiliza con el fin de apropiárselo. 

VENTAJAS DEL SOFTWARE LIBRE
Escrutinio Publico: Al ser muchos las personas que tienen acceso al código fuente, eso lleva a un proceso de corrección de errores muy dinámico, no hace falta esperar que el proveedor del software saque una nueva versión. 

• Independencia del proveedor: Al disponer del código fuente, cualquier persona puede continuar ofreciendo soporte, desarrollo u otro tipo de servicios para el software. 

No estamos supeditados a las condiciones del mercado de nuestro proveedor, es decir que si este se va del mercado porque no le conviene y discontinua el soporte, nosotros podemos contratar a otra persona.

Manejo de la Lengua: o Traducción: cualquier persona capacitada puede traducir y adaptar un software libre a cualquier lengua.  o Corrección ortográfica y gramatical: una vez traducido el software libre puede presentar errores de este tipo, los cuales pueden ser subsanados con mayor rapidez por una persona capacitada.

• Mayor seguridad y privacidad: Los sistemas de almacenamiento y recuperación de la información son públicos. Cualquier persona puede ver y entender como se almacenan los datos en un determinado formato o sistema. 

• Existe una mayor dificultad para introducir código malicioso como ser: espía (p/ej. capturador de teclas), de control remoto (p/ej. Troyano), de entrada al sistema (p/ej. puerta trasera), etc.

Garantía de continuidad: el software libre puede seguir siendo usado aun después de que haya desaparecido la persona que lo elaboro, dado que cualquier técnico informatico puede continuar desarrollándolo, mejorándolo o adaptándolo. 

Ahorro en costos: en cuanto a este tópico debemos distinguir cuatro grandes costos: de adquisición, de implantación (este a su vez se compone de costos de migración y de instalación), de soporte o mantenimiento, y de interoperabilidad. El software libre principalmente disminuye el costo de adquisición ya que al otorgar la libertad de distribuir copias la puedo ejercer con la compra de una sola licencia y no con tantas como computadoras posea (como sucede en la mayoría de los casos de software propietario). Cabe aclarar que también hay una disminución significativa en el costo de soporte, no ocurriendo lo mismo con los costos de implantación y de interoperatividad.


DESVENTAJAS DEL SOFTWARE LIBRE
Si observamos la situación actual, es decir la existencia mayoritaria de Software Propietario, tenemos:
• Dificultad en el intercambio de archivos: esto se da mayormente en los documentos de texto (generalmente creados con Microsoft Word), ya que si los queremos abrir con un Software Libre (p/ ej. Open Office o LaTeX) nos da error o se pierden datos. Pero esta claro que si Microsoft Word creara sus documentos con un formato abierto (o publico) esto no sucedería. 

Mayores costos de implantación e interoperabilidad: dado que el software constituye "algo nuevo", ello supone afrontar un costo de aprendizaje, de instalación, de migración, de interoperabilidad, etc., cuya cuantía puede verse disminuida por: mayor facilidad en las instalaciones y/o en el uso, uso de emuladores (p/ej. Si el usuario utiliza Microsoft Windows, la solución seria instalar alguna distribución de GNU/Linux y luego un emulador de Windows, como Wine, VMWare. Terminal X, Win4Lin). Vale aclarar que el costo de migración esta referido al software, ya que en lo que hace a Hardware generalmente el Software Libre no posee mayores requerimientos que el Software Propietario.


TIPOS DE LICENCIAS
Una licencia es aquella autorización formal con carácter contractual que un autor de un software da a un interesado para ejercer "actos de explotación legales". Pueden existir tantas licencias como acuerdos concretos se den entre el autor y el licenciatario. Desde el punto de vista del software libre, existen distintas variantes del concepto o grupos de licencias:

Licencias GPL 
Una de las más utilizadas es la Licencia Pública General de GNU (GNU GPL). El autor conserva los derechos de autor (copyright), y permite la redistribución y modificación bajo términos diseñados para asegurarse de que todas las versiones modificadas del software permanecen bajo los términos más restrictivos de la propia GNU GPL. Esto hace que sea imposible crear un producto con partes no licenciadas GPL: el conjunto tiene que ser GPL.

Es decir, la licencia GNU GPL posibilita la modificación y redistribución del software, pero únicamente bajo esa misma licencia. Y añade que si se reutiliza en un mismo programa código "A" licenciado bajo licencia GNU GPL y código "B" licenciado bajo otro tipo de licencia libre, el código final "C", independientemente de la cantidad y calidad de cada uno de los códigos "A" y "B", debe estar bajo la licencia GNU GPL.

En la práctica esto hace que las licencias de software libre se dividan en dos grandes grupos, aquellas que pueden ser mezcladas con código licenciado bajo GNU GPL (y que inevitablemente desaparecerán en el proceso, al ser el código resultante licenciado bajo GNU GPL) y las que no lo permiten al incluir mayores u otros requisitos que no contemplan ni admiten la GNU GPL y que por lo tanto no pueden ser enlazadas ni mezcladas con código gobernado por la licencia GNU GPL.

En el sitio web oficial de GNU hay una lista de licencias que cumplen las condiciones impuestas por la GNU GPL y otras que no.4

Aproximadamente el 60% del software licenciado como software libre emplea una licencia GPL.

Licencias estilo BSD 

Llamadas así porque se utilizan en gran cantidad de software distribuido junto a los sistemas operativos BSD. El autor, bajo tales licencias, mantiene la protección de copyright únicamente para la renuncia de garantía y para requerir la adecuada atribución de la autoría en trabajos derivados, pero permite la libre redistribución y modificación, incluso si dichos trabajos tienen propietario. Son muy permisivas, tanto que son fácilmente absorbidas al ser mezcladas con la licencia GNU GPL con quienes son compatibles. Puede argumentarse que esta licencia asegura “verdadero” software libre, en el sentido que el usuario tiene libertad ilimitada con respecto al software, y que puede decidir incluso redistribuirlo como no libre. Otras opiniones están orientadas a destacar que este tipo de licencia no contribuye al desarrollo de más software libre (normalmente utilizando la siguiente analogía: "una licencia BSD es más libre que una GPL si y sólo si se opina también que un país que permita la esclavitud es más libre que otro que no la permite").

Licencias estilo MPL y derivadas 
Esta licencia es de Software Libre y tiene un gran valor porque fue el instrumento que empleó Netscape Communications Corp. para liberar su Netscape Communicator 4.0 y empezar ese proyecto tan importante para el mundo del Software Libre: Mozilla. Se utilizan en gran cantidad de productos de software libre de uso cotidiano en todo tipo de sistemas operativos. La MPL es Software Libre y promueve eficazmente la colaboración evitando el efecto "viral" de la GPL (si usas código licenciado GPL, tu desarrollo final tiene que estar licenciado GPL). Desde un punto de vista del desarrollador la GPL presenta un inconveniente en este punto, y lamentablemente mucha gente se cierra en banda ante el uso de dicho código. No obstante la MPL no es tan excesivamente permisiva como las licencias tipo BSD. Estas licencias son denominadas de copyleft débil. La NPL (luego la MPL) fue la primera licencia nueva después de muchos años, que se encargaba de algunos puntos que no fueron tenidos en cuenta por las licencias BSD y GNU. En el espectro de las licencias de software libre se la puede considerar adyacente a la licencia estilo BSD, pero perfeccionada.

Copyleft 
Hay que hacer constar que el titular de los derechos de autor (copyright) de un software bajo licencia copyleft puede también realizar una versión modificada bajo su copyright original, y venderla bajo cualquier licencia que desee, además de distribuir la versión original como software libre. Esta técnica ha sido usada como un modelo de negocio por una serie de empresas que realizan software libre (por ejemplo MySQL); esta práctica no restringe ninguno de los derechos otorgados a los usuarios de la versión copyleft. También podría retirar todas las licencias de software libre anteriormente otorgadas, pero esto obligaría a una indemnización a los titulares de las licencias en uso. En España, toda obra derivada está tan protegida como una original, siempre que la obra derivada parta de una autorización contractual con el autor. En el caso genérico de que el autor retire las licencias "copyleft", no afectaría de ningún modo a los productos derivados anteriores a esa retirada, ya que no tiene efecto retroactivo. En términos legales, el autor no tiene derecho a retirar el permiso de una licencia en vigencia. Si así sucediera, el conflicto entre las partes se resolvería en un pleito convencional.

DECISIONES QUE AFECTA EL USO DEL SOFTWARE LIBRE
LIBERTAD DE ELECCIÓN: 

• Respecto al software: se obtiene la independencia del soporte de versiones. Es de publico conocimiento que Microsoft ha dejado de ofrecer soporte de desarrollo a Windows 95 y Windows 98, para dedicarse de lleno a Windows Me, 2000, XP y .NET. 

• Respecto al Hardware: al tener requisitos de funcionamiento no tan elevados, el usuario no esta atado a la compra de una determinada computadora, o procesador, o disco rígido, o cantidad de memoria RAM, etc. Esa compra que haga el usuario solo depende de la velocidad con la que desee realizar sus tareas, no de si el software va a funcionar o no en esas condiciones. 

• Respecto al soporte: al tener acceso al código fuente, cualquier persona idónea nos puede ofrecer soporte, no solo nuestro proveedor. En el software Propietario esto no sucede, ya que ninguna persona ajena al proveedor conoce el funcionamiento interno del mismo. 

• Respecto a la Formación o Capacitación: la puede ofrecer cualquiera, no solo el proveedor.

PROTECCIÓN DE LA INVERSIÓN: 
• En Software: Los desarrollos en software siempre son aprovechables para otros desarrollos, si se licencian de manera "libre". Además, el fomento de la comunidad de usuarios supone un potencial extraordinario en cuanto a la generación de nuevo y mejor software. 
En Hardware: no se necesita reemplazar el hardware constantemente, porque no se necesita cambiar el software si este ya no funciona como se quiere. 
• En Soporte: la experiencia ganada por los técnicos propios puede extenderse a otro tipo de software. 
• En Formación: como no existen artificios para ocultar información, puede elegirse a otra persona que brinde capacitación con un precio mas accesible.

• Relación rendimiento/ Precio

• Costo del Software: el software libre tiene la ventaja de no obligar a pagar una licencia por cada computadora en que se lo instale. 

• Costo del Hardware: hay cierto Software Propietario que tiene requerimientos excesivos de hardware para funcionar. Es decir, no hay relación razonable entre la tarea que realiza y el hardware que requiere. 

• Costo de Soporte: su costo es menor porque cualquiera lo puede ofrecer, si bien es cierto que no tenemos una calidad garantizada. 

• Costo de Formación: su costo es menor, al no estar monopolizada. Aquí cabe el mismo comentario que el realizado con respecto al costo de soporte.

• Comunicación e interoperabilidad de sistemas: el Software Libre garantiza el respeto a los estándares en los formatos, protocolos e interfases. En cambio el Software Propietario generalmente los cambia, para obligar al usuario a cambiar de versión. Pero un costo importante en esta parte es el de adaptar los estándares cerrados a estándares abiertos (por ejemplo, XLS a XML, DOC a Tex, etc.)


MANERAS DE OBTENER SOFTWARE LIBRE

A través de copias en CD: los que a su vez se pueden conseguir en revistas especializadas, o comprándolos en una casa de computación, o pidiéndoselos a un amigo, pariente, etc. 
A través de Internet: a su vez, por medio de FTP, sitios Web, canales de chat, foros de noticias, programas de intercambio de archivos, etc. 
A través de una computadora: en este caso, comprando una que venga con Software Libre preinstalado, ya sea de fabrica o por su vendedor.

LEYES RELACIONADAS

En el ámbito nacional tenemos:
Ley 11723: es una ley compuesta por 89 artículos, sancionada en 1933 (y todavía vigente), conocida como "Ley de Propiedad Intelectual" o también como "Ley de Propiedad Científica, Literaria y Artística". Esta ley regula todo lo referente a derecho de propiedad de una obra artística, científica o literaria, derechos de coautor, enajenación o cesión de una obra, licencias, etc. Además, establece sanciones tanto pecuniarias (multa) como privativas de la libertad (prisión) a quienes violen sus normas. Su ultima reforma data de Noviembre de 1998, cuando por Ley 25036 se le introdujeron modificaciones referidas al software, para darle fin a las discusiones doctrinarias y jurisprudenciales sobre la cuestión de si el software estaba o no bajo el amparo de esta ley. Ahora establece expresamente en su Art. 1 que "... las obras científicas, literarias y artísticas comprenden los escritos de toda naturaleza y extensión, entre ellos los programas de computación fuente y objeto; las compilaciones de datos o de otros materiales, ..." y en su art. 55 bis que "La explotación de la propiedad intelectual sobre los programas de computación incluirá entre otras formas los contratos de licencia para su uso o reproducción". 

• Proyecto de ley sobre Software Libre: es un proyecto presentado en Marzo de 2001 por Marcelo Luis Dragan, Diputado Nacional por la provincia de Tierra del Fuego, del Partido Acción por la Republica. Originalmente lleva el nombre de de Utilización de Software Libre por el Estado Nacional", y establece la obligación de usar prioritariamente Software Libre en todas las dependencias de la Administración Publica Nacional, salvo excepciones. Entre los aspectos que motivaron el proyecto, se destacan el económico (por el costo de las licencias y por la libertad de copiar que otorga el Software Libre), el moral (es conocido que en todos los ámbitos de la Administración Publica se utiliza Software Ilegal, ya sea por cuestiones de costos, negligencia, etc., lo cual coloca al Estado como uno de los principales infractores a la Ley 11723), el cultural, el educativo, el de seguridad nacional, etc. Actualmente este proyecto se encuentra en estudio en la comisión de Legislación General y Comunicación.

ENTIDADES RELACIONADAS CON EL SOFTWARE 

Hay una innumerable cantidad de organizaciones relacionadas con esta temática: 

Por el lado del Software Libre: la FSF, la Organización Open Source, la Fundación Vía Libre, etc. 

Por el lado del "Software Legal", tenemos dos: 
La BSA: "Business Software Alliance" es una organización mundial sin fines de lucro, creada en 1988 por un grupo de empresas fabricantes de software. Tiene tres funciones fundamentales: a) Inculcar a los gobiernos y a los consumidores que pagar por usar en Software redunda en beneficio de la economía, incrementando la productividad de los trabajadores y el numero de puestos en empleo. b) Emprender acciones legales contra aquellos que no cumplan con las leyes de propiedad intelectual y/o que hagan mal uso de las licencias de software. c) Promover legislaciones que protejan los derechos de propiedad intelectual, y conseguir que los gobiernos las ejecuten. 
La organización "Software Legal": es una asociación civil sin fines de lucro, creada en 1992 por un grupo de empresas fabricantes de software. Tiene las mismas funciones y características de la BSA.

IMPORTANCIA DE AFRONTAR EL ESTUDIO DEL SOFTWARE LIBRE
• Económica: el costo de las licencias de Software Propietario es bastante importante, y por la situación económica actual, imposible de afrontar de la manera que los fabricantes de Software lo piden. 

Legal: el Software Libre es siempre legal, salvo contadas excepciones (p/ej., que compilemos el código fuente y lo vendamos como propietario). Por lo tanto, al utilizar este tipo de software estaremos siempre "por derecha", por lo que no seremos pasibles de multas y/o prisión. 

• Técnica: es sabido que Microsoft ha dejado de ofrecer soporte de desarrollo para Windows 95 y Windows 98, por lo que si hoy o mañana se descubre un error en ellos, Microsoft no esta obligado a repararlo. Para solucionar esto, tendríamos dos caminos: a) Migrar a otras versiones de Sistema Operativos de Microsoft: esto lleva aparejado una serie de costos, principalmente en licencias, luego costos de implantación, soporte e interoperabilidad, y además implica volver a hacer lo mismo dentro de dos o tres años. b) Utilizar Software Libre 

• Laboral: la implementación de Software Libre plantea un futuro muy prometedor para aquellas personas que sepan programar, traducir, utilizar un programa, enseñar, etc. Si tenemos que elegir entre pagar una licencia de software a un coloso informático o darle trabajo directamente a una persona, es de esperar que nos volquemos a la segunda alternativa.


25/6/09

PERIFERICOS

Las Computadoras son una herramienta esencial, prácticamente en casi todos los campos de nuestras vidas; es útil, ayuda a la mejora y excelencia del trabajo; lo que lo hace mucho mas fácil y práctico

En poco tiempo, las computadoras se han integrado de tal manera a nuestra vida cotidiana, puesto que han transformado los procesos laborales complejos y de gran dificultad hacia una manera más eficiente de resolver los problemas difíciles, buscándole una solución práctica.

El papel que juegan los dispositivos periféricos de la computadora es esencial, ya que sin tales dispositivos la computadora no sería útil a los usuarios.

Los dispositivos periféricos nos ayudan a introducir a la computadora los datos para que esta nos ayude a la resolución de problemas y por consiguiente obtener el resultado de dichas operaciones, es decir; estos dispositivos nos ayudan a comunicarnos con la computadora, para que esta a su vez nos ayude a resolver los problemas que tengamos y realice las operaciones que nosotros no podamos realizar manualmente.

PERIFÉRICO
Se denominan periféricos tanto a las unidades o dispositivos a través de los cuales la computadora se comunica con el mundo exterior, como a los sistemas que almacenan o archivan la información, sirviendo de memoria auxiliar de la memoria principal.

Se entenderá por periférico al conjunto de dispositivos que, sin pertenecer al núcleo fundamental de la computadora, formado por la CPU y la memoria central, permitan realizar operaciones de entrada/salida (E/S) complementarias al proceso de datos que realiza la CPU. Estas tres unidades básicas en un computador, CPU, memoria central y el subsistema de E/S, están comunicadas entre sí por tres buses o canales de comunicación: el bus de direcciones, para seleccionar la dirección del dato o del periférico al que se quiere acceder, el bus de control, básicamente para seleccionar la operación a realizar sobre el dato (principalmente lectura, escritura o modificación) y el bus de datos, por donde circulan los datos.

A pesar de que el término periférico implica a menudo el concepto de “adicional pero no esencial”, muchos de ellos son elementos fundamentales para un sistema informático. El teclado y el monitor, imprescindibles en cualquier computadora personal de hoy en día (no lo fueron en los primeros computadores), son posiblemente los periféricos más comunes, y es posible que mucha gente no los considere como tal debido a que generalmente se toman como parte necesaria de una computadora. El mouse es posiblemente el ejemplo más claro de este aspecto. Hace menos de 20 años no todos las computadora personales incluían este dispositivo. El sistema operativo MS-DOS, el más común en esa época, tenía una interfaz de línea de comandos para la que no era necesaria el empleo de un mouse, todo se hacía mediante comandos de texto. Fue con la popularización de Finder, sistema operativo de la Macintosh de Apple y la posterior aparición de Windows cuando el mouse comenzó a ser un elemento imprescindible en cualquier hogar dotado de una computadora personal. Actualmente existen sistemas operativos con interfaz de texto que tampoco hacen uso del mouse como, por ejemplo, algunos sistemas básicos de UNIX y Linux.

TIPOS DE PERIFÉRICOS
Los periféricos pueden clasificarse en 4 categorías principales:

Periféricos de entrada: Captan y envían los datos al dispositivo que los procesará. 

Periféricos de salida: Son dispositivos que muestran o proyectan información hacia el exterior del ordenador. La mayoría son para informar, alertar, comunicar, proyectar o dar al usuario cierta información, de la misma forma se encargan de convertir los impulsos eléctricos en información legible para el usuario. Sin embargo, no todos este tipo de periféricos es información para el usuario. 

Periféricos de almacenamiento: Son los dispositivos que almacenan datos e información por bastante tiempo. La memoria RAM no puede ser considerada un periférico de almacenamiento, ya que su memoria es volátil y temporal. 

Periféricos de comunicación: Son los periféricos que se encargan de comunicarse con otras máquinas o computadoras, ya sea para trabajar en conjunto, o para enviar y recibir información.


LOS PERIFÉRICOS DE ENTRADA
(input devices) permiten introducir datos y programas al ordenador. Los más usuales son:

El TECLADO
(keyboard) Es el principal periférico de entrada de información al ordenador. Acostumbra a tener un eco de pantalla, todo y que los caracteres son almacenados provisionalmente en un buffer de teclado y no entren directamente a la memoria. Suele tener 102 teclas. Las teclas alfanuméricas están dispuestas como en las máquinas de escribir y además incluye otras teclas funcionales:

• RETURN: bacía el buffer del teclado y introduce en la memoria de trabajo los caracteres que hemos escrito.
• SUPR, BACKSPACE: Borran caracteres.
CAPS LOCK: Activa o desactiva las mayúsculas.
• SHIFT: Si se pulsa conjuntamente con una tecla de doble significado escribe el carácter superior de la tecla ; si es pulsa con una tecla alfabética actúa como CAPS LOCK.
ALT, CTRL: se pulsa conjuntamente con otras teclas para obtener diversos resultados.
• Las flechas del cursor: en determinados programas permiten mover el cursor por la pantalla .

TIPOS DE TECLADOS
Teclado 101: El teclado pesa 1.1 Lb y mide 11.6 Pulgadas de ancho, 4.3 pulgadas de profundidad y 1.2 de altura. Entre los accesorios disponibles se encuentran: cableado para Sun, PC(PS/2) y computadoras Macintosh. Las dimensiones de este teclado son su característica principal. Es pequeño. Sin embargo se siente como un teclado normal. 

Teclado Ergonómico: Al igual que los teclados normales a través de éste se pueden introducir datos a la computadora pero su característica principal es el diseño del teclado ya que éste evita lesiones y da mayor comodidad al usuario, ya que las teclas se encuentran separadas de acuerdo al alcance de nuestras manos, lo que permite mayor confort al usuario. 

Teclado para Internet: El nuevo Internet Keyboard incorpora 10 nuevos botones de acceso directo, integrados en un teclado estándar de ergonómico diseño que incluye un apoya manos. Los nuevos botones permiten desde abrir nuestro explorador Internet hasta ojear el correo electrónico. El software incluido, posibilita la personalización de los botones para que sea el teclado el que trabaje como nosotros queramos que lo haga. 

Teclado Alfanumérico: Es un conjunto de 62 teclas entre las que se encuentran las letras, números, símbolos ortográficos, Enter, alt, etc; se utiliza principalmente para introducir texto. 

Teclado de Función: Es un conjunto de 13 teclas entre las que se encuentran el ESC, tan utilizado en sistemas informáticos, más 12 teclas de función. Estas teclas suelen ser configurables pero por ejemplo existe un convenio para asignar la ayuda a F1. 

Teclado Numérico: Se suele encontrar a la derecha del teclado alfanumérico y consta de los números así como de un Enter y los operadores numéricos de suma, resta, etc. 
Teclado Especial: Son las flechas de dirección y un conjunto de 9 teclas agrupadas en 2 grupos; uno de 6 (Inicio y fin entre otras) y otro de 3 con la tecla de impresión de pantalla entre ellas. 

Teclado de Membrana:
Fueron los primeros que salieron y como su propio nombre indica presentan una membrana entre la tecla y el circuito que hace que la pulsación sea un poco más dura. 

Teclado Mecánico: Estos nuevos teclados presentan otro sistema que hace que la pulsación sea menos traumática y más suave para el usuario.

El RATÓN
(mouse) Es un pequeño dispositivo que al arrastrarlo sobre la mesa en una dirección determinada desplaza el cursor sobre la pantalla en la misma dirección. Dispone de un botón que podemos usar para dar diversas órdenes al ordenador. Los ratones más extendidos son:

Tipos de Mouse: Existen diferentes tecnologías con las que funciona el Mouse: 

• Mecánica: era poco precisa y estaba basada en contactos físicos eléctricos a modo de escobillas que en poco tiempo comenzaban a fallar. 

• Óptica: es la más utilizada en los "ratones" que se fabrican ahora. 

• Opto mecánica: son muy precisos, pero demasiado caros y fallan a menudo. 

Existen "ratones", como los trackballs, que son dispositivos en los cuales se mueve una bola con la mano, en lugar de estar abajo y arrastrarla por una superficie. 

• Mouse Óptico Mouse Trackball: Es una superficie del tamaño de una tarjeta de visita por la que se desliza el dedo para manejar el cursor, son estáticos e ideales para cuando no se dispone de mucho espacio. 

Hay otro tipo de "ratones" específicos para algunas aplicaciones, como por ejemplo las presentaciones en PC. Estos "ratones" suelen ser inalámbricos y su manejo es como el del tipo TrackBall o mediante botones de dirección. Y por último, podemos ver modelos con ruedas de arrastre que permiten visualizar más rápidamente las páginas de Internet.


EL ESCÁNER
Es un dispositivo que permite introducir directamente dibujos o fotografías en los ordenadores. Podemos distinguir dos tipos:

• Escaners de sobremesa: tienen un funcionamiento parecido al de un fotocopiadora, sólo hace falta colocar la imagen original en el escaner y hacer los ajustamientos oportunos para que se genere una copia de la imagen en la pantalla.
• Escaners manuales: es desplazan poco a poco por encima de la imagen original y la van reproduciendo en la pantalla.

Muchos escaners disponen de la función OCR, que les permite comportarse como un lector de caracteres ópticos .

 El LECTOR DE CARACTERES ÓPTICOS OCR (Optic Characters Read) identifica caracteres (letras, números, signos...) escritos a lápiz o tinta en determinados impresos, cuestionarios..., y los introduce en el ordenador. Ahorran mucho trabajo de teclear datos ya que permiten que el ordenador lea directamente los caracteres de los documentos originales. Actualmente muchos escaners disponen de programas específicos que los permiten realizar esta función OCR.

La TABLETA GRÁFICA

Consiste en una tabla especial que reconoce el desplazamiento de un lápiz magnético por su superficie; el grafismo que trazamos aparece en la pantalla y se introduce en la memoria del ordenador. Se utiliza mucho en trabajos de delineación, diseño gráfico.



El LECTOR DE BARRAS
interpreta los códigos de barras con los que se codifican determinadas informaciones. Los códigos de barras son muy utilizados en el comercio para identificar los productos y facilitar después su distribución y venta ya que los lectores de barras ahorran el trabajo de teclear precios y códigos en el ordenador cuando se despachan los productos.


El MICRÓFONO
 Cuando un ordenador dispone de placa de sonido, el MICRÓFONO permite introducir voz y música que la Unidad Central podrá procesar (reproducirla, modificarla, archivarla...). Con programas de identificación de voz el ordenador puede interpretar las órdenes verbales que se introducen desde un micrófono y hasta escribir textos en el dictado.


CAMARA DIGITAL
Se conecta al ordenador y le transmite las imágenes que capta, pudiendo ser modificada y retocada, o volverla a tomar en caso de que este mal. Puede haber varios tipos:

• Cámara de Fotos Digital: Toma fotos con calidad digital, casi todas incorporan una pantalla LCD (Liquid Cristal Display) donde se puede visualizar la imagen obtenida. Tiene una pequeña memoria donde almacena fotos para después transmitirlas a un ordenador. 

• Cámara de Video: Graba videos como si de una cámara normal, pero las ventajas que ofrece en estar en formato digital, que es mucho mejor la imagen, tiene una pantalla LCD por la que ves simultáneamente la imagen mientras grabas. Se conecta al PC y este recoge el video que has grabado, para poder retocarlo posteriormente con el software adecuado. 


• Webcam: Es una cámara de pequeñas dimensiones. Sólo es la cámara, no tiene LCD. Tiene que estar conectada al PC para poder funcionar, y esta transmite las imágenes al ordenador. Su uso es generalmente para videoconferencias por Internet, pero mediante el software adecuado, se pueden grabar videos como una cámara normal y tomar fotos estáticas.

La PANTALLA TÁCTIL (touch screen)
 Es una pantalla, que mediante un contacto táctil sobre su superficie, permite la entrada de datos y órdenes al ordenador. Este contacto también se puede realizar con lápiz y otras herramientas.Actualmente hay pantallas táctiles que pueden instalarse sobre una pantalla normal.

El CONVERTIDOR ANALÓGICO-DIGITAL
Convierte las señales analógicas de un termómetro o un amperímetro en señales digitales (dígitos) y las introduce en el ordenador para que sean procesadas. Resulta muy útil para controlar automáticamente procesos industriales. Por ejemplo: detectar y corregir excesos de temperatura en una caldera.

LOS PERIFÉRICOS DE SALIDA
(otput devices) Presentan al usuario los resultados que obtiene el ordenador al procesar información. Los más usuales son:

La PANTALLA o MONITOR
(display) Funciona conectada a un adaptador gráfico (tarjeta gráfica) situada en la caja del ordenador. El sistema adaptador-pantalla puede ser:

- Con tubo de rayos catódicos
- De cristal líquido LCD (como las pantallas extraplanas de los ordenadores portátiles).

Las prestaciones gráficas de las pantallas de los ordenadores han evolucionado mucho en los últimos años:

- Los primeros sistemas gráficos CGA (Color Graphics Adapter) tenían poca definición: 320 * 200 pixels y trabajaban con un máximo de 4 colores.
- Más tarde los sistemas VGA ofrecieron 640 * 480 pixels con 16 colores.
- Actualmente tenemos los sistemas super VGA con resoluciones mínimas de 1024 * 768 pixels y que utilizan desde 256 a millones de colores .

Las pantallas de calidad tienen sistemas de protección contra los reflejos, la electricidad estática y las radiaciones electromagnéticas. Todo y así, no es conveniente trabajar mucho tiempo con la vista concentrada en la pantalla.


Puntos a Tratar en un Monitor:
• Resolución: Se trata del número de puntos que puede representar el monitor por pantalla, en horizontal x vertical. Un monitor cuya resolución máxima sea 1024x 768 puntos puede representar hasta 768 líneas horizontales de 1024 puntos cada una. 

• Refresco de Pantalla: Se puede comparar al número de fotogramas por segundo de una película de cine, por lo que deberá ser lo mayor posible. Se mide en HZ (hertzios) y debe estar por encima de los 60 Hz, preferiblemente 70 u 80. A partir de esta cifra, la imagen en la pantalla es sumamente estable, sin parpadeos apreciables, con lo que la vista sufre mucho menos. 

• Tamaño de punto (Dot Pitch): Es un parámetro que mide la nitidez de la imagen, midiendo la distancia entre dos puntos del mismo color; resulta fundamental a grandes resoluciones. En ocasiones es diferente en vertical que en horizontal, o se trata de un valor medio, dependiendo de la disposición particular de los puntos de color en la pantalla, así como del tipo de rejilla empleada para dirigir los haces de electrones.


LA IMPRESORA

 (printer) permite presentar la información que proporciona el ordenador en formato papel. Generalmente se conecta a la Unidad Central del ordenador a través de un puerto paralelo y se configura mediante unos microinterruptores (DIP) que lleva incorporados. Sus cualidades más apreciadas son:

- Velocidad. Se mide en caracteres por segundo(cps) o en páginas por minuto (ppm).
- Tipo de letra: calidad, juegos de caracteres, colores...
- Amplitud y gestión del papel: tracción (papel continuo) o fricción.
- Posibilidad de programación.
- Buffer de impresión. Si puede almacenar mucha información, nos permite usar el ordenador para hacer otros trabajos mientras va imprimiendo.

Según la manera en que se realiza la impresión podemos distinguir diversos tipos de impresoras:

• IMPRESORAS DE CONTACTO: imprimen al golpear una matriz sobre una cinta entintada y el papel y permiten sacar copias simultáneas. Pueden ser:

• de bola o margarita:
Su matriz es una bola o margarita que contiene todos los caracteres imprimibles; son lentas y no permiten reproducir gráficos, pero proporcionan un escrito de calidad.

• de agujas: Sólo disponen de una matriz de agujas donde se forman los caracteres a medida que se han de imprimir, son más rápidas pero la escritura es de menos calidad. .

• IMPRESORAS LÁSER: ofrecen gran rapidez y calidad y permiten la combinación de gráficos, imágenes digitalizadas y textos en la misma página. La impresión se realiza página a página como una fotocopiadora y disponen de una serie de comandos que permiten mejorar sus prestaciones (uno de ellos es el lenguaje POSTSCRIPT).

• IMPRESORAS DE INYECCIÓN DE TINTA (ink jet bubbe): escriben al proyectar tinta a través de una matriz con orificios que reproducen los caracteres al imprimir; proporcionan una buena calidad y pueden imprimir en color.

• IMPRESORAS TÉRMICAS: imprimen térmicamente sobre un papel especial; dan poca calidad y al papel es caro .

• El TRAZADOR (plotter) Es una impresora especializada en trazar planos y gráficos. Puede realizar su trabajo en hojas de grandes dimensiones y utiliza diversos colores.

Los ALTAVOCES
Cuando un ordenador dispone de placa de sonido, los ALTAVOCES permiten escuchar música y voces de calidad con el ordenador. Resultan indispensables para aprovechar las prestaciones sonoras de los programas multimedia.

El SINTETIZADOR DE VOZ
Transforma señales digitales en señales audibles; permite que el ordenador hable. Hay sintetizadores de voz especiales que leen libros y permiten un fácil control de avance y retroceso de párrafo y páginas. Resultan muy útiles para los ciegos.

El CONVERTIDOR DIGITAL-ANALÓGICO
 Convierte las señales digitales que proporciona el ordenado en señales analógicas (continuas) con las que se pueden controlar dispositivos de esta naturaleza. Con estos convertidores se pueden controlar robots, tortugas...

Plotters (Trazador de Gráficos)
Es una unidad de salida de información que permite obtener documentos en forma de dibujo. 

Existen plotters para diferentes tamaños máximos de hojas (A0, A1, A2, A3 y A4); para diferentes calidades de hojas de salida (bond, calco, acetato); para distintos espesores de línea de dibujo (diferentes espesores de rapidógrafos), y para distintos colores de dibujo (distintos colores de tinta en los rapidógrafos).


Fax
Dispositivo mediante el cual se imprime una copia de otro impreso, transmitida o bien, vía teléfono, o bien desde el propio fax. Se utiliza para ello un rollo de papel que cuando acaba la impresión se corta. 

Data Show (Cañón)
Es una unidad de salida de información. Es básicamente una pantalla plana de cristal líquido, transparente e independiente. Acoplado a un retro proyector permite la proyección amplificada de la información existente en la pantalla del operador.

PERIFÉRICOS DE COMUNICACIÓN

 Las unidades de comunicación son dispositivos que facilitan el intercambio de información (programas , datos...) entre dos o más ordenadores distantes. Entre ellos están:

LOS MÓDEMS
(moduladores-demoduladores) son periféricos que permiten la conexión del ordenador a la línea telefónica para la transmisión de programas y datos. Modulan la información digital que emite el ordenador emisor para que pueda viajar por la línea telefónica y, al otro lado de la línea, demodula los mensajes y los convierte en señales digitales comprensibles para el ordenador receptor. Hay dos tipos de módem:

• Modems externos: que se conectan directamente a un puerto serie de la Unidad Central del ordenador.
• Modems internos, montados sobre una placa que se coloca dentro del ordenador 

Las principales cualidades de un módem han de ser la fiabilidad y la velocidad de la transmisión. Actualmente hay módems con velocidades de 56’6 Kbits por segundo.

Para poder trabajar con los entornos gráficos de la red Internet es necesario disponer de un módem que trabaje a una velocidad de 14.400 o superior. La velocidad de las transmisiones depende en gran medida de las características de la línea telefónica. Las líneas de fibra óptica proporcionan la máxima velocidad de transmisión.


LAS TARJETAS ADAPTADORAS RDSI o ADSL.
Si se dispone de una línea telefónica digital RDSI o conexión ADSL, entonces en vez de un módem será necesario instalar en un puerto PCI del ordenador una tarjeta adaptadora RDSI o un adaptador ADSL

La TARJETA DE CONEXIÓN A REDES
(Local Area Network). Permite la interconexión de los ordenadores formando redes que facilitan el intercambio de información y la compartición de recursos (impresoras, discos duros...). Una de las más utilizadas en Ethernet. 

Los MULTIPLEXORES
Permiten que una misma línea de comunicación transporte mensajes emitidos por diversos ordenadores. Una de las aplicaciones de los multiplexores es la conexión de diversos ordenadores a una misma impresora. También se usan en las redes locales.


24/6/09

FUENTE DE PODER

FUENTE DE PODER 
Muchos circuitos necesitan para su funcionamiento, una fuente de poder o alimentación de corriente continua (C.C.), pero lo que normalmente se encuentra es alimentación de corriente alterna (C.A.).
Para lograr obtener corriente continua, la entrada de corriente alterna debe seguir un proceso de conversión como el que se muestra en el diagrama.
En el gráfico siguiente se ve el funcionamiento de una fuente de poder, con ayuda de un diagrama de bloques.
También se muestran las formas de onda esperadas al inicio (Entrada en A.C.), al final (Salida en C.C.) y entre cada uno de ellos.
 
- La señal de entrada, que va al primario del transformador, es una onda senoidal cuya amplitud dependerá del lugar en donde vivimos (110 / 220 Voltios c.a. u otro). Ver unidades de medida básica en electrónica.
Nota: A la fuente de poder también se acostumbra llamarla fuente de alimentación y fuente de voltaje o tensión

FUENTE DE PODER

En este tutorial, intentaremos explicaros lo que es una Fuente de Alimentación, para que sirve cada cable que sale de ella, tipos y características, y finalmente como instalar una fuente ATX

La Fuente de Alimentación, es un montaje eléctrico/electrónico capaz de transformar la corriente de la red electrica en una corriente que el pc pueda soportar.

Esto se consigue a través de unos procesos electrónicos los cuales explicaremos brevemente.

 1. Transformación.
Este paso es en el que se consigue reducir la tensión de entrada a la fuente (220v o 125v) que son los que nos otorga la red eléctrica.

Esta parte del proceso de transformación, como bien indica su nombre, se realiza con un transformador en bobina.

La salida de este proceso generará de 5 a 12 voltios.


2. Rectificación.
La corriente que nos ofrece la compañía eléctrica es alterna, esto quiere decir, que sufre variaciones en su linea de tiempo, con variaciones, nos referimos a variaciones de voltajes, por tanto, la tensión es variable, no siempre es la misma.

Eso lógicamente, no nos podría servir para alimentar a los componentes de un PC, ya que imaginemos que si le estamos dando 12 voltios con corriente alterna a un disco duro, lógicamente no funcionará ya que al ser variable, no estariamos ofreciendole los 12 voltios constantes.

Lo que se intenta con esta fase, es pasar de corriente alterna a corriente continua, a través de un componente que se llama puente rectificador o de Graetz.

Con esto se logra que el voltaje no baje de 0 voltios, y siempre se mantenga por encima de esta cifra.


3. Filtrado
Ahora ya, disponemos de corriente continua, que es lo que nos interesaba, no obstante, aun no nos sirve de nada, porque no es constante, y no nos serviría para alimentar a ningun circuito

Lo que se hace en esta fase de filtrado, es aplanar al máximo la señal, para que no hayan oscilaciones, se consigue con uno o varios condensadores, que retienen la corriente y la dejan pasar lentamente para suavizar la señal, así se logra el efecto deseado.


4. Estabilización
Ya tenemos una señal continua bastante decente, casi del todo plana, ahora solo nos falta estabilizarla por completo, para que cuando aumenta o descienda la señal de entrada a la fuente, no afecte a la salida de la misma.

Esto se consigue con un regulador.

Tipos de Fuentes
Después de comentar estas fases de la fuente de alimentación, procederemos a diferenciar los dos tipos que existen actualmente.

Las dos fuentes que podremos encontrarnos cuando abramos un ordenador pueden ser: AT o ATX

Las fuentes de alimentación AT, fueron usadas hasta que apareció el Pentium MMX, es en ese momento cuando ya se empezarían a utilizar fuentes de alimentación ATX.

Las características de las fuentes AT, son que sus conectores a placa base varían de los utilizados en las fuentes ATX, y por otra parte, quizás bastante más peligroso, es que la fuente se activa a través de un interruptor, y en ese interruptor hay un voltaje de 220v, con el riesgo que supondría manipular el PC.

También destacar que comparadas tecnológicamente con las fuentes ATX, las AT son un tanto rudimentarias electrónicamente hablando.


En ATX, es un poco distinto, ya que se moderniza el circuito de la fuente, y siempre está activa, aunque el ordenador no esté funcionando, la fuente siempre está alimentada con una tensión pequeña para mantenerla en espera.

Una de las ventajas es que las fuentes ATX no disponen de un interruptor que enciende/apaga la fuente, si no que se trata de un pulsador conectado a la placa base, y esta se encarga de encender la fuente, esto conlleva pues el poder realizar conexiones/desconexiones por software.

Existe una tabla, para clasificar las fuentes según su potencia y caja.
Sobremesa AT => 150-200 W 
Semitorre => 200-300 W 
Torre => 230-250 W 
Slim => 75-100 W 
Sobremesa ATX => 200-250 W 

No obstante, comentar, que estos datos son muy variables, y únicamente son orientativos, ya que varía segun el numero de dispositivos conectados al PC.
Conexión de Dispositivos
En Fuentes AT, se daba el problema de que existian dos conectores a conectar a placa base, con lo cual podia dar lugar a confusiones y a cortocircuitos, la solución a ello es basarse en un truco muy sencillo, hay que dejar en el centro los cables negros que los dos conectores tienen, asi no hay forma posible de equivocarse.

En cambio, en las fuentes ATX solo existe un conector para la placa base, todo de una pieza, y solo hay una manera de encajarlo, así que por eso no hay problema
 
Existen dos tipos de conectores para alimentar dispositivos:

El más grande, sirve para conectar dispositivos como discos duros, lectores de cd-rom, grabadoras, dispositivos SCSI, etc...

Mientras que el otro, visiblemente más pequeño, sirve para alimentar por ejemplo disqueteras o algunos dispositivos ZIP.

Instalación de una fuente ATX

Para instalar una fuente de alimentación ATX, necesitaremos un destornillador de punta de estrella.

Empezaremos por ubicar la fuente en su sitio, asegurando que los agujeros de los tornillos, coinciden exactamente con los de la caja.

Una vez hecho esto, procederemos a atornillar la fuente. 

Acto seguido, conectaremos la alimentación a la placa base con el conector anteriormente comentado, y realizaremos la misma tarea con el resto de los dispositivos instalados.

Un punto a comentar, es que solo hay una manera posible para realizar el conexionado de alimentación a los dispositivos, sobretodo, NUNCA debemos forzar un dispositivo.

Tras realizar todas las conexiones, las revisaremos, y procederemos a encender el equipo.

Consejos
Cuidado con tocar el interruptor selector de voltaje que algunas fuentes llevan, este interruptor sirve para indicarle a la fuente si nuestra casa tiene corriente de 220v o 125v si elegimos la que no es tendremos problemas.

Es conveniente, revisar de tanto en tanto, el estado del ventilador de la fuente, hay que pensar, que si no tenemos instalado en la parte posterior del equipo un ventilador adicional, es nuestra única salida de aire.

Un ventilador de fuente defectuoso puede significar el final de tu equipo, elevando la temperatura del sistema por encima de la habitual y produciendo un fallo general del sistema.

También cabe destacar, en como elegir la fuente, si tenemos pensado de conectar muchos dispositivos, como por ejemplo, dispositivos USB, discos duros, dispositivos internos, etc...

En el caso de que la fuente no pueda otorgar la suficiente tensión para alimentar a todos los dispositivos, se podrían dar fallos en algunos de los mismos, pero pensar que si estamos pidiendo más de lo que nos otorga la fuente, podemos acabar con una placa base quemada, una fuente de alimentación quemada, un microprocesador quemado, y un equipo flamante en la basura...


23/6/09

DISCO DURO

DISCO DURO
Siempre que se enciende el computador, los discos sobre los que se almacenan los datos giran a una gran velocidad (a menos que disminuyan su potencia para ahorrar electricidad). 

Los discos duros de hoy, con capacidad de almacenar multigigabytes mantienen el mínimo principio de una cabeza de Lectura/Escritura suspendida sobre una superficie magnética que gira velozmente con precisión microscópica.

Pero hay un aspecto de los discos duros que probablemente permanecerá igual. A diferencia de otros componentes de la PC que obedecen a los comandos del software, el disco duro hace ruidos cuando emprende su trabajo. Estos ruidos son recordatorio de que es uno de los pocos componentes de una PC que tiene carácter mecánico y electrónico al mismo tiempo 

Los discos duros pertenecen a la llamada memoria secundaria o almacenamiento secundario. Al disco duro se le conoce con gran cantidad de denominaciones como disco duro, rígido (frente a los discos flexibles o por su fabricación a base de una capa rígida de aluminio), fijo (por su situación en el ordenador de manera permanente). Estas denominaciones aunque son las habituales no son exactas ya que existen discos de iguales prestaciones pero son flexibles, o bien removibles o transportables, u otras marcas diferentes fabricantes de cabezas. 

Las capacidades de los discos duros varían desde 10 Mb. hasta varios Gb. en minis y grandes ordenadores. Para conectar un disco duro a un ordenador es necesario disponer de una tarjeta controladora. La velocidad de acceso depende en gran parte de la tecnología del propio disco duro y de la tarjeta controladora asociada al discos duro. 

Estos están compuestos por varios platos, es decir varios discos de material magnético montados sobre un eje central sobre el que se mueven. Para leer y escribir datos en estos platos se usan las cabezas de lectura/escritura que mediante un proceso electromagnético codifican / decodifican la información que han de leer o escribir. La cabeza de lectura/escritura en un disco duro está muy cerca de la superficie, de forma que casi vuela sobre ella, sobre el colchón de aire formado por su propio movimiento. Debido a esto, están cerrados herméticamente, porque cualquier partícula de polvo puede dañarlos.

Un disco duro (del inglés hard disk (HD)) es un disco magnético en el que puedes almacenar datos de ordenador. El disco duro es la parte de tu ordenador que contiene la información electrónica y donde se almacenan todos los programas (software). Es uno de los componentes del hardware más importantes dentro de tu PC. 

El término duro se utiliza para diferenciarlo del disco flexible o disquete (floppy en inglés). Los discos duros pueden almacenar muchos más datos y son más rápidos que los disquetes. Por ejemplo, un disco duro puede llegar a almacenar más de 100 gigabytes, mientras que la mayoría de los disquetes tienen una memoria máxima de 1.4 megabytes. 

COMPONENTES DEL DISCO DURO
Normalmente un disco duro consiste en varios discos o platos. Cada disco requiere dos cabezales de lectura/grabación, uno para cada lado. Todos los cabezales de lectura/grabación están unidos a un solo brazo de acceso, de modo que no puedan moverse independientemente. Cada disco tiene el mismo número de pistas, y a la parte de la pista que corta a través de todos los discos se le llama cilindro.

LOS DISCOS (Platters)
Están elaborados de compuestos de vidrio, cerámica o aluminio finalmente pulidos y revestidos por ambos lados con una capa muy delgada de una aleación metálica. Los discos están unidos a un eje y un motor que los hace guiar a una velocidad constante entre las 3600 y 7200 RPM. Convencionalmente los discos duros están compuestos por varios platos, es decir varios discos de material magnético montados sobre un eje central. Estos discos normalmente tienen dos caras que pueden usarse para el almacenamiento de datos, si bien suele reservarse una para almacenar información de control.

LAS CABEZAS (Heads)
Están ensambladas en pila y son las responsables de la lectura y la escritura de los datos en los discos. La mayoría de los discos duros incluyen una cabeza Lectura/Escritura a cada lado del disco, sin embargo algunos discos de alto desempeño tienen dos o más cabezas sobre cada superficie, de manera que cada cabeza atiende la mitad del disco reduciendo la distancia del desplazamiento radial. Las cabezas de Lectura/Escritura no tocan el disco cuando este esta girando a toda velocidad; por el contrario, flotan sobre una capa de aire extremadamente delgada(10 millonésima de pulgada). Esto reduce el desgaste en la superficie del disco durante la operación normal, cualquier polvo o impureza en el aire puede dañar suavemente las cabezas o el medio. Su funcionamiento consiste en una bobina de hilo que se acciona según el campo magnético que detecte sobre el soporte magnético, produciendo una pequeña corriente que es detectada y amplificada por la electrónica de la unidad de disco.

EL EJE 
Es la parte del disco duro que actúa como soporte, sobre el cual están montados y giran los platos del disco.

"ACTUADOR" (actuator) 
Es un motor que mueve la estructura que contiene las cabezas de lectura entre el centro y el borde externo de los discos. Un "actuador" usa la fuerza de un electromagneto empujado contra magnetos fijos para mover las cabezas a través del disco. La controladora manda más corriente a través del electromagneto para mover las cabezas cerca del borde del disco. En caso de una perdida de poder, un resorte mueve la cabeza nuevamente hacia el centro del disco sobre una zona donde no se guardan datos. Dado que todas las cabezas están unidas al mismo "rotor" ellas se mueven al unísono. Mientras que lógicamente la capacidad de un disco duro puede ser medida según los siguientes parámetros:

CILINDROS (cylinders)
El par de pistas en lados opuestos del disco se llama cilindro. Si el HD contiene múltiples discos (sean n), un cilindro incluye todos los pares de pistas directamente uno encima de otra (2n pistas). Los HD normalmente tienen una cabeza a cada lado del disco. Dado que las cabezas de Lectura/Escritura están alineadas unas con otras, la controladora puede escribir en todas las pistas del cilindro sin mover el rotor. Como resultado los HD de múltiples discos se desempeñan levemente más rápido que los HD de un solo disco.
Pistas (tracks) 

Un disco está dividido en delgados círculos concéntricos llamados pistas. Las cabezas se mueven entre la pista más externa ó pista cero a la mas interna. Es la trayectoria circular trazada a través de la superficie circular del plato de un disco por la cabeza de lectura / escritura. Cada pista está formada por uno o más Cluster.

SECTORES (sectors)
Un byte es la unidad útil más pequeña en términos de memoria. Los HD almacenan los datos en pedazos gruesos llamados sectores. La mayoría de los HD usan sectores de 512 bytes. La controladora del H D determina el tamaño de un sector en el momento en que el disco es formateado. Algunos modelos de HD le permiten especificar el tamaño de un sector. Cada pista del disco esta dividida en 1 ó 2 sectores dado que las pistas exteriores son más grandes que las interiores, las exteriores contienen mas sectores.


DATOS DE CONTROL DEL DISCO
Es casi imposible evitar impurezas en la superficie magnética del disco, esto provoca que existan determinados sectores que son defectuosos. 

En los antiguos discos estos sectores venían apuntados por el control de calidad del fabricante del disco. En el formateo de bajo nivel, el usuario debería indicárselos al programa formateador. En los modernos, las direcciones de estos sectores se graban en pistas especiales o se reconocen durante el formateo a bajo nivel del disco, estos sectores se saltan o bien son sustituidos por otros que están en zonas protegidas. Es allí donde se guardan las tablas que marcan los sectores defectuosos y sus sustituciones. Esto disminuye el acceso al disco duro, pero teniendo en cuenta que el porcentaje de sectores defectuosos es mínimo, prácticamente no tiene importancia.

Hay que tener en cuenta que no toda la información que se encuentra en la superficie de los discos son datos, existen zonas donde se almacena información de control. 

Entre la información que se encuentran dentro de un sector:

• Numero de sector y cilindro

• El ECC (Error Correction Code) DATA.

• La zona de datos

• Zonas de separación entre zonas o entre pistas

También existen pistas extra donde se recogen otras informaciones como:

• Pistas "servo" donde se guardan cambios de flujo según un esquema determinado, para la sincronización al pulso de datos, necesario para la correcta compresión de las informaciones en RLL.

• Pistas de reserva, normalmente usadas como reserva de sectores defectuosos.

• Pistas de aparcamiento, usadas para retirar los cabezales evitando así choques del cabezal con la superficie con datos ante vibraciones o golpes de la unidad.

Tiempos de acceso, Velocidades y su medición

Existen una serie de Factores de Velocidad relacionados con los discos duros que son necesarios conocer para comprender su funcionamiento y sus diferencias.

• Tiempo de búsqueda de pista a pista : intervalo de tiempo necesario para desplazar la cabeza de lectura y escritura desde una pista a otra adyacente.

• Tiempo medio de acceso : tiempo que tarda, como media, para desplazarse la cabeza a la posición actual. Este tiempo promedio para acceder a una pista arbitraria es equivalente al tiempo necesario para desplazarse sobre 1/3 de las pistas del disco duro. El antiguo IBM PC/XT utilizaba discos de 80 a 110 milisegundos, mientras que los AT usaban discos de 28 a 40 milisegundos, y los actuales sistemas 386, 486 y PENTIUMÒ usan discos de menos de 20 milisegundos.

• Velocidad de Rotación: Número de vueltas por minuto (RPM) que da el disco.

• Latencia Promedio : Es el promedio de tiempo para que el disco una vez en la pista correcta encuentre el sector deseado, es decir el tiempo que tarda el disco en dar media vuelta. Velocidad de transferencia : velocidad a la que los datos (bits) pueden transferirse desde el disco a la unidad central. Depende esencialmente de dos factores : la velocidad de rotación y la densidad de almacenamiento de los datos en una pista

3600 rpm = 1 revolución cada 60/3600 segundos (16,66 milisegundos)

Si calculamos el tiempo de ½ vuelta --> Latencia Promedio 8,33 milisegundos

El trabajar a velocidades elevadas plantea varios problemas: El primer problema es que a esta velocidad la disipación del calor se concierte en un problema. El segundo es que exige a usar nuevos motores articulados pro fluidos para los engranajes, los actuales motores de cojinetes no pueden alcanzar estas velocidades sin una reducción drástica de fiabilidad, se quemarían demasiado rápido.

Además de todas estas características de velocidades y tiempos de acceso de los discos duros existen una serie de técnicas que nos permiten aminorar los accesos a disco así como acelerar las transferencias de datos entre el sistema y el dispositivo en cuestión. Una de las técnicas más conocidas en la informática para hacer esto es la del uso de memorias intermedias, buffers o cachés.

Buffer De Pista: Es una memoria incluida en la electrónica de las unidades de disco, que almacena el contenido de una pista completa. Así cuando se hace una petición de lectura de una pista, esta se puede leer de una sola vez, enviando la información a la CPU, sin necesidad de interleaving. 

• Cachés De Disco: Pueden estar dentro del propio disco duro, en tarjetas especiales o bien a través de programas usar la memoria central. La gestión de esta memoria es completamente invisible y consiste en almacenar en ella los datos más pedidos por la CPU y retirar de ella aquellos no solicitados en un determinado tiempo. Se usan para descargar al sistema de las lentas tareas de escritura en disco y aumentar la velocidad. 

Aparte de la velocidad del disco duro y de la controladora la forma en que se transfieren los datos de ésta a la memoria deciden también la velocidad del sistema. Se pueden emplear 4 métodos:

• Programed I/O (Pio Mode): La transferencia de datos se desarrolla a través de los diferentes puerto I/O de la controladora que también sirven para la transmisión de comandos (IN / OUT). La tasa de transferencia está limitada por los valores del bus PC, y por el rendimiento de la CPU. Se pueden lograr transferencias de 3 a 4 Mbytes. Con el modo de transferencia PIO 4, que es el método de acceso que actualmente utilizan los discos más modernos, es posible llegar a tasas de transferencia de 16,6 Mbytes / seg. 

• Memory mapped I/O: La CPU puede recoger los datos de la controladora de forma más rápida, si los deja en una zona de memoria fija, ya que entonces se puede realizar la transferencia de los datos a una zona de memoria del programa correspondiente con la introducción MOV, más rápida que los accesos con IN y OUT. El valor teórico máximo es de 8 Mbytes / seg.

• DMA: Es la transferencia de datos desde el disco a la memoria evitando pasar por la CPU. La ventaja de usar el DMA es que se libera al procesador para trabajar en otras tareas mientras las transferencias de datos se realizan por otro lado. El DMA además de ser inflexible es lento, no se puede pasar de más de 2 Mb. por segundo.

• Bus Master DMA: En esta técnica la controladora del disco duro desconecta la controladora del bus y transfiere los datos con la ayuda de un cotrolador Bus Master DMA con control propio. Así se pueden alcanzar velocidades de 8 a 16 Mb. por segundo.


DISTRIBUCIÓN DE UN DISCO DURO
Cluster

Es una agrupación de sectores, su tamaño depende de la capacidad del disco. La siguiente tabla nos muestra esta relación.

MEDIDAS QUE DESCRIBEN EL DESEMPEÑO DE UN HD

Los fabricantes de HD miden la velocidad en términos de tiempo de acceso, tiempo de búsqueda, latencia y transferencia. Estas medidas también aparecen en las advertencias, comparaciones y en las especificaciones. Tiempo de acceso (access time) Termino frecuentemente usado en discusiones de desempeño, es el intervalo de tiempo entre el momento en que un drive recibe un requerimiento por datos, y el momento en que un drive empieza a despachar el dato. El tiempo de acceso de un HD es una combinación de tres factores:

1- TIEMPO DE BÚSQUEDA (SEEK TIME)
Es el tiempo que le toma a las cabezas de Lectura/Escritura moverse desde su posición actual hasta la pista donde esta localizada la información deseada. Como la pista deseada puede estar localizada en el otro lado del disco o en una pista adyacente, el tiempo de búsqueda variara en cada búsqueda. En la actualidad, el tiempo promedio de búsqueda para cualquier búsqueda arbitraria es igual al tiempo requerido para mirar a través de la tercera parte de las pistas. Los HD de la actualidad tienen tiempos de búsqueda pista a pista tan cortos como 2 milisegundos y tiempos promedios de búsqueda menores a 10 milisegundos y tiempo máximo de búsqueda (viaje completo entre la pista más interna y la más externa) cercano a 15 milisegundos .

2- LATENCIA (LATENCY)
Cada pista en un HD contiene múltiples sectores una vez que la cabeza de Lectura/Escritura encuentra la pista correcta, las cabezas permanecen en el lugar e inactivas hasta que el sector pasa por debajo de ellas. Este tiempo de espera se llama latencia. La latencia promedio es igual al tiempo que le toma al disco hacer media revolución y es igual en aquellos drivers que giran a la misma velocidad. Algunos de los modelos más rápidos de la actualidad tienen discos que giran a 10000 RPM o más reduciendo la latencia.

3- COMMAND OVERHEAD
Tiempo que le toma a la controladora procesar un requerimiento de datos. Este incluye determinar la localización física del dato en el disco correcto, direccionar al "actuador" para mover el rotor a la pista correcta, leer el dato, redireccionarlo al computador.

TRANSFERENCIA
Los HD también son evaluados por su transferencia, la cual generalmente se refiere al tiempo en la cual los datos pueden ser leídos o escritos en el drive, el cual es afectado por la velocidad de los discos, la densidad de los bits de datos y el tiempo de acceso. La mayoría de los HD actuales incluyen una cantidad pequeña de RAM que es usada como cache o almacenamiento temporal. Dado que los computadores y los HD se comunican por un bus de Entrada/Salida, el tiempo de transferencia actual entre ellos esta limitado por el máximo tiempo de transferencia del bus, el cual en la mayoría de los casos es mucho más lento que el tiempo de transferencia del drive.

COMO FUNCIONA UN DISCO DURO.
1. Una caja metálica hermética protege los componentes internos de las partículas de polvo; que podrían obstruir la estrecha separación entre las cabezas de lectura/escritura y los discos, además de provocar el fallo de la unidad a causa de la apertura de un surco en el revestimiento magnético de un disco. 2. En la parte inferior de la unidad, una placa de circuito impreso, conocida también como placa lógica, recibe comandos del controlador de la unidad, que a su vez es controlado por el sistema operativo. La placa lógica convierte estos comandos en fluctuaciones de tensión que obligan al actuador de las cabezas a mover estas a lo largo de las superficies de los discos. La placa también se asegura de que el eje giratorio que mueve los discos de vueltas a una velocidad constante y de que la placa le indique a las cabezas de la unidad en que momento deben leer y escribir en el disco. En un disco IDE (Electrónica de Unidades Integradas), el controlador de disco forma parte de la placa lógica. 3. Un eje giratorio o rotor conectado a un motor eléctrico hacen que los discos revestidos magnéticamente giren a varios miles de vueltas por minuto. El número de discos y la composición del material magnético que lo s recubre determinan la capacidad de la unidad. Generalmente los discos actuales están recubiertos de una aleación de aproximadamente la trimillonésima parte del grosor de una pulgada. 4. Un actuador de las cabezas empuja y tira del grupo de brazos de las cabezas de lectura/escritura a lo largo de las superficies de los platos con suma precisión. Alinea las cabezas con las pistas que forman círculos concéntricos sobre la superficie de los discos. 5. Las cabezas de lectura/escritura unidas a los extremos de los brazos móviles se deslizan a la vez a lo largo de las superficies de los discos giratorios del HD. Las cabezas escriben en los discos los datos procedentes del controlador de disco alineando las partículas magnéticas sobre las superficies de los discos; las cabezas leen los datos mediante la detección de las polaridades de las partículas ya alineadas. 6. Cuando el usuario o su software le indican al sistema operativo que lea o escriba un archivo, el sistema operativo ordena al controlador del HD que mueva las cabezas de lectura y escritura a la tabla de asignación de archivos de la unidad, o FAT en DOS (VFAT en Windows 95). El sistema operativo lee la FAT para determinar en que Cluster del disco comienza un archivo preexistente, o que zonas del disco están disponibles para albergar un nuevo archivo. 7. Un único archivo puede diseminarse entre cientos de Cluster independientes dispersos a lo largo de varios discos. El sistema operativo almacena el comienzo de un archivo en los primeros Cluster que encuentra enumerados como libres en la FAT. Esta mantiene un registro encadenado de los Cluster utilizados por un archivo y cada enlace de la cadena conduce al siguiente Cluster que contiene otra parte mas del archivo. Una vez que los datos de la FAT han pasado de nuevo al sistema operativo a través del sistema electrónico de la unidad y del controlador del HD, el sistema operativo da instrucciones a la unidad para que omita la operación de las cabezas de lectura/escritura a lo largo de la superficie de los discos, leyendo o escribiendo los Cluster sobre los discos que giran después de las cabezas. Después de escribir un nuevo archivo en el disco, el sistema operativo vuelve a enviar las cabezas de lectura/escritura a la FAT, donde elabora una lista de todos los Cluster del archivo.

INTERFAZ ENHANCED INTEGRATED DRIVE ELECTRONICS (EIDE)
La norma IDE fue desarrollada por Western Digital y Compaq Computers a partir de una interfaz de disco del AT original que IBM creó en 1984. Desde entonces se convirtió en la interfaz más utilizada en el entorno PC. A pesar de esto IDE presenta unas limitaciones debido a su dependencia de la BIOS y al diseño del que parte. Hace poco las limitaciones en el tamaño de los HD y la velocidad de transferencia no daban problemas, pero como se han mejorado los procesadores y han salido programas más complejos, ya se notan.

Entonces se hizo un mejoramiento de las normas IDE y surgió Enhanced IDE, por cierto la nomenclatura de estas normas son similares a las de SCSI. Así, partiendo de la interfaz establecido de IDE llamado ATA (AT Attachment) surge ATA-2 y ATAPI (ATA Packed Interfaz), que permite conectar unidades de CD-ROM a controladores ATA.

ATA-2 se encuentra en proceso de normalización, permite alcanzar 16.6 Mbps (según el tipo de periférico que prestan las E/S); según su esquema de translación de direcciones se pueden encontrar dos métodos en ATA-2:

- Mediante el tradicional sistema de cilindros/Cabezas/Sectores (CHS). De esta forma se transforman los parámetros de CHS de la Bios en los de la unidad. Como ventaja tiene su sencillez.

- Mediante LBA(Logical Block Address). Consiste en transformar los parámetros CHS en una dirección de 28 bits que puede ser usada por el sistema Operativo, los drives de los dispositivos, etc. 

En ambos casos se necesita una BIOS extra para permitir superar la limitación de 528 Mb.

 Ventajas De Enhanced IDE:
*Máximo cuatro dispositivos conectados
*Soporta CD-ROM y cinta
*Transparencia de hasta 16.6 Mbps
*Capacidad máxima de 8.4 Gbytes
Velocidades en ATA-2
*11.1 con PIO Modo3
*13.3 Mbps con DMA Modo1
*16.6 Mbps con PIO Modo4

 TERMINOS RELACIONADOS 
ATA (AT Attachment), dispositivo de AT. Es el dispositivo IDE que más se usa en la actualidad, por los que a veces se confunde con el propio IDE. Originalmente se creó para un bus ISA de 16 bits.

ATAPI (ATA PACKET INTAERFACE), Interfaz de paquete ATA. Es una extensión del protocolo ATA para conseguir una serie de comandos y registros que controlen el funcionamiento de un CD-ROM, es fácilmente adaptable para una cinta de Backup.

DMA (DIRECT MEMORY ACCESS), Acceso directo a memoria. Componente integrado en un periférico que libera al procesador en la tarea de transferir datos entre dispositivos y memoria. El acceso se realiza por bloque de datos. 

PIO (PROGRAMABLE INPUT/OUTPUT), Entrada/Salida programable. Componente encargado de ejecutar las instrucciones dirigidas a los periféricos. A diferencia de la DMA requiere atención del procesador para su funcionamiento. Como contrapartida es mucho más sencillo y barato.

Controladoras
La interface es la conexión entre el mecanismo de la unidad de disco y el bus del sistema. Define la forma en que las señales pasan entre el bus del sistema y el disco duro. En el caso del disco, se denomina controladora o tarjeta controladora, y se encarga no sólo de transmitir y transformar la información que parte de y llega al disco, sino también de seleccionar la unidad a la que se quiere acceder, del formato, y de todas las órdenes de bajo nivel en general. La controladora a veces se encuentra dentro de la placa madre.

Se encuentran gobernados por una controladora y un determinado interface que puede ser:

• ST506: Es un interface a nivel de dispositivo; el primer interface utilizado en los PC’s. Proporciona un valor máximo de transferencia de datos de menos de 1 Mbyte por segundo. Actualmente esta desfasado y ya no hay modelos de disco duro con este tipo de interface.

• ESDI: Es un interface a nivel de dispositivo diseñado como un sucesor del ST506 pero con un valor más alto de transferencia de datos (entre 1,25 y 2.5 Mbytes por segundo).Ya ha dejado de utilizarse este interface y es difícil de encontrar.

• IDE: Es un interface a nivel de sistema que cumple la norma ANSI de acoplamiento a los AT y que usa una variación sobre el bus de expansión del AT (por eso también llamados discos tipo AT) para conectar una unidad de disco a la CPU, con un valor máximo de transferencia de 4 Mbytes por segundo. En principio, IDE era un término genérico para cualquier interface a nivel de sistema. La especificación inicial de este interface está mal definida. Es más rápida que los antiguos interfaces ST506 y ESDI pero con la desaparición de los ATs este interface desaparecerá para dejar paso al SCSI y el SCSI-2.

Íntimamente relacionado con el IDE, tenemos lo que se conoce como ATA, concepto que define un conjunto de normas que deben cumplir los dispositivos. Años atrás la compañía Western Digital introdujo el standard E-IDE (Enhanced IDE), que mejoraba la tecnología superando el límite de acceso a particiones mayores de 528 Mb. y se definió ATAPI, normas para la implementación de lectores de CD-ROM y unidades de cinta con interfaz IDE. E-IDE se basa en el conjunto de especificaciones ATA-2. Como contrapartida comercial a E-IDE, la empresa Seagate presento el sistema FAST-ATA-2, basado principalmente en las normas ATA-2. En cualquier caso a los discos que sean o bien E-IDE o FAST-ATA, se les sigue aplicando la denominación IDE como referencia. Para romper la barrera de los 528 Mb. las nuevas unidades IDE proponen varias soluciones:

* El CHS es una traducción entre los parámetros que la BIOS contiene de cilindros, cabezas y sectores (ligeramente incongruentes) y los incluidos en el software de sólo lectura (Firmware) que incorpora la unidad de disco.

* El LBA (dirección lógica de bloque), estriba en traducir la información CHS en una dirección de 28 bits manejables por el sistema operativo, para el controlador de dispositivo y para la interfaz de la unidad. 

Debido a la dificultad que entraña la implemetación de la compatibilidad LBA en BIOS, muchos de los ordenadores personales de fabricación más reciente continúan ofreciendo únicamente compatibilidad con CHS. El techo de la capacidad que permite las solución CHS se sitúa en los 8,4 Gb, que por el momento parecen suficientes.

• SCSI: Es un interface a nivel de sistema, diseñado para aplicaciones de propósito general, que permite que se conecten hasta siete dispositivos a un único controlador. Usa una conexión paralela de 8 bits que consigue un valor máximo de transferencia de 5 Mbytes por segundo. Actualmente se puede oír hablar también de SCSI-2 que no es más que una versión actualizada y mejorada de este interface. Es el interface con más futuro, si bien tiene problemas de compatibilidad entre las diferentes opciones de controladoras, discos duros, impresoras, unidades de CD-ROM y demás dispositivos que usan este interface debido a la falta de un estándar verdaderamente sólido.

Las mejoras del SCSI-2 sobre el SCSI tradicional son el aumento de la velocidad a través del bus, desde 5 Mhz a 10 Mhz, duplicando de esta forma el caudal de datos. Además se aumenta el ancho del bus de 8 a 16 bits, doblando también el flujo de datos. Actualmente se ha logrado el ancho de 32 bits, consiguiendo velocidades teóricas de hasta 40 Mbytes / seg.

Los interfaces IDE y SCSI llevan la electrónica del controlador en el disco, por lo que el controlador realmente no suele ser mas que un adaptador principal para conectar el disco al PC. Como se puede ver unos son interfaces a nivel de dispositivo y otros a nivel de sistema, la diferencia entre ambos es:

INTERFACE A NIVEL DE DISPOSITIVO:

Es un interface que usa un controlador externo para conectar discos al PC. Entre otras funciones, el controlador convierte la ristra de datos del disco en datos paralelos para el bus del microprocesador principal del sistema. ST506 y ESDI son interfaces a nivel de dispositivo.


INTERFACE A NIVEL DE SISTEMA:

Es una conexión entre el disco duro y su sistema principal que pone funciones de control y separación de datos sobre el propio disco (y no en el controlador externo), SCSI e IDE son interfaces a nivel de sistema.


ESTRUCTURA LÓGICA DE LOS DISCOS DUROS

Lo que interrelaciona los discos duros con los disquetes, es su estructura, que se resumen en diferentes funciones del BIOS, que sirven entre otras cosas para el acceso a los mismos.

En primer lugar, internamente los discos duros se pueden dividir en varios volúmenes homogéneos. Dentro de cada volumen se encuentran una estructura que bajo el sistema operativo del Ms-Dos, sería la siguiente:


Sector de Arranque.

Primera tabla de localización de archivos (FAT).

Una o más copias de la FAT.

Directorio Raíz (eventualmente con etiqueta de volumen).

Zona de datos para archivos y subdirectorios.

Como se muestra en el cuadro anterior, cada volumen se divide en diferentes zonas que por una parte acogen las diferentes estructuras de datos del sistema de archivos, y por otra los diferentes archivos y subdirectorios. En dicho cuadro no se han hecho referencia al tamaño de las diferentes estructuras de datos y zonas. Pero no es posible describirlas, ya que se adaptan individualmente al tamaño del volumen correspondiente 

• El Sector de Arranque:
Al formatear un volumen, el sector de arranque se crea siempre como primer sector del volumen, para que sea fácil de localizar por el DOS. En él se encuentra información acerca del tamaño, de la estructura del volumen y sobre todo del BOOTSTRAP-LOADER, mediante el cual se puede arrancar el PC desde el DOS. A ésta parte se le llama sector de arranque (BOOT).

• La Tabla de Asignación de Ficheros (File Allocation Table) (FAT) : Si el DOS quiere crear nuevos archivos, o ampliar archivos existentes, ha de saber qué sectores del volumen correspondiente quedan libres, Estas informaciones las toma la llamada FAT. Cada entrada a esta tabla se corresponde con un número determinado de sectores, que son adyacentes lógicamente en el volumen. Cada uno de estos grupos de sectores se llama Cluster. El tamaño de las diferentes entradas de esta tabla en las primeras versiones del DOS era de 12 bits. con lo que se podían gestionar hasta 4.096 Clusters, correspondiente a una capacidad aproximada de 8 Mbytes. En vista del problema que surgió al aparecer discos duros de capacidades más elevadas, se amplió el tamaño a 16 bits., permitiendo el direccionamiento de un máximo de 65.535 Clusters. Actualmente se está creando FAT’s de hasta 32 bits, para discos duros capaces de almacenar Gigas de información.

• Una o más copias de la FAT :
El DOS permite a un programa de formateo crear no sólo una, sino varias copias idénticas de la FAT. Si el DOS encuentra uno de estos medios, cuida todas las copias de la FAT simultáneamente, así que guarda allí los nuevos clusters ocupados o liberados al crear o borrar archivos. Esto ofrece la ventaja de que se puede sustituir la FAT primaria en caso de defecto por una de sus copias, para evitar la pérdida de datos.

• El directorio Raíz :
La cantidad máxima de entradas en el directorio raíz se limita por su tamaño, que se fija en el sector de arranque. Ya que el directorio raíz representa una estructura de datos estática, que no crece si se guardan más y más archivos o subdirectorios. De ahí que, dependiendo del tamaño, bien un disco duro o bien de volumen, se selecciona el tamaño del directorio raíz en relación al volumen.

• La Zona de Datos :
Es la parte del disco duro en la que se almacena los datos de un archivo. Esta zona depende en casi su totalidad de las interrelaciones entre las estructuras de datos que forman el sistema de archivos del DOS, y del camino que se lleva desde la FAT hacia los diferentes sectores de un archivo.


ÚLTIMAS TECNOLOGÍAS Y TENDENCIAS 

La aceleración del los nuevos disco IDE se basan en dos métodos:

• Con el control de flujo a través de IORDY (en referencia a la línea de bus ATA " Canal de e/s preparado" se acelera el control PIO. Gracias al control de flujo, la parte electrónica de la unidad de disco puede regular las funciones de transferencia de datos del microprocesador, y el disco duro puede comunicarse con el bus a mayor velocidad de manera fiable. El standard PIO modo 3 tiene una transferencia teórica máxima de 11,1 Mbytes / seg., el nuevo PIO modo 4 de 16,6 Mbytes, y el futuro PIO modo 5 promete hasta 33 Mbytes / seg.

• El otro método alternativo denominado FAST Multiword DMA con el controlador DMA (acceso directo a memoria) sustituye al procesador en el gobierno de las transferencias de datos entre el disco duro y la memoria del sistema. SSF define que el Modo 1 de transferencias DMA soporte velocidades internas de hasta 13,3 Mbps, lo que es equiparable a los resultados del control PIO en modo 3.

Los disco duros de hoy (especialmente los de mañana) se adentran en complicadas tecnologías y campos científicos (mecánica cuántica, aerodinámica, y elevadas velocidades de rotación). La combinación de estas tecnologías permite que la capacidad de los discos duros aumente cerca de un 60 % cada año; cada cinco años se multiplica por diez su capacidad. Los analistas esperan que este ritmo de crecimiento no se mantenga hasta finales de siglo.

Para mejorar las posibilidades del disco duro hay que acercar los cabezales a la superficie del disco. Los cabezales pueden escribir y leer dominios magnéticos menores, cuanto menor sean éstos mayor densidad de datos posible de cada plato. Pero cuanto más cerca estén los cabezales, mayor será la probabilidad de colisión con la superficie. Una solución es recubrir el plato con materiales protectores, rediseñar las características aerodinámicas de los cabezales, etc. Además el paso de una mayor cantidad de datos por los cabezales exige perfeccionar los componentes electrónicos, e incluso puede obligar a ampliar la memoria caché integrada . Además no hay que olvidar que los dominios menores son estables a las temperaturas de funcionamiento normales. Y todo esto a un precio competitivo.

Ejemplo de nuevos diseños es la tecnología MR (Magnetoresistiva) de IBM que utiliza nuevos materiales. Usa cabezales con mejor relación señal /ruido que los de tipo inductivo, separando los de lectura de los de escritura. Pueden trabajar con dominios magnéticos menores aumentando la densidad de almacenamiento. Además son menos sensibles al aumento de la velocidad permitiendo velocidades de rotación mayores. Sus inconvenientes son su dificultad y alto precio de fabricación, y su sensibilidad ante posibles cargas eléctricas. Se investiga en una mejora llamada GMR (MR Gigante) que emplea el efecto túnel de electrones de la mecánica cuántica. 

Nuevas tecnologías van encaminadas a potenciar la resistencia de la superficie magnética de los platos con materiales antiadherentes derivados del carbono. Esto junto con las técnicas de cabezales de grabación en proximidad, los TRI-PAD (cabezales trimorfos) y los de contacto virtual permiten acercar los cabezales hasta incluso entrar ocasionalmente en contacto con la superficie del plato. 

A través de la técnica de carga dinámica del cabezal se garantiza la distancia de vuelo del cabezal respecto a la superficie, usando zonas de seguridad y cierres inerciales en las cabezas. Así no se necesita una preparación especial de la superficie del plato.