22/6/09

TARJETA DE VÍDEO

LA TARJETA DE VÍDEO EN TU COMPUTADORA
La tarjeta de video, (también llamada controlador de video), es un componente electrónico requerido para generar una señal de video que se manda a una pantalla de video por medio de un cable. La tarjeta de video se encuentra normalmente en la placa de sistema de la computadora o en una placa de expansión. La tarjeta gráfica reúne toda la información que debe visualizarse en pantalla y actúa como interfaz entre el procesador y el monitor; la información es enviada a éste por la placa luego de haberla recibido a través del sistema de buses. Actualmente las tarjetas gráficas de las computadoras cuentan también un acelerador de gráficos.

Tipos de Tarjeta de Vídeo:

Tarjeta CGA
La CGA aporta resoluciones y colores distintos. Los tres colores primarios se combinan digitalmente formando un máximo de ocho colores distintos. La resolución varía considerablemente según el modo de gráficos o esolución que se esté utilizando, por ejemplo una resolusión de 160 X 100 PUNTOS con 16 COLORES. Lo cual, aunque parezca increíble, resultó toda una revolución. Aparecieron multitud de juegos que aprovechaban al máximo tan exiguas posibilidades, además de programas más serios, y los gráficos se instalaron para siempre en el PC.

Tarjeta de Vídeo EGA
Enchanced Graphics Adapter (EGA), se trata de una tarjeta gráfica superiora la CGA. En el modo texto ofrece una resolución de 14x18 puntos y en el modo gráfico dos resoluciones diferentes de 640x200 y 640x350 a 4 bits, lo que da como resultado una paleta de 16 colores, siempre y cuando la tarjeta esté equipada con 256KB de memoria de video RAM.

Las tarjetas EGA hicieron posible que los entornos gráficos se extendieran al mundo PC (los Apple llevaban años con ello), y aparecieron el GEM, el Windows y otros muchos. Sobre las posibilidades de las pantallas EGA, una curiosidad: los drivers EGA de Windows 3.1 funcionan sobre Windows.

Tarjeta de Vídeo VGA
La Video Graphics Adapter (VGA) significó la aparición de un nuevo estándar del mercado. Esta tarjeta ofrece una paleta de 256 colores, dando como resultado imágenes de colores mucho más vivos. Las primeras VGA contaban con 256KB de memoria y solo podían alcanzar una resolución de 320x200 puntos con la cantidad de colores mencionados anteriormente, gracias a ésta ampliaciónes ha sido posible conseguir resoluciónes de mayor calidad. Las VGA han sido el estándar, uso obligado desde hace ya 10 años. Tiene multitud de modos de vídeo posibles, aunque el más común es el de 640x480 puntos con 256 colores, conocido generalmente como "VGA estándar" o "resolución VGA".

El éxito del VGA llevó a numerosas empresas a crear sus propias ampliaciones de la mismo, siempre centrándose en aumentar la resolución y/o el número de colores disponibles

TARJETA DE VÍDEO SVGA
El éxito del VGA llevó a numerosas empresas a crear sus propias ampliaciones del mismo, siempre centrándose en aumentar la resolución y/o el número de colores disponibles. Entre ellos estaban el SVGA que ofrecio al principio una Máxima resolución de 800x600 y máximo número 256 de colores.

El modo gráfico SVGA da más soltura a nuestros programas al dotarles de más resolución o colorido, tras la aparición de la VGA surge una nueva tarjeta mejorada (la SuperVGA o SVGA) que actualemente cuenta con con prestaciones increibles de resoluciones como 1024x768, y paletas de hasta 16 millones de colores).

Pero la recomendaciones generales que se pueden dar para que adquieras una tarjeta de video para tu computadora es que la tarjeta de video es que sea, con chip 3D y 32 MB SDRAM, o aun mejor de marca con chip 3D de gama alta y 32 ó 64 MB SDRAM o DDR-SDRAM.

Algunas de las tarjetas de video recientemente liberadas al mercado son:
Por parte de Creative Labs Ensoniq PCI TAO6305, AUDIGY 2 TAO6305, 3D Blaster GF5 FX5200 128MB y 3D Blaster GF5 FX5200 Ultra 128MB, mientras que Matrox ha liberado Millenium P750 64Mb Triple Monitor y Matrox P650 64 Mb Dual Bulk. También el fbricante MSI ofrece Geforce FX 5200 T 128Mb y Geforce FX 5950U VTD 256Mb. Estos son solo unos ejemplos pero existen muchos mas productores en el mercado que ofrecen varias alternativas.

LA TARJETA DE SONIDO EN LA COMPUTADORA
Es una tarjeta electrónica que se conecta a una ranura que tiene la computadora (CPU, en específico la tarjeta madre) que tiene como funciones principales: la generación o reproducción de sonido y la entrada o grabación del mismo. Para reproducir sonidos, las tarjetas incluyen un chip sintetizador que genera ondas musicales. Este sintetizador solía emplear la tecnología FM, que emula el sonido de instrumentos reales mediante pura programación; sin embargo, una técnica relativamente reciente ha eclipsado a la síntesis FM, y es la síntesis por tabla de ondas (WaveTable).

Prácticamente la totalidad de las tarjetas de sonido para computadoras del mercado incluyen puerto MIDI; se trata de un estándar creado por varios fabricantes, que permite la conexión de cualquier instrumento, que cumpla con esta norma, a la computadora, e intercambiar sonido y datos entre ellos. Así, es posible controlar un instrumento desde el PC, enviándole las diferentes notas que debe tocar, y viceversa; para ello se utilizan los llamados secuenciadores MIDI.
El criterio más inteligente es tener claro para qué la vamos a utilizar: si vamos a pasar la mayor parte del tiempo jugando, podemos prescindir de elementos avanzados, más enfocados a profesionales del sonido.
En cualquier caso y cualquiera que sea nuestra selección hay varias fabricantes de tarjetas de sonido como Creative, Genius, Terratec y Guillemot.

La Memoria RAM de una computadora:
La memoria en tu computadora personal es un factor fundamental en el rendimiento del equipo y determina el tipo y la cantidad de aplicaciones que podemos usar.

La mayoría de los usuarios sabemos que es trabajar en un sistema que no tiene suficiente memoria: el sistema arranca lentamente, los errores pueden ocurrir con frecuencia y algunas veces ni siquiera se puede ejecutar una nueva aplicación o abrir un nuevo archivo sin que primero se salga o se cierre la anterior. Sin embargo en un sistema con suficiente memoria es posible realizar varias tareas a la vez, como imprimir un documento mientras se trabaja en otro o abrir simultaneamente una amplia variedad de aplicaciones.

En definitiva, la memoria es el componenete que más influye en el tipo y cantidad de aplicaciones que podemos ejecutar (aunque no directamente en la velocidad de ejecución), ya que la computadora usa la memoria RAM (Random Access Memory o memoria de acceso aleatario) para mantener provisionalmente las intrucciones y datos necesarios para completar las tareas, lo que permite que CPU o procesador acceda rápidamente a éstos. En términos prácticos, esto significa más trabajo acabado y menos tiempo esperando a que la computadora realice sus tareas.

También pon atención a la velocidad de memoria RAM que compres. La velocidad de los chips de memoria se mide en nanosegundos (ns). Actualmente hallarás chips de 60 a 80 ns. Los de 60 ns son los más rápidos. Compra la mayor velocidad que pueda soportar tu equipo. Mientras más rápida sea la memoria, más rápidamente reaccionará el ordenador a las aplicaciones. Al adquirir memoria RAM, fíjate también en los detalles de los módulos de memoria. Determina el fabricante del RAM si estás tratando de mejorar tu memoria RAM ya existente. Generalmente, el nombre del fabricante se halla impreso en los chips mismos. Si no puedes determinar el fabricante del RAM de tu computadora, observa algunos de los detalles de su construcción. Equipos personales de alta calidad tienen componentes de memoria con conectores dorados, es decir, la parte que encaja en la placa base. Los de baja calidad tienen conectores de estaño.

La memoria esta agrupada en modulos que se insertan en la tarjeta madre, los tipos de estos módulos son:

Memoria SIMM
Siglas de Single In line Memory Module, un tipo de encapsulado que consiste en una pequeña placa de circuito impreso que almacena chips de memoria, y que se inserta en un zócalo o slot SIMM en la tarjeta madre de la computadora.

SIMMs de 30 y 72 contactos
Hay SIMM's de 30 contactos, cada uno de los cuales soporta 8 bits de datos. Necesitaremos 4 SIMM's de 30 contactos para conseguir los 32 bits. Típicamente, estas placas tienen 8 zócalos divididos en dos bancos de 4 zócalos cada uno. El microprocesador sólo puede direccionar uno de los dos bancos en cada momento. En algunos computadoras, el hecho de mezclar SIMM's de diferente capacidad en el mismo banco, puede producir efectos tales como una mala detección de la cantidad de memoria del sistema, o que la computadora no arranque.

Los SIMMs de 72 contactos se desarrollaron para satisfacer los requerimientos de expansión de memoria cada vez mayores. Un SIMM de 72 contactos soporta 32 bits de datos, es decir, cuatro veces el número de bits de datos soportado por los SIMM de 30 contactos.

Memoria DIMM
Los módulos de memoria DIMM para computadora (Dual In-Line Memory Module), son similares a los SIMM, aunque con notables diferencias. Al igual que los SIMM, los DIMM se instalan verticalmente en los sockets de memoria de la placa base o tarjeta madre de la computadora. Sin embargo, un DIMM dispone de 168 contactos, la mitad por cada cara, separados entre sí. Los DIMM se instalan en aquellas placas que soportan típicamente un bus dememoria de 64 bits o más. Típicamente, son los módulos que se montan en todas las placas Pentium-II con chipset LX, y hoy por hoy se han convertido en el estándar en lo que a memoria RAM se refiere.

La memoria DIMM se coloca en un único módulo. Trabaja a 3.3v.. Es la que se utiliza ahora en las placas Pentium II y Pentium III actuales y en las placas Super Socket 7. Esta memoria proporciona 8 bytes por acceso. Hay una versión especial para computadoras portátiles llamada SO-DIMM, que es un DIMM de tamaño más reducido.

Memoria Flash o Flash RAM
Aunque contamos con los CDs que son la mejor opción para algunos usuarios, pero el inconveniente es que son frágiles y no son realmente pequeños y practicos. Hay dispositivos portátiles que utilizan este tipo de memoria portatil como por ejemplo los reproductores MP3 de bolsillo, camaras digitales o los palm pilots.

La flash Ram es un tipo de almacenamiento portátil y esta constituida por chips en estado solido sin partes moviles, que tienen la propiedad de conservar los datos cuando se les quita la fuente de alimentación, osea cuando se apaga el dispositivo que la usa. La gran ventaja de la memoria Flash RAM es muy pequeña y práctica, tiene una resistencia a daños muy buena y una gran compatibilidad con equipos portatiles.

Existe muchos formatos de memoria flash y cada vez podremos disponer de este tipo de almacenamiento con mayor capacidad y mas pequeño. A continuación te presentamos los modelos y tipos de memoria flash que podemos conseguir.

USB Drives
Es un pequeño dispositivo que tenemos que conectar al puerto USB y asi poder transferir datos sin complicaciones, los primeros usb drives tenian capacidad de 8MB, pero ahora podemos encontrar algunos de hasta 256MB, tienen una alta portabilidad y compatibilidad. Pero algunos modelos necesitan drivers para Windows XP, aunque muy pocos.

Multimedia Card o MMC
Este tipo de memoria flash se puede conseguir actualmente con una capacidad de hasta 256MB, y son muy ligeras y pequeñas (32mm x 24mm x 1.4mm y con un peso de 1.5 gramos), solo tiene una desventaja y es que son un poco menos resistenetes a los maltratos

Memory Stick
Este formato o tipo de memoria flash pertenece a Sony que la usan en todos sus productos como por ejemplo cámaras digitales, PDAs y reproductores de música digital, cuando recien salieron al mercado tenian una capacidad de 128MB, pero ahora hay unas de hasta 1GB en una sola tarjeta, pero es un poco mas cara que otro tipo de memoria flash.

Compact Flash
Este fue el primer tipo de tarjetas flash que se hizo popular en el comienzo. Creado por Sandisk, ofrecen una capacidad de almacenamiento de hasta 1GB, y son pequeñas y ligeras.

Secure Digital o SD
Se usa mucho en productos Palm y en cámaras digitales, su máxima capacidad por el momento es de 256MB, una gran característica es que protege los datos contra copia, por eso se usa para distribuir e-books y enciclopedias digitales, puede transferir datos hasta cuatro veces mas rápido que una MMC. Su peso es de 2 gramos y mide 32mm x 24mm x 2.1mm.

Smartmedia
Son muy usadas en reproductores MP3 y PDAs, fue creada por Toshiba. Mide 45mm x 37mm x 0.76mm, como puedes ver son pequeñas pero no tanto como otros tipos de memoria flash como SD y MMC. Las podemos encontrar con capacidad de 256MB y 128MB.

TARJETA DE RED 
Es una placa de circuito impreso que proporciona las capacidades de comunicación de red a la PC. Se enchufa en la motherboard y muestra, hacia afuera de la CPU, un puerto de conexión a la red. Algunas motherboards vienen provistas de dispositivos de red on-board. 

Para funcionar, cada tarjeta requiere una IRQ y una dirección E/S. 

Una IRQ (o línea de petición de interrupción) es una señal que informa a la CPU que se ha producido un evento al cual se debe prestar atención. Se envía una IRQ a través de una línea de hardware al microprocesador. Un ejemplo de petición de interrupción es cuando se presiona una tecla en el teclado; la CPU debe desplazar el carácter del teclado a la memoria RAM. 
Una dirección de E/S es una ubicación en la memoria que se utiliza para introducir o retirar datos de la computadora mediante un dispositivo auxiliar.
Al seleccionar una tarjeta de red, debe tener en cuenta los tres factores siguientes:
1. el tipo de red (Ethernet, FastEhernet, Token Ring o FDDI) 
2. el tipo de cableado (cable de par trenzado, cable coaxil o fibra óptica) 
3. tipo de bus del sistema (por ejemplo, PCI o ISA) 




21/6/09

DISPOSITIVOS DE ALMACENAMIENTO

DISPOSITIVOS DE ALMACENAMIENTO

Dispositivo de almacenamiento es todo aparato que se utilice para grabar los datos de la computadora de forma permanente o temporal. Una unidad de disco, junto con los discos que graba, es un dispositivo de almacenamiento. A veces se dice que una computadora tiene dispositivos de almacenamiento primarios (o principales) y secundarios (o auxiliares). Cuando se hace esta distinción, el dispositivo de almacenamiento primario es la memoria de acceso aleatorio (RAM) de la computadora, un dispositivo de almacenamiento permanente pero cuyo contenido es temporal. El almacenamiento secundario incluye los dispositivos de almacenamiento más permanentes, como unidades de disco y de cinta.


La velocidad de un dispositivo se mide por varios parámetros: la velocidad máxima que es capaz de soportar, que suele ser relativa, en un breve espacio de tiempo y en las mejores condiciones; la velocidad media, que es la que puede mantener de forma constante en un cierto período de tiempo, y, por último, el tiempo medio de acceso que tarda el dispositivo en responder a una petición de información debido a que debe empezar a mover sus piezas, a girar y buscar el dato solicitado. Este tiempo se mide en milisegundos (ms), y cuanto menor sea esta cifra más rápido será el acceso a los datos. 

Evolución Histórica de los Dispositivos de Almacenamiento en General.
Uno de los primero dispositivos de almacenamiento de información fue la tarjeta perforada de Babagge, la cual tenía un inconveniente, no podía ser reutilizada. Luego aparece la cinta magnética, esta si era reutilizable pero no era de acceso aleatorio (para leer un bit se debían leer todos los anteriores), por ultimo aparecen los discos magnéticos los cuales eran reutilizables y también de acceso aleatorio. 
En la década de 1950 aparecen los dispositivos magnéticos, considerados los dispositivos de almacenamiento de información más generalizados en cualquier sistema, ya que estos tenían una elevada capacidad de almacenamiento y una rapidez de acceso directo a la información. 
A finales de la década de los 80’ aparecen los dispositivos ópticos los cuales fueron utilizados en primera instancia para la televisión. En 1988 gracias a su fácil transportabilidad y su alta capacidad de almacenaje, este dispositivo se populariza, se empieza a comercializar y a utilizar en las computadoras. La primera generación de discos ópticos fue inventada en Phillips, y Sony colaboro en su desarrollo. 

Evolución Histórica de algunos dispositivos Específicos.
Discos Flexibles o Floppy Disk
El disco flexible nació en IBM, y a inicios de la década de los 70’ se introdujo en las unidades de esta marca. En 1972, salio al mercado el sistema 3740 dotado de una memoria de mesa basado en un disco flexible. 


Estos discos flexibles, disquete o Floppy Disk fueron los más usados en los años 1980 y 1990, desde entonces han pasado por una serie de evoluciones en cuanto a tamaño y a capacidad de almacenamiento, comenzando de 8 pulgadas, luego con 5 1/4 y para finalizar los de 3 1/2, esto en cuanto a sus dimensiones, En cuanto a capacidad de almacenamiento o memorización pasaron de tener alrededor de 100 Kbytes a poseer mas de 1 Mbytes en las unidas de 3 1/2. 
No obstante a comienzos de los años 1990, al aumentar el tamaño del los programas informáticos, se requería mayor número de disquette para guardar una determinada información debido a que dichos disquettes no se daban a basto. Por esta razón a finales de los 90, la distribución de programas cambió gradualmente al CD-ROM, y se introdujeron formatos de copias de seguridad de alta densidad como el disco Zip. Con la llegada de Internet a las masas y de un ethernet barato, el disquete ya no era necesario para guardar la información, y fue por consecuencia suplantado. 


Ahora se realizan copias de seguridad masivas en unidades de cinta de gran capacidad (como cintas de audio digital, ing: DAT) o en CD-ROM utilizando una grabadora de discos compactos. También se ha impuesto el uso de los llamados llaveros USB para poder transportar cómodamente en un reducido espacio una gran cantidad de información. 
De todas formas, los fabricantes eran reacios a retirar la unidad de disco flexible de los ordenadores, argumentando que servían para mantener la compatibilidad con programas anteriores. La empresa Apple fue la primera en eliminar el disco flexible por completo con la puesta en circulación de su modelo iMac en 1998 el cual no tenía unidad de disco flexible. En marzo de 2003, Dell tomó una decisión similar al hacer la unidad de disco flexible opcional en sus ordenadores, una decisión considerada mayoritariamente como el final del disco flexible como medio de almacenamiento e intercambio de datos mayoritario. 


Aunque los disquetes han sido desplazados por los Pen Driwers, los CD, etc.; todavía se siguen utilizando los disquetes con formato de 3 ½ pulgadas; ya que estos cuales están mucho mejor protegidos por un plástico rígido y un escudo, plástico o metálico, que protege una ranura existente en la superficie del material protector del disco (la ventana de lectura) que los discos de 5 ¼ pulgadas, envueltos en un plástico de mucho menos grosor y sin protección en la ventana de lectura. Su facilidad para el manejo habitual y las menores restricciones para su almacenamiento, mientras no sea utilizado el soporte físico, le dan importantes ventajas sobre los discos de 5 1/4 pulgadas.


Unidades de información
Bit (Binary Digit o dígito binario): Adquiere el valor 1 ó 0 en el sistema numérico binario. En el procesamiento y almacenamiento informático un bit es la unidad de información más pequeña manipulada por el ordenador y está representada físicamente por un elemento como un único pulso enviado a través de un circuito, o bien como un pequeño punto en un disco magnético capaz de almacenar un 0 o un 1. La representación de información se logra mediante la agrupación de bits para lograr un conjunto de valores mayor que permite manejar mayor información. Por ejemplo, la agrupación de ocho bits componen un byte que se utiliza para representar todo tipo de información, incluyendo las letras del alfabeto y los dígitos del 0 al 9. 


Código ASCII (American Standard Code for Information Interchange o Código Estándar Americano para el Intercambio de Información): Esquema de codificación que asigna valores numéricos a las letras, números, signos de puntuación y algunos otros caracteres. Al normalizar los valores utilizados para dichos caracteres, ASCII permite que los ordenadores o computadoras y programas informáticos intercambien información. 


ASCII incluye 256 códigos divididos en dos conjuntos, estándar y extendido, de 128 cada uno. Estos conjuntos representan todas las combinaciones posibles de 7 u 8 bits, siendo esta última el número de bits en un byte. El conjunto ASCII básico, o estándar, utiliza 7 bits para cada código, lo que da como resultado 128 códigos de caracteres desde 0 hasta 127 (00H hasta 7FH hexadecimal). El conjunto ASCII extendido utiliza 8 bits para cada código, dando como resultado 128 códigos adicionales, numerados desde el 128 hasta el 255 (80H hasta FFH extendido).


En el conjunto de caracteres ASCII básico, los primeros 32 valores están asignados a los códigos de control de comunicaciones y de impresora —caracteres no imprimibles, como retroceso, retorno de carro y tabulación— empleados para controlar la forma en que la información es transferida desde una computadora a otra o desde una computadora a una impresora. Los 96 códigos restantes se asignan a los signos de puntuación corrientes, a los dígitos del 0 al 9 y a las letras mayúsculas y minúsculas del alfabeto latino. 


Los códigos de ASCII extendido, del 128 al 255, se asignan a conjuntos de caracteres que varían según los fabricantes de computadoras y programadores de software. Estos códigos no son intercambiables entre los diferentes programas y computadoras como los caracteres ASCII estándar. Por ejemplo, IBM utiliza un grupo de caracteres ASCII extendido que suele denominarse conjunto de caracteres IBM extendido para sus computadoras personales. Apple Computer utiliza un grupo similar, aunque diferente, de caracteres ASCII extendido para su línea de computadoras Macintosh. Por ello, mientras que el conjunto de caracteres ASCII estándar es universal en el hardware y el software de los microordenadores, los caracteres ASCII extendido pueden interpretarse correctamente sólo si un programa, computadora o impresora han sido diseñados para ello. 

Medidas de almacenamiento de la información
Byte: unidad de información que consta de 8 bits; en procesamiento informático y almacenamiento, el equivalente a un único carácter, como puede ser una letra, un número o un signo de puntuación. 

Kilobyte (Kb): Equivale a 1.024 bytes.
Megabyte (Mb): Un millón de bytes o 1.048.576 bytes. 
Gigabyte (Gb): Equivale a mil millones de bytes. 


En informática, cada letra, número o signo de puntuación ocupa un byte (8 bits). Por ejemplo, cuando se dice que un archivo de texto ocupa 5.000 bytes estamos afirmando que éste equivale a 5.000 letras o caracteres. Ya que el byte es una unidad de información muy pequeña, se suelen utilizar sus múltiplos: kilobyte (Kb), megabyte (MB), gigabyte (GB)... Como en informática se utilizan potencias de 2 en vez de potencias de 10, se da la circunstancia de que cada uno de estos múltiplos no es 1.000 veces mayor que el anterior, sino 1.024 (210 = 1.024). Por lo que 1 GB = 1.024 MB = 1.048.576 Kb = más de 1.073 millones de bytes.

Los sistemas de archivo
Todo dispositivo que almacene datos ha de ser formateado antes de poder utilizarlo; es decir, hemos de darle la forma para que reconozca cómo ha de almacenar la información. Esta operación la realiza un programa como el FORMAT (formatear) que lo que hace es darle la forma de sectores y pistas para que un sistema operativo concreto reconozca ese espacio y a la vez destruye toda la información que contenga el citado dispositivo.


Cuando guardamos un archivo, instalamos un programa, etc., el ordenador almacena la información en el disco duro en pequeñas áreas llamadas clústeres. Cuanto menor sea el tamaño del clúster que utilicemos más eficazmente se almacenará la información en el disco. El tamaño del clúster depende del tamaño de la partición (cada una de las divisiones lógicas de un disco, que se asemejan a discos duros separados) y el tamaño de la partición depende del sistema de archivos que utilice. Generalmente, la mayoría de los equipos utilizan una sola partición.


Las versiones anteriores de MS-DOS y Windows utilizan exclusivamente el sistema de archivos FAT16, cuestión por la que no podíamos utilizar nombres de archivos que superasen los ocho caracteres. Pero Windows 98 y la última revisión de Windows 95 vienen con FAT32, sistema de archivos ampliado que mejora el rendimiento del disco y aumenta el espacio de éste, es de 32 bits y permite usar nombres de archivos y carpetas largos (de hasta 255 letras). 


El sistema de archivos FAT32 presenta las siguientes ventajas con respecto a FAT16:
Permite que los programas se abran más rápidamente, cerca de un 36% más rápido. 
Utiliza un tamaño de clúster menor, lo que da como resultado un uso más eficaz del espacio del disco, cerca de un 28% más de espacio en disco. 


Si un disco duro tiene menos de 2 Gb y utilizamos el sistema de archivos FAT16 y cambiamos a FAT32 no notaremos gran mejoría, pero si nuestro disco duro es mayor de 2 Gb sí notaremos su eficacia y nos ahorraremos tener que crear varias particiones.

Unidad de disco:
Dispositivo electromecánico que lee y/o escribe en discos. Los principales componentes de una unidad de disco incluyen un eje sobre el que va montado el disco, un motor que lo hace girar cuando la unidad está en funcionamiento, uno o más cabezales de lectura/escritura, un segundo motor que sitúa dichos cabezales sobre el disco, y un circuito controlador que sincroniza las actividades de lectura/escritura y transmite la información hacia y desde el ordenador o computadora. Los tipos de unidad de disco más comunes son las disqueteras, los discos duros y los lectores de disco compacto(Las unidades CD-RW pueden grabar información sobre discos CD-R y CD-RW y además pueden leer discos CD-ROM y CDS de audio. Las interfaces soportadas son EIDE, SCSI y USB).


Disquete:
Pieza redonda y plana de plástico flexible revestida con un material magnético que puede ser influido eléctricamente para contener información grabada en forma digital (binaria). En el caso de un disquete, la cabeza de lectura y escritura roza la superficie del disco. Hasta hace poco los disquetes eran flexibles y algo grandes, 5,25 pulgadas de ancho y con capacidad de 360 Kb, lo que hizo que desaparecieran rápidamente. En la actualidad son más pequeños (3,5 pulgadas), algo más rígidos y con capacidad de 1,44 Mb. 


Aunque son unos dispositivos poco fiables, ya que les afecta la temperatura, el polvo, los golpes y los campos magnéticos, se siguen utilizando en nuestros días, y aunque su capacidad se haya quedado totalmente obsoleta seguirán sobreviviendo por bastante tiempo. 

Disco compacto o CD.
Sistema de almacenamiento de información en el que la superficie del disco está recubierta de un material que refleja la luz (dispositivo óptico). La grabación de los datos se realiza creando agujeros microscópicos que dispersan la luz (pits) alternándolos con zonas que sí la reflejan (lands). Se utiliza un rayo láser y un fotodiodo para leer esta información. Su capacidad de almacenamiento es de unos 650 Mb de información (equivalente a unos 74 minutos de sonido grabado).


• CD-ROM (Compact Disc Read Only Memory): traducción disco compacto de solo lectura. El CD-R puede ser leído cuantas veces se desee, pero cuyo contenido no puede ser modificado una vez que ya ha sido grabado. Dado que no pueden ser borrados ni regrabados, son adecuados para almacenar archivos u otros conjuntos de información invariable.


• El CD-RW (compact Disc Rewritable): traducido es un disco compacto reinscriptible, posee la capacidad del CD-R con la diferencia que estos discos son regrabables lo que les da una gran ventaja. el CD-DA (permite reproducir sonido),
• El CD-I (define una plataforma multimedia) 
• El PhotoCD (permite visualizar imágenes estáticas).

El DVD-ROM (Disco de video digital): Fue el primer formato en comercializarse (1997), es un disco compacto con capacidad de almacenar 4.7 GB de datos en una cara del disco, un aumento de más de 7 veces con respecto a los CD-R y CD-RW. Y esto es en una sola cara. Los DVD en formato DVD-R sólo pueden grabarse una vez. Los DVD utilizan un sistema de archivos UDF (Formato de disco universal). Con el objetivo de mantener cierta compatibilidad con los sistemas operativos más antiguos, se ha creado un sistema híbrido llamado "Puente UDF", que admite tanto el sistema de archivos UDF como el ISO 9660 usado por los CD-ROM. Sin embargo, es importante destacar que los reproductores de DVD de audio y video no admiten el sistema UDF. 


 Un DVD puede confundirse fácilmente con un CD, ya que ambos son discos plásticos de 12 cm de diámetro y 1,2 mm de espesor y se leen por medio de un rayo láser. Sin embargo, los CD utilizan un rayo un láser infrarrojo que posee a su vez una longitud de onda de 780 nanómetros (nm), mientras que las grabadoras de DVD usan un rayo láser con una longitud de onda de 635 ó 650 nm. Además, los reproductores de CD generalmente usan una lente con un foco de 0.5, en cambio, los reproductores de DVD disponen de un foco de 0.6. Por este motivo, los DVD poseen ranuras cuya altura mínima es de 0,4µ con una separación de 0,74µ, a diferencia de la altura y separación de los CD, que son de 0,834µ y 1,6µ respectivamente. 
Las unidades DVD-ROM son capaces de leer los formatos de discos CD-R y CD-RW. Entre las aplicaciones que aprovechan la gran capacidad de almacenamiento de los DVD-ROM tenemos las películas de larga duración y los juegos basados en DVD que ofrecen videos MPEG-2 (Motion Picture Experts Group), un formato que permite comprimir imágenes conservando su alta calidad o resolución, sonido inmersivo Dolby AC-3, y poderosas graficas 3D

Los DVD-RW pueden reescribirse hasta alrededor de 1000 veces. DVD-R/DVD-RW son patrocinados por el DVD Forum
El formato DVD-R/DVD-RW se basa en lo que se conoce como técnica de "hoyo previo". Al igual que los CD-R, los DVD grabables y regrabables usan un "surco previo" (un surco espiral preestampado en el disco), que sigue una onda sinusoidal llamada oscilación. El surco previo permite definir la posición del cabezal de grabación en el disco (llamado rastreo) mientras que la frecuencia de oscilación permite que la grabadora ajuste su velocidad. Por el contrario, la información de direccionamiento (es decir, dónde se encuentran los datos) se define mediante hendiduras preestampadas en los hoyos del disco entre el surco del disco, denominadas "hoyos previos de meseta", (o LPP). 

Los hoyos previos forman una segunda señal, que se utiliza para ubicar los datos. Cuando un rayo láser se encuentra con un hoyo previo, aparece un pico de amplitud en la oscilación, que permite que la grabadora sepa donde deben grabarse los datos. Las especificaciones del DVD-R establecen que un hoyo previo debe tener una duración de por lo menos un período . 
El formato DVD-R/DVD-RW propone funciones de administración de errores, que se basan principalmente en el software (llamadas gestión de errores permanente y gestión de errores en tiempo real). 


DVD+R/DVD+RW, patrocinados por Sony y Philips dentro de la DVD+RW Alliance, que también incluye a Dell, Hewlett-Packard, Mitsubishi/Verbatim, Ricoh, Thomson y Yamaha. 
El formato DVD+R/ DVD+RW usa un surco cuya oscilación posee una frecuencia mucho más alta que la de los DVD-R (817,4 kHz para DVD+R y 140,6 para DVD-R), y administra el direccionamiento mediante la modulación de la fase de oscilación, es decir, una especie de codificación de inversión de fase llamada ADIP (Direccionamiento en surco previo). Esta inversión de fase se produce cada 32 períodos . 

El formato DVD+RW tiene una función de corrección de errores llamada DVD+MRW (Mount Rainier para DVD+RW) que se usa para marcar bloques defectuosos. Además, si en ese bloque se encuentran datos legibles, existe un mecanismo que permite desplazarlos a un bloque sano y actualizar la tabla de asignación del archivo (este proceso se denomina Traducción de direcciones lógicas a físicas). 


Es más, las especificaciones establecen que se ejecute una verificación en segundo plano que permita comprobar si se encuentran errores en el disco mientras la lectora permanece inactiva. Aún así, el usuario puede leer el disco o expulsarlo en cualquier momento; si esto sucede, cuando el reproductor se encuentra nuevamente inactivo el verificador de errores continúa su tarea desde donde se detuvo. 

Diferencia entre DVD+ y DVD-
En términos generales, el método de direccionamiento utilizado por un DVD+R (modulación de fase) posee una mayor resistencia a trastornos electromagnéticos que el método de hoyo previo. Al escribir un disco, el cabezal de escritura también debe poder leer los hoyos previos para ubicar los datos en el lugar correcto. Por lo tanto, la luz emitida por el rayo láser puede llegar a ocasionar trastornos. 


Además, dado el período que corresponde a la longitud de un hoyo previo (T1), es mucho más difícil detectar hoyos previos cuando el disco se está leyendo a mayor velocidad. Por lo tanto, no resulta sorprendente que la primera grabadora de 16x se haya comercializada en un formato DVD+RW. 


Por esta razón, el formato DVD+R(W), gracias a especificaciones tecnológicas más recientes, ofrece un mejor rendimiento así como algunas funciones adicionales. Por otra parte, el DVD Forum ratificó al DVD-R(W), que fue el primer formato utilizado, por lo que la mayoría de las unidades de DVD (y especialmente los reproductores de DVD) son compatibles con este mismo. 
La mayoría de las grabadoras de DVD son compatibles con ambos formatos. En conclusión, dada su mayor compatibilidad con los reproductores de DVD independientes, el DVD-R(W) es preferible para crear DVD de video, mientras que el DVD+R(W) resulta más apropiado para crear discos de datos. 


Elformato de disco DVD+R es lo mismo que el DVD-R pero creado por otra alianza de fabricantes. El DVD Forum creó los estándares oficiales DVD-ROM/R/RW/RAM. DVD Alliance creó los estándares DVD+R/RW para evitar pagar la licencia al DVD Forum. Dado que los discos DVD+R/RW no forman parte de los estándares oficiales, no muestran el logotipo DVD.
Al día de hoy un 85% de los lectores y grabadores son compatibles con ambos formatos.
Panasonic y el DVD Forum están detrás del DVD-RAM y los formatos DVD-R/RW, mientras que Philips y la DVD Alliance son responsables de la alternativa DVD+R/RW.

DVD+R DL (DVD de doble capa) también llamado DVD+R8000, es un derivado de DVD+R formato creado por la DVD+RW Horde. El cual fue introducido en Octubre de 2003. El DVD+R DL utiliza dos capas de grabación superpuestas, cada una con capacidad de almacenar cerca de los 4,7 GB de un disco DVD normal. Esto quiere decir que un DVD+R DL duplica la capacidad de un DVD+R normal ya que alcanza los 8,5 GB de almacenamiento. Estos discos pueden ser leídos en la mayoría de los DVD actuales, pero solo pueden ser creados usando unidades de DVD+R DL o unidades Super Multi Drives.


A la fecha, los discos DVD+R DL son bastante más costosos que los DVD normales. A su vez, la tasa de velocidad de grabación es más lenta (2,4x - 8x) que los discos de una sola capa (8x - 16x).
DVD-R DL 


fue desarrollado por el DVD Forum de Pioneer Corporation, DVD+R DL fue desarrollado por el DVD+RW Alliance por Philips y Mitsubishi Kagaku Media (MKM). El dispositivo de Doble Capa tiene la capacidad de acceder a una segunda capa por medio de un láser que atraviesa la primera capa que es semitransparente. Esta segunda capa puede crear una notable pausa en algunos reproductores DVD, la misma que puede ser de algunos segundos. Esto causa que algunas personas piensen que sus discos o reproductores están dañados, lo que ha resultado que muchas empresas coloquen avisos explicando que esta pausa es resultado de la lectura a doble capa.
La tabla siguiente muestra las capacidades de cuatro (4) de los más comunes discos DVD grabables, incluyendo al DVD-RAM(SL).

Disk Type number of sectors for data (2,048B each) capacity in bytes capacity in GB capacity in GiB



DVD-RAM de Toshiba © y Matsushita ©. Este formato se utiliza principalmente en Japón. DVD-RAM: Diseñado en principio únicamente para almacenar datos en ordenadores, tiene un control mejorado de errores y un acceso aleatorio más rápido. Sin embargo, es incompatible con la mayoría de unidades DVD-ROM y lectores de sobremesa. Es más, los discos DVD-RAM solían ir dentro de un cartucho especial que proporciona mayor protección al disco (los hay de dos tipos: el tipo 1 no permite sacar el disco de dentro y el tipo 2 permite quitar y poner el disco, para poder reproducirlo en otros lectores compatibles con el formato). Con las últimas generaciones, ya no se necesita cartucho y actualmente hay también discos de doble cara de 9.4 GB de capacidad

Estructura lógica
Un DVD se compone esencialmente de tres zonas, que representan el área de información: 
La Zona "Lead-in" (o LIA) contiene únicamente datos que describen el contenido del disco (esta información se almacena en la Tabla de Contenidos, o TOC). La zona "Lead-in" permite que el reproductor o la unidad de DVD sigan los hoyos en espiral para sincronizarse con los datos que se encuentran en la zona de programa. 


La Zona de programa es la zona que contiene los datos. 
La Zona "Lead-Out"(o LOA), que contiene datos nulos (silencio en un DVD de audio), marca la finalización del DVD. 
 
Además de las tres zonas descritas anteriormente, un DVD grabable posee una PCA (Área de Calibración de Potencia) y una RMA (Área de Administración de Grabación) ubicadas antes de la zona "Lead-In". 


La PCA puede considerarse como un área de prueba del láser, para permitirle adaptar su potencia al tipo de disco que se está leyendo. Es gracias a esta área que resulta posible la comercialización de CD vírgenes que utilizan distintas tinturas y capas reflectantes. Cada vez que se produce una calibración, la grabadora indica que se ha realizado una prueba. Se permite un máximo de 99 pruebas por disco. 


En la actualidad, se usan discos con tecnología de grabación perpendicular, que permite aumentar la capacidad de los mismos. Conjuntamente existen discos GP (Green Power – Ecológicos), que ahorran en energía y disipan menos calor. Ver: Seagate Technology, Western Digital.


Los discos duros portátiles, tienen funciones y características iguales que los demás discos, con la particularidad de poder ser transportados. Los mismos se conectas por puerto USB o similar a un ordenador cualquiera y actuar como disco duro normal.

HD DVD (High Density Digital Versatile Disc) 
traducido al español (Disco Versátil Digital de Alta Densidad) es un formato de almacenamiento óptico desarrollado como un estándar para el DVD de alta definición por las empresas Toshiba, Microsoft y NEC, así como por varias productoras de cine. Puede almacenar hasta 30 GB.
Este formato acabó por sucumbir ante su inmediato competidor, el Blu-ray, por convertirse en el estándar sucesor del DVD. Después de la caída de muchos apoyos de HD DVD, Toshiba decidió cesar de fabricar más reproductores y continuar con las investigaciones para mejorar su formato.
Existen HD DVD de una capa, con una capacidad de 15 GB (unas 4 horas de vídeo de alta definición) y de doble capa, con una capacidad de 30 GB. Toshiba ha anunciado que existe en desarrollo un disco con triple capa, que alcanzaría los 51 GB de capacidad (17 GB por capa). En el caso de los HD DVD-RW las capacidades son de 20 y 32 GB, respectivamente, para una o dos capas. La velocidad de transferencia del dispositivo se estima en 36,5 Mbps.


El HD DVD trabaja con un láser violeta con una longitud de onda de 405 nm.
Por lo demás, un HD DVD es muy parecido a un DVD convencional. La capa externa del disco tiene un grosor de 0,6 mm, el mismo que el DVD y la apertura numérica de la lente es de 0,65 (0,6 para el DVD).


Todos estos datos llevan a que los costos de producción de los discos HD DVD sean algo más reducidos que los del Blu-ray, dado que sus características se asemejan mucho a las del DVD actual.
Los formatos de compresión de vídeo que utiliza HD DVD son MPEG-2, Video Codec 1 (VC1, basado en el formato Windows Media Video 9) y H.264/MPEG-4 AVC.

BlueRay
Una capa de disco Blu-ray puede contener alrededor de 25 GB o cerca de 6 horas de vídeo de alta definición más audio, y el disco de doble capa puede contener aproximadamente 50 GB. La velocidad de transferencia de datos es de 36 Mbit/s (54 Mbps para BD-ROM), pero ya están en desarrollo prototipos a velocidad de transferencia 2x (el doble, 72 Mbit por segundo). Ya está disponible el BD-RE (formato reescribible) estándar, así como los formatos BD-R (grabable) y el BD-ROM, como parte de la versión 2.0 de las especificaciones del Blu-ray. TDK realizo un prototipo de disco Blu-ray de cuatro capas de 100 GB. El 3 de octubre de 2007, Hitachi anunció que había desarrollado un prototipo de BD-ROM de 100 GB que, a diferencia de la versión de TDK y Panasonic, era compatible con los lectores disponibles en el mercado y solo requerían una actualización de firmware. Hitachi también comentó que está desarrollando una versión de 200GB. Pero el reciente avance de Pioneer le permitió crear un disco blu-ray de 20 capas a razón de 500 GB.


Los sistemas Blu-ray incorporan cinco sistemas anticopia: AACS, BD+ y Rom Mark, SPDG e ICT.
La fina separación entre la capa de lectura y la superficie del disco es de 0,1 mm hace a los discos Blu-ray más propensos a ralladuras y suciedad que un DVD normal (0,6 mm). TDK elaboro un sustrato protector llamado Durabis que no solo compensa la fragilidad del Blu-ray sino que le otorga una protección extra contra las rayaduras. Existen también discos DVD con esta protección.

Pen Drive o Memory Flash: 
Memoria USB (de Universal Serial Bus, en inglés pendrive o USB flash drive) 
es un dispositivo de almacenamiento extraíble de formato compacto que se puede conectar en un puerto USB de un equipo. Una llave USB es una shell plástica con un conector USB y una memoria flash, un tipo de memoria de estado sólido, no volátil, regrabable; es decir, tiene muchas de las características de una RAM, excepto que los datos no se eliminan cuando se apaga el equipo. 


Por este motivo, una llave USB puede almacenar hasta varios gigabytes de datos y mantenerlos almacenados cuando se corta la corriente eléctrica (es decir, cuando se desconecta la llave). Inventada por IBM, en 1998, pero no patentada por él.


En la práctica, una llave USB es muy conveniente para usuarios que van de un equipo a otro, ya que es muy fácil de transportar y puede almacenar una gran cantidad de documentos y datos. 
Además, las últimas placas madres pueden arrancar con llaves USB, lo que significa que ahora puede iniciar un sistema operativo a partir de una simple llave USB. Es muy útil para aquellos usuarios que desean transportar su propio ambiente de trabajo donde sea que vayan o en los casos en que se desee reiniciar y fijar un sistema después de una eventual caída. 


Los Pen Drive son resistentes a los rasguños y al polvo que han afectado a las formas previas de almacenamiento portable, como los CD y los disquetes. Los sistemas operativos más modernos pueden leer y escribir en ello sin necesidad de controladores especiales. En los equipos antiguos (como por ejemplo los equipados con Windows 98) se necesita instalar un controlador de dispositivo. 


Se pueden encontrar en el mercado fácilmente memorias de 1, 2, 4, 8 GB o más (esto supone, como mínimo, el equivalente a 915 disquetes). Su gran popularidad le ha supuesto infinidad de denominaciones populares relacionadas con su pequeño tamaño y las diversas formas de presentación, sin que ninguna haya podido destacar entre todas ellas: pincho, lápiz, llave maya, mechero, llavero, llave,'bichito' o las de los embalajes originales en inglés pendrive, flash drive o memory stick. El calificativo USB o el propio contexto permite identificar fácilmente el dispositivo informático al que se refieren.


Índice de transferencia: es la velocidad a la cual se transfieren los datos. Se debe tener presente que el índice de transferencia de lectura es distinto del índice de transferencia de escritura, debido a que el proceso de escritura en una memoria flash resulta más lento.


*USB 1.1 (USB de baja velocidad), que puede alcanzar 12 Mbit/s, 
*USB 2.0 (USB de alta velocidad) que puede alcanzar 480 Mbit/s. Se debe tener en cuenta que para alcanzar una velocidad de transferencia completa, la llave debe estar conectada a un puerto *USB 2.0. De lo contrario (con un puerto USB 1.1), la llave se ejecutará a baja velocidad. 
*USB 3.0. eleva a 4.8 gigabits/s la capacidad de transferencia que ahora está en 480 Mb/s debido a la inclusión de fibra óptica


Puede almacenar cualquier tipo de dato, pero es principalmente usada para guardar música en formato mp3 y wma, que se puede ser escuchado con auriculares conectados al aparato. Estos artefactos reemplazaron a los walkman.
Hoy existen aparatos muy sofisticados, que incluyen pequeñas pantallas para visualizar videos.


Consideraciones de uso 
Antes de retirar la memoria del puerto USB hay que asegurarse de notificarlo al sistema operativo (desmontar en GNU/Linux o "Quitar el Hardware con seguridad " desde el "Administrador de dispositivos" en Windows o "Expulsar" en Mac OS). Si no se hace puede dañar su sistema operativo ya que no se le da aviso de que está sacando el dispositivo de memoria externa y no cierra correctamente los procesos. Esto es obligatorio hasta Windows 2000 y voluntario en XP, el cual permite elegir un modo de desconexión más simple. Si se saca antes de tiempo puede que los archivos se graben mal. Incluso se puede dañar la memoria ya que hay electricidad que fluye a través del USB y que al sacarlo rápidamente podría dañar al chip. El cuidado de los pendrive o memorias USB es similar al de las tarjetas. Hay que evitar el daño físico, la humedad, los campos magnéticos y el calor extremo.


En sistemas Windows (2000 ~ XP con SP2) con unidades de red asignadas, puede ocurrir que al conectar la memoria USB el sistema le proporcione una letra previamente en uso. En ese caso habrá que acudir al administrador de discos (diskmgmt.msc), localizar nuestro disco y cambiar manualmente la letra de unidad.

Unidades de Zip:
La unidad Iomega ZIP es una unidad de disco extraíble. Está disponible en tres versiones principales, la hay con interfaz SCSI, IDE, y otra que se conecta a un puerto paralelo. Este documento describe cómo usar el ZIP con Linux. Se debería leer en conjunción con el HOWTO SCSI a menos que posea la versión IDE. 

El índice de transferencia depende tanto de la velocidad de lectura y escritura del componente de la memoria Flash como de la norma USB admitida: 
Características de cifrado: algunas llaves proponen distintas herramientas en lo que respecta al cifrado de todos o de algunos de los datos de la llave, con el fin de mejorar la privacidad. 

Protección de escritura: algunas llaves incluyen un conmutador de hardware que permite colocar la llave en modo de sólo lectura, evitando de esta manera que los datos se modifiquen o se borren por error.. 

Funciones multimedia: cuando una llave USB incluye un enchufe hembra para auricular y puede reproducir archivos de audio (generalmente en formato MP3), se denomina reproductor de MP3. 

Tecnologías Futuras.
Se está planteando el almacenamiento holográfico mediante el HVD (Holographic Versatile Disk) usa el principio holográfico (codifica objetos en tres dimensiones mediante patrones de interferencia de luz) para almacenar datos con densidades notablemente superiores a las de los actuales soportes ópticos

La tecnología ya implementada por SONY conocida como láser azul cambia el láser rojo de 640 NM por otro azul-violeta de sólo 405 NM, logrando de esta manera una lectura de mayor precisión y destinada a mayores capacidades.



20/6/09

INTRODUCCIÓN A LAS REDES.

INTRODUCCIÓN A LAS REDES.
CONCEPTO: Las redes interconectan computadoras con distintos sistemas operativos, ya sea dentro de una empresa u organización (LANs) o por todo el mundo (WANs, Internet).

Anteriormente se utilizaban básicamente para compartir los recursos de las computadoras conectadas. Hoy, las redes son medios de comunicación internacional a través de los cuales se intercambian grandes volúmenes de datos.

Las razones más usuales para decidir la instalación de una red son:
• Compartición de programas, archivos e impresora. 
• Posibilidad de utilizar software de red. 
• Creación de grupos de trabajo. 
• Gestión centralizada. 
• Seguridad. 
• Acceso a otros sistemas operativos. 
• Compartir recursos. 

Un ejemplo de red muy sencilla se ve en la figura:
  


ESTRUCTURA CLIENTE-SERVIDOR.

En las redes basadas en estructuras cliente-servidor, los servidores ponen a disposición de sus clientes recursos, servicios y aplicaciones.

Dependiendo de que recursos ofrece el servidor y cuales se mantienen en los clientes se pueden hacer distinciones entre distintas estructuras cliente-servidor.

En estas estructuras se diferencia: 
Donde se encuentran los datos. 
Donde se encuentran los programas de aplicación. 
Donde se presentan los datos. 

A continuación se presentarán brevemente los distintos conceptos. 

Sistema centralizado basado en el host (anfitrión). 
Aquí, los datos, los programas de aplicación y la presentación se encuentran en el servidor. La imagen final se transmite a los terminales de los usuarios. Desde los terminales, las cadenas de caracteres de las entradas de los usuarios se reenvían al host. Este concepto es el que sirve de base para los mainframe.

Pc cliente y servidor host. 
Los datos de aplicación se conservan de forma centralizada en el servidor. Con programas clientes de las aplicaciones, éstas se presentan en cada estación de trabajo. El lugar de trabajo suele ser una pc ejecutando, por ejemplo windows.

Estación de trabajo cliente y servidor de archivo. 
Los datos se encuentran en el servidor (generalmente en una base de datos). Con una base de datos cliente se accede a esos datos desde cualquier computadora. En el cliente se procesan los datos utilizando la inteligencia del cliente. Cada computadora contiene aplicaciones con las que se puede procesar los datos.

Pc cliente y servidor de aplicaciones. 
En esta red se dispone al menos de dos servidores distintos. Uno de ellos actúa meramente como servidor de base de datos y el resto como servidor de aplicaciones. Los servidores de aplicaciones de esta red también son los responsables de acceso a las bases de datos. En las estaciones de trabajo funcionan los clientes de los programas de aplicación correspondientes.

Sistema cliente-servidor cooperativo descentralizado. 
Las bases de datos están repartidas en distintos servidores o incluso clientes. Las aplicaciones funcionan igualmente en distintos servidores o en parte también en clientes.

Topologías Lógicas Y Topologías Físicas.
Hay varias maneras de conectar dos o más computadoras en red.

Para ellos se utilizan cuatro elementos fundamentales: servidores de archivos, estaciones de trabajo, tarjetas de red y cables. A ellos se le suman los elementos propios de cada cableado, así como los manuales y el software de red, a efectos de la instalación y mantenimiento.
Los cables son generalmente de dos tipos: UTP par trenzado y coaxial.
La manera en que están conectadas no es arbitraria, sino que siguen estándares físicos llamados topologías.

Dependiendo de la topología será la distribución física de la red y dispositivos conectados a la misma, así como también las características de ciertos aspectos de la red como: velocidad de transmisión de datos y confiabilidad del conexionado.

TOPOLOGÍA FÍSICAS: Es la forma que adopta un plano esquemático del cableado o estructura física de la red, también hablamos de métodos de control.

TOPOLOGÍA LÓGICAS: Es la forma de cómo la red reconoce a cada conexión de estación de trabajo.

Se clasifican en:

TOPOLOGÍA LINEAL O BUS:
Consiste en un solo cable al cual se le conectan todas las estaciones de trabajo.

En este sistema una sola computadora por vez puede mandar datos los cuales son escuchados por todas las computadoras que integran el bus, pero solo el receptor designado los utiliza.

Ventajas: Es la más barata. Apta para oficinas medianas y chicas. 

Desventajas: Si se tienen demasiadas computadoras conectadas a la vez, la eficiencia baja notablemente. Es posible que dos computadoras intenten transmitir al mismo tiempo provocando lo que se denomina “colisión”, y por lo tanto se produce un reintento de transmisión. 
Un corte en cualquier punto del cable interrumpe la red 
 
TOPOLOGÍA ESTRELLA:
En este esquema todas las estaciones están conectadas a un concentrador o HUB con cable por computadora.
Para futuras ampliaciones pueden colocarse otros HUBs en cascada dando lugar a la estrella jerárquica.

Por ejemplo en la estructura CLIENTE-SERVIDOR: el servidor está conectado al HUB activo, de este a los pasivos y finalmente a las estaciones de trabajo.

Ventajas:
La ausencia de colisiones en la transmisión y dialogo directo de cada estación con el servidor. 
La caída de una estación no anula la red. 

Desventajas: 
Baja transmisión de datos.

TOPOLOGÍA ANILLO(TOKEN RING):
Es un desarrollo de IBM que consiste en conectar cada estación con otra dos formando un anillo.

Los servidores pueden estar en cualquier lugar del anillo y la información es pasada en un único sentido de una a otra estación hasta que alcanza su destino.Cada estación que recibe el TOKEN regenera la señal y la transmite a la siguiente.
Por ejemplo en esta topología, esta envía una señal por toda la red.

Si la terminal quiere transmitir pide el TOKEN y hasta que lo tiene puede transmitir.Si no está la señal la pasa a la siguiente en el anillo y sigue circulando hasta que alguna pide permiso para transmitir.

Ventajas:
No existen colisiones, Pues cada paquete tienen una cabecera o TOKEN que identifica al destino.

Desventajas:
La caída de una estación interrumpe toda la red. Actualmente no hay conexiones físicas entre estaciones, sino que existen centrales de cableado o MAU que implementa la lógica de anillo sin que estén conectadas entre si evitando las caídas. 
Es cara, llegando a costar una placa de red lo que una estación de trabajo. 
 
TOPOLOGÍA ÁRBOL:
En esta topología que es una generalización del tipo bus, el árbol tiene su primer nodo en la raíz y se expande hacia fuera utilizando ramas, en donde se conectan las demás terminales.

Esta topología permite que la red se expanda y al mismo tiempo asegura que nada más existe una ruta de datos entre dos terminales cualesquiera.
 
TOPOLOGÍA MESH:
Es una combinación de más de una topología, como podría ser un bus combinado con una estrella.

Este tipo de topología es común en lugares en donde tenían una red bus y luego la fueron expandiendo en estrella.

Son complicadas para detectar su conexión por parte del servicio técnico para su reparación.

Dentro de estas topologías encontramos:

TOPOLOGÍA ANILLO EN ESTRELLA: se utilizan con el fin de facilitar la administración de la red. Físicamente la red es una estrella centralizada en un concentrador o HUBs, mientras que a nivel lógico la red es un anillo.

TOPOLOGÍA BUS EN ESTRELLA: el fin es igual al anterior. En este caso la red es un bus que se cable físicamente como una estrella mediante el uso de *concentradores.
TOPOLOGÍA ESTRELLA JERÁRQUICA: esta estructura se utiliza en la mayor parte de las redes locales actuales. Por medio de concentradores dispuestos en cascadas para formar una red jerárquica.

*CONCENTRADOR o HUB: son equipos que permiten estructurar el cableado de las redes, la variedad de tipos y características de estos equipos es muy grande. Cada vez disponen de mayor numero de capacidades como aislamiento de tramos de red, capacidad de conmutación de las salidas para aumentar la capacidad de la red, gestión remonta, etc... se tiende a incorporar más funciones en el concentrador.
Índice

Métodos De Acceso
En las topologías anteriores se comparte el medio, por parte de más de una PC, con lo que puede ocurrir que 2 o más PC intenten acceder al medio al mismo tiempo produciéndose una colisión que provocaría errores en los datos enviados a través de medio.

Para evitar estas situaciones o corregirlas se dispone de varios mecanismos de acceso al medio de forma controlada que se basan en la secuencia de bits que habilita el permiso para transmitir por el medio físico.

Si existe una estación de trabajo "jefe" que centralice el paso de la señal, los métodos se llaman:

POLLING: si la topología usada es bus.

LUP CENTRAL: si la topología usada es de tipo anillo.

Si no existe esa estación jefe que controle el paso de la señal o TESTIGO, tenemos los métodos:

PASO DEL TESTIGO EN ANILLO: usa la topología en anillo.

TESTIGO EN BUS: usa la topología en bus.

Si no utilizamos ningún método de control sobre el medio para habilitar permisos de transmisión de las estaciones tenemos:

TÉCNICAS DE ACCESO SORDAS: se transmiten sin consultar el medio previamente, para ver si está libre.

TÉCNICAS CON ESCUCHAS DEL MEDIO: dan lugar a un control del tipo aleatorio.

PARA TOPOLOGÍA BUS: esta técnica se conoce como CSMA/CD técnica de acceso al medio con escuchas y detección de colisiones.

PARA TOPOLOGÍA ANILLO: esta técnica se la conoce como INSERCIÓN DE REGISTROS.

Tipos De Redes

Se clasifican según su Extensión y Topología.

Según su Extensión tenemos redes LAN, MAN y WAN. Proviene
LAN (Redes de Área Local):

Son redes de propiedad privada dentro de un solo edificio de hasta unos cuantos kilómetros de extensión.

LAN: es un sistema de comunicación entre computadoras, con la característica de que la distancia entre las computadoras debe ser pequeña.

Se usan ampliamente para conectar computadoras personales y estaciones de trabajo en oficinas de compañías y fábricas con objeto de compartir los recursos (impresoras, etc.) e intercambiar información.

Las LAN se distinguen de otro tipo de redes por las siguientes tres características: tamaño, tecnología de transmisión y topología.

Las LAN están restringidas en tamaño, las computadoras se distribuyen dentro de la LAN para obtener mayor velocidad en las comunicaciones dentro de un edificio o un conjunto de edificios, lo cual significa que el tiempo de transmisión del peor caso está limitado y se conoce de antemano.

Conocer este límite hace posible usar ciertos tipos de diseños que de otra manera no serían prácticos y también simplifica la administración de la red.

Las LAN a menudo usan una tecnología de transmisión que consiste en un cable sencillo al cual están conectadas todas las máquinas.

Las LAN tradicionales operan a velocidades de 10 a 12 GBPS, tienen bajo retardo (décimas de microsegundos) y experimentan muy pocos errores.

Las LAN pueden tener diversas topologías. La topología o la forma de conexión de la red, depende de algunos aspectos como la distancia entre las computadoras y el medio de comunicación entre ellas ya que este determina la velocidad del sistema.

Básicamente existen tres topologías de red: estrella (Star), canal (Bus) y anillo (Ring)

WAN (Redes de Área Amplia):
Una WAN se extiende sobre un área geográfica amplia, a veces un país o un continente; contiene una colección de máquinas dedicadas a ejecutar programas de usuario (aplicaciones), estas máquinas se llaman Hosts.

Los Hosts están conectados por una subred de comunicación. El trabajo de una subred es conducir mensajes de un Host a otro.

La separación entre los aspectos exclusivamente de comunicación de la red (la subred) y los aspectos de aplicación (Hosts), simplifica enormemente el diseño total de la red.

En muchas redes de área amplia, la subred tiene dos componentes distintos: las líneas de transmisión y los elementos de conmutación.

Las líneas de transmisión (también llamadas circuitos o canales) mueven los bits de una máquina a otra.

Los elementos de conmutación son computadoras especializadas que conectan dos o más líneas de transmisión.

Cuando los datos llegan por una línea de entrada, el elemento de conmutación debe escoger una línea de salida para enviarlos.

Como término genérico para las computadoras de conmutación, les llamaremos enrutadores.

La velocidad normal lleva un rango de los 56 KBPS a los 155 MBPS.

Los retardos para una WAN pueden variar de unos cuantos milisegundos a unas decenas de segundos.

MAN (Redes de Área Metropolitana):

Una MAN es básicamente una versión más grande de una LAN y normalmente se basa en una tecnología similar.

Podría abarcar una serie de oficinas cercanas o en una ciudad, puede ser pública o privada.

Una MAN puede manejar datos y voz, e incluso podría estar relacionada con una red de televisión por cable local.

Una MAN sólo tiene uno o dos cables y no contiene elementos de conmutación, los cuales desvían los paquetes por una de varias líneas de salida potenciales.

Como no tiene que conmutar, el diseño se simplifica.

La principal razón para distinguir las MAN como una categoría especial es que se ha adoptado un estándar para ellas, y este se llama DQDB (bus dual de cola distribuida).

El DQDB consiste en dos buses (cables) unidireccionales, a los cuales están conectadas todas las computadoras.

Cada bus tiene una cabeza terminal (head-end), un dispositivo que inicia la actividad de transmisión.

El tráfico destinado a una computadora situada a la derecha del emisor usa el bus superior, el tráfico hacia la izquierda usa el bus inferior.

Un aspecto clave de las MAN es que hay un medio de difusión al cuál se conectan todas las computadoras.

Esto simplifica mucho el diseño comparado con otros tipos de redes.

Estándar Ethernet:
Ethernet es una tecnología desarrollada para las redes LAN que permite transmitir información entre computadoras a velocidades de 10 y 100 millones de bits por segundo.

Ethernet es un estándar, por lo tanto se trata de un sistema independiente de las empresas fabricantes de hardware de red.

Si bien Ethernet es el sistema más popular, existen otras tecnologías como Token Ring, 100 VG.

Se usa en redes que no superan las 30 máquinas, de exceder este número conviene usar Token Ring.

Un sistema Ethernet consiste de tres elementos básicos:

Un medio físico utilizado para transportar señales entre dos computadoras (adaptadores de red y cableado).

Un juego de reglas o normas de acceso al medio (al cable, por ejemplo) que le permita a las computadoras poder arbitrar o regular el acceso al sistema Ethernet (recordar que el medio está compartido por todas las computadoras integrantes de la red).
Un estándar o patrón llamado trama o frame que consiste en un juego determinado de bits, usados para transportar datos a través del sistema.

Cada computadora equipada con Ethernet opera en forma independiente de las otras estaciones de la red, es decir que no hay una controladora central.

Todas las estaciones conectadas vía Ethernet se conectan a un sistema compartido de señales, llamado medio.

Las señales Ethernet se transmiten en serie, un bit por vez, a través del canal Ethernet (llamado de señal compartida) a cada una de las estaciones integrantes de la red Ethernet.

El preámbulo de un paquete Ethernet se genera mediante el hardware (la placa de red).

El software es responsable de establecer la dirección de origen y de destino y de los datos.

La información sobre la secuencia de los paquetes en general es tarea del hardware.

UN PAQUETE ETHERNET ESTÁ COMPUESTO ESENCIALMENTE POR LAS SIGUIENTES PARTES:

El preámbulo: es una serie de unos y ceros, que serán utilizados por la computadora destino (receptor) para conseguir la sincronización de la transmisión.
• Separador de la trama: son dos bits consecutivos utilizados para lograr alineación de los bytes de datos. Son dos bits que no pertenecen a los datos, simplemente están a modo de separador entre el preámbulo y el resto del paquete.

Dirección de destino: es la dirección de la computadora a la que se le envía el paquete. La dirección de difusión o broadcast (se le envía a todos los equipos) está compuesta por uno solamente (son todos unos).

Dirección de origen: es la dirección de la computadora que envía los datos.

Longitud o tipo de datos: es el número de bytes de datos o el tipo de los mismos. Los códigos de tipos de datos son mayores que 1500, ya que 1500 bytes es la máxima longitud de los datos en Ethernet. Entonces, si este campo es menor que 1500 se estará refiriendo a la longitud de los datos y si es mayor, se referirá al tipo de datos. El tipo de datos tendrá un código distinto, por ejemplo para Ethernet que para Fast Ethernet.

Datos: su longitud mínima es de 46 bytes y su largo máximo de 1500 bytes como dijimos en el ítem anterior.

Secuencia de chequeo de la trama: se trata de un chequeo de errores (CRC) que utiliza 32 bits. Este campo se genera generalmente por el hardware (placa de red).

Basándose en lo visto, sin contar preámbulo, separadores y CRC, la longitud de los paquetes Ethernet serán:

El más corto: 6 + 6 + 2 + 46 = 60 bytes.

El más largo: 6 + 6 + 2 + 1500 = 1514 bytes.

TOKEN RING
La red Token-Ring es una implementación del standard IEEE 802.5, en el cual se distingue más por su método de transmitir la información que por la forma en que se conectan las computadoras.

A diferencia del Ethernet, aquí un Token (Ficha Virtual) es pasado de computadora a computadora como si fuera una papa caliente.

Cuando una computadora desea mandar información debe de esperar a que le llegue el Token vacío, cuando le llega utiliza el Token para mandar la información a otra computadora, entonces cuando la otra computadora recibe la información regresa el Token a la computadora que envió con el mensaje de que fue recibida la información.

Así se libera el Token para volver a ser usado por cualquiera otra computadora.

Aquí debido a que una computadora requiere el Token para enviar información no hay colisiones, el problema reside en el tiempo que debe esperar una computadora para obtener el Token sin utilizar.

Los datos en Token-Ring se transmiten a 4 ó 16mbps, depende de la implementación que se haga.

Todas las estaciones se deben de configurar con la misma velocidad para que funcione la red.

Cada computadora se conecta a través de cable Par Trenzado ya sea blindado o no a un concentrador llamado MAU(Media Access Unit), y aunque la red queda físicamente en forma de estrella, lógicamente funciona en forma de anillo por el cual da vueltas el Token.

En realidad es el MAU el que contiene internamente el anillo y si falla una conexión automáticamente la ignora para mantener cerrado el anillo.

El Token-Ring es eficiente para mover datos a través de la red.

En redes grandes con tráfico de datos pesado el Token Ring es más eficiente que Ethernet.

"Por lo tanto es conveniente usar Token ring en redes que superan las 30 máquinas."


ELEMENTOS INVOLUCRADOS EN UN CABLEADO DE REDES

A continuación trataremos los componentes más importantes de una instalación física de redes a saber:

ADAPTADORES O TARJETAS DE RED.
MEDIOS FÍSICO DE CONEXIÓN: CABLES Y CONECTORES.
CONCENTRADORES O HUBS.

Adaptadores de red:
Si bien hasta ahora hablamos de las topologías o formas de conexión de computadoras entre sí por intermedio de cables, todavía no se dijo no se dijo nada sobre los tipos de cables existentes y sobre como se conectan los cables a las computadoras.

Una tarjeta de red no es mas que una placa o adaptador físico de red que permite establecer la comunicación entre diversas computadoras de la red.
 
Medios físicos de conexión (medios de transmisión y conectores):

Los medios físicos para la transmisión de datos son los siguientes:

Cable coaxil Cable UTP (Par Trenzado)
   
Fibra Óptica. Microondas, usadas en redes inalámbricas
 
Los elementos físicos para la conexión para cable COAXIL son los siguientes conectores:
Conectores BNC ( Macho Y Hembra).
T BNC.
Terminadores BNC.

Otros elementos físicos para la conexión para cable UTP son los siguientes:

Conector RJ 45 macho (PLUG).
Conector RJ 45 hembra (JACK).
Concentradores o Hubs

Cableado estructurado:
Si bien la palabra estructurado no es común que figure en los diccionarios que no sean técnicos, sabemos que proviene de estructura.

La definición literal de estructura es la siguiente: "Distribución en forma ordenada de la partes que componen un todo".

Si traducimos esta definición al área que nos respecta, podemos empezar diciendo que el cableado estructurado deberá respetar a ciertas normas de distribución, no solo de los cables en si, sino también de todos los dispositivos involucrados, como ser los conectores de lo que hablamos anteriormente.

Cuando nos referimos a distribución, hablamos de la disposición física de los cables y los demás accesorios.

Para dar un ejemplo práctico, no podemos llamar cableado estructurado a un cableado UTP de la instalación de la red, en el cual los cables estén tendidos de cualquier manera.

Al habla de orden, hablamos por un lado de la prolijidad de una instalación, pero también estamos diciendo que las instalaciones no podrán llevarse a cabo como se les ocurra a los instaladores, sino que deberán cumplir ciertas normas técnicas, como la norma EIA/TIA 586 A.

Otra de las características del Cableado Estructurado es que debe brindar flexibilidad de conexión; esto significa que no tendremos que cambiar todo el cableado o hacer complejas extensiones, cuando necesitemos agregar una computadora a la res o mudar un equipo de una oficina a otra.

Ventajas Del Cableado Estructurado:
Permite realizar instalaciones de cables para datos y telefonía utilizando la misma estructura, es decir usando el cable, los mismos conectores, herramientas, etc.
Si una empresa necesita realizar el cableado para la red (para datos) y para telefonía va a optar por una solución que le ofrezca un cableado unificado, que sirva para ambos servicios.

Otra ventaja adicional está dada por la flexibilidad del cableado estructurado, que veremos con un ejemplo: si por una reconfiguración de la oficina, necesitamos conectar un teléfono donde había un puesto de computación, podremos hacerlo mediante una operación sencilla, sin tener que instalar nuevos cables, no agujerear paredes.
Esta operación, consiste solamente en desconectar un cable y reconectarlo en otro lado.
Pasos Para La Instalación De Una Red Con Cableado Estructurado

LOS PASOS A PRINCIPALES QUE DEBERÍA SEGUIR UN INSTALADOR SON LOS SIGUIENTES:
Revisar los componentes de hardware de la red.
Determinar el mapa del cableado.
Establecer en base a lo anterior, los materiales necesarios.
Realizar el cableado propiamente dicho, y la colocación de accesorios.
Probar el funcionamiento del cableado.

1- Revisar Los Componentes De Hardware De La Red. Un buen instalador debe consultar con el administrador de la red o con el servicio que mantiene el hardware de la empresa, si el equipamiento que poseen va a servir para ser conectado al cableado a realizar.

Es decir que debemos relevar que elementos posee la empresa y ver cuáles sirven y cuales no para que podamos utilizar los elementos seleccionados en la instalación de la red.

2- Determinar El Mapa Del Cableado: Este paso es la determinación del mapa o plano del cableado.

Esta etapa se basa principalmente en el relevamiento lugar en el que se realizará la instalación del cableado estructurado.

Consiste en varias tareas en donde la complejidad dependerá del edificio en que se va a instalar la red.

Estas tareas involucran la medición de las distancias de los distintos ambientes, la cantidad de agujeros que se deben realizar en las paredes, el tipo de pared con las que nos encontraremos, es decir si se pueden agujerearse con facilidad o no), la determinación de por donde y como van a pasar los cables y además es ideal poseer un plano de la planta para poder guiarse mejor y armar sobre el mismo el mapa de la instalación.

A continuación podemos ver un mapa de la planta que nos será de gran utilidad. Es importante también concluir la instalación en el tiempo acordado, de lo contrario le estaremos restando tiempo a otra obra que ya estaba prevista.

3- Materiales Necesarios Para El Cableado: Un buen cálculo en la compra de los materiales podrá ahorrar tiempo y dinero. Es común que por errores en el relevamiento previo, nos demos cuenta que faltan materiales y haya que salir corriendo de "apuro" a conseguirlos en algún proveedor cercano a la obra.

En el siguiente esquema vemos los pasos primordiales para poder armar un presupuesto de cableado sin pasar sorpresas inesperadas.

Relevamiento previo del edificio.
Cálculo de materiales necesarios.
Tiempo estimado de ejecución(costo de la mano de obra).
Presupuesto final.

4- Realización Del Cableado

Esta etapa se realiza a través de:

La colocación de alojamientos para los cables ya sean, canaletas, zócalos, caños, bandejas, etc.

Una vez fijados los alojamientos para sostener los cables, se procede al tendido de los cables sobre los mismos.

Y por último la colocación en las paredes los conectores (Plugs y Jaks RJ45) y san la terminación final del trabajo como veremos en la siguiente figura:

5- Prueba Del Cableado:

En general la prueba del cableado se realiza, en general, fuera del horario de trabajo de la empresa y consiste en la conexión final de los equipos y la prueba de acceso de los mismos a los recursos de la red y la velocidad de transmisión.
Componentes De Un Cableado Estructurado

Si bien conocemos los componentes principales, como ser el cable UTP y los conectores RJ45 (plug y jack), desarrollaremos a continuación el resto de los elementos involucrados en este tipo de cableado.

Lista De Componentes Utilizados:

• Cable UTP.
• Jack RJ45.
• Plug RJ45.
• Elementos para el alojamiento de cables (canaletas de cable, bandejas, caños, zócalos).
• Rosetas.
• Racks.
• Patch Panels (patchetas).
• Patch Cords.

Servidores

Que es un servidor:
En informática, un servidor es un tipo de software que realiza ciertas tareas en nombre de los usuarios. El término servidor ahora también se utiliza para referirse al ordenador físico en el cual funciona ese software, una máquina cuyo propósito es proveer datos de modo que otras máquinas puedan utilizar esos datos.

Este uso dual puede llevar a confusión. Por ejemplo, en el caso de un servidor web, este término podría referirse a la máquina que almacena y maneja los sitios web, y en este sentido es utilizada por las compañías que ofrecen hosting o hospedaje. Alternativamente, el servidor web podría referirse al software, como el servidor de http de Apache, que funciona en la máquina y maneja la entrega de los componentes de los páginas web como respuesta a peticiones de los navegadores de los clientes.

Los archivos para cada sitio de Internet se almacenan y se ejecutan en el servidor. Hay muchos servidores en Internet y muchos tipos de servidores, pero comparten la función común de proporcionar el acceso a los archivos y servicios.

Un servidor sirve información a los ordenadores que se conecten a él. Cuando los usuarios se conectan a un servidor pueden acceder a programas, archivos y otra información del servidor.

En la web, un servidor web es un ordenador que usa el protocolo http para enviar páginas web al ordenador de un usuario cuando el usuario las solicita.

Los servidores web, servidores de correo y servidores de bases de datos son a lo que tiene acceso la mayoría de la gente al usar Internet.

Algunos servidores manejan solamente correo o solamente archivos, mientras que otros hacen más de un trabajo, ya que un mismo ordenador puede tener diferentes programas de servidor funcionando al mismo tiempo.

Los servidores se conectan a la red mediante una interfaz que puede ser una red verdadera o mediante conexión vía línea telefónica o digital.


Esta lista categorizar los diversos tipos de servidores del mercado actual:

Plataformas de Servidor (Server Platforms): Un término usado a menudo como sinónimo de sistema operativo, la plataforma es el hardware o software subyacentes para un sistema, es decir, el motor que dirige el servidor.

Servidores de Aplicaciones (Application Servers): Designados a veces como un tipo de middleware (software que conecta dos aplicaciones), los servidores de aplicaciones ocupan una gran parte del territorio entre los servidores de bases de datos y el usuario, y a menudo los conectan.

Servidores de Audio/Video (Audio/Video Servers): Los servidores de Audio/Video añaden capacidades multimedia a los sitios web permitiéndoles mostrar contenido multimedia en forma de flujo continuo (streaming) desde el servidor.

Servidores de Chat (Chat Servers): Los servidores de chat permiten intercambiar información a una gran cantidad de usuarios ofreciendo la posibilidad de llevar a cabo discusiones en tiempo real.

Servidores de Fax (Fax Servers): Un servidor de fax es una solución ideal para organizaciones que tratan de reducir el uso del teléfono pero necesitan enviar documentos por fax.

Servidores FTP (FTP Servers): Uno de los servicios más antiguos de Internet, File Transfer Protocol permite mover uno o más archivos.

Servidores Groupware (Groupware Servers): Un servidor groupware es un software diseñado para permitir colaborar a los usuarios, sin importar la localización, vía Internet o vía Intranet corporativo y trabajar juntos en una atmósfera virtual.

Servidores IRC (IRC Servers): Otra opción para usuarios que buscan la discusión en tiempo real, Internet Relay Chat consiste en varias redes de servidores separadas que permiten que los usuarios conecten el uno al otro vía una red IRC.

Servidores de Listas (List Servers):
Los servidores de listas ofrecen una manera mejor de manejar listas de correo electrónico, bien sean discusiones interactivas abiertas al público o listas unidireccionales de anuncios, boletines de noticias o publicidad.

Servidores de Correo (Mail Servers): Casi tan ubicuos y cruciales como los servidores web, los servidores de correo mueven y almacenan el correo electrónico a través de las redes corporativas (vía LANs y WANs) y a través de Internet.

Servidores de Noticias (News Servers):
Los servidores de noticias actúan como fuente de distribución y entrega para los millares de grupos de noticias públicos actualmente accesibles a través de la red de noticias USENET.

Servidores Proxy (Proxy Servers): Los servidores proxy se sitúan entre un programa del cliente (típicamente un navegador) y un servidor externo (típicamente otro servidor web) para filtrar peticiones, mejorar el funcionamiento y compartir conexiones.

Servidores Telnet (Telnet Servers): Un servidor telnet permite a los usuarios entrar en un ordenador huésped y realizar tareas como si estuviera trabajando directamente en ese ordenador.

Servidores Web (Web Servers): Básicamente, un servidor web sirve contenido estático a un navegador, carga un archivo y lo sirve a través de la red al. Básicamente, un servidor web sirve contenido estático a un navegador, carga un archivo y lo sirve a través de la red al navegador de un usuario. Este intercambio es mediado por el navegador y el servidor que hablan el uno con el otro mediante HTTP. Se pueden utilizar varias tecnologías en el servidor para aumentar su potencia más allá de su capacidad de entregar páginas HTML; éstas incluyen scripts CGI, seguridad SSL y páginas activas del servidor (ASP).

Protocolos de Comunicación.
Los protocolos son como reglas de comunicación que permiten el flujo de información entre computadoras distintas que manejan lenguajes distintos, por ejemplo, dos computadores conectados en la misma red pero con protocolos diferentes no podrían comunicarse jamás, para ello, es necesario que ambas "hablen" el mismo idioma, por tal sentido, el protocolo TCP/IP fue creado para las comunicaciones en Internet, para que cualquier computador se conecte a Internet, es necesario que tenga instalado este protocolo de comunicación

TCP/IP
El protocolo TCP/IP (Transmition Control Protocol/Internet Protocol) hace posible enlazar cualquier tipo de computadoras, sin importar el sistema operativo que usen o el fabricante. Este protocolo fue desarrollado originalmente por el ARPA (Advanced Research Projects Agency) del Departamento de Defensa de los Estados Unidos. Actualmente, es posible tener una red mundial llamada Internet usando este protocolo. Este sistema de IP permite a las redes enviar correo electrónico (e-mail), transferencia de archivos (FTP) y tener una interacción con otras computadoras (TELNET)no importando donde estén localizadas, tan solo que sean accesibles a través de Internet.
 
Arquitectura de Interconexión de Redes en TCP/IP

Características:

• Protocolos de no conexión en el nivel de red.
• Conmutación de paquetes entre nodos.
• Protocolos de transporte con funciones de seguridad.
• Conjunto común de programas de aplicación.

Para entender el funcionamiento de los protocolos TCP/IP debe tenerse en cuenta la arquitectura que ellos proponen para comunicar redes. Tal arquitectura ve como iguales a todas las redes a conectarse, sin tomar en cuenta el tamaño de ellas, ya sean locales o de cobertura amplia. Define que todas las redes que intercambiarán información deben estar conectadas a una misma computadora o equipo de procesamiento (dotados con dispositivos de comunicación); a tales computadoras se les denominan compuertas, pudiendo recibir otros nombres como enrutadores o puentes.

Direcciones IP

• Longitud de 32 bits.
• Identifica a las redes y a los nodos conectados a ellas.
• Especifica la conexión entre redes.
• Se representan mediante cuatro octetos,

Escritos en formato decimal, separados por puntos.
Para que en una red dos computadoras puedan comunicarse entre sí ellas deben estar identificadas con precisión Este identificador puede estar definido en niveles bajos (identificador físico) o en niveles altos (identificador lógico) de pendiendo del protocolo utilizado. TCP/IP utiliza un identificador denominado dirección Internet o dirección IP, cuya longitud es de 32 bytes. La dirección IP identifica tanto a la red a la que pertenece una computadora como a ella misma dentro de dicha red.

Clases de Direcciones IP

Clases Número de Redes Número de Nodos Rango de Direcciones IP
A 127 16,777,215 1.0.0.0 a la 127.0.0.0
B 4095 65,535 128.0.0.0 a la 191.255.0.0
C 2,097,151 255 192.0.0.0 a la 223.255.255.0

Tomando tal cual está definida una dirección IP podría surgir la duda de cómo identificar qué parte de la dirección identifica a la red y qué parte al nodo en dicha red. Lo anterior se resuelve mediante la definición de las "Clases de Direcciones IP". Para clarificar lo anterior veamos que una red con dirección clase A queda precisamente definida con el primer octeto de la dirección, la clase B con los dos primeros y la C con los tres primeros octetos. Los octetos restantes definen los nodos en la red específica.

Los servicios más importantes de TCP/IP son:

Transferencia de Archivos FTP (File Transfer Protocol): Este protocolo permite a los usuarios obtener o enviar archivos a otras computadoras en una red amplia (Internet). En esto, hay que implementar cierta seguridad, para restringir el acceso a ciertos usuarios y además a ciertas partes del servidor (computadora).

Acceso Remoto: El acceso remoto(Telnet) en un protocolo que permite el acceso directo de un usuario a otra computadora en la red. Para establecer un Telnet, se debe establecer la dirección o nombre de la computadora a la cual se desea conectar. Mientras se tenga el enlace, todo lo que se escriba en la pantalla, será ejecutado en la computadora remota, haciendo un tanto invisible a la computadora local. Cuando se accede por este tipo de protocolos, generalmente la computadora remota pregunta por un nombre de usuario (user name, login, etc.) y por una clave (password). Cuando ya se desea terminar con la sesión, basta con terminar este protocolo, para salir generalmente con los comandos: logout, logoff, exit, etc.

Correo en las Computadoras (e-mail): Este protocolo permite enviar o recibir mensajes a diferentes usuarios en otras computadoras. Generalmente se tiene una computadora como servidor de correo electrónico, la cual debe estar todo tiempo corriendo este programa, ya que cuando se envía algún mensaje, la computadora trata de enviarlo a la que le corresponde y si esta estuviera apagada o no corriendo este programa, el mensaje se perdería. Esta es la inconveniencia de tener un servidor de correo en una computadora del tipo PC, ya que estas no están permanentemente encendidas ni corriendo el protocolo de correo electrónico.

Sistemas de archivo en red (NFS): Esto permite a un sistema acceder archivos en otra computadora de una manera mas apropiada que mediante un FTP. El NFS da la impresión de que los discos duros de la computadora remota están directamente conectados a la computadora local. De esta manera, se crea un disco virtual en el sistema local. Esto es bastante usado para diferentes propósitos, tales como poner gran cantidad de información en una cuantas computadoras, pero permitiendo el acceso a esos discos. Esto aparte de los beneficios económicos, además permite trabajar a los usuarios en varias computadoras y compartir archivos comunes.

Impresión Remota: Esto permite acceder impresoras conectadas en la red, para lo cual se crean colas de impresión y el uso de dichas impresoras se puede restringir, ya sea mediante alguna contraseña o a ciertos usuarios. Los beneficios son el poder compartir estos recursos.

Ejecución remota: Esto permite correr algún programa en particular en alguna computadora. Es útil cuando se tiene un trabajo grande que no es posible correr en un sistema pequeño, siendo necesario ejecutarlo en uno grande. Se tiene diferentes tipos de ejecución remota, por ejemplo, se puede dar algún comando o algunos para que sean ejecutados en alguna computadora en especifico. Con un sistema mas sofisticado, es posible que ese proceso sea cargado a alguna computadora que se encuentre disponible para hacerlo.

Servidores de Nombres: En instalaciones grandes, hay un una buena cantidad de colección de nombres que tienen que ser manejados, esto incluye a usuarios y sus passwords, nombre y direcciones de computadoras en la red y cuentas. Resulta muy tedioso estar manejando esta gran cantidad de información, por lo que se puede destinar a una computadora que maneje este sistema, en ocasiones es necesario acceder estos servidores de nombres desde otra computadora a través de la red.

Servidores de Terminales: En algunas ocasiones, no se requiere tener conectadas las terminales directamente a las computadoras, entonces, ellos se conectan a un servidor de terminales. Un servidor de terminales es simplemente una pequeña computadora que solo necesita correr el Telnet (o algunos otros protocolos para hacer el acceso remoto). , Si se tiene una computadora conectada a uno de estos servidores, simplemente se tiene que teclear el nombre de la computadora a la cual se desea conectar. Generalmente se puede tener varios en laces simultáneamente, y el servidor de terminales permitirá hacer la conmutación de una a otra en un tiempo muy reducido.

Modelo OSI
El modelo de referencia de Interconexión de Sistemas Abiertos (OSI, Open System Interconnection) lanzado en 1984 fue el modelo de red descriptivo creado por ISO; esto es, un marco de referencia para la definición de arquitecturas de interconexión de sistemas de comunicaciones.
 
Historia
A principios de la década de 1980 el desarrollo de redes sucedió con desorden en muchos sentidos. Se produjo un enorme crecimiento en la cantidad y el tamaño de las redes. A medida que las empresas tomaron conciencia de las ventajas de usar tecnologías de conexión, las redes se agregaban o expandían a casi la misma velocidad a la que se introducían las nuevas tecnologías de red.

Para mediados de la década de 1980, estas empresas comenzaron a sufrir las consecuencias de la rápida expansión. De la misma forma en que las personas que no hablan un mismo idioma tienen dificultades para comunicarse, las redes que utilizaban diferentes especificaciones e implementaciones tenían dificultades para intercambiar información. El mismo problema surgía con las empresas que desarrollaban tecnologías de conexión privadas o propietarias. "Propietario" significa que una sola empresa o un pequeño grupo de empresas controla todo uso de la tecnología. Las tecnologías de conexión que respetaban reglas propietarias en forma estricta no podían comunicarse con tecnologías que usaban reglas propietarias diferentes.

Para enfrentar el problema de incompatibilidad de redes, la Organización Internacional para la Estandarización (ISO) investigó modelos de conexión como la red de Digital Equipment Corporation (DECnet), la Arquitectura de Sistemas de Red (SNA) y TCP/IP a fin de encontrar un conjunto de reglas aplicables de forma general a todas las redes. Con base en esta investigación, la ISO desarrolló un modelo de red que ayuda a los fabricantes a crear redes que sean compatibles con otras redes.

Modelo de referencia OSI
Siguiendo el esquema de este modelo se crearon numerosos protocolos, por ejemplo X.25, que durante muchos años ocuparon el centro de la escena de las comunicaciones informáticas. El advenimiento de protocolos más flexibles donde las capas no están tan demarcadas y la correspondencia con los niveles no era tan clara puso a este esquema en un segundo plano. Sin embargo sigue siendo muy usado en la enseñanza como una manera de mostrar como puede estructurarse una "pila" de protocolos de comunicaciones (sin importar su poca correspondencia con la realidad).

El modelo en sí mismo no puede ser considerado una arquitectura, ya que no especifica el protocolo que debe ser usado en cada capa, sino que suele hablarse de modelo de referencia. Este modelo está dividido en siete capas:


Capa Física (Capa 1)
La Capa Física del modelo de referencia OSI es la que se encarga de las conexiones físicas de la computadora hacia la red, tanto en lo que se refiere al medio físico (medios guiados: cable coaxial, cable de par trenzado, fibra óptica y otros tipos de cables; medios no guiados: radio, infrarrojos, microondas, láser y otras redes inalámbricas); características del medio (p.e. tipo de cable o calidad del mismo; tipo de conectores normalizados o en su caso tipo de antena; etc.) y la forma en la que se transmite la información (codificación de señal, niveles de tensión/intensidad de corriente eléctrica, modulación, tasa binaria, etc.)

Es la encargada de transmitir los bits de información a través del medio utilizado para la transmisión. Se ocupa de las propiedades físicas y características eléctricas de los diversos componentes; de la velocidad de transmisión, si ésta es uni o bidireccional (símplex, dúplex o full-dúplex). También de aspectos mecánicos de las conexiones y terminales, incluyendo la interpretación de las señales eléctricas/electromagnéticas.

Se encarga de transformar una trama de datos proveniente del nivel de enlace en una señal adecuada al medio físico utilizado en la transmisión. Estos impulsos pueden ser eléctricos (transmisión por cable) o electromagnéticos (transmisión sin cables). Estos últimos, dependiendo de la frecuencia / longitud de onda de la señal pueden ser ópticos, de micro-ondas o de radio. Cuando actúa en modo recepción el trabajo es inverso; se encarga de transformar la señal transmitida en tramas de datos binarios que serán entregados al nivel de enlace.

Sus principales funciones se pueden resumir como:

Definir el medio o medios físicos por los que va a viajar la comunicación: cable de pares trenzados (o no, como en RS232/EIA232), coaxial, guías de onda, aire, fibra óptica.
Definir las características materiales (componentes y conectores mecánicos) y eléctricas (niveles de tensión) que se van a usar en la transmisión de los datos por los medios físicos.
Definir las características funcionales de la interfaz (establecimiento, mantenimiento y liberación del enlace físico).
Transmitir el flujo de bits a través del medio.
Manejar las señales eléctricas/electromagnéticas
Especificar cables, conectores y componentes de interfaz con el medio de transmisión, polos en un enchufe, etc.
Garantizar la conexión (aunque no la fiabilidad de ésta).

Codificación de la seña
l:
El nivel físico recibe una trama binaria que debe convertir a una señal eléctrica, electromagnética u otra dependiendo del medio, de tal forma que a pesar de la degradación que pueda sufrir en el medio de transmisión vuelva a ser interpretable correctamente en el receptor.

En el caso más sencillo el medio es directamente digital, como en el caso de las fibras ópticas, dado que por ellas se transmiten pulsos de luz.

Cuando el medio no es digital hay que codificar la señal, en los casos más sencillos la codificación puede ser por pulsos de tensión (PCM o Pulse Code Modulation) (por ejemplo 5 V para los "unos" y 0 V para los "ceros"), es lo que se llaman codificación unipolar RZ. Otros medios se codifican mediante presencia o ausencia de corriente. En general estas codificaciones son muy simples y no usan bien la capacidad de medio. Cuando se quiere sacar más partido al medio se usan técnicas de modulación más complejas, y suelen ser muy dependientes de las características del medio concreto.

En los casos más complejos, como suelen ser las comunicaciones inalámbricas, se pueden dar modulaciones muy sofisticadas, este es el caso de los estándares Wi-Fi, en el que se utiliza codificación OFDM.

Topología y medios compartidos:
Indirectamente, el tipo de conexión que se haga en la capa física puede influir en el diseño de la capa de Enlace. Atendiendo al número de equipos que comparten un medio hay dos posibilidades:

Conexiones punto a punto: que se establecen entre dos equipos y que no admiten ser compartidas por terceros.

Conexiones multipunto: en la que más de dos equipos pueden usar el medio.
Así por ejemplo la fibra óptica no permite fácilmente conexiones multipunto (sin embargo, véase FDDI) y por el contrario las conexiones inalámbricas son inherentemente multipunto (sin embargo, véanse los enlaces infrarrojos). Hay topologías como el anillo, que permiten conectar muchas máquinas a partir de una serie de conexiones punto a punto.

Equipos adicionales:
A la hora de diseñar una red hay equipos adicionales que pueden funcionar a nivel físico, se trata de los repetidores, en esencia se trata de equipos que amplifican la señal, pudiendo también regenerarla. En las redes Ethernet con la opción de cableado de par trenzado (la más común hoy por hoy) se emplean unos equipos de interconexión llamados concentradores (repetidores en las redes 10Base-2) más conocidos por su nombre en inglés (hubs) que convierten una topología física en estrella en un bus lógico y que actúan exclusivamente a nivel físico, a diferencia de los conmutadores (switches) que actúan a nivel de enlace.

Capa de enlace de datos (Capa 2)
Cualquier medio de transmisión debe ser capaz de proporcionar una transmisión sin errores, es decir, un tránsito de datos fiable a través de un enlace físico. Debe crear y reconocer los límites de las tramas, así como resolver los problemas derivados del deterioro, pérdida o duplicidad de las tramas. También puede incluir algún mecanismo de regulación del tráfico que evite la saturación de un receptor que sea más lento que el emisor.

La capa de enlace de datos se ocupa del direccionamiento físico, de la topología de la red, del acceso a la red, de la notificación de errores, de la distribución ordenada de tramas y del control del flujo.

Se hace un direccionamiento de los datos en la red ya sea en la distribución adecuada desde un emisor a un receptor, la notificación de errores, de la topología de la red de cualquier tipo. La tarjeta NIC (Network Interface Card, Tarjeta de Interfaz de Red en español o Tarjeta de Red) que se encarga que tengamos conexión, posee una dirección MAC (control de acceso al medio) y la LLC (control de enlace lógico).

Los Switches realizan su función en esta capa.

La PDU de la capa 2 es la trama.

Capa de red (Capa 3)
El cometido de la capa de red es hacer que los datos lleguen desde el origen al destino, aún cuando ambos no estén conectados directamente. Los dispositivos que facilitan tal tarea se denominan en castellano encaminadores, aunque es más frecuente encontrar el nombre inglés routers y, en ocasiones enrutadores.

Adicionalmente la capa de red lleva un control de la congestión de red, que es el fenómeno que se produce cuando una saturación de un nodo tira abajo toda la red (similar a un atasco en un cruce importante en una ciudad grande). La PDU de la capa 3 es el paquete.

Los routers trabajan en esta capa, aunque pueden actuar como switch de nivel 2 en determinados casos, dependiendo de la función que se le asigne. Los firewalls actuan sobre esta capa principalmente, para descartar direcciones de maquinas.

A este nivel se determina la ruta de los datos (Direccionamiento fisico) y su receptor final IP

Capa de transporte (Capa 4)
Su función básica es aceptar los datos enviados por las capas superiores, dividirlos en pequeñas partes si es necesario, y pasarlos a la capa de red. En el caso del modelo OSI, también se asegura que lleguen correctamente al otro lado de la comunicación. Otra característica a destacar es que debe aislar a las capas superiores de las distintas posibles implementaciones de tecnologías de red en las capas inferiores, lo que la convierte en el corazón de la comunicación.
En esta capa se proveen servicios de conexión para la capa de sesión que serán utilizados finalmente por los usuarios de la red al enviar y recibir paquetes. Estos servicios estarán asociados al tipo de comunicación empleada, la cual puede ser diferente según el requerimiento que se le haga a la capa de transporte. Por ejemplo, la comunicación puede ser manejada para que los paquetes sean entregados en el orden exacto en que se enviaron, asegurando una comunicación punto a punto libre de errores, o sin tener en cuenta el orden de envío.
Una de las dos modalidades debe establecerse antes de comenzar la comunicación para que una sesión determinada envíe paquetes, y ése será el tipo de servicio brindado por la capa de transporte hasta que la sesión finalice. De la explicación del funcionamiento de esta capa se desprende que no está tan encadenada a capas inferiores como en el caso de las capas 1 a 3, sino que el servicio a prestar se determina cada vez que una sesión desea establecer una comunicación. Todo el servicio que presta la capa está gestionado por las cabeceras que agrega al paquete a transmitir.

En resumen, podemos definir a la capa de transporte como:

Capa encargada de efectuar el transporte de los datos (que se encuentran dentro del paquete) de la máquina origen a la destino, independizándolo del tipo de red física que se esté utilizando. La PDU de la capa 4 se llama Segmentos.

Capa de sesión (Capa 5)
Esta capa establece, gestiona y finaliza las conexiones entre usuarios (procesos o aplicaciones) finales. Ofrece varios servicios que son cruciales para la comunicación, como son:
Control de la sesión a establecer entre el emisor y el receptor (quién transmite, quién escucha y seguimiento de ésta). Control de la concurrencia (que dos comunicaciones a la misma operación crítica no se efectúen al mismo tiempo).

Mantener puntos de verificación (checkpoints), que sirven para que, ante una interrupción de transmisión por cualquier causa, la misma se pueda reanudar desde el último punto de verificación en lugar de repetirla desde el principio.

Por lo tanto, el servicio provisto por esta capa es la capacidad de asegurar que, dada una sesión establecida entre dos máquinas, la misma se pueda efectuar para las operaciones definidas de principio a fin, reanudándolas en caso de interrupción. En muchos casos, los servicios de la capa de sesión son parcialmente, o incluso, totalmente prescindibles.

En conclusión esta capa es la que se encarga de mantener el enlace entre los dos computadores que estén trasmitiendo archivos.

Los firewalls actúan sobre esta capa, para bloquear los accesos a los puertos de un computador.

Capa de presentación (Capa 6)
El objetivo de la capa de presentación es encargarse de la representación de la información, de manera que aunque distintos equipos puedan tener diferentes representaciones internas de caracteres (ASCII, Unicode, EBCDIC), números (little-endian tipo Intel, big-endian tipo Motorola), sonido o imágenes, los datos lleguen de manera reconocible.

Esta capa es la primera en trabajar más el contenido de la comunicación que en como se establece la misma. En ella se tratan aspectos tales como la semántica y la sintaxis de los datos transmitidos, ya que distintas computadoras pueden tener diferentes formas de manejarlas.

Por lo tanto, podemos resumir definiendo a esta capa como la encargada de manejar las estructuras de datos abstractas y realizar las conversiones de representación de datos necesarias para la correcta interpretación de los mismos.

Esta capa también permite cifrar los datos y comprimirlos. En pocas palabras es un traductor.

Capa de aplicación (Capa 7)
Ofrece a las aplicaciones (de usuario o no) la posibilidad de acceder a los servicios de las demás capas y define los protocolos que utilizan las aplicaciones para intercambiar datos, como correo electrónico (POP y SMTP), gestores de bases de datos y servidor de ficheros (FTP). Hay tantos protocolos como aplicaciones distintas y puesto que continuamente se desarrollan nuevas aplicaciones el número de protocolos crece sin parar.

Cabe aclarar que el usuario normalmente no interactúa directamente con el nivel de aplicación. Suele interactuar con programas que a su vez interactúan con el nivel de aplicación pero ocultando la complejidad subyacente. Así por ejemplo un usuario no manda una petición "HTTP/1.0 GET index.html" para conseguir una página en html, ni lee directamente el código html/xml.

Entre los protocolos (refiriéndose a protocolos genéricos, no a protocolos de la capa de aplicación de OSI) más conocidos destacan:
• HTTP (HyperText Transfer Protocol) el protocolo bajo la www
• FTP (File Transfer Protocol) ( FTAM, fuera de TCP/IP) transferencia de ficheros
• SMTP (Simple Mail Transfer Protocol) (X.400 fuera de tcp/ip) envío y distribución de correo electrónico
• POP (Post Office Protocol)/IMAP: reparto de correo al usuario final
• SSH (Secure SHell) principalmente terminal remoto, aunque en realidad cifra casi cualquier tipo de transmisión.
• Telnet otro terminal remoto, ha caído en desuso por su inseguridad intrínseca, ya que las claves viajan sin cifrar por la red.

• Hay otros protocolos de nivel de aplicación que facilitan el uso y administración de la red:
• SNMP (Simple Network Management Protocol)
• DNS (Domain Name System)

ENCAPSULAMIENTO
Las capas del modelo OSI van preparando el paquete para su correcta administración a través de la red, esto es encapsulamiento.
• −Presentación: cambia el formato de los datos para su utilización.
• −Transporte: divide el paquete en segmentos para su transporte.
• −Red: crea paquetes o datagramas con los segmentos y les añade las direcciones de las maquinas en un encabezado.
• −Enlace de datos: Crea tramas a partir de los datagramas y les coloca las direcciones MAC origen y destino.

COMUNICACIÓN ENTRE CAPAS
Comunicación par a par: Para q el paquete llegue a su destino las capas del modelo OSI tienen que comunicarse con su misma capa en el destino.

Existes dos tipos de servicios:
• −Orientados a conexión: Envía los mensajes en orden y llegan sin errores, es fiable.
• − No conexión: El envió de mensajes es independiente por lo que no es fiable y no se garantiza el orden de llegada.

Unidades de datos:
El intercambio de información entre dos capas OSI consiste en que cada capa en el sistema fuente le agrega información de control a los datos, y cada capa en el sistema de destino analiza y remueve la información de control de los datos como sigue:

Si un ordenador (host A) desea enviar datos a otro (host B), en primer término los datos deben empaquetarse a través de un proceso denominado encapsulamiento, es decir, a medida que los datos se desplazan a través de las capas del modelo OSI, reciben encabezados, información final y otros tipos de información.

N-PDU (Unidad de datos de protocolo)
Es la información intercambiada entre entidades pares,es decir,dos entidades pertenecientes a la misma capa pero en dos sistemas diferentes, utilizando una conexión(N-1).
Esta compuesta por:
N-SDU (Unidad de datos del servicio)

Son los datos que se necesitan la entidades(N) para realizar funciones del servicio pedido por la entidad(N+1).

N-PCI (Información de control del protocolo)
Información intercambiada entre entidades (N) utilizando una conexión (N-1) para coordinar su operación conjunta.

N-IDU (Unidad de datos del interface)
Es la información transferida entre dos niveles adyacentes,es decir, dos capas contiguas.
Esta compuesta por:
N-ICI (Información de control del interface)

Información intercambiada entre una entidad (N+1) y una entidad (N) para coordinar su operación conjunta.

Datos de Interface-(N)
Información transferida entre una entidad-(N+1) y una entidad-(N) y que normalmente coincide con la (N+1)-PDU.

Transmisión de los datos:
La capa de aplicación recibe el mensaje del usuario y le añade una cabecera constituyendo así la PDU de la capa de aplicación. La PDU se transfiere a la capa de aplicación del nodo destino, este elimina la cabecera y entrega el mensaje al usuario.

Para ello ha sido necesario todo este proceso:

1-Ahora hay que entregar la PDU a la capa de presentación para ello hay que añadirla la correspondiente cabecera ICI y transformarla así en una IDU, la cual se transmite a dicha capa.

2-La capa de presentación recibe la IDU, le quita la cabecera y extrae la información, es decir, la SDU, a esta le añade su propia cabecera (PCI) constituyendo así la PDU de la capa de presentación.

3- Esta PDU es transferida a su vez a la capa de sesión mediante el mismo proceso, repitiéndose así para todas las capas.

4-Al llegar al nivel físico se envían los datos que son recibidos por la capa física del receptor.

5-Cada capa del receptor se ocupa de extraer la cabecera, que anteriormente había añadido su capa homóloga, interpretarla y entregar la PDU a la capa superior.

6-Finalmente llegará a la capa de aplicación la cual entregará el mensaje al usuario.

Formato de los datos:
Estos datos reciben una serie de nombres y formatos específicos en función de la capa en la que se encuentren, debido a como se describió anteriormente la adhesión de una serie de encabezados e información final. Los formatos de información son los que muestra el gráfico:
 
APDU: Unidad de datos en la capa de aplicación (Capa 7).
PPDU: Unidad de datos en la capa de presentación (Capa 6).
SPDU: Unidad de datos en la capa de sesión (Capa 5).
TPDU:(segmento) Unidad de datos en la capa de transporte (Capa 4).
Paquete: Unidad de datos en el nivel de red (Capa 3).
Trama: Unidad de datos en la capa de enlace (Capa 2).
Bits: Unidad de datos en la capa física (Capa 1).

Operaciones sobre los datos:
En determinadas situaciones es necesario realizar una serie de operaciones sobre las PDU para facilitar su transporte, bien debido a que son demasiado grandes o bien porque son demasiado pequeñas y estaríamos desaprovechando la capacidad del enlace.

Segmentación y reensamblaje:
Hace corresponder a una (N)-SDU sobre varias (N)-PDU.
El reensamblaje hace corresponder a varias (N)-PDUs en una (N)-SDU.

Bloqueo y desbloqueo:
El bloqueo hace corresponder varias (N)-SDUs en una (N)-PDU.
El desbloqueo identifica varias (N)-SDUs que están contenidas en una (N)-PDU.

Concatenación y separación:
La concatenación es una función-(N) que realiza el nivel-(N) y que hace corresponder varias (N)-PDUs en una sola (N-1)-SDU.
La separación identifica varias (N)-PDUs que están contenidas en una sola (N-1)-SDU.

Protocolo TCP/IP
El protocolo TCP/IP tiene que estar a un nivel superior del tipo de red empleado y funcionar de forma transparente en cualquier tipo de red. Y a un nivel inferior de los programas de aplicación (páginas WEB, correo electrónico…) particulares de cada sistema operativo. Todo esto nos sugiere el siguiente modelo de referencia:

Capa de aplicación (HTTP, SMTP, FTP, TELNET...)
Capa de transporte (UDP, TCP)
Capa de red (IP)
Capa de acceso a la red (Ethernet, Token Ring...)
Capa física (cable coaxial, par trenzado...)

El nivel más bajo es la capa física. Aquí nos referimos al medio físico por el cual se transmite la información. Generalmente será un cable aunque no se descarta cualquier otro medio de transmisión como ondas o enlaces vía satélite.

La capa de acceso a la red determina la manera en que las estaciones (ordenadores) envían y reciben la información a través del soporte físico proporcionado por la capa anterior. Es decir, una vez que tenemos un cable, ¿cómo se transmite la información por ese cable? ¿Cuándo puede una estación transmitir? ¿Tiene que esperar algún turno o transmite sin más? ¿Cómo sabe una estación que un mensaje es para ella? Pues bien, son todas estas cuestiones las que resuelve esta capa.

Las dos capas anteriores quedan a un nivel inferior del protocolo TCP/IP, es decir, no forman parte de este protocolo. La capa de red define la forma en que un mensaje se transmite a través de distintos tipos de redes hasta llegar a su destino. El principal protocolo de esta capa es el IP aunque también se encuentran a este nivel los protocolos ARP, ICMP e IGMP. Esta capa proporciona el direccionamiento IP y determina la ruta óptima a través de los encaminadores (routers) que debe seguir un paquete desde el origen al destino.

La capa de transporte (protocolos TCP y UDP) ya no se preocupa de la ruta que siguen los mensajes hasta llegar a su destino. Sencillamente, considera que la comunicación extremo a extremo está establecida y la utiliza. Además añade la noción de puertos, como veremos más adelante.

Una vez que tenemos establecida la comunicación desde el origen al destino nos queda lo más importante, ¿qué podemos transmitir? La capa de aplicación nos proporciona los distintos servicios de Internet: correo electrónico, páginas Web, FTP, TELNET…

La familia de protocolos TCP/IP fue diseñada para permitir la interconexión entre distintas redes. El mejor ejemplo de interconexión de redes es Internet: se trata de un conjunto de redes unidas mediante encaminadores o routers.

A lo largo de este Curso aprenderemos a construir redes privadas que funcionen siguiendo el mismo esquema de Internet. En una red TCP/IP es posible tener, por ejemplo, servidores web y servidores de correo para uso interno. Obsérvese que todos los servicios de Internet se pueden configurar en pequeñas redes internas TCP/IP.

A continuación veremos un ejemplo de interconexión de 3 redes. Cada host (ordenador) tiene una dirección física que viene determinada por su adaptador de red. Estas direcciones se corresponden con la capa de acceso al medio y se utilizan para comunicar dos ordenadores que pertenecen a la misma red. Para identificar globalmente un ordenador dentro de un conjunto de redes TCP/IP se utilizan las direcciones IP (capa de red). Observando una dirección IP sabremos si pertenece a nuestra propia red o a una distinta (todas las direcciones IP de la misma red comienzan con los mismos números, según veremos más adelante).

Host Dirección física Dirección IP Red
A 00-60-52-0B-B7-7D 192.168.0.10 Red 1
R1 00-E0-4C-AB-9A-FF 192.168.0.1
 A3-BB-05-17-29-D0 10.10.0.1
Red 2
B 00-E0-4C-33-79-AF 10.10.0.7
R2 B2-42-52-12-37-BE 10.10.0.2
 00-E0-89-AB-12-92 200.3.107.1
Red 3

C A3-BB-08-10-DA-DB 200.3.107.73
D B2-AB-31-07-12-93 200.3.107.200

El concepto de red está relacionado con las direcciones IP que se configuren en cada ordenador, no con el cableado. Es decir, si tenemos varias redes dentro del mismo cableado solamente los ordenadores que permanezcan a una misma red podrán comunicarse entre sí. Para que los ordenadores de una red puedan comunicarse con los de otra red es necesario que existan routers que interconecten las redes. Un router o encaminador no es más que un ordenador con varias direcciones IP, una para cada red, que permita el tráfico de paquetes entre sus redes.

La capa de red se encarga de fragmentar cada mensaje en paquetes de datos llamados datagramas IP y de enviarlos de forma independiente a través de la red de redes. Cada datagrama IP incluye un campo con la dirección IP de destino. Esta información se utiliza para enrutar los datagramas a través de las redes necesarias que los hagan llegar hasta su destino.

Direcciones IP
La dirección IP es el identificador de cada host dentro de su red de redes. Cada host conectado a una red tiene una dirección IP asignada, la cual debe ser distinta a todas las demás direcciones que estén vigentes en ese momento en el conjunto de redes visibles por el host. En el caso de Internet, no puede haber dos ordenadores con 2 direcciones IP (públicas) iguales. Pero sí podríamos tener dos ordenadores con la misma dirección IP siempre y cuando pertenezcan a redes independientes entre sí (sin ningún camino posible que las comunique).

LAS DIRECCIONES IP SE CLASIFICAN EN:

Direcciones IP públicas. Son visibles en todo Internet. Un ordenador con una IP pública es accesible (visible) desde cualquier otro ordenador conectado a Internet. Para conectarse a Internet es necesario tener una dirección IP pública.

Direcciones IP privadas (reservadas). Son visibles únicamente por otros hosts de su propia red o de otras redes privadas interconectadas por routers. Se utilizan en las empresas para los puestos de trabajo. Los ordenadores con direcciones IP privadas pueden salir a Internet por medio de un router (o proxy) que tenga una IP pública. Sin embargo, desde Internet no se puede acceder a ordenadores con direcciones IP privadas.

A SU VEZ, LAS DIRECCIONES IP PUEDEN SER:

Direcciones IP estáticas (fijas). Un host que se conecte a la red con dirección IP estática siempre lo hará con una misma IP. Las direcciones IP públicas estáticas son las que utilizan los servidores de Internet con objeto de que estén siempre localizables por los usuarios de Internet. Estas direcciones hay que contratarlas.

Direcciones IP dinámicas. Un host que se conecte a la red mediante dirección IP dinámica, cada vez lo hará con una dirección IP distinta. Las direcciones IP públicas dinámicas son las que se utilizan en las conexiones a Internet mediante un módem. Los proveedores de Internet utilizan direcciones IP dinámicas debido a que tienen más clientes que direcciones IP (es muy improbable que todos se conecten a la vez).

Las direcciones IP están formadas por 4 bytes (32 bits). Se suelen representar de la forma a.b.c.d donde cada una de estas letras es un número comprendido entre el 0 y el 255. Por ejemplo la dirección IP del servidor de IBM (www.ibm.com) es 129.42.18.99.  
Las direcciones IP también se pueden representar en hexadecimal, desde la 00.00.00.00 hasta la FF.FF.FF.FF o en binario, desde la 00000000.00000000.00000000.00000000 hasta la 11111111.11111111.11111111.11111111.

Las tres direcciones siguientes representan a la misma máquina (podemos utilizar la calculadora científica de Windows para realizar las conversiones).
(decimal) 128.10.2.30
(hexadecimal) 80.0A.02.1E
(binario) 10000000.00001010.00000010.00011110

¿Cuántas direcciones IP existen? Si calculamos 2 elevado a 32 obtenemos más de 4000 millones de direcciones distintas. Sin embargo, no todas las direcciones son válidas para asignarlas a hosts. Las direcciones IP no se encuentran aisladas en Internet, sino que pertenecen siempre a alguna red. Todas las máquinas conectadas a una misma red se caracterizan en que los primeros bits de sus direcciones son iguales. De esta forma, las direcciones se dividen conceptualmente en dos partes: el identificador de red y el identificador de host.