jueves, 24 de julio de 2008

UNIVERSIDAD NACIONAL DEL CALLAO


Reseña Historica

La Universidad Nacional del Callao se crea el 2 de septiembre de 1966, según la Ley 16225, iniciando su funcionamiento en el distrito de La Punta, con las siguientes facultades:

  • Recursos Hidrobiológicos y Pesquería.
  • Química Industrial.Ingeniería Naval, Industrial, Mecánica y Eléctrica.
  • Ciencias Económicas y Administrativas.

Se creó esta Casa de Estudios con un carácter y carreras de perfil técnico, única en su género en el Perú y por su ubicación privilegiada en el primer puerto marítimo, aéreo y única provincia constitucional como es el Callao. La Universidad ha mantenido este carácter propio y hoy cuenta con once Facultades, quince Escuelas Profesionales y una Escuela de Postgrado.

En la Escuela de Postgrado se ofrecen maestrías en docencia e investigación universitaria, ingeniería química, ciencia y tecnología de alimentos, salud pública, ingeniería de sistemas, finanzas, comercio y negocios internacionales, ciencias fiscalizadoras, tributación. La Universidad Nacional del Callao se ha propuesto formar profesionales, realizar investigación y proyección social en consonancia con las necesidades de la sociedad y de la comunidad, y aportar así al desarrollo de la región y del País.

Para cumplir con estos fines se ha planteado a sí misma una organización apoyada cada vez más con los adelantos de la ciencia y tecnología moderna, tanto en el proceso de enseñanza-aprendizaje como en los aspectos administrativos, siendo su horizonte la calidad, la competitividad, la eficiencia y eficacia en el uso de sus recursos. Por su naturaleza histórica y funcional hasta el momento la Universidad privilegia la investigación en aspectos ligados a la actividad pesquera y recursos hidrobiológicos, el diseño y mantenimiento de equipos, maquinaria y herramientas y plantas industriales y manufactureras, la industria metalmecánica, la agroindustria, la química básica y aplicada, el comercio, la banca, las finanzas y el turismo.

Dos veces al año se programan exámenes de admisión, para un número de 1500 ingresantes bajo la modalidad de la doble opción, cuenta con un centro de preparación para el ingreso, con una capacidad de 1000 alumnos, 150 de los cuales pueden acceder directamente a las Facultades en cada proceso de admisión. entre sus diversas actividades extracurriculares, destaca el Centro de idiomas, que ofrece cursos de ingles y francés, a aproximadamente 600 alumnos, vía un convenio con la Alianza Francesa.

Misión:

Formar profesionales competentes de calidad, que puedan desempeñarse en forma eficiente, eficaz y efectiva en las organizaciones donde se desempeñen, que identifiquen y planteen soluciones a los problemas en los campos de la tecnología, la ciencia y las humanidades, de acuerdo con la realidad y visión del desarrollo nacional, realizando investigaciones, extensión y proyección social, con orientación preferente a los campos de actividad pesquera, marítima, portuaria y naval.


Visión:

La Universidad Nacional del Callao se convertirá en una institución líder, moderna, capaz de contribuir al desarrollo y transformación de nuestra sociedad.

Topología de la red

La topología de red define la estructura de una red. Una parte de la definición topológica es la topología física, que es la disposición real de los cables o medios. La otra parte es la topología lógica, que define la forma en que los hosts acceden a los medios para enviar datos. Las topologías más comúnmente usadas son las siguientes:

Topologías físicas

Una topología de bus usa un solo cable backbone que debe terminarse en ambos extremos. Todos los hosts se conectan directamente a este backbone.




La topología de anillo conecta un host con el siguiente y al último host con el primero. Esto crea un anillo físico de cable.



La topología en estrella conecta todos los cables con un punto central de concentración.
Una topología en estrella extendida conecta estrellas individuales entre sí mediante la conexión de HUBs o switches. Esta topología puede extender el alcance y la cobertura de la red.




Una topología jerárquica es similar a una estrella extendida. Pero en lugar de conectar los HUBs o switches entre sí, el sistema se conecta con un computador que controla el tráfico de la topología.

La topología de malla se implementa para proporcionar la mayor protección posible para evitar una interrupción del servicio. El uso de una topología de malla en los sistemas de control en red de una planta nuclear sería un ejemplo excelente. Como se puede observar en el gráfico, cada host tiene sus propias conexiones con los demás hosts. Aunque Internet cuenta con múltiples rutas hacia cualquier ubicación, no adopta la topología de malla completa.

También hay otra topología denominada árbol.



Topologías lógicas

La topología lógica de una red es la forma en que los hosts se comunican a través del medio. Los dos tipos más comunes de topologías lógicas son broadcast y transmisión de tokens.

La topología broadcast simplemente significa que cada host envía sus datos hacia todos los demás hosts del medio de red. No existe una orden que las estaciones deban seguir para utilizar la red. Es por orden de llegada, es como funciona Ethernet.

La topología transmisión de tokens controla el acceso a la red mediante la transmisión de un token electrónico a cada host de forma secuencial. Cuando un host recibe el token, ese host puede enviar datos a través de la red. Si el host no tiene ningún dato para enviar, transmite el token al siguiente host y el proceso se vuelve a repetir. Dos ejemplos de redes que utilizan la transmisión de tokens son Token Ring y la Interfaz de datos distribuida por fibra (FDDI). Arcnet es una variación de Token Ring y FDDI. Arcnet es la transmisión de tokens en una topología de bus.

Red de área local

Una red de área local, o red local, es la interconexión de varios ordenadores y periféricos. (LAN es la abreviatura inglesa de Local Area Network, 'red de área local'). Su extensión esta limitada físicamente a un edificio o a un entorno de hasta 100 metros. Su aplicación más extendida es la interconexión de ordenadores personales y estaciones de trabajo en oficinas, fábricas, etc., para compartir recursos e intercambiar datos y aplicaciones. En definitiva, permite que dos o más máquinas se comuniquen.

El término red local incluye tanto el hardware como el software necesario para la interconexión de los distintos dispositivos y el tratamiento de la información.

En épocas anteriores a los ordenadores personales, una empresa podía tener solamente un ordenador central, accediendo los usuarios a éste mediante terminales de ordenador con un cable simple de baja velocidad. Las redes como SNA de IBM(Arquitectura de Red de Sistemas) fueron diseñadas para unir terminales u ordenadores centrales a sitios remotos con líneas alquiladas. Las primeras LAN fueron creadas a finales de losaño 1970 y se solían crear líneas de alta velocidad para conectar grandes ordenadores centrales a un solo lugar. Muchos de los sistemas fiables creados en esta época, como Ethernet y ARCNET, fueron los más populares.

El crecimiento CP/M y DOS basados en el ordenador personal significó que en un lugar físico existieran docenas o incluso cientos de ordenadores. La intención inicial de conectar estos ordenadores fue, generalmente, compartir espacio de disco e impresoras láser, pues eran muy caros en este tiempo. Había muchas expectativas en este tema desde 1983 y la industria informática declaró que el siguiente año sería “El año de las Lan”.

En realidad esta idea fracasó debido a la proliferación de incompatibilidades de la capa física y la implantación del protocolo de red, y la confusión sobre la mejor forma de compartir los recursos. Lo normal es que cada vendedor tuviera tarjeta de red, cableado, protocolo y sistema de operación de red. Con la aparición de Netware surgió una nueva solución, la cual ofrecía: soporte imparcial para los más de cuarenta tipos existentes de tarjetas, cables y sistemas operativos mucho más sofisticados que los que ofrecían la mayoría de los competidores. Netware dominaba el campo de las Lan de los ordenadores personales desde antes de su introducción en 1983 hasta mediados de los años 1990, cuando Microsoft introdujo Windows NT Advance Server y Windows for Workgroups.

De todos los competidores de Netware, sólo Banyan VINES tenía poder técnico comparable, pero Banyan ganó una base segura. Microsoft y 3Com trabajaron juntos para crear un sistema operativo de red simple el cual estaba formado por la base de 3Com's 3+Share, el Gestor de redes Lan de Microsoft y el Servidor de IBM. Ninguno de estos proyectos fue muy satisfactorio.


Ventajas


En una empresa suelen existir muchos ordenadores, los cuales necesitan de su propia impresora para imprimir informes (redundancia de hardware), los datos almacenados en uno de los equipos es muy probable que sean necesarios en otro de los equipos de la empresa, por lo que será necesario copiarlos en este, pudiéndose producir desfases entre los datos de dos usuarios, la ocupación de los recursos de almacenamiento en disco se multiplican (redundancia de datos), los ordenadores que trabajen con los mismos datos tendrán que tener los mismos programas para manejar dichos datos (redundancia de software), etc.

La solución a estos problemas se llama red de área local, esta permite compartir bases de datos (se elimina la redundancia de datos), programas (se elimina la redundancia de software) y periféricos como puede ser un módem, una tarjeta RDSI, una impresora, etc. (se elimina la redundancia de hardware); poniendo a nuestra disposición otros medios de comunicación como pueden ser el correo electrónico y el Chat. Nos permite realizar un proceso distribuido, es decir, las tareas se pueden repartir en distintos nodos y nos permite la integración de los procesos y datos de cada uno de los usuarios en un sistema de trabajo corporativo. Tener la posibilidad de centralizar información o procedimientos facilita la administración y la gestión de los equipos.

Además una red de área local conlleva un importante ahorro, tanto de tiempo, ya que se logra gestión de la información y del trabajo, como de dinero, ya que no es preciso comprar muchos periféricos, se consume menos papel, y en una conexión a Internet se puede utilizar una única conexión telefónica o de banda ancha compartida por varios ordenadores conectados en red.

Características importantes.
  • Tecnología broadcast (difusión) con el medio de transmisión compartido.
  • Cableado específico instalado normalmente a propósito.
  • Capacidad de transmisión comprendida entre 1 Mbps y 1 Gbps.
  • Extensión máxima no superior a 3 km (Una FDDI puede llegar a 200 km)
  • Uso de un medio de comunicación privado.
  • La simplicidad del medio de transmisión que utiliza ( cable coaxial, cables telefónicos y fibra optica).
  • La facilidad con que se pueden efectuar cambios en el hardware y el software.
  • Gran variedad y número de dispositivos conectados.
  • Posibilidad de conexión con otras redes.
Componentes

Servidor:
El servidor es aquel o aquellos ordenadores que van a compartir sus recursos hardware y software con los demás equipos de la red. Sus características son potencia de cálculo, importancia de la información que almacena y conexión con recursos que se desean compartir.

Estación de trabajo: Los ordenadores que toman el papel de estaciones de trabajo aprovechan o tienen a su disposición los recursos que ofrece la red así como los servicios que proporcionan los Servidores a los cuales pueden acceder.

Gateways o pasarelas: Es un hardware y software que permite las comunicaciones entre la red local y grandes ordenadores (mainframes). El gateway adapta los protocolos de comunicación del mainframe (X25, SNA, etc.) a los de la red, y viceversa.

Bridges o puentes: Es un hardware y software que permite que se conecten dos redes locales entre sí. Un puente interno es el que se instala en un servidor de la red, y un puente externo es el que se hace sobre una estación de trabajo de la misma red. Los puentes también pueden ser locales o remotos. Los puentes locales son los que conectan a redes de un mismo edificio, usando tanto conexiones internas como externas. Los puentes remotos conectan redes distintas entre sí, llevando a cabo la conexión a través de redes públicas, como la red telefónica, RDSI o red de conmutación de paquetes.

Tarjeta de red: También se denominan NIC (Network Interface Card). Básicamente realiza la función de intermediario entre el ordenador y la red de comunicación. En ella se encuentran grabados los protocolos de comunicación de la red. La comunicación con el ordenador se realiza normalmente a través de las ranuras de expansión que éste dispone, ya sea ISA, PCI o PCMCIA. Aunque algunos equipos disponen de este adaptador integrado directamente en la placa base.

El medio: Constituido por el cableado y los conectores que enlazan los componentes de la red. Los medios físicos más utilizados son el cable de par trenzado, par de cable, cable coaxial y la fibra óptica (cada vez en más uso esta última).

Concentradores de cableado: Una LAN en bus usa solamente tarjetas de red en las estaciones y cableado coaxial para interconectarlas, además de los conectores, sin embargo este método complica el mantenimiento de la red ya que si falla alguna conexión toda la red deja de funcionar. Para impedir estos problemas las redes de área local usan concentradores de cableado para realizar las conexiones de las estaciones, en vez de distribuir las conexiones el concentrador las centraliza en un único dispositivo manteniendo indicadores luminosos de su estado e impidiendo que una de ellas pueda hacer fallar toda la red.

SAP

La moda de los sistemas integrados basados en diseños modulares apareció en los años 80, aunque con desilusionantes resultados: Gran cantidad de interfaces, información restringida, falta de integración real.

La búsqueda de la integración, no mejoró con la introducción masiva de redes, PC y bases de datos relacionales al principio de la década de los noventa. La cantidad de datos generados por cientos de aplicaciones aisladas o con interfaces mutuas no garantizaba que en el proceso de toma de decisiones se estuviera utilizando la información correcta.

En las organizaciones tradicionales de TI, dentro de las empresas, el equipo operacional descubría o necesitaba el desarrollo de nuevas aplicaciones para satisfacer sus necesidades. En ocasiones, esta situación era el desencadenante de un análisis funcional o de un diseño conceptual que con frecuencia tardaba demasiado, dando tiempo necesario para que los requisitos cambiaran de manera drástica. La gran conclusión fue que las tecnologías subyacentes a las aplicaciones empresariales deben seguir la dirección marcada por las empresas, deben alinearse a sus objetivos estratégicos, deben apoyar el desarrollo del negocio y deben reaccionar a los cambios que demandan los mercados con la misma velocidad con que éstos se producen.

Por ello es que en el mundo de las aplicaciones empresariales se ha producido un fuerte movimiento hacia las estrategias de comprar antes que desarrollar, pues las continuas transformaciones empresariales pueden tener una correspondencia más rápida y sencilla si se utilizan aplicaciones estándares y flexibles en lugar de aplicaciones personalizadas.

Los sistemas ERP (Enterprise Resource Planning o Planificación de Recursos Empresariales), han propiciado un cambio trascendental en la forma tradicional en que se afrontan proyectos de TI, suponiendo además un cambio fundamental en los actuales proyectos empresariales. Esta familia de sistemas se ha presentado en el mercado como la respuesta al desafío de aplicaciones adaptables, integrables, flexibles e integradas.

Dos son las principales razones que justifican este cambio: Los proyectos ERP están dirigidos por los usuarios y gestores apoyados en una sólida integración de procesos empresariales, traspasando los tradicionales límites departamentales y funcionales de las empresas.

SAP es la empresa que ha liderado el mercado de los sistemas de información gerencial, especialmente el nicho de los ERP. Las múltiples soluciones que esta empresa ha desarrollado le han permitido ser el símbolo de las nuevas aplicaciones empresariales por lo que su caso se hace digno de estudio.

En el año 1972, cuatro empleados de IBM se unieron para crear la empresa que hoy en día es una multinacional llamada SAP AG.

Desde su fundación, SAP (Sistemas, Aplicaciones y Productos en procesos de datos), ha ido introduciéndose en el mercado dando diferentes tipos de soluciones en lo que a gestión se refiere. Uno de sus primeros sistemas, el llamado R/2 fue creado para aplicaciones de gestión en mainframes, y a partir de 1992 SAP R/3 se ha convertido en el líder mundial en el desarrollo de aplicaciones estándares de gestión.

Este éxito obtenido lo otorga a SAP madurez y una sólida experiencia para resolver los problemas de gestión de la información de las empresas de todo el mundo. La principal razón de este resultado es que se trata de un paquete de software de aplicaciones estándar que puede configurarse en múltiples áreas de negocio y que se adapta a necesidades específicas de cada empresa. Con el fin de dar un soporte a estas necesidades, SAP incluye un gran número de procesos y funciones empresariales, pero también deja cabida a nuevas funcionalidades y mejoras a la vez que ofrece la necesaria flexibilidad para adaptarse a los cambios y evoluciones de las empresas.

En la actualidad SAP AG se encuentra en más de 50 países cuya sede central está ubicada en Walldorf, Alemania. En Chile empresas de diversos rubros como por ejemplo automotriz, construcción y metalurgia, electrónica, farmacéutica, medios, minería, papel y productos forestales, petróleo y gas, etc. han implantado SAP, obteniendo éxito en todos los niveles.

SAP AG valora de manera muy positiva los comentarios y peticiones de los clientes e intenta satisfacer los requisitos mejorando constantemente sus productos y ofreciendo unos servicios de alta calidad y extremadamente valioso, lo que combinado le convierte en la mejor solución integrada de aplicaciones empresariales.

Soluciones SAP

Worplace Bench mySAP Workplace es un portal corporativo basado en la Web que permite al cliente acceder a las aplicaciones, la información y los servicios que necesita para realizar su trabajo.

El Workplace puede configurarse y personalizarse de acuerdo a las preferencias y roles corporativos de cada usuario. Al configurar el workplace en todos los niveles ? particular, por roles, por empresa o por industria ? solamente se brinda la información, los servicios y la funcionalidad necesaria para llevar a cabo las tareas en cuestión. Los roles son la base para la personalización de acuerdo a la empresa y funcionan como plantillas para la creación de nuevos roles.

A través de un browser de Web, desde cualquier lugar del mundo, los Workplaces crean interfaces basadas en roles altamente personalizables, las cuales ayudan a incrementar la productividad del empleado. Son la herramienta perfecta para administrar las relaciones externas y facilitan la administración, la seguridad y el mantenimiento.

Servicios SAP

SAP ha presentado un amplio conjunto de servicios de calidad para ayudar a sus clientes en el proceso de implementar y dar soporte al sistema R/3. Entre estos servicios se incluyen información de producto, formación, instalación, migraciones, consultoría, etc. SAP ha basado sus servicios en conexiones remotas con clientes a través de redes internacional.

SAP ofrece un programa de certificación en las áreas técnica, funcional, y de desarrollo del sistema y un amplio programa de formación a nivel mundial.

SAP proporciona los siguientes tipos de servicios:

· Servicios de consultoría

· Servicios de mantenimiento

· Servicios de Información

· Servicios de mantenimiento preventivo

Telefonia IP

La Telefonía IP es una solución tecnológica que sirve para transmitir comunicaciones de voz sobre una red de datos basada en el estándar IP. Con la solución de Telefonía IP, la organización reduce costos integrando sus aplicaciones de voz y datos sobre una única plataforma de Red. Esta solución permite elevar la productividad, reducir costos operativos de la empresa mediante la convergencia de las comunicaciones; además de escalar las soluciones de acuerdo a las necesidades de las empresas, las cuales pueden ser corporativas, medianas o pequeñas.
Las soluciones de Telefonía IP se brindan a través de las siguientes modalidades:

Solución Mixta: Es la que permite integrar las soluciones de telefonía convencional con la Telefonía IP, ahorrando en los costos de inversión y permitiendo una integración escalable manteniendo el equipamiento de las inversiones anteriormente realizadas.



Solución Full IP: Se opta por el cambio total de las comunicaciones tradicionales de voz por la solución de Telefonía IP, obteniendo los máximos beneficios de la convergencia de las comunicaciones sobre una única plataforma de red.



Características
  • Convergencia de redes: integración de las redes de voz y datos.
  • Escalabilidad y flexibilidad: permiten desarrollar mayores servicios sobre las redes implantadas.
  • Compatibilidad con los sistemas tradicionales.
  • Confidencialidad en las comunicaciones.
  • Apertura real en las comunicaciones permitiendo interoperabilidad y libre dirección por uso de estándares abiertos.

Beneficios

Económicos:

  • Ahorro en los costos operacionales: costos de implementación y costos de gestión costos de cableado.
  • Reduce desembolso de Capital: una sola infraestructura convergente, un solo cableado .
    Ahorro en llamadas entre locales.
  • Administración Centralizada

Movilidad:

  • Los equipos de Telefonía IP pueden ser conectados desde cualquier punto de la red de la empresa manteniendo su mismo número y las mismas características sin necesidad de ser reconfigurados.


Aplicaciones

Permite desarrollar nuevas aplicaciones de acuerdo al modelo de negocio de las empresas sobre las plataformas ya existentes.

  • Audioconferencia para 100 usuarios llamando a un mismo número.
  • Call Center / Contact Center.
  • Comercio Electrónico.
  • Mensajería Unificada.
  • Asistente personal.
  • Aplicaciones XML: desarrollo de aplicativos Web para entidades educativas, empresas de logística, sector financiero, salud, etc.
  • Integración a múltiples plataformas existente para la transmisión de voz y datos.

Distribuciones de Linux

Linux es un sistema de libre distribución por lo que puedes encontrar todos los ficheros y programas necesarios para su funcionamiento en multitud de servidores conectados a Internet. La tarea de reunir todos los ficheros y programas necesarios, asi como instalarlos en tu sistema y configurarlo, puede ser una tarea bastante complicada y no apta para muchos. Por esto mismo, nacieron las llamadas distribuciones de Linux, empresas y organizaciones que se dedican a hacer el trabajo "sucio" para nuestro beneficio y comodidad.

Una distribución no es otra cosa, que una recopilación de programas y ficheros, organizados y preparados para su instalación. Estas distribuciones se pueden obtener a traves de Internet, o comprando los CDs de las mismas, los cuales contendrán todo lo necesario para instalar un sistema Linux bastante completo y en la mayoría de los casos un programa de instalación que nos ayudara en la tarea de una primera instalación. Casi todos los principales distribuidores de Linux, ofrecen la posibilidad de bajarse sus distribuciones, via FTP (sin cargo alguno).

Existen muchas y variadas distribuciones creadas por diferentes empresas y organizaciones a unos precios bastantes asequibles (si se compran los CDs, en vez de bajársela via FTP), las cuales deberiais poder encontrar en tiendas de informática, librerías. En el peor de los casos siempre podeis encargarlas directamente por Internet a las empresas y organizaciones que las crean. A veces, las revistas de informática sacan una edición bastante aceptable de alguna distribución.
Si se va a instalar el sistema por primera vez, se recomienda hacerlo con una de estas distribuciones y en un futuro cuando se quiera actualizar el sistema con las últimas versiones y actualizaciones del núcleo y programas que utilices, usar Internet.

Si lo que quiere es probar una distribucion Linux sin necesidad de instalarla, se puede probar una distribucion LiveCD.

A continuación puedes encontrar informacion sobre las distribuciones mas importantes de Linux.

REDHAT ENTERPRISE

Esta es una distribucion que tiene muy buena calidad, contenidos y soporte a los usuarios por parte de la empresa que la distribuye. Es necesario el pago de una licencia de soporte. Enfocada a empresas.

FEDORA

Esta es una distribucion patrocinada por RedHat y soportada por la comunidad. Facil de instalar y buena calidad.

DEBIAN

Otra distribucion con muy buena calidad. El proceso de instalacion es quizas un poco mas complicado, pero sin mayores problemas. Gran estabilidad antes que ultimos avances.

OpenSuSE

Facil de instalar. Version libre de la distribucion comercial SuSE.

SuSE LINUX ENTERPRISE

Muy buena calidad, contenidos y soporte a los usuarios por parte de la empresa que la distribuye, Novell. Es necesario el pago de una licencia de soporte. Enfocada a empresas.

SLACKWARE

Esta distribucion es de las primeras que existio. Tuvo un periodo en el cual no se actualizo muy a menudo, pero eso es historia. Es raro encontrar usuarios de los que empezaron en el mundo linux hace tiempo, que no hayan tenido esta distribucion instalada en su ordenador en algun momento.

GENTOO

Esta distribucion es una de las unicas que han incorporado un concepto totalmente nuevo en Linux. Es una sistema inspirado en BSD-ports. Se puede compilar/optimizar nuestro sistema completamente desde cero. No es recomendable adentrarse en esta distribucion sin una buena conexion a internet, un ordenador medianamente potente (si se quiere terminar de compilar en un tiempo prudencial) y cierta experiencia en sistemas Unix.

UBUNTU

Distribucion basada en Debian, con lo que esto conlleva y centrada en el usuario final y facilidad de uso. Muy popular y con mucho soporte en la comunidad. El entorno de escritorio por defecto es GNOME.

KUBUNTU

Distribucion basada en Ubuntu, con lo que esto conlleva y centrada en el usuario final y facilidad de uso. La gran diferencia con Ubuntu es que el entorno de escritorio por defecto es KDE.

MANDRIVA

Esta distribucion fue creada en 1998 con el objetivo de acercar el uso de Linux a todos los usuarios, en un principio se llamo Mandrake Linux. Facilidad de uso para todos los usuarios.

Linux

Linux es un sistema operativo, compatible Unix. Dos características muy peculiares lo diferencian del resto de sistemas que podemos encontrar en el mercado, la primera, es que es libre, esto significa que no tenemos que pagar ningun tipo de licencia a ninguna casa desarrolladora de software por el uso del mismo, la segunda, es que el sistema viene acompañado del código fuente.


El sistema lo forman el nucleo del sistema (kernel) más un gran número de programas / bibliotecas que hacen posible su utilización. Muchos de estos programas y bibliotecas han sido posibles gracias al proyecto GNU, por esto mismo, muchos llaman a Linux, GNU/Linux, para resaltar que el sistema lo forman tanto el núcleo como gran parte del software producido por el proyecto GNU.

Linux se distribuye bajo la GNU General Public license por lo tanto, el código fuente tiene que estar siempre accesible y cualquier modificación ó trabajo derivado tiene que tener esta licencia.
El sistema ha sido diseñado y programado por multitud de programadores alrededor del mundo. El núcleo del sistema sigue en continuo desarrollo bajo la coordinacion de Linus Torvalds, la persona de la que partio la idea de este proyecto, a principios de la década de los noventa. Hoy en dia, grandes compañias, como IBM, SUN, HP, Novell y RedHat, entre otras muchas, aportan a Linux grandes ayudas tanto económicas como de código.

Dia a dia, más y más programas y aplicaciones están disponibles para este sistema, y la calidad de los mismos aumenta de versión a versión. La gran mayoría de los mismos vienen acompañados del código fuente y se distribuyen generalmente bajo los terminos de licencia de la GNU General Public License.

Más y más casas de software comercial distribuyen sus productos para Linux y la presencia del mismo en empresas aumenta constantemente por la excelente relación calidad-precio que se consigue con Linux.

Las arquitecturas en las que en un principio se puede utilizar Linux son Intel 386-, 486-, Pentium, Pentium Pro, Pentium II/III/IV, IA-64, Amd 5x86, Amd64, Cyrix y Motorola 68020,IBM S/390, zSeries, DEC Alpha, ARM, MIPS, PowerPC, SPARC y UltraSPARC. Además no es dificil encontrar nuevos proyectos portando Linux a nuevas arquitexturas.

Historia

Linux hace su aparición a principios de la década de los noventa, era el año 1991 y por aquel entonces un estudiante de informática de la Universidad de Helsinki, llamado Linus Torvalds empezó, -como una afición y sin poder imaginar a lo que llegaria este proyecto, a programar las primeras lineas de código de este sistema operativo al que llamaria más tarde Linux.

Este comienzo estuvo inspirado en MINIX, un pequeño sistema Unix desarrollado por Andy Tanenbaum. Las primeras discusiones sobre Linux fueron en el grupo de noticias comp.os.minix, en estas discusiones se hablaba sobre todo del desarrollo de un pequeño sistema Unix para usuarios de Minix que querian más.
Linus nunca anuncio la versión 0.01 de Linux (agosto/septiembre 1991), esta versión no era ni siquiera ejecutable, solamente incluia los principios del nucleo del sistema, estaba escrita en lenguaje ensamblador y asumia que uno tenia acceso a un sistema Minix para su compilación.
El 5 de octubre de 1991, Linus anuncio la primera version "Oficial" de Linux, -version 0.02. Con esta version Linus pudo ejecutar Bash (GNU Bourne Again Shell) y gcc (El compilador GNU de C) pero no mucho mas funcionaba. En este estado de desarrollo ni se pensaba en los terminos soporte, documentación , distribución .....
Despues de la versión 0.03, Linus salto en la numeración hasta la 0.10, más y más programadores a lo largo y ancho de internet empezaron a trabajar en el proyecto y despues de sucesivas revisiones, Linus incremento el número de versión hasta la 0.95 (Marzo 1992), la primera capaz de ejecutar el sistema X-windows. Más de un año despues (diciembre 1993) el núcleo del sistema estaba en la versión 0.99 y la versión 1.0.0 no llego hasta el 14 de marzo de 1994.

El 9 de Mayo 1996, Tux fue propuesto como mascota oficial de Linux.
El 9 de junio de 1996 fue lanzada la serie 2.0.x, la 2.2.x no llegó hasta el 25 de enero de 1999 y la 2.4.x hasta el 4 de enero del 2001.
El 17 de diciembre del 2003 fue lanzada la serie actual del nucleo, la 2.6.x y el desarrollo de Linux sigue avanzando dia a dia con la meta de perfeccionar y mejorar el sistema.

Características

  • Multitarea: La palabra multitarea describe la habilidad de ejecutar varios programas al mismo tiempo. LINUX utiliza la llamada multitarea preeventiva,la cual asegura que todos los programas que se estan utilizando en un momento dado seran ejecutados, siendo el sistema operativo el encargado de ceder tiempo de microprocesador a cada programa.
  • Multiusuario:Muchos usuarios usando la misma maquina al mismo tiempo.
  • Multiplataforma: Las plataformas en las que en un principio se puede utilizar Linux son 386-, 486-. Pentium, Pentium Pro, Pentium II,Amiga y Atari, tambien existen versiones para su utilizacion en otras plataformas, como amd64, Alpha, ARM, MIPS, PowerPC y SPARC.
  • Multiprocesador: Soporte para sistemas con mas de un procesador esta disponible para Intel, AMD y SPARC.
  • Funciona en modo protegido 386.
  • Protección de la memoria entre procesos, de manera que uno de ellos no pueda colgar el sistema.
    Carga de ejecutables por demanda: Linux sólo lee del disco aquellas partes de un programa que están siendo usadas actualmente.
  • Política de copia en escritura para la compartición de páginas entre ejecutables: esto significa que varios procesos pueden usar la misma zona de memoria para ejecutarse. Cuando alguno intenta escribir en esa memoria, la página (4Kb de memoria) se copia a otro lugar. Esta política de copia en escritura tiene dos beneficios: aumenta la velocidad y reduce el uso de memoria.
  • Memoria virtual usando paginación (sin intercambio de procesos completos) a disco: A una partición en el sistema de archivos, con la posibilidad de añadir más áreas de intercambio sobre la marcha.
  • La memoria se gestiona como un recurso unificado para los programas de usuario y para el caché de disco, de tal forma que toda la memoria libre puede ser usada para caché y ésta puede a su vez ser reducida cuando se ejecuten grandes programas.
  • Librerías compartidas de carga dinámica (DLL's) y librerías estáticas.
  • Se realizan volcados de estado (core dumps) para posibilitar los análisis post-mortem, permitiendo el uso de depuradores sobre los programas no sólo en ejecución sino también tras abortar éstos por cualquier motivo.
  • Compatible con POSIX, System V y BSD a nivel fuente.
  • Emulación de iBCS2, casi completamente compatible con SCO, SVR3 y SVR4 a nivel binario.
    Todo el código fuente está disponible, incluyendo el núcleo completo y todos los drivers, las herramientas de desarrollo y todos los programas de usuario; además todo ello se puede distribuir libremente. Hay algunos programas comerciales que están siendo ofrecidos para Linux actualmente sin código fuente, pero todo lo que ha sido gratuito sigue siendo gratuito.
  • Control de tareas POSIX.
  • Pseudo-terminales (pty's).
  • Emulación de 387 en el núcleo, de tal forma que los programas no tengan que hacer su propia emulación matemática. Cualquier máquina que ejecute Linux parecerá dotada de coprocesador matemático. Por supuesto, si el ordenador ya tiene una FPU (unidad de coma flotante), esta será usada en lugar de la emulación, pudiendo incluso compilar tu propio kernel sin la emulación matemática y conseguir un pequeño ahorro de memoria.
  • Soporte para muchos teclados nacionales o adaptados y es bastante fácil añadir nuevos dinámicamente.
  • Consolas virtuales múltiples: varias sesiones de login a través de la consola entre las que se puede cambiar con las combinaciones adecuadas de teclas (totalmente independiente del hardware de video). Se crean dinámicamente y puedes tener hasta 64.
  • Soporte para varios sistemas de archivo comunes, incluyendo minix-1, Xenix y todos los sistemas de archivo típicos de System V, y tiene un avanzado sistema de archivos propio con una capacidad de hasta 4 Tb y nombres de archivos de hasta 255 caracteres de longitud.
  • Acceso transparente a particiones MS-DOS (o a particiones OS/2 FAT) mediante un sistema de archivos especial: no es necesario ningún comando especial para usar la partición MS-DOS, esta parece un sistema de archivos normal de Unix (excepto por algunas restricciones en los nombres de archivo, permisos, y esas cosas). Las particiones comprimidas de MS-DOS 6 no son accesibles en este momento, y no se espera que lo sean en el futuro. El soporte para VFAT, FAT32 (WNT, Windows 95/98) se encuentra soportado desde la version 2.0 del nucleo y el NTFS de WNT desde la version 2.2 (Este ultimo solo en modo lectura).
  • Soporte en sólo lectura de HPFS-2 del OS/2 2.1
  • Sistema de archivos de CD-ROM que lee todos los formatos estándar de CD-ROM.
  • TCP/IP, incluyendo ssh, ftp, telnet, NFS, etc.
  • Appletalk.
  • Software cliente y servidor Netware.
  • Lan Manager / Windows Native (SMB), software cliente y servidor.
  • Diversos protocolos de red incluidos en el kernel: TCP, IPv4, IPv6, AX.25, X.25, IPX, DDP, Netrom, etc

Elementos para la conectividad de redes

Tecnología de Módems
Es un dispositivo que permite a los equipos comunicarse a través de una línea telefónica.
Este nos ayuda a comunicar dos redes distantes a través de una línea telefónica, ya que los estándares de cables de red no se nos permite una distancia mayor.

Función del Modem


Comunicación Síncrona y Asíncrona

La síncrona coordina entre dos dispositivos para separar los grupos de bits y transmitirlos en bloques.
La asincrona envía la información en cadena, las cuales son separadas con un bit de inicio y final de tal modo se tenga una planificación para el envió y recepción de información.

Hub

Se utiliza para la topología estrella, mediante Tocken Ring, nos ayudan a extender el tamaño de la red.
El cable para la conexión entre dos Hub, ah de ser de acuerdo a las consideraciones con la cual trabaja el estándar de su arquitectura.

Hubs Token Ring, en anillo


Repetidores

Nos ayudan a regenerar las señales provocadas por las atenuaciones. Este se encuentra en el nivel físico del modelo OSI, regenerando las señales antes de enviarlas en un nuevo segmento. Esto se aplica en un mismo método de acceso como el MSCMA/CD, pero si trabajar con dos tipos de medios como fibra óptica y cable coaxial.

Bridges

Tienes las mismas características que la de un repetidor, con la diferencia que este puede dividir una red para aislar el trafico o los problemas, con esto reduce los cuellos de botella ya que puede conectar dos segmentos de red. Trabajan mas con los cables Coaxial y par trenzado.

Para realizar la segmentación del trafico de Red, este se basa a la tabla de encaminamiento, donde obtenemos los datos de origen, destino y el segmento donde se localizan.



Router

Trabaja a nivel de la capa de red del Modelo OSI, lo que significa que pueden conmutar y encaminar paquetes a través de múltiples redes, como por ejemplo entre diferentes protocolos. De tal manera que pueden hacer lo siguiente:
•Filtrado y aislamiento del trafico.
•Conexión de segmentos de red

funcionamiento de los Routers
Mantien su propia tabla de encaminamiento, tambien pueden tener las direcciones de los Host, si la arquitectura lo requiere.

Tabla de encaminamiento:
•Todas las direcciones de red conocidas
•Instrucciones para la conexión con otra red
•Posibles caminos entre los router
•El coste de enviar los datos a través de estos caminos

Protocolos con los que trabaja

•DEC net
•Protocolo de Internet (IP)
•Intercambio de paquetes entre Redes (IPX)
•OSI
•Sistema de red Xerox (XNS)
•DDP (Apple Talk)

Tipos

ESTATICO
•Instalación y configuración manual de todos los rauter
•Utiliza siempre la misma ruta, determinada a partir de una entrada en la tabla de encaminamiento.
•Utiliza una ruta codificada (designada para manejar solo una situación especifica), no necesita la ruta mas corta
•Se consideran mas seguros puesto que los administradores especifican cada ruta

DINAMICO
•Configuración manual del primer Router el resto es automático
•Pueden seleccionar una ruta en función a los costos y cantidad de trafico de enlace.
•Pueden decidir enviar paquetes sobre rutas alterna
•Pueden mejorar la seguridad configurando manualmente el router para filtrar direcciones



Gateways

Activan la comunicación entre diferentes arquitecturas y entornos, se encargan de empaquetar y convertir los datos de un entorno a otro de forma que cada entorno pueda entender los datos del otro entorno.

Teniendo en cuenta que los sistemas deben de tener los mismos:
–Protocolo de comunicación
–Estructura de formateo de datos
–Lenguajes
–Arquitectura

Funcionamiento

Están dedicados a un tipo de transferencia, como la de Windows NT Server a SNA de IBM.
Utiliza los datos de un entorno, desmantela su pila de protocolo anterior y empaqueta los datos en la pila del protocolo de red destino.

Medidas de Seguridad en WiFi

- Emplear las mismas herramientas que los intrusos: realizar la misma actividad, pero para el “lado bueno”, es decir realizar controles periódicos con “Netstumbler”, Escuchar tráfico e intentar obtener información trivial con “Kismet” o “AirSnort”, medir potencias irradiadas con cualquier tarjeta desde los perímetros de la red
- Mejorar la seguridad física.
- Cancelar puertos que no se emplean.
- Limitar el número de direcciones MAC que pueden acceder. Esta actividad se realiza por medio de ACLs (Access List Control) en los AP, en las cuales se especifica (a mano) las direcciones MAC de las tarjetas a las que se les permitirá el acceso, negando el mismo a cualquiera que no figure en ellas. Cabe aclarar que es tremendamente fácil falsificar una dirección MAC (Ej: en los SSOO Linux es simplemente el comando “ifconfig”).
- Ya no se menciona el tema de cancelar la tramas Beacon en los AP, pues cualquier sistema de escucha, por más que no capture la trama Beacon, al capturar la trama PROVE REQUEST del cliente, o la trama PROVE RESPONSE del AP, en ellas también viaja el ESSID.
- Satisfacer la demanda: Si se están empleando AP no autorizados por parte de los empleados, es porque les resulta útil, por lo tanto, se pueden adoptar las medidas para que se implanten, pero de forma segura y controlada, de otra forma, seguirán apareciendo, pero de forma clandestina.
- Controle el área de transmisión: muchos puntos de acceso inalámbrico permiten ajustar el poder de la señal. Coloque sus puntos de acceso tan lejos como sea posible de las paredes y ventanas exteriores. Pruebe el poder de la señal para que usted únicamente pueda conectarse a estos sitios. Luego, asegúrese de cambiar la contraseña predeterminada en todos los puntos de acceso. Utilice una contraseña fuerte para proteger todos los puntos de acceso.
- Implemente la autenticación de usuario: Mejore los puntos de acceso para usar las implementaciones de las normas WPA y 802.11i.
- Proteja la WLAN con la tecnología “VPN Ipsec” o tecnología “VPN clientless”: esta es la forma más segura de prestar servicios de autenticación de usuario e integridad y confidencialidad de la información en una WLAN. La tecnología adicional VPN no depende del punto de acceso o de la tarjeta LAN inalámbrica; por consiguiente, no se incurren en costos adicionales de hardware puesto que las normas de seguridad inalámbrica continúan evolucionando.
- Active el mayor nivel de seguridad que soporta su hardware: incluso si tiene un equipo de un modelo anterior que soporta únicamente WEP, asegúrese de activarlo. En lo posible, utilice por lo menos una WEP con un mínimo de encriptación de 128 bits.
- Instale firewalls personales y protección antivirus en todos los dispositivos móviles: la Alianza WiFi recomienda utilizar la política de seguridad de redes corporativas para imponer su uso continuo.
- Adquiera equipamiento que responda a los estándares y certificado por “WiFi Alliance”.

Problemas concretos de Seguridad en WiFi

Puntos ocultos: Este es un problema específico de las redes inalámbricas, pues suele ser muy común que los propios empleados de la empresa por cuestiones de comodidad, instalen sus propios puntos de acceso. Este tipo de instalaciones, si no se controlan, dejan huecos de seguridad enormes en la red. El peor de estos casos es la situación en la cual un intruso lo deja oculto y luego ingresa a la red desde cualquier ubicación cercana a la misma. La gran ventaja que queda de este problema es que es muy fácil su identificación siempre y cuando se propongan medidas de auditorías periódicas específicas para las infraestructuras WiFi de la empresa, dentro del plan o política de seguridad.

Falsificación de AP: Es muy simple colocar una AP que difunda sus SSID, para permitir a cualquiera que se conecte, si sobre el mismo se emplean técnicas de “Phishing”, se puede inducir a creer que se está conectando a una red en concreto. Existen varios productos ya diseñados par falsificar AP, en la terminología WiFi se los suelen llamar “Rogue AP” o Fake AP”, el más común es un concocido srcipt en Perl denominado justamente “FakeAP”, que envía Beacons con diferentes ESSID y difernetes direcciones MAC con o sin empleo de WEP.

Deficiencias en WEP (Características lineales de CRC32): Esta característica fue demostrada en teoría por Nikita Borisov, Ian Goldberg y David Wagner. El ICV permite verificar la integridad de un mensaje, por lo tanto, el receptor aceptará el mensaje si su ICV es válido (Recuerdo que es un simple CRC32). Esto presenta dos problemas:

- El CRC es independiente de al clave empleada.

- Los CRC son lineales CRC (m?k) = CRC (m) ? CRC (k). En virtud de esta linealidad, se puede generar un ICV válido. Un atacante debe interceptar un mensaje (conocido o no) y modificarlo en forma conocida para generar un mensaje m`, operando sobre el mismo obtendrá un paquete que será aceptado por el receptor.

ICV independiente de la llave: Esta característica fue demostrada en teoría por David Wagner. Nuevamente se trata el ICV, el cual se calcula previamente a comenzar el proceso criptográfico, por lo tanto no depende de la clave ni del IV. Esta debilidad da lugar a que conocido el texto plano de un solo paquete encriptado con WEP, sea posible inyectar paquetes en la red.

Tamaño de IV demasiado corto: El IV tiene 24 bits de longitud (224 = 16.777.216) y viaja como texto plano. Un punto de acceso que opere con grandes volúmenes de tráfico comenzará a repetir este IV a partir de aproximadamente 5 horas. Esta repetición hace que matemáticamente se pueda operar para poder obtener el texto plano de mensajes con IV repetido (sin gran nivel de dificultad). El estándar especifica que el cambio de IV es opcional, siendo un valor que empieza con cero y se va incrementando en uno.

Deficiencias en el método de autenticación: Si un atacante captura el segundo y tercer mensaje de administración en una autenticación mutua. El segundo posee el desafío en texto plano y el tercero contiene el mensaje criptografiado con la clave compartida. Con estos datos, posee todos los elementos para autenticarse con éxito sin conocer el secreto compartido (Con esto sólo logra autenticarse, luego queda el acceso a la red).

Debilidades en el algoritmo key Scheduling de RC4: scott Fluhrer, Itsik Mantin y Adi Shamir publicaron en Agosto del 2001 la demostración teórica de la vulnerabilidad más devastadora de las existentes hasta ahora en la encriptación WEP. Adam Stubblefield, un trabajador de AT&T Labs, fue la primera persona que implementó este ataque con éxito.

Demostraron que usando sólo la primera palabra de un keystream, podían obtener información de la clave secreta compartida. Se buscan IVs que causen que no haya información de la llave en el keystream. Los autores llamaron a esta condición “resolved condition” o condición resuelta.El número de paquetes que se necesitan recolectar antes de descubrir un byte de la llave varía en función de en que valor se encuentre el contador de IV’s de las tarjetas que se estén monitorizando. Hay 9.000 IV's débiles en los 16 millones de IV's posibles.

h. Debilidad en WPA: Un estudio realizado por Robert Moskowitz, director de ICSA Labs, indica que el sistema utilizado por WPA para el intercambio de la información utilizada para la generación de las claves de cifrado es muy débil. Según este estudio, WPA en determinadas circunstancias es incluso más inseguro que WPE. Cuando las claves preestablecidas utilizadas en WPA utilizan palabras presentes en el diccionario y la longitud es inferior a los 20 caracteres, el atacante sólo necesitará interceptar el tráfico inicial de intercambio de claves. Sobre este tráfico, realizando un ataque de diccionario, el atacante puede obtener la clave preestablecida, que es la información necesaria para obtener acceso a la red. Es decir, a diferencia de WEP en que es necesario capturar un volumen significativo de tráfico para poder identificar las claves, en WPA únicamente capturando el tráfico de intercambio de claves para poder realizar este ataque de diccionario. No es un problema nuevo, pues fue apuntado durante la verificación inicial del protocolo. Es solo una muestra que una implementación inadecuada puede afectar negativamente cualquier sistema de cifrado. Como hemos indicado, el problema solo es explotable bajo una serie de circunstancias muy concretas. Este problema puntual no es, en absoluto, una indicación de la debilidad de WPA. Únicamente es un recordatorio de la necesidad de utilizar claves convenientemente largas y que incluyan caracteres especiales.

Los estandares 802.11

WiFi (Wireless Fidelity) es un nombre comercial desarrollado por un grupo de comercio industrial llamado WiFi Alliance (Inicalmente: 3Com – Aironet [hoy parte de CISCO] – Harris – Lucent – Nokia y Symbol technologies, hoy más de 150 miembros), el nombre “oficial” de esta alianza es WECA (Wireless Ethernet Compatibility Alliance) y son los primeros responsables de 802.11b.
WiFI describe los productos de WLAN basados en los estándares 802.11 y está pensado en forma más “Amigable” que la presentación eminentemente técnica que ofrece IEEE. Se podría llegar a discutir si cubre o no todo lo que ofrece 802.11 o no, pues alguno de ellos podría ser puesto en duda, pero a los efectos de este texto, se hará más referencia a lo que establece 802.11, sin detenerse en estas diferencias.
El estándar 802.11 de IEEE se publica en junio 1997, luego de seis años de proceso de creación. Propone velocidades de 1 y 2Mbps y un rudimentario sistema de cifrado (el WEP:Wired Equivalent Privacy), opera en 2,4 GHz con RF e IR. Aunque WEP aún se sigue empleando, ha sido totalmente desacreditado como protocolos seguro.
En septiembre de 1999 salen a la luz el estándar 802.11b que ofrece 11Mbps y el 802.11a que ofrece 54 Mbps, si bien los productos de la primera aparecieron en el mercado mucho antes.
Modo turbo: Algunos fabricantes ofrece velocidades de 72 e incluso 108 Mbps. Estos procesos, lo logran mediante la “Vinculación de canales”, es decir, dos canales son multiplexados juntos empleando el total de velocidad de la suma de ambos. Esto si bien es favorable aparentemente, tiene las desventajas de no respetar el estándar y de sacrificar la mitad de los canales de 802.11a.
La familia 802.11, hoy se encuentra compuesta por los siguientes estándares:

802.11a: (5,1-5,2 Ghz, 5,2-5,3 Ghz, 5,7-5,8 GHz), 54 Mbps. OFDM: Multiplexación por división de frecuencias ortogonal
802.11b: (2,4-2,485 GHz), 11 Mbps.
802.11c: Define características de AP como Bridges.
802.11d: Múltiples dominios reguladores (restricciones de países al uso de determinadas frecuencias).
802.11e: Calidad de servicio (QoS).
802.11f: Protocolo de conexión entre puntos de acceso (AP), protocolo IAPP: Inter Access Point Protocol.
802.11g: (2,4-2,485 GHz), 36 o 54 Mbps. OFDM: Multiplexación por división de frecuencias ortogonal. Aprobado en 2003 para dar mayor velocidad con cierto grado de compatibilidad a equipamiento 802.11b.
802.11h: DFS: Dynamic Frequency Selection, habilita una cierta coexistencia con HiperLAN y regula también la potencia de difusión.
802.11i: Seguridad (aprobada en Julio de 2004).
802.11j: Permitiría armonización entre IEEE (802.11), ETSI (HiperLAN2) y ARIB (HISWANa).
802.11m: Mantenimiento redes wireless.

Quizás el tema más importante a destacar es la posibilidad de expansión de 802.11. El incremento constante de mayores velocidades, hace que los 11 Mbps de 802.11b, estén quedando pequeños. La migración natural es hacia 802.11g, pues sigue manteniendo la frecuencia de 2,4GHz, por lo tanto durante cualquier transcición en la que deban convivir, ambos estándares lo permiten. En cambio si se comienzan a instalar dispositivos 802.11a, los mismos no permiten ningún tipo de compatibilidad con 802.11b, pues operan en la banda de 5 GHz.
Para acotar únicamente el tema de seguridad, se tratarán sólo 802.11a, b g y 802.11i.
Hoy en día se puede decir que existen tres estándares de WLAN:
-HomeRF: Es una inciativa lanzada por Promix, principalmente en EEUU y orientada exclusivamente al mercado residencial. Tiene sus bases en los estándares de teléfono digital inalámbrico mejorado (DECT)
- BlueTooth: Lo inició IBM, orientado al mercado comercial/ventas, y a la interconectividad de elementos de hardware. En realidad no compite con 802.11, pues tiene la intención de ser una estándar con alcance nominal de 1 a 3 metros y a su vez no supera los 1,5 Mbps
- 802.11: Cubre todo el espectro empresarial.
Una iniciativa que se debe mencionar también es HiperLAN en sus versiones 1 y 2. Se trata de una verdadera analogía inalámbrica para ATM. Fue un competidor de 802.11 que opera en la frecuencia de 5 GHz y gozó del apoyo de compañías como Ericsson, Motorola, Nokia; Panasonic y Sony, se llegaron a crear regulaciones por parte de ETSI al respecto, pero no se logró imponer y hoy en día está prácticamente en desuso. En lo particular me hace acordar mucho a la batalle que hubo entre ATM y Ethernet (Fast ethernet, giga ethernet....).
Definiciones a tener en cuenta:
Access control: Es la prevención del uso no autorizado de recursos.

Access Point (AP): Cualquier entidad que tiene funcionalidad de estación y provee acceso a servicios de distribución vía wireless medium (WM) para estaciones asociadas.

Ad Hoc network: red wireless compuesta únicamente por estaciones con iguales derechos.

Portal: punto lógico desde el cual se conecta una red wireless con una no wireless.

Station (STA): cualquier dispositivo que cumple con un nivel MAC conforme a 802.11 y un nivel físico que posee una interfaz wireless.
Portable station: estación que puede ser movida de ubicación, pero que solo puede Tx o Rx en estado fijo.
Movile station: Estación que permite Tx o Rx en movimiento.

miércoles, 23 de julio de 2008

Modelo de capas de 802.11

La capa física de 802.11:

La capa física la componen dos subcapas: -PLCP (Physical Layer Convergence Protocol): Se encarga de codificación y modulación.
  • Preámbulo (144 bits = 128 sincronismo + 16 inicio trama).
  • HEC (Header Error Control): CRC 32
  • Modulación (propagación) DSSS o FHSS o IR.
  • PMD (Physical Medium Dependence): Es la que crea la interfaz y controla la comunicación hacia la capa MAC (a través del SAP: Service Access Point)

Este nivel lo conforman dos elementos principales:

  • Radio: Recibe y genera la señal.
  • Antena: Existe una gran variedad y no será tratado en este texto.

El estándar 802.11 define en el punto 12 del mismo todas las especificaciones de servicio para este nivel, las cuales no serán tratadas en este texto. Hay algunos aspectos físicos que vale la pena profundizar para la comprensión de WiFi, de los cuales se recomienda especialmente:

FHSS (Frequency Hopping Spread Spectrum) para la banda de 2,4 GHz (ISM: Industrial, Scientific and Medical band) en el punto 14 de la recomendación.

DSSS (Direct Sequence Spread Spectrum para 2,4 GHz, en el punto 15.

IR (InfraRed), en el punto 16.

NOTA: Aunque esto no forma parte de los conceptos de WiFi, cuando se habla de transmisión, se deben diferenciar tres palabras:

Modulación: Es el método de emplear una señal portadora y una moduladora (que da forma a la anterior). Cada una de ellas puede ser analógica o digital, con lo cual se obtienen cuatro posibles combinaciones de portadora y moduladora (AA – AD – DA y DD), con las cuales se conforman todas las técnicas de modulación. WiFi en la mayoría de los casos emplea la técnica QAM (Modulación en cuadratura de Fases con más de un nivel de amplitud).

Propagación: Es la forma en la cual “van saliendo” las señales al aire. Aquí es donde verdaderamente se aplican las técnicas de DHSS y FHSS. SS (Spread Spectrum) es la técnica de emplear muchas subportadoras de muy baja potencia con lo cual se “expande” el espectro útil. En cuanto a DH y FH El ejemplo típico que se emplea para estas técnicas es la analogía con una terminal de trenes, en la cual existen varios andenes. Para DH, los trenes estarían saliendo, primero el andén 1, luego el 2, a continuación el 3, 4, 5... y así sucesivamente, respetando siempre este orden. Para FH, la salida de los trenes no respeta el orden y puede ser aleatoria o acorde a un patrón determinado (WiFi hace un muy buen uso de esto, pues en las subportadoras que recibe mucha interferencia no las usa o emplea menos cantidad de bits en las mismas).

Codificación: Es la asociación de bit a cada “muestra” que se obtiene. WiFi en la mayoría de los casos emplea el código Barker.

La capa de enlace de 802.11

Respetando el modelo OSI, en este texto se agrupará en el nivel de enlace, los dos subniveles que lo conforman (MAC: Medium Access Control y LLC: Logical Link Control). Desde el punto de vista de 802.11, solo interesa hacer referencia al subnivel MAC.

Capa MAC: Controla el flujo de paquetes entre 2 o más puntos de una red Emplea CSMA/CA: Carrier Sense Multiple Access / Collision avoidance. Sus funciones principales son:

Exploración: Envío de Beacons que incluyen los SSID: Service Set identifiers O también llamados ESSID (Extended SSID), máximo 32 carateres.

Autenticación: Proceso previo a la asociación. Existen dos tipos:

Autenticación de sistema abierto: Obligatoria en 802.11, se realiza cuando el cliente envía una solicitud de autenticación con su SSID a un AP, el cual autorizará o no. Este método aunque es totalmente inseguro, no puede ser dejado de lado, pues uno de los puntos más fuertes de WiFi es la posibilidad de conectarse desde sitios públicos anónimamente (Terminales, hoteles, aeropuertos, etc.).

Autenticación de clave compartida: Es el fundamento del protocolo WEP (hoy totalmente desacreditado), se trata de un envío de interrogatorio (desafío) por parte del AP al cliente.

Asociación: Este proceso es el que le dará acceso a la red y solo puede ser llevado a cabo una vez autenticado

Seguridad: Mediante WEP, con este protocolo se cifran los datos pero no los encabezados.

RTS/CTS: Funciona igual que en el puerto serie (RS-232), el aspecto más importante es cuando existen “nodos ocultos”, pues a diferencia de Ethernet, en esta topología SÍ pueden existir nodos que no se escuchen entre sí y que solo lleguen hasta el AP, (Ej: su potencia está limitada, posee un obstáculo entre ellos, etc), en estos casos se puede configurar el empleo de RTS/CTS. Otro empleo importante es para designar el tamaño máximo de trama (en 802.11 Es: mínimo=256 y máximo=2312 Bytes).

Modo ahorro de energía: Cuando esta activado este modo, el cliente envió previamente al AP una trama indicando “que se irá a dormir”, El AP, coloca en su buffer estos datos. Se debe tener en cuenta que por defecto este modo suele estar inactivo (lo que se denomina Constant Awake Mode: CAM).

Fragmentación: Es la capacidad que tiene un AP de dividir la información en tramas más pequeñas.

Topología WiFi

802.11 presenta dos topologías:

  • Ad Hoc (o peer to peer): Dos o más clientes que son iguales entre ellos.
  • Infraestructura: Red centralizada a través de uno o más Access Point (AP).

Descripción general de componentes de las mismas:

BSS (Basic Service Set): Es el bloque básico de construcción de una LAN 802.11. En el caso de tratarse de únicamente 2 estaciones ser denomina IBSS (Independent BSS), es lo que a menudo se denomina “Ad Hoc Netwok”.

DS (Distribution System): Es la arquitectura que se propone para interconectar distintos BSS. El AP es el encargado de proveer acceso al DS, todos los datos que se mueven entre BSS y DS se hacen a través de estos AP, como los mismos son también STA, son por lo tanto entidades direccionables.

ESS (Extended Service Set): Tanto BSS como DS permiten crear wireless network de tamaño arbitrario, este tipo de redes se denominan redes ESS.

La integración entre una red 802.11 y una No 802.11 se realiza mediante un Portal. Es posible que un mismo dispositivo cumpla las funciones de AP y Portal.

Dispositivos Bluetooth

El estándar Bluetooth es una especificación para redes WPAN (Wireless Personal Area Network). En realidad, no se plantea como una alternativa real a las redes WLAN propiamente dichas, sino más bien como un sustituto del cable en las conexiones de corta distancia. A pesar de que los productos basados en el estándar Bluetooth podrían ser capaces de funcionar con mayores alcances, su área de trabajo se limita normalmente a unos 10 m.

El estándar se basa en tecnología FHSS, empleando una señal de 1 MHz que cambia de frecuencia central a una tasa de 1600 Hz en la banda de 2,4 GHz. El ancho de banda total ocupado es de 79 MHz. El principal potencial de Bluetooth es que ofrece bajo coste, pequeño tamaño (un solo chip) y bajo consumo de potencia. Adicionalmente, tiene la capacidad de funcionar en entornos radioeléctricos ruidosos con buenas tasas de transmisión. Estas características, junto con el hecho de soportar tráfico de voz y de datos en tiempo real, convierten a Bluetooth en una tecnología inalámbrica muy atractiva para PDAs, periféricos, teléfonos móviles y otros dispositivos de electrónica de consumo. En la actualidad hay miles de compañías desarrollando o trabajando en productos basados en esta especificación.
La primera versión de Bluetooth, la que implementan los circuitos disponibles actualmente, puede transferir datos de forma asimétrica a 721 kbit/s y simétricamente a 432 kbit/s. Para transmitir vídeo es necesario comprimirlo en formato MPEG-4 y usar 340 kbit/s para conseguir refrescar 15 veces por segundo una pantalla VGA de 320x240 puntos. Dependiendo de las distancias que se desean cubrir, las potencias de emisión se sitúan en 1 mW para 10 m y en 100 mW para 100 m.
Dado que los equipos Bluetooth trabajan en la banda de 2,4 GHz, constituyen una importante fuente de interferencia para los equipos 802.11b y viceversa. Los dispositivos Bluetooth necesitan 79 MHz de ancho de banda en la banda ISM para poder funcionar correctamente, mientras que los equipos 802.11b requieren de 16 MHz, por lo que no es posible que puedan funcionar ambos productos simultáneamente en una misma zona sin ningún tipo de interferencia. En la práctica, sus tasas de transmisión se verán reducidas como consecuencia de los efectos interferentes.

Radio módems

Cualquier tipo de módem (MOdulador/DEModulador) se encarga de convertir un flujo de datos digitales banda base en una señal analógica apropiada para ser transmitida sobre el medio, y viceversa. La principal diferencia entre un radio módem y un módem de cable se refiere a la aplicación a la que se destina. De este modo, los módems de cable están preparados para conectarse a redes de cable como pueda ser la red telefónica conmutada o una red híbrida de fibra óptica y coaxial (HFC). Por su parte, los radio módems están destinados a aplicaciones en las cuales sea necesario transmitir la señal vía radio, como por ejemplo interconexión de ordenadores a través de LAN o MAN inalámbricas, sistemas MMDS o LMDS, envío y recepción de mensajes o faxes a través de GSM, telemetría, localización automática de vehículos, vending, etc. En la figura 1 se muestra una aplicación típica de acceso a Internet a través del sistema MMDS.

Fig. 1. Acceso inalámbrico a internet usando MMDS/MDS.


Así pues, los radio módems deben estar preparados para transmitir sobre un entorno más hostil que el cable, a menudo sujeto a desvanecimientos, propagación multicamino (multipath) o interferencias. Esto obliga a emplear mecanismos de modulación distintos a los empleados en los módems de cable. Al mismo tiempo, dado que en algunos casos es necesario dotar de movilidad al dispositivo, aparecen nuevos problemas como el tamaño o la autonomía del dispositivo. Para la transmisión, los radio módems disponibles comercialmente suelen utilizar las bandas ISM de 900 MHz (902-928 MHz), 2,4 GHz (2400-2483,5 MHz) y 5,8 GHz (5725-5850 MHz).

Características de un radio módem
Los módems de cable tienen su propio estándar, DOCSIS (Data Over Cable Service Interface Specification), pero éste no incluye a los sistemas inalámbricos. Los radio módems requieren una serie de modificaciones y mejoras para que puedan funcionar correctamente. A continuación se comentan algunas de ellas:

1) Bandas de frecuencia:
Los módems típicos para transmitir sobre el par telefónico utilizan portadoras que se acomodan dentro de los 4 kHz de ancho de banda telefónico, si exceptuamos los modernos módems ADSL. Los módems de cable, por su parte, utilizan frecuencias que se solapan con los canales VHF y UHF de difusión de televisión. Sin embargo, los radio módems suelen utilizar frecuencias superiores que gozan de licencia para transmisiones inalámbricas. En la figura 2 se muestran precisamente cuáles son estas bandas de frecuencia. Normalmente, se emplea un conversor de frecuencia para colocar los canales de FI del radio módem en estas bandas. Además, son típicos esquemas de multiplexación conjuntos FDMA/TDMA de forma similar a como se realiza en el sistema de telefonía celular GSM para compartir de forma eficiente el espectro radioeléctrico entre un conjunto de usuarios. De este modo, sobre cada subcanal radio (FDMA) se transmiten diferentes slots de tiempo (TDMA).
Fig. 2. Bandas de frecuencia de sistemas inalámbricos.


2) Tolerancia de frecuencia y seguimiento de la portadora:
En un sistema de cable, la frecuencia de la señal del módem de cable es idéntica a la que debe demodularse en la cabecera de red. Si se produce una desviación de frecuencia de 30 ppm, lo cual supone 600 Hz para una portadora de 20 MHz, la señal todavía se encuentra lo suficientemente centrada y puede demodularse correctamente. Sin embargo, en un sistema inalámbrico las frecuencias se convierten a las bandas MDS, y una tolerancia de 30 ppm se traduce en un desplazamiento de hasta 64 kHz. Un modulador típico tendría dificultades para recuperar la señal, ya que el estándar DOCSIS especifica que la portadora debe encontrarse dentro de un ancho de banda de 30 kHz. Para corregir este problema, los radio módems implementan un mecanismo de búsqueda y seguimiento de la portadora por medio de bucles de enganche de fase, comúnmente conocidos como PLLs, y que siguen la señal en rangos de 30 a 150 kHz.

3) Potencia transmitida y margen dinámico:
Cualquier demodulador posee un margen dinámico limitado en el que puede funcionar correctamente. La señal del enlace de subida debe estar contenida dentro del margen dinámico del demodulador de cabecera. Esto incluye variaciones en el nivel de potencia de la señal debidas a la ganancia de las antenas, desvanecimientos por vegetación o precipitaciones y efecto multicamino. Los módems DOCSIS se especifican con un rango de 12 dB de tolerancia, mientras que los radio módems poseen un margen superior: típicamente 20 dB. Adicionalmente, es necesario ejecutar un algoritmo inicial para que el radio módem localice el nivel de potencia adecuado para comenzar a funcionar. Téngase en cuenta que este nivel es muy dependiente de las características del entorno donde vaya a trabajar.

4) Ecualización:
Como ya se ha comentado con anterioridad, durante la propagación, la señal radio sufre variaciones de amplitud y de fase que es necesario corregir en el receptor. Estos cambios deben corregirse y compensarse dinámicamente. Es por ello que los radio módems disponen de ecualizadores en tiempo real que modifican su ganancia o introducen retardos de forma dinámica en función de las condiciones del medio. Normalmente se implementan por medio de procesadores digitales de señal (DSPs). Para realizar las correcciones, es necesario disponer de alguna señal de referencia en el receptor. En el caso del estándar GSM, se transmite periódicamente una secuencia de bits conocida que se utiliza para calcular los coeficientes del filtro adaptativo del ecualizador.

5) Efecto multicamino:
La propagación multicamino no existe en los sistemas de cable, sin embargo, en los sistemas de radiocomunicaciones se convierte en uno de los principales problemas. Se produce como consecuencia de reflexiones de la señal que se combinan a la entrada de la antena y que dan lugar a degradaciones en el nivel de potencia o distorsión de la señal. En particular, un camino secundario de la señal ligeramente mayor puede ocasionar la cancelación completa del trayecto principal. En los radio módems aun es más perjudicial, puesto que como suelen disponer de movilidad, es posible que en ciertas posiciones se produzca la reflexión en algún obstáculo inesperado.

6) Esquemas de modulación:
Además de las distintas características mencionadas anteriormente, la principal diferencia de los radio módems se refiere a los esquemas y velocidades de modulación utilizados. Normalmente, se utiliza modulación QPSK para el enlace de subida y modulaciones 16QAM o 64QAM para el enlace de bajada. Conforme disminuye la complejidad de la modulación, se consigue una mayor inmunidad frente a desvanecimientos y efecto multicamino, aunque a costa de reducirse la tasa de transmisión. Lo mismo ocurre con la velocidad de modulación. Además, menores velocidades suponen anchos de banda inferiores, lo cual afecta a la sensibilidad de la cabecera y, por lo tanto, al alcance del sistema. En particular, las modulaciones de fase son más adecuadas para la propagación de señales sobre entornos radio. La modulación QPSK es la más robusta, necesitando únicamente de una relación señal a ruido de 13 dB. Por otro lado, la modulación 64QAM consigue una eficiencia espectral tres veces superior, aunque a costa de necesitar una relación señal a ruido de 27 dB para conseguir la misma probabilidad de error (BER). En la figura 3 se representan las constelaciones de las técnicas de modulación QPSK y 16QAM, junto con la codificación que corresponde a cada símbolo transmitido. Obsérvese que conforme aumenta el número de símbolos para una misma potencia transmitida, aumenta la probabilidad de error como consecuencia de que se encuentran más próximos entre sí y son más difíciles de discernir en presencia de ruido.

Fig. 3. Constelaciones de las modulaciones QPSK y 16QAM con codificación Gray.

Tipos de fibra óptica


Básicamente, existen dos tipos de fibra óptica: multimodo y monomodo. La fibra óptica multimodo es adecuada para distancias cortas, como por ejemplo redes LAN o sistemas de videovigilancia, mientras que la fibra óptica monomodo está diseñada para sistemas de comunicaciones ópticas de larga distancia.

Fibra óptica multimodo

Este tipo de fibra fue el primero en fabricarse y comercializarse. Su nombre proviene del hecho de que transporta múltiples modos de forma simultánea, ya que este tipo de fibra se caracteriza por tener un diámetro del núcleo mucho mayor que las fibras monomodo. El número de modos que se propagan por una fibra óptica depende de su apertura numérica o cono de aceptación de rayos de luz a la entrada. El mayor diámetro del núcleo facilita el acoplamiento de la fibra, pero su principal inconveniente es que tiene un ancho de banda reducido como consecuencia de la dispersión modal. Los diámetros de núcleo y cubierta típicos de estas fibras son 50/125 y 62,5/125 mm.
Existen dos tipos de fibra óptica multimodo: de salto de índice o de índice gradual. En el primer caso, existe una discontinuidad de índices de refracción entre el núcleo (n1 = cte) y la cubierta o revestimiento de la fibra (n2 = cte). Por el contrario, en el segundo caso la variación del índice es gradual. Esto permite que en las fibras multimodo de índice gradual los rayos de luz viajen a distinta velocidad, de tal modo que aquellos que recorran mayor distancia se propaguen más rápido, reduciéndose la dispersión temporal a la salida de la fibra.
Fibra óptica multimodo de salto de índice

Fibra óptica multimodo de índice


Fibra óptica monomodo

Las fibras ópticas monomodo tienen un diámetro del núcleo mucho menor, lo que permite que se transmita un único modo y se evite la dispersión multimodal. Los diámetros de núcleo y cubierta típicos para estas fibras son de 9/125 mm. Al igual que las fibras multimodo, las primeras fibras monomodo eran de salto de índice, si bien en la actualidad existen diseños bastante más complejos del perfil de índice de refracción que permiten configurar múltiples propiedades de la fibra. Las fibras monomodo también se caracterizan por una menor atenuación que las fibras multimodo, aunque como desventaja resulta más complicado el acoplamiento de la luz y las tolerancias de los conectores y empalmes son más estrictas. A diferencia de las fibras multimodo, las fibras monomodo permiten alcanzar grandes distancias y transmitir elevadas tasas de bit, las cuales vienen limitadas principalmente por la dispersión cromática y los efectos no lineales.


Fibra óptica monomodo


Fibra óptica monomodo estándar (Standard Single-Mode Fiber, SSMF):
Esta fibra se caracteriza por una atenuación en torno a los 0,2 dB/km y una dispersión cromática de unos 16 ps/km-nm en tercera ventana (1550 nm). La longitud de onda de dispersión nula se sitúa en torno a los 1310 nm (segunda ventana) donde su atenuación aumenta ligeramente. Está normalizada en la recomendación ITU G.652 y existen millones de km de este tipo de fibra instalados en redes ópticas de todo el mundo, que se benefician de sus bajas pérdidas a 1550 nm y de la utilización de los amplificadores ópticos de fibra dopada con erbio (EDFA). Algunos ejemplos de este tipo de fibra serían: SMF-28 (Corning) y AllWave (Lucent). En el segundo caso, además, la fibra se caracteriza por eliminar el pico de absorción de OH, por lo que dispone de una mayor anchura espectral para la transmisión en sistemas multicanal CWDM.

Fibra óptica de dispersión desplazada (Dispersion-Shifted Fiber, DSF):
Mediante la modificación geométrica del perfil de índice de refracción, se puede conseguir desplazar la longitud de onda de dispersión nula a tercera ventana, surgiendo de este modo las fibras de dispersión desplazada. Sus pérdidas son ligeramente superiores (0,25 dB/km a 1550 nm), pero su principal inconveniente proviene de los efectos no lineales, ya que su área efectiva es bastante más pequeña que en el caso de la fibra monomodo estándar. Luego este tipo de fibras no son en principio adecuadas para sistemas DWDM, ya que el fenómeno no lineal de mezclado de cuatro ondas (FWM) produce degradaciones significativas. Este tipo de fibras se describe en la recomendación ITU G.653.

Fibra óptica de dispersión desplazada no nula (Non-Zero Dispersion-Shifted Fiber, NZDSF):
Para resolver los problemas de no linealidades de la fibra de dispersión desplazada surgieron este tipo de fibras, que se caracterizan por valores de dispersión cromática reducidos pero no nulos. En el mercado se pueden encontrar fibras con valores de dispersión tanto positivos (NZDSF+) como negativos (NZDSF-), con el fin de ser utilizadas en sistemas de gestión de dispersión. En la recomendación ITU G.655 se puede encontrar información sobre este tipo de fibras. Algunos ejemplos de este tipo de fibras serían: LEAF (Corning), True-Wave (Lucent) y Teralight (Alcatel).

Fibra óptica compensadora de dispersión (Dispersion Compensating Fiber, DCF):
Este tipo de fibra se caracteriza por un valor de dispersión cromátiva elevado y de signo contrario al de la fibra estándar. Se utiliza en sistemas de compensación de dispersión, colocando un pequeño tramo de DCF para compensar la dispersión cromática acumulada en el enlace óptico. Como datos negativos, tiene una mayor atenuación que la fibra estándar (0,5 dB/km aprox.) y una menor área efectiva.

Fibra óptica mantenedora de polarización (Polarization-Maintaining Fiber, PMF):
Es otro tipo de fibra monomodo que se diseña para permitir la propagación de una única polarización de la señal óptica de entrada. Se utiliza en el caso de dispositivos sensibles a la polarización, como por ejemplo moduladores externos de tipo Mach-Zehnder. Su principio de funcionamiento se basa en introducir deformaciones geométricas en el núcleo de la fibra durante el proceso de fabricación para conseguir un comportamiento birrefringente.

Fibra óptica de plástico (Plastic Optical Fiber, POF)
Las fibras ópticas de plástico constituyen una solución de bajo coste para realizar conexiones ópticas en distancias cortas, como por ejemplo en el interior de dispositivos, automóviles, redes en el hogar, etc. Se caracterizan por unas pérdidas de 0,15-0,2 dB/m a 650 nm (se suele emplear como transmisor un LED rojo) y por un ancho de banda reducido como consecuencia de su gran apertura numérica (diámetros del núcleo del orden de 1 mm), pero por otra parte ofrecen como ventajas un manejo e instalación sencillos y una mayor robustez. Como ejemplo, las pérdidas que se producen son muy bajas con radios de curvatura de hasta 25 mm, lo que facilita su instalación en paredes y lugares estrechos. Además, avances recientes están propiciando mayores anchos de banda y distancias.

Fibra óptica de cristal fotónico
Recientemente han surgido un nuevo tipo de fibras de sílice caracterizadas por una microestructura de agujeros de aire que se extiende a lo largo de la misma. Su inusual mecanismo de guiado, basado en el denominado guiado intrabanda, hace que presenten toda una serie de propiedades únicas que las diferencian de las fibras ordinarias. Entre estas propiedades, destaca la posibilidad de construirlas con núcleos de tamaño muy pequeño para acrecentar los efectos no lineales, así como con bandas de propagación monomodo muy extensas. Además, la dispersión cromática de estas fibras puede ajustarse mediante el diseño adecuado de su geometría, o sea de su microestructura, pudiendo obtenerse valores inalcanzables con la tecnología de fibra óptica convencional.

Fibra óptica de cristal fotónico

Redes WLAN (Wireless LAN)

Las redes de área local inalámbricas (WLANs) constituyen en la actualidad una solución tecnológica de gran interés en el sector de las comunicaciones inalámbricas de banda ancha. Estos sistemas se caracterizan por trabajar en bandas de frecuencia exentas de licencia de operación, lo cual dota a la tecnología de un gran potencial de mercado y le permite competir con otro tipo de tecnologías de acceso inalámbrico de última generación como UMTS y LMDS, pues éstas requieren de un importante desembolso económico previo por parte de los operadores del servicio. Ahora bien, ello también obliga al desarrollo de un marco regulatorio adecuado que permita un uso eficiente y compartido del espectro radioeléctrico de dominio público disponible.

Originalmente las redes WLAN fueron diseñadas para el ámbito empresarial. Sin embargo, en la actualidad han encontrado una gran variedad de escenarios de aplicación, tanto públicos como privados: entorno residencial y del hogar, grandes redes corporativas, PYMES, zonas industriales, campus universitarios, entornos hospitalarios, ciber-cafés, hoteles, aeropuertos, medios públicos de transporte, entornos rurales, etc. Incluso son ya varias las ciudades en donde se han instalado redes inalámbricas libres para acceso a Internet.




Básicamente, una red WLAN permite reemplazar por conexiones inalámbricas los cables que conectan a la red los PCs, portátiles u otro tipo de dispositivos, dotando a los usuarios de movilidad en las zonas de cobertura alrededor de cada uno de los puntos de acceso, los cuales se encuentran interconectados entre sí y con otros dispositivos o servidores de la red cableada. Entre los componentes que permiten configurar una WLAN se pueden mencionar los siguientes: terminales de usuario o Clientes (dotados de una tarjeta interfaz de red que integra un transceptor de radiofrecuencia y una antena), puntos de acceso y controladores de puntos de acceso, que incorporan funciones de seguridad, como autorización y autenticación de usuarios, firewall, etc.



El futuro de la tecnología WLAN pasa necesariamente por la resolución de cuestiones muy importantes sobre seguridad e interoperabilidad, en donde se centran actualmente la mayor parte de los esfuerzos. Sin embargo, desde el punto de vista de los usuarios, también es importante reducir la actual confusión motivada por la gran variedad de estándares existentes.


Estándares WLAN