Tecnologías de Internet.
¿Qué es Internet?
///////Internet es un conjunto de
redes de comunicación interconectadas que utilizan los protocolos TCP/IP,
garantizando que las redes físicas heterogéneas que la componen funcionen como
una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969,
cuando se estableció la primera conexión de computadoras, conocida como
ARPANET, entre tres universidades en California y una en Utah, Estados Unidos.
Alcance
Este trabajo intenta llegar a
personas ya familiarizadas con el uso de Internet, quienes quieren saber cómo y
por qué funciona. Este trabajo no está diseñado para programadores u otras
personas que deseen construir tecnologías para Internet, sino para aquellas
personas quienes, ya sea por razones personales o profesionales, necesitan
mejorar su conocimiento de Internet.
Cuando nos referimos a tecnología
no hablamos solamente del software y el hardware, sino también a los
componentes humanos que son parte integral del sistema entero de la Internet.
Tecnologías:
Nombres de dominio
El Domain Name System (sistema de
nombres de dominio), más comúnmente llamado DNS, es una de las principales
características de la Internet. Se trata de una base de datos distribuida que
ayuda a traducir nombres de dominio, los cuales son más fáciles de recordar,
que sus direcciones numéricas. Por ejemplo, www.wikipedia.org es un nombre de
dominio y 130.94.122.199, su dirección de Internet numérica asociada. El
sistema de nombres de dominio actúa como una guía telefónica automatizada, de
modo que uno puede "llamar" a www.wikipedia.org en vez de a
130.94.122.199. El sistema también maneja la traducción inversa, lo cual
significa que una consulta por el número 130.94.122.199, devolverá el nombre de
dominio larousse.wikipedia.org
El DNS fue inventado en 1983 por
Paul Mockapetris y las primeras especificaciones están descritas en RFC 882. En 1987 fueron
publicadas RFC 1034 y RFC 1035, las cuales
actualizaron las especificaciones del sistema DNS y convirtieron en obsoletas a
las antiguas especificaciones. Más tarde fueron incorporadas otras
especificaciones, que agregan características al protocolo base.
Enrutamiento
Una ruta es el camino que los
datos deben realizar cuando viajan a través de una red desde un
"host" a otro. El enrutamiento es el proceso por el cual la ruta, o
una parte de ella, es determinada. Una de las capacidades características de la
Internet, en comparación con otras arquitecturas de red, es que cada router que
recibe un paquete determinará de inmediato por su cuenta cuál debe ser el
próximo paso en la ruta.
Cuando un paquete de IP es
recibido por un router de la red, éste decidirá qué hacer con él.
Tabla de enrutamiento
Una tabla de enrutamiento es un
documento electrónico que almacena las rutas a los diferentes nodos en una red
informática. Los nodos pueden ser cualquier tipo de dispositivo electrónico
conectado a la red. La Tabla de enrutamiento generalmente se almacena en un router o en una red en forma de una base de datos o
archivo. Cuando los datos deben ser enviados desde un nodo a otro de la red, se
hace referencia a la tabla de enrutamiento con el fin de encontrar la mejor
ruta para la transferencia de información.
Hop-by-hop es un método común de
enrutamiento en redes en las que hay nodos intermedios entre la fuente y el
destino, va a la dirección del siguiente nodo principal hasta el punto de
destino en la lista. Así que cuando un paquete de datos llega a un nodo en
particular, usa la tabla de rutas para encontrar la dirección del siguiente
nodo. Una vez que llega a ese nodo, de nuevo usa la tabla de enrutamiento para
la dirección del siguiente salto, y así sucesivamente, hasta llegar al destino
final.
Para una amplia red compuesta de un
número de nodos y routers, las tablas en todos los enrutadores deben ser
coherentes, en su defecto, esto puede crear problemas, especialmente en redes
que utilizan el hop-by-hop de enrutamiento en el que el modelo de paquetes de
datos pueden llegar a ser enviado en un bucle infinito. Los Bucles de
enrutamiento siempre han sido un problema recurrente en las redes y uno de los
principales objetivos del diseño de protocolos de enrutamiento es el cuidado de
evitar estos bucles de enrutamiento.
Las tablas de enrutamiento
generalmente pueden mantenerse manualmente cuando la red es pequeña y estática.
Las mismas, para todos los dispositivos de red no cambian hasta que el
administrador de la red los cambie manualmente. En el enrutamiento dinámico,
los dispositivos automáticamente construyen y mantienen sus propias tablas de
enrutamiento. Lo hacen mediante el intercambio de información relativa a la
topología de red utilizando protocolos de enrutamiento. Esto permite a los
dispositivos de la red adaptarse automáticamente a los cambios dentro de la
red, como fallos y congestión cuando se produzcan. Para ver la tabla de
enrutamiento de nuestro router podemos acceder al perfil de administracion que
poseen los router o bien desde el comando "route print" o
"netstat -r" desde el cmd.exe de windows.
Tecnologías www
Protocolos
de Internet.
¿Que es un
Protocolo de Internet?
En informática, un protocolo no es más que un conjunto de reglas formales que
permiten a dos dispositivos intercambiar datos de forma no ambigua. Un
protocolo es, pues, un conjunto de reglas que permiten intercambiar
información. El ordenador conectado a una red usa protocolos para permitir que
los ordenadores conectados a la red puedan enviar y recibir mensajes, y el
protocolo TCP/IP define las reglas para el intercambio de datos sobre Internet.
Los protocolos son, pues, una serie de reglas que utilizan los ordenadores para
comunicarse entre sí. El protocolo utilizado determinará las acciones posibles
entre dos ordenadores. Para hacer referencia a ellos en el acceso se escribe el
protocolo en minúsculas seguido por “://”.
Por ejemplo, http://www.taringa.net
Caracteristicas
Las
redes conectadas por donde pasa el paquete de protocolos TCP/IP son sumamente
robustas. Si una sección de la red (o un servidor de ordenador en la red) se
convierte en inoperativo, los datos pueden ser desviados sin causar daño a la
red. La homogeneidad del protocolo es la esencia de la comunicación de Internet
en el nivel de los datos. Mediante la cooperación de las conexiones de redes y
el protocolo TCP/IP pueden conectarse sistemas de comunicación más y más
grandes. Las organizaciones individuales pueden controlar su propia red TCP/IP
(internet) y conectarla con otras redes de Internet locales, regionales,
nacionales y globales. Internet comparte el paquete de protocolos TCP/IP, sin
embargo, Internet no es una red, sino una red de redes, un sistema organizado y
distribuido cooperativamente a escala mundial para intercambiar información.
La comunicación de redes que no son Internet y que fluye en un punto de entrada
es traducida a protocolos de comunicaciones de Internet y reexpedida a su
camino, indistinguible de los paquetes que crea TCP enviando un mensaje
directamente sobre Internet. De la misma manera, la comunicación puede fluir de
Internet a otros puntos de entrada o gateways de la misma manera: los paquetes
de Internet son traducidos a los protocolos de no-Internet necesarios para la
comunicación sobre la otra red.
Tipos de Protocolo
TCP/IP. Tansmision Control Protocol/Internet
Protocol:
Transmision
Control Protocol o Protocolo de Control de Transmisión fragmenta los datos en
paquetes de información. Después, estos paquetes son enviados a la red,
posiblemente sobre rutas diferentes. El IP es el protocolo más básico de
Internet, y provee todos los servicios necesarios para el transporte de datos.
Cualquier otro protocolo de Internet se basa en IP o le sirve de base.
Fundamentalmente IP provee:
*
Direccionamiento: Las cabeceras IP contienen las direcciones de las máquinas de
origen y destino (direcciones IP), direcciones que serán usadas por los
enrutadores (routers) para decidir el tramo de red por el que circularán.
* Fragmentación: Si la información a transmitir (“datagramas”) supera el tamaño
máximo “negociado” (MTU) en el tramo de red por el que va a circular podrá ser
dividida en paquetes más pequeños, y reensamblada luego cuando sea necesario.
* Tiempo de Vida de Paquetes: Cada paquete IP contiene un valor de Tiempo de
Vida (TTL) que va disminuyendo cada vez que un enrutador recibe y reenvía el
paquete. Cuando este valor llega a ser de cero, el paquete deja de ser
reenviado (se pierde).
* Tipo de Servicio: Este es un valor sin definición previa pero que puede
indicar, por ejemplo, la prioridad del paquete.
* Otras opciones: Valores sin contenido definido previamente que se pueden
utilizar, por ejemplo, para que la máquina de origen especifique la ruta que
debe seguir el paquete, o para que cada enrutador agregue su propia dirección
(para realizar seguimiento de ruta), o para indicar opciones de seguridad de la
información contenida, etc.
El IPv6 será la próxima generación de protocolos de Internet y ya está
en marcha. Este protocolo se ha desarrollado para ampliar la capacidad de
conexión debido al crecimiento de dispositivos y al aumento de equipos
portátiles. Y así, ofrecerá la infraestructura necesaria para teléfonos
móviles, agendas PDA, electrodomésticos, etc.
La mayor diferencia entre la versión de IP utilizada actualmente (IP versión 4)
e IPv6 radica en el espacio de direcciones más grande que admite IPv6. IPv6
admite direcciones de Internet de 128 bits, mientras que IP (versión 4) lo hace
a 32 bits, además de ofrecer una configuración más simple y una mayor
seguridad.
Por su parte, el protocolo TCP proporciona un servicio de comunicación
que forma un circuito, es decir, hace fluir los datos entre el origen y el
destino para que sea continuo. Este circuito virtual es lo que se denomina
conexión. Así, TCP conecta los ordenadores o programas -loa llamados y los que
llaman-, chequea los errores, controla el flujo y tiene capacidad para
interrumpirlo.
FTP: File
Transfer Protocol o Protocolo de transferencia de archivos .
Es un
protocolo que define cómo transferir archivos de un ordenador a otro, de un
servidor remoto a un servidor local o viceversa. Se precisa un servidor de FTP
y un cliente de FTP. Los servidores pueden ser de libre acceso con un login o
FTP anónimo. El FTP anónimo es un servidor público de FTP al cual tiene acceso
cualquier usuario de Internet sin necesidad de utilizar ninguna contraseña. Se
puede utilizar desde un navegador web aunque hay programas específicos como CuteFTP.
La mayoría de las páginas web son “subidas” a los servidores respectivos
utilizando este protocolo para transferir los archivos desde el ordenador que
ha confeccionado las páginas web hasta el servidor.
HTTP: HyperText Transfer Protocol o Protocolo
de Transferencia de Hipertextos.
Es el protocolo utilizado por los
servidores de la World Wide Web desde el nacimiento de la Web en 1990. El
protocolo HTTP es el que permite el intercambio de información hipertextual
(enlaces) de las páginas web. Se trata de un protocolo genérico orientado a
objetos, que puede usarse para muchas tareas como servidor de nombres y
sistemas distribuidos orientados a objetos, por extensión de los comandos o los
métodos usados. Una de sus características principales es la independencia en
la visualización y presentación de los datos, lo que permite que los sistemas
sean construidos independientemente del desarrollo de nuevos avances en la
representación de los datos. Para visualizar los datos de la Web se precisa de
un navegador instalado en la máquina del ordenador cliente. En este protocolo
existen una serie de conceptos tales como:
* Conexión: es el circuito virtual establecido entre 2 programas en una red de
comunicación
* Mensaje: es la unidad básica de un protocolo HTTP y consiste en una
secuencia estructurada que se tramite entre los programas
* Cliente: es el programa que hace la llamada al servidor y es el que atiende
en la transmisión la trama de los mensajes
* Servidor: es el programa que presta el servicio en la red
* Proxy: se trata de un programa intermedio que actúa sobre el servidor y el
cliente
Así, pues, el protocolo HTTP se basa en la conexión entre cliente y servidor.
Una transacción HTTP consiste básicamente en:
* Conexión: establecimiento de una conexión del cliente con el servidor. El
puerto TCP/IP 80 es el puerto más conocido, pero se pueden especificar otros
puertos no reservados.
* Solicitud: envío por parte del cliente de un mensaje de solicitud al
servidor.
* Respuesta: envío por parte del servidor de una respuesta al cliente.
* Cierre: fin de la conexión por parte del cliente y el servidor.
EL SMTP Simple Mail Transfer Procol o Protocolo de Transmisión de Correo
Simple:
Es el protocolo que nos permite recibir correos electrónicos
y, junto con el protocolo POP (Post Office Protocol) o Protocolo de Oficina de
Correos, usado por los ordenadores personales para administrar el correo
electrónico, nos permitirá bajarnos los mensajes a nuestro ordenador. Para la
mensajería instantánea se usa ahora el protocolo IMAP Internet Messagins Access
Protocol (Protocolo de mensajería instantánea en Internet), más sofisticado que
el protocolo POP.
NEWS (NNTP): Network
News Tranfer Protocol. Protocolo de transferencia de sistemas de redes de news
o noticias.
Se trata de un foro de discusión por temas en forma de tablón de
anuncios que cuenta con sus propios servidores y sus propios programas.
Generalmente, el mismo programa que gestiona correos electrónicos, sirve para
gestionar las news o noticias.
IRC o Internet Relay Chat: es un protocolo de comunicación que permite
conversaciones (chats) y debates en grupo o en privado, en tiempo real
siguiendo la arquitectura del modelo cliente-servidor, pero formándose redes
entre los servidores para acoger a más usuarios. Las conversaciones se
desarrollan en los denominados canales de chat. Se entra en ellos adoptando un
nickname o apodo y existen personas encargadas de crear y mantener los canales
(los llamados CS o Chan Service), personas encargadas de mantener la red
(IRCop), usuarios con privilegios de administrador del canal (Op) e incluso
robots (Bot) que automatizan los servicios del canal. Existen muchos servidores
de IRC. Algunos de ellos son: irc.
Para acceder a uno de estos servicios como usuario se requiere de un programa o
cliente de IRC. Actualmente este servicio también se presta a través de la
interfaz de la World Wide Web y existen también otros programas de mensajería
integral que permiten conjuntamente prestaciones de mensajería rápida, correo
electrónico, audioconferencia, videoconferencia, asistencia remota y otras
prestaciones.
TELNET
Protocolo que
permite la conexión remota a otro ordenador y que permite manejarlo como si se
estuviese físicamente ante él. Así, es posible arreglar fallos a distancia o
consultar datos en la otra máquina.
Ha sido un sistema muy utilizado por las grandes bibliotecas y centros de
documentación como modo de acceso a sus catálogos en línea. Sin embargo, dejó
de usarse hace unos años, cuando apareció y se popularizó el SSH (Secure
Shell), que puede describirse como una versión cifrada de telnet. Uno de los
mayores problemas de TELNET era la seguridad, ya que los nombres de usuario y
contraseñas viajaban por la red sin cifrar. Para que la conexión funcionara, la
máquina a la que se accede debía tener un programa especial que recibía y
gestionaba las conexiones. El programa, al igual que el protocolo, también se
denomina TELNET.
GOPHER:
Es un sistema de
entrega de información distribuido que hoy se ha dejado de utilizar. Utilizando
gopher era posible acceder a información local o bien a servidores de
información gopher de todo el mundo. Permitía establecer una jerarquía de
documentos, y búsquedas en ellos por palabras o frases clave. Su nombre se debe
a la mascota -un topo- de la Universidad de Minessotta, donde fue creado,
aunque otros autores sugieren que es una deformación de la frase goes-fer
(busca). Fue el precursor de la Web al resolver el resolver el problema de cómo
ubicar los recursos en Internet reduciendo todas las búsquedas a menús y
submenús.
Tecnologías de
comunicaciones inalámbricas
WIFI. La comunicación inalámbrica
Cuando
hablamos de WIFI nos referimos a una de las tecnologías de comunicación
inálambrica mediante ondas más utilizada hoy en día. WIFI, también llamada
WLAN (wireless lan, red inalámbrica) o estándar IEEE 802.11. WIFI no
es una abreviatura de Wireless Fidelity, simplemente es un nombre
comercial.
|
|
En
la actualidad podemos encontrarnos con dos tipos de comunicación WIFI:
802.11b,
que emite a 11 Mb/seg, y
802.11g,
más rapida, a 54 MB/seg.
De
hecho, son su velocidad y alcance (unos 100-150 metros en hardaware asequible)
lo convierten en una fórmula perfecta para el acceso a internet sin cables.
Para
tener una red inalámbrica en casa sólo necesitaremos un punto de acceso, que se
conectaría al módem, y un dispositivo WIFI que se conectaría en nuestro
aparato. Existen terminales WIFI que se conectan al PC por USB, pero son las
tarjetas PCI (que se insertan directamente en la placa base) las recomendables,
nos permite ahorrar espacio físico de trabajo y mayor rapidez. Para portátiles
podemos encontrar tarjetas PCMI externas, aunque muchos de los aparatos ya se
venden con tarjeta integrada.
En
cualquiera de los casos es aconsejable mantener el punto de acceso en un lugar
alto para que la recepción/emisión sea más fluida. Incluso si encontramos que
nuestra velocidad no es tan alta como debería, quizás sea debido a que los
dispositivos no se encuentren adecuadamente situados o puedan existir barreras
entre ellos (como paredes, metal o puertas).
El
funcionamiento de la red es bastante sencillo, normalmente sólo tendrás que
conectar los dispositivos e instalar su software. Muchos de los enrutadores
WIFI (routers WIFI) incorporan herramientas de configuración para
controlar el acceso a la información que se transmite por el aire.
Pero
al tratarse de conexiones inalámbricas, no es difícil que alguien interceptara
nuestra comunicación y tuviera acceso a nuestro flujo de información. Por esto,
es recomendable la encriptación de la transmisión para emitir en un entorno
seguro. En WIFI esto es posible gracias al WPA,
mucho más seguro que su predecesor WEP
y con nuevas características de seguridad, como la generación dinámica de la
clave de acceso.
Para
usuarios más avanzados exite la posibilidad de configurar el punto de acceso
para que emita sólo a ciertos dispositivos. Usando la dirección MAC, un
identificador único de los dispositivos asignado durante su construcción, y
permitiendo el acceso sólamente a los dispositivos instalados.
Por
último, también merece la pena comentar la existencia de comunidades wireless
que permiten el acceso gratuito a la red conectando con nodos públicos situados
en diferentes puntos, por ejemplo, en tu ciudad. Esta tendencia aún no está
consolidada y tiene un futuro impredecible, pues es muy probable que las
compañías telefónicas se interpongan a esta práctica.
Wi-Fi (802.11)
La especificación IEEE 802.11
(ISO/IEC 8802-11) es un estándar internacional que define las características
de una red de área
local inalámbrica (WLAN). Wi-Fi (que significa
"Fidelidad inalámbrica", a veces incorrectamente abreviado WiFi) es
el nombre de la certificación otorgada por la Wi-Fi Alliance, anteriormente WECA (Wireless Ethernet Compatibility
Alliance), grupo que garantiza la compatibilidad entre dispositivos que
utilizan el estándar 802.11. Por el uso indebido de los términos (y por razones
de marketing) el nombre del estándar se confunde con el nombre de la
certificación. Una red Wi-Fi es en realidad una red que cumple con el estándar
802.11. A los dispositivos certificados por la Wi-Fi Alliance se les permite
usar este logotipo:
Con Wi-Fi se pueden crear redes
de área local inalámbricas de alta velocidad siempre y cuando el equipo que se vaya a
conectar no esté muy alejado del punto de acceso. En la práctica, Wi-Fi admite ordenadores
portátiles, equipos de
escritorio, asistentes
digitales personales (PDA) o cualquier otro tipo
de dispositivo de alta velocidad con propiedades de conexión también de alta
velocidad (11 Mbps o superior) dentro de un radio de varias docenas de metros
en ambientes cerrados (de 20 a 50 metros en general) o dentro de un radio de
cientos de metros al aire libre.
Los proveedores de Wi-Fi están
comenzando a cubrir áreas con una gran concentración de usuarios (como
estaciones de trenes, aeropuertos y hoteles) con redes inalámbricas. Estas
áreas se denominan "zonas locales de cobertura".
Introducción a Wi-Fi (802.11)
El estándar 802.11 establece los
niveles inferiores del modelo OSI
para las conexiones inalámbricas que utilizan ondas electromagnéticas, por
ejemplo:
La capa física
(a veces abreviada capa "PHY") ofrece tres tipos de codificación de
información.
La capa de enlace de datos
compuesta por dos subcapas: control de enlace lógico (LLC) y control
de acceso al medio (MAC).
La capa física define la
modulación de las ondas de radio y las características de señalización para la
transmisión de datos mientras que la capa de enlace de datos define la interfaz
entre el bus del equipo y la capa física, en particular un método de acceso
parecido al utilizado en el estándar Ethernet,
y las reglas para la comunicación entre las estaciones de la red. En realidad,
el estándar 802.11 tiene tres capas físicas que establecen modos de transmisión
alternativos:
Capa de enlace de datos
(MAC)
|
802.2
|
802.11
|
Capa física
(PHY)
|
|
Cualquier protocolo de nivel
superior puede utilizarse en una red inalámbrica Wi-Fi de la misma manera que
puede utilizarse en una red Ethernet.
Los distintos estándares Wi-Fi
El estándar 802.11 en realidad es
el primer estándar y permite un ancho de banda de 1 a 2 Mbps. El estándar
original se ha modificado para optimizar el ancho de banda (incluidos los
estándares 802.11a, 802.11b y 802.11g, denominados estándares físicos 802.11) o
para especificar componentes de mejor manera con el fin de garantizar mayor
seguridad o compatibilidad. La tabla a continuación muestra las distintas
modificaciones del estándar 802.11 y sus significados:
Nombre del estándar
|
Nombre
|
Descripción
|
802.11a
|
Wifi5
|
El estándar 802.11 (llamado WiFi 5) admite un
ancho de banda superior (el rendimiento total máximo es de 54 Mbps aunque en
la práctica es de 30 Mpbs). El estándar 802.11a provee ocho canales de radio
en la banda de frecuencia de 5 GHz.
|
802.11b
|
Wifi
|
El estándar 802.11 es el más utilizado
actualmente. Ofrece un rendimiento total máximo de 11 Mpbs (6 Mpbs en la
práctica) y tiene un alcance de hasta 300 metros en un espacio abierto.
Utiliza el rango de frecuencia de 2,4 GHz con tres canales de radio disponibles.
|
802.11c
|
Combinación del 802.11 y el 802.1d
|
El estándar combinado 802.11c no ofrece ningún
interés para el público general. Es solamente una versión modificada del
estándar 802.1d que permite combinar el 802.1d con dispositivos compatibles
802.11 (en el nivel de enlace de datos).
|
802.11d
|
Internacionalización
|
El estándar 802.11d es un complemento del
estándar 802.11 que está pensado para permitir el uso internacional de las
redes 802.11 locales. Permite que distintos dispositivos intercambien información
en rangos de frecuencia según lo que se permite en el país de origen del
dispositivo.
|
802.11e
|
Mejora de la calidad del servicio
|
El estándar 802.11e está destinado a mejorar la
calidad del servicio en el nivel de la capa de enlace de datos. El objetivo
del estándar es definir los requisitos de diferentes paquetes en cuanto al
ancho de banda y al retardo de transmisión para permitir mejores
transmisiones de audio y vídeo.
|
802.11f
|
Itinerancia
|
El 802.11f es una recomendación para proveedores
de puntos de acceso que permite que los productos sean más compatibles.
Utiliza el protocolo IAPP que le permite a un usuario itinerante
cambiarse claramente de un punto de acceso a otro mientras está en movimiento
sin importar qué marcas de puntos de acceso se usan en la infraestructura de
la red. También se conoce a esta propiedad simplemente como itinerancia.
|
802.11g
|
|
El estándar 802.11g ofrece un ancho de banda
elevado (con un rendimiento total máximo de 54 Mbps pero de 30 Mpbs en la
práctica) en el rango de frecuencia de 2,4 GHz. El estándar 802.11g es
compatible con el estándar anterior, el 802.11b, lo que significa que los
dispositivos que admiten el estándar 802.11g también pueden funcionar con el
802.11b.
|
802.11h
|
|
El estándar 802.11h tiene por objeto unir
el estándar 802.11 con el estándar europeo (HiperLAN 2, de ahí la h de
802.11h) y cumplir con las regulaciones europeas relacionadas con el uso de
las frecuencias y el rendimiento energético.
|
802.11i
|
|
El estándar 802.11i está destinado a
mejorar la seguridad en la transferencia de datos (al administrar y
distribuir claves, y al implementar el cifrado y la autenticación). Este
estándar se basa en el AES (estándar de cifrado avanzado) y puede
cifrar transmisiones que se ejecutan en las tecnologías 802.11a, 802.11b y
802.11g.
|
802.11Ir
|
|
El estándar 802.11r se elaboró para que
pueda usar señales infrarrojas. Este estándar se ha vuelto tecnológicamente
obsoleto.
|
802.11j
|
|
El estándar 802.11j es para la regulación
japonesa lo que el 802.11h es para la regulación europea.
|
También es importante mencionar
la existencia de un estándar llamado "802.11b+". Éste es un
estándar patentado que contiene mejoras con respecto al flujo de datos. Por
otro lado, este estándar tiene algunas carencias de interoperabilidad debido a
que no es un estándar IEEE.
Rango y flujo de datos
Los estándares 802.11a, 802.11b y
802.11g, llamados "estándares físicos", son modificaciones del
estándar 802.11 y operan de modos diferentes, lo que les permite alcanzar
distintas velocidades en la transferencia de datos según sus rangos.
Estándar
|
Frecuencia
|
Velocidad
|
Rango
|
WiFi a (802.11a)
|
5 GHz
|
54 Mbit/s
|
10 m
|
WiFi B (802.11b)
|
2,4 GHz
|
11 Mbit/s
|
100 m
|
WiFi G (802.11b)
|
2,4 GHz
|
54 Mbit/s
|
100 m
|
802.11a
El estándar 802.11 tiene en
teoría un flujo de datos máximo de 54 Mbps, cinco veces el del 802.11b y sólo a
un rango de treinta metros aproximadamente. El estándar 802.11a se basa en la
tecnología llamada OFDM (multiplexación por división de frecuencias
ortogonales). Transmite en un rango de frecuencia de 5 GHz y utiliza 8
canales no superpuestos.
Es por esto que los dispositivos
802.11a son incompatibles con los dispositivos 802.11b. Sin embargo, existen
dispositivos que incorporan ambos chips, los 802.11a y los 802.11b y se llaman
dispositivos de "banda dual".
Velocidad hipotética
(en ambientes cerrados)
|
Rango
|
54 Mbit/s
|
10 m
|
48 Mbit/s
|
17 m
|
36 Mbit/s
|
25 m
|
24 Mbit/s
|
30 m
|
12 Mbit/s
|
50 m
|
6 Mbit/s
|
70 m
|
802.11b
El estándar 802.11b permite un
máximo de transferencia de datos de 11 Mbps en un rango de 100 metros
aproximadamente en ambientes cerrados y de más de 200 metros al aire libre (o
incluso más que eso con el uso de antenas direccionales).
Velocidad hipotética
|
Rango
(en ambientes cerrados)
|
Rango
(al aire libre)
|
11 Mbit/s
|
50 m
|
200 m
|
5,5 Mbit/s
|
75 m
|
300 m
|
2 Mbit/s
|
100 m
|
400 m
|
1 Mbit/s
|
150 m
|
500 m
|
802.11g
El estándar 802.11g permite un
máximo de transferencia de datos de 54 Mbps en rangos comparables a los del
estándar 802.11b. Además, y debido a que el estándar 802.11g utiliza el rango
de frecuencia de 2.4 GHz con codificación OFDM, es compatible con los dispositivos
802.11b con excepción de algunos dispositivos más antiguos.
Velocidad hipotética
|
Rango
(en ambientes cerrados)
|
Rango
(al aire libre)
|
54 Mbit/s
|
27 m
|
75 m
|
48 Mbit/s
|
29 m
|
100 m
|
36 Mbit/s
|
30 m
|
120 m
|
24 Mbit/s
|
42 m
|
140 m
|
18 Mbit/s
|
55 m
|
180 m
|
12 Mbit/s
|
64 m
|
250 m
|
9 Mbit/s
|
75 m
|
350 m
|
6 Mbit/s
|
90 m
|
400 m
|
Seguridad Informática
La seguridad informática,
es el área de la informática que se enfoca en la protección de
la infraestructura computacional y todo lo relacionado con esta (incluyendo la
información contenida). Para ello existen una serie de estándares, protocolos,
métodos, reglas, herramientas y leyes concebidas para minimizar los posibles
riesgos a la infraestructura o a la información. La seguridad informática
comprende software, bases de datos, metadatos, archivos y todo lo que la
organización valore (activo) y signifique un riesgo si ésta llega a manos de
otras personas. Este tipo de información se conoce como información
privilegiada o confidencial.
El concepto de seguridad de la información no debe ser
confundido con el de seguridad informática, ya que este último sólo se encarga
de la seguridad en el medio informático, pudiendo encontrar información en
diferentes medios o formas.
La seguridad informática es la
disciplina que se ocupa de diseñar las normas, procedimientos, métodos y
técnicas destinados a conseguir un sistema de información seguro y confiable.
Objetivos de la seguridad
informática
La seguridad informática está
concebida para proteger los activos informáticos, entre los que se encuentran.
La información contenida
Se ha convertido en uno de los
elementos más importantes dentro de una organización. La seguridad informática
debe ser administrada según los criterios establecidos por los administradores
y supervisores, evitando que usuarios externos y no autorizados puedan acceder
a ella sin autorización. De lo contrario la organización corre el riesgo de que
la información sea utilizada maliciosamente para obtener ventajas de ella o que
sea manipulada, ocasionando lecturas erradas o incompletas de la misma. Otra
función de la seguridad informática en esta área es la de asegurar el acceso a
la información en el momento oportuno, incluyendo respaldos de la misma en caso
de que esta sufra daños o pérdida producto de accidentes, atentados o
desastres.
La infraestructura computacional
Es una parte fundamental para el
almacenamiento y gestión de la información, así como para el funcionamiento
mismo de la organización. La función de la seguridad informática en esta área
es velar que los equipos funcionen adecuadamente y anticiparse en caso de
fallas, planes de robos, incendios, boicot, desastres naturales, fallas en el
suministro eléctrico y cualquier otro factor que atente contra la
infraestructura informática.
Los usuarios
Son las personas que utilizan la
estructura tecnológica, zona de comunicaciones y que gestionan la información.
La seguridad informática debe establecer normas que minimicen los riesgos a la
información o infraestructura informática. Estas normas incluyen horarios de
funcionamiento, restricciones a ciertos lugares, autorizaciones, denegaciones,
perfiles de usuario, planes de emergencia, protocolos y todo lo necesario que
permita un buen nivel de seguridad informática minimizando el impacto en el
desempeño de los funcionarios y de la organización en general y como principal
contribuyente al uso de programas realizados por programadores.
Las amenazas
Una vez que la programación y el
funcionamiento de un dispositivo de almacenamiento (o transmisión) de la
información se consideran seguras, todavía deben ser tenidos en cuenta las
circunstancias "no informáticas" que pueden afectar a los datos, las
cuales son a menudo imprevisibles o inevitables, de modo que la única
protección posible es la redundancia (en el caso de los datos) y la descentralización
-por ejemplo mediante estructura de redes- (en el caso de las comunicaciones).
Estos fenómenos pueden ser causados por:
El usuario: causa del mayor
problema ligado a la seguridad de un sistema informático (porque no le importa,
no se da cuenta o a propósito).
Programas maliciosos: programas
destinados a perjudicar o a hacer un uso ilícito de los recursos del sistema.
Es instalado (por inatención o maldad) en el ordenador abriendo una puerta a
intrusos o bien modificando los datos. Estos programas pueden ser un virus
informático, un gusano informático, un troyano, una bomba lógica o un programa
espía o Spyware.
Un intruso: persona que consigue
acceder a los datos o programas de los cuales no tiene acceso permitido
(cracker, defacer, script kiddie o Script boy, viruxer, etc.).
Un siniestro (robo, incendio,
inundación): una mala manipulación o una malintención derivan a la pérdida del
material o de los archivos.
El personal interno de Sistemas.
Las pujas de poder que llevan a disociaciones entre los sectores y soluciones
incompatibles para la seguridad informática.
La amenaza informática del futuro
Si en un momento el objetivo de
los ataques fue cambiar las plataformas tecnológicas ahora las tendencias
cibercriminales indican que la nueva modalidad es manipular los significados de
la información digital. El área semántica, era reservada para los humanos, se
convirtió ahora en el núcleo de los ataques debido a la evolución de la Web 2.0
y las redes sociales, factores que llevaron al nacimiento de la generación 3.0.
Se puede afirmar que “la Web 3.0
otorga contenidos y significados de manera tal que pueden ser comprendidos por
las computadoras, las cuales -por medio de técnicas de inteligencia artificial-
son capaces de emular y mejorar la obtención de conocimiento, hasta el momento
reservada a las personas”.
Es decir, se trata de dotar de
significado a las páginas Web, y de ahí el nombre de Web semántica o Sociedad
del Conocimiento, como evolución de la ya pasada Sociedad de la Información
En este sentido, las amenazas
informáticas que viene en el futuro ya no son con la inclusión de troyanos en
los sistemas o softwares espías, sino con el hecho de que los ataques se han
profesionalizado y manipulan el significado del contenido virtual.
“La Web 3.0, basada en conceptos
como elaborar, compartir y significar, está representando un desafío para los
hackers que ya no utilizan las plataformas convencionales de ataque, sino que
optan por modificar los significados del contenido digital, provocando así la
confusión lógica del usuario y permitiendo de este modo la intrusión en los
sistemas”, La amenaza ya no solicita la clave de homebanking del desprevenido
usuario, sino que directamente modifica el balance de la cuenta, asustando al
internauta y, a partir de allí, sí efectuar el robo del capital”.
Para no ser presa de esta nueva
ola de ataques más sutiles, Se recomienda:
Mantener las soluciones activadas
y actualizadas.
Evitar realizar operaciones
comerciales en computadoras de uso público.
Verificar los archivos adjuntos
de mensajes sospechosos y evitar su descarga en caso de duda.
Tipos de Virus
Los virus se pueden clasificar de
la siguiente forma:
Virus residentes
La característica principal de
estos virus es que se ocultan en la memoria RAM de forma permanente o
residente. De este modo, pueden controlar e interceptar todas las operaciones
llevadas a cabo por el sistema operativo, infectando todos aquellos ficheros
y/o programas que sean ejecutados, abiertos, cerrados, renombrados, copiados.
Algunos ejemplos de este tipo de virus son: Randex, CMJ, Meve, MrKlunky.
Virus de acción directa
Al contrario que los residentes,
estos virus no permanecen en memoria. Por tanto, su objetivo prioritario es
reproducirse y actuar en el mismo momento de ser ejecutados. Al cumplirse una
determinada condición, se activan y buscan los ficheros ubicados dentro de su
mismo directorio para contagiarlos.
Virus de sobreescritura
Estos virus se caracterizan por
destruir la información contenida en los ficheros que infectan. Cuando infectan
un fichero, escriben dentro de su contenido, haciendo que queden total o
parcialmente inservibles.
Virus de boot(bot_kill) o de arranque
Los términos boot o sector de
arranque hacen referencia a una sección muy importante de un disco o unidad de
almacenamiento CD,DVD, memorias USB etc. En ella se guarda la información
esencial sobre las características del disco y se encuentra un programa que
permite arrancar el ordenador. Este tipo de virus no infecta ficheros, sino los
discos que los contienen. Actúan infectando en primer lugar el sector de
arranque de los dispositivos de almacenamiento. Cuando un ordenador se pone en
marcha con un dispositivo de almacenamiento, el virus de boot infectará a su
vez el disco duro.
Los virus de boot no pueden
afectar al ordenador mientras no se intente poner en marcha a éste último con
un disco infectado. Por tanto, el mejor modo de defenderse contra ellos es
proteger los dispositivos de almacenamiento contra escritura y no arrancar
nunca el ordenador con uno de estos dispositivos desconocido en el ordenador.
Algunos ejemplos de este tipo de
virus son: Polyboot.B, AntiEXE.
Virus de enlace o directorio
Los ficheros se ubican en
determinadas direcciones (compuestas básicamente por unidad de disco y
directorio), que el sistema operativo conoce para poder localizarlos y trabajar
con ellos.
Virus cifrados
Más que un tipo de virus, se
trata de una técnica utilizada por algunos de ellos, que a su vez pueden
pertenecer a otras clasificaciones. Estos virus se cifran a sí mismos para no
ser detectados por los programas antivirus. Para realizar sus actividades, el
virus se descifra a sí mismo y, cuando ha finalizado, se vuelve a cifrar.
Virus polimórficos
Son virus que en cada infección que
realizan se cifran de una forma distinta (utilizando diferentes algoritmos y
claves de cifrado). De esta forma, generan una elevada cantidad de copias de sí
mismos e impiden que los antivirus los localicen a través de la búsqueda de
cadenas o firmas, por lo que suelen ser los virus más costosos de detectar.
Virus multipartites
Virus muy avanzados, que pueden
realizar múltiples infecciones, combinando diferentes técnicas para ello. Su
objetivo es cualquier elemento que pueda ser infectado: archivos, programas,
macros, discos, etc.
Virus del Fichero
Infectan programas o ficheros
ejecutables (ficheros con extensiones EXE y COM). Al ejecutarse el programa
infectado, el virus se activa, produciendo diferentes efectos.
Virus de FAT
La Tabla de Asignación de Ficheros
o FAT es la sección de un disco utilizada para enlazar la información contenida
en éste. Se trata de un elemento fundamental en el sistema. Los virus que
atacan a este elemento son especialmente peligrosos, ya que impedirán el acceso
a ciertas partes del disco, donde se almacenan los ficheros críticos para el
normal funcionamiento del ordenador.
Técnicas para asegurar el sistema
Codificar la información: Criptología,
Criptografía
y Criptociencia, contraseñas
difíciles de averiguar a partir de datos personales del individuo.
Vigilancia de red. "Zona desmilitarizada"
Tecnologías repelentes o
protectoras: cortafuegos, sistema de detección de intrusos
- antispyware,
antivirus,
llaves para protección de software,
etc. Mantener los sistemas de información con las actualizaciones que más
impacten en la seguridad.
Sistema de Respaldo Remoto. Servicio de backup remoto
Respaldo de Información
La información constituye el
activo más importante de las empresas, pudiendo verse afectada por muchos
factores tales como robos, incendios, fallas de disco, virus u otros. Desde el
punto de vista de la empresa, uno de los problemas más importantes que debe
resolver es la protección permanente de su información crítica.
La medida más eficiente para la
protección de los datos es determinar una buena política de copias de seguridad
o backups: Este debe incluir copias de seguridad completa (los datos son
almacenados en su totalidad la primera vez) y copias de seguridad incrementales
(sólo se copian los ficheros creados o modificados desde el último backup). Es
vital para las empresas elaborar un plan de backup en función del volumen de
información generada y la cantidad de equipos críticos.
Un buen sistema de respaldo debe
contar con ciertas características indispensables:
Continuo
El respaldo de datos debe ser
completamente automático y continuo. Debe funcionar de forma transparente, sin
intervenir en las tareas que se encuentra realizando el usuario.
Seguro
Muchos softwares de respaldo
incluyen cifrado de datos (128-448 bits), lo cual debe ser hecho localmente en
el equipo antes del envío de la información.
Remoto
Los datos deben quedar alojados
en dependencias alejadas de la empresa.
Mantención de versiones
anteriores de los datos
Se debe contar con un sistema que
permita la recuperación de versiones diarias, semanales y mensuales de los
datos.
Hoy en día los sistemas de
respaldo de información online (Servicio de backup remoto) están ganando
terreno en las empresas y organismos gubernamentales. La mayoría de los
sistemas modernos de respaldo de información online cuentan con las máximas
medidas de seguridad y disponibilidad de datos. Estos sistemas permiten a las
empresas crecer en volumen de información sin tener que estar preocupados de
aumentar su dotación física de servidores y sistemas de almacenamiento.
Consideraciones de software
Tener instalado en la máquina
únicamente el software necesario reduce riesgos. Así mismo tener controlado el
software asegura la calidad de la procedencia del mismo (el software obtenido
de forma ilegal o sin garantías aumenta los riesgos). En todo caso un
inventario de software proporciona un método correcto de asegurar la
reinstalación en caso de desastre. El software con métodos de instalación
rápidos facilita también la reinstalación en caso de contingencia.
Existe un software que es
conocido por la cantidad de agujeros de seguridad que introduce. Se pueden
buscar alternativas que proporcionen iguales funcionalidades pero permitiendo
una seguridad extra.
Consideraciones de una red
Los puntos de entrada en la red
son generalmente el correo, las páginas web y la entrada de
ficheros desde discos, o de ordenadores ajenos, como portátiles.
Mantener al máximo el número de
recursos de red sólo en modo lectura, impide que ordenadores infectados
propaguen virus. En el mismo sentido se pueden reducir los permisos de los
usuarios al mínimo.
Se pueden centralizar los datos
de forma que detectores de virus en modo batch puedan trabajar durante el
tiempo inactivo de las máquinas.
Controlar y monitorizar el acceso
a Internet puede detectar, en fases de recuperación, cómo se ha introducido el
virus.
Algunas afirmaciones erróneas
comunes acerca de la seguridad
Mi sistema no es importante
para un cracker
Esta afirmación se basa en la
idea de que no introducir contraseñas seguras en una empresa no entraña riesgos
pues ¿quién va a querer obtener información mía?. Sin embargo, dado que los
métodos de contagio se realizan por medio de programas automáticos,
desde unas máquinas a otras, estos no distinguen buenos de malos, interesantes
de no interesantes, etc. Por tanto abrir sistemas y dejarlos sin claves es
facilitar la vida a los virus.
Estoy protegido pues no abro
archivos que no conozco
Esto es falso, pues existen
múltiples formas de contagio, además los programas realizan acciones sin la
supervisión del usuario poniendo en riesgo los sistemas.
Como tengo antivirus estoy
protegido
En general los programas
antivirus no son capaces de detectar todas las posibles formas de contagio
existentes, ni las nuevas que pudieran aparecer conforme los ordenadores aumenten
las capacidades de comunicación, además los antivirus son vulnerables a
desbordamientos de búfer que hacen que la seguridad del sistema operativo se
vea más afectada aún.
Como dispongo de un firewall
no me contagio
Esto únicamente proporciona una
limitada capacidad de respuesta. Las formas de infectarse en una red son
múltiples. Unas provienen directamente de accesos al sistema (de lo que protege
un firewall) y otras de conexiones que se realizan (de las que no me protege).
Emplear usuarios con altos privilegios para realizar conexiones puede entrañar
riesgos, además los firewalls de aplicación (los más usados) no brindan
protección suficiente contra el spoofing.
Tengo un servidor web cuyo
sistema operativo es un Unix actualizado a la fecha
Puede que este protegido contra
ataques directamente hacia el núcleo, pero si alguna de las aplicaciones web
(PHP, Perl, Cpanel, etc.) está desactualizada, un ataque sobre algún script de
dicha aplicación puede permitir que el atacante abra una shell y por ende
ejecutar comandos en el unix.
Organismos oficiales de seguridad informática
Existen organismos oficiales
encargados de asegurar servicios de prevención de riesgos y asistencia a los
tratamientos de incidencias, tales como el CERT/CC (Computer
Emergency Response Team Coordination Center) del SEI (Software Engineering Institute) de la Carnegie Mellon
University el cual es un centro de alerta y reacción frente a los ataques
informáticos, destinados a las empresas o administradores, pero generalmente
estas informaciones son accesibles a todo el mundo.
Impacto de las redes informáticas en la sociedad y sus posibles
aplicaciones.
Internet tiene un impacto profundo en el mundo laboral,
el ocio
y el conocimiento
a nivel mundial. Gracias a la web, millones de personas tienen acceso fácil e
inmediato a una cantidad extensa y diversa de información
en línea. Un ejemplo de esto es el desarrollo y la distribución de colaboración
del software de Free/Libre/Open-Source (FLOSS)
por ejemplo GNU, Linux, Mozilla y OpenOffice.org.
Comparado a las enciclopedias
y a las bibliotecas
tradicionales, la web ha permitido una descentralización repentina y extrema de
la información y de los datos. Algunas compañías e individuos han adoptado el
uso de los weblogs, que se utilizan en gran parte como diarios
actualizables. Algunas organizaciones comerciales animan a su personal para
incorporar sus áreas de especialización en sus sitios, con la esperanza de que
impresionen a los visitantes con conocimiento experto e información libre.
Internet ha llegado a gran parte de los hogares y de las empresas
de los países ricos. En este aspecto se ha abierto una brecha digital
con los países pobres, en los cuales la penetración de Internet y las nuevas
tecnologías es muy limitada para las personas.
No obstante, en el transcurso del tiempo se ha venido extendiendo
el acceso a Internet en casi todas las regiones del mundo, de modo que es
relativamente sencillo encontrar por lo menos 2 computadoras conectadas en
regiones remotas.
Desde una perspectiva cultural del conocimiento, Internet ha sido
una ventaja y una responsabilidad. Para la gente que está interesada en otras
culturas, la red de redes proporciona una cantidad significativa de información
y de una interactividad que sería inasequible de otra manera
Internet entró como una herramienta de globalización, poniendo fin
al aislamiento de culturas. Debido a su rápida masificación e incorporación en
la vida del ser humano, el espacio virtual es actualizado constantemente de
información, fidedigna o irrelevante
Ocio
Muchos utilizan Internet para descargar música, películas y otros
trabajos. Hay fuentes que cobran por su uso y otras gratuitas, usando los
servidores centralizados y distribuidos, las tecnologías de P2P. Otros utilizan la red para tener
acceso a las noticias y el estado del tiempo.
La mensajería instantánea o chat
y el correo electrónico son algunos de los servicios de uso más extendido. En
muchas ocasiones los proveedores de dichos servicios brindan a sus afiliados
servicios adicionales como la creación de espacios y perfiles públicos en donde
los internautas tienen la posibilidad de colocar en la red fotografías y
comentarios personales. Se especula actualmente si tales sistemas de
comunicación fomentan o restringen el contacto de persona a persona entre los
seres humanos.
En tiempos más recientes han cobrado auge portales como YouTube
o Facebook,
en donde los usuarios pueden tener acceso a una gran variedad de videos sobre
prácticamente cualquier tema.
La pornografía
representa buena parte del tráfico en Internet, siendo a menudo un aspecto
controvertido de la red por las implicaciones morales que le acompañan.
Proporciona a menudo una fuente significativa del rédito de publicidad para
otros sitios. Muchos gobiernos han procurado sin éxito poner restricciones en
el uso de ambas industrias en Internet.
El sistema multijugador
constituye también buena parte del ocio en Internet.
Preponderancia
como fuente de información
En 2009, un estudio realizado en Estados Unidos
indicó que un 56% de los 3.030 adultos estadounidenses entrevistados en una
encuesta online manifestó que si tuviera que escoger una sola fuente de
información, elegiría Internet, mientras que un 21% preferiría la televisión y
tanto los periódicos como la radio sería la opción de un 10% de los
encuestados. Dicho estudio posiciona a los medios digitales en una posición
privilegiada en cuanto a la búsqueda de información y refleja un aumento de la
credibilidad en dichos medios.
Trabajo
Con la aparición de Internet y de las conexiones de alta
velocidad disponibles al público, Internet ha alterado de manera
significativa la manera de trabajar de algunas personas al poder hacerlo desde
sus respectivos hogares. Internet ha permitido a estas personas mayor
flexibilidad en términos de horarios y de localización, contrariamente a la
jornada laboral tradicional, que suele ocupar la mañana y parte de la tarde, en
la cual los empleados se desplazan al lugar de trabajo.
Un experto contable asentado en un país puede revisar los libros
de una compañía en otro país, en un servidor situado en un tercer país que sea
mantenido remotamente por los especialistas en un cuarto.
Internet y sobre todo los blogs
han dado a los trabajadores un foro en el cual expresar sus opiniones sobre sus
empleos, jefes y compañeros, creando una cantidad masiva de información y de
datos sobre el trabajo que está siendo recogido actualmente por el colegio de
abogados de Harvard.
Internet ha impulsado el fenómeno de la Globalización
y junto con la llamada desmaterialización de la economía
ha dado lugar al nacimiento de una Nueva Economía
caracterizada por la utilización de la red en todos los procesos de incremento
de valor de la empresa
Costos
El bajo costo y el intercambio casi instantáneo de las ideas,
conocimientos, habilidades y ha hecho el trabajo colaborativo dramáticamente
más fácil, con la ayuda de software de colaboración. No sólo puede un grupo
barato comunicar y compartir ideas, sino el amplio alcance de Internet permite
a estos grupos con mayor facilidad a la forma. Un ejemplo de esto es el
movimiento del software libre, que ha producido, entre otras cosas, Linux,
Mozilla Firefox y OpenOffice.org. De chat, ya sea en forma de una sala de chat
IRC o del canal, a través de un sistema de mensajería instantánea, o un sitio
web de redes sociales, permite a los colegas a mantenerse en contacto de una
manera muy conveniente cuando se trabaja en sus computadoras durante el día.
Los mensajes pueden ser intercambiados de forma más rápida y cómodamente a
través del correo electrónico. Estos sistemas pueden permitir que los archivos
que se intercambian, dibujos e imágenes para ser compartidas, o el contacto de
voz y vídeo entre los miembros del equipo.
Sistemas de gestión de contenido permiten la colaboración a los
equipos trabajar en conjuntos de documentos compartidos al mismo tiempo, sin
destruir accidentalmente el trabajo del otro. Los equipos de negocio y el
proyecto pueden compartir calendarios, así como documentos y otra información.
Esta colaboración se produce en una amplia variedad de áreas, incluyendo la
investigación científica, desarrollo de software, planificación de la
conferencia, el activismo político y la escritura creativa. La colaboración
social y político es cada vez más generalizada, como acceso a Internet y
difusión conocimientos de informática.
La Internet permite a los usuarios de computadoras para acceder
remotamente a otros equipos y almacenes de información fácilmente, donde quiera
que estén. Pueden hacer esto con o sin la seguridad informática, es decir, la
autenticación y de cifrado, dependiendo de los requerimientos. Esto es
alentador, nuevas formas de trabajo desde el intercambio de casa, la
colaboración y la información en muchas industrias. Un contador sentado en su
casa puede auditar los libros de una empresa con sede en otro país, en un
servidor situado en un tercer país que se distancia mantenida por especialistas
en TI para un cuarto. Estas cuentas podrían haber sido creado por trabajo desde
casa tenedores de libros, en otros lugares remotos, con base en la información
enviada por correo electrónico a las oficinas de todo el mundo. Algunas de
estas cosas eran posibles antes de que el uso generalizado de Internet, pero el
costo de líneas arrendadas privadas se han hecho muchos de ellos no factible en
la práctica. Un empleado de oficina lejos de su escritorio, tal vez al otro
lado del mundo en un viaje de negocios o de placer, pueden acceder a sus
correos electrónicos, acceder a sus datos usando la computación en nube, o
abrir una sesión de escritorio remoto a su PC de la oficina usando un seguro
virtual Private Network (VPN) en Internet. Esto puede dar al trabajador el
acceso completo a todos sus archivos normales y datos, incluyendo aplicaciones
de correo electrónico y otros, mientras que fuera de la oficina. Este concepto
ha sido remitido a los administradores del sistema como la pesadilla privada
virtual, ya que amplía el perímetro de seguridad de una red corporativa en
lugares remotos y las casas de sus empleados.