viernes, 26 de octubre de 2012

La computadora y el CPU

                    La computadora y el CPU


Computadora: Es un sistema de piezas electromecanicas y electronicas que actúa según datos suministrados como entrada, para generar nos información como salida. Mediante el control y el proceso de los mismos datos y tomando en cuenta su enorme capacidad de almacenamiento. 


Dato: es algo individual e aislado tal como cada una de las letras o números del abecedario.


Información: conjunto de datos preclasificados.


CPU (central processing unit).

Simplemente el procesador o microprocesador, es el componente principal del computador y otros dispositivos programables, que interpreta las instrucciones contenidas en los programas y procesa los datos.

Se compone de las siguientes unidades:

  • Unidad de Control: es uno de los tres bloques funcionales principales en los que se divide una unidad central de procesamiento (CPU). Los otros dos bloques son la unidad de proceso y el bus de entrada/salida.

Su función es buscar las instrucciones en la memoria principal, decodificarlas (interpretación) y ejecutarlas, empleando para ello la unidad de proceso. Existen dos tipos de unidades de control, las cableadas, usadas generalmente en máquinas sencillas, y las microprogramadas, propias de máquinas más complejas. 

En el primer caso, los componentes principales son el circuito de lógica secuencial, el de control de estado, el de lógica combinacional y el de emisión de reconocimiento de señales de control. 

En el segundo caso, la microprogramación de la unidad de control se encuentra almacenada en una micromemoria, a la cual se accede de manera secuencial para posteriormente ir ejecutando cada una de las microinstrucciones. Estructura del computador: Unidad aritmético-lógica (UAL o ALU por su nombre en inglés, Arithmetic Logic Unit): aquí se llevan a cabo las operaciones aritméticas y lógicas. 

  • Unidad Aritmetico logica: también conocida como ALU (siglas en inglés de arithmetic logic unit), es un circuito digital que calcula operaciones aritméticas (como suma, resta, multiplicación, etc.) y operaciones lógicas (si, y, o, no), entre dos números.

Muchos tipos de circuitos electrónicos necesitan realizar algún tipo de operación aritmética, así que incluso el circuito dentro de un reloj digital tendrá una ALU minúscula que se mantiene sumando 1 al tiempo actual, y se mantiene comprobando si debe activar el sonido de la alarma, etc. 

Por mucho, los más complejos circuitos electrónicos son los que están construidos dentro de los chips de microprocesadores modernos. Por lo tanto, estos procesadores tienen dentro de ellos un ALU muy complejo y potente. De hecho, un microprocesador moderno (y los mainframes) puede tener múltiples núcleos, cada núcleo con múltiples unidades de ejecución, cada una de ellas con múltiples ALU. 


Elementos Logicos: 

AND es igual a la conjunción. 

OR es igual a la Disyuncion.


Not es la negacion.


Elementos Aritmeticos:


+ es igual a suma                  > Mayor que                    < > Diferente que

- es igual a resta                   < Menor que

/ es igual a division               >= Mayor o igual que

* es igual a multiplicacion     <= Menor o igual que

Funcionamiento de la computadora


Dispositivos de Entrada   -  Input


  • Teclado
  • Ratón
  • Scanner o Digitalizador de imagen
  • Microfono
  • Joystick
  • Camara Web
  • Lapiz Optico

Dispositivos de Salida    -  Output


  • Bocina o Speaker
  • Plotter
  • Impresora  (ya sea Matriz, Inyección de tinta o Láser)
  • Monitor

Dispositivos Mixtos

  • USB
  • Lectorgrabadora CD/DVD
  • Monitor (en el caso de los monitores touch)

Memorias

  • Memoria ROM (solo lectura) o Read Only Memory
  • Memoria RAM (Aleatoria o Volatil) o Random Access Memory
  • USB o Universal Serial Bus
  • Disco duro o Hard Disc (HD) (ya sea IDE, SATA, SATA2)
Nota: la serie de discos duros tipo SATA tendra una nueva version la cual sera SATA 3 sera compatible con los 7 pines de conexion de SATA Y SATA 2.

miércoles, 24 de octubre de 2012

Historia de la computadora

Historia de la computadora. 

La computadora es un invento reciente, que no ha cumplido ni los cien años de existencia desde su primera generación. Sin embargo es un invento que ha venido a revolucionar la forma en la que trabajamos, nos entretenemos y se ha convertido en un aparato esencial en nuestra vida diaria.

Primera generacion (1951 - 1958).

Las computadoras de la primera Generación emplearon bulbos para procesar información. Los operadores ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran mucho más grandes y generaban más calor que los modelos contemporáneos.

Eckert y Mauchly contribuyeron al desarrollo de computadoras de la Primera Generación formando una compañía privada y construyendo UNIVAC I, que el Comité del censo utilizó para evaluar el censo de 1950. La IBM tenía el monopolio de los equipos de procesamiento de datos a base de tarjetas perforadas y estaba teniendo un gran auge en productos como rebanadores de carne, básculas para comestibles, relojes y otros artículos; sin embargo no había logrado el contrato para el Censo de 1950.

Comenzó entonces a construir computadoras electrónicas y su primera entrada fue con la IBM 701 en 1953. Después de un lento pero excitante comienzo la IBM 701 se convirtió en un producto comercialmente viable. Sin embargo en 1954 fue introducido el modelo IBM 650, el cual es la razón por la que IBM disfruta hoy de una gran parte del mercado de las computadoras. La administración de la IBM asumió un gran riesgo y estimó una venta de 50 computadoras.

Este número era mayor que la cantidad de computadoras instaladas en esa época en E.U. De hecho la IBM instaló 1000 computadoras. El resto es historia. Aunque caras y de uso limitado las computadoras fueron aceptadas rápidamente por las Compañías privadas y de Gobierno. A la mitad de los años 50 IBM y Remington Rand se consolidaban como líderes en la fabricación de computadoras.



Segunda generacion (1959 - 1964).

Transistor Compatibilidad Limitada:


El invento del transistor hizo posible una nueva Generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. Sin embargo el costo seguía siendo una porción significativa del presupuesto de una Compañía. Las computadoras de la segunda generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones.

Los programas de computadoras también mejoraron. El COBOL desarrollado durante la 1era generación estaba ya disponible comercialmente. Los programas escritos para una computadora podían transferirse a otra con un mínimo esfuerzo. El escribir un programa ya no requería entender plenamente el hardware de la computación.

Las computadoras de la 2da Generación eran sustancialmente más pequeñas y rápidas que las de bulbos, y se usaban para nuevas aplicaciones, como en los sistemas para reservación en líneas aéreas, control de tráfico aéreo y simulaciones para uso general. Las empresas comenzaron a aplicar las computadoras a tareas de almacenamiento de registros, como manejo de inventarios, nómina y contabilidad.

La marina de E.U. utilizó las computadoras de la Segunda Generación para crear el primer simulador de vuelo. (Whirlwind I). HoneyWell se colocó como el primer competidor durante la segunda generación de computadoras. Burroughs, Univac, NCR, CDC, HoneyWell, los más grandes competidores de IBM durante los 60s se conocieron como el grupo BUNCH.




 Tercera generacion (1964 - 1971).

Circuitos Integrados, Compatibilidad con Equipo Mayor, Multiprogramación, Minicomputadora:

Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de silicio) en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes.

Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos.

La IBM 360 una de las primeras computadoras comerciales que usó circuitos integrados, podía realizar tanto análisis numéricos como administración ó procesamiento de archivos. Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor tamaño y podían todavía correr sus programas actuales. Las computadoras trabajaban a tal velocidad que proporcionaban la capacidad de correr más de un programa de manera simultánea (multiprogramación).

Por ejemplo la computadora podía estar calculando la nomina y aceptando pedidos al mismo tiempo. Minicomputadoras, Con la introducción del modelo 360 IBM acaparó el 70% del mercado, para evitar competir directamente con IBM la empresa Digital Equipment Corporation DEC redirigió sus esfuerzos hacia computadoras pequeñas. Mucho menos costosas de comprar y de operar que las computadoras grandes, las mini computadoras se desarrollaron durante la segunda generación pero alcanzaron su mayor auge entre 1960 y 1970.


Cuarta generacion (1971 a la actualidad).

Microprocesador, Chips de memoria, Microminiaturización:

Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de Muchos más componentes en un Chip: producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador y de chips hizo posible la creación de las computadoras personales (PC Personal Computer).

Hoy en día las tecnologías LSI (Integración a gran escala) y VLSI (integración a muy gran escala) permiten que cientos de miles de componentes electrónicos se almacenen en un chip. Usando VLSI, un fabricante puede hacer que una computadora pequeña rivalice con una computadora de la primera generación que ocupaba un cuarto completo.




lunes, 15 de octubre de 2012

Tecnologías de Internet.


Tecnologías de Internet.

¿Qué es Internet?

///////Internet es un conjunto de redes de comunicación interconectadas que utilizan los protocolos TCP/IP, garantizando que las redes físicas heterogéneas que la componen funcionen como una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, Estados Unidos.

Alcance

Este trabajo intenta llegar a personas ya familiarizadas con el uso de Internet, quienes quieren saber cómo y por qué funciona. Este trabajo no está diseñado para programadores u otras personas que deseen construir tecnologías para Internet, sino para aquellas personas quienes, ya sea por razones personales o profesionales, necesitan mejorar su conocimiento de Internet.
Cuando nos referimos a tecnología no hablamos solamente del software y el hardware, sino también a los componentes humanos que son parte integral del sistema entero de la Internet.

Tecnologías:
Nombres de dominio
El Domain Name System (sistema de nombres de dominio), más comúnmente llamado DNS, es una de las principales características de la Internet. Se trata de una base de datos distribuida que ayuda a traducir nombres de dominio, los cuales son más fáciles de recordar, que sus direcciones numéricas. Por ejemplo, www.wikipedia.org es un nombre de dominio y 130.94.122.199, su dirección de Internet numérica asociada. El sistema de nombres de dominio actúa como una guía telefónica automatizada, de modo que uno puede "llamar" a www.wikipedia.org en vez de a 130.94.122.199. El sistema también maneja la traducción inversa, lo cual significa que una consulta por el número 130.94.122.199, devolverá el nombre de dominio larousse.wikipedia.org
El DNS fue inventado en 1983 por Paul Mockapetris y las primeras especificaciones están descritas en RFC 882. En 1987 fueron publicadas RFC 1034 y RFC 1035, las cuales actualizaron las especificaciones del sistema DNS y convirtieron en obsoletas a las antiguas especificaciones. Más tarde fueron incorporadas otras especificaciones, que agregan características al protocolo base.

Enrutamiento

Una ruta es el camino que los datos deben realizar cuando viajan a través de una red desde un "host" a otro. El enrutamiento es el proceso por el cual la ruta, o una parte de ella, es determinada. Una de las capacidades características de la Internet, en comparación con otras arquitecturas de red, es que cada router que recibe un paquete determinará de inmediato por su cuenta cuál debe ser el próximo paso en la ruta.
Cuando un paquete de IP es recibido por un router de la red, éste decidirá qué hacer con él.

Tabla de enrutamiento

Una tabla de enrutamiento es un documento electrónico que almacena las rutas a los diferentes nodos en una red informática. Los nodos pueden ser cualquier tipo de dispositivo electrónico conectado a la red. La Tabla de enrutamiento generalmente se almacena en un router o en una red en forma de una base de datos o archivo. Cuando los datos deben ser enviados desde un nodo a otro de la red, se hace referencia a la tabla de enrutamiento con el fin de encontrar la mejor ruta para la transferencia de información.
Hop-by-hop es un método común de enrutamiento en redes en las que hay nodos intermedios entre la fuente y el destino, va a la dirección del siguiente nodo principal hasta el punto de destino en la lista. Así que cuando un paquete de datos llega a un nodo en particular, usa la tabla de rutas para encontrar la dirección del siguiente nodo. Una vez que llega a ese nodo, de nuevo usa la tabla de enrutamiento para la dirección del siguiente salto, y así sucesivamente, hasta llegar al destino final.
Para una amplia red compuesta de un número de nodos y routers, las tablas en todos los enrutadores deben ser coherentes, en su defecto, esto puede crear problemas, especialmente en redes que utilizan el hop-by-hop de enrutamiento en el que el modelo de paquetes de datos pueden llegar a ser enviado en un bucle infinito. Los Bucles de enrutamiento siempre han sido un problema recurrente en las redes y uno de los principales objetivos del diseño de protocolos de enrutamiento es el cuidado de evitar estos bucles de enrutamiento.
Las tablas de enrutamiento generalmente pueden mantenerse manualmente cuando la red es pequeña y estática. Las mismas, para todos los dispositivos de red no cambian hasta que el administrador de la red los cambie manualmente. En el enrutamiento dinámico, los dispositivos automáticamente construyen y mantienen sus propias tablas de enrutamiento. Lo hacen mediante el intercambio de información relativa a la topología de red utilizando protocolos de enrutamiento. Esto permite a los dispositivos de la red adaptarse automáticamente a los cambios dentro de la red, como fallos y congestión cuando se produzcan. Para ver la tabla de enrutamiento de nuestro router podemos acceder al perfil de administracion que poseen los router o bien desde el comando "route print" o "netstat -r" desde el cmd.exe de windows.
  
Tecnologías www

Protocolos de Internet.

¿Que es un Protocolo de Internet?

En informática, un protocolo no es más que un conjunto de reglas formales que permiten a dos dispositivos intercambiar datos de forma no ambigua. Un protocolo es, pues, un conjunto de reglas que permiten intercambiar información. El ordenador conectado a una red usa protocolos para permitir que los ordenadores conectados a la red puedan enviar y recibir mensajes, y el protocolo TCP/IP define las reglas para el intercambio de datos sobre Internet.

Los protocolos son, pues, una serie de reglas que utilizan los ordenadores para comunicarse entre sí. El protocolo utilizado determinará las acciones posibles entre dos ordenadores. Para hacer referencia a ellos en el acceso se escribe el protocolo en minúsculas seguido por “://”.

Por ejemplo, http://www.taringa.net


Caracteristicas

Las redes conectadas por donde pasa el paquete de protocolos TCP/IP son sumamente robustas. Si una sección de la red (o un servidor de ordenador en la red) se convierte en inoperativo, los datos pueden ser desviados sin causar daño a la red. La homogeneidad del protocolo es la esencia de la comunicación de Internet en el nivel de los datos. Mediante la cooperación de las conexiones de redes y el protocolo TCP/IP pueden conectarse sistemas de comunicación más y más grandes. Las organizaciones individuales pueden controlar su propia red TCP/IP (internet) y conectarla con otras redes de Internet locales, regionales, nacionales y globales. Internet comparte el paquete de protocolos TCP/IP, sin embargo, Internet no es una red, sino una red de redes, un sistema organizado y distribuido cooperativamente a escala mundial para intercambiar información.

La comunicación de redes que no son Internet y que fluye en un punto de entrada es traducida a protocolos de comunicaciones de Internet y reexpedida a su camino, indistinguible de los paquetes que crea TCP enviando un mensaje directamente sobre Internet. De la misma manera, la comunicación puede fluir de Internet a otros puntos de entrada o gateways de la misma manera: los paquetes de Internet son traducidos a los protocolos de no-Internet necesarios para la comunicación sobre la otra red.

Tipos de Protocolo


TCP/IP. Tansmision Control Protocol/Internet Protocol:

Transmision Control Protocol o Protocolo de Control de Transmisión fragmenta los datos en paquetes de información. Después, estos paquetes son enviados a la red, posiblemente sobre rutas diferentes. El IP es el protocolo más básico de Internet, y provee todos los servicios necesarios para el transporte de datos. Cualquier otro protocolo de Internet se basa en IP o le sirve de base.

Fundamentalmente IP provee:

* Direccionamiento: Las cabeceras IP contienen las direcciones de las máquinas de origen y destino (direcciones IP), direcciones que serán usadas por los enrutadores (routers) para decidir el tramo de red por el que circularán.
* Fragmentación: Si la información a transmitir (“datagramas”) supera el tamaño máximo “negociado” (MTU) en el tramo de red por el que va a circular podrá ser dividida en paquetes más pequeños, y reensamblada luego cuando sea necesario.
* Tiempo de Vida de Paquetes: Cada paquete IP contiene un valor de Tiempo de Vida (TTL) que va disminuyendo cada vez que un enrutador recibe y reenvía el paquete. Cuando este valor llega a ser de cero, el paquete deja de ser reenviado (se pierde).
* Tipo de Servicio: Este es un valor sin definición previa pero que puede indicar, por ejemplo, la prioridad del paquete.
* Otras opciones: Valores sin contenido definido previamente que se pueden utilizar, por ejemplo, para que la máquina de origen especifique la ruta que debe seguir el paquete, o para que cada enrutador agregue su propia dirección (para realizar seguimiento de ruta), o para indicar opciones de seguridad de la información contenida, etc.

El IPv6 será la próxima generación de protocolos de Internet y ya está en marcha. Este protocolo se ha desarrollado para ampliar la capacidad de conexión debido al crecimiento de dispositivos y al aumento de equipos portátiles. Y así, ofrecerá la infraestructura necesaria para teléfonos móviles, agendas PDA, electrodomésticos, etc.

La mayor diferencia entre la versión de IP utilizada actualmente (IP versión 4) e IPv6 radica en el espacio de direcciones más grande que admite IPv6. IPv6 admite direcciones de Internet de 128 bits, mientras que IP (versión 4) lo hace a 32 bits, además de ofrecer una configuración más simple y una mayor seguridad.

Por su parte, el protocolo TCP proporciona un servicio de comunicación que forma un circuito, es decir, hace fluir los datos entre el origen y el destino para que sea continuo. Este circuito virtual es lo que se denomina conexión. Así, TCP conecta los ordenadores o programas -loa llamados y los que llaman-, chequea los errores, controla el flujo y tiene capacidad para interrumpirlo.


FTP: File Transfer Protocol o Protocolo de transferencia de archivos

Es un protocolo que define cómo transferir archivos de un ordenador a otro, de un servidor remoto a un servidor local o viceversa. Se precisa un servidor de FTP y un cliente de FTP. Los servidores pueden ser de libre acceso con un login o FTP anónimo. El FTP anónimo es un servidor público de FTP al cual tiene acceso cualquier usuario de Internet sin necesidad de utilizar ninguna contraseña. Se puede utilizar desde un navegador web aunque hay programas específicos como CuteFTP. La mayoría de las páginas web son “subidas” a los servidores respectivos utilizando este protocolo para transferir los archivos desde el ordenador que ha confeccionado las páginas web hasta el servidor.


HTTP: HyperText Transfer Protocol o Protocolo de Transferencia de Hipertextos. 

Es el protocolo utilizado por los servidores de la World Wide Web desde el nacimiento de la Web en 1990. El protocolo HTTP es el que permite el intercambio de información hipertextual (enlaces) de las páginas web. Se trata de un protocolo genérico orientado a objetos, que puede usarse para muchas tareas como servidor de nombres y sistemas distribuidos orientados a objetos, por extensión de los comandos o los métodos usados. Una de sus características principales es la independencia en la visualización y presentación de los datos, lo que permite que los sistemas sean construidos independientemente del desarrollo de nuevos avances en la representación de los datos. Para visualizar los datos de la Web se precisa de un navegador instalado en la máquina del ordenador cliente. En este protocolo existen una serie de conceptos tales como:

* Conexión: es el circuito virtual establecido entre 2 programas en una red de comunicación
* Mensaje: es la unidad básica de un protocolo HTTP y consiste en una secuencia estructurada que se tramite entre los programas
* Cliente: es el programa que hace la llamada al servidor y es el que atiende en la transmisión la trama de los mensajes
* Servidor: es el programa que presta el servicio en la red
* Proxy: se trata de un programa intermedio que actúa sobre el servidor y el cliente

Así, pues, el protocolo HTTP se basa en la conexión entre cliente y servidor. Una transacción HTTP consiste básicamente en:

* Conexión: establecimiento de una conexión del cliente con el servidor. El puerto TCP/IP 80 es el puerto más conocido, pero se pueden especificar otros puertos no reservados.
* Solicitud: envío por parte del cliente de un mensaje de solicitud al servidor.
* Respuesta: envío por parte del servidor de una respuesta al cliente.
* Cierre: fin de la conexión por parte del cliente y el servidor.

EL SMTP Simple Mail Transfer Procol o Protocolo de Transmisión de Correo Simple:

Es el protocolo que nos permite recibir correos electrónicos y, junto con el protocolo POP (Post Office Protocol) o Protocolo de Oficina de Correos, usado por los ordenadores personales para administrar el correo electrónico, nos permitirá bajarnos los mensajes a nuestro ordenador. Para la mensajería instantánea se usa ahora el protocolo IMAP Internet Messagins Access Protocol (Protocolo de mensajería instantánea en Internet), más sofisticado que el protocolo POP.

NEWS (NNTP): Network News Tranfer Protocol. Protocolo de transferencia de sistemas de redes de news o noticias. 

Se trata de un foro de discusión por temas en forma de tablón de anuncios que cuenta con sus propios servidores y sus propios programas. Generalmente, el mismo programa que gestiona correos electrónicos, sirve para gestionar las news o noticias.

IRC o Internet Relay Chat: es un protocolo de comunicación que permite conversaciones (chats) y debates en grupo o en privado, en tiempo real siguiendo la arquitectura del modelo cliente-servidor, pero formándose redes entre los servidores para acoger a más usuarios. Las conversaciones se desarrollan en los denominados canales de chat. Se entra en ellos adoptando un nickname o apodo y existen personas encargadas de crear y mantener los canales (los llamados CS o Chan Service), personas encargadas de mantener la red (IRCop), usuarios con privilegios de administrador del canal (Op) e incluso robots (Bot) que automatizan los servicios del canal. Existen muchos servidores de IRC. Algunos de ellos son: irc.

Para acceder a uno de estos servicios como usuario se requiere de un programa o cliente de IRC. Actualmente este servicio también se presta a través de la interfaz de la World Wide Web y existen también otros programas de mensajería integral que permiten conjuntamente prestaciones de mensajería rápida, correo electrónico, audioconferencia, videoconferencia, asistencia remota y otras prestaciones.

TELNET 

Protocolo que permite la conexión remota a otro ordenador y que permite manejarlo como si se estuviese físicamente ante él. Así, es posible arreglar fallos a distancia o consultar datos en la otra máquina.

Ha sido un sistema muy utilizado por las grandes bibliotecas y centros de documentación como modo de acceso a sus catálogos en línea. Sin embargo, dejó de usarse hace unos años, cuando apareció y se popularizó el SSH (Secure Shell), que puede describirse como una versión cifrada de telnet. Uno de los mayores problemas de TELNET era la seguridad, ya que los nombres de usuario y contraseñas viajaban por la red sin cifrar. Para que la conexión funcionara, la máquina a la que se accede debía tener un programa especial que recibía y gestionaba las conexiones. El programa, al igual que el protocolo, también se denomina TELNET.

GOPHER: 

Es un sistema de entrega de información distribuido que hoy se ha dejado de utilizar. Utilizando gopher era posible acceder a información local o bien a servidores de información gopher de todo el mundo. Permitía establecer una jerarquía de documentos, y búsquedas en ellos por palabras o frases clave. Su nombre se debe a la mascota -un topo- de la Universidad de Minessotta, donde fue creado, aunque otros autores sugieren que es una deformación de la frase goes-fer (busca). Fue el precursor de la Web al resolver el resolver el problema de cómo ubicar los recursos en Internet reduciendo todas las búsquedas a menús y submenús.


Tecnologías de comunicaciones inalámbricas

WIFI. La comunicación inalámbrica

Cuando hablamos de WIFI nos referimos a una de las tecnologías de comunicación inálambrica mediante ondas más utilizada hoy en día. WIFI, también llamada WLAN (wireless lan, red inalámbrica) o estándar IEEE 802.11. WIFI no es una abreviatura de Wireless Fidelity, simplemente es un nombre comercial.


En la actualidad podemos encontrarnos con dos tipos de comunicación WIFI:
802.11b, que emite a 11 Mb/seg, y
802.11g, más rapida, a 54 MB/seg.
De hecho, son su velocidad y alcance (unos 100-150 metros en hardaware asequible) lo convierten en una fórmula perfecta para el acceso a internet sin cables.
Para tener una red inalámbrica en casa sólo necesitaremos un punto de acceso, que se conectaría al módem, y un dispositivo WIFI que se conectaría en nuestro aparato. Existen terminales WIFI que se conectan al PC por USB, pero son las tarjetas PCI (que se insertan directamente en la placa base) las recomendables, nos permite ahorrar espacio físico de trabajo y mayor rapidez. Para portátiles podemos encontrar tarjetas PCMI externas, aunque muchos de los aparatos ya se venden con tarjeta integrada.
En cualquiera de los casos es aconsejable mantener el punto de acceso en un lugar alto para que la recepción/emisión sea más fluida. Incluso si encontramos que nuestra velocidad no es tan alta como debería, quizás sea debido a que los dispositivos no se encuentren adecuadamente situados o puedan existir barreras entre ellos (como paredes, metal o puertas).
El funcionamiento de la red es bastante sencillo, normalmente sólo tendrás que conectar los dispositivos e instalar su software. Muchos de los enrutadores WIFI (routers WIFI) incorporan herramientas de configuración para controlar el acceso a la información que se transmite por el aire.
Pero al tratarse de conexiones inalámbricas, no es difícil que alguien interceptara nuestra comunicación y tuviera acceso a nuestro flujo de información. Por esto, es recomendable la encriptación de la transmisión para emitir en un entorno seguro. En WIFI esto es posible gracias al WPA, mucho más seguro que su predecesor WEP y con nuevas características de seguridad, como la generación dinámica de la clave de acceso.
Para usuarios más avanzados exite la posibilidad de configurar el punto de acceso para que emita sólo a ciertos dispositivos. Usando la dirección MAC, un identificador único de los dispositivos asignado durante su construcción, y permitiendo el acceso sólamente a los dispositivos instalados.
Por último, también merece la pena comentar la existencia de comunidades wireless que permiten el acceso gratuito a la red conectando con nodos públicos situados en diferentes puntos, por ejemplo, en tu ciudad. Esta tendencia aún no está consolidada y tiene un futuro impredecible, pues es muy probable que las compañías telefónicas se interpongan a esta práctica.


Wi-Fi (802.11)

La especificación IEEE 802.11 (ISO/IEC 8802-11) es un estándar internacional que define las características de una red de área local inalámbrica (WLAN). Wi-Fi (que significa "Fidelidad inalámbrica", a veces incorrectamente abreviado WiFi) es el nombre de la certificación otorgada por la Wi-Fi Alliance, anteriormente WECA (Wireless Ethernet Compatibility Alliance), grupo que garantiza la compatibilidad entre dispositivos que utilizan el estándar 802.11. Por el uso indebido de los términos (y por razones de marketing) el nombre del estándar se confunde con el nombre de la certificación. Una red Wi-Fi es en realidad una red que cumple con el estándar 802.11. A los dispositivos certificados por la Wi-Fi Alliance se les permite usar este logotipo:
Con Wi-Fi se pueden crear redes de área local inalámbricas de alta velocidad siempre y cuando el equipo que se vaya a conectar no esté muy alejado del punto de acceso. En la práctica, Wi-Fi admite ordenadores portátiles, equipos de escritorio, asistentes digitales personales (PDA) o cualquier otro tipo de dispositivo de alta velocidad con propiedades de conexión también de alta velocidad (11 Mbps o superior) dentro de un radio de varias docenas de metros en ambientes cerrados (de 20 a 50 metros en general) o dentro de un radio de cientos de metros al aire libre.
Los proveedores de Wi-Fi están comenzando a cubrir áreas con una gran concentración de usuarios (como estaciones de trenes, aeropuertos y hoteles) con redes inalámbricas. Estas áreas se denominan "zonas locales de cobertura".

Introducción a Wi-Fi (802.11)

El estándar 802.11 establece los niveles inferiores del modelo OSI para las conexiones inalámbricas que utilizan ondas electromagnéticas, por ejemplo:
La capa física (a veces abreviada capa "PHY") ofrece tres tipos de codificación de información.
La capa de enlace de datos compuesta por dos subcapas: control de enlace lógico (LLC) y control de acceso al medio (MAC).

La capa física define la modulación de las ondas de radio y las características de señalización para la transmisión de datos mientras que la capa de enlace de datos define la interfaz entre el bus del equipo y la capa física, en particular un método de acceso parecido al utilizado en el estándar Ethernet, y las reglas para la comunicación entre las estaciones de la red. En realidad, el estándar 802.11 tiene tres capas físicas que establecen modos de transmisión alternativos:

Capa de enlace de datos
(MAC)
802.2
802.11
Capa física
(PHY)
DSSS
FHSS
Infrarrojo

Cualquier protocolo de nivel superior puede utilizarse en una red inalámbrica Wi-Fi de la misma manera que puede utilizarse en una red Ethernet.

Los distintos estándares Wi-Fi

El estándar 802.11 en realidad es el primer estándar y permite un ancho de banda de 1 a 2 Mbps. El estándar original se ha modificado para optimizar el ancho de banda (incluidos los estándares 802.11a, 802.11b y 802.11g, denominados estándares físicos 802.11) o para especificar componentes de mejor manera con el fin de garantizar mayor seguridad o compatibilidad. La tabla a continuación muestra las distintas modificaciones del estándar 802.11 y sus significados:

Nombre del estándar
Nombre
Descripción
802.11a
Wifi5
El estándar 802.11 (llamado WiFi 5) admite un ancho de banda superior (el rendimiento total máximo es de 54 Mbps aunque en la práctica es de 30 Mpbs). El estándar 802.11a provee ocho canales de radio en la banda de frecuencia de 5 GHz.
802.11b
Wifi
El estándar 802.11 es el más utilizado actualmente. Ofrece un rendimiento total máximo de 11 Mpbs (6 Mpbs en la práctica) y tiene un alcance de hasta 300 metros en un espacio abierto. Utiliza el rango de frecuencia de 2,4 GHz con tres canales de radio disponibles.
802.11c
Combinación del 802.11 y el 802.1d
El estándar combinado 802.11c no ofrece ningún interés para el público general. Es solamente una versión modificada del estándar 802.1d que permite combinar el 802.1d con dispositivos compatibles 802.11 (en el nivel de enlace de datos).
802.11d
Internacionalización
El estándar 802.11d es un complemento del estándar 802.11 que está pensado para permitir el uso internacional de las redes 802.11 locales. Permite que distintos dispositivos intercambien información en rangos de frecuencia según lo que se permite en el país de origen del dispositivo.
802.11e
Mejora de la calidad del servicio
El estándar 802.11e está destinado a mejorar la calidad del servicio en el nivel de la capa de enlace de datos. El objetivo del estándar es definir los requisitos de diferentes paquetes en cuanto al ancho de banda y al retardo de transmisión para permitir mejores transmisiones de audio y vídeo.
802.11f
Itinerancia
El 802.11f es una recomendación para proveedores de puntos de acceso que permite que los productos sean más compatibles. Utiliza el protocolo IAPP que le permite a un usuario itinerante cambiarse claramente de un punto de acceso a otro mientras está en movimiento sin importar qué marcas de puntos de acceso se usan en la infraestructura de la red. También se conoce a esta propiedad simplemente como itinerancia.
802.11g

El estándar 802.11g ofrece un ancho de banda elevado (con un rendimiento total máximo de 54 Mbps pero de 30 Mpbs en la práctica) en el rango de frecuencia de 2,4 GHz. El estándar 802.11g es compatible con el estándar anterior, el 802.11b, lo que significa que los dispositivos que admiten el estándar 802.11g también pueden funcionar con el 802.11b.
802.11h

El estándar 802.11h tiene por objeto unir el estándar 802.11 con el estándar europeo (HiperLAN 2, de ahí la h de 802.11h) y cumplir con las regulaciones europeas relacionadas con el uso de las frecuencias y el rendimiento energético.
802.11i

El estándar 802.11i está destinado a mejorar la seguridad en la transferencia de datos (al administrar y distribuir claves, y al implementar el cifrado y la autenticación). Este estándar se basa en el AES (estándar de cifrado avanzado) y puede cifrar transmisiones que se ejecutan en las tecnologías 802.11a, 802.11b y 802.11g.
802.11Ir

El estándar 802.11r se elaboró para que pueda usar señales infrarrojas. Este estándar se ha vuelto tecnológicamente obsoleto.
802.11j

El estándar 802.11j es para la regulación japonesa lo que el 802.11h es para la regulación europea.

También es importante mencionar la existencia de un estándar llamado "802.11b+". Éste es un estándar patentado que contiene mejoras con respecto al flujo de datos. Por otro lado, este estándar tiene algunas carencias de interoperabilidad debido a que no es un estándar IEEE.

Rango y flujo de datos

Los estándares 802.11a, 802.11b y 802.11g, llamados "estándares físicos", son modificaciones del estándar 802.11 y operan de modos diferentes, lo que les permite alcanzar distintas velocidades en la transferencia de datos según sus rangos.

Estándar
Frecuencia
Velocidad
Rango
WiFi a (802.11a)
5 GHz
54 Mbit/s
10 m
WiFi B (802.11b)
2,4 GHz
11 Mbit/s
100 m
WiFi G (802.11b)
2,4 GHz
54 Mbit/s
100 m

802.11a

El estándar 802.11 tiene en teoría un flujo de datos máximo de 54 Mbps, cinco veces el del 802.11b y sólo a un rango de treinta metros aproximadamente. El estándar 802.11a se basa en la tecnología llamada OFDM (multiplexación por división de frecuencias ortogonales). Transmite en un rango de frecuencia de 5 GHz y utiliza 8 canales no superpuestos.
Es por esto que los dispositivos 802.11a son incompatibles con los dispositivos 802.11b. Sin embargo, existen dispositivos que incorporan ambos chips, los 802.11a y los 802.11b y se llaman dispositivos de "banda dual".

Velocidad hipotética
(en ambientes cerrados)
Rango
54 Mbit/s
10 m
48 Mbit/s
17 m
36 Mbit/s
25 m
24 Mbit/s
30 m
12 Mbit/s
50 m
6 Mbit/s
70 m

802.11b

El estándar 802.11b permite un máximo de transferencia de datos de 11 Mbps en un rango de 100 metros aproximadamente en ambientes cerrados y de más de 200 metros al aire libre (o incluso más que eso con el uso de antenas direccionales).

Velocidad hipotética
Rango
(en ambientes cerrados)
Rango
(al aire libre)
11 Mbit/s
50 m
200 m
5,5 Mbit/s
75 m
300 m
2 Mbit/s
100 m
400 m
1 Mbit/s
150 m
500 m

802.11g

El estándar 802.11g permite un máximo de transferencia de datos de 54 Mbps en rangos comparables a los del estándar 802.11b. Además, y debido a que el estándar 802.11g utiliza el rango de frecuencia de 2.4 GHz con codificación OFDM, es compatible con los dispositivos 802.11b con excepción de algunos dispositivos más antiguos.

Velocidad hipotética
Rango
(en ambientes cerrados)
Rango
(al aire libre)
54 Mbit/s
27 m
75 m
48 Mbit/s
29 m
100 m
36 Mbit/s
30 m
120 m
24 Mbit/s
42 m
140 m
18 Mbit/s
55 m
180 m
12 Mbit/s
64 m
250 m
9 Mbit/s
75 m
350 m
6 Mbit/s
90 m
400 m


Seguridad Informática

La seguridad informática, es el área de la informática que se enfoca en la protección de la infraestructura computacional y todo lo relacionado con esta (incluyendo la información contenida). Para ello existen una serie de estándares, protocolos, métodos, reglas, herramientas y leyes concebidas para minimizar los posibles riesgos a la infraestructura o a la información. La seguridad informática comprende software, bases de datos, metadatos, archivos y todo lo que la organización valore (activo) y signifique un riesgo si ésta llega a manos de otras personas. Este tipo de información se conoce como información privilegiada o confidencial.
El concepto de seguridad de la información no debe ser confundido con el de seguridad informática, ya que este último sólo se encarga de la seguridad en el medio informático, pudiendo encontrar información en diferentes medios o formas.
La seguridad informática es la disciplina que se ocupa de diseñar las normas, procedimientos, métodos y técnicas destinados a conseguir un sistema de información seguro y confiable.

Objetivos de la seguridad informática

La seguridad informática está concebida para proteger los activos informáticos, entre los que se encuentran.

La información contenida
Se ha convertido en uno de los elementos más importantes dentro de una organización. La seguridad informática debe ser administrada según los criterios establecidos por los administradores y supervisores, evitando que usuarios externos y no autorizados puedan acceder a ella sin autorización. De lo contrario la organización corre el riesgo de que la información sea utilizada maliciosamente para obtener ventajas de ella o que sea manipulada, ocasionando lecturas erradas o incompletas de la misma. Otra función de la seguridad informática en esta área es la de asegurar el acceso a la información en el momento oportuno, incluyendo respaldos de la misma en caso de que esta sufra daños o pérdida producto de accidentes, atentados o desastres.

La infraestructura computacional

Es una parte fundamental para el almacenamiento y gestión de la información, así como para el funcionamiento mismo de la organización. La función de la seguridad informática en esta área es velar que los equipos funcionen adecuadamente y anticiparse en caso de fallas, planes de robos, incendios, boicot, desastres naturales, fallas en el suministro eléctrico y cualquier otro factor que atente contra la infraestructura informática.

Los usuarios

Son las personas que utilizan la estructura tecnológica, zona de comunicaciones y que gestionan la información. La seguridad informática debe establecer normas que minimicen los riesgos a la información o infraestructura informática. Estas normas incluyen horarios de funcionamiento, restricciones a ciertos lugares, autorizaciones, denegaciones, perfiles de usuario, planes de emergencia, protocolos y todo lo necesario que permita un buen nivel de seguridad informática minimizando el impacto en el desempeño de los funcionarios y de la organización en general y como principal contribuyente al uso de programas realizados por programadores.

Las amenazas

Una vez que la programación y el funcionamiento de un dispositivo de almacenamiento (o transmisión) de la información se consideran seguras, todavía deben ser tenidos en cuenta las circunstancias "no informáticas" que pueden afectar a los datos, las cuales son a menudo imprevisibles o inevitables, de modo que la única protección posible es la redundancia (en el caso de los datos) y la descentralización -por ejemplo mediante estructura de redes- (en el caso de las comunicaciones).

Estos fenómenos pueden ser causados por:

El usuario: causa del mayor problema ligado a la seguridad de un sistema informático (porque no le importa, no se da cuenta o a propósito).

Programas maliciosos: programas destinados a perjudicar o a hacer un uso ilícito de los recursos del sistema. Es instalado (por inatención o maldad) en el ordenador abriendo una puerta a intrusos o bien modificando los datos. Estos programas pueden ser un virus informático, un gusano informático, un troyano, una bomba lógica o un programa espía o Spyware.

Un intruso: persona que consigue acceder a los datos o programas de los cuales no tiene acceso permitido (cracker, defacer, script kiddie o Script boy, viruxer, etc.).

Un siniestro (robo, incendio, inundación): una mala manipulación o una malintención derivan a la pérdida del material o de los archivos.
El personal interno de Sistemas. Las pujas de poder que llevan a disociaciones entre los sectores y soluciones incompatibles para la seguridad informática.

La amenaza informática del futuro

Si en un momento el objetivo de los ataques fue cambiar las plataformas tecnológicas ahora las tendencias cibercriminales indican que la nueva modalidad es manipular los significados de la información digital. El área semántica, era reservada para los humanos, se convirtió ahora en el núcleo de los ataques debido a la evolución de la Web 2.0 y las redes sociales, factores que llevaron al nacimiento de la generación 3.0.
Se puede afirmar que “la Web 3.0 otorga contenidos y significados de manera tal que pueden ser comprendidos por las computadoras, las cuales -por medio de técnicas de inteligencia artificial- son capaces de emular y mejorar la obtención de conocimiento, hasta el momento reservada a las personas”.
Es decir, se trata de dotar de significado a las páginas Web, y de ahí el nombre de Web semántica o Sociedad del Conocimiento, como evolución de la ya pasada Sociedad de la Información
En este sentido, las amenazas informáticas que viene en el futuro ya no son con la inclusión de troyanos en los sistemas o softwares espías, sino con el hecho de que los ataques se han profesionalizado y manipulan el significado del contenido virtual.
“La Web 3.0, basada en conceptos como elaborar, compartir y significar, está representando un desafío para los hackers que ya no utilizan las plataformas convencionales de ataque, sino que optan por modificar los significados del contenido digital, provocando así la confusión lógica del usuario y permitiendo de este modo la intrusión en los sistemas”, La amenaza ya no solicita la clave de homebanking del desprevenido usuario, sino que directamente modifica el balance de la cuenta, asustando al internauta y, a partir de allí, sí efectuar el robo del capital”.
Para no ser presa de esta nueva ola de ataques más sutiles, Se recomienda:
Mantener las soluciones activadas y actualizadas.
Evitar realizar operaciones comerciales en computadoras de uso público.
Verificar los archivos adjuntos de mensajes sospechosos y evitar su descarga en caso de duda.

Tipos de Virus

Los virus se pueden clasificar de la siguiente forma:

Virus residentes

La característica principal de estos virus es que se ocultan en la memoria RAM de forma permanente o residente. De este modo, pueden controlar e interceptar todas las operaciones llevadas a cabo por el sistema operativo, infectando todos aquellos ficheros y/o programas que sean ejecutados, abiertos, cerrados, renombrados, copiados. Algunos ejemplos de este tipo de virus son: Randex, CMJ, Meve, MrKlunky.

Virus de acción directa
Al contrario que los residentes, estos virus no permanecen en memoria. Por tanto, su objetivo prioritario es reproducirse y actuar en el mismo momento de ser ejecutados. Al cumplirse una determinada condición, se activan y buscan los ficheros ubicados dentro de su mismo directorio para contagiarlos.

Virus de sobreescritura

Estos virus se caracterizan por destruir la información contenida en los ficheros que infectan. Cuando infectan un fichero, escriben dentro de su contenido, haciendo que queden total o parcialmente inservibles.

Virus de boot(bot_kill) o de arranque

Los términos boot o sector de arranque hacen referencia a una sección muy importante de un disco o unidad de almacenamiento CD,DVD, memorias USB etc. En ella se guarda la información esencial sobre las características del disco y se encuentra un programa que permite arrancar el ordenador. Este tipo de virus no infecta ficheros, sino los discos que los contienen. Actúan infectando en primer lugar el sector de arranque de los dispositivos de almacenamiento. Cuando un ordenador se pone en marcha con un dispositivo de almacenamiento, el virus de boot infectará a su vez el disco duro.
Los virus de boot no pueden afectar al ordenador mientras no se intente poner en marcha a éste último con un disco infectado. Por tanto, el mejor modo de defenderse contra ellos es proteger los dispositivos de almacenamiento contra escritura y no arrancar nunca el ordenador con uno de estos dispositivos desconocido en el ordenador.
Algunos ejemplos de este tipo de virus son: Polyboot.B, AntiEXE.

Virus de enlace o directorio

Los ficheros se ubican en determinadas direcciones (compuestas básicamente por unidad de disco y directorio), que el sistema operativo conoce para poder localizarlos y trabajar con ellos.

Virus cifrados

Más que un tipo de virus, se trata de una técnica utilizada por algunos de ellos, que a su vez pueden pertenecer a otras clasificaciones. Estos virus se cifran a sí mismos para no ser detectados por los programas antivirus. Para realizar sus actividades, el virus se descifra a sí mismo y, cuando ha finalizado, se vuelve a cifrar.

Virus polimórficos

Son virus que en cada infección que realizan se cifran de una forma distinta (utilizando diferentes algoritmos y claves de cifrado). De esta forma, generan una elevada cantidad de copias de sí mismos e impiden que los antivirus los localicen a través de la búsqueda de cadenas o firmas, por lo que suelen ser los virus más costosos de detectar.

Virus multipartites

Virus muy avanzados, que pueden realizar múltiples infecciones, combinando diferentes técnicas para ello. Su objetivo es cualquier elemento que pueda ser infectado: archivos, programas, macros, discos, etc.

Virus del Fichero

Infectan programas o ficheros ejecutables (ficheros con extensiones EXE y COM). Al ejecutarse el programa infectado, el virus se activa, produciendo diferentes efectos.

Virus de FAT

La Tabla de Asignación de Ficheros o FAT es la sección de un disco utilizada para enlazar la información contenida en éste. Se trata de un elemento fundamental en el sistema. Los virus que atacan a este elemento son especialmente peligrosos, ya que impedirán el acceso a ciertas partes del disco, donde se almacenan los ficheros críticos para el normal funcionamiento del ordenador.

Técnicas para asegurar el sistema

Codificar la información: Criptología, Criptografía y Criptociencia, contraseñas difíciles de averiguar a partir de datos personales del individuo.

Vigilancia de red.   "Zona desmilitarizada"

Tecnologías repelentes o protectoras: cortafuegos, sistema de detección de intrusos - antispyware, antivirus, llaves para protección de software, etc. Mantener los sistemas de información con las actualizaciones que más impacten en la seguridad.
Sistema de Respaldo Remoto. Servicio de backup remoto

Respaldo de Información

La información constituye el activo más importante de las empresas, pudiendo verse afectada por muchos factores tales como robos, incendios, fallas de disco, virus u otros. Desde el punto de vista de la empresa, uno de los problemas más importantes que debe resolver es la protección permanente de su información crítica.
La medida más eficiente para la protección de los datos es determinar una buena política de copias de seguridad o backups: Este debe incluir copias de seguridad completa (los datos son almacenados en su totalidad la primera vez) y copias de seguridad incrementales (sólo se copian los ficheros creados o modificados desde el último backup). Es vital para las empresas elaborar un plan de backup en función del volumen de información generada y la cantidad de equipos críticos.
Un buen sistema de respaldo debe contar con ciertas características indispensables:

Continuo
El respaldo de datos debe ser completamente automático y continuo. Debe funcionar de forma transparente, sin intervenir en las tareas que se encuentra realizando el usuario.

Seguro
Muchos softwares de respaldo incluyen cifrado de datos (128-448 bits), lo cual debe ser hecho localmente en el equipo antes del envío de la información.

Remoto
Los datos deben quedar alojados en dependencias alejadas de la empresa.

Mantención de versiones anteriores de los datos
Se debe contar con un sistema que permita la recuperación de versiones diarias, semanales y mensuales de los datos.
Hoy en día los sistemas de respaldo de información online (Servicio de backup remoto) están ganando terreno en las empresas y organismos gubernamentales. La mayoría de los sistemas modernos de respaldo de información online cuentan con las máximas medidas de seguridad y disponibilidad de datos. Estos sistemas permiten a las empresas crecer en volumen de información sin tener que estar preocupados de aumentar su dotación física de servidores y sistemas de almacenamiento.

Consideraciones de software
Tener instalado en la máquina únicamente el software necesario reduce riesgos. Así mismo tener controlado el software asegura la calidad de la procedencia del mismo (el software obtenido de forma ilegal o sin garantías aumenta los riesgos). En todo caso un inventario de software proporciona un método correcto de asegurar la reinstalación en caso de desastre. El software con métodos de instalación rápidos facilita también la reinstalación en caso de contingencia.
Existe un software que es conocido por la cantidad de agujeros de seguridad que introduce. Se pueden buscar alternativas que proporcionen iguales funcionalidades pero permitiendo una seguridad extra.

Consideraciones de una red
Los puntos de entrada en la red son generalmente el correo, las páginas web y la entrada de ficheros desde discos, o de ordenadores ajenos, como portátiles.
Mantener al máximo el número de recursos de red sólo en modo lectura, impide que ordenadores infectados propaguen virus. En el mismo sentido se pueden reducir los permisos de los usuarios al mínimo.
Se pueden centralizar los datos de forma que detectores de virus en modo batch puedan trabajar durante el tiempo inactivo de las máquinas.
Controlar y monitorizar el acceso a Internet puede detectar, en fases de recuperación, cómo se ha introducido el virus.

Algunas afirmaciones erróneas comunes acerca de la seguridad

Mi sistema no es importante para un cracker

Esta afirmación se basa en la idea de que no introducir contraseñas seguras en una empresa no entraña riesgos pues ¿quién va a querer obtener información mía?. Sin embargo, dado que los métodos de contagio se realizan por medio de programas automáticos, desde unas máquinas a otras, estos no distinguen buenos de malos, interesantes de no interesantes, etc. Por tanto abrir sistemas y dejarlos sin claves es facilitar la vida a los virus.

Estoy protegido pues no abro archivos que no conozco

Esto es falso, pues existen múltiples formas de contagio, además los programas realizan acciones sin la supervisión del usuario poniendo en riesgo los sistemas.

Como tengo antivirus estoy protegido

En general los programas antivirus no son capaces de detectar todas las posibles formas de contagio existentes, ni las nuevas que pudieran aparecer conforme los ordenadores aumenten las capacidades de comunicación, además los antivirus son vulnerables a desbordamientos de búfer que hacen que la seguridad del sistema operativo se vea más afectada aún.

Como dispongo de un firewall no me contagio

Esto únicamente proporciona una limitada capacidad de respuesta. Las formas de infectarse en una red son múltiples. Unas provienen directamente de accesos al sistema (de lo que protege un firewall) y otras de conexiones que se realizan (de las que no me protege). Emplear usuarios con altos privilegios para realizar conexiones puede entrañar riesgos, además los firewalls de aplicación (los más usados) no brindan protección suficiente contra el spoofing.

Tengo un servidor web cuyo sistema operativo es un Unix actualizado a la fecha

Puede que este protegido contra ataques directamente hacia el núcleo, pero si alguna de las aplicaciones web (PHP, Perl, Cpanel, etc.) está desactualizada, un ataque sobre algún script de dicha aplicación puede permitir que el atacante abra una shell y por ende ejecutar comandos en el unix.

Organismos oficiales de seguridad informática

Existen organismos oficiales encargados de asegurar servicios de prevención de riesgos y asistencia a los tratamientos de incidencias, tales como el CERT/CC (Computer Emergency Response Team Coordination Center) del SEI (Software Engineering Institute) de la Carnegie Mellon University el cual es un centro de alerta y reacción frente a los ataques informáticos, destinados a las empresas o administradores, pero generalmente estas informaciones son accesibles a todo el mundo.

Impacto de las redes informáticas en la sociedad y sus posibles aplicaciones.

Internet tiene un impacto profundo en el mundo laboral, el ocio y el conocimiento a nivel mundial. Gracias a la web, millones de personas tienen acceso fácil e inmediato a una cantidad extensa y diversa de información en línea. Un ejemplo de esto es el desarrollo y la distribución de colaboración del software de Free/Libre/Open-Source (FLOSS) por ejemplo GNU, Linux, Mozilla y OpenOffice.org.
Comparado a las enciclopedias y a las bibliotecas tradicionales, la web ha permitido una descentralización repentina y extrema de la información y de los datos. Algunas compañías e individuos han adoptado el uso de los weblogs, que se utilizan en gran parte como diarios actualizables. Algunas organizaciones comerciales animan a su personal para incorporar sus áreas de especialización en sus sitios, con la esperanza de que impresionen a los visitantes con conocimiento experto e información libre.
Internet ha llegado a gran parte de los hogares y de las empresas de los países ricos. En este aspecto se ha abierto una brecha digital con los países pobres, en los cuales la penetración de Internet y las nuevas tecnologías es muy limitada para las personas.
No obstante, en el transcurso del tiempo se ha venido extendiendo el acceso a Internet en casi todas las regiones del mundo, de modo que es relativamente sencillo encontrar por lo menos 2 computadoras conectadas en regiones remotas.
Desde una perspectiva cultural del conocimiento, Internet ha sido una ventaja y una responsabilidad. Para la gente que está interesada en otras culturas, la red de redes proporciona una cantidad significativa de información y de una interactividad que sería inasequible de otra manera
Internet entró como una herramienta de globalización, poniendo fin al aislamiento de culturas. Debido a su rápida masificación e incorporación en la vida del ser humano, el espacio virtual es actualizado constantemente de información, fidedigna o irrelevante

Ocio

Muchos utilizan Internet para descargar música, películas y otros trabajos. Hay fuentes que cobran por su uso y otras gratuitas, usando los servidores centralizados y distribuidos, las tecnologías de P2P. Otros utilizan la red para tener acceso a las noticias y el estado del tiempo.
La mensajería instantánea o chat y el correo electrónico son algunos de los servicios de uso más extendido. En muchas ocasiones los proveedores de dichos servicios brindan a sus afiliados servicios adicionales como la creación de espacios y perfiles públicos en donde los internautas tienen la posibilidad de colocar en la red fotografías y comentarios personales. Se especula actualmente si tales sistemas de comunicación fomentan o restringen el contacto de persona a persona entre los seres humanos.
En tiempos más recientes han cobrado auge portales como YouTube o Facebook, en donde los usuarios pueden tener acceso a una gran variedad de videos sobre prácticamente cualquier tema.
La pornografía representa buena parte del tráfico en Internet, siendo a menudo un aspecto controvertido de la red por las implicaciones morales que le acompañan. Proporciona a menudo una fuente significativa del rédito de publicidad para otros sitios. Muchos gobiernos han procurado sin éxito poner restricciones en el uso de ambas industrias en Internet.
El sistema multijugador constituye también buena parte del ocio en Internet.

Preponderancia como fuente de información

En 2009, un estudio realizado en Estados Unidos indicó que un 56% de los 3.030 adultos estadounidenses entrevistados en una encuesta online manifestó que si tuviera que escoger una sola fuente de información, elegiría Internet, mientras que un 21% preferiría la televisión y tanto los periódicos como la radio sería la opción de un 10% de los encuestados. Dicho estudio posiciona a los medios digitales en una posición privilegiada en cuanto a la búsqueda de información y refleja un aumento de la credibilidad en dichos medios.

Trabajo

Con la aparición de Internet y de las conexiones de alta velocidad disponibles al público, Internet ha alterado de manera significativa la manera de trabajar de algunas personas al poder hacerlo desde sus respectivos hogares. Internet ha permitido a estas personas mayor flexibilidad en términos de horarios y de localización, contrariamente a la jornada laboral tradicional, que suele ocupar la mañana y parte de la tarde, en la cual los empleados se desplazan al lugar de trabajo.
Un experto contable asentado en un país puede revisar los libros de una compañía en otro país, en un servidor situado en un tercer país que sea mantenido remotamente por los especialistas en un cuarto.
Internet y sobre todo los blogs han dado a los trabajadores un foro en el cual expresar sus opiniones sobre sus empleos, jefes y compañeros, creando una cantidad masiva de información y de datos sobre el trabajo que está siendo recogido actualmente por el colegio de abogados de Harvard.
Internet ha impulsado el fenómeno de la Globalización y junto con la llamada desmaterialización de la economía ha dado lugar al nacimiento de una Nueva Economía caracterizada por la utilización de la red en todos los procesos de incremento de valor de la empresa

Costos

El bajo costo y el intercambio casi instantáneo de las ideas, conocimientos, habilidades y ha hecho el trabajo colaborativo dramáticamente más fácil, con la ayuda de software de colaboración. No sólo puede un grupo barato comunicar y compartir ideas, sino el amplio alcance de Internet permite a estos grupos con mayor facilidad a la forma. Un ejemplo de esto es el movimiento del software libre, que ha producido, entre otras cosas, Linux, Mozilla Firefox y OpenOffice.org. De chat, ya sea en forma de una sala de chat IRC o del canal, a través de un sistema de mensajería instantánea, o un sitio web de redes sociales, permite a los colegas a mantenerse en contacto de una manera muy conveniente cuando se trabaja en sus computadoras durante el día. Los mensajes pueden ser intercambiados de forma más rápida y cómodamente a través del correo electrónico. Estos sistemas pueden permitir que los archivos que se intercambian, dibujos e imágenes para ser compartidas, o el contacto de voz y vídeo entre los miembros del equipo.
Sistemas de gestión de contenido permiten la colaboración a los equipos trabajar en conjuntos de documentos compartidos al mismo tiempo, sin destruir accidentalmente el trabajo del otro. Los equipos de negocio y el proyecto pueden compartir calendarios, así como documentos y otra información. Esta colaboración se produce en una amplia variedad de áreas, incluyendo la investigación científica, desarrollo de software, planificación de la conferencia, el activismo político y la escritura creativa. La colaboración social y político es cada vez más generalizada, como acceso a Internet y difusión conocimientos de informática.
La Internet permite a los usuarios de computadoras para acceder remotamente a otros equipos y almacenes de información fácilmente, donde quiera que estén. Pueden hacer esto con o sin la seguridad informática, es decir, la autenticación y de cifrado, dependiendo de los requerimientos. Esto es alentador, nuevas formas de trabajo desde el intercambio de casa, la colaboración y la información en muchas industrias. Un contador sentado en su casa puede auditar los libros de una empresa con sede en otro país, en un servidor situado en un tercer país que se distancia mantenida por especialistas en TI para un cuarto. Estas cuentas podrían haber sido creado por trabajo desde casa tenedores de libros, en otros lugares remotos, con base en la información enviada por correo electrónico a las oficinas de todo el mundo. Algunas de estas cosas eran posibles antes de que el uso generalizado de Internet, pero el costo de líneas arrendadas privadas se han hecho muchos de ellos no factible en la práctica. Un empleado de oficina lejos de su escritorio, tal vez al otro lado del mundo en un viaje de negocios o de placer, pueden acceder a sus correos electrónicos, acceder a sus datos usando la computación en nube, o abrir una sesión de escritorio remoto a su PC de la oficina usando un seguro virtual Private Network (VPN) en Internet. Esto puede dar al trabajador el acceso completo a todos sus archivos normales y datos, incluyendo aplicaciones de correo electrónico y otros, mientras que fuera de la oficina. Este concepto ha sido remitido a los administradores del sistema como la pesadilla privada virtual, ya que amplía el perímetro de seguridad de una red corporativa en lugares remotos y las casas de sus empleados.