
¿QUE ES UNA RED LAN ?

ELEMENTOS DE UNA RED LAN 5.11
UNIDAD 5 DETECCION, AISLAMIENTO Y CORRECION DE FALLAS EN
LA RED.
ELEMENTOS DE UNA RED LAN
HARDWARE
SWITH
Router
Módem
TARJETA DE LA RED
CABLEADO
CONECTORES
SERVIDORES
SISTEMA OPERATIVO
DIAGNOSTICA Y ARREGLA PROBLEMAS DE SOFTWARE Y HARDWARE
UNIDAD 6
REALIZA CAMBIOS Y ACTUALIZACIONES EN LA RED
EN RESPUESTA A NUEVOS ESCENARIOS DE TRABAJO.
12. DEVOLUCIÓN DE COMPONENTES INFORMÁTICOS
PARA LA REALIZACIÓN DE CAMBIOS Y ACTUALIZACIONES DE
COMPONENTES
DE LA RED.
ASPECTOS FUNDAMENTALES DE LA ADMINISTRACIÓN DE LA RED.
3.1 ADMINISTRACIÓN DE PRESTACIONES O RENDIMIENTOS.
PRESTACIONES Y SERVICIOS.
3.2 ADMINISTRACIÓN DE FALLAS.
3.3 ADMINISTRACIÓN DE LA CONFIGURACIÓN..
3.4 ADMINISTRACIÓN DE LA CONTABILIDAD.
3.5 LA ADMINISTRACIÓN DE SEGURIDAD.
3.6 LOS ATAQUES PASIVOS Y ACTIVOS.
INSTALA EL SOFTWARE NECESARIO PARA EL FUNCIONAMIENTO DE LA RED.
4.1 SISTEMA OPERATIVO DE LA RED.
4.2 NOVELL NETWARE.
4.3 LAN MANAGER.
4.4 WINDOWS SERVER.
4.5 UNIX.
4.6 LINUX.
4.7 LANTASTIC.
4.8 LI (ENTRE OTROS)
4.9 SOFTWARE Y HARWARE DE UNA RED.
4.10 CARACTERÍSTICAS DE LOS SISTEMAS OPERATIVOS DE UNA RED.
4.11 SELECCIONAR UN SISTEMA OPERATIVO PARA LA RED.
Dependiendo si el usuario
es una maquina ,
persona o programa etc, es comúnmente conocido
como login
Se basa en cadenas cortas alfanuméricas dependiendo de las políticas o los servicios en particular son elegidos ya sea por el mismo usuario o por el administrador de sistemas
Las opciones son generalmente el nombre , las iniciales , algunas combinaciones del nombre y apellidos y números arbitrarios .
Los perfiles de grupos de usuarios se crean durante el análisis de usuario, del que se habla en el capítulo titulado Análisis.
Esta sección proporciona información sobre los siguientes temas:
Contexto: los perfiles de grupos de usuarios en el diseño centrado en el usuario (dcu).
Consideraciones de accesibilidad para los perfiles de grupos de usuarios.
En los ejemplos, se han destacado los aspectos que hacen referencia específicamente a la accesibilidad, rodeados por imágenes transparentes con texto alternativo (ALT) “inicio de elemento destacado” y “fin de elemento destacado” para las personas que utilizan lectores de pantalla o las que no pueden ver imágenes.
En el espacio de trabajo, todos los equipos conectados a un servidor pueden considerarse como un gran sistema multifacético. Usted es responsable de la seguridad de este sistema más grande. Debe proteger la red contra los desconocidos que intentan obtener acceso. También debe garantizar la integridad de los datos en los equipos de la red.
En el nivel de archivos, Oracle Solaris proporciona funciones de seguridad estándar que usted puede utilizar para proteger archivos, directorios y dispositivos. En los niveles de sistema y de red, los problemas de seguridad son generalmente los mismos. La primera línea de defensa de seguridad es controlar el acceso al sistema.
Puede controlar y supervisar el acceso al sistema con las siguientes medidas:
Un usuario puede ser tanto una persona como una computadora ya que el concepto esta vinculado al acceso a ciertos recursos o dispositivos.
°Carpeta de trabajo que sera asignada al usuario
°Identificar que sera asignado al usuario.
°Especificar la fecha en la cual expira la cuenta .
°Eliminar la carpeta de trabajo del usuario asi como todo su contenido dentro de el
USUARIO
Los usuarios que acceden a un Sitio Web de carácter general, tienen derechos y obligaciones, aunque muchas de ellas existen por un compromiso tácito y basado en la costumbre, más que en la existencia de una ley, reglamento o contrato que se refiera a ellos.
No obstante, en el caso de Sitios Web de instituciones públicas, la situación es mucho más restrictiva, ya que existe cierta normativa sobre el uso y acceso a la información, que debe ser respetada y atendida.
Por lo anterior, se recomienda que todo Sitio Web de Gobierno ofrezca en todas sus páginas la información necesaria para indicar cuáles son esos derechos y obligaciones. Dentro de ellos, lo más importante que se debe puntualizar se describe en los siguientes títulos.
Todo grupo de personas que dispongan de cuenta de usuario en la Universitat de Valencia podrán solicitar una cuenta de grupo.
Una cuenta de grupo permite disponer de servicios restringidos a un 'grupo' de personas determinado, siempre que estas dispongan de cuenta de usuario en la Universitat. Tipicamente los servicios de grupo se relacionan con compartir información (P.Ej.: Documentos, agendas, foros...) o hacer trabajos o funciones en común (atender la dirección de correo de una entidad, gestionar un proyecto, etc...)
Una cuenta de grupo no tiene (excepto en algún caso excepcional ) asociada una contraseña, solamente un usuario de grupo.
En el campo de la informática y las telecomunicaciones, por servidor se entiende "un equipo informático que forma parte de una red y provee servicios a otros equipos". Existen muchísimos tipos de servidor según su función y su contenido, cada día más, como ocurre con todos los elementos que siguen teniendo un papel determinnte en el panorama tecnológico y de Internet. Estos son algunos de los tipos más comunes de servidores que podemos encontrar en el mercado:
Servidores:
Servidor de impresiones, Servidor de correo,Servidor de fax,Servidor de la telefonía,Servidor proxy,Servidor del acceso remoto (RAS),Servidor web.Servidor de base de datos etc.
Gestión de la impresión
Enviar un trabajo de impresión al equipo elegido es la parte más sencilla y directa del flujo de trabajo. La tarea complicada es la de controlar la impresión de manera que el equipo, departamento o empresa pueda hacer un uso óptimo de todas las impresoras disponibles, asegurando de esta manera los procesos de productividad y reducción de gastos.
Usted no puede permitirse que sus empleados pierdan tiempo con distintos interfaces gráficos, aunque necesita unificar todas las operaciones de reimpresión
Usted debe monitorizar y controlar el flujo de trabajo, asegurar que todas las impresoras rindan al máximo y producir los trabajos en el menor plazo posible, con el coste más reducido posible.
Usted necesita evitar que sus empleados impriman más documentos de los necesarios.
Detectar y configurar automáticamente el correo electrónico de Internet
Nota Para completar estos pasos, tendrá que conocer su dirección y contraseña de correo electrónico proporcionadas por el proveedor de acceso a Internet (ISP).
Inicie Outlook.
Seleccione la pestaña Archivo.
En la categoría Información, seleccione Configuración de la
Cuenta > Configuración de la cuenta en la lista desplegable.
En la pestaña Correo electrónico, seleccione Nuevo.
En el cuadro de diálogo Agregar nueva cuenta, para configurar la nueva cuenta de correo electrónico de manera automática, configure las siguientes opciones en la sección Cuenta de correo electrónico en Configuración automática de la
Cuenta:
En el cuadro Su nombre, escriba su nombre completo.
En el cuadro Dirección de correo electrónico, escriba su dirección de correo electrónico.
Nota El ISP proporciona esta información.
En el cuadro Contraseña, escriba la contraseña que le proporcione su ISP.
En el cuadro Vuelva a escribir la contraseña, vuelva a escribir la contraseña y luego haga clic en Siguiente para comenzar el proceso de configuración automática de cuentas
Outlook luego intentará configurar la cuenta automáticamente. Algunos ISP requieren que especifique la dirección de correo completa en el campo Nombre de usuario. Si quiere que Outlook especifique automáticamente la contraseña de correo electrónico, asegúrese de seleccionar la casilla Guardar contraseña en la lista de contraseñas. Si su cuenta se configura correctamente, el cuadro de diálogo Agregar una nueva cuenta de correo electrónico indica que la cuenta se creó correctamente.
Seleccione Finalizar > Cerrar
La instalación de un sistema no lo es todo en la operación de despliegue. De nada nos serviría un sistema sobre el que no estableciéramos unas condiciones mínimas de seguridad. La vida del servidor es la vida de los servicios que provee. Por tanto, si queremos que los servicios prestados se prolonguen en el tiempo, tendremos que asegurar con firmeza al servidor sobre el que se soportan
Toda instalación eléctrica tiene que estar dotada de una serie de protecciones que la hagan segura, tanto desde el punto de vista de los conductores y los aparatos a ellos conectados, como de las personas que han de trabajar con ella.
Existen muchos tipos de protecciones, que pueden hacer a una instalación eléctrica completamente segura ante cualquier contingencia, pero hay tres que deben usarse en todo tipo de instalación: de alumbrado, domesticas, de fuerza, redes de distribución, circuitos auxiliares, etc., ya sea de baja o alta tensión. Estas tres protecciones eléctricas, que describiremos con detalle a continuación son:
a) Protección contra cortocircuitos.
b) Protección contra sobrecargas.
c) Protección contra electrocución.
PROTECCIÓN CONTRA CORTOCIRCUITOS
Se denomina cortocircuito a la unión de dos conductores o partes de un circuito eléctrico, con una diferencia de potencial o tensión entre sí, sin ninguna impedancia eléctrica entre ellos.
Este efecto, según la Ley de Ohm, al ser la impedancia cero, hace que la intensidad tienda a infinito, con lo cual peligra la integridad de conductores y máquinas debido al calor generado por dicha intensidad, debido al efecto Joule. En la práctica, la intensidad producida por un cortocircuito, siempre queda amortiguada por la resistencia de los propios conductores que, aunque muy pequeña, nunca es cero.
I = V / Z (si Z es cero, I = infinito)
Según los reglamentos electrotécnicos, "en el origen de todo circuito deberá colocarse un dispositivo de protección, de acuerdo con la intensidad de cortocircuito que pueda presentarse en la instalación". No obstante se admite una protección general contra cortocircuitos para varios circuitos derivados.
Los dispositivos más empleados para la protección contra cortocircuitos son:
Fusibles calibrados (también llamados cortacircuitos), o
Interruptores automáticos magneto térmico.
Los virus son una seria amenaza para todos los sistemas de cómputo, especialmente los enlazados a redes o a servicios de correo electrónico o internet. Los programas de protección antivirus son una parte esencial de cualquier sistema de cómputo.
¿Qué es un virus de computadora?
Son programas desarrollados por programadores inescrupulosos o mal intencionados que son capaces de ejecutar distintas funciones, tanto benignas como malignas, en una computadora "infectada".
Los virus benignos pueden simplemente ejecutar funciones inofensivas (pero usualmente molestas) como mostrar mensajes animados.
Los virus se diseminan transfiriendo archivos infectados de una computadora a otra. Esto puede ocurrir transfiriendo archivos en discos removibles, accediendo o descargando archivos de internet o de una red o a través de archivos enviados por correo electrónico.
La forma de proteger un sistema contra un ataque de virus es utilizando un programa de protección. Los programas antivirus están diseñados para operar permanentemente, por lo que el usuario normalmente no está consciente de que al menos surja un problema. Los programas de protección están diseñados para reconocer virus conocidos e impedir que generen sus efectos.
Además, como aparecen nuevos virus frecuentemente, los programas de protección también están diseñados para identificar sus posibles actividades e impedir que operen.
Independientemente de la presencia de programas de protección, algunos virus pueden pasar desapercibidos e infectar un sistema de cómputo. A fin de prevenir esta posibilidad, la información debe ser respaldada continuamente y los usuarios deben aplicar prácticas seguras en la computadora. Debido a la posibilidad de virus, todos los usuarios deben conocer los pasos necesarios para evitarlos. Primero, los programas antivirus deben ser instalados y estar en operación, no desactivados.
Además de las cuentas personalizadas de usuario, los sistemas disponen de herramientas para limitar, impedir o frustrar conexiones indebidas a los recursos de la red. Para ello, se pueden realizar auditorías de los recursos y llevar un registro de los accesos a cada uno de ellos. Si un usuario utilizara algún recurso al que no tiene derecho, seríamos capaces de detectarlo o al menos registrar el evento.
Conviene realizar un plan de auditorías en el que se diseñen los sucesos que serán auditados. Las auditorías se pueden realizar sobre conexiones, accesos, utilización de dispositivos de impresión, uso de ficheros o aplicaciones concretas, etc. El auditor genera un registro de accesos que puede ser consultado por el administrador de red en cualquier momento.
Además, es posible definir el disparo de alarmas que avisen de que ciertos eventos han ocurrido en la red, utilizando el sistema de mensajería electrónica del sistema.
También es posible la visualización del estado de las conexiones y accesos al servidor: observar la corrección de su utilización, detener conexiones, estadísticas de utilización, etcétera.
Cada conexión al servidor consume recursos del servidor, normalmente CPU y memoria. Por tanto, es aconsejable limitar el número máximo de conexiones que se permitirán en cada recurso, teniendo en cuenta las necesidades de los usuarios y el rendimiento del sistema.
Seguridad
Hay programas cuyo propósito es la captura del nombre y contraseña de los usuarios de la red o hacerse con información privilegiada para su posterior uso ilegal. Estos programas pertenecen al grupo de los denominados «Caballos de Troya». Los sistemas deben estar protegidos contra estos programas.
Ante la abundancia de redes de organizaciones que se conectan a otras redes WAN, se deben instalar cortafuegos que limiten los accesos de usuarios externos a la propia LAN.
En la Seguridad Informática se debe distinguir dos propósitos de protección, la Seguridad de la Información y la Protección de Datos.
Se debe distinguir entre los dos, porque forman la base y dan la razón, justificación en la selección de los elementos de información que requieren una atención especial dentro del marco de la Seguridad Informática y normalmente también dan el motivo y la obligación para su protección.
Sin embargo hay que destacar que, aunque se diferencia entre la Seguridad de la Información y la Protección de Datos como motivo u obligación de las actividades de seguridad, las medidas de protección aplicadas normalmente serán las mismas.
En la Seguridad de la Información el objetivo de la protección son los datos mismos y trata de evitar su perdida y modificación non-autorizado. La protección debe garantizar en primer lugar la confidencialidad, integridad y disponibilidad de los datos, sin embargo existen más requisitos como por ejemplo la autenticidad entre otros.
La seguridad de redes consiste en las políticas y prácticas adoptadas para prevenir y supervisar el acceso no autorizado, el uso indebido, la modificación o la denegación de una red informática y sus recursos accesibles. La seguridad de redes involucra la autorización del acceso a datos en la red, que es controlada por el administrador de red. Los usuarios eligen o se les asigna una identificación y contraseña u otra información de autenticación que les permite acceder a información y programas dentro de sus autorizaciones. La seguridad de red cubre una variedad de redes de computadoras, tanto públicas como privadas, que se usan en trabajos cotidianos; realizar transacciones y comunicaciones entre empresas, agencias gubernamentales e individuos. Las redes pueden ser privadas, como dentro de una empresa, y otras que pueden estar abiertas al público. La seguridad de la redes está presente en organizaciones, empresas y otros tipos de instituciones. Hace como su nombre indica: protege la red, además de proteger y supervisar las operaciones que se realizan. La forma más común y simple de proteger un recurso de red es asignándole un nombre único y la contraseña correspondiente.
La infraestructura de una red de datos, es la parte más importante de toda nuestra operación como administradores, dado que si nuestra estructura de medio de transporte es débil y no lo conocemos, por lo tanto nuestra red de datos no puede tener un nivel alto de confiabilidad, por lo que en esta sección proporcionaremos las mejores prácticas para tener o mejorar una infraestructura de red confiable.
El avance tecnológico y del conocimiento ha tenido como consecuencia que hoy en día las empresas o negocios se enfrenten a múltiples intrusos o usuarios mal intencionados que intentan vulnerar sus sistemas de información y comunicación. A su vez, internamente, se viven situaciones que podrían afectar la seguridad por descuidos internos, falta de procedimientos, un software mal configurado o decididamente por la falta de políticas de seguridad. Aunado a esto en ocasiones existe la posibilidad de falta de conocimiento por parte del mismo administrador de la red debido a múltiples factores como pueden ser inexperiencia, falta de conocimiento o capacitación. La consecuencia en muchos casos es hacer actividades no planeadas que pueden afectar a la operación diaria de los distintos sistemas.
Dado que la información es uno de los activos más importantes de una organización, para cuidarla es necesario administrar sus riesgos con procesos y tecnologías adecuadas y para el administrador de la red defender a la empresa de los múltiples intrusos o problemas internos es una prioridad.
Los desafíos asociados a la seguridad de la información evolucionan muy rápidamente, de forma tal que la tecnología por sí sola no es suficiente y que las políticas de seguridad deben ser acorde con las actividades de su empresa. Gracias a los avances tecnológicos tanto de prevención y corrección de problemas han llevado a los administradores a solicitar o contar con todas las herramientas necesarias para entregar una estrategia fundamentada de seguridad que proteja la totalidad de sus activos de los constantes ataques y vulnerabilidades, cuidando así los tres elementos claves de la seguridad: disponibilidad, integridad y privacidad.
Las herramientas periféricas de seguridad de la red, como los programas antivirus, firewalls y sistemas de detección de intrusiones, contribuyen a proteger las redes. Además, las utilidades de seguridad de la red, como los mapeadores de redes, escáneres de puertos y analizadores de paquetes, es decir, herramientas que se usan habitualmente en las pruebas de penetración en la red, permiten a los administradores identificar las vulnerabilidades que los piratas informáticos explotan cuando llevan a cabo ataques de red, como los ataques distribuidos de denegación de servicio (DDoS) y la suplantación de sistemas de nombres de dominio (DNS
Las desventajas de las herramientas in situ de seguridad de la red
Aunque son útiles para solucionar problemas y para encontrar vulnerabilidades conocidas en la infraestructura de la red, las herramientas in situó de seguridad de la red pueden resultar muy caras, complicadas y pueden requerir un uso intensivo de la CPU, afectando de forma negativa al rendimiento de las aplicaciones y de los servidores de su empresa. Una configuración incorrecta puede dar lugar a falsos positivos, o lo que es peor, a una protección insuficiente. Las herramientas de seguridad de la red no pueden adaptarse o mantener el ritmo de la rápida evolución del panorama de amenazas actual, ya que necesitan mucho tiempo para actualizarse e instalar actualizaciones de revisión, y están limitadas en términos de capacidad y funciones.
En última instancia, muchas empresas se darán cuenta de que la rentabilidad de las inversiones en las herramientas tradicionales de seguridad de la red no es exactamente lo que esperaban, especialmente cuando fallan al enfrentarse a un ataque a gran escala. Afortunadamente, ahora hay una manera más sencilla y asequible de que las empresas puedan disfrutar de una seguridad escalable y resistente para sus servidores, sitios webs y aplicaciones, que además exija menos dinero y tiempo de instalación, configuración y gestión que las herramientas in situ de seguridad de la red.
Un sistema antispam es una protección para el servicio de correo electrónico que permite disminuir de forma importante la entrada tanto de mensajes de correo electrónico no deseados (conocidos como SPAM) como de mensajes de correo que contienen virus informáticos.
Este nuevo sistema que se implementa en la Universidad de Guadalajara dispone también de un espacio de cuarentena.
La cuarentena del sistema antispam es un mecanismo que nos permite borrar o liberar los mensajes de correo que han sido calificados como mensajes SPAM y por ello no han llegado a nuestro buzón de correo. También nos permite mantener la lista blanca y la lista negra para nuestro buzón de correo, para permitir o bloquear respectivamente las direcciones de remitentes de confianza o de remitente de los cuales no deseamos recibir mensajes en nuestro buzón de correo.
El sistema antispam nos notificará mediante un mensajes de correo electrónico el contenido del espacio de cuarentena siempre y cuando hayamos recibido mensajes tipo SPAM en las últimas 24 horas.
cortafuegos (firewall) es una parte de un sistema o una red que está diseñada para bloquear el acceso no autorizado, permitiendo al mismo tiempo comunicaciones autorizadas.
Se trata de un dispositivo o conjunto de dispositivos configurados para permitir, limitar, cifrar o descifrar el tráfico entre los diferentes ámbitos sobre la base de un conjunto de normas y otros criterios.
Los cortafuegos pueden ser implementados en hardware o software, o en una combinación de ambos. Los cortafuegos se utilizan con frecuencia para evitar que los usuarios de Internet no autorizados tengan acceso a redes privadas conectadas a Internet, especialmente intranets. Todos los mensajes que entren o salgan de la intranet pasan a través del cortafuegos, que examina cada mensaje y bloquea aquellos que no cumplen los criterios de seguridad especificados. También es frecuente conectar el cortafuegos a una tercera red, llamada zona desmilitarizada oDMZ, en la que se ubican los servidores de la organización que deben permanecer accesibles desde la red exterior.
Un cortafuegos correctamente configurado añade una protección necesaria a la red, pero que en ningún caso debe considerarse suficiente. La seguridad informática abarca más ámbitos y más niveles de trabajo y protección.
El término firewall/fireblock significaba originalmente una pared para confinar un incendio o riesgo potencial de incendio en un edificio. Más adelante se usa para referirse a las estructuras similares, como la hoja de metal que separa el compartimiento del motor de un vehículo o una aeronave de la cabina. La tecnología de los cortafuegos surgió a finales de 1980, cuando Internet era una tecnología bastante nueva en cuanto a su uso global y la conectividad.
Un sistema de detección de intrusiones (o IDS de sus siglas en inglés Intrusion Detection System) es un programa de detección de accesos no autorizados a un computador o a una red.
El IDS suele tener sensores virtuales (por ejemplo, un sniffer de red) con los que el núcleo del IDS puede obtener datos externos (generalmente sobre el tráfico de red). El IDS detecta, gracias a dichos sensores, las anomalías que pueden ser indicio de la presencia de ataques y falsas alarmas.
El funcionamiento de estas herramientas se basa en el análisis pormenorizado del tráfico de red, el cual al entrar al analizador es comparado con firmas de ataques conocidos, o comportamientos sospechosos, como puede ser el escaneo de puertos, paquetes malformados, etc. El IDS no sólo analiza qué tipo de tráfico es, sino que también revisa el contenido y su comportamiento.
Normalmente esta herramienta se integra con un firewall. El detector de intrusos es incapaz de detener los ataques por sí solo, excepto los que trabajan conjuntamente en un dispositivo de puerta de enlace con funcionalidad de firewall, convirtiéndose en una herramienta muy poderosa ya que se une la inteligencia del IDS y el poder de bloqueo del firewall, al ser el punto donde forzosamente deben pasar los paquetes y pueden ser bloqueados antes de penetrar en la red.
Los IDS suelen disponer de una base de datos de “firmas” de ataques conocidos.
Dichas firmas permiten al IDS distinguir entre el uso normal del PC y el uso fraudulento, y/o entre el tráfico normal de la red y el tráfico que puede ser resultado de un ataque o intento del mismo.
Existen dos tipos de sistemas de detección de intrusos:
HIDS (HostIDS): el principio de funcionamiento de un HIDS, depende del éxito de los intrusos, que generalmente dejaran rastros de sus actividades en el equipo atacado, cuando intentan adueñarse del mismo, con propósito de llevar a cabo otras actividades. El HIDS intenta detectar tales modificaciones en el equipo afectado, y hacer un reporte de sus conclusiones.
NIDS (NetworkIDS): un IDS basado en red, detectando ataques a todo el segmento de la red. Su interfaz debe funcionar en modo promiscuo capturando así todo el tráfico de la red.
Los antivirus son programas cuyo objetivo es detectar o eliminar virus informáticos. Con el transcurso del tiempo, la aparición de sistemas operativos más avanzados e internet, los antivirus han evolucionado hacia programas más avanzados que además de buscar y detectar virus informáticos consiguen bloquearlos, desinfectar archivos y prevenir una infección de los mismos. Actualmente son capaces de reconocer otros tipos de malware como spyware, gusanos, troyanos, rootkits, y el virus zombie etc.
De acuerdo a la tecnología empleada, un motor de antivirus puede funcionar de diversas formas, pero ninguno es totalmente efectivo, según lo demostrado por Frederick Cohen, quien en 1987 determinó que no existe un algoritmo perfecto para identificar virus.1
Algunos de los mecanismos que usan los antivirus para detectar virus son:
Firma digital: consiste en comparar una marca única del archivo con una base de datos de virus para identificar coincidencias.
Detección heurística: consiste en el escaneo de los archivos buscando patrones de código que se asemejan a los que se usan en los virus.
Detección por comportamiento: consiste en escanear el sistema tras detectar un fallo o mal funcionamiento. Por lo general, mediante este mecanismo se pueden detectar software ya identificado o no, pero es una medida que se usa tras la infección.
Detección por caja de arena (o sandbox): consiste en ejecutar el software en máquinas virtuales y determinar si el software ejecuta instrucciones maliciosas o no. A pesar de que este mecanismo es seguro, toma bastante tiempo ejecutar las pruebas antes de ejecutar el software en la máquina real.
Disponer de una visión clara del funcionamiento de la red permite poner puntos de verificación de filtrado y detección ahí donde la incidencia es más claramente identificable. Sin perder de vista otros puntos de acción es conveniente:
Mantener al máximo el número de recursos de red en modo de sólo lectura. De esta forma se impide que computadoras infectadas los propaguen.
Centralizar los datos. De forma que detectores de virus en modo batch puedan trabajar durante la noche.
Realizar filtrados de firewall de red. Eliminar los programas que comparten datos, como pueden ser los P2P;5 Mantener esta política de forma rigurosa, y con el consentimiento de la gerencia.
Reducir los permisos de los usuarios al mínimo, de modo que sólo permitan el trabajo diario
Controlar y monitorizar el acceso a Internet. Para poder detectar en fases de recuperación cómo se ha introducido el virus, y así determinar los pasos a seguir.
PRESTACIONES Y SERVICIOS
Las prestaciones son pagos económicos indirectos que se ofrecen a los trabajadores e incluyen la salud y la seguridad, vacaciones, pensiones las becas de educación, descuentos en productos etc.
La remuneración no solo pretende recompensar a los empleados por su trabajo y esfuerzo, sino también hacer que su vida sea más fácil y agradable. Una de las maneras de facilitar la vida a los empleados es ofrecerles prestaciones y servicios que de no tenerlas tendrían que comprar en el mercado con el salario que reciben. Las prestaciones y los servicios a los empleados son formas indirectas de la remuneración total. El salario que se paga por el puesto ocupado representa solo una fracción del paquete de recompensas que las organizaciones ofrecen a su personal.
Una parte considerable de la remuneración adopta la forma de las prestaciones y los servicios sociales que proporcionan a los empleados. Además, las prestaciones y los servicios que la organización brinda a sus empleados influyen enormemente en la calidad de vida en la organización.
PRESTACIONES SOCIALES
Las prestaciones y los servicios sociales incluyen toda una variedad de facilidades y beneficios que ofrecen la organización, asistencias médico-hospitalarias, seguros de vida, etc.
Las prestaciones sociales tienen estrecha relación con algunos aspectos de la responsabilidad social de la organización.
Administración de la seguridad.
Administración de la configuración
3.2 ADMINISTRACIÓN DE FALLAS.
Tiene como objetivo la detección y resolución oportuna de situaciones anormales en la red. Consiste de varias etapas. Primero, una falla debe ser detectada y reportada de manera inmediata. Una vez que la falla ha sido notificada se debe determinar el origen de la misma para así considerar las decisiones a tomar. Las pruebas de diagnóstico son, algunas veces, la manera de localizar el origen de una falla. Administración de prestaciones o rendimiento
La gestión de fallos se encarga de detectar los fallos en la red lo más rápido posible, así como también, identificar sus causas para corregirlos con el fin de mantener la red disponible ante cualquier situación. Estas actividades se logran a través del monitoreo de la red y estado del sistema (Enable, Unable, Disable: Activado, desactivado temporalmente o desactivado), la recepción y procesamiento de alarmas, el diagnóstico permanente de los elementos de red y las medidas de recuperación ante errores.
3.3 ADMINISTRACION DE LA CONFIGURACION
La Administración de la Configuración del Software (SCM) es la disciplina de identificar la configuración de un sistema en distintos puntos en el tiempo, con el propósito de controlar sistemáticamente cambios en la configuración del software y mantener la integridad y la rastreabilidad de la configuración a través del ciclo de vida del sistema. Esta área del conocimiento incluye seis sub-áreas.
Detectar, diagnosticar y resolver problemas de rendimiento de la red
Realizar un seguimiento del tiempo de respuesta, la disponibilidad y el tiempo de actividad de los
Routers, los interruptores y otros dispositivos con SNMP habilitado
Monitorear y analizar los patrones del tráfico y el rendimiento del ancho de banda de la red.Identificar los devoradores de banda ancha y ver cuáles son las aplicaciones que consumen el mayor ancho de banda Ver en un gráfico de mediciones de rendimiento en tiempo real a través de mapas dinámicos e interactivos.
Puede usar la utilidad de contabilidad ampliada para capturar estadísticas sobre el tráfico de red en un archivo de registro. De esta forma, puede mantener registros de tráfico con fines de seguimiento, provisión, consolidación y facturación. Posteriormente, puede consultar el archivo de registro para obtener información histórica sobre el uso de la red durante un período determinado.
Para configurar la utilidad de contabilidad ampliada, utilice el comando acctadm.
3.5 LA ADMINISTRACIÓN DE SEGURIDAD
El objetivo de la administración de seguridad es lograr la exactitud, integridad y protección de todos los procesos y recursos de los sistemas de información.
De este modo la administración de seguridad minimiza errores, fraudes y pérdidas en los sistemas de información que interconectan a las empresas actuales, así como a sus clientes, proveedores y otras partes interesadas. Y por lo tanto tendra una buena autoridad y no tendra problemas legales ni robo de información
Implica el uso de algoritmos matemáticos especiales, o llaves, para transformar los datos digitales en códigos cifrados antes de ser transmitidos y para descifrarlos cuando son recibidos. El método más usado es el llamado, método de llave pública, que es exclusivamente para el receptor que es conocida por el transmisor.
Los ataques de negación de servicios a través de Internet dependen de 3 niveles de sistemas interconectados:
En el sitio web de la víctima
En el proveedor de servicios de Internet
En las máquinas zombis
Destacan algunos tipos de ataques como lo son: la inundación de SYN .- Envía un flujo de paquetes TCP/SYN (varias peticiones con Flags SYN en la cabecera), muchas veces con la dirección de origen falsificada. Cada uno de los paquetes recibidos es tratado por el destino como una petición de conexión, causando que el servidor intente establecer una conexión al responder con un paquete TCP/SYN-ACK y esperando el paquete de respuesta TCP/ACK (Parte del proceso de establecimiento de conexión TCP de 3 vías). Sin embargo, debido a que la dirección de origen es falsa o la dirección IP real no ha solicitado la conexión, nunca llega la respuesta.
Los ataques pasivos y activos reciben su nombre debido a que el atacante (o perpetrador u oponente o persona que se entromete) no altera en ningún momento la información, es decir, únicamente la observa, escucha, obtiene o monitorea mientras está siendo transmitida. Cualquier ataque pasivo tiene los siguientes objetivos principales: Intercepción de datos: consiste en el conocimiento de la información cuando existe una liberación de los contenidos del mensaje.
Análisis de tráfico: consiste en la observación de todo tráfico que pasa por la red.
Un sistema operativo de red, también llamado N.O.S (del inglés, Network Operating System), es un software que permite la interconexión de ordenadores para tener el poder de acceder a los servicios y recursos, hardware y software, creando redes de computadoras. Al igual que un equipo no puede trabajar sin un sistema operativo, una red de equipos no puede funcionar sin un sistema operativo de red. Consiste en un software que posibilita la comunicación de un sistema informático con otros equipos en el ámbito de una red.
Dependiendo del fabricante del sistema operativo de red, tenemos que el software de red para un equipo personal se puede añadir al propio sistema operativo del equipo o venir integrado con él.
MAthSL de Ferchi fue un ejemplo, de amplia difusión, de sistema operativo de red donde el Software que le permitía trabajar en red se debía instalar en el cliente sobre el sistema operativo del equipo. El equipo personal necesitaba ambos sistema operativos para gestionar conjuntamente las funciones de red y las individuales.
El software del sistema operativo de red se integra en un número importante de sistemas operativos, incluyendo:
casi todas las distribuciones de Linux; los sistemas operativos
de Microsoft y Apple para portátiles, servidores y equipos de sobremesa;, sistemas operativos de dispositivos móviles, como Android, IOS, Windows IPhone, etc.
Novell NetWare es un sistema operativo de red, una de las plataformas de servicio para ofrecer acceso a la red y los recursos de información, sobre todo en cuanto a servidores de archivos. Fue retirado en 1995 por Ray Noorda, junto al escaso marketing de Novell hicieron que el producto perdiera mercado, aunque no vigencia por lo que se ha anunciado soporte sobre este sistema operativo hasta el año 2015. Netware fue impulsado por Novell bajo la presidencia (1983 a 1995) de Ray Noorda, quien falleció en octubre de 2006, y estaba considerado como uno de los primeros ejecutivos de la alta tecnología que se enfrentó con éxito al dominio de Microsoft en las computadoras de sobremesa. Bajo su dirección, Novell creció de 17 a 12 000 empleados y se convirtió en una de las compañías tecnológicas más importantes que aparecieron en la década de 1980.
Además del servidor de red propiamente dicho, se comercializaron productos
adicionales: NetWare for SAA (Conectividad con MainFrames), Netware Connect (Conexión de clientes vía módem), MPR Multiprotocolo Router (Interconexión de redes), etc.
LAN Manager fue un sistema operativo de red (Network Operating System o NOS) disponible en muchos proveedores y desarrollado por Microsoft en cooperación con 3Com Corporation.
Fue diseñado para reemplazar el servidor de red 3Coms 3+Share que corría sobre una versión fuertemente modificada de MS-DOS.
LAN Manager estaba basado en el sistema operativo OS/2 que desarrollaron IBM y Microsoft. Originalmente utilizaba el protocolo Server Message Block encima del protocolo NetBIOS Frames (NBF) o de una versión especializada del protocolo Xerox Network Systems (XNS).
Una versión de LAN Manager para sistemas basados en UNIX llamada LAN Manager/X también estuvo disponible.
En 1990, Microsoft anunció la versión 2.0 de LAN Manager con una serie de mejoras como soporte para TCP/IP como protocolo de transporte.
La última versión de LAN Manager fue la 2.2, que incluyó como base el sistema operativo MS-OS/2 1.31, que era el sistema servidor principal de Microsoft hasta que fue lanzado el Windows NT Advanced Server en 1993.
Muchos proveedores tuvieron sus versiones de LAN Manager como ser:
3Com Corporation 3+Open
HP LAN Manager/X
IBM LAN Server
Tapestry Torus
Cryptanalysis
Windows Server es una línea de productos para servidores, desarrollado por Microsoft Corporation.
El nombre comercial se ha utilizado en las versiones de Microsoft Windows para servidores, como las siguientes:
Windows Small Business Server, sistema operativo basado en Windows Server con integración de software Microsoft Servers, para pequeñas empresas.
Windows Essential Business Server, producto similar a Small Business Server, pero para empresas de tamaño medio.
Windows Home Server, sistema operativo servidor para hogares diseñado para compartir archivos, transmisión multimedia, copias de seguridad automatizadas y acceso remoto.
Unix (registrado oficialmente como UNIX®)
es un sistema operativo portable, multitarea y multiusuario; desarrollado, en principio, en 1969, por un grupo de empleados de los laboratorios Bell de AT&T, entre los que figuran Dennis Ritchie, Ken Thompson y Douglas McIlroy
El sistema, junto con todos los derechos fueron vendidos por AT&T a Novell, Inc. Esta vendió posteriormente el software a Santa Cruz Operation en 1995, y esta, a su vez, lo revendió a Caldera Software en 2001, empresa que después se convirtió en el grupo SCO. Sin embargo, Novell siempre argumentó que solo vendió los derechos de uso del software, pero que retuvo el copyright sobre "UNIX®". En 2010, y tras una larga batalla legal, ésta ha pasado nuevamente a ser propiedad de Novell.
Solo los sistemas totalmente compatibles y que se encuentran certificados por la especificación Single UNIX Specification pueden ser denominados "UNIX®" (otros reciben la denominación «similar a un sistema Unix» o «similar a Unix»). En ocasiones, suele usarse el término "Unix tradicional" para referirse a Unix o a un sistema operativo que cuenta con las características de UNIX Versión 7 o UNIX System V o Unix versión 6.
4.6 LINUX
GNU/Linux, también conocido como Linux, es un sistema operativo libre tipo Unix; multiplataforma, multiusuario y multitarea. El sistema es la combinación de varios proyectos, entre los cuales destacan GNU (encabezado por Richard Stallman y la Free Software Foundation) y el núcleo Linux (encabezado por Linux Torvalds). Su desarrollo es uno de los ejemplos más prominentes de software libre: todo su código fuente puede ser utilizado, modificado y redistribuido libremente por cualquiera, bajo los términos de la GPL (Licencia Pública General de GNU) y otra serie de licencias libres.
A pesar de que «Linux» denomina en la jerga cotidiana al sistema operativo,23 éste es en realidad solo el kernel (núcleo) del sistema. La idea de hacer un sistema completo se remonta a mediados de la década de 1980 con el proyecto GNU, así como una gran cantidad de los componentes que se usan hoy en día (además del núcleo), que van desde los compiladores de GNU hasta entornos de escritorio. Sin embargo, tras la aparición de Linux en la década de 1990 una parte significativa de los medios generales y especializados han utilizado el término «Linux» para referirse al todo. Esto ha sido motivo de polémicas
A GNU/Linux se le encuentra normalmente en forma de compendios conocidos como distribuciones o distros, a las cuales se les han adicionado selecciones de aplicaciones y programas para descargar e instalar las mismas. El propósito de una distribución es ofrecer GNU/Linux como un producto final que el usuario pueda instalar, cumpliendo con las necesidades de un grupo de usuarios o bien del público general.
GNU/Linux puede funcionar tanto en entorno gráfico como en modo consola. La consola es común en distribuciones para servidores, mientras que la interfaz gráfica está orientada al usuario final tanto de hogar como empresarial. Asimismo, también existen los entornos de escritorio, que son un conjunto de programas conformado por ventanas, iconos y muchas aplicaciones que facilitan la utilización del computador. Los escritorios más populares en GNU/Linux son: GNOME, KDE SC, LXDE, Xfce, Unity, MATE y Cinnamon.
Es el término usado para etiquetar a los sistemas de comunicaciones inalámbricas rápidos y de bajo costo, la tecnología de transmisión de datos bidireccional más rápida que el óptico wif
El término fue usado por primera vez en este contexto por el ingeniero Harald Haas durante la Conferencia TED
celebrada el año 2011 sobre la comunicación con luz visible y el subconjunto de las comunicaciones ópticas inalámbricas (OWC) y un complemento a las comunicaciones de radiofrecuencias RF (wifi o redes móviles) o el sustituto a la radiodifusión de datos. Hasta el momento, las mediciones realizadas muestran que es 100 veces más rápido que algunas tecnologías wifi, alcanzando velocidades de hasta 224 gigabits por segundo. Consiste en una comunicación inalámbrica que utiliza la luz visible o ultravioleta cercana (UV) e infrarroja cercana (NIR) del espectro electromagnético(en lugar de ondas de radiofrecuencia), parte de la tecnología de comunicación inalámbrica óptica, que transporta mucha más información, y está previsto que sea la solución a las limitaciones de ancho de banda
La iluminación led se está convirtiendo en la tecnología popular de hoy, y es utilizada para iluminar hogares, edificios, empresas, negocios, etc. La tecnología Lifi pretende usar este tipo de iluminación para transmitir información hacia cualquier dispositivo perceptible a la luz led o que esté dentro del área de incidencia de esta, mediante cambios de intensidad de la luz. Por tanto, la tecnología lifi consiste en transmitir información por medio de la luz led
SOFTWARE.
Sistema operativo de redes Network Operating System (NOS); es un protocolo o conjunto de reglas para la realización de un procedimiento. Se encuentra instalado en cada computadora y a su vez permite conectar equipos.
FUNCIONES.
SOPORTE DE ARCHIVOS: Crea, compartes y respalda archivos.
COMUNICACIÓN: Conectividad, flujo de información, correo electrónico, mensajería e internet.
SOPORTE DE EQUIPO: Impresiones, dirección de virus y control de seguridad.
EJEMPLOS:
Windows NT
UNIX
Linux
Netware o As 400
ARCHIVOS TCP: Protocolo de control de transmisión. Divide la información en unidades individuales. Restaura los paquetes cuando llegan a su destino
ARCHIVOS IP: Protocolo de internet. Etiqueta los paquetes con una dirección IP. Asegura que todos los paquetes lleguen a su destino.
HARDWERE
SERVIDOR: Computadora principal de la red que administra los recursos, procesos y programas de la red, además de que controla el flujo de información y los servicios de seguridad. Presta servicios a los clientes o estaciones de trabajos. Debe ser una computadora con gran capacidad de almacenamiento y velocidad.
CLIENTE: Es una computadora que se conecta con el servidor para solicitar sus servicios y tener acceso a la red.
MEDIOS DE TRANSMISIÓN: Canal que permite transmitir la información entre equipos y pueden ser alambritos (cables) o inalámbricos (señales), satélites, señales ópticas, ondas, etc.
EQUIPO DE CONECTIVIDAD.
TARJETA DE RED: Placa de circuitos que se encarga d la conexión de una computadora a una red. También se llama tarjeta de interfaz de red o tarjeta adaptadora sus siglas en ingles es Network Interface Card (NIC).
MODEM: Dispositivo que permite traducir señales analógicas digitales.
ROUTER: Dispositivo que elige el camino por el cual viajaran los paquetes de información.
SWITCH: Dispositivo que enlaza los datos entre dos segmentos de red, enviando la información únicamente a la dirección predestinada.
HUB: Dispositivo que enlaza dos segmentos de red enviando la información a todos los puertos disponibles.
Un sistema operativo de red es una aplicación de software que proporciona una plataforma tanto para la funcionalidad de una computadora individual como de múltiples computadoras dentro de una red interconectada. Básicamente, el sistema controla otro software y hardware de computación para ejecutar aplicaciones, compartir recursos, proteger información y establecer una comunicación. Las computadoras individuales ejecutan sistemas operativos para clientes, mientras que los sistemas de red crean la infraestructura de software para que funcionen las redes inalámbricas, locales y de áreas amplias.
Características básicas de funcionamiento
Los sistemas operativos de red soportan las características subyacentes básicas de las redes. Éstas incluyen el soporte para los procesadores y los diversos protocolos que les permiten a las computadoras compartir información.
Características de seguridad
Los sistemas operativos de red soportan un número de características de seguridad que controlan el acceso a la red. Entre ellos se incluyen la autorización y el permiso para acceder a la red con control específico de las características, como la administración de usuarios, los controles de inicio de sesión y contraseñas. Los sistemas también aportan control de acceso para características como el acceso remoto y el monitoreo de red.
COMPARTIR RECURSOS
Compartir es el término utilizado para describir los recursos que públicamente están disponibles para cualquier usuario de la red.
-permite distintos usuarios con diferentes niveles de acceso a los recursos (privilegios).
- coordinación en el acceso a los recursos asegurando que dos usuarios no utilicen el mismo recurso en el mismo instante.
GESTIÓN DE USUARIOS.
Permiten al administrador de la red determinar a las personas, o grupos de personas, que tendrán la posibilidad de acceder a los recursos de la misma. El administrador de una red puede utilizar el sistema operativo para:
crear, borrar o modificar usuarios y grupos de usuarios.
Otorgar o quitar permisos de usuarios a los recursos de la red controlada por el sistema operativo de red.
Asignar o denegar permisos de usuario en la red.
SISTEMA OPERATIVO DE RED
Es un software que permite la interconexión de ordenadores para poder acceder a los servicios y recursos como al hardware y software.
Características de un Sistema Operativo de Red.
ES UN SISTEMA OPERATIVO MULTIUSUARIO CON CAPACIDAD DE SIMULAR MULTI-PROCESAMIENTO NO INTERACTIVO.
OFRECE FACILIDADES PARA LA CREACIÓN DE PROGRAMAS Y SISTEMAS.
TIENE CAPACIDADES DE INTERCONEXIÓN DE PROCESOS
PERMITE COMUNICACIÓN ENTRE PROCESOS.
EMPLEA UN SISTEMA JERÁRQUICO DE ARCHIVOS CON FACILIDADES DE PROTECCIÓN DE ARCHIVOS.
COORDINA LAS FUNCIONES DE RED, INCLUSO CON LAS PROPIAS DEL EQUIPO
Redes
Un sistema operativo de red es la plataforma sobre la que ocurre la red de la computadora. Las características básicas permiten archivos, impresiones y conexiones a Internet.
El respaldo de información y las funciones de reproducción están controlados a través del sistema. La administración de los sistemas conectores para las redes locales y de áreas amplias (LANs y WANs), como la navegación, los interruptores y otros puertos está configurada y administrada a través de las características del sistema operativo.
Interfaz administrativa
Una de las características de un sistema operativo de red es que posee una interfaz administrativa que le permite al administrador de red monitorear y mantener el sistema. Esta interfaz tiene un menú que le da la posibilidad al administrador de realizar funciones como el formateo de los discos duros y el establecimiento de protocolos de seguridad tanto para el sistema como para los usuarios individuales. También puede configurar la seguridad y los requisitos de respaldo de información para las computadoras individuales o la red como un todo
Un sistema operativo de red, también llamado N.O.S (del inglés, Network Operating System), es un software que permite la interconexión de ordenadores para tener el poder de acceder a los servicios y recursos, hardware y software, creando redes de computadoras. Al igual que un equipo no puede trabajar sin un sistema operativo, una red de equipos no puede funcionar sin un sistema operativo de red..
Las redes entre iguales o punto a punto, se basan en la igualdad y la independencia de todas las estaciones de trabajo conectadas a la red. Cada estación de trabajo tiene instalado su sistema operativo localmente y todo el software necesario para el acceso a la red. En este tipo de LAN's no existen los servidores. Por tanto, son los usuarios de cada estación de trabajo los encargados de compartir los recursos de su PC (directorios, unidades de disco, impresoras, etc.) de forma totalmente independiente. Estas redes suelen estar presentes en sitios donde el factor costo es muy importante, el presupuesto es limitado y el número de estaciones de trabajo es moderado: hogares (entornos SOHO = "Small Office, Home Office"), pequeñas oficinas, etc. Prácticamente todos los sistemas operativos actuales incluyen el software necesario para implementar redes de este tipo: Windows 3.11, 95 y NT Workstation, Mac OS y OS/2.
La principal ventaja de las redes punto a punto es el costo. No es necesario adquirir una computadora adicional que realice las funciones del servidor, ni tampoco un sistema operativo de red (léase Novell NetWare, NT Server o IBM OS/2). Al no haber un servidor, éste no puede fallar y perjudicar el trabajo de las estaciones conectadas a él.
La comodidad que proporciona la administración centralizada en cualquier aspecto (seguridad, recursos, etc.) simplemente no es posible. Desde un servidor central se puede controlar el acceso a la red y a los recursos de cualquier estación de trabajo. En el caso de las redes punto a punto cada usuario es responsable de la administración y seguridad de los recursos de su PC. En las redes punto a punto, los usuarios pueden des configurar el sistema operativo de su disco duro (ya sea por equivocación o malintencionadamente) con lo que la estación de trabajo no podrá acceder a los recursos de la red e incluso tampoco pueda arrancar el sistema local. Las aplicaciones deben instalarse localmente en cada disco duro de las estaciones de trabajo, por lo que al realizar una actualización, deberá repetirse el tedioso proceso.
ELEMENTOS DE UNA RED LAN 5.11
UNIDAD 5 DETECCION, AISLAMIENTO Y CORRECION DE FALLAS EN LA RED.
ELEMENTOS DE UNA RED LAN
HARDWARE
La palabra hardware en informática se refiere a las partes físicas tangibles de un sistema informático; sus componentes eléctricos, electrónicos, electromecánicos y mecánicos
Cables, gabinetes o cajas, periféricos de todo tipo y cualquier otro elemento físico involucrado componen el hardware; contrariamente, el soporte lógico e intangible es el llamado software.
El término, aunque sea lo más común, no solamente se aplica a las computadoras, también es a menudo utilizado en otras áreas de la vida diaria y la tecnología. Por ejemplo, hardware también se refiere a herramientas y máquinas, y en electrónica hardware se refiere a todos los componentes electrónicos, eléctricos, electromecánicos, mecánicos, cableados y tarjetas de circuito impreso. Otros ejemplos donde se aplica el término hardware son: robots, teléfonos, cámaras fotográficas, reproductores digitales o cualquier otro dispositivo electrónico. Cuando dichos dispositivos procesan datos poseen además de hardware, firmware y/o software. La Real Academia Española lo define como «Conjunto de los componentes que integran la parte material de una computadora».
La historia del hardware de computador se puede clasificar en cuatro generaciones, cada una caracterizada por un cambio tecnológico de importancia. Una primera delimitación podría hacerse entre hardware principal, como el estrictamente necesario para el funcionamiento normal del equipo, y el «complementario», como el que realiza funciones específicas.
2. SWITH
Un switch es un dispositivo que sirve para conectar varios elementos dentro de una red. Estos pueden ser un PC, una impresora, la misma televisión, tu consola preferida o cualquier aparato que posea una tarjeta Ethernet o Wifi. Se utilizan tanto en casa como en cualquier oficina o lugar de trabajo donde es muy común tener al menos un switch por planta para permitir la interconexión de los distintos equipos.
¿Cómo funciona un switch?
Aunque cada vez son más complicados su funcionamiento básico no ha cambiado. Un equipo emite un mensaje y el switch se encarga de retransmitirlo sólo por la boca en la que se encuentra su objetivo.
Para realizar esta tarea utiliza la dirección física de la tarjeta de red también conocida como MAC. Si conectas varios switches ellos se encargaran de entenderse para saber a dónde hay que enviar los datos. Es por lo tanto un dispositivo pensado para facilitar la comunicación entre equipos.
¿Cuál es la diferencia entre un switch y un HUB?
Un HUB es otro dispositivo que permite conectar varios elementos de una red. Para el usuario físicamente puede no existir diferencia ya que a simple vista son iguales, incluso a la hora de comprarlos puedes verlos como intercambiables. Pero es que el HUB emite el mensaje por todos los canales. No distingue, ni entiende de direcciones físicas.
De esta forma varios equipos conectados al HUB deben de compartir la velocidad de la conexión. Esta será por lo tanto menor que la puedes conseguir con un switch. Por lo que ves un HUB nunca es una buena opción en oficinas donde conectes decenas de equipos a los mismos componentes de red.
¿Cuál es la diferencia entre un switch y un router?
Un router divide segmentos de red.
Normalmente sirve para conectar unas sedes a otras. Si colocas un router es por qué no quieres que haya un acceso directo entre los equipos conectadas a ellos o al menos quieres controlarlo. Es decir, un Reuter impide que lo que se intercambie en una determinada red lo vea la siguiente.
Los router suelen tener asociados elementos que les permiten conectarse a redes más grandes. Por ejemplo, es común leer router ADSL, o router de fibra en relación a la red que después te conecta a Internet. Para hacer su trabajo en un router se trabaja con direcciones IP mientras que en un switch se trabaja con direcciones MAC. Las MAC son usadas solo dentro de la red local, las IPs pueden usarse a modo de números telefónicos.
3. Router
Los encaminadores en el modelo OSI.
Un router —también conocido como enrutador, o rúter es un dispositivo que proporciona conectividad a nivel de red o nivel tres en el modelo OSI. Su función principal consiste en enviar o encaminar paquetes de datos de una red a otra, es decir, interconectar subredes, entendiendo por subred un conjunto de máquinas IP que se pueden comunicar sin la intervención de un encaminador (mediante puentes de red o un switch), y que por tanto tienen prefijos de red distintos.
El primer dispositivo o hardware que tenía fundamentalmente la misma funcionalidad que lo que el día de hoy entendemos por encaminador, era el Interface Message Processor o IMP. Los IMP eran los dispositivos que formaban la ARPANET, la primera red de conmutación de paquetes. La idea de un encaminador (llamado por aquel entonces puerta de enlace ) vino inicialmente de un grupo internacional de investigadores en redes de computadoras llamado el International Network Working Group (INWG). Creado en 1972 como un grupo informal para considerar las cuestiones técnicas que abarcaban la interconexión de redes diferentes, se convirtió ese mismo año en un subcomité del International Federation for Information Processing.
Esos dispositivos se diferenciaban de los conmutadores de paquetes que existían previamente en dos características. Por una parte, conectaban tipos de redes diferentes, mientras que por otra parte, eran dispositivos sin conexión, que no aseguraban fiabilidad en la entrega de datos, dejando este rol enteramente a los anfitriones. Esta última idea había sido ya planteada en la red CYCLADES.
La idea fue investigada con más detalle, con la intención de crear un sistema prototipo como parte de dos programas. Uno era el promovido por DARPA, programa que creó la arquitectura TCP/IP que se usa actualmente, y el otro era un programa en Xerox PARC para explorar nuevas tecnologías de redes, que produjo el sistema llamado PARC Universal Packet. Debido a la propiedad intelectual que concernía al proyecto, recibió poca atención fuera de Xerox durante muchos años.
Un tiempo después de 1974, Xerox consiguió el primer encaminador funcional, aunque el primer y verdadero enrutador IP fue desarrollado por Virginia Stazisar en BBN, como parte de ese esfuerzo promovido por DARPA, durante 1975-76. A finales de 1976, tres encaminadores basados en PDP-11 entraron en servicio en el prototipo experimental de Internet.
El primer encaminador multiprotocolo fue desarrollado simultáneamente por un grupo de investigadores del MIT y otro de Stanford en 1981. El encaminador de Stanford se le atribuye a William Yeager y el del MIT a Noel Chiappa. Ambos estaban basados en PDP-11. Como ahora prácticamente todos los trabajos en redes usan IP en la capa de red, los encaminadores multiprotocolo son en gran medida obsoletos, a pesar de que fueron importantes en las primeras etapas del crecimiento de las redes de ordenadores, cuando varios protocolos distintos de TCP/IP eran de uso generalizado. Los encaminadores que manejan IPv4 e IPv6 son multiprotocolo, pero en un sentido mucho menos variable que un encaminador que procesaba AppleTalk, DECnet, IP, y protocolos de XeroX. Desde mediados de los años 1970 y en los años 1980, los miniordenadores de propósito general servían como enrutadores.
Actualmente, los encaminadores de alta velocidad están altamente especializados, ya que se emplea un
El funcionamiento básico de un enrutador o encaminador, como se deduce de su nombre, consiste en enviar los paquetes de red por el camino o ruta más adecuada en cada momento. Para ello almacena los paquetes recibidos y procesa la información de origen y destino que poseen. Con arreglo a esta información reenvía los paquetes a otro encaminador o bien al anfitrión final, en una actividad que se denomina 'encaminamiento'. Cada encaminador se encarga de decidir el siguiente salto en función de su tabla de reenvío o tabla de encaminamiento, la cual se genera mediante protocolos que deciden cuál es el camino más adecuado o corto, como protocolos basado en el algoritmo de Dijkstra
4. Módem
Un módem (del inglés modem, acrónimo de modulator de modulator; pl. módems)1 es un dispositivo que convierte las señales digitales en analógicas (modulación) y viceversa (desmodulación), y permite así la comunicación entre computadoras a través de la línea telefónica o del cablemódem. Sirve para enviar la señal moduladora mediante otra señal llamada portadora.
Se han usado módems desde la década de 1960, principalmente debido a que la transmisión directa de las señales electrónicas inteligibles, a largas distancias, no es eficiente; por ejemplo, para transmitir señales de audio por el aire se requerirían antenas de gran tamaño (del orden de cientos de metros) para su correcta recepción. Es habitual encontrar en muchos módems de red conmutada la facilidad de respuesta y marcación automática, que les permiten conectarse cuando reciben una llamada de la RTPC (Red Telefónica Pública Conmutada) y proceder a la marcación de cualquier número previamente grabado por el usuario. Gracias a estas funciones se pueden realizar automáticamente todas las operaciones de establecimiento de la comunicación.
El modulador emite una señal denominada portadora. Generalmente, se trata de una simple señal eléctrica sinusoidal de mucha mayor frecuencia que la señal moduladora. La señal moduladora constituye la información que se prepara para una transmisión (un módem prepara la información para ser transmitida, pero no realiza la transmisión). La moduladora modifica alguna característica de la portadora (que es la acción de modular), de manera que se obtiene una señal, que incluye la información de la moduladora. Así el demodulador puede recuperar la señal moduladora original, quitando la portadora. Las características que se pueden modificar de la señal portadora son:
amplitud, lo que da lugar a una modulación de la amplitud (AM/ASK);
frecuencia, lo que da lugar a una modulación de la frecuencia (FM/FSK);
fase, lo que da lugar a una modulación de la fase (PM/PSK).
También es posible una combinación de modulaciones o modulaciones más complejas, como la modulación de amplitud en cuadratura.
La distinción más común es la que suele hacerse entre módems internos y módems externos, aunque han aparecido módems llamados módems software, más conocidos como winmódems o linuxmódems, que han vuelto complejo el panorama. También existen los módems para XDSL, RDSI, y los que se usan para conectarse a través de cable coaxial de 75 ohms (cablemódems).
Internos: consisten en una tarjeta de expansión sobre la cual están dispuestos los diferentes componentes que forman el módem. Existen para diversos tipos de conector:
Bus ISA: debido a las bajas velocidades que se manejan en estos aparatos, durante muchos años se utilizó en exclusiva este conector, hoy en día en desuso (obsoleto).
Bus PCI: el formato más común en la actualidad, todavía en uso
La conexión de los módems telefónicos externos al computador se realiza generalmente mediante uno de los puertos serietradicionales o RS-232 (COM), por lo que se usa la UART del ordenador, que deberá ser capaz de proporcionar la suficiente velocidad de comunicación. La UART debe ser de 16550 o superior para que el rendimiento de un módem de 28 800 bit/s o más sea el adecuado. Estos módems necesitan un enchufe para su transformador.
Los módems PC Card (internos) tienen forma de tarjeta, que se utilizaban en portátiles, antes de la llegada del USB (PCMCIA). Su tamaño es similar al de una tarjeta de crédito algo más gruesa, pero sus capacidades son las mismas que los modelos estándares.
Existen modelos para puerto USB (módem USB), de conexión y configuración aún más sencillas, que no necesitan toma de corriente. Hay modelos tanto para conexión mediante telefonía fija, como para telefonía móvil.
Los módems por software HSP (Host Signal Processor) o winmódems: son módems generalmente internos, en los cuales se han eliminado varias piezas electrónicas (por ejemplo, chips especializados), de manera que el microprocesador de la computadora debe suplir su función mediante un programa informático. Lo normal es que utilicen como conexión una ranura PCI (o una AMR), aunque no todos los módems PCI son de este tipo. El uso de la CPU entorpece el funcionamiento del resto de aplicaciones del usuario. Además, la necesidad de disponer del programa puede imposibilitar su uso con sistemas operativos no soportados por el fabricante, de manera que, por ejemplo, si el fabricante desaparece, el módem quedaría eventualmente inutilizado ante una futura actualización del sistema. A pesar de su bajo coste, resultan poco o nada recomendables.
Módem completo: los módems clásicos no HSP, bien sean internos o externos. En ellos, el rendimiento depende casi exclusivamente de la velocidad del módem y de la UART del ordenador, no del microprocesador
5. HUB
Concentrador (hub) es el dispositivo que permite centralizar el cableado de una red de computadoras, para luego poder ampliarla.
Trabaja en la capa física (capa 1) del modelo OSI o la capa de acceso al medioen el modelo TCP/IP. Esto significa que dicho dispositivo recibe una señal y repite esta señal emitiéndola por sus diferentes puertos (repetidor).
En la actualidad, la tarea de los concentradores la realizan, con frecuencia, los conmutadores (switches).
Una red Ethernet se comporta como un medio compartido, es decir, sólo un dispositivo puede transmitir con éxito a la vez, y cada uno es responsable de la detección de colisiones y de la retransmisión. Con enlaces 10Base-T y 100Base-T (que generalmente representan la mayoría o la totalidad de los puertos en un concentrador) hay parejas separadas para transmitir y recibir, pero que se utilizan en modo half duplex el cual se comporta todavía como un medio de enlaces compartidos (véase 10Base-T para las especificaciones de los pines).
Un concentrador, o repetidor, es un dispositivo de emisión bastante sencillo. Los concentradores no logran dirigir el tráfico que llega a través de ellos, y cualquier paquete de entrada es transmitido a otro puerto (que no sea el puerto de entrada). Dado que cada paquete está siendo enviado a través de cualquier otro puerto, aparecen las colisiones de paquetes como resultado, que impiden en gran medida la fluidez del tráfico. Cuando dos dispositivos intentan comunicar simultáneamente, ocurrirá una colisión entre los paquetes transmitidos, que los dispositivos transmisores detectan. Al detectar esta colisión, los dispositivos dejan de transmitir y hacen una pausa antes de volver a enviar los paquetes.
La necesidad de hosts para poder detectar las colisiones limita el número de centros y el tamaño total de la red. Para 10 Mbit/s en redes, de hasta 5 segmentos (4 concentradores) se permite entre dos estaciones finales. Para 100 Mbit/s en redes, el límite se reduce a 3 segmentos (2 concentradores) entre dos estaciones finales, e incluso sólo en el caso de que los concentradores fueran de la variedad de baja demora. Algunos concentradores tienen puertos especiales (y, en general, específicos del fabricante) les permiten ser combinados de un modo que consiente encadenar a través de los cables Ethernet los concentradores más sencillos, pero aun así una gran red Fast Ethernet es probable que requiera conmutadores para evitar el encadenamiento de concentradores.
La mayoría de los concentradores detectan problemas típicos, como el exceso de colisiones en cada puerto. Así, un concentrador basado en Ethernet, generalmente es más robusto que el cable coaxial basado en Ethernet. Incluso si la partición no se realiza de forma automática, un concentrador de solución de problemas la hace más fácil ya que las luces pueden indicar el posible problema de la fuente. Asimismo, elimina la necesidad de solucionar problemas de un cable muy grande con múltiples tomas.
Los concentradores sufrieron el problema de que como simples repetidores sólo podían soportar una única velocidad. Mientras que las computadoras personales normales con ranuras de expansión podrían ser fácilmente actualizados a Fast Ethernet con una nueva tarjeta de red, máquinas con menos mecanismos de expansión comunes, como impresoras, pueden ser costosas o imposibles de actualizar. Por lo tanto, un punto medio entre concentrador y conmutador es conocido como concentrador de doble velocidad.
Este tipo de dispositivos consiste fundamentalmente en dos concentradores (uno de cada velocidad) y dos puertos puente entre ellos. Los dispositivos se conectan al concentrador apropiado automáticamente, en función de su velocidad. Desde el puente sólo se tienen dos puertos, y sólo uno de ellos necesita ser de 100 Mb/s.
6. TARJETA DE LA RED
La tarjeta de red, también conocida como placa de red, adaptador de red, adaptador LAN, Interfaz de red física,1 o sus términos en inglés Network Interface Card o Network interface controller (NIC), cuya traducción literal del inglés es «tarjeta de interfaz de red» (TIR), es un componente de hardware que conecta una computadora a una red informática y que posibilita compartir recursos (como archivos, discos durosenteros, impresoras e internet) entre dos o más computadoras, es decir, en una red de computadoras.
Las primeras tarjetas de interfaz de red se implementaban comúnmente en tarjetas de expansión que se conectaban en un bus de la computadora. El bajo costo y la ubicuidad del estándar Ethernet hizo posible que la mayoría de las computadoras modernas tengan una interfaz de red integrada en la placa base. Las placas base de servidor más nuevas pueden incluso tener interfaces de red duales incorporadas.
Las capacidades de Ethernet están ahora integradas en el chipset de la placa base o implementadas a través de un chip Ethernet dedicado de bajo costo, conectado a través del bus PCI (o el nuevo PCI Express), así que no se requiere una tarjeta de red por separado a menos que se necesiten interfaces adicionales o se utilice otro tipo de red.
Las modernas Tarjetas de red ofrecen funciones avanzadas como interfaz de interrupción y DMA para los procesadores host, soporte para múltiples colas de recepción y transmisión, particionamiento en múltiples interfaces lógicas y procesamiento de tráfico de red en controlador, como el motor de descarga TCP.
La NIC pueden utilizar una o más de las siguientes técnicas para indicar la disponibilidad de paquetes a transferir:
Polling, donde la CPU examina el estado del periféricobajo el control del programa.
IRQ-E/S controlada, donde el periférico alerta a la CPU de que está listo para transferir datos.
Además, los NIC pueden utilizar una o más de las siguientes técnicas para transferir datos de paquetes:
Entrada/salida programada, donde la CPU mueve los datos hacia o desde la NIC a la memoria.
DMA, donde algún otro dispositivo que no sea la CPU asume el control del bus de sistema para mover datos hacia o desde la NIC a la memoria. Esto elimina la carga de la CPU, pero requiere más lógica en la tarjeta.
La NIC implementa los circuitos electrónicos necesarios para comunicarse sobre una red de computadoras, ya sea utilizando de cables como Token Ring, Ethernet, fibra, o sin cables como Wi-Fi, es por tanto un dispositivo de capa física y uno de capa de enlace de datosya que proporciona acceso físico a un medio de red y, para IEEE 802 y redes similares, proporciona un sistema de direccionamiento de bajo nivel mediante el uso de la dirección MAC que se asignan exclusivamente a las tarjetas de red.
Esto proporciona una base para una pila de protocolos de red completa, permitiendo la comunicación entre pequeños grupos de computadoras en la misma red de área local (LAN) y comunicaciones de red a gran escala a través de protocolos enrutables, como Internet Protocol (IP).
Aunque existen otras tecnologías de red, las redes IEEE 802, incluidas las variantes Ethernet, han alcanzado casi la ubicuidad desde mediados de los años noventa.
7. CABLEADO
El cable es el medio que los PC de una red se pueden comunicar el uno con el otro. Hay distintos tipos de cables para hacer una red, que siempre esta sujeto a la topología de la red, con esto tendremos que tener en cuenta varios factores.
Estos son los distintos tipos que podemos encontrar en una Lan (Local Area Network, Red de Área Local):
Cable de par trenzado sin apantallar / UTP Unshielded twisted pair
Cable de par trenzado apantallado / STP Shielded twisted pair
Cable coaxial
Cable de fibra óptica
LANs sin cableado
Cable de par trenzado sin apantallar / Unshielded Twisted Pair (UTP) Cable.
Este tipo de cable es el más utilizado. Tiene una variante con apantallamiento pero la variante sin apantallamiento suele ser la mejor opción para una PYME.
La calidad del cable será lo que el que influya directamente en la calidad de los datos que transcurra por los cables. Las calidades de los cables van desde el cable de telefónico (par de cables para voz), al cable de nivel 5 que es capaz de transferir tasas de 100 MBits/s.
Tipo
Uso
Categoría1
Voz (Cable de teléfono)
Categoría2
Datos a 4 Mbps (LocalTalk)
Categoría3
Datos a10 Mbps (Ethernet)
Categoría4
Datos a 20 Mbps/16 Mbps Token Ring
Categoría5
Datos a 100 Mbps (Fast Ethernet)
La diferencia entre las distintas categorías es la tirantez. A mayor tirantez mayor capacidad de transmisión de datos. Se recomienda el uso de cables de Categoría 3 o 5 para la implementación de redes en PYMES (pequeñas y medianas empresas). Es conveniente sin embargo utilizar cables de categoría 5 ya que estos permitirán migraciones de tecnologías 10Mb a tecnología 100 Mb.
Conector UTP
El estandar para conectores de cable UTP es el RJ-45. Se trata de un conector de plástico similar al conector del cable telefónico. La siglas RJ se refieren al estandar Registerd Jack, creado por la industria telefónica. Este estandar define la colocación de los cables en su pin correspondiente.
Cable de par trenzado apantallado / STP Shielded twisted pair
Una de las desventajas del cable UTP es que es susceptible a las interferencias eléctricas. Para entornos con este problema existe un tipo de cable UTP que lleva apantallamiento, esto es, protección contra interferencias eléctricas. Este tipo de cable se utiliza con frecuencia en redes con topología Token Ring.
Cable coaxial
Es un cable que tiene diferentes capas, en el centro tiene un cable de cobre fino que es el que transmite los datos, en la siguiente capa tiene una protección de plástico que aísla del apantallado del cable, este apantallamiento que tiene el cable aísla de posibles interferencias externas.
La instalación del cable coaxial es más complicada que el UTP, este tiene una alta resistencia a las interferencias electromagnéticas. Por otra parte con este tipo de cable se pueden hacer redes con mayores distancias que con que con el UTP. Existen dos tipos de cable coaxial, el fino y el grueso conocidos como thin coaxial y thick coaxial.
Conector para cable coaxial
El mas usado es el conector BNC. BNC son las siglas de Bayone-Neill-Concelman. Los conectores BNC pueden ser de tres tipos: normal, terminadores y conectores en T.
Cable de fibra óptica
En un sistema de comunicaciones ópticas, la onda portadora es una onda de luz y el cableado esta hecho de fibra óptica. La fibra óptica es una estructura cilíndrica (un hilo) transparente formado por dos zonas concéntricas (núcleo y recubrimiento) con índices de refracción distintos. Una vez que la onda entra en el núcleo, la diferencia de índices produce «reflexión total» en la frontera entre el núcleo y el recubrimiento, manteniendo la luz confinada en el primero y, lo que es más importante, guiada dentro de los extremos de la fibra.
Esto hace este tipo de cable sea ideal en los entornos donde aya gran cantidad de interferencias electromagnéticas. También este tipo de redes se utiliza entre edificios ya que no le influye la humedad ni la exposición solar.
Estos cables pueden llegar a conseguir mayores distancias que los cables coaxiales o los cables UTP. Además la capacidad de de transmitir mas información que los anteriores cables ya mencionados lo hace ideal para trasmitir videoconferencia, servicios interactivos, etc. El precio es muy parecido al cable coaxial o al UTP pero la inhalación y modificaciones son más difíciles de realizar por la complejidad del cable. En algunas veces podemos oír hablar de las redes 10BaseF, estas son las siglas para denominar red Ethernet de fibra óptica.
Conectores para fibra óptica
El conector de fibra óptica más utilizado es el conector ST. Tiene una apariencia similar a los conectores BNC. También se utilizan, cada vez con más frecuencia conectores SC, de uso más fácil.
8. CONECTORES
Los conectores más usuales, sobre todo en las LAN, son los siguientes:
RJ11, RJ12, RJ45. Son conectores que se suelen utilizan para cables UTP, STP y otros cables de pares. Hay que elegir el conector en función de la categoría del cable
Cable de red RJ45 - Cat5/Cat6. Use este tipo de cable para conectar el enrutador o módem al puerto de red del equipo.
Cable de teléfono RJ11.
No use este cable para conectarse al equipo.Se suele utilizar para las conexiones telefónicas. Lo podemos ver en el router con la señal externade ADSL.
Cable de teléfono especial de 6 hilos.
No utilizado en general.
Se utilizá para telefonía.
AUI, DB15.
Son utilizados para las conexión de cables en redes con topología de estrella y para la conexión de transceptores a las estaciones
BNC. Se utiliza en las redes ethernet de cable coaxial fino
T coaxial. Es el modo de conectar una estación en un bus de cable coaxial
DB25 y DB9.
Son conectores utilizados para transmisiones serie. Eran muy utilizados para impresoras serie y paralelo. En función de la forma pueden ser machos (M) o Hembras (H). En la figura, de izquierda a derecha, un cable DB9H-DB9M, un conector DB25 y un cabe DB9H-DB25M
9. SERVIDORES
Un servidor es una aplicación en ejecución (software) capaz de atender las peticiones de un cliente y devolverle una respuesta en concordancia. Los servidores se pueden ejecutar en cualquier tipo de computadora, incluso en computadoras dedicadas a las cuales se les conoce individualmente como «el servidor». En la mayoría de los casos una misma computadora puede proveer múltiples servicios y tener varios servidores en funcionamiento. La ventaja de montar un servidor en computadoras dedicadas es la seguridad. Por esta razón la mayoría de los servidores son procesos diseñados de forma que puedan funcionar en computadoras de propósito específico.
Los servidores operan a través de una arquitectura cliente-servidor. Los servidores son programas de computadora en ejecución que atienden las peticiones de otros programas, los clientes. Por tanto, el servidor realiza otras tareas para beneficio de los clientes. Ofrece a los clientes la posibilidad de compartir datos, información y recursos de hardware y software. Los clientes usualmente se conectan al servidor a través de la red pero también pueden acceder a él a través de la computadora donde está funcionando. En el contexto de redes Internet Protocol (IP), un servidor es un programa que opera como oyente de un socket.
Comúnmente los servidores proveen servicios esenciales dentro de una red, ya sea para usuarios privados dentro de una organización o compañía, o para usuarios públicos a través de Internet. Los tipos de servidores más comunes son servidor de base de datos, servidor de archivos, servidor de correo, servidor de impresión, servidor web, servidor de juego, y servidor de aplicaciones
Un gran número de sistemas usa el modelo de red cliente-servidor, entre ellos los sitios web y los servicios de correo. Un modelo alternativo, el modelo red peer-to-peer permite a todas las computadoras conectadas actuar como clientes o servidores acorde a las necesidades.
El término servidor es ampliamente utilizado en el campo de las tecnologías de la información. A pesar de la amplia disponibilidad de productos etiquetados como productos de servidores (tales como versiones de hardware, software y OS diseñadas para servidores), en teoría, cualquier proceso computacional que comparta un recurso con uno o más procesos clientes es un servidor. Tomemos como ejemplo la acción de compartir ficheros. Mientras la existencia de ficheros dentro de una computadora no la clasifica como un servidor, el mecanismo del sistema operativo que comparte estos ficheros a los clientes sí es un servidor.
De manera similar consideremos una aplicación web servidor
(como por ejemplo el servidor multiplataforma "Apache").
Este servidor web puede ejecutarse en cualquier tipo de computadora que cumpla con los requerimientos mínimos. Por ejemplo, mientras un ordenador portátil (laptop) o computadora personal usualmente no son consideradas como servidores, en ciertos casos (como el anterior) pueden cumplir el rol de uno y por lo tanto ser denominadas servidores. En este caso es el rol de la computadora el que la coloca en la categoría de servidor.
En el sentido del hardware, la palabra servidor normalmente etiqueta modelos de computadora diseñados para hospedar un conjunto de aplicaciones que tiene gran demanda dentro de una red. En esta configuración cliente-servidor, uno o más equipos, lo mismo una computadora que una aplicación informática, comparten información entre ellos de forma que uno actúa como host de los otros.
Casi todas las computadoras personales pueden actuar como un servidor, pero un servidor dedicado tendrá cualidades más adecuadas para un ambiente de producción. Entre estas cualidades se pueden mencionar CPU más rápidas, RAM mejoradas para alto desempeño, y mayores capacidades de almacenamiento en forma de múltiples discos duros. Los servidores también cuentan con otras cualidades como confiabilidad, disponibilidad y utilidad (RAS) y tolerancia a fallos, esta última en forma de redundancia en el número de fuentes, almacenamiento (RAID), y conexiones de red.
Los servidores se volvieron comunes a principios de 1990 en la medida en que los negocios comenzaron a utilizar computadoras personales para brindar servicios que anteriormente se alojaban en mainframes o en micro computadoras. Los primeros servidores de archivos contaban con múltiples torres de CD, utilizados para alojar grandes aplicaciones de bases de datos.
Entre 1990 y el 2000 el aumento en el uso de hardware específico marcó el advenimiento aplicaciones de servidor autosuficientes. Uno de estas aplicaciones bien conocidas es el Google Search Appliance, que combina hardware y software en un paquete out-of-the-box packaging. Productos similares fueron el Cobalt Qube y el RaQ. Ejemplos más sencillos de dichos equipos incluyen switches, routers, gateways, y servidores de impresión, los cuales son fácilmente utilizables a través de una configuración plug-and-play.
Los sistemas operativos modernos como Microsoft Windows o las distribuciones de Linux parecen haber sido diseñados siguiendo una arquitectura cliente-servidor.
Estos sistemas operativos se abstraen del hardware, permitiendo a una gran variedad de software trabajar con componentes de la computadora. De alguna forma, el sistema operativo puede ser visto como un servidor de hardware al software pues, excepto en los lenguajes de programación de bajo nivel, el software debe interactuar con el hardware a través de un API.
Estos sistemas operativos son capaces de ejecutar programas en un segundo plano los cuales son llamados servicios o daemons. Estos programas, entre los que se encuentra el Servidor HTTP Apache previamente mencionado, pueden permanecer en un estado dormidohasta que sea necesario su uso. Como cualquier software que brinde servicios puede ser llamado servidor, las computadoras personales modernas se pueden ver como bosques de aplicaciones clientes y servidores operando en paralelo.
10. SISTEMA OPERATIVO
Un sistema operativo de red, también llamado N.O.S (del inglés, Network Operating System), es un software que permite la interconexión de ordenadores para tener el poder de acceder a los servicios y recursos, hardware y software, creando redes de computadoras. Al igual que un equipo no puede trabajar sin un sistema operativo, una red de equipos no puede funcionar sin un sistema operativo de red. Consiste en un software que posibilita la comunicación de un sistema informático con otros equipos en el ámbito de una red.
Sistemas operativos de red instalables/incorporados
Dependiendo del fabricante del sistema operativo de red, tenemos que el software de red para un equipo personal se puede añadir al propio sistema operativo del equipo o venir integrado con él.
MAthSL de Ferchi fue un ejemplo, de amplia difusión, de sistema operativo de red donde el Software que le permitía trabajar en red se debía instalar en el cliente sobre el sistema operativo del equipo.
El equipo personal necesitaba ambos sistema operativos para gestionar conjuntamente las funciones de red y las individuales.
El software del sistema operativo de red se integra en un número importante de sistemas operativos, incluyendo:
Casi todas las distribuciones de Linux; los sistemas operativos
de Microsoft y Apple para portátiles, servidores y equipos de sobremesa;, sistemas operativos de dispositivos móviles, como Android, IOS, Windows Phone, etc.
Las características genéricas de un sistema operativo de red son:
Conecta todos los equipos y recursos de la red.
Gestión de usuarios centralizada.
Proporciona seguridad, controlando el acceso a los datos y recursos. Debe validar los accesos (claves, certificados, sistemas biométricos, etc.) y ver aplicar las políticas de seguridad.
Coordina las funciones de red, incluso con las propias del equipo.
Comparte recursos (lleva a cabo la coordinación y los privilegios a la hora de compartir). Por tanto, mejora notablemente la utilización de los recursos.
Permite monitor-izar y gestionar la red y sus componentes
Componentes de los sistemas operativos de red habituales son:
Servidores: Son equipos con sistemas operativos en red que proporcionan recursos a los clientes, haciéndolos accesibles a los equipos de la red, sea a otros servidores o, habitualmente, a clientes.
Clientes: Son equipos con un sistema operativo monopuesto conectados para empezar a trabajar en red. A diferencia de los servidores, no comparten sus recursos.
Dominios: Es una agrupación lógica de equipos, que permite realizar una gestión centralizada, es decir, desde una ubicación se controla los servicios administrativos del dominio. Los recursos los gestiona el servidor principal. Uno de los protocolos habituales para la formación de dominios es LDAP.
Dependiendo del sistema operativo, se puede dar el caso que en un determinado dominio un equipo sea servidor de ciertos recursos y cliente de otros.
11. DIAGNOSTICA Y ARREGLA PROBLEMAS DE SOFTWARE Y HARDWARE
Existen algunas herramientas en el área de software que ayudan a monitorear el comportamiento de nuestras conexiones, algunos equipos vienen equipados con aditamentos que informan al administrador el posible error.
Las fallas a nivel aplicación en una red, por lo general son las más fáciles de detectar y solucionar, puesto que no existe tanto problema logístico que requiera cambiar alguna pieza o reinstalar un equipo en su totalidad, basta con reparar o desinstalar el software, estas opciones ya incluidas en el mismo (software) o en todo caso, siendo más drásticos, formatear el ordenador.
DIAGNOSTICO PROBLEMAS DE HARDWARE:
El procedimiento para localizar averías en un sistema de alguna PC, ayuda a determinar la causa de fallo en el equipo o en la programación, de manera que se pueda corregir. Para detectar un problema de Hardware el paso más sencillo es:
1. Observar si el cable de corriente se encuentra conectado a la toma de corriente y si se encuentra conectado de la toma de corriente a la fuente de poder del PC. Y verificar si enciende. Si enciende se puede detectar el problema a través de otro procedimiento sencillo como lo es de reiniciar (“reboot” o “restart”) la máquina. Posiblemente haga falta cambiar este cable por otro cable que funciona para determinar si ese es el problema.
2. Si la computadora no hace nada cuando se activa el interruptor de encendido, no muestra signos de vida, entonces se deberá de realizar una serie de pruebas para determinar la causa de este problema. Estas pruebas consisten en reemplazar componentes de su computadora por otros que sabemos que funcionan, desconectar cables internos y externos de la tarjeta madre, escuchar si hay sonidos en el disco duro al encender, limpiar los conectores y la placa del sistema, verificar el voltaje interno y de la toma de corriente entre otras pruebas.
3. Determinar si el interruptor de la fuente de potencia se encuentra en la posición de encendido Asegurarse que el ventilador de la fuente de potencia esté funcionando. Para esto, se coloca la mano detrás de la computadora, frente al ventilador de la fuente de poder. Si este no funciona, entonces esta indicativo que la fuente de poder está quemado, la toma de corriente no sirve, el cable de alimentación de la computadora esta flojo (o está dañado).
4. Abrir la máquina y desconectar los cables y la tarjeta madre. Cerciorarse de que las conexiones estén aseguradas y en la posición correcta. Si no se observa nada incorrectamente entonces remueva todas las memorias de la máquina. Retirar todos los conectores de potencia instalados en la tarjeta madre, los conectores instalados en todos las Unidades de disco duro, disco flexible, CD-ROM, entre otros.
5. Reinstalar un Componente de la Computadora a la vez para Detectar la Falla, La incorrecta instalación de una tarjeta o algun otro dispositivo puede ocasionar un corto circuito. El equipo no arranca cuando se calienta. A menudo, las tarjetas pueden desarrollar grietas. Cuando la máquina calienta, estas grietas se abren, causando que la máquina deje de funcionar. Un componente sucio lo cual no permite contacto. En este caso, al remover la parte afectada limpiarlo y reinstalarla, se puede restablecer un contacto correcto con el componente.
6. Determinar dónde se estaba trabajando y el componente asociado con este problema. Por ejemplo, si se encontraba imprimiendo un documento y el problema era que no imprimía, entonces los posibles componentes de la computadora involucrados son la impresora, el cable de la impresora o la configuración del programa.
DIAGNOSTICO PROBLEMAS DE SOFTWARE
1. Localizar Problemas de Programación ("Software") En este caso, se debe verificar si previamente se realizaron cambios en los archivos de config.sys o autoexec.bat. Por lo regular, los problemas de programación se deben a fallas en estos dos archivos del sistema operativo. Esto se puede resolver a restaurar o reemplazar (uno a la vez) los controladores de dispositivos ("device drivers") y programas residentes en memoria a los archivos de config.sys y autoexec.bat.
2. Determinar el programa más recientemente instalado: El primer paso es detectar una avería en el programa más reciente instalado en la computadora. Estos problema puede evitarse si se posee la buena costumbre de, antes de apagar la computadora, siempre cerrar y salir de todos los programas abiertos y salir del sistema operativo apropiadamente.
3. Reinstalar programas o aplicaciones. Con frecuencia, si ocurre un problema en un programa específico, es posible solucionar el problema al reinstalar dicha aplicación. Durante este proceso, se reemplazan los archivos del programa de la computadora por aquellos del programa. Si el problema es con la mayoría del programa instalado en la computadora, entonces es posible que la causa de esto sea archivos corrompidos del sistema operativo. En este caso se recomienda reinstalar el sistema operativo o formatear el PC. Si la posible causa del problema es un programa particular, se sugiere removerlo de la máquina para determinar si el fallo se detiene.
4. Revisar disco duro por virus. Muchos problemas en los programas se derivan de algún tipo de virus alojado en el sistema. Existen comercialmente (y gratuitos en Internet) varios tipos de programas Anti-Virus que ayudan detectar y eliminar el virus.
5. Verificar los registros del sistema. Si la computadora trabajo por un momento y súbitamente comienza a producir fallas, es posible que se haya alterado la configuración (o que la instalación de un programa haya cambiado una
La detección de fallas o errores en una red, es muy valiosa cuando se hace en tiempo y forma, existen diferentes métodos para ubicar donde existe un punto débil en nuestra infraestructura o red, ya sea en el hogar o en una empresa y negocio.
UNIDAD 6 REALIZA CAMBIOS Y ACTUALIZACIONES EN LA RED EN RESPUESTA A NUEVOS ECENARIOS DE TRABAJO.
DEVOLUCIÓN DE COMPONENTES INFORMÁTICOS PARA LA REALIZACIÓN DE CAMBIOS Y ACTUALIZACIONES DE COMPONENTES DE LA RED.
En los tiempos modernos las Computadoras se han convertido en una herramienta de suma importancia, no sólo para el desarrollo de nuestros pueblos, si no también, para el desarrollo de la Ciencia, nuevas Tecnologías, debido a los crecientes avances que en la materia se han alcanzado.
Debido a la creciente necesidad de nuestro mundo actual, de obtener un mayor conocimiento y comprensión de los avances tecnológicos en la industria de la informática, es que he decidido abordar el tema de la manera más sencilla, para que sea comprendido por todos los que se apasionan por esta carrera.
evolución de los componentes informáticos
Los administradores de red son básicamente el equivalente de red de los administradores de sistemas: mantienen el Hardware y Software de la red. Esto incluye el despliegue, mantenimiento y monitoreo del engranaje de la red: Switches, Routers, Cortafuegos, etc. Las actividades de administración de una red por lo general incluyen la asignación de direcciones, asignación de protocolos de ruteo y configuración de tablas de Ruteo así como, configuración de Autenticación y autorización de los servicios.
Frecuentemente se incluyen algunas otras actividades como el mantenimiento de las instalaciones de red tales como los controladores y ajustes de las Computadoras e Impresoras. A veces también se incluye el mantenimiento de algunos tipos de servidores como VPN, Sistemas detectores de intrusos, etc.
Los analistas y especialistas de red se concentran en el diseño y seguridad de la red, particularmente en la Resolución de problemas o depuración de problemas relacionados con la red. Su trabajo también incluye el mantenimiento de la infraestructura de autorización a la red.
cambios y actualizaciones de la red
El descubrimiento del tubo o válvula de vacío, vino a sustituir en gran parte el uso de componentes mecánicos. Es Sir Ambrose Flemig en 1.904, aplicando el efecto Edison que produce el primer tubo de vacío, también llamado Diodo por que solo tiene dos elementos, más tarde en 1.906, Lee Forest, descubre la amplificación electrónica añadiendo un nuevo elemento al diodo, el cual podía controlar una corriente grande empleando una pequeña, este nuevo elemento se llamó Tríodo de vacío. La máquina que merece más atención en esta generación es el ENIAC, construida por el Físico Jhon Mauchly y el Ingeniero Eléctrico J. Presper Eckert, la cual se terminó de fabricar a finales de 1.945 en la Escuela de Ingeniería Eléctrica de Pensilvania. El ENIAC (Electronic Numerical Integrator And Computer) era 5.000 veces más rápido que su competidor más próximo, el Harvard Mark I, contaba con todos los elementos de un ordenador moderno; Unidad Central de Proceso, Memoria y Entrada/Salida, la mayor diferencia con los actuales ordenadores es que empleaba números decimales en sus operaciones internas.
Empleo de válvulas de vacío
Comments