Mostrando entradas con la etiqueta Notas Tecnologicas. Mostrar todas las entradas
Mostrando entradas con la etiqueta Notas Tecnologicas. Mostrar todas las entradas



Esta es una pregunta que nos hacemos muy a menudo, y que además se puede tomar con un doble sentido. Por un lado vamos a ver si un antivirus en general puede eliminar todos los virus (entendiendo estos como malware), y por otro, si un antivirus concreto puede eliminar todos los virus.

Y aunque en ambos casos la respuesta es la misma, es decir, que no, lo es por diferentes motivos. Vamos a ver los diferentes casos y motivos.


1er caso: ¿Un antivirus puede eliminar todos los virus?

No puede. Y no puede porque hay diferentes tipos de virus, algunos de los cuales necesitan un tratamiento especial. Los antivirus son muy eficaces contra virus, pero por lo general no lo son tanto cuando se trata de spyware (programas espía). Para este tipo de virus existen programas antispyware que sí que son muy eficaces, ya que están diseñados para reconocer y neutralizar este tipo concreto de virus.




Algo similar ocurre con los virus del tipo Adware, aunque algunos no consideran el adware como virus (son los programas encargados de mostrar publicidad, sobre todo en Internet, y los responsables de que se llene la pantalla de ventanas publicitarias).

Es especialmente delicado el tema de los troyanos, que un antivirus puro también suele tener dificultades a la hora no tanto de su detección como de su eliminación.

Es por todo esto por lo que es muy conveniente tener instalado al menos un antivirus y un programa específico antispyware, que hoy por hoy es el grupo de virus más numeroso y el que más daño suele causar.

En cuanto a los troyanos, es raro que hagan daño por sí mismos en lo referente a recopilación y envío de información o en el acceso y control de nuestro ordenador, que es en lo que se centran la mayoría de virus actuales, lo que suelen hacer es facilitar la entrada de otro tipo de virus a nuestro ordenador, que sí que son los que van a hacer daño. Ahora bien, un troyano suele tener unos efectos secundarios bastante dañinos. Estos efectos suelen estar encaminados a la defensa de sí mismos y del virus al que facilita la entrada, y lo que suelen hacer es deshabilitar algunas funciones necesarias para proceder a la limpieza. Es bastante normal que impidan el acceso al registro, a la restauración del sistema o la instalación o ejecución de un antivirus. Esto, junto a su alta capacidad de esconderse, mutar y autocopiarse, los convierte en una de las variantes más peligrosas de virus.



A mí uno de los antivirus genéricos (es decir, no especializados en éste tipo de virus) que mejor me ha funcionado en la detección de troyanos ha sido Avast!, que curiosamente es un antivirus gratuito, y ha sido capaz de localizar y eliminar algunos troyanos en los que otros antivirus de gran nombre (y precio) han fracasado.

Lo que ocurre es que la mayoría de los antivirus cuentan con módulos específicos para estos tipos de virus, en especial los denominados Internet Security. Esto hace que, en teoría, en un solo antivirus (o mejor dicho, en una sola suite) tengamos todos los tipos de antivirus que necesitamos.



Estas suites incluyen hasta un Firewall. Hay que hacer una aclaración con respecto a los Firewall. Los Firewall o Corta fuegos NO son antivirus, y su eficacia contra estos es totalmente nula. La función del Firewall es impedir conexiones no deseadas, pero no tiene ningún valor como antivirus (salvo, claro está, el de impedir una conexión no deseada y que esté solicitando un determinado virus). No escanean el ordenador en busca de virus ni detectan estos en las conexiones permitidas o en el tráfico de archivos, se limitan a bloquear una determinada conexión (ya sea de entrada o de salida).

Pero aun en estas suites la eficacia de algunos de sus módulos (antispyware, por ejemplo) es inferior normalmente a la de un programa especializado en la lucha contra este tipo concreto de virus.

En el tutorial Compatibilidad de antivirus, antispyware y Firewall en un mismo ordenador pueden ver las diferentes compatibilidades (o incompatibilidades) al instalar estos programas en el ordenador.


2º caso: ¿Un solo antivirus puede eliminar todos los virus?

Esta es ya quizás la pregunta que más gente se hace, directamente entroncada con la de ¿Cuál es el mejor antivirus?.

Bien, lo primero que hay que decir a este respecto es algo que hemos repetido infinidad de veces, y es que no hay ningún antivirus efectivo al 100%. Hay, eso sí, unos más eficaces que otros, pero al 100%, ninguno. Además, esta eficacia mayor de unos antivirus sobre otros tampoco es absoluta, es decir, que tampoco es que unos sean superiores en la detección de todos los virus a otros.

Veamos, en virus ya conocidos y que llevan un cierto tiempo circulando no suele haber mayores problemas con ningún antivirus, el mayor problema se presenta en la efectividad de la detección heurística.

¿Y qué es lo que hace exactamente la detección heurística? Pues lo que hace es buscar patrones que puedan ser parte de un virus en los archivos que se escanean (ya sea en tiempo real o no). La importancia de esto viene dada por la inmensa cantidad de mutaciones de virus que salen a diario, y que hace que sea imposible analizarlos, encontrar la solución para desinfectarlos y enviar la correspondiente actualización en un tiempo de respuesta prudencial.

La importancia de este tipo de protección radica sobre todo en que muchos virus, aun una vez eliminados, dejan una serie de secuelas en nuestro sistema, que a veces nos obligan cuando menos a reparar nuestra instalación o a restaurar el sistema a una fecha anterior.

Ante esto ¿es interesante comprar una suite del tipo Internet Security? Bueno, es interesante, pero no es la única opción y, desde luego, no es la más económica. Además, hay antivirus portables y Online, que es conveniente usar también ante una duda o posible infección. De ahí que cuando hay un problema de virus se recomiende escanear el equipo con una batería de antivirus, antispyware y antimalware.




Lo que sí que nunca se debe hacer es tener más de un antivirus del mismo tipo residente (los que analizan en tiempo real) al mismo tiempo, ya que esto es muy contraproducente.

Ahora bien, dado que ningún antivirus es eficaz al 100%, a la protección que nos brinda nuestro antivirus (el que tenemos instalado y residente) se debe unir cada cierto tiempo (esto depende ya de nuestros hábitos de navegación) el escaneo con uno diferente (por ejemplo, si tenemos instalado el Kaspersky, hacer un escaneado con el Panda Online o con el Dr. Web). Lo mismo es válido para los antispyware. Si tenemos uno instalado y residente, cada cierto tiempo debemos ejecutar uno diferente, que nos analice el equipo.



Esto no supone un gasto extra, ya que hay muchos (y bastante buenos) programas de este tipo gratuitos, a los que se unen los antivirus Online, que son gratuitos, aunque no todos eliminan los virus (algunos solo avisan de la infección).


CONCLUSION:

Un solo programa antivirus no nos va a dar una seguridad al 100%, y es muy normal que un virus no detectado por nuestro antivirus (sea el que sea) lo detecte otro, por lo que, ante la posibilidad de infección, debemos escanear nuestro equipo con al menos dos antivirus del mismo tipo (ya sean antivirus, antispyware, antimalware o antitroyanos), pero de este modo reducir las posibilidades de que se nos escape alguno.

Eso sí, residente no se debe tener más de uno, ya que no solo conseguiríamos que el equipo se ralentizara extraordinariamente, sino que además la eficacia de los antivirus baja notablemente (de hecho, la mayoría de los antivirus no permiten instalarse si detectan que ya hay otro instalado).

A veces la ejecución de dos antivirus suele dar falsos positivos, es decir, que detectan ciertos archivos de otros antivirus como virus. Esto es así porque la estructura de estos es muy similar, y de hecho tienen que hacer funciones que también hacen los virus, cono examinar y sobreescribir partes de un archivo, aunque en este caso sea para limpiar lo que el virus ha ensuciado.

La detección heurística es de suma importancia en la actualidad, que que el número de mutaciones que salen a diario de otros virus es realmente impresionante, y es imposible analizar y actualizar un antivirus con la rapidez que una buena protección requeriría. Este alto número de mutaciones de un virus que salen a diario no es en buena parte nada más que una forma que se utiliza para luchar contra la eficacia de los antivirus (técnica de saturación), ya que las empresas especializadas en este tipo de programas se ven incapacitadas para analizar todas estas variantes, por grande que sea la empresa.

Por otro lado, casi todos los programas antivirus (no solo las suite del tipo Internet Security) incluyen al menos un módulo antispyware, pero estos módulos raramente llegan a la eficacia de programas antispyware, diseñados expresamente para detectar y neutralizar este tipo concreto de virus.

El que un antivirus no detecte en un momento determinado un virus concreto no quiere decir ni mucho menos que ese antivirus sea malo, solo que en ese momento no lo ha detectado, y es posible que, tras actualizarse, ya lo detecte.

Ahora bien, que lo detecte no quiere decir en todos los casos que sea capaz de eliminarlo. Es posible que una vez detectado tengamos que recurrir a otras herramientas (otros antivirus, antispyware o antimalware) para eliminarlo.

A veces es necesario, debido a las secuelas que deja un virus, reparar la instalación de Windows, siendo además conveniente hacer una limpieza del registro. Para esto existen programas especializados en el tema, como es el caso de CCleaner, programa bastante eficaz en esta función.




Si a esto unimos el uso de antivirus que no estén correctamente actualizados, tenemos el cóctel para conseguir una bonita infección.

POR MAURICIO OROZCO

El informe señala que en el 2013 el tráfico mundial de datos móviles será 66 veces mayor al de hoy en día y que, en su gran mayoría, estará centrado en el video.
En menos de cinco años, el tráfico de datos en Internet ocurrirá en gran parte a través de dispositivos móviles. Así se desvela en la proyección que Cisco presentó en el marco de su estudio Global Mobile Data Traffic, un análisis que proyecta el crecimiento de la transferencia de información en la Red desde equipos como celulares y portátiles.
El crecimiento esperado en dicho segmento es del 113 por ciento (entre 2008 y 2013).
Según el informe, en el 2013 más del 64 por ciento del uso del Internet móvil se gastará en la visualización de videos (TV, contenidos pagos, videollamadas, etc.). Igualmente, en ese año, por las redes móviles circularán en el mundo al mes dos Exabyte de información, es decir, dos mil millones de gigabytes.
El informe también advirtió que el 80 por ciento del la navegación sin cables ocurrirá principalmente en teléfonos provistos con tecnología 3G y superior, así como desde computadores portátiles en movimiento.
Latinoamérica a la vanguardia
Otra de las revelaciones es que Latinoamérica será el continente que mayor crecimiento mostrará en el período analizado por el estudio. Cisco prevé que sea de 166 por ciento anual. Incluso, destaca que serán las llamadas aplicaciones y redes de cuarta generación (4G) las que mayor afluencia obtendrán en los usuarios de nuestra región.
"Las conclusiones del Pronóstico Móvil del Índice de Conectividad de Cisco, VNI muestran que los usuarios finales usarán una variedad de servicios, aplicaciones y dispositivos, lo que generará el incremento del tráfico móvil que estamos pronosticando", dijo Simbad Ceballos, gerente general de Cisco Colombia. "La transformación del Internet móvil 4G en evolución está diversificando aún más la manera como la gente se conecta y usa Internet y está generando un aumento innegable en el crecimiento del ancho de banda".
Esta compañía lanzó una aplicación gratuita, compatible con los teléfonos iPhone y Blackberry Storm, que permite al usuario saber la tasa de velocidad de transferencia de datos que su servicio de Internet móvil le ofrece. Se puede descargar desde la dirección

POR HEIDER DEL RIO

El programa maligno, que se transmite a través de memorias USB e Internet, ha logrado infectar a mas de 10 millones de computadores en todo el mundo.
Según George Stathakopoulos, uno de los responsables del tema de seguridad en Microsoft, anunció que la medida apunta a "hacer rendir a aquellos que se dedican a hacer daño a personas y empresas con virus como Confiker".
La plaga, llamada también Downadup, se ha progragado rápidamente debido a que se transporta a través de memorias USB portátiles. También se infectan los computadores visitando sitios de Internet contaminados.
Una vez instalado, el programa se dedica a espiar información del computador. Igualmente permite a los ladrones informáticos instalar otros virus y programas malignos en los PC de las víctimas.
Conficker aprovecha un fallo de seguridad en Windows que Microsoft corrigió y publicó como parche adicional para el sistema en octubre pasado.


POR HEIDER DEL RIO
- Los expertos intentan construir máquinas enteramente ópticas En lugar de transportar electricidad, funcionarán gracias a millones de láseres microscópicos
- Cuál es el estado actual de estos trabajos


Hasta ahora, las computadoras se conectan a tomacorriente. Y tienen microprocesadores del tamaño de la punta de los dedos, con 16 millones de circuitos en su corazón. Aunque en las dos próximas décadas las cosas pueden cambiar. La miniaturización de los microchips (que hasta ahora sirvió para aumentar la velocidad en el procesamiento de los datos) no puede seguir indefinidamente. En 20 años, el achique provocará que los microchips y sus componentes alcancen la escala atómica.Por eso, científicos de América y Europa buscan que las computadoras del futuro ya no funcionen en base a electricidad. Su meta (y su sueño) es que la máquina del siglo veintiuno se alimente pura y exclusivamente de luz.Para ganar en rapidez y potencia, los nuevos circuitos integrados no transportarían chorros de electrones, sino partículas de luz (fotones). La velocidad de transmisión de datos más alta que existe hasta el momento es la velocidad de la luz, y la de un electrón es muy inferior a ella, explicó David DiVicenzo, del Centro de Investigaciones de la empresa IBM, a la revista Scientific American.Es que los haces luminosos pueden recorrer las distancias que separan uno y otro interruptor a una velocidad de 300 mil kilómetros por segundo.Por eso, cada placa madre de las computadoras ópticas estará formada por miles de láseres microscópicos o fuentes luminosas. Cada uno de los cuales envía y recibe mensajes a medida que se enciende y apaga millones de veces.Las ventajas de usar luz para transportar información dentro de la computadora no se limita al aumento de la velocidad. Además de ser más rápidos que la electricidad, los fotones tienen la ventaja de poder cruzarse sin provocar un cortocircuito. Con los electrones no sucede lo mismo: dos alambres de cobre que se encuentran inesperadamente serán la causa segura de un apagón en toda la casa.Esa capacidad de convivencia y buena vecindad estará directamente relacionada con la cantidad de datos que la computadora podrá procesar cada vez. Al poder ir y venir por el mismo canal en direcciones opuestas, la información circulante aumenta considerablemente. Problemas de chispazos aparte, la electricidad tiene otros inconvenientes: los electrones son propensos a acumular calor. Por eso, las computadoras vienen con un miniventilador que refresca la máquina, y la protege del recalentamiento. Manteniéndola a salvo de fundirse en el instante menos pensado. Al menos en teoría, las computadoras ópticas podrán superar muchas de estas dificultades.Aunque el premio mayor sería dar con una computadora capaz de funcionar totalmente a base de luz, los expertos se conforman (por el momento) con fabricar pequeñas partes que puedan ensamblarse y terminar en una dream machine o máquina de los sueños, con todo lo que tiene que tener, incluidos los periféricos como lectores de CD-ROM y escáneres.Hace poco más de 4 años, un grupo de investigadores de la Universidad de Colorado, en los Estados Unidos, construyó un prototipo capaz de almacenar y procesar la información utilizando haces de luz láser circulando alrededor de una fibra óptica, en vez de electrones. Todavía muy primitivo, el modelo puede procesar información por sí mismo, sin depender de una computadora electrónica que proporcione instrucciones y provea datos desde afuera.Indomable, una de las principales contras de la luz es que no puede ir de un circuito a otro dentro de un mismo chip, sin un mecanismo que la confine. Para solucionarlo, investigadores de la Universidad de Illinois y del Instituto de Tecnología de Zurich lograron armar el año pasado cables ópticos o waveguides, capaces de guiar a los fotones aun en caminos curvos .De todos los elementos aislados que ingenieros y expertos en computación construyeron hasta ahora, los interruptores o llaves de encendido y apagado (switchs) fueron los más complicados de lograr. E, incluso, los que precisaron mayor desarrollo.Aunque no significa que los científicos puedan empezar a producir y comercializar switchs ópticos ahora mismo, científicos que trabajan en la Universidad de Cambridge se las ingeniaron. Y lograron prender y apagar un interruptor a través de pulsos de luz láser. Pero si fabricar circuitos totalmente ópticos es muy difícil, a los ingenieros les queda un camino alternativo: hacer que chips de silicio y chips de luz congenien en un mismo espacio, por mitades. En un futuro cercano, al menos, las computadoras ópticas deberán conformarse con ser sistemas híbridos, medio electrónicos, medio ópticos, admite John Walkup, director del Laboratorio de Sistemas Opticos de la Universidad Tecnológica de Texas, en Estados Unidos.La cuestión es que ambos tipos de microprocesadores son muy diferentes, de manera que integrarlos en una estructura única resulta complicado y... caro.Internet, por su parte, no quedará al margen de los desarrollos. Expertos del MIT (Instituto Tecnológico de Massachusetts), están desarrollando un hardware para redes que funciona gracias a láseres capaces de transmitir 100 mil millones de pulsos por segundo.
Las principales tendencias del mercado de sistemas de interconexión de redes son las siguientes:
• Tendencias de encaminamiento
El mercado está en expansión, cada vez hay más ofertas de productos y además estos incorporan nuevas facilidades de encaminamiento. Tanto los fabricantes de concentradores como los de multiplexores están incorporando en sus productos capacidades de encaminamiento, unos con redes de área metropolitana y extensa, y otros incorporando facilidades de interconexión de RALs.
• Equipos de interconexión a bajo coste
Los fabricantes están presentando equipos de bajo coste que permiten la interconexión de dependencias remotas. Las soluciones de encaminamiento son de diversos tipos: integradas en servidores de red, en concentradores, en pequeños equipos router, etc. Todos estos productos son fáciles de gestionar, operar y mantener.
• Routers multiprotocolo
Estos dispositivos han permitido a los usuarios transportar protocolos diferentes sobre la misma infraestructura de red, lo cual permitiría ahorrar en costes de la infraestructura de transmisión y una potencial mejora de la interoperabilidad.
• Interconexión de LAN/WAN bajo Switchers
Los conmutadores han evolucionado rápidamente dotándose de altas capacidades y velocidad de proceso. Pensados para soportar conmutación ATM (Asynchronous Transfer Mode, Modo de Transferencia Asíncrono) bajo una arquitectura punto a punto, han logrado gran implantación como mecanismo de interconexión de redes de área local heterogéneas, Token Ring y Ethernet en un mismo dominio. Esto se consigue dado que el conmutador permite la segmentación de la red en subredes conectadas a cada uno de sus puertos que puede gestionar de manera independiente.
• Capacidad de gestión
Los fabricantes están dotando a sus dispositivos de interconexión con mayores capacidades de gestión que permitan la monitorización de la red mediante estaciones de gestión y control de los dispositivos de la red, enviando comandos por la red desde la estación de gestión hasta el dispositivo de la red para cambiar/inicializar su configuración.
Análisis de las necesidades del comprador
Las razones para proceder a la adquisición de sistemas de interconexión de redes pueden estar determinadas por diferentes factores. Es labor del responsable de compras la realización de un análisis de necesidades existentes dentro de su organización que permita determinar las necesidades actuales y futuras de los usuarios y las limitaciones o restricciones que ha de plantearse respecto al dimensionamiento de la red y de los dispositivos de interconexión. Es necesario tener en cuenta y analizar en profundidad los costes y beneficios asociados para obtener argumentos de peso en la toma de decisiones.
En la fase de análisis de necesidades, fase inicial del proceso de adquisición, hay que tener en cuenta todos aquellos requisitos, limitaciones y restricciones que afecten, entre otros, a los siguientes puntos:
• Ventajas de la interconexión de redes
Hay que determinar si algunas de las ventajas que proporciona la interconexión de redes es aplicable a las necesidades de la organización. La interconexión de redes proporcionan diferentes ventajas:
o Compartición de recursos dispersos o de otras redes.
o Extensión de la red y aumento de la cobertura geográfica.
o Segmentación de una red.
o Separación entre redes.
o Conversión de protocolos.
Antes de segmentar una red es recomendable realizar un estudio de flujos de datos, porque puede suceder que al realizar la partición en segmentos se aumente el tráfico en los segmentos en vez de disminuirlo.
• Número de redes que van a ser conectadas y topología de las redes
El conocimiento del número de redes a interconectar y las características específicas de cada uno de ellas, permitirá dimensionar correctamente tanto la estructura de la red final como los elementos necesarios para realizar la interconexión.
También se han de analizar las necesidades de adquisición de nuevas redes o infraestructura de red para poder dar soporte a la futura red.
Es necesario delimitar claramente el tipo de redes existentes (Ethernet, TokenRing, FDDI, etc), su topología (estrella, bus, anillo, etc), su distribución espacial en el entorno de operación (localización y distancias). Es recomendable realizar planos del entorno en cuestión.
• Características del entorno físico de operación
La interconexión de redes exige por lo general el tendido de cableado en las dependencias por las que se extienden las redes y ello es una labor cuya complejidad, impacto y coste depende de varios factores. Entre éstos habrá que considerar el área cubierta por las redes y por su interconexión (ubicaciones, departamentos y edificios a interconectar), sus topologías, las peculiaridades constructivas de los locales o edificios, y otras cuestiones que pueden afectar no sólo al coste sino incluso a la viabilidad de la implantación de la interconexión de redes.
• Estimación del coste de adquisición, operación y mantenimiento
El coste de adquisición de dispositivos de interconexión de red tiene varios componentes, directos e indirectos. Todos ellos han de ser tenidos en cuenta si se quiere realizar una previsión razonable de fondos. Los principales factores de coste son los siguientes:
Dispositivos físicos de la red: medio de transmisión, elementos de conexión de los nodos, etc.
Dispositivos lógicos de la red: sistemas de gestión, control y mantenimiento.
Instalación: acondicionamiento de locales, canalización, tendido de cables, conexión de dispositivos, etc.
Costes indirectos: redimensionamiento de nodos pasivos y activos, elementos complementarios, etc.
En ningún caso debe despreciarse a priori la importancia de ningún tipo de costes.
El responsable público de adquisición deberá de disponer de una estrategia de redes perfectamente elaborada para poder satisfacer las necesidades que se puedan plantear en un futuro. Cuando una red está instalada, ésta crece de forma continuada, aumentando en equipos anteriormente no considerados y llegando a lugares no contemplados, soportando nuevas aplicaciones..., lo cual demandará capacidades no imperativas inicialmente
Factores relevantes en el proceso de adquisición
En la definición del objeto del contrato y los requisitos inherentes al mismo, así como en la valoración y comparación de ofertas de los licitadores pueden intervenir muchos factores y de muy diversa índole.
Es de suma importancia que todos los factores relevantes que intervienen en el proceso de contratación queden debidamente recogidos en el pliego de prescripciones técnicas que regule el contrato. Así mismo, es conveniente que las soluciones ofertadas por los licitadores sean recogidas en los cuestionarios disponibles a tal efecto:
De empresa
Económicos
Técnicos particulares
No obstante y a título orientativo en este apartado se hace mención de aquellos factores, que entre los anteriores, pueden intervenir en el proceso de adquisición de equipos y sistemas de interconexión de redes y cuyo seguimiento debe efectuarse exhaustivamente:
• Número de puertas disponibles
Cuando se decide seleccionar un dispositivo de interconexión no sólo hay que tener en cuenta el número de puertas necesarias; hay que pensar en el crecimiento futuro. Interesa dejar un número de puertas disponibles para tener siempre capacidad de crecimiento. Es importante definir un tanto por ciento de puertas libres respecto a las utilizadas. Este porcentaje varía de una implantación a otra y normalmente está condicionado también por el coste de los dispositivos. Algunos de los dispositivos necesitan conexión remota o local de consola, por lo que habrá que tener en cuenta que el dispositivo presente esta característica.
• Gestión disponible
SNMP
CMIP
CMOT
La complejidad de las redes impone la necesidad de utilizar sistemas de gestión capaces de controlar, administrar y monitorizar las redes y los dispositivos de interconexión. Los routers son dispositivos que necesitan que se realicen funciones de gestión. En los otros dispositivos es recomendable que tengan esta facilidad.
Es conveniente analizar si la gestión del dispositivo ofertada es propietaria o es abierta, tendiendo siempre a la última opción.
Pruebas de aceptación final
En función de los elementos técnicos que intervienen y del alcance abarcado, se definen distintos tipos de pruebas sobre los siguientes entornos de una red de datos:
1º) Operativa de Red:
Se distingue entre lo que es un funcionamiento normal de la red y el funcionamiento o reacción de ésta ante los diversos fallos que puedan producirse. Entendiendo por funcionamiento normal, aquél en el que los equipos y la red se encuentran en óptimas condiciones.
Funcionamiento normal.
Se realizarán las comprobaciones de las siguientes funcionalidades:
o Comunicaciones entre Puertos.
 Comprobar las comunicaciones a través de una red.
 Comprobar las comunicaciones con redes externas.
 Comprobar la existencia de derechos de acceso a los distintos puertos de las tarjetas de los diferentes equipos.
o Configuraciones dinámicas.
 Comprobar que las inserciones o extracciones de tarjetas de una red, no afectan al funcionamiento de la misma.
 Comprobar que la extracción o inserción de una tarjeta router, no afecta al funcionamiento de las redes locales conectadas a ese router.
 Comprobar que un cambio en la configuración de una tarjeta, no afecta al funcionamiento del resto de la red.
Funcionamiento ante fallos.
Se realizarán pruebas destinadas a la comprobación de cómo reacciona la red, en el caso de que se produzcan fallos en distintos elementos de la misma.
o Comprobar que las redes siguen funcionando aisladamente, después de la caída de un ramal.
o Comprobar el funcionamiento de las redes ante la caída de una tarjeta de un equipo.
2ª) Gestión de Red
Funcionamiento propio del sistema de gestión:
o Comprobar el funcionamiento de la red ante la caída del sistema de gestión.
o Comprobar que existe un control de accesos al sistema de gestión de red, con distintos niveles de seguridad.
Monitorización de la red.
o Comprobar que el sistema de monitorización gráfica responde en tiempo real a los eventos que ocurren en la red.
o Comprobar que se pueden visualizar distintos niveles dentro de la topología de la red.
Tratamiento de alarmas.
o Comprobar que el fallo, y posterior recuperación de elementos de la red, provoca las alarmas adecuadas.
o Comprobar la existencia de herramientas de prueba remota.
o Comprobar la existencia de distintos niveles de alarmas, y que pueden ser definidas por el usuario.
Informes y estadísticas.
Analizar con las herramientas disponibles la actividad de la red y la creación de informes sobre la misma.
En investigación y ciencia aparece un interesante artículo sobre nano redes de carbono, éstas se componen de nanotubos de carbono distribuidos al azar. Y es que el azar en ciertas ocasiones en vez de provocar caos nos ayuda creando orden donde antes había desorden. Las aplicaciones de este tipo de redes son numerosas.
Con unas redes aleatorias formadas de tubos de carbono diminutos podrían construirse dispositivos flexibles de bajo coste, como el "papel electrónico" y las células solares impresas.
Cuando nos comunicamos con otra persona frente a frente o por teléfono, utilizamos gestos, expresiones y/o modulaciones de la voz que ayudan a nuestro interlocutor a interpretar nuestro mensaje. Esas importantes ayudas audio-visuales de la comunicación no están presentes en la comunicación escrita por lo que es más difícil transmitir ciertas ideas, conceptos o sentimientos. La netiquette es una serie de reglas de etiqueta que todos debemos conocer y seguir al comunicarnos a través de la red para una comunicación mas efectiva y un mejor uso de los recursos y el tiempo. Debido a las características particulares del medio, es necesario utilizar algunos convencionalismos que ya se han establecido para poder comunicarnos efectivamente, y evitar malos entendidos, ofender o ser ofendidos, así como un sinnúmero de otras cosas negativas que pueden surgir al no conocerlos.

Además del sentido común, los buenos modales, la cortesía, el respeto, la consideración y la tolerancia, estas son algunas reglas que debemos todos observar al comunicarnos a través de la red :

1.) Tenga siempre en mente que al otro lado de su pantalla hay un ser humano real, con sus propias ideas y sentimientos. Siempre escriba como si ambos se estuvieran mirando a los ojos. Nunca escriba nada que no le diría frente a frente a otra persona. Es tal vez la principal regla que deba tener presente siempre.

2.) Mensajes enviados a listas de distribución de correo-e serán recibidos por todos los miembros. Mantenga sus MENSAJES PERSONALES a otros miembros EN PRIVADO y envíe a la lista solo aquellos mensajes que desee compartir y sean de interés para todos.

3.) Mantenga sus comunicados breves y al grano.

4.) No envíe a la lista anexos (Attachments) largos (como archivos gráficos).
De así hacerlo, se corre el riesgo de que los mismos no lleguen a su destino. el procedimiento correcto es colocarlos en algún lugar en la red y enviar el url a la lista para que los interesados puedan acceder o describa el documento en la lista indicando que, a solicitud, puede ser enviado en forma directa a los interesados.

5.) Al contestar algún mensaje, deje alguna cita para que se sepa a que se está refiriendo usted, pero, por favor, recorte todo lo demás. Siempre que sea posible conteste al principio y deje la cita al final.

6.) Utilice el "asunto" ("Subject line") correctamente, cambiándolo cuando esté contestando algún mensaje cuyo tema ya no es el original.

7.) Conozca y utilice las cartas de expresión para ayudar a transmitir algunos sentimientos, particularmente si está utilizando humor o sarcasmo.

8.) Nunca conteste un e-mail cuando esté enojado o molesto.

9.) Respete las leyes sobre derechos reservados

10.) Sea cuidadoso con información personal o privada. No publique a la lista datos de terceros (ej. dirección o numero de teléfono).

11.) Nunca cite en público correos que le fueron enviados en privado.

12.) Cerciórese de que está enviando su correo al destinatario correcto cortejando el encasillado de "enviar a:" (" Mail to ") de su programa de correos ANTES de oprimir el botón de "enviar".

13.) Las letras MAYÚSCULAS se pueden usar para sustituir acentos o para enfatizar, pero NO escriba todo en mayúsculas pues esto se interpreta en la red como que ¡USTED ESTÁ GRITANDO!

14.) Sea tolerante. Recuerde que el botón de "Borrar" ("delete") le permite borrar e ignorar cualquier mensaje indeseado.

15.) De sentirse usted ofendido por algo o alguien en la lista dirija sus quejas en privado al defensor y/o al administrador de la lista. Alabanzas y felicitaciones en público, críticas y desacuerdos en privado. Traer asuntos negativos a la lista, en general no resolverá nada y propiciará un clima de debate estéril.

16.) Si recibe usted un mensaje de aviso sobre un virus que se contagia por correo electrónico a algo similar, NO escriba a la lista para alertar a todos los miembros sobre esto. Lo mas seguro se trata de uno de tantos "Hoaxes" (Falsas alarmas) que abundan en la red. Notifique sólo a los administradores y ellos investigarán. De ser necesario, ellos pasaran su aviso a la lista.

17.) No es aceptable el uso de vocabulario obsceno o "picante" en los comunicados a la lista. Sin embargo, por consenso general se permite el uso de palabras "fuertes" en chistes, siempre y cuando el "Tema" especifique claramente que se trata de un chiste y en el texto se haga advertencia y se deje un espacio razonable que le permitan borrarlo antes de leerlo a personas sensibles a este tipo de vocabulario.

18.) Cuando se ingresa a una nueva cultura ( y el ciberespacio tiene su propia cultura es susceptible de comentar algunos errores sociales. Quizás se pueda ofender a personas sin querer hacerlo, o tal vez pueda malinterpretarse lo que otros dicen tomando represalias cuando no fue lo que quiso decir. Para empeorar las cosas, a alguien en el ciberespacio le puede ser muy fácil olvidar que está interactuando con otras personas "REALES", sólo con carácter en una pantalla, sino "caracteres" humanos.

19.) los anteriores lineamientos aplican igualmente a foros, correos electrónicos, listas de distribución de correos-ele., salones de charla (Chat rooms), Libros invitados y en general a todos los servicios que el Internet nos brinda.
NOTICIAS DE TECNOLOGIA.

Andrés Felipe Serrano Durango
e-mail: afserrano4@misena.edu.co

INTRODUCCIÓN


La tecnología avanza cada día más rápido, innovando productos ya en el mercado para hacerlos aun más útiles y mejores, dando a conocer las últimas tecnologías publicamos este informe.


SERVICIOS DE BANDA ANCHA

Los gigantes tecnológicos han logrado que la Comisión Federal de Comunicaciones permita a las compañías utilizar el ‘espacio blanco’ para desarrollar una oferta más amplia de los servicios de internet.
La Comisión Federal de Comunicaciones (FCC por sus siglas en inglés) ha aprobado la utilización del espacio radioeléctrico sin licencia, conocido como el ‘espacio blanco’, para que las operadoras puedan ofrecer servicios de banda ancha más rápidos y de menor coste en EEUU.
Las principales empresas tecnológicas llevan varios meses luchando para conseguir que la FCC diese luz verde a la utilización de este espectro radioeléctrico inutilizado, pero las grandes cadenas de televisión , ABC, NBC o Fox, temían que pudiese interferir con sus emisiones.
La comisión ha indicado que se han hecho las pruebas suficientes para garantizar que no se produzcan interferencias con las transmisiones actuales, lo que posibilitará a empresas como Google, HP y Microsoft desplegar servicios de Internet con una red inalámbrica muy amplia. Uno de los argumentos a favor ha sido la promesa de que la utilización de este espectro radioeléctrico podría ofrecer banda ancha en zonas rurales y partes poco pobladas de EEUU, en donde todavía no ha llegado la conexión ADSL.
"Es una gran victoria para los usuarios de Internet y cualquiera que quiera buenas comunicaciones inalámbricas”, ha escrito el cofundador de Google Larry Page, en el blog de la compañía. “Esta decisión facilitará conexiones a internet más rápidas y mejores para los usuarios, ‘WiFi en asteroides’, ya tendrán un rango mucho más amplio que la tecnología WiFi actual”, añade Page.

USB 3.0

Se espera que el próximo 17 de noviembre una conferencia de desarrolladores anuncie la especificación de USB 3.0 para la industria.
La SuperSpeed USB Developer Conference, que se celebrará el próximo 17 de noviembre en San José, California, será el punto de partida desde el que se extenderá USB 3.0, la próxima especificación del estándar del mercado que aumentará su velocidad hasta diez veces.
La especificación USB 3.0 es la próxima generación del estándar de conexión de alta velocidad que empezará a verse en 2009, y la importancia del comunicado se debe a que hasta que no se anuncie los ordenadores y dispositivos no podrán utilizar conectores basados en ella. Se espera que la nueva especificación ofrezca diez veces la velocidad del actual USB 2.0, utilizado en virtualmente todos los ordenadores lanzados en los últimos años, lo que supone una velocidad de 5Gbps.
Entre las compañía que respaldan la nueva especificación se pueden nombrar a Hewlett-Packard, Intel, NEC, NXP Semiconductores, Microsoft y Texas Instruments.
Tecnologia Avanzada de Control de Red
Jhon edison monsalve
RESUMEN: un grupo de investigadores desarrolla una tecnología avanzada de control de red. Una nueva tecnología experimental denominada openflow permite ajustar la infrestructura de red para aumentar el rendimientp,optimizar la latencia y ahorrar consumo de energía.
PALABRAS CLAVE: openflow: flujo abierto, latencia: la cantidad de tiempo en milisegundos que tarda una transferencia de datos de un punto a otro.
1 INTRODUCCIÓN
El objetivo de este articulo es mantener a los estudiantes de administración de redes de computadores del sena y a los lectores interesados en las ultimas noticias tecnológicas y informaticas en el mundo de la lnternet y las redes de comunicacion.
2 ARTICULO
Desarrollada por investigadores de la Universidad de Stanford, se encuentra actualmente en fase de prueba de concepto, pero algún día podría utilizarse en las redes empresariales para realizar ingeniería de tráfico, según Nick McKeown, profesor de ingeniería eléctrica y ciencia computacional de la universidad. La nueva tecnología forma parte de la iniciativa Clean Slate, puesta en marcha con el fin de buscar y aplicar técnicas de reingeniería para Internet capaces de mejorar su capacidad de respuesta, y ha sido concebida como una manera de probar nuevos protocolos de red sin interrumpir el funcionamiento de las aplicaciones en producción. La única alternativa existente hoy para realizar este tipo de pruebas es crear una infraestructura de red separada sobre la que llevar a cabo los experimentos, una opción cuyo principal inconveniente es el exigir una considerable inversión adicional. OpenFlow permite a los usuarios realizar dos cosas fundamentales: definir flujos y determinar el camino que éstos habrán de seguir a través de la red. Ambas cosas sin interrumpir el tráfico normal sobre ella. También permite definir políticas para encontrar automáticamente los caminos que cumplan ciertas características, como el disponer de un mayor ancho de banda, padecer menos latencia o introducir menos saltos de unos segmentos a otros, reduciendo así la energía requerida para que el tráfico llegue a su destino. Son tres los elementos que conforman la nueva tecnología: tablas de flujo instaladas sobre los conmutadores, un controlador y el protocolo propietario OpenFlow que permite al controlador comunicarse de forma segura con los conmutadores. Cisco, HP, Juniper y NEC han añadido OpenFlow a los conmutadores y routers utilizados en el proyecto, aunque la tecnología no está públicamente disponible. Esta semana se están realizando demostraciones del funcionamiento de OpenFlow en la conferencia Global Environment for Network Innovations (GEN) Engineering Conference, que se está celebrando en HP Labs, en Palo Alto. Para ello se ha configurado una red experimental entre California y Japón, utilizada por varios participantes de ambos países para jugar juntos a un juego informático de puntería. En este contexto, OpenFlow se está usando para localizar un servidor virtual sobre la red que permita minimizar los tiempos de latencia en la experiencia de cada jugador.