En el marco del año del medio ambiente TecnoParque Colombia realizo la Creatón Nacional TecnoParque Colombia 3.0, una actividad en la cual pariciparon dos aprendices del TECNOLOGOS EN ADMINISTRACON DE REDES Alejandro Lara y Mauricio Lopez quienes diseñaron un chekeador de cable utp , Lo innovador del producto es que tiene un precio muy económico ya que los elementos para su construcción son residuos tecnológicos reutilizados.
7.16.2009

Dia del Aprendiz


El pasado viernes 26 de junio, bienestar al aprendiz realizó el día del aprendiz en la sede de Comercio. Mediante un stand organizado por los aprendices, tuvimos la oportunidad de interactuar con los demás compañeros, los contenidos de los diferentes programas que el Centro ofrece en las areas de formacion .
Luego de un refrigerio y de una agenda llena de actividades lúdicas, recreativas y culturales, la jornada finalizó con una lunada.





Vinton Cerf cientifico de la computacion estadounidense considerado el padre de internet visito colombia para realizar una videoconferencia gracias a la intervencion del SENA.


Vinton participo activamente dando a conocer como internet seguira cambiando el entorno en el futuro.


Gracias al sistema de videoconferencias del SENA, los aprendices de Tecnologia Administracion de Redes y Tecnico en Mantenimiento de Equipos tuvimos la oportunidad de tener acceso a la conferencia transmitida desde Bogota la cual sera de gran apoyo a nuestro proceso formativo.




En el Marco del año del medio ambiente 2009, en la Teletón Nacional TecnoParque 3.0 queremos invitar a todos los Colombianos interesados en donar componentes electrónicos que ya no funcionen o que no sirvan como: Discos duros, celulares, mouse, reproductores de música y demás, llevándolo a nuestros nodos a nivel nacional donde TecnoParque Colombia hace presencia:
¿Se daño el disco duro de tu PC y crees que ya no sirve?
No lo botes!!! lo que te fue útil, le podrá ser útil a otros.
Te invitamos a participar en la Teletón Nacional TecnoParque 3.0
Dona los discos duros, celulares, mouse, reproductores, que ya no funcionen, en TecnoParque los transformaremos.
Del viernes 29 de mayo al viernes 26 de Junio de 2009.
Antes de las 6 PM












TecnoParque Nodo RionegroCalle 41 5ª - 324 Instituto Jaime Isaza Cadavid। Teléfono (094) 531 18 96
5.03.2009

Repetidores

4.23.2009

Gateway

Gateway

Posted by Picasa



Esta es una pregunta que nos hacemos muy a menudo, y que además se puede tomar con un doble sentido. Por un lado vamos a ver si un antivirus en general puede eliminar todos los virus (entendiendo estos como malware), y por otro, si un antivirus concreto puede eliminar todos los virus.

Y aunque en ambos casos la respuesta es la misma, es decir, que no, lo es por diferentes motivos. Vamos a ver los diferentes casos y motivos.


1er caso: ¿Un antivirus puede eliminar todos los virus?

No puede. Y no puede porque hay diferentes tipos de virus, algunos de los cuales necesitan un tratamiento especial. Los antivirus son muy eficaces contra virus, pero por lo general no lo son tanto cuando se trata de spyware (programas espía). Para este tipo de virus existen programas antispyware que sí que son muy eficaces, ya que están diseñados para reconocer y neutralizar este tipo concreto de virus.




Algo similar ocurre con los virus del tipo Adware, aunque algunos no consideran el adware como virus (son los programas encargados de mostrar publicidad, sobre todo en Internet, y los responsables de que se llene la pantalla de ventanas publicitarias).

Es especialmente delicado el tema de los troyanos, que un antivirus puro también suele tener dificultades a la hora no tanto de su detección como de su eliminación.

Es por todo esto por lo que es muy conveniente tener instalado al menos un antivirus y un programa específico antispyware, que hoy por hoy es el grupo de virus más numeroso y el que más daño suele causar.

En cuanto a los troyanos, es raro que hagan daño por sí mismos en lo referente a recopilación y envío de información o en el acceso y control de nuestro ordenador, que es en lo que se centran la mayoría de virus actuales, lo que suelen hacer es facilitar la entrada de otro tipo de virus a nuestro ordenador, que sí que son los que van a hacer daño. Ahora bien, un troyano suele tener unos efectos secundarios bastante dañinos. Estos efectos suelen estar encaminados a la defensa de sí mismos y del virus al que facilita la entrada, y lo que suelen hacer es deshabilitar algunas funciones necesarias para proceder a la limpieza. Es bastante normal que impidan el acceso al registro, a la restauración del sistema o la instalación o ejecución de un antivirus. Esto, junto a su alta capacidad de esconderse, mutar y autocopiarse, los convierte en una de las variantes más peligrosas de virus.



A mí uno de los antivirus genéricos (es decir, no especializados en éste tipo de virus) que mejor me ha funcionado en la detección de troyanos ha sido Avast!, que curiosamente es un antivirus gratuito, y ha sido capaz de localizar y eliminar algunos troyanos en los que otros antivirus de gran nombre (y precio) han fracasado.

Lo que ocurre es que la mayoría de los antivirus cuentan con módulos específicos para estos tipos de virus, en especial los denominados Internet Security. Esto hace que, en teoría, en un solo antivirus (o mejor dicho, en una sola suite) tengamos todos los tipos de antivirus que necesitamos.



Estas suites incluyen hasta un Firewall. Hay que hacer una aclaración con respecto a los Firewall. Los Firewall o Corta fuegos NO son antivirus, y su eficacia contra estos es totalmente nula. La función del Firewall es impedir conexiones no deseadas, pero no tiene ningún valor como antivirus (salvo, claro está, el de impedir una conexión no deseada y que esté solicitando un determinado virus). No escanean el ordenador en busca de virus ni detectan estos en las conexiones permitidas o en el tráfico de archivos, se limitan a bloquear una determinada conexión (ya sea de entrada o de salida).

Pero aun en estas suites la eficacia de algunos de sus módulos (antispyware, por ejemplo) es inferior normalmente a la de un programa especializado en la lucha contra este tipo concreto de virus.

En el tutorial Compatibilidad de antivirus, antispyware y Firewall en un mismo ordenador pueden ver las diferentes compatibilidades (o incompatibilidades) al instalar estos programas en el ordenador.


2º caso: ¿Un solo antivirus puede eliminar todos los virus?

Esta es ya quizás la pregunta que más gente se hace, directamente entroncada con la de ¿Cuál es el mejor antivirus?.

Bien, lo primero que hay que decir a este respecto es algo que hemos repetido infinidad de veces, y es que no hay ningún antivirus efectivo al 100%. Hay, eso sí, unos más eficaces que otros, pero al 100%, ninguno. Además, esta eficacia mayor de unos antivirus sobre otros tampoco es absoluta, es decir, que tampoco es que unos sean superiores en la detección de todos los virus a otros.

Veamos, en virus ya conocidos y que llevan un cierto tiempo circulando no suele haber mayores problemas con ningún antivirus, el mayor problema se presenta en la efectividad de la detección heurística.

¿Y qué es lo que hace exactamente la detección heurística? Pues lo que hace es buscar patrones que puedan ser parte de un virus en los archivos que se escanean (ya sea en tiempo real o no). La importancia de esto viene dada por la inmensa cantidad de mutaciones de virus que salen a diario, y que hace que sea imposible analizarlos, encontrar la solución para desinfectarlos y enviar la correspondiente actualización en un tiempo de respuesta prudencial.

La importancia de este tipo de protección radica sobre todo en que muchos virus, aun una vez eliminados, dejan una serie de secuelas en nuestro sistema, que a veces nos obligan cuando menos a reparar nuestra instalación o a restaurar el sistema a una fecha anterior.

Ante esto ¿es interesante comprar una suite del tipo Internet Security? Bueno, es interesante, pero no es la única opción y, desde luego, no es la más económica. Además, hay antivirus portables y Online, que es conveniente usar también ante una duda o posible infección. De ahí que cuando hay un problema de virus se recomiende escanear el equipo con una batería de antivirus, antispyware y antimalware.




Lo que sí que nunca se debe hacer es tener más de un antivirus del mismo tipo residente (los que analizan en tiempo real) al mismo tiempo, ya que esto es muy contraproducente.

Ahora bien, dado que ningún antivirus es eficaz al 100%, a la protección que nos brinda nuestro antivirus (el que tenemos instalado y residente) se debe unir cada cierto tiempo (esto depende ya de nuestros hábitos de navegación) el escaneo con uno diferente (por ejemplo, si tenemos instalado el Kaspersky, hacer un escaneado con el Panda Online o con el Dr. Web). Lo mismo es válido para los antispyware. Si tenemos uno instalado y residente, cada cierto tiempo debemos ejecutar uno diferente, que nos analice el equipo.



Esto no supone un gasto extra, ya que hay muchos (y bastante buenos) programas de este tipo gratuitos, a los que se unen los antivirus Online, que son gratuitos, aunque no todos eliminan los virus (algunos solo avisan de la infección).


CONCLUSION:

Un solo programa antivirus no nos va a dar una seguridad al 100%, y es muy normal que un virus no detectado por nuestro antivirus (sea el que sea) lo detecte otro, por lo que, ante la posibilidad de infección, debemos escanear nuestro equipo con al menos dos antivirus del mismo tipo (ya sean antivirus, antispyware, antimalware o antitroyanos), pero de este modo reducir las posibilidades de que se nos escape alguno.

Eso sí, residente no se debe tener más de uno, ya que no solo conseguiríamos que el equipo se ralentizara extraordinariamente, sino que además la eficacia de los antivirus baja notablemente (de hecho, la mayoría de los antivirus no permiten instalarse si detectan que ya hay otro instalado).

A veces la ejecución de dos antivirus suele dar falsos positivos, es decir, que detectan ciertos archivos de otros antivirus como virus. Esto es así porque la estructura de estos es muy similar, y de hecho tienen que hacer funciones que también hacen los virus, cono examinar y sobreescribir partes de un archivo, aunque en este caso sea para limpiar lo que el virus ha ensuciado.

La detección heurística es de suma importancia en la actualidad, que que el número de mutaciones que salen a diario de otros virus es realmente impresionante, y es imposible analizar y actualizar un antivirus con la rapidez que una buena protección requeriría. Este alto número de mutaciones de un virus que salen a diario no es en buena parte nada más que una forma que se utiliza para luchar contra la eficacia de los antivirus (técnica de saturación), ya que las empresas especializadas en este tipo de programas se ven incapacitadas para analizar todas estas variantes, por grande que sea la empresa.

Por otro lado, casi todos los programas antivirus (no solo las suite del tipo Internet Security) incluyen al menos un módulo antispyware, pero estos módulos raramente llegan a la eficacia de programas antispyware, diseñados expresamente para detectar y neutralizar este tipo concreto de virus.

El que un antivirus no detecte en un momento determinado un virus concreto no quiere decir ni mucho menos que ese antivirus sea malo, solo que en ese momento no lo ha detectado, y es posible que, tras actualizarse, ya lo detecte.

Ahora bien, que lo detecte no quiere decir en todos los casos que sea capaz de eliminarlo. Es posible que una vez detectado tengamos que recurrir a otras herramientas (otros antivirus, antispyware o antimalware) para eliminarlo.

A veces es necesario, debido a las secuelas que deja un virus, reparar la instalación de Windows, siendo además conveniente hacer una limpieza del registro. Para esto existen programas especializados en el tema, como es el caso de CCleaner, programa bastante eficaz en esta función.




Si a esto unimos el uso de antivirus que no estén correctamente actualizados, tenemos el cóctel para conseguir una bonita infección.

POR MAURICIO OROZCO

El informe señala que en el 2013 el tráfico mundial de datos móviles será 66 veces mayor al de hoy en día y que, en su gran mayoría, estará centrado en el video.
En menos de cinco años, el tráfico de datos en Internet ocurrirá en gran parte a través de dispositivos móviles. Así se desvela en la proyección que Cisco presentó en el marco de su estudio Global Mobile Data Traffic, un análisis que proyecta el crecimiento de la transferencia de información en la Red desde equipos como celulares y portátiles.
El crecimiento esperado en dicho segmento es del 113 por ciento (entre 2008 y 2013).
Según el informe, en el 2013 más del 64 por ciento del uso del Internet móvil se gastará en la visualización de videos (TV, contenidos pagos, videollamadas, etc.). Igualmente, en ese año, por las redes móviles circularán en el mundo al mes dos Exabyte de información, es decir, dos mil millones de gigabytes.
El informe también advirtió que el 80 por ciento del la navegación sin cables ocurrirá principalmente en teléfonos provistos con tecnología 3G y superior, así como desde computadores portátiles en movimiento.
Latinoamérica a la vanguardia
Otra de las revelaciones es que Latinoamérica será el continente que mayor crecimiento mostrará en el período analizado por el estudio. Cisco prevé que sea de 166 por ciento anual. Incluso, destaca que serán las llamadas aplicaciones y redes de cuarta generación (4G) las que mayor afluencia obtendrán en los usuarios de nuestra región.
"Las conclusiones del Pronóstico Móvil del Índice de Conectividad de Cisco, VNI muestran que los usuarios finales usarán una variedad de servicios, aplicaciones y dispositivos, lo que generará el incremento del tráfico móvil que estamos pronosticando", dijo Simbad Ceballos, gerente general de Cisco Colombia. "La transformación del Internet móvil 4G en evolución está diversificando aún más la manera como la gente se conecta y usa Internet y está generando un aumento innegable en el crecimiento del ancho de banda".
Esta compañía lanzó una aplicación gratuita, compatible con los teléfonos iPhone y Blackberry Storm, que permite al usuario saber la tasa de velocidad de transferencia de datos que su servicio de Internet móvil le ofrece. Se puede descargar desde la dirección

POR HEIDER DEL RIO

El programa maligno, que se transmite a través de memorias USB e Internet, ha logrado infectar a mas de 10 millones de computadores en todo el mundo.
Según George Stathakopoulos, uno de los responsables del tema de seguridad en Microsoft, anunció que la medida apunta a "hacer rendir a aquellos que se dedican a hacer daño a personas y empresas con virus como Confiker".
La plaga, llamada también Downadup, se ha progragado rápidamente debido a que se transporta a través de memorias USB portátiles. También se infectan los computadores visitando sitios de Internet contaminados.
Una vez instalado, el programa se dedica a espiar información del computador. Igualmente permite a los ladrones informáticos instalar otros virus y programas malignos en los PC de las víctimas.
Conficker aprovecha un fallo de seguridad en Windows que Microsoft corrigió y publicó como parche adicional para el sistema en octubre pasado.


POR HEIDER DEL RIO
3.14.2009

IP Subnet Calculator




Como bien indica su nombre, IP Subnet Calculator es una pequeña calculadora que te permitirá hallar la información referente al protocolo TCP/IP, para configurar tu conexión a Internet o tu red de ordenadores.

Su manejo es muy sencillo, basta con indicar la clase de IP que vas a utilizar, si es A, B ó C, e IP Subnet Calculator mostrará para la dirección indicada, la máscara de subred, el host y otros datos que te pueden resultar muy útiles, como por ejemplo la dirección IP representada con números binarios o hexadecimales. La calculadora representará cada codificación de un color diferente, para que te resulte mucho más sencilla su lectura.

IP Subnet Calculator es una herramienta ideal para configuraciones de varios ordenadores bajo la misma red de área local, o para empresas que se dedican al montaje de redes en oficinas.

DATOS BÁSICOS

Tamaño del archivo: 628 KB
Extensión: .rar
Password: ninguno
Enlace: http://rapidshare.com/files/153485134/IP_Calc_by_JJ.rar.html



POR ALEJANDRO LARA
- Los expertos intentan construir máquinas enteramente ópticas En lugar de transportar electricidad, funcionarán gracias a millones de láseres microscópicos
- Cuál es el estado actual de estos trabajos


Hasta ahora, las computadoras se conectan a tomacorriente. Y tienen microprocesadores del tamaño de la punta de los dedos, con 16 millones de circuitos en su corazón. Aunque en las dos próximas décadas las cosas pueden cambiar. La miniaturización de los microchips (que hasta ahora sirvió para aumentar la velocidad en el procesamiento de los datos) no puede seguir indefinidamente. En 20 años, el achique provocará que los microchips y sus componentes alcancen la escala atómica.Por eso, científicos de América y Europa buscan que las computadoras del futuro ya no funcionen en base a electricidad. Su meta (y su sueño) es que la máquina del siglo veintiuno se alimente pura y exclusivamente de luz.Para ganar en rapidez y potencia, los nuevos circuitos integrados no transportarían chorros de electrones, sino partículas de luz (fotones). La velocidad de transmisión de datos más alta que existe hasta el momento es la velocidad de la luz, y la de un electrón es muy inferior a ella, explicó David DiVicenzo, del Centro de Investigaciones de la empresa IBM, a la revista Scientific American.Es que los haces luminosos pueden recorrer las distancias que separan uno y otro interruptor a una velocidad de 300 mil kilómetros por segundo.Por eso, cada placa madre de las computadoras ópticas estará formada por miles de láseres microscópicos o fuentes luminosas. Cada uno de los cuales envía y recibe mensajes a medida que se enciende y apaga millones de veces.Las ventajas de usar luz para transportar información dentro de la computadora no se limita al aumento de la velocidad. Además de ser más rápidos que la electricidad, los fotones tienen la ventaja de poder cruzarse sin provocar un cortocircuito. Con los electrones no sucede lo mismo: dos alambres de cobre que se encuentran inesperadamente serán la causa segura de un apagón en toda la casa.Esa capacidad de convivencia y buena vecindad estará directamente relacionada con la cantidad de datos que la computadora podrá procesar cada vez. Al poder ir y venir por el mismo canal en direcciones opuestas, la información circulante aumenta considerablemente. Problemas de chispazos aparte, la electricidad tiene otros inconvenientes: los electrones son propensos a acumular calor. Por eso, las computadoras vienen con un miniventilador que refresca la máquina, y la protege del recalentamiento. Manteniéndola a salvo de fundirse en el instante menos pensado. Al menos en teoría, las computadoras ópticas podrán superar muchas de estas dificultades.Aunque el premio mayor sería dar con una computadora capaz de funcionar totalmente a base de luz, los expertos se conforman (por el momento) con fabricar pequeñas partes que puedan ensamblarse y terminar en una dream machine o máquina de los sueños, con todo lo que tiene que tener, incluidos los periféricos como lectores de CD-ROM y escáneres.Hace poco más de 4 años, un grupo de investigadores de la Universidad de Colorado, en los Estados Unidos, construyó un prototipo capaz de almacenar y procesar la información utilizando haces de luz láser circulando alrededor de una fibra óptica, en vez de electrones. Todavía muy primitivo, el modelo puede procesar información por sí mismo, sin depender de una computadora electrónica que proporcione instrucciones y provea datos desde afuera.Indomable, una de las principales contras de la luz es que no puede ir de un circuito a otro dentro de un mismo chip, sin un mecanismo que la confine. Para solucionarlo, investigadores de la Universidad de Illinois y del Instituto de Tecnología de Zurich lograron armar el año pasado cables ópticos o waveguides, capaces de guiar a los fotones aun en caminos curvos .De todos los elementos aislados que ingenieros y expertos en computación construyeron hasta ahora, los interruptores o llaves de encendido y apagado (switchs) fueron los más complicados de lograr. E, incluso, los que precisaron mayor desarrollo.Aunque no significa que los científicos puedan empezar a producir y comercializar switchs ópticos ahora mismo, científicos que trabajan en la Universidad de Cambridge se las ingeniaron. Y lograron prender y apagar un interruptor a través de pulsos de luz láser. Pero si fabricar circuitos totalmente ópticos es muy difícil, a los ingenieros les queda un camino alternativo: hacer que chips de silicio y chips de luz congenien en un mismo espacio, por mitades. En un futuro cercano, al menos, las computadoras ópticas deberán conformarse con ser sistemas híbridos, medio electrónicos, medio ópticos, admite John Walkup, director del Laboratorio de Sistemas Opticos de la Universidad Tecnológica de Texas, en Estados Unidos.La cuestión es que ambos tipos de microprocesadores son muy diferentes, de manera que integrarlos en una estructura única resulta complicado y... caro.Internet, por su parte, no quedará al margen de los desarrollos. Expertos del MIT (Instituto Tecnológico de Massachusetts), están desarrollando un hardware para redes que funciona gracias a láseres capaces de transmitir 100 mil millones de pulsos por segundo.
Las principales tendencias del mercado de sistemas de interconexión de redes son las siguientes:
• Tendencias de encaminamiento
El mercado está en expansión, cada vez hay más ofertas de productos y además estos incorporan nuevas facilidades de encaminamiento. Tanto los fabricantes de concentradores como los de multiplexores están incorporando en sus productos capacidades de encaminamiento, unos con redes de área metropolitana y extensa, y otros incorporando facilidades de interconexión de RALs.
• Equipos de interconexión a bajo coste
Los fabricantes están presentando equipos de bajo coste que permiten la interconexión de dependencias remotas. Las soluciones de encaminamiento son de diversos tipos: integradas en servidores de red, en concentradores, en pequeños equipos router, etc. Todos estos productos son fáciles de gestionar, operar y mantener.
• Routers multiprotocolo
Estos dispositivos han permitido a los usuarios transportar protocolos diferentes sobre la misma infraestructura de red, lo cual permitiría ahorrar en costes de la infraestructura de transmisión y una potencial mejora de la interoperabilidad.
• Interconexión de LAN/WAN bajo Switchers
Los conmutadores han evolucionado rápidamente dotándose de altas capacidades y velocidad de proceso. Pensados para soportar conmutación ATM (Asynchronous Transfer Mode, Modo de Transferencia Asíncrono) bajo una arquitectura punto a punto, han logrado gran implantación como mecanismo de interconexión de redes de área local heterogéneas, Token Ring y Ethernet en un mismo dominio. Esto se consigue dado que el conmutador permite la segmentación de la red en subredes conectadas a cada uno de sus puertos que puede gestionar de manera independiente.
• Capacidad de gestión
Los fabricantes están dotando a sus dispositivos de interconexión con mayores capacidades de gestión que permitan la monitorización de la red mediante estaciones de gestión y control de los dispositivos de la red, enviando comandos por la red desde la estación de gestión hasta el dispositivo de la red para cambiar/inicializar su configuración.
Análisis de las necesidades del comprador
Las razones para proceder a la adquisición de sistemas de interconexión de redes pueden estar determinadas por diferentes factores. Es labor del responsable de compras la realización de un análisis de necesidades existentes dentro de su organización que permita determinar las necesidades actuales y futuras de los usuarios y las limitaciones o restricciones que ha de plantearse respecto al dimensionamiento de la red y de los dispositivos de interconexión. Es necesario tener en cuenta y analizar en profundidad los costes y beneficios asociados para obtener argumentos de peso en la toma de decisiones.
En la fase de análisis de necesidades, fase inicial del proceso de adquisición, hay que tener en cuenta todos aquellos requisitos, limitaciones y restricciones que afecten, entre otros, a los siguientes puntos:
• Ventajas de la interconexión de redes
Hay que determinar si algunas de las ventajas que proporciona la interconexión de redes es aplicable a las necesidades de la organización. La interconexión de redes proporcionan diferentes ventajas:
o Compartición de recursos dispersos o de otras redes.
o Extensión de la red y aumento de la cobertura geográfica.
o Segmentación de una red.
o Separación entre redes.
o Conversión de protocolos.
Antes de segmentar una red es recomendable realizar un estudio de flujos de datos, porque puede suceder que al realizar la partición en segmentos se aumente el tráfico en los segmentos en vez de disminuirlo.
• Número de redes que van a ser conectadas y topología de las redes
El conocimiento del número de redes a interconectar y las características específicas de cada uno de ellas, permitirá dimensionar correctamente tanto la estructura de la red final como los elementos necesarios para realizar la interconexión.
También se han de analizar las necesidades de adquisición de nuevas redes o infraestructura de red para poder dar soporte a la futura red.
Es necesario delimitar claramente el tipo de redes existentes (Ethernet, TokenRing, FDDI, etc), su topología (estrella, bus, anillo, etc), su distribución espacial en el entorno de operación (localización y distancias). Es recomendable realizar planos del entorno en cuestión.
• Características del entorno físico de operación
La interconexión de redes exige por lo general el tendido de cableado en las dependencias por las que se extienden las redes y ello es una labor cuya complejidad, impacto y coste depende de varios factores. Entre éstos habrá que considerar el área cubierta por las redes y por su interconexión (ubicaciones, departamentos y edificios a interconectar), sus topologías, las peculiaridades constructivas de los locales o edificios, y otras cuestiones que pueden afectar no sólo al coste sino incluso a la viabilidad de la implantación de la interconexión de redes.
• Estimación del coste de adquisición, operación y mantenimiento
El coste de adquisición de dispositivos de interconexión de red tiene varios componentes, directos e indirectos. Todos ellos han de ser tenidos en cuenta si se quiere realizar una previsión razonable de fondos. Los principales factores de coste son los siguientes:
Dispositivos físicos de la red: medio de transmisión, elementos de conexión de los nodos, etc.
Dispositivos lógicos de la red: sistemas de gestión, control y mantenimiento.
Instalación: acondicionamiento de locales, canalización, tendido de cables, conexión de dispositivos, etc.
Costes indirectos: redimensionamiento de nodos pasivos y activos, elementos complementarios, etc.
En ningún caso debe despreciarse a priori la importancia de ningún tipo de costes.
El responsable público de adquisición deberá de disponer de una estrategia de redes perfectamente elaborada para poder satisfacer las necesidades que se puedan plantear en un futuro. Cuando una red está instalada, ésta crece de forma continuada, aumentando en equipos anteriormente no considerados y llegando a lugares no contemplados, soportando nuevas aplicaciones..., lo cual demandará capacidades no imperativas inicialmente
Factores relevantes en el proceso de adquisición
En la definición del objeto del contrato y los requisitos inherentes al mismo, así como en la valoración y comparación de ofertas de los licitadores pueden intervenir muchos factores y de muy diversa índole.
Es de suma importancia que todos los factores relevantes que intervienen en el proceso de contratación queden debidamente recogidos en el pliego de prescripciones técnicas que regule el contrato. Así mismo, es conveniente que las soluciones ofertadas por los licitadores sean recogidas en los cuestionarios disponibles a tal efecto:
De empresa
Económicos
Técnicos particulares
No obstante y a título orientativo en este apartado se hace mención de aquellos factores, que entre los anteriores, pueden intervenir en el proceso de adquisición de equipos y sistemas de interconexión de redes y cuyo seguimiento debe efectuarse exhaustivamente:
• Número de puertas disponibles
Cuando se decide seleccionar un dispositivo de interconexión no sólo hay que tener en cuenta el número de puertas necesarias; hay que pensar en el crecimiento futuro. Interesa dejar un número de puertas disponibles para tener siempre capacidad de crecimiento. Es importante definir un tanto por ciento de puertas libres respecto a las utilizadas. Este porcentaje varía de una implantación a otra y normalmente está condicionado también por el coste de los dispositivos. Algunos de los dispositivos necesitan conexión remota o local de consola, por lo que habrá que tener en cuenta que el dispositivo presente esta característica.
• Gestión disponible
SNMP
CMIP
CMOT
La complejidad de las redes impone la necesidad de utilizar sistemas de gestión capaces de controlar, administrar y monitorizar las redes y los dispositivos de interconexión. Los routers son dispositivos que necesitan que se realicen funciones de gestión. En los otros dispositivos es recomendable que tengan esta facilidad.
Es conveniente analizar si la gestión del dispositivo ofertada es propietaria o es abierta, tendiendo siempre a la última opción.
Pruebas de aceptación final
En función de los elementos técnicos que intervienen y del alcance abarcado, se definen distintos tipos de pruebas sobre los siguientes entornos de una red de datos:
1º) Operativa de Red:
Se distingue entre lo que es un funcionamiento normal de la red y el funcionamiento o reacción de ésta ante los diversos fallos que puedan producirse. Entendiendo por funcionamiento normal, aquél en el que los equipos y la red se encuentran en óptimas condiciones.
Funcionamiento normal.
Se realizarán las comprobaciones de las siguientes funcionalidades:
o Comunicaciones entre Puertos.
 Comprobar las comunicaciones a través de una red.
 Comprobar las comunicaciones con redes externas.
 Comprobar la existencia de derechos de acceso a los distintos puertos de las tarjetas de los diferentes equipos.
o Configuraciones dinámicas.
 Comprobar que las inserciones o extracciones de tarjetas de una red, no afectan al funcionamiento de la misma.
 Comprobar que la extracción o inserción de una tarjeta router, no afecta al funcionamiento de las redes locales conectadas a ese router.
 Comprobar que un cambio en la configuración de una tarjeta, no afecta al funcionamiento del resto de la red.
Funcionamiento ante fallos.
Se realizarán pruebas destinadas a la comprobación de cómo reacciona la red, en el caso de que se produzcan fallos en distintos elementos de la misma.
o Comprobar que las redes siguen funcionando aisladamente, después de la caída de un ramal.
o Comprobar el funcionamiento de las redes ante la caída de una tarjeta de un equipo.
2ª) Gestión de Red
Funcionamiento propio del sistema de gestión:
o Comprobar el funcionamiento de la red ante la caída del sistema de gestión.
o Comprobar que existe un control de accesos al sistema de gestión de red, con distintos niveles de seguridad.
Monitorización de la red.
o Comprobar que el sistema de monitorización gráfica responde en tiempo real a los eventos que ocurren en la red.
o Comprobar que se pueden visualizar distintos niveles dentro de la topología de la red.
Tratamiento de alarmas.
o Comprobar que el fallo, y posterior recuperación de elementos de la red, provoca las alarmas adecuadas.
o Comprobar la existencia de herramientas de prueba remota.
o Comprobar la existencia de distintos niveles de alarmas, y que pueden ser definidas por el usuario.
Informes y estadísticas.
Analizar con las herramientas disponibles la actividad de la red y la creación de informes sobre la misma.
2.20.2009

noticias en salud


Londres, 20 feb (EFE).- Un equipo de científicos británicos ha conseguido curar la alergia de cuatro niños a los cacahuetes y cree haber dado un significativo paso en la búsqueda de una terapia de tipo inmunológico para combatir ese problema.
Los expertos, del hospital de Addenbrooke en Cambridge (sur de Inglaterra), aseguraron hoy que su estudio, pese a ser de pequeña envergadura, representa el primer programa de desensibilización ligado a un alimento que tiene éxito en el mundo.
Los científicos, dirigidos por el doctor Andy Clark, siguieron la evolución de cuatro menores que padecían una acentuada alergia a los cacahuetes -que normalmente causa problemas respiratorios- durante un periodo de seis meses.
En el experimento, cuyas conclusiones se han publicado en la revista especializada "Allergy", los niños empezaron tomando dosis diarias de 5 miligramos de harina de cacahuete, que progresivamente se aumentó a 800 miligramos (el equivalente a cinco cacahuetes).
Al final del estudio, los chicos habían desarrollado una tolerancia a esos frutos secos y eran capaces de comer hasta doce cacahuetes al día sin riesgo de sufrir anafilaxis, una reacción alérgica aguda que puede llegar a poner en peligro la vida.
Uno de los participantes en la investigación, Michael Frost, de nueve años, padecía una alergia grave a los cacahuetes desde su nacimiento, aunque su madre, Kate Frost, asegura que el estudio le ha cambiado la vida.
"Es muy difícil describir la gran diferencia que (el resultado de la investigación) supone no sólo en la vida de Michael, sino en la de todos nosotros", comentó la madre.
"Una alergia a los cacahuetes -agregó Kate Frost- afecta a toda la familia. No puedes ir a un restaurante. Si tu hijo va a una fiesta de cumpleaños, tiene que llevar su propia comida".
El doctor Andy Clark explicó que el objetivo de su equipo es "encontrar un tratamiento" que permita a los niños alérgicos "darles la confianza para comer lo que gusten", lo que contribuye a una mayor "calidad de vida".
"No es una cura permanente, pero (los niños del estudio) deberían mantener su tolerancia (a los cacahuetes) si siguen tomando su dosis diaria", subrayó el médico.
El equipo de Clark ha extendido la investigación a otros 18 niños y sostiene que la técnica empleada podría funcionar en los adultos.
Desde la organización "Allergy UK", dedicada a los problemas alérgicos, su director, John Collard, señaló que el estudio supone "un importante paso hacia adelante", si bien "en estos momentos es muy pronto para decir si esto va a funcionar con todo el mundo".
Hasta ahora, la desensibilización de personas alérgicas se había logrado en el caso de picaduras de abejas y avispas, pero nunca en situaciones de alergia a un alimento.
En los años noventa, se efectuaron varios experimentos mediante el uso de inyecciones de cacahuetes, aunque sin éxito, según informó la cadena pública BBC. EFE


MAS….
Maricel Seeger
Buenos Aires, 20 feb (EFE).- Cada vez más parejas extranjeras llegan a Buenos Aires para combinar tratamientos de fertilización asistida con viajes de placer por el país, hasta el punto de que institutos locales ofrecen ya paquetes de "turismo reproductivo" que incluyen paseos a los glaciares o a las cataratas del Iguazú.
El atractivo de Argentina para este tipo de terapias se debe a una ecuación de precios atrayentes, métodos de alta complejidad y vacío legal, según expertos consultados por Efe.
"La gente viene a Argentina porque los tratamientos en Argentina valen la mitad que en el resto de los países, porque la medicina argentina es bastante reconocida, por el trato que brindan los médicos y muchas veces por el vacío legal", explicó Fernando Neuspiller, director médico de la filial local del Instituto Valenciano de Infertilidad (IVI), de España.
Directivos de centros especializados en fertilización coinciden en que entre el 10 y el 20 por ciento de los pacientes extranjeros proceden de países de Latinoamérica, Estados Unidos y Europa, principalmente de España, donde "hay listas de espera para estos tratamientos, por lo que algunas personas viajan para una mayor agilidad", apuntó Susana Kopelman, subdirectora médica del Centro de Estudios en Ginecología y Reproducción (CEGyR).
La devaluación del peso argentino a comienzos de 2002, en medio de una profunda crisis social y económica, hizo que el país diera el primer gran salto como destino para someterse a terapéuticas, entre ellas, de fertilización.
A partir de aquel momento, los precios se convirtieron en un factor de seducción para potenciales pacientes: los tratamientos de fecundación in vitro, la principal elección de las parejas extranjeras, cuestan en Argentina entre 3.000 y 4.000 dólares, la mitad o aún menos que en países desarrollados, aseguraron los especialistas.
Además, la carencia de una ley sobre fertilización asistida en Argentina "facilita prácticas que en otros países están prohibidas, como la congelación de embriones y la donación de óvulos", precisó Kopelman, quien, no obstante, consideró necesario un "marco de regulación" que contemple las necesidades del paciente.
A juicio del doctor Marcelo Bergamasco, director asociado del Centro Argentino de Fertilidad, una ley sobre esta especialidad "no va a disminuir la cantidad" de visitantes extranjeros que llegan al país en busca de estos tratamientos.
Los especialistas coincidieron además en que el "buen trato" de los institutos argentinos es otra de las ventajas para las parejas procedentes de terceros países, en especial de Europa, donde el dos por ciento de los bebés fueron concebidos por fecundación in vitro, de acuerdo con datos de la Sociedad Europea de Embriología y Reproducción Humana (ESHRE).
"Lo que más ponderan es el trato personalizado, que la paciente conoce al médico y que hay más contención que en otros países, además de la buena fama de la medicina argentina", apuntó Bergamasco.
El atractivo turístico del país también es un factor a tener en cuenta y ha sido aprovechado por algunas instituciones, pioneras en la combinación de los cuidados médicos con los recorridos turísticos para las parejas, que suelen destinar unos diez días a los tratamientos de fertilización.
En el portal del Centro Especializado en Reproducción (CER), de Buenos Aires, invitan a los extranjeros a recorrer los alrededores de la clínica por considerarlos "propicios para relajarse y sorprenderse con bares modernos y restaurantes de alto nivel".
"Incluso contamos con un asesoramiento rabínico y bioética para garantizar que nuestras prácticas se ajusten a las necesidades y requerimientos de cada pareja", propone el centro porteño.
Otros centros, como la filial argentina del IVI español ultiman detalles para ofrecer un paquete integral de salud y esparcimiento.
"En otros países lo tienen organizado y nosotros estamos armándolo. Nos asociaremos a un operador de turismo, que tiene paquetes armados, con visitas a sitios de Buenos Aires y a otras ciudades", como Calafate, desde donde se accede al glaciar Perito Moreno, o Iguazú, donde se emplazan las Cataratas, manifestó Neuspiller.EFE

MÁS……
(Embargada hasta las 20.45 GMT de hoy)
Redacción Internacional, 19 feb (EFE).- En los barrios con muchos restaurantes de comida rápida, la incidencia de accidentes cerebrovasculares -ictus- es mayor que en el resto, según una investigación de la Universidad de Michigan (EEUU) hecha pública hoy.
Los responsables del estudio epidemiológico, dirigidos por Lewis B. Morgenstern, descubrieron que existe una relación entre la concentración de restaurantes de comida rápida y el número de ictus en el vecindario.
Ahora bien, los investigadores advierten de que esa relación no prueba que acudir a los restaurantes de comida rápida aumente el riesgo de ictus: serán necesarios estudios en profundidad que lo determinen.
El equipo centró su investigación en Nueces County, Texas (EEUU), donde se contabilizaron el número de restaurantes de comida rápida (262) y el número de ictus isquémicos que tuvieron lugar desde enero de 2000 a junio de 2003 -1.247.
Esos restaurantes cumplían al menos dos de las siguientes características: servicio rápido, comida para llevar, plantilla de camareros limitada o inexistente y pago del pedido antes de su consumo.
Con estos datos, los investigadores dividieron la ciudad en 64 barrios y descubrieron que en las zonas con mayor concentración de restaurantes de comida rápida había un 13 por ciento más de incidencia de ictus que en las áreas con menor concentración.
Además, la incidencia subía un punto porcentual por cada restaurante adicional de comida rápida.
Los investigadores explican que el aumento del riesgo de accidentes cerebrovasculares en función del número de restaurantes de comida rápida no está demostrado, aunque apuntan que existe una relación real entre ambas variables.
Morgenstern afirma que futuros estudios, que afecten a otras ciudades, deberán confirmar la relación establecida.
"No sabemos si la comida rápida realmente incrementa el riesgo de ictus por sus componentes o si los restaurantes de comida rápida son un marcador de barrios poco saludables", dice.
"Necesitamos empezar a aclarar por qué estas comunidades en concreto tienen mayor riesgo. ¿Es el consumo directo de comida rápida? ¿Es la falta de opciones más sanas? ¿Hay algo en estos vecindarios asociado con una peor salud?", añade.
Lo que tiene claro el experto es que los vecindarios con mayor concentración de este tipo de restaurantes son un objetivo principal para desarrollar programas de prevención y hábitos saludables. EFE

MAS…
Un estudio publicado en la revista British Medical Journal, afirma que el tabaquismo pasivo aumenta el riesgo de sufrir demencias, como el Alzheimer y deterioro cognitivo. La investigación se realizó con una muestra de 5 mil voluntarios. Los científicos comprobaron que las personas que habían tenido contacto permanente con el humo del cigarro tenían más probabilidad de sufrir deterioro cognitivo.
En investigación y ciencia aparece un interesante artículo sobre nano redes de carbono, éstas se componen de nanotubos de carbono distribuidos al azar. Y es que el azar en ciertas ocasiones en vez de provocar caos nos ayuda creando orden donde antes había desorden. Las aplicaciones de este tipo de redes son numerosas.
Con unas redes aleatorias formadas de tubos de carbono diminutos podrían construirse dispositivos flexibles de bajo coste, como el "papel electrónico" y las células solares impresas.