Vigilancia Online-Mercados Unidos-Sistemas de Seguridad Electronica-Neuquén

20 junio, 2014

En Latinoamérica se agotaron las direcciones de Internet en el protocolo IPV4

“Hoy la región ingresa definitivamente en la fase de agotamiento de la vieja tecnología de Internet (IPv4)”, informó hoy el Registro de Direcciones de Internet para América Latina y el Caribe (LACNIC).

ipv4

Las direcciones de Internet en el protocolo IPV4 para Latinoamérica y el Caribe se agotaron, según informó la LACNIC a través de un comunicado en el que también expresó su preocupación por “la demora” de operadores y gobiernos en “desplegar el protocolo de Internet IPv6 en la región”.

El comunicado precisó que hoy se alcanzó la cota de 4.194.302 direcciones IPv4, por lo cual “comienzan a regir políticas restrictivas para la entrega de recursos de Internet en el continente”.

“Estamos frente a un hecho histórico que no por ser esperado y anunciado, es menos importante”, afirmó el CEO de LACNIC, Raúl Echeberrí­a.

El ejecutivo agregó que “a partir de hoy LACNIC y los Registros Nacionales sólo podrán asignar cantidades muy pequeñas de direcciones IPv4, insuficientes para cubrir las necesidades de nuestra región”.

La entidad lleva entregadas más de 186 millones de direcciones IPv4 en América Latina y el Caribe, desde el inicio de sus operaciones en 2002.

Fuente Telam-Juan Moratto

Anuncios

6 junio, 2012

Hoy Internet cambia para siempre: si todo sale bien, será imperceptible

Filed under: Datos y Noticias, Internet/Web, Redes — Etiquetas: — Vigilancia-Online @ 12:19 am

Se comenzará a usar en forma masiva las números IPv6, que permiten aumentar la cantidad de dispositivos conectados en forma simultánea a Internet a varios sextillones

Desde hoy a las 0 horas del miércoles (del huso horario de Greenwich) la mayor parte de Internet funcionará sobre una red IPv6. Difícil pensar en una frase más oscura, pero que condense mejor uno de los cambios más grandes que vivió la red de redes desde su nacimiento, hace más de 40 años .

Es sencillo de comprender. Cada computadora que se conecta a Internet (sea la PC, un celular, el televisor) recibe algo que se conoce como número IP (las siglas de Internet Procotol, que junto con otro protocolo, el TCP, son la base de las comunicaciones de la Red) para identificar a ese equipo en la Red.

Ese número IP es un conjunto de cuatro números de tres cifras, y es unívoco. Es como una dirección postal, y sirve para que cuando una computadora (la que está usando para ver este texto, por ejemplo) se conecte a un sitio y le pida un archivo (esta nota), la computadora que responde a ese pedido sepan a quién enviarle esos datos. En cada pedido de datos se incluye el destinatario y el remitente, y en ambos casos se trata de un número IPv4.

Ese número sólo puede ser usado un equipo al mismo tiempo, porque de otra manera las computadoras que están en el medio no sabrían a quién responderle un pedido. Los sitios grandes tienen un número IP fijo. Los de los usuarios comunes -los que acceden a Internet desde un cablemódem, un modem ADSL o una conexión 3G- son dinámicos, es decir, temporales. Una persona se conecta, recibe un IP. Se desconecta, otra persona lo recibe. Esto permite hacer más eficiente el uso de números IPv4, que tiene una cantidad finita.

Cuando se definió el IPv4, en 1981, se usó una codificación de 32 bits (4 grupos de tres números que llegan al 255) que permite asignar casi 4.300 millones de números IP, aunque en la práctica ese número es menor; ronda los 4000 millones. Bueno, esa cantidad de números IP está agotada; eso significa que los proveedores de Internet tienen cada vez más problemas para reutilizar un número IP y asignarlo a alguien que quiere conectarse. Por ejemplo, hay más de 5000 millones de usuarios de telefonía móvil en el mundo; si todos tuvieran un smartphone y quisieran estar todos conectados al mismo tiempo, no podrían, porque no alcanzarían los números IP para darle uno a cada uno.

Esto, vale aclararlo, es algo de lo que se viene hablando hace tiempo, y se sabía que llegaría el díaen que sería necesario pasar a una versión de números IP; en febrero de 2011 se asignó el último grupo de números IPv4.

En la versión 6 (definida en 1996) se usa una codificación de 128 bits, lo que permite asignar una cantidad notoriamente mayor de números a las computadoras existentes y a las nuevas que se conecten en los próximos años. ¿Cuántos números? Un 3 seguido de 38 ceros (300 sextillones).

Un número IP actual es, por ejemplo, 192.168.1.1 (que se usa sólo en una red hogareña) mientras que un número IPv6 es un conjunto hexadecimal (números del 0 al 9 y letras hasta la F).

La buena noticia es que este cambio debería ser transparente para el usuario, ya que es raro que usemos un número IP para acceder a una página Web; usamos un nombre de dominio que nos resulte más fácil recordar; así, para ir a la página www.worldipv6launch.org (la página oficial que registra la transición) no es necesario saber su número IP (que además podría cambiar con el tiempo) sino que basta con tipear el dominio y esperar a que nuestro proveedor de Internet se conecte con un servidor DNS, una computadora especializada que mantiene una lista de dominios y el número IP que tienen, sea IPv4 o v6.

En la Argentina, según los directivos de Cabase (la cámara que agrupa a los proveedores de Internet) desde 2006 está todo listo para usar IPv6. Técnicamente los proveedores de Internet y sitios Web no están obligados a usar el IPv6, pero sitios como Google, Facebook, Microsoft o Yahoo! son parte de esta movida, lo mismo que varios proveedores de Internet de porte internacional, además de fabricantes de routers para el hogar, como Cisco y D-Link, que a partir de hoy comenzarán a promover el uso de IPv6 en sus productos.

Si algo falla, sin embargo, debería ser temporal, en parte porque el IPv4 se seguirá usando (hay equipamiento y software viejo que no es capaz de hacer el cambio). Todos los sistemas operativos y navegadores Web modernos, además, ya son compatibles con IPv6. “Desde Windows XP para acá, los sistemas operativos, si tienen la opción, eligen IPv6. Igual IPv4 no va a dejar de funcionar; lo que sucederá a partir de ahora es que irán creciendo, por así decir, islas de IPv6 en un mar de IPv4, que irán haciéndose más grandes. Para el usuario todo esto es transparente, el tema es para el proveedor de Internet; buena parte de los módem que hoy tiene la gente no soportan IPv6, y esto demora un poco más el despliegue de IPv6. Pero la gente que tiene estos equipos no se va a quedar sin conexión; no es que uno termina con el otro, sino que conviven”, explica Sebastián Bellagamba, director regional para América latina y el Caribe de la Internet Society .

La apuesta con IPv6 está en darle lugar a la creciente cantidad de dispositivos que se conectan a Internet, y que van más allá de los servidores o las computadoras convencionales: smartphones, tabletas, televisores, consolas, autos y toda clase de dispositivos que están creando un mundo físico cada vez más conectado.

Por Ricardo Sametband

 

El Equipo de MU.

22 septiembre, 2010

LA TRANSICIÓN A 4G

Filed under: Datos y Noticias, Internet/Web, Redes — Etiquetas: , , , — Vigilancia-Online @ 8:03 am

3G Américas publica informe de investigación sobre evolución de la banda ancha móvil 3GPP
Bellevue, Wash & México D.F – 15 de Septiembre de 2010 – “El poder y el potencial de la conectividad de red siempre activa y desde cualquier lugar puso en marcha el paso a la utilización de banda ancha móvil en el mercado masivo, con tecnología de 3G que se hace ubicua” afirmó Peter Rysavy, Presidente de Rysavy Research y autor del libro blanco de reciente publicación anunciado hoy por 3G Américas. “A través de la innovación y las optimizaciones, las tecnologías del 3GPP están conectando a más de 500 millones de suscriptores en todo el mundo hoy para un mundo de banda ancha móvil a alta velocidad.”

El informe de Rysavy “Transition to 4G: 3GPP Broadband Evolution to IMT-Advanced” (Transición a 4G: Evolución de la banda ancha del 3GPP a IMT-Advanced) explica y analiza la evolución de EDGE, optimizaciones HSPA, 3GPP LTE, las capacidades de estas tecnologías y su posición respecto de otras tecnologías competidoras importantes. También resalta de qué modo se insertan éstas tecnologías en el camino de migración de la UIT a IMT-Advanced.

Estas son algunas de las observaciones y conclusiones clave del libro blanco:

• GSM-HSPA tiene una posición global abrumadora en términos de suscriptores, implantación y servicios
• El 3GPP ha estado a la vanguardia de las optimizaciones tanto de la Red de Radio Acceso como de la Red Central para mejorar las experiencias de los clientes
• HSPA y LTE tienen ventajas económicas significativas frente a otras tecnologías inalámbricas debido a sus vastas economías de escala y alcance
• El enfoque 3GPP OFDMA utilizado en LTE iguala o supera las capacidades de cualquier otro sistema OFDMA
• 3GPP ha realizado un avance significativo respecto de cómo optimizar LTE para satisfacer los requerimientos de IMT-Advanced
• Se prevé que para marzo de 2011 se completarán las especificaciones para LTE-Advanced, con velocidades máximas teóricas de hasta 1 Gbps, haciendo de LTE-Advanced una de las primeras tecnologías definidas para cumplir con los requisitos de la UIT para IMT-Advanced

Con una base de clientes de 4,5 mil millones de conexiones hoy, la familia de tecnologías del 3GPP está disponible en casi 800 redes de 219 países en todo el mundo. Sobre esta base, UMTS-HSPA -la tecnología de banda ancha móvil dominante en el mundo hoy- probó ser la tecnología de 3G más ampliamente implantada y adoptada en la historia, con 358 redes HSPA comerciales en 142 países. 3G Americas prevé que la mayoría de los operadores HSPA actualizará sus redes a HSPA+, que ya está implantada comercialmente por parte de 69 operadores en 37 países, con velocidades máximas teóricas en el downlink entre 21 Mbps y 42 Mbps en la actualidad.

“HSPA-LTE tiene ventajas económicas significativas respecto de otras tecnologías inalámbricas”, aseguró Chris Pearson, Presidente de 3G Americas. “Nosotros prevemos que HSPA será la tecnología dominante para datos móviles durante la próxima década. Más aún, HSPA ofrece una transición sin sobresaltos a LTE y el paso a LTE será una evolución, ya que las redes móviles existentes permanecerán operativas durante años.”

LTE pasó a ser la plataforma tecnológica predilecta: operadores GSM-UMTS y CDMA/EV-DO, como así también operadores WiMAX con licencias adquiridas recientemente, están tomando decisiones estratégicas a largo plazo respecto de sus plataformas para la próxima generación. A la fecha, hubo 5 implantaciones comerciales de LTE en 4 países, con casi 250 compromisos LTE informados alrededor del mundo.

En una versión futura, LTE-Advanced será una de las primeras tecnologías en satisfacer los requerimientos de IMT-Advanced, un proyecto de la UIT. La fecha de conclusión de las especificaciones está prevista para marzo de 2011 y en 2012 habrá disponibilidad para implantaciones.

“Mundialmente, estamos viendo tecnologías inalámbricas que están transformando la manera de vivir y comunicarse de las personas”, afirmó Rysavy. “En los próximos años, este nuevo mundo de conectividad de 4G estará habilitado por aplicaciones, servicios y modelos de negocios que hoy quizá ni siquiera existen.”

El libro blanco Transition to 4G: 3GPP Broadband Evolution to IMT-Advanced, y la presentación en slides que lo acompaña fueron desarrollados en colaboración con Rysavy Research por las organizaciones miembros de 3G Americas y está disponible para descargar sin cargo del website de 3G Americas en http://www.3gamericas.org.

* * * * *

Acerca de 3G Americas: Unificar a las Américas a través de tecnología inalámbrica
3G Americas es una organización comercial de la industria compuesta por proveedores de servicios y fabricantes de telecomunicaciones. La misión de la organización es promover, facilitar y abogar por la implantación de la familia de tecnologías GSM, incluso LTE, en toda América. 3G Americas contribuyó a la implantación comercial exitosa de GSM en toda América y a que esta tecnología alcanzara el primer puesto entre todas las tecnologías en la región, como así también a la adopción global de EDGE. La organización apunta a desarrollar el ecosistema expansivo de redes, dispositivos y aplicaciones habilitado por GSM y su evolución a LTE. 3G Americas tiene su sede en Bellevue, Washington, y una oficina para América Latina y el Caribe en Dallas, Texas. Encontrará más información en
http://www.3gamericas.org.

Los miembros de la Junta Directiva de 3G Americas incluyen a: Alcatel-Lucent, América Móvil, Andrew Solutions, AT&T, Cable & Wireless, Ericsson, Gemalto, HP, Huawei, Motorola, Nokia Siemens Networks, Openwave, Qualcomm, Research In Motion (RIM), Rogers, T-Mobile USA y Telefónica.

Glosario de términos

3G – Tercera Generación
3GPP – 3rd Generation Partnership Project (Proyecto de Asociación para la Tercera Generación)
4G – Cuarta Generación (satisfaciendo los requisitos planteados en el proyecto de IMT-Advanced de la UIT)
EV-DO – Una portadora optimizada, datos optimizados
Gbps – Gigabits por segundo
GSM – Sistema Global para comunicaciones Móviles
HSPA – Acceso a paquetes a alta velocidad (HSDPA con HSUPA)
HSPA+ – HSPA Evolution
IMT – Telecomunicaciones Móviles Internacionales
ITU – Unión Internacional de las Telecomunicaciones
LTE – Evolución para el largo plazo
OFDMA – Acceso múltiple por división de frecuencias ortogonal
UMTS – Sistema Universal de Telecomunicaciones Móviles
WiMAX – Interoperabilidad mundial para acceso por microondas

El Equipo de MU.

22 julio, 2009

El NAS en las Pymes

Filed under: Hardware, Redes, Tecnología Informática — Etiquetas: , — Vigilancia-Online @ 8:00 am

Cualquier Pyme actual opera en base a un sistema informático, ya prácticamente sin excepción, que les permite realizar tareas tan variadas como hacer el seguimiento de las cuentas contables, administrar las propuestas y cotizaciones a sus clientes, administrar el stock, entre otras tareas críticas. En los últimos 25 años, las computadoras han transformado completamente la forma en que operan las pequeñas empresas, permitiendo que los que trabajan en ellas organicen y administren la información de una manera en que resultaba imposible en las épocas de los legajos en papel y de los archivos indizados en gabinetes.

Una vez que su empresa crece más allá de tener un único empleado, se enfrenta con el problema de la administración de la información. ¿Cómo mantiene loa datos de manera ordenada y, simultáneamente los hace disponible a las diferentes personas que trabajan para usted que necesitan trabajar con ellos?

Las grandes empresas tienen departamentos de informática que llevan adelante las tareas pesadas de diseñar y mantener redes informáticas cada vez más complejas, pero las Pymes tienen la presión de tener todo su trabajo hecho en tiempos sumamente cortos, impidiéndoles esto prestar atención a sistemas informáticos complicados.

El Ocaso del Servidor Dedicado

Afortunadamente, las redes de PCs han ido transformándose, facilitando su instalación y uso en los últimos años en comparación con el pasado. No necesita un servidor dedicado, y muchas empresas se dan cuenta que una red local es rentable en la medida en que compartan recursos tales como el acceso a Internet o una impresora de alta velocidad. Y también ahora, es más simple que nunca compartir datos en una red.

La forma más simple de compartir datos es la de permitir que otras PCs en la red vean una porción del disco rígido de su sistema, pero desafortunadamente los datos estarán accesibles a otros solamente cuando su PC esté encendida.

Instalar un sistema de almacenamiento separado al cual todos puedan acceder en cualquier momento ayudará a resolver el problema. Tales productos, los cuales son conocidos como NAS (Network Attached Storage o Almacenamiento Conectado a la Red), ofrecen una opción sofisticada y accesible en costo para las Pymes.

Como su nombre lo indica, un dispositivo NAS se conecta directamente a la red. Emplea un cable ethernet para conectarse a cualquier Switch o Router y dispone de un cable para alimentación eléctrica convencional. Si el dispositivo es un componente crítico de su red, lo recomendable es enchufarlo a una UPS.

Cuando se enciende un NAS, el dispositivo se comunica con su red y obtiene una dirección IP. A partir de este momento está listo para ser usado. Existen muchos modelos de NAS, algunos con una capacidad fija y otros que permiten el agregado de discos de cualquier tamaño. Deben pensarse como una unidad de dos o más discos autónoma conectada a una red sin necesidad de la existencia de un Servidor.

No solo se lo emplea para que todos los usuarios compartan información entre sí, sino también es una valiosa herramienta de backup y respaldo de la información crítica almacenada en las PCs de los usuarios, pudiéndose programar backups con cierta periodicidad sobre el NAS mismo, el cual, muchas veces, viene acompañado de un software pensado para tal fin.

El NAS es un recurso tecnológico que permite hacer más eficientes las Pymes sin destruir sus presupuestos.

Para más información contáctese con www.mercadosunidos.com info@mercadosunidos.com

El Equipo de MU.

16 julio, 2009

Bluetooth 3.0 con pronunciado giro hacia el Wi-Fi

Filed under: Redes — Etiquetas: , , , — Vigilancia-Online @ 8:00 am

Bluetooth 3.0 con pronunciado giro hacia el Wi-Fi

mercados_unidos_btEl Grupo de Interés Especial Bluetooth ha lanzado Bluetooth 3.0 con importantes avances para este standard de enlace wireless a corta distancia. El avance más iportante es un salto en la velocidad de la actual y última versión del Bluetooth, que estaba en 3 megabits por segundo a 24 megabits por segundo en la versión 3.0.

Más allá de las mayores velocidades especificadas, el 3.0 emplea el protocolo de radio 802.11, lo cual le permite al protocolo Bluetooth transformarse en una señal de Wi-Fi cuando se transmitan grandes volúmenes de datos (video, música o fotografías, por ejemplo).

Michael Foley, director ejecutivo del SIG (Grupo de Interés Bth.) indicó que el usuario promedio podrá usar tasas de transferencia entre los 22 mbps y 26 mbps. Esta es una gran ventaja para aquellos dispositivos que emplean una conexión de este tipo, debido a que permite que dos dispositivos transfieran datos a alta velocidad sin necesidad de emplear un cable USB o logearse formalmente en una red Wi-Fi.

Otra característica nueva incluye al Unicast Conectionless Data, para mejorar la velocidad de respuesta de los dispositivos y extender la duración de las baterías, y el “Control Mejorado de Energía”, que reduce la incidencia de desconexiones producidas por el movimiento talaes como colocar un teléfono celular en un bolsillo o cartera.

Dirección SIG Bluetooth: http://spanish.bluetooth.com/Bluetooth/SIG/

El Equipo de MU.

11 mayo, 2009

Modelo a Imitar: Acceso a Internet en una de las zonas más inhóspitas de Ecuador

Filed under: e-government, Informática y Sociedad, Redes — Etiquetas: , , — Vigilancia-Online @ 9:00 am

Se Implementó La Solución Canopy® De Motorola Para Brindar Conexión Inalámbrica A 10.000 Habitantes De Salinas De Guaranda Que No Poseían Acceso A Internet De Ningún Tipo

El municipio de Salinas de Guaranda, Ecuador, eligió a Motorola como proveedor de acceso a Internet para toda el área de cobertura de la región. La señal llegará gracias a las soluciones de conectividad inalámbrica MotoWI4™ Canopy® de Motorola.

Mediante la combinación de redes alámbricas e inalámbricas de Motorola se extendió el área de cobertura hacia una población que no poseía acceso a este tipo de servicios. Esto posibilita a los 10.000 habitantes de Salinas de Guaranda acceder a la Sociedad de la Información a través de Internet.

Con el objeto de mejorar las posibilidades de producción, posicionarse en el mercado regional y fortalecer la formación integral de los niños y jóvenes a través de la creación de un aula virtual; La FEEP (Fondo Ecuatoriano Populorum Progressio) haciendo gala de su intención común por la cual fue creada, contribuir con el desarrollo solidario de la humanidad, consideró que era necesario proporcionar Internet de banda ancha inalámbrica a la comunidad de Salinas de Guaranda (Ecuador).

Se realizó un exhaustivo análisis de las distintas tecnologías que se podían utilizar y aplicar. Teniendo en cuenta la relación costo-beneficio de cada tecnología, la comunidad de Salinas decidió implementar la tecnología de banda ancha inalámbrica Canopy® de Motorola que, utilizando la frecuencia de 2.4, 5.2, 5.4 y 5.8 GHz, es una de las más estables, incluso para distancias considerables. Además, dado que es una zona rural donde se deben cubrir grandes distancias, la disponibilidad de equipos y su bajo costo hacen de esta tecnología la más apropiada para comunidades rurales.

“Para lograr el éxito esperado debíamos instalar una tecnología que ofrezca la mejor relación costo-beneficio, dado que en esta zona rural las posibilidad de realizar una implementación satisfactoria es más reducida que en las grandes ciudades, y no podíamos correr riesgos monetarios.” dijo Geovani Castañeda, Coordinador de InfoFepp, y agregó, “Motorola nos brindó tanto la tecnología como el conocimiento necesario para llevar a cabo este proyecto”.

Como parte del proyecto se contrató un acceso alámbrico ADSL en la ciudad más cercana para llevarlo hasta la comunidad de Salinas, utilizando un enlace inalámbrico, para luego repartir la señal a través de un punto de acceso. Se empleó un sistema Canopy® de Motorola, utilizado en la banda 2.4 GHz

Actualmente, Salinas cuenta con un canal de comunicación, donde la señal llega en forma inalámbrica hacía 8 puntos remotos dentro de la comunidad de Salinas, entre ellos, ocho organizaciones campesinas y un Aula Virtual.

“Estamos muy contentos con el desarrollo de esta implementación. La tecnología está respondiendo como esperábamos y esperamos, seguir complaciendo a toda la comunidad de Salinas” aseguro Manuel Riaño, Gerente de Desarrollo de Negocios de Banda Ancha del Territorio Andino de Motorola

Para saber más sobre las soluciones para Gobierno y Empresas de Motorola, visite, http://www.motorola.com/radiosolutions

Acerca de la FEPP

El Grupo Social Fondo Ecuatoriano Populorum Progressio (FEPP), es una fundación privada, ecuménica, auspiciada por la Conferencia Episcopal Ecuatoriana.

Nació de la intención común de un grupo de laicos, sacerdotes y obispos, liderado por Monseñor Cándido Rada, buscando dar respuesta al llamado de Pablo VI en la encíclica Populorum Progressio de crear un “fondo común” para la “asistencia a los más desheredados” en la perspectiva de un “desarrollo solidario de la humanidad”.

Ejecuta sus acciones a través de su oficina Matriz en Quito, y sus regionales a nivel nacional.

El FEPP dispone de varias empresas como:

– Cooperativa de Ahorro y Crédito Codesarrollo

– Sistema Solidario de Comercialización Camari

– Escuela de Formación Empresarial EFE

– Imprenta Imprefepp

– FEPP Construcciones

– Protierras

– Agroimportadora

– Sostenibilidad Ambiental Yurafepp

– Tecnología para Todos Infofepp

Web:  www.feepp.org.ec

El Equipo de MU.

5 abril, 2009

Estándares inalámbricos y la nueva generación 802.11n

Filed under: Redes, VoIP — Etiquetas: , , — Vigilancia-Online @ 9:00 am

Inalámbrico-B (802.11b) – Opera en la banda de frecuencia de 2,4 GHz y puede transmitir datos a velocidades de hasta 11 Mbps con un alcance de hasta 100-150 pies. El alcance de la red inalámbrica puede verse afectado por obstáculos que bloquean la señal o reflectantes, como espejos, paredes, dispositivos y ubicaciones, ya sea en espacios abiertos o cerrados. Conozca más sobre las velocidades de red..

Inalámbrico-A (802.11a) – Opera a la frecuencia de 5 GHz, que está menos congestionada que la de 2,4 GHz donde los teléfonos y microondas pueden causar interferencias. Aunque la velocidad puede llegar hasta 54 Mbps, el alcance es solamente de 75 pies. Inalámbrico-A no es compatible con inalámbrico-B y G ya que opera a diferente frecuencia.

Inalámbrico-A+G (802.11a + g) – Linksys también ofrece productos de banda doble, donde los direccionadores y adaptadores son compatibles con ambas frecuencias, 2,4 GHz y 5 GHz. Ambas bandas de radio trabajan simultáneamente, perturbando su zona inalámbrica y ancho de banda.

Inalámbrico-G (802.11g) – Ofrece los mismos beneficios que inalámbrico-B, pero alcanza una velocidad 5 veces mayor, hasta 54 Mbps. Inalámbrico-G ofrece actualmente la mejor combinación de valor y rendimiento. Puede mezclar equipo inalámbrico-B con equipo inalámbrico-G, pero perderá las velocidades de rendimiento más altas del equipo inalámbrico-G.

Inalámbrica-N (802.11n) – La próxima generación de redes inalámbricas de alta velocidad, capaz de ofrecer el alcance y la capacidad para la mayoría de las aplicaciones actuales hambrientas de ancho de banda, como reproducción de vídeos de alta definición, voz y música. La tecnología inalámbrica-N está basada en la tecnología MIMO (múltiples entradas, múltiples salidas), que utiliza varias ondas de radio para transmitir múltiples flujos de datos por varios canales.

El estándar 802.11n será la próxima generación de Wi-Fi de alta velocidad, capaz de ofrecer el alcance y la capacidad para la mayoría de las aplicaciones actuales hambrientas de ancho de banda, como reproducción de vídeos de alta alta definición, voz y música. Actualmente aprobada para el estatus preliminar 1.0 por el comité de tareas grupo-N del IEEE (Instituto de Ingenieros Electrónicos y Eléctricos).

La tecnología inalámbrica-N utiliza tecnologías como MIMO (múltiples entradas, múltiples salidas), que a su vez usan múltiples señales de radio para transmitir y recibir simultáneamente a fin de maximizar el rendimiento de la red inalámbrica. Aunque MIMO en sí no es un estándar, es la tecnología subyacente que está detrás del aumento de rendimiento en 802.11n. Estas múltiples señales de radio transmiten múltiples flujos de datos llamados “corrientes espaciales”. Cuanto mayor sea el número de corrientes espaciales, mayor será el rendimiento. Numerosas corrientes de contenido pueden moverse por el mismo canal al mismo tiempo, multiplicando la capacidad de cada canal. La tecnología inalámbrica-N puede duplicar la capacidad usando opcionalmente dos canales de 20 MHz. Con la tecnología de “antena inteligente”, se combinan señales intensas, débiles y reflejadas en una transferencia de datos para conseguir el máximo alcance, eliminando casi por completo los puntos muertos en toda su casa u oficina.

how-does-wireless-n-work_mx1

El Equipo de MU.

(Imagen protocolo 802.11g propiedad de Cisco-Linksys).

28 marzo, 2009

WiMax Forum considera abrir laboratorio de certificación en Brasil

Filed under: Internet/Web, Redes, Tecnología Informática — Etiquetas: , , — Vigilancia-Online @ 8:00 am

El WiMax Forum está considerando abrir dos o tres laboratorios de certificación el próximo año y las posibles sedes son Brasil, Japón y Malasia, dijo a BNamericas su directora de comunicaciones de marketing, Scenna Tabesh.

Actualmente existen seis de estos laboratorios en todo el mundo ubicados en EEUU, España, China, Corea del Sur y dos en Taiwán, puntualizó Tabesh.

La ejecutiva sostuvo que la certificación es clave para el desarrollo de la tecnología en Latinoamérica. La organización cuenta con más de 50 productos certificados para 2,5GHz y ya se han licitado varias licencias de esta banda de espectro en la región.

Además, para 3,5GHz, hay múltiples productos certificados para interoperabilidad tanto en bandas fijas como móviles, lo que es un beneficio para economías de escala y “ayuda a cumplir con la promesa que el ecosistema WiMax está tratando de ofrecer”.

Las principales áreas de oportunidad para WiMax en Latinoamérica son Argentina (3,5GHz), México y Brasil (tanto en 3,5GHz como 2,5GHz) con licencias que van a licitarse este año, y Chile.

De acuerdo con el WiMax Forum, el costo de certificación de productos WiMax es significativamente menor que en el caso de productos 3G, aseveró Tabesh.

La ejecutiva reconoció que la industria WiMax no será inmune a la desaceleración de la economía global, pero indicó que Forum prevé el lanzamiento de al menos 100 operaciones WiMax en el 2009.

“Inicialmente pensamos que esta cifra iba a ser mayor, pero la conmoción del mercado sin duda ha hecho que los inversionistas sean más prudentes y se aprieten el cinturón”, comentó.

Tabesh destacó además el lanzamiento del programa mundial de roaming WiMax y que de todas formas el WiMax Forum cree que habrá certificado 1.000 WiMax hacia el 2011.

Aunque la organización vaticina que habrá 133 millones de usuarios de la tecnología WiMax en todo el mundo hacia el 2012, tiene previsto reevaluar esta cifra antes de junio.

Actualmente existen 455 despliegues comerciales en 135 países, con cerca de 50 lanzamientos que se han sumado en los últimos 6 meses.

Más de 25 de estos despliegues corresponden a la tecnología WiMax móvil.

Fuente: BNA

El Equipo de MU

28 febrero, 2009

Cómo es el mundo de las supermáquinas

Filed under: Hardware, Redes, Tecnología Informática — Etiquetas: , — Vigilancia-Online @ 8:00 am

Miles de procesadores, kilómetros de cables y el cálculo en paralelo son las claves de las supercomputadoras, dedicadas al estudio del cambio climático y el diseño de nuevos dispositivos

ibm-teraflop1A principios de mes, IBM anunció el inicio de la construcción de Sequoia, la supercomputadora que cuando esté lista en 2012 será, según la compañía, la más poderosa del planeta.

Su poder de cálculo teórico será mayor que el de los 500 equipos más rápidos del planeta sumados, llegando a realizar 20 petaflops, es decir, 20.000 billones de operaciones matemáticas por segundo. Ocupará más de 300 metros cuadrados, donde 96 servidores (cada uno del tamaño de una heladera) albergarán unos 200.000 procesadores, cada uno con 8 núcleos: una versión mejorada de los chips Cell que se encuentran en la PlayStation 3 y que IBM diseñó junto a Sony y Toshiba.

En IBM ofrecen la siguiente analogía para tratar de comprender este poder de cálculo: si todos los habitantes del planeta hicieran cuentas, cada uno con una calculadora, todo el día, tardarían 320 años en hacer lo que Sequoia resolverá en una hora.

El equipo, además, tendrá 1,6 Petabytes de memoria RAM, es decir, 1.600.000 gigabytes de memoria distribuida entre sus procesadores. A modo de comparación, el Gran Colisionador de Hadrones, el instrumento científico más grande del planeta, generará 15 petabytes de datos al año.

Para lograr semejante performance, las supercomputadoras se especializan en cálculos paralelos. “Lo que se hace es tomar una ecuación matemática y dividirla en trozos pequeños y distribuirla entre varios procesadores, para que cada uno resuelva esas cuentas sencillas y así lleguen más rápido a la solución – explica José Castaños, científico argentino que es investigador en supercomputadoras para IBM Research, y que fue uno de los desarrolladores de la supercomputadora Blue Gene-. Sería más sencillo tener un único chip ultraveloz, pero es más barato poner varios procesadores a trabajar juntos al mismo tiempo”.

La técnica de computación en paralelo es particularmente eficaz cuando es necesario procesar grandes volúmenes de datos. Sequoia será usada por el Departamento de Energía de los Estados Unidos para supervisar el arsenal nuclear de ese país, además de realizar estudios en astronomía y cambio climático.

Sequoia será 20 veces más rápida que la actual reina de las supercomputadoras, Roadrunner, un equipo construido por IBM, con un costo de 133 millones de dólares, también para el Departamento de Energía de los Estados Unidos. Su construcción comenzó en 2002, opera desde 2008 y combina procesadores PowerCell de IBM y Opteron de AMD. Fue el primer equipo en llegar a un petaflop por segundo, y está seguida muy de cerca por la segunda supercomputadora más rápida del planeta, la Cray XT5 Jaguar, un equipo también capaz de hacer mil billones de operaciones de punto flotante por segundo (flops, una técnica para transformar fracciones en números binarios en forma eficiente, y una de las formas de medir la capacidad de un procesador más allá de la velocidad de su reloj.

Ambos equipos, al igual que otros 5 entre los diez más poderosos del planeta, pertenecen al Departamento de Energía de los Estados Unidos. El único otro país que está entre los diez primeros es China, con su Dawning 50000A, en el Centro de Supercomputación de Shangai. Además de Estados Unidos, sólo Canadá, Brasil y México representan a América.

El uso típico para las supercomputadoras es la simulación, como la creación de entornos virtuales realistas que permitan recrear, con la mayor fidelidad posible, el clima de una región o la manera en que determinadas moléculas se combinan entre sí para generar nuevos compuestos. También se usan para el diseño de automóviles: se prueban en entornos virtuales para verificar qué tan bueno es su diseño, la resistencia de sus materiales, etcétera; esto hace que el proceso sea más económico y veloz, porque no es necesario construir un prototipo hasta que el desarrollo está muy avanzado.

La simulación de mundos digitales en los videojuegos también hace uso del cálculo paralelo. De hecho, Nvidia tiene una plataforma para supercomputadoras de rango medio basadas en el poder de cálculo de sus chips de video, denominada Tesla.

AMD, por su parte, anunció en enero último que creará Fusion Render Cloud, una supercomputadora para que desarrolladores de contenido (sean cineastas o editores de videojuegos) usen su poder remoto para ofrecer contenido de alta definición en dispositivos móviles, sin requerir de éstos más que una buena conexión a Internet. La supercomputadora combinará los últimos chips de video de la compañía con los procesadores más tradicionales, usados en servidores.

Otro ejemplo del uso que se le da al paralelismo masivo: entre las supercomputadoras más poderosas que lista Top500 (www.top500.org), en el número 100 está la que usa Weta, compañía de efectos especiales de Peter Jackson (el director de El señor de los anillos).

Tanto los chips de AMD como los de Intel forman el grueso de los procesadores que dan vida a las supercomputadoras más poderosas del planeta, solos o combinados con procesadores de IBM, más algunos equipos con chips de Sun o NEC. La mayoría de los fabricantes prefiere los procesadores populares por su precio y la confiabilidad que ofrece su tecnología, una realidad distinta a la del inicio de la era de las supercomputadoras comerciales en la década del 70, cuando cada compañía desarrollaba sus propios procesadores.

En la Argentina, desde 2000 funciona Clementina 2, la segunda supercomputadora nacional (www.lanacion.com.ar/187841), un equipo Cray Origin 2000 con 40 procesadores R12000 a 300 MHz y 10 GB de memoria RAM. Tiene su página en http://www.supercomputo.gov.ar. Está disponible sin cargo para todos los científicos argentinos, que la usan para cálculos astronómicos, modelado tridimensional de moléculas, farmacología y análisis del comportamiento de materiales en diferentes situaciones, entre otros muchos proyectos. Funciona en la sede del Ministerio de Ciencia, Tecnología e Innovación Productiva en la avenida Córdoba 831, en una habitación con piso flotante, temperatura controlada y filtrado de aire.

“Está un poco viejita, pero sigue sirviendo – admite Fabián Medina, coordinador de Sistemas de Información del ministerio-. Una década en tecnología es una eternidad, pero funciona muy bien, aún sigue siendo mejor que un cluster de equipos de escritorio, todo está optimizado para lograr un paralelismo masivo en los cálculos.”

Aunque la mayor parte de la tecnología que da vida al equipo ya es obsoleta, hay una luz al final del camino: cuando se resuelvan los problemas burocráticos entrará en funciones Clementina 3, una supercomputadora SGI Altix 3700 con 16 procesadores Intel Itanium y 32 GB de RAM. Este equipo, además, tiene la ventaja de correr Linux, por lo que el desarrollo de aplicaciones es mucho más sencillo.

Clementina 3 tiene una prima distante en una de las supercomputadoras que la NASA posee en el Centro de Investigación Ames, aunque el equipo estadounidense tiene más capacidad. Igual, una de las ventajas de Clementina 3 es que al usar procesadores convencionales podrá aumentar su poder si se le agregan más chips, un concepto conocido como escalabilidad, que permite alargar la vida útil de las supercomputadoras.

Precisamente, aprovechar al máximo la capacidad de estos sistemas es un problema creciente. “El programador tiene que pensar en cómo dividir las tareas para asignarlas a los diferentes procesadores, pero además tener en cuenta que el resultado del cálculo hecho por un procesador puede influir sobre los demás. En algunos casos esto es un efecto deseado, pero en otros no; hay que aprender a pensar diferente, -explica Castaños-. Los procesadores pueden compartir información con los que los rodean, a los costados, arriba y abajo. El tema es cuando tienen que enviar información a un procesador que está más lejos físicamente; por el ritmo que tienen estos equipos, para cuando ese dato llega puede estar desactualizado, o influir de manera inesperada lo que está haciendo ese otro chip. Hay que aprender a tener eso en cuenta para aprovecharlo y que no sea un contratiempo. Además, no todas las tareas pueden dividirse de la misma forma para resolverse en paralelo; por eso es muy difícil que una supercomputadora opere todo el tiempo al 100% de su capacidad.”

El investigador trabaja en Blue Water, una supercomputadora que IBM está construyendo en la Universidad de Illinois, que estará lista en 2011, y que estará disponible para científicos de todo el país. Castaños estudia el desarrollo de herramientas que permitan a científicos sin tanta experiencia en supercomputadoras aprovechar, tanto como sea posible, la fenomenal capacidad de cómputo de las supercomputadoras modernas.

Fuente: La Nación

El Equipo de MU.

3 noviembre, 2008

Dell fabricará “la nube” de Microsoft

Filed under: Datos y Noticias, Redes — Etiquetas: , , — Vigilancia-Online @ 10:52 am

 

Microsoft ha comisionado a Dell la fabricación del hardware para su nube de data centers para la nueva plataforma Windows Azure.

Aunque Dell ha estado a la defensiva en el mercado de los ordenadores personales, la división de data centers de la compañía tiene grandes razones para sentir optimismo.

 

 

La división Data Centers Solutions de Dell ha sido seleccionada como proveedor principal de hardware para la nueva apuesta de Microsoft en el ámbito del cloud-computing. La iniciativa de Microsoft ha sido denominada Azure, e implica la construcción de construcción de gigantescos data centers, que pueden servir como parques de servidores para los clientes de Microsoft.

Según la publicación Cnet, Azure será ejecutado inicialmente en uno de los data centers de Estados Unidos pero posteriormente se irán incorporando nuevos centros, hasta que finalmente la “nube de servidores” de Microsoft esté distribuida en todo el planeta.

Según la publicación, Microsoft está desarrollando un esquema de datacenters en contenedores; es decir, donde los mismos contenedores estándar del sector transportes serán yuxtapuestos y apilados en un sistema de racimos.

La publicación agrega que Microsoft habría conseguido la misma eficiencia de consumo energético alcanzada por Google con sus enormes data centers. En el modelo de Microsoft, cada uno de los contenedores de 12 metros de longitud agrega un máximo de 2500 servidores, estimándose que cada capa de contenedores albergará a 150-220 contenedores. Si Dell se convierte en el proveedor exclusivo de servidores, como la compañía espera, su libro de pedidos estaría completamente lleno para los años venideros.

Fuente: Cnet

El equipo de MU

22 octubre, 2008

Innovación Inteligente: el Thin Client Encore

Filed under: Hardware, Redes — Etiquetas: , , — Vigilancia-Online @ 12:53 pm

Una solución estratégica que permite incorporar puestos de trabajo con acceso a los sistemas informáticos con una inversión comparativamente mucho menor que la de comprar equipos PC.

La mayoría de las PyMEs, al momento de decidir la renovación por obsolescencia o adquisición de nuevo equipamiento solo piensan en los costos de compra de las nuevas PC.

Sin embargo, existen otros costos, también importantes. El gasto en mantenimiento es prácticamente inevitable luego de un tiempo de uso del equipo, este costo se traduce en horas/hombre de técnico más los repuestos empleados; el costo de la seguridad al instalar programas no autorizados y su posterior desinstalación por parte del encargado de mantener la red; el ingreso de virus al sistema y su limpieza, los backups descentralizados, que incluyen administración, supervisión y control; el resguardo de la información confidencial, que demanda horas/hombre de técnico para mantener segura la información a la que no debe accederse sin autorización; el uso de Internet para fines particulares y otros costos ocultos.

Todo estos gastos, que resultan ser un freno para adquirir equipos adecuados, se eliminan con un Thin Client,

El Thin Client (cliente delgado) es un equipo equivalente a una PC dedicada como estación de trabajo. Reduce a la mitad el costo de una PC dedicada como estación de trabajo tradicional. El equipo se conecta al servidor y transmite/recibe los datos en forma similar a cualquier otra PC. Se le agrega un monitor convencional, teclado y Mouse con conectores tipo USB.

El Thin Client ENTC-1000 de Encore electronics se conecta a través de la red al servidor donde se lleva a cabo todo el procesamiento y almacenamiento de datos. Este dispositivo compacto permite reducir los costos de mantenimiento a valores prácticamente nulos, hace desaparecer los costos de actualización de las aplicaciones en los puestos PC convencionales y ofrece un alto nivel de seguridad en el ambiente de red de una empresa ya que carece de disco rígido. Es totalmente compatible con los sistemas operativos convencionales: Windows 2000 Server/2003 Server/XP y Linux bajo protocolo XDMCP.

Para cualquier ambiente que necesita una red de varias PC, el Thin Client ofrece una interfaz de usuario personalizada, permitiendo que cada usuario adecue su escritorio y menú de arranque como si estuviera empleando Microsoft Windows o Linux en una PC tradicional. Como los usuarios individuales no pueden almacenar datos en forma local el equipo no es vulnerable a virus. Las aplicaciones y sistemas, que pasan a ser manejados y administrados directamente desde el servidor, le facilita al encargado de la red tener control sobre el acceso y la distribución de información, reduciendo los riesgos de seguridad relativos a datos confidenciales evitando, también, la dispersión de la información.

Su aplicación es particularmente adecuada como reemplazo de PC dedicadas a tareas generalmente de oficina y de manejo de datos de sistemas de gestión. Por ello es ideal para oficinas, depósitos, puestos de control de logística y transporte, clínicas de salud, puestos de atención al público, escuelas, centros de distribución y receptorías de cualquier tipo.

Su consumo de energía es de apenas 10 watts: 20 veces menor que el de una mini PC con disco duro y memoria y 30 veces menor que el de una PC convencional de oficina de las que se adquieren habitualmente en los comercios de venta de equipos de computación.

El usuario simplemente ingresa y lo pone a funcionar en el trabajo diario como si estuviera sentado en frente de un computador de escritorio o portátil.

La instalación solo demanda un trabajo de ingeniería informática a los efectos de configurar la red adecuadamente -sin instalar ningún software adicional-, tarea que Mercados Unidos realiza por única vez y, que, generalmente se aprovecha para reordenar la información residente en el servidor y realizar un buen ajuste de performance y parametrización para que el mismo opere con su máximo rendimiento.

Mercados Unidos realiza el servicio de ingeniería y la provisión e instalación de los Thin Clients en modalidad “llave en mano“.

Características Técnicas de Hard:

Procesador: Logic Cirrus EP9307 ARM de 200 MHz
SDRAM: 64MB
FLASH: 16MB
Red: 10/100 Base T
USB: 2 puertos de USB 2.0
Video: de salida sub DB-15 VGA, soporta 15 bits de color, resolución hasta 1024×768
Audio: Audio Stereo
Conectores para Dispositivos convencionales: USB/Mouse USB/Teclado USB o Lector de código de barras

Características Técnicas de Soft:

Linux Kernel 2.4.21 incluido

Soporta comunicación TCP/IP

Soporta Protocolo X-Window

Capacidad de dirección remota basada en la web

Interoperabilidad con Windows/Linux/Unix

El Equipo de MU.

21 octubre, 2008

Cisco Networkers 2008 – Argentina

Filed under: Datos y Noticias, Redes — Etiquetas: , — Vigilancia-Online @ 12:25 pm

Cisco anunció que, del 10 al 13 de noviembre, organiza su Buenos Aires Cisco Networkers 2008, evento anual de capacitación y actualización sobre las últimas tendencias en tecnologías que impactan el negocio de las empresas y organizaciones públicas.

‘Networkers 2008’ está orientado a todos los profesionales de redes que desean capacitarse con las últimas tecnologías, interactuar con especialistas y conocer las más recientes soluciones de Cisco y sus partners.

Cisco Networkers 2008 reunirá a más de 900 participantes de Argentina, Paraguay y Uruguay; quienes podrán acceder a Techtorials (capacitación intensiva en diferentes tecnologías como Seguridad, Comunicaciones Unificadas, Wireless, etc.), sesiones técnicas, clínicas de diseño, reuniones de ingeniería uno a uno, y una completa muestra de soluciones de Cisco y sus partners en el espacio de Technology Showcase.

Networkers se ha convertido en un espacio ideal  para la interacción entre profesionales y referentes del mundo de las redes, donde se visualizan y experimentan tecnologías y soluciones de conectividad, además de conocer la visión de Cisco en lo referente a innovación tecnológica”, dijo Mariel Castro, Gerente de Marketing de Cisco Argentina.

La conferencia plenaria del evento estará a cargo de Howard Charney, Vicepresidente Senior de Cisco, quien disertará sobre el impacto de la tecnología en el aumento de productividad de las empresas.

Los gerentes, ingenieros y técnicos asistentes a Networkers 2008 tendrán la opción de capacitarse con expertos de Cisco de Estados Unidos y Latinoamérica, quienes les permitirán mantenerse actualizados en todas las tecnologías avanzadas y las últimas novedades en networking, cubriendo desde grandes corporaciones, proveedores de servicios y gobierno hasta pequeñas y medianas empresas.

La registración al evento estará disponible a partir del 6 de agosto aquí, llamando al centro de atención Cisco Networkers 2008: 0810–444–24726 (CISCO) o por mail a networkersarg@external.cisco.com

El equipo de MU.

Cisco Networkers 2008 - Argentina

21 septiembre, 2007

¿Qué es un Firewall? … y otros conceptos fundamentales

Filed under: Redes, Seguridad — Etiquetas: , — Vigilancia-Online @ 7:26 pm

Un firewall es un sistema o grupo de sistemas que impone una política entre una red o un equipo privados e Internet, determinando qué servicios de red son accesibles por los usuarios externos e internos. Para que el firewall funcione de forma efectiva, todo el tráfico de información tendrá que pasar por él, para poder ser inspeccionado mediante el uso de políticas de seguridad, y supervisar los registros de seguridad creando un perímetro de defensa diseñado para proteger la información.

El firewall ofrece un punto de seguridad vigilado y, así, si aparece alguna actividad sospechosa genera una alarma ante la posibilidad de que ocurra un ataque. Constituye una especie de “barrera lógica” delante de nuestra red o nuestro equipo que examina todos y cada uno de los paquetes de información que tratan de atravesarla.

Las principales funciones de los firewalls o cortafuegos son las siguientes:

Bloquear el acceso a determinados lugares en Internet (redes, subredes, nodos específicos), o prevenir que ciertos usuarios o máquinas puedan acceder a ciertos servidores o servicios y bloquear el acceso a nuestra red o equipo desde ciertas máquinas.

Filtrar los paquetes que circulan entre la red local e Internet, de modo que sólo aquellos correspondientes a servicios permitidos puedan pasar (Telnet, e-mail, ftp, www…).

Vigilar el tráfico. Supervisar el destino, origen y cantidad de información enviados o recibidos.
Almacenar total o selectivamente los paquetes que circulan por el cortafuegos con el fin de analizarlos en caso de problemas.

La tecnología utilizada por un firewall puede ir desde un simple filtrado de paquetes basándose en direcciones IP hasta avanzadas técnicas de análisis de protocolos.

Fijándonos en el modo en que han sido implementados se pueden clasificar en dos tipos:

Firewalls basados en hardware. Estos firewalls utilizan una caja física sellada para evitar su alteración. Cuentan con la ventaja de que son independientes de fallos en el sistema operativo de nuestra máquina pero son de alto coste económico. Tienen un carácter profesional y se utilizan en redes de carácter empresarial.

Firewalls basados en software. Son aplicaciones que se ejecutan en nuestra máquina y que realizan funciones similares a las que realizan los firewalls basados en hardware. Son de menor precio que los anteriores y permiten realizar un filtrado a nivel de aplicaciones. Dentro de los firewalls de este tipo se incluyen los firewalls personales, que son un tipo de firewalls basados en software destinados a uso doméstico e ideales para incrementar la protección de nuestra conexión ADSL.

¿Qué hace y qué no hace un firewall Personal?

Un firewall personal examina todo el tráfico que se produce entre el usuario y la red para comprobar si cumple un cierto criterio. Si lo hace, entonces se permite la transmisión entre ambos, de lo contrario es descartado. Un firewall personal filtra tanto el tráfico de entrada como el de salida; es posible establecer reglas por direcciones, protocolos o puertos, lo que posibilita unas capacidades de configuración enormes. Con esto nos protege de caballos de troya y de ataques a nuestra máquina (por ejemplo mediante inundación de paquetes).

Al ejecutarse el firewall personal sobre el sistema operativo de nuestra máquina es posible realizar un control del tráfico enviado y recibido a nivel de aplicación. Esto es utilizado por algunos productos comerciales para implementar una política de privacidad o un filtrado de contenidos. Con esto podemos proteger cierta información contenida en nuestro PC (por ejemplo, números de tarjetas de crédito) o evitar el acceso a cierta información que se puede conseguir en Internet (por ejemplo páginas web pornográficas).

¿Qué no puede hacer un firewall personal?

Un firewall no puede hacer más de lo que esté programado para hacer, es decir, es responsabilidad del usuario el dotar al firewall de las reglas y filtros necesarios para que sea efectivo dependiendo de las condiciones específicas de cada red.

Aunque el firewall personal dota a nuestra máquina de una seguridad añadida, no hay que olvidar que es necesario además configurar una adecuada política de seguridad y comprobar los registros (logs) a menudo.

Tampoco puede protegernos de virus informáticos ni de errores del sistema operativo o del usuario, por lo que es muy importante mantener nuestro antivirus actualizado para evitar posibles virus, instalar los parches necesarios para nuestro sistema operativo y realizar copias de seguridad de nuestro disco duro con cierta asiduidad.

¿Cómo se transmite la información en Internet?

La información que es enviada a través de Internet se transmite mediante el protocolo TCP/IP. Como todos los equipos conectados a Internet entienden este protocolo, todos pueden comunicarse entre sí dentro de Internet. TCP e IP son dos partes independientes. TCP es el encargado de dividir la información en paquetes y trabaja entre puertos, mientras que IP es el responsable del enrutamiento de estos paquetes los cuales tienen por origen y destino una dirección IP que identifica a y desde donde es enviada la información.

¿Qué es un Protocolo de Comunicaciones (IP, ARP, ICMP, IGMP, TCP, y UDP)?

Un protocolo es una serie de códigos y formatos que se utilizan para que los ordenadores se entiendan entre sí. Por ejemplo, al hablar por teléfono sabemos que hay que contestar “diga”, para que la persona que llama sepa que estamos listos para escuchar. Ese es un ejemplo de protocolo, así como también lo son los tradicionales “corto” o “cambio y corto” en las conversaciones por radio. El protocolo de comunicaciones utilizado en Internet se denomina TCP/IP y es en realidad un conjunto de dos protocolos independientes, el protocolo TCP y el protocolo IP. Veamos algunos de ellos:

IP
Cada ordenador conectado a Internet tiene su propia dirección electrónica. La dirección electrónica es un número único que se le asigna a cada máquina y que la identifica en la red, de manera que conociendo el número, los demás ordenadores de la red pueden acceder a ella. Este número, llamado “dirección IP”, es asignado por el organismo encargado de asignarlos para todo el mundo (Network Information Center, en los Estados Unidos). Cada número IP se expresa como una serie de cuatro octetos (series de ocho bits), así que un número IP se ve de la siguiente forma: 194.179.16.5. El protocolo IP está definido en el RFC 791. Los RFC (Request For Comments) son documentos que contienen las definiciones de protocolos y políticas de Internet. Pueden ser considerados la fuente oficial para cualquier estudio o desarrollo serio.

ARP
Cuando los paquetes IP son enviados sobre tecnologías de redes de acceso compartido como por ejemplo Ethernet, el protocolo ARP es el encargado de traducir las direcciones IP (lógicas) en direcciones MAC (físicas) y permitir el encaminamiento de paquetes IP. Una dirección MAC (Control de Acceso al Medio) es una dirección única que tiene asociada cada una de las tarjetas de red. El protocolo ARP está definido en el RFC 826.

ICMP
El Protocolo de Mensajes de Control de Internet (Internet Control Message Protocol, ICMP) proporciona servicios de resolución de problemas y de información de errores para los paquetes que no pueden alcanzar su destino. Por ejemplo, si IP es incapaz de entregar un paquete al servidor destino, el ICMP enviará un mensaje de Destino Inalcanzable (Destination Unreachable) a la máquina origen. ICMP está definido en el RFC 792.

IGMP
El Protocolo de Administración de Grupos de Internet (Internet Group Management Protocol, IGMP) es un protocolo que administra el conjunto de miembros en los grupos IP multicast. Un grupo IP multicast, también conocido como un grupo de servidores (host group), es un conjunto de servidores que escuchan el tráfico IP destinado a una dirección IP multicast específica. Multicast es la capacidad de enviar muchos datos a mucha gente enviando sólo un paquete. El protocolo para registrar la información del grupo de servidores es IGMP. IGMP es necesario en todos los servidores que soportan el nivel 2 de la transmisión IP multicast. Los paquetes IGMP se envían utilizando una cabecera IP. IGMP está definido en el RFC 2236.

TCP
TCP es un servicio de entrega confiable, orientado a conexiones. Los datos son transmitidos en segmentos. Orientado a conexiones significa que una conexión debe establecerse antes de que el servidor intercambie datos. La confianza se logra asignando un número de secuencia a cada segmento transmitido. Se utiliza una confirmación para verificar que los datos fueron recibidos por la máquina destino. TCP está definido en el RFC 793.

UDP
UDP proporciona un servicio de datagrama sin conexión que ofrece entrega no confiable, no orientado a conexiones, es decir, no es necesario establecer una conexión previa al envío de paquetes. Esto significa que la llegada de los datagramas no está garantizada; ni que la entrega de los paquetes esté en la secuencia correcta. El UDP no se recupera de la pérdida de datos utilizando retransmisión. UDP está definido en el RFC 768. UDP es utilizado por aplicaciones que no requieren confirmación de la recepción de los datos y que típicamente transmiten pequeñas cantidades de datos en un momento dado. El servicio de nombres de NetBIOS, el servicio de datagramas de NetBIOS y el Protocolo Simple de Administración de Redes (Simple Network Management Protocol, SNMP) son ejemplos de aplicaciones que utilizan UDP.

¿Qué es un puerto de comunicaciones?

Un puerto de comunicaciones es una entrada virtual a la pila TCP y UDP que se usa para establecer una conexión entre dos máquinas, y también entre la capa TCP/UDP y la aplicación que estemos ejecutando en la máquina en ese momento.

Los puertos se enumeran del 0 al 65535, estando reservados para los servicios el rango de 0 a 1023 siendo el resto (1024-65535) útiles para las aplicaciones (también se diferencian como puertos reservados y puertos dinámicos).

Los puertos pueden tener dos estados, abierto o cerrado. Se dice que un puerto de comunicaciones está abierto si, cuando llega un paquete de petición de establecimiento de conexión, el sistema devuelve una respuesta. En caso contrario el puerto se considera cerrado y nadie podrá conectarse a él.

Las aplicaciones utilizan los puertos de dos formas diferentes:

Escuchan en un puerto. Es utilizado por aplicaciones servidor que esperan la conexión desde otras máquinas para prestar un servicio conocido como por ejemplo un servicio de transferencia de archivos (FTP).

Abren un puerto de aplicación. Ambos lados de la conexión TCP necesitan ser identificados por una dirección IP y un determinado puerto. Por lo tanto, cuando tú quieres conectarte a un servidor necesitas completar el canal de comunicaciones con un puerto en tu máquina. Esto se hace eligiendo un puerto superior al 1024 que no esté utilizándose en ese momento por otro canal de comunicación.

Los puertos dinámicos también pueden utilizarse para escuchar en algunas aplicaciones, sobre todo en servidores para transferencias de archivos.

Agradecemos la colaboración de nuestro Responsable de Comunicaciones, Mario Bonfill por la información brindada.

info@mercadosunidos.com
www.mercadosunidos.com

19 septiembre, 2007

Próxima generación de redes: NGN, sinónimo de Convergencia

Filed under: Redes — Etiquetas: , — Vigilancia-Online @ 10:13 am

Automatización, digitalización, RDSI, conmutación de paquetes, integración voz y datos, IP, nueva generación de redes, IMS, convergencia… la evolución de los servicios y de las tecnologías de las telecomunicaciones ha sido habitualmente señalizada por uno o varios términos, acrónimos, que sintetizan bien en términos sociales y en el de las claves técnicas las diferentes etapas de esta evolución.

Las aproximaciones que con frecuencia se hacen de estos conceptos o de sus factores
técnicos claves, tanto en su impacto social como incluso en su más pura consideración
técnica son a veces dispares o al menos se mueven dentro de una gran gama de matices
en sus fases iniciales. Estas aproximaciones finalmente tienden a alinearse en torno a
los conceptos que poco a poco terminan decantándose desde unos “marketing´s” cada
vez más agresivos.

Si hay en estos días un término que define el momento, la situación actual del entorno
de las telecomunicaciones es “NGN”, “la siguiente generación de redes”, e “IMS”,
“Internet Multimedia Subsystem”.

Existen distintas aproximaciones más o menos certeras, más o menos interesadas del
concepto NGN. Toda la industria, todos los operadores tienen referencias, y
habitualmente las mejores, en NGN.

NGN no es sino un modelo de arquitectura de redes de referencia que debe permitir
desarrollar toda la gama de servicios IP multimedia de nueva generación (comunicaciones VoIP nueva generación, videocomunicación, mensajerías integradas multimedia, integración con servicios IPTV, domótica, etc…) así como la evolución, migración en términos mas o menos de sustitución o emulación de los actuales servicios de telecomunicación.

Como probablemente se sabe este modelo de referencia puede sintetizarse en el
siguiente decálogo de puntos:

  • Arquitectura de red horizontal basada en una división diáfana de los planos de
    transporte, control y aplicación
  • El plano de transporte estará basado en tecnología de conmutación de paquetes
    IP/MPLS
  • Interfaces abiertos y protocolos estándares
  • Migración de las redes actuales a NGN
  • Definición, provisión y acceso a los servicios independiente de la tecnología de la red
    (Decoupling Access and Services)
  • Soporte de servicios de diferente naturaleza: real time/ non real time, streaming, servicios multimedia (voz, video, texto )
  • Calidad de servicios garantizada extremo a extremo
  • Seguridad
  • Movilidad generalizada

La materialización de este concepto y la visibilidad de las tecnologías que permiten su
soporte, progresivamente disponibles desde hace algunos años, dependen
fundamentalmente de la situación y estrategia de cada operador en cada mercado.

Quizás se pueda simplificar y establecer dos grandes marcos de actuación, en estos
años, en torno al concepto de NGN:

En mercados en expansión, en crecimiento en servicios básicos de telecomunicación,
donde se “simulan” o “emulan” redes y servicios tradicionalmente de circuitos
optimizando el escenario técnico-económico hasta ahora habitual mediante el uso de
NGN-SoftSwitches, transporte IP e interfaces de banda estrecha / banda ancha para el
soporte de servicios de voz.

En mercados consolidados en términos de servicios fijos – móviles donde la búsqueda
de sinergias, eficiencias entre ambos mundos y la banda ancha y los nuevos servicios IP
multimedia hacen que NGN e IMS, (Internet Multimedia Subsystem, conjunto de
elementos funcionales que configuran el plano de control de este modelo de referencia)
adquieran un papel fundamental como ejes del desarrollo de la convergencia.

La “NGN” es efectivamente un trayecto hacia la “convergencia” y que estamos ante una nueva situación apasionante de evolución tecnológica, que ha de permitir la convergencia progresiva de los servicios finales de los clientes, fijos-móviles-nómadas.., de las redes, de los sistemas y herramientas y previsiblemente de los negocios. En esta situación parece también claro que cobrará especial relevancia la figura del Operador Unico Integrado así como la posición del
Regulador en cada mercado ante una nueva gama de servicios, fijos-móviles-nómadas
multimedia que poco a poco deben ir sustituyendo a los actuales.

Solo quedará por resolver el marco temporal de los acontecimientos que parece, en principio, más condicionado por las situaciones de los negocios y de la regulación en cada mercado que
por las evoluciones tecnológicas.

Agradecemos la colaboración de Telefónica Argentina S.A. por la información suministrada para este artículo.

Mercados Unidos
info@mercadosunidos.com
http://www.mercadosunidos.com/

Crea un blog o un sitio web gratuitos con WordPress.com.

A %d blogueros les gusta esto: