Vigilancia Online-Mercados Unidos-Sistemas de Seguridad Electronica-Neuquén

4 octubre, 2013

Un Argentino desarrolla la primera app Google Glass para Daltónicos

jonathan-brizio

 

Jonathan Brizio, un joven cordobés de 22 años, comenzó a trabajar en esta aplicación a partir de un colega que sufre de esta afección.

Google Glass promete un extenso horizonte de aplicaciones para los desarrolladores. Una de esas es Color Picker, una aplicación para daltónicos creada por Jonathan Brizio, un joven cordobés de 22 años. El programa permitirá apuntar hacia un objeto y, mediante comandos de voz, pedirle a las gafas que reconozca el color, cuyo nombre se desplegará en pantalla.

“La idea surgió por un colega que sufre de este problema genético. Después de enterarse del desarrollo que estamos realizando, nos prometió hacer de tester una vez que la aplicación sea lanzada en este dispositivo“, indicó Brizio a RedUSERS, agregando que están programando la app nativa para Android.

color-picker-glass-650x450

“La finalidad de este proyecto es la de desarrollar primero la aplicación para equipos con Android y luego, cuando se masifique la venta de Google Glass, hacer el desembarco a estos“, señaló el estudiante de Análisis de Sistemas del Instituto Tecnológico de Río Cuarto.

“Actualmente estoy desarrollando este proyecto en Eclipse, pero he recibido muy buenas criticas de otros colegas de Android Studio como entorno de trabajo“, explicó el desarrollador, quien actualmente es miembro Activo del Google Developer Group (GDG) Argentina y es apoyado por su mentor Nicolás Santa, CTO de Yeti Media.

Brizio asegura que seguirá trabajando en apps para Glass. “Como desarrollador tengo varias otras ideas a implementar para este dispositivo. Más que nada enfocadas al mundo de la medicina y el bienestar social. Esto aún está muy verde, pero hay mucho potencial para explotar”, remató.

 

Anuncios

15 septiembre, 2013

Positivo-BGH anunció que comenzó a producir tarjetas de memoria RAM

Filed under: Datos y Noticias, Empleos, Hardware, patagonia, Tecnología — Etiquetas: , — Vigilancia-Online @ 7:48 pm

positivo-bgh-650x450

 

El fabricante Positivo-BGH anunció que durante agosto comenzó a producir tarjetas de memoria RAM en la planta que la firma posee en la ciudad fueguina de Río Grande. En esta primera etapa, los módulos serán para satisfacer la propia demanda de la compañía para sus notebooks, que asciende a medio millón al año.

Las memorias construidas por la empresa son DDR3, con velocidad de 1333 MHz, 9 ciclos de latencia, alimentación de 1,5 voltios y 204 pines. Los insumos son provistos por las firmas Adata y Kingmax, y se contó con trasnferencia de tecnología desde Brasil y China.

“La incorporación de memorias RAM al proceso de fabricación nacional responde al compromiso de la compañía de brindar productos con la mayor calidad tecnológica del mercado”, aseguró Norbetto Maraschin, CEO de Positivo-BGH.

El Equipo de MU.

13 septiembre, 2013

Brian Krzanich mostró una laptop que corría con un SoC Broadwell Intel de 14nm

Filed under: Hardware, Tecnología, Tecnología Informática — Etiquetas: , — Vigilancia-Online @ 9:43 am

intel-650x432

El CEO de la firma Brian Krzanich mostró sus nuevos SoC en IDF 2013, y además adelantó que antes de fin de año se verán las primeras tablets Intel de menos de 100 dólares.

Llegan más novedades desde el IDF 2013, y en cuanto a las que tienen que ver con Intel, en el día de ayer el CEO de la firma Brian Krzanich mostró una laptop que corría con un SoC Broadwell Intel de 14nm.

Sin adelantar más datos acerca del dispositivo ni de la plataforma, Krzanich si aseguró que este tipo de procesadores en miniatura comenzarán a verse hacia final de este año. Esta demostración da cuenta del interés de Intel en el mercado de dispositivos móviles, un área que en la actualidad está virtualmente dominada casi por completo por los procesadores ARM.

Igualmente, tener a un gigante como Intel con su sobrada experiencia en el negocio de las PC como competidor, probablemente pondría nervioso a cualquier fabricante actual de plataformas móviles como lo son Qualcomm o NVIDIA.

Mientras Broadwell está pensado netamente para dispositivos móviles, otro de los procesadores que la firma mostró durante el IDF fue Bay Trail, unidades de 22 nm con mayor poder de proceso y menor consumo de energía, los cuales serán destinados a equipos híbridos que puedan usarse tanto como laptops o como tablets.

Por otra parte, el fabricante también anunció que comenzarán a ofrecerse tablets económicas por menos de 100 dólares durante la temporada de fiestas de fin de año. Su objetivo es hacer chips 4G LTE para comenzar a posicionarse como marca hacia el año que viene, aunque, nuevamente, el CEO no reveló quién fabricaría estas tablets económicas.

En los tramos finales de la presentación de Intel en la IDF, Krzanich remarcó el importante rol que tendrán los wearable gadgets en los próximos años, dejando entrever de alguna forma que con estas diminutas unidades de proceso la firma también sigue de cerca el desarrollo de este tipo de dispositivos.

11 agosto, 2013

Publican las especificaciones para los USB 3.1

usb-3-10gbps

 

La USB alliance reveló cómo serán los USB del futuro, los cuales alcanzarán los 10 Gbps.

Desde enero se rumoreaban detalles acerca de una posible próxima generación de USBs que pudieran transferir a tasas de 10 Gbps, y ayer se terminaron de confirmar. Las nuevas especificaciones reveladas por la USB 3.0 Promoter Group se reconocen como USB 3.1.

Obviamente, poco ha cambiado en en cuanto al formato del puerto en estos últimos años, pero la publicación de estos nuevos estándares para la industria compromete a los fabricantes para comenzar a desarrollar chipsets que ofrezcan el doble de ancho de banda que el hard actual.

Lo bueno es que todo puede desarrollarse manteniendo el soporte para los todavía populares USB 2.0. Aún no se conocen dispositivos que podrían comenzar a incluir esta tecnología, pero se sabe que las primeras conferencias de desarrolladores comenzarán el 21 de agosto.

Capítulo aparte merece Intel, ya que a pesar de haberse comprometido a adoptar esta nueva tecnología (digamos que aún no está en condiciones de hacer lo contrario), paralelamente está desarrollando su propio estándar de transmisión a alta velocidad, el Thunderbolt I/O, que ya alcanzó este año una tasa de transferencia de 20 Gbps, pero que a diferencia del USB solamente cuenta con 120 productos que lo incorporan.

 

30 abril, 2013

Las nuevas conexiones USB reemplazarían los cables eléctricos

Filed under: Datos y Noticias, Hardware, Innovacion, Tecnología, Tecnología Informática — Etiquetas: , — Vigilancia-Online @ 1:20 pm

La energía transmitida pasa de los 10 watts a los 100 watts. De esta manera un dispositivo podría ser alimentado por una conexión USB y en muchos casos también proveer de energía a otros. Esta tecnología produciría ambientes de trabajo y uso hogareño mucho más simples. Se espera que el formato pueda ser un estándar obligatorio con el tiempo.

usb

Mucho entusiasmo despertó el anuncio de Intel sobre el modo en que la nueva generación de conexiones USB y su tecnología Thunderbolt podrían duplicar la tasa de transferencia de datos. Pero un detalle técnico igualmente destacable paso algo desapercibido. Con los USB Super Speed 3.0 también se produce un cambio importante en la transferencia de energía de un dispositivo a otro. El cambio es aún mayor en proporción al que se da con los datos, dado que pasamos de 10 watts a 100 watts.  Con este incremento muchos artefactos ya no necesitarían una conexión aparte para la energía, dado que se alimentarían directamente con la conexión USB.

Este capacidad ya existe, pero en una medida mucho menor. Algunos dispositivos pueden funcionar conectados vía USB al CPU, incluso podemos recargar las baterías de otros en un tiempo relativamente corto. Sin embargo, las posibilidades que se abren ahora son mayores. Muchos dispositivos tendrán ahora la posibilidad no solo de consumir energía, sino también de distribuirla. Una notebook será capaz de recibir suficiente energía vía USB para funcionar y enviar audio y video a otros artefactos que, además, funcionarán con la energía que la notebook les transmita.

Jeff Ravencraft, presidente del Foro de Implementadores de USB, ha señalado que esta tecnología podría convertirse en un estándar obligatorio dentro de la Union Europea. El movimiento sería similar a lo ocurrido en su momento con el formato micro USB para los smartphones. La nueva tecnología USB es compatible con los cables y las conexiones ya existentes. Las ventajas que ofrece este avance en la transmisión de energía son varias. La más obvia de ellas es una reducción en el cableado presente en nuestras casas o las oficinas. Por otro lado también hará innecesario el uso de cargadores para los smartphones o las laptops. En general, representa un ambiente mucho más simple para cualquier usuario. Otro punto que vale mencionar es que la nueva generación de tecnología USB es mucho más eficiente en el consumo de energía.

Fuentes: ComputerworldUSB.org

Juan Moratto

View Juan Moratto's profile on LinkedIn

19 marzo, 2012

Llega el ultralibro

Filed under: Datos y Noticias, Hardware, Tecnología — Etiquetas: , , — Vigilancia-Online @ 8:45 am

Intel y los fabricantes de computadores le han dado el vamos a una nueva categoría de portátiles que prometen cambiar el panorama de móviles para el trabajo. ¿Estarán a la altura de las promesas?

2012 será el año de los ultrabooks… O por lo menos a eso apuestan todas sus fichas Intel, HP, Sony, Lenovo, Samsung, y prácticamente cualquier fabricante de computadores móviles que no sea Apple. Lo han mencionado en cada lanzamiento, feria o foro de los últimos meses. Pero, como sucede con toda nueva tecnología, pocos saben en detalle sus características, funciones, detalles técnicos y menos si tendrán un éxito real en el vertiginoso mercado de la tecnología.

No se trata de un dispositivo radicalmente nuevo, como lo fueron las tablets en 2010, sino de una estrategia de Intel para redefinir el mercado de los dispositivos de trabajo, introduciendo un equipo que mezcle la potencia de un notebook con la portabilidad y el bajo precio de una tablets. Esto implica entrar de frente a competirle al Macbook Air de Apple, pero con la ventaja de contar con una amplitud de software y servicios mayor en prácticamente cualquier nivel que no sea el audiovisual o artístico.

¿Qué define a un ultrabook? Más que un dispositivo nuevo, es una variación de un notebook, e Intel ha debido especificar detalladamente las características que un computador debe ostentar para poder entrar en esta categoría: debe estar dotado de la última tecnología de procesadores iCore de Intel (i3, i5 e i7), tener una batería con una duración que bordee las 10 horas, un peso muy similar a una tablet, con un grosor en torno a las 0,7 pulgada, con pantallas que vayan en el rango de las 13 y 14 pulgadas y un sistema operativo Windows. Y un detalle no menor: no superar los US$1.000.

“Intel trabajó en la creación de los ultrabooks escuchando a clientes que buscaban equipos livianos, que fueran más allá de las tablets, que no estaban teniendo mucho llegada en el mundo corporativo por un tema de compatibilidad de software”, dice Eduardo Godoy, gerente de Desarrollo de Negocios de Intel Chile. “Los ultrabooks no van a quitarles espacio a las tablets; éstas tendrán su propio espacio como equipos de acompañamiento que no necesariamente son equipos para trabajar”.

Estrellas de CES. La Consumer Electronic Show (CES) es la feria más grande de tecnología de consumo que se realiza durante el año, y los servicios y productos allí propuestos suelen marcar la agenda de lo que será el año tecnológico en todo el globo.

En 2011 se presentó un centenar de tablets y nadie puede dudar que fue el artículo electrónico más relevante durante el año. Antes de eso vinieron la televisión 3D, los netbook, el Blu-ray y artículos tan relevantes como el Nintendo Entertainment System o el primer VCR.

Este año, en Las Vegas, la CES vio la presentación de casi 50 ultrabooks, y sus distintas variaciones y características fueron tema obligado de los asistentes a la feria. Sony, Lenovo, HP, Dell, Toshiba, Samsung, Acer y Asus presentaban en sus respectivos sectores uno o varios de estos dispositivos.

La variedad dio a luz modelos tan novedosos como el IdeaPad YOGA, de Lenovo, un ultrabook que gira su teclado para convertirse en una tablet totalmente táctil, o tan sólidos como el Envy 14 Spectre, de HP, que destaca por su pantalla Gorilla Glass y la inclusión de la tecnología NFC para realizar compras o transmisión de información a corta distancia.

Según indicó el CEO de Intel, Paul Otellini, en su discurso para CES, unos 75 modelos debieran llegar al mercado durante 2012.

Pero las críticas y dificultades ya se levantan para estos nuevos dispositivos. Según Mykola Golovko, investigadora de la firma Euromonitor International, la propuesta de portabilidad y rendimiento les puede jugar en contra por una razón más que relevante: el precio. “Los productores han tenido que incorporar costosos discos de estado sólido (SSD, por sus siglas en inglés) para reducir peso y grosor, aumentar la vida de la batería y reducir el tiempo de encendido y reanudación”.

La experta afirma que la proposición de los ultrabooks de combinar lo mejor de los laptops y las tablets puede ser un fuerte generador de ventas sólo si puede cumplir la promesa de tener un costo y un peso bajos. “Cumplir sólo la mitad de la promesa ofreciendo un laptop liviano no será suficiente para atraer a los consumidores”, concluye.

Aun así, hay otros analistas más optimistas, como la firma de investigación de mercado IHS, que en su informe iSuppli Compute Platform Service augura que durante 2012 los ultrabooks llegarían al 13% en el segmento de portátiles, subiendo a 28% en 2013 y 38% para 2014, prácticamente reemplazando a los netbooks y robando un buen trozo del mercado de los notebook.

Ultracorporativos. ¿De qué forma servirán estos dispositivos a las empresas y con qué características? Según dice Juan Carlos Barroux, Education Business Development Manager de Intel para Bolivia, Chile y Paraguay, los dispositivos cuentan con soluciones específicas y útiles a los clientes de distintas compañías. “Estos equipos cuentan con sistemas operativos Windows Enterprise, ideales para los clientes empresariales, además de contar con la tecnología Intel de Protección a la Seguridad (IPT, por sus siglas en inglés)”. Ésta permite guardar toda la información de forma encriptada en el disco. “Sumado al bajo tiempo de inicio y reanudación, y a las 10 horas de batería, los hacen indispensables para ejecutivos y funcionarios móviles”, concluye Barroux.

Otra característica útil para empresas, pero no exclusiva de estos modelos, es la integración dentro de un par de meses del nuevo procesador de Intel con tecnología Ivy Bridge. Esta es una ingeniería totalmente nueva que reemplazará a los tradicionales transistores planos por un modelo en tres dimensiones, aumentando la potencia y la eficiencia de energía. Ivy Bridge incluirá además USB 3.0, para transferencia rápida de archivos, y un sistema que permite mostrar hasta 3 salidas de video independiente, siendo útil en conferencias o presentaciones.

Dentro de las opciones para empresas, ya está disponible en Latinoamérica el HP Folio 13, y prácticamente la totalidad de las marcas han anunciado productos de estas características para mediados de año, incluyendo a Lenovo, Dell y Samsung.

“Estimamos que de aquí a finales de 2012 el 40% de la planta total de ultrabooks será específicamente para empresas”, dice Barroux, de Intel. ¿Qué expectativa hay con respecto a la adopción de estos sistemas? Según el ejecutivo, si bien los parques de equipos se van renovando a lo largo de periodos de tiempo, la aceptación de los ultrabooks debería ser amplia en el entorno de los ejecutivos con altos grados de movilidad. “Claramente hay también un caso de marketing, de la imagen que la empresa quiera proyectar: los ultrabooks son equipos elegantes que demuestran tener lo más avanzado en tecnología y diseño”, puntualiza.

El equipo de MU.

 

1 marzo, 2012

IBM anuncia una próxima revolución informática

Filed under: Datos y Noticias, Hardware, Tecnología Informática — Etiquetas: , — Vigilancia-Online @ 12:24 am

Investigadores de IBM revelaron grandes avances en el desarrollo de una computadora basada en la mecánica cuántica, una iniciativa que aprovecha la energía de átomos y moléculas, capaz de aumentar en gran medida la velocidad y seguridad de las computadoras y otros dispositivos

Los especialistas de IBM, que presentaron los resultados de su investigación en la reunión de la Sociedad Estadounidense de Física (APS) esta semana en Boston (Massachussets, noreste), dijeron que la informática cuántica “tiene el potencial para brindar una potencia de cálculo inigualable para cualquier computadora actualmente”.

Este nuevo tipo de computación utiliza la información codificada en bits cuánticos o qubits, poniendo en funcionamiento una teoría que los científicos han estado discutiendo durante décadas.

“Las propiedades especiales de los qubits permitirán a los ordenadores cuánticos trabajar en millones de cálculos a la vez, mientras que las computadoras personales de escritorio pueden manejar un mínimo de cálculos simultáneos”, dijo IBM en un comunicado.

“Por ejemplo, una solo estado cuántico de 250 qubit contiene más bits de información que la cantidad de átomos que hay en el universo”.

“El trabajo que hacemos en el ordenador cuántico no es sólo una experiencia de las fuerzas brutas de la física”, dijo en el comunicado Matthias Steffen, científico en jefe del equipo de investigación de IBM, cuyo objetivo es desarrollar sistemas de computación cuántica que puedan ser aplicados a la solución de problemas reales en el mundo.

“Es hora de crear sistemas basados en la ciencia cuántica que llevará el cálculo en los ordenadores a una nueva frontera”, agregó. Los investigadores estiman que lograrlo tomará entre diez y 15 años.

A diferencia de la física clásica, donde los conceptos de onda y partícula están separados, en el universo cuántico se convierten en dos caras del mismo fenómeno, una propiedad que, teóricamente, permite multiplicar las capacidades de las computadoras.

La parte de información más básica que un ordenador actual puede entender es un bit.

Éste es un dígito binario o dos valores, esto es, 0 o 1, que es también una unidad de medida en la computadora que designa a la cantidad elemental de información.

En el mundo cuántico, esta unidad básica, llamada qubit, puede tener valor 0 o 1 como un bit, pero también poseer dos valores al mismo tiempo, una estructura descrita como una “superposición”.

“Esto es lo que permite a los ordenadores cuánticos realizar millones de cálculos a la vez”, explicó IBM.

Un problema para los científicos es que los qubits tienen una vida corta de mil millonésimas de segundo, pero IBM logró desarrollar qubits superconductores en “tres dimensiones” que mantienen sus estados cuánticos hasta 100 microsegundos -esto es, dos a cuatro veces más que los registros anteriores.

“En función de este progreso, el optimismo sobre los qubits superconductores y las posibilidades de un futuro ordenador cuántico crecen rápidamente”, dijo IBM.

Para aprovechar el poder de la computación cuántica, los científicos deben minimizar los errores de cálculos causados por la interferencia de factores como el calor, la radiación electromagnética, y los defectos de los materiales.

El uso de la computación cuántica “tendrá amplias implicaciones para todo el campo de la encriptación de datos donde los ordenadores cuánticos podrían descomponer en factores números muy grandes, como los utilizados para decodificar y codificar información delicada”, dijo IBM.

“Otras posibles aplicaciones para la computación cuántica pueden ser la búsqueda en bases de datos de información no estructurada, la realización de una serie de tareas de optimización y la solución de problemas matemáticos irresolubles con anterioridad.”

Juan Moratto

 

11 agosto, 2010

INTEL UTILIZARÁ RAYOS DE LUZ PARA TRANSMITIR DATOS en los Procesadores

Filed under: Hardware, Tecnología Informática — Etiquetas: — Vigilancia-Online @ 9:56 am

Intel crea la primera conexión fotónica de silicio de extremo a extremo con láser integrado, una innovación que puede revolucionar el diseño, aumentar en gran medida el rendimiento e incrementar el ahorro de energía de los ordenadores.

Intel Corporation ha anunciado un avance importante en la utilización de rayos de luz como sustitutos de electrones para transportar datos dentro y alrededor de los ordenadores. La compañía ha desarrollado un prototipo de investigación que representa la primera conexión óptica de datos del mundo basada en silicio con láser integrado. Este enlace puede transferir datos a mayor distancia y a mucha más velocidad de lo que se logra en este momento con la tecnología de cobre, pudiendo alcanzar hasta 50 gigabits de datos por segundo – el equivalente de la transmisión de toda una película en HD cada segundo.

Los componentes informáticos actuales se conectan entre sí utilizando para ello cables de cobre o pistas en placas de circuitos impresos. Debido a la degradación de la señal inherente al uso de metales como el cobre para la transmisión de datos, estas pistas tienen una longitud máxima limitada. Esto restringe el diseño de ordenadores, ya que obliga a colocar los procesadores, la memoria y otros componentes a una cierta distancia unos de otros. El gran avance de las investigaciones actuales representa otro paso adelante para la sustitución de estas conexiones por unas fibras ópticas extremadamente finas y ligeras, que pueden transmitir más cantidad de datos a una distancia mucho mayor, lo que puede cambiar radicalmente el diseño de los ordenadores y la arquitectura de los centros de datos del futuro.

La fotónica de silicio va a tener aplicaciones en todo el sector informático. Por ejemplo, a estas velocidades de transmisión de datos, podemos imaginar el desarrollo de unas pantallas 3D del tamaño de una pared para entretenimiento y videoconferencia, con una resolución tan alta que puede parecer que los actores que aparecen en lo visualizado se encuentran en la habitación. Los centros de datos o los supercomputadores del futuro podrían tener sus componentes repartidos por un edificio o incluso por todo un campus, pudiendo comunicarse todos ellos a alta velocidad, en vez de verse restringidos por conexiones de cables de cobre con una capacidad y un alcance limitados. De esta forma, se permitiría a los usuarios de centros de datos, como los de una compañía de motor de búsqueda, un proveedor de informática de la nube o un centro de datos financiero, incrementar su rendimiento y su capacidad para ahorrar una gran cantidad de costes en espacio y energía, o para ayudar a los científicos a crear unos supercomputadores más potentes que resuelvan los mayores problemas del mundo.

“La obtención del primer enlace fotónico de silicio de 50Gbps del mundo con láser híbrido de silicio supone un logro importante en nuestro objetivo a largo plazo para la “siliconización” de la fotónica y para ofrecer comunicaciones ópticas de bajo coste y alto ancho de banda en y alrededor de los PC y servidores del futuro”, afirmó Justin Rattner, director de tecnología en Intel y director de Intel Labs.

El Equipo de MU.

5 julio, 2010

DELL VENDIÓ MILLONES DE PC SABIENDO QUE EL 97% FALLARÍA EN LOS TRES AÑOS SIGUIENTES

Filed under: Datos y Noticias, Hardware — Etiquetas: — Vigilancia-Online @ 9:32 pm

Documentos judiciales recientemente publicados revelan una deplorable práctica comercial del gigante informático Dell.

En 2005 trascendió que varios grandes fabricantes de PC, entre ellos, HP, Dell y HP, tenían serios problemas con condensadores defectuosos en las placas madre de PC de sobremesa. El problema afectaba placas producidas por Intel y por el fabricante japonés Nichichon.

Dell fue probablemente la empresa más afectada por los condensadores defectuosos, al punto que en noviembre de 2005 registró en su contabilidad 300 millones de dólares para cubrir los gastos de recambio de las placas en PC de tipo Optiplex GX270 y GX280.

La mayoría de los condensadores mostraban una tendencia a expandirse y romperse, permitiendo así la filtración de líquido en otros circuitos y componentes. En 2007 el ISP Advanced Internet Technologies demandó a Dell ya que esta se negaba a asumir la responsabilidad por 2000 PC defectuosos. Esta situación habría ocasionado a AIT pérdidas de varios millones de dólares.

En un artículo sobre el tema, el diario New York Times refiere documentos hasta ahora confidenciales, según los cuales Dell, en lugar de retirar de circulación los PC defectuosos, continuó vendiéndolos, sabiendo que fallarían.

Según un análisis encargado por la propia Dell a una consultora externa, el 97% de los PC afectados presentarían errores durante los tres años siguientes a su venta. A pesar de ello, en el período mayo de 2003 a julio de 2005 Dell vendió 11,8 millones de PC Optiplex con condensadores defectuosos.

La documentación del caso revela que Dell hizo lo posible por disimular e ignorar el problema. Así, dio instrucciones al personal de soporte para evitar hablar sobre los problemas causados por los condensadores, y cuando la empresa debió sustituir algunos de ellos para clientes que habían presentado quejas, sencillamente utilizó los mismos componentes defectuosos.

Ante una consulta hecha por la Universidad de Texas debido al mal funcionamiento de los PC, Dell atribuyó la causa a que “el departamento de matemáticas de la Universidad había recargado excesivamente los aparatos haciéndolos realizar cálculos matemáticos complejos”.

A otros clientes, Dell “explicó” que habían utilizado los PC en ambientes demasiado calurosos o que los habían empleado para cálculos demasiado intensos.

Un problema clave para Dell es que al haber disimulado el problema podría haber ocasionado cuantiosas pérdidas económicas para otros de sus clientes, aparte de AIT, quienes también podrían presentar cuantiosas demandas en los próximos meses.

Dell, y AIT, se negaron a comentar el tema ante The New York Times.

El Equipo de MU.

2 junio, 2010

PRESENTAN EL DISCO RÍGIDO MÁS RÁPIDO DEL MUNDO

Filed under: Datos y Noticias, Hardware, Tecnología — Etiquetas: — Vigilancia-Online @ 8:27 am

Western Digital, la compañía mundial de soluciones de almacenamiento externo, anunció que ya están a la venta los discos duros WD VelociRaptor de 450 GB y 600 GB, la nueva generación de su familia de discos duros SATA de 10.000 RPM.


El nuevo disco está diseñado para los servidores de tarjeta tipo blade, para computadoras PC y Mac de alto desempeño, estaciones de trabajo profesionales, así como para servidores de rack 1U y 2U que requieren un balance entre el alto desempeño y la capacidad.

Al ser el único disco duro SATA de 10.000 RPM en el mercado actualmente, y por ser uno de los favoritos entre los grupos de aficionados y los profesionales, el disco duro WD VelociRaptor viene ahora con el doble de capacidad y hasta un 15% de incremento en el desempeño comparado con la generación anterior.

El VelociRaptor de WD está construido con mecanismos de calidad profesional que ofrecen durabilidad y confiabilidad en ambientes que exigen alto desempeño y tiene una capacidad de hasta 600 GB dentro de un formato de 2.5 pulgadas.

También está disponible en el gabinete IcePack, un marco de montura de 3.5 pulgadas con un ensamblaje de disipador térmico integrado, una configuración personalizada que ajusta al disco dentro de un espacio de sistema estándar de 3.5 pulgadas y ayuda a enfriar este poderoso disco cuando se instala en el chasis de una computadora de escritorio de alto desempeño, o un chasis empresarial de disco duro con un factor de forma de 3.5 pulgadas.

El precio al público sugerido por el fabricante para el WD VelociRaptor 450 GB es de US$ 299 y el de 600 GB de US$ 329.

Western Digital fue fundada en 1970. Los productos de almacenamiento de la compañía se venden a fabricantes líderes de sistemas y a un selecto grupo de mayoristas bajo las marcas Western Digital y WD.

Recomendamos visitar la página de lanzamiento www.wdvelociraptor.com

El Equipo de MU.

21 enero, 2010

INTEL REVELA SU NUEVA FAMILIA DE PROCESADORES

Filed under: Datos y Noticias, Hardware — Etiquetas: , — Vigilancia-Online @ 11:52 am

Los procesadores dirigidos al mercado de consumo en general ofrecerán la “Intel Turbo Boost Technology”, que permitirá la adaptación a las necesidades de desempeño del usuario.

Intel Corporation lanzó su nueva familia de procesadores Intel Core 2010, que ofrece integración y desempeño inteligente, incluyendo Intel Turbo Boost Technology para laptops, computadoras de sobremesa y dispositivos embebidos.

El lanzamiento de los nuevos chips Intel Core i7, i5 e i3 coincide con la llegada del innovador proceso de fabricación de 32 nanómetros (nm) de Intel, que, por primera vez en la historia de la empresa, se usará para producir y distribuir de inmediato procesadores y funcionalidades con una amplia gama de precios y para integrar los gráficos de alta definición al procesador.

Los nuevos procesadores Intel Core 2010 se fabrican por medio del proceso de 32nm de la empresa, que incluye la segunda generación de transistores high-k metal gate. Esta técnica, junto con otros avances, ayuda a incrementar la velocidad de la computadora al tiempo que disminuye el consumo de energía.

“Por primera vez una nueva familia de procesadores de Intel con la tecnología más avanzada de la industria estará disponible de inmediato, virtualmente en todos los niveles de precio de PCs”, dijo Sean Maloney, Vicepresidente Ejecutivo y Director General del Intel Architecture Group. “Estos procesadores inteligentes se adaptan a las necesidades del consumidor y ofrecen automáticamente un aumento de desempeño para las aplicaciones del día a día”.

Intel está revelando varios productos para plataformas, incluyendo más de 25 procesadores, adaptadores inalámbricos y chipsets, los nuevos procesadores Intel Core i7, i5 e i3, los chipsets Intel de la Serie 5 y los adaptadores Intel Centrino Wi-Fi y Wimax, que contienen las nuevas funcionalidades Intel My WiFi. Se espera que los fabricantes de computadoras ofrezcan más de 400 diseños de plataformas de PC basados en estos productos, incluyendo laptops y computadoras de sobremesa. Se prevén otros 200 para dispositivos embebidos.

El Equipo de MU.

31 julio, 2009

Qué hay de nuevo en procesadores

Filed under: Datos y Noticias, Hardware — Etiquetas: , , — Vigilancia-Online @ 8:00 am

Santiago Durante, de Intel Argentina, repasa las innovaciones de la compañía para los distintos equipos de las pymes. Desde servidores hasta portátiles.

Una pyme debe evaluar cuatro alternativas a la hora de pensar la tecnología para su empresa: servers, PCs, notebooks y netbooks.

Los servers son equipos preparados para operar 7×24. El diseño de sus componentes está pensado para darles confiabilidad y alta disponibilidad. Por ejemplo, cuentan con memorias con capacidad de corregir errores y otras tecnologías no disponibles en PCs.

También son escalables, posibilitando el crecimiento a un segundo procesador, a más memoria y más discos.

Como gran salto de este año en materia de innovación Intel ha lanzado la nueva microarquitectura Nehalem, sobre la cual ya están disponibles los procesadores para PCs Core i7, para servers los Xeon 3500 y 5500 y habrá más lanzamientos en lo que resta del año.

Estas nuevas tecnologías de Intel logran un salto enorme de performance y, a la vez, reducen considerablemente los costos de mantenimiento y soporte, ya que permiten la administración remota de los equipos y cuentan con capacidades para corrección de errores integrada. Su consumo de energía es inteligente y se regula automáticamente en función de la demanda que se haga del equipo: consumirá un poco más a plena carga y mucho menos en los períodos de reposo.

Los equipos con procesador Xeon 5500 lanzados a fines de marzo superan por más de 9 veces la performance de un equipo de hace apenas 4 años, lo que permite un grado de consolidación muy importante, pudiendo bajar la cantidad de servers en iguales proporciones.

Una pyme puede optar por servers con procesadores de la línea Xeon 3500, ideal como primer server, o por la 5500, que soporta hasta dos procesadores de alta gama por equipo.

A su vez, estas son tecnologías optimizadas para virtualización, lo que da un nivel de aprovechamiento del hardware aún mayor, contemplando nuevos requerimientos de servers, como por ejemplo funcionar como central telefónica y las aplicaciones de mensajería unificada que hoy están disponibles.

La tecnología puede ayudar a empresas grandes a ser ágiles, pero también a una pyme a parecer grande. Y hoy los costos han bajado tanto que una empresa con menos de 100 empleados puede usar los mismos procesadores de server Xeon que una gran telco. Las plataformas de servidores que acabamos de lanzar les permitirán estar operativos el 100% del tiempo y experimentar una diferencia de tiempo de respuesta muy notable.

En materia de PCs, hoy el procesador óptimo es un Core 2 Duo, con una performance entre 2 y 3 veces superior a nuestras líneas anteriores.

Sobre estos procesadores se pueden agregar funcionalidades para soporte y gestión remota y mejoras a la seguridad pudiendo aislar la PC de la red ante un virus, forzar la presencia del antivirus más actualizado ó bloquear los puertos USB. Características propias de la tecnología Intel vPro, que pueden ser administradas por gente sin conocimientos técnicos con herramientas como el Intel IT Director.

A la hora de renovar el parque informático, una pyme debe considerar seriamente la posibilidad de incorporar notebooks porque aumentan la productividad de los empleados. Equipos con tecnología Centrino 2 están optimizados para las necesidades de movilidad y rendimiento de una empresa y con una duración de batería de varias horas.

Por último, están las netbooks, que son fantásticas por su versatilidad para navegar por Internet y ver el correo. No son un reemplazo sino un complemento de las PCs de todos los días, porque no poseen capacidades de administración remota ni la performance multitarea que el uso de una empresa requiere.

Con las netbooks, en el ámbito empresario hoy se están realizando tareas que antes se llevaban a cabo en papel, gracias a su bajo costo, duración de baterías y portabilidad.

Las netbooks corren con un procesador Atom de Intel. Y las notebooks con un Core2Duo o superior, que típicamente ofrece entre 5 y 7 veces más de performance.

Santiago Durante es Gerente de Desarrollo de Negocios de Intel Argentina.

Fuente: ExpandIT

El Equipo de MU.


29 julio, 2009

El hardware vuelve a ser el rey

Filed under: Datos y Noticias, Hardware — Etiquetas: — Vigilancia-Online @ 8:00 am

Aunque todavía queda mucho 2009 por delante, el sector tecnológico ya cuenta con la que puede convertirse en la noticia del año: Oracle compra Sun Microsystems por 7.400 millones de dólares. De una tacada, Oracle se convierte en un gigante multidisciplinar. Se establece como jugador clave en el mundo open source con productos como OpenOffice.org u OpenSolaris, se refuerza en el mundo de las bases de datos con MySQL y asume la gestión del lenguaje Java extendido ampliamente por el ámbito empresarial. Pero un campo nuevo en el que Oracle entra gracias a esta operación es el del hardware, más concretamente, el de los servidores. De este modo, según palabras de su CEO, Larry Ellison, “Oracle será la única compañía que podrá diseñar un sistema integrado donde todas las piezas casan y funcionan juntas, de forma que los clientes no tendrán que unirlas ellos mismos”.


Para Iván González, director de análisis de Penteo ICT Analyst, “Oracle se constituye en el primer proveedor con un porfolio de TI que va de extremo a extremo. “Va del hierro (del hardware) a las aplicaciones empresariales (ERP, CRM). Sólo le faltan los servicios”. Esta opinión es compartida por Dean Hager, vicepresidente de producto de Lawson Software, que cree que ahora “Oracle puede presumir de ser la única empresa que facilita toda la tecnología implicada en una solución, desde el hardware hasta las aplicaciones, pero eso no significa que vaya a facilitar la solución misma”.

Pérdida de independencia
A priori, una de las consecuencias de la entrada de las compañías de software en el hardware es su pérdida de independencia de infraestructuras. Antonio San Agustín, de Accenture, no cree que esto sea así, ya que los fabricantes de software seguirán intentando que sus soluciones funcionen en el mayor número posible de plataformas, y los estándares actuales se lo permiten sin problema. Adicionalmente, buscarán planteamientos diferenciales en plataformas concretas, como han venido haciendo hasta ahora”.

Del mismo modo, José Alba, de Delaware, señala que la entrada de las compañías de software en el hardware no necesariamente significa que vayan a perder su independencia de infraestructura. De hecho, “hay integradores de sistemas que aun siendo fabricantes llevan sus propios productos en cartera como los de cualquier otro y los implantan siempre que el proyecto lo aconseje. Hay acuerdos que en la práctica son más vinculantes que si ambas empresas fueran la misma compañía”.

Adquisiciones desde 2007

Oracle. De las 25 adquisiciones realizadas por la compañía sólo es de hardware, pero la más importante, Sun Microsystems.
• IBM. El Gigante Azul ha realizado 20 adquisiciones de las que sólo una es una compañía de hardware. Su operación más importante fue la firma de software de Cognos con la que IBM mejoró su porfolio para análisis de datos.
Cisco Systems. La firma que preside John Chambers ha llevado a cabo 19 adquisiciones de las que cinco son empresas de hardware. Su operación más importante ha sido WebEx con la Cisco ha abierto una línea de negocio de software colaborativo.
HP. La multinacional norteamericana ha cerrado 16 adquisiciones de las que cinco fueron empresas de hardware. Su adquisición principal en los últimos tiempos ha sido la de EDS, con la que HP refuerza su posicionamiento de servicios de TI, principalmente en el área de outsourcing.

Fuente:  CW-España (fuente resumida)

El Equipo de MU.


22 julio, 2009

El NAS en las Pymes

Filed under: Hardware, Redes, Tecnología Informática — Etiquetas: , — Vigilancia-Online @ 8:00 am

Cualquier Pyme actual opera en base a un sistema informático, ya prácticamente sin excepción, que les permite realizar tareas tan variadas como hacer el seguimiento de las cuentas contables, administrar las propuestas y cotizaciones a sus clientes, administrar el stock, entre otras tareas críticas. En los últimos 25 años, las computadoras han transformado completamente la forma en que operan las pequeñas empresas, permitiendo que los que trabajan en ellas organicen y administren la información de una manera en que resultaba imposible en las épocas de los legajos en papel y de los archivos indizados en gabinetes.

Una vez que su empresa crece más allá de tener un único empleado, se enfrenta con el problema de la administración de la información. ¿Cómo mantiene loa datos de manera ordenada y, simultáneamente los hace disponible a las diferentes personas que trabajan para usted que necesitan trabajar con ellos?

Las grandes empresas tienen departamentos de informática que llevan adelante las tareas pesadas de diseñar y mantener redes informáticas cada vez más complejas, pero las Pymes tienen la presión de tener todo su trabajo hecho en tiempos sumamente cortos, impidiéndoles esto prestar atención a sistemas informáticos complicados.

El Ocaso del Servidor Dedicado

Afortunadamente, las redes de PCs han ido transformándose, facilitando su instalación y uso en los últimos años en comparación con el pasado. No necesita un servidor dedicado, y muchas empresas se dan cuenta que una red local es rentable en la medida en que compartan recursos tales como el acceso a Internet o una impresora de alta velocidad. Y también ahora, es más simple que nunca compartir datos en una red.

La forma más simple de compartir datos es la de permitir que otras PCs en la red vean una porción del disco rígido de su sistema, pero desafortunadamente los datos estarán accesibles a otros solamente cuando su PC esté encendida.

Instalar un sistema de almacenamiento separado al cual todos puedan acceder en cualquier momento ayudará a resolver el problema. Tales productos, los cuales son conocidos como NAS (Network Attached Storage o Almacenamiento Conectado a la Red), ofrecen una opción sofisticada y accesible en costo para las Pymes.

Como su nombre lo indica, un dispositivo NAS se conecta directamente a la red. Emplea un cable ethernet para conectarse a cualquier Switch o Router y dispone de un cable para alimentación eléctrica convencional. Si el dispositivo es un componente crítico de su red, lo recomendable es enchufarlo a una UPS.

Cuando se enciende un NAS, el dispositivo se comunica con su red y obtiene una dirección IP. A partir de este momento está listo para ser usado. Existen muchos modelos de NAS, algunos con una capacidad fija y otros que permiten el agregado de discos de cualquier tamaño. Deben pensarse como una unidad de dos o más discos autónoma conectada a una red sin necesidad de la existencia de un Servidor.

No solo se lo emplea para que todos los usuarios compartan información entre sí, sino también es una valiosa herramienta de backup y respaldo de la información crítica almacenada en las PCs de los usuarios, pudiéndose programar backups con cierta periodicidad sobre el NAS mismo, el cual, muchas veces, viene acompañado de un software pensado para tal fin.

El NAS es un recurso tecnológico que permite hacer más eficientes las Pymes sin destruir sus presupuestos.

Para más información contáctese con www.mercadosunidos.com info@mercadosunidos.com

El Equipo de MU.

Older Posts »

Blog de WordPress.com.

A %d blogueros les gusta esto: