Vigilancia Online-Mercados Unidos-Sistemas de Seguridad Electronica-Neuquén

14 octubre, 2008

Deshechos Electrónicos o e-Waste

Filed under: Datos y Noticias, Informática y Sociedad — Etiquetas: , , — Vigilancia-Online @ 3:30 pm

A pesar de las campañas mundiales a favor de la ecología, y, particularmente, de propender la fabricación de dispositivos electrónicos de bajo nivel de contaminación, bajo consumo, con materiales reciclables, etc. (abarcados en el concepto de «green computing»), el denominado «e-waste» basura compuesta por equipamiento electrónico, tales como computadoras, monitores, impresoras y demás, va en aumento.

 Aunque es difícil disponer de cifras válidas, un infome preparado por el Basel Action Network y la Silicon Valley Toxics Coalition, estima que la basura electrónica generada globalmente en 1998 era de 5 a 7 millones de toneladas, con una tasa de crecimiento anual del 5 al 7 %. La mayor parte del «e-waste» se produce en los países industrializados y termina en los países en vías de desarrollo, tal como se muestra en el mapa a continuación, incluyendo las rutas conocidas. Los grandes puntos rojos indican tanto el origen como el destino de esta basura. Los puntos azules señalan las fuentes de generación de resíduos, los rojos pequeños, los destinos conocidos y los rojos oscuros, los destinos sospechados, entre estos últimos se encuentra la Argentina.

 

Fuente: Basel Action Network Silicon Valley Toxics Coalition

El equipo de MU.

10 octubre, 2008

Estándares vs. Consorcios: encuentra las diferencias.

Filed under: Datos y Noticias — Etiquetas: , , , — Vigilancia-Online @ 9:23 am

Supongamos que la industria electrónica desea estandarizar protocolos para un nuevo dispositivo inalámbrico en el mercado. Este es un escenario posible para la adopción de estándares, comparando un consorcio de grandes empresas, con el proceso de estandarización de la Organización Internacional para la Estandarización (ISO/OSI).

Descarga tu póster (en formato pdf) en el enlace al pie de esta nota para no perder de vista algo fundamental a la hora de argumentar sobre tecnología, normas, standares y consorcios.


 

Póster: mercadosunidos_standares_vs_consorcios (formato pdf)

El equipo de MU.

9 octubre, 2008

Disco Virtual en Internet: ADrive

Filed under: Datos y Noticias — Etiquetas: , — Vigilancia-Online @ 6:36 pm

 

ADrive ofrece una gran capacidad de almacenamiento en línea: 50 GB de espacio. El sitio ofrece en forma gratuita el servicio de almacenamiento, a la vez de un software gratuito de backup. Si bien tiene ciertos condicionantes (opera bajo Java y cada archivo no debe superar los 2 GB), la interfaz es muy amigable…y es totalmente gratuita para uso personal. Su usabilidad supera al de varios sitios pagos que ofrecen iguales prestacioens. Ofrece una solución rápida y segura para almacenar archivos de respaldo o información no confidencial para tenerla accesible desde cualquier computadora con una conexión a Internet.

Admite todo tipo de archivos, inclusive los formatos más populares de video, audio, documentos y aplicaciones, de manera que se puede almacenar cualquier tipo de información para compartirla, inclusive, entre colegas y amigos.

A diferencia de otros sitios de almacenamiento gratuitos populares no es necesario fraccionar los archivos en módulos de 50 Mb, algo muy útil si se usa una conexión de banda ancha.

Hasta ahora funciona bien, y evita preocuparse del hardware, estado de los servidores, mantenimiento de la red propia y demás, que impiden hacer un respaldo de archivos cuando uno lo necesita.

Para acceder al sitio:  ADrive!

En nuestro caso, lo empleamos como buena alternativa para archivos «de emergencia» que usualmente transportamos en nuestros pen-drives y para compartir documentos, archivos y datos en forma ágil evitando la carga del correo electrónico ya que incorpora una facilidad para enviar un enlace tipo «archivos compartidos» y ofrecer su descarga a quienes deseemos.

Muchas iniciativas de este tipo no han tenido una larga vida, esperemos que esta sí. 

El equipo de MU.

7 octubre, 2008

Tecnotendencias 2008

Filed under: Datos y Noticias — Etiquetas: — Vigilancia-Online @ 12:03 pm

Tecnotendencias ’08 será la segunda edición de las Jornadas Norpatagónicas sobre Tendencia en Tecnologías Informáticas a desarrollarse los días 8, 9, 10 y 11 de Octubre en Neuquén. Las mismas representarían no solo la continuodad de esta propuesta creada por ICONO e IFES en el 2007, sino además una actividad programada con un mayor alcance, integración y calidad..

Para la presente edición se instrumentó un cambio en la consigna. Conservando su identificación, Tecnotendencias, deja de ser un evento centrado exclusivamente en Tecnologías Informáticas para ampliar su alcance a las Tendencias e Innovación en Tecnología dado que será un espacio donde se desarrollen paneles, conferencias y/o seminarios que abarquen a la Tecnología en toda su expresión..

De este modo Tecnotendencias ratifica su objetivo de constituirse en un canal a través del cual fortalecer la vinculación entre organizaciones y empresas que operan en la zona, obteniendo como resultado una respuesta a las necesidades y requerimientos de todos los sectores demandantes de los avances tecnológicos, aportando su visión del negocio a través del uso de las TIC’s.

Se llevará a cabo en el «Espacio DUAM» Acceso Aeropuerto Neuquén Capital.

Disertaciones Gratuitas –> Visualizar Cronograma de Disertaciones (pdf)

6 octubre, 2008

Notebooks: ¿Cuál me conviene elegir?

Filed under: Hardware — Etiquetas: , , — Vigilancia-Online @ 7:10 pm

A la hora de adquirir una notebook la pregunta que surge al instante es:

¿Cuál me conviene elegir?

Hoy en día la variedad de marcas, configuraciones y precios pueden hacer de esta una decisión difícil. Para poder aliviar esta tarea (y nuestro bolsillo) he aquí algunos tips para elegir mejor a la hora de comprar nuestra siguiente notebook.

Lo primero que debemos tener en cuenta a la hora de invertir en una portátil es nuestra movilidad. Si nuestro trabajo se divide entre oficina, casa y por qué no, un café definitivamente es lo que estamos buscando, ya que su principal función es proveernos de nuestra información sin importar el lugar donde nos encontremos.

Ahora debemos pensar en qué tipo de uso le vamos a dar y por consiguiente qué tipo de notebook necesitamos. Con esto me refiero a que si nuestras necesidades son básicas (procesar texto, chatear, revisar los mails) debemos optar por una portátil de gama media, ya que de lo contrario estaríamos desperdiciando su potencial. En el caso de personas que necesiten un procesamiento de información bastante complejo (edición de audio y video, retoque de imágenes, etc.) es muy probable que se necesite algo de gama alta para poder trabajar con soltura.

Aquí hago una pausa y paso a explicar qué tipo de portátiles se dividen en “gama media” y “gama alta”:

Gama Media: Son todas aquellas notebook que poseen procesadores de nueva generación pero no están encasillados dentro de los más potentes. En el caso de Intel podemos nombrar los Dual Core y Core Duo solo. En el caso de AMD, Athlon 64.

Gama Alta: Vienen integradas con procesadores muy potentes como ser los Core 2 Duo o Quad Core de Intel; o en el caso de AMD Turion 64 x2 o Phenom (este último posee 4 núcleos al igual que el procesador Quad Core de Intel).

 

Bueno, ahora vamos a entrar en lo que seguramente les resultara más interesante, las marcas. Como todos sabemos a la hora de adquirir cualquier tipo de producto las opciones en cuanto a marca suelen ser muchísimas y en esto las notebooks no son la excepción.

Si bien siempre preferimos comprar un producto que sea de “marca” ya que esta nos garantiza buen funcionamiento, vida útil, servicio post-venta, garantía, etc.; en este caso el panorama puede llegar a ser muy diferente.

Si lo que buscamos es calidad sin importar el precio a pagar, seguramente estamos pensando en adquirir una HP (Hewlett-Packard) o una Sony Vaio, las cuales se han logrado posicionar como dos de las mejores (y más caras) opciones. En cambio si lo que estamos buscando es buen precio sin darle demasiada importancia a la calidad, es probable que busquemos marcas como Olivetti, Axus o la gama baja de Acer. Para aquellos que se quedaron pensando, no se preocupen que entre estos dos puntos hay una brecha de opciones más que interesantes y accesibles, de las cuales yo recomiendo la línea Athlon y Dual-Core de COMPAQ (desde que fue absorbida por HP se dedicó a fabricar Notebooks de gama media con una calidad más que aceptable) o en su defecto las líneas Dual-Core de Lenovo (ex IBM) que presentan un rendimiento muy interesante.

Para ir cerrando el tema me gustaría responder algunas de las preguntas más frecuentes a la hora de hacer este tipo de adquisición:

 ¿L¿La vida útil de la batería de una Notebook disminuye con el tiempo?

Esta es una pregunta muy frecuente y la respuesta es que sí, la vida útil disminuye con el paso del tiempo. Es probable que al año de haber adquirido nuestra portátil la duración de su batería se vea reducida hasta un 30% dependiendo el tipo de uso.

 ¿’Qué Windows debo elegir, Vista o XP?

Generalmente esto está sujeto al fabricante ya que cada uno establece diferentes convenios con Microsoft. Hoy en día el 90% de las notebooks salen de fábrica con Windows Vista pre instalado (en sus diferentes versiones). Sólo algunas empresas, como el caso de Lenovo, siguen ofreciendo la posibilidad de obtener Windows XP original en sus portátiles.

 

¿A qué tecnología debo apuntar?

Hoy en día vivimos en un mundo en constante evolución, y es muy probable que lo que nosotros obtenemos con tanto esfuerzo hoy, mañana se vea olvidado en el tiempo. En el mundo informático pasa algo parecido, adquirir una notebook que incluya tecnologías como Blu-Ray o la nueva conexión inalámbrica 802.11n son aspectos más que importantes, ya que seguramente en el corto plazo van a posicionarse como estándares, y es por esto que debemos tener en cuenta que solo un pequeño segmento del mercado (Tanto de PC de escritorio como portátiles) incluye estas dos nuevas tecnologías en sus productos.

Bueno espero que esta nota les haya sido de utilidad.

Saludos!

Gerardo Tapia

Responsable Soporte Técnico

Mercados Unidos

gtapia@mercadosunidos.com

www.mercadosunidos.com

 

¿Qué es un scanner y cuál es su función?

Filed under: Gestión Documental, Hardware — Etiquetas: , — Vigilancia-Online @ 12:06 pm

Un scanner es un dispositivo de entrada para PC. Hace una captura de una imagen, documento de texto o fotografía, y lo transfiere en bits de información, los cuales puede entender y manejar una computadora. De la misma manera, una imagen de un documento escaneado, puede ser convertido en un formato editable con un software OCR (Optical Character Recognition).

Un scanner usa una fuente de luz para iluminar el objeto escaneado. La luz, al incidir sobre este objeto, es reflectada al CDD (Charged Coupled Device). El CDD colecta la información y convierte la señal analógica en señales digitales que después pueden ser leídos y procesados por la electrónica interna del Scanner y posteriormente por la PC.

¿Qué es TWAIN?

Es una norma o protocolo que fue creada para desarrollar un interfaz estándar entre los dispositivos de entrada y los programas internos. Antes de que esta norma existiera, había que cambiar de formato para que los distintos tipos de software pudieran hacer su trabajo.

Un scanner podrá ser conectado a un puerto paralelo, SCSI o USB, sin ningún tipo de problema. Hoy en día será raro ver muestras de incompatibilidad al conectar este accesorio.

Calibración

Efectivamente, estos dispositivos también necesitan ser calibrados; esto se realiza de diversas formas. Por ejemplo, muchos escáneres de mano incluyen una hoja con diferentes tonalidades de color, que debe ser digitalizada para que nuestro periférico establezca los patrones necesarios. Asimismo, es importante que nuestra impresora de color pueda reproducir correctamente la imagen original; para ello es preciso establecer una relación entre los colores que ésta puede imprimir, y los que el escáner puede digitalizar. Se suele emplear un modelo, que primero se imprime en la impresora y posteriormente se digitaliza; se comparan las diferencias y se crea un archivo de configuración, conteniendo los ajustes que permitirán corregirlas. Aunque no todos los modelos permiten este tipo de calibración, lo cierto es que cada vez se utiliza con mayor frecuencia.

Tipos de scanner más relevantes

  • Planos – Es el típico equipo que nos encontraremos encima de una mesa o mueble y confundiremos con una fotocopiadora. Los precios suelen variar dependiendo de la calidad de la resolución que tenga aunque podemos encontrar buenos precios si miramos bien.
  • De rodillo – Son pequeños y por ello bastante manejables. Escanean las imágenes como si se tratara de un FAX común. El inconveniente es que el escaneado se hace hoja por hoja pasando por una abertura, por lo que escanear libros o manuales se hace complicado.
  • De mano – son los mas económicos aunque los de mas baja calidad. También se les llama «portátiles» por su tamaño. Hoy en día están desapareciendo.
  • Existen también scanners profesionales, los cuales cuentan con un cargador de varias hojas para que podamos escanear grandes cantidades de documentos en un tiempo mas bajo que si lo hicieramos hoja por hoja.

Existe una modalidad de impresora donde el scanner viene integrado. Son las llamadas «impresoras multifunción«.

Un factor muy importante en un scanner es la resolución. Recordemos que la resolución mide los píxeles por pulgada en la pantalla. Cuanto más alta sea la resolución, mas calidad tendrá la imagen. Ya que vamos a escanear fotos, texto, diapositivas o imágenes, cuanto mayor sea la definición del scanner, mejor nos saldrán las copias.

Javier Renzi

Responsable Tecnología Informática

jrenzi@mercadosunidos.com

www.mercadosunidos.com

Su especialista en Digitalización y Gestión Documental


Digitalización de Documentos, Scanners y Gestión Documental

Siempre me atrajeron los scanners: transferir cualquier cosa impresa en una hoja de papel, texto o imágenes a una computadora, era un proceso casi mágico y si, además podía distribuir esa imagen entre múltiples usuarios a la vez, el documento o formulario en papel se transformaba, automáticamente en una “unidad de información compartida”.

La raiz del asunto hay que buscarla en el concepto de datos digitales: la información que maneja una computadora es siempre digital: todos los caracteres, alfabéticos, numéricos o especiales, son convertidos a números, todo aquello que no es digital, no puede ser procesado por una computadora. De aquí partió la clasificación de «datos estructurados» y de «datos no estructurados». Los datos estructurados son los que habitualmente manejamos en una PC: planillas de cálculo, documentos electrónicos de cualquier tipo, archivos de datos contables, por ejemplo, mientras que los datos «no estructurados» son, generalmente, las imágenes y aquellos conjuntos de datos no procesables ni manipulables como para ser transformados en información.

Hasta aquí todo claro. Pero la mayor parte de la información que manejamos cotidianamente está en papel por lo cual siempre percibí que la computadora tenía un alcance limitado, ya que si bien era capaz de procesar datos a una velocidad impresionante, alguien los tenía que ingresar previamente a través de un teclado, caso contrario, el resto ingresaba a la categoría de «dato no estructurado» y pertenecía a un mundo separado de la informática. Un mundo demasiado cerca de la realidad: documentos en papel, legajos, documentos firmados, constancias, fotografías, catálogos, folletos, formularios impresos, pre-impresos, tickets, tarjetas, y un largo etcétera.

Recuerdo cuando comencé a trabajar en el entorno gráfico, a mediados de la década de los 80, con los programas Ventura Publisher y el recién creado Pagemaker. A nivel diseño: excelente, pero necesitaba algo más, integrar imágenes, fotografías, logotipos, y todo ello residía en papel. La única alternativa era recurrir a un nuevo aparato que se denominaba «Scanner», un dispositivo que permitía convertir los caracteres gráficos o impresos a formato digital, un formato compuesto por números dentro de una computadora. Pero los inconvenientes no eran pocos.

Los scanners disponibles en la Argentina costaban aproximadamente u$s 9000 a u$s 12.000, los más comunes eran los Microtek y los Sharp con una resolución no superior de los 300 puntos por pulgada «dpi, dots per inch» (todavía no existía la interpolación digital) y eran espantosamente lentos. Desde la década de los 70 ya se habían inventado los scanners para leer códigos de barras, pero solo servían para ese fin, recién comenzaban a surgir los scanners con tracción de hoja de papel (los del tipo de rodillo) los cuales fueron incorporados con mucha rapidez al mercado dando origen a otro dispositivo: el fax, capaz de enviar texto e imágenes residentes en una hoja de papel a través del teléfono a cualquier lugar del mundo (realmente el fax es un scanner acoplado a un teléfono y a un modem de comunicaciones). El scanner incorporado en un fax no superaba los 150 puntos por pulgada de resolución, sin embargo, muchas veces scaneé con un fax, otra alternativa no tenía.

Mis horas interpolando, retocando y enmascarando imágenes manualmente con un scanner que una empresa me facilitaba, me permitió conocer a fondo los trucos y secretos que encubría el sofisticado aparato. El progreso tecnológico hoy nos evita todas estas cosas. Cualquiera que lo necesite puede tener un scanner de mesa con una resolución de altísima calidad fotográfica y capturar lo que desee en una fracción de tiempo que tomaba en aquellos primeros scanners. Actualmente es posible editar un catálogo profesional sin mayor dificultad que aprender uno o dos programas de digitalización (así se denomina al proceso de scaneado propiamente dicho, lo cual significa «convertir en dígitos algo que está originalmente codificado en algún otro protocolo o formato»).

Si bien los tiempos cambiaron, existen algunos problemas que siempre seguirán vigentes y no están relacionados con la tecnología propiamente dicha. Tenemos el scanner, su costo es relativamente accesible, su uso es poco complicado, la integración con la PC, con los programas de edición de imágenes y formatos múltiples en los que se puede convertir la imagen no presentan inconvenientes, los scanners son rápidos, las PC también y sobra espacio en disco.

Analicemos el problema desde 1985 y veremos algunos de los inconvenientes que tenía. Usé todos los scanners que tuve al alcance de la mano: planos de 300 dpi, manuales de 300, 600 y 1200 dpi, planos hasta el rango de los 9600 dpi, de produccion tipo E de página ancha, y por último, con alimentadores automáticos de papel o document feeders, simplex y duplex, aquellos que digitalizan ambas caras del papel en forma simultánea, automática, con alta resolución y a mucha velocidad.

Sin embargo el problema persistía: la administración, uso, organización y clasificación de los archivos que contenían las imágenes. Las aplicaciones de los scanners eran específicas y para usos especiales: diseño gráfico, captura de planos, captura de fotografías y documentos con valor contable y legal. Era difícil concebir una solución para reemplazar todos los documentos en papel por imágenes digitalizadas en toda una oficina o, más aún, en toda una empresa. ¿Por qué? Porque todo lo digitalizado, como comenté antes, pertenece al mundo de los datos no estructurados, su procesamiento era difícil, su identificación, recuperación y distribución entre todos los que necesitaban un documento dado, aún más.

Pero esto también cambió.

En nuestra consultora prácticamente no utilizamos el papel, todos los folletos, manuales técnicos, tarjetas de presentación recibidas, las pocas notas que escribimos manualmente, constancias, facturas de impuestos y de servicios, están digitalizadas, almacenadas en disco y son enviadas por e-mail y compartidas por todos. Inclusive llevo en mi maletín un scanner portátil, que me evita sacar fotocopias o transportar papel, ya que digitalizo todo al momento conectándolo directamente a un puerto USB de mi laptop. Es reconfortante pensar que en un CD común caben casi 25.000 páginas de texto y en un DVD, cinco veces más.

Con este panorama era esperable que surgiera una solución al problema antes mencionado y la solución la brindaron los Sistemas de Gestión Documental o, en inglés, Document Management Systems.

Estos sistemas son aplicaciones de software que cumplen varias funciones integradas: capturan los documentos en papel, a la vez de colectar una variedad de archivos electrónicos (documentos elaborados en procesadores de texto, planillas de cálculo, etc.) suministrando facilidades de almacenamiento, recuperación, seguridad y archivado de estos documentos “virtuales”. El problema estaba resuelto.

El proceso comienza con la conversión de los documentos en papel llevándolos a archivos electrónicos. Esta conversión elimina la mayoría de los obstáculos creados por el papel: procedimientos de fotocopiado, re-impresión o duplicación de documentos, lentitud en su distribución, originales perdidos o mal archivados y los inconvenientes generados por el archivado de documentos fuera del lugar donde se necesitan para su manipuleo operativo.

En síntesis, la digitalización de documentos dejó de ser un trabajo sofisticado, reservado a los especialistas en el manejo de scanners y softwares de imágenes y su aplicación en toda la empresa se hizo realidad al desarrollarse sistemas de gestión de documentos electrónicos capaces de “virtualizar” la información existente en papel de toda una empresa.

Estos sistemas tienen cinco componentes básicos: herramientas para capturar e importar documentos a una base centralizada, un método para almacenar y archivar documentos, herramientas para indexar y localizar documentos en tiempo real, inclusive por Web, herramientas de distribución para exportar los documentos de la o las bases de datos y seguridad para proteger los documentos de accesos no autorizados.

Lic. Juan Moratto

jmoratto@mercadosunidos.com

www.mercadosunidos.com

Su especialista en Digitalización y Gestión Documental


2 octubre, 2008

Exclusivo para desarrolladores: Marketing de Intangibles

Filed under: Software de Gestión — Etiquetas: , — Vigilancia-Online @ 12:54 pm

Durante el evento Softech Neuquén/2007, llevado a cabo en la Ciudad de Neuquén – Argentina, se presentó un seminario que trataba un punto fundamental en el proceso de desarrollo de software de gestión o software aplicativo: el vínculo entre el esfuerzo de desarrollar un software para su futura inserción dentro de un medio empresarial y las dificultades que puede implicar su márketing.

El enfoque que se le dió a esta formación giró en torno a la disociación natural existente entre los desarrolladores, de perfil profundamente técnico y el mercado usuario, el cual raramente tiene formación informática y que está más preocupado en la «utilidad» más que en la «funcionalidad» de un sistema.

Se arriba a conclusiones estratégicas elaboradas, aplicadas al metaproceso de concepción del sistema para la satisfacción de una o varias necesidades de negocio, invirtiendo el proceso mental de desarrollo de una aplicación y garantizando, de esta forma, la inserción de la solución en el mercado con bajo nivel de riesgo.

El material adjunto le resultará útil a todas aquellas PyME de Desarrollo de Software que desean progresar en un mercado dado, regional, nacional o de exportación y, también útil para todo usuario de software de gestión a la hora de contratar un determinado desarrollo (software a medida) o adquirir un software pre-armado (software enlatado).

marketing-de-software_mu

Lic. Juan Moratto

jmoratto@mercadosunidos.com

Consultor Senior Asociado

www.mercadosunidos.com

1 octubre, 2008

Estrategia de Gobierno Electrónico para la Provincia de Neuquén

Filed under: e-government, Informática y Sociedad — Etiquetas: , , — Vigilancia-Online @ 11:01 am

El mes pasado participé en un seminario de larga duración referido a la Formulación de Estrategias de Gobierno Electrónico, dictado en el Portal Educativo de las Américas de la OEA (Organización de los Estados Americanos).  Como consultor informático, gracias a esta formación percibí el gran cambio que experimentó gradualmente el concepto de Gobierno Electrónico, gracias, sobre todo debido a las implementaciones realizadas en los dos últimos años. Cuando se produjo la ruptura de la burbuja de las .COM, después de haber vivido la euforia del nacimiento del e-Business y su proyección a todos los ámbitos de la sociedad, intuí que se necesitaba un cambio más allá del enfoque tecnológico para este tipo de iniciativas.

El e-Government o Gobierno Electrónico, a mi entender, no era más que la extensión metódica de los principios del e-Business con todos los fundamentos sociológicos y políticos implícitos del rol definido por un Estado.  Desde el momento de inicio de la formación se plantearon dudas que harían trastabillar hasta al consultor más experimentado, como ejemplo:

¿será posible derribar los marcos espaciales, temporales y de relaciones entre ciudadanos y el Estado, de manera de ofrecer productos y servicios a través de relaciones fáciles, ágiles, personalizadas y localizadas en el administrado, los 7 días de la semana, las 24 horas del día, los 365 días del año?

¿Se encuentran la mayoría de los gobiernos locales en condiciones de comenzar un cambio en este sentido? ¿Qué factores deberían tenerse en cuenta en este sentido?

¿Quiénes deben involucrarse en este cambio conceptual acerca del rol que cumple el Estado en los gobiernos?

¿Debe el Estado invertir grandes cantidades de dinero en TECNOLOGIAS de Información y Comunicación existiendo tantas prioridades?

¿El uso de Tecnologías de Información y Comunicación ¿debe tener su foco en los funcionarios, las instituciones o los ciudadanos?

Para un ciudadano, de cualquier oficio o profesión, resulta difícil no tomar partido en la solución de estos interrogantes, de allí que las dificultades para la elaboración de una estrategia sean mayores por varios factores subjetivos ineludibles.

En el aula partiparon más de veinte asistentes de todos los países latinoamericanos. Una experiencia absolutamente imperdible y enriquecedora. La tutoría, llevada adelante por Cowley Villegas (Chile) fue estupenda. Y cuando me refiero a estupenda, quiero decir: siempre cordial y dispuesto a ayudarnos y, a la vez, absolutamente exigente. Una vez más, quedó claramente demostrada que la Tecnología Informática es un agente de cambio muy profundo en todas las sociedades, hasta el punto en que puedo afirmar que una sociedad que no haya superado la brecha digital estará en inferioridad de condiciones con respecto a los países más desarrollados. Sin informática, el conocimiento no existe, es decir, la resultante es una Nación limitada y una sociedad impedida de realizarse, impedida de abandonar la era de la información para introducirse en la era del conocimiento.

Más que una capacitación es una experiencia, ya que obliga a trabajar en equipos multidisciplinarios y multiculturales. Cada cultura, país, región tiene una problemática, prioridades, idiosincracia, historias disímiles entre si. Si bien el objetivo estaba planteado: armar una estrategia de gobierno electrónico para la Provincia, Región, País, etc. cada intercambio de opiniones enriquecía paulatinamente la solución.

Mi trabajo, que cedo en este espacio, giró sobre la instrumentación de un modelo de e-Government para la Provincia del Neuquén, con un análisis de la situación nacional, provincial, de recursos y de plazos. Este proyecto, que invito a leer, tiene un eje central un tanto divergente con las iniciativas que se están llevando adelante en otras provincias y naciones.

Siendo una iniciativa Estatal, y promovida por un Gobierno, se corre el riesgo de la potenciación de los brazos estatistas sobre procesos que ya son monopolizados por el Estado y también por los que aún no están en poder de Él. Este peligro no me quedó oculto en la instrumentación de un proceso de intrusión tecnológica sobre diferentes regiones con fines sociales poco claros.

Primero todo Gobierno debe superar, por si mismo, con sus capacidades, y con sus propios recursos (no los de los ciudadanos) sus propias limitaciones.

Esto es paradójico, pero al fin y al cabo, todo esto es posible gracias a que pagamos nuestros impuestos. De allí se origina como elemento balanceador de la ecuación, tal como lo postulo (me gustan los modelos de equilibrio) en que, a la par de existir un Gobierno Electrónico (término de dudosa semántica ya que un gobierno no es un conjunto de circuitos electrónicos sino una entidad con impacto sociológico, cultural, generacional, político, histórico, etc.) debe existir, también, un Civismo Digital o un concepto equivalente.

Una fuerza contrapuesta que equilibre el «largo brazo del Estado» con el «fuerte peso de la opinión pública».

Además, la mayoría de las iniciativas de Gobierno Electrónico existentes (pago de impuestos, consulta de bancos de datos, gestiones administrativas, presentación a licitaciones y concursos de precios, etc.) están dirigidas a «mejorar lo existente». En este sentido toda estrategia de e-government tiene que orientarse a suministrar lo que está ausente y  no a mejorar lo que ya existe.

Para que un habitante de nuestra Nación sea un ciudadano tiene que cumplir con un conjunto de obligaciones y se hace merecedor de un conjunto de derechos. Si analizamos el conjunto de derechos y obligaciones y le damos un puntaje de 100% a cada uno de ellos, el Gobierno Electrónico debe orientar todos sus esfuerzos a que los ciudadanos logren alcanzar ese 100%, sin exclusiones, excepciones ni limitaciones.

Es decir, una iniciativa de Gobierno Electrónico será válida siempre y cuando tenga por objetivo central aumentar las capacidades del ciudadano, tal como lo indica la Constitución Nacional, dentro del marco social en el que se desenvuelve. A partir de allí, todos son beneficios, bajos costos de gestión, eficacia y eficiencia, la aplicación de las TICs siempre supera cualquier nivel de servicio concebido en forma manual o clásica.

Bien, les dejo mi proyecto, que me valió la aprobación del curso y espero les resulte útil.

Lic. Juan Moratto

jmoratto@mercadosunidos.com

http://www.mercadosunidos.com

proyecto-ge_juan-moratto_neuquen

El documento adjunto está protegido con Licencia Creative Commons

Derecho de Autor © 2008 Bienes Comunes
Algunos Derechos Reservados, Licencia Creative Commons Argentina
Atribución – CompartirDerivadasIgual 2.5

30 septiembre, 2008

Claves para Sobrevivir en Tiempos de Cambio

Filed under: Informática y Empresa — Etiquetas: — Vigilancia-Online @ 11:26 pm

El valor del pensamiento informatizado, o Claves para Sobrevivir en Tiempos de Cambio

El famoso pintor Pablo Picasso dijo alguna vez que las computadoras eran completamente inútiles ya que podían responder a todas nuestras preguntas, pero no eran capaces de hacernos ninguna. Notable: sabemos que las preguntas nos las tenemos que hacer nosotros, nadie nos puede (o podía) ayudar en esta tarea. Una pregunta mal hecha nos dará respuestas inútiles, o peor, nos inducirá a una decisión equivocada.

Si analizamos el siguiente pensamiento «el dato que necesito es…?»  veremos que nos hemos anticipado a los medios  que nos permite obtenerlo. La pregunta siempre está antes que la respuesta. Muchos especialistas en sistemas piensan, erróneamente, que lo más importante es producir información: primero generan respuestas (información) para las preguntas que «podrían hacerse» (procesos de decisión), pero si nos detenemos un momento veremos que podemos tener respuestas para una infinidad de preguntas que nunca se harán.

Concretamente, el error conceptual reside en pensar que si tenemos preguntas, necesitamos respuestas, y allí vamos: disponemos de todas las respuestas que sean posibles, hagamos o no las preguntas necesarias.

Ahora bien pensemos cuántas veces hemos hecho una misma pregunta. Por ejemplo: cuál es la disponibilidad de stock de un producto determinado, quiénes conforman el grupo de clientes clave para dirigir una estrategia de ventas, cuál es el estado de nuestro flujo de caja para hacer las previsiones necesarias, qué nos va a responder el cliente o proveedor a nuestro mail en donde le indicamos una suba de precios o una refinanciación de pagos, respectivamente, y así sucesivamente. Otro problema es que todo el universo de respuestas que me puede ofrecer una computadora son «a posteriori», es decir: llegan demasiado tarde y puede ocurrir que las respuestas se basen en datos no del todo exactos, coherentes, o válidos, algo fatal.

Veamos dos conceptos que nos van a permitir tener éxito en la gestión de información de nuestra PyME. Todas nuestras preguntas conforman el universo propio de «necesidades de información«. Y aquí tenemos nuestro primer concepto clave: La información requiere que los datos se encuentren en un contexto determinado, en una situación específica para que tengan algún significado útil. Debe existir algún propósito concreto en la utilización de los datos para que ganen la categoría de «información». La calidad de los datos es crítica para asegurar que la información obtenida sea precisa ya que solamente podemos tomar decisiones acertadas contando con información con alto grado de precisión. Por otra parte, toda información que esté fuera de contexto tiene valor nulo.

Los datos ubicados en una situación y contexto determinados dan origen a la información. El conocimiento de nuestro propio negocio nos permite hacer las preguntas volcadas en forma pura de parte de nuestra experiencia. Ésta resulta esencial para hacer un buen uso de la información disponible y aquí tenemos nuestro segundo concepto clave: el conocimiento es la información sumada a la experiencia, el cual no puede existir prescindiendo del otro. Hemos dejado atrás la «Era de la Información» y comenzamos la «Era del Conocimiento». Debemos tener en claro que hoy en día no tiene éxito quien cuenta con más información, sino aquél que sabe cómo y dónde aplicarla.

Volvamos nuevamente a nuestra PyME. Si aplicamos un cierto grado de abstracción veremos que nos dedicamos a llevar a cabo «procesos«, entendiendo por éstos,  un determinado conjunto de actividades que modifican entradas -materia prima, datos, inclusive los resultados de un proceso anterior- y las transforman de alguna manera produciendo salidas -materia elaborada, información, nuevos resultados para el proceso siguiente. Tan interesante es la visión «por procesos» que su origen y fin resultan en un mismo punto: todo proceso dentro de una empresa comienza con el requerimiento de parte de un cliente y termina (al menos en forma general) luego de la aplicación de los procesos, en la satisfacción del requerimiento del cliente. Como observamos, el cliente está en ambos extremos de nuestra cadena.

Hasta la aparición del e-business, o empresas en Internet, este conjunto de procesos podría repetirse indefinidamente, ya que era un modelo ventajoso.  Sus ventajas residen en una paulatina disminución de errores (curva de aprendizaje), de fallas en administración, de inconsistencias, puliéndose en forma gradual. Así funcionaron las PyMES clásicas: eran especialistas en un determinado tipo de proceso y surgieron el tipo de expresiones como: » …y  30 años de experiencia avalan nuestra seriedad…». Hasta que, de golpe, cambian las reglas del mercado nacional o internacional, o cambia la tecnología en uso, o cambian o desaparecen proveedores y clientes, o aumentan las exigencias de los clientes o no disponemos de financiación suficiente, o….. Bien, lo peor que le puede pasar a una PyME es perder «cintura». Perder, justamente lo que constituye su principal ventaja competitiva: dinamismo.

Sumemos todo: Conocimiento para tomar decisiones acertadas, dinamismo para que estas decisiones se ajusten al contexto económico en constante cambio, procesos con alto nivel de flexibilidad para adaptarse a dichos cambios, información destinada a alimentar nuestra experiencia para incorporar los datos del contexto actual, qué nos falta?

Falta volver al principio: al universo de preguntas que podemos hacer, preguntas clave para tomar las decisiones adecuadas. Vayamos a la práctica: mientras lea este artículo tome una hoja de papel en blanco y una birome. Escriba en la hoja de papel las tres preguntas clave que tiene en mente sobre su negocio. Anote esas preguntas que más le «inquietan». Refínelas tantas veces como sea necesario (táchelas y re-escríbalas cada vez con mayor precisión y crudeza). No anote más de tres pero asegúrese que la respuesta a esas tres preguntas HOY clarificarán totalmente lo que va a hacer a partir de mañana en su negocio.

Muchos creen que pueden hacer este ejercicio en 3 minutos. Si esto es así, no las haga, usted sabe muy bien qué es lo que hace falta para ser millonario: escriba un libro y hágase famoso. Más allá de broma, estas tres preguntas también reflejarán en forma clara cómo piensa y con qué amplitud piensa sobre la realidad de su empresa.

Ahora léalas en voz alta. Si se las hiciera un amigo, las tomaría en serio? Si no es así, vuélvalas a escribir, ahora con mucha más precisión.

Estas preguntas valen oro. Usted ha comenzado a ingresar a la era del conocimiento. Mañana, busque en su empresa la respuesta a estas preguntas. Evalúe cuánto tardan en respondérselas y cuál es la extensión de las respuestas. Usted necesita como máximo dos renglones de respuestas por cada pregunta, o mejor, uno….o mucho mejor: una cifra.

Más allá de los «procesos» que hemos mencionado antes, ha introducido en su PyME otro tipo de proceso: el proceso denominado «Administración del Conocimiento» o «Knowledge Management» (los americanos abrevian este concepto con dos letras: KM). Ha hecho uso de su experiencia, ha forzado la búsqueda de la información necesaria para responder a sus preguntas, ha impulsado a su personal a refinar los datos y así, la información resultante, tiene valor: El valor de haberse convertido en información para decidir.

Cuanto más frecuentemente haga este ejercicio, los sistemas de su empresa podrán hacerle por sí mismos estas mismas preguntas con la periodicidad que desee: una vez por semana, por mes, cada dos meses, automáticamente. Está «procesando» conocimiento, un conocimiento que forma parte de los activos de su PYME.

La informática nuevamente se ha convertido en su aliada: no le da información cruda, que sólo sirve para procesar y re-procesar datos en planillas de cálculo, consumiendo enormes cantidades de horas/hombre. Le hace preguntas. Ahora su personal, es el encargado de obtener, mediante un sistema informático, la información que REALMENTE NECESITA y que, gracias a sus conocimientos, le aportan un nuevo significado.

Lic. Juan Moratto

jmoratto@mercadosunidos.com
Consultor Senior Asociado
Mercados Unidos- Neuquén
(Nota especial p/Diario Río Negro 3/May/2008)

¿Podemos reducir la Incertidumbre? El PEST

Filed under: e-Business, Informática y Empresa — Etiquetas: , , — Vigilancia-Online @ 7:09 pm

Cada vez que el empresario, gerente o emprendedor se enfrenta con la tarea de desarrollar una iniciativa de e-business se encuentra con que no cuenta con herramientas confiables para el análisis de situaciones de temas «tan tecnológicos». En realidad esto no es así. El «e-business» y todos sus temas relacionados «usan la tecnología» para permitir alcanzar los objetivos del negocio.

Por ejemplo, si deseo establecer un sistema B2B para comercializar mis productos e interactuar con mis empresas clientes, la plataforma que usaré estará supeditada a los factores externos e internos que rigen actualmente mi gestión y de cómo se desean llevar en forma futura estas operaciones.

De allí que dos herramientas clásicas puedan darnos en breve tiempo una visión panorámica y a la vez detallada, de las realidades presentes y futuras. Estas herramientas son extensamente usadas en los análisis de marketing y se denominan Análisis PEST y Análisis FODA.

El análisis PEST es una herramienta útil para comprender el crecimiento o declinación de un mercado, y el posicionamiento, potencial y dirección de una empresa o emprendimiento. El PEST es una herramienta de medición de una firma. PEST es una sigla que indica factores Políticos, Económicos, Sociales y Tecnológicos, los cuales se emplean para definir el mercado para una firma o una unidad de la organización. Los factores que maneja este análisis conforman una estructura para revisar un estado de situación. Junto con el análisis denominado FODA puede emplearse para revisar una estrategia o posicionamiento, dirección de una empresa, un propuesta de marketing, una idea, etc.

Llevar a cabo un PEST es una tarea simple y representa una temática propensa para trabajar en grupo o en equipo, también opera satisfactoriamente en reuniones de «brainstorming». Como los factores que analiza el PEST son esencialmente externos, es conveniente hacerlo antes de encarar un análisis FODA (sigla que significa: Fortalezas, Oportunidades, Debilidades y Amenazas), el cual se basa en un 50% en factores internos y en un 50% en factores externos.

Un PEST permite medir un mercado mientras que un FODA mide una unidad de negocios, una propuesta o una idea.


El modelo PEST es extendido, algunas veces, a 7 factores (algunos dicen que innecesariamente), agregando análisis Ecológicos, Legales y de la Industria o Rubro. El modelo se conoce como PESTELI. Sin embargo, si se realiza correctamente, el análisis PEST básico cubrirá naturalmente estos factores adicionales: los factores ecológicos se encuentran bajo los 4 temas fundamentales del análisis; los Legislativos están bajo los factores Políticos; los de la Industria están cubiertos por los factores Económicos. La recomendación es que debe usarse el PESTELI si estás preocupado de no dejar de lado algo importante bajo estas temáticas.

Como indiqué, el PEST mide el potencial de un mercado y su situación, indicando particularmente su crecimiento o declinación, y en consecuencia el atractivo del mercado, el potencial de negocios y la capacidad de nuestra firma de acceder a él -el potencial del mercado y nuestra adecuación a él, dicho en otros términos.

El PEST usa 4 persepectivas, las cuales ofrecen una estructura lógica que ayuda a comprender, presentar, discutir y tomar decisiones.

Para qué puede usarse? Para el desarrollo de activos del negocio, de estrategias de marketing y en la toma de decisiones ya que motiva un pensamiento proactivo más que hacer descansar las ideas en reacciones instintivas o habituales.

El modelo PEST se presenta como una grilla, comprendiendo 4 secciones, una para cada uno de los factores: Políticos, Económicos, Sociales y Tecnológicos. La grilla de este artículo incluye temas de ejemplo, cuyas respuestas pueden insertarse dentro de las secciones correspondientes. Son sólo ejemplos de temas de discusión y obviamente, pueden modificarse dependiendo de para qué se esté usando este análisis, y cómo desea emplearse.

Debes elaborar tus propias preguntas e interrogantes de manera que se adecuen al tema que está siendo sometido a análisis (por ejemplo: las operaciones y expectativas de tus clientes que antes dialogaban con vendedores y que en el futuro interactuarán con un sistema B2B). Como en el FODA, es importante identificar claramente el asunto principal del análisis PEST, debido a que es una visión en 4 perspectivas para una unidad de negocios o una propuesta en particular -si tienes un enfoque poco claro, el cuadro de situación también será poco claro -de manera que debes ser explícito respecto de lo que deseas analizar con el PEST.

Un mercado está definido por lo que lo caracteriza: puede ser a través de un producto, de una empresa, de una marca, de una unidad de negocios, una propuesta, una idea, etc. de manera que debes ser claro respecto de cómo defines al mercado en análisis desde, por ejempo, alguno de estos puntos de vista:

• Una empresa evaluando su mercado

• Un producto evaluando su mercado

• Una marca en relación con su mercado

• Una unidad de negocios local

• Una opción estratégica, tal como ingresar en un B2B, un B2C, introducir un sistema de e-business o lanzar un nuevo producto

• Una compra potencial

• Una potencial representación de marcas

• Una oportunidad de inversión

Asegúrate de describir el asunto para el análisis claramente, de manera que la gente que contribuya con él y aquellos que desean observar los resultados, comprendan apropiadamente el propósito de las afirmaciones e implicancias obtenidas por el PEST. Más allá de los encabezados de la tabla siguiente, las preguntas y temas son ejemplos y no son exhaustivos -agrega los tuyos propios y modifica los temas detallados para que se ajusten a tu situación, tu experiencia y las capacidades de quienes esté completando el análisis, y los que serán los destinatarios del mismo.

Asunto del Análisis PEST: Coloca aquí el punto de vista y el mercado,
Temas sobre el medio ambiente y ecológicos,
Legislación actual donde reside el mercado local,
Legislación Internacional,
Disposiciones y procesos regulatorios,
Políticas gubernamentales,
Términos y Acuerdos con el Gobierno,
Políticas Comerciales,
Fondos,
Promociones e Iniciativas,
Lobbies del Mercado Local y Grupos de Presión,
Grupos de presión internacionales,
Situación económica local,
Tendencias de la economía local,
Economías Internacionales y sus tendencias,
Temas Impositivos Generales,
Impuestos específicos para tus productos/servicios,
Temporadas/Temas relacionados con la época del año,
Ciclos de los Mercados,
Factores específicos del Rubro,
Rutas del Mercado y tendencias sobre distribución,
Referentes de los consumidores finales,
Tasas de Interés y porcentajes de rentabilidad,
Tendencias sobre el estilo de vida,
Demografía,
Actitudes y opiniones del Consumidor,
Puntos de vista de los medios
Cambios en las leyes que afecten factores sociales,
Imagen de marca, de la firma y de la tecnología,
Patrones de compra de los consumidores,
Modas y Modelos de Rol,
Eventos e influencias principales,
Acceso a las compras y tendencias,
Factores étnicos y religiosos,
Propaganda y Publicidad,
Desarrollo de tecnologías competitivas,
Financiación para Investigación,
Tecnologías asociadas y dependientes,
Tecnologías y soluciones de reemplazo/sustitutivas,
Información y comunicaciones,
Mecanismos/tecnología de compra de los consumidores,
Leyes sobre Tecnología,
Potencial de innovación,
Acceso a la tecnología, patentes y marcas,
Temas sobre Propiedad Intelectual -Políticos -Sociales -Económicos -Tecnológicos.

Cuadro Pest-Mercados Unidos

Cuadro Pest-Mercados Unidos

Si los factores del Medio Ambiente son más relevantes como encabezado, que los Económicos, entonces reemplaza este último por el primero. Asegúrate que has tomado en cuenta los tres factores adicionales del PESTELI.

El análisis puede ser convertido en una medición más técnica asignando un puntaje a los temas detallados en cada sección. Un sistema de este tipo es muy ventajoso si se está analizando más de un mercado, con el propósito de comparar cuál de ellos o qué oportunidad cuenta con un mayor potencial y/o obstáculos. Es útil, también, cuando se consideren desarrollos empresariales y opciones de inversión, por ejemplo: si desarrollar el mercado A o B; si debemos concentrarnos en la distribución nacional o exportar; si adquirir o asociarnos con la firma X o Y, etc.

Conclusiones sobre el PEST

Es útil si se realiza antes que el análisis FODA, no a la inversa, ya que ayuda a identificar los factores de este último análisis, con elementos en común pero desde perspectivas diferentes.
PEST identifica un mercado, incluyendo a los competidores, desde el punto de vista de una propuesta o un negocio en particular.

El planeamiento estratégico no es una ciencia exacta -ninguna herramienta es la más adecuada -es una elección pragmática de lo que ayuda de la mejor forma posible a identificar y a encontrar una explicación a los diferentes temas y problemas.

El análisis PEST se ha vuelto más útil y relevante para las firmas más grandes y complejas, pero aún para las Pequeñas y Medianas Empresas permite exponer con claridad asuntos significativos que de otra forma pasarían ignorados.

Los 4 cuadrantes del PEST varían en significado dependiendo del tipo de empresa, por ejemplo, los factores sociales son obviamente más relevantes a las empresas orientadas al consumidor o a las empresas B2B próximas al consumidor final de la cadena de suministros, mientras que los factores políticos son, obviamente, más relevantes para un proveedor global de municiones o un fabricante de gas para aerosoles.

Todas las empresas se benefician con un PEST y luego, con un análisis FODA sobre sus competidores principales, el cual, llamativamente, puede ofrecer una realimentación en los aspectos económicos del análisis PEST.

Lic. Juan Moratto

Consultor Senior Asociado

jmoratto@mercadosunidos.com

10 enero, 2008

¿Está su red telefónica lista para la telefonía IP?

Filed under: Informática y Empresa, VoIP — Etiquetas: , , , — Vigilancia-Online @ 10:13 am
Al mismo tiempo que las empresas de nuestros clientes crecen y cambian, su red se va convirtiendo más importante para dar soporte a más usuarios, soportar mayores necesidades, cumplir con requisitos de seguridad y poder responder a los clientes en un tiempo razonable. Aquellos días en que sólo se necesitaba realizar simples cambios en la red o aumentos en potencia o capacidad se han terminado. Hoy día, las empresas disponen de aplicaciones de varios fabricantes integradas para sus necesidades de comunicación y tecnología.
Las redes se vuelven más complejas cada vez que se añade una aplicación. Por ejemplo, los sistemas convergentes de voz y datos ofrecen unos beneficios tremendos, pero son mucho más complejas de configurar y poner en marcha que las redes convencionales. Y la presencia de varios fabricantes puede multiplicar la complejidad.
En la economía actual, nuestros clientes buscan mantener las inversiones acordadas en sus redes, con mínimos costos adicionales. Además quieren ver todo el valor de las nuevas inversiones contribuyendo en beneficio del negocio, pero esto se torna muy complicado según vamos introduciendo nuevas prestaciones a una red, como por ejemplo la telefonía IP. Todos estos factores deben ser tenidos en cuenta a la hora de realizar una consultoria e integración de procesos.
Una evaluación positiva de la red IP ofrecida por especialistas en redes  monitoriza/mide la capacidad de tráfico de la red (voz y/o datos) a través de la LAN del cliente y/o entornos WAN. Estas evaluaciones detectan cuellos de botella, y/o simulan configuraciones futuras de la red para determinar potenciales cuellos de botella. Generalmente, los consultores en tecnología, aportan recomendaciones para hacer las cosas correctamente y tomar las decisiones tecnológicas para asegurar un despliegue satisfactorio.
El Equipo de MU
« Newer Posts

Blog de WordPress.com.