miércoles, 28 de abril de 2010

MICROSOFT ACUSA A GOOGLE DE VIOLAR SUS PATENTES CON ANDROIDECODIARIO

Microsoft acusa a Google de violar sus patentes con AndroidEcoDiario 28/04/2010 - 11:14
Microsoft envía auditores a China para inspeccionar a uno de sus proveedores
Microsoft afirma que el sistema operativo Android, de Google, infringe la tecnología patentada por la compañía, afectando a áreas que van desde la interfaz de usuario al sistema operativo subyacente.
Este nuevo frente en la batalla de patentes en telefonía móvil se produce tras la firma de un acuerdo entre Microsoft y HTC, por el que el fabricante taiwanés de teléfonos móviles adquiere derecho a utilizar las tecnologías patentadas de Microsoft en teléfonos que funcionan el sistema operativo Android de Google.
Según publica el portal CNET, el responsable de asuntos jurídicos de Microsoft, Horacio Gutiérrez, comentó que Microsoft prefiere solucionar este tipo de problemas de licencia de propiedad intelectual sin recurrir a acciones judiciales, aunque tiene la responsabilidad de asegurarse de que "los competidores no se aprovechen gratis de nuestras innovaciones".
Así, Microsoft afirma que ha negociado soluciones con HTC. "Hemos tenido siempre un enfoque proactivo para la resolución de infracciones de propiedad intelectual por parte de otras empresas", dijo Gutiérrez.
Sin detalles del acuerdo
Aunque Microsoft y HTC no han revelado detalles de los términos financieros del acuerdo, hicieron notar que "Microsoft recibirá una compensación por parte de HTC". El acuerdo cubre a todos los teléfonos basados en Android fabricados por HTC, incluido el Nexus One de Google.
"HTC y Microsoft tienen una larga historia de colaboración técnica y comercial, y el acuerdo de hoy es un ejemplo de cómo los líderes de la industria puede llegar a acuerdos comerciales relacionados con la propiedad intelectual", dijo Gutiérrez en un comunicado de prensa anunciando el acuerdo. "Estamos muy contentos de continuar nuestra colaboración con HTC."

PRIMER SMARTBOOK CON ANDROID

Por fuera es igual que un miniportátil y por dentro se parece a cualquier súper móvil de Google. Es el smartbook, una nueva categoría de producto que Telefónica comercializará en exclusiva mundial a partir de mediados de mayo. El prodigio, denominado Compaq Airlife 100 y fabricado por HP, está dirigido a los usuarios que necesitan estar siempre conectados, ya sea a través de redes WiFi o celulares.
El dispositivo móvil también está especialmente diseñado para los usuarios que desean participar en sus redes sociales y profesionales en cualquier lugar y momento.
Telefónica venderá este equipo en España por 229 o 299 euros, ya esté vinculado a la tarifa de datos de 49 euros al mes o a la de 39 euros. De forma promocional, los usuarios que contraten una de estas dos tarifas (Internet Maxi o Internet Plus) tendrán incluido el acceso durante un año de todo el fútbol a través del pack de fútbol, que incluye el canal de Gol Televisión y de seis canales de Pay Per View.
Como todo producto pionero en su segmento, el smartbook de Telefónica y HP presenta unas fortalezas y debilidades especialmente significativas, al carecer de precedentes. Entre las primeras sobresale su pantalla táctil de TFT de 10,1 pulgadas, su instantánea puesta en funcionamiento, su conectividad total, su teclado prácticamente estándar, su versatilidad multimedia y la autonomía energética, que puede superar las 12 horas de uso ininterrumpido del equipo y de hasta 10 días en modo espera. También se diferencia del resto de los ultraportátiles por funcionar con el sistema operativo Android, de Google, especialmente diseñado para trabajar en entornos de movilidad.
La criatura más joven de HP apenas pesa un kilo, atesora un poderoso procesador de Qualcomm (Snapdragon QSD8250) y no dispersa energía de otros equipos similares, por lo que no se calienta ni hace ruido.
Aspectos mejorables
Entre los aspectos mejorables se encuentra la ausencia de puertos USB o HDMI, debido a la incompatibilidad de estos accesos con el sistema operativo Android. Por ese mismo motivo, la navegación web y las descargas no están lo suficientemente afinadas en muchas páginas y servicios online.
El acceso a las aplicaciones inicialmente está limitado a MStore, de Telefónica, cuyo catálogo de ofertas no es tan generoso como otros servicios similares de la competencia como Market de Google o el App Store de Apple. El disco duro se limita a 16 gigas, si bien el almacenamiento puede ser ilimitado a través de los servicios alojados en la nube de Internet.

martes, 20 de abril de 2010

MICROSOFT WINDOWS


Microsoft Windows

La incorporación del ordenador o computadora en las oficinas, constituyó una revolución en los sistemas ofimáticos, ya que las máquinas ofrecían el medio para realizar comunicaciones e intercambio de información instantáneos entre compañeros de trabajo, recursos y equipos. Los accesorios, como el mouse (ratón), facilitan el desplazamiento dentro de las aplicaciones (programas de computadora). Los rápidos avances tecnológicos han mejorado los sistemas informáticos y, al mismo tiempo, han disminuido los precios, haciendo que los equipos sean más asequibles.

La supercomputadora Cray-1 (diseñada por Seymour Cray de Cray Research, de Eagan, Minnesota, EEUU) fue la primera capaz de ejecutar más de 100 millones de operaciones de coma flotante por segundo. Entre los numerosos problemas tecnológicos que hubo que resolver, uno de los más importantes fue eliminar el calor generado por la alta velocidad de las operaciones lógicas. Esto se consiguió montando los circuitos sobre placas verticales enfriadas mediante un sistema basado en gas freón. Aunque en la actualidad ya se han construido máquinas más rápidas, la Cray-1 sigue utilizándose para estudios matemáticos de problemas muy complejos, como por ejemplo el análisis del habla, la previsión climatológica e interrogantes básicos en física y química. Además, la Cray-1 se utiliza como unidad de medida informal para las supercomputadoras más nuevas, algunas de las cuales se proyectan ahora para ser equivalentes a 1.000 crays.

Informática o Computación, conjunto de conocimientos científicos y de técnicas que hacen posible el tratamiento automático de la información por medio de computadoras. La informática combina los aspectos teóricos y prácticos de la ingeniería, electrónica, teoría de la información, matemáticas, lógica y comportamiento humano. Los aspectos de la informática cubren desde la programación y la arquitectura informática hasta la inteligencia artificial y la robótica.

periférico o dispositivo: complemento de un ordenador o computadora, como un ratón (mouse) o un módem. El accesorio ofrece una funcionalidad que no está disponible en la máquina original, pero que no es necesaria para el funcionamiento de la misma.

Microprocesador, circuito electrónico que actúa como unidad central de proceso de un ordenador, proporcionando el control de las operaciones de cálculo. Los microprocesadores también se utilizan en otros sistemas informáticos avanzados, como impresoras, automóviles o aviones. En 1995 se produjeron unos 4.000 millones de microprocesadores en todo el mundo.


El microprocesador es un tipo de circuito sumamente integrado. Los circuitos integrados, también conocidos como microchips o chips, son circuitos electrónicos complejos formados por componentes extremadamente pequeños formados en una única pieza plana de poco espesor de un material conocido como semiconductor. Los microprocesadores modernos incorporan hasta 10 millones de transistores (que actúan como amplificadores electrónicos, osciladores o, más a menudo, como conmutadores), además de otros componentes como resistencias, diodos, condensadores y conexiones, todo ello en una superficie comparable a la de un sello postal.

Un microprocesador consta de varias secciones diferentes. La unidad aritmético-lógica (ALU, siglas en inglés) efectúa cálculos con números y toma decisiones lógicas; los registros son zonas de memoria especiales para almacenar información temporalmente; la unidad de control descodifica los programas; los buses transportan información digital a través del chip y de la computadora; la memoria local se emplea para los cómputos realizados en el mismo chip. Los microprocesadores más complejos contienen a menudo otras secciones; por ejemplo, secciones de memoria especializada denominadas memoria cache, que sirven para acelerar el acceso a los dispositivos externos de almacenamiento de datos. Los microprocesadores modernos funcionan con una anchura de bus de 64 bits (un bit es un dígito binario, una unidad de información que puede ser un uno o un cero): esto significa que pueden transmitirse simultáneamente 64 bits de datos.

Un cristal oscilante situado en el ordenador proporciona una señal de sincronización, o señal de reloj, para coordinar todas las actividades del microprocesador. La velocidad de reloj de los microprocesadores más avanzados es de unos 300 megahercios (MHz) —unos 300 millones de ciclos por segundo—, lo que permite ejecutar unos 1.000 millones de instrucciones cada segundo.

Bit, en informática, acrónimo de Binary Digit (dígito binario), que adquiere el valor 1 o 0 en el sistema numérico binario. En el procesamiento y almacenamiento informático un bit es la unidad de información más pequeña manipulada por el ordenador, y está representada físicamente por un elemento como un único pulso enviado a través de un circuito, o bien como un pequeño punto en un disco magnético capaz de almacenar un 0 o un 1. La representación de información se logra mediante la agrupación de bits para lograr un conjunto de valores mayor que permite manejar mayor información. Por ejemplo, la agrupación de ocho bits componen un byte que se utiliza para representar todo tipo de información, incluyendo las letras del alfabeto y los dígitos del 0 al 9.

Byte, en informática, unidad de información que consta de 8 bits; en procesamiento informático y almacenamiento, el equivalente a un único carácter, como puede ser una letra, un número o un signo de puntuación. Como el byte representa sólo una pequeña cantidad de información, la cantidad de memoria y de almacenamiento de una máquina suele indicarse en kilobytes (1.024 bytes) o en megabytes (1.048.576 bytes).

Kilobyte, abreviado KB, K o Kbyte. Equivale a 1.024 bytes.

Mega- (M), prefijo que significa 1 millón (106). En informática, basada en el sistema binario (en base 2), mega- tiene un valor literal de 1.048.576, que es la potencia de 2 (220) más cercana a un millón.

Gigabyte, el significado exacto varía según el contexto en el que se aplique. En un sentido estricto, un gigabyte tiene mil millones de bytes. No obstante, y referido a computadoras, los bytes se indican con frecuencia en múltiplos de potencias de dos. Por lo tanto, un gigabyte puede ser bien 1.000 megabytes o 1.024 megabytes, siendo un megabyte 220 o 1.048.576 bytes.

Transmisión de datos, en informática, transmisión de información de un lugar a otro, tanto dentro de un ordenador o computadora (por ejemplo, desde una unidad de disco a la memoria de acceso aleatorio), como entre éste y un dispositivo externo (dos ordenadores o un servidor de archivos, o un ordenador perteneciente a una red). La velocidad de transmisión de datos se denomina también coeficiente de transmisión o velocidad de transferencia de datos y suele medirse en bits por segundo (bps). La velocidad de transmisión nominal es por lo general bastante mayor que la efectiva, debido a los tiempos de parada, procedimientos de verificación de errores y otros retrasos. Además, la transmisiones de datos desde diferentes orígenes a distintos destinos suelen competir entre sí en caso de utilizar la misma ruta de datos, como por ejemplo en una red o en el bus de un sistema informático.

Hardware, equipo utilizado para el funcionamiento de una computadora. El hardware se refiere a los componentes materiales de un sistema informático. La función de estos componentes suele dividirse en tres categorías principales: entrada, salida y almacenamiento. Los componentes de esas categorías están conectados a través de un conjunto de cables o circuitos llamado bus con la unidad central de proceso (CPU) del ordenador, el microprocesador que controla la computadora y le proporciona capacidad de cálculo.

El soporte lógico o software, en cambio, es el conjunto de instrucciones que un ordenador emplea para manipular datos: por ejemplo, un procesador de textos o un videojuego. Estos programas suelen almacenarse y transferirse a la CPU a través del hardware de la computadora. El software también rige la forma en que se utiliza el hardware, como por ejemplo la forma de recuperar información de un dispositivo de almacenamiento. La interacción entre el hardware de entrada y de salida es controlada por un software llamado BIOS (siglas en inglés de 'sistema básico de entrada / salida').

Aunque, técnicamente, los microprocesadores todavía se consideran hardware, partes de su función también están asociadas con el software. Como los microprocesadores tienen tanto aspectos de hardware como de software, a veces se les aplica el término intermedio de microprogramación, o firmware.

EXPOINTERNET E INFORMACION

Avances tecnológicos en computación







Se inició ayer y se extenderá hasta el 18 de junio la muestra ExpoInternet e Informática, dedicada a los últimos avances tecnológicos en computación. En el mismo ámbito, del 12 al 14 de junio, se realizará también el II Congreso de Comercio Electrónico. Las dos actividades se desarrollan en los pabellones del Centro de Exposiciones de la Ciudad de Buenos Aires, ubicado en Figueroa Alcorta y Pueyrredón.

En la muestra ExpoInternet e Informática habrá reuniones con profesionales para que el público pueda aprender a diseñar su página en la Red. Se hablará de los medios multimedia, Internet móvil, armado de computadoras, los virus y la seguridad, psicología de los internautas, sitios imperdibles y xenofobia en Internet. También habrá charlas con famosos como Graciela Borges, Dora Baret, Betiana Blum y Pipo Mancera, además de recitales de música con Los Auténticos Decadentes.

Los nuevos escenarios de Internet para hacer negocios serán el tema central del II Congreso de Comercio Electrónico. El martes 12 habrá conferencias sobre "El teletrabajo, otra forma de organizar mi actividad laboral", "Seguridad en Internet y comercio electrónico" y el "Proyecto Pyweb" para empresas chicas y medianas.

El miércoles 13 se tratarán temas como la economía digital y la educación a distancia. El jueves 14 se hablará sobre cómo hacer rentables los servicios en Internet. Un panel con expertos como Alejandro Piscitelli y Carlos Tomassino se ocupará del presente y el futuro de Internet.


martes, 13 de abril de 2010

BATERIAS DE LARGA DURACION PARA PORTATILES

Baterías de larga duración para portátiles
Según un artículo publicado esta semana en Technology Review, el nuevo gestor de energía integrado de Intel podría reducir considerablemente el consumo energético de los portátiles deteniendo funciones que no se están utilizando.A cualquiera que utilice un portátil en un avión le gustaría que la batería durase todo un vuelo de largo recorrido. Ahora, investigadores de Intel creen poder duplicar la vida de batería de un portátil sin modificar la batería en sí, optimizando el gestor de energía del sistema operativo, el monitor, el ratón, los chips de la placa base y los dispositivos conectados a los puertos USB.Fabricantes e investigadores han estado investigando distintas formas de hacer que los ordenadores portátiles sean energéticamente más eficaces. Se han programado los sistemas operativos para ejecutar un salvapantallas de ahorro de energía e hibernar todo un sistema si el usuario no lo ha utilizado durante un rato. E incluso el próximo microprocesador de Intel para dispositivos móviles Atom, puede hibernar hasta en seis niveles diferentes, dependiendo del tipo de tareas que tenga que hacer.Pero el problema de todos estos enfoques es que no están coordinados en todo el dispositivo. El nuevo prototipo de sistema de gestión de energía de Intel es consciente de la energía utilizada por todas las partes del portátil, además de las necesidades energéticas de la actividad de una persona y desactiva las funciones de acuerdo con eso, señala Greg Allison, director de desarrollo de negocios. El proyecto, llamado “advanced platform power management”, se presentó el miércoles en un evento de Intel en Mountain View, California. El sistema de Intel ahorra energía, por ejemplo, realizando una captura de la pantalla que está leyendo el usuario y guardándola en una memoria intermedia. así, en lugar de actualizar cada cierto tiempo la pantalla, ésta mantiene la misma imagen hasta que la persona pulsa una tecla o mueve el ratón. Igualmente, el ratón y el teclado se mantienen en hibernación hasta ser utilizados.Mientras tanto, el sistema operativo monitorizará el uso de otras aplicaciones, restringiendo el funcionamiento de las que no están siendo utilizadas activamente; y si hay algún dispositivo conectado a un puerto USB, como una memoria flash, el sistema lo pondría también a hibernar. Paralelamente, explica Allison, los circuitos de monitorización de energía de los chips de Intel harían hibernar las partes del microprocesador que no se estén utilizando. Son necesarios tan solo 50 milisegundos para reactivar la totalidad del sistema, añade, una cantidad de tiempo que resulta imperceptible para el usuario.

HARDWARE DE ENTRADA

. Hardware De Entrada El hardware de entrada consta de dispositivos externos —esto es, componentes situados fuera de la CPU de la computadora— que proporcionan información e instrucciones. Un lápiz óptico es un puntero con un extremo fotosensible que se emplea para dibujar directamente sobre la pantalla, o para seleccionar información en la pantalla pulsando un botón en el lápiz óptico o presionando el lápiz contra la superficie de la pantalla. El lápiz contiene sensores ópticos que identifican la parte de la pantalla por la que se está pasando. Un mouse, o ratón, es un dispositivo apuntador diseñado para ser agarrado con una mano. Cuenta en su parte inferior con un dispositivo detector (generalmente una bola) que permite al usuario controlar el movimiento de un cursor en la pantalla deslizando el mouse por una superficie plana. Para seleccionar objetos o elegir instrucciones en la pantalla, el usuario pulsa un botón del mouse. Un joystick es un dispositivo formado por una palanca que se mueve en varias direcciones y dirige un cursor u otro objeto gráfico por la pantalla de la computadora. Un teclado es un dispositivo parecido a una máquina de escribir, que permite al usuario introducir textos e instrucciones. Algunos teclados tienen teclas de función especiales o dispositivos apuntadores integrados, como trackballs (bolas para mover el cursor) o zonas sensibles al tacto que permiten que los movimientos de los dedos del usuario dirijan un cursor en la pantalla.
Un digitalizador óptico emplea dispositivos fotosensibles para convertir imágenes (por ejemplo, una fotografía o un texto) en señales electrónicas que puedan ser manipuladas por la máquina. Por ejemplo, es posible digitalizar una fotografía, introducirla en una computadora e integrarla en un documento de texto creado en dicha computadora. Los dos digitalizadores más comunes son el digitalizador de campo plano (similar a una fotocopiadora de oficina) y el digitalizador manual, que se pasa manualmente sobre la imagen que se quiere procesar. Un micrófono es un dispositivo para convertir sonidos en señales que puedan ser almacenadas, manipuladas y reproducidas por el ordenador. Un módulo de reconocimiento de voz es un dispositivo que convierte palabras habladas en información que el ordenador puede reconocer y procesar.
Un módem es un dispositivo que conecta una computadora con una línea telefónica y permite intercambiar información con otro ordenador a través de dicha línea. Todos los ordenadores que envían o reciben información deben estar conectados a un módem. El módem del aparato emisor convierte la información enviada en una señal analógica que se transmite por las líneas telefónicas hasta el módem receptor, que a su vez convierte esta señal en información electrónica para el ordenador receptor.
Los lápices ópticos son punteros electrónicos que permiten al usuario modificar los diseños en pantalla. Este puntero, que se sostiene en la mano, contiene sensores que envían señales a la computadora cada vez que se registra luz. La pantalla de la computadora no se enciende entera, sino fila por fila 60 veces por segundo, mediante un haz de electrones. Por ello, la computadora puede determinar la posición del lápiz cada vez que detecta el haz de electrones. Los lápices ópticos suelen utilizarse en la tecnología CAD/CAM (diseño y fabricación asistidos por computadora) debido a su gran flexibilidad. Aquí vemos a un diseñador utilizando un lápiz óptico para modificar un plano en una pantalla de computadora.
Hardware de almacenamiento El hardware de almacenamiento sirve para almacenar permanentemente información y programas que el ordenador deba recuperar en algún momento. Los dos tipos principales de dispositivos de almacenamiento son las unidades de disco y la memoria. Existen varios tipos de discos: duros, flexibles, magneto-ópticos y compactos. Las unidades de disco duro almacenan información en partículas magnéticas integradas en un disco. Las unidades de disco duro, que suelen ser una parte permanente de la computadora, pueden almacenar grandes cantidades de información y recuperarla muy rápidamente. Las unidades de disco flexible también almacenan información en partículas magnéticas integradas en discos intercambiables, que de hecho pueden ser flexibles o rígidos. Los discos flexibles almacenan menos información que un disco duro, y la recuperación de la misma es muchísimo más lenta. Las unidades de disco magneto-óptico almacenan la información en discos intercambiables sensibles a la luz láser y a los campos magnéticos. Pueden almacenar tanta información como un disco duro, pero la velocidad de recuperación de la misma es algo menor. Las unidades de disco compacto, o CD-ROM, almacenan información en las cavidades grabadas en la superficie de un disco de material reflectante. La información almacenada en un CD-ROM no puede borrarse ni sustituirse por otra información. Los CD-ROM pueden almacenar aproximadamente la misma información que un disco duro, pero la velocidad de recuperación de información es menor.
La memoria está formada por chips que almacenan información que la CPU necesita recuperar rápidamente. La memoria de acceso aleatorio (RAM, siglas en inglés) se emplea para almacenar la información e instrucciones que hacen funcionar los programas de la computadora. Generalmente, los programas se transfieren desde una unidad de disco a la RAM. La RAM también se conoce como memoria volátil, porque la información contenida en los chips de memoria se pierde cuando se desconecta el ordenador. La memoria de lectura exclusiva (ROM, siglas en inglés) contiene información y software cruciales que deben estar permanentemente disponibles para el funcionamiento de la computadora, por ejemplo el sistema operativo, que dirige las acciones de la máquina desde el arranque hasta la desconexión. La ROM se denomina memoria no volátil porque los chips de memoria ROM no pierden su información cuando se desconecta el ordenador.
Algunos dispositivos se utilizan para varios fines diferentes. Por ejemplo, los discos flexibles también pueden emplearse como dispositivos de entrada si contienen información que el usuario informático desea utilizar y procesar. También pueden utilizarse como dispositivos de salida si el usuario quiere almacenar en ellos los resultados de su computadora.
El disco duro de una computadora se utiliza para guardar datos en soporte magnético.
6. Conexiones del hardware
4.

martes, 6 de abril de 2010

ESCRITORIO VIRTUAL

Escritorio virtual. Un ambiente de trabajo que no reside en la computadora.
Archivado en: General — Etiquetas: — ignaciofunes @ 5:40 pm


Mtro. Ignacio Funes Maderey
Cuando encendemos una computadora, esamos acostumbrados a que inmediatamente despues de la secuencia de encendido y de introducir una contraseña, obtenemos un ambiente de trabajo personalizado con la informacion y los programas que cotidianamente utilizamos, sin embargo a todos nos han ocurrido algunas situaciones con las que definitivamente NO podemos utilizar nuestro ambiente de trabajo o bien no podemos explotar todas las capacidades:
1. Mi computadora esta descompuesta2. No estoy cerca de mi computadora3. Se descompuso el disco duro de mi computadora4. Le entro un virus a mi computadora5. Se borro una parte de mi informacion6. No tengo el programa adecuado para abrir un archivo
Pues bien, el escritorio virtual precisamente resuelve todos los problemas anteriores porque, como su nombre lo indica, se trata de un ambiente de trabajo que no se encuentra cargado en la computadora sino que al encender la computadora e introducir la contrasena de usuario, se obtiene el ambiente de trabajo de un servidor central que contiene, entre muchas cosas, el perfil del usuario el cual asimismo incluye su contraseña, los programas que utiliza, la informacion del usuario y permisos de lo que puede hacer dentro del ambiente de trabajo.
Efectivamente, este concepto de escritorio virtual va muy relacionado con la tecnologia de computo delgado, ya que los equipos de computo que se requieren no necesitan de muchos recursos de hardware para operar.
Los escritorios virtuales es una tecnologia de vanguardia aplicable a organizaciones, pero cabe mencionar que hay algunas companias que ya ofrecen servicios de escritorio virtual por internet lo que te permitira trabajar con cualquier sistema operativo y programas asi como tener todo tu ambiente de trabajo en cualquier lugar en donde haya una computadora y tendras acceso a toda tu informacion tal y como hoy lo haces con tu propia computadora pero de una forma mucho mas flexible y que no dependas de la computadora.
Dejar un comentario
Computo delgado….que es?
Archivado en: General — Etiquetas: , — ignaciofunes @ 5:02 pm
Mtro. Ignacio Funes Maderey
Hoy, las computadoras son herramientas cotidianas de trabajo. Sin embargo para las organizaciones que realizan adquisiciones ano con ano, les surge la pregunta de si los usuarios de estos equipos realmente sacan todo el provecho del poder de computo que estos paratos ofrecen?. Efectivamente esto es un tema de costo-beneficio y es que las organizaciones tienen que lidiar con equipar a sus empleados con herramientas que les permitan trabajar de manera mas eficiente pero tambien disminuir los costos al maximo.
Computo delgado es un nuevo concepto de computo que entre los multiples beneficios permite a las organizaciones equipar a sus usuarios con herramientas de computo que brindan los siguientes beneficios:
Disminuir costos de licenciamiento
Disminuir en un 100 por ciento los riesgos de virus
Evitar fugas de informacion que se genera dentro de la misma organizacion
Ampliar la vida util de los dispositivos de computo hasta 3 veces mas
Disminuir los costos de mantenimiento y soporte de los equipos de computo
Disminuir las fallas tecnicas asociadas a estos equipos
Ampliar las posibilidades de las aplicaciones que se pueden utilizar sin depender de las caracteristicas del hardware
Este concepto se basa en una computadora que esta equipada con lo minimo para operar y que a traves de un software que permite publicar las aplicaciones que requiere un cierto perfil de usuario para trabajar, brinda todas las posibilidades de computo que realmente se requiere, es decir, los recursos de computo que no se usan como lo son: mucha capacidad de almacenamiento (disco duro), procesador robusto, y mucha memoria asi como la precarga de un sistema operativo completo con funcionalidades que no se usan y aplicaciones que tampoco se usan NO se requieren!!! lo cual permite tener solo lo necesario para operar.
La idea de computo delgado no es nuevo, esto tiene mas de 15 años pero la aplicacion de este concepto en los usuarios de una organizacion si es nuevo. Y es que este concepto tambien ofrece mucho control y mucha seguridad en la informacion que se genera dentro de la organizacion porque al no tener los equipos de computo un disco duro, la informacion de los usuarios radica en un sitio central.
Este concepto permitirá al gobierno del estado de mexico, disminuir en los costos de computadoras y evitar la brecha que hay entre modelos de computadoras de tal manera que las computadoras viejas puedan ampliar su vida util y que las nuevas computadoras delgadas permitan equipar a mas personas y que ellas puedan usar las aplicaciones que requieran sin limitarse por el hardware.

CONECTIVIDAD INALAMBRICA

Avances en Tecnología Informática
Noviembre 29, 2007
Más sobre conectividad inalámbrica…
Archivado en: General — Etiquetas: , , , — ignaciofunes @ 10:35 am
Mtro. Ignacio Funes
Hace ya unos 6 años que la conectividad inalámbrica tomo bríos acelerados en cuanto a su desarrollo masivo y no se diga en cuanto a su adopción. Hoy es evidente que las redes inalámbricas han llegado a las casas y a lugares que antes no se hubiera pensado como hoteles, carreteras, aeropuertos e incluso en el interior de algunos aviones.
Es claro que la tecnología inalámbrica es muy útil y el mayor beneficio es la movilidad de los usuarios de tal manera que puedan estar consultando Internet o el correo electronico desde una computadora con la cual se utilizan otras herramientas de trabajo (software) que en una pda o dispositivo móvil con funcionalidades de teléfono celular no se tienen.
Sin embargo, el avance de la tecnología inalámbrica hoy atiende la conectividad a Internet pero a una escala mayor, es decir, con la tecnología actual inalámbrica o WiFi por sus siglas en ingles el beneficio es para aquellos que tienen acceso a este recurso ya sea con una computadora portátil o con una pda equipada con wifi, pero cuando se trata de conectar instituciones o personas que no tienen acceso a un medio de conectividad en su entorno por estar en lugares muy apartados o bien porque simplemente los servicios de conectividad a Internet como celular, adsl o cable son escasos, las cosas se complican y la brecha digital se hace mas grande.
Para ello, la tecnología wimax llego para precisamente permitir la conectividad inalámbrica de banda ancha (alta velocidad) a esos sitios que carecen de medios que permitan a la gente y a las organizaciones a conectarse a Internet y en consecuencia a los servicios que con ello se ofrecen.
Es evidente que la tecnología wimax no llega de la nada. Para ello se requiere que “alguien” ponga la infraestructura para poder conectar a todos.
Ese alguien tiene que ser una empresa privada, el gobierno o bien una combinación. Sin embargo, es importante mencionar que la tecnología es de vanguardia y que las empresas privadas apenas están pensando como hacer las cosas.
Pero una responsabilidad del gobierno es ser moderno y rápido para atraer aquellas tecnologías de vanguardia que serán la punta de lanza en la conectividad para los siguientes 8 años. Es por eso que el gobierno esta contemplando un proyecto para llevar mas servicios médicos como la teleconsulta especializada en donde los pacientes podrán acudir a un hospital o centro de salud y recibir atención especializada de algún medico del centro medico sin necesidad de viajar tanto tiempo, contenido educativo en donde los estudiantes podrán tener acceso a medios interactivos de educación y los maestros herramientas que complementen los programas de estudio además de videoconferencias con otros países y también para estar mas cerca de los mexiquenses a través del uso de la tecnología wimax.
Dejar un comentario
Noviembre 20, 2007
Outsourcing en desborde. Piloto automático para la operación de TI
Archivado en: General — Etiquetas: , , — ignaciofunes @ 2:50 pm
Mtro. Ignacio Funes Maderey
El outsourcing es una herramienta que les permite a las organizaciones mantener toda o alguna parte de su operación funcionando sin tener que administrarla directamente. (Entiéndase por administrar a los insumos, recursos humanos, etc. que esto conlleva)
En general, el outsourcing se ofrece como un servicio y resulta atractivo contablemente para efectos de quienes lo contratan. Sin embargo, también es una herramienta que puede resultar costosa para algunas organizaciones y muchas veces no se realiza el adecuado análisis para determinar si se requiere, en dónde se requiere, cuándo y durante cuánto tiempo.
Es claro que el outsourcing es una herramienta que puede aportar valor para las empresas e incluso en diferentes fases de su misma operación.
La manera más común de contratar un outsourcing es hacerlo mediante la contratación de toda la administración de uno o varios procesos. No obstante, pueden existir variantes que hacen más flexible la contratación de un ourtsourcing como lo podría ser el outsourcing en desborde.
Cuando el outsourcing está presente en una organización es porque el proceso externalizado no forma parte del centro de enfoque de ella y con esto se consigue mayor efectividad que permite orientar los esfuerzos de la organización a sus necesidades más importantes (en el caso de que el proceso externalizado si fuere muy importante, entonces se trata de una maquila). En este sentido, el outsourcing viene a complementar la operación diaria pero con recursos externos y bajo reglas que deben quedar muy claras entre el ofertante y el contratante.
Pero en la tarea de analizar las condiciones bajo las cuales se requiere un outsourcing, las organizaciones se encuentran con una decisión binaria de contratar todo, algunos procesos o nada; y es que en la realidad, un outsourcing que no necesariamente se adueña de toda la operación y lo hace gradualmente, podría hacer mucho sentido brindando alternativas de menor costo y podría resultar más flexible su contratación aunque con algunos retos en su implementación.
A diferencia del outsourcing total o selectivo en donde se transfiere el control de todos o de algunos procesos o subprocesos muy especializados y además se planea antes de iniciar su operación, el outsourcing en desborde puede transferir la operación a un tercero para todo un proceso o también para subprocesos, pero solo sucede cuando realmente se requiere, es decir, cuando los recursos internos de la organización en el proceso de que se trate se ven rebasados o bien insuficientes en el tiempo y de pronto se requiere el apoyo de un tercero para fortalecer o bien tomar la operación. Evidentemente el outsourcing en desborde tiene una característica difícil de medir que responde a cuándo es el momento idóneo para transferir la operación y he aquí precisamente lo interesante y complejo de este tipo de outsourcing.
El outsourcing en desborde es un concepto cuyo funcionamiento debe contemplar la responsabilidad del contratante de mantener perfectamente bien informado y en tiempo real al proveedor del proceso o subproceso que se planea asegurar y el ofertante deberá asimismo estar ocupado en conocer la operación del cliente así como los detalles de la misma en tiempo real. Esta articulación de responsabilidades es precisamente el éxito de este tipo de outsourcing y es que a falla de cualquiera de las partes, se incurre en penalizaciones para el cliente o para el proveedor en el sentido de traducirse para ambos en mayores costos. Digamos que la misma mecánica del outsourcing en desborde obliga a ambos a comunicar lo que debe ser comunicado y a conocer lo que debe ser conocido.
Es claro que el elemento de éxito del outsourcing en desborde son las reglas con las cuáles el cliente y proveedor intercambian información para decidir el momento exacto en el que se debe de transferir la operación de un proceso. Para ello es crítico contar con una correcta metodología que defina desde el perfil del personal involucrado, el intercambio de información, las métricas, el conocimiento de las variables que afectan el proceso, penalizaciones, garantías, niveles de servicio, reportes, etc. así como el conocimiento y dominio pleno del proceso en cuestión sobretodo por parte del cliente.
Las ventajas de contar con un outsourcing en desborde es que puede combinar un tipo de outsourcing total o selectivo pero con la ventaja de que la transferencia del control del proceso lo marca la misma operación y sus mismos umbrales. La transferencia del control es dinámico y puede depender de la correlación de otras variables dentro de la organización (se puede combinar con estrategias de inteligencia de negocios). Otra ventaja es que el costo del outsourcing se reduce y posiblemente se pueda reducir al costo de una póliza similar a la de los seguros de autos. También se tiene control interno de los procesos y en ocasiones se puede compartir la operación con el proveedor antes de transferir la totalidad de ella, en donde evidentemente si no se llega a transferir la operación, los costos se mantienen en un rango. El costo podría ser de un 30% del costo de un outsourcing total.
Para algunas organizaciones no es fácil determinar si requieren algún tipo de outsourcing o decidir cuándo contratarlo por lo que recurren a transferir de entrada todo el proceso, sin embargo, este tipo de outsourcing en desborde obliga a las organizaciones a conocer mejor sus procesos y establecer métricas que les permitan tomar decisiones sobre tercerizar la administración en el tiempo. En general, los escenarios de TI son buenos candidatos para outsourcing en desborde.
En nuestro país, este tipo de outsourcing es muy incipiente y son pocos los casos relacionados con seguridad informática o call centers los que empiezan a utilizar este concepto. Pocos proveedores de servicios han adoptado este concepto.
Las organizaciones gubernamentales también son buenos candidatos para contratar este tipo de outsourcing no solo por el costo sino porque en la mayor parte de los casos se cuenta con personal no tan especializado en materia de informática que soporta su operación y en ocasiones no están preparados para atender las demandas de la organización en donde los procesos internos para hacer que se atiendan éstas no son los suficientemente expeditos para lograrlo.