jueves, 10 de junio de 2010

EL PASO DE LOS ESTANDERES DE NATURALEZA PROVEEDOR-PROPIETARIO AL SOFTWARE DE ESTANDERES ABIERTOS

El paso de los estándares de naturaleza proveedor-propietario al software de estándares abiertos.
En el pasado reciente, las organizaciones que emprendían proyectos de cómputo electrónico para el manejo y gestión de las mismas, enfrentaban el ingente problema que implicaba el crear y desarrollar programas de cómputo "hechos a la medida". Ya que no existían en el mercado y los pocos que se encontraban tenían fuertes limitantes impuestas por el equipo electrónico o por el lenguaje de programación empleado en su creación. En aquel tiempo se empleaba en la confección de los programas de cómputo una lógica que respondía a los dictados de un algoritmo de naturaleza secuencial.
En la actualidad todavía existe este problema de adaptación de los programas a las necesidades de una organización en particular, pero el tiempo implicado en el proceso de adaptación se ha reducido drásticamente. Al interior de este proceso han ocurrido cambios en la lógica de programación, se redescubrieron diversas herramientas, como la programación orientada a objetos.
También contribuyeron otros elementos, como los nuevos lenguajes de programación, el C con sus derivaciones y actualizaciones, el prolog y sus procesos de "back tracking" que han permitido la construcción de sistemas expertos, y sistemas operativos como el UNIX que sirvió de plataforma para integrar la red de redes: Internet.
Es necesario destacar que los avances logrados en estos lenguajes propició la creación de programas de aplicación y de herramientas informáticas que en el pasado se miraban como proyectos cercanos a la fantasía o la ciencia ficción, pero en la actualidad ellos son un hecho.
Rápidamente la vida organizacional se ha visto influenciada por esta oleada de cambios vertiginosos. Basta recordar que en el pasado procesar una nómina implicaba cientos de tarjetas bajo el formato Hollerith y esperar que todo el proceso de codificación y lectura de tarjetas se realizara en forma correcta. Ya que en caso contrario la nómina y el pago correspondiente no se efectuaría a tiempo. En consecuencia, el costo implicado en el procesamiento y reprocesamiento de la información transformaba un gasto ordinario en una erogación extraordinaria.
Ahora es suficiente una pequeña computadora personal y alguno de tantos programas de procesamiento de nóminas para que dicha práctica sea realizada de manera adecuada y con una reducción considerable en costos.
Inclusive este abatimiento en los gastos de procesamiento ha permitido que organizaciones pequeñas tengan acceso al empleo de computadoras en sus procesos cotidianos. Y en forma adicional con las herramientas de telecomunicación actual han abierto la puerta para la constitución de organizaciones virtuales y el trabajo en casa. Parecería, en este último caso que se ha regresado, en una espiral temporal al inicio del sistema capitalista cuando se realizaba el llamado "trabajo a domicilio".

EL CAMBIO DE LOS SISTEMAS CON BASE EN EL ANFITRION A LOS SIOSTEMAS CON BASE EN REDES

El cambio de los sistemas con base en el anfitrión a los sistemas con base en redes.
Antes de abordar este impulsor del empleo de las computadoras en las organizaciones actuales es pertinente preguntarse ¿por qué esta modalidad del cambio y no otra? El empleo de la computadora al igual que otras máquinas buscan la introyección de normas y estándares en la organización. Esta introyección se realiza mediante procedimientos que reducen la discrecionalidad humana y evita algunos conflictos generados en el accionar operativo de una organización.
Adicionalmente a lo expresado en el párrafo anterior existe un hecho inherente a la gran mayoría de las organizaciones, éstas han transitado por diversos modelos de toma de decisiones.
Otrora las organizaciones buscaban el empleo de una toma de decisiones centralizada en alguna entidad organizacional, sea esta un ejecutivo, dueño o departamento. En este sentido, los primeros sistemas de cómputo que utilizaban una gran computadora (anfitrión) y terminales conocidas como "tontas" por carecer de capacidad autónoma de procesamiento.
Como se puede observar la modalidad de procesamiento en sistemas de tipo anfitrión respondió en forma muy adecuada y estrecha a una toma de decisiones centralizada.
Al evolucionar las organizaciones dentro de un mundo donde la eficiencia constituía un principio vital, y su adquisición se realizaba en forma mimética. Mediante el uso de equipos modernos diseñados en función de las necesidades impuestas por una toma de decisiones, también diferente, que se orientaba hacia la transferencia del poder de decisión a los diferentes niveles integrantes de una organización.
Esta nueva forma en la toma de decisiones requería de una autonomía mayor en el manejo y procesamiento de información. Aunada a esta exigencia organizacional existieron diferentes avances tecnológicos que potenciaron la consolidación de equipos electrónicos de cómputo con capacidad autónoma de procesamiento. En torno a estos avances ya se habló en párrafos superiores.
De esta manera los nuevos equipos de cómputo apoyaron en gran medida este proceso de descentralización en la toma de decisiones (conocida en el idioma inglés como empowerment). Y que en años recientes alcanza magnitudes de naturaleza global.
Con el advenimiento de los procesos a distancia, la evolución de la tecnología satelital (Fernández, 1996) y de programas de cómputo integrales. El mundo de las organizaciones sobrepasa ahora en gran medida los ámbitos local y nacional.
En forma concomitante a este proceso globalizador existe un gran temor en los dirigentes de las organizaciones, consistente en la pérdida de control y que en última instancia se traduce en una disminución en su cuota de poder. Este temor se ha buscado superar, a través del diseño de programas de cómputo cada vez más poderosos y con la adaptación de nuevos equipos periféricos, como las cámaras de vídeo (Gauna, S., 1996). De esta manera los decisores han podido supervisar de manera casi directa y simultánea las operaciones de sus subordinados.

viernes, 4 de junio de 2010

PANTALLAS QUE SON RESISTENTES A AL SUCIEDAD

Pantallas que son resistentes a la suciedad
Las huellas el polvo y otras manchas suponen un problema para los usuarios de ordenadores portátiles. Según este artículo publicado esta semana en CNN.com, LG.Philips LCD ha desarrollado una nueva pantalla resistente a la suciedad y fácil de limpiar. Según la compañía, un recubrimiento especial para pantallas utilizado para reducir los efectos deslumbrantes también ha demostrado tener una tendencia a retener la suciedad y la grasa. Un segundo recubrimiento para hacer que las pantallas fuesen resistentes a la suciedad incrementaba mucho los costes y el tiempo de fabricación, pero ahora un único recubrimiento sirve para ambas cosas, señala LG.Philips."Nuestra nueva pantalla emplea un sprincipio similar al que se utiliza en las sartenes anti-adherentes", señala Ahn Byung-chul, que dirige el desarrollo de tecnología avanzada en la compañía.Según LG.Philips LCD, segundo fabricante de pantallas de cristal líquido del mundo, el nuevo recubrimiento facilita incluso la limpieza de manchas de tinta.Se espera incorporar la nueva tecnología a la producción en la primera mitad del 2008, primero en las pantallas panorámicas de 15,44 pulgadas que G.Philips fabrica para portátiles y, posteriormente, a finales del próximo año, en las pantallas de portátiles de todos los tamaños.Según John Soh, analista de Goodmorning Shinhan Securities, en Seúl, la tecnología será muy popular entre los estudiantes debido a que suelen utilizar instrumentos de escritura, como los pens, en combinación con los portátiles. LG.Philips LCD, estblecida en Seúl, compite con su rival Samsung Electronics, de Corea del Sur, por el dominio internacional en el mercado de las pantallas de cristal líquido, utilizadas en televisores de pantalla plana, monitores de ordenador y teléfonos móviles. Aunque ocupa la segunda posición en el mercado global de las LCD, LG.Philips es el primero en pantallas para portátiles.

ZCAM: CONTROLADOR EL ORDENADOR CON MOVIMIENTOS DE MANO

Zcam: Controlar el ordenador con movimientos de mano
Un sistema de alta tecnología que permite a los usuarios controlar el ordenador simplemente moviendo las manos en el aire al igual que Tom Cruise en Minority Report fue presentado en la Feria de dispositivos electrónicos de consumo (Consumer Electronics Show) celebrada la semana pasada en Las Vegas. El dispositivo, llamado Zcam saldrá a la venta este año. El innovador sistema se basa en una pequeña cámara 3D colocada bajo la pantalla del ordenador y calibrada para detectar el movimiento. A diferencia de la mayoría de las cámaras, que miden el color, la Zcam utiliza infrarrojos y sistemas similares a los radares para detectar distancias, determinando a qué distancia se encuentra el usuario y qué está haciendo. Como resultado, la cámara puede reconocer los gestos de las manos y el movimiento de los dedos, permitiendo a los usuarios controlar la actividad del ordenador con un movimiento rápido de pulgar hacia la izquierda o la derecha o señalando con los dedos directamente a la pantalla. El sistema que pueden ver los miles de visitantes de la feria tecnológica más grande del mundo vale para los ordenadores de casa y oficinas, pero podría llegar a utilizarse también como sistema de control en futuras generaciones de videojuegos. La consola Wii, de Nintendo, ha alcanzado una enorme popularidad gracias a su controlador de detección de movimiento, que permite a los jugadores interactuar con la pantalla simplemente moviendo el mando. La oferta de la Zcam es similar, pero sin mando; basta con que la persona mueva sus manos y dedos. "The Wii has shown us the way, but we can take things so much further," said Zvi Klier, the chief executive of 3DV, which makes the camera. "We think this is the next step."La empresa israelí 3DV ha estado desarrollando el sistema durante 10 años y prevé sacar al mercado su primera cámara este año. Se calcula que la cámara costará unas 100 libras con un juego incluido, aunque el precio podría bajar. Pero 3DV no es la única empresa que ofrece tecnología de detección de movimiento. Una empresa de California, llamada Gesturetek, ha presentado también en la feria su prototipo Airpoint, que utiliza dos pequeñas cámaras para detectar el movimiento de los dedos, permitiendo a sus usuarios controlar el ordenador como si fuese una pantalla táctil pero sin contacto físico. Algunas compañías importantes han desarrollado otras interfaces novedosas, aunque un poco menos avanzadas, como por ejemplo un nuevo sistema de TV de JVC, capaz de cambiar de canal o encenderse y apagarse a partir de sonidos concretos como el de una palmada.

jueves, 27 de mayo de 2010

CREAN NANORROBOTS QUE CAMINAN A BASE DE ADN

Robots MolecularesHasta ahora los biofísicos han ideado dos maneras de crear estos robots moleculares. El primero, conocido como "caminante de ADN", tiene un cuerpo y pie hechos de ADN y un ancla hecha con una hebra de ADN que une el pie a la superficie.
Cuando diferentes tipos de hebras se colocan delante del andador éste prefiere unirse a ellas y se mueve hacia delante. El segundo se conoce como araña molecular (aunque se comporta más bien como una "oveja molecular") y consiste en un cuerpo de proteína (estreptavidina) y unas patas de ADN que químicamente parten las hebras de ADN que hay sobre la superficie. Si se coloca la araña sobre la superficie, simplemente va mordisqueando su camino a lo largo de una pradera de ADN, avanzando hacia donde hay más "hierba" que mascar. Futuro del ADN para RobotsPero el problema con estos robots era que se movían lentamente y sin objetivo. Idealmente, los investigadores quisieran que avanzaran en una dirección dada mientras realizan alguna tarea útil.
banner_sm.begin({pos:4,wid:300,hei:250});banner_sm.end({pos:4});
document.write('');document.write('');
Ahora estos dos grupos de investigadores han dado con la primera solución a este problema explotando el desarrollo del ADN estructural, a veces llamado "origami estructural". Este truco es similar a algo así como un tablero sobre el que pueden ser pegadas muchos tipos de moléculas, pero en este contexto proporciona una senda ideal por la que caminantes y arañas moleculares se pueden mover. El origami de ADN es una invención de Paul W. K. Rothemund del Caltech. Consiste en una estructura autoensamblada hecha de ADN que puede ser programada para producir cualquier tipo de patrón y forma (caras sonrientes, mapas del hemisferio Occidental o diagramas de circuitos). Explotando las propiedades de reconocimiento de secuencias del ADN, el origami puede ser creado a partir de una hebra simple de ADN y una mezcla de cortas hebras sintéticas de ADN que se unen y grapan unas a otras hasta lograr la forma deseada.

TECNOLOGIA INFORMATICA HACEN NUESTRA VIDA MEJOR

Como los avances de la tecnología informática hacen nuestra vida mejor
google_protectAndRun("render_ads.js::google_render_ad", google_handleError, google_render_ad);
El relativo reciente desarrollo de la tecnología nos ha hecho posible vivir en algunos aspectos, mejor de lo que podíamos pensar en el pasado. Desde acceder a masivas cantidades de información en Internet, a simplemente experimentar con algún juego online con amigos, la tecnología informática continúa mejorando nuestra calidad de vida tanto a nivel laboral como personal. Sin duda es una parte importante en nuestras vidas, incluso para los que no manejan ordenadores, ya que muchos de sus datos están informatizados. Algunas de estas mejoras han sido tan sutiles, que han pasado desapercibidas y quizá no le demos la importancia que debería. Hasta hace bien poco, hacíamos las cosas de otra manera, y la informática ha cambiado algunos de nuestros hábitos.
Desde que Internet se hizo de uso público, a cambiado y mejorado de muchas maneras. No podemos poner en duda los cambios que a supuesto para nuestra vida, el acceso a otros sistemas informáticos. Internet es tan común que se ha convertido en parte de nuestra vida diaria, cambiando el método de cómo compartimos y encontramos información, estamos en contacto, solicitamos servicios, e incluso ayudamos a gente con discapacidad.
Navegar por Internet es un fenómeno global. Su influencia y expansión ha alcanzado de una manera de o de otra, a todas partes del planeta, y las posibilidades son muy extensas. Por ejemplo, un empresario o persona de recursos humanos simplemente tiene que poner un anuncio para un puesto de trabajo es la Web de la compañía para empezara recibir aplicaciones de candidatos cualificados. Por otro lado, personas que buscan trabajo pueden navegar por la Web, enviar correos, fax, registrarse en dominios de búsqueda de trabajo, etc.
Otra ejemplo de cómo la tecnología informática ha mejorado sutilmente nuestras vidas son los correos electrónicos o emails. Solíamos escribir cartas para estar en contacto con aquellos que vivían lejos. No era extraño enviar dentro de los sobres, fotografías para compartir momentos, experiencias y personas en nuestras vidas. Este proceso significaba hacer las fotos, esperar a que se revelasen, comprar los sobres y los sellos, ir al buzón o a correos, y esperar como mínimo dos días a que llegara a su destino.
Hoy en día, podemos coger nuestra cámara digital, tomar todas las fotografías que queramos, pasarlas a nuestro PC, añadirlas como archivos adjuntos, y enviarlas en pocos segundos. No más recargos de envío, no más sellos, y no más días de retraso para que llegue a su destinatario.
La tecnología ha beneficiado también a personas con discapacidad. Sea cual sea su discapacidad, pueden rodearse de equipos que les pueden ayudar a comunicarse, informarse, trabajar, entretenerse, y hacer su vida más fácil dentro de sus dificultados. Un soporte médico es mucho fiable y seguro con un equipo de monitorización, incluso de forma remota.

miércoles, 19 de mayo de 2010

EL CAMBIO DEL SISTEMA INDIVIDUAL AL MULTIMEDIA: DATOS, TEXTO, VOZ E IMAGEN

El cambio del sistema individual al multimedia: datos, texto, voz e imagen.
Las computadoras al igual que todas las máquinas buscan en la capacidad motriz y sensorial del ser humano como su referente inmediato. Así su forma y funcionalidad responden en gran medida a los sentidos naturales del hombre. Por ello, no es de extrañar que en este proceso evolutivo de las máquinas de Turing se pretenda como estándar la consolidación de éstas capacidades.
Ahora las computadoras se han transformado e incorporan en sus procesos herramientas que permiten la comunicación no tan sólo de datos, sino de sonido, imagen y movimiento.
¿Qué implicaciones podrían tener estas innovaciones dentro del mundo organizacional? La respuesta depende de la posición que se asuma, si se es crítico de estos procesos las implicaciones a nivel psicológico serán las primeras en ser acotadas; la pérdida de la endeble línea entre la realidad y la ficción (que se inauguró desde hace tiempo con la televisión); la dependencia que causa en algunas personas en el desarrollo de sus actividades; la ansiedad que causa a nivel sensorial, el no poseer información sobre un campo disciplinario específico; la comunicación se volverá imperfecta al perder los datos provenientes de la actitud gestual implicada en estos procesos (ya que no se ha generalizado aún el empleo de cámaras de vídeo).
En suma se han dado los pasos para constituir un mundo de "segundo orden", hiper-realidad o como se ha dado en llamar una realidad virtual. Este nuevo estado de cosas probablemente constituirá un "segundo yo" que materializará la vieja noción onírica propia del subconsciente. Desencadenando probablemente el surgimiento de nuevos desordenes mentales, ya que el individuo será despojado de su capacidad para dejar en un plano alejado de la consciencia aquellas acciones que rompan de una u otra forma sus códigos axiológicos.
En otro sentido, pero con una clara orientación hacia la robótica se propone un uso adecuado de éstas capacidades. John Markoff (1994: 2) plantea una cuarta ley de la robótica (adicional a las tres propuestas anteriormente por Isaac Asimov en 1950): "los robots de la información no deben abusar de los recursos computacionales disponibles en la red y deberán someterlos a los usuarios humanos".
Por otra parte, si se asume la posición antípoda correspondiente a una apología en torno a las nuevas capacidades computacionales, se abre un espectro muy amplio de posibilidades que van desde la transformación de la vida familiar, ya que permitirá la emancipación del ser humano con respecto a su trabajo y en forma simultánea estimular una mayor convivencia familiar, hasta una nueva visión con respecto a los procesos colectivos que integran a la sociedad.
Por ejemplo en la educación, los procesos de enseñanza aprendizaje encuentran en estas nuevas herramientas un instrumento pedagógico muy poderoso, al permitir la recopilación de una serie de experiencias sensoriales distintas a las provocadas por la información impresa en los libros. Algunos imaginan diálogos con personajes históricos y el posible cuestionamiento a sus acciones y pensamientos.
En medicina ha permitido la constitución de una nueva práctica forense al proporcionar, al galeno en ciernes una nueva herramienta de aprendizaje que no implique trabajar de manera inmediata con un cadáver. Inclusive les permitiría realizar cirugías y "perder" al paciente, lo que tan sólo implicaría reiniciar un sistema de programas computacionales, sin tener que enterrar a su cliente.
El uso combinado de estas capacidades sensoriales de naturaleza "sintética" también ha permitido la conformación material de los robots o gadgets que suplirán al hombre en actividades donde peligre su vida. La condición básica para la utilización de éstos robots estará en función de los ambientes en donde ellos operen y que requieran del uso combinado de dichas capacidades. Quizás a la manera propuesta por el cineasta Steven Spieldberg en la serie televisiva Sea Quest. En ella se muestran una serie de equipos sofisticados de realidad virtual empleados para explorar las profundidades del océano

EL CAMBIO DE LOS SISTEMAS CON BASE EN EL ANFITRION A LOS SISTEMAS CON BASE EN REDES

El cambio de los sistemas con base en el anfitrión a los sistemas con base en redes.
Antes de abordar este impulsor del empleo de las computadoras en las organizaciones actuales es pertinente preguntarse ¿por qué esta modalidad del cambio y no otra? El empleo de la computadora al igual que otras máquinas buscan la introyección de normas y estándares en la organización. Esta introyección se realiza mediante procedimientos que reducen la discrecionalidad humana y evita algunos conflictos generados en el accionar operativo de una organización.
Adicionalmente a lo expresado en el párrafo anterior existe un hecho inherente a la gran mayoría de las organizaciones, éstas han transitado por diversos modelos de toma de decisiones.
Otrora las organizaciones buscaban el empleo de una toma de decisiones centralizada en alguna entidad organizacional, sea esta un ejecutivo, dueño o departamento. En este sentido, los primeros sistemas de cómputo que utilizaban una gran computadora (anfitrión) y terminales conocidas como "tontas" por carecer de capacidad autónoma de procesamiento.
Como se puede observar la modalidad de procesamiento en sistemas de tipo anfitrión respondió en forma muy adecuada y estrecha a una toma de decisiones centralizada.
Al evolucionar las organizaciones dentro de un mundo donde la eficiencia constituía un principio vital, y su adquisición se realizaba en forma mimética. Mediante el uso de equipos modernos diseñados en función de las necesidades impuestas por una toma de decisiones, también diferente, que se orientaba hacia la transferencia del poder de decisión a los diferentes niveles integrantes de una organización.
Esta nueva forma en la toma de decisiones requería de una autonomía mayor en el manejo y procesamiento de información. Aunada a esta exigencia organizacional existieron diferentes avances tecnológicos que potenciaron la consolidación de equipos electrónicos de cómputo con capacidad autónoma de procesamiento. En torno a estos avances ya se habló en párrafos superiores.
De esta manera los nuevos equipos de cómputo apoyaron en gran medida este proceso de descentralización en la toma de decisiones (conocida en el idioma inglés como empowerment). Y que en años recientes alcanza magnitudes de naturaleza global.
Con el advenimiento de los procesos a distancia, la evolución de la tecnología satelital (Fernández, 1996) y de programas de cómputo integrales. El mundo de las organizaciones sobrepasa ahora en gran medida los ámbitos local y nacional.
En forma concomitante a este proceso globalizador existe un gran temor en los dirigentes de las organizaciones, consistente en la pérdida de control y que en última instancia se traduce en una disminución en su cuota de poder. Este temor se ha buscado superar, a través del diseño de programas de cómputo cada vez más poderosos y con la adaptación de nuevos equipos periféricos, como las cámaras de vídeo (Gauna, S., 1996). De esta manera los decisores han podido supervisar de manera casi directa y simultánea las operaciones de sus subordinados

viernes, 14 de mayo de 2010

El futuro Tecnologico

miércoles 12 de marzo de 2008

El Futuro Tecnológico
El avance de la tecnología no se detiene, abarca nuevos ámbitos y perfecciona otros con el objetivo de hacer la vida del ser humano más fácil y placentera. Se encuentran inventos en desarrollo en rubros como la medicina, los electrodomésticos y el transporte. Casi seguro, serán objetos cotidianos en un futuro cercano.

DISPOSITIVOS:

La nueva Internet
Hoy nos sorprende el alcance de la tecnología wifi, que permite establecer comunicación inalámbrica en radios de 150m. El futuro cercano de Internet, permitirá , a través de enormes antenas de transmisión , conectarnos a la red desde distancias mucho mayores .
Teléfonos celulares
La tecnología de la comunicación móvil avanza a pasos agigantados. Además de permitir el enlace con otras personas en cualquier otra parte del mundo cada aparato cuenta con múltiples aplicaciones que ofrecen diversos servicios al usuario. Esta evolución no se detendrá en los siguientes años, por el contrario ya se trabaja con nuevos prototipos. Algunos de los cuales sestran disponibles en un futuro muy inmediato.

MEDICINA:
Chip CerebralesEl nuevo tipo de polimero con electrodos de 600 nanometros de diámetro, capas de enviar señales internas en el cerebro, podría materializar el sueño de colocar implantes en esta zona aun vedada para la medicina. Si funciona sera muy util en el tratamiento del Parkiston y de otros trastornos del movimiento.

TRANSPORTES :

Aviones más veloces
Con el propósito de maximizar la eficiencia de los aviones de pasajeros y aumentar su velocidad ingenieros de la universidad del estado de Pensilvania han desarrollado un nuevo concepto para las alas de las aeronaves que, de funcionar, podria aplicarse en las flotas comerciales de la siguiente decada.

Como funcionará: Los expertos planean cambiar las formas de los aviones para hacerlos más parecidos a los pájaros, con cubiertas segmentadas como las escamas de los peces. El ingeniero aeroespacial y director del proyecto, George Lesiutre cree, que las actuales de los aviones no cumplen por completo su cometido y , por el contrario, reduce la potencia de la nave.
De acuerdo con este especialista, hoy los aviones que requieren grandes velocidades, como los militares, necesitan a las pequeñas y barridas hacia atras, mientras que para vuelos prolongados a poca velocidad.
La reflexion logica es que la tecnologia va avansando cada vez más, con el bien de satisfacer las necesidades del usuario, dejando impactos positivos y negativos en el anbito tecnologico.

Impactos Positivos
Disminución de los esfuerzos. Reemplazo del hombre cuando las condiciones de trabajos son insalubres, molestas y peligrosas.
Generación de nuevos puestos de trabajo. Crecimiento económico generado tras la incorporación de la tecnología.
Aumento de la productividad del trabajo humano.
Aumento del nivel de vida .

Impactos Negativo
Obsolencia humana. Dificultad de adaptación del hombre a los avances de la tecnología
Transformación de costumbres , modos de vida y visiones del mundo, estrés.
Contaminación del ambiente.

La Evolucion de las Computadoras

La Evolución de las Computadoras
El desarrollo de las computadoras fue vertiginoso. Su uso se inicio en el campo de la ciencia, paso al empresarial y en menos de 50 años invadió la vida cotidiana.
Todo este desarrollo suele dividirse en generaciones :
Primera generación:(1940-1957)Eran Máquinas que ocupaban habitaciones enteras. Los datos y programas se almacenaban en un tambor magnético giratorio. Los datos se cargaban por medio de tarjetas perforadas y eran procesados por válvulas, tubos de vidrios que contenian circuitos eléctricos y que generaban mucho calor.Eniac Creada en 1945 pesaba 30 T .Tenia 18.000 valvulasCalculaba la velocidad de los proyectiles militares.


Segunda genración:( 1958-1963)
Los transitores remplazaron a las válvulas. Las computadores eran más pequeñas, rápidas, versátiles durareras y económicas.
Los datos se almacenaban en discos magnéticos. Mejoró el sofware facilitando su programación y utilización. Se difundio el uso en empresas.
Modelo 1401 de IBMPrimera computadoradigital de uso comercial Fabricada en serie.

Tercera Generación:(1964-1970) Utlizaron cirucuitos integrados que permitían tener cientos de transitores en un pequeño espacio.Las computadoras se hicieron más pequeñas, poderosas y eficientes. Aparecieron programas más flexibles.IBM 360Podia operar con varios programas utilzándolos de a uno por ves

Cuarta generación:(1971-1983)Se generalizó el microchip.Esto dio lugar a la máquinas de menor tamaño y costo, cada vez más poderosas.Nacieron las computadoras personales , la primera fue la APPLE desarrollada en 1976.En 1981 IBM lanzó su pc con una arquitectura abierta que permitía integrar componentes de otros fabricantes . APPLE 2 Primer contacto de los estudiantes con la computación.

Quinta Generación (1984-al presente)Se desarrollo el uso en paralelo de varios microprocesadores en forma simúltanea, aumentando la capacidad de procesamiento. También mejora la interacción con la máquina mediante la interfaz gráfica. aparecen los primeros juegos de realidad virtual y las computadoras portátiles.Eurocom D900 C Phantom X,
un portátil totalmente configurable
para armarlo con lo último en tecnología en función
de nuestras necesidades.

martes, 4 de mayo de 2010

EL FUTURO DEL ALMACENAMIENTO DE DATOS

El futuro del almacenamiento de datos

Según los últimos hallazgos científicos, unos investigadores de la Universidad de Arkansas han descubierto una nueva fase en nanodiscos y nanobarras que podrían permitir que se incremente la capacidad de memoria por mil. Este nuevo avance abre una nueva vía en la investigación física.

Según uno de los científicos, "Esta nueva fase ordenada con relevancia tecnológica ha sido hasta ahora desconocida... Resulta factible porque el tamaño de los nanodiscos no permitirían desorden debido a las propiedades que hasta ahora no han sido caracterizadas".

El objetivo del equipo de científicos es investigar la posibilidad de utilizar una sola nanopartícula para guardar un byte de información. Sin embargo, la polarización neta desarrollada de forma espontánea en los materiales y que hasta ahora ha sido la clave del almacenamiento de datos no existe en las nanopartículas. Así que los investigadores decidieron buscar una nueva fase en el mundo de nano-ferroeléctricas.

Su descubrimiento ha sido una sorpresa para todos. Resulta que los dipolos en nanomateriales forman un nuevo estado cuando se baja la temperatura. Los científicos utilizaron simulaciones informáticas para determinar que ocurre a los nanodiscos y nanobarras cuando lleguen a este estado. Descubrieron que en vez de la polarización, la nueva fase crea lo que los investigadores llaman un momento toroid que rueda de modo circular como un tornado. Estos momentos pueden rodar en un sentido u otro, formando un estado bi-estable capaz de almacenar datos, igual que la polarización.

NANOTECNOLOGIA MOLECULAR Y SENSORES

Nanotecnología molecular y sensores

La nanotecnología es la manipulación de materiales a una escala molecular. Muchos científicos utilizan hebras artificiales de ADN para lograrlo.

Technology Review publica que investigadores de la Universidad de Dortmund han descubierto la forma de hacer que ADN pegue y separe nanopartículas de oro a medida. Se podría aplicar este método a sensores que detectan sustancias y actividades biológicas en el laboratorio y en el cuerpo humano. También se podría aplicar a materiales programables cuyas propiedades se pueden cambiar al añadir un trozo de ADN.

ADN consiste en cuatro bases químicas - adenina, guanina, citosina y timina - unidas a un esqueleto de fosfato-azúcar. Las hebras de ADN se unen cuando las secuencias de bases se aparean - adenina con timina y citosina con guanina. Con el nuevo avance científico desarrollado por el equipo alemán, es posible lograr que hebras artificiales cortas de ADN formen estructuras, y luego se puede manipularlas para que se peguen a otros materiales y a continuación, es posible organizar estos otros materiales dentro de una estructura.

En esta investigación, los científicos utilizaron dos secuencias de hebras sencillas de ADN que se pegan a una nanopartícula de oro y una tercera hebra con tres secciones. Las primeras dos secciones de la tercera hebra aparean con cada una de las hebras de nanopartículas, pegándolas para que las nanopartículas de oro que llevan se posicionan cerca. Se puede separar las nanoparticulas utilizando un tercer tipo de hebra ADN que es igual que la hebra pegada de ADN. Esta hebra se adhiere primero a la tercera sección, la que está libre, de la hebra adhesiva de ADN y tira hasta que toda la hebra se despegaue.

miércoles, 28 de abril de 2010

MICROSOFT ACUSA A GOOGLE DE VIOLAR SUS PATENTES CON ANDROIDECODIARIO

Microsoft acusa a Google de violar sus patentes con AndroidEcoDiario 28/04/2010 - 11:14
Microsoft envía auditores a China para inspeccionar a uno de sus proveedores
Microsoft afirma que el sistema operativo Android, de Google, infringe la tecnología patentada por la compañía, afectando a áreas que van desde la interfaz de usuario al sistema operativo subyacente.
Este nuevo frente en la batalla de patentes en telefonía móvil se produce tras la firma de un acuerdo entre Microsoft y HTC, por el que el fabricante taiwanés de teléfonos móviles adquiere derecho a utilizar las tecnologías patentadas de Microsoft en teléfonos que funcionan el sistema operativo Android de Google.
Según publica el portal CNET, el responsable de asuntos jurídicos de Microsoft, Horacio Gutiérrez, comentó que Microsoft prefiere solucionar este tipo de problemas de licencia de propiedad intelectual sin recurrir a acciones judiciales, aunque tiene la responsabilidad de asegurarse de que "los competidores no se aprovechen gratis de nuestras innovaciones".
Así, Microsoft afirma que ha negociado soluciones con HTC. "Hemos tenido siempre un enfoque proactivo para la resolución de infracciones de propiedad intelectual por parte de otras empresas", dijo Gutiérrez.
Sin detalles del acuerdo
Aunque Microsoft y HTC no han revelado detalles de los términos financieros del acuerdo, hicieron notar que "Microsoft recibirá una compensación por parte de HTC". El acuerdo cubre a todos los teléfonos basados en Android fabricados por HTC, incluido el Nexus One de Google.
"HTC y Microsoft tienen una larga historia de colaboración técnica y comercial, y el acuerdo de hoy es un ejemplo de cómo los líderes de la industria puede llegar a acuerdos comerciales relacionados con la propiedad intelectual", dijo Gutiérrez en un comunicado de prensa anunciando el acuerdo. "Estamos muy contentos de continuar nuestra colaboración con HTC."

PRIMER SMARTBOOK CON ANDROID

Por fuera es igual que un miniportátil y por dentro se parece a cualquier súper móvil de Google. Es el smartbook, una nueva categoría de producto que Telefónica comercializará en exclusiva mundial a partir de mediados de mayo. El prodigio, denominado Compaq Airlife 100 y fabricado por HP, está dirigido a los usuarios que necesitan estar siempre conectados, ya sea a través de redes WiFi o celulares.
El dispositivo móvil también está especialmente diseñado para los usuarios que desean participar en sus redes sociales y profesionales en cualquier lugar y momento.
Telefónica venderá este equipo en España por 229 o 299 euros, ya esté vinculado a la tarifa de datos de 49 euros al mes o a la de 39 euros. De forma promocional, los usuarios que contraten una de estas dos tarifas (Internet Maxi o Internet Plus) tendrán incluido el acceso durante un año de todo el fútbol a través del pack de fútbol, que incluye el canal de Gol Televisión y de seis canales de Pay Per View.
Como todo producto pionero en su segmento, el smartbook de Telefónica y HP presenta unas fortalezas y debilidades especialmente significativas, al carecer de precedentes. Entre las primeras sobresale su pantalla táctil de TFT de 10,1 pulgadas, su instantánea puesta en funcionamiento, su conectividad total, su teclado prácticamente estándar, su versatilidad multimedia y la autonomía energética, que puede superar las 12 horas de uso ininterrumpido del equipo y de hasta 10 días en modo espera. También se diferencia del resto de los ultraportátiles por funcionar con el sistema operativo Android, de Google, especialmente diseñado para trabajar en entornos de movilidad.
La criatura más joven de HP apenas pesa un kilo, atesora un poderoso procesador de Qualcomm (Snapdragon QSD8250) y no dispersa energía de otros equipos similares, por lo que no se calienta ni hace ruido.
Aspectos mejorables
Entre los aspectos mejorables se encuentra la ausencia de puertos USB o HDMI, debido a la incompatibilidad de estos accesos con el sistema operativo Android. Por ese mismo motivo, la navegación web y las descargas no están lo suficientemente afinadas en muchas páginas y servicios online.
El acceso a las aplicaciones inicialmente está limitado a MStore, de Telefónica, cuyo catálogo de ofertas no es tan generoso como otros servicios similares de la competencia como Market de Google o el App Store de Apple. El disco duro se limita a 16 gigas, si bien el almacenamiento puede ser ilimitado a través de los servicios alojados en la nube de Internet.

martes, 20 de abril de 2010

MICROSOFT WINDOWS


Microsoft Windows

La incorporación del ordenador o computadora en las oficinas, constituyó una revolución en los sistemas ofimáticos, ya que las máquinas ofrecían el medio para realizar comunicaciones e intercambio de información instantáneos entre compañeros de trabajo, recursos y equipos. Los accesorios, como el mouse (ratón), facilitan el desplazamiento dentro de las aplicaciones (programas de computadora). Los rápidos avances tecnológicos han mejorado los sistemas informáticos y, al mismo tiempo, han disminuido los precios, haciendo que los equipos sean más asequibles.

La supercomputadora Cray-1 (diseñada por Seymour Cray de Cray Research, de Eagan, Minnesota, EEUU) fue la primera capaz de ejecutar más de 100 millones de operaciones de coma flotante por segundo. Entre los numerosos problemas tecnológicos que hubo que resolver, uno de los más importantes fue eliminar el calor generado por la alta velocidad de las operaciones lógicas. Esto se consiguió montando los circuitos sobre placas verticales enfriadas mediante un sistema basado en gas freón. Aunque en la actualidad ya se han construido máquinas más rápidas, la Cray-1 sigue utilizándose para estudios matemáticos de problemas muy complejos, como por ejemplo el análisis del habla, la previsión climatológica e interrogantes básicos en física y química. Además, la Cray-1 se utiliza como unidad de medida informal para las supercomputadoras más nuevas, algunas de las cuales se proyectan ahora para ser equivalentes a 1.000 crays.

Informática o Computación, conjunto de conocimientos científicos y de técnicas que hacen posible el tratamiento automático de la información por medio de computadoras. La informática combina los aspectos teóricos y prácticos de la ingeniería, electrónica, teoría de la información, matemáticas, lógica y comportamiento humano. Los aspectos de la informática cubren desde la programación y la arquitectura informática hasta la inteligencia artificial y la robótica.

periférico o dispositivo: complemento de un ordenador o computadora, como un ratón (mouse) o un módem. El accesorio ofrece una funcionalidad que no está disponible en la máquina original, pero que no es necesaria para el funcionamiento de la misma.

Microprocesador, circuito electrónico que actúa como unidad central de proceso de un ordenador, proporcionando el control de las operaciones de cálculo. Los microprocesadores también se utilizan en otros sistemas informáticos avanzados, como impresoras, automóviles o aviones. En 1995 se produjeron unos 4.000 millones de microprocesadores en todo el mundo.


El microprocesador es un tipo de circuito sumamente integrado. Los circuitos integrados, también conocidos como microchips o chips, son circuitos electrónicos complejos formados por componentes extremadamente pequeños formados en una única pieza plana de poco espesor de un material conocido como semiconductor. Los microprocesadores modernos incorporan hasta 10 millones de transistores (que actúan como amplificadores electrónicos, osciladores o, más a menudo, como conmutadores), además de otros componentes como resistencias, diodos, condensadores y conexiones, todo ello en una superficie comparable a la de un sello postal.

Un microprocesador consta de varias secciones diferentes. La unidad aritmético-lógica (ALU, siglas en inglés) efectúa cálculos con números y toma decisiones lógicas; los registros son zonas de memoria especiales para almacenar información temporalmente; la unidad de control descodifica los programas; los buses transportan información digital a través del chip y de la computadora; la memoria local se emplea para los cómputos realizados en el mismo chip. Los microprocesadores más complejos contienen a menudo otras secciones; por ejemplo, secciones de memoria especializada denominadas memoria cache, que sirven para acelerar el acceso a los dispositivos externos de almacenamiento de datos. Los microprocesadores modernos funcionan con una anchura de bus de 64 bits (un bit es un dígito binario, una unidad de información que puede ser un uno o un cero): esto significa que pueden transmitirse simultáneamente 64 bits de datos.

Un cristal oscilante situado en el ordenador proporciona una señal de sincronización, o señal de reloj, para coordinar todas las actividades del microprocesador. La velocidad de reloj de los microprocesadores más avanzados es de unos 300 megahercios (MHz) —unos 300 millones de ciclos por segundo—, lo que permite ejecutar unos 1.000 millones de instrucciones cada segundo.

Bit, en informática, acrónimo de Binary Digit (dígito binario), que adquiere el valor 1 o 0 en el sistema numérico binario. En el procesamiento y almacenamiento informático un bit es la unidad de información más pequeña manipulada por el ordenador, y está representada físicamente por un elemento como un único pulso enviado a través de un circuito, o bien como un pequeño punto en un disco magnético capaz de almacenar un 0 o un 1. La representación de información se logra mediante la agrupación de bits para lograr un conjunto de valores mayor que permite manejar mayor información. Por ejemplo, la agrupación de ocho bits componen un byte que se utiliza para representar todo tipo de información, incluyendo las letras del alfabeto y los dígitos del 0 al 9.

Byte, en informática, unidad de información que consta de 8 bits; en procesamiento informático y almacenamiento, el equivalente a un único carácter, como puede ser una letra, un número o un signo de puntuación. Como el byte representa sólo una pequeña cantidad de información, la cantidad de memoria y de almacenamiento de una máquina suele indicarse en kilobytes (1.024 bytes) o en megabytes (1.048.576 bytes).

Kilobyte, abreviado KB, K o Kbyte. Equivale a 1.024 bytes.

Mega- (M), prefijo que significa 1 millón (106). En informática, basada en el sistema binario (en base 2), mega- tiene un valor literal de 1.048.576, que es la potencia de 2 (220) más cercana a un millón.

Gigabyte, el significado exacto varía según el contexto en el que se aplique. En un sentido estricto, un gigabyte tiene mil millones de bytes. No obstante, y referido a computadoras, los bytes se indican con frecuencia en múltiplos de potencias de dos. Por lo tanto, un gigabyte puede ser bien 1.000 megabytes o 1.024 megabytes, siendo un megabyte 220 o 1.048.576 bytes.

Transmisión de datos, en informática, transmisión de información de un lugar a otro, tanto dentro de un ordenador o computadora (por ejemplo, desde una unidad de disco a la memoria de acceso aleatorio), como entre éste y un dispositivo externo (dos ordenadores o un servidor de archivos, o un ordenador perteneciente a una red). La velocidad de transmisión de datos se denomina también coeficiente de transmisión o velocidad de transferencia de datos y suele medirse en bits por segundo (bps). La velocidad de transmisión nominal es por lo general bastante mayor que la efectiva, debido a los tiempos de parada, procedimientos de verificación de errores y otros retrasos. Además, la transmisiones de datos desde diferentes orígenes a distintos destinos suelen competir entre sí en caso de utilizar la misma ruta de datos, como por ejemplo en una red o en el bus de un sistema informático.

Hardware, equipo utilizado para el funcionamiento de una computadora. El hardware se refiere a los componentes materiales de un sistema informático. La función de estos componentes suele dividirse en tres categorías principales: entrada, salida y almacenamiento. Los componentes de esas categorías están conectados a través de un conjunto de cables o circuitos llamado bus con la unidad central de proceso (CPU) del ordenador, el microprocesador que controla la computadora y le proporciona capacidad de cálculo.

El soporte lógico o software, en cambio, es el conjunto de instrucciones que un ordenador emplea para manipular datos: por ejemplo, un procesador de textos o un videojuego. Estos programas suelen almacenarse y transferirse a la CPU a través del hardware de la computadora. El software también rige la forma en que se utiliza el hardware, como por ejemplo la forma de recuperar información de un dispositivo de almacenamiento. La interacción entre el hardware de entrada y de salida es controlada por un software llamado BIOS (siglas en inglés de 'sistema básico de entrada / salida').

Aunque, técnicamente, los microprocesadores todavía se consideran hardware, partes de su función también están asociadas con el software. Como los microprocesadores tienen tanto aspectos de hardware como de software, a veces se les aplica el término intermedio de microprogramación, o firmware.

EXPOINTERNET E INFORMACION

Avances tecnológicos en computación







Se inició ayer y se extenderá hasta el 18 de junio la muestra ExpoInternet e Informática, dedicada a los últimos avances tecnológicos en computación. En el mismo ámbito, del 12 al 14 de junio, se realizará también el II Congreso de Comercio Electrónico. Las dos actividades se desarrollan en los pabellones del Centro de Exposiciones de la Ciudad de Buenos Aires, ubicado en Figueroa Alcorta y Pueyrredón.

En la muestra ExpoInternet e Informática habrá reuniones con profesionales para que el público pueda aprender a diseñar su página en la Red. Se hablará de los medios multimedia, Internet móvil, armado de computadoras, los virus y la seguridad, psicología de los internautas, sitios imperdibles y xenofobia en Internet. También habrá charlas con famosos como Graciela Borges, Dora Baret, Betiana Blum y Pipo Mancera, además de recitales de música con Los Auténticos Decadentes.

Los nuevos escenarios de Internet para hacer negocios serán el tema central del II Congreso de Comercio Electrónico. El martes 12 habrá conferencias sobre "El teletrabajo, otra forma de organizar mi actividad laboral", "Seguridad en Internet y comercio electrónico" y el "Proyecto Pyweb" para empresas chicas y medianas.

El miércoles 13 se tratarán temas como la economía digital y la educación a distancia. El jueves 14 se hablará sobre cómo hacer rentables los servicios en Internet. Un panel con expertos como Alejandro Piscitelli y Carlos Tomassino se ocupará del presente y el futuro de Internet.


martes, 13 de abril de 2010

BATERIAS DE LARGA DURACION PARA PORTATILES

Baterías de larga duración para portátiles
Según un artículo publicado esta semana en Technology Review, el nuevo gestor de energía integrado de Intel podría reducir considerablemente el consumo energético de los portátiles deteniendo funciones que no se están utilizando.A cualquiera que utilice un portátil en un avión le gustaría que la batería durase todo un vuelo de largo recorrido. Ahora, investigadores de Intel creen poder duplicar la vida de batería de un portátil sin modificar la batería en sí, optimizando el gestor de energía del sistema operativo, el monitor, el ratón, los chips de la placa base y los dispositivos conectados a los puertos USB.Fabricantes e investigadores han estado investigando distintas formas de hacer que los ordenadores portátiles sean energéticamente más eficaces. Se han programado los sistemas operativos para ejecutar un salvapantallas de ahorro de energía e hibernar todo un sistema si el usuario no lo ha utilizado durante un rato. E incluso el próximo microprocesador de Intel para dispositivos móviles Atom, puede hibernar hasta en seis niveles diferentes, dependiendo del tipo de tareas que tenga que hacer.Pero el problema de todos estos enfoques es que no están coordinados en todo el dispositivo. El nuevo prototipo de sistema de gestión de energía de Intel es consciente de la energía utilizada por todas las partes del portátil, además de las necesidades energéticas de la actividad de una persona y desactiva las funciones de acuerdo con eso, señala Greg Allison, director de desarrollo de negocios. El proyecto, llamado “advanced platform power management”, se presentó el miércoles en un evento de Intel en Mountain View, California. El sistema de Intel ahorra energía, por ejemplo, realizando una captura de la pantalla que está leyendo el usuario y guardándola en una memoria intermedia. así, en lugar de actualizar cada cierto tiempo la pantalla, ésta mantiene la misma imagen hasta que la persona pulsa una tecla o mueve el ratón. Igualmente, el ratón y el teclado se mantienen en hibernación hasta ser utilizados.Mientras tanto, el sistema operativo monitorizará el uso de otras aplicaciones, restringiendo el funcionamiento de las que no están siendo utilizadas activamente; y si hay algún dispositivo conectado a un puerto USB, como una memoria flash, el sistema lo pondría también a hibernar. Paralelamente, explica Allison, los circuitos de monitorización de energía de los chips de Intel harían hibernar las partes del microprocesador que no se estén utilizando. Son necesarios tan solo 50 milisegundos para reactivar la totalidad del sistema, añade, una cantidad de tiempo que resulta imperceptible para el usuario.

HARDWARE DE ENTRADA

. Hardware De Entrada El hardware de entrada consta de dispositivos externos —esto es, componentes situados fuera de la CPU de la computadora— que proporcionan información e instrucciones. Un lápiz óptico es un puntero con un extremo fotosensible que se emplea para dibujar directamente sobre la pantalla, o para seleccionar información en la pantalla pulsando un botón en el lápiz óptico o presionando el lápiz contra la superficie de la pantalla. El lápiz contiene sensores ópticos que identifican la parte de la pantalla por la que se está pasando. Un mouse, o ratón, es un dispositivo apuntador diseñado para ser agarrado con una mano. Cuenta en su parte inferior con un dispositivo detector (generalmente una bola) que permite al usuario controlar el movimiento de un cursor en la pantalla deslizando el mouse por una superficie plana. Para seleccionar objetos o elegir instrucciones en la pantalla, el usuario pulsa un botón del mouse. Un joystick es un dispositivo formado por una palanca que se mueve en varias direcciones y dirige un cursor u otro objeto gráfico por la pantalla de la computadora. Un teclado es un dispositivo parecido a una máquina de escribir, que permite al usuario introducir textos e instrucciones. Algunos teclados tienen teclas de función especiales o dispositivos apuntadores integrados, como trackballs (bolas para mover el cursor) o zonas sensibles al tacto que permiten que los movimientos de los dedos del usuario dirijan un cursor en la pantalla.
Un digitalizador óptico emplea dispositivos fotosensibles para convertir imágenes (por ejemplo, una fotografía o un texto) en señales electrónicas que puedan ser manipuladas por la máquina. Por ejemplo, es posible digitalizar una fotografía, introducirla en una computadora e integrarla en un documento de texto creado en dicha computadora. Los dos digitalizadores más comunes son el digitalizador de campo plano (similar a una fotocopiadora de oficina) y el digitalizador manual, que se pasa manualmente sobre la imagen que se quiere procesar. Un micrófono es un dispositivo para convertir sonidos en señales que puedan ser almacenadas, manipuladas y reproducidas por el ordenador. Un módulo de reconocimiento de voz es un dispositivo que convierte palabras habladas en información que el ordenador puede reconocer y procesar.
Un módem es un dispositivo que conecta una computadora con una línea telefónica y permite intercambiar información con otro ordenador a través de dicha línea. Todos los ordenadores que envían o reciben información deben estar conectados a un módem. El módem del aparato emisor convierte la información enviada en una señal analógica que se transmite por las líneas telefónicas hasta el módem receptor, que a su vez convierte esta señal en información electrónica para el ordenador receptor.
Los lápices ópticos son punteros electrónicos que permiten al usuario modificar los diseños en pantalla. Este puntero, que se sostiene en la mano, contiene sensores que envían señales a la computadora cada vez que se registra luz. La pantalla de la computadora no se enciende entera, sino fila por fila 60 veces por segundo, mediante un haz de electrones. Por ello, la computadora puede determinar la posición del lápiz cada vez que detecta el haz de electrones. Los lápices ópticos suelen utilizarse en la tecnología CAD/CAM (diseño y fabricación asistidos por computadora) debido a su gran flexibilidad. Aquí vemos a un diseñador utilizando un lápiz óptico para modificar un plano en una pantalla de computadora.
Hardware de almacenamiento El hardware de almacenamiento sirve para almacenar permanentemente información y programas que el ordenador deba recuperar en algún momento. Los dos tipos principales de dispositivos de almacenamiento son las unidades de disco y la memoria. Existen varios tipos de discos: duros, flexibles, magneto-ópticos y compactos. Las unidades de disco duro almacenan información en partículas magnéticas integradas en un disco. Las unidades de disco duro, que suelen ser una parte permanente de la computadora, pueden almacenar grandes cantidades de información y recuperarla muy rápidamente. Las unidades de disco flexible también almacenan información en partículas magnéticas integradas en discos intercambiables, que de hecho pueden ser flexibles o rígidos. Los discos flexibles almacenan menos información que un disco duro, y la recuperación de la misma es muchísimo más lenta. Las unidades de disco magneto-óptico almacenan la información en discos intercambiables sensibles a la luz láser y a los campos magnéticos. Pueden almacenar tanta información como un disco duro, pero la velocidad de recuperación de la misma es algo menor. Las unidades de disco compacto, o CD-ROM, almacenan información en las cavidades grabadas en la superficie de un disco de material reflectante. La información almacenada en un CD-ROM no puede borrarse ni sustituirse por otra información. Los CD-ROM pueden almacenar aproximadamente la misma información que un disco duro, pero la velocidad de recuperación de información es menor.
La memoria está formada por chips que almacenan información que la CPU necesita recuperar rápidamente. La memoria de acceso aleatorio (RAM, siglas en inglés) se emplea para almacenar la información e instrucciones que hacen funcionar los programas de la computadora. Generalmente, los programas se transfieren desde una unidad de disco a la RAM. La RAM también se conoce como memoria volátil, porque la información contenida en los chips de memoria se pierde cuando se desconecta el ordenador. La memoria de lectura exclusiva (ROM, siglas en inglés) contiene información y software cruciales que deben estar permanentemente disponibles para el funcionamiento de la computadora, por ejemplo el sistema operativo, que dirige las acciones de la máquina desde el arranque hasta la desconexión. La ROM se denomina memoria no volátil porque los chips de memoria ROM no pierden su información cuando se desconecta el ordenador.
Algunos dispositivos se utilizan para varios fines diferentes. Por ejemplo, los discos flexibles también pueden emplearse como dispositivos de entrada si contienen información que el usuario informático desea utilizar y procesar. También pueden utilizarse como dispositivos de salida si el usuario quiere almacenar en ellos los resultados de su computadora.
El disco duro de una computadora se utiliza para guardar datos en soporte magnético.
6. Conexiones del hardware
4.

martes, 6 de abril de 2010

ESCRITORIO VIRTUAL

Escritorio virtual. Un ambiente de trabajo que no reside en la computadora.
Archivado en: General — Etiquetas: — ignaciofunes @ 5:40 pm


Mtro. Ignacio Funes Maderey
Cuando encendemos una computadora, esamos acostumbrados a que inmediatamente despues de la secuencia de encendido y de introducir una contraseña, obtenemos un ambiente de trabajo personalizado con la informacion y los programas que cotidianamente utilizamos, sin embargo a todos nos han ocurrido algunas situaciones con las que definitivamente NO podemos utilizar nuestro ambiente de trabajo o bien no podemos explotar todas las capacidades:
1. Mi computadora esta descompuesta2. No estoy cerca de mi computadora3. Se descompuso el disco duro de mi computadora4. Le entro un virus a mi computadora5. Se borro una parte de mi informacion6. No tengo el programa adecuado para abrir un archivo
Pues bien, el escritorio virtual precisamente resuelve todos los problemas anteriores porque, como su nombre lo indica, se trata de un ambiente de trabajo que no se encuentra cargado en la computadora sino que al encender la computadora e introducir la contrasena de usuario, se obtiene el ambiente de trabajo de un servidor central que contiene, entre muchas cosas, el perfil del usuario el cual asimismo incluye su contraseña, los programas que utiliza, la informacion del usuario y permisos de lo que puede hacer dentro del ambiente de trabajo.
Efectivamente, este concepto de escritorio virtual va muy relacionado con la tecnologia de computo delgado, ya que los equipos de computo que se requieren no necesitan de muchos recursos de hardware para operar.
Los escritorios virtuales es una tecnologia de vanguardia aplicable a organizaciones, pero cabe mencionar que hay algunas companias que ya ofrecen servicios de escritorio virtual por internet lo que te permitira trabajar con cualquier sistema operativo y programas asi como tener todo tu ambiente de trabajo en cualquier lugar en donde haya una computadora y tendras acceso a toda tu informacion tal y como hoy lo haces con tu propia computadora pero de una forma mucho mas flexible y que no dependas de la computadora.
Dejar un comentario
Computo delgado….que es?
Archivado en: General — Etiquetas: , — ignaciofunes @ 5:02 pm
Mtro. Ignacio Funes Maderey
Hoy, las computadoras son herramientas cotidianas de trabajo. Sin embargo para las organizaciones que realizan adquisiciones ano con ano, les surge la pregunta de si los usuarios de estos equipos realmente sacan todo el provecho del poder de computo que estos paratos ofrecen?. Efectivamente esto es un tema de costo-beneficio y es que las organizaciones tienen que lidiar con equipar a sus empleados con herramientas que les permitan trabajar de manera mas eficiente pero tambien disminuir los costos al maximo.
Computo delgado es un nuevo concepto de computo que entre los multiples beneficios permite a las organizaciones equipar a sus usuarios con herramientas de computo que brindan los siguientes beneficios:
Disminuir costos de licenciamiento
Disminuir en un 100 por ciento los riesgos de virus
Evitar fugas de informacion que se genera dentro de la misma organizacion
Ampliar la vida util de los dispositivos de computo hasta 3 veces mas
Disminuir los costos de mantenimiento y soporte de los equipos de computo
Disminuir las fallas tecnicas asociadas a estos equipos
Ampliar las posibilidades de las aplicaciones que se pueden utilizar sin depender de las caracteristicas del hardware
Este concepto se basa en una computadora que esta equipada con lo minimo para operar y que a traves de un software que permite publicar las aplicaciones que requiere un cierto perfil de usuario para trabajar, brinda todas las posibilidades de computo que realmente se requiere, es decir, los recursos de computo que no se usan como lo son: mucha capacidad de almacenamiento (disco duro), procesador robusto, y mucha memoria asi como la precarga de un sistema operativo completo con funcionalidades que no se usan y aplicaciones que tampoco se usan NO se requieren!!! lo cual permite tener solo lo necesario para operar.
La idea de computo delgado no es nuevo, esto tiene mas de 15 años pero la aplicacion de este concepto en los usuarios de una organizacion si es nuevo. Y es que este concepto tambien ofrece mucho control y mucha seguridad en la informacion que se genera dentro de la organizacion porque al no tener los equipos de computo un disco duro, la informacion de los usuarios radica en un sitio central.
Este concepto permitirá al gobierno del estado de mexico, disminuir en los costos de computadoras y evitar la brecha que hay entre modelos de computadoras de tal manera que las computadoras viejas puedan ampliar su vida util y que las nuevas computadoras delgadas permitan equipar a mas personas y que ellas puedan usar las aplicaciones que requieran sin limitarse por el hardware.

CONECTIVIDAD INALAMBRICA

Avances en Tecnología Informática
Noviembre 29, 2007
Más sobre conectividad inalámbrica…
Archivado en: General — Etiquetas: , , , — ignaciofunes @ 10:35 am
Mtro. Ignacio Funes
Hace ya unos 6 años que la conectividad inalámbrica tomo bríos acelerados en cuanto a su desarrollo masivo y no se diga en cuanto a su adopción. Hoy es evidente que las redes inalámbricas han llegado a las casas y a lugares que antes no se hubiera pensado como hoteles, carreteras, aeropuertos e incluso en el interior de algunos aviones.
Es claro que la tecnología inalámbrica es muy útil y el mayor beneficio es la movilidad de los usuarios de tal manera que puedan estar consultando Internet o el correo electronico desde una computadora con la cual se utilizan otras herramientas de trabajo (software) que en una pda o dispositivo móvil con funcionalidades de teléfono celular no se tienen.
Sin embargo, el avance de la tecnología inalámbrica hoy atiende la conectividad a Internet pero a una escala mayor, es decir, con la tecnología actual inalámbrica o WiFi por sus siglas en ingles el beneficio es para aquellos que tienen acceso a este recurso ya sea con una computadora portátil o con una pda equipada con wifi, pero cuando se trata de conectar instituciones o personas que no tienen acceso a un medio de conectividad en su entorno por estar en lugares muy apartados o bien porque simplemente los servicios de conectividad a Internet como celular, adsl o cable son escasos, las cosas se complican y la brecha digital se hace mas grande.
Para ello, la tecnología wimax llego para precisamente permitir la conectividad inalámbrica de banda ancha (alta velocidad) a esos sitios que carecen de medios que permitan a la gente y a las organizaciones a conectarse a Internet y en consecuencia a los servicios que con ello se ofrecen.
Es evidente que la tecnología wimax no llega de la nada. Para ello se requiere que “alguien” ponga la infraestructura para poder conectar a todos.
Ese alguien tiene que ser una empresa privada, el gobierno o bien una combinación. Sin embargo, es importante mencionar que la tecnología es de vanguardia y que las empresas privadas apenas están pensando como hacer las cosas.
Pero una responsabilidad del gobierno es ser moderno y rápido para atraer aquellas tecnologías de vanguardia que serán la punta de lanza en la conectividad para los siguientes 8 años. Es por eso que el gobierno esta contemplando un proyecto para llevar mas servicios médicos como la teleconsulta especializada en donde los pacientes podrán acudir a un hospital o centro de salud y recibir atención especializada de algún medico del centro medico sin necesidad de viajar tanto tiempo, contenido educativo en donde los estudiantes podrán tener acceso a medios interactivos de educación y los maestros herramientas que complementen los programas de estudio además de videoconferencias con otros países y también para estar mas cerca de los mexiquenses a través del uso de la tecnología wimax.
Dejar un comentario
Noviembre 20, 2007
Outsourcing en desborde. Piloto automático para la operación de TI
Archivado en: General — Etiquetas: , , — ignaciofunes @ 2:50 pm
Mtro. Ignacio Funes Maderey
El outsourcing es una herramienta que les permite a las organizaciones mantener toda o alguna parte de su operación funcionando sin tener que administrarla directamente. (Entiéndase por administrar a los insumos, recursos humanos, etc. que esto conlleva)
En general, el outsourcing se ofrece como un servicio y resulta atractivo contablemente para efectos de quienes lo contratan. Sin embargo, también es una herramienta que puede resultar costosa para algunas organizaciones y muchas veces no se realiza el adecuado análisis para determinar si se requiere, en dónde se requiere, cuándo y durante cuánto tiempo.
Es claro que el outsourcing es una herramienta que puede aportar valor para las empresas e incluso en diferentes fases de su misma operación.
La manera más común de contratar un outsourcing es hacerlo mediante la contratación de toda la administración de uno o varios procesos. No obstante, pueden existir variantes que hacen más flexible la contratación de un ourtsourcing como lo podría ser el outsourcing en desborde.
Cuando el outsourcing está presente en una organización es porque el proceso externalizado no forma parte del centro de enfoque de ella y con esto se consigue mayor efectividad que permite orientar los esfuerzos de la organización a sus necesidades más importantes (en el caso de que el proceso externalizado si fuere muy importante, entonces se trata de una maquila). En este sentido, el outsourcing viene a complementar la operación diaria pero con recursos externos y bajo reglas que deben quedar muy claras entre el ofertante y el contratante.
Pero en la tarea de analizar las condiciones bajo las cuales se requiere un outsourcing, las organizaciones se encuentran con una decisión binaria de contratar todo, algunos procesos o nada; y es que en la realidad, un outsourcing que no necesariamente se adueña de toda la operación y lo hace gradualmente, podría hacer mucho sentido brindando alternativas de menor costo y podría resultar más flexible su contratación aunque con algunos retos en su implementación.
A diferencia del outsourcing total o selectivo en donde se transfiere el control de todos o de algunos procesos o subprocesos muy especializados y además se planea antes de iniciar su operación, el outsourcing en desborde puede transferir la operación a un tercero para todo un proceso o también para subprocesos, pero solo sucede cuando realmente se requiere, es decir, cuando los recursos internos de la organización en el proceso de que se trate se ven rebasados o bien insuficientes en el tiempo y de pronto se requiere el apoyo de un tercero para fortalecer o bien tomar la operación. Evidentemente el outsourcing en desborde tiene una característica difícil de medir que responde a cuándo es el momento idóneo para transferir la operación y he aquí precisamente lo interesante y complejo de este tipo de outsourcing.
El outsourcing en desborde es un concepto cuyo funcionamiento debe contemplar la responsabilidad del contratante de mantener perfectamente bien informado y en tiempo real al proveedor del proceso o subproceso que se planea asegurar y el ofertante deberá asimismo estar ocupado en conocer la operación del cliente así como los detalles de la misma en tiempo real. Esta articulación de responsabilidades es precisamente el éxito de este tipo de outsourcing y es que a falla de cualquiera de las partes, se incurre en penalizaciones para el cliente o para el proveedor en el sentido de traducirse para ambos en mayores costos. Digamos que la misma mecánica del outsourcing en desborde obliga a ambos a comunicar lo que debe ser comunicado y a conocer lo que debe ser conocido.
Es claro que el elemento de éxito del outsourcing en desborde son las reglas con las cuáles el cliente y proveedor intercambian información para decidir el momento exacto en el que se debe de transferir la operación de un proceso. Para ello es crítico contar con una correcta metodología que defina desde el perfil del personal involucrado, el intercambio de información, las métricas, el conocimiento de las variables que afectan el proceso, penalizaciones, garantías, niveles de servicio, reportes, etc. así como el conocimiento y dominio pleno del proceso en cuestión sobretodo por parte del cliente.
Las ventajas de contar con un outsourcing en desborde es que puede combinar un tipo de outsourcing total o selectivo pero con la ventaja de que la transferencia del control del proceso lo marca la misma operación y sus mismos umbrales. La transferencia del control es dinámico y puede depender de la correlación de otras variables dentro de la organización (se puede combinar con estrategias de inteligencia de negocios). Otra ventaja es que el costo del outsourcing se reduce y posiblemente se pueda reducir al costo de una póliza similar a la de los seguros de autos. También se tiene control interno de los procesos y en ocasiones se puede compartir la operación con el proveedor antes de transferir la totalidad de ella, en donde evidentemente si no se llega a transferir la operación, los costos se mantienen en un rango. El costo podría ser de un 30% del costo de un outsourcing total.
Para algunas organizaciones no es fácil determinar si requieren algún tipo de outsourcing o decidir cuándo contratarlo por lo que recurren a transferir de entrada todo el proceso, sin embargo, este tipo de outsourcing en desborde obliga a las organizaciones a conocer mejor sus procesos y establecer métricas que les permitan tomar decisiones sobre tercerizar la administración en el tiempo. En general, los escenarios de TI son buenos candidatos para outsourcing en desborde.
En nuestro país, este tipo de outsourcing es muy incipiente y son pocos los casos relacionados con seguridad informática o call centers los que empiezan a utilizar este concepto. Pocos proveedores de servicios han adoptado este concepto.
Las organizaciones gubernamentales también son buenos candidatos para contratar este tipo de outsourcing no solo por el costo sino porque en la mayor parte de los casos se cuenta con personal no tan especializado en materia de informática que soporta su operación y en ocasiones no están preparados para atender las demandas de la organización en donde los procesos internos para hacer que se atiendan éstas no son los suficientemente expeditos para lograrlo.

lunes, 15 de marzo de 2010

Inventan un aparato revolucionario contra la sordera

Inventan un aparato revolucionario contra la sordera - 04/09/2002¡EUREKA! ¡LOS SORDOS PUEDEN OÍR CON LOS DIENTES!¡Nada de "sonotones"! ¡Ni de dar voces! ¡Adiós a la "lectura de labios"! A partir de ahora las personas con problemas de audición podrán oír... ¡¿con los dientes?! Nada, nada, toma nota del nombre del aparatito y ya sabes lo que regalar a tu abuela en la próxima fecha señalada...
Meng Shengde, un maestro retirado de 57 años de la ciudad china de Xian, ha inventado un aparato con el que las personas con problemas auditivos pueden "oír" a través de sus dientes, ya que la mandíbula transmite las vibraciones del sonido a los nervios del oído.
El peculiar invento, del que se hace eco hoy la prensa de este país, consiste en una especie de boquilla de cinco centímetros que el paciente muerde con los dientes y conectada por cables, como si fuera un auricular, a una televisión, una radio, un teléfono móvil o cualquier otro aparato emisor de sonido.
Gracias a este aparato, que ha sido probado con éxito por un centenar de personas con problemas de audición, los dientes captan las vibraciones de esos aparatos y son capaces de oír, según asegura el inventor.
La explicación "científica"Meng explica que la sordera es causada normalmente por el deterioro del caracol, que es vital para transmitir las vibraciones a los nervios del oído; según él la mandíbula puede sustituir a ese órgano gracias a su aparato.
Para los escépticos que no crean que los dientes pueden oír, se recomienda que hagan una simple prueba, consistente en tomar una goma elástica, morderla con los dientes, estirarla con una mano y, cuando esté bien tensa, tocarla con la otra mano, como si fuera la cuerda de una guitarra: ¡eureka!(Gracias por la información a Juan Manuel Blanco)

AVANCES TECNOLÓGICOS A FAVOR DE PERSONAS CON DISCAPACIDADPor Licenciada Yanira Soundy - Yanirasoundy2001@yahoo.com (04/06/03)
Es grandioso encontrar noticias en internet sobre avances tecnológicos de ayuda a personas que padecen algún tipo de discapacidad.
La empresa japonesa NTT DoCoMo, subsidiaria de NTT Communications, está trabajando en el desarrollo del primer teléfono que lee los labios, según informó la revista New Scientist. “Aunque todavía falta mucho desarrollo, este teléfono podría terminar con los gritos de los usuarios por sus aparatos, hasta en lugares ruidosos. Todo lo que tienen que hacer es modular sus palabras en silencio, y el teléfono las convierte en palabras o texto”, señaló la publicación. Los ingenieros de NTT DoCoMo han realizado un prototipo del aparato, y esperan poder comercializarlo en el plazo de cinco años. Sensores de contacto ubicados cerca del lugar por donde se habla en el teléfono detectan señales eléctricas enviadas por los músculos alrededor de la boca. Por otro lado, un sintetizador de habla convierte las señales en palabras o texto para un mensaje o correo electrónico. Este teléfono vendrá sin duda alguna a ayudar a la gente que ha perdido la voz, ya sea por mudez o sordera.
Por otra parte, en la Ciudad de México también se está desarrollando tecnología para facilitar la vida de las personas sordas y de los ciegos. En el departamento de Ingeniería electrónica del Instituto Tecnológico de Piedras Negras, los estudiantes elaboraron varios proyectos, entre ellos, un convertidor de sonido en vibraciones táctiles. ”Su utilidad principal es la de proveer al individuo con deficiencia auditiva una entrada al mundo del sonido y en caso especial para los niños con problemas de audición, aquellos que nacieron con sordera o que perdieron este sentido, para que aprendan el lenguaje y habla desde temprana edad”, señalan los autores del proyecto. Entre los proyectos de los estudiantes del departamento de Ingeniería electrónica del Instituto Tecnológico de Piedras Negras tenemos: un sistema que permite a los ciegos detectar obstáculosa distancia y orientarse mediante un auricular; un guante que convierte el lenguaje de señas en lenguaje auditivo. Y un dispositivo que es un adaptador telefónico para facilitar la comunicación de una persona con discapacidad auditiva y de lenguaje mediante el teléfono.
Argentina no se queda atrás, el Canal 7 y la Asociación Argentina de Sordos han presentado por primera vez para Argentina y Latinoamérica la tecnología Closed Caption on line, subtítulos opcionales en vivo. Esta tecnología permite que mas de tres millones de personas con dificultades auditivas, puedan recibir la misma información que el resto de la comunidad con solo una opción del menú del control remoto del televisor. Es una herramienta de comunicación y educativa que promueve la real y amplia participación de las personas sordas, fortaleciendo sus procesos de integración.
En Madrid, el Diario ABC nos informa que ya existe en informática un personaje llamado Simon. Este presentador virtual puede captar las palabras habladas oralmente al lenguaje de los signos. Simón habla a las personas sordas. Gracias a la ayuda de diversas instituciones británicas, este personaje traduce al lenguaje de los sordos todo lo que dicen los locutores de la televisión, un ordenador los traduce al lenguaje de las personas sordas y el personaje los reproduce, apareciendo en una esquina de la pantalla.
Televirtual utiliza un sistema avanzado de movimiento y animación en 3D para producir este “locutor”. Para lograr lo anterior, graba el lenguaje de los signos hablados para una persona y de ellos extrae la versión virtual. El director de la investigación de Televirtual, Mark Wells, explica : «Este ha sido nuestro trabajo más difícil hasta ahora. Nos exige captar los movimientos del cuerpo, de la mano y la expresión de la cara con gran detalle y , después, reproducirlos con total claridad para que los sordos entiendan el lenguaje como si lo hablara una persona«
Otra tecnología que llama nuestra atención es el modem telefónico (que al poco tiempo completamos con el modem radial). Fue una demostración de la recuperación del teléfono para el usuario con deficiencias auditivas. Si revisamos nuestros apuntes sobre los inventores sin duda encontraremos a Graham Bell quién construyó el teléfono y sin desearlo excluyó a los sordos e hipoacúsicos del mundo de las telecomunicaciones. Esto representó una gran tristeza para él pues Bell era profesor de sordos, estaba casado con una mujer sorda y todos sus esfuerzos estaban encaminados para mejorar la comunicación con ellos. Gracias a Dios cien años más tarde la telemática digital salvó la situación y hoy las personas sordas pueden usar el teléfono vía MODEM, por lo que es esencial que los niños deficientes auditivos (sordos) aprendan a hacerlo desde pequeños.
Ahora sonreímos al ver como las computadoras parecen estar diseñadas expresamente para una persona con discapacidad auditiva. El modem es el nexo perfecto con el teléfono y así se ha logrado realizar las primeras comunicaciones por computadora entre escuelas de sordos de los EE.UU. y de la Argentina con el mayor de los éxitos (¡a sólo 300 bps!), cuando pocos imaginaban una conexión telefónica entre deficientes auditivos.
En nuestro país, hace ya varios años, las noticias de una cadena de televisión eran traducidas al lenguaje de señas y transmitidas en un recuadro en una esquina de la pantalla, en ese entonces era Fátima Stubig quién daba las noticias a las personas sordas. Lamentablemente, las traducciones fueron suspendidas y ya no hubo ninguna comunicación con este sector de la población.
Pienso que ahora es un buen momento para reiniciar este camino y volver a incluir la traducción de las noticias al lenguaje de señas; colocar subtítulos a las principales series y películas; crear cibercafes para personas sordas, etc.
Nuestro país ya está tomando conciencia de estas necesidades, pruebas de ello son la Ley de Equiparación de Oportunidades para las Personas con Discapacidad y su Reglamento, la Política Nacional de Atención Integral a las Personas con Discapacidad, las entidades de servicio dispuestas a colaborar, pero para aprovechar todas las oportunidades que puedan irse dando en el camino, es necesario que nos informemos, sólo así abriremos los espacios necesarios para desarrollar toda la capacidad laboral y creadora de estas minorías.

Redes de sensores sin cable

Redes de sensores sin cable
Una de las tecnologías que cambiarán el mundo según MIT Technology Review son las redes de sensores sin cable. ¿Qué son redes de sensores sin cable? Son redes de nano aparatos autónomos capaces de una comunicación sin cable y suponen uno de los avances tecnológicos más investigados en la actualidad. A través de redes de sensores, se puede integrar funcionalidades que antes eran independientes unas de otras, con el fin de lograr máxima eficiencia sobre todo en los campos de consumo y gestión de energía. Las redes de sensores con cable no son nuevas y sus funciones incluyen medir niveles de temperatura, líquido, humedad etc. Muchos sensores en fábricas o coches por ejemplo, tienen su propia red que se conecta con un ordenador o una caja de controles a través de un cable y, al detectar una anomalía, envían un aviso a la caja de controles. La diferencia entre los sensores que todos conocemos y la nueva generación de redes de sensores sin cable es que estos últimos son inteligentes (es decir, capaces de poner en marcha una acción según la información que vayan acumulando) y no son limitados por un cable fijo. Pero nuevos avances en la fabricación de microchips de radio, nuevas formas de routers y nuevos programas informáticos relacionados con redes están logrando eliminar los cables de las redes de sensores, multiplicando así su potencial. Las redes de sensores pueden utilizar distintas tecnologías de sin cable, incluyendo IEEE 802.11, LANS sin cable, Bluetooth y identificación de la frecuencia de radio. Actualmente se trabaja con radios de baja frecuencia con un alcance de hasta 80 metros y velocidades de hasta 300 Kb/segundo. Las últimas investigaciones apuntan hacia una eventual proliferación de redes de sensores inteligentes, redes que recogerán enormes cantidades de información hasta ahora no registrada que contribuirá de forma favorable al buen funcionamiento de fábricas, al cuidado de cultivos, a tareas domésticas, a la organización del trabajo y a la predicción de desastres naturales como los terremotos. En este sentido, la computación que penetra en todas las facetas de la vida diaria de los seres humanos está a punto de convertirse en realidad. Aunque la tecnología relacionada con las redes de sensores sin cable está todavía en su primera fase, equipos de investigación en la Universidad de California Berkeley ya han fabricado una caja que se puede adaptar a muchos tipos de sensores. Los científicos utilizan los sensores sin cable para encontrar y controlar microclimas y plagas en plantaciones de uva, para estudiar los hábitos de aves y para controlar sistemas de ventilación y calefacción. En la Universidad de California Los Angeles, investigadores utilizan las redes de sensores sin cable para recibir información detallada sobre el efecto de los movimientos sísmicos en los edificios. Si los avances tecnológicos en este campo siguen a la misma velocidad que han hecho en los últimos 2 años, las redes de sensores sin cable revolucionará la capacidad de interacción de los seres humanos con el mundo.

martes, 2 de marzo de 2010

software seguro y fiable

Software fiable y seguro (Software Assurance)


El pretigioso MIT identificó 10 tecnologías emergentes que cambiarán el mundo

Software seguro y fiable (Software Assurance). Los ordenadores se averían - es un hecho ya contrastado por la experiencia diaria. Y cuando lo hacen, suele ser por un virus informático. Cuando se trata de un sistema como control aéreo o equipos médicos, el coste de un virus pueden ser vidas humanas. Para evitar tales escenarios, se investigan herramientas que produzcan software sin errores. Trabajando conjuntamente en MIT, investigadores Lynch y Garland han desarrollado un lenguaje informático y herramientas de programación para poder poner a prueba modelos de software antes de elaborarlo.
Ficha: SOFTWARE ASSURANCE RESEARCHER PROJECT
Gerard Holzmann (Bell Labs) Software to detect bugs in networked computers
Charles Howell (Mitre) Benchmarks for software assurance
Charles Simonyi (Intentional Software) Programming tools to improve software
Douglas Smith (Kestrel Institute) Mechanized software development
Fuente: Technology Review (MIT)