viernes, 4 de febrero de 2011

VIRTUALIZACIÓN

En informática, virtualización se refiere a la abstracción de los recursos de una computadora, llamada Hypervisor o VMM (Virtual Machine Monitor) que crea una capa de abstracción entre el hardware de la máquina física (host) y el sistema operativo de la máquina virtual (virtual machine, guest), siendo un medio para crear una versión virtual de un dispositivo o recurso, como un servidor, un dispositivo de almacenamiento, una red o incluso un sistema operativo, donde se divide el recurso en uno o más entornos de ejecución.

Esta capa de software (VMM) maneja, gestiona y arbitra los cuatro recursos principales de una computadora (CPU, Memoria, Red, Almacenamiento) y así podrá repartir dinámicamente dichos recursos entre todas las máquinas virtuales definidas en el computador central. De modo que nos permite tener varios ordenadores virtuales ejecutándose sobre el mismo ordenador físico.

Tal término es antiguo; se viene usando desde 1960, y ha sido aplicado a diferentes aspectos y ámbitos de la informática, desde sistemas computacionales completos, hasta capacidades o componentes individuales. Lo más importante en este tema de virtualización es la de ocultar detalles técnicos a través de la encapsulación.

La virtualización se encarga de crear una interfaz externa que esconde una implementación subyacente mediante la combinación de recursos en localizaciones físicas diferentes, o por medio de la simplificación del sistema de control. Un avanzado desarrollo de nuevas plataformas y tecnologías de virtualización han hecho que se vuelva a prestar atención a este importante concepto. De modo similar al uso de términos como “abstracción” y “orientación a objetos”, virtualización es usado en muchos contextos diferentes.

Este concepto que es realmente interesante y que se lleva desarrollando desde hace muchos años, parece que finalmente está encontrando sus caminos productivos y de desarrollo para profesionales.

La máquina virtual en general es un sistema operativo completo que corre como si estuviera instalado en una plataforma de hardware autónoma. Típicamente muchas máquinas virtuales son simuladas en un computador central. Para que el sistema operativo “guest” funcione, la simulación debe ser lo suficientemente grande (siempre dependiendo del tipo de virtualización).

Virtualización de plataforma:

Esta involucra la simulación de máquinas virtuales. La virtualización de plataforma se lleva a cabo en una plataforma de hardware mediante un software "host" (en castellano “anfitrión”), que es un programa de control que simula un entorno computacional (máquina virtual) para su software "guest" (en castellano "invitado"). Este software “guest”, que generalmente es un sistema operativo completo, se ejecuta como si estuviera instalado en una plataforma de hardware autónoma. Típicamente muchas máquinas virtuales son simuladas en una máquina física dada. Para que el sistema operativo “guest” funcione, la simulación debe ser lo suficientemente grande como para soportar todas las interfaces externas de los sistemas guest, las cuales se pueden incluir (todo esto dependiendo del tipo de virtualización) los drivers de hardware.
Tipos de Virtualización de plataforma
A continuación se enunciarán algunos tipos de virtualización.

Virtualización completa:

Esta es en donde la máquina virtual simula un hardware suficiente para permitir un sistema operativo “guest” sin modificar (uno diseñado para la misma CPU) para correr de forma aislada. Típicamente, muchas instancias pueden correr al mismo tiempo. Este enfoque fue el pionero en 1966 con CP-40 y CP[-67]/CMS, predecesores de la familia de máquinas virtuales de IBM.

Ejemplos:

  • VMware Workstation
  • VMware Server
  • Parallels Desktop
  • Virtual Iron
  • Adeos
  • Win4BSD
  • Win4Lin Pro
  • y z/VM
  • openvz
  • Oracle VM
  • XenServer
  • Microsoft Virtual PC 2007
  • Hyper-V

Virtualización parcial:

“Address Space Virtualization”. La máquina virtual simula múltiples instancias de gran parte (pero no de todo) del entorno subyacente del hardware, particularmente address spaces. Tal entorno acepta compartir recursos y alojar procesos, pero no permite instancias separadas de sistemas operativos “guest”. Aunque no es vista como dentro de la categoría de máquina virtual, históricamente éste fue un importante acercamiento, y lo usaron en sistemas como CTSS, el experimental IBM M44/44X, y podría mencionarse que en sistemas como OS/VS1, OS/VS2 y MVS.

Virtualización por S.O:

Virtualizar significa instalar un sistema operativo dentro de otro al que se le llama guest (invitado), mediante el uso de una máquina virtual. Frecuentemente denominada virtualización compartida del Sistema Operativo o virtualización del SO, la virtualización del Sistema Operativo virtualiza servidores en la capa del sistema operativo (kernel). Este método de virtualización crea particiones aisladas o entornos virtuales (VEs) en un único servidor físico e instancia de SO para así maximizar los esfuerzos de administración del hardware, software y centro de datos. La Virtualización de Hypervisor tiene una capa base (generalmente un kernel, Linux que se muestra aquí como un hypervisor o SO estándar) que se carga directamente en el servidor base. Para asignar hardware y recursos a las máquinas virtuales (VMs), es recomendable que todo el hardware del servidor esté virtualizado. La siguiente capa superior muestra cada chip, placa, etc. que debe virtualizarse para que así pueda ser asignado a las VMs. Una vez en la VM, hay un copia completa de un sistema operativo y finalmente la aplicación o carga de trabajo.
La Virtualización de SO mejora el rendimiento, gestión y eficiencia. En la base reside un sistema operativo huésped estándar, en el caso de Parallels Virtuozzo que incluye Windows y Linux. A continuación encontramos la capa de virtualización, con un sistema de archivos propietario y una capa de abstracción de servicio de kernel que garantiza el aislamiento y seguridad de los recursos entre distintos contenedores. La capa de virtualización hace que cada uno de los contenedores aparezca como servidor autónomo. Finalmente, el contenedor aloja la aplicación o carga de trabajo.

Diferencias entre virtualizar un Sistema operativo e instalarlo:

Virtualizar el sistema operativo es una opción interesante si no queremos instalar dos sistemas operativos en el mismo ordenador, pero si por el contrario lo que hacemos es instalarlo, todos los sistemas operativos que tengamos instalados funcionaran de la misma manera que si estuvieran instalados en distintos ordenadores.
El único y pequeño inconveniente es que necesitamos un gestor de arranque que al encender nuestro ordenador nos de la opción de elegir que sistema operativo queremos utilizar, lo que conlleva a que si por ejemplo estamos en Windows y queremos cambiar a Linux deberíamos reiniciar nuestro ordenador. La virtualización por el contrario permite cambiar de sistema operativo como si se tratase de cualquier otro programa, sin embargo, esta agilidad tiene la desventaja de que un sistema operativo virtualizado no es tan potente como uno que ya estuviera instalado.

Retos de la Virtualización:

  • Índices de utilización más altos — Antes de la virtualización, los índices de utilización del servidor y almacenamiento en los centros de datos de la empresa rondaban menos del 50% (de hecho, del 10% al 15% de los índices de utilización fueron los mas comunes). A través de la virtualización, las cargas de trabajo pueden ser encapsuladas y transferidas a los sistemas inactivos o sin uso — lo cual significa que los sistemas existentes pueden ser consolidados, así que las compras de capacidad adicional del servidor pueden ser retrasadas o evitadas.
  • Consolidación de Recursos — La virtualización permite la consolidación de múltiples recursos de TI. Más allá de la consolidación de almacenamiento, la virtualización proporciona una oportunidad para consolidar la arquitectura de sistemas, infraestructura de aplicación, datos y base de datos, interfaces, redes, escritorios, e incluso procesos de negocios, resultando en ahorros de costo y mayor eficiencia.
  • Uso/costo menor energía — La electricidad requerida para que funcionen los centros de datos de clase empresarial ya no está disponible en suministros ilimitados, y el costo está en una espiral ascendente. Por cada dólar gastado en un servidor hardware, un dólar adicional es gastado en energía (incluyendo el costo de los servidores en función y los enfriadores). Utilizando virtualización para consolidar hace posible cortar el consumo total de energía y ahorrar dinero de una manera significativa.
  • Ahorros de espacio — La extensión del servidor permanece como un serio problema en la mayoría de los centros de datos empresariales, pero la expansión del centro de datos no es siempre una opción, con los costos de construcción promediando miles de dólares por pie cuadrado. La virtualización puede aliviar la tensión mediante la consolidación de muchos sistemas virtuales en menos sistemas físicos.
  • Recuperación de desastre/continuidad del negocio — La virtualización puede incrementar la disponibilidad de los índices del nivel de servicio en general y proporcionar nuevas opciones de soluciones para la recuperación de desastre.
  • Costos de operación reducidos — La empresa promedio gasta $8 dólares en mantenimiento por cada $1 dólar invertido en nueva infraestructura. La virtualización puede cambiar el radio de servicio-a administración reducir la total carga de trabajo administrativo, y cortar el total de costos de operación.

Ventajas de la Virtualización:

  • Rápida incorporación de nuevos recursos para los servidores virtualizados.
  • Reducción de los costes de espacio y consumo necesario de forma proporcional al índice de consolidación logrado (Estimación media 10:1).
  • Administración global centralizada y simplificada.
  • Nos permite gestionar nuestro CPD como un pool de recursos o agrupación de toda la capacidad de procesamiento, memoria, red y almacenamiento disponible en nuestra infraestructura
  • Mejora en los procesos de clonación y copia de sistemas: Mayor facilidad para la creación de entornos de test que permiten poner en marcha nuevas aplicaciones sin impactar a la producción, agilizando el proceso de las pruebas.
  • Aislamiento: un fallo general de sistema de una máquina virtual no afecta al resto de máquinas virtuales.
  • Mejora de TCO y ROI.
  • No sólo aporta el beneficio directo en la reducción del hardware necesario, sino también los costes asociados.
  • Reduce los tiempos de parada.
  • Migración en caliente de máquinas virtuales (sin pérdida de servicio) de un servidor físico a otro, eliminando la necesidad de paradas planificadas por mantenimiento de los servidores físicos.
  • Balanceo dinámico de máquinas virtuales entre los servidores físicos que componen el pool de recursos, garantizando que cada máquina virtual ejecute en el servidor físico más adecuado y proporcionando un consumo de recursos homogéneo y óptimo en toda la infraestructura.
  • Alto grado de satisfacción general.
Tipos de virtualización
La virtualización se puede hacer desde un sistema operativo Windows, ya sea XP, Vista u otra versión que sea compatible con el programa que utilicemos, en el que virtualizamos otro sistema operativo como Linux o viceversa, que tengamos instalado Linux y queramos virtualizar una versión de Windows.

Virtualización por (Hardware):

Virtualización asistida por Hardware son extensiones introducidas en la arquitectura de procesador x86 para facilitar las tareas de virtualización al software corriendo sobre el sistema. Si cuatro son los niveles de privilegio o "anillos" de ejecución en esta arquitectura, desde el cero o de mayor privilegio, que se destina a las operaciones del kernel de SO, al tres, con privilegios menores que es el utilizado por los procesos de usuario, en esta nueva arquitectura se introduce un anillo interior o ring -1 que será el que un hypervisor o Virtual Machine Monitor usará para aislar todas las capas superiores de software de las operaciones de virtualización.

La virtualización de almacenamiento:

Se refiere al proceso de abstraer el almacenamiento lógico del almacenamiento físico, y es comúnmente usado en SANs ("Storage Area Network" Red de área de almacenamiento). Los recursos de almacenamiento físicos son agregados al "storage pool" (almacén de almacenamiento), del cual es creado el almacenamiento lógico.

Particionamiento:

Es la división de un solo recurso (casi siempre grande), como en espacio de disco o ancho de banda de la red, en un número más pequeño y con recursos del mismo tipo que son más fáciles de utilizar. Esto es muchas veces llamado “zoning”, especialmente en almacenamiento de red.

Máquina virtual:

La entenderemos básicamente como un sistema de virtualización, denominado "virtualización de servidores", que dependiendo de la función que esta deba de desempeñar en la organización, todas ellas dependen del hardware y dispositivos físicos, pero casi siempre trabajan como modelos totalmente independientes de este. Cada una de ellas con sus propias CPUs virtuales, tarjetas de red, discos etc. Lo cual podría especificarse como una compartición de recursos locales físicos entre varios dispositivos virtuales.

MEZCLA DE INFORMACIÓN REAL Y VIRTUAL.


En la actualidad, la realidad virtual se plasma en una multiplicidad de sistemas, el más conocido de los cuales es el que ha desarrollado la empresa norteamericana VPL Research (Visual Programming Language), con la que la NASA trabaja en estrecha colaboración en el desarrollo de sus propias aplicaciones.

Se desarrolló una arquitectura básica para el desarrollo de una variedad casi ilimitada de laboratorios virtuales. En ellos, los científicos de disciplinas muy diversas son capaces de penetrar en horizontes antes inalcanzables gracias a la posibilidad de estar ahí: dentro de una molécula, en medio de una violenta tormenta o en una galaxia distante.

Profesionales de otros campos, como la medicina, economía y exploración espacial, utilizan los laboratorios virtuales para una gran variedad de funciones. Los cirujanos pueden realizar operaciones simuladas para ensayar las técnicas más complicadas, antes de una operación real. Los economistas exploran un modelo de acción de un sistema económico para poder entender mejor las complejas relaciones existentes entre sus distintos componentes.

Los astronautas tienen la posibilidad de volar sobre la superficie simulada de un planeta desconocido y experimentar la sensación que tendrían si estuvieran allí.
Los arquitectos pueden hacer que sus clientes, enfundados en cascos y guantes, visiten los pisos-piloto en un mundo de Realidad Virtual, dándoles la oportunidad de que abran las puertas o las ventanas y enciendan o apaguen las luces del apartamento. Por otra parte, permite la anticipación de errores de diseño y experiencias físicas con ambientes no construidos.

Con el fin de simplificar las comunicaciones con los inversores de otros países, se ha modelizado por completo en sistema VPL, el proyecto de acondicionamiento del puerto de Seattle. Ambas partes juegan así sus cartas virtuales en el proyecto, sobrevolando los canales y obras portuarias y acercándose a ellas para apreciar los detalles con sólo flexionar los dedos.

El ámbito científico no se queda al margen, investigadores de la Universidad de Carolina del Sur estudian moléculas complejas, desplazando grupos de átomos mediante un instrumento, una simbiosis entre los punteros (del tipo del ratón) y el Dataglove.

En el área de defensa y de la investigación espacial o nuclear, donde se han producido los avances más espectaculares. Thomson-Militaire dispone de un sistema utilizado para simulaciones calificadas de alto secreto. El CNRS y la Comexe poseen, asimismo equipos que les permiten realizar simulaciones en medios hostiles: reparaciones en el interior de un reactor nuclear, por ejemplo, la NASA realiza prácticas de montaje de satélites a distancia utilizando técnicas de Realidad Virtual.

En Francia Videosystem utiliza el sistema Jaron Lanier para aplicaciones de apoyo a largometraje en cuanto a las cámaras, vestuario de actores, escenarios y otros.


Dado que se trata de una tecnología en plena evolución, cualquier definición actual de Realidad Virtual debe ser considerada solo con carácter transitorio, sin embargo podemos decir que:
La realidad virtual es simulación por computadora, dinámica y tridimensional, con alto contenido gráfico, acústico y táctil, orientada a la visualización de situaciones y variables complejas, durante la cual el usuario ingresa, a través del uso de sofisticados dispositivos de entrada, a "mundos" que aparentan ser reales, resultando inmerso en ambientes altamente participativos, de origen artificial.

  • Responde a la metáfora de "mundo" que contiene "objetos" y opera en base a reglas de juego que varían en flexibilidad dependiendo de su compromiso con la Inteligencia Artificial.
  • Se expresa en lenguaje gráfico tridimensional.
  • Su comportamiento es dinámico y opera en tiempo real.
  • Su operación está basada en la incorporación del usuario en el "interior" del medio computarizado.
  • Requiere que, en principio haya una "suspensión de la incredulidad" como recurso para lograr la integración del usuario al mundo virtual al que ingresa.
  • Posee la capacidad de reaccionar ante el usuario, ofreciéndole, en su modalidad más avanzada, una experiencia inmersiva, interactiva y multisensorial.

El desarrollo de computadoras más veloces, el crecimiento de las memorias RAM y la miniaturización siempre creciente de los componentes junto a los avances en el diseño de sofisticados programas de gráfica han hecho aparecer en las pantallas "mundos" completamente artificiales. El film "El hombre del jardín" ha sido especialmente ilustrativo acerca de este nuevo campo llamado "realidad virtual". Esta nueva expresión ya está entrando en el lenguaje diario, aunque algunas veces en forma no muy apropiada. ¿Qué es, en verdad, una realidad "virtual?" ¿Qué es lo que, en computación o en teleinformática, podemos llamar con propiedad "realidad virtual?" ¿Puede tener importancia fuera del mero ámbito de la recreación (juegos de computadoras)? ¿Afecta la enseñanza, especialmente en la universidad?

Vivimos en una época de Realidad Virtual. Creemos que todo es real a nuestro alrededor, sin embargo en gran parte es gran medida ficción. Por tanto, ficción, mulación, que asimilamos a través de los canales que tenemos a disposición: desde la TV hasta las revistas.

La Realidad es la cualidad o estado de ser real o verdadero.

Lo virtual es lo que resulta en esencia o efecto, pero no como forma, nombre o hecho real.
El scrolling de toda computadora ejemplifica la RV, al hacer scrolling de un mapa el usuario tiene la facilidad de que con el Mouse puede ir viendo la parte del mapa que prefiera, esto da la sensación de ir navegando por el mapa, pero este no está en ningún lado, ya que no es cierto que la computadora este viendo ese pedazo del mapa y lo demás esté oculto en el espacio, ya que lo que se está viendo no se encuentra en ningún lado, porque la información está en el disco y al darle la instrucción a la máquina de que busque la información esta la busca en el rígido y la procesa a tal velocidad que la impresión que le da al usuario es que el mapa está ahí pero en realidad, no existe.

Trabajo enviado por:
Javier B. Galeano G.

MODELADO DEL CONTEXTO.

Las aplicaciones y servicios contextuales, entendiendo como tales a aquellos que analizan, evalúan y reaccionan de acuerdo al contexto en el que están siendo usados, son una de las áreas más prometedoras para mejorar la experiencia de usuario, ayudar a las personas a mejorar su calidad de vida y ofrecer nuevas vías de explotación del conocimiento a empresas como los operadores globales de telecomunicaciones. Por ello este artículo tratará de ofrecer una breve descripción de la generación y uso del contexto. Para facilitar su lectura se ha estructurado en forma de preguntas y respuestas, de forma que podría considerarse una PMB (Preguntas Más Básicas) sobre el contexto.

¿Qué es el contexto?

Paradójicamente esta es probablemente una de las cuestiones más difíciles, ya que la definición de lo que es contexto depende precisamente… del contexto.
Restringiéndonos al área de procesado de información, el uso del término surge relacionado con las ideas sobre computación ubicua (ubiquitous computing o pervasive computing).  Se puede definir como toda información que caracteriza al entorno en el cual se ejecuta una aplicación o servicio. Es por tanto una definición relativa (depende de qué aplicación estamos considerando, para saber qué son datos centrales y qué es contexto: los datos de una aplicación pueden ser el contexto de otra). Otro rasgo destacado del contexto, que aparece de forma recurrente, es su validez temporal. Al ser dinámico, evoluciona deprisa, luego siempre se sobreentiende que hablamos del contexto de ahora. El contexto debe ser procesado en tiempo real.

¿Para qué sirve el contexto?

De forma muy concisa, para enriquecer servicios. Los sistemas conscientes del contexto (context-aware systems) son potencialmente capaces de adaptarse mucho mejor y de forma automática a las condiciones de entorno, y por tanto proporcionar un mejor servicio. Para ello, tienen que extraer o adquirir ese contexto de forma precisa, procesarlo para obtener la información necesaria para la aplicación y usarlo para personalizar ésta.
Dentro de todo el abanico de servicios contextuales el segmento más característico hoy en día son los servicios de información en red, que presuponen una conectividad desde un dispositivo de usuario (un terminal, fijo o móvil) hacia unos proveedores de información en red. No es el único modo de uso, ya que contexto es una definición general que puede aplicarse en muchas situaciones. Aplicaciones de inteligencia ambiental reaccionan también al contexto del usuario; éste podría interactuar con el entorno en formas distintas al uso de terminales clásicos (por ejemplo mediante wearable computing). Incluso dentro del entorno tradicional es posible utilizar el contexto en formas nuevas de interacción, como en aplicaciones de realidad aumentada.

¿Qué grados de contexto hay?

Existen muchas clasificaciones de contexto (tantas como definiciones). Una posible es por grados de aplicación: Considerando sólo el contexto de personas, y en función de a quien aplica, podríamos dividirlo en:
  • Contexto individual: información contextual que concierne a o describe el entorno de una persona o entidad concreta
  • Contexto de grupo: información extraída de un grupo de personas (una familia, los pasajeros de un tren, un grupo de amigos, los asistentes a una conferencia); no se trata de la mera agregación de los contextos individuales sino que es necesario considerar qué propiedades de contexto propagar al grupo entero, y si la existencia del grupo provoca la aparición de nuevas propiedades no aplicables a título individual.
  • Contexto colectivo: se distingue del contexto de grupo en su agregación a gran escala. Son contextos de aplicación a poblaciones grandes, y en ellos lo importante es determinar qué rasgos (con el margen de error considerado) son generalizables a las poblaciones objeto de análisis.

¿Cuáles son los tipos de contexto?

Otra posible clasificación es por fuentes de contexto (de dónde se extrae) Así podemos enumerar una serie de rasgos que componen el contexto de una persona (los contextos aplicados a grupos o colectivos recolectarían estos tipos de cada uno de sus miembros):
  • Contexto espacial. Supone, en primera instancia la localización física del usuario, y en segunda instancia tanto la interpretación semántica (“está en casa”, “en el trabajo”, “en el coche”) como el marco de ese contexto espacial (qué hay alrededor, quién hay cerca del usuario).
  • Contexto temporal. De nuevo en primera instancia es el instante de tiempo actual, y una segunda evaluación tiene las dos vertientes de interpretación semántica (“es por la mañana en día laborable”, “es la hora de sacar a pasear al perro”) y de marco temporal a corto plazo (“queda media hora para que salga del trabajo”, “ha comido hace poco”).
  • Contexto ambiental: se puede considerar como una extensión del contexto físico, y engloba variables más generales como el tiempo atmosférico (temperatura, si hace sol, si llueve), iluminación, ruido ambiente, contaminación, etc
  • Contexto personal. Comprende el estado de la persona en el momento de evaluar el contexto. Se refiere por tanto a aspectos como la actividad que está desarrollando (trabajando, leyendo, practicando un deporte), el estado de ánimo (lo que se denomina “mood” en inglés), circunstancias físicas (si tiene medio de transporte propio, si va muy abrigado o poco).
  • Contexto social. Es el que extiende el contexto involucrando a la parte de la red social del usuario que está activa (o es relevante) en cada momento; cada uno de los individuos en este segmento de red social aporta su contexto (espacial, temporal, ambiental, personal) al conjunto total.

¿De dónde se adquiere el contexto?

En general hay fuentes primarias de contexto, basadas en sensores, a partir de las cuales se puede inferir contexto de más alto nivel. Entre esas fuentes primarias pueden citarse:
  • Contexto espacial. La posición del terminal (base del contexto espacial) puede obtenerse mediante varias técnicas, en orden decreciente de precisión:
    • GPS: da siempre la posición más exacta, pero a veces no está disponible (el dispositivo no lo tiene, o falla la cobertura) o activado (al consumir bastante energía, en muchos casos se desactiva).
    • Sensores inalámbricos no celulares, basados en identificación de nodos de red inalámbrica de posición conocida (por ejemplo, estaciones WiFi, o dispositivos Bluetooth).
    • Posicionamiento de celda, para dispositivos móviles: asignar la posición a partir de la estación base o triangulando entre estaciones a partir de medidas radio.
    • Posicionamiento IP (basada en bases de datos que mapean direcciones IPs o rangos a áreas geográficas, útil especialmente en terminales fijos). Tienen precisión típicamente a nivel de ciudad.
    Existen APIs estandarizadas para que las aplicaciones y los terminales puedan enviar información de posición de forma normalizada (W3C Geolocation API, GSMA OneAPI, Google Geolocation)
  • Contexto temporal: se puede recurrir a registros de actividad reciente del usuario (los mismos que para evaluar el contexto personal) para el pasado inmediato; el contexto del futuro inmediato puede extraerse de la agenda del usuario o estimarlo en función de su perfil (usando razonamientos/aprendizajes que infieran patrones temporales de comportamiento).
  • Contexto ambiental: las redes de sensores, cada vez más abundantes e interconectadas, proporcionan información ambiental convenientemente geo-posicionada. Es lo que se ha llamado recientemente Sensor Web (red de sensores interconectados, y distribuidos geográficamente).
  • Contexto personal: son fuentes primarias las interacciones del usuario con la aplicación, el terminal o con servicios de red, la información explícitamente proporcionada por el usuario, o procedimientos más avanzados como análisis facial o medida de constantes biométricas.
  • Contexto social: a partir del grafo social (red social activa del usuario) obtenible mediante distintos procedimientos, se puede llegar a los usuarios relevantes en cada momento para extraer el contexto social.

¿Cómo se usa el contexto?

Como se ha mencionado, su empleo principal es para mejorar la capacidad de los servicios de adaptarse a las necesidades de los usuarios en tiempo real (o de anticiparse a ellas).
El “punto base”  para servicios contextuales son tradicionalmente los servicios basados en localización (Location-Based Services o LBS), de popularidad creciente, sobre gracias a las capacidades de interacción avanzada ofrecidas por terminales móviles basados en iPhone o Android. De momento lo más frecuente es aprovechar información de la posición del usuario como filtro para la oferta de servicios en la zona (para localización o recomendación), pero están ya incorporando otras fuentes de contexto (como el contexto social combinado con la posición). Se espera una evolución cada vez más rápida hacia la integración de todas las fuentes de contexto posibles y en este sentido se observa una gran actividad en el mercado.

¿Cuál es la diferencia entre contexto y perfil?

Son conceptos complementarios, y muy relacionados. Dada la elasticidad de ambos términos, puede considerarse que uno engloba al otro (o al revés), pero en general puede establecerse una diferencia basada en el marco temporal de ambos:
  • Un perfil de un usuario contiene información sobre rasgos estables de una persona, que en general se supone que varían lentamente con el tiempo.
  • El contexto de un usuario, en cambio, evalúa la situación de la persona en un momento concreto (de nuevo la característica de tiempo real es básica).
Por poner ejemplos relacionados con las fuentes de contexto mencionadas, el perfil de un usuario puede indicar que es friolero (rasgo de personalidad) o que suele ir muy abrigado (rasgo de comportamiento), mientras que el contexto de ese usuario puede indicar que ahora tiene frío o que va poco abrigado. El perfil puede también indicar que va frecuentemente al cine, mientras que el contexto espacial puede señalar que justo ahora está cerca de un cine y tiene tiempo libre (luego puede ser un buen momento para una recomendación cinematográfica).
Un perfil puede aplicarse en distintos contextos, pero al hacerlo, el contexto modula qué rasgos del perfil son más útiles o apropiados para la situación concreta. Es evidente también que conocer el perfil ayuda a evaluar mejor el contexto, y que a la inversa rasgos extraídos del contexto pueden alimentar actualizaciones del perfil. La potencia y flexibilidad de enriquecimiento de servicios es máxima con ambas tecnologías en juego.

¿En qué entornos es más útil?

En cualquiera en el que la situación de diferentes entidades (incluidos los usuarios) sea dinámica y cambiante En este sentido, una de las áreas previstas de mayor crecimiento de sistemas contextuales son los entornos urbanos. Se puede considerar el tejido urbano una ciudad como un conjunto de redes superpuestas, cuyos nodos se relacionan entre sí:
  • los ciudadanos forman una red social (o un conjunto de redes sociales), cuyos nodos son los individuos;
  • las redes de infraestructuras (transportes, comunicaciones, energía, etc) interactúan con los ciudadanos;
  • redes lógicas de nivel superior (culturales, económicas) enlazan nodos de las redes anteriores
Cada uno de los nodos de estas redes aporta contexto a los nodos con los que interactúa (el conjunto global puede modelarse con la ayuda de Ciencia de Redes o Network Science). La contribución de los sistemas contextuales para extraer, evaluar y utilizar esos contextos permite crear entornos de ciudades inteligentes (Smart Cities) , una iniciativa en auge en numerosos lugares del mundo.

¿Qué implicaciones de privacidad tienen los servicios contextuales?

Muchas y de gran impacto. En general se pueden aplicar todas las consideraciones de los entornos de personalización y perfilado de usuarios, más implicaciones adicionales derivadas del hecho de adquirir información en tiempo real sobre el usuario.  Los LBS, al ser la punta de lanza, han permitido abrir ya el debate.
Los permisos que un usuario concede para que se haga uso de su información de contexto deben tener una granularidad fina, para que pueda ajustar a su gusto las preferencias. Puesto que la gran mayoría de los usuarios no se molesta en personalizar sus aplicaciones, las opciones por defecto deben ser sensatas y adaptadas los mejor posible al perfil del usuario.


Derechos: Paulo Villegas, y  Alejandro Cadenas
Publicado el Julio 15, 2010 por La Cofa 

LA BANDA "SUPER ANCHA."

2011 será el año de la banda ancha súper rápida!

La banda ancha es uno de los pocos negocios que no está en crisis. De hecho, la operadora BT se enfrenta a un gran reto para este años que es conseguir que su nuevo servicio de banda ancha llegue al menos a medio millón de hogares. Ya en agosto del año pasado la operadora BT, invirtió la suculenta cifra de más de mil millones de libras en su futura red de banda ancha, para que llegase a más de dos tercios de los hogares del Reino Unido para 2015. Por Gloria Navas.


La operadora BT se enfrenta a un gran reto en este 2011: conseguir que su nuevo servicio de banda ancha súper rápida, llegue al menos a medio millón de hogares. Según Point Topic, los especialistas de banda ancha prevén que el número de líneas telefónicas de banda ancha súper rápida en ejecución en el Reino Unido pase de las 45.000 que existen en la actualidad a las más de 600.000 a finales de año.

Según el analista jefe de Point Topic, Tim Johnson, “BT ha de llegar a esta cifra para demostrar que su inversión en banda ancha súper rápida es válida”. Y continúa: “Tienen que mostrar que la demanda está ahí y es real y que además ellos tienen la tecnología ofertarla. Va a ser muy emocionante ver si lo consiguen “.

Si Point Topic está en lo cierto, alrededor del 3 por ciento del total de líneas de banda ancha en el Reino Unido serán súper rápidas, consiguiendo velocidades de más de 25 megabits por segundo (Mbps) a finales de 2011. Por otro lado, otros 200.000 usuarios (cerca del 1 por ciento) pagarán por el servicio de Virgin Media de 50 Mbps en la red de cable.
La banda ancha super rápida utiliza la fibra óptica y la tecnologíaFTTx, y tiene varias modalidades. Las más importantes son las de fibra hasta el vecindario, esto es, la fibra que termina en una cabina o en la calle (FTTN), las de de fibra hasta el gabinete (FTTC), que es similar a la anterior, pero la cabina está más cerca del usuario, normalmente a menos de 300 metros, o las de de fibra hasta las instalaciones- (FTTP).
El nuevo servicio de banda ancha súper rápida de BT provocó que cerca de 3.000 clientes por semana se adhirieran en octubre de 2010 y que se pusieran en marcha 4.000 nuevos pedidos a la semana. Ahora se necesita un promedio de 9.000 nuevas conexiones por semana en el primer semestre de 2011 y 14.000 en la segunda mitad para alcanzar el total que Point Topic ha pronosticado.

“Hay buenas razones para pensar que se puede hacer”, dice Johnson. El número de hogares que puede adquirir los servicios de la operadora de banda ancha puede aumentar enormemente y pasar de unos 600.000 a mediados de 2010 a más de seis millones a fines de 2011.
Al mismo tiempo, hay signos claros de que BT Openreach ha roto en gran medida los problemas de los servicios de banda ancha súper rápida. Después de un comienzo vacilante, llegando a sólo 7.500 clientes a finales de junio de 2010, de acuerdo con las estimaciones realizadas, BT comenzó a actuar en el tercer trimestre, hasta llegar a los 38.000 del 5 de noviembre.
“Nuestro pronóstico sigue siendo muy vulnerable a una amplia gama de problemas que pueden ir surgiendo”, explica Johnson. “La clave será el mantenimiento del proceso, que supone una gran dificultad técnica. Pero la tasa de crecimiento se encuentra dentro del rango de lo que se ha logrado con otras tecnologías de banda ancha en el pasado, sobre todo la desagregación del bucle DSL y locales”, continúa.

Inversión
Ya en agosto del año pasado la operadora BT, invirtió la suculenta cifra de más de mil millones de libras en su futura red de banda ancha, para que llegase a más de dos tercios de los hogares del Reino Unido para 2015. Con esto BT quiere conseguir reforzar su liderazgo y en ser una de las principales compañías que posean banda ancha de próxima generación.

Para esto, ha reforzado el acuerdo con su proveedor asiático, Huawei, que le está proporcionando lo necesario para el despliegue de la nueva red nacional de fibra, además de facilitando los productos para la división Openreach de BT.

En España la banda ancha es uno de los pocos negocios que no está en crisis. Según publica elpais.es En noviembre se contrataron 71.840 nuevas líneas de conexión a Internet, un 8,5% más en comparación con el mismo mes del año anterior, y ya se han alcanzado un total de 10,5 millones de líneas, según datos de la Comisión del Mercado de las Telecomunicaciones.

INTERFACES MULTISENSORIALES.

La realidad virtual digital, que integra a los demás medios, consiste en interfaces multisensoriales (por lo pronto, vista, oido, tacto y propiocepción o sentido del movimiento.Dada su riqueza experiencial y su retroalimentación multisensorial, permite recrear ambientes muy convincentes a partir de mera tramoya electronica. El potencial de aprendizaje ( y el riesgo) de este medio apenas comienza a vislumbrarse. Pero luce muy probable que ir a clases, al igual que ir a tener otras experiencias, pronto signifique entrar en un espacio virtual.

Sin embargo, más que una línea clara de investigación e innovación educativas, el panorama en la etapa de tecnificación es de un mercado impulsado y modelado por la oferta de herramientas novedosas. En ausencia de planteamientos convicentes acerca del proceso por ser tecnificado, se tecnifica lo que actualmente se hace. Las categorias y valores del sistema escolar convencional siguen vigentes, sólo digitalizados. En alguna universidad de Texzas existe una de las aulas con mayor concentración de recursos tecnológicos del planeta. En una consola maestra, el expositor tiene a la mano desde el control de las cortinas hasta el acceso a recursos distantes en formato multimedios. Y entre tal despliegue tecnológico, se cumpleel ritual milenario: alguien que pretende saber habla frente a un grupo, que pretende escuchar quieto y en silencio.
En la ruta evolutiva de la virtualidad, los sistemas digitales interactivos están llamados a constituir el nuevo medio del saber. Pero antes de tecnificar, como las lecciones en otros campos de la revolución tecnológica nos lo han enseñado, si no se comprenden y optimizan los procesos, lo que se tecnifica es el error. Por ello, a fin de avanzar con éxito en la ruta de la virtualidad, necesitamos respondernos al menos dos preguntas: ¿cuál es el proceso educativo básico? y ¿cuáles son las dimensiones de lo virtual?

CLOUD O NUBE DE COMPUTADORA

La computación en nube o informática en nube, del inglés "Cloud computing", es un paradigma que permite ofrecer servicios de computación a través de Internet. La "nube" es una metáfora de Internet.

Comienzos:

El concepto de la computación en la nube empezó en proveedores de servicio de Internet a gran escala, como Google, Amazon AWS y otros que construyeron su propia infraestructura. De entre todos ellos emergió una arquitectura: un sistema de recursos distribuidos horizontalmente, introducidos como servicios virtuales de TI escalados masivamente y manejados como recursos configurados y mancomunados de manera continua. Este modelo de arquitectura fue inmortalizado por George Gilder en su artículo de octubre 2006 en la revista Wired titulado Las fábricas de información. Las granjas de servidores, sobre las que escribió Gilder, eran similares en su arquitectura al procesamiento “grid” (red, parrilla), pero mientras que las redes se utilizan para aplicaciones de procesamiento técnico débilmente acoplados (loosely coupled, un sistema compuesto de subsistemas con cierta autonomía de acción, que mantienen una interrelación continua entre ellos), este nuevo modelo de nube se estaba aplicando a los servicios de Internet.

Beneficios:

  • Integración probada de servicios Red. Por su naturaleza, la tecnología de "Cloud Computing" se puede integrar con mucha mayor facilidad y rapidez con el resto de sus aplicaciones empresariales (tanto software tradicional como Cloud Computing basado en infraestructuras), ya sean desarrolladas de manera interna o externa.
  • Prestación de servicios a nivel mundial. Las infraestructuras de "Cloud Computing" proporcionan mayor capacidad de adaptación, recuperación de desastres completa y reducción al mínimo de los tiempos de inactividad.
  • Una infraestructura 100% de "Cloud Computing" no necesita instalar ningún tipo de hardware. La belleza de la tecnología de "Cloud Computing" es su simplicidad… y el hecho de que requiera mucha menor inversión para empezar a trabajar.
  • Implementación más rápida y con menos riesgos. Podrá empezar a trabajar muy rápidamente gracias a una infraestructura de "Cloud Computing". No tendrá que volver a esperar meses o años e invertir grandes cantidades de dinero antes de que un usuario inicie sesión en su nueva solución. Sus aplicaciones en tecnología de "Cloud Computing" estarán disponibles en cuestión de semanas o meses, incluso con un nivel considerable de personalización o integración.
  • Actualizaciones automáticas que no afectan negativamente a los recursos de TI. Si actualizamos a la última versión de la aplicación, nos veremos obligados a dedicar tiempo y recursos (que no tenemos) a volver a crear nuestras personalizaciones e integraciones. La tecnología de "Cloud Computing" no le obliga a decidir entre actualizar y conservar su trabajo, porque esas personalizaciones e integraciones se conservan automáticamente durante la actualización.
  • Contribuye al uso eficiente de la energía. En este caso, a la energía requerida para el funcionamiento de la infraestructura. En los datacenters tradicionales, los servidores consumen mucha más energía de la requerida realmente. En cambio, en las nubes, la energía consumida es sólo la necesaria, reduciendo notablemente el desperdicio.

Desventajas:

  • La centralización de las aplicaciones y el almacenamiento de los datos origina una dependencia de los proveedores de servicios.
  • La disponibilidad de las aplicaciones están atadas a la disponibilidad de acceso a internet.
  • Los datos "sensibles" del negocio no residen en las instalaciones de las empresas por lo que podría generar un contexto de alta vulnerabilidad para la sustracción o robo de información.
  • La confiabilidad de los servicios depende de la "salud" tecnológica y financiera de los proveedores de servicios en nube. Empresas emergentes o alianzas entre empresas podrían crear un ambiente propicio para el monopolio y el crecimiento exagerado en los servicios.
  • La disponibilidad de servicios altamente especializados podría tardar meses o incluso años para que sean factibles de ser desplegados en la red.
  • La madurez funcional de las aplicaciones hace que continuamente estén modificando sus interfaces por lo cual la curva de aprendizaje en empresas de orientación no tecnológica tenga unas pendientes pequeñas.
  • Seguridad. La información de la empresa debe recorrer diferentes nodos para llegar a su destino, cada uno de ellos ( y sus canales) son un foco de inseguridad. Si se utilizan protocolos seguros, HTTPS por ejemplo, la velocidad total disminuye debido a la sobrecarga que requieren estos protocolos.
  • Escalabilidad a largo plazo. A medida que más usuarios empiecen a compartir la infraestructura de la nube, la sobrecarga en los servidores de los proveedores aumentará, si la empresa no posee un esquema de crecimiento óptimo puede llevar a degradaciones en el servicio o jitter altos.

Capas:

Software como servicio:

El software como servicio (en inglés software as a service, SaaS) se encuentra en la capa más alta y caracteriza una aplicación completa ofrecida como un servicio, en-demanda, vía multitenencia —que significa una sola instancia del software que corre en la infraestructura del proveedor y sirve a múltiples organizaciones de clientes. El ejemplo de SaaS conocido más ampliamente es Salesforce.com, pero ahora ya hay muchos más, incluyendo las Google Apps que ofrecen servicios básicos de negocio como el e-mail. Por supuesto, la aplicación multitenencia de Salesforce.com ha constituido el mejor ejemplo de cómputo en nube durante unos cuantos años. Por otro lado, como muchos otros jugadores en el negocio del cómputo en nube, Salesforce.com ahora opera en más de una capa de la nube con su Force.com, que ya está en servicio, y que consiste en un ambiente de desarrollo de una aplicación compañera (“companion application”), o plataforma como un servicio.

Plataforma como servicio:

La capa del medio, que es la plataforma como servicio (en inglés platform as a service, PaaS), es la encapsulación de una abstración de un ambiente de desarrollo y el empaquetamiento de una carga de servicios. La carga arquetipo es una imagen Xen (parte de Servicios Web Amazon) conteniendo una pila básica Red (por ejemplo, un distro Linux, un servidor Red, y un ambiente de programación como Perl o Ruby). Las ofertas de PaaS pueden dar servicio a todas las fases del ciclo de desarrollo y pruebas del software, o pueden estar especializadas en cualquier área en particular, tal como la administración del contenido.
Los ejemplos comerciales incluyen Google App Engine, que sirve aplicaciones de la infraestructura Google. Servicios PaaS tales como éstos permiten gran flexibilidad, pero puede ser restringida por las capacidades que están disponibles a través del proveedor.

Infraestructura como servicio:

La infraestructura como servicio (infrastructure as a service, IaaS) se encuentra en la capa inferior y es un medio de entregar almacenamiento básico y capacidades de cómputo como servicios estandarizados en la red. Servidores, sistemas de almacenamiento, conexiones, enrutadores, y otros sistemas se concentran (por ejemplo a través de la tecnología de virtualización) para manejar tipos específicos de cargas de trabajo —desde procesamiento en lotes (“batch”) hasta aumento de servidor/almacenamiento durante las cargas pico. El ejemplo comercial mejor conocido es Amazon Web Services, cuyos servicios EC2 y S3 ofrecen cómputo y servicios de almacenamiento esenciales (respectivamente). Otro ejemplo es Joyent cuyo producto principal es una línea de servidores virtualizados, que proveen una infraestructura en-demanda altamente escalable para manejar sitios Web, incluyendo aplicaciones Web complejas escritas en Ruby en Rails, PHP, Python, y Java.

Tipos de nubes:

  • Las nubes públicas se manejan por terceras partes, y los trabajos de muchos clientes diferentes pueden estar mezclados en los servidores, los sistemas de almacenamiento y otras infraestructuras de la nube. Los usuarios finales no conocen qué trabajos de otros clientes pueden estar corriendo en el mismo servidor, red, discos como los suyos propios.
  • Las nubes privadas son una buena opción para las compañías que necesitan alta protección de datos y ediciones a nivel de servicio. Las nubes privadas están en una infraestructura en-demanda manejada por un solo cliente que controla qué aplicaciones debe correr y dónde. Son propietarios del servidor, red, y disco y pueden decidir qué usuarios están autorizados a utilizar la infraestructura.
  • Las nubes híbridas combinan los modelos de nubes públicas y privadas. Usted es propietario de unas partes y comparte otras, aunque de una manera controlada. Las nubes híbridas ofrecen la promesa del escalado aprovisionada externamente, en-demanda, pero añaden la complejidad de determinar cómo distribuir las aplicaciones a través de estos ambientes diferentes. Las empresas pueden sentir cierta atracción por la promesa de una nube híbrida, pero esta opción, al menos inicialmente, estará probablemente reservada a aplicaciones simples sin condicionantes, que no requieran de ninguna sincronización o necesiten bases de datos complejas.

martes, 1 de febrero de 2011

EL AHORRO DE ENERGÍA

CONCEPTOS GENERALES
Hay cantidad de definiciones de Energía, para lo que vamos a tratar y en interés de simplificar escogemos la que nos dice que la " Energía es la capacidad de realizar trabajo". Gracias a la energía, los seres humanos pueden realizar procesos y trabajos que le garantizan la supervivencia, la comodidad y el dominio que viene ejerciendo sobre el medio ambiente. 
Casi toda la energía utilizada por el ser humano se ha originado a partir de la radiación solar que llega a la Tierra. Un 96% de las necesidades energéticas quedan satisfechas por la combustión de carburantes fósiles, como carbón, petróleo y gas natural que representan la energía química almacenada biológicamente durante largo período de tiempo en la Tierra. Como estas fuentes se van agotando, debemos buscar otras fuentes como los carburantes nucleares (fusión nuclear y fisión nuclear), la energía de gravitación en las mareas o la energía solar.
Las fuentes de energía son aquellas que  la producen directamente y que cumplen con la ley de conservación de la energía que dice: La Energía no se crea, ni se destruye, solamente se transforma. Como fuentes de energía se habla del sol, el viento, el carbón, el petróleo, caídas de agua, desechos orgánicos, los átomos, las olas del mar, reacciones químicas, el sonido, entre otras. Cuando hablamos de la forma en que se manifiesta la energía hablamos de eléctrica, eólica, solar, térmica, hidráulica, nuclear y otras.
La energía que proviene de los recursos energéticos de la naturaleza que tradicionalmente llamamos no renovables son el carbón , el petróleo , el gas natural y aquellos procedentes de la fisión nuclear. Las energías renovables o alternativas se refieren a la energía solar, la eólica, la hidráulica, geotérmica y otras.
Aunque como hemos dicho, el término energía tiene muchas vertientes, en los medios de comunicación es utilizado por diferentes sectores de la vida nacional incluyendo la población, los economistas, físicos, químicos, biólogos, políticos, meteorólogos y otros interesados en opinar sobre la crisis energética, en la República Dominicana para referirse a la energía eléctrica.   
El ahorro de energía guarda relación  con el calentamiento global y los cambios climáticos de que tanto hablamos en la actualidad, y es así porque disminuimos la emisión de Dióxido de Carbono hacia nuestra atmósfera, además de que, tiene otras ventajas para nuestro medio ambiente al evitarse las lluvias ácidas, la contaminación del aire, la destrucción de los bosques y la aceleración de los procesos de desertificación y lo más importante nos economizamos "unos cuartos". Lo único que debemos hacer es cambiar de hábitos y de algunos equipos que lo único que hacen es consumir más de la cuenta. En los momentos actuales y los que nos vienen detrás, el ahorro de energía es asunto de sobrevivir, los dominicanos debemos acabar con el despilfarro y poner en práctica los planes de emergencia acorde con nuestro modo de vida. Debemos tener en cuenta:
Plan de Emergencia Nacional de Ahorro de Energía.
Plan de Emergencia Institucional de Ahorro de Energía
Plan de Emergencia Familiar de Ahorro de Energía
El Plan Nacional de Ahorro de Energía es diseñado por el Estado, el Institucional es de la responsabilidad de cada una de las Instituciones, como por ejemplo el de una Universidad, y el Familiar es de nuestra responsabilidad, es decir que, cuando se producen crisis energéticas, tenemos una triple responsabilidad, como ciudadanos, como parte de los centros de trabajo y como parte del núcleo familiar.
 Obtenido de: