Mostrando entradas con la etiqueta System. Mostrar todas las entradas
Mostrando entradas con la etiqueta System. Mostrar todas las entradas

viernes, 17 de agosto de 2018

Hardware Abierto. Hardware definido por Software

Desde que se hizo presente la Virtualización en nuestras vidas, quienes veníamos de la Informática clásica, esa en la que nos inculcaron que el Hardware era rígido, concreto, tangible y el Software era abstracto e intangible, nos fue algo difícil ver en ese momento el inmenso potencial de una Máquina Virtual.

Ya de por sí el concepto de una Capa de Abstracción generada por un software no nos era extraño. El Firmware en contacto directo con el Hardware; el Sistema Operativo con su "Kernel" y sus "Drivers" como marco de trabajo y cimiento de los Servicios de Sistema, la Interfaz Gráfica y las Aplicaciones (de abajo hacia arriba apilados una capa sobre otra).

Ahora el Hipervisor se adueñaba de el Harware Físico y ponía los recursos a las órdenes de las Máquinas Virtuales, de manera dinámica y bajo demanda. Como en un Comunismo Utópico en el que todo es de todos, con ese dictador benévolo que se llama el Hipervisor otorgando dichos recursos a las Cargas Virtuales.

Todo esto dio por resultado poder tener Centros de Datos Definidos por Software (SDDC por sus siglas en inglés) y permitir que el consumo de recursos informáticos se convierta en una operación más inteligente, escalable, confiable, segura.

De los cuatro recursos físicos: Procesador, Memoria, Red y Almacenamiento, es el primero al que siempre consideramos como ese ente monolítico, inmutable y completamente necesario (indispensable) para la ejecución de lo que sea, desde el punto de vista de la Informática. Éste elemento ya diseñado y construido por un proveedor, permanece así como quedó manufacturado, con todos sus alcances y limitaciones. ¿Pero toda la vida tenía que ser así?

Algunos lectores ya se dieron cuenta por dónde vamos. Sí. Procesadores Definidos por Software. ¿En serio? Sí, ¿por qué no? Y mejor aún, todo ello en modalidad abierta. ¿Código Abierto? No. Hardware Abierto.

¿Asombrado, atónito, no das crédito al párrafo anterior? Es lógico. No se apure amigo lector. No estamos bajo el influjo de una droga o en un universo paralelo. Lo que más le va a asombrar es que todo lo mencionado ya existe.

Algo de Historia: Compuertas Lógicas, Micro Controladores y Procesadores

¿Cómo funcionan las Computadoras? Pregunta típica de un niño en los años setenta. Yo entre ellos. Las respuestas eran algo confusas, pero tras la recomendación de un magnífico libro titulado "Cibernética sin matemáticas" escrito por Henryk Greniewski y publicado por el Fondo de Cultura Económica en el año de 1965.

Me quedó claro que todo se basaba en una aritmética en la que a diferencia de nuestro sistema decimal basado en diez guarismos (0, 1, 2, 3, 4, 5, 6, 7, 8 y 9) que se utilizan para representar cantidades, las computadoras utilizan un sistema binario. Dos guarismos o dígitos (0 y 1) son necesarios para representar cantidades.

Pero el 0 y el 1 también pueden ser utilizados para determinar la veracidad o falsedad de proposiciones lógicas. Conceptos como las Tablas de Verdad y los operadores lógicos del Algebra Booleana. ¿Qué es eso? En 1815 George Boole (matemático y lógico británico) propuso una herramienta matemática llamada Álgebra de Boole. Luego en 1938 Claude Shannon propuso que con esta álgebra es posible modelar los llamados Sistemas Digitales. El Álgebra de Boole es un sistema matemático que utiliza variables y operadores lógicos.

Así pues, ya teníamos algo que, con la manipulación, operación de tan solo dos dígitos, podíamos realizar complejas operaciones que imitaban en mucho al razonamiento humano. Qué decir de la realización de cálculos complejos con precisión y exactitud.

Sin entrar demasiado en teoría, la famosa máquina de Alan Mathison Turing usada para descifrar el cuasi indescifrable Código Enigma de los nacionales socialistas alemanes durante la segunda guerra mundial, utilizaba conmutadores electro-mecánicos para dar forma y contexto a los dígitos binarios "0" y "1". ¿Conmutador abierto (apagado)? CERO. ¿Conmutador cerrado (encendido? UNO.

Perfecto. ¿Prendiendo y apagando algo ya estoy haciendo cómputo? De manera muy básica y "rupestre", sí. Falta revisar los Operadores Lógicos o Booleanos:
  • NOT = Negación
  • AND = Conjunción
  • OR = Disyunción

Aquí anexo las "Tablas de Verdad" de cada uno de estos operadores básicos:

Platiquemos un poco del operador NOT, también conocido como INVERSOR. ¿Por qué inversor? Porque a toda entrada A que puede tener sólo los valores "0" (FALSO) o "1" (VERDADERO), corresponde como salida el valor contrario: 1 o 0 (VERDADERO o FALSO) respectivamente.

En el caso de la Conjunción o AND, aquí necesitamos al menos DOS entradas: "A" y "B". Observe que en la Tabla de Verdad, la única manera en la que el resultado es "1" o "VERDADERO" es cuando el valor de ambas variables "A" y "B" es "1" o "VERDADERO". De otra manera el resultado es "0" o "FALSO".

Por último en el caso de la Disyunción u OR, siempre que exista una entrada en "1" o "VERDADERO", el resultado será "1" o "VERDADERO". De otra forma será "0" o "FALSO".

¿Para qué me sirve esto? A modo de un ejemplo sencillo, imagine que tiene Usted el reto de crear un circuito lógico para un automóvil. Este circuito "inteligente" debe controlar cuándo SÍ se podrá poner en marcha el motor del vehículo y cuando no.

Para este ejemplo, imaginemos que el fabricante solicita que:
  1. El sensor del asiento del conductor "A" debe estar en "1" o "VERDADERO", pues hay alguien sentado en el.
  2. Al mismo tiempo, el cinturón de seguridad "B" deberá estar abrochado ("1").
  3. La palanca de velocidades "C" debe estar en posición "PARKING" o "P" ("1"). Cualquier otra posición de la palanca se considera que está en "FALSO" o "0".
  4. El freno de mano "D" podrá estar accionado ("1") o liberado ("0").

Este sería entonces el diagrama de este circuito lógico resultante:


Los elementos del diagrama "AND1" y los demás semejantes, son lo que se llaman Compuertas Lógicas. Estas se incluyen en Circuitos Integrados que ya no utilizan conmutadores electro-magnéticos, sino transistores.

Estos circuitos integrados, muy al principio denominados TTL (Transistor-Transistor Logic) fueron los que permitieron que el hombre llegara a la luna, que comenzáramos a gozar con juegos de video y que nuestros aparatos electrónicos, vehículos y electro-domésticos tuviesen "inteligencia".

Con un solo circuito integrado TTL 7408 de cuatro compuertas "AND" independientes de dos entradas cada una, es posible implementar el circuito arriba incluido y hasta sobraba una compuerta "AND".

Conforme se fueron haciendo más y más complejas las necesidades relativas al cómputo y a las compuertas lógicas, utilizar las compuertas lógicas ya no era conveniente. Era necesario contar con circuitos integrados más complejos para hacer cálculos y/o para añadir inteligencia a nuestros dispositivos industriales y/o domésticos. Nacen entonces dos nuevos componentes:

Microcontroladores

Un microcontrolador (abreviado μC, UC o MCU) es un circuito integrado programable, capaz de ejecutar las órdenes grabadas en su memoria. Está compuesto de varios bloques funcionales, los cuales cumplen una tarea específica. Un microcontrolador incluye en su interior las tres principales unidades funcionales de una computadora: unidad central de procesamiento, memoria y periféricos de entrada/salida.

Algunos microcontroladores pueden utilizar palabras de cuatro bits y funcionan a velocidad de reloj con frecuencias tan bajas como 4 kHz, con un consumo de baja potencia (mW o microwatts). Por lo general, tendrá la capacidad de mantenerse a la espera de un evento como pulsar un botón o de otra interrupción; así, el consumo de energía durante el estado de reposo (reloj de la CPU y los periféricos de la mayoría) puede ser sólo de nanowatts, lo que hace que muchos de ellos sean muy adecuados para aplicaciones con batería de larga duración. Otros microcontroladores pueden servir para roles de rendimiento crítico, donde sea necesario actuar más como un procesador digital de señal (DSP), con velocidades de reloj y consumo de energía más altos.

Cuando es fabricado el microcontrolador, no contiene datos en la memoria ROM. Para que pueda controlar algún proceso es necesario generar o crear y luego grabar en la EEPROM o equivalente del microcontrolador algún programa, el cual puede ser escrito en lenguaje ensamblador u otro lenguaje para microcontroladores; sin embargo, para que el programa pueda ser grabado en la memoria del microcontrolador, debe ser codificado en sistema numérico hexadecimal que es finalmente el sistema que hace trabajar al microcontrolador cuando éste es alimentado con el voltaje adecuado y asociado a dispositivos analógicos y discretos para su funcionamiento.

Microprocesadores

El microprocesador (o simplemente procesador) es el circuito integrado central más complejo de un sistema informático; a modo de ilustración, se le suele llamar por analogía el «cerebro» de un ordenador.

Es el encargado de ejecutar los programas, desde el sistema operativo hasta las aplicaciones de usuario; sólo ejecuta instrucciones programadas en lenguaje de bajo nivel, realizando operaciones aritméticas y lógicas simples, tales como sumar, restar, multiplicar, dividir, las lógicas binarias y accesos a memoria.

Puede contener una o más unidades centrales de procesamiento (CPU) constituidas, esencialmente, por registros, una unidad de control, una unidad aritmético lógica (ALU) y una unidad de cálculo en coma flotante (conocida antiguamente como «coprocesador matemático»).

Tanto las Compuertas Lógicas, como los Microcontroladores y los Microprocesadores, están fabricados bajo un diseño específico que nunca cambiará. Será el ser humano el que deberá ingeniárselas para interconectar estos artilugios de silicio, oro, cobre y demás elementos químicos para que realicen una operación determinada.

FPGA. Matrices de Compuertas Programables "In Situ"

Una FPGA o matriz de puertas programables (del inglés field-programmable gate array) es un dispositivo programable que contiene bloques de lógica cuya interconexión y funcionalidad puede ser configurada en el momento mediante un lenguaje de descripción especializado. La lógica programable puede reproducir desde funciones tan sencillas como las llevadas a cabo por una puerta lógica o un sistema combinacional hasta complejos sistemas en un chip.

Las FPGA se utilizan en aplicaciones similares a los ASIC sin embargo son más lentas, tienen un mayor consumo de energía y no pueden abarcar sistemas tan complejos como ellos. A pesar de esto, las FPGA tienen las ventajas de ser reprogramables (lo que añade una enorme flexibilidad al flujo de diseño), sus costes de desarrollo y adquisición son mucho menores para pequeñas cantidades de dispositivos y el tiempo de desarrollo es también menor.

Ciertos fabricantes cuentan con FPGA que sólo se pueden programar una vez, por lo que sus ventajas e inconvenientes se encuentran a medio camino entre los ASIC y las FPGA reprogramables.

En pocas palabras, estas Matrices de Compuertas Programables o FPGAs, pueden ser configuradas por software para funcionar como Compuertas Lógicas, Microcontroladores o Microprocesadores. ¿Circuitos Integrados Definidos por Software? ¡¡¡ Sí !!!

Los alcances que tiene esta tecnología son sencillamente fabulosos y abren aún más las posibilidades para quienes los incluyen en dispositivos industriales, empresariales o domésticos.

¿Qué le parecería tener un dispositivo inteligente como una LapTop, una Tablet o un Teléfono Inteligente, que no solamente sea posible actualizar el Sistema Operativo con fines de mejorar su desempeño o arreglar posibles fallas de programación, sino que además ahora se pueda actualizar su hardwer sin necesidad de abrir el aparato.

Sí. El fabricante podrá manufacturar equipos todos idénticos, pero los alcances y limitaciones de éste dependerán de la configuración de sus FPGAs internas. Podemos comenzar adquiriendo la "licencia" o paquete "Starter", en la que la o las FPGAs se comportarán como un equipo económico de tan solo dos procesadores.

Con el pago de un paquete o licencia superior, podremos escalar a ocho procesadores, doce, diez y seis o más. Podremos añadir GPUs aceleradoras de video y poco a poco escalar hasta contar con un equipo con un desempeño inmenso y posibilidades más allá de lo que nuestra imaginación puede llega a visualizar.

¿Qué decir de otros dispositivos como computadoras de a bordo en aviones, automóviles, motocicletas? También electrodomésticos más y más versátiles e inteligentes que puedan realizar más funciones con más precisión, mayor exactitud y con un uso más inteligente y racional de energía eléctrica, agua, etc.

¿Qué tan posible, factible y/o a futuro es llegar a este punto? Ya llegamos desde hace tiempo. Sí. Hace apenas un mes que Massimo Banzi, cofundador y Director de Tecnología de ARDUINO, anunció la disponibilidad del ARDUINO MKR VIDOR 4000. Su corazón ya no es un microcontrolador, sino una FPGA. Tiene un costo de $60.00 USD y es posible acceder a ella a través de un conector Micro PCIe.

Gracias a los esfuerzos de Clifford Wolf con su proyecto IceStorm, Adrian Bowyer y sus tremendas contribuciones al Open Source Hardware y al Open Source y toda la comunidad Abierta, los avances en materia de FPGA son tales que ahora los fabricantes y proveedores de Hardware y Software, ya no piensan en Microcontroladores o Microprocesadores, sino en FPGA como el cimiento de sus desarrollos a mediano y largo plazo.

FPGA plantea una nueva forma de hacer las cosas. Un nuevo paradigma que como todos, subsana muchos de los requerimientos actuales en el campo de las Tecnologías de la Información, pero como es costumbre plantea nuevos retos.

Esta tecnología tiene la bondad de ofrecer una relación costo-beneficio muy positiva y como todo aquello que resulta económica y tecnológicamente rentable, trascenderá e incluso "amenaza" con sustituir a tecnologías que "a priori" ya se ven como obsoletas.

¿En conclusión? FPGA es el pasado cercano, presente y futuro a largo plazo de las nuevas Tecnologías de la Información basadas en plataformas Abiertas. ¿Ya conoce Usted FPGA?

jueves, 5 de abril de 2018

¿Dónde estarán los mainframes en diez años?

Parece mentira que en plena era de la Tercera Plataforma, aún se sigan teniendo noticias de la ya vetusta Primera Plataforma, lo que es lo mismo la era de los Mainframes.

¿Qué son los Mainframes? Es una computadora grande, potente y costosa, usada principalmente por una gran compañía para el procesamiento de una gran cantidad de datos, como por ejemplo, para el procesamiento de transacciones bancarias.

¿Cómo cambiará la industria mainframe en la próxima década? ¿Los mainframes aún estarán disponibles? Las respuestas cortas a esas preguntas son "muchas" y "casi con certeza".

El futuro de los Mainframes

Si bien predecir el futuro siempre es un negocio arriesgado, es bastante fácil observar las tendencias actuales en la industria Mainframe y extrapolarlas para comprender cómo podrían cambiar los Mainframes en los próximos diez años. Las observaciones clave en esa veta incluyen:

Los mainframes siguen vivos y en buenas condiciones

La gente ha estado prediciendo la "inminente desaparición" de los Mainframes durante años, y hasta el momento han estado equivocados. Aunque los roles de los Mainframes ciertamente han cambiado algo con el tiempo, los Mainframes siguen siendo esenciales en una serie de industrias importantes.

Parece una apuesta segura, entonces, que los Mainframes continuarán prosperando dentro de diez años. También puede ser una apuesta segura que los detractores continúen dudando del futuro de los Mainframes a una década en el futuro, pero creemos que seguirán estando equivocados.

Modernización de COBOL

COBOL es uno de los lenguajes de programación más antiguos que sigue siendo ampliamente utilizado. A pesar de su edad, es probable que no vaya a ningún lado pronto. Sin embargo,COBOL está pasando por un proceso de modernización. Mejor rendimiento, código más fácilmente reutilizable y otras innovaciones sobre la mesa para COBOL ya están en el presente y para el futuro.

Los Mainframes se hacen más pequeños

Cuando la mayoría de la gente escucha Mainframe, piensan en las computadoras gigantes de antaño. Los Mainframes modernos, por supuesto, pueden ser tan pequeños como un refrigerador. Es probable que los Mainframes sigan reduciéndose en tamaño físico a medida que evolucionan en la próxima década.

Los Mainframes se vuelven más potentes

Uno de los factores que impulsa la popularidad continua de los Mainframes es su capacidad para procesar grandes cantidades de datos. A este respecto, los Mainframes llevan mucho tiempo por delante de los servidores Cloud y Commodity (x86 y x64).

A pesar de que los servidores convencionales x86 y x64 también obtienen más poder de cómputo, los Mainframes probablemente retendrán su ventaja, porque la potencia de computación masiva es, después de todo, una de las características definitorias hacia los Mainframes.

Los Mainframes soportan múltiples sistemas operativos

La capacidad de los Mainframes para admitir sistemas operativos nativos como z/OS y Linux, es otra característica poderosa, pues con esto permiten alojar diversas cargas de trabajo. Con el tiempo creemos que los Mainframes podrán asumir conjuntos de sistemas operativos aún más diversos.

Más distribuciones de Linux pueden ofrecer soporte de Mainframe y hay señales de que incluso Microsoft Windows, podría convertirse en un contendiente de sistema operativo en el mundo de Mainframe. Esto último ya se vio hace tiempo con "IBM System i" o AS/400.

Los mainframes se adaptan a las nuevas tendencias de TI

A medida que innovaciones como la entrega continua y Docker, han cambiado la forma en que las organizaciones desarrollan e implementan el software y los mainframes han mantenido el ritmo. Si bien es difícil saber exactamente qué nuevas tendencias pueden llegar a la industria de TI en la próxima década, es una buena apuesta que los Mainframes también se adapten a ellas.

Una integración más fácil

La industria Mainframe ya ha avanzado mucho en la integración de éstos con otros tipos de infraestructura, pero los problemas persisten. La descarga de datos de Mainframe a entornos como Hadoop puede ser un desafío.

También puede integrar COBOL con otros tipos de idiomas. Espere a que estos desafíos continúen suavizándose, a medida que los proveedores trabajan para hacer que los Mainframes interactúen de forma más fluida con otras infraestructuras y aplicaciones.

En resumen, es probable que los Mainframes se vuelvan más rápidos y más flexibles, al tiempo que disminuyan en tamaño físico en los próximos diez años. Todo apunta a que se están preparados para conservar su nicho único, como soluciones de cómputo masivamente poderosas que pueden vencer a la nube convencional, así como atender casos de uso que los servidores básicos simplemente no pueden manejar.

lunes, 3 de agosto de 2015

¿Actualizar a Microsoft Windows 10?

El pasado Miércoles 29 de Julio de 2015, Microsoft por fin liberó su nueva versión Windows 10, generando muchas expectativas sobre todo dentro de la empresa de Redmond, Washington.

A las veinticuatro horas de su lanzamiento, una nutrida audiencia (no tan nutrida como se hubiese esperado, sobre todo comparándola con ocasiones anteriores) realizaba la actualización de sus Sistemas Operativos versiones 7, 8 y 8.1.

La respuesta a esta nueva "aventura" de Microsoft nuevamente levantó ámpula entre quienes decidieron "estar a la moda".

Hubo los que de inmediato comentaron y compartieron su desilusión, desencanto o hasta enojo por haber perdido datos. Los hubo también quienes manifestaron que era al final más de lo mismo pero también hubo quienes ensalzaron que la velocidad de este nuevo sistema operativo era mucho mejor que la de sus antecesores.

Nosotros en la edición de este Blog nos dimos a la tarea de realizar la actualización que sugería el Sistema Operativo Windows 7 (original y bajo licencia), pero sobre una Máquina Virtual (previamente respaldada) para no perder información y/o datos.

El proceso se realizó conectando el sistema operativo a actualizar, hacia una red inalámbrica que entregó 15 a 19 Megabits de "bajada", por tres a seis Megabits de "subida". El asistente de actualización corrió bien, fue intuitivo y el proceso se llevó a cabo sin contratiempos.

Al momento de hacer la actualización, nos aseguramos de haber elegido conservar nuestros archivos y programas de cómputo. Al final del procedimiento encontramos que para nuestra fortuna, todo estaba donde lo habíamos dejado y como lo habíamos dejado.

¿Qué diferencias notamos? Que a diferencia del Sistema Operativo Microsoft Windows 8, aquí desde un inicio SÍ se conservó el botón de inicio. También se conservó ese menú principal al que la marca ya nos tenía acostumbrado, el cual es una mezcla de el presentado en Windows 7 y Windows 8.1.

¿El "Look and Feel"? No notamos un cambio tan radical como el paso entre Windows 7 a Windows 8. ¿La velocidad? Un poquito mejor en lo que se refiere a los tiempos de ejecución. Lo interesante del asunto es el hecho de que al parecer Microsoft está regresando al origen retirando mucha "parafernalia" de su sistema operativo y aunque se que lo van a negar, pero me recuerda muchísimo a ciertas distribuciones Linux que incluyen escritorios ligeros como Xfce, Cinnamon o Unity.

El tiempo a corto plazo decidirá qué tanto realmente habrá mejorado el sistema operativo Windows, así como también qué tanto de las aplicaciones existentes se adaptan al nuevo Sistema Operativo. Pero si de algo estamos seguros es de que con Windows 10, Microsoft se está jugando todo el pírrico capital de confianza que el Usuario Final le está obsequiando a los Redmond Boys.

¿Qué tan indispensable y/o útil y/o necesario es el actualizar a esta versión de Sistema Operativo? En nuestro humilde punto de vista si Usted trabaja perfectamente bien con su Windows 7, no existe una necesidad tecnológica y/o imperiosa para actualizar (por el momento).

¿Y si el nuevo equipo de cómputo ya viene con Windows 10 instalado? Entonces por el momento le recomendamos conservarlo, a menos que Usted encuentre que una de sus aplicaciones "in house" (a la medida) o comerciales no funcione perfectamente bien.

¿Puntaje final? Comparándolo contra Windows 7, 8 y 8.1, así como contra otros Sistemas Operativos de Escritorio:

Innovación:7.50
Velocidad de Ejecución:8.00
Facilidad de uso:9.00
Ambiente Gráfico:8.00
Promedio:
8.13

¿Está Usted convencido para actualizar a Windows 10?

martes, 2 de junio de 2015

Google desarrolla Sistema Operativo para IoT

A mediados/fines de la ya lejana década de los noventas, los Ciudadanos Comunes nos vimos iluminados con una tecnología que a la postre se convirtió en el medio de comunicación más eficiente y con mayor crecimiento en la historia: La Internet.


En un principio, creada para mantener contacto las veinticuatro horas los trescientos sesenta y cinco días del año entre todas las instalaciones militares de los Estados Unidos (proyecto Arpa-Net), la Internet demostró por si misma ser el vehículo por excelencia para interconectar personas con empresas, personas con entidades educativas y/o de gobierno, clientes con tiendas, clientes con bancos, empresas con empresas, etc.

Con la Web 2.0, por sobre todo lo que respecta al Cómputo Interpersonal (Redes Sociales), atestiguamos el crecimiento exponencial de esta red.

Tal es el éxito de La Red, que ahora todos los principales fabricantes de bienes de consumo doméstico, vehículos automotores, fabricantes de maquinaria para todo rubro y de todo tipo están ya pidiendo a gritos la adopción de la Internet de Las Cosas (IOT o Internet of Things).

¿Qué es la Internet de Las Cosas? Sin ir muy lejos y de manera concreta: -"...es un concepto que se refiere a la interconexión digital de objetos cotidianos con internet."- ¿En resumen? Ahora los objetos tendrán acceso a La Red.

Este concepto impulsó la creación de las IPs versión 6, las cuales no han tenido hasta el momento la velocidad de adopción que se esperaba, pero además de eso se requerirá que Las Cosas tengan interconstruido un módulo que permita la conexión a La Red y este módulo a su vez deberá contar con un Sistema Operativo.

Dentro de los requerimientos más básicos de este Sistema Operativo, está el que sea extremadamente ligero y que sea lo más abierto posible, pus será utilizado por cualquier Cosa, de cualquier marca, en cualquier país.


La empresa Google ya está desarrollando un Sistema Operativo orientado precisamente a la Internet de Las Cosas. Al parecer está basado en Android y compatible con todo tipo de dispositivos, con y sin pantalla.

La publicación The Information ha publicado información extraoficial según la cual Google lanzará esta semana en su conferencia I/O un sistema operativo diseñado específicamente para dispositivos de bajo consumo eléctrico, “de tipo Internet of Things”. 

El sistema operativo es conocido internamente en Google con el nombre de trabajo “Brillo”, y según la publicación es probable que sea distribuido como una versión de Android, principalmente debido a que ha sido creado por la división Android de Google. Según la fuente, Brillo estará dirigido a dispositivos de potencia ultra-baja, con necesidades muy reducidas de memoria; sólo 64 o 32 MB de RAM.

Estos dispositivos requieren fundamentalmente un SoC (system on a chip o sistema en un chip), gestión de entrada y salida de datos y comunicación en red. Aunque estas funciones están plenamente cubiertas por Android OS, el único escollo radicaría en lo abultado que es el sistema operativo al tratarse de dispositivos ligeros.

The Information indica que Google quiere, por otra parte, poner orden en la fragmentada situación actual, ofreciendo “Brillo” gratuitamente a los fabricantes de equipo original, OEM.La información será eventualmente confirmada, o desmentida, durante la conferencia I/O, a realizarse el jueves y viernes de esta semana en San Francisco, Estados Unidos.

Cierto es que este es otro pequeño y tal vez muy modesto paso, pero como veremos "a posteriori", es el más importante y fundamental para la verdadera implantación y utilización de La Internet de Las Cosas.

viernes, 10 de enero de 2014

Y ya para el tercer y último día...

No nos queda la menor duda de que todos y cada uno de quienes asistimos al Consumer Electronics Show 2014 en Las Vegas, Nevada salimos de ahí con una nueva y renovada visión de la Tecnología, así como también nuevos enfoques y alternativas para hacer negocio.

En el tercer y último día no hubo anuncios espectaculares ni tampoco se desvelaron nuevos productos o tendencias tecnológicas, pero la verdad valió mucho la pena el entrar en contacto con asistentes, expositores y productos que tal vez no cuentan aún con una mercadotecnia y/o difusión tan rimbombante, pero que al final nos presenta lo que la gente, el Consumidor Final, el Desarrollador y/o Inventor independiente ya está haciendo con las nuevas tecnologías.

A modo de resumen del tercer día, resalta el enfoque que algunas marcas de dispositivos informáticos y de telefonía inteligente ya están llevando a la práctica. Se trata de el proveer de productos de alta calidad, con servicios también de buena calidad, a precios muy económicos para aquellos Consumidores Finales que moran en las llamadas "Economías Emergentes.

Para comenzar tenemos a la empresa Toshiba, que además de su enorme abanico de productos y sus anuncios de productos de alta gama, presenta su Toshiba Chromebook equipada con un procesador Intel Celeron de doble núcleo, 2 Gigabytes de memoria RAM, disco duro de 60 Gigabytes de Estado Sólido, puertos USB, expansión de memoria SD, puerto de red inalámbrica y sistema operativo Google Chrome.

Preguntando al personal que nos atendió en el stand de Toshiba, pudimos constatar que lo que se pretende es que el Usuario Final, equipado con esta portátil y estar conectado a Internet, el navegador y los programas que ya están instalados en el equipo son lo suficiente y necesario para poder trabajar, almacenar archivos de trabajo en La Nube (o en el disco duro de estado sólido), aprender y divertirse a través de las múltiples opciones que ahora se tienen al alcance del navegador Google Chrome.

Otros fabricantes que también están apostando fuerte por mercados en economías emergentes como ALCATEL, HUAWEI, etc. quienes ya ofertan teléfonos equipados con el Sistema Operativo Mozilla Firefox. Dichos teléfonos "adaptativos" solo requieren de capacidades y funcionalidades básicas como la llamada telefónica y el acceso a Internet por red 3G o WiFi, pues el Sistema Operativo y sus aplicativos son los que se encargarán de funcionalidades equiparables a los teléfonos de alta gama, vía aplicaciones en La Nube en modalidad Software como Servicio (SaaS por sus siglas en inglés).

La ropa inteligente, los accesorios y enseres domésticos, los juguetes y artilugios para el ocio tuvieron una presencia fuerte y dejaron profunda huella en los asistentes.

Destacan los "drones" que pueden ser controlados por teléfonos inteligentes mediante enlace a internet, accesorios, ropa y mobiliario para bebés que realizan actividades para permitir que la mamá moderna (sobre todo las que trabajan) pueda aprovechar mejor su tiempo y el renacimiento de los juegos de video ejecutables en computadores personales y no en majestuosas y poderosas consolas de videojuego.

En este último rubro destaca el concepto Christine de la empresa RAZOR. Un equipo de cómputo modular, altamente escalable con capacidades gráficas y de ejecución que nada tiene que envidiar a algunas consolas de videojuegos.

También a propios y extraños nos quedó más que claro que ahora los videojuegos se están distribuyendo y se distribuirán "en línea" y bajo demanda. Con ello entonces no deberá sorprendernos que las tiendas especializadas en la venta de videojuegos vayan desapareciendo de manera gradual.

De manera semejante, los contenidos multimedia como películas, series de televisión, eventos deportivos, etc. ya se distribuyen y distribuirán a través de la red de redes, permitiendo que sean los televisores los que permitan aprovechar de manera más rápida todo cambio tecnológico como lo es la Ultra Alta Definición, la tercera dimensión, etc.

Para que esto último pueda llevarse a cabo, empresas como Cisco y Broadcom cuentan con un amplísimo portafolio de productos, que permiten un uso más óptimo de las redes, así como responder con capacidades con miras a un futuro inmediato y/o mediato.

Respecto a la seguridad personal, el concepto GEO Fencing de Intel es La Solución para poder conocer en todo momento y en todo lugar, dónde nos encontramos y/o a dónde y cómo se encuentran nuestros seres queridos. Los beneficios que plantea este concepto son enormes y van desde aplicaciones enfocadas a la relación padres de familia-hijos, así como la relación hacia con personas mayores.

El concepto de Hogar Inteligente, Oficina Inteligente, Ciudad Inteligente, Escuela Inteligente, Gobierno Inteligente, etc. ya son una realidad gracias a las tecnologías existentes y que en este 2014 se comercializarán a todos los niveles. Con todo esto y los esfuerzos que distintos proveedores de Tecnologías de la Información ya están haciendo, es posible aún más el concretar todos estos objetivos.

Al final y no sin un dejo de prematura nostalgia, nos retiramos de las instalaciones del Consumer Electronics Show 2014 en Las Vegas, Nevada no sin antes asistir a una conferencia magistral en donde ya se comenzaron a barajar lo que muy posiblemente vendrá para el Consumer Electronics Show del 2015, como también el cómo las nuevas tecnologías de hoy afectarán nuestro futuro inmediato y mediato.

¿Qué espera Usted para visualizar nuevas oportunidades de negocio?