Mostrando entradas con la etiqueta Architecture. Mostrar todas las entradas
Mostrando entradas con la etiqueta Architecture. Mostrar todas las entradas

miércoles, 6 de febrero de 2019

Internet de las Cosas desde abajo: Conectividad

En la entrada inmediata anterior, intitulada: "Internet de las Cosas desde abajo: Dispositivos y Controladores Físicos", hicimos un breve recorrido por todas y cada una de las siete capas que deben conformar una Solución para Internet de las Cosas, pero enfatizamos por sobre todo la primera capa: precisamente la capa de los Dispositivos y Controladores Físicos.

Ahora toca el turno de la segunda capa (de abajo hacia arriba). La capa de la Conectividad. Podemos definir ésta como: -"...la capacidad de un dispositivo mecanico y/o electrónico (computadora personal, periféricos, dispositivos móviles, robots, electrodomésticos, automóviles, etc.) para poder ser interconectado, por lo general mediante el uso de una red informática, una computadora personal u otro dispositivo electrónico, sin la necesidad de un equipo de cómputo de por medio, es decir en forma autónoma."- Esta es una definición de Wikipedia.

Cierto es que existen ya varios mecanismos y tecnologías para interconectar dispositivos, siendo los más comunes:
  • Red Ethernet Alámbrica
  • Red Inalámbrica o WiFi
  • Bluetooth
  • Red de telefonía celular (3G, 4G, 5G)

Hablando más precisamente a nivel de la Domótica, o el conjunto de tecnologías orientadas a la automatización de el hogar, el Consumer Electronics Show (CES) 2019 proporcionó más evidencia de que las empresas toman decisiones sobre la conectividad de Internet de las cosas (IoT), en donde Bluetooth y Wi-Fi parecen prevalecer. Si se comparara la conectividad de Internet de las Cosas con el juego de la ruleta (el CES se celebra en Las Vegas, después de todo), apostar por Bluetooth o Wi-Fi es como apostar en negro o rojo. Dado que la mayoría de los resultados posibles son uno u otro, las probabilidades de ganar son bastante buenas.

"First Alert" mostró una línea de detectores de humo que se integran con Apple Siri o Amazon Alexa. ¿Pero no tendría tanto sentido, si no más, integrar Wi-Fi? Un representante de la compañía reconoció que las versiones con Wi-Fi están llegando, quizás más adelante este año.

Las leyes estatales comúnmente exigen la instalación de alarmas de humo en cada vivienda; tiene mucho sentido combinar dos dispositivos que se dirigen a casi el mismo nivel de ubicuidad en los mismos lugares. La combinación de los dos dispositivos plantea la cuestión de dónde agregar un repetidor de Wi-Fi por separado.

Agregar Wi-Fi a una vivienda no será más molesto que montar la alarma de humo que tiene que estar allí de todos modos. Las obstrucciones físicas dispersas en las habitaciones representan un desafío mínimo para las últimas versiones de Wi-Fi; Dicho esto, el techo sigue siendo un gran lugar para montar un dispositivo inalámbrico.

Sin embargo Wi-Fi es simplemente una exageración para algunas aplicaciones. Además esta tecnología no está tan extendida como se podría esperar, más aún en lugares donde las personas no se congregan, lo que incluye la mayoría de los espacios dedicados para uso comercial, industrial o de servicios públicos.

"Rigado" está apostando por Bluetooth, que recibió un impulso, literal y figurativamente, de la evolución a Bluetooth 5. Antes de Bluetooth 5, los dispositivos Bluetooth eran básicamente para redes personales, como por ejemplo, para conectar un teléfono inteligente a un sistema de altavoces externos. Bluetooth 5 amplía el alcance inalámbrico del protocolo de aproximadamente 100 metros a 300 o 400 metros (en interiores).

"Rigado" crea componentes para la conectividad Bluetooth, incluido un chip que admite aproximadamente 20 dispositivos Bluetooth activos simultáneamente. La empresa se considera ante todo un socio de integración. Dicho esto, "Rigado" ha creado su propia puerta de enlace Bluetooth, un dispositivo que puede alojar aplicaciones de Internet de las Cosas y puede unir hasta 100 dispositivos Bluetooth activos (integrando en conjunto a cinco de sus chips) en un área de aproximadamente 2,000 pies cuadrados (casi 609.6 metros cuadrados).

Eso es para conectar dispositivos Bluetooth activos, pero si se usa para monitorear etiquetas Bluetooth simples que actúan como balizas ocasionales, cada puerta de enlace puede admitir cientos de dispositivos. En cualquiera de los modos, las puertas de enlace Bluetooth se convierten en una opción interesante para operaciones minoristas, negocios de hostelería (restaurantes, en particular) e instalaciones médicas, donde Bluetooth puede ser un método increíblemente útil y de bajo costo para rastrear y/o monitorear existencias o suministros.

En el juego de la ruleta, la apuesta segura es en negro o rojo, pero también puede jugar un número específico. Hay otras opciones de conectividad inalámbrica en el mundo de Internet de las Cosas. Algo parecido a apostar en un número específico. Elegir la opción correcta podría llevar a un gran recompensa.

Las opciones incluyen ANT+, Bluetooth, Bluetooth Smart, EnOcean, InGenu, LoRa, LTE, NB-IoT (esencialmente el subconjunto de casos de uso de Internet de las Cosas en redes 5G), Sigfox, Sub-GHz, ULE Alliance, Weightless, WiGig y varios tipos de WiFi. Si ya estamos involucrando en la  Internet de las Cosas, ¿cómo tomas la decisión correcta?


La mejor opción tecnológica para su aplicación podría terminar siendo un perdedor en el mercado. Es casi inevitable que la cantidad de opciones inalámbricas finalmente se reduzca a tres o cuatro, pero ¿cuáles?

Si tenemos una aplicación para Internet de las Cosas, hay que elegir la que mejor funcione. Después de eso lo demás no importa mucho, según Cees Links, gerente general de conectividad inalámbrica de Qorvo. El punto medular en una Solución para Internet de las Cosas es la aplicación, no "la radio". Elija cualquier radio que funcione en este momento, aprenda sobre su aplicación y si tiene que cambiar las radios en cinco años, ¿y qué? De todos modos, probablemente tenga que cambiar en unos cinco años dado el ritmo de la evolución tecnológica en el mercado inalámbrico.

Hay muchas, muchas opciones hoy, pero a largo plazo, dijo Links, es probable que las opciones que están liderando ahora se conviertan en las únicas opciones, todo lo demás es ruido. Los estándares abiertos más comunes se están desarrollando para ser más útiles en más circunstancias.

La Alianza LoRa acaba de anunciar que a partir de finales de diciembre, hay 100 operadores de redes LoRaWAN. LoRa está abierto, pero sigue siendo un sistema semi-propietario y las elecciones propietarias y semi-propietarias casi siempre son dejadas a un lado.

Es posible que las opciones de conectividad futuras se reduzcan a Bluetooth, Wi-Fi, Zigbee y redes celulares 4G/5G, dijo Links.


La mayoría de las aplicaciones en rangos cortos (menores a 30 pies, o aproximadamente 10 metros) serán portátiles y estarán dominadas por Bluetooth y Bluetooth Smart. Es probable que Wi-Fi y Zigbee dominen a distancias medias (hasta unos 300 pies o 100 metros), que en su mayoría serán de uso doméstico, cree Links. Es probable que Wi-Fi maneje todo el contenido en el hogar, mientras que Zigbee puede usarse para todos los datos de detección y control. La conectividad de larga distancia (millas o kilómetros) se asignará a 4G y 5G (LTE y NB-IoT).

Links cree que las casas dependerán de las redes de Wi-Fi, con un enrutador y tal vez dos o tres repetidores, dependiendo del tamaño y/o configuración de la casa. El formato es irrelevante.

Bueno, no le importa a una empresa que vende circuitos integrados y otros componentes para la conectividad inalámbrica. Tampoco importaría mucho a los consumidores. Mas puede ser importante para las Apple, Facebook y Microsofts del mundo.

Obtener Wi-Fi en habitaciones adicionales podría ser a través de la distribución de línea eléctrica. Puede haber repetidores separados o dispositivos de combinación, como repetidores con un asistente personal (por ejemplo, Siri, Alexa, Hello Google) integrados. El formato real podría ser el contrario de eso; los consumidores pueden instalar una serie de Amazon Echo Dots o algún otro dispositivo de conectividad para el hogar con repetidores integrados. O podría ser otra cosa, como un combo repetidor / detector de humo, por ejemplo.

Sí. Con un repetidor/detector de humo, habrá un problema de energía o, para ser más precisos, un problema de toma de corriente. La potencia casi siempre está cerca en un techo para la iluminación. Alternativamente, el repetidor podría terminar en el propio sistema de iluminación. Ya hay varias empresas que venden iluminación inteligente. ¿Por qué no combinar un sistema de luz con un repetidor? Podría funcionar por las mismas razones por las que un detector de humo combinado podría funcionar.

Hablando ahora de Internet de las Cosas a nivel industrial, comenzaremos diciendo que la automatización industrial se refiere al uso de varios dispositivos de control para manejar y controlar diferentes procesos y máquinas en una industria. También se realiza con una menor necesidad de intervención humana, lo que resulta en un rendimiento de control más automatizado. En la automatización industrial, los dispositivos conectados son las computadoras, máquinas y robots.

El crecimiento de IoT en la automatización industrial se destaca en un informe reciente de Berg Insight que encontró que la base instalada de dispositivos inalámbricos de IoT en la automatización industrial alcanzó los 21.3 millones en 2018. Ese crecimiento no muestra signos de desaceleración, ya que se espera que ese número llegue a 50.3. millones en 2023.

Las soluciones inalámbricas para Internet de las Cosas son excelentes para partes de instalaciones que son difíciles de alcanzar, tienen un costo prohibitivo para conectarse con instalaciones cableadas o tienen modificaciones frecuentes en los flujos de trabajo y diseños. En la automatización de fábricas, el Internet de las Cosas basado en conectividad inalámbrica se puede usar para controlar dispositivos como grúas y vehículos guiados automáticos (AGV) en aplicaciones de manejo de materiales. También se pueden utilizar en la automatización de procesos para conectar instrumentos que permiten a los operadores de la planta monitorear y optimizar procesos en áreas peligrosas, lo que ayuda a garantizar la seguridad de los trabajadores.

-"La conectividad robusta es fundamental para respaldar los casos de uso de Internet de las Cosas industrial, relacionados con el mantenimiento predictivo y los gemelos digitales"-, dijo Fredrik Stalbrand, analista de Internet de las Cosas en Berg Insight. Continuó explicando que la instalación y el mantenimiento de las soluciones inalámbricas son más flexibles y económicos en comparación con las tecnologías cableadas, lo que permite un diseño de sistema de fabricación reconfigurable.

El informe de Berg Insight también estimó que los envíos anuales de dispositivos inalámbricos para aplicaciones de automatización industrial, alcanzaron ya los 4.6 millones de unidades en todo el mundo en 2018, lo que representa aproximadamente el 6 por ciento de todos los nuevos nodos conectados. Se espera que ese número llegue a 9.9 millones en 2023, lo que es una evidencia más del rápido crecimiento de Internet de las Cosas en la automatización industrial.

Si bien la adopción de soluciones inalámbricas para soluciones de Internet de las Cosas en automatizaciones industriales puede ayudar en todo, desde la mejora de la eliminación de desechos, el refinamiento de las cadenas de suministro hasta la creación de operaciones eficientes en la fábrica, estas soluciones producen más: Datos. Big data.

Los datos residen en todas partes en la fabricación. Las soluciones inalámbricas Para Internet de las Cosas trabajan para recopilar y comunicar esos datos para que puedan ser analizados y utilizados de manera efectiva.

Hay datos valiosos en los sistemas de Planificación de Recursos Empresariales (ERP), sistemas de gestión del Ciclo de Vida del Producto (PLM), Sistemas de Ejecución de Fabricación (MES) y sistemas de Gestión de Relaciones con Proveedores (SRM), así como en todos los documentos como hojas de cálculo y otros archivos que una empresa acumula. También hay datos para ser recopilados y utilizados fuera de la empresa de fuentes como proveedores e incluso ventas.

Las compañías de automatización industrial que continúan adoptando estrategias de Internet de las Cosas tienen la mejor oportunidad de superar los silos de organización, procesos, datos y sistemas al automatizar la recopilación de datos en todas las divisiones y operaciones. Estarán posicionados para analizar y utilizar mejor todos los datos que ayudan a garantizar operaciones más eficientes y rentables.

Esto último aquí mencionado con respecto a la generación y Análisis de inmensas cantidades de Datos, serán analizadas con más detalle cuando hablemos de la Cuarta Capa o "Acumulación de los Datos", así como también cuando hablemos de la Quinta Capa o "Abstracción de los Datos".

miércoles, 16 de enero de 2019

VMware se asocia con Intel en la iniciativa Open Retail

VMware se enorgullece de ser parte de Open Retail Initiative (ORI), un esfuerzo de colaboración de Intel y otras compañías de alta tecnología, que creen que las soluciones abiertas accesibles acelerarán la iteración, la flexibilidad y la innovación a gran escala. Esta colaboración ayudará a volver a imaginar las posibilidades en tecnología y acelerará la innovación en la industria minorista.

-“Hoy en día, los minoristas tienen enormes oportunidades para aplicar Edge Computing y IoT para acelerar la innovación, crear nuevas fuentes de ingresos y capturar oportunidades de negocios de próxima generación. VMware se complace en unirse a Intel y otros líderes de la industria para establecer la Open Retail Initiative para ayudar a acelerar la colaboración y la creación de nuevas fundaciones digitales IoT abiertas e interoperables para la industria minorista."- nos comenta Mimi Spier, Viceprecidente de Edge & IoT Business de VMware.

Desde mediados-fines del año 2018, Internet de las cosas ha recibido la mayoría de los reflectores, amén de que en el más reciente Consumer Electronics Show 2019, en Las Vegas (del lunes 7 al viernes 11 de enero de 2019), fue la Internet de las Cosas la tecnología más mencionada.

En anteriores entradas a este Blog como "Internet de las Cosas, no es conectarlo todo contra todo" y otras tantas, hemos mencionado que Internet de las Cosas, como una de las tecnologías derivadas de la Transformación Digital y colaborando con más tecnologías como:

Colaboración y Procesos.- En donde se involucra directamente a personas y los ciclos del negocio.
Aplicaciones.- Todo lo relativo a Reportes, Análisis, Control.
Abstracción de los Datos.- Adición y acceso a datos generados por capas inferiores.
Acumulación de los Datos.- Almacenamiento de datos generados por capas inferiores.
Edge Computing.- Análisis y Transformación de los datos generados por la capa 1.
Conectividad.- Unidades para comunicación y pre-procesamiento de los datos.

Si una vertical de la industria ha demostrado ser la punta de lanza, incubadora y caso de éxito más sonado (y por ende catalizador para la trascendencia) de cualquier innovación, tecnología, concepto, etc. es el ramo de la venta al menudeo o "Retail".

Precisamente son los "retailers" quienes en pos de hacer más rentable y eficiente su negocio, tienden a implementar Servicios, Conceptos e Ideas que "in principio" se ven descabelladas, pero que después más verticales de le industria se agolpan para ser el siguiente caso de éxito de esos Conceptos e Ideas que triunfaron en la venta al menudeo.

¿Qué nos dicen de e-commerce? Hijo de e-business, este concepto que parecía salido de la ciencia ficción o de la literatura fantástica, quienes supieron implementarlo completa, correcta y cabalmente, hoy son los amos y señores de la venta al detalle y la distribución de productos. ¿Recuerdan en sus inicios por allá en ese ya muy lejano 1999, como un señor llamado Jeffrey Preston Bezos (Jeff para los amigos) comenzaba con una aventura llamada amazon.com.

Comenzó vendiendo libros, posteriormente se convirtió en la puerta al Comercio Electrónico para empresas que, tras haber fracasado rotundamente por no haber entendido el concepto, o simplemente eran empresas que querían empezar con el pie derecho y por la puerta grande.

Hoy amazon.com te vende lo inimaginable y en ya muchos estados de la Unión Americana, también ya vende y entrega perecederos y productos que otrora eran muy de los supermercados.

Así pues, hoy tenemos a Walmart, Sam's Club, Costco y otras empresas nacionales y trasnacionales, que ya cuentan con su alternativa "compre en línea y recoja en tienda", o simplemente "compre en línea y reciba en su domicilio".

¿Recuerdan a la Arquitectura Orientada a Servicios (SOA o Service Oriented Architecture) promovida por IBM allá en el ya lejano 2003? No se imaginan quienes, como lo mencionábamos en nuestras pláticas, charlas y demás eventos en los que apoyábamos el tema, ya hacían SOA, antes de SOA. Sí. Adivinaron. El ramo del Retail.

¿Han puesto atención cómo funciona un supermercado o una tienda departamental? Pues habilitando una entrada y salida para cada uno de los Servicios que involucran en su operación. ¿Por ejemplo? Puertas de entrada y estaciones punto de venta para los Clientes. Puertas de entrada y salida para empleados. Bahías de carga y descarga para entrada y salida masiva de mercancías. Cada una de estas es un servicio en sí mismo, pero trabajando en conjunto, conforman el día a día de estas tiendas.

Aquí pues y por favor suplicamos su atención para esto que vamos a decir: Si ya fue visto, evaluado, implementado y es un caso de éxito para el Retail, entonces puede ser un caso de éxito para cualquier vertical del mercado y la industria. Obviamente con sus debidas adaptaciones, tropicalizaciones y adecuaciones.

Si a todo lo anterior sumamos la presencia de las arquitecturas y tecnologías Abiertas (Código Abierto u Open Source), todo esto tiene el potencial de ser a corto o mediano plazo, un éxito arrollador.

No es entonces de extrañarnos que empresas líderes en Tecnologías de la Información como Intel y VMware, estén trabajando en una estrategia en la que se incluye Internet de las Cosas, Cómputo, Virtualización y tecnologías derivadas de toda una implementación como estas.

Aterrizando todo esto, Tech Data cuenta ya con casos de éxito de IoT para el Retail en países europeos (como España-Barcelona), así como también ya está trabajando en América Latina (Brasil) en importantes proyectos que involucran Internet de las Cosas, así como también aplicaciones, colaboración de procesos, inteligencia de negocios, análisis de datos, etc.

¿Conclusión? Estemos pendientes, pues en un lapso no mayor a diez y ocho meses, es muy probable que estamos hablando de otra alianza semejante para otra vertical de la industria, tras el rotundo éxito de esta estrategia conjunta emprendida ya por Intel y VMware.

sábado, 5 de enero de 2019

Open Source Hardware o la revolución del cómputo

-"Todo lo que se toca, el CPU, el Teclado y el Monitor, son el Hardware, mientras que todo lo que se ejectuta dentro del CPU (Sistema Operativo, Programas, etc.) y que no se toca, es el Software."-

Así me explicó un maestro de computación hace ya algunas décadas, cuando comencé mis primeros pasos ya formales en la Informática, Sistemas, Cómputo o Tecnologías de la Información (como ahora se les dice).

Quienes me siguen en Redes Sociales y me leen a través de mis Blogs, saben que todo lo que tenga que ver con Código Abierto (Open Source), Linux y Virtualización, simplemente me parece maravilloso y me enloquece. Pero de un par de meses o serán tres, a la fecha, me ha sorprendido gratamente esto que ahora se ha dado en llamar como "Open Source Hardware".

Haciendo un poco de historia, muy al principio los procesadores fueron creados bajo la arquitectura Minimal Instruction Set Computer o MISC por sus siglas en inglés. Es una arquitectura de procesador con un número muy pequeño de operaciones básicas y códigos de operación correspondientes. Dichos conjuntos de instrucciones generalmente se basan en la pila o "STACK" en lugar de en el registro, para reducir el tamaño de los especificadores de operandos.

Tal arquitectura de máquina es intrínsecamente más sencilla, ya que todas las instrucciones operan en las "entradas de pila" más altas.

A modo de referencia, las computadoras de abordo en las cápsulas de los proyectos Mercury, Gemini y Apollo de la NASA, estas últimas que llevaron al hombre a la luna, utilizaban la arquitectura MISC.

Posteriormente y con la popularización de cómputo en los años setenta-ochenta, nace la arquitectura CISC o Complex Instruction Set Computing. Los microprocesadores CISC tienen un conjunto de instrucciones que se caracteriza por ser muy amplio y permitir operaciones complejas entre operandos situados en la memoria o en los registros internos.

Este tipo de arquitectura dificulta el paralelismo entre instrucciones, por lo que, en la actualidad, la mayoría de los sistemas CISC de alto rendimiento implementan un sistema que convierte dichas instrucciones complejas en varias instrucciones simples, llamadas generalmente microinstrucciones.

Ejemplos de procesadores CISC son: Motorola 68000, Zilog Z80 y toda la familia Intel x86, AMD x86-64 usada en la mayoría de las computadoras personales y servidores actuales.

Por último y no menos importante, la arquitectura RISC o Reduced Instruction Set Computing es un tipo de diseño de CPU generalmente utilizado en microprocesadores o microcontroladores con las siguientes características fundamentales:​

  1. Instrucciones de tamaño fijo y presentadas en un reducido número de formatos.
  2. Solo las instrucciones de carga y almacenamiento acceden a la memoria de datos.

Además estos procesadores suelen disponer de muchos registros de propósito general.

El objetivo de diseñar máquinas con esta arquitectura es posibilitar la segmentación y el paralelismo en la ejecución de instrucciones y reducir los accesos a memoria. Las máquinas RISC protagonizan la tendencia actual de construcción de microprocesadores. IBM PowerPC,​ DEC Alpha, MIPS, ARM, SPARC son ejemplos de algunos de ellos.

RISC es una filosofía de diseño de CPU para computadora que está a favor de conjuntos de instrucciones pequeñas y simples que toman menor tiempo para ejecutarse. La idea fue inspirada por el hecho de que muchas de las características que eran incluidas en los diseños tradicionales de CPU para aumentar la velocidad estaban siendo ignoradas por los programas que eran ejecutados en ellas.

Además, la velocidad del procesador en relación con la memoria de la computadora que accedía era cada vez más alta. Esto conllevó la aparición de numerosas técnicas para reducir el procesamiento dentro del CPU, así como de reducir el número total de accesos a memoria.

Y todo esto, ¿para qué? En muchos y muy diversos canales de YouTube, así como en cuentas de los más importantes exponentes y empresas de artículos de Electrónica de Consumo, Cómputo y Tecnologías de la Información en general, circulan noticias de cómo ha evolucionado y renovado la arquitectura RISC, no solo aplicada a los Dispositivos Personales Móviles (antes conocidos como "smartphones") sino que ahora tabletas, lap-tops y algunos micro sistemas de escritorio incluyen RISC en vez de CISC como la arquitectura de su preferencia.

Por su muy bajo consumo eléctrico, por ofrecer capacidades gráficas avanzadas, por permitir disminuir el tamaño de los dispositivos, ahora podemos ver por ejemplo la ARM (y sus derivados) como los reyes, desbancando en ya no pocas ocasiones a Intel y AMD.

Cierto. Si deseas un equipo altamente poderoso para "Gamer" o jugador experto, RISC no es para ti. Pero si lo que deseas es un equipo altamente portátil, muy ligero, con el consumo eléctrico más eficiente, entonces RISC es para ti.

Recientemente se liberó la especificación RISC-V (léase RISC generación cinco): La arquitectura libre y abierta del conjunto de instrucciones RISC.

Nacido en el ámbito académico y de investigación, la arquitectura de conjuntos de instrucciones RISC-V ofrece un nuevo nivel de libertad de software y hardware libre y extensible en la arquitectura, allanando el camino para los próximos 50 años de diseño e innovación de computación.

Cómo será de importante esta arquitectura, que las empresas más grandes de hardware, software y soluciones ya están involucradas en este consorcio como Miembros Platino. A modo de ejemplo podemos mencionar a Google, NVDIA, Qualcomm, Rambus, Samsung y Western Digital entre muchos otros.

Como miembros oro podemos mencionar a Grupo Alibabá, Huawei, IBM, Raspberry Pi, etc.

¿Qué empresas de Software (en el ramo de Sistema Operativo) ya están trabajando con denodada pasión, para poder ejecutarse sobre esta arquitectura? Pues obviamente las distribuciones más importantes de Linux como Suse, Ubuntu y Debian, el Unix de Berkeley Software Distribution, Mac OSX y aunque parezca extraño, el mismo Microsoft ya tiene una versión de Windows 10 para procesadores ARM.

Estamos más que seguros que para el ya inminente Consumer Electronics Show en Las Vegas (del 8 al 11 de Enero de 2019), veremos electrodomésticos, vehículos, equipos de cómputo personal (móvil, de sobremesa o portátil) y dispositivos que entran dentro del esquema de Internet de las Cosas, que incluyen "a la de ya", arquitectura RISC-V en sus procesadores.

¿En conclusión? La carrera de los procesadores ya dejó de ser por encontrar u obtener el que ofrezca más GigaHertz, más memoria caché y/o con más núcleos de procesamiento. Ahora en esta nueva arena el consumidor decidirá cuál es el más versátil y con el consumo de energía más eficiente.

En sus marcas, listos, RISC-V !!!

viernes, 6 de noviembre de 2015

Tendencias clave en los centros de datos para 2016

Estamos comenzando el penúltimo mes del año 2015. Un año que no dejó de sorprendernos por todo lo bueno y no tanto, que dentro de las Tecnologías de la Información sucedió.

El pasado ya quedó atrás y es por eso que con miras al ya muy próximo año 2016, queremos compartirles lo que algunos especialistas ya están pronosticando para el año venidero.


“Mientras todavía vemos cómo muchas empresas siguen huyendo de inversiones a largo plazo en equipos informáticos debido al fluctuante entorno económico, el espacio del centro de datos cambia con rapidez”, comenta Lal Karsanbhai, presidente de Emerson Network Power en Europa, Oriente Medio y África. “Nuestro sector está innovando continuamente, introduciendo nuevas tecnologías en el mercado de forma regular, una tendencia que seguiremos observando a lo largo del próximo año”.
La empresa ha elaborado una lista con las cinco tendencias que, a su juicio, darán forma al panorama de los centros de datos a partir de 2016:

1. La nube se complica
La mayoría de organizaciones utiliza ahora, hasta cierto grado, la computación en la nube. La evolución desde SaaS a entornos verdaderamente híbridos, en los que los servicios en la nube se utilizan para aportar mayor agilidad a instalaciones antiguas, sigue avanzando a medida que más organizaciones se pasan a una arquitectura bimodal. Sin embargo, en lugar de permanecer estable, la nube podría volverse cada vez más compleja. El último estudio de investigación sobre utilización de servidores, llevado a cabo por Jonathan Koomey de Stanford y Jon Taylor de Anthesis Group, reveló que los servidores de centros de datos empresariales siguen proporcionando tan solo, de media, entre el 5 y el 15% de su potencial de computación máximo en el transcurso de un año. Además, el 30% de los servidores físicos está en estado “comatoso”, lo que significa que no han proporcionado servicios informáticos en seis meses o más. La presión para identificar y eliminar servidores comatosos continuará aumentando y es un paso necesario para la correcta gestión del consumo energético; sin embargo, también se explorará el potencial de que la capacidad no utilizada de centros de datos pase a formar parte de un servicio compartido, un modelo de computación en la nube distribuido, lo que permitirá a los centros de datos empresariales vender su capacidad excedente en el mercado libre.

2. La arquitectura se impone sobre la tecnología
Si bien la tecnología de los centros de datos desempeña una importante función a la hora de garantizar el rendimiento y la disponibilidad, los operadores de centros de datos cada vez se centran menos en ella y más en las arquitecturas en las que están desplegando esas tecnologías. “Nuestros clientes acuden a nosotros para desarrollar una arquitectura a su medida que se ajuste a sus necesidades y entorno específicos. Ya no buscan automáticamente la arquitectura de potencia tradicional, al entender que un sistema personalizado según sus requisitos es capaz de ofrecer más beneficios a largo plazo, incluidos una mayor disponibilidad, rendimiento y ahorro adicional” añade Franco Costa, vicepresidente y director general de sistemas de alimentación para Emerson Network Power en Europa, Oriente Medio y África.

3. Los centros de datos encuentran un lenguaje común
El Internet de las Cosas (IoT, por sus siglas en inglés) no solo repercutirá sobre las arquitecturas de los futuros centros de datos aumentando el volumen de datos que deban procesarse, sino que también cambiará la gestión de los centros de datos, y esto último pasará antes que lo primero. Los centros de datos de hoy en día incluyen miles de dispositivos que hablan multitud de lenguajes, incluidos IPMI, SNMP y Mod Bus. Esto crea lagunas entre sistemas que limitan los esfuerzos de gestión holística. Esta limitación dejará de existir a medida que Redfish, una especificación abierta de sistemas para centros de datos y gestión de sistemas desarrollada por Emerson Network Power, Intel, Dell y HP, consiga aceptación. Redfish creará interconectividad a través de sistemas de centros de datos, permitiendo nuevos niveles de visibilidad, control y automatización. Su adopción también ayudará a establecer mejores prácticas para el uso eficaz de IoT en otras aplicaciones.

4. La responsabilidad social se hace notar
Desde 2007, el sector ha abordado la eficiencia energética pero centrándose sobre todo en los aspectos financieros. Ahora, con iniciativas como la Directiva relativa a la eficiencia energética de la UE, en la que se esboza un conjunto de medidas vinculantes con las que se pretende lograr la reducción del 20% del consumo energético para 2020, algunas empresas están cambiando su enfoque de ahorro financiero por el de sostenibilidad, y están mirando sus centros de datos a través de una lente de responsabilidad social. Las operaciones de los centros de datos, incluidas la huella de carbono, el uso de energías alternativas y la eliminación de equipos, se están incluyendo ahora en las declaraciones de responsabilidad corporativa, creando una mayor presión para avanzar en estas áreas. El impacto de esta tendencia no se limitará a decisiones tecnológicas en las instalaciones. Para que sea significativa, deberá abarcar todo el ecosistema del centro de datos, incluidas la colocación y los proveedores de la nube. A medida que esta práctica crezca, la sostenibilidad alcanzará el nivel de disponibilidad y seguridad, como atributos imprescindibles de un centro de datos de alto rendimiento.

5. El centro de datos de vecindad se consolida
El crecimiento en el consumo de contenido digital y recopilación de datos está desafiando el modelo de centro de datos centralizado. Si bien grandes centros de datos seguirán proporcionando la mayoría de la computación, se verán respaldados cada vez más por instalaciones limítrofes, o centros de datos de vecindad, que proporcionarán contenido y aplicaciones de baja latencia a usuarios o procesamiento de datos y lógica para redes de IoT. A medida que estos microcentros de datos, funcionando como satélites de una instalación central, proliferen en los campus corporativos y en áreas residenciales de alta densidad, su éxito dependerá del uso de sistemas inteligentes y estandarizados que puedan gestionarse remotamente.
“Factores como la sostenibilidad y la velocidad seguirán repercutiendo en el mercado de centros de datos a lo largo del próximo año”, añade Karsanbhai. “En 2016, veremos como un mayor número de organizaciones comprenderán lo que podría aportar a sus operaciones globales invertir en nuevos equipos, como una mejor comprensión de los datos y la capacidad de ofrecer a sus clientes un mejor servicio”.
Reiteramos que estas son opiniones y puntos de vista que especialistas y personas ajenos a nosotros, han comenzado a publicar. Sin embargo no quiere decir con esto que no estemos conscientes o hasta de acuerdo con la veracidad y solidez de una, varias o todas ellas.

¿Cuál es su pronóstico para el 2016?

jueves, 14 de agosto de 2014

Intel y la nueva micro arquitectura de 14 nanómetros

Intel presentó el 12 de agosto de 2014 los detalles de su nueva micro arquitectura, optimizada con la tecnología de 14 nanómetros (nm). Fundamentalmente, es un modelo de alto rendimiento y bajo consumo de energía para cómputo que va desde dispositivos móviles hasta infraestructura de computación en la nube e Internet de las Cosas.

“La combinación de la nueva micro arquitectura y del proceso de fabricación darán inicio a una nueva ola de innovación en nuevos factores de forma, experiencias y sistemas más delgados, silenciosos y frescos”, escribe Intel, agregando que en comparación a la generación anterior del procesador, sus arquitectos y diseñadores  han reducido dos veces el diseño térmico del chip, al mismo tiempo que proporcionan un rendimiento similar y otorgan una mejora en la duración de la batería.

Intel ha desarrollado la primera tecnología de 14 nm del mundo en volumen de producción. Utiliza la segunda generación de transistores Tri-gate (FinFET), que entrega el mejor desempeño, potencia, densidad y costo por transistor de la industria.

La tecnología de 14 nm de Intel se usará para fabricar una amplia gama de productos de alto rendimiento y de bajo consumo, incluyendo servidores, dispositivos de computación personal y del Internet de las Cosas.
Los primeros sistemas basados en el procesador Intel® Core™ M estarán disponibles en el primer semestre de 2015.

Productos adicionales basados en la micro arquitectura Broadwell y en el proceso tecnológico de 14 nm se introducirán en los próximos meses.
“El modelo integrado de Intel –la combinación de nuestra experiencia de diseño con el mejor proceso de fabricación– hace posible la entrega de un mejor rendimiento y bajo consumo para nuestros clientes y para los consumidores”, dijo Rani Borkar, vicepresidente y gerente general de desarrollo de productos de Intel. “Esta nueva micro arquitectura es más que un notable logro técnico. Es una demostración de la importancia de nuestra filosofía de diseño de afuera para adentro que combina con nuestros diseños y los requisitos de nuestros clientes”.

“La tecnología de 14 nanómetros de Intel utiliza la segunda generación de transistores Tri-gate para entregar el mejor rendimiento, potencia, densidad de y costo por transistor de la industria”, dijo Mark Bohr, investigador senior de Technology and Manufacturing Group y director de Process Arquitecture and Integration de Intel. “Las inversiones de Intel y el compromiso con la ley de Moore están en el corazón de lo que nuestros equipos han sido capaces de lograr con este nuevo proceso”.