Para definir de manera simple qué es Edge Computing podemos decir que es extender el cómputo hasta el borde o límite de la red. Otra manera de decirlo sería descentralizar la capacidad de cómputo para disponibilizarla de manera distribuida.
Distribuye y vencerás
Cuando hablamos de Edge Computing relacionado al Cloud es extender la capacidad del Cloud para virtualmente acercar el contenido y el cómputo a los consumidores.
Un ejemplo que algunos recordarán es cuando Apple lanzaba una nueva versión de iOS todos queríamos tenerla lo antes posible, en ese momento la descarga podía tardar hasta 24 horas independiente de nuestro ancho de banda de internet porque los “servidores de Apple se saturaban” (hoy los entendidos sabemos que hay muchos más elementos que servidores que interactúan para que descarguemos ese iOS, pero esa es otra historia…) esto se debía a que el contenido que queríamos descargar estaba centralizado en los Data Centers de Apple, millones de conexiones al mismo tiempo conectándose a un solo punto.
Hoy sabemos que una descarga de iOS es mucho más rápida que antes y esto se debe al uso de Edge Computing o una red CDN (Content Delivery Network) que usa Edge Computing para distribuir contenido, entonces, hoy cuando descargamos un iOS realmente nos conectamos a un “Servidor” cercano a nosotros que simula ser Apple para por medio de Reverse Proxy o DNS distribuido al que fue cargado previamente el iOS o contenido al que queremos acceder.
Lo mismo ocurre con una actualización de Microsoft o un evento de streaming masivo o cuando se necesita eliminar retardo en funciones o capacidad de cómputo.
Existen redes completamente descentralizadas como Akamai que incluso puede distribuir capacidades de cómputo para asegurar las redes o entregar contenido. O Redes híbridas que combinan cómputo centralizado con edge computing para acercarlo a los consumidores como son las redes de Amazon AWS, Azure o Google.
También conocido como Fog Computing o Neblina
Otras fórmulas del uso de Edge Computing tiene que ver con las redes industriales o redes IoT en el cual el principio es el mismo pero a menor escala, distribuir capacidad de cómputo lo más cercana al origen para efectuar funciones o procesamiento sin necesidad de llegar al Core Computing o cómputo centralizado, distribuyendo de esta manera la carga de trabajo y acelerando así la entrega de información.
El retardo es muy pero muy importante para el Edge Computing
Es bien sabido que la próxima batalla de las interfaces está iniciando y es la voz principalmente, los asistentes personales están empezando a vivir con nosotros, cada día seremos más Siri/Cortana/Alexa-dependientes, y todas las tareas que tendrán los robots de inteligencia artificial necesitan procesarse lo más rápido posible. Un caso más crítico será cuando empecemos a usar conductores autónomos y un atasco o un accidente se puedan evitar por microsegundos entre procesar en el Edge o en el servidor central de toda la vida.
Este es un artículo original del Blog, si le gustó compártelo!