Fog computing ed edge computing. Quali differenze?

11 Marzo 2021

I concetti di fog computing ed edge computing vengono spesso confusi, probabilmente per somiglianza delle funzionalità che offrono in termini di elaborazione dati e di invio di dati a piattaforme analitiche situate vicino alla fonte di origine dei dati (siano esse sensori su macchinari, indossabili, piuttosto che dispositivi di varia natura su asset da monitorare e controllare). Entrambe le tecnologie possono aiutare le organizzazioni a ridurre la loro dipendenza su piattaforme cloud-based per analizzare dati, che spesso porta a problemi di latenza con impatti negativi in particolare nei casi d’uso per i quali è previsto il controllo di sistemi ad anello chiuso, tipici della smart building, health ed industry, per avvicinarsi ad un approccio data-driven che le consenta di prendere decisioni più rapide. Infatti in questa ottica, di pari passo con l’aumento dello stress computazione sui sistemi Cloud all’interno delle reti si assisterà alla decentralizzazione dei processi di elaborazione selezionati da attuare presso o vicino/al bordo (edge) dei sensori IoT di campo, intenti a raccogliere i dati.

Le architetture di fog e l’edge computing ,riducono pertanto, la quantità di dati che devono essere inviati e ricevuti da server remoti sul cloud e facilitano l’uso immediato dei dati stessi su cui è necessario operare elaborazione spesso entro millisecondi o decine di millisecondi dalla raccolta. La differenza principale tra il fog e l’edge computing è il punto in cui avviene il trattamento di tali dati.

Nell’ Edge computing i dati sono processati sugli stessi dispositivi (se sono essi stessi dotati della sufficiente capacità computazionale), o sui “gateway IoT”) o, appunto, su Edge Computers tipicamente collegati in rete locale ai dispositivi.

Nel caso di soluzioni Fog Computing, invece, le attività di elaborazione dati avvengono su un network di elementi di calcolo (hub, node, router, edge computer, smart device o gateway): i “microprocessori, posti su gateway IoT, o anche su edge computer o computer veri e propri, collegati alla LAN , che costituiscono i fog node della LAN, che potrebbero essere fisicamente più distanti dai sensori e dagli attuatori.

Inoltre, solitamente il paradigma “fog” predilige tecnologie di tipo “open” mentre quello “edge” maggiormente flessibile, utilizza solitamente tecnologie sia “open” che “proprietarie/licenziate”. Dal punto di vista dell’analisi del rischio, l’edge computing potrebbe essere preferibile al fog computing in quanto contiene potenzialmente un minor numero di elementi in cui può manifestarsi un guasto. Infatti, nella architettura “fog” ogni sensore o dispositivo all’interno della rete deve essere programmato in modo da determinare quale tipo di informazioni devono essere archiviate ed elaborate localmente e cosa dovrebbe essere inviato al cloud per una ulteriore elaborazione e/o archiviazione.

Ad ogni modo, la differenza non è così marcata, per cui entrambi gli approcci, sia Edge Computing che Fog Computing consentono meno latenza del Cloud computing e quindi sono più adatti per l’analisi rapida richiesta nelle applicazioni real-time o near-real-time, mentre il Cloud computing offre capacità tecnologiche di elaborazione superiori e avanzate, una potenza di elaborazione e capacità di archiviazione superiori e quindi risulta la tecnologia più adatta per l’analisi complessa e approfondita a lungo termine dei dati,. Un altro tratto distintivo importante riguarda l’utilizzo di internet e la sicurezza: il cloud computing necessita di un accesso a Internet 24/7, mentre gli altri due possono funzionare anche senza Internet. Pertanto, sono più adatti per i casi d’uso in cui i sensori IoT potrebbero non avere una connettività senza soluzione di continuità a Internet. Per quanto riguarda il tema della sicurezza, essendo i dati distribuiti tra i nodi (Fog computing) o nel dispositivo stesso (Edge computing), risulta più difficile manipolarli rispetto al sistema centralizzato del cloud ma per contro, l’utilizzo della cloud computing è da preferire nel caso si scegliesse di implementare le politiche di security per un singolo repository di dati (rispetto a più repository distribuiti nella rete).

Alcuni studi rivelano che più del 50% di aziende americane consideri che il rapido ed accurato raccoglimento e analisi di dati sia un aspetto essenziale della loro strategia, quindi sembra improbabile che questa sia solo una moda passeggera.

Le statistiche mostrano anche che il mercato dei servizi di edge computing sia destinato ad aumentare del 50% nel prossimo anno, soprattutto con l’aumento della tecnologia AI che richiede un apprendimento automatico veloce. Al momento, circa il 10% dei dati viene raccolto ed elaborato al di fuori dei metodi di cloud computing convenzionali. Tuttavia, uno studio di Gartner prevede che entro il 2025 circa il 75% dei dati verrà elaborato al di fuori del cloud.

Il mercato globale dell’edge computing per regione copre 5 principali aree geografiche, ovvero Nord America, Asia Pacifico (APAC), Europa, Medio Oriente e Africa (MEA) e America Latina. Le aziende che vogliono assicurarsi un alto livello di competitività dovranno necessariamente reinventare il loro modo di fare business: la versatilità e la scalabilità dell’edge computing si adatta perfettamente sia alle start-up che alle aziende consolidate, indipendentemente dalla tipologia di azienda. È noto che il raccoglimento di dati, la loro elaborazione e analisi sia un fattore cruciale di successo per le imprese, piccole, medie o grandi che siano.

Torna all'elenco