Fog computing ed edge computing. Quali differenze?

11 Marzo 2021

I concetti di fog computing ed edge computing vengono spesso confusi, probabilmente per somiglianza delle funzionalità che offrono in termini di elaborazione dati e di invio di dati a piattaforme analitiche situate vicino alla fonte di origine dei dati (siano esse sensori su macchinari, indossabili, piuttosto che dispositivi di varia natura su asset da monitorare e controllare). Entrambe le tecnologie possono aiutare le organizzazioni a ridurre la loro dipendenza su piattaforme cloud-based per analizzare dati, che spesso porta a problemi di latenza con impatti negativi in particolare nei casi d’uso per i quali è previsto il controllo di sistemi ad anello chiuso, tipici della smart building, health ed industry, per avvicinarsi ad un approccio data-driven che le consenta di prendere decisioni più rapide. Infatti in questa ottica, di pari passo con l’aumento dello stress computazione sui sistemi Cloud all’interno delle reti si assisterà alla decentralizzazione dei processi di elaborazione selezionati da attuare presso o vicino/al bordo (edge) dei sensori IoT di campo, intenti a raccogliere i dati.

Le architetture di fog e l’edge computing ,riducono pertanto, la quantità di dati che devono essere inviati e ricevuti da server remoti sul cloud e facilitano l’uso immediato dei dati stessi su cui è necessario operare elaborazione spesso entro millisecondi o decine di millisecondi dalla raccolta. La differenza principale tra il fog e l’edge computing è il punto in cui avviene il trattamento di tali dati.

Nell’ Edge computing i dati sono processati sugli stessi dispositivi (se sono essi stessi dotati della sufficiente capacità computazionale), o sui “gateway IoT”) o, appunto, su Edge Computers tipicamente collegati in rete locale ai dispositivi.

Nel caso di soluzioni Fog Computing, invece, le attività di elaborazione dati avvengono su un network di elementi di calcolo (hub, node, router, edge computer, smart device o gateway): i “microprocessori, posti su gateway IoT, o anche su edge computer o computer veri e propri, collegati alla LAN , che costituiscono i fog node della LAN, che potrebbero essere fisicamente più distanti dai sensori e dagli attuatori.

Inoltre, solitamente il paradigma “fog” predilige tecnologie di tipo “open” mentre quello “edge” maggiormente flessibile, utilizza solitamente tecnologie sia “open” che “proprietarie/licenziate”. Dal punto di vista dell’analisi del rischio, l’edge computing potrebbe essere preferibile al fog computing in quanto contiene potenzialmente un minor numero di elementi in cui può manifestarsi un guasto. Infatti, nella architettura “fog” ogni sensore o dispositivo all’interno della rete deve essere programmato in modo da determinare quale tipo di informazioni devono essere archiviate ed elaborate localmente e cosa dovrebbe essere inviato al cloud per una ulteriore elaborazione e/o archiviazione.

Ad ogni modo, la differenza non è così marcata, per cui entrambi gli approcci, sia Edge Computing che Fog Computing consentono meno latenza del Cloud computing e quindi sono più adatti per l’analisi rapida richiesta nelle applicazioni real-time o near-real-time, mentre il Cloud computing offre capacità tecnologiche di elaborazione superiori e avanzate, una potenza di elaborazione e capacità di archiviazione superiori e quindi risulta la tecnologia più adatta per l’analisi complessa e approfondita a lungo termine dei dati,. Un altro tratto distintivo importante riguarda l’utilizzo di internet e la sicurezza: il cloud computing necessita di un accesso a Internet 24/7, mentre gli altri due possono funzionare anche senza Internet. Pertanto, sono più adatti per i casi d’uso in cui i sensori IoT potrebbero non avere una connettività senza soluzione di continuità a Internet. Per quanto riguarda il tema della sicurezza, essendo i dati distribuiti tra i nodi (Fog computing) o nel dispositivo stesso (Edge computing), risulta più difficile manipolarli rispetto al sistema centralizzato del cloud ma per contro, l’utilizzo della cloud computing è da preferire nel caso si scegliesse di implementare le politiche di security per un singolo repository di dati (rispetto a più repository distribuiti nella rete).

Alcuni studi rivelano che più del 50% di aziende americane consideri che il rapido ed accurato raccoglimento e analisi di dati sia un aspetto essenziale della loro strategia, quindi sembra improbabile che questa sia solo una moda passeggera.

Le statistiche mostrano anche che il mercato dei servizi di edge computing sia destinato ad aumentare del 50% nel prossimo anno, soprattutto con l’aumento della tecnologia AI che richiede un apprendimento automatico veloce. Al momento, circa il 10% dei dati viene raccolto ed elaborato al di fuori dei metodi di cloud computing convenzionali. Tuttavia, uno studio di Gartner prevede che entro il 2025 circa il 75% dei dati verrà elaborato al di fuori del cloud.

Il mercato globale dell’edge computing per regione copre 5 principali aree geografiche, ovvero Nord America, Asia Pacifico (APAC), Europa, Medio Oriente e Africa (MEA) e America Latina. Le aziende che vogliono assicurarsi un alto livello di competitività dovranno necessariamente reinventare il loro modo di fare business: la versatilità e la scalabilità dell’edge computing si adatta perfettamente sia alle start-up che alle aziende consolidate, indipendentemente dalla tipologia di azienda. È noto che il raccoglimento di dati, la loro elaborazione e analisi sia un fattore cruciale di successo per le imprese, piccole, medie o grandi che siano.

Torna all'elenco

Guarda anche

27GIU2025

🔌 Dalla Digital Energy all’Edge Computing: l’evoluzione intelligente della rete energetica

Nel panorama dell’energia connessa e decentralizzata, anche gli strumenti più tradizionali si stanno trasformando. Oggi, i contatori fiscali non sono più semplici strumenti di misura, ma nodi intelligenti all’interno di un ecosistema energetico in continua evoluzione. Grazie all’integrazione con dispositivi edge, come le nostre Beeta Reader, è possibile raccogliere, elaborare e valorizzare i dati energetici direttamente nel punto in cui vengono generati, garantendo una risposta più rapida, una gestione autonoma e un maggiore controllo locale delle risorse. Questo approccio consente agli utenti – privati, aziende o comunità – di prendere decisioni più informate e ottimizzare in modo proattivo i propri consumi e la produzione di energia. Questa evoluzione apre scenari inediti per la gestione dinamica dei flussi energetici, in cui il dato diventa non solo uno strumento di monitoraggio, ma un fattore abilitante per l’ottimizzazione locale e in tempo reale dei consumi e delle produzioni. 📡 In questo contesto, le CER – Comunità Energetiche Rinnovabili e i VPP – Virtual Power Plant trovano la loro base tecnologica. La possibilità di monitorare puntualmente i prelievi e le immissioni energetiche, aggregare in modo flessibile le risorse distribuite, e reagire in tempi rapidi alle condizioni della rete, rappresenta una nuova frontiera per l’efficienza, la sostenibilità e l’autonomia energetica. Quello che fino a pochi anni fa sembrava futuristico è oggi realtà, grazie alla convergenza tra digital energy, edge computing e intelligenza artificiale. Tera continua a investire nella ricerca e sviluppo di piattaforme edge-cloud capaci di interfacciarsi con i contatori esistenti, elaborare dati in locale e contribuire a costruire una rete sempre più resiliente, trasparente e partecipativa. 🔍 Ne parla il nostro CEO, Antonio Sacchetti, in un approfondimento pubblicato a pagg. 36-37 della rivista digitale Smart Building Italia, disponibile al seguente link: 👉

10SET2025

Nuove direttive europee tra vincoli e opportunità per le tecnologie negli edifici

Le nuove politiche europee stanno ridefinendo il futuro del settore degli edifici intelligenti, ponendo nuove sfide ma anche aprendo spazi di innovazione e crescita. Nel suo recente articolo pubblicato su Smart Building Italia, il nostro CEO Antonio Sacchetti ha analizzato due direttive chiave che avranno un impatto diretto sulle tecnologie per gli edifici: il Cyber Resiliency Act (CRA) e la Energy Performance of Building Directive (EPBD). Il CRA è un regolamento europeo che introduce requisiti stringenti di cybersecurity per tutti i prodotti con elementi digitali, in particolare quelli connessi in rete. Tra i principali elementi: L’obiettivo è garantire maggiore protezione da vulnerabilità e cyber-attacchi, ma le aziende dovranno affrontare investimenti e complessità aggiuntive per conformarsi. La EPBD mira alla decarbonizzazione del parco edilizio europeo, fissando standard sempre più stringenti in ottica di sostenibilità. Gli aspetti più rilevanti includono: 👉 Vuoi leggere l’articolo completo ? Lo trovi su Smart Building Italia a questo link:

14MAG2025

Quali priorità per Industria e PMI?

Il Forum della Piccola Industria di Confindustria, nella splendida cornice di Palazzo Vecchio — cuore di una fervente storia imprenditoriale rinascimentale quale quella fiorentina — è stato stimolante per focalizzare le priorità dell’impresa italiana, e delle PMI in particolare. Il presidente della Piccola Industria nazionale, Giovanni Baroni, ha offerto una disamina completa e dettagliata di tutti i temi affrontati successivamente dai vari relatori: un compendio che raccomanderei a tutti. 👉 Cybersecurity Le problematiche legate alla cybersecurity (NIS2 in primis) sono state approfondite da Giorgia Dragoni (Direttore Osservatorio Digital Identity, Politecnico di Milano), Ernesto Lanzillo (Deloitte Private Leader), e Milena Rizzi (Capo Servizio Regolazione dell’Autorità Nazionale per la Cybersicurezza). Tra i vari punti critici è emersa, ad esempio, la complessità organizzativa e gestionale che una PMI deve affrontare nel compilare i questionari di cybersecurity: ogni cliente ne predispone uno diverso, nonostante gli obiettivi siano gli stessi. Energia Sul tema dell’energia, tra i numerosi interventi, spiccano quelli di Franco Cotana (AD di RSE – Ricerca sul Sistema Energetico) e Nicola Lanzetta (Direttore Italia – Enel). È stata evidenziata l’importanza delle PMI nella filiera energetica: delle circa 3.000 imprese fornitrici di Enel, circa l’85% sono PMI, molte delle quali vengono formate direttamente dall’azienda tramite programmi di reskilling. Particolare attenzione è stata data alle applicazioni emergenti di Digital Energy. Istituzioni e territori Nei loro interventi, il sindaco di Firenze e il presidente della Regione Toscana hanno sottolineato il supporto della PA toscana al mondo produttivo (circa 350.000 PMI in Toscana) e l’apertura verso progetti per la sicurezza energetica, anche non convenzionali. I presidenti della Piccola Industria Toscana e di Confindustria Firenze hanno testimoniato la tenacia e la concretezza del fare impresa tipiche della cultura toscana. Giorgio Marsiaj ha messo in luce le opportunità per le PMI nei settori aerospazio e difesa, dove sono attesi circa 7,5 miliardi di euro di spesa aggiuntiva per armamenti rispetto agli anni passati. L’intervento di Paolo Casalino (Direttore Generale per la Politica Industriale, la Riconversione e la Crisi Industriale, l’Innovazione, le PMI e il Made in Italy - MIMIT) ha unito apertura e concretezza: da un lato, ha richiesto contributi da parte della Piccola Industria sulle politiche europee specifiche per le PMI; dall’altro, ha elencato i principali passaggi della Commissione UE: • il piano per la chimica (atteso entro fine anno), • la possibilità di esenzioni CSRD per aziende sotto i 10 dipendenti, • nuovi pacchetti per cosmetica e dispositivi medici, • riserve di quote per PMI negli appalti pubblici, • revisione delle regole IPCEI per includere anche le PMI, • differenziazione normativa tra PI e MI, da riflettere nei futuri criteri impositivi. L’intervento di Emma Marcegaglia, forte della sua esperienza in Business Europe, è stato illuminante: • L’Italia è l’unico Paese in cui il 50% dell’export è generato dalle PMI. • Il Partenariato Atlantico vacilla: non si può escludere che venga meno. • I dazi USA sono una minaccia grave, visto che il 50% del PIL europeo dipende dall’export. • È necessaria una difesa europea unica, anche per ragioni economiche (le inefficienze dovute all’uso di armamenti diversi in ogni paese UE causano sprechi ingenti). • Il divario con gli USA sul digitale è enorme e non colmabile nel breve: serve una strategia alternativa. • Potremmo dover affrontare uno scenario in cui il dollaro non sarà più la valuta rifugio. • La riduzione del costo energetico in Italia è urgente: il differenziale con Spagna, Germania e Francia è troppo ampio. • Eliminare il Green Deal europeo sarebbe un errore: va semplificato, non smantellato. • Serve un mercato dei capitali unico in Europa per competere con USA e Cina. • Il sovranismo economico rischia di distruggere il mercato unico europeo, che invece è essenziale per la competitività globale. Proposte emerse • Un nuovo equilibrio tra apertura dei mercati e sicurezza nazionale, con una base comune per armamenti. • Incentivare la produzione in Europa, ad esempio riaprendo miniere strategiche. • Proteggere il sistema industriale europeo da acquisizioni estere non controllate. • Industria 5.0: va mantenuto il concept, ma le procedure vanno semplificate. Il presidente Emanuele Orsini ha chiuso il forum sottolineando l’unità del sistema confindustriale nel sostenere le politiche industriali, sia sul fronte delle PMI sia su quello macroeconomico e geopolitico.