Contatta il reparto vendite 800 13.40.41 | Richiedi il Supporto Partner EN flag

KNOWLEDGE BASE

Knowledge Base

Data Breach Defence - 2° Parte

Data Breach Defense: soluzioni e remediation

Il problema dell’effrazione ed esfiltrazione (sottrazione) dei dati informatici, ancor più di quelli oggetto del GDPR e rientranti nel concetto di “dati personali” ha molte sfaccettature, perché, data la pluralità di strumenti IT e l’ormai totale esposizione alla Rete dei computer e la diffusa virtualizzazione delle infrastrutture, la superficie di attacco a disposizione degli hacker è diventata notevole, tanto che i cyber-attacchi possono provenire da più parti: e-mail, connessione a Internet, supporti di storage inseriti nei computer, dati scaricati inavvertitamente da link più o meno visibili.

In un tutorial dedicato abbiamo esposto tutti questi pericoli e le possibili fonti di Data Breach; in questo esporremo le remediation, ossia soluzioni per evitarli o per mitigarne i danni.

Banner

WPA Security: protocolli e consigli utili

Quando si parla di protezione dall’effrazione dei dati non si può prescindere da quel che accade nelle reti wireless e dalla sicurezza correlata allo scambio di informazioni tramite WiFi. È quindi interessante fare il punto sulla WPA Security ovvero WiFi Protected Access Security. Esistono tre tipologie di protocollo di sicurezza: WEP, WPA2 e WPA3; il WEP è ormai superato perché utilizza un algoritmo non sicuro (l’RC4) che sostanzialmente sfrutta una chiave da 40 bit + 24 bit per il vettore di inizializzazione (Initialization Vector). Ecco perché il WEP non deve assolutamente essere utilizzato all'interno di una rete aziendale. È stato sostituito dal WPA2 che è attualmente è ampiamente utilizzato e utilizza algoritmi di cifratura molto più sicuri, fra cui CCMP e AES, quindi la sicurezza è più elevata.

Il WPA3 è in fase di sviluppo e porterà numerosi benefici, anche perché ha permesso l'utilizzo della Simultaneous Authentication of Equals (SAE) che ha sostituito le chiavi pre-shared ket del WPA2 Personal; inoltre ha introdotto il meccanismo Dragonfly per l’autenticazione.

Il WiFi soffre di molte altre vulnerabilità fra cui il JAMMING (interferenza radio), il Rouge Access Point, l’Evil Twin, l’Eavensdropping e l’IV (Initialization Vector) Attack.

Quindi il WPA3 è sicuramente la soluzione migliore: non è compatibile con il WPA2 e utilizza, nella versione Enterprise, chiavi a 192 bit e non permette di utilizzare chiavi di complessità inferiore.  Questo significa che se qualsiasi altro dispositivo non utilizza chiavi o non supporta chiavi a 192 bit non può essere utilizzato in una rete che utilizza il WPA3.

Detto questo possiamo esporre alcuni consigli utili a fare in modo che una rete aziendale sia ben protetta: prima di tutto bisogna scegliere un router adeguato, perché il router gioco ruolo fondamentale ed offre livelli di sicurezza differenti, dato che ogni fornitore mette a disposizione degli aggiornamenti per il firewall e aggiornamenti per il router che includono anche aggiornamenti di sicurezza.

Bisogna limitare l'accesso al router, quindi non tutti devono poter accedere al router; inoltre è possibile optare per una segmentazione della rete e utilizzare WPA2 e WPA3 se possibile, perché ad oggi molti dispositivi non sono ancora compatibili col WPA3.

Altro consiglio è quello di cambiare le password preimpostate nel router dal produttore, perché gli hacker conoscono bene come vengono generate.

Ancora, è importante regolare l’accesso alle cartelle condivise, se nel sistema e nella rete ce ne sono, stabilendo vari livelli di privilegi di accesso.

In ultimo, è determinante istruire il personale, perché il personale spesso è proprio il principale veicolo di numerosi attacchi.

Proteggere il traffico EST-OVEST: microsegmentazione e virtualizzazione delle reti

Il mondo della virtualizzazione implica la necessità di proteggere molti più sistemi dagli attacchi provenienti dalle reti esterne, ma anche dalle aree interne.

Il problema principale è che ancora oggi pensiamo che sia sufficiente proteggere l’infrastruttura con i metodi tradizionali, ossia considerando solo il perimetro costruito da più reti pubbliche DMZ e poi da diverse reti interne che a seconda del livello di sicurezza riusciamo in qualche maniera a gestire in termini di connessioni.

Se vogliamo dare una rappresentazione della sicurezza e delle connessioni seguendo la convenzione delle reti Data Center dobbiamo identificare come traffico nord-sud qualsiasi connessione che da un livello più alto, quindi dal firewall perimetrale entra nei vari sistemi interni e che quindi transita attraverso diverse reti, e come traffico est-ovest tutte le connessioni che riguardano sistemi che appartengono al medesimo contesto di rete.

Ma all'interno della stessa rete come viene gestita la sicurezza? Sicuramente controllare mediante sistemi locali è una soluzione che può funzionare, ma solo se la quantità di istanze virtuali lo permette; il controllo manuale e i sistemi stessi devono comunque essere organizzati secondo una logica detta “a silo” cioè attraverso la gestione di più reti che consentono un controllo del singolo segmento di rete.

Ma cosa succede nel caso in cui l’infezione di un sistema all’interno della stessa rete causi un disservizio generale e come è possibile migliorare la visibilità (tra macchine della stessa rete) ed il controllo delle connessioni all'interno di queste reti o anche tra macchina virtuale e container?

La virtualizzazione comunque ha creato un ambiente più dinamico ed efficiente, anche se alla fine ha decuplicato il numero di server attivi in un Data Center aumentando esponenzialmente la superficie di attacco. Ma sfruttando la virtualizzazione stessa della rete è possibile introdurre elementi particolari che possono in qualche maniera interagire a livello software con le nostre connessioni; prendiamo in esame il Virtual Switch, che non è un elemento fisico ma un elemento virtuale ed è un software: se questo software riesce in qualche maniera a controllare e a gestire tutte le connessioni che partono dalle cosiddette Virtual NIC (schede di rete virtuali) tra un frammento di software e l'altro possiamo in introdurre un controllo. Tale controllo permette di abilitare o meno connessioni tra diverse macchine virtuali; non solo, perché lo stesso controllo a livello software in realtà possiamo anche applicarlo per andare a controllare il cosiddetto traffico entrante dalla rete fisica, quindi qualche maniera proteggiamo tutto il contesto di rete fisico.

Per quanto riguarda il controllo dei container, oggi non è possibile con i sistemi tradizionali effettuare la cosidetta visibilità di quello che succede a livello dei container Docker, per esempio, perché sono sistemi che vengono gestiti all'interno della macchina virtuale stessa o, meglio, dobbiamo in qualche maniera implementare un sistema SDN all'interno, ad esempio, di un Cluster Kubernetes. In qualche modo la SDN (ma anche la Virtual Nic, ilVirtual switch e anche il sistema fisico di rete stesso) crea un connettore per poter in qualche maniera innestare meglio degli elementi software di controllo delle connessioni da livello 1 a livello 7.

L’utilizzo della SDN fondamentalmente apre al concetto della microsegmentazione, cioè il modello a silo possiamo sostituirlo a favore di un modello mesh (a maglie) che permette in qualche maniera di svincolarsi da quella che è la sicurezza tradizionale e fa guadagnare la libertà di andare a costruire sistemi e nello stesso tempo implementare un controllo più efficace delle connessioni tra sistemi stessi.

In ambito “sicurezza” delle infrastrutture virtualizzate, la segmentazione delle reti e la visibilità tra le macchine in ambienti virtuali è determinante, perché l’assenza di strategie in tal senso è una delle cause principali che hanno fatto cadere sotto i “colpi” degli hacker intere reti a partire da un dispositivo “infetto” che vi si collegava da remoto tramite Internet.

Banner

Il movimento laterale è pericoloso perché se un attaccante riesce ad accedere a una macchina virtuale, da quella macchina può spostarsi su altre che sono all'interno dello stesso contesto di rete in cui c'è una visibilità di rete, quindi è importante analizzare quali server debbano comunicare tra loro e bloccare invece la comunicazione interna al Data Center fra quelle che devono comunicare solo con l’esterno. Per esempio un Mail Server che non deve comunicare col File Server dell'azienda e quindi se all'interno di un contesto di rete dove magari c’una continuità IP o dove o anche esistono più WLAN però poi c'è un routing che li mette in contatto, si crea un’inutile esposizione ad attacchi propagati est-ovest.

Tecnologica per la Email Security

Per garantire la sicurezza della posta elettronica e proteggere dal’apertura di allegati e link pericolosi, il tradizionale approccio basato sulle signature (ossia le firme dei virus e malware) inserite nei database di sicurezza, con il conseguente blocco di indirizzi identificati in questi database come malevoli, non basta più. Ci vuole qualcosa di nuovo.

Un approccio interessante è quello di LIBRAESVA, primo vendor di soluzioni E-mail Security, che è basato su 2 sandbox proprietarie che sono comprese già nel prodotto base; tale scelta è stata voluta perché è inutile proporre ai clienti dei E-mail Security se poi si fornisce un prodotto che esclude elementi che sono due dei principali fattori scatenanti degli attacchi: i link contenuti nelle e-mail e gli allegati veicolati tramite le stesse.

L’approccio per la verifica dei link è l’utilizzo di una Sandbox dedicata che va ad aprire tutti i link, qui nel momento del click il link viene esploso nella Sandbox LIBRAESVA e se è buono, quindi non rimanda a ulteriori link o partially re-direct e quindi veicola verso un sito non malevolo, la navigazione viene consentita; diversamente non viene consentito di procedere con la navigazione.

libra esva

Questo è un approccio molto importante perché buona parte dei prodotti dei competitor mappa solo parte delle minacce all’interno degli allegati o molte volte quando non sono in grado di determinare quello che c’è all’interno dell’allegato bloccano l’e-mail o l’allegato stesso.

Chi volesse verificare e misurare  il livello di sicurezza della vostra casella di posta potrà affidarsi a  uno strumento completamente gratuito chiamato Email Security Tester: si accede dal sito https://emailsecuritytester.com/ dal quale può essere lanciato dopo aver compilato il form di registrazione. Fondamentalmente lo strumento invia 17 e-mail di test sulla casella di posta target che specificate e va a misurare la reattività del sistema di posta elettronica a fronte di attacchi di natura moderna (immagine seguente). 

È importante notare che questo sistema di e-mail security non funziona sulla base di signature o liste di firme ma sull’intelligenza artificiale, attraverso un motore di inferenza bayesiano che combina vari parametri: quanto i mittenti o i domini siano trustati, quante volte hanno comunicato, qual è il livello di affidabilità del nome del dominio, in modo che la risposta sia precisa anche in base al tipo di relazione che l’interlocutore e i domini hanno.

Vettori di attacco IT e contromisure con Kaspersky Endpoint Security

Gli strumenti utilizzati per portare un attacco informatico sono molteplici: dai tool leciti esistenti in sistemi operativi e applicazioni, ma utilizzati in modo illecito, alle soluzioni di penetrazione dei computer mediante Phishing, exploit e attacchi Bruteforce, alla posta elettronica e via di seguito; come mostra il prospetto seguente, il 30% degli attacchi informatici fa abuso degli strumenti legittimi e molti attacchi hanno lunga persistenza.

Questo rende difficile individuarli con gli strumenti tradizionali, soprattutto perché nelle aziende mancano Operatori di Security che ovviamente possono fare la differenza, in quanto sono capaci di andare a cogliere ciò che gli strumenti software e la media dei tecnici IT non colgono.

Banner

Sicuramente disporre di un buon software di sicurezza endpoint può fare molto; si parla oggi di Endpoint Detection Response (EDR) che sono tool specifici, tra i quali spiccano le soluzioni messe in campo da Kaspersky.

Il concetto che sta alla base di questi EDR è aumentare il livello di rilevamento delle minacce, quindi passare da quello che era il classico anti-malware che andava a individuare le minacce più o meno comuni a quello di coprire anche le minacce avanzate più sofisticate e mirate.

L’immagine seguente riassume le caratteristiche del prodotto Kaspersky Endpoint Security, che non si limita alle classiche funzioni elencate in alto a destra (File Threat Protection ecc…) che sicuramente erano presenti nei vecchi Endpoint Protector, quindi antivirus, protezione sulla navigazione, firewall e così via, che sono necessarie e ancora presenti.

 KASPERSKY

Con un unico pacchetto si ha la possibilità di lavorare su concetti di hardening, ossia limitare il campo di accesso da parte degli hacker, quindi ad esempio bloccare le chiavette USB o abilitare solo quelle consentite di alcuni utenti; lo scopo dell’hardening è di blindare, rafforzare quanto possibile la rpotezione da quelle cose che non sono lecite.

Poi ci sono tutte le funzioni legate al Machine Learning e all’Intelligenza Artificiale che serve ad  apprendere le nuove minacce e ad adattarsi in maniera automatizzata a quello che sta avvenendo sui vari device presenti nel parco macchine protetto. L’Intelligenza Artificiale permette di analizzare non solo la strurra dei file ma anche il comportamento di certe funzioni del computer per capire se sono corrotte o se sta avvenendo un attacco; quindi la soluzione EDR Optimum Kaspersky  implementa una tecnologia di analisi comportamentale anti-ransomware, tutti i motori relativi alle remediation per ripristinare lo stato precedente un eventuale attacco.

non da ultimo c’è la prevenzione degli attacchi fileless, quindi cose come gli injection in memoria che sono difficilmente individuabili dai classici endpoint protector, ed anche la prevenzione degli attacchi Exploit. Non manca il virtual patching, quindi qualora ci fosse una vulnerabilità nel computer si va a proteggere il sistema.

 

Una caratteristica in più di Kaspersky EDR Optimum è la possibilità di fare investigation su un eventuale blocco da parte dell’antivirus: se l’anti-malware ha bloccato qualcosa o ha fatto una detection è possibile indagare se tale azione è correlata a qualche cosa di più ampio, ossia se c’è un “mandante” che ha generato l’attacco che è stato bloccato e se quel mandante si trova nel computer per valutare se passare allo step di response, ossia andare a bloccare e a pulire il sistema.

 Naturalmente la tecnologia da sola non basta, ma serve solo se coniugata al supporto di un esperto nella sicurezza in grado di compiere un’analisi delle informazioni e delle azioni compiute dall’EDR; siccome nelle aziende questa figura professionale spesso manca, Kaspersky fornisce, oltre al prodotto, anche un servizio chiamato Managed Detection & Response, che consiste nel supporto e nell’analisi mediante telemetria, quindi i metadati generati dall’EDR, inviati in generale da qualsiasi prodotto Kaspersky via Internet al SOC centralizzato che li analizza (in caso di sottoscrizione del servizio vengono taggati per essere riconosciuti) correlando le relative informazioni alla ricerca di ciò che non è stato rilevato o percepito dalla tecnologia installata localmente (dall’EDR).

 

Il SOC lavora costantemente alla ricerca di eventuali anomalie e se avviene una detection avvisa tempestivamente il cliente che bisogna mettere in campo una risposta, pena un danno anche consistente; si pensi, ad esempio, al rilevamento di un attacco in corso, di quelli che non sono immediati come un malware ma che ad esempio tentano di sottrarre le credenziali di accesso e che possono essere identificati solo con un’analisi prolungata e comportamentale del traffico di rete da e verso un computer.

Sicurezza del codice - Quali contromisure adottare

Per prevenire danni derivanti da attacchi informatici, almeno quelli scatenati sfruttando vulnerabilità delle applicazioni, dal punto di vista del vendor (della Software House) ci sono diverse soluzioni che si possono adottare: una prima soluzione consiste nel cercare di diversificare il processo di Continuous Integration e di Continuous Delivery idealmente utilizzando soluzioni differenti, quindi non le stesse tecnologie. Così, ad esempio si possono avere più pipeline che vengono eseguite contemporaneamente in ambienti diversi ed è possibile confrontare i risultati finali eseguibili (i setup) a seconde della tecnologia utilizzata per verificare che essi abbiano effettivamente prodotto lo stesso risultato. Le pipeline andrebbero notarizzate, quindi ogni step della pipeline dovrebbe produrre delle signature (delle firme...) che possono identificare correttamente  ogni prodotto intermedio e comunque l’analisi del prodotto finale della pipeline non dovrebbe essere solo di natura funzionale (limitata al test e all’esecuzione del prodotto per vedere se funziona) ma dovrebbe anche essere prevista un’analisi statica sul prodotto finale per verificare che non ci siano state delle compromissioni.

Nel caso -passato alle cronache- di SolarWinds, una banale decompilazione (il prodotto è scritto per larga parte in .NET e non è offuscato, quindi facilmente decompilabile) avrebbe subito messo in risalto la presenza di codice che non era presente invece nei repository della stessa SolarWinds e rivelato che un hacker lo aveva sostituito.

Altro accorgimento: il testing può essere effettuato cercando di variare la configurazione degli ambienti di testing; a riguardo va detto che uno degli aspetti interessanti emersi dall’analisi del malware che ha colpito SolarWinds è che la back door da esso aperta rimaneva silente nel caso in cui il software veniva eseguito all’interno della rete di Solarwinds per non essere identificato. In una tale situazione, se gli ambienti di testing fossero stati diversificati e anche esterni a Solarwinds, probabilmente il malware si sarebbe attivato e quindi sarebbe stato più facile identificarlo a priori, invece di attendere che l’identificazione avvenisse ad opera degli utenti finali: in questo caso, dal Governo americano.

Un buon consiglio agli utenti finali è quello di diversificare il parco fornitori quanto più possibile, perché, ad  esempio affidare il monitoring dell’intera infrastruttura di rete ad un unico vendor li espone a un rischio se tale vendor viene compromesso. Allo stesso modo è fondamentale adottare tutte le best practice note in fatto di sicurezza IT; questo perché nel caso esiste, ad esempio, una back door, andando a monitorare attivamente l’attività dell’infrastruttura IT sarebbe possibile riscontrare il traffico anomalo che la back door effettuata per esfiltrare i dati o comunque per comunicare con i server di comando e controllo malevolo da remoto.

Adempimenti per la gestione Data Breach

Il tema Data Breach chiama in causa vari adempimenti, che graficamente potrebbero essere rappresentati da una scala (come proposto nell’immagine seguente) e che riguardano sia accorgimenti per evitare che si verifichino, sia procedure da espletare a minaccia concretizzata, sotto l’aspetto sia del GDPR e delle comunicazioni a Garante e interessati al trattamento, sia degli interventi tecnici atti a mitigare il rischio.

Banner

Il primo adempimento consiste nel redigere una procedura e un manuale di gestione Data Breach comprendente i casi, le fasi, la tempistica, i responsabili e nel quale ci sia una sintesi delle modalità operative.

Bisogna poi creare un’unità organizzativa preposta alla gestione data breach operativa 365 giorni all’anno e composta da personale competente; l’unità organizzativa può essere considerata il “comitato data breach” che si occupi 365 giorni all’anno della gestione delle data breach, perché i tempi di reazione che il GDPR concede sono 72 ore (quindi i tempi che in taluni contesti sono strettissimi) a prescindere dal periodo in cui la Data Breach avviene.

Di questo “comitato data breach” devono fare parte il referente privacy, l’eventuale DPO (Data Protection Officer) ed un responsabile tecnico che potrebbe essere l’MSP che gestisce l’infrastruttura IT del titolare del trattamento.

Il terzo livello della scala degli adempimenti consiste nell’esecuzione dell’analisi di rischio residuo, che deve prevedere controlli proattivi finalizzati a gestire la Data Breach se dovesse verificarsi, tenendo conto del tipo di rischio prevedibile (ossia di rischi noti); per controlli proattivi si intende quelli che devono scattare a minaccia in atto o avvenuta, quindi, se c’è già stato un cyber-attacco al server con violazione della riservatezza dei dati, misure di tipo tecnico e anche di tipo organizzativo per aggirare il problema. L’adozione di controlli proattivi chiama in causa, per quel che riguarda la parte tecnica, l’MSP.

Quarto punto: è necessario prevedere un registro Data Breach in cui registrare gli eventuali incidenti di sicurezza che hanno comportato l’effrazione dei dati oggetto del GDPR, sia per ragioni organizzative e di pianificazione, sia perché durante eventuali ispezioni della Guardia di Finanza (nucleo speciale tutela della privacy), tale registro è uno dei primi adempimenti che vengono richiesti. A riguardo c’è una linea guida del Garante (articolo 29 del GDPR) che indica che sono da considerarsi Data Breach non solo la violazione dei dati personali ma anche i semplici incidenti di sicurezza, che quindi bisogna registrare e poi tenerne conto ai fini dell’elaborazione di ulteriori misure di sicurezza da adottare.

Ultimo ma imprescindibile livello di questa scala è la formazione di tutto il personale dell'organizzazione con diversi approfondimenti e livelli di competenza tenendo conto che tutti i soggetti all'interno dell'organizzazione devono essere consapevoli della tematica, ovvero dell’importanza della tutela del dato personale e di come attuarla; infatti anche impiegati di livello non dirigenziale (quindi che non siano inquadrati come responsabili del trattamento) devono poter allertare l’organizzazione circa una eventuale situazione di Data Breach quindi porre subito in atto gli adempimenti che possono essere necessari per poter far fronte a una Data Breach.

La formazione è uno dei requisiti del GDPR a tutti i livelli gerarchici dell’azienda e ciascun appartenente deve sapere almeno il necessario per affrontare un’eventuale Data Breach o sapere chi deve chiamare (per esempio il responsabile del trattamento e l’MSP) se la riscontra.

Mettere in atto le cinque misure indicate è fondamentale perché ciò che la Guardia di Finanza va a verificare in caso di ispezione a un’organizzazione è come viene effettuata la gestione Data Breach: se c’è un piano, magari non perfetto, l’azienda ne esce indenne, mentre se nemmeno è stato redatto, ciò viene considerato una mancanza grave al pari del dolo, perché sostanzialmente passa l’idea che l’organizzazione non garantisce la tutela degli interessati e mostra totale disinteresse.

DNS Filtering - Office & SmartWorker protection

La protezione e il filtraggio di malware e contenuti a livello di DNS è un problema con cui l’MSP deve fare i conti, perché alla protezione DNS nell’infrastruttura e anche presso le sedi operative dei clienti si aggiungono le problematiche di protezione della navigazione da contenuti pericolosi e insidiosi, da malware cui si espongono gli utenti (dipendenti) che lavorano da remoto in Smart Working e anche gli utenti dei servizi riguardanti la didattica a distanza (corpo insegnanti e allievi).

Un monitoraggio fatto a campione su 60 minuti di connessione di un utente medio evidenzia migliaia di tentativi di accessi volontari e silenti (scatenati da siti e applicativi) per esempio a siti di giochi, a Proxy DNS, a siti di pubblicità, siti di incontri online e gioco d’azzardo, Proxy anonimi, ma anche di pornografia: l’immagine seguente li riporta in arancione. Nella stessa immagine, in grigio sono riportati però decine di tentativi di accesso a siti “compromessi” e quindi pericolosi per l’integrità del sistema informatico, contenenti malware, cryptolocker, ransomware. Tutto questo a livello DNS.

Dunque, come fare per coniugare la protezione DNS, ma soprattutto come fare per uniformare la protezione dell’infrastruttura IT on-site dell'azienda con quella degli operatori remoti, non da meno di quelli in Smart Working?

Ebbene, oggi esistono tecnologie che integrano la sicurezza dell’ufficio a livello di DNS in grado di fornire protezione a tutte le postazioni e con sistemi operativi di qualunque tipo che operano da remoto. Un esempio è Flash & Start (https://flashstart.com/it/), che sostanzialmente è un filtro Internet schematizzato nell’immagine seguente.

 

All’amministratore IT e anche all’MSP, che oggi gioca un ruolo fondamentale nella sicurezza a livello di DNS, servono strumenti ed anche tecnologie in grado, con pochi click, di estendere e anche di uniformare la protezione DNS ed il filtering sia in ufficio ma anche nel Cloud con gli oggetti e anche con i dispositivi che ruotano attorno all’azienda operando con connessioni VPN oppure con connessioni remote di altro genere.

FlashStart è un Filtro web perfettamente integrabile in ogni ambiente di rete, per proteggere la navigazione da Malware e contenuti indesiderati; rappresenta la soluzione ideale per i fornitori di servizi (MSP, ISP e WISP) che desiderano integrare la protezione nelle loro soluzioni.

Protegge gli utenti durante la navigazione bloccando contenuti indesiderati, illegali e pericolosi grazie, a 90 categorie di blacklist di sistema costantemente aggiornate; è compatibile con qualsiasi router, hotspot WiFi, firewall e gateway, supporta protocolli IP e DDNS statici e dinamici e implementa in client per Windows.

Permette inoltre di creare report per macro e sottocategorie di siti visitati, in tempo reale e con invio programmato per e-mail, rispettando le disposizioni del GDPR in materia di tutela della privacy dell’utente.

Ripe Ncc Member
vmware
CloudLinux
Plesk
HP
Microsoft