Come gestiamo dati, tecnologia e AI

Questa pagina esiste perché riteniamo che un fornitore di software abbia il dovere di dichiarare — esplicitamente e in dettaglio — cosa fa con i dati dei propri clienti, quali tecnologie utilizza, quali componenti di intelligenza artificiale ha integrato e con quali controlli. Senza pagine come questa, le decisioni di acquisto tecnologico si fanno al buio. Lo diciamo in tre principi + quattro aree operative.

I tre principi che rispettiamo

1. I dati del cliente non entrano in nessun training di AI

Nessun dato operativo dei nostri clienti — anagrafiche, documenti, commesse, fatture, conversazioni interne — viene mai usato per addestrare modelli di machine learning, nostri o di terze parti. Quando utilizziamo servizi AI (es. OpenAI, Anthropic, Mistral) attiviamo sempre le opzioni "do not train" disponibili sui piani business/enterprise. I fornitori che non offrono questa garanzia non vengono utilizzati.

2. Trasparenza obbligatoria su dove c'è AI

Ogni funzione dei nostri software che usa AI dichiara esplicitamente la propria natura. Quando l'utente interagisce con un chatbot, è chiaramente indicato che si tratta di un sistema automatico. Quando un'email viene classificata automaticamente, lo scriviamo nell'interfaccia. Questo si allinea all'articolo 50 dell'AI Act UE (trasparenza) ma rispecchia anche un principio etico che avevamo già prima del regolamento.

3. L'AI non sostituisce il giudizio umano sulle decisioni importanti

Nei nostri sistemi l'AI fa cose ripetitive e verificabili: estrae dati da PDF, suggerisce un possibile codice merceologico, precompila un preventivo, risponde a domande su documenti già scritti. Non decide chi viene assunto, chi riceve uno sconto, chi viene accettato come cliente, quali fornitori vengono pagati prima. Quelle decisioni restano umane, e il software può al massimo fornire informazioni per supportarle.

Lo stack tecnologico che usiamo

Non è un elenco esaustivo, ma copre ciò che tocca direttamente i dati dei clienti.

Infrastruttura e database

Componenti AI quando utilizzati

Non tutti i progetti usano AI. Quando serve, i componenti tipici sono:

Strumenti di monitoring e osservabilità

Come trattiamo i dati nei progetti

Durante lo sviluppo

Su ambiente di sviluppo vengono usati dati fittizi o dati anonimizzati. Nessun dump di produzione viene mai replicato sulle macchine degli sviluppatori. Se serve debuggare su dati reali, si accede al server del cliente con credenziali temporanee, loggate, e nessun dato viene copiato localmente.

In produzione

Tutti i dati del cliente vivono sul suo tenant dedicato (o multi-tenant strettamente segregato, a seconda dell'architettura). L'accesso del nostro team è log-trackato, richiede 2FA, ed è limitato al necessario per l'intervento richiesto.

Al termine del contratto

Entro 30 giorni dalla cessazione, consegniamo al cliente: (a) dump completo del database; (b) codice sorgente sul suo repository Git; (c) tutte le credenziali dei servizi intestati a lui; (d) documentazione tecnica di deployment. Dopo la consegna, i dati sui nostri sistemi vengono eliminati con cancellazione verificata entro ulteriori 30 giorni.

Compliance

GDPR (Reg. UE 2016/679)

AI Act UE

Sicurezza generale

Documentazione disponibile

Alcuni documenti sono pubblici, altri disponibili su richiesta a clienti attuali o potenziali che firmano un NDA.

Pubblici

Su richiesta

Per richiedere qualsiasi documento: privacy@automazionipmi.it.

Contatti

Per ogni domanda su questa pagina, sull'infrastruttura, sugli strumenti AI utilizzati, o per richiedere la documentazione riservata:


La nostra intenzione con questa pagina è semplice: rendere l'audit tecnologico da parte di un cliente potenziale il più veloce possibile. Se manca un'informazione che ti servirebbe per decidere, scrivicelo e la aggiungiamo.