Introduzione: perché l’AI riguarda ogni ufficio PA, oggi
L’intelligenza artificiale non è più una tecnologia del futuro: è già presente nei principali strumenti che molti dipendenti pubblici usano ogni giorno — da Microsoft 365 a Google Workspace, dai motori di ricerca alle piattaforme di videoconferenza. La domanda non è più se l’AI entrerà nella Pubblica Amministrazione, ma come usarla in modo consapevole, efficace e conforme alle norme.
Questo articolo è pensato per funzionari, operatori e responsabili degli uffici PA che vogliono capire cosa può fare concretamente l’AI nel lavoro quotidiano, quali regole si applicano, quali strumenti esistono e da dove iniziare. Non è un manuale tecnico: è una guida operativa che risponde alle domande più concrete.
Questo articolo è la pagina di riferimento della nostra serie sull’AI nella PA. Per i temi specifici, rimandiamo alle guide dedicate su: AI Act e GDPR per la PA, AI come assistente quotidiano, AI per la comunicazione con i cittadini, documenti intelligenti e ricerca automatica, Copilot e Gemini in Office, comunicazione visiva con AI.
Sommario dei punti chiave
- L’AI generativa può supportare attività ricorrenti negli uffici PA: scrittura, sintesi, ricerca, comunicazione.
- Il quadro normativo di riferimento è composto dall’AI Act europeo (Regolamento UE 2024/1689) e dal GDPR, con specifiche implicazioni per la PA.
- La supervisione umana non è un’opzione: in ambito pubblico è un requisito normativo e di responsabilità.
- Gli strumenti più utilizzabili sono già accessibili: ChatGPT, Gemini, Microsoft Copilot, NotebookLM.
- L’adozione efficace richiede un metodo — non bastano sperimentazioni individuali non coordinate.
- Esistono rischi concreti (allucinazioni, bias, dati sensibili) che si gestiscono con buone pratiche, non evitando l’AI.
Cos’è l’AI generativa e perché è rilevante per la PA
L’intelligenza artificiale generativa è la categoria di AI in grado di produrre testi, riassunti, immagini, tabelle e altri contenuti a partire da istruzioni in linguaggio naturale (i cosiddetti prompt). A differenza dei sistemi AI tradizionali — pensati per compiti specifici e chiusi — i modelli generativi come GPT-4, Gemini e Claude sono sistemi ad uso generale che rispondono a domande aperte, scrivono bozze, sintetizzano documenti e aiutano a strutturare informazioni complesse.
Perché è rilevante per la PA? Perché il lavoro degli uffici pubblici è in gran parte un lavoro con il linguaggio: si scrivono note, si redigono atti, si rispondono a istanze, si elaborano relazioni, si consultano normative, si preparano comunicazioni per i cittadini. Tutte queste attività possono essere supportate — non sostituite — da strumenti AI, con benefici concreti su tempi, qualità e uniformità degli output.
La differenza tra “usare l’AI” e “usarla bene”
Molti operatori PA hanno già sperimentato ChatGPT o strumenti simili in modo informale. La sfida non è l’accesso agli strumenti, ma usarli con metodo: sapere quando usarli, come impostare le richieste, come verificare l’output, come gestire i dati in modo corretto. Un utilizzo non strutturato può generare più problemi di quanti ne risolva.
Il quadro normativo: AI Act e GDPR per la PA
L’AI Act europeo (Regolamento UE 2024/1689)
Il Regolamento UE 2024/1689 sull’intelligenza artificiale — noto come AI Act — è la prima legge organica sull’AI a livello mondiale. Pubblicato nella Gazzetta Ufficiale dell’Unione Europea il 12 luglio 2024 ed entrato in vigore il 1° agosto 2024, si applica in modo progressivo fino al 2026.
Per la Pubblica Amministrazione, l’AI Act introduce alcune categorie rilevanti:
| Categoria di rischio | Esempi in ambito PA | Obblighi principali |
| Rischio inaccettabile (vietato) | Sistemi di social scoring, manipolazione subliminale | Divieto assoluto di uso |
| Alto rischio | Sistemi per accesso a servizi pubblici, valutazione dei dipendenti, gestione infrastrutture critiche | Valutazione conformità, supervisione umana obbligatoria, documentazione, trasparenza |
| Rischio limitato | Chatbot con i cittadini, generazione di testi | Obbligo di informativa (il cittadino deve sapere che interagisce con un’AI) |
| Rischio minimo | Strumenti di produttività interna, sintesi di documenti | Nessun obbligo specifico, ma buone pratiche raccomandate |
Fonte: Regolamento UE 2024/1689 — Gazzetta Ufficiale UE
La stragrande maggioranza degli usi AI per la produttività interna degli uffici (scrivere bozze, sintetizzare documenti, preparare comunicazioni) rientra nella categoria a rischio minimo o limitato. Questo non significa assenza di responsabilità, ma che i vincoli sono meno stringenti rispetto ai sistemi che incidono direttamente sui diritti dei cittadini.
GDPR e trattamento dei dati negli strumenti AI
Il Regolamento UE 2016/679 (GDPR) si applica ogni volta che vengono trattati dati personali. Nell’uso quotidiano degli strumenti AI, il rischio principale è inserire nei prompt dati personali di dipendenti, cittadini o terzi — dati che potrebbero essere elaborati da server fuori dall’UE o usati per addestrare i modelli.
Regola operativa fondamentale: prima di usare qualsiasi strumento AI su dati reali, verificare le condizioni di servizio dello strumento e, se necessario, adottare versioni “enterprise” o on-premise che garantiscano la non trasmissione dei dati a terzi e la conformità GDPR. In alternativa, anonimizzare o de-identificare i dati prima di inserirli nel prompt.
Fonte: Garante per la protezione dei dati personali — Linee guida AI
Cosa può fare l’AI in un ufficio PA: mappa dei casi d’uso
Di seguito una mappatura pratica delle attività in cui l’AI generativa può portare valore negli uffici PA, con indicazione del livello di maturità e dei rischi da presidiare.
1. Redazione e revisione di testi
L’AI può supportare la scrittura di note, comunicazioni, risposte a istanze, bozze di atti e relazioni. Il beneficio principale è la riduzione del tempo di stesura e la maggiore uniformità del linguaggio istituzionale.
Come si usa: si fornisce all’AI un’istruzione (prompt) con il contesto, il destinatario, lo scopo e i punti principali. L’AI produce una bozza che l’operatore rivede, integra e approva.
Rischio da presidiare: l’AI può produrre testi formalmente corretti ma sostanzialmente imprecisi o incompleti. La verifica del contenuto da parte del funzionario è sempre necessaria — non è delegabile.
2. Sintesi di documenti e atti
Delibere, determine, regolamenti, circolari, pareri: spesso sono documenti lunghi che richiedono tempo per essere letti e compresi. L’AI può estrarne i punti chiave, le scadenze e le azioni richieste in pochi secondi.
Come si usa: si carica o si incolla il testo del documento nel prompt, e si chiede all’AI di sintetizzarlo, identificarne le parti rilevanti o rispondere a domande specifiche sul suo contenuto.
Rischio da presidiare: l’AI può “allucinare”, ovvero produrre sintesi con riferimenti inesistenti o interpretazioni errate. Ogni sintesi va verificata rispetto al documento originale prima di essere usata in contesti ufficiali.
3. Ricerca e consultazione di normative
L’AI può aiutare a orientarsi in un corpus normativo complesso, spiegare concetti giuridici in linguaggio accessibile e identificare le norme rilevanti per un caso specifico. Strumenti come Perplexity o ChatGPT con navigazione web possono cercare e citare fonti aggiornate.
Come si usa: si descrive il problema o la situazione e si chiede all’AI di identificare le norme applicabili, con riferimento alle fonti.
Rischio da presidiare: le informazioni normative prodotte dall’AI vanno sempre verificate sulle fonti ufficiali (Normattiva, Gazzetta Ufficiale, sito del Garante, ecc.). L’AI non è un consulente legale e può commettere errori su testi normativi recenti o su interpretazioni giurisprudenziali.
4. Comunicazione con i cittadini
L’AI può supportare la redazione di FAQ, risposte standard a richieste frequenti, contenuti per il sito istituzionale e post per i canali social dell’ente. L’obiettivo è aumentare la chiarezza e la tempestività della comunicazione pubblica.
Come si usa: si fornisce all’AI il testo istituzionale da semplificare (o i punti chiave da comunicare) e si chiede di adattarlo per un pubblico specifico (cittadini, imprese, professionisti).
Rischio da presidiare: il tono e l’accuratezza delle comunicazioni ufficiali sono responsabilità dell’ente. Ogni contenuto generato dall’AI destinato ai cittadini deve essere revisionato e approvato prima della pubblicazione.
5. Produttività in Office (Word, Excel, PowerPoint)
Strumenti come Microsoft Copilot e Google Gemini sono integrati direttamente in Word, Excel e PowerPoint. Permettono di generare bozze di documenti, costruire tabelle, analizzare dati, creare presentazioni e automatizzare revisioni, senza uscire dall’ambiente di lavoro familiare.
Come si usa: attraverso il pannello Copilot/Gemini integrato nell’applicazione, si danno istruzioni in linguaggio naturale (“crea una tabella con questi dati”, “scrivi un riassunto di questo documento”, “genera una presentazione su questi punti chiave”).
Rischio da presidiare: la qualità degli output dipende dalla qualità delle istruzioni. Formule Excel generate dall’AI vanno verificate; grafici e analisi vanno interpretati criticamente.
I principali strumenti AI per gli uffici PA
| Strumento | Produttore | Uso principale | Note per la PA |
| ChatGPT | OpenAI | Scrittura, sintesi, ricerca, codice | Disponibile versione Enterprise GDPR-compliant |
| Gemini | Integrazione con Google Workspace, analisi documenti | Integrato in Gmail, Docs, Drive | |
| Microsoft Copilot | Microsoft | Integrazione nativa in Office 365 | Disponibile con licenza M365 |
| Claude | Anthropic | Scrittura lunga, analisi documenti, ragionamento | Forte su testi istituzionali complessi |
| Perplexity | Perplexity AI | Ricerca con fonti citate | Utile per ricerca normativa aggiornata |
| NotebookLM | Analisi e interrogazione di documenti propri | Ideale per costruire basi documentali d’ufficio | |
| Canva AI | Canva | Comunicazione visiva, locandine, grafiche | Utile per uffici comunicazione e URP |
Supervisione umana: perché è irrinunciabile nella PA
La supervisione umana non è una formalità burocratica: è il presidio che separa un utilizzo responsabile dell’AI da uno rischioso. Nell’ambito della Pubblica Amministrazione questo principio ha una valenza doppia: giuridica (la PA risponde degli atti che emette, indipendentemente dagli strumenti usati per produrli) e operativa (gli errori dell’AI possono avere conseguenze concrete su cittadini, procedimenti e risorse pubbliche).
In pratica, la supervisione umana significa:
- Verificare sempre l’output dell’AI prima di usarlo in contesti ufficiali
- Non delegare all’AI decisioni che richiedono valutazione discrezionale o interpretazione normativa
- Documentare, anche in forma minima, quando e come vengono usati strumenti AI nei procedimenti
- Impostare regole interne chiare su cosa si può fare e cosa va evitato
Come iniziare: un approccio graduale per gli uffici
L’adozione dell’AI in un ufficio PA non deve essere né improvvisata né eccessivamente frenata. Un percorso ragionevole si articola in quattro fasi:
Fase 1 — Consapevolezza: il personale comprende cosa può e non può fare l’AI, quali rischi esistono e quali sono le regole di base (GDPR, supervisione, verifica degli output).
Fase 2 — Sperimentazione guidata: si individuano 2-3 attività a basso rischio (es. bozze di comunicazioni interne, sintesi di documenti, FAQ) su cui testare gli strumenti in modo controllato.
Fase 3 — Standardizzazione: si costruiscono prompt e modelli riutilizzabili per le attività in cui l’AI ha dimostrato valore, e si definiscono procedure interne (chi può usare cosa, come verificare, come documentare).
Fase 4 — Scalabilità: si estende l’uso ad altri processi, si forma il personale in modo strutturato e si valuta l’adozione di versioni enterprise degli strumenti per garantire conformità GDPR.
Errori frequenti da evitare
- Inserire dati personali nei prompt senza aver verificato la conformità dello strumento: nomi, codici fiscali, informazioni su dipendenti o cittadini non devono mai entrare in strumenti non certificati GDPR.
- Usare l’output dell’AI senza verificarlo: testi, sintesi e informazioni normative prodotte dall’AI possono contenere errori. La verifica non è opzionale.
- Delegare all’AI decisioni discrezionali: l’AI può supportare la preparazione di un atto, ma la decisione finale spetta sempre al funzionario responsabile.
- Adozione non coordinata: uso individuale e non regolato di strumenti AI in un ufficio può creare disomogeneità, rischi di sicurezza e difficoltà di controllo. Serve una governance minima.
- Sopravvalutare le capacità dell’AI su normative recenti: i modelli hanno una data di aggiornamento (“knowledge cutoff”). Per normative del 2025-2026, è necessario verificare sempre le fonti ufficiali.
Il cluster tematico: approfondimenti dedicati
Questo articolo fornisce il quadro d’insieme. Per gli aspetti specifici, abbiamo preparato guide operative dedicate:
- AI Act e GDPR per la PA: cosa sapere — principi normativi, obblighi operativi, checklist di conformità → [link articolo 2]
- L’AI come assistente quotidiano negli uffici PA — prompt efficaci, bozze, sintesi, modelli riutilizzabili → [link articolo 3]
- AI per la comunicazione PA e i servizi ai cittadini — FAQ, social, risposte standard, linguaggio accessibile → [link articolo 4]
- Documenti intelligenti: ricerca e sintesi con AI — come interrogare delibere, regolamenti e determine → [link articolo 5]
- Copilot e Gemini in Office: guida per la PA — Word, Excel, PowerPoint con AI integrata → [link articolo 6]
- Comunicazione visiva con AI: immagini e video per la PA — locandine, post, micro-video istituzionali → [link articolo 7]
Riferimenti normativi
- Regolamento UE 2024/1689 (AI Act) — EUR-Lex
- Regolamento UE 2016/679 (GDPR) — EUR-Lex
- Garante per la protezione dei dati personali — Intelligenza artificiale
- AgID — Linee guida per l’utilizzo dell’intelligenza artificiale nella PA
- Dipartimento per la Trasformazione Digitale — AI nella PA
- Piano Triennale per l’Informatica nella PA 2024-2026 — AgID
FAQ
L’AI può firmare o validare atti amministrativi? No. La firma digitale e la validazione degli atti sono competenze esclusive del funzionario responsabile. L’AI può supportare la redazione del testo, ma la responsabilità giuridica dell’atto resta sempre in capo alla persona fisica che lo firma.
Usare ChatGPT o Gemini viola il GDPR? Non necessariamente, ma dipende da come si usano. Inserire dati personali di cittadini o dipendenti in strumenti AI non conformi al GDPR costituisce un trattamento non autorizzato. La soluzione è usare versioni enterprise certificate, oppure anonimizzare i dati prima di inserirli nel prompt.
Cosa si intende per “allucinazione” dell’AI? È il fenomeno per cui un modello AI produce informazioni false o inventate ma presentate con sicurezza. Può riguardare dati normativi, riferimenti a sentenze, cifre o nomi. È il principale motivo per cui la verifica umana dell’output è sempre necessaria.
Quali strumenti AI sono già disponibili per chi usa Microsoft 365? Microsoft Copilot è disponibile come add-on a pagamento per le licenze M365 Business e Enterprise. Permette di usare l’AI direttamente in Word, Excel, PowerPoint, Teams e Outlook, con garanzie di sicurezza e conformità ai requisiti enterprise.
La PA è obbligata a comunicare ai cittadini quando usa l’AI? L’AI Act prevede obblighi di trasparenza per i sistemi AI che interagiscono direttamente con i cittadini (es. chatbot). Per l’uso interno agli uffici, non esiste un obbligo generalizzato di comunicazione esterna, ma è buona prassi documentare internamente l’uso degli strumenti.
Esistono linee guida specifiche per la PA italiana sull’uso dell’AI? Sì. AgID ha pubblicato orientamenti sull’AI nella PA nell’ambito del Piano Triennale per l’Informatica. Il Dipartimento per la Trasformazione Digitale ha attivato iniziative specifiche. A livello europeo, la Commissione ha pubblicato linee guida per l’uso dell’AI nelle istituzioni pubbliche.
Da dove iniziare concretamente in un ufficio piccolo? Dal caso d’uso più semplice e a basso rischio: usare l’AI per scrivere la prima bozza di una comunicazione interna, o per riassumere un documento lungo. Questo permette di capire come funziona, quali verifiche sono necessarie e come adattare le istruzioni al proprio contesto, senza rischi operativi rilevanti.
Vuole portare queste competenze nel suo ufficio con un percorso guidato, su casi reali della Pubblica Amministrazione?
Da Zero a Esperti AI: produttività negli uffici PA è il corso introduttivo di Athena Research Academy progettato per il personale PA che vuole iniziare a usare l’intelligenza artificiale in modo concreto e responsabile: dai fondamenti dell’AI generativa agli strumenti (ChatGPT, Gemini, Copilot, Claude, Perplexity, NotebookLM), fino alle buone pratiche di verifica e alla gestione corretta dei dati. Esercitazioni pratiche su casi d’ufficio reali, 3 ore, online.

Introduzione pratica all’AI generativa per il lavoro quotidiano degli uffici. Esercitazioni su testi, documenti ed email, con metodo e controlli. Focus su opportunità, limiti e rischi, anche sul piano della conformità.