A maggio 2024 il Government Tomorrow Forum (GTF) ha intervistato 120 esperti di IA provenienti dal mondo accademico, aziendale e di consulenza, per scoprire le sfide più urgenti che devono affrontare i governi per l’implementazione dell’IA. Tra gli intervistati c’è anche la nostra formidabile prof. Silvia Vianello, ecco il suo articolo tradotto in italiano.
In questo articolo sono presenti alcune raccomandazioni pensate per aiutare i leader politici ad affrontare le nuove sfide relative all'uso delle IA.
Sviluppare linee guida chiare sull’intelligenza artificiale
Le preoccupazioni sono le fondamenta su cui è costruita l’intelligenza artificiale. I pregiudizi assoluti negli algoritmi informatici possono portare alla discriminazione, le violazioni della privacy possono minare la fiducia e portare a un’incertezza di massa, rallentando lo sviluppo tecnologico. È come costruire una casa su un terreno instabile: è solo questione di tempo prima che crolli.
A nessuno piacerebbe vivere in un mondo in cui i reclutatori di lavoro basati sull’intelligenza artificiale discriminano determinati gruppi o in cui i sistemi sanitari basati sull’intelligenza artificiale diagnosticano erroneamente i pazienti a causa di algoritmi distorti. Le conseguenze sono disastrose e i governi devono prendere sul serio le preoccupazioni di SELAS per garantire che l’intelligenza artificiale avvantaggi tutti, non solo i pochi privilegiati. Alcune delle raccomandazioni principali sono:
Promuovendo discussioni aperte con cittadini, esperti e leader del settore, i governi possono creare una cultura di trasparenza e fiducia, garantendo che le preoccupazioni vengano ascoltate e affrontate in modo proattivo.
I governi possono sostenere iniziative di ricerca incentrate sulla comprensione e sulla mitigazione dei rischi sociali associati all’intelligenza artificiale. Ciò include la ricerca sul rilevamento e sulla rimozione dei pregiudizi negli algoritmi, nonché sui potenziali impatti sociali dell’automazione del lavoro.
Creare framework di dati
I governi spesso sono alle prese con coloro che possiedono i dati raccolti dai sistemi di intelligenza artificiale, soprattutto quando si tratta di informazioni sui cittadini. Ciò richiede la creazione di quadri chiari sulla proprietà dei dati. Aiuterà a definire chi possiede i dati raccolti dalle agenzie governative e come possono essere utilizzati eticamente per lo sviluppo dell’intelligenza artificiale. È fondamentale perché i dati di alta qualità sono il carburante per l’intelligenza artificiale. Senza una proprietà e una governance chiare, ci sono problemi di rischio come violazioni della privacy dei dati o accesso limitato a statistiche preziose. Inoltre, i governi possono sviluppare protocolli per la condivisione sicura dei dati tra enti pubblici e privati per scopi legittimi di sviluppo dell’IA. Ciò favorisce la collaborazione salvaguardando al contempo la privacy e la sicurezza.
Educare i cittadini
La fiducia del pubblico è essenziale per il successo dell’adozione dell’intelligenza artificiale. Se i cittadini temono lo spostamento del lavoro, i pregiudizi algoritmici o la manipolazione, potrebbero opporsi all’implementazione dell’IA. Per affrontare queste preoccupazioni e garantire il consenso pubblico, i governi possono adottare tre misure chiave:
I governi possono sviluppare programmi educativi per informare i cittadini sui fondamenti dell’IA, sui suoi potenziali benefici e rischi e sulle sue applicazioni in vari settori. Ciò consente ai cittadini di partecipare in modo significativo alle discussioni sulla politica dei dati e sullo sviluppo tecnologico.
Fornendo programmi di formazione per fornire alle persone le competenze necessarie per lavorare e adattarsi alle tecnologie di intelligenza artificiale. Ciò aiuta ad affrontare le preoccupazioni relative allo spostamento dei posti di lavoro e prepara la forza lavoro per il futuro.
I governi dovrebbero garantire la trasparenza sul modo in cui i sistemi di intelligenza artificiale vengono utilizzati nei servizi pubblici. Ciò può comportare la fornitura di spiegazioni chiare su come gli algoritmi prendono decisioni e l’offerta di meccanismi di ricorso per risultati ingiusti.
Storie di successo
Nonostante le numerose sfide, esistono diversi casi di successo di implementazione dell’IA nel settore pubblico. Ciò dimostra che il progresso è realizzabile e possiamo guardare ad esempi pionieristici come guida.
L’Estonia, ad esempio, è stata pioniera del sistema di e-Government, utilizzando chatbot basati sull’intelligenza artificiale che rispondono alle domande dei cittadini e forniscono servizi personalizzati. La loro piattaforma X-Road consente lo scambio sicuro di dati tra agenzie governative e aziende. Hanno sfruttato la tecnologia blockchain per la verifica dell’identità e per educare i cittadini su come viene utilizzata l’intelligenza artificiale. Inoltre, le loro campagne di sensibilizzazione globali hanno dissipato idee sbagliate, promuovendo la fiducia del pubblico e ampliando le opportunità di business digitale globale.
Un altro esempio degno di nota è il Dipartimento dei servizi sociali della città di New York (DSS). Il DSS, avendo una quantità limitata di risorse, ha dovuto affrontare la sfida di elaborare un volume elevato di richieste per il Programma di assistenza nutrizionale supplementare (SNAP). Per risolvere questo problema, hanno implementato un chatbot online self-service con intelligenza artificiale progettato per rispondere a domande di base, guidare gli utenti e ridurre la necessità di visite di persona. Combinando la tecnologia avanzata dell’intelligenza artificiale con l’assistenza umana, il DSS di New York City è riuscito a migliorare l’erogazione dei servizi, a ridurre i tempi di elaborazione e a creare maggiore fiducia all’interno della comunità. Il sistema sottolinea che si concentra su spiegazioni chiare sulla raccolta e sull’utilizzo dei dati.
Dove iniziare
Per ottenere risultati significativi ed evitare di perdersi nelle attività di routine, è importante definire chiaramente i problemi con risultati misurabili all’inizio. L’attività dovrebbe affrontare una questione specifica e ben documentata, consentendo al progetto di dimostrare il suo impatto e la sua efficacia dopo un po’. Ad esempio, automatizzare le attività ripetitive o implementare sistemi di rilevamento delle frodi sono obiettivi chiari e misurabili. Questa chiarezza rende più semplice valutare il successo e ottenere l’approvazione per un’adozione più ampia.
Lavorando insieme e concentrandosi su obiettivi chiari, i governi nazionali e regionali possono sbloccare tutto il potenziale dell’intelligenza artificiale, affrontando le sfide e massimizzando l’impatto di questa tecnologia trasformativa.
L’articolo originale in inglese è disponibile cliccando qui
La nostra prof. Silvia Vianello ogni lunedì e giovedì condivide la sua pluriennale esperienza, le sue analisi di macroeconomia e la sua profonda conoscenza del mondo degli investimenti (con focus particolare sugli ETF) nella My Fin Academy, clicca qui per saperne di più
ATTENZIONE: gli articoli vengono realizzati unicamente a scopo informativo e didattico, e non sono in alcun caso da intendersi come consulenze finanziarie. I contenuti si basano su informazioni, dati e opinioni di pubblico dominio, che potranno cambiare nel tempo, e in ogni caso non devono essere in nessun caso considerati come consulenze finanziarie. Il lettore dovrà sempre verificare per conto proprio l’esattezza e l’attualità delle informazioni, e nel caso decidesse di investire, assumersi la piena responsabilità delle proprie azioni.
50% Complete
Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua.