L’intelligenza artificiale (IA) sta rivoluzionando anche il comparto assicurativo, un ambito particolarmente congeniale per le sue potenzialità. Le applicazioni di IA promettono infatti di migliorare l’efficienza operativa, ottenere una personalizzazione sempre più mirata dei
servizi, creare nuove opportunità di business. Tuttavia, come concordano tutti, l’adozione dell’IA solleva anche punti critici legati all’etica, alla regolamentazione e alla protezione dei consumatori, accrescendo i rischi di discriminazione, eccessiva personalizzazione e minore
mutualizzazione delle coperture, ridotta accountability e violazioni della privacy.

Su questo tema è intervenuto il segretario generale IVASS Stefano De Polis, in occasione del Convegno Banca d’Italia Milano e ANSPC: “Intelligenza artificiale e mondo finanziario: quali applicazioni, quali implicazioni”, che si è tenuto a Milano lo scorso 9 ottobre.

Il mercato italiano è in una fase esplorativa e si sta confrontando con importanti evoluzioni normative – tra le quali l’adozione dell’AI Act – che richiederanno adattamenti di compliance. In questa fase la supervisione dell’uso dell’IA da parte di compagnie e intermediari, deve essere indirizzata a tutelare la fiducia dei consumatori e il buon andamento del mercato assicurativo, indicando chiari limiti pur non scoraggiando l’innovatività e favorendo la formazione delle competenze necessarie per trarre vantaggio collettivo dalle nuove tecnologie.

L’IA – sottolinea De Polis – apre nuove strade per ridurre il protection gap, anche rendendo assicurabili soggetti poco conosciuti o con una limitata storia assicurativa. Ma non bisogna tralasciare l’altra faccia della medaglia: i potenziali rischi da governare.  L’IA potrebbe
determinare l’esclusione di alcune persone o gruppi di persone con profili di rischio atipici,
individuati dagli algoritmi e valutati troppo rischiosi in base all’analisi dei dati. A questo si
aggiunge il caso – noto in letteratura – di algoritmi addestrati su dati che contengono
pregiudizi, che possono perpetuare o anche amplificare i bias presenti nei dati utilizzati o
nei modelli di valutazione generati dall’IA, portando pertanto a decisioni discriminatorie.
Da qui la necessità di rafforzare la consapevolezza degli utilizzatori professionali dei sistemi
di IA, imprese ed intermediari (c.d. deployer), e la trasparenza a tutela dei clienti finali.

Quanto alla trasparenza, la normativa europea di recente adozione prevede che qualsiasi
persona incisa negativamente – in termini di salute, sicurezza o diritti fondamentali – da un
sistema di IA ad elevato rischio ha il diritto di ottenere dal deployer spiegazioni chiare e
significative sul ruolo avuto dall’IA nella procedura e nei principali elementi della decisione
adottata e, in mancanza, può presentare reclamo alle Autorità competenti. Tale previsione
pone chiaramente sfide significative per la regolamentazione e la protezione dei
consumatori da parte delle future Autorità competenti, chiamate a vigilare sull’applicazione
delle nuove regole con riferimento a modelli complessi e, a volte, con una limitata
“spiegabilità”.

Inoltre, l’uso intensivo dei dati personali comporta rischi per la privacy, specie laddove le informazioni personali siano soggette a trattamenti opachi e non autorizzati dal consumatore.

Con l’approvazione del AI Act in Europa si avvia una nuova fase della regolamentazione dello sviluppo e dell’utilizzo dei sistemi di intelligenza artificiale. La normativa nazionale, al momento in discussione al Senato, dovrà individuare le Autorità di vigilanza competenti a
monitorare la corretta applicazione del Regolamento europeo, fornire linee guida al
mercato e intervenire all’occorrenza a protezione dei consumatori e della stabilità del
sistema. L’IVASS fornirà a questo proposito piena collaborazione alle altre autorità competenti sui temi dell’IA e manterrà il confronto con le imprese per attuare un quadro normativo coordinato e incentivare buone pratiche.

Nelle more dell’applicazione del regolamento e venendo incontro a sollecitazioni del
mercato, IVASS sta lavorando con EIOPA per: specificare i requisiti e obblighi previsti nell’AI Act per il settore assicurativo e applicabili anche ai sistemi non ad elevato rischio;
contribuire ad individuare quali sistemi rientrino nella categoria ad elevato rischio; promuovere un approccio condiviso a livello europeo nella vigilanza dei sistemi di IA in uso
nel settore assicurativo. Un quadro applicativo armonizzato a livello di mercato europeo è
fondamentale per assicurare adeguati standard nei diversi Paesi e per assicurare il
necessario level playing field.

È importante – conclude De Polis – oggi lavorare per assicurare una piena sostanziale compliance alle nuove norme, definendo i programmi di investimento per integrare l’IA nei processi, i relativi costi e gli skill professionali e manageriali necessari.

Per costruire un clima di fiducia e trasparenza nel settore andrebbero favorite strategie di
comunicazione volte a chiarire ai consumatori le possibili modalità di utilizzo dei sistemi di IA nel settore assicurativo, creando materiali educativi accessibili, evidenziando i vantaggi per il consumatore delle nuove tecnologie. Anche le reti degli agenti dovranno essere formate per essere pronte a rispondere alle domande dei clienti e spiegare l’impatto dell’IA sulle polizze. A garanzia della qualità e dell’imparzialità delle informazioni fornite ai clienti si possono ipotizzare forme di collaborazione con le Associazioni dei consumatori e più in generale incoraggiare il feedback dei clienti.