L’intelligenza artificiale è una tecnologia che offre molte possibilità per facilitare e semplificare il lavoro nelle vendite. Supporta il lavoro di routine, mentre l’intermediario può concentrarsi sulla consulenza più complessa e sull’attività di mediazione vera e propria. I sistemi di generazione di testi, ad esempio, possono aiutarli a creare in modo efficiente mail e lettere. I chatbot possono gestire la comunicazione iniziale con i clienti, fornire consulenza ai clienti standard, rispondere alle domande e aiutarli a compilare vari moduli.
L’intelligenza artificiale si presta anche all’analisi predittiva. In questo caso, è in grado di riconoscere gli schemi e di fare riferimento a eventi probabili; ad esempio, nel caso di clienti che stanno valutando la possibilità di recedere dal contratto. L’intermediario può quindi rivolgersi a questi clienti con offerte interessanti.
Ma nonostante l’euforia per le opportunità e le possibilità, sorgono delle domande: gli intermediari sono autorizzati a farlo? Che cosa hanno da dire le autorità di regolamentazione? E quali ulteriori misure dovrebbero essere prese in considerazione quando si utilizza l’intelligenza artificiale?
In effetti, il quadro normativo sul tema dell’intelligenza artificiale è ancora piuttosto limitato. In Germania l’Autorità federale tedesca di vigilanza finanziaria (Bafin) ha emanato delle linee guida sull’uso dell’IA nelle banche e nelle assicurazioni, ma gli intermediari assicurativi non sono soggetti al suo controllo.
Ne parla approfonditamente il consulente IT Christian Nölke sul Versicherung Journal.
L’UE sta discutendo un regolamento sull’IA, ma il progetto è ancora in fase di procedura interna. Al momento è difficile prevedere se, quando e con quali contenuti arriverà un regolamento.
Anche il Regolamento generale sulla protezione dei dati contiene specifiche che devono essere prese in considerazione quando si utilizza l’IA. Fondamentalmente, è necessario distinguere due aree di utilizzo dell’IA, che possono avvenire singolarmente, ma anche in combinazione:
- Addestramento di un proprio modello di IA con dati esistenti,
- utilizzo di un modello di IA con nuovi dati.
Per l’addestramento di un modello proprio, il GDPR stabilisce alcuni limiti. Tutti i dati personali che l’intermediario ha ricevuto dai clienti sono soggetti alla limitazione delle finalità. Sono stati consegnati per poter fare un’offerta ottimale su questa base. Pertanto, non possono essere utilizzati automaticamente anche per addestrare modelli.
Dal punto di vista dell’intermediario, tuttavia, è necessario fornire dati di qualità e quantità sufficienti a garantire il successo dell’addestramento del modello. Le vie d’uscita sono l’anonimizzazione dei dati, la richiesta di consenso al cliente o l’utilizzo dei dati per “interesse legittimo”.
È molto più facile utilizzare un modello di IA se viene solo acquistato e non addestrato con i propri dati. In questo caso, occorre prestare particolare attenzione a proteggere i clienti da decisioni puramente automatizzate.
Se il cliente sta comunicando con un’IA e non con un vero e proprio consulente, deve esserne informato all’inizio dell’interazione.
Quando si utilizza l’intelligenza artificiale, gli intermediari devono adottare misure per garantirne il corretto funzionamento. Anche se il modello è dotato di “intelligenza”, l’operatore è responsabile dei risultati del modello.
Pertanto, il modello di intelligenza artificiale deve essere testato regolarmente, soprattutto se impara da solo attraverso gli input. I risultati soddisfano ancora le aspettative? Si sono verificati cambiamenti (distorsioni) che hanno portato a risultati indesiderati? Ci sono stati eventi che hanno portato a cambiamenti nei dati o nell’uso dell’IA?
Se l’intermediario non addestra o gestisce direttamente il modello di IA, ma si avvale di un fornitore di servizi per farlo, si applicano gli stessi requisiti di qualsiasi altro trattamento di dati personali. La base è sempre un contratto per il trattamento commissionato, nonché misure tecniche e organizzative adeguate.
In conclusione, l’intermediario dovrebbe testare l’utilizzo dell’AI, ma avere sempre un piano B per poter continuare l’attività con soddisfazione del cliente. Ad esempio, nel caso in cui l’AI debba essere riqualificata in modo non pianificato o addirittura disattivata completamente per un certo periodo.