l’insurtech Lemonade ha corretto il tiro, ribadendo di non usare l’intelligenza artificiale per negare le richieste o la copertura in base alle caratteristiche di una persona. Questo dopo che un “tweet” non proprio felicemente formulato ha attirato accese critiche e scatenato un vero e proprio polverone online.
Ai clienti che presentano richieste di risarcimento viene chiesto di fare dei video per spiegare l’accaduto e nel suo tweet la compagnia con sede a New York ha detto che quelle registrazioni vengono analizzate dall’intelligenza artificiale per sventare le frodi “cogliendo spunti non verbali che gli assicuratori tradizionali non possono”. Questo ha portato a un’ondata di tweet che accusano l’azienda di discriminazione basata sulla razza e altre caratteristiche.
“Azioni come il rifiuto dei reclami o l’annullamento delle polizze” non è mai fatto dall’IA, ha sottolineato Lemonade dopo aver cancellato il tweet iniziale.
L’errore di Lemonade arriva mentre le tech sono sotto esame per il loro trattamento delle donne e delle minoranze. L’intelligenza artificiale è stata criticata da coloro che dicono che è soggetta ai pregiudizi introdotti dalle persone che la programmano e la implementano.