Secondo una ricerca firmata Trend Micro i dati biometrici rappresentano un rischio per le procedure di autenticazione in diversi scenari digitali, incluso il metaverso.
Secondo lo studio l’uso del “riconoscimento facciale” prefigura rischi più alti rispetto all’uso di password. I cybercriminali potrebbero essere in grado di utilizzare dati biometrici rubati o trapelati per ingannare i dispositivi connessi come i visori VR/AR e renderli accessibili da qualcun altro. Questo potrebbe dare il via a furti di dati, frodi, estorsioni.
Trend Micro definisce il metaverso come “un ambiente operativo immersivo-interattivo, multi-vendor e cloud distributed, in cui gli utenti possono accedere attraverso diverse categorie di dispositivi connessi”.
Gli utenti in grado di impersonare individui all’interno di questa nuova interazione del Web potrebbero accedere a qualsiasi informazione, dai conti bancari online o negozi di criptovaluta a dati aziendali altamente sensibili.
Lo studio evidenzia come i cybercriminali in futuro potrebbero essere in grado di utilizzare dati biometrici rubati o trapelati per ingannare i dispositivi connessi come i visori VR/AR e renderli accessibili da qualcun altro.
I profili utente nel metaverso possono essere un obiettivo interessante anche come preziosa fonte di dati biometrici, ad esempio i modelli dettagliati degli utenti in 3D che replicano le caratteristiche biologiche reali di una persona. In questo nuovo ambiente, due dei tre fattori tipicamente utilizzati per l’autenticazione verranno registrati con il software che mantiene il metaverso, ad esempio.
Lo studio, spiega Trend Micr, punta a favorire il dialogo nella comunità IT e della security su come evitare questi rischi potenziali. Enormi volumi di dettagli biometrici, inclusi modelli di viso, voce, iride, palmo e impronte digitali, sono già stati esposti online con una qualità sufficientemente elevata da ingannare i sistemi di autenticazione. Oltre ad aiutare i cybercriminali a bypassare i controlli di autenticazione, i dati biometrici trapelati o rubati potrebbero anche aiutare a creare modelli deepfake in massa.
Fonte: Corcom