L'intelligenza artificiale per rilevare la disinformazione nel Metaverso

75836c052fae9978425dff7702567f58.jpg

Servizio comunicazione istituzionale

21 Dicembre 2021

Il Metaverso è una tecnologia di recente sviluppo, ideata come un mondo digitale immersivo dove stabilire interazioni di persona. A causa della sua recente creazione gli osservatori del settore temono che le sfide per la moderazione dei contenuti che già affliggono i social media potrebbero essere ancora più complicate in questi nuovi mondi alimentati dalla realtà virtuale e aumentata. Contenuti offensivi o fuorvianti si trovano infatti facilmente nel Metaverso, mentre sono difficili il controllo e la prevenzione della loro diffusione. Il Prof. Andrea Emilio Rizzoli, Direttore dell'Istituto Dalle Molle di studi sull'intelligenza artificiale USI-SUPSI, è stato recentemente intervistato da Bloomberg per parlare dei limiti del Metaverso e dell'uso dell'intelligenza artificiale per rilevare contenuti offensivi e disinformativi.

"Il grado in cui il Metaverso rimarrà uno spazio sicuro dipenderà in parte da come le aziende addestreranno i loro sistemi di AI per moderare le piattaforme", afferma il Prof. Rizzoli. "L'intelligenza artificiale può essere infatti addestrata a rilevare e abbattere l'incitamento all'odio e la disinformazione che i sistemi possono anche inavvertitamente amplificare".

 

Per saperne di più sul Metaverso e sulle sfide ad esso correlate, leggi l'articolo completo pubblicato da Bloomberg:
Misinformation Has Already Made Its Way to the Metaverse. Virtual worlds will be even harder to police than social media, di Jillian Deutsch, Naomi Nix e Sarah Kopit.