HomeGamblingIge 2024, intelligenza artificiale e innovazione 'armi' del gioco responsabile

Ige 2024, intelligenza artificiale e innovazione ‘armi’ del gioco responsabile

Date:

Related stories

spot_imgspot_img

Roma – L’intelligenza artificiale può rivelarsi uno strumento molto importante per il mondo del gioco, per la tutela dei giocatori, del sistema gioco, per la reputazione del settore, un mezzo in più per le aziende per mettere in campo strategie per rendere ancora più efficace l’impegno per il gioco responsabile.

Questo è lo scenario che emerge dalla tavola rotonda “Gioco responsabile, tra innovazione digitale e intelligenza artificiale” tenutasi oggi, 19 aprile, nell’ambito dell’Italian gaming expo & conference 2024 al Palazzo dei congressi di Roma, con la moderazione di Daniele Chieffi, giornalista, reputation manager, docente, Ceo di The Magician e co-founder Ailyn.

Il primo a prendere la parola è Stefano De Vita, direttore generale della Fondazione Fair, Fondazione per l’ascolto, l’innovazione e la ricerca sul gioco responsabile. “L’espressione ‘gioco responsabile’ può essere usata impropriamente o abusandone, ma diventa centrale per le aziende quando promuovono studi, ricerche, cioè le basi per prevenire il gioco eccessivo. Noi siamo l’unica fondazione che si occupa di gioco responsabile in Italia e in Europa, siamo una fondazione aperta, perché per noi è fondamentale la commistione di idee, l’apertura verso l’esterno, per evolvere come sistema industriale, anche facendo tesoro delle critiche”.

Emanuela Girardi, presidente di PopAi, che promuove un utilizzo consapevole e sicuro delle tecnologie di intelligenza artificiale in diversi ambiti, si focalizza sul ruolo della tecnologia digitale e delll’innovazione nel gioco responsabile. “L’intelligenza artificiale è un insieme di tecnologie a impatto generale e che sta trasformando tutti i settori della nostra vita e della società. Tecnologie che nel gioco responsabile possono essere molto utili, ci offrono grandi opportunità ma ci sono dei rischi connessi a utilizzi scorretti che devono essere conosciuti e mitigati. Nel gioco l’Ia può servire per identificare in modo precoce delle anomalie nei comportamenti di gioco che potrebbero trasformarsi in gioco problematico, e quindi permettere di evitare situazioni di disagio. Definendo un intervento personalizzato sulle esigenze specifiche del singolo giocatore, per consentirgli di migliorare l’esperienza di gioco o di interromperla.

Il tutto con un approccio etico, in linea con la visione dell’Unione europea di un’IA affidabile – che rispetti la legge, i principi etici fondamentali dell’Ue (cioè quelli di rispettare l’autonomia dell’uomo, non nuocergli, garantire l’equità di trattamento, e la spiegabilità)- e antropocentrica, per migliorare la qualità di vita dell’uomo”.

 

Stefano Mainetti, co-direttore Osservatorio cloud trasformation School of management del Politecnico di Milano, rileva che “ci sono anche altri strumenti per il gioco responsabile. “Tenendo conto delle nuove abitudini di gioco portate dalla pandemia, con l’ascesa dell’online, ci sono molte più tracce digitali che ogni giocatore lascia, molto più collegate alla tecnologia. L’Ia ha portato salto di paradigma, superando le capacità cognitive dell’umano, con un potenziale dirompente che avrà un impatto significativo. Per questo l’Ia può essere utile per identificare pattern precoci di giocatori a rischio, che come tali possono essere allertati con un pop up, o può rendere i giochi di limitarsi quando diventano dannosi per l’utente. Poi ci vogliono leggi per poter intervenire sulla singola persona e la sua famiglia”.

 

Maurizio Benzi, head of digital strategy di Casaleggio Associati, oltre a richiamare gli scenari del gioco e del gioco responsabile vengono più impattati dalla tecnologia, ricorda che “il mondo del gambling è sempre stato in largo anticipo sui tempi”, riscontrando però una maggiore “lentezza sul tema del gioco responsabile e sull’impatto reale sulle attività”.

E avverte della necessità di usare bene l’innovazione, scappando “dalla logica della taglia unica, con la stessa risposta per tutti, per andare verso la personalizzazione, dando risposte differenti da persona a persona. Si devono costruire comunicazioni personalizzate, cosa che non era possibile in passato, ascoltare le persone e dare risposte tramite l’innovazione, creare nuove logiche”.

Che ruolo ha la comunicazione e in che modo si lega all’innovazione?

Per Benzi ha un impatto chiave: “Bisogna comunicare alle persone nel modo giusto, non per educarle ma per ispirarle, con un coinvolgimento attivo si può costruire una strategia di gioco responsabile di successo.

Grazie al riordino ci saranno delle attività obbligatorie di comunicazione per gli operatori di gioco, può aprirsi un nuovo mondo, una nuova cultura del gioco responsabile, un nuovo modo di comunicare il gioco e i comportamenti delle persone, ma potrebbe anche non esserci alcun vero cambiamento.

Sperò che la Fondazione Fair avrà un ruolo anche per definire questi percorsi di comunicazione”.

 

Qual è il ruolo dei dati in questo scenario, si andrà verso modelli che analizzano i comportamenti o li prevedono?

Per Mainetti il tema dei dati è fondamentale: “Ci sono dei modelli pre-allenati, generalisti, che rispondono su base statistica, ma noi vogliamo fare di più, riuscire ad avere comportamenti predittivi tratte da informazioni misurate dai dati.

I dati in genere sono demografici, di possesso di ogni singolo giocatore e vanno analizzati con le giuste autorizzazioni, che devono essere date da chi fa le norme.

Sull’utilizzo dei dati personali ci sono delle tendenze in atto, ma per ora si agisce solo a macchia di leopardo, non in modo sistemico.

Addestrare modelli predittivi permette di avere un comportamento più consapevole ma non deve avere falle, per questo è fondamentale scambiare dati fra operatori, con il coinvolgimento di chi gestisce i pagamenti digitali”.

 

De Vita rimarca ancora ancora una volta quanto sia “necessario studiare per alimentare tali strumenti. Ma partendo dall’osservazione della realtà, dalla comprensione dei comportamenti umani e alimentando i modelli sulla base di questo.

L’offerta di gioco deve diventare molto più vicina alle necessità delle persone che a quelle del business.

Noi come Fondazione partiamo da una serie di studi che uniscono ‘l’anima psicologica’ che è caratteristica delle ricerche al modello di intelligenza artificiale, con il fine di portare le persone a giocare secondo il loro tempo, l’abilità, la disponibilità di spesa.

Guardare alla realtà dei fatti è fondamentale per affrontare davvero il problema e proporre un’offerta di gioco più vicina alle necessità delle persone”.

 

Sulla regolamentazione interviene Girardi: “Probabilmente con il prossimo Parlamento europeo ci sarà il superamento del Gdpr che oggi non permette di utilizzare dati se non per un uso specifico e quindi non consentirebbe l’uso dell’Ia.

Attualmente a regolare lo sviluppo delle innovazioni tecnologiche a livello europeo ci sono l’Ai act, recentemente approvato, il data act, il digital service act, il digital marketing act. Per me il maggiore impatto lo ha l’Ai act, molto innovativo, perché divide tutti i sistemi di intelligenza artificiale in quattro categorie in base al rischio di violare i diritti umani fondamentali: alto, con il bisogno di certificazione per l’immissione nell’Unione europea; medio, che chiede solo requisiti di trasparenza come chat bot con cui ci troviamo a interagire; basso, per il quale servirà solo un codice di condotta.

Quasi tutti i sistemi di gioco saranno ritenuti ‘ad alto rischio’, perciò sarà necessaria una certificazione onerosa per poter soddisfare tutti i requisiti, però è un’opportunità: se si seguono certi requisiti già in fase di progettazione, i sistemi che verranno immessi sul mercato saranno ‘responsabili’, tutelando gli esseri umani, per consentirgli di prendere decisioni in modo affidabile”.

Parlando di protezione dei giocatori, Benzi evidenzia l’importanza di proteggere i giocatori dalle conseguenze negative del gioco creando un ambiente sicuro, attraverso autoesclusione, autovalutazione, limiti di deposito. “Ma con l’uso delle nuove tecnologie si deve un cambio di mind set, puntando su messaggi di avvertimento, progettazione dei giochi, dinamiche predittive”.

Si potrebbe seguire quanto fatto da instagram, che ha inserito “un promemoria notturno per i minorenni, che ricevono alert ogni 10 minuti che li obbligano a interrompere l’utilizzo del social media, per ottenere una sostenibilità della piattaforma nel lungo periodo”.





- Never miss a story with notifications

- Gain full access to our premium content

- Browse free from up to 5 devices at once

Latest stories

spot_img