/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Una app basata sull'IA valuterà i rischi di cyberblullismo

Una app basata sull'IA valuterà i rischi di cyberblullismo

All'Università di Padova finanziamento di 230mila euro

PADOVA, 27 marzo 2024, 14:03

Redazione ANSA

ANSACheck

Una app basata sull 'IA valuterà i rischi di cyberblullismo - RIPRODUZIONE RISERVATA

Un finanziamento di 230mila euro è stato assegnato al progetto "Net Guardian", una applicazione sviluppata dall'Università di Padova insieme a Fondazione Carolina Onlus, con risorse di Fondazione Tim tramite il bando Call for Ideas-Ricerca e Istruzione. Il progetto, avviato a febbraio e che si concluderà a giugno 2025, punta a sviluppare una app a disposizione di studenti, servizi scolastici e associazioni, basata su un modello di Intelligenza Artificiale in grado di misurare l'esposizione al rischio di violenze on line nelle conversazioni digitali.

    Prevede l'individuazione e la classificazione dei rischi su tutte le piattaforme di messaggistica, per attivare interventi mirati in base alla gravità dell'aggressione verbale rilevata, valutando il linguaggio utilizzato su una scala da 1 a 10, dal minimo al massimo rischio. L'algoritmo di Machine Learning per l'analisi automatizzata del testo utilizza il modello di Deep Learning "Bert" di Google.

    "Se il valore - spiega Gian Piero Turchi, coordinatore del progetto - oscilla tra 1 e 3 (basso rischio) verrà chiesto allo user di continuare ad inserire nell'App le successive conversazioni; se il valore è tra 4 e 7 (medio rischio) si consiglia allo user di prendere contatti con i servizi del territorio; se il valore è superiore a 7 si avvisa lo user che verrà contattato da una task force di cyberbullismo".
    Partner chiave del progetto è Fondazione Carolina, dedicata a Carolina Picchio, prima vittima riconosciuta in Italia di cyberbullimso, impegnata dal 2018 per il benessere digitale delle nuove generazioni. 
   

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza