Facebook individua i Suicidi con l’Intelligenza Artificiale

Facebook individua i Suicidi con l’Intelligenza Artificiale

I suicidi in diretta Facebook fanno male agli affari. Aumentano la pressione dell’opinione pubblica sul social network. Riducono l’indice di felicità degli altri utenti. Finiscono per abbassare qualità e quantità del pubblico. Ecco perchè Facebook usa l’intelligenza artificiale per prevenire i suicidi. L’IA scansiona i newsfeed e si tiene pronta ad allertare i soccoritori per evitare il peggio. Ma le norme UE vietano la profilazione psicologica. Chi deve valutare la tua salute emotiva?

L’IA di Facebook alla Ricerca di Suicidi

Da parecchio tempo Facebook testa sistemi di preallarme per individuare i potenziali suicidi. Ora il metodo adottato negli USA verrà espanso ad altre nazioni. Il fulcro di tutto è un’IA appositamente addestrata. L’intelligenza artificiale andrà a scandagliare post e live streaming per individuare i pattern tipici che preannunciano il gesto estremo. Negli USA il metodo ha funzionato bene ma non perfettamente e ci sono alcuni falsi positivi. Secondo l’annuncio ufficiale basta che qualche amico ti offra il suo aiuto per innescare un controllo. Infatti i messaggi del tipo “stai bene?” e “hai bisogno?” vengono considerati come campanelli di allarme. Ora sai cosa fare la prossima volta che un tuo amico dovesse cercare aiuto per un trasloco: offrigli una mano tramite Facebook e vedrete comparire solerti assistenti inviati dall’IA.

Intelligenza Artificiale per Ridurre i Suicidi

L’Europa Rimane Esclusa

L’Unione Europea ha leggi stringenti che proteggono gli utenti da ogni tipo di profilazione. Quindi il sistema ideato da Facebook non può essere applicato ai cittadini UE. Prima di lamentarti tieni in considerazione che queste leggi ti proteggono dalla profilazione pubblicitaria. Sei sicuro di voler autorizzare Facebook a scandagliare i tuoi stati emotivi? I social network sono agenzie pubblicitarie. Questa IA è in grado di prevedere lo stato emotivo del pubblico. Il sogno di qualunque pubblicitario. Ammettiamolo: quando sei a terra la torta al cioccolato è irrinunciabile; quando splende il sole persino l’iscrizione in palestra sembra un’ottima idea. E’ difficile resistere ad un annuncio pubblicitario calibrato sul tuo stato emotivo.
Ci sono anche altri rischi da tenere in considerazione. Le fughe di dati sono ormai all’ordine del giorno e chiunque potrebbe entrare in possesso della tua valutazione emotiva. Potrebbero negarti il mutuo perchè risulti avere tendenze suicide. Potresti non riuscire a trovare lavoro perchè un algoritmo ti ritiene depresso. In passato ci sono già stati casi simili. La Admiral calibrava le polize assicurative studiando il profilo Facebook dei clienti.

Lasciar Fare ai Professionisti

L’idea di usare l’IA per aiutare è magnifica. Ma perchè deve essere Facebook a farlo? Perchè un’azienda privata dovrebbe mettersi a dare assistenza psicologica gratuita? Esistono enti pubblici appositi che possono occuparsene. Gli stati civili hanno strutture sociali addette all’aiuto dei casi critici. Modernizzare questi enti dovrebbe essere l’obbiettivo invece di lasciare l’ordine pubblico ad una società privata. Così come Facebook può applicare un’IA, anche l’ente statale può farlo. Soprattutto ora che molti tool di IA sono gratis per gli sviluppatori. Valendosi della propria esperienza l’ente pubblico potrebbe ottenere risultati migliori.

/ 5
Grazie per aver votato!

Pubblicato da DoDo

Sono Dodo lavoro nel mondo dell'informatica ed ho studiato all'Università MFN di Torino.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *