L’intelligenza artificiale sbaglia su diverse previsioni, va usata con cautela

Si rivelano errori su dati come i voti a scuola o la situazione finanziaria. L’università di Princeton invita a usare in maniera corretta l’intelligenza artificiale.

intelligenza artificiale

Arrivano nuove valutazioni per quel che è l’uso che si fa dell’intelligenza artificiale. Uno studio è stato condotto in questi giorni dai cervelloni dell’università di Princeton. Questo studio è stato anche ripreso e pubblicato nell’ultimo numero della rivista Pnas. Da qui si ricava un aspetto abbastanza importante sull’utilizzo dell’intelligenza artificiale. Questa, infatti, commette ancora diversi errori in fase di previsioni di alcuni aspetti della vita quotidiana degli umani. Per questo motivo, gli studiosi invitano a usare con una certa cautela la Q.I.

Si parla in particolare di previsioni come l’andamento di un ragazzo a scuola oppure la situazione finanziaria di una famiglia. Da qui i ricercatori di Princeton hanno invitato a modulare l’utilizzo dell’intelligenza artificiale nei vari ambiti della vita delle persone. Centinaia di esperti si sono visti recapitare una richiesta proprio dagli autori dello studio universitario. Si tratta di sei parametri da utilizzare per predire l’andamento della vita di un bambino. Si oscilla tra i voti a scuola ai rischi di povertà della famiglia in cui si trova.

Leggi anche -> Coronavirus, Boschi: governo al lavoro sul bonus 500 euro per vacanze in Italia

Leggi anche -> Coronavirus, a Wuhan rischio di rimbalzo pandemia resta alto

Alice Xiang, una delle autrici dello studio – meteoweek.com

Così, con l’utilizzo di ben 13mila dati, è stata condotta una ricerca su 4mila famiglie. Questa ricerca è stata condotta tra il 1998 e il 2000, per quello che è stato definito un set di alta qualità. Da qui sono stati elaborati i risultati dell’intelligenza artificiale con quelle che sono le situazioni avvenute nella realtà. Nessuno dei ricercatori è riuscito ad avvicinarsi a una accuratezza accettabile nelle predizioni effettuate attraverso l’uso dell’intelligenza artificiale. Dunque in questo caso, l’esperimento è stato condotto nella direzione di dimostrare la fallacità di buona parte delle previsioni fatte.

Alice Xiang, uno degli autori dello studio condotto a Princeton, ha esortato dunque all’uso più accorto dell’intelligenza artificiale. “Questo studio sottolinea con forza l’idea che alla fine questi strumenti non sono ‘magici’, ma il risultato non è così sorprendente. Anche l’algoritmo più accurato usato nella giustizia ad esempio ha al massimo il 60-70% di accuratezza. Questo vuol dire che il rischio che una persona commenta di nuovo un reato potrebbe essere inferiore al 40%”.