07 • 08 • 2020

                                                                                                                                                                                                                                                    10 luglio, 2020

Uno dei principali punti deboli del deep learning è la sua vulnerabilità agli attacchi esterni volti a manipolare il sistema. Quando questo si inserisce in un ambiente di intelligenza artificiale, elementi che generalmente sembrano causali o poco importanti all’occhio umano possono determinare il fallimento di interi progetti: uno sticker apposto su un segnale di stop, per esempio, può ingannare il sistema delle auto a guida autonoma. Proprio per questo un team di ricercatori del MIT e della University of Illinois stanno studiando un nuovo metodo in grado di migliorare la tecnologia di deep-learning e renderla più affidabile anche in scenari delicati o potenzialmente fuorvianti. I risultati ottenuti fino ad ora ottenuti non sono ancora perfetti, e le metodologie devono essere rifinite. La versione finale del progetto sarà presentata alla International Conference on Machine Learning, che si svolgerà virtualmente dal 12 al 18 luglio 2020.

Per approfondire clicca qui