Sarà il fisico teorico bocconiano Riccardo Zecchina il primo ospite dell’anno ai seminari di Biologia Computazionale dell’Università di Napoli Federico II. L’incontro, organizzato dal nascente ‘Department of Computing Sciences’ e sponsorizzato da Biogem, si svolgerà il prossimo 21 gennaio e verterà sul panorama di apprendimento nelle reti neuronali deep (profonde) e sulle loro applicazioni mediante algoritmi di apprendimento.
‘’Tra gli aspetti più sorprendenti dei modelli di apprendimento basati su reti neurali profonde – anticipa Zecchina – si può annoverare la presenza di un enorme numero di parametri e la non-convessità dello spazio delle soluzioni’’. ‘’Le attuali reti neurali profonde (DNN) sono costituite da milioni (o anche miliardi) di connessioni e il processo di apprendimento mira a minimizzare una funzione di costo non-convessa che misura il numero di errori di classificazione fatti dalla rete’’. ‘’L’evidenza empirica – precisa Zecchina- mostra che questi modelli neurali altamente predittivi possono adattarsi ai dati di training attraverso semplici varianti degli algoritmi originariamente progettati per l’ottimizzazione convessa’’.
‘’In questa lezione – annuncia infine lo stesso Zecchina – discuteremo la struttura geometrica dello spazio delle soluzioni (configurazioni a errore zero) in reti neurali non convesse sopra-parametrizzate, quando addestrate per classificare modelli estratti da distribuzioni naturali’’.